Del via


Prisscenario ved hjelp av et datasamlebånd for å laste inn 1 TB parquetdata til en Lakehouse-tabell

I dette scenarioet ble en Kopier-aktivitet brukt i et datasamlebånd til å laste inn 1 TB parquetdata lagret i Azure Data Lake Storage (ADLS) Gen2 til en Lakehouse-tabell i Microsoft Fabric.

Prisene som brukes i eksemplet nedenfor, er hypotetiske og har ikke til hensikt å antyde nøyaktig faktiske priser. Dette er bare for å demonstrere hvordan du kan beregne, planlegge og administrere kostnader for Data Factory-prosjekter i Microsoft Fabric. Siden stoffkapasiteten er priset unikt på tvers av områder, bruker vi prissettingen for en Fabric-kapasitet på US West 2 (et typisk Azure-område) på USD 0,18 per CU per time. Se her til Microsoft Fabric – Priser for å utforske andre prisalternativer for fabric-kapasitet.

Konfigurasjon

Hvis du vil utføre dette scenarioet, må du opprette et datasamlebånd med følgende konfigurasjon:

Screenshot showing the configuration of a pipeline copying CSV data to a Lakehouse table.

Kostnadsberegning ved hjelp av Fabric Metrics App

Screenshot showing the duration and CU consumption of the job in the Fabric Metrics App.

Dataflyttingsoperasjonen benyttet 291 960 CU sekunder med en varighet på 810,16 sekunder (13,5 minutter) mens operasjonen for aktivitetskjøring var null siden det ikke var noen ikke-kopieringsaktiviteter i datasamlebåndkjøringen.

Merk

Selv om den rapporteres som en metrikkverdi, er ikke den faktiske varigheten av kjøringen relevant når du beregner de effektive CU-timene med Fabric Metrics App siden CU-sekunders måleverdien den også rapporterer allerede står for varigheten.

Metric Databevegelsesoperasjon
CU sekunder 291 960 CU sekunder
Effektive CU-timer (291 960) / (60*60) CU-timer = 81,1 CU-timer

Totale kjørekostnader på $0,18/CU-time = (81,1 CU-timer) * ($0,18/CU-time) ~= $14,60