Dela via


Prisscenario med Dataflow Gen2 för att läsa in 6 GB CSV-data till en Lakehouse-tabell med Snabbkopiering aktiverat

I det här scenariot användes Dataflow Gen2 för att läsa in 6 GB CSV-data till en Lakehouse-tabell i Microsoft Fabric.

Priserna som används i följande exempel är hypotetiska och avser inte att innebära exakta faktiska priser. Dessa är bara för att visa hur du kan beräkna, planera och hantera kostnader för Data Factory-projekt i Microsoft Fabric. Eftersom Infrastrukturkapaciteter är unikt prissatta mellan regioner använder vi prissättningen betala per användning för en Infrastrukturkapacitet i USA, västra 2 (en typisk Azure-region) till 0,18 USD per CU per timme. Se Microsoft Fabric – Priser för att utforska andra prisalternativ för Infrastrukturkapacitet.

Konfiguration

För att åstadkomma det här scenariot måste du skapa ett dataflöde med följande steg:

  1. Börja med att ladda upp 6 GB CSV-filer från din ADLS Gen2-miljö till dataflödet.
  2. Konfigurera Power Query för att kombinera CSV-filerna.
  3. Ange Lakehouse som datautdatamål.
  4. Aktivera funktionen Snabbkopiering.

Kostnadsuppskattning med hjälp av fabric Metrics-appen

Åtgärden Dataflow Gen2 Refresh förbrukade nästan 4 minuter med 3 696 CU-sekunder på Dataflöde Gen2-uppdatering och 5 448 CU-sekunder vid dataflytt.

Kommentar

Även om den rapporteras som ett mått är den faktiska varaktigheten för körningen inte relevant när du beräknar de effektiva CU-timmarna med Fabric Metrics-appen eftersom CU-sekundersmåttet som det också rapporterar redan står för dess varaktighet.

Mått Beräkningsförbrukning
Dataflöde Gen2 Uppdatera CU-sekunder 3 696 CU-sekunder
Cu-sekunder för dataflytt 5 448 CU-sekunder

Total körningskostnad på $0.18/CU timme = (3.696 + 5.448) / (60*60) CU-timmar * ($0.18/CU timme) ~= $0.46