Del via


Prisscenario ved hjelp av Dataflyt gen2 for å laste inn 2 GB parquetdata til en Lakehouse-tabell

I dette scenarioet ble Dataflow Gen2 brukt til å laste inn 2 GB parquetdata lagret i Azure Data Lake Storage (ADLS) Gen2 til en Lakehouse-tabell i Microsoft Fabric. Vi brukte NYC Taxi-grønne eksempeldata for Parquet-dataene.

Prisene som brukes i eksemplet nedenfor, er hypotetiske og har ikke til hensikt å antyde nøyaktig faktiske priser. Dette er bare for å demonstrere hvordan du kan beregne, planlegge og administrere kostnader for Data Factory-prosjekter i Microsoft Fabric. Siden stoffkapasiteten er priset unikt på tvers av områder, bruker vi prissettingen for en Fabric-kapasitet på US West 2 (et typisk Azure-område) på USD 0,18 per CU per time. Se her til Microsoft Fabric – Priser for å utforske andre prisalternativer for fabric-kapasitet.

Konfigurasjon

Hvis du vil utføre dette scenarioet, må du opprette en dataflyt med følgende fremgangsmåte:

  1. Initialiser dataflyt: Hent 2 GB Parquet-filer fra ADLS Gen2-lagringskonto.
  2. Konfigurer Power Query:
    1. Gå til Power Query.
    2. Kontroller at alternativet for oppsamling av spørringen er aktivert.
    3. Fortsett for å kombinere parquet-filene.
  3. Datatransformasjon:
    1. Hev topptekster for klarhet.
    2. Fjern unødvendige kolonner.
    3. Juster kolonnedatatyper etter behov.
  4. Definer mål for utdata:
    1. Konfigurer Lakehouse som mål for datautdata.
    2. I dette eksemplet ble et Lakehouse i Fabric opprettet og benyttet.

Kostnadsberegning ved hjelp av Fabric Metrics App

Screenshot showing the duration and CU consumption of the job in the Fabric Metrics App.

Screenshot showing details of Dataflow Gen2 Refresh duration and CU consumption.

Screenshot showing details of SQL Endpoint Query duration and CU consumption used in the run.

Screenshot showing details of Warehouse Query and OneLake Compute duration and CU consumption used in the run.

Screenshot showing details of Query and Dataset On-Demand Refresh duration and CU consumption and SQL Endpoint Query used in the run.

Screenshot showing details of a second Query and Dataset On-Demand Refresh duration and CU consumption used in the run.

Screenshot showing details of OneLake Compute and 2 High Scale Dataflow Compute duration and CU consumption used in the run.

Dataflytdatabehandlingsmåleren med høy skala registrerte ubetydelig aktivitet. Standard beregningsmåler for oppdateringsoperasjoner for dataflyt gen2 bruker 112 098,540 databehandlingsenheter (CUer). Det er viktig å tenke på at andre operasjoner, inkludert Lagerspørring, SQL Endpoint Query og Oppdatering av datasett ved behov, utgjør detaljerte aspekter ved implementering av Dataflyt Gen2 som for øyeblikket er gjennomsiktige og nødvendige for sine respektive operasjoner. Disse operasjonene skjules imidlertid i fremtidige oppdateringer og bør ignoreres ved beregning av kostnader for Dataflyt gen2.

Merk

Selv om den rapporteres som en metrikkverdi, er ikke den faktiske varigheten av kjøringen relevant når du beregner de effektive CU-timene med Fabric Metrics App siden CU-sekunders måleverdien den også rapporterer allerede står for varigheten.

Metric Standard Compute Høyskala databehandling
Totalt antall CU-sekunder 112 098,54 CU sekunder 0 CU sekunder
Effektive CU-timer fakturert 112 098,54 / (60*60) = 31,14 CU-timer 0 / (60*60) = 0 CU timer

Totale kjørekostnader på KR 0,18/CU-time = (31,14 CU-timer) * ($0,18/CU-time) ~= KR 59,00