Anteckning
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
I det här scenariot användes en kopieringsaktivitet i en pipeline för att läsa in 1 TB Parquet-data som lagras i Azure Data Lake Storage (ADLS) Gen2 till en Lakehouse-tabell i Microsoft Fabric.
Priserna som används i följande exempel är hypotetiska och avser inte att innebära exakta faktiska priser. Dessa är bara för att visa hur du kan beräkna, planera och hantera kostnader för Data Factory-projekt i Microsoft Fabric. Eftersom Fabric-kapaciteter är unikt prissatta i olika regioner använder vi prisstrukturen betala per användning för en Fabric-kapacitet i regionen US West 2 (en typisk Azure-region) till 0,18 USD per CU per timme. Mer information finns i Microsoft Fabric – Prissättning för att utforska andra alternativ för Fabric-kapacitetsprissättning.
Konfiguration
För att åstadkomma det här scenariot måste du skapa en pipeline med följande konfiguration:
Kostnadsuppskattning med hjälp av fabric Metrics-appen
Dataförflyttningsåtgärden använde 291 960 CU-sekunder med en varaktighet på 810,16 sekunder (13,5 minuter) medan aktivitetskörningen var null eftersom det inte fanns några icke-kopieringsaktiviteter i pipelinekörningen.
Note
Även om den rapporteras som ett mått är den faktiska varaktigheten för körningen inte relevant när du beräknar de effektiva CU-timmarna med Fabric Metrics-appen eftersom CU-sekundersmåttet som det också rapporterar redan står för dess varaktighet.
| Metrisk | Dataförflyttningsåtgärd |
|---|---|
| CU-sekunder | 291 960 CU-sekunder |
| Effektiva CU-timmar | (291 960) / (60·60) CU-timmar = 81,1 CU-timmar |
Total körningskostnad på $0.18/CU timme = (81.1 CU-timmar) * ($0.18/CU timme) ~= $14.60