Freigeben über


Preisszenario mit einer Pipeline zum Laden von 1 TB CSV-Daten in eine Lakehouse-Tabelle

In diesem Szenario wurde eine Kopieraktivität in einer Pipeline verwendet, um 1 TB CSV-Daten zu laden, die in Azure Data Lake Storage (ADLS) Gen2 in eine Lakehouse-Tabelle in Microsoft Fabric gespeichert sind.

Die im folgenden Beispiel verwendeten Preise sind hypothetisch und beabsichtigen nicht, genaue tatsächliche Preise zu impliziert. Dies ist nur zu veranschaulichen, wie Sie Kosten für Data Factory-Projekte in Microsoft Fabric schätzen, planen und verwalten können. Da Fabric-Kapazitäten in allen Regionen einmalig berechnet werden, verwenden wir die Pay-as-you-go-Preise für eine Fabric-Kapazität in US West 2 (eine typische Azure-Region) bei 0,18 $ pro CU pro Stunde. Weitere Optionen für die Preise der Fabric-Kapazität finden Sie in Microsoft Fabric - Preisgestaltung .

Konfiguration

Um dieses Szenario zu erreichen, müssen Sie eine Pipeline mit der folgenden Konfiguration erstellen:

Screenshot der Konfiguration einer Pipeline, die CSV-Daten in eine Lakehouse-Tabelle kopiert.

Kostenschätzung mithilfe der Fabric-Metrik-App

Screenshot, der die Dauer und den CU-Verbrauch des Auftrags in der Fabric Metrics App zeigt.

Der Datenverschiebungsvorgang nutzte 282.240 CU-Sekunden mit einer Dauer von 763,78 Sekunden (12,73 Minuten), während der Aktivitätsausführungsvorgang null war, da keine Nichtkopienaktivitäten in der Pipeline ausgeführt wurden.

Hinweis

Obwohl als Metrik gemeldet, ist die tatsächliche Dauer der Ausführung bei der Berechnung der effektiven CU-Stunden mit der Fabric Metrics App nicht relevant, da die CU-Sekundenmetrik die Dauer bereits berücksichtigt.

Metric Datenverschiebungsvorgang
CU-Sekunden 282.240 CU-Sekunden
Effektive CU-Stunden (282.240) / (60*60) CU-Stunden = 78,4 CU-Stunden

Gesamtlaufkosten bei 0,18 $ / CU-Stunde = (78,4 CU-Stunden) * ($0,18/CU-Stunde) ~= $14,11