Preisbeispiel: Datenintegration in einem verwalteten Azure Data Factory-VNET
GILT FÜR: Azure Data Factory Azure Synapse Analytics
Tipp
Testen Sie Data Factory in Microsoft Fabric, eine All-in-One-Analyselösung für Unternehmen. Microsoft Fabric deckt alle Aufgaben ab, von der Datenverschiebung bis hin zu Data Science, Echtzeitanalysen, Business Intelligence und Berichterstellung. Erfahren Sie, wie Sie kostenlos eine neue Testversion starten!
In diesem Szenario sollten Sie die ursprünglichen Dateien in Azure Blob Storage löschen und acht Stunden am Tag stündlich Daten aus Azure SQL-Datenbank in Azure Blob Storage kopieren. Wir berechnen den Preis für 30 Tage. Diese Ausführung erfolgt bei jeder Flowausführung zweimal für unterschiedliche Pipelines. Die Ausführungszeit dieser beiden Pipelines überschneidet sich.
Die in diesem Beispiel verwendeten Preise sind hypothetisch und stellen nicht die tatsächlichen genauen Preise dar. Lese-/Schreib- und Überwachungskosten werden nicht gezeigt, da sie in der Regel vernachlässigbar sind und sich nicht auf die Gesamtkosten auswirken. Aktivitätsausführungen werden bei den Schätzungen des Preisrechners zudem auf die nächsten 1.000 gerundet.
Für spezifischere Szenarien und zur Einschätzung Ihrer zukünftigen Kosten für die Nutzung des Diensts können Sie den Azure-Preisrechner verwenden.
Konfiguration
Um dieses Szenario zu realisieren, müssen Sie zwei Pipelines mit folgenden Elementen erstellen:
- Eine Pipelineaktivität – Löschaktivität.
- Eine Kopieraktivität mit einem Eingabedataset für die aus Azure Blob Storage zu kopierenden Daten.
- Ein Ausgabedataset für die Daten in Azure SQL-Datenbank.
- Einen Zeitplantrigger zum Ausführen der Pipeline. Wenn Sie eine Pipeline ausführen möchten, können Sie sie entweder sofort auslösen oder planen. Zusätzlich zur Pipeline selbst zählt jede Triggerinstanz als einzelne Aktivitätsausführung.
Kostenschätzung
Vorgänge | Typen und Einheiten |
---|---|
Ausführen der Pipeline | Sechs Aktivitätsausführungen pro Ausführung (Zwei für Triggerausführung, vier für Aktivitätsausführung) = 1440, aufgerundet, da der Rechner nur Inkremente von 1000 zulässt. |
Löschaktivität ausführen: Jede Pipelineausführungszeit pro Ausführung = 7 Min, wenn die Ausführung der Löschaktivität in der ersten Pipeline von 10:00 Uhr UTC bis 10:05 Uhr UTC erfolgt und die Ausführung der Löschaktivität in der zweiten Pipeline von 10:02 Uhr UTC bis 10:07 Uhr UTC erfolgt. | Total (7 min + 60 min) / 60 min * 30 monatliche Ausführungen = 33,5 Ausführungsstunden für Pipelineaktivitäten im verwalteten VNET. Die Pipelineaktivität unterstützt bis zu 50 gleichzeitige Ausführungen pro Knoten im verwalteten VNet. Es gibt eine für Pipelineaktivitäten eine Gültigkeitsdauer (Time To Live, TTL) von 60 Minuten. |
Datenannahme kopieren: Jede DIU-Ausführungszeit pro Ausführung = 10 Minuten, wenn die Ausführung der Kopieraktivität in der ersten Pipeline von 10:06 Uhr UTC bis 10:15 Uhr UTC erfolgt und die Ausführung der Kopieraktivität in der zweiten Pipeline von 10:08 Uhr UTC bis 10:17 Uhr UTC erfolgt. | [(10 Min. + 2 Min. (Gebühren für Warteschlangenzeit bis zu 2 Minuten)) / 60 Min. * 4 verwaltete Azure VNET-Integration Runtime (DIU-Standardeinstellung = 4)] * 2 = 1,6 tägliche Ausführungsstunden für Datenverschiebungsaktivitäten im verwalteten VNET. Weitere Informationen zu Datenintegrationseinheiten und das Optimieren der Kopierleistung finden Sie in diesem Artikel |
Beispiel für Preisrechner
Preis für das gesamte Szenario für 30 Tage: 83,50 USD
Zugehöriger Inhalt
- Preisbeispiel: Stündliches Kopieren von Daten aus AWS S3 in Azure Blob Storage für 30 Tage
- Preisbeispiel: Stündliches Kopieren und Transformieren von Daten mit Azure Databricks für 30 Tage
- Preisbeispiel: Stündliches Kopieren und Transformieren von Daten mit dynamischen Parametern für 30 Tage
- Preisbeispiel: Ausführen von SSIS-Paketen auf Azure-SSIS Integration Runtime
- Preisbeispiel: Verwenden der Debugfunktion des Zuordnungsdatenflusses für einen normalen Arbeitstag
- Preisbeispiel: Transformieren von Daten im Blob-Speicher mit Zuordnungsdatenflüssen
- Preisbeispiel: Abrufen von Deltadaten aus SAP ECC über SAP CDC in Zuordnungsdatenflüsse