Preisbeispiel: Abrufen von Deltadaten aus SAP ECC über SAP CDC in Zuordnungsdatenflüsse
GILT FÜR: Azure Data Factory Azure Synapse Analytics
Tipp
Testen Sie Data Factory in Microsoft Fabric, eine All-in-One-Analyselösung für Unternehmen. Microsoft Fabric deckt alle Aufgaben ab, von der Datenverschiebung bis hin zu Data Science, Echtzeitanalysen, Business Intelligence und Berichterstellung. Erfahren Sie, wie Sie kostenlos eine neue Testversion starten!
In diesem Szenario möchten Sie Deltaänderungen aus einer Tabelle in SAP ECC über den SAP CDC-Connector abrufen, einige erforderliche Transformationen während der Übertragung vornehmen und dann Daten täglich in Azure Data Lake Storage Gen2 in den ADF-Zuordnungsdatenfluss schreiben. Wir berechnen die Preise für die Ausführung nach dem Zeitplan einmal pro Stunde für acht Stunden über 30 Tage.
Die in diesem Beispiel verwendeten Preise sind hypothetisch und stellen nicht die tatsächlichen genauen Preise dar. Lese-/Schreib- und Überwachungskosten werden nicht gezeigt, da sie in der Regel vernachlässigbar sind und sich nicht auf die Gesamtkosten auswirken. Aktivitätsausführungen werden bei den Schätzungen des Preisrechners zudem auf die nächsten 1.000 gerundet.
Für spezifischere Szenarien und zur Einschätzung Ihrer zukünftigen Kosten für die Nutzung des Diensts können Sie den Azure-Preisrechner verwenden.
Konfiguration
Um dieses Szenario zu realisieren, müssen Sie eine Pipeline mit folgenden Elementen erstellen:
- Eine Zuordnungsdatenflussaktivität mit einem Eingabedataset für die aus SAP ECC zu ladenden Daten, der Transformationslogik und einem Ausgabedataset für die Daten in Azure Data Lake Storage Gen2.
- Eine selbstgehostete Integration Runtime, die auf den SAP CDC-Connector verweist.
- Einen Zeitplantrigger zum Ausführen der Pipeline. Wenn Sie eine Pipeline ausführen möchten, können Sie sie entweder sofort auslösen oder planen. Zusätzlich zur Pipeline selbst zählt jede Triggerinstanz als einzelne Aktivitätsausführung.
Kostenschätzung
Um Daten aus SAP ECC über den SAP CDC-Connector in den Zuordnungsdatenfluss zu laden, müssen Sie die selbstgehostete Integration Runtime auf einem lokalen Computer oder einer VM installieren, um eine direkte Verbindung zu Ihrem SAP ECC-System herzustellen. Das bedeutet, dass Ihnen sowohl die selbstgehostete Integration Runtime mit 0,10 USD/Stunde als auch der Zuordnungsdatenfluss mit der jeweiligen Preiseinheit für virtuelle Kerne/Stunde in Rechnung gestellt werden.
Angenommen, dass jedes Mal 15 Minuten für die Ausführung benötigt werden, so ergeben sich die folgenden Kostenschätzungen.
Vorgänge | Typen und Einheiten |
---|---|
Ausführen der Pipeline | Zwei Aktivitätsausführungen pro Ausführung (Eine für Triggerausführung, eine für Aktivitätsausführung) = 480, aufgerundet, da der Rechner nur Inkremente von 1000 zulässt. |
Datenfluss: Ausführungsstunden des allgemeinen Computes mit acht Kernen pro Ausführung = 15 Minuten | 15 Minuten/60 Minuten |
Selbstgehostete Integration Runtime: Ausführungsstunden für Datenverschiebung 60 pro Ausführung = 15 Minuten | 15 Minuten/60 Minuten |
Beispiel für Preisrechner
Preis für gesamtes Szenario für 30 Tage: 138,66 USD
Zugehöriger Inhalt
- Preisbeispiel: Stündliches Kopieren von Daten aus AWS S3 in Azure Blob Storage für 30 Tage
- Preisbeispiel: Stündliches Kopieren und Transformieren von Daten mit Azure Databricks für 30 Tage
- Preisbeispiel: Stündliches Kopieren und Transformieren von Daten mit dynamischen Parametern für 30 Tage
- Preisbeispiel: Ausführen von SSIS-Paketen auf Azure-SSIS Integration Runtime
- Preisbeispiel: Verwenden der Debugfunktion des Zuordnungsdatenflusses für einen normalen Arbeitstag
- Preisbeispiel: Transformieren von Daten im Blob-Speicher mit Zuordnungsdatenflüssen
- Preisbeispiel: Datenintegration in einem verwalteten Azure Data Factory-VNET