Prijsvoorbeeld: Gegevensintegratie in beheerd VNET van Azure Data Factory
VAN TOEPASSING OP: Azure Data Factory Azure Synapse Analytics
Tip
Probeer Data Factory uit in Microsoft Fabric, een alles-in-één analyseoplossing voor ondernemingen. Microsoft Fabric omvat alles, van gegevensverplaatsing tot gegevenswetenschap, realtime analyses, business intelligence en rapportage. Meer informatie over het gratis starten van een nieuwe proefversie .
In dit scenario wilt u oorspronkelijke bestanden in Azure Blob Storage verwijderen en gegevens kopiëren van Azure SQL Database naar Azure Blob Storage volgens een uurschema voor 8 uur per dag. We berekenen de prijs voor 30 dagen. U voert deze uitvoering twee keer uit op verschillende pijplijnen voor elke uitvoering. De uitvoeringstijd van deze twee pijplijnen overlapt.
De prijzen die in dit voorbeeld worden gebruikt, zijn hypothetisch en zijn niet bedoeld om exacte werkelijke prijzen te impliceren. Lees-/schrijf- en bewakingskosten worden niet weergegeven omdat ze meestal te verwaarlozen zijn en niet van invloed zijn op de totale kosten. Uitvoeringen van activiteiten worden ook afgerond op de dichtstbijzijnde 1000 in schattingen van de prijscalculator.
Raadpleeg de Azure-prijscalculator voor specifiekere scenario's en om uw toekomstige kosten te schatten voor het gebruik van de service.
Configuratie
Als u het scenario wilt uitvoeren, moet u twee pijplijnen maken met de volgende items:
- Een pijplijnactiviteit - Activiteit verwijderen.
- Een kopieeractiviteit met een invoergegevensset voor de gegevens die moeten worden gekopieerd uit Azure Blob Storage.
- Een uitvoergegevensset voor de gegevens in Azure SQL Database.
- Een schematrigger voor het uitvoeren van de pijplijn. Wanneer u een pijplijn wilt uitvoeren, kunt u deze direct activeren of plannen. Naast de pijplijn zelf telt elk triggerexemplaren als één activiteitsuitvoering.
Schatting van kosten
Operations | Typen en eenheden |
---|---|
Pijplijn uitvoeren | 6 Uitvoeringen van activiteit per uitvoering (2 voor triggeruitvoeringen, 4 voor uitvoeringen van activiteit) = 1440, afgerond omdat de rekenmachine alleen stappen van 1000 toestaat. |
Uitvoeringsactiviteit uitvoeren: uitvoeringstijd van pijplijn per uitvoering = 7 min. Als de uitvoering van de activiteit verwijderen in de eerste pijplijn van 10:00 UUR UTC tot 10:05 UUR UTC is en de uitvoering van de activiteit verwijderen in de tweede pijplijn van 10:02 uur UTC tot 10:07 UUR UTC is. | Totaal (7 min + 60 min) / 60 min * 30 maandelijkse uitvoeringen = 33,5 uitvoeringsuren voor pijplijnactiviteiten in beheerd VNET. Pijplijnactiviteit ondersteunt maximaal 50 gelijktijdige uitvoeringen per knooppunt in beheerd VNET. Er is een TTL (Time To Live) van 60 minuten voor pijplijnactiviteit. |
Veronderstelling van gegevens kopiëren: DIU-uitvoeringstijd per uitvoering = 10 minuten als de kopieeruitvoering in de eerste pijplijn van 10:06 UUR UTC tot 10:15 UUR UTC is en de uitvoering van de kopieeractiviteit in de tweede pijplijn van 10:08 uur UTC tot 10:17 uur UTC is. | [(10 min + 2 min(wachtrijtijdskosten tot 2 minuten)) / 60 min * 4 Door Azure beheerde VNET Integration Runtime (standaard-DIU-instelling = 4)] * 2 = 1,6 dagelijkse uitvoeringsuren voor gegevensverplaatsing in beheerd VNET. Zie dit artikel voor meer informatie over gegevensintegratie-eenheden en het optimaliseren van kopieerprestaties |
Voorbeeld van prijscalculator
Totaal aantal scenarioprijzen voor 30 dagen: $ 83,50
Gerelateerde inhoud
- Prijsvoorbeeld: Gegevens kopiëren van AWS S3 naar Azure Blob Storage gedurende 30 dagen
- Prijsvoorbeeld: Gegevens kopiëren en transformeren met Azure Databricks per uur gedurende 30 dagen
- Prijsvoorbeeld: Gegevens kopiëren en transformeren met dynamische parameters per uur gedurende 30 dagen
- Prijsvoorbeeld: SSIS-pakketten uitvoeren in Azure-SSIS Integration Runtime
- Prijsvoorbeeld: Foutopsporing voor toewijzingsgegevensstromen gebruiken voor een normale werkdag
- Prijsvoorbeeld: Gegevens transformeren in blobopslag met toewijzingsgegevensstromen
- Prijsvoorbeeld: Deltagegevens ophalen uit SAP ECC via SAP CDC in toewijzingsgegevensstromen