Exemple de tarification : Copier des données d’AWS S3 vers le stockage Blob Azure toutes les heures
S’APPLIQUE À : Azure Data Factory Azure Synapse Analytics
Conseil
Essayez Data Factory dans Microsoft Fabric, une solution d’analyse tout-en-un pour les entreprises. Microsoft Fabric couvre tous les aspects, du déplacement des données à la science des données, en passant par l’analyse en temps réel, l’aide à la décision et la création de rapports. Découvrez comment démarrer un nouvel essai gratuitement !
Dans ce scénario, vous souhaitez copier des données d’AWS S3 vers le stockage Blob Azure selon une planification horaire pendant 8 heures par jour, pendant 30 jours.
Les prix mentionnés dans l’exemple ci-dessous sont hypothétiques et ne sont pas destinés à indiquer la tarification réelle exacte. Les coûts de lecture/écriture et de surveillance ne sont pas affichés, car ils sont généralement négligeables et n’ont pas d’impact significatif sur les coûts globaux. Les exécutions d’activité sont également arrondies au 1 000e le plus proche dans les estimations de la calculatrice de prix.
Reportez-vous à la Calculatrice de tarification Azure pour obtenir des scénarios plus spécifiques et estimer vos coûts futurs d’utilisation du service.
Configuration
Pour réaliser ce scénario, créez un pipeline avec les éléments suivants :
Je copierai des données d’AWS S3 vers le stockage Blob Azure, et cela déplacera 10 Go de données de S3 vers le stockage blob. J’estime que la durée d’exécution à 2 à 3 heures, et j’envisage de définir DIU comme Auto.
Un déclencheur de planification pour exécuter le pipeline pendant 8 heures chaque jour. Lorsque vous souhaitez exécuter un pipeline, vous pouvez le déclencher immédiatement ou le planifier. En plus du pipeline lui-même, chaque instance de déclencheur compte comme une seule exécution d’activité.
Estimation des coûts
Opérations | Types et unités |
---|---|
Exécution d’un pipeline | 2 exécutions d’activité par exécution (1 pour le déclencheur à exécuter, 1 pour l’activité à exécuter) = 480 exécutions d’activité, arrondies à une valeur supérieure puisque la calculatrice autorise uniquement les incréments de 1 000. |
Copie de données - Hypothèse : heures d’unités d’intégration de données (DIU) par exécution | 0,5 heure * 4 Azure Integration Runtime (paramètre DIU par défaut = 4) – pour plus d’informations sur les unités d’intégration de données et l’optimisation des performances de copie, voir cet article |
Heures d’exécution totales : 8 exécutions par jour pendant 30 jours | 240 exécutions * 2 DIU/exécution = 480 DIU |
Exemple de calculatrice de prix
Prix total du scénario pendant 30 jours : 122,00 $
Contenu connexe
- Exemple de tarification : Copier des données et les transformer toutes les heures avec Azure Databricks pendant 30 jours
- Exemple de tarification : Copier des données et les transformer toutes les heures avec des paramètres dynamiques pendant 30 jours
- Exemple de tarification : Exécuter des packages SSIS sur le runtime d’intégration Azure-SSIS
- Exemple de tarification : Utilisation du débogage du flux de données de mappage pour une journée de travail normale
- Exemple de tarification : Transformation des données dans le magasin d’objets blob avec des flux de données de mappage
- Exemple de tarification : Intégration de données dans un VNET managé Azure Data Factory
- Exemple de tarif : Obtenir des données delta à partir de SAP ECC via SAP CDC dans les flux de données de mappage