Scénario de tarification utilisant un pipeline de données pour charger 1 To de données CSV dans des fichiers Lakehouse
Dans ce scénario, une activité Copy a été utilisée dans un pipeline de données pour charger 1 To de données CSV stockées dans Azure Data Lake Storage (ADLS) Gen2 dans des fichiers Lakehouse dans Microsoft Fabric.
Les prix utilisés dans l’exemple suivant sont hypothétiques et n’ont pas vocation à indiquer une tarification réelle exacte. Il s’agit simplement de montrer comment estimer, planifier et gérer les coûts des projets Data Factory dans Microsoft Fabric. En outre, étant donné que les capacités de Fabric sont facturées de manière unique entre les régions, nous utilisons la tarification de paiement à l’utilisation pour une capacité Fabric dans la région USA Ouest 2 (région Azure classique), à 0,18 $ par unité de capacité par heure. Reportez-vous ici à Microsoft Fabric : tarification pour explorer d’autres options de tarification de capacité Fabric.
Configuration
Pour réaliser ce scénario, créez un pipeline avec la configuration suivante :
Estimation des coûts à l’aide de l’application de métriques Fabric
L’opération de déplacement des données a utilisé 95 760 CU secondes avec une durée de 290,27 secondes (4,84 minutes), tandis que l’opération d’exécution de l’activité était nulle, car il n’y avait pas d’activités de non-copie dans l’exécution du pipeline.
Remarque
Bien qu’elle soit signalée en tant que métrique, la durée réelle de l’exécution n’est pas pertinente lors du calcul des CU heures effectives avec l’application de métriques Fabric étant donné que la métrique CU secondes qu’elle signale est déjà comptabilisée pour sa durée.
Métrique | Opération de déplacement des données |
---|---|
CU secondes | 95 760 CU secondes |
CU heures effectives | (95 760) / (60*60) CU heures = 26,6 CU heures |
Coût total d’exécution à 0,18 $/CU heure = (26,6 CU heures) * (0,18 $/CU heure) ~= 4,79 $