Partager via


Tarification de la Mappage de données Microsoft Purview

Ce guide décrit les instructions de tarification pour le mappage de données dans le portail de gouvernance Microsoft Purview.

Pour obtenir des détails complets sur les recommandations de tarification pour Microsoft Purview (anciennement Azure Purview), consultez la vue d’ensemble des instructions de tarification.

Pour plus d’informations sur les prix, consultez la page de tarification de Microsoft Purview (anciennement Azure Purview). Cet article vous guidera à travers les fonctionnalités et les facteurs qui affecteront la tarification du Mappage de données Microsoft Purview.

Les coûts directs impactant la tarification de l’Mappage de données Microsoft Purview sont basés sur les trois dimensions suivantes :

Mappage de données élastique

  • La carte de données est la base de l’architecture du portail de gouvernance Microsoft Purview et doit donc être à jour avec les informations relatives aux ressources dans le patrimoine de données à un moment donné

  • La carte de données est facturée en termes d’unité de capacité (CU). Le mappage de données est approvisionné au niveau d’une cu si le catalogue stocke jusqu’à 10 Go de stockage de métadonnées et sert jusqu’à 25 opérations de mappage de données/s

  • Le mappage de données est toujours approvisionné au niveau d’une unité de service lors de la première création d’un compte

  • Toutefois, le mappage de données est automatiquement mis à l’échelle entre les limites minimales et maximales de cette fenêtre d’élasticité, pour tenir compte des modifications apportées à la carte de données en ce qui concerne deux facteurs clés : le débit des opérations et le stockage des métadonnées

Débit de l’opération

  • Facteur piloté par les événements basé sur les opérations Créer, Lire, Mettre à jour et Supprimer effectuées sur le mappage de données
  • Voici quelques exemples d’opérations de mappage de données :
    • Création d’une ressource dans Data Map
    • Ajout d’une relation à une ressource telle que propriétaire, intendant, parent, traçabilité
    • Modification d’une ressource pour ajouter des métadonnées métier telles que la description, le terme de glossaire
    • Recherche par mot clé retournant des résultats à la page des résultats de la recherche
    • Importation ou exportation d’informations à l’aide de l’API
  • Si plusieurs requêtes sont exécutées sur le mappage de données, le nombre d’opérations d’E/S augmente également, ce qui entraîne la montée en puissance du mappage de données
  • Le nombre d’utilisateurs simultanés constitue également un facteur qui régit l’unité de capacité de la carte de données
  • Les autres facteurs à prendre en compte sont le type de requête de recherche, l’interaction de l’API, les flux de travail, les approbations, etc.
  • Niveau de rafale de données
    • Lorsqu’il est nécessaire d’effectuer davantage d’opérations/de débit en seconde, la carte de données peut être mise à l’échelle automatiquement dans la fenêtre d’élasticité pour répondre à la charge modifiée
    • Il s’agit de la caractéristique de rafale qui doit être estimée et planifiée pour
    • La caractéristique de rafale comprend le niveau de rafale et la durée de rafale pour laquelle le burst existe
      • Le niveau de rafale est un index multiplicatif de l’élasticité cohérente attendue en état stable
      • La durée des rafales est le pourcentage du mois où ces rafales (en élasticité) sont attendues en raison de l’augmentation des métadonnées ou du nombre plus élevé d’opérations sur le mappage de données

Stockage des métadonnées

  • Si le nombre de ressources diminue dans le patrimoine de données et qu’elles sont ensuite supprimées dans le mappage de données par le biais d’analyses incrémentielles ultérieures, le composant de stockage réduit automatiquement et donc le mappage de données est mis à l’échelle

Analyse, classification et ingestion automatisées

Il existe deux principaux processus automatisés qui peuvent déclencher l’ingestion de métadonnées dans le Mappage de données Microsoft Purview :

  • Analyses automatiques à l’aide de connecteurs natifs. Ce processus comprend trois étapes main :

    • Analyse des métadonnées
    • Classification automatique
    • Ingestion de métadonnées dans le Mappage de données Microsoft Purview
  • Ingestion automatisée à l’aide de pipelines Azure Data Factory et/ou Azure Synapse. Ce processus comprend les éléments suivants :

    • Ingestion des métadonnées et de la traçabilité dans le Mappage de données Microsoft Purview si le compte est connecté à des pipelines Azure Data Factory ou Azure Synapse.

Analyses automatiques à l’aide de connecteurs natifs

  • Une analyse complète traite toutes les ressources dans une étendue sélectionnée d’une source de données, tandis qu’une analyse incrémentielle détecte et traite les ressources qui ont été créées, modifiées ou supprimées depuis l’analyse précédente réussie

  • Toutes les analyses (analyses complètes ou incrémentielles) récupèrent les ressources mises à jour, modifiées ou supprimées

  • Il est important de prendre en compte et d’éviter les scénarios où plusieurs personnes ou groupes appartenant à différents services configurent des analyses pour la même source de données, ce qui entraîne une augmentation des prix pour l’analyse en double

  • Planifiez des analyses incrémentielles fréquentes après l’analyse complète initiale alignée sur les modifications apportées au patrimoine de données. Cela garantit que la carte de données est toujours à jour et que les analyses incrémentielles consomment moins d’heures de v-core par rapport à une analyse complète

  • Le lien « Afficher les détails » pour une source de données permet aux utilisateurs d’exécuter une analyse complète. Toutefois, envisagez d’exécuter des analyses incrémentielles après une analyse complète pour une analyse optimisée, sauf en cas de modification de l’ensemble de règles d’analyse (classifications/types de fichiers)

  • Inscrire la source de données auprès d’une collection parente et l’étendue des analyses sur la collection enfant avec différents contrôles d’accès pour s’assurer qu’aucun coût d’analyse en double n’est impliqué

  • Limitez les utilisateurs autorisés à inscrire des sources de données à des fins d’analyse via le contrôle d’accès affiné et le rôle Administrateur de source de données à l’aide de l’autorisation collection. Cela garantit que seules les sources de données valides sont autorisées à être inscrites et que les heures d’analyse des cœurs virtuels sont contrôlées, ce qui réduit les coûts d’analyse

  • Considérez que le type de source de données et le nombre de ressources analysées affectent la durée de l’analyse

  • Créer des ensembles de règles d’analyse personnalisés pour inclure uniquement le sous-ensemble des types de fichiers disponibles dans votre patrimoine de données et les classifications pertinentes pour vos besoins métier afin de garantir une utilisation optimale des scanneurs

  • Lors de la création d’une analyse pour une source de données, suivez l’ordre de préparation recommandé avant d’exécuter réellement l’analyse. Cela inclut la collecte des exigences pour les classifications et lestypes de fichiers spécifiques à l’entreprise (pour les comptes de stockage) afin de permettre la définition d’ensembles de règles d’analyse appropriés afin d’éviter plusieurs analyses et de contrôler les coûts inutiles pour plusieurs analyses en cas de non-respect des exigences

  • Aligner vos planifications d’analyse avec la taille des machines virtuelles Self-Hosted Integration Runtime (SHIR) (Machines Virtuelles) pour éviter les coûts supplémentaires liés aux machines virtuelles

Ingestion automatisée à l’aide de pipelines Azure Data Factory et/ou Azure Synapse

  • Les métadonnées et la traçabilité sont ingérées à partir de pipelines Azure Data Factory ou Azure Synapse chaque fois que les pipelines s’exécutent dans le système source.

Ensembles de ressources avancés

  • Le Mappage de données Microsoft Purview utilise des jeux de ressources pour relever le défi du mappage d’un grand nombre de ressources de données à une seule ressource logique en fournissant la possibilité d’analyser tous les fichiers dans le lac de données et de trouver des modèles (GUID, modèles de localisation, etc.) pour les regrouper en tant que ressource unique dans la carte de données

  • L’ensemble de ressources avancé est une fonctionnalité facultative qui permet aux clients d’obtenir des informations de jeu de ressources enrichies calculées telles que la taille totale, le nombre de partitions, etc., et permet la personnalisation du regroupement des ensembles de ressources via des règles de modèle. Si la fonctionnalité d’ensemble de ressources avancées n’est pas activée, votre catalogue de données contient toujours des ressources de jeu de ressources, mais sans les propriétés agrégées. Dans ce cas, aucun compteur « Jeu de ressources » ne sera facturé au client.

  • Utilisez la fonctionnalité de jeu de ressources de base avant d’activer les ensembles de ressources avancés dans le Mappage de données Microsoft Purview pour vérifier si les conditions requises sont remplies

  • Envisagez d’activer les ensembles de ressources avancés si :

    • Votre schéma de lacs de données change constamment et vous recherchez plus de valeur au-delà de la fonctionnalité d’ensemble de ressources de base pour permettre au Mappage de données Microsoft Purview de calculer des paramètres tels que #partitions, la taille du patrimoine de données, etc., en tant que service
    • Il est nécessaire de personnaliser la façon dont les ressources des ensembles de ressources sont regroupées.
  • Il est important de noter que la facturation des ensembles de ressources avancés est basée sur le calcul utilisé par le niveau hors connexion pour agréger les informations de jeu de ressources et dépend de la taille/du nombre de jeux de ressources dans votre catalogue

Prochaines étapes