Édition

Analyse de bout en bout avec Azure Synapse

Azure Synapse Analytics
Azure Cosmos DB
Azure Data Factory
Azure Databricks
Hubs d'événements Azure

La solution décrite dans cet article combine un éventail de services Azure qui ingèrent, stockent, traitent, enrichissent et servent des données et des insights provenant de différentes sources (structurées, semi-structurées, non structurées et streaming).

Architecture

Diagramme d’architecture pour une plateforme de données moderne utilisant des services de données Azure.

Téléchargez un fichier Visio de cette architecture.

Notes

  • Les services couverts par cette architecture ne sont qu’un sous-ensemble d’une famille beaucoup plus vaste de services Azure. Vous pouvez obtenir des résultats similaires à l’aide d’autres services ou fonctionnalités non couverts par cette conception.
  • Des exigences métier spécifiques pour votre cas d’utilisation analytique pourraient nécessiter l’utilisation d’autres services ou fonctionnalités non pris en compte dans cette conception.

Dataflow

Les cas d’usage de l’analytique couverts par l’architecture sont illustrés par les différentes sources de données à gauche du diagramme. Les données circulent dans la solution de bas en haut, comme suit :

Notes

Dans les sections suivantes, Azure Data Lake est utilisé comme emplacement de données tout au long des différentes étapes du cycle de vie des données. Azure Data Lake est organisé par différentes couches et conteneurs comme suit :

  • La couche Brute est la zone d’atterrissage des données provenant de systèmes sources. Comme son nom l’indique, les données de cette couche sont sous forme brute, non filtrée et non purifiée.
  • Dans la phase suivante du cycle de vie, les données passent à la couche enrichie où les données sont nettoyées, filtrées et éventuellement transformées.
  • Les données sont ensuite déplacées vers la couche Organisée, c’est-à-dire où les données prêtes pour le consommateur sont conservées.

Reportez-vous à la documentation relative aux Zones et conteneurs de lac de données pour obtenir une révision complète des couches et conteneurs Azure Data Lake et de leurs utilisations.

Azure Data Services, HTAP natif cloud avec Azure Cosmos DB et Dataverse

Process
  1. Azure Synapse Link pour Azure Cosmos DB et Azure Synapse Link pour Dataverse vous permettent d'exécuter des analyses en quasi-temps réel sur des données d'applications opérationnelles et métier, en utilisant les moteurs d'analyse disponibles dans votre espace de travail Azure Synapse : SQL Serverless et Spark Pools.

  2. Si vous utilisez Azure Synapse Link pour Azure Cosmos DB, utilisez une requête SQL Serverless ou un notebook Spark Pool. Vous pouvez accéder au magasin analytique Azure Cosmos DB, puis combiner des jeux de données provenant de vos données opérationnelles en temps quasi réel aux données de votre lac de données ou de votre entrepôt de données.

  3. Si vous utilisez Azure Synapse Link pour Dataverse, utilisez une requête SQL Serverless ou un notebook Spark Pool. Vous pouvez accéder aux tables Dataverse sélectionnées, puis combiner des jeux de données à partir de vos données d’applications professionnelles en temps quasi-réel avec les données de votre lac de données ou de votre entrepôt de données.

Magasin
  1. Les jeux de données obtenus de vos requêtes SQL Serverless peuvent être conservés dans votre lac de données. Si vous utilisez des notebooks Spark, les jeux de données obtenus peuvent être conservés dans votre lac de données ou votre entrepôt de données (pool SQL).
Service
  1. Chargez les données pertinentes à partir du pool Azure Synapse SQL ou du lac de données dans des jeux de données Power BI pour la visualisation et l’exploration des données. Les modèles de Power BI implémentent un modèle sémantique pour simplifier l’analyse des données et relations métier. Les analystes d’entreprise utilisent des rapports et tableaux de bord Power BI pour analyser les données et dériver des informations métier.

  2. Les données peuvent également être partagées en toute sécurité avec d’autres entités professionnelles ou partenaires externes de confiance à l’aide d'Azure Data Share. Les consommateurs de données sont libres de choisir le format de données qu’ils souhaitent utiliser, ainsi que le moteur de calcul qui est le mieux adapté au traitement des jeux de données partagés.

  3. Les données structurées et non structurées stockées dans votre espace de travail Synapse peuvent également être utilisées pour créer des solutions d'exploration des connaissances et utiliser l’IA pour découvrir des insights opérationnels précieux dans différents types et formats de documents, notamment les documents Office, les PDF, les images, les fichiers audio, les formulaires et les pages Web.

Bases de données relationnelles

Ingérer
  1. Utilisez des pipelines Azure Synapse pour extraire des données d’un vaste éventail de bases de données, tant locales que dans le cloud. Des pipelines peuvent être déclenchés en fonction d’une planification prédéfinie, en réponse à un événement ou peuvent être appelés explicitement via des API REST.
Magasin
  1. Dans la couche du lac de données Brut, organisez votre lac de données en suivant les meilleures pratiques concernant les couches à créer, les structures de dossier à utiliser dans chaque couche et le format de fichier à utiliser pour chaque scénario d’analyse.

  2. À partir du pipeline Azure Synapse, utilisez une activité Copier des données pour indexer les données copiées à partir des bases de données relationnelles dans la couche brute de votre lac de données Azure Data Lake Store Gen 2. Vous pouvez enregistrer les données dans un format de texte délimité ou compressées en tant que fichiers Parquet.

Process
  1. Utilisez des flux de données, des requêtes SQL serverless ou des notebooks Spark pour valider, transformer et déplacer les jeux de données de la couche Brute, via la couche enrichie et dans votre couche organisée dans votre lac de données.

    1. Dans le cadre de vos transformations de données, vous pouvez appeler des modèles de formation sur machine à partir de vos pools SQL à l’aide de notebooks T-SQL ou Spark standard. Ces modèles ML peuvent permettre d’enrichir vos jeux de données et de générer des insights professionnels supplémentaires. Ces modèles Machine Learning peuvent être utilisés à partir d’Azure Cognitive Services ou de modèles ML personnalisés à partir d’Azure ML.
Service
  1. Vous pouvez traiter votre jeu de données final directement à partir de la couche Organisée du lac de données ou vous pouvez utiliser l’activité Copier des données pour ingérer le jeu de données final dans vos tables de pools SQL à l’aide de la commande COPY pour une ingestion rapide.

  2. Chargez les données pertinentes à partir du pool Azure Synapse SQL ou du lac de données dans des jeux de données Power BI pour la visualisation des données. Les modèles de Power BI implémentent un modèle sémantique pour simplifier l’analyse des données et relations métier. Les analystes d’entreprise utilisent des rapports et tableaux de bord Power BI pour analyser les données et dériver des informations métier.

  3. Les données peuvent également être partagées en toute sécurité avec d’autres entités professionnelles ou partenaires externes de confiance à l’aide d'Azure Data Share. Les consommateurs de données sont libres de choisir le format de données qu’ils souhaitent utiliser, ainsi que le moteur de calcul qui est le mieux adapté au traitement des jeux de données partagés.

  4. Les données structurées et non structurées stockées dans votre espace de travail Synapse peuvent également être utilisées pour créer des solutions d'exploration des connaissances et utiliser l’IA pour découvrir des insights opérationnels précieux dans différents types et formats de documents, notamment les documents Office, les PDF, les images, les fichiers audio, les formulaires et les pages Web.

Sources de données semi-structurées

Ingérer
  1. Utilisez des pipelines Azure Synapse pour extraire des données d’un vaste éventail de sources de données semi-structurées, tant locales que dans le cloud. Par exemple :

    • Ingérez des données à partir de sources basées sur des fichiers contenant des fichiers CSV ou JSON.
    • Connectez-vous à des bases de données non-SQL, telles qu’Azure Cosmos DB ou MongoDB.
    • Vous pouvez appeler des API REST fournies par des applications SaaS, qui serviront de sources de données pour le pipeline.
Magasin
  1. Dans la couche du lac de données Brut, organisez votre lac de données en suivant les meilleures pratiques concernant les couches à créer, les structures de dossier à utiliser dans chaque couche et le format de fichier à utiliser pour chaque scénario d’analyse.

  2. À partir du pipeline Azure Synapse, utilisez une activité Copier des données pour indexer les données copiées à partir des sources de données semi-structurées dans la couche brute de votre lac de données Azure Data Lake Store Gen 2. Vous devez enregistrer les données en conservant le format d’origine acquis à partir des sources de données.

Process
  1. Pour les pipelines batch/micro-batch, les flux de données, les requêtes SQL serverless ou les notebooks Spark permettent de valider, transformer et déplacer vos jeux de données dans votre couché Organisée de votre lac de données. Les requêtes SQL Serverless exposent les fichiers CSV, Parquet ou JSON sous-jacents sous forme de tables externes, de sorte qu’elles peuvent être interrogées à l’aide de T-SQL.

    1. Dans le cadre de vos transformations de données, vous pouvez appeler des modèles Machine Learning à partir de vos pools SQL à l’aide de notebooks T-SQL ou Spark standard. Ces modèles ML peuvent permettre d’enrichir vos jeux de données et de générer des insights professionnels supplémentaires. Ces modèles Machine Learning peuvent être utilisés à partir d’Azure Cognitive Services ou de modèles ML personnalisés à partir d’Azure ML.
  2. Pour les scénarios d’analyse de la télémétrie en quasi-temps réel et des séries chronologiques, utilisez Pools Data Explorer pour ingérer, consolider et corréler aisément les données des journaux et des événements IoT sur plusieurs sources de données. Avec les pools Data Explorer, vous pouvez utiliser des requêtes Kusto (KQL) pour effectuer des analyses de séries chronologiques, du clustering géospatial et de l’enrichissement de Machine Learning.

Service
  1. Vous pouvez traiter votre jeu de données final directement à partir de la couche Organisée du lac de données ou vous pouvez utiliser l’activité Copier des données pour ingérer le jeu de données final dans vos tables de pools SQL à l’aide de la commande COPY pour une ingestion rapide.

  2. Chargez les données pertinentes à partir de pools SQL Azure Synapse SQL, de pools Data Explorer ou d’un lac de données dans des jeux de données Power BI pour la visualisation des données. Les modèles de Power BI implémentent un modèle sémantique pour simplifier l’analyse des données et relations métier. Les analystes d’entreprise utilisent des rapports et tableaux de bord Power BI pour analyser les données et dériver des informations métier.

  3. Les données peuvent également être partagées en toute sécurité avec d’autres entités professionnelles ou partenaires externes de confiance à l’aide d'Azure Data Share. Les consommateurs de données sont libres de choisir le format de données qu’ils souhaitent utiliser, ainsi que le moteur de calcul qui est le mieux adapté au traitement des jeux de données partagés.

  4. Les données structurées et non structurées stockées dans votre espace de travail Synapse peuvent également être utilisées pour créer des solutions d'exploration des connaissances et utiliser l’IA pour découvrir des insights opérationnels précieux dans différents types et formats de documents, notamment les documents Office, les PDF, les images, les fichiers audio, les formulaires et les pages Web.

Sources de données non structurées

Ingérer
  1. Utilisez des pipelines Azure Synapse pour extraire des données d’un vaste éventail de sources de données non structurées, tant locales que dans le cloud. Par exemple :

    • Ingérez des vidéos, des images, des données audio ou du texte libre à partir de sources basées sur des fichiers qui contiennent les fichiers sources.
    • Vous pouvez appeler des API REST fournies par des applications SaaS, qui serviront de sources de données pour le pipeline.
Magasin
  1. Dans la couche du lac de données Brut, organisez votre lac de données en suivant les meilleures pratiques concernant les couches à créer, les structures de dossier à utiliser dans chaque couche et le format de fichier à utiliser pour chaque scénario d’analyse.

  2. À partir du pipeline Azure Synapse, utilisez une activité Copier des données pour indexer les données copiées à partir des sources de données non structurées dans la couche brute de votre lac de données Azure Data Lake Store Gen 2. Enregistrez les données en conservant le format d’origine acquis à partir des sources de données.

Process
  1. Utilisez des notebooks Spark pour valider, transformer, enrichir et déplacer vos jeux de données de la couche Brute, via la couche enrichie et dans votre couche Organisée dans votre lac de données.

    1. Dans le cadre de vos transformations de données, vous pouvez appeler des modèles Machine Learning à partir de vos pools SQL à l’aide de notebooks T-SQL ou Spark standard. Ces modèles ML peuvent permettre d’enrichir vos jeux de données et de générer des insights professionnels supplémentaires. Ces modèles Machine Learning peuvent être utilisés à partir d’Azure Cognitive Services ou de modèles ML personnalisés à partir d’Azure ML.
Service
  1. Vous pouvez traiter votre jeu de données final directement à partir de la couche Organisée du lac de données ou vous pouvez utiliser l’activité Copier des données pour ingérer le jeu de données final dans vos tables d’entrepôts de données à l’aide de la commande COPY pour une ingestion rapide.

  2. Chargez les données pertinentes à partir du pool Azure Synapse SQL ou du lac de données dans des jeux de données Power BI pour la visualisation des données. Les modèles de Power BI implémentent un modèle sémantique pour simplifier l’analyse des données et relations métier.

  3. Les analystes d’entreprise utilisent des rapports et tableaux de bord Power BI pour analyser les données et dériver des informations métier.

  4. Les données peuvent également être partagées en toute sécurité avec d’autres entités professionnelles ou partenaires externes de confiance à l’aide d'Azure Data Share. Les consommateurs de données sont libres de choisir le format de données qu’ils souhaitent utiliser, ainsi que le moteur de calcul qui est le mieux adapté au traitement des jeux de données partagés.

  5. Les données structurées et non structurées stockées dans votre espace de travail Synapse peuvent également être utilisées pour créer des solutions d'exploration des connaissances et utiliser l’IA pour découvrir des insights opérationnels précieux dans différents types et formats de documents, notamment les documents Office, les PDF, les images, les fichiers audio, les formulaires et les pages Web.

Diffusion en continu

Ingérer
  1. Utilisez Azure Event Hubs ou Azure IoT Hub pour ingérer des flux de données générés par les applications clientes ou les appareils IoT. Event Hubs ou IoT Hub ingère et stocke les données de streaming en préservant la séquence des événements reçus. Les consommateurs peuvent ensuite se connecter à des points de terminaison Event Hubs ou IoT Hub, et récupérer les messages à traiter.
Magasin
  1. Dans la couche du lac de données Brut, organisez votre lac de données en suivant les meilleures pratiques concernant les couches à créer, les structures de dossier à utiliser dans chaque couche et le format de fichier à utiliser pour chaque scénario d’analyse.

  2. Configurez la capture Event Hubs ou les points de terminaison de stockage IoT Hub pour enregistrer une copie des événements dans la couche brute de votre lac de données Azure Data Lake Store Gen 2. Cette fonctionnalité implémente le « chemin à froid » du modèle d’architecture lambda et vous permet d’effectuer une analyse de l’historique et des tendances sur les données de flux enregistrées dans votre lac de données à l’aide des requêtes SQL Serverless ou des notebooks Spark selon le modèle des sources de données semi-structurées décrit ci-dessus.

Process
  1. Pour les insights en temps réel, utilisez un travail Stream Analytics pour implémenter le « chemin chaud » du modèle d’architecture lambda et dériver des insights à partir des données de flux en transit. Définissez au moins une entrée pour le flux de données provenant de votre Event Hubs ou IoT Hub, une requête pour traiter le flux de données d’entrée et une sortie Power BI vers l’emplacement auquel les résultats de requête seront envoyés.

    1. Dans le cadre du traitement de vos données avec Stream Analytics, vous pouvez appeler des modèles Machine Learning pour enrichir vos jeux de données de flux et encourager des décisions professionnelles en fonction des prédictions générées. Ces modèles Machine Learning peuvent être utilisés à partir d’Azure Cognitive Services ou de modèles ML personnalisés dans Azure Machine Learning.
  2. Utilisez d’autres sorties de travail Stream Analytics pour envoyer des événements traités à des pools SQL Azure Synapse ou à des pools Data Explorer pour d’autres cas d’utilisation analytique.

  3. Pour les scénarios d’analyse de télémétrie en en quasi-temps réel et de série chronologique, utilisez des pools Data Explorer pour ingérer facilement les événements IoT directement à partir de Event Hubs ou IoT Hubs. Avec les pools Data Explorer, vous pouvez utiliser des requêtes Kusto (KQL) pour effectuer des analyses de séries chronologiques, du clustering géospatial et de l’enrichissement de Machine Learning.

Service
  1. Les analystes d’entreprise utilisent ensuite les jeux de données en temps réel et les fonctionnalités de tableau de bord de Power BI pour visualiser les insights variant rapidement générés par votre requête Stream Analytics.

  2. Les données peuvent également être partagées en toute sécurité avec d’autres entités professionnelles ou partenaires externes de confiance à l’aide d'Azure Data Share. Les consommateurs de données sont libres de choisir le format de données qu’ils souhaitent utiliser, ainsi que le moteur de calcul qui est le mieux adapté au traitement des jeux de données partagés.

  3. Les données structurées et non structurées stockées dans votre espace de travail Synapse permettent également de créer des solutions d’exploration de connaissances et d’utiliser l’intelligence artificielle afin de découvrir des insights opérationnels précieux sur différents types de documents et formats, y compris des documents Office, des fichiers PDF, des images, des fichiers audio, des formulaires et des pages web.

Composants

Les services Azure utilisés dans l’architecture sont les suivants :

Autres solutions

Détails du scénario

Cet exemple de scénario montre comment utiliser Azure Synapse Analytics avec la vaste gamme d’Azure Data Services pour créer une plateforme de données moderne capable de relever les défis les plus courants en matière de données dans une organisation.

Cas d’usage potentiels

Cette approche peut également servir à :

  • Établir une architecture de produits de données, qui est constituée d’un entrepôt de données pour les données structurées, et d’un lac de données pour les données semi-structurées et non structurées. Vous pouvez choisir de déployer un produit de données unique pour des environnements centralisés ou plusieurs produits de données pour des environnements distribués tels que le maillage de données. Voir plus d’informations sur la gestion des données et les zones de destination des données.
  • Intégrer des sources de données relationnelles avec d’autres jeux de données en utilisant des technologies de traitement de Big Data.
  • Utiliser de puissants outils de visualisation et de modélisation sémantique pour simplifier l’analyse des données.
  • Partager des jeux de données au sein de l’organisation ou avec des partenaires externes approuvés.
  • Implémentez des solutions d’exploration de données pour extraire des informations commerciales précieuses masquées dans des images, des PDF, des documents, etc.

Recommandations

Découvrir et régir

La gouvernance des données est un défi courant dans les environnements d’entreprise de grande taille. D’une part, les analystes d’entreprise doivent pouvoir découvrir et comprendre les ressources de données qui peuvent les aider à résoudre les problèmes d’entreprise. D’autre part, les directeurs des données veulent des insights sur la confidentialité et la sécurité des données de l’entreprise.

Microsoft Purview

  1. Utilisez Microsoft Purview pour la découverte de données et les insights sur vos ressources de données, la classification des données et la sensibilité qui couvrent l’ensemble du paysage des données organisationnelles.

  2. Microsoft Purview peut vous aider à gérer un glossaire professionnel avec la terminologie professionnelle spécifique requise pour que les utilisateurs comprennent la sémantique de la signification des jeux de données et l’objectif de leur utilisation dans toute l’organisation.

  3. Vous pouvez inscrire toutes vos sources de données et les organiser dans des regroupements, ce qui sert également de limite de sécurité pour vos métadonnées.

  4. Configurez des analyses régulières pour cataloguer et mettre à jour automatiquement les métadonnées pertinentes relatives aux ressources de données de l’organisation. Microsoft Purview peut également ajouter automatiquement des informations sur la traçabilité des données en fonction des informations des pipelines Azure Data Factory ou Azure Synapse.

  5. Des étiquettes Classification des données et Confidentialité des données peuvent être ajoutées automatiquement à vos ressources de données en fonction des règles préconfigurées ou personnalisées appliquées au cours des analyses régulières.

  6. Les professionnels de la gouvernance des données peuvent utiliser les rapports et les insights générés par Microsoft Purview pour garder le contrôle sur l’ensemble du paysage des données et protéger l’organisation contre tout problème de sécurité et de confidentialité.

Services de plateforme

Pour améliorer la qualité de vos solutions Azure, suivez les recommandations et les instructions définies dans les cinq piliers de l’excellence architecturale Azure Well-Architected Framework : optimisation des coûts, excellence opérationnelle, efficacité des performances, fiabilité et sécurité.

D’après ces recommandations, les services ci-dessous doivent être considérés comme faisant partie de la conception :

  1. Microsoft Entra ID : services d'identité, authentification unique et authentification multifacteur sur les charges de travail Azure.
  2. Azure Cost Management : gouvernance financière sur vos charges de travail Azure.
  3. Azure Key Vault : gestion sécurisée des certificats et des informations d’identification. Par exemple, les pipelines Azure Synapse, les pools Azure Synapse Spark et Azure ML peuvent récupérer les informations d’identification et les certificats d’Azure Key Vault utilisés pour accéder en toute sécurité aux magasins de données.
  4. Azure Monitor : collecter, analyser et agir sur les informations de télémétrie de vos ressources Azure pour identifier les problèmes de manière proactive et optimiser les performances et la fiabilité.
  5. Microsoft Defender pour le cloud : renforcement et supervision de la sécurité de vos charges de travail Azure.
  6. Azure DevOps et GitHub : implémentez des pratiques DevOps pour appliquer l’automatisation et la conformité à vos pipelines de déploiement et de développement de charges de travail pour Azure Synapse et Azure ML.
  7. Azure Policy : implémentez des nomes organisationnelles et la gouvernance pour la cohérence des ressources, la conformité réglementaire, la sécurité, le coût et la gestion.

Considérations

Ces considérations implémentent les piliers d’Azure Well-Architected Framework qui est un ensemble de principes directeurs qui permettent d’améliorer la qualité d’une charge de travail. Pour plus d’informations, consultez Microsoft Azure Well-Architected Framework.

Les technologies de cette architecture ont été choisies parce qu’elles offrent toutes les fonctionnalités nécessaires pour gérer les défis liés aux données les plus courants dans une organisation. Ces services répondent aux exigences en matière d’extensibilité et de disponibilité, tout en aidant à contrôler les coûts. Les services couverts par cette architecture ne sont qu’un sous-ensemble d’une famille beaucoup plus vaste de services Azure. Vous pouvez obtenir des résultats similaires à l’aide d’autres services ou fonctionnalités non couverts par cette conception.

Des exigences métier spécifiques pour votre cas d’utilisation analytique peuvent également nécessiter l’utilisation d’autres services ou fonctionnalités non pris en compte dans cette conception.

Une architecture similaire peut également être implémentée pour les environnements de pré-production où vous pouvez développer et tester vos charges de travail. Prenez en compte les exigences spécifiques pour vos charges de travail et les fonctionnalités de chaque service pour un environnement de pré-production économique.

Optimisation des coûts

L’optimisation des coûts consiste à examiner les moyens de réduire les dépenses inutiles et d’améliorer l’efficacité opérationnelle. Pour plus d’informations, consultez Vue d’ensemble du pilier d’optimisation des coûts.

En règle générale, utilisez la calculatrice de prix Azure pour estimer les coûts. Le niveau de tarification individuel idéal et le coût total de chaque service inclus dans l’architecture dépendent de la quantité de données à traiter et à stocker, ainsi que du niveau de performances acceptable attendu. Utilisez le guide ci-dessous pour en savoir plus sur la tarification de chaque service :

  • Une architecture serverless Azure Synapse Analytics vous permet de mettre à l’échelle vos niveaux de calcul et de stockage de façon indépendante. Les ressources de calcul sont facturées selon l’utilisation et vous pouvez mettre ces ressources à l’échelle ou en pause à la demande. Les ressources de stockage sont facturées au téraoctet. Vos coûts augmentent donc en fonction du volume de données ingéré.

  • Azure Data Lake Gen 2 est facturé en fonction de la quantité de données stockées et du nombre de transactions pour lire et écrire les données.

  • Azure Event Hubs et Azure IoT Hub sont facturés en fonction de la quantité de ressources de calcul requises pour traiter vos flux de messages.

  • Les frais Azure Machine Learning proviennent de la quantité de ressources de calcul utilisées pour l’apprentissage et le déploiement de vos modèles Machine Learning.

  • Cognitive Services est facturé en fonction du nombre de vos appels d’API de service.

  • Microsoft Purview est facturé en fonction du nombre de ressources de données du catalogue et de la puissance de calcul requise pour les analyser.

  • Azure Stream Analytics est facturé en fonction de la puissance de calcul requise pour traiter vos requêtes de flux.

  • Power BI offre différentes options de produit selon les besoins. Power BI Embedded offre une option Azure permettant d’intégrer la fonctionnalité Power BI dans vos applications. L’exemple de tarification ci-dessus comprend une instance Power BI Embedded.

  • Azure CosmosDB est facturé en fonction de la quantité de ressources de stockage et de calcul requises par vos bases de données.

Déployer ce scénario

Cet accélérateur de déploiement vous donne la possibilité d’implémenter l’architecture de référence complète ou de choisir les charges de travail dont vous avez besoin pour votre cas d’utilisation analytique. Vous avez également la possibilité de choisir si les services sont accessibles via des points de terminaison publics ou s’ils doivent être accessibles uniquement par le biais de points de terminaison privés.

Utilisez le bouton suivant pour déployer la référence à l’aide du portail Azure.

Déployer sur Azure

Pour obtenir des informations détaillées et des options de déploiement supplémentaires, consultez le référentiel GitHub de l’accélérateur de déploiement avec la documentation et le code utilisés pour définir cette solution.

Contributeurs

Cet article est mis à jour et géré par Microsoft. Il a été écrit à l’origine par les contributeurs suivants.

Auteur principal :

Pour afficher les profils LinkedIn non publics, connectez-vous à LinkedIn.

Étapes suivantes