Notes
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Objectif de ce document
Ce guide d’étude est destiné à vous aider à comprendre ce qu’il faut attendre de l’examen. Il inclut un résumé des sujets potentiellement couverts par l’examen ainsi que des liens vers des ressources supplémentaires. Aidez-vous des informations et des supports fournis dans ce document pour savoir ce que vous devez étudier afin de vous préparer à l’examen.
Liens utiles | Description |
---|---|
Comment obtenir la certification | Certaines certifications nécessitent un seul examen, tandis que d’autres en nécessitent plusieurs. |
Renouvellement de la certification | Les certifications Microsoft Associate, Expert et Specialty expirent chaque année. Vous pouvez les renouveler en passant une évaluation en ligne gratuite sur Microsoft Learn. |
Votre profil Microsoft Learn | En connectant votre profil de certification à Microsoft Learn, vous pouvez planifier et renouveler des examens, mais aussi partager et imprimer des certificats. |
Notation des examens et relevés de notes | Pour réussir l’examen, vous devez obtenir un score de 700 ou plus. |
Bac à sable de l’examen | Vous pouvez explorer l’environnement d’examen en visitant notre examen blanche d’examen. |
Demander des aménagements | Si vous utilisez des appareils d’assistance, si vous avez besoin de temps supplémentaire ou si vous souhaitez un quelconque changement dans n’importe quelle partie de l’examen, vous pouvez faire une demande d’aménagement. |
Effectuer une évaluation d’entraînement gratuite | Testez vos compétences avec des questions pratiques qui vous aideront à vous préparer à l’examen. |
Mises à jour de l’examen
Nos examens sont régulièrement mis à jour pour refléter les compétences demandées pour effectuer les tâches associées à un rôle.
La version en langue anglaise de l’examen est toujours mise à jour en premier. Certains examens sont disponibles dans d’autres langues et sont mis à jour environ huit semaines après la mise à jour de la version anglaise. Les autres langues disponibles sont indiquées dans la section Planifier l’examen de la page web Détails de l’examen. Si l’examen n’est pas disponible dans la langue de votre choix, vous pouvez demander un temps supplémentaire de 30 minutes pour passer l’examen.
Remarque
Les puces sous chacune des compétences mesurées visent à illustrer notre façon d’évaluer cette compétence. Des sujets connexes peuvent être abordés dans l’examen.
Remarque
La plupart des questions concernent des fonctionnalités qui sont en disponibilité générale (GA). L’examen peut comporter des questions relatives à des fonctionnalités en préversion qui sont déjà couramment utilisées.
Compétences mesurées à compter du 24 octobre 2024
Profil du public
En tant candidat à cet examen, vous devez avoir une expertise en matière d’intégration, de transformation et de consolidation des données provenant de différents systèmes de données structurées, non structurées et de streaming dans un schéma adapté à la création de solutions d’analytique.
En tant qu’ingénieur Données Azure, vous aidez les parties prenantes à comprendre les données via l’exploration, et vous créez et vous suggérez des pipelines de traitement de données sécurisés et conformes en utilisant différents outils et techniques. Vous utilisez différents services et frameworks de données Azure pour stocker et produire des jeux de données nettoyés et optimisés pour l’analyse. Ce magasin de données peut être conçu avec différents modèles d’architecture en fonction des exigences de l’entreprise, y compris :
Entrepôt de données moderne (MDW, Modern Data Warehouse)
Big Data
Architecture Lakehouse
En tant qu’ingénieur Données Azure, vous veillez aussi à ce que les pipelines de données et les magasins de données opérationnels restent très performants, efficaces, organisés et fiables, en fonction d’un ensemble d’exigences et de contraintes métier. Vous aidez à identifier et à résoudre les problèmes opérationnels et de qualité des données. Vous concevez, vous implémentez, vous supervisez et vous optimisez aussi les plateformes de données pour prendre en charge les pipelines de données.
En tant que candidat à cette examen, vous devez avoir une solide connaissance des langages de traitement des données, notamment :
SQL
Python
Scala
Vous devez comprendre les modèles d’architecture de données et de traitement parallèle. Vous devez être compétent dans l’utilisation des éléments suivants pour créer des solutions de traitement des données :
Azure Data Factory
Azure Synapse Analytics
Azure Stream Analytics
Hubs d'événements Azure
Azure Data Lake Storage
Azure Databricks
Compétences en un clin d’œil
Concevoir et implémenter le stockage des données (15 à 20 %)
Développer le traitement des données (40 à 45 %)
Sécuriser, superviser et optimiser le stockage des données et le traitement des données (30 à 35 %)
Concevoir et implémenter le stockage des données (15 à 20 %)
Implémenter une stratégie de partition
Implémenter une stratégie de partition pour les fichiers
Implémenter une stratégie de partition pour les charges de travail analytiques
Implémenter une stratégie de partition pour les charges de travail de streaming
Implémenter une stratégie de partition pour Azure Synapse Analytics
Identifier quand le partitionnement est nécessaire dans Azure Data Lake Storage Gen2
Concevoir et implémenter la couche d’exploration des données
Créer et exécuter des requêtes en utilisant une solution de calcul qui tire parti de SQL serverless et des clusters Spark
Recommander et implémenter des modèles de base de données Azure Synapse Analytics
Envoyer (push) la traçabilité des données nouvelles ou mises à jour vers Microsoft Purview
Parcourir et rechercher des métadonnées dans le catalogue de données Microsoft Purview
Développer le traitement des données (40 à 45 %)
Ingérer et transformer des données
Concevoir et implémenter des chargements de données incrémentiels
Transformer des données en utilisant Apache Spark
Transformer des données en utilisant Transact-SQL (T-SQL) dans Azure Synapse Analytics
Ingérer et transformer des données en utilisant des pipelines Azure Synapse ou Azure Data Factory
Transformer des données à l’aide d’Azure Stream Analytics
Nettoyer les données
Gérer les données en doublon
Éviter les données dupliquées à l’aide de la fonctionnalité Exactement une remise d’Azure Stream Analytics
Gérer les données manquantes
Gérer les données tardives
Fractionner les données
Fragmenter du code JSON
Encoder et décoder des données
Configurer la gestion des erreurs pour une transformation
Normaliser et dénormaliser des données
Effectuer une analyse exploratoire des données
Développer des solutions de traitement par lots
Développer des solutions de traitement par lots en utilisant Azure Data Lake Storage Gen2, Azure Databricks, Azure Synapse Analytics et Azure Data Factory
Utiliser PolyBase pour charger des données dans un pool SQL
Implémenter Azure Synapse Link et interroger les données répliquées
Créer des pipelines de données
Mettre les ressources à l’échelle
Configurer la taille de lot
Créer des tests pour les pipelines de données
Intégrer des notebooks Jupyter ou Python dans un pipeline de données
Données de lot Upsert
Rétablir les données à un état précédent
Configurer la gestion des exceptions
Configurer la conservation des lots
Lire et écrire dans un lac delta
Développer une solution de traitement de flux
Créer une solution de traitement de flux en utilisant Stream Analytics et Azure Event Hubs
Traiter des données en utilisant le streaming structuré Spark
Créer des agrégats fenêtrés
Gérer la dérive de schéma
Traiter des données de série chronologique
Traiter des données sur plusieurs partitions
Traiter au sein d’une même partition
Configurer des points de contrôle et un filigranage pendant le traitement
Mettre les ressources à l’échelle
Créer des tests pour les pipelines de données
Optimiser les pipelines à des fins analytiques ou transactionnelles
Gestion des interruptions
Configurer la gestion des exceptions
Transmettre des données Upsert en continu
Relire les données de flux archivés
Lire et écrire dans un lac delta
Gérer les lots et les pipelines
Déclencher des lots
Gérer les chargements par lots ayant échoué
Valider les chargements par lots
Gérer des pipelines de données dans des pipelines Azure Data Factory ou Azure Synapse
Planifier des pipelines de données dans des pipelines Azure Data Factory ou Azure Synapse
Implémenter le contrôle de version pour les artefacts de pipeline
Gérer des travaux Spark dans un pipeline
Sécuriser, superviser et optimiser le stockage des données et le traitement des données (30 à 35 %)
Implémenter la sécurité des données
Implémenter le masquage des données
Chiffrer les données au repos ou en déplacement
Implémenter une sécurité au niveau des lignes et des colonnes
Implémenter le contrôle d’accès en fonction du rôle (RBAC) Azure
Implémenter des listes de contrôle d’accès de type POSIX pour Data Lake Storage Gen2
Implémenter une politique de conservation des données
Implémenter des points de terminaison sécurisés (privés et publics)
Implémenter des jetons de ressource dans Azure Databricks
Charger un DataFrame avec des informations sensibles
Écrire des données chiffrées dans des tables ou des fichiers Parquet
Gérer des informations sensibles
Superviser le stockage des données et le traitement des données
Implémenter la journalisation utilisée par Azure Monitor
Configurer des services de supervision
Superviser le traitement des flux
Mesurer les performances du déplacement des données
Superviser et mettre à jour les statistiques sur les données d’un système
Superviser les performances des pipelines de données
Mesurer les performances des requêtes
Planifier et superviser les tests de pipeline
Interpréter les métriques et les journaux Azure Monitor
Implémenter une stratégie d’alerte de pipeline
Optimiser et résoudre les problèmes de stockage des données et de traitement des données
Compacter des petits fichiers
Gérer l’asymétrie dans les données
Gérer le déversement de données
Optimiser la gestion des ressources
Optimiser les requêtes en utilisant des indexeurs
Optimiser les requêtes en utilisant un cache
Résoudre les problèmes d’un travail Spark ayant échoué
Résoudre les problèmes d’exécution d’un pipeline ayant échoué, y compris les activités exécutées dans des services externes
Ressources de l’étude
Nous vous recommandons de vous entraîner et d’acquérir une expérience pratique avant de passer l’examen. Nous offrons des options d’auto-apprentissage, des formations en salle de classe ainsi que des liens vers de la documentation, des sites communautaires et des vidéos.
Ressources de l’étude | Liens vers les ressources d’apprentissage et la documentation |
---|---|
Recevez une formation | Choisissez des parcours et des modules d’apprentissage auto-rythmés ou suivez un cours dispensé par un instructeur |
Rechercher de la documentation | Azure Data Lake Storage Azure Synapse Analytics Azure Databricks Data Factory Azure Stream Analytics Hubs d'événements Azure Monitor |
Poser une question | Microsoft Q&A | Microsoft Docs |
Bénéficier du support de la communauté | Analytique sur Azure | TechCommunity Azure Synapse Analytics | TechCommunity |
Suivre Microsoft Learn | Microsoft Learn - Microsoft Tech Community |
Trouver une vidéo | Espace Préparation aux examens Data Exposed Parcourir d’autres émissions Microsoft Learn |
Journal des modifications
Légende du tableau : Les groupes de rubriques (également appelés « groupes fonctionnels ») apparaissent en gras et sont suivis des objectifs de chaque groupe. Le tableau compare les compétences mesurées pour l’examen entre les deux versions, la troisième colonne décrivant l’étendue des modifications.
Domaine de compétence avant le 24 octobre 2024 | Domaine de compétence à compter du 24 octobre 2024 | Modifier |
---|---|---|
Développer le traitement des données | Développer le traitement des données | Aucun changement |
Ingérer et transformer des données | Ingérer et transformer des données | Secondaire |