Partager via


Guide d’étude pour l’examen DP-203 : Engineering données sur Microsoft Azure

Objectif de ce document

Ce guide d’étude est destiné à vous aider à comprendre ce qu’il faut attendre de l’examen. Il inclut un résumé des sujets potentiellement couverts par l’examen ainsi que des liens vers des ressources supplémentaires. Aidez-vous des informations et des supports fournis dans ce document pour savoir ce que vous devez étudier afin de vous préparer à l’examen.

Liens utiles Description
Comment obtenir la certification Certaines certifications nécessitent un seul examen, tandis que d’autres en nécessitent plusieurs.
Renouvellement de la certification Les certifications Microsoft Associate, Expert et Specialty expirent chaque année. Vous pouvez les renouveler en passant une évaluation en ligne gratuite sur Microsoft Learn.
Votre profil Microsoft Learn En connectant votre profil de certification à Microsoft Learn, vous pouvez planifier et renouveler des examens, mais aussi partager et imprimer des certificats.
Notation des examens et relevés de notes Pour réussir l’examen, vous devez obtenir un score de 700 ou plus.
Bac à sable de l’examen Vous pouvez explorer l’environnement d’examen en visitant notre examen blanche d’examen.
Demander des aménagements Si vous utilisez des appareils d’assistance, si vous avez besoin de temps supplémentaire ou si vous souhaitez un quelconque changement dans n’importe quelle partie de l’examen, vous pouvez faire une demande d’aménagement.
Effectuer une évaluation d’entraînement gratuite Testez vos compétences avec des questions pratiques qui vous aideront à vous préparer à l’examen.

Mises à jour de l’examen

Nos examens sont régulièrement mis à jour pour refléter les compétences demandées pour effectuer les tâches associées à un rôle.

La version en langue anglaise de l’examen est toujours mise à jour en premier. Certains examens sont disponibles dans d’autres langues et sont mis à jour environ huit semaines après la mise à jour de la version anglaise. Les autres langues disponibles sont indiquées dans la section Planifier l’examen de la page web Détails de l’examen. Si l’examen n’est pas disponible dans la langue de votre choix, vous pouvez demander un temps supplémentaire de 30 minutes pour passer l’examen.

Remarque

Les puces sous chacune des compétences mesurées visent à illustrer notre façon d’évaluer cette compétence. Des sujets connexes peuvent être abordés dans l’examen.

Remarque

La plupart des questions concernent des fonctionnalités qui sont en disponibilité générale (GA). L’examen peut comporter des questions relatives à des fonctionnalités en préversion qui sont déjà couramment utilisées.

Compétences mesurées à compter du 24 octobre 2024

Profil du public

En tant candidat à cet examen, vous devez avoir une expertise en matière d’intégration, de transformation et de consolidation des données provenant de différents systèmes de données structurées, non structurées et de streaming dans un schéma adapté à la création de solutions d’analytique.

En tant qu’ingénieur Données Azure, vous aidez les parties prenantes à comprendre les données via l’exploration, et vous créez et vous suggérez des pipelines de traitement de données sécurisés et conformes en utilisant différents outils et techniques. Vous utilisez différents services et frameworks de données Azure pour stocker et produire des jeux de données nettoyés et optimisés pour l’analyse. Ce magasin de données peut être conçu avec différents modèles d’architecture en fonction des exigences de l’entreprise, y compris :

  • Entrepôt de données moderne (MDW, Modern Data Warehouse)

  • Big Data

  • Architecture Lakehouse

En tant qu’ingénieur Données Azure, vous veillez aussi à ce que les pipelines de données et les magasins de données opérationnels restent très performants, efficaces, organisés et fiables, en fonction d’un ensemble d’exigences et de contraintes métier. Vous aidez à identifier et à résoudre les problèmes opérationnels et de qualité des données. Vous concevez, vous implémentez, vous supervisez et vous optimisez aussi les plateformes de données pour prendre en charge les pipelines de données.

En tant que candidat à cette examen, vous devez avoir une solide connaissance des langages de traitement des données, notamment :

  • SQL

  • Python

  • Scala

Vous devez comprendre les modèles d’architecture de données et de traitement parallèle. Vous devez être compétent dans l’utilisation des éléments suivants pour créer des solutions de traitement des données :

  • Azure Data Factory

  • Azure Synapse Analytics

  • Azure Stream Analytics

  • Hubs d'événements Azure

  • Azure Data Lake Storage

  • Azure Databricks

Compétences en un clin d’œil

  • Concevoir et implémenter le stockage des données (15 à 20 %)

  • Développer le traitement des données (40 à 45 %)

  • Sécuriser, superviser et optimiser le stockage des données et le traitement des données (30 à 35 %)

Concevoir et implémenter le stockage des données (15 à 20 %)

Implémenter une stratégie de partition

  • Implémenter une stratégie de partition pour les fichiers

  • Implémenter une stratégie de partition pour les charges de travail analytiques

  • Implémenter une stratégie de partition pour les charges de travail de streaming

  • Implémenter une stratégie de partition pour Azure Synapse Analytics

  • Identifier quand le partitionnement est nécessaire dans Azure Data Lake Storage Gen2

Concevoir et implémenter la couche d’exploration des données

  • Créer et exécuter des requêtes en utilisant une solution de calcul qui tire parti de SQL serverless et des clusters Spark

  • Recommander et implémenter des modèles de base de données Azure Synapse Analytics

  • Envoyer (push) la traçabilité des données nouvelles ou mises à jour vers Microsoft Purview

  • Parcourir et rechercher des métadonnées dans le catalogue de données Microsoft Purview

Développer le traitement des données (40 à 45 %)

Ingérer et transformer des données

  • Concevoir et implémenter des chargements de données incrémentiels

  • Transformer des données en utilisant Apache Spark

  • Transformer des données en utilisant Transact-SQL (T-SQL) dans Azure Synapse Analytics

  • Ingérer et transformer des données en utilisant des pipelines Azure Synapse ou Azure Data Factory

  • Transformer des données à l’aide d’Azure Stream Analytics

  • Nettoyer les données

  • Gérer les données en doublon

  • Éviter les données dupliquées à l’aide de la fonctionnalité Exactement une remise d’Azure Stream Analytics

  • Gérer les données manquantes

  • Gérer les données tardives

  • Fractionner les données

  • Fragmenter du code JSON

  • Encoder et décoder des données

  • Configurer la gestion des erreurs pour une transformation

  • Normaliser et dénormaliser des données

  • Effectuer une analyse exploratoire des données

Développer des solutions de traitement par lots

  • Développer des solutions de traitement par lots en utilisant Azure Data Lake Storage Gen2, Azure Databricks, Azure Synapse Analytics et Azure Data Factory

  • Utiliser PolyBase pour charger des données dans un pool SQL

  • Implémenter Azure Synapse Link et interroger les données répliquées

  • Créer des pipelines de données

  • Mettre les ressources à l’échelle

  • Configurer la taille de lot

  • Créer des tests pour les pipelines de données

  • Intégrer des notebooks Jupyter ou Python dans un pipeline de données

  • Données de lot Upsert

  • Rétablir les données à un état précédent

  • Configurer la gestion des exceptions

  • Configurer la conservation des lots

  • Lire et écrire dans un lac delta

Développer une solution de traitement de flux

  • Créer une solution de traitement de flux en utilisant Stream Analytics et Azure Event Hubs

  • Traiter des données en utilisant le streaming structuré Spark

  • Créer des agrégats fenêtrés

  • Gérer la dérive de schéma

  • Traiter des données de série chronologique

  • Traiter des données sur plusieurs partitions

  • Traiter au sein d’une même partition

  • Configurer des points de contrôle et un filigranage pendant le traitement

  • Mettre les ressources à l’échelle

  • Créer des tests pour les pipelines de données

  • Optimiser les pipelines à des fins analytiques ou transactionnelles

  • Gestion des interruptions

  • Configurer la gestion des exceptions

  • Transmettre des données Upsert en continu

  • Relire les données de flux archivés

  • Lire et écrire dans un lac delta

Gérer les lots et les pipelines

  • Déclencher des lots

  • Gérer les chargements par lots ayant échoué

  • Valider les chargements par lots

  • Gérer des pipelines de données dans des pipelines Azure Data Factory ou Azure Synapse

  • Planifier des pipelines de données dans des pipelines Azure Data Factory ou Azure Synapse

  • Implémenter le contrôle de version pour les artefacts de pipeline

  • Gérer des travaux Spark dans un pipeline

Sécuriser, superviser et optimiser le stockage des données et le traitement des données (30 à 35 %)

Implémenter la sécurité des données

  • Implémenter le masquage des données

  • Chiffrer les données au repos ou en déplacement

  • Implémenter une sécurité au niveau des lignes et des colonnes

  • Implémenter le contrôle d’accès en fonction du rôle (RBAC) Azure

  • Implémenter des listes de contrôle d’accès de type POSIX pour Data Lake Storage Gen2

  • Implémenter une politique de conservation des données

  • Implémenter des points de terminaison sécurisés (privés et publics)

  • Implémenter des jetons de ressource dans Azure Databricks

  • Charger un DataFrame avec des informations sensibles

  • Écrire des données chiffrées dans des tables ou des fichiers Parquet

  • Gérer des informations sensibles

Superviser le stockage des données et le traitement des données

  • Implémenter la journalisation utilisée par Azure Monitor

  • Configurer des services de supervision

  • Superviser le traitement des flux

  • Mesurer les performances du déplacement des données

  • Superviser et mettre à jour les statistiques sur les données d’un système

  • Superviser les performances des pipelines de données

  • Mesurer les performances des requêtes

  • Planifier et superviser les tests de pipeline

  • Interpréter les métriques et les journaux Azure Monitor

  • Implémenter une stratégie d’alerte de pipeline

Optimiser et résoudre les problèmes de stockage des données et de traitement des données

  • Compacter des petits fichiers

  • Gérer l’asymétrie dans les données

  • Gérer le déversement de données

  • Optimiser la gestion des ressources

  • Optimiser les requêtes en utilisant des indexeurs

  • Optimiser les requêtes en utilisant un cache

  • Résoudre les problèmes d’un travail Spark ayant échoué

  • Résoudre les problèmes d’exécution d’un pipeline ayant échoué, y compris les activités exécutées dans des services externes

Ressources de l’étude

Nous vous recommandons de vous entraîner et d’acquérir une expérience pratique avant de passer l’examen. Nous offrons des options d’auto-apprentissage, des formations en salle de classe ainsi que des liens vers de la documentation, des sites communautaires et des vidéos.

Ressources de l’étude Liens vers les ressources d’apprentissage et la documentation
Recevez une formation Choisissez des parcours et des modules d’apprentissage auto-rythmés ou suivez un cours dispensé par un instructeur
Rechercher de la documentation Azure Data Lake Storage
Azure Synapse Analytics
Azure Databricks
Data Factory
Azure Stream Analytics
Hubs d'événements
Azure Monitor
Poser une question Microsoft Q&A | Microsoft Docs
Bénéficier du support de la communauté Analytique sur Azure | TechCommunity
Azure Synapse Analytics | TechCommunity
Suivre Microsoft Learn Microsoft Learn - Microsoft Tech Community
Trouver une vidéo Espace Préparation aux examens
Data Exposed
Parcourir d’autres émissions Microsoft Learn

Journal des modifications

Légende du tableau : Les groupes de rubriques (également appelés « groupes fonctionnels ») apparaissent en gras et sont suivis des objectifs de chaque groupe. Le tableau compare les compétences mesurées pour l’examen entre les deux versions, la troisième colonne décrivant l’étendue des modifications.

Domaine de compétence avant le 24 octobre 2024 Domaine de compétence à compter du 24 octobre 2024 Modifier
Développer le traitement des données Développer le traitement des données Aucun changement
Ingérer et transformer des données Ingérer et transformer des données Secondaire