Guide d’étude de l’examen DP-600 : Implémentation de solutions d’analyse à l’aide de Microsoft Fabric
Objectif de ce document
Ce guide d’étude est destiné à vous aider à comprendre ce qu’il faut attendre de l’examen. Il inclut un résumé des sujets potentiellement couverts par l’examen ainsi que des liens vers des ressources supplémentaires. Aidez-vous des informations et des supports fournis dans ce document pour savoir ce que vous devez étudier afin de vous préparer à l’examen.
Liens utiles | Description |
---|---|
Passer en revue les compétences mesurées à compter du 22 juillet 2024 | Cette liste représente les compétences mesurées APRÈS la date indiquée. Étudiez cette liste si vous prévoyez de passer l’examen APRÈS cette date. |
Passer en revue les compétences mesurées avant le 22 juillet 2024 | Étudiez cette liste de compétences si vous passez votre examen AVANT la date indiquée. |
Journal des modifications | Vous pouvez accéder directement au journal des modifications si vous souhaitez voir les modifications qui seront apportées à la date indiquée. |
Comment obtenir la certification | Certaines certifications nécessitent un seul examen, tandis que d’autres en nécessitent plusieurs. |
Renouvellement de la certification | Les certifications Microsoft Associate, Expert et Specialty expirent chaque année. Vous pouvez les renouveler en passant une évaluation en ligne gratuite sur Microsoft Learn. |
Votre profil Microsoft Learn | En connectant votre profil de certification à Microsoft Learn, vous pouvez planifier et renouveler des examens, mais aussi partager et imprimer des certificats. |
Notation des examens et relevés de notes | Pour réussir l’examen, vous devez obtenir un score de 700 ou plus. |
Bac à sable de l’examen | Vous pouvez explorer l’environnement d’examen en visitant notre examen blanche d’examen. |
Demander des aménagements | Si vous utilisez des appareils d’assistance, si vous avez besoin de temps supplémentaire ou si vous souhaitez un quelconque changement dans n’importe quelle partie de l’examen, vous pouvez faire une demande d’aménagement. |
Effectuer une évaluation d’entraînement gratuite | Testez vos compétences avec des questions pratiques qui vous aideront à vous préparer à l’examen. |
À propos de l’examen
Nos examens sont régulièrement mis à jour pour refléter les compétences demandées pour effectuer les tâches associées à un rôle. Nous avons inclus deux versions des objectifs Compétences mesurées en fonction de la date à laquelle vous passez l’examen.
La version en langue anglaise de l’examen est toujours mise à jour en premier. Certains examens sont disponibles dans d’autres langues et sont mis à jour environ huit semaines après la mise à jour de la version anglaise. Microsoft s’efforce de mettre à jour les versions localisées conformément à la planification indiquée. Toutefois, il est possible que les versions localisées d’un examen ne soient pas mises à jour dans ces délais. Les autres langues disponibles sont indiquées dans la section Planifier l’examen de la page web Détails de l’examen. Si l’examen n’est pas disponible dans la langue de votre choix, vous pouvez demander un temps supplémentaire de 30 minutes pour passer l’examen.
Remarque
Les puces sous chacune des compétences mesurées visent à illustrer notre façon d’évaluer cette compétence. Des sujets connexes peuvent être abordés dans l’examen.
Remarque
La plupart des questions concernent des fonctionnalités qui sont en disponibilité générale (GA). L’examen peut comporter des questions relatives à des fonctionnalités en préversion qui sont déjà couramment utilisées.
Compétences mesurées à compter du 22 juillet 2024
Profil du public
En tant que candidat à cet examen, vous devez avoir une expertise en matière de conception, de création et de déploiement de solutions d’analytique données à l’échelle de l’entreprise.
Vos responsabilités pour ce rôle incluent la transformation des données en ressources d’analytique réutilisables à l’aide de composants Microsoft Fabric, tels que :
Des Lakehouses
Entrepôts de données
Notebooks
Flux de données
Pipelines de données
Modèles sémantiques
Rapports
Vous implémentez les meilleures pratiques d’analytique dans Fabric, notamment le contrôle de version et le déploiement.
Pour implémenter des solutions en tant qu’ingénieur d’analytique Fabric, vous collaborez avec d’autres rôles, tels que :
Architectes solutions
Ingénieurs de données
Scientifiques des données
Ingénieurs IA
Administrateurs de bases de données
Analystes de données Power BI
En plus de travailler en profondeur avec la plateforme Fabric, vous avez besoin d’une expérience avec :
modélisation de données ;
Transformation des données
Contrôle de code source basé sur Git
Analytique exploratoire
Langages de programmation (y compris SQL (Structured Query Language), DAX (Data Analysis Expressions) et PySpark)
Compétences en un clin d’œil
Planifier, implémenter et gérer une solution pour l’analytique données (10 à 15 %)
Préparer et servir des données (40 à 45 %)
Implémenter et gérer des modèles sémantiques (20 à 25 %)
Explorer et analyser des données (20 à 25 %)
Planifier, implémenter et gérer une solution pour l’analytique données (10 à 15 %)
Planifier un environnement d’analytique données
Identifier les exigences d’une solution, notamment les composants, les fonctionnalités, les performances et les unités de conservation des stocks (SKU) de capacité
Recommander des paramètres dans le portail d’administration Fabric
Choisir un type de passerelle de données
Créer un thème de rapport Power BI personnalisé
Implémenter et gérer un environnement d’analyse des données
Implémenter des contrôles d’accès au niveau de l’espace de travail et des éléments pour les éléments Fabric
Implémenter le partage de données pour les espaces de travail, les entrepôts et les lakehouses
Gérer les étiquettes de confidentialité dans les modèles sémantiques et les lakehouses
Configurer les paramètres de l’espace de travail avec Fabric
Gérer la capacité de Fabric et configurer les paramètres de capacité
Gérer le cycle de vie du développement d’analytique
Implémenter la gestion de version pour un espace de travail
Créer et gérer un projet Power BI Desktop (.pbip)
Planifier et implémenter des solutions de déploiement
Effectuer une analyse d’impact des dépendances en aval à partir de lakehouses, d’entrepôts de données, de flux de données et de modèles sémantiques
Déployer et gérer des modèles sémantiques à l’aide du point de terminaison XMLA
Créer et mettre à jour des ressources réutilisables, y compris des fichiers de modèles Power BI (.pbit), des fichiers de source de données Power BI (.pbids) et des modèles sémantiques partagés
Préparer et servir des données (40 à 45 %)
Créer des objets dans un lakehouse ou un entrepôt
Ingérer des données à l’aide d’un pipeline de données, d’un flux de données ou d’un notebook
Créer et gérer des raccourcis
Implémenter le partitionnement de fichiers pour les charges de travail d’analytique dans un lakehouse
Créer des vues, des fonctions et des procédures stockées
Enrichir des données en ajoutant de nouvelles colonnes ou tables
Copie de données
Choisir une méthode appropriée pour copier des données d’une source de données Fabric vers un lakehouse ou un entrepôt
Copier des données à l’aide d’un pipeline de données, d’un flux de données ou d’un notebook
Implémenter une copie rapide lors de l’utilisation de flux de données
Ajouter des procédures stockées, des notebooks et des flux de données à un pipeline de données
Planifier des pipelines de données
Planifier des flux de données et des notebooks
Transformer les données
Implémenter un processus de nettoyage des données
Implémenter un schéma en étoile pour un lakehouse ou un entrepôt, y compris type 1 et type 2 à variation lente des dimensions
Implémenter des tables de pont pour un lakehouse ou un entrepôt
Dénormaliser les données
Agréger ou dé-agréger des données
Fusionner ou joindre des données
Identifier et résoudre les données en double, les données manquantes ou les valeurs Null
Convertir des types de données à l’aide de SQL ou PySpark
Filtrer les données
Optimiser les performances
Identifier et résoudre les goulots d’étranglement des performances de chargement des données dans les flux de données, les notebooks et les requêtes SQL
Implémenter des améliorations des performances dans les flux de données, les notebooks et les requêtes SQL
Identifier et résoudre les problèmes liés à la structure ou à la taille des fichiers de table Delta (y compris les écritures v-order et optimisées)
Implémenter et gérer des modèles sémantiques (20 à 25 %)
Concevoir et générer des modèles sémantiques
Choisir un mode de stockage, y compris Direct Lake
Identifier les cas d’usage pour DAX Studio et Tabular Editor 2
Implémenter un schéma en étoile pour un modèle sémantique
Implémenter des relations, telles que des tables de pont et des relations plusieurs-à-plusieurs
Écrire des calculs qui utilisent des variables et des fonctions DAX, telles que des itérateurs, un filtrage de table, un fenêtrage et des fonctions d’informations
Implémenter des groupes de calcul, des chaînes dynamiques et des paramètres de champ
Concevoir et créer un jeu de données de grand format
Concevoir et créer des modèles composites qui incluent des agrégations
Implémenter la sécurité dynamique au niveau des lignes et au niveau de l’objet
Valider la sécurité au niveau des lignes et la sécurité au niveau de l’objet
Optimiser les modèles sémantiques à l’échelle de l’entreprise
Implémenter des améliorations des performances dans les requêtes et les visuels de rapport
Améliorer les performances DAX avec DAX Studio
Optimiser un modèle sémantique à l’aide de Tabular Editor 2
Implémenter l’actualisation incrémentielle
Explorer et analyser des données (20 à 25 %)
Effectuer une analyse exploratoire
Implémenter l’analytique descriptive et de diagnostic
Intégrer l’analytique prédictive et prescriptive dans un visuel ou un rapport
Données de profil
Interroger des données à l’aide de SQL
Interroger un lakehouse dans Fabric à l’aide de requêtes SQL ou de l’éditeur de requête visuelle
Interroger un entrepôt dans Fabric à l’aide de requêtes SQL ou de l’éditeur de requête visuelle
Se connecter à et interroger des jeux de données en utilisant le point de terminaison XMLA
Ressources de l’étude
Nous vous recommandons de vous entraîner et d’acquérir une expérience pratique avant de passer l’examen. Nous offrons des options d’auto-apprentissage, des formations en salle de classe ainsi que des liens vers de la documentation, des sites communautaires et des vidéos.
Ressources de l’étude | Liens vers les ressources d’apprentissage et la documentation |
---|---|
Recevez une formation | Choisissez des parcours et des modules d’apprentissage auto-rythmés ou suivez un cours dispensé par un instructeur |
Rechercher de la documentation | Microsoft Fabric Qu’est-ce qu’un Lakehouse ? Qu’est-ce que l’entreposage de données ? Entreposage et analytique des données |
Poser une question | Microsoft Q&A | Microsoft Docs |
Bénéficier du support de la communauté | Analytique sur Azure - Microsoft Tech Community Blog Microsoft Fabric |
Suivre Microsoft Learn | Microsoft Learn - Microsoft Tech Community |
Trouver une vidéo | Espace Préparation aux examens Data Exposed Parcourir d’autres émissions Microsoft Learn |
Journal des modifications
Légende du tableau : Les groupes de rubriques (également appelés « groupes fonctionnels ») apparaissent en gras et sont suivis des objectifs de chaque groupe. Le tableau compare les compétences mesurées pour l’examen entre les deux versions, la troisième colonne décrivant l’étendue des modifications.
Domaine de compétence avant le 22 juillet 2024 | Domaine de compétence à compter du 22 juillet 2024 | Modifier |
---|---|---|
Profil du public | Secondaire | |
Planifier, implémenter et gérer une solution pour l’analytique données | Planifier, implémenter et gérer une solution pour l’analytique données | Aucun changement |
Planifier un environnement d’analytique données | Planifier un environnement d’analytique données | Aucun changement |
Implémenter et gérer un environnement d’analyse des données | Implémenter et gérer un environnement d’analyse des données | Secondaire |
Gérer le cycle de vie du développement d’analytique | Gérer le cycle de vie du développement d’analytique | Aucun changement |
Préparer et servir des données | Préparer et servir des données | Aucun changement |
Créer des objets dans un lakehouse ou un entrepôt | Créer des objets dans un lakehouse ou un entrepôt | Aucun changement |
Copie de données | Copie de données | Secondaire |
Transformer les données | Transformer les données | Aucun changement |
Optimiser les performances | Optimiser les performances | Secondaire |
Implémenter et gérer des modèles sémantiques | Implémenter et gérer des modèles sémantiques | Aucun changement |
Concevoir et générer des modèles sémantiques | Concevoir et générer des modèles sémantiques | Aucun changement |
Optimiser les modèles sémantiques à l’échelle de l’entreprise | Optimiser les modèles sémantiques à l’échelle de l’entreprise | Aucun changement |
Explorer et analyser des données | Explorer et analyser des données | Aucun changement |
Effectuer une analyse exploratoire | Effectuer une analyse exploratoire | Aucun changement |
Interroger des données à l’aide de SQL | Interroger des données à l’aide de SQL | Aucun changement |
Compétences mesurées avant le 22 juillet 2024
Profil du public
En tant que candidat à cet examen, vous devez avoir une expertise en matière de conception, de création et de déploiement de solutions d’analytique données à l’échelle de l’entreprise.
Vos responsabilités pour ce rôle incluent la transformation des données en ressources d’analytique réutilisables à l’aide de composants Microsoft Fabric, tels que :
Des Lakehouses
Entrepôts de données
Notebooks
Flux de données
Pipelines de données
Modèles sémantiques
Rapports
Vous implémentez les meilleures pratiques d’analytique dans Fabric, notamment le contrôle de version et le déploiement.
Pour implémenter des solutions en tant qu’ingénieur d’analytique Fabric, vous collaborez avec d’autres rôles, tels que :
Architectes solutions
Ingénieurs de données
Scientifiques des données
Ingénieurs IA
Administrateurs de bases de données
Analystes de données Power BI
En plus de travailler en profondeur avec la plateforme Fabric, vous avez besoin d’une expérience avec :
modélisation de données ;
Transformation des données
Contrôle de code source basé sur Git
Analytique exploratoire
Langages, y compris SQL (Structured Query Language), DAX (Data Analysis Expressions) et PySpark
Compétences en un clin d’œil
Planifier, implémenter et gérer une solution pour l’analytique données (10 à 15 %)
Préparer et servir des données (40 à 45 %)
Implémenter et gérer des modèles sémantiques (20 à 25 %)
Explorer et analyser des données (20 à 25 %)
Planifier, implémenter et gérer une solution pour l’analytique données (10 à 15 %)
Planifier un environnement d’analytique données
Identifier les exigences d’une solution, notamment les composants, les fonctionnalités, les performances et les unités de conservation des stocks (SKU) de capacité
Recommander des paramètres dans le portail d’administration Fabric
Choisir un type de passerelle de données
Créer un thème de rapport Power BI personnalisé
Implémenter et gérer un environnement d’analyse des données
Implémenter des contrôles d’accès au niveau de l’espace de travail et des éléments pour les éléments Fabric
Implémenter le partage de données pour les espaces de travail, les entrepôts et les lakehouses
Gérer les étiquettes de confidentialité dans les modèles sémantiques et les lakehouses
Configurer les paramètres de l’espace de travail avec Fabric
Gérer la capacité Fabric
Gérer le cycle de vie du développement d’analytique
Implémenter la gestion de version pour un espace de travail
Créer et gérer un projet Power BI Desktop (.pbip)
Planifier et implémenter des solutions de déploiement
Effectuer une analyse d’impact des dépendances en aval à partir de lakehouses, d’entrepôts de données, de flux de données et de modèles sémantiques
Déployer et gérer des modèles sémantiques à l’aide du point de terminaison XMLA
Créer et mettre à jour des ressources réutilisables, y compris des fichiers de modèles Power BI (.pbit), des fichiers de source de données Power BI (.pbids) et des modèles sémantiques partagés
Préparer et servir des données (40 à 45 %)
Créer des objets dans un lakehouse ou un entrepôt
Ingérer des données à l’aide d’un pipeline de données, d’un flux de données ou d’un notebook
Créer et gérer des raccourcis
Implémenter le partitionnement de fichiers pour les charges de travail d’analytique dans un lakehouse
Créer des vues, des fonctions et des procédures stockées
Enrichir des données en ajoutant de nouvelles colonnes ou tables
Copie de données
Choisir une méthode appropriée pour copier des données d’une source de données Fabric vers un lakehouse ou un entrepôt
Copier des données à l’aide d’un pipeline de données, d’un flux de données ou d’un notebook
Ajouter des procédures stockées, des notebooks et des flux de données à un pipeline de données
Planifier des pipelines de données
Planifier des flux de données et des notebooks
Transformer les données
Implémenter un processus de nettoyage des données
Implémenter un schéma en étoile pour un lakehouse ou un entrepôt, y compris type 1 et type 2 à variation lente des dimensions
Implémenter des tables de pont pour un lakehouse ou un entrepôt
Dénormaliser les données
Agréger ou dé-agréger des données
Fusionner ou joindre des données
Identifier et résoudre les données en double, les données manquantes ou les valeurs Null
Convertir des types de données à l’aide de SQL ou PySpark
Filtrer les données
Optimiser les performances
Identifier et résoudre les goulots d’étranglement des performances de chargement des données dans les flux de données, les notebooks et les requêtes SQL
Implémenter des améliorations des performances dans les flux de données, les notebooks et les requêtes SQL
Identifier et résoudre les problèmes liés aux tailles de fichier de table Delta
Implémenter et gérer des modèles sémantiques (20 à 25 %)
Concevoir et générer des modèles sémantiques
Choisir un mode de stockage, y compris Direct Lake
Identifier les cas d’usage pour DAX Studio et Tabular Editor 2
Implémenter un schéma en étoile pour un modèle sémantique
Implémenter des relations, telles que des tables de pont et des relations plusieurs-à-plusieurs
Écrire des calculs qui utilisent des variables et des fonctions DAX, telles que des itérateurs, un filtrage de table, un fenêtrage et des fonctions d’informations
Implémenter des groupes de calcul, des chaînes dynamiques et des paramètres de champ
Concevoir et créer un jeu de données de grand format
Concevoir et créer des modèles composites qui incluent des agrégations
Implémenter la sécurité dynamique au niveau des lignes et au niveau de l’objet
Valider la sécurité au niveau des lignes et la sécurité au niveau de l’objet
Optimiser les modèles sémantiques à l’échelle de l’entreprise
Implémenter des améliorations des performances dans les requêtes et les visuels de rapport
Améliorer les performances DAX avec DAX Studio
Optimiser un modèle sémantique à l’aide de Tabular Editor 2
Implémenter l’actualisation incrémentielle
Explorer et analyser des données (20 à 25 %)
Effectuer une analyse exploratoire
Implémenter l’analytique descriptive et de diagnostic
Intégrer l’analytique prédictive et prescriptive dans un visuel ou un rapport
Données de profil
Interroger des données à l’aide de SQL
Interroger un lakehouse dans Fabric à l’aide de requêtes SQL ou de l’éditeur de requête visuelle
Interroger un entrepôt dans Fabric à l’aide de requêtes SQL ou de l’éditeur de requête visuelle
Se connecter à et interroger des jeux de données en utilisant le point de terminaison XMLA