Guide d’étude de l’examen DP-600 : Implémentation de solutions d’analyse à l’aide de Microsoft Fabric
Objectif de ce document
Ce guide d’étude est destiné à vous aider à comprendre ce qu’il faut attendre de l’examen. Il inclut un résumé des sujets potentiellement couverts par l’examen ainsi que des liens vers des ressources supplémentaires. Aidez-vous des informations et des supports fournis dans ce document pour savoir ce que vous devez étudier afin de vous préparer à l’examen.
Liens utiles | Description |
---|---|
Comment obtenir la certification | Certaines certifications nécessitent un seul examen, tandis que d’autres en nécessitent plusieurs. |
Renouvellement de la certification | Les certifications Microsoft Associate, Expert et Specialty expirent chaque année. Vous pouvez les renouveler en passant une évaluation en ligne gratuite sur Microsoft Learn. |
Votre profil Microsoft Learn | En connectant votre profil de certification à Microsoft Learn, vous pouvez planifier et renouveler des examens, mais aussi partager et imprimer des certificats. |
Notation des examens et relevés de notes | Pour réussir l’examen, vous devez obtenir un score de 700 ou plus. |
Bac à sable de l’examen | Vous pouvez explorer l’environnement d’examen en visitant notre examen blanche d’examen. |
Demander des aménagements | Si vous utilisez des appareils d’assistance, si vous avez besoin de temps supplémentaire ou si vous souhaitez un quelconque changement dans n’importe quelle partie de l’examen, vous pouvez faire une demande d’aménagement. |
Effectuer une évaluation d’entraînement gratuite | Testez vos compétences avec des questions pratiques qui vous aideront à vous préparer à l’examen. |
À propos de l’examen
Langages
Certains examens sont localisés dans d’autres langues. Vous les trouverez dans la section Planifier l’examen de la page web Détails de l’examen. Si l’examen n’est pas disponible dans la langue de votre choix, vous pouvez demander un temps supplémentaire de 30 minutes pour passer l’examen.
Notes
Les puces sous chacune des compétences mesurées visent à illustrer notre façon d’évaluer cette compétence. Des sujets connexes peuvent être abordés dans l’examen.
Remarque
La plupart des questions concernent des fonctionnalités qui sont en disponibilité générale (GA). L’examen peut comporter des questions relatives à des fonctionnalités en préversion qui sont déjà couramment utilisées.
Compétences mesurées
Profil du public
En tant que candidat à cet examen, vous devez avoir une expertise en matière de conception, de création et de déploiement de solutions d’analytique données à l’échelle de l’entreprise.
Vos responsabilités pour ce rôle incluent la transformation des données en ressources d’analytique réutilisables à l’aide de composants Microsoft Fabric, tels que :
Des Lakehouses
Entrepôts de données
Notebooks
Flux de données
Pipelines de données
Modèles sémantiques
Rapports
Vous implémentez les meilleures pratiques d’analytique dans Fabric, notamment le contrôle de version et le déploiement.
Pour implémenter des solutions en tant qu’ingénieur d’analytique Fabric, vous collaborez avec d’autres rôles, tels que :
Architectes solutions
Ingénieurs de données
Scientifiques des données
Ingénieurs IA
Administrateurs de bases de données
Analystes de données Power BI
En plus de travailler en profondeur avec la plateforme Fabric, vous avez besoin d’une expérience avec :
modélisation de données ;
Transformation des données
Contrôle de code source basé sur Git
Analytique exploratoire
Langages, y compris SQL (Structured Query Language), DAX (Data Analysis Expressions) et PySpark
Compétences en un clin d’œil
Planifier, implémenter et gérer une solution pour l’analytique données (10 à 15 %)
Préparer et servir des données (40 à 45 %)
Implémenter et gérer des modèles sémantiques (20 à 25 %)
Explorer et analyser des données (20 à 25 %)
Planifier, implémenter et gérer une solution pour l’analytique données (10 à 15 %)
Planifier un environnement d’analytique données
Identifier les exigences d’une solution, notamment les composants, les fonctionnalités, les performances et les unités de conservation des stocks (SKU) de capacité
Recommander des paramètres dans le portail d’administration Fabric
Choisir un type de passerelle de données
Créer un thème de rapport Power BI personnalisé
Implémenter et gérer un environnement d’analyse des données
Implémenter des contrôles d’accès au niveau de l’espace de travail et des éléments pour les éléments Fabric
Implémenter le partage de données pour les espaces de travail, les entrepôts et les lakehouses
Gérer les étiquettes de confidentialité dans les modèles sémantiques et les lakehouses
Configurer les paramètres de l’espace de travail avec Fabric
Gérer la capacité Fabric
Gérer le cycle de vie du développement d’analytique
Implémenter la gestion de version pour un espace de travail
Créer et gérer un projet Power BI Desktop (.pbip)
Planifier et implémenter des solutions de déploiement
Effectuer une analyse d’impact des dépendances en aval à partir de lakehouses, d’entrepôts de données, de flux de données et de modèles sémantiques
Déployer et gérer des modèles sémantiques à l’aide du point de terminaison XMLA
Créer et mettre à jour des ressources réutilisables, y compris des fichiers de modèles Power BI (.pbit), des fichiers de source de données Power BI (.pbids) et des modèles sémantiques partagés
Préparer et servir des données (40 à 45 %)
Créer des objets dans un lakehouse ou un entrepôt
Ingérer des données à l’aide d’un pipeline de données, d’un flux de données ou d’un notebook
Créer et gérer des raccourcis
Implémenter le partitionnement de fichiers pour les charges de travail d’analytique dans un lakehouse
Créer des vues, des fonctions et des procédures stockées
Enrichir des données en ajoutant de nouvelles colonnes ou tables
Copie de données
Choisir une méthode appropriée pour copier des données d’une source de données Fabric vers un lakehouse ou un entrepôt
Copier des données à l’aide d’un pipeline de données, d’un flux de données ou d’un notebook
Ajouter des procédures stockées, des notebooks et des flux de données à un pipeline de données
Planifier des pipelines de données
Planifier des flux de données et des notebooks
Transformer les données
Implémenter un processus de nettoyage des données
Implémenter un schéma en étoile pour un lakehouse ou un entrepôt, y compris type 1 et type 2 à variation lente des dimensions
Implémenter des tables de pont pour un lakehouse ou un entrepôt
Dénormaliser les données
Agréger ou dé-agréger des données
Fusionner ou joindre des données
Identifier et résoudre les données en double, les données manquantes ou les valeurs Null
Convertir des types de données à l’aide de SQL ou PySpark
Filtrer les données
Optimiser les performances
Identifier et résoudre les goulots d’étranglement des performances de chargement des données dans les flux de données, les notebooks et les requêtes SQL
Implémenter des améliorations des performances dans les flux de données, les notebooks et les requêtes SQL
Identifier et résoudre les problèmes liés aux tailles de fichier de table Delta
Implémenter et gérer des modèles sémantiques (20 à 25 %)
Concevoir et générer des modèles sémantiques
Choisir un mode de stockage, y compris Direct Lake
Identifier les cas d’usage pour DAX Studio et Tabular Editor 2
Implémenter un schéma en étoile pour un modèle sémantique
Implémenter des relations, telles que des tables de pont et des relations plusieurs-à-plusieurs
Écrire des calculs qui utilisent des variables et des fonctions DAX, telles que des itérateurs, un filtrage de table, un fenêtrage et des fonctions d’informations
Implémenter des groupes de calcul, des chaînes dynamiques et des paramètres de champ
Concevoir et créer un jeu de données de grand format
Concevoir et créer des modèles composites qui incluent des agrégations
Implémenter la sécurité dynamique au niveau des lignes et au niveau de l’objet
Valider la sécurité au niveau des lignes et la sécurité au niveau de l’objet
Optimiser les modèles sémantiques à l’échelle de l’entreprise
Implémenter des améliorations des performances dans les requêtes et les visuels de rapport
Améliorer les performances DAX avec DAX Studio
Optimiser un modèle sémantique à l’aide de Tabular Editor 2
Implémenter l’actualisation incrémentielle
Explorer et analyser des données (20 à 25 %)
Effectuer une analyse exploratoire
Implémenter l’analytique descriptive et de diagnostic
Intégrer l’analytique prédictive et prescriptive dans un visuel ou un rapport
Données de profil
Interroger des données à l’aide de SQL
Interroger un lakehouse dans Fabric à l’aide de requêtes SQL ou de l’éditeur de requête visuelle
Interroger un entrepôt dans Fabric à l’aide de requêtes SQL ou de l’éditeur de requête visuelle
Se connecter à et interroger des jeux de données en utilisant le point de terminaison XMLA
Ressources de l’étude
Nous vous recommandons de vous entraîner et d’acquérir une expérience pratique avant de passer l’examen. Nous offrons des options d’auto-apprentissage, des formations en salle de classe ainsi que des liens vers de la documentation, des sites communautaires et des vidéos.
Ressources de l’étude | Liens vers les ressources d’apprentissage et la documentation |
---|---|
Recevez une formation | Choisissez des parcours et des modules d’apprentissage auto-rythmés ou suivez un cours dispensé par un instructeur |
Rechercher de la documentation | Microsoft Fabric Qu’est-ce qu’un Lakehouse ? Qu’est-ce que l’entreposage de données ? Entreposage et analytique des données |
Poser une question | Microsoft Q&A | Microsoft Docs |
Bénéficier du support de la communauté | Analytique sur Azure - Microsoft Tech Community Blog Microsoft Fabric |
Suivre Microsoft Learn | Microsoft Learn - Microsoft Tech Community |
Trouver une vidéo | Espace Préparation aux examens Data Exposed Parcourir d’autres émissions Microsoft Learn |