Condividi tramite


Guida allo studio per l'esame DP-600: Implementing Analytics Solutions Using Microsoft Fabric

Scopo di questo documento

Questa guida allo studio dovrebbe aiutare a comprendere cosa aspettarsi dall'esame e include un riepilogo dei possibili argomenti trattati dall'esame e collegamenti a risorse aggiuntive. Le informazioni e i materiali forniti in questo documento dovrebbero aiutare a concentrarsi sugli studi durante la preparazione dell'esame.

Collegamenti utili Descrizione
Esaminare le competenze misurate dal 22 luglio 2024 Questo elenco rappresenta le competenze misurate DOPO la data specificata. Studiare questo elenco se si prevede di sostenere l'esame DOPO tale data.
Esaminare le competenze misurate prima del 22 luglio 2024 Studiare questo elenco di competenze se si sostiene l'esame PRIMA della data specificata.
Registro modifiche È possibile passare direttamente al registro modifiche se si vogliono visualizzare le modifiche che verranno apportate alla data specificata.
Come conseguire la certificazione Alcune certificazioni richiedono solo il superamento di un esame, mentre altre richiedono il superamento di più esami.
Rinnovo della certificazione Le certificazioni Microsoft Associate, Expert e Specialty hanno scadenza annuale. È possibile rinnovarle superando una valutazione online gratuita su Microsoft Learn.
Profilo personale di Microsoft Learn La connessione del profilo di certificazione a Microsoft Learn consente di pianificare e rinnovare gli esami e di condividere e stampare i certificati.
Assegnazione dei punteggi degli esami e report dei punteggi Per superare l'esame, è necessario un punteggio minimo pari a 700.
Sandbox dell'esame è possibile esplorare l'ambiente di esame visitando la sandbox dell'esame.
Richiedere gli alloggi Se si usano dispositivi con assistive technology oppure si ha bisogno di tempo supplementare o di modifiche a qualsiasi aspetto dell'esperienza di esame, è possibile richiedere un alloggio.
Eseguire una valutazione pratica gratuita Testa le tue competenze con domande di prova per contribuire alla preparazione all'esame.

Informazioni sull'esame

Gli esami vengono aggiornati periodicamente per rispecchiare le competenze necessarie per svolgere un ruolo. Sono state incluse due versioni degli obiettivi Competenze misurate a seconda del momento in cui si sostiene l'esame.

La versione in lingua inglese dell'esame viene sempre aggiornata per prima. Alcuni esami vengono localizzati in altre lingue e le versioni localizzate vengono aggiornate circa otto settimane dopo l'aggiornamento della versione inglese. Anche se Microsoft si impegna costantemente ad aggiornare le versioni localizzate di questo esame, come indicato, a volte gli aggiornamenti potrebbero non essere eseguiti in base a questa pianificazione. Le altre lingue disponibili sono elencate nella sezione sulla pianificazione dell'esame della pagina dei dettagli dell'esame. Se l'esame non è disponibile nella lingua preferita, è possibile richiedere 30 minuti in più per completare l'esame.

Nota

I punti elenco che seguono ognuna delle competenze misurate illustrano come viene valutata tale competenza. Nell'esame possono essere trattati alcuni argomenti correlati.

Nota

La maggior parte delle domande riguarda funzionalità disponibili a livello generale. L'esame può contenere anche domande su funzionalità di anteprima, se queste funzionalità sono d'uso comune.

Competenze misurate dal 22 luglio 2024

Profilo dei partecipanti

I candidati per questo esame devono avere competenze specifiche in materia di progettazione, creazione e distribuzione di soluzioni di analisi dei dati su scala aziendale.

Le responsabilità per questo ruolo includono la trasformazione dei dati in asset di analisi riutilizzabili tramite componenti di Microsoft Fabric, ad esempio:

  • Lakehouse

  • Data warehouse

  • Notebook

  • Flussi di dati

  • Pipeline di dati

  • Modelli semantici

  • Report

Si implementano le procedure consigliate per l'analisi in Fabric, tra cui il controllo della versione e la distribuzione.

Per implementare le soluzioni in qualità di ingegnere analitico di Fabric, è necessario collaborare con altri ruoli, ad esempio:

  • Architetti di soluzioni

  • Ingegneri dei dati

  • Scienziati dei dati

  • Tecnici AI

  • Amministratori di database

  • Analisti dei dati di Power BI

Oltre a lavorare in modo approfondito con la piattaforma Fabric, è necessaria un'esperienza con:

  • Modellazione dei dati

  • Trasformazione dei dati

  • Controllo del codice sorgente basato su Git

  • Analisi esplorativa

  • Linguaggi di programmazione, incluso Structured Query Language (SQL), Data Analysis Expressions (DAX) e PySpark

Riepilogo delle competenze

  • Pianificare, implementare e gestire una soluzione per l'analisi dei dati (10-15%)

  • Preparare e gestire i dati (40-45%)

  • Implementazione e gestione dei modelli semantici (20–25%)

  • Esplorazione e analisi dei dati (20–25%)

Pianificare, implementare e gestire una soluzione per l'analisi dei dati (10-15%)

Pianificare un ambiente di analisi dei dati

  • Identificare i requisiti per una soluzione, inclusi componenti, funzionalità, prestazioni e capacità di unità di stockkeeping (SKU)

  • Consigliare le impostazioni nel portale di amministrazione di Fabric

  • Scegliere un tipo di gateway dati

  • Creare un tema personalizzato per il report di Power BI

Implementare e gestire un ambiente di analisi dei dati

  • Implementare controlli di accesso a livello di area di lavoro e di elemento per gli elementi di Fabric

  • Implementare la condivisione dei dati per aree di lavoro, warehouse e lakehouse

  • Gestire le etichette di riservatezza nei modelli semantici e nei lakehouse

  • Configurare le impostazioni dell'area di lavoro abilitate per Fabric

  • Gestire la capacità di Fabric e configurare le impostazioni di capacità

Gestire il ciclo di vita di sviluppo dell'analisi

  • Implementare il controllo della versione per un'area di lavoro

  • Creare e gestire un progetto di Power BI Desktop (con estensione .pbip)

  • Pianificare e implementare soluzioni di distribuzione

  • Eseguire l'analisi dell'impatto delle dipendenze downstream da lakehouse, data warehouse, flussi di dati e modelli semantici

  • Distribuire e gestire modelli semantici usando l'endpoint XMLA

  • Creare e aggiornare asset riutilizzabili, inclusi file di modello di Power BI (con estensione .pbit), file di origine dati di Power BI (pbids) e modelli semantici condivisi

Preparare e gestire i dati (40-45%)

Creare oggetti in un lakehouse o in un warehouse

  • Inserire dati usando una pipeline di dati, un flusso di dati o un notebook

  • Creare e gestire i collegamenti

  • Implementare il partizionamento dei file per i carichi di lavoro di analisi in un lakehouse

  • Creare viste, funzioni e stored procedure

  • Arricchire i dati aggiungendo nuove colonne o tabelle

Copiare i dati

  • Scegliere un metodo appropriato per copiare dati da un'origine dati di Fabric a un lakehouse o a un warehouse

  • Copiare dati usando una pipeline di dati, un flusso di dati o un notebook

  • Implementare la copia rapida quando si usano flussi di dati

  • Aggiungere stored procedure, notebook e flussi di dati a una pipeline di dati

  • Pianificare le pipeline di dati

  • Pianificare flussi di dati e notebook

Trasforma dati

  • Implementare un processo di pulizia dei dati

  • Implementare uno schema star per una lakehouse o un magazzino, incluse le dimensioni di tipo 1 e tipo 2 a modifica lenta

  • Implementare tabelle bridge per un lakehouse o un magazzino

  • Denormalizzare i dati

  • Aggregare o deaggregare i dati

  • Fare merge o unire dati

  • Identificare e risolvere dati duplicati, dati mancanti o valori Null

  • Convertire i tipi di dati usando SQL o PySpark

  • Filtro dei dati

Ottimizzare le prestazioni

  • Identificare e risolvere i colli di bottiglia delle prestazioni di caricamento dei dati nei flussi di dati, nei notebook e nelle query SQL

  • Implementare miglioramenti delle prestazioni nei flussi di dati, nei notebook e nelle query SQL

  • Identificare e risolvere problemi relativi alla struttura o alle dimensioni dei file di tabella Delta, incluse le scritture ottimizzate e il v-order

Implementazione e gestione dei modelli semantici (20–25%)

Progettare e creare modelli semantici

  • Scegliere una modalità di archiviazione, incluso Direct Lake

  • Identificare i casi d'uso per DAX Studio e l'editor tabulare 2

  • Implementare uno schema star per un modello semantico

  • Implementare relazioni, ad esempio tabelle bridge e relazioni molti-a-molti

  • Scrivere calcoli che usano variabili e funzioni DAX, ad esempio iteratori, filtri di tabelle, finestre e funzioni informative

  • Implementare gruppi di calcolo, stringhe dinamiche e parametri di campo

  • Progettare e creare un set di dati in formato di grandi dimensioni

  • Progettare e creare modelli compositi che includono aggregazioni

  • Implementare la sicurezza dinamica a livello di riga e la sicurezza a livello di oggetto

  • Convalidare la sicurezza a livello di riga e la sicurezza a livello di oggetto

Ottimizzare i modelli semantici su scala aziendale

  • Implementare miglioramenti delle prestazioni nelle query e negli oggetti visivi dei report

  • Migliorare le prestazioni DAX usando DAX Studio

  • Ottimizzare un modello semantico usando l'editor tabulare 2

  • Implementare l'aggiornamento incrementale

Esplorazione e analisi dei dati (20–25%)

Eseguire analisi esplorative

  • Implementare analisi descrittive e diagnostiche

  • Integrare l'analisi prescrittiva e predittiva in un oggetto visivo o un report

  • Dati del profilo

Eseguire query sui dati usando SQL

  • Eseguire query in un lakehouse in Fabric usando query SQL o l'editor di query visive

  • Eseguire query su un warehouse in Fabric usando query SQL o l'editor di query visive

  • Connettersi ai set di dati ed eseguire query sui set di dati usando l'endpoint XMLA

Risorse di studio

È consigliabile seguire il corso di formazione e acquisire esperienza pratica prima di sostenere l'esame. Sono disponibili opzioni di studio in autonomia e formazione in aula oltre a collegamenti a documentazione, siti della community e video.

Risorse di studio Collegamenti alle sessioni di apprendimento e alla documentazione
Approfondisci Scegliere tra percorsi di apprendimento e moduli autogestiti o seguire un corso con docente
Trova la documentazione Microsoft Fabric
Che cos'è un lakehouse?
Che cos'è il data warehousing?
Data warehousing e analisi
Fai una domanda Microsoft Q&A | Microsoft Docs
Richiedi supporto della community Analisi in Azure - Microsoft Tech Community
Microsoft Fabric Blog
Segui Microsoft Learn Microsoft Learn - Microsoft Tech Community
Trova un video Zona idoneità per gli esami
Dati esposti
Visualizzare altri video Microsoft Learn

Registro modifiche

Chiave per comprendere la tabella: i gruppi di argomenti (noti anche come gruppi funzionali) sono in grassetto e sono seguiti dagli obiettivi all'interno di ogni gruppo. La tabella fornisce un confronto tra le due versioni delle competenze misurate per l'esame e la terza colonna descrive l'entità delle modifiche.

Area delle competenze precedente al 22 luglio 2024 Area delle competenze dal 22 luglio 2024 Modifica
Profilo dei partecipanti Secondarie
Pianificare, implementare e gestire una soluzione per l’analisi dei dati Pianificare, implementare e gestire una soluzione per l’analisi dei dati Nessuna modifica
Pianificare un ambiente di analisi dei dati Pianificare un ambiente di analisi dei dati Nessuna modifica
Implementare e gestire un ambiente di analisi dei dati Implementare e gestire un ambiente di analisi dei dati Secondarie
Gestire il ciclo di vita di sviluppo dell'analisi Gestire il ciclo di vita di sviluppo dell'analisi Nessuna modifica
Preparare e gestire i dati Preparare e gestire i dati Nessuna modifica
Creare oggetti in un lakehouse o in un warehouse Creare oggetti in un lakehouse o in un warehouse Nessuna modifica
Copiare i dati Copiare i dati Secondarie
Trasforma dati Trasforma dati Nessuna modifica
Ottimizzare le prestazioni Ottimizzare le prestazioni Secondarie
Implementare e gestire modelli semantici Implementare e gestire modelli semantici Nessuna modifica
Progettare e creare modelli semantici Progettare e creare modelli semantici Nessuna modifica
Ottimizzare i modelli semantici su scala aziendale Ottimizzare i modelli semantici su scala aziendale Nessuna modifica
Esplorare e analizzare dati Esplorare e analizzare dati Nessuna modifica
Eseguire analisi esplorative Eseguire analisi esplorative Nessuna modifica
Eseguire query sui dati usando SQL Eseguire query sui dati usando SQL Nessuna modifica

Competenze misurate prima del 22 luglio 2024

Profilo dei partecipanti

I candidati per questo esame devono avere competenze specifiche in materia di progettazione, creazione e distribuzione di soluzioni di analisi dei dati su scala aziendale.

Le responsabilità per questo ruolo includono la trasformazione dei dati in asset di analisi riutilizzabili tramite componenti di Microsoft Fabric, ad esempio:

  • Lakehouse

  • Data warehouse

  • Notebook

  • Flussi di dati

  • Pipeline di dati

  • Modelli semantici

  • Report

Si implementano le procedure consigliate per l'analisi in Fabric, tra cui il controllo della versione e la distribuzione.

Per implementare le soluzioni in qualità di ingegnere analitico di Fabric, è necessario collaborare con altri ruoli, ad esempio:

  • Architetti di soluzioni

  • Ingegneri dei dati

  • Scienziati dei dati

  • Tecnici AI

  • Amministratori di database

  • Analisti dei dati di Power BI

Oltre a lavorare in modo approfondito con la piattaforma Fabric, è necessaria un'esperienza con:

  • Modellazione dei dati

  • Trasformazione dei dati

  • Controllo del codice sorgente basato su Git

  • Analisi esplorativa

  • Linguaggi, tra cui SQL (Structured Query Language), DAX (Data Analysis Expressions) e PySpark

Riepilogo delle competenze

  • Pianificare, implementare e gestire una soluzione per l'analisi dei dati (10-15%)

  • Preparare e gestire i dati (40-45%)

  • Implementazione e gestione dei modelli semantici (20–25%)

  • Esplorazione e analisi dei dati (20–25%)

Pianificare, implementare e gestire una soluzione per l'analisi dei dati (10-15%)

Pianificare un ambiente di analisi dei dati

  • Identificare i requisiti per una soluzione, inclusi componenti, funzionalità, prestazioni e capacità di unità di stockkeeping (SKU)

  • Consigliare le impostazioni nel portale di amministrazione di Fabric

  • Scegliere un tipo di gateway dati

  • Creare un tema personalizzato per il report di Power BI

Implementare e gestire un ambiente di analisi dei dati

  • Implementare controlli di accesso a livello di area di lavoro e di elemento per gli elementi di Fabric

  • Implementare la condivisione dei dati per aree di lavoro, warehouse e lakehouse

  • Gestire le etichette di riservatezza nei modelli semantici e nei lakehouse

  • Configurare le impostazioni dell'area di lavoro abilitate per Fabric

  • Gestire la capacità dell'infrastruttura

Gestire il ciclo di vita di sviluppo dell'analisi

  • Implementare il controllo della versione per un'area di lavoro

  • Creare e gestire un progetto di Power BI Desktop (con estensione .pbip)

  • Pianificare e implementare soluzioni di distribuzione

  • Eseguire l'analisi dell'impatto delle dipendenze downstream da lakehouse, data warehouse, flussi di dati e modelli semantici

  • Distribuire e gestire modelli semantici usando l'endpoint XMLA

  • Creare e aggiornare asset riutilizzabili, inclusi file di modello di Power BI (con estensione .pbit), file di origine dati di Power BI (pbids) e modelli semantici condivisi

Preparare e gestire i dati (40-45%)

Creare oggetti in un lakehouse o in un warehouse

  • Inserire dati usando una pipeline di dati, un flusso di dati o un notebook

  • Creare e gestire i collegamenti

  • Implementare il partizionamento dei file per i carichi di lavoro di analisi in un lakehouse

  • Creare viste, funzioni e stored procedure

  • Arricchire i dati aggiungendo nuove colonne o tabelle

Copiare i dati

  • Scegliere un metodo appropriato per copiare dati da un'origine dati di Fabric a un lakehouse o a un warehouse

  • Copiare dati usando una pipeline di dati, un flusso di dati o un notebook

  • Aggiungere stored procedure, notebook e flussi di dati a una pipeline di dati

  • Pianificare le pipeline di dati

  • Pianificare flussi di dati e notebook

Trasforma dati

  • Implementare un processo di pulizia dei dati

  • Implementare uno schema star per una lakehouse o un magazzino, incluse le dimensioni di tipo 1 e tipo 2 a modifica lenta

  • Implementare tabelle bridge per un lakehouse o un magazzino

  • Denormalizzare i dati

  • Aggregare o deaggregare i dati

  • Fare merge o unire dati

  • Identificare e risolvere dati duplicati, dati mancanti o valori Null

  • Convertire i tipi di dati usando SQL o PySpark

  • Filtro dei dati

Ottimizzare le prestazioni

  • Identificare e risolvere i colli di bottiglia delle prestazioni di caricamento dei dati nei flussi di dati, nei notebook e nelle query SQL

  • Implementare miglioramenti delle prestazioni nei flussi di dati, nei notebook e nelle query SQL

  • Identificare e risolvere i problemi relativi alle dimensioni dei file di tabella Delta

Implementazione e gestione dei modelli semantici (20–25%)

Progettare e creare modelli semantici

  • Scegliere una modalità di archiviazione, incluso Direct Lake

  • Identificare i casi d'uso per DAX Studio e l'editor tabulare 2

  • Implementare uno schema star per un modello semantico

  • Implementare relazioni, ad esempio tabelle bridge e relazioni molti-a-molti

  • Scrivere calcoli che usano variabili e funzioni DAX, ad esempio iteratori, filtri di tabelle, finestre e funzioni informative

  • Implementare gruppi di calcolo, stringhe dinamiche e parametri di campo

  • Progettare e creare un set di dati in formato di grandi dimensioni

  • Progettare e creare modelli compositi che includono aggregazioni

  • Implementare la sicurezza dinamica a livello di riga e la sicurezza a livello di oggetto

  • Convalidare la sicurezza a livello di riga e la sicurezza a livello di oggetto

Ottimizzare i modelli semantici su scala aziendale

  • Implementare miglioramenti delle prestazioni nelle query e negli oggetti visivi dei report

  • Migliorare le prestazioni DAX usando DAX Studio

  • Ottimizzare un modello semantico usando l'editor tabulare 2

  • Implementare l'aggiornamento incrementale

Esplorazione e analisi dei dati (20–25%)

Eseguire analisi esplorative

  • Implementare analisi descrittive e diagnostiche

  • Integrare l'analisi prescrittiva e predittiva in un oggetto visivo o un report

  • Dati del profilo

Eseguire query sui dati usando SQL

  • Eseguire query in un lakehouse in Fabric usando query SQL o l'editor di query visive

  • Eseguire query su un warehouse in Fabric usando query SQL o l'editor di query visive

  • Connettersi ai set di dati ed eseguire query sui set di dati usando l'endpoint XMLA