Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Scopo di questo documento
Questa guida allo studio dovrebbe aiutare a comprendere cosa aspettarsi dall'esame e include un riepilogo dei possibili argomenti trattati dall'esame e collegamenti a risorse aggiuntive. Le informazioni e i materiali forniti in questo documento dovrebbero aiutare a concentrarsi sugli studi durante la preparazione dell'esame.
Collegamenti utili | Descrizione |
---|---|
Esaminare le competenze misurate dal 22 luglio 2024 | Questo elenco rappresenta le competenze misurate DOPO la data specificata. Studiare questo elenco se si prevede di sostenere l'esame DOPO tale data. |
Esaminare le competenze misurate prima del 22 luglio 2024 | Studiare questo elenco di competenze se si sostiene l'esame PRIMA della data specificata. |
Registro modifiche | È possibile passare direttamente al registro modifiche se si vogliono visualizzare le modifiche che verranno apportate alla data specificata. |
Come conseguire la certificazione | Alcune certificazioni richiedono solo il superamento di un esame, mentre altre richiedono il superamento di più esami. |
Rinnovo della certificazione | Le certificazioni Microsoft Associate, Expert e Specialty hanno scadenza annuale. È possibile rinnovarle superando una valutazione online gratuita su Microsoft Learn. |
Profilo personale di Microsoft Learn | La connessione del profilo di certificazione a Microsoft Learn consente di pianificare e rinnovare gli esami e di condividere e stampare i certificati. |
Assegnazione dei punteggi degli esami e report dei punteggi | Per superare l'esame, è necessario un punteggio minimo pari a 700. |
Sandbox dell'esame | è possibile esplorare l'ambiente di esame visitando la sandbox dell'esame. |
Richiedere gli alloggi | Se si usano dispositivi con assistive technology oppure si ha bisogno di tempo supplementare o di modifiche a qualsiasi aspetto dell'esperienza di esame, è possibile richiedere un alloggio. |
Eseguire una valutazione pratica gratuita | Testa le tue competenze con domande di prova per contribuire alla preparazione all'esame. |
Informazioni sull'esame
Gli esami vengono aggiornati periodicamente per rispecchiare le competenze necessarie per svolgere un ruolo. Sono state incluse due versioni degli obiettivi Competenze misurate a seconda del momento in cui si sostiene l'esame.
La versione in lingua inglese dell'esame viene sempre aggiornata per prima. Alcuni esami vengono localizzati in altre lingue e le versioni localizzate vengono aggiornate circa otto settimane dopo l'aggiornamento della versione inglese. Anche se Microsoft si impegna costantemente ad aggiornare le versioni localizzate di questo esame, come indicato, a volte gli aggiornamenti potrebbero non essere eseguiti in base a questa pianificazione. Le altre lingue disponibili sono elencate nella sezione sulla pianificazione dell'esame della pagina dei dettagli dell'esame. Se l'esame non è disponibile nella lingua preferita, è possibile richiedere 30 minuti in più per completare l'esame.
Nota
I punti elenco che seguono ognuna delle competenze misurate illustrano come viene valutata tale competenza. Nell'esame possono essere trattati alcuni argomenti correlati.
Nota
La maggior parte delle domande riguarda funzionalità disponibili a livello generale. L'esame può contenere anche domande su funzionalità di anteprima, se queste funzionalità sono d'uso comune.
Competenze misurate dal 22 luglio 2024
Profilo dei partecipanti
I candidati per questo esame devono avere competenze specifiche in materia di progettazione, creazione e distribuzione di soluzioni di analisi dei dati su scala aziendale.
Le responsabilità per questo ruolo includono la trasformazione dei dati in asset di analisi riutilizzabili tramite componenti di Microsoft Fabric, ad esempio:
Lakehouse
Data warehouse
Notebook
Flussi di dati
Pipeline di dati
Modelli semantici
Report
Si implementano le procedure consigliate per l'analisi in Fabric, tra cui il controllo della versione e la distribuzione.
Per implementare le soluzioni in qualità di ingegnere analitico di Fabric, è necessario collaborare con altri ruoli, ad esempio:
Architetti di soluzioni
Ingegneri dei dati
Scienziati dei dati
Tecnici AI
Amministratori di database
Analisti dei dati di Power BI
Oltre a lavorare in modo approfondito con la piattaforma Fabric, è necessaria un'esperienza con:
Modellazione dei dati
Trasformazione dei dati
Controllo del codice sorgente basato su Git
Analisi esplorativa
Linguaggi di programmazione, incluso Structured Query Language (SQL), Data Analysis Expressions (DAX) e PySpark
Riepilogo delle competenze
Pianificare, implementare e gestire una soluzione per l'analisi dei dati (10-15%)
Preparare e gestire i dati (40-45%)
Implementazione e gestione dei modelli semantici (20–25%)
Esplorazione e analisi dei dati (20–25%)
Pianificare, implementare e gestire una soluzione per l'analisi dei dati (10-15%)
Pianificare un ambiente di analisi dei dati
Identificare i requisiti per una soluzione, inclusi componenti, funzionalità, prestazioni e capacità di unità di stockkeeping (SKU)
Consigliare le impostazioni nel portale di amministrazione di Fabric
Scegliere un tipo di gateway dati
Creare un tema personalizzato per il report di Power BI
Implementare e gestire un ambiente di analisi dei dati
Implementare controlli di accesso a livello di area di lavoro e di elemento per gli elementi di Fabric
Implementare la condivisione dei dati per aree di lavoro, warehouse e lakehouse
Gestire le etichette di riservatezza nei modelli semantici e nei lakehouse
Configurare le impostazioni dell'area di lavoro abilitate per Fabric
Gestire la capacità di Fabric e configurare le impostazioni di capacità
Gestire il ciclo di vita di sviluppo dell'analisi
Implementare il controllo della versione per un'area di lavoro
Creare e gestire un progetto di Power BI Desktop (con estensione .pbip)
Pianificare e implementare soluzioni di distribuzione
Eseguire l'analisi dell'impatto delle dipendenze downstream da lakehouse, data warehouse, flussi di dati e modelli semantici
Distribuire e gestire modelli semantici usando l'endpoint XMLA
Creare e aggiornare asset riutilizzabili, inclusi file di modello di Power BI (con estensione .pbit), file di origine dati di Power BI (pbids) e modelli semantici condivisi
Preparare e gestire i dati (40-45%)
Creare oggetti in un lakehouse o in un warehouse
Inserire dati usando una pipeline di dati, un flusso di dati o un notebook
Creare e gestire i collegamenti
Implementare il partizionamento dei file per i carichi di lavoro di analisi in un lakehouse
Creare viste, funzioni e stored procedure
Arricchire i dati aggiungendo nuove colonne o tabelle
Copiare i dati
Scegliere un metodo appropriato per copiare dati da un'origine dati di Fabric a un lakehouse o a un warehouse
Copiare dati usando una pipeline di dati, un flusso di dati o un notebook
Implementare la copia rapida quando si usano flussi di dati
Aggiungere stored procedure, notebook e flussi di dati a una pipeline di dati
Pianificare le pipeline di dati
Pianificare flussi di dati e notebook
Trasforma dati
Implementare un processo di pulizia dei dati
Implementare uno schema star per una lakehouse o un magazzino, incluse le dimensioni di tipo 1 e tipo 2 a modifica lenta
Implementare tabelle bridge per un lakehouse o un magazzino
Denormalizzare i dati
Aggregare o deaggregare i dati
Fare merge o unire dati
Identificare e risolvere dati duplicati, dati mancanti o valori Null
Convertire i tipi di dati usando SQL o PySpark
Filtro dei dati
Ottimizzare le prestazioni
Identificare e risolvere i colli di bottiglia delle prestazioni di caricamento dei dati nei flussi di dati, nei notebook e nelle query SQL
Implementare miglioramenti delle prestazioni nei flussi di dati, nei notebook e nelle query SQL
Identificare e risolvere problemi relativi alla struttura o alle dimensioni dei file di tabella Delta, incluse le scritture ottimizzate e il v-order
Implementazione e gestione dei modelli semantici (20–25%)
Progettare e creare modelli semantici
Scegliere una modalità di archiviazione, incluso Direct Lake
Identificare i casi d'uso per DAX Studio e l'editor tabulare 2
Implementare uno schema star per un modello semantico
Implementare relazioni, ad esempio tabelle bridge e relazioni molti-a-molti
Scrivere calcoli che usano variabili e funzioni DAX, ad esempio iteratori, filtri di tabelle, finestre e funzioni informative
Implementare gruppi di calcolo, stringhe dinamiche e parametri di campo
Progettare e creare un set di dati in formato di grandi dimensioni
Progettare e creare modelli compositi che includono aggregazioni
Implementare la sicurezza dinamica a livello di riga e la sicurezza a livello di oggetto
Convalidare la sicurezza a livello di riga e la sicurezza a livello di oggetto
Ottimizzare i modelli semantici su scala aziendale
Implementare miglioramenti delle prestazioni nelle query e negli oggetti visivi dei report
Migliorare le prestazioni DAX usando DAX Studio
Ottimizzare un modello semantico usando l'editor tabulare 2
Implementare l'aggiornamento incrementale
Esplorazione e analisi dei dati (20–25%)
Eseguire analisi esplorative
Implementare analisi descrittive e diagnostiche
Integrare l'analisi prescrittiva e predittiva in un oggetto visivo o un report
Dati del profilo
Eseguire query sui dati usando SQL
Eseguire query in un lakehouse in Fabric usando query SQL o l'editor di query visive
Eseguire query su un warehouse in Fabric usando query SQL o l'editor di query visive
Connettersi ai set di dati ed eseguire query sui set di dati usando l'endpoint XMLA
Risorse di studio
È consigliabile seguire il corso di formazione e acquisire esperienza pratica prima di sostenere l'esame. Sono disponibili opzioni di studio in autonomia e formazione in aula oltre a collegamenti a documentazione, siti della community e video.
Risorse di studio | Collegamenti alle sessioni di apprendimento e alla documentazione |
---|---|
Approfondisci | Scegliere tra percorsi di apprendimento e moduli autogestiti o seguire un corso con docente |
Trova la documentazione |
Microsoft Fabric Che cos'è un lakehouse? Che cos'è il data warehousing? Data warehousing e analisi |
Fai una domanda | Microsoft Q&A | Microsoft Docs |
Richiedi supporto della community |
Analisi in Azure - Microsoft Tech Community Microsoft Fabric Blog |
Segui Microsoft Learn | Microsoft Learn - Microsoft Tech Community |
Trova un video |
Zona idoneità per gli esami Dati esposti Visualizzare altri video Microsoft Learn |
Registro modifiche
Chiave per comprendere la tabella: i gruppi di argomenti (noti anche come gruppi funzionali) sono in grassetto e sono seguiti dagli obiettivi all'interno di ogni gruppo. La tabella fornisce un confronto tra le due versioni delle competenze misurate per l'esame e la terza colonna descrive l'entità delle modifiche.
Area delle competenze precedente al 22 luglio 2024 | Area delle competenze dal 22 luglio 2024 | Modifica |
---|---|---|
Profilo dei partecipanti | Secondarie | |
Pianificare, implementare e gestire una soluzione per l’analisi dei dati | Pianificare, implementare e gestire una soluzione per l’analisi dei dati | Nessuna modifica |
Pianificare un ambiente di analisi dei dati | Pianificare un ambiente di analisi dei dati | Nessuna modifica |
Implementare e gestire un ambiente di analisi dei dati | Implementare e gestire un ambiente di analisi dei dati | Secondarie |
Gestire il ciclo di vita di sviluppo dell'analisi | Gestire il ciclo di vita di sviluppo dell'analisi | Nessuna modifica |
Preparare e gestire i dati | Preparare e gestire i dati | Nessuna modifica |
Creare oggetti in un lakehouse o in un warehouse | Creare oggetti in un lakehouse o in un warehouse | Nessuna modifica |
Copiare i dati | Copiare i dati | Secondarie |
Trasforma dati | Trasforma dati | Nessuna modifica |
Ottimizzare le prestazioni | Ottimizzare le prestazioni | Secondarie |
Implementare e gestire modelli semantici | Implementare e gestire modelli semantici | Nessuna modifica |
Progettare e creare modelli semantici | Progettare e creare modelli semantici | Nessuna modifica |
Ottimizzare i modelli semantici su scala aziendale | Ottimizzare i modelli semantici su scala aziendale | Nessuna modifica |
Esplorare e analizzare dati | Esplorare e analizzare dati | Nessuna modifica |
Eseguire analisi esplorative | Eseguire analisi esplorative | Nessuna modifica |
Eseguire query sui dati usando SQL | Eseguire query sui dati usando SQL | Nessuna modifica |
Competenze misurate prima del 22 luglio 2024
Profilo dei partecipanti
I candidati per questo esame devono avere competenze specifiche in materia di progettazione, creazione e distribuzione di soluzioni di analisi dei dati su scala aziendale.
Le responsabilità per questo ruolo includono la trasformazione dei dati in asset di analisi riutilizzabili tramite componenti di Microsoft Fabric, ad esempio:
Lakehouse
Data warehouse
Notebook
Flussi di dati
Pipeline di dati
Modelli semantici
Report
Si implementano le procedure consigliate per l'analisi in Fabric, tra cui il controllo della versione e la distribuzione.
Per implementare le soluzioni in qualità di ingegnere analitico di Fabric, è necessario collaborare con altri ruoli, ad esempio:
Architetti di soluzioni
Ingegneri dei dati
Scienziati dei dati
Tecnici AI
Amministratori di database
Analisti dei dati di Power BI
Oltre a lavorare in modo approfondito con la piattaforma Fabric, è necessaria un'esperienza con:
Modellazione dei dati
Trasformazione dei dati
Controllo del codice sorgente basato su Git
Analisi esplorativa
Linguaggi, tra cui SQL (Structured Query Language), DAX (Data Analysis Expressions) e PySpark
Riepilogo delle competenze
Pianificare, implementare e gestire una soluzione per l'analisi dei dati (10-15%)
Preparare e gestire i dati (40-45%)
Implementazione e gestione dei modelli semantici (20–25%)
Esplorazione e analisi dei dati (20–25%)
Pianificare, implementare e gestire una soluzione per l'analisi dei dati (10-15%)
Pianificare un ambiente di analisi dei dati
Identificare i requisiti per una soluzione, inclusi componenti, funzionalità, prestazioni e capacità di unità di stockkeeping (SKU)
Consigliare le impostazioni nel portale di amministrazione di Fabric
Scegliere un tipo di gateway dati
Creare un tema personalizzato per il report di Power BI
Implementare e gestire un ambiente di analisi dei dati
Implementare controlli di accesso a livello di area di lavoro e di elemento per gli elementi di Fabric
Implementare la condivisione dei dati per aree di lavoro, warehouse e lakehouse
Gestire le etichette di riservatezza nei modelli semantici e nei lakehouse
Configurare le impostazioni dell'area di lavoro abilitate per Fabric
Gestire la capacità dell'infrastruttura
Gestire il ciclo di vita di sviluppo dell'analisi
Implementare il controllo della versione per un'area di lavoro
Creare e gestire un progetto di Power BI Desktop (con estensione .pbip)
Pianificare e implementare soluzioni di distribuzione
Eseguire l'analisi dell'impatto delle dipendenze downstream da lakehouse, data warehouse, flussi di dati e modelli semantici
Distribuire e gestire modelli semantici usando l'endpoint XMLA
Creare e aggiornare asset riutilizzabili, inclusi file di modello di Power BI (con estensione .pbit), file di origine dati di Power BI (pbids) e modelli semantici condivisi
Preparare e gestire i dati (40-45%)
Creare oggetti in un lakehouse o in un warehouse
Inserire dati usando una pipeline di dati, un flusso di dati o un notebook
Creare e gestire i collegamenti
Implementare il partizionamento dei file per i carichi di lavoro di analisi in un lakehouse
Creare viste, funzioni e stored procedure
Arricchire i dati aggiungendo nuove colonne o tabelle
Copiare i dati
Scegliere un metodo appropriato per copiare dati da un'origine dati di Fabric a un lakehouse o a un warehouse
Copiare dati usando una pipeline di dati, un flusso di dati o un notebook
Aggiungere stored procedure, notebook e flussi di dati a una pipeline di dati
Pianificare le pipeline di dati
Pianificare flussi di dati e notebook
Trasforma dati
Implementare un processo di pulizia dei dati
Implementare uno schema star per una lakehouse o un magazzino, incluse le dimensioni di tipo 1 e tipo 2 a modifica lenta
Implementare tabelle bridge per un lakehouse o un magazzino
Denormalizzare i dati
Aggregare o deaggregare i dati
Fare merge o unire dati
Identificare e risolvere dati duplicati, dati mancanti o valori Null
Convertire i tipi di dati usando SQL o PySpark
Filtro dei dati
Ottimizzare le prestazioni
Identificare e risolvere i colli di bottiglia delle prestazioni di caricamento dei dati nei flussi di dati, nei notebook e nelle query SQL
Implementare miglioramenti delle prestazioni nei flussi di dati, nei notebook e nelle query SQL
Identificare e risolvere i problemi relativi alle dimensioni dei file di tabella Delta
Implementazione e gestione dei modelli semantici (20–25%)
Progettare e creare modelli semantici
Scegliere una modalità di archiviazione, incluso Direct Lake
Identificare i casi d'uso per DAX Studio e l'editor tabulare 2
Implementare uno schema star per un modello semantico
Implementare relazioni, ad esempio tabelle bridge e relazioni molti-a-molti
Scrivere calcoli che usano variabili e funzioni DAX, ad esempio iteratori, filtri di tabelle, finestre e funzioni informative
Implementare gruppi di calcolo, stringhe dinamiche e parametri di campo
Progettare e creare un set di dati in formato di grandi dimensioni
Progettare e creare modelli compositi che includono aggregazioni
Implementare la sicurezza dinamica a livello di riga e la sicurezza a livello di oggetto
Convalidare la sicurezza a livello di riga e la sicurezza a livello di oggetto
Ottimizzare i modelli semantici su scala aziendale
Implementare miglioramenti delle prestazioni nelle query e negli oggetti visivi dei report
Migliorare le prestazioni DAX usando DAX Studio
Ottimizzare un modello semantico usando l'editor tabulare 2
Implementare l'aggiornamento incrementale
Esplorazione e analisi dei dati (20–25%)
Eseguire analisi esplorative
Implementare analisi descrittive e diagnostiche
Integrare l'analisi prescrittiva e predittiva in un oggetto visivo o un report
Dati del profilo
Eseguire query sui dati usando SQL
Eseguire query in un lakehouse in Fabric usando query SQL o l'editor di query visive
Eseguire query su un warehouse in Fabric usando query SQL o l'editor di query visive
Connettersi ai set di dati ed eseguire query sui set di dati usando l'endpoint XMLA