Integrazione dei dati su larga scala con Azure Data Factory o una pipeline di Azure Synapse
In questo percorso di apprendimento gli studenti imparano a creare e gestire le pipeline di dati nel cloud usando Azure Data Factory.
Prerequisiti
Devono essere soddisfatti i prerequisiti seguenti:
- Accesso al portale di Azure.
- Conoscenza delle opzioni di archiviazione di Azure.
- Conoscenza delle opzioni di calcolo di Azure.
Codice obiettivo
Si vuole richiedere un codice obiettivo?
Moduli in questo percorso di apprendimento
In questo modulo si esamineranno Azure Data Factory e i componenti di base che consentono di creare soluzioni di inserimento dati su larga scala nel cloud
In questo modulo verranno illustrati i vari metodi che possono essere usati per inserire i dati in archivi dati diversi con Azure Data Factory.
In questo modulo si apprenderà come eseguire le attività comuni di trasformazione e pulizia dei dati in Azure Data Factory senza usare codice.
In questo modulo si apprenderà come implementare una dimensione a modifica lenta tramite Azure Data Factory o Azure Synapse Pipelines.
In questo modulo si apprenderà come Azure Data Factory possa orchestrare lo spostamento dati su larga scala usando altre tecnologie della piattaforma dati di Azure e di Machine Learning.
In questo modulo si vedrà come integrare pacchetti di SQL Server Integration Services in una soluzione Azure Data Factory
In questo modulo si apprenderà come pubblicare il lavoro svolto in Azure Data Factory tra ambienti diversi.