Intégration des données à grande échelle avec un pipeline Azure Data Factory ou Azure Synapse

Intermédiaire
Ingénieur Data
Data Scientist
Azure Data Factory
Azure Synapse Analytics

Dans ce parcours d’apprentissage, les étudiants apprennent à créer et à gérer des pipelines de données dans le cloud avec Azure Data Factory.

Prérequis

Les prérequis suivants doivent être suivis :

  • Se connecter au portail Azure.
  • Comprendre les options de stockage Azure.
  • Comprendre les options de calcul Azure.

Modules de ce parcours d’apprentissage

Dans ce module, vous examinez Azure Data Factory et les principaux composants qui vous permettent de créer des solutions d’ingestion de données à grande échelle dans le cloud

Dans ce module, vous allez apprendre les différentes méthodes qui peuvent être utilisées pour ingérer des données entre différents magasins de données à l’aide d’Azure Data Factory.

Dans ce module, vous allez apprendre à effectuer des opérations courantes de transformation et de nettoyage des données dans Azure Data Factory sans utiliser de code.

Dans ce module, vous allez découvrir comment implémenter une dimension à variation lente avec Azure Data Factory ou des pipelines Azure Synapse.

Dans ce module, vous apprendrez comment Azure Data Factory peut orchestrer un déplacement de données à grande échelle à l’aide d’autres technologies de Machine Learning et de plateformes de données Azure.

Dans ce module, vous allez voir comment intégrer des packages SQL Server Integration Services à une solution Azure Data Factory

Dans ce module, vous allez découvrir comment vous pouvez publier votre projet Azure Data Factory dans différents environnements.

Apprenez à ingérer des données d’Azure Data Share dans des pipelines Azure Data Factory pour créer des pipelines d’ingestion automatisés.