Épisode

Ingérer, préparer et transformer à l’aide d’Azure Databricks et de Data Factory

Les responsables métier actuels dépendent fortement de systèmes d’intégration de données fiables qui exécutent des flux de travail ETL/ELT complexes (extraire, transformer/charger et charger/transformer des données). Gaurav Malhotra rejoint Scott Hanselman pour discuter de la façon dont vous pouvez générer, déboguer, déployer et surveiller vos workflows d’intégration de données (y compris les charges de travail d’analytique dans Azure Databricks) à l’aide de pipelines Azure Data Factory.   

Pour plus d'informations :

Azure
Azure Data Factory