Épisode
Ingérer, préparer et transformer à l’aide d’Azure Databricks et de Data Factory
Les responsables métier actuels dépendent fortement de systèmes d’intégration de données fiables qui exécutent des flux de travail ETL/ELT complexes (extraire, transformer/charger et charger/transformer des données). Gaurav Malhotra rejoint Scott Hanselman pour discuter de la façon dont vous pouvez générer, déboguer, déployer et surveiller vos workflows d’intégration de données (y compris les charges de travail d’analytique dans Azure Databricks) à l’aide de pipelines Azure Data Factory.
Pour plus d'informations :
- Ingérer, préparer et transformer à l’aide d’Azure Databricks et de Data Factory (blog)
- Exécuter un notebook Databricks avec l’activité Databricks Notebook dans Azure Data Factory (docs)
- Créer un compte gratuit (Azure)
Suivre @SHanselman suivre @AzureFriday suivre @gauravmalhot12
Les responsables métier actuels dépendent fortement de systèmes d’intégration de données fiables qui exécutent des flux de travail ETL/ELT complexes (extraire, transformer/charger et charger/transformer des données). Gaurav Malhotra rejoint Scott Hanselman pour discuter de la façon dont vous pouvez générer, déboguer, déployer et surveiller vos workflows d’intégration de données (y compris les charges de travail d’analytique dans Azure Databricks) à l’aide de pipelines Azure Data Factory.
Pour plus d'informations :
- Ingérer, préparer et transformer à l’aide d’Azure Databricks et de Data Factory (blog)
- Exécuter un notebook Databricks avec l’activité Databricks Notebook dans Azure Data Factory (docs)
- Créer un compte gratuit (Azure)
Suivre @SHanselman suivre @AzureFriday suivre @gauravmalhot12
Vous voulez donner votre avis ? Soumettez un problème ici.