Exécuter des notebooks Azure Databricks avec Azure Data Factory
L’utilisation de pipelines dans Azure Data Factory pour exécuter des notebooks dans Azure Databricks, vous pouvez automatiser les processus d’ingénierie de données à grande échelle dans le cloud.
Objectifs d’apprentissage
Dans ce module, vous allez découvrir comment :
- Décrire comment les notebooks Azure Databricks peuvent être exécutés dans un pipeline.
- Créer un service lié Azure Data Factory pour Azure Databricks.
- Utiliser une activité Notebook dans un pipeline.
- Passer des paramètres à un notebook.
Prérequis
Avant de commencer ce module, vous devez connaître les bases d’Azure Databricks. Envisagez de terminer le module Explorer Azure Databricks avant celui-ci.