Sammanfattning

Slutförd

Notebook-filer är ett av de vanligaste sätten som datatekniker och dataanalytiker implementerar datainmatning och bearbetningslogik i Azure Databricks. Om du använder Azure Data Factory för att köra notebook-filer i en pipeline kan du skapa databearbetningslösningar som kan köras på begäran, med schemalagda intervall eller som svar på en viss händelse.

I den här modulen har du lärt dig att:

  • Beskriv hur Azure Databricks-notebook-filer kan köras i en pipeline.
  • Skapa en länkad Azure Data Factory-tjänst för Azure Databricks.
  • Använd en Notebook-aktivitet i en pipeline.
  • Skicka parametrar till en notebook-fil.