Episode
Aufnehmen, Vorbereiten und Transformieren mithilfe von Azure Databricks und Data Factory
Die heutigen Business Manager sind stark von zuverlässigen Datenintegrationssystemen abhängig, die komplexe ETL/ELT-Workflows ausführen (Extrahieren, Transformieren/Laden und Laden/Transformieren von Daten). Gaurav Malhotra tritt Scott Hanselman bei, um zu diskutieren, wie Sie Ihre Datenintegrationsworkflows (einschließlich Analyseworkloads in Azure Databricks) mithilfe von Azure Data Factory-Pipelines iterativ erstellen, debuggen, bereitstellen und überwachen können.
Weitere Informationen finden Sie unter:
- Aufnehmen, Vorbereiten und Transformieren mit Azure Databricks und Data Factory (Blog)
- Ausführen eines Databricks-Notizbuchs mit der Databricks-Notizbuchaktivität in Azure Data Factory (Dokumente)
- Erstellen eines kostenlosen Kontos (Azure)
Folgen sie @SHanselman Folgen sie @AzureFriday folgen @gauravmalhot12
Die heutigen Business Manager sind stark von zuverlässigen Datenintegrationssystemen abhängig, die komplexe ETL/ELT-Workflows ausführen (Extrahieren, Transformieren/Laden und Laden/Transformieren von Daten). Gaurav Malhotra tritt Scott Hanselman bei, um zu diskutieren, wie Sie Ihre Datenintegrationsworkflows (einschließlich Analyseworkloads in Azure Databricks) mithilfe von Azure Data Factory-Pipelines iterativ erstellen, debuggen, bereitstellen und überwachen können.
Weitere Informationen finden Sie unter:
- Aufnehmen, Vorbereiten und Transformieren mit Azure Databricks und Data Factory (Blog)
- Ausführen eines Databricks-Notizbuchs mit der Databricks-Notizbuchaktivität in Azure Data Factory (Dokumente)
- Erstellen eines kostenlosen Kontos (Azure)
Folgen sie @SHanselman Folgen sie @AzureFriday folgen @gauravmalhot12
Feedback? Melden Sie hier ein Problem.