Episode

Aufnehmen, Vorbereiten und Transformieren mithilfe von Azure Databricks und Data Factory

Die heutigen Business Manager sind stark von zuverlässigen Datenintegrationssystemen abhängig, die komplexe ETL/ELT-Workflows ausführen (Extrahieren, Transformieren/Laden und Laden/Transformieren von Daten). Gaurav Malhotra tritt Scott Hanselman bei, um zu diskutieren, wie Sie Ihre Datenintegrationsworkflows (einschließlich Analyseworkloads in Azure Databricks) mithilfe von Azure Data Factory-Pipelines iterativ erstellen, debuggen, bereitstellen und überwachen können.   

Weitere Informationen finden Sie unter:

Azure
Azure Data Factory