Azure Data Factory-Tutorials

GILT FÜR: Azure Data Factory Azure Synapse Analytics

Tipp

Testen Sie Data Factory in Microsoft Fabric, eine All-in-One-Analyselösung für Unternehmen. Microsoft Fabric deckt alle Aufgaben ab, von der Datenverschiebung bis hin zu Data Science, Echtzeitanalysen, Business Intelligence und Berichterstellung. Erfahren Sie, wie Sie kostenlos eine neue Testversion starten!

Nachfolgend finden Sie eine Liste der Tutorials, in denen eine Reihe von Data Factory-Konzepten erläutert und verschiedene Szenarien durchlaufen werden.

Kopieren und Erfassen von Daten

Tool zum Kopieren von Daten

Kopieren von Daten aus Azure Blob Storage in eine Datenbank in Azure SQL-Datenbank mithilfe von Azure Data Factory

Tutorial: Kopieren von Daten aus einer lokalen SQL Server-Datenbank nach Azure Blob Storage

Laden von Daten in Azure Data Lake Storage Gen2 mit Azure Data Factory

Inkrementelles Laden von Daten aus einem Quelldatenspeicher in einen Zieldatenspeicher

Inkrementelles Laden von Daten aus Azure SQL-Datenbank in Azure Blob Storage mit Informationen der Änderungsnachverfolgung und dem Azure-Portal

Inkrementelles Laden von Daten aus Azure SQL-Datenbank in Azure Blob Storage über das Azure-Portal

Inkrementelles Laden von Daten aus mehreren Tabellen in SQL Server in eine Datenbank in Azure SQL-Datenbank über das Azure-Portal

Inkrementelles Laden von Daten aus Azure SQL Managed Instance in Azure Storage mithilfe von Change Data Capture (CDC)

Laden von Daten in Azure Synapse Analytics mithilfe von Azure Data Factory

Kopieren von Daten aus SAP Business Warehouse mithilfe von Azure Data Factory

Laden von Daten aus Office 365 mithilfe von Azure Data Factory

Massenkopieren mehrerer Tabellen mithilfe von Azure Data Factory im Azure-Portal

Sicheres Kopieren von Daten aus Azure Blob Storage in eine SQL-Datenbank mithilfe von privaten Endpunkten

Datenflüsse

Videotutorials zum Zuordnungsdatenfluss

Transformieren von Daten mithilfe von Mapping Data Flow

Transformieren von Daten in einem Delta-Lake mithilfe von Zuordnungsdatenflüssen

Vorbereiten von Daten mit Datenwrangling

Sicheres Transformieren von Daten mithilfe von Zuordnungsdatenflüssen

Best Practices für das Schreiben in Dateien in Data Lake mit Datenflüssen

Dynamisches Festlegen von Spaltennamen

Externe Datendienste

Ausführen eines Databricks-Notebooks mit der Databricks-Notebook-Aktivität in Azure Data Factory

Transformieren von Daten in der Cloud mithilfe einer Spark-Aktivität in Azure Data Factory

Transformieren von Daten in Azure Virtual Network mithilfe einer Hive-Aktivität in Azure Data Factory mithilfe des Azure-Portals

Pipelines

Ablaufsteuerung

SSIS

Bereitstellen der Azure-SSIS Integration Runtime in Azure Data Factory

Datenfreigabe

Datenintegration mit Azure Data Factory und Azure Data Share

Datenherkunft

Microsoft.Purview

Erfahren Sie mehr über Data Factory-Pipelines und Datenflüsse.