Teilen über


Migrieren zu Data Factory in Microsoft Fabric

Data Factory in Microsoft Fabric vereint Power Query und Azure Data Factory in einer modernen, vertrauenswürdigen Datenintegrationserfahrung, mit der Daten- und Geschäftsexperten Daten extrahieren, laden und transformieren können. Darüber hinaus können Sie mit den leistungsstarken Funktionen zur Datenorchestrierung einfache bis komplexe Datenworkflows erstellen, die die für Ihre Datenintegration erforderlichen Schritte orchestrieren.

Wichtige Konzepte in Azure Data Factory in Microsoft Fabric

  • Abrufen von Daten und Transformationen: Dataflow Gen2 ist eine Weiterentwicklung von Dataflows in Power BI. Dataflow Gen2 wurde neu erstellt, um Fabric-Computemodule für die Datenverarbeitung und -transformation zu verwenden. Auf diese Weise können sie Daten in beliebiger Größenordnung aufnehmen und transformieren.

  • Datenorchestrierung: Die Verwendung von Datenpipelines, die Benutzern von Azure Data Factory (ADF) bereits vertraut sind, ermöglicht Microsoft Fabric die gleichen Orchestrierungsfunktionen, die in ADF angeboten werden. Im Rahmen der GA-Release von Fabric unterstützen Datenpipelines die meisten der in ADF verfügbaren Aktivitäten.

    Sehen Sie sich diese Liste der Aktivitäten an, die Teil von Datenpipelines in Fabric sind.

  • Unternehmensfähige Datenverschiebung: Ganz gleich, ob es sich um kleine Datenverschiebungen oder Petabyte-Skalierung handelt, Data Factory bietet eine serverlose und intelligente Datenverschiebungsplattform, mit der Sie Daten zuverlässig zwischen verschiedenen Datenquellen und Datenzielen verschieben können. Mit Unterstützung für mehr als 170 Connectors können Sie mit Data Factory in Microsoft Fabric Daten zwischen mehreren Clouds, lokalen Datenquellen und in virtuellen Netzwerken (VNet) verschieben. Die intelligente Durchsatzoptimierung ermöglicht es der Datenverschiebungsplattform, die Größe des für die Datenverschiebung benötigten Compute automatisch zu erkennen.

Migrieren von Azure Data Factory (ADF)

Um Kunden das Upgrade auf Microsoft Fabric von Azure Data Factory (ADF) zu ermöglichen, unterstützen wir die folgenden Features:

  • Datenpipelineaktivitäten: Wir unterstützen die meisten Aktivitäten, die Sie bereits in ADF zu Data Factory in Fabric verwenden. Darüber hinaus haben wir neue Aktivitäten für Benachrichtigungen hinzugefügt, z. B. die Teams- und Outlook-Aktivitäten. Sehen Sie sich diese Liste der Aktivitäten an, die in Data Factory in Fabric verfügbar sind.

  • OneLake/Lakehouse-Connector in Azure Data Factory: Viele ADF-Kunden können jetzt eine Integration mit Microsoft Fabric vornehmen und Daten in die Fabric OneLake integrieren.

  • Zuordnungsdatenfluss von Azure Data Factory zu Fabric: Wir bieten diesen Leitfaden für ADF-Kunden an, die neue Datentransformationen in Fabric erstellen möchten.

    Darüber hinaus können Kunden, die eine Migration ihrer ADF-Mapping-Dataflows zu Fabric in Erwägung ziehen, den Beispielcode des Fabric Customer Advisory Teams (Fabric CAT) anwenden, um Zuordnungsdatenflüsse in Spark-Code zu konvertieren. Weitere Informationen finden Sie unter Zuordnen von Dataflows zu Microsoft Fabric.

Im Rahmen der Data Factory in Microsoft Fabric-Roadmap arbeiten wir bis Q2 KJ2024 an der Vorschau für Folgendes:

  • Einbinden von ADF in Fabric: Mit diesem Feature können Kunden ihre vorhandene ADF in Microsoft Fabric bereitstellen. Alle ADF-Pipelines funktionieren wie bisher und laufen weiterhin auf Azure, während Sie Fabric erkunden und einen umfassenderen Upgrade-Plan ausarbeiten können.
  • Upgrade von ADF-Pipelines auf Fabric: Wir arbeiten mit Kunden und der Community zusammen, um zu erfahren, wie wir Upgrades von Datenpipelines von ADF auf Fabric am besten unterstützen können. In diesem Zusammenhang werden wir Ihnen eine Upgradeerfahrung bieten, mit der Sie Ihre bestehenden Datenpipelines in Fabric testen können, indem Sie die Datenpipelines einbinden und aktualisieren.

Migrieren von Power BI Dataflow Gen1 zu Dataflow Gen2 in Fabric

Dataflow Gen2 in Fabric bietet viele Vorteile und neue Funktionen im Vergleich zu Dataflows (Gen1) in Power BI:

  • Hohe Anzahl von Datenabrufen („Schnelle Kopie“)
  • Hohe Anzahl von Datentransformationen (mittels Fabric Lakehouse SQL-Engine)
  • Weitere Ausgabeziele: Azure SQL DB, Lakehouse, Warehouse, SharePoint, KQL-Datenbanken und mehr
  • Verbesserte Oberfläche für Aktualisierungsverlauf und Überwachung
  • Verbesserte Oberfläche für Dokumenterstellung und Veröffentlichung.

Wir ermutigen unsere Kunden, Dataflow Gen2 auszuprobieren, entweder um bestehende Dataflow Gen1-Szenarien nachzubilden oder um neue Szenarien auszuprobieren. Das frühe Feedback zu Dataflow Gen2 wird uns helfen, die Produktfunktionen weiterzuentwickeln und auszubauen.

Wir haben einige Optionen für Kunden, um Ihre Gen1-Datenflüsse als Dataflow Gen2 neu zu erstellen:

  • Exportieren von Dataflow Gen1-Abfragen und Importieren in Dataflow Gen2: Sie können Abfragen jetzt sowohl in der Dataflows- als auch in der Gen2-Erstellungsumgebung exportieren und in PQT-Dateien speichern, die Sie dann in Dataflow Gen2 importieren können. Weitere Informationen finden Sie unter Verwenden des Exportvorlagenfeatures.
  • Kopieren und einfügen in Power Query: Wenn Sie in Power BI oder Power Apps über einen Dataflow verfügen, können Sie Ihre Abfragen kopieren und in die Bearbeitungsoberfläche Ihres Dataflow Gen2-Artefakts einfügen. Mit dieser Funktion können Sie Ihren Dataflow zu Gen2 migrieren, ohne Ihre Abfragen neu schreiben zu müssen. Weitere Informationen finden Sie unter Kopieren und Einfügen vorhandener Dataflows (Gen1)-Abfragen.

Weitere Überlegungen finden Sie auch im folgenden Artikel: Unterschiede zwischen Dataflow Gen1 und Gen2