Optionen zum Abrufen von Daten im Fabric Lakehouse

Die Funktionalität für den Datenabruf deckt alle Benutzerszenarien zum Laden von Daten in das Lakehouse ab, darunter die folgenden:

  • Herstellen einer Verbindung mit einer vorhandenen SQL Server-Instanz und Kopieren von Daten in eine Delta-Tabelle im Lakehouse
  • Hochladen von Dateien von Ihrem Computer
  • Kopieren und Zusammenführen mehrerer Tabellen aus anderen Lakehouses in eine neue Delta-Tabelle
  • Herstellen einer Verbindung mit einer Streamingquelle, um Daten in ein Lakehouse zu laden
  • Referenzieren von Daten, ohne sie aus anderen internen Lakehouses oder externen Quellen zu kopieren

Verschiedene Möglichkeiten zum Laden von Daten in ein Lakehouse

In Microsoft Fabric gibt es verschiedene Möglichkeiten, wie Sie Daten in ein Lakehouse laden können:

  • Dateiupload vom lokalen Computer
  • Ausführen eines Kopiertools in Pipelines
  • Einrichten eines Dataflows
  • Apache Spark-Bibliotheken im Notebookcode

Lokaler Dateiupload

Sie können auch Daten hochladen, die auf Ihrem lokalen Computer gespeichert sind. Dies ist direkt im Lakehouse-Explorer möglich.

Screenshot of file upload dialog in the Lakehouse explorer.

Kopiertool in Pipelines

Das Kopiertool ist eine hochgradig skalierbare Datenintegrationslösung, über die Sie eine Verbindung mit verschiedenen Datenquellen herstellen und die Daten entweder im Originalformat laden oder in eine Delta-Tabelle konvertieren können. Das Kopiertool ist Bestandteil von Pipelineaktivitäten, die Sie auf verschiedene Weise anpassen können, z. B. durch eine Planung oder Auslösung auf der Grundlage eines Ereignisses. Weitere Informationen finden Sie unter Kopieren von Daten mithilfe der Kopieraktivität.

Dataflows

Für Benutzer, die mit Power BI-Dataflows vertraut sind, steht dasselbe Tool zum Laden von Daten in Ihr Lakehouse zur Verfügung. Sie können über die Option „Daten abrufen“ im Lakehouse-Explorer schnell darauf zugreifen und Daten von über 200 Connectors laden. Weitere Informationen finden Sie unter Schnellstart: Erstellen Ihres ersten Dataflow zum Abrufen und Transformieren von Daten.

Notebookcode

Sie können verfügbare Spark-Bibliotheken nutzen, um eine direkte Verbindung mit einer Datenquelle herzustellen, Daten in einen Datenframe zu laden und sie dann in einem Lakehouse zu speichern. Diese Methode ist die transparenteste Art zum Laden von Daten in das Lakehouse, bei der der Benutzercode vollständig verwaltet wird.

Hinweis

Externe Delta-Tabellen, die mit Spark-Code erstellt wurden, sind für einen SQL-Analyseendpunkt nicht sichtbar. Verwenden Sie im Tabellenbereich Tastenkombinationen, um externe Delta-Tabellen für einen SQL-Analyseendpunkt sichtbar zu machen.

Überlegungen bei der Auswahl des Ansatzes zum Laden von Daten

Anwendungsfälle Empfehlung
Kleiner Dateiupload vom lokalen Computer Verwenden Sie einen lokalen Dateiupload.
Geringer Datenumfang oder spezifische Connectors Verwenden Sie Dataflows.
Große Datenquelle Verwenden Sie das Kopiertool in Pipelines.
Komplexe Datentransformationen Verwenden Sie Notebookcode.