Kopieren von Azure Blob Storage nach Lakehouse

In diesem Tutorial erstellen Sie eine Datenpipeline, um eine CSV-Datei aus einem Eingabeordner einer Azure Blob Storage Quelle in ein Lakehouse-Ziel zu verschieben.

Wichtig

Microsoft Fabric befindet sich derzeit in der Vorschauversion. Diese Informationen beziehen sich auf eine Vorabversion des Produkts, an der vor der Veröffentlichung noch wesentliche Änderungen vorgenommen werden können. Microsoft übernimmt keine Garantie, weder ausdrücklich noch stillschweigend, für die hier bereitgestellten Informationen. Weitere Informationen finden Sie in Azure Data Factory Dokumentation für den Dienst in Azure.

Voraussetzungen

Um zu beginnen, müssen Sie die folgenden Voraussetzungen erfüllen:

  • Stellen Sie sicher, dass Sie einen Project Microsoft Fabric-fähigen Arbeitsbereich haben: Erstellen Sie einen Arbeitsbereich.

  • Wählen Sie die Schaltfläche Jetzt testen! aus, um die Azure Blob Storage Datenquelle des Kopierens vorzubereiten. Erstellen Sie eine neue Ressourcengruppe für diese Azure Blob Storage, und wählen Sie Überprüfen + Erstellen aus>.

    Testen Sie Ihre erste Data Factory-Demo

    Screenshot des Bildschirms

    Anschließend wird ein Azure Blob Storage erstellt und moviesDB2.csv in den Eingabeordner des erstellten Azure Blob Storage hochgeladen.

    Screenshot, der zeigt, wo neuer Speicher im Ordner angezeigt wird.

Erstellen einer Datenpipeline

  1. Wechseln Sie auf der Seite app.powerbi.com zu Data Factory .

    Screenshot des Menüs, in dem die Option Data Factory angezeigt wird.

  2. Erstellen Sie einen neuen Arbeitsbereich für diese Demo.

    Screenshot des Arbeitsbereichsbildschirms.

  3. Wählen Sie Neu und dann Datenpipeline aus.

    Screenshot des Menüs

Kopieren von Daten mithilfe des Kopier-Assistenten

In dieser Sitzung beginnen Sie mit dem Erstellen einer Datenpipeline, indem Sie die folgenden Schritte ausführen. Diese Schritte kopieren eine CSV-Datei aus einem Eingabeordner eines Azure Blob Storage mithilfe des Kopier-Assistenten in ein Lakehouse-Ziel.

Schritt 1: Starten mit Kopier-Assistent

  1. Wählen Sie Daten auf dem Canvas kopieren aus, um den Kopier-Assistenten für die ersten Schritte zu öffnen. Alternativ können Sie in der Dropdownliste Daten kopieren unter der Registerkarte Aktivitäten im Menüband den Kopierassistenten verwenden auswählen.

    Screenshot: Zwei Optionen zum Auswählen des Kopier-Assistenten.

Schritt 2: Konfigurieren Der Quelle

  1. Wählen Sie Azure Blob Storage und dann Weiter aus.

    Screenshot: Auswahl von Azure Blob Storage als Datenquelle

  2. Erstellen Sie eine Verbindung mit Ihrer Datenquelle, indem Sie Neue Verbindung auswählen.

    Screenshot: Auswahl neuer Verbindung

    1. Nachdem Sie neue Verbindung erstellen ausgewählt haben, müssen Sie nur Kontoname oder URL und Authentifizierungsart eingeben. Wenn Sie den Kontonamen oder die URL mit Ihrem Azure Blob Storage Kontonamen eingeben, wird die Verbindung automatisch ausgefüllt. In dieser Demo wählen wir Kontoschlüssel aus, aber Sie können eine andere Authentifizierungsart gemäß Ihren Vorlieben auswählen. Nachdem Sie Anmelden ausgewählt haben, müssen Sie sich nur bei einem Konto anmelden, das über diese Blob storage-Berechtigung verfügt.

      Screenshot: Bildschirm Mit Datenquelle verbinden des Kopierdaten-Assistenten

    2. Nachdem Die Verbindung erfolgreich hergestellt wurde, müssen Sie nur Noch Weiter auswählen, um Mit Datenquelle verbinden.

  3. Wählen Sie die Datei moviesDB2.csv in der Quellkonfiguration für die Vorschau aus, und wählen Sie dann Weiter aus.

    Screenshot: Auswählen der Datenquelle

Schritt 3: Konfigurieren Ihres Ziels

  1. Wählen Sie Lakehouse und dann Weiter aus.

    Screenshot: Dialogfeld

  2. Erstellen Sie ein neues Lakehouse, und geben Sie den Lakehouse-Namen ein. Wählen Sie Weiteraus.

    Screenshot: Dialogfeld

  3. Konfigurieren und Ordnen Sie Ihre Quelldaten Ihrem Ziel zu; wählen Sie dann Weiter aus, um ihre Zielkonfigurationen abzuschließen.

    Screenshot: Dialogfeld Mit Datenziel verbinden im Assistenten zum Kopieren von Daten mit dem Tabellennamen MoviesDB

Schritt 4: Überprüfen und Erstellen Ihrer Kopieraktivität

  1. Überprüfen Sie ihre Kopieraktivitätseinstellungen in den vorherigen Schritten, und wählen Sie OK aus, um den Vorgang abzuschließen. Oder Sie können zu den vorherigen Schritten zurückkehren, um Ihre Einstellungen bei Bedarf im Tool zu bearbeiten.

    Screenshot: Bildschirm

  2. Nach Abschluss wird die Kopieraktivität ihrer Datenpipeline-Canvas hinzugefügt. Alle Einstellungen, einschließlich erweiterter Einstellungen für diese Kopieraktivität, sind unter den folgenden Registerkarten verfügbar, wenn sie ausgewählt ist.

    Screenshot: fertige Copy-Aktivität

Ausführen und Planen Ihrer Datenpipeline

  1. Wechseln Sie zur Registerkarte Start , und wählen Sie Ausführen aus. Wählen Sie dann Speichern und Ausführen aus.

    Screenshot: Schaltfläche

    Screenshot: Dialogfeld

  2. Wählen Sie die Schaltfläche Details aus, um den Fortschritt zu überwachen und die Ergebnisse der Ausführung zu überprüfen.

    Screenshot der Schaltfläche

  3. Im Dialogfeld Datendetails kopieren werden die Ergebnisse der Ausführung angezeigt, einschließlich status, Lese- und Schreibvolumen von Daten, Start- und Stoppzeiten sowie Dauer.

    Screenshot: Dialogfeld

  4. Sie können auch die Ausführung der Pipeline nach Bedarf mit einer bestimmten Häufigkeit planen. Im Folgenden finden Sie das Beispiel, um die Ausführung der Pipeline alle 15 Minuten zu planen.

    Screenshot des Dialogfelds

    Screenshot einer Pipeline mit einem konfigurierten Zeitplan, der alle 15 Minuten ausgeführt werden soll

Nächste Schritte

Die Pipeline in diesem Beispiel zeigt, wie Sie Daten aus Azure Blob Storage nach Lakehouse kopieren. Sie haben Folgendes gelernt:

  • Erstellen Sie eine Datenpipeline.
  • Kopieren Sie Daten mit dem Kopier-Assistenten.
  • Führen Sie Ihre Datenpipeline aus, und planen Sie sie.

Als Nächstes erfahren Sie mehr über die Überwachung Ihrer Pipelineausführungen.