Kopieren von Azure Blob Storage nach Lakehouse
In diesem Tutorial erstellen Sie eine Datenpipeline, um eine CSV-Datei aus einem Eingabeordner einer Azure Blob Storage Quelle in ein Lakehouse-Ziel zu verschieben.
Wichtig
Microsoft Fabric befindet sich derzeit in der Vorschauversion. Diese Informationen beziehen sich auf eine Vorabversion des Produkts, an der vor der Veröffentlichung noch wesentliche Änderungen vorgenommen werden können. Microsoft übernimmt keine Garantie, weder ausdrücklich noch stillschweigend, für die hier bereitgestellten Informationen. Weitere Informationen finden Sie in Azure Data Factory Dokumentation für den Dienst in Azure.
Voraussetzungen
Um zu beginnen, müssen Sie die folgenden Voraussetzungen erfüllen:
Stellen Sie sicher, dass Sie einen Project Microsoft Fabric-fähigen Arbeitsbereich haben: Erstellen Sie einen Arbeitsbereich.
Wählen Sie die Schaltfläche Jetzt testen! aus, um die Azure Blob Storage Datenquelle des Kopierens vorzubereiten. Erstellen Sie eine neue Ressourcengruppe für diese Azure Blob Storage, und wählen Sie Überprüfen + Erstellen aus>.
Anschließend wird ein Azure Blob Storage erstellt und moviesDB2.csv in den Eingabeordner des erstellten Azure Blob Storage hochgeladen.
Erstellen einer Datenpipeline
Wechseln Sie auf der Seite app.powerbi.com zu Data Factory .
Erstellen Sie einen neuen Arbeitsbereich für diese Demo.
Wählen Sie Neu und dann Datenpipeline aus.
Kopieren von Daten mithilfe des Kopier-Assistenten
In dieser Sitzung beginnen Sie mit dem Erstellen einer Datenpipeline, indem Sie die folgenden Schritte ausführen. Diese Schritte kopieren eine CSV-Datei aus einem Eingabeordner eines Azure Blob Storage mithilfe des Kopier-Assistenten in ein Lakehouse-Ziel.
Schritt 1: Starten mit Kopier-Assistent
Wählen Sie Daten auf dem Canvas kopieren aus, um den Kopier-Assistenten für die ersten Schritte zu öffnen. Alternativ können Sie in der Dropdownliste Daten kopieren unter der Registerkarte Aktivitäten im Menüband den Kopierassistenten verwenden auswählen.
Schritt 2: Konfigurieren Der Quelle
Wählen Sie Azure Blob Storage und dann Weiter aus.
Erstellen Sie eine Verbindung mit Ihrer Datenquelle, indem Sie Neue Verbindung auswählen.
Nachdem Sie neue Verbindung erstellen ausgewählt haben, müssen Sie nur Kontoname oder URL und Authentifizierungsart eingeben. Wenn Sie den Kontonamen oder die URL mit Ihrem Azure Blob Storage Kontonamen eingeben, wird die Verbindung automatisch ausgefüllt. In dieser Demo wählen wir Kontoschlüssel aus, aber Sie können eine andere Authentifizierungsart gemäß Ihren Vorlieben auswählen. Nachdem Sie Anmelden ausgewählt haben, müssen Sie sich nur bei einem Konto anmelden, das über diese Blob storage-Berechtigung verfügt.
Nachdem Die Verbindung erfolgreich hergestellt wurde, müssen Sie nur Noch Weiter auswählen, um Mit Datenquelle verbinden.
Wählen Sie die Datei moviesDB2.csv in der Quellkonfiguration für die Vorschau aus, und wählen Sie dann Weiter aus.
Schritt 3: Konfigurieren Ihres Ziels
Wählen Sie Lakehouse und dann Weiter aus.
Erstellen Sie ein neues Lakehouse, und geben Sie den Lakehouse-Namen ein. Wählen Sie Weiteraus.
Konfigurieren und Ordnen Sie Ihre Quelldaten Ihrem Ziel zu; wählen Sie dann Weiter aus, um ihre Zielkonfigurationen abzuschließen.
Schritt 4: Überprüfen und Erstellen Ihrer Kopieraktivität
Überprüfen Sie ihre Kopieraktivitätseinstellungen in den vorherigen Schritten, und wählen Sie OK aus, um den Vorgang abzuschließen. Oder Sie können zu den vorherigen Schritten zurückkehren, um Ihre Einstellungen bei Bedarf im Tool zu bearbeiten.
Nach Abschluss wird die Kopieraktivität ihrer Datenpipeline-Canvas hinzugefügt. Alle Einstellungen, einschließlich erweiterter Einstellungen für diese Kopieraktivität, sind unter den folgenden Registerkarten verfügbar, wenn sie ausgewählt ist.
Ausführen und Planen Ihrer Datenpipeline
Wechseln Sie zur Registerkarte Start , und wählen Sie Ausführen aus. Wählen Sie dann Speichern und Ausführen aus.
Wählen Sie die Schaltfläche Details aus, um den Fortschritt zu überwachen und die Ergebnisse der Ausführung zu überprüfen.
Im Dialogfeld Datendetails kopieren werden die Ergebnisse der Ausführung angezeigt, einschließlich status, Lese- und Schreibvolumen von Daten, Start- und Stoppzeiten sowie Dauer.
Sie können auch die Ausführung der Pipeline nach Bedarf mit einer bestimmten Häufigkeit planen. Im Folgenden finden Sie das Beispiel, um die Ausführung der Pipeline alle 15 Minuten zu planen.
Nächste Schritte
Die Pipeline in diesem Beispiel zeigt, wie Sie Daten aus Azure Blob Storage nach Lakehouse kopieren. Sie haben Folgendes gelernt:
- Erstellen Sie eine Datenpipeline.
- Kopieren Sie Daten mit dem Kopier-Assistenten.
- Führen Sie Ihre Datenpipeline aus, und planen Sie sie.
Als Nächstes erfahren Sie mehr über die Überwachung Ihrer Pipelineausführungen.