Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
GILT FÜR: Azure Data Factory
Azure Synapse Analytics
Tipp
Testen Sie Data Factory in Microsoft Fabric, eine All-in-One-Analyselösung für Unternehmen. Microsoft Fabric deckt alle Aufgaben ab, von der Datenverschiebung bis hin zu Data Science, Echtzeitanalysen, Business Intelligence und Berichterstellung. Erfahren Sie, wie Sie eine neue Testversion kostenlos starten können!
Willkommen bei Azure Data Factory! Dieser Artikel hilft Ihnen, Ihre erste Datenfabrik und Pipeline in nur fünf Minuten zu erstellen.
Die Azure Resource Manager-Vorlage (ARM-Vorlage) in diesem Artikel erstellt und konfiguriert alles, was Sie benötigen. Anschließend können Sie zu Ihrer Demodatenfactory wechseln und die Pipeline auslösen, wodurch einige Beispieldaten aus einem Azure Blob Storage-Ordner in einen anderen verschoben werden.
Voraussetzungen
Wenn Sie kein Azure-Abonnement besitzen, können Sie ein kostenloses Konto erstellen, bevor Sie beginnen.
Videozusammenfassung
Das folgende Video enthält eine exemplarische Vorgehensweise für das Beispiel in diesem Artikel:
Schritt 1: Verwenden der Demo zum Erstellen von Ressourcen
In diesem Demoszenario verwenden Sie die Kopieraktivität in einer Datenfactory, um ein Blob namens moviesDB2.csv aus einem Eingabeordner in Azure Blob Storage in einen Ausgabeordner zu kopieren. In einem realen Szenario könnte diese Copy-Aktivität zwischen einer der vielen unterstützten Datenquellen und -senken erfolgen, die im Dienst verfügbar sind. Die Daten können zudem transformiert werden.
Wählen Sie die folgende Schaltfläche aus.
Durch Auswählen der Schaltfläche werden die folgenden Azure-Ressourcen erstellt:
- Ein Azure Data Factory-Konto
- Eine Datenfabrik, die eine Pipeline mit einer Kopieraktivität enthält
- Ein Azure-Blobspeicherkonto mit moviesDB2.csv, das in einen Eingabeordner als Quelle hochgeladen wird
- Ein verknüpfter Dienst zur Verbindung der Datenfabrik mit Blob-Speicher
Sie werden zur Konfigurationsseite weitergeleitet, um die Vorlage bereitzustellen. Auf dieser Seite:
Wählen Sie für die Ressourcengruppe " Neu erstellen" aus, um eine Ressourcengruppe zu erstellen. Sie können alle anderen Werte mit ihren Standardwerten belassen.
Wählen Sie "Überprüfen" und "Erstellen" und dann " Erstellen" aus, um die Ressourcen bereitzustellen.
Hinweis
Der Benutzer, der die Vorlage bereitstellt, muss einer verwalteten Identität eine Rolle zuweisen. Dieser Schritt erfordert Berechtigungen, die über die Rolle "Besitzer", "Benutzerzugriffsadministrator" oder "Verwalteter Identitätsoperator" erteilt werden können.
Alle Ressourcen in dieser Demo werden in der neuen Ressourcengruppe erstellt, sodass Sie sie später problemlos bereinigen können.
Schritt 2: Überprüfen der bereitgestellten Ressourcen
Wählen Sie in der Meldung, die den erfolgreichen Abschluss Ihrer Bereitstellung anzeigt, die Option "Zur Ressourcengruppe wechseln" aus.
Die Ressourcengruppe enthält die neue Data Factory, das Blob-Speicherkonto und die verwaltete Identität, die die Bereitstellung erstellt hat. Wählen Sie die Data Factory in der Ressourcengruppe aus, um sie anzuzeigen.
Wählen Sie die Schaltfläche "Studio starten " aus.
In Azure Data Factory Studio:
- Wählen Sie die Registerkarte Autor
aus.
- Wählen Sie die Pipeline aus, die mithilfe der Vorlage erstellt wurde.
- Überprüfen Sie die Quelldaten, indem Sie "Öffnen" auswählen.
- Wählen Sie die Registerkarte Autor
Wählen Sie im Quelldatensatz " Durchsuchen" aus, um die für die Demo erstellte Eingabedatei anzuzeigen.
Beachten Sie die moviesDB2.csv Datei, die bereits in den Eingabeordner hochgeladen wurde.
Schritt 3: Auslösen der Ausführung der Demopipeline
Wählen Sie "Trigger hinzufügen" und dann "Jetzt auslösen" aus.
Wählen Sie im rechten Bereich unter "Pipeline ausführen" "OK" aus.
Überwachen der Pipeline
Wählen Sie die Registerkarte Überwachen
aus. Dieser Tab bietet eine Übersicht über Ihre Pipeline-Durchläufe, einschließlich der Startzeit und des Status.
In dieser Schnellstartanleitung hat die Pipeline nur einen Aktivitätstyp: Daten kopieren. Wählen Sie den Pipelinenamen aus, um die Details der Ausführungsergebnisse der Copy-Aktivität anzuzeigen.
Wählen Sie das Symbol "Details " aus, um den detaillierten Kopiervorgang anzuzeigen. In den Ergebnissen sind die Größen Daten gelesen und Daten geschrieben identisch, und eine Datei wurde gelesen und geschrieben. Diese Informationen belegen, dass alle Daten erfolgreich an das Ziel kopiert wurden.
Bereinigen von Ressourcen
Sie können alle ressourcen, die Sie in diesem Artikel erstellt haben, auf zwei Arten bereinigen:
Sie können die gesamte Azure-Ressourcengruppe löschen, in der alle erstellten Ressourcen enthalten sind.
Wenn Sie einige Ressourcen beibehalten möchten, wechseln Sie zur Ressourcengruppe, und löschen Sie nur die spezifischen Ressourcen, die Sie entfernen möchten.
Wenn Sie beispielsweise diese Vorlage zum Erstellen einer Datenfactory für die Verwendung in einem anderen Lernprogramm verwenden, können Sie die anderen Ressourcen löschen, aber nur die Datenfactory beibehalten.
Zugehöriger Inhalt
In diesem Artikel haben Sie eine Data Factory erstellt, die eine Pipeline mit einer Copy-Aktivität enthielt. Weitere Informationen zu Azure Data Factory finden Sie im folgenden Artikel und Schulungsmodul: