Anmerkung
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
In diesem Artikel erfahren Sie, wie Sie Daten aus einem Azure Data Lake Gen 2-Speicherkonto in einem dedizierten SQL-Pool in Azure Synapse Analytics aufnehmen.
Voraussetzungen
- Azure-Abonnement: Wenn Sie nicht über ein Azure-Abonnement verfügen, erstellen Sie ein kostenloses Azure-Konto , bevor Sie beginnen.
- Azure-Speicherkonto: Sie verwenden Azure Data Lake Storage Gen 2 als Quelldatenspeicher . Wenn Sie nicht über ein Speicherkonto verfügen, lesen Sie die Schritte zum Erstellen eines Azure Storage-Kontos .
-
Azure Synapse Analytics: Sie verwenden einen dedizierten SQL-Pool als Spüldatenspeicher .
- Wenn Sie nicht über einen vorhandenen Synapse-Arbeitsbereich verfügen, lesen Sie das Erstellen eines Synapse-Arbeitsbereichs.
- Wenn Sie nicht über einen dedizierten SQL-Pool verfügen. siehe Erstellen eines dedizierten SQL-Pools.
Erstellen von verknüpften Diensten
In Azure Synapse Analytics definiert ein verknüpfter Dienst Ihre Verbindungsinformationen mit anderen Diensten. In diesem Abschnitt fügen Sie einen verknüpften Azure Synapse Analytics- und Azure Data Lake Storage Gen2-Dienst hinzu.
- Öffnen Sie die Azure Synapse Analytics UX, und wechseln Sie zur Registerkarte " Verwalten ".
- Wählen Sie unter "Externe Verbindungen" "Verknüpfte Dienste" aus.
- Um einen verknüpften Dienst hinzuzufügen, wählen Sie "Neu" aus.
- Wählen Sie in der Liste die Kachel "Azure Data Lake Storage Gen2" aus, und wählen Sie "Weiter" aus.
- Geben Sie Ihre Authentifizierungsanmeldeinformationen ein. Kontoschlüssel, Dienstprinzipal und verwaltete Identität sind die derzeit unterstützten Authentifizierungsmethoden. Wählen Sie die Testverbindung aus, um zu überprüfen, ob Ihre Anmeldeinformationen korrekt sind. Wählen Sie "Erstellen" aus, wenn Sie fertig sind.
- Wiederholen Sie die Schritte 3-5, aber wählen Sie anstelle von Azure Data Lake Storage Gen2 die Kachel "Azure Synapse Analytics" aus, und geben Sie die entsprechenden Verbindungsanmeldeinformationen ein. Für Azure Synapse Analytics werden die SQL-Authentifizierung, die verwaltete Identität und der Dienstprinzipal derzeit unterstützt.
Pipeline erstellen
Eine Pipeline enthält den logischen Fluss für eine Ausführung einer Reihe von Aktivitäten. In diesem Abschnitt erstellen Sie eine Pipeline mit einer Kopieraktivität, die Daten aus ADLS Gen2 in einen dedizierten SQL-Pool einnimmt.
- Wechseln Sie zur Registerkarte " Integrieren" . Wählen Sie neben dem Pipelineheader das Plussymbol aus, und wählen Sie "Pipeline" aus.
- Ziehen Sie im Bereich „Aktivitäten“ unter Verschieben und transformieren den Befehl Daten kopieren auf die Pipelinecanvas.
- Wählen Sie die Kopieraktivität aus, und wechseln Sie zur Registerkarte " Quelle ". Wählen Sie "Neu" aus, um ein neues Quelldatenset zu erstellen.
- Wählen Sie Azure Data Lake Storage gen2 als Datenspeicher aus, und fahren Sie fort.
- Wählen Sie "DelimitedText" als Format aus, und setzen Sie den Vorgang fort.
- Wählen Sie im Bereich "Eigenschaften festlegen" den verknüpften ADLS-Dienst aus, den Sie erstellt haben. Geben Sie den Dateipfad der Quelldaten an, und geben Sie an, ob die erste Zeile über eine Kopfzeile verfügt. Sie können das Schema aus dem Dateispeicher oder einer Beispieldatei importieren. Wählen Sie "OK" aus, wenn Sie fertig sind.
- Wechseln Sie zur Registerkarte "Senken ". Wählen Sie "Neu" aus, um ein neues Sink-Dataset zu erstellen.
- Wählen Sie Azure Synapse Analytics als Datenspeicher aus, und setzen Sie den Vorgang fort.
- Wählen Sie im Eigenschaftenbereich "Festlegen" den von Ihnen erstellten verknüpften Azure Synapse Analytics-Dienst aus. Wenn Sie in eine vorhandene Tabelle schreiben, wählen Sie sie aus der Dropdownliste aus. Andernfalls aktivieren Sie "Bearbeiten" , und geben Sie ihren neuen Tabellennamen ein. Wählen Sie "OK" aus, wenn Sie fertig sind.
- Wenn Sie eine Tabelle erstellen, aktivieren Sie " Tabelle automatisch erstellen " im Feld "Tabellenoption".
Debuggen und Veröffentlichen der Pipeline
Nachdem Sie die Konfiguration der Pipeline abgeschlossen haben, können Sie eine Debugausführung ausführen, bevor Sie Ihre Artefakte veröffentlichen, um sicherzustellen, dass alles korrekt ist.
- Klicken Sie auf der Symbolleiste auf Debuggen, um die Pipeline zu debuggen. Der Status der Pipelineausführung wird unten im Fenster auf der Registerkarte Ausgabe angezeigt.
- Sobald die Pipeline erfolgreich ausgeführt werden kann, wählen Sie in der oberen Symbolleiste "Alle veröffentlichen" aus. Diese Aktion veröffentlicht Entitäten (Datasets und Pipelines), die Sie im Synapse Analytics-Dienst erstellt haben.
- Warten Sie, bis die Meldung Erfolgreich veröffentlicht angezeigt wird. Um Benachrichtigungen anzuzeigen, wählen Sie oben rechts die Glockenschaltfläche aus.
Auslösen und Überwachen der Pipeline
In diesem Schritt stoßen Sie die im vorherigen Schritt bereitgestellte Pipeline manuell an.
- Wählen Sie in der Symbolleiste die Option Trigger hinzufügen und dann Jetzt auslösen. Wählen Sie auf der Seite Pipelineausführung die Option Fertigstellen aus.
- Wechseln Sie zur Registerkarte "Monitor ", die sich in der linken Randleiste befindet. Sie sehen eine Pipelineausführung, die von einem manuellen Trigger ausgelöst wird. Sie können Links in der Spalte "Aktionen " verwenden, um Aktivitätsdetails anzuzeigen und die Pipeline erneut auszuführen.
- Um aktivitäten anzuzeigen, die der Pipelineausführung zugeordnet sind, wählen Sie in der Spalte "Aktionen" den Link "Aktivitätsläufe anzeigen" aus. Da in diesem Beispiel nur eine Aktivität vorhanden ist, wird in der Liste nur ein Eintrag angezeigt. Ausführliche Informationen zum Kopiervorgang erhalten Sie, indem Sie den Link "Details" (Brillensymbol) in der Spalte "Aktionen" auswählen. Wählen Sie oben "Pipeline-Ausführungen" aus, um zur Ansicht "Pipeline-Ausführungen" zurückzukehren. Klicken Sie zum Aktualisieren der Ansicht auf Aktualisieren.
- Überprüfen Sie, ob Ihre Daten ordnungsgemäß im dedizierten SQL-Pool geschrieben wurden.
Nächste Schritte
Weitere Informationen zur Datenintegration für Azure Synapse Analytics finden Sie im Artikel zum Erfassen von Daten in Azure Data Lake Storage Gen2 .