Erfassen von Daten in einem dedizierten SQL-Pool
In diesem Artikel erfahren Sie, wie Daten aus einem Azure Data Lake Gen 2-Speicherkonto in einem dedizierten SQL-Pool in Azure Synapse Analytics erfasst werden.
Voraussetzungen
- Azure-Abonnement: Wenn Sie über kein Azure-Abonnement verfügen, können Sie ein kostenloses Azure-Konto erstellen, bevor Sie beginnen.
- Azure-Speicherkonto: Sie verwenden Azure Data Lake Storage Gen 2 als Quelldatenspeicher. Wenn Sie kein Speicherkonto haben, finden Sie unter Erstellen eines Azure Storage-Kontos die erforderlichen Schritte zum Erstellen eines solchen Kontos.
-
Azure Synapse Analytics: Sie verwenden einen dedizierten SQL-Pool als Senkendatenspeicher.
- Wenn Sie über keinen vorhandenen Synapse-Arbeitsbereich verfügen, finden Sie Informationen unter Erstellen eines Synapse-Arbeitsbereichs.
- Wenn Sie über keinen vorhandenen dedizierten SQL-Pool verfügen, lesen Sie den Abschnitt Erstellen eines dedizierten SQL-Pools.
Erstellen von verknüpften Diensten
In Azure Synapse Analytics definieren Sie in einem verknüpften Dienst Ihre Verbindungsinformationen für andere Dienste. In diesem Abschnitt fügen Sie Azure Synapse Analytics und Azure Data Lake Storage Gen 2 als verknüpfte Dienste hinzu.
- Öffnen Sie die Benutzeroberfläche für Azure Synapse Analytics, und wechseln Sie zur Registerkarte Verwalten.
- Wählen Sie unter Externe Verbindungen die Option Verknüpfte Dienste aus.
- Klicken Sie auf Neu, um einen verknüpften Dienst hinzuzufügen.
- Wählen Sie in der Liste die Kachel „Azure Data Lake Storage Gen2“ und dann Weiter aus.
- Geben Sie Ihre Anmeldeinformationen für die Authentifizierung ein. Derzeit werden die Authentifizierungstypen „Kontoschlüssel“, „Dienstprinzipal“ und „Verwaltete Identität“ unterstützt. Klicken Sie auf „Verbindung testen“, um Ihre Anmeldeinformationen zu überprüfen. Wenn Sie fertig sind, klicken Sie auf Erstellen.
- Wiederholen Sie die Schritte 3–5, doch wählen Sie statt „Azure Data Lake Storage Gen2“ die Kachel „Azure Synapse Analytics“ aus, und geben Sie die entsprechenden Anmeldeinformationen für die Verbindung ein. Bei Azure Synapse Analytics werden derzeit SQL-Authentifizierung, verwaltete Identität und Dienstprinzipal unterstützt.
Erstellen der Pipeline
Eine Pipeline enthält den logischen Ablauf für die Ausführung einer Aktivitätenmenge. In diesem Abschnitt erstellen Sie eine Pipeline mit einer Kopieraktivität, die Daten aus ADLS Gen2 in einem dedizierten SQL-Pool erfasst.
- Navigieren Sie zur Registerkarte Integrieren. Klicken Sie neben dem Header „Pipelines“ auf das Pluszeichen und anschließend auf Pipeline.
- Ziehen Sie im Bereich „Aktivitäten“ unter Verschieben und transformieren den Befehl Daten kopieren auf die Pipelinecanvas.
- Klicken Sie auf die Kopieraktivität, und wechseln Sie zur Registerkarte Quelle. Wählen Sie Neu aus, um ein neues Quelldataset zu erstellen.
- Wählen Sie „Azure Data Lake Storage Gen 2“ als Datenspeicher aus, und klicken Sie auf „Weiter“.
- Wählen Sie „DelimitedText“ als Format aus, und klicken Sie auf „Weiter“.
- Wählen Sie im Bereich „Eigenschaften festlegen“ den von Ihnen erstellten verknüpften ADLS-Dienst aus. Geben Sie den Dateipfad Ihrer Quelldaten und dann an, ob die erste Zeile einen Header hat. Sie können das Schema aus dem Dateispeicher oder einer Beispieldatei importieren. Wählen Sie nach der Fertigstellung OK aus.
- Wechseln Sie zur Registerkarte Senke. Klicken Sie auf Neu, um ein neues Senkendataset zu erstellen.
- Wählen Sie „Azure Synapse Analytics“ als Datenspeicher aus, und klicken Sie auf „Weiter“.
- Wählen Sie im Bereich „Eigenschaften festlegen“ den von Ihnen erstellten verknüpften Azure Synapse Analytics-Dienst aus. Wenn Sie in eine vorhandene Tabelle schreiben, wählen Sie sie in der Dropdownliste aus. Aktivieren Sie andernfalls Bearbeiten, und geben Sie Ihren neuen Tabellennamen ein. Klicken Sie auf „OK“, wenn Sie fertig sind.
- Wenn Sie eine Tabelle erstellen, aktivieren Sie im Feld „Tabellenoption“ die Option Auto create table (Tabelle automatisch erstellen).
Debuggen und Veröffentlichen der Pipeline
Nach Abschluss der Konfiguration Ihrer Pipeline können Sie einen Debuglauf durchführen, bevor Sie Ihre Artefakte zur Überprüfung veröffentlichen, ob alles einwandfrei ist.
- Klicken Sie auf der Symbolleiste auf Debuggen, um die Pipeline zu debuggen. Der Status der Pipelineausführung wird unten im Fenster auf der Registerkarte Ausgabe angezeigt.
- Wenn die Pipeline ausgeführt wird, klicken Sie auf der oberen Symbolleiste auf Alle veröffentlichen. Mit dieser Aktion werden erstellte Entitäten (Datasets und Pipelines) im Synapse Analytics-Dienst veröffentlicht.
- Warten Sie, bis die Meldung Erfolgreich veröffentlicht angezeigt wird. Wenn Sie Benachrichtigungsmeldungen anzeigen möchten, klicken Sie oben rechts auf die Schaltfläche mit der Glocke.
Auslösen und Überwachen der Pipeline
In diesem Schritt lösen Sie die im vorherigen Schritt veröffentlichte Pipeline manuell aus.
- Wählen Sie in der Symbolleiste die Option Trigger hinzufügen und dann Jetzt auslösen. Klicken Sie auf der Seite Pipeline Run (Pipelineausführung) auf Fertig stellen.
- Wechseln Sie in der linken Randleiste zur Registerkarte Monitor. Sie sehen eine Pipelineausführung, die von einem manuellen Trigger ausgelöst wird. Sie können über Links in der Spalte Aktionen Aktivitätsdetails anzeigen und die Pipeline erneut ausführen.
- Klicken Sie in der Spalte Aktionen auf den Link View Activity Runs (Aktivitätsausführungen anzeigen), um mit der Pipelineausführung verknüpfte Aktivitätsausführungen anzuzeigen. Da in diesem Beispiel nur eine Aktivität vorhanden ist, wird in der Liste nur ein Eintrag angezeigt. Wenn Sie Details zum Kopiervorgang anzeigen möchten, klicken Sie auf den Link Details (Brillensymbol) in der Spalte Aktionen. Wählen Sie oben Pipelineausführungen aus, um zurück zur Ansicht mit den Pipelineausführungen zu wechseln. Klicken Sie zum Aktualisieren der Ansicht auf Aktualisieren.
- Vergewissern Sie sich, dass Ihre Daten korrekt in den dedizierten SQL-Pool geschrieben werden.
Nächste Schritte
Weitere Informationen zur Datenintegration bei Azure Synapse Analytics finden Sie im Artikel Erfassen von Daten in Azure Data Lake Storage Gen2.