Freigeben über


Importieren von DAGs mithilfe von Azure Blob Storage

Hinweis

Dieses Feature befindet sich in der Phase der öffentlichen Vorschau. Workflow Orchestration Manager wird von Apache Airflow unterstützt.

In diesem Artikel wird Schritt für Schritt beschrieben, wie Sie gerichtete azyklische Graphen (Directed Acyclic Graphas, DAGs) mithilfe von Azure Blob Storage in Workflow Orchestration Manager importieren.

Voraussetzungen

Blob Storage hinter virtuellen Netzwerken wird während der Vorschau nicht unterstützt. Die Azure Key Vault-Konfiguration in storageLinkedServices wird zum Importieren von DAGs nicht unterstützt.

Importieren von DAGs

  1. Kopieren Sie entweder Sample Apache Airflow v2.x DAG oder Sample Apache Airflow v1.10 DAG basierend auf der von Ihnen eingerichteten Airflow-Umgebung. Fügen Sie den Inhalt in eine neue Datei mit dem Namen tutorial.py ein.

    Laden Sie die Datei tutorial.py in Blob Storage hoch. Weitere Informationen finden Sie unter Hochladen einer Datei in ein Blob.

    Hinweis

    Sie müssen einen Verzeichnispfad aus einem Blob Storage-Konto auswählen, das Ordner mit dem Namen dags und plugins enthält, um sie in die Airflow-Umgebung zu importieren. Plug-Ins sind nicht obligatorisch. Sie können auch einen Container mit dem Namen dags verwenden und alle Airflow-Dateien in ihn hochladen.

  2. Wählen Sie unter dem Hub Verwalten die Option Apache Airflow aus. Zeigen Sie dann auf die zuvor erstellte Airflow-Umgebung, und wählen Sie Dateien importieren aus, um alle DAGs und Abhängigkeiten in die Airflow-Umgebung zu importieren.

    Screenshot: Importieren von Dateien im Hub „Verwalten“

  3. Erstellen Sie einen neuen verknüpften Dienst für das im Abschnitt „Voraussetzungen“ genannte barrierefreie Speicherkonto. Sie können auch einen vorhandenen Dienst verwenden, wenn Sie bereits über eigene DAGs verfügen.

    Screenshot der Erstellung eines neuen verknüpften Diensts.

  4. Verwenden Sie das Speicherkonto, in das Sie den DAG hochgeladen haben. (Überprüfen Sie den Abschnitt „Voraussetzungen“.) Testen Sie die Verbindung, und klicken Sie auf Erstellen.

    Screenshot: Einige Details eines verknüpften Diensts

  5. Suchen Sie nach Airflow, und wählen Sie diese Option aus, wenn Sie die SAS-Beispiel-URL verwenden. Sie können auch den Ordner auswählen, der den Ordner dags mit DAG-Dateien enthält.

    Hinweis

    Sie können DAGs und deren Abhängigkeiten über diese Schnittstelle importieren. Sie müssen einen Verzeichnispfad aus einem Blob Storage-Konto auswählen, das Ordner mit dem Namen dags und plugins enthält, um diese in die Airflow-Umgebung zu importieren. Plug-Ins sind nicht obligatorisch.

    Screenshot: Schaltfläche „Speicher durchsuchen“ auf dem Bildschirm „Dateien importieren“

    Screenshot: Airflow-Stammordner unter „Durchsuchen“

  6. Wählen Sie Importieren aus, um Dateien zu importieren.

    Screenshot: Schaltfläche „Importieren“ auf dem Bildschirm „Dateien importieren“

    Screenshot: Importieren von DAGs

Das Importieren von DAGs kann während der Vorschau einige Minuten dauern. Mithilfe der Benachrichtigungszentrale (Glockensymbol auf der Data Factory-Benutzeroberfläche) können Sie die Aktualisierungen des Importstatus nachverfolgen.