Dela via


Åtkomst till Apache Airflow-jobbloggar

Kommentar

Apache Airflow-jobbet drivs av Apache Airflow.

Den här artikeln visar hur du får åtkomst till Apache Airflow-jobbloggar via Apache Airflow-jobbgränssnittet.

Förutsättningar

För att komma igång måste du uppfylla följande krav:

  • Aktivera Apache Airflow-jobb i klientorganisationen.

    Kommentar

    Eftersom Apache Airflow-jobbet är i förhandsversionstillstånd måste du aktivera det via klientadministratören. Om du redan ser Apache Airflow-jobb kanske klientadministratören redan har aktiverat det.

    1. Gå till administratörsportalen –> Klientinställningar –> Under Microsoft Fabric –> Expandera avsnittet "Användare kan skapa och använda Apache Airflow-jobb (förhandsversion)."

    2. Välj Använd. Skärmbild för att aktivera Apache Airflow i klientorganisationen.

  • Skapa eller använda en befintlig arbetsyta i Microsoft Fabric.

  • Skapa eller använda ett befintligt Apache Airflow-jobb i Microsoft Fabric.

Skapa och köra Apache Airflow-jobbet

Vi använder standardvärdet Directed Acyclic Graph (DAG), som skapas automatiskt när en ny fil läggs till i Mappen Dags för infrastrukturhanterad lagring.

  1. Skapa en ny fil i mappen Dags. En dag initieras som består av BashOperator som skriver ut "Hello world" i Apache Airflow-jobbloggar.

    Skärmbild för att skapa en ny Apache Airflow-fil.

  2. Spara och kör DAG i Apache Airflow-användargränssnittet.

    Skärmbild för att spara och köra Apache Airflow Dag.

Åtkomstloggar för Apache Airflow-jobb

  1. När DAG körs visas loggarna i resultatavsnittet. Klicka på Pil för att expandera resultatavsnittet. Skärmbild för att komma åt resultatavsnittet i Apache Airflow-jobbet.

  2. Klicka på fliken Klusterloggar för att komma åt loggar. Skärmbild för att klicka på klusterloggar.

  3. Använd filter för att välja Start time och Log type för loggarna. Skärmbild för att tillämpa filter på klusterloggar.

  4. Öppna loggarna. Skärmbild för att se klusterloggar.

Snabbstart: Skapa ett Apache Airflow-jobb