Partager via


Tutoriel : Actualiser un modèle sémantique Power BI avec Apache Airflow Job

Remarque

Apache Airflow Job est alimenté par Apache Airflow.

Dans le monde d’aujourd’hui dirigé par les données, garder les modèles de données à jour et précis est essentiel pour prendre des décisions commerciales éclairées. À mesure que les données évoluent, il est essentiel d’actualiser ces modèles régulièrement pour s’assurer que les rapports et les tableaux de bord reflètent les informations les plus actuelles. Les actualisations manuelles peuvent être fastidieuses et sujettes aux erreurs, et c’est là que les fonctionnalités d’orchestration, de planification et de surveillance d’Apache Airflow entrent en jeu. En tirant profit d’Airflow, les organisations peuvent automatiser le processus d’actualisation des modèles sémantiques de Power BI, ce qui garantit des mises à jour de données rapides et précises avec une intervention manuelle minimale.

Cet article décrit l’intégration d’Apache Airflow à Power BI pour automatiser les actualisations de modèles sémantiques à l’aide de flux de travail de données. Il fournit un guide pas à pas pour mettre en place l’environnement, configurer des connexions et créer des flux de travail afin de mettre à jour en toute transparence les modèles sémantiques de Power BI.

Prérequis

Pour commencer, vous devez remplir les conditions préalables suivantes :

Ajouter une exigence Apache Airflow

  1. Accédez à « Paramètres », puis sélectionnez « Configuration de l’environnement ».

  2. Sous « Exigences Apache Airflow », incluez « airflow-powerbi-plugin. »

  3. Cliquez sur « Appliquer », pour enregistrer les modifications.

    Capture d’écran de l’ajout d’une exigence Airflow.

Créer une connexion Apache Airflow pour se connecter à l’espace de travail Power BI

  1. Sélectionnez l’option « Afficher les connexions Airflow » pour afficher la liste de toutes les connexions configurées.

    Capture d’écran montrant la connexion Apache Airflow.

  2. Ajoutez la nouvelle connexion. Vous pouvez utiliser le type de connexion Generic. Enregistrez les champs suivants :

    • ID de connexion : l’ID de connexion.
    • Type de connexion : générique
    • Connexion : l’ID client de votre principal de service.
    • Mot de passe : la clé secrète client de votre principal de service.
    • Extra :{« tenantId » : l’ID de client de votre principal de service.}
  3. Cliquez sur Enregistrer.

Créer un DAG Apache Airflow

  1. Tout d’abord, sélectionnez la carte « Nouveau fichier DAG ». Ensuite, attribuez un nom au fichier et sélectionnez « Créer ».

  2. Une fois créé, vous obtenez un code DAG standard. Modifiez le fichier pour inclure l’exemple de DAG. Ce DAG déclenche l’actualisation synchrone du modèle sémantique de Power BI. Mettez à jour les arguments dataset_id et workspace_id avec l’ID du modèle sémantique Power BI et l’ID d’espace de travail respectivement.

from datetime import datetime
# The DAG object
from airflow import DAG
from airflow.operators.bash import BashOperator
from airflow_powerbi_plugin.operators.powerbi import PowerBIDatasetRefreshOperator

with DAG(
        dag_id='refresh_dataset_powerbi',
        schedule_interval=None,
        start_date=datetime(2023, 8, 7),
        catchup=False,
        concurrency=20,
) as dag:

    # [START howto_operator_powerbi_refresh_dataset]
    dataset_refresh = PowerBIDatasetRefreshOperator(
        powerbi_conn_id= "powerbi_default",
        task_id="sync_dataset_refresh",
        dataset_id="<dataset_id>",
        group_id="<workspace_id>",
    )
    # [END howto_operator_powerbi_refresh_dataset]

    dataset_refresh

  1. Sélectionnez « Enregistrer » pour enregistrer le fichier.

    Capture d’écran présentant comment enregistrer le fichier DAG dans Microsoft Fabric.

Créer un fichier de plug-in pour Power BI (facultatif)

Si vous souhaitez activer un lien de surveillance externe vers Power BI à partir de l’interface utilisateur (IU) Airflow, suivez les étapes suivantes :

  1. Créez un nouveau fichier dans le dossier « plugins ».

  2. Collez le contenu fourni ci-dessous dans le fichier.

from airflow.plugins_manager import AirflowPlugin

from airflow_powerbi_plugin.hooks.powerbi import PowerBIHook
from airflow_powerbi_plugin.operators.powerbi import PowerBILink

# Defining the plugin class
class AirflowExtraLinkPlugin(AirflowPlugin):
    """
    PowerBI plugin.
    """

    name = "powerbi_plugin"
    operator_extra_links = [
        PowerBILink(),
    ]
    hooks= [
        PowerBIHook,
    ]
  1. Une fois la tâche terminée, vous observerez le DAG chargé du lien de surveillance externe vers le modèle sémantique Power BI actualisé.

Surveiller le DAG de flux de données et l’exécuter à partir de l’interface utilisateur (IU) d’Apache Airflow

Une fois que vous avez cliqué sur enregistrer, les fichiers sont automatiquement chargés dans l’interface utilisateur (IU) Apache Airflow. Pour les surveiller, cliquez sur le bouton « Surveiller dans Apache Airflow ».

Capture d’écran montrant comment surveiller le DAG Airflow.

Démarrage rapide : créer une tâche Apache Airflow Job