Notes
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Remarque
Apache Airflow Job est alimenté par Apache Airflow.
Dans le monde d’aujourd’hui dirigé par les données, garder les modèles de données à jour et précis est essentiel pour prendre des décisions commerciales éclairées. À mesure que les données évoluent, il est essentiel d’actualiser ces modèles régulièrement pour s’assurer que les rapports et les tableaux de bord reflètent les informations les plus actuelles. Les actualisations manuelles peuvent être fastidieuses et sujettes aux erreurs, et c’est là que les fonctionnalités d’orchestration, de planification et de surveillance d’Apache Airflow entrent en jeu. En tirant profit d’Airflow, les organisations peuvent automatiser le processus d’actualisation des modèles sémantiques de Power BI, ce qui garantit des mises à jour de données rapides et précises avec une intervention manuelle minimale.
Cet article décrit l’intégration d’Apache Airflow à Power BI pour automatiser les actualisations de modèles sémantiques à l’aide de flux de travail de données. Il fournit un guide pas à pas pour mettre en place l’environnement, configurer des connexions et créer des flux de travail afin de mettre à jour en toute transparence les modèles sémantiques de Power BI.
Prérequis
Pour commencer, vous devez remplir les conditions préalables suivantes :
Votre administrateur au niveau du locataire doit activer « Les principaux de service peuvent appeler des API publiques Fabric » :
- Accédez au portail Administration de Microsoft Fabric et naviguez jusqu’aux Paramètres du client.
- Sous Paramètres du développeur, développez la section « Les principaux de service peuvent appeler des API publiques Fabric ».
- Basculez le bouton « Activé » et choisissez « L’ensemble de l’organisation » ou « Groupes de sécurité spécifiques ».
- Sélectionnez Appliquer.
Créez le Principal de service. Vous devez ajouter votre principal de service en tant que contributeur dans votre espace de travail Power BI.
Ajouter une exigence Apache Airflow
Accédez à « Paramètres », puis sélectionnez « Configuration de l’environnement ».
Sous « Exigences Apache Airflow », incluez « airflow-powerbi-plugin. »
Cliquez sur « Appliquer », pour enregistrer les modifications.
Créer une connexion Apache Airflow pour se connecter à l’espace de travail Power BI
Sélectionnez l’option « Afficher les connexions Airflow » pour afficher la liste de toutes les connexions configurées.
Ajoutez la nouvelle connexion. Vous pouvez utiliser le type de connexion
Generic
. Enregistrez les champs suivants :- ID de connexion : l’ID de connexion.
- Type de connexion : générique
- Connexion : l’ID client de votre principal de service.
- Mot de passe : la clé secrète client de votre principal de service.
- Extra :{« tenantId » : l’ID de client de votre principal de service.}
Cliquez sur Enregistrer.
Créer un DAG Apache Airflow
Tout d’abord, sélectionnez la carte « Nouveau fichier DAG ». Ensuite, attribuez un nom au fichier et sélectionnez « Créer ».
Une fois créé, vous obtenez un code DAG standard. Modifiez le fichier pour inclure l’exemple de DAG. Ce DAG déclenche l’actualisation synchrone du modèle sémantique de Power BI. Mettez à jour les arguments
dataset_id
etworkspace_id
avec l’ID du modèle sémantique Power BI et l’ID d’espace de travail respectivement.
from datetime import datetime
# The DAG object
from airflow import DAG
from airflow.operators.bash import BashOperator
from airflow_powerbi_plugin.operators.powerbi import PowerBIDatasetRefreshOperator
with DAG(
dag_id='refresh_dataset_powerbi',
schedule_interval=None,
start_date=datetime(2023, 8, 7),
catchup=False,
concurrency=20,
) as dag:
# [START howto_operator_powerbi_refresh_dataset]
dataset_refresh = PowerBIDatasetRefreshOperator(
powerbi_conn_id= "powerbi_default",
task_id="sync_dataset_refresh",
dataset_id="<dataset_id>",
group_id="<workspace_id>",
)
# [END howto_operator_powerbi_refresh_dataset]
dataset_refresh
Créer un fichier de plug-in pour Power BI (facultatif)
Si vous souhaitez activer un lien de surveillance externe vers Power BI à partir de l’interface utilisateur (IU) Airflow, suivez les étapes suivantes :
Créez un nouveau fichier dans le dossier « plugins ».
Collez le contenu fourni ci-dessous dans le fichier.
from airflow.plugins_manager import AirflowPlugin
from airflow_powerbi_plugin.hooks.powerbi import PowerBIHook
from airflow_powerbi_plugin.operators.powerbi import PowerBILink
# Defining the plugin class
class AirflowExtraLinkPlugin(AirflowPlugin):
"""
PowerBI plugin.
"""
name = "powerbi_plugin"
operator_extra_links = [
PowerBILink(),
]
hooks= [
PowerBIHook,
]
- Une fois la tâche terminée, vous observerez le DAG chargé du lien de surveillance externe vers le modèle sémantique Power BI actualisé.
Surveiller le DAG de flux de données et l’exécuter à partir de l’interface utilisateur (IU) d’Apache Airflow
Une fois que vous avez cliqué sur enregistrer, les fichiers sont automatiquement chargés dans l’interface utilisateur (IU) Apache Airflow. Pour les surveiller, cliquez sur le bouton « Surveiller dans Apache Airflow ».