Créer et utiliser des flux de données dans Microsoft Power Platform

L’utilisation de flux de données avec Microsoft Power Platform facilite la préparation des données et vous permet de réutiliser celle-ci dans d’autres rapports, applications et modèles.

Étant donné leur constante expansion, la préparation des données peut être difficile et coûteuse puisque 60 à 80 % du temps et des coûts d’un projet d’analytique classique y sont consacrés. Ces projets peuvent nécessiter des données de wrangling fragmentées et incomplètes, une intégration de système complexe, des données incohérentes du point de vue structurel ainsi qu’un ensemble de compétences difficiles à acquérir.

Pour faciliter la préparation des données et tirer pleinement parti de celles-ci, les flux de données Power Query et Power Platform ont été créés.

Entités liées dans Power BI.

Avec les flux de données, Microsoft intègre les fonctionnalités de préparation des données libre-service de Power Query aux services en ligne Power BI et Power Apps.En outre, il développe les fonctionnalités existantes de la manière suivante :

  • Préparation des données libre-service pour le Big Data à l’aide de flux de données : les flux de données peuvent être utilisés pour ingérer, nettoyer, transformer, intégrer, enrichir et schématiser les données issues d’un grand tableau de sources transactionnelles et observationnelles, englobant ainsi toute la logique de préparation des données. Auparavant, la logique d’extraction, de transformation et de chargement (ETL) ne pouvait être incluse que dans les jeux de données Power BI, copiées d’un jeu de données à l’autre et liées aux paramètres de gestion des jeux de données.

    Avec les flux de données, la logique ETL est promue en artefact de première classe au sein des services Microsoft Power Platform, et inclut des expériences dédiées de création et de gestion. Les analystes métier, les professionnels du décisionnel et les scientifiques des données peuvent utiliser des flux de données pour gérer les préparations de données les plus complexes et baser leur travail sur celui des autres, grâce à un moteur de calcul révolutionnaire basé sur les modèles, qui s’occupe de toute la logique de transformation et de dépendance, réduisant ainsi le temps, le coût et le niveau d’expertise qui sont nécessaires habituellement pour ces tâches. Vous pouvez créer des flux de données à l’aide de l’expérience de préparation des données libre-service de Power Query. Les flux de données sont créés et facilement gérés dans des espaces de travail d’application (Power BI) ou des environnements d’application (Power Apps), bénéficiant ainsi de toutes les fonctionnalités offertes par ces services, telles que la gestion des autorisations et les actualisations planifiées.

  • Charger des données dans Dataverse ou Azure Data Lake Storage : selon votre cas d’usage, vous pouvez stocker les données préparées par les flux de données Power Platform dans Dataverse ou le compte Azure Data Lake Storage de votre organisation :

    • Dataverse vous permet de stocker et de gérer de façon sécurisée les données qui sont utilisées par les applications métier. Dans Dataverse, les données sont stockées dans un ensemble de tables. Une table est un ensemble de lignes (anciennement appelées « enregistrements ») et de colonnes (anciennement appelées « champs » ou « attributs »). Chaque colonne de la table est conçue pour stocker un certain type de données, par exemple, le nom, l’âge, le salaire, et ainsi de suite. Dataverse propose un ensemble de tables standard pouvant être utilisées dans les scénarios courants. Toutefois, vous pouvez également créer des tables personnalisées propres à votre organisation et les remplir avec des données à l’aide de flux de données. Les créateurs d’applications peuvent ensuite utiliser Power Apps et Power Automate pour créer des applications avancées qui utilisent ces données.

    • Azure Data Lake Storage vous permet de collaborer avec des personnes de votre organisation à l’aide de Power BI et des services de données et d’IA Azure, ou à l’aide d’applications métier personnalisées qui lisent des données à partir d’un lac. Les flux de données qui chargent des données dans un compte Azure Data Lake Storage les stockent dans les dossiers Common Data Model. Les dossiers Common Data Model contiennent des données schématisées et des métadonnées dans un format standardisé, ce qui facilite l’échange de données et permet une interopérabilité complète entre les services qui produisent ou consomment des données stockées dans le compte Azure Data Lake Storage d’une organisation en tant que couche de stockage partagé.

  • Analytique et IA avancées avec Azure : les flux de données Power Platform stockent des données dans Dataverse ou Azure Data Lake Storage. Cela signifie que les données ingérées via des flux de données sont désormais disponibles pour les ingénieurs de données et les scientifiques des données qui pourront tirer parti de la pleine puissance d’Azure Data Services, notamment d’Azure Machine Learning, Azure Databricks et Azure Synapse Analytics pour l’analytique et l’IA avancées. Les analystes métier, les ingénieurs données et les scientifiques des données peuvent donc collaborer sur les mêmes données au sein de leur organisation.

  • Prise en charge de Common Data Model : Common Data Model est un ensemble de schémas de données standardisés et un système de métadonnées qui permet la cohérence des données et de leur signification dans l’ensemble des applications et des processus métier. Les flux de données améliorent Common Data Model en facilitant le mappage de données, quelle que soit leur forme, vers des entités Common Data Model standards, telles que Compte et Contact. Les flux de données transmettent également les données (aussi bien les entités standard que personnalisées) sous forme de Common Data Model schématisé. Les analystes métier peuvent tirer parti du schéma standard et de sa cohérence sémantique, ou personnaliser leurs entités en fonction de leurs besoins. Common Data Model continue d’évoluer dans le cadre de l’initiative Open Data.

Fonctionnalités de flux de données dans les services Microsoft Power Platform

La plupart des fonctionnalités de flux de données sont disponibles dans Power Apps et Power BI. Les flux de données sont disponibles dans le cadre des plans de ces services. Certaines fonctionnalités de flux de données sont propres au produit ou disponibles dans différents plans de produit. Le tableau suivant décrit les fonctionnalités de flux de données et leur disponibilité.

Fonctionnalité de flux de données Power Apps Power BI
Actualisation planifiée Jusqu’à 48 par jour Jusqu’à 48 par jour
Durée maximale d’actualisation par entité Jusqu’à 2 heures Jusqu’à 2 heures
Création de flux de données avec Power Query en ligne Oui Oui
Gestion des flux de données Dans le portail d’administration Power Apps Dans le portail d’administration Power BI
Nouveaux connecteurs Oui Oui
Schéma standardisé/Prise en charge intégrée pour le Common Data Model Oui Oui
Connecteur de données de flux de données dans Power BI Desktop Pour les flux de données avec Azure Data Lake Storage comme destination Yes
Intégration au stockage Azure Data Lake Storage de l’organisation Oui Oui
Intégration à Dataverse Oui Non
Entités liées à un flux de données Pour les flux de données avec Azure Data Lake Storage comme destination Yes
Entités calculées (transformations dans le stockage à l’aide du langage M) Pour les flux de données avec Azure Data Lake Storage comme destination Power BI Premium uniquement
Actualisation incrémentielle du flux de données Pour les flux de données avec Azure Data Lake Storage comme destination, Power Apps Plan2 est nécessaire Power BI Premium uniquement
Exécution sur la capacité Power BI Premium/Exécution parallèle de transformations Non Oui

Pour plus d’informations sur les flux de données dans Power Apps :

Pour plus d’informations sur les flux de données dans Power BI :

Étapes suivantes

Les articles suivants définissent plus en détail les scénarios d’utilisation courants pour les flux de données.

Pour plus d’informations sur Common Data Model et le standard des dossiers Common Data Model, consultez les articles suivants :