Passer de la génération de flux de données 1 à la génération de flux de données 2

Dataflow Gen2 est la nouvelle génération de flux de données. La nouvelle génération de flux de données réside à côté du flux de données Power BI (Gen1) et apporte de nouvelles fonctionnalités et des expériences améliorées. La section suivante fournit une comparaison entre Dataflow Gen1 et Dataflow Gen2.

Présentation des fonctionnalités

Fonctionnalité Dataflow Gen2 Dataflow Gen1
Créer des flux de données avec Power Query
Flux de création plus court
Enregistrement automatique et publication en arrière-plan
Destination des données
Amélioration de l’historique de supervision et d’actualisation
Intégration à des pipelines de données
Calcul à grande échelle
Obtenir des données via le connecteur Dataflows
Direct Query via le connecteur Dataflows
Actualisation incrémentielle
Support Insights IA

Expérience de création plus courte

L’utilisation de Dataflow Gen2 vous donne l’impression de rentrer à la maison. Nous avons conservé l’expérience Power Query complète à laquelle vous êtes habitué dans les flux de données Power BI. Lorsque vous entrez dans l’expérience, vous êtes guidé étape par étape pour obtenir les données dans votre flux de données. Nous raccourcissons également l’expérience de création pour réduire le nombre d’étapes requises pour créer des flux de données, et nous avons ajouté quelques nouvelles fonctionnalités pour améliorer votre expérience.

Screenshot of the overall authoring experience in dataflows.

Nouvelle expérience d’enregistrement de flux de données

Avec Dataflow Gen2, nous avons modifié le mode d’enregistrement d’un flux de données. Toutes les modifications apportées à un flux de données sont enregistrées automatiquement dans le cloud. Vous pouvez donc quitter l’expérience de création à tout moment et continuer à partir de là où vous vous êtes arrêté ultérieurement. Une fois que vous avez terminé la création de votre flux de données, vous publiez vos modifications et ces modifications sont utilisées lors de l’actualisation du flux de données. En outre, la publication du flux de données enregistre vos modifications et exécute des validations qui doivent être effectuées en arrière-plan. Cette fonctionnalité vous permet d’enregistrer votre flux de données sans avoir à attendre la fin de la validation.

Pour en savoir plus sur la nouvelle expérience d’enregistrement, accédez à Enregistrer un brouillon de votre flux de données.

Destination des données

Comme pour Dataflow Gen1, Dataflow Gen2 vous permet de transformer vos données en stockage interne/intermédiaire du flux de données où elles sont accessibles à l’aide du connecteur Dataflow. Dataflow Gen2 vous permet également de spécifier une destination de données pour vos données. À l’aide de cette fonctionnalité, vous pouvez maintenant séparer votre logique ETL et le stockage de destination. Cette fonctionnalité vous est bénéfique à bien des égards. Par exemple, vous pouvez maintenant utiliser un flux de données pour charger des données dans un lakehouse, puis utiliser un notebook pour analyser les données. Vous pouvez également utiliser un flux de données pour charger des données dans une base de données Azure SQL, puis utiliser un pipeline de données pour charger les données dans un entrepôt de données.

Dans Dataflow Gen2, nous avons ajouté la prise en charge des destinations suivantes et bien d’autres seront bientôt disponibles :

  • Fabric Lakehouse
  • Azure Data Explorer (Kusto)
  • Azure Synapse Analytics (SQL DW)
  • Azure SQL Database

Notes

Pour charger vos données dans Fabric Warehouse, vous pouvez utiliser le connecteur Azure Synapse Analytics (SQL DW) en récupérant la chaîne de connexion SQL. Plus d’informations : Connectivité à l’entrepôt de données dans Microsoft Fabric

Screenshot with the supported data destinations displayed.

Nouvel historique d’actualisation et surveillance

Avec Dataflow Gen2, nous introduisons une nouvelle façon de surveiller les actualisations de votre flux de données. Nous intégrons la prise en charge de Monitoring Hub et donnons à notre expérience d’historique d’actualisation une mise à niveau majeure.

Screenshot showing the details of a refresh status.

Intégration à des pipelines de données

Les pipelines de données vous permettent de regrouper des activités qui effectuent une tâche. Une activité est une unité de travail qui peut être exécutée. Par exemple, une activité peut copier des données d’un emplacement vers un autre, exécuter une requête SQL, exécuter une procédure stockée ou exécuter un notebook Python.

Un pipeline peut contenir une ou plusieurs activités connectées par des dépendances. Par exemple, vous pouvez utiliser un pipeline pour ingérer et nettoyer les données d'un blob Azure, puis lancer un Dataflow Gen2 pour analyser les données de journal. Vous pouvez également utiliser un pipeline pour copier des données d’un objet blob Azure vers une base de données Azure SQL, puis exécuter une procédure stockée sur la base de données.

Screenshot showing the integration with data pipelines.

Enregistrer en tant que brouillon

Avec Dataflow Gen2, nous introduisons une expérience sans souci en supprimant la nécessité de publier pour enregistrer vos modifications. Avec la fonctionnalité Enregistrer en tant que brouillon, nous stockons une version préliminaire de votre flux de données chaque fois que vous apportez une modification. Avez-vous perdu la connectivité Internet ? Avez-vous fermé accidentellement votre navigateur ? Ne vous inquiétez pas, nous sommes là pour vous aider. Une fois que vous revenez à votre flux de données, vos modifications récentes sont toujours là et vous pouvez continuer là où vous vous étiez arrêté. Il s’agit d’une expérience transparente qui ne nécessite aucune entrée de votre part. Cela vous permet de travailler sur votre flux de données sans avoir à vous soucier de perdre vos modifications ou d’avoir à corriger toutes les erreurs de requête avant de pouvoir enregistrer vos modifications. Pour en savoir plus sur cette fonctionnalité, accédez à Enregistrer un brouillon de votre flux de données.

Calcul à grande échelle

Comme pour Dataflow Gen1, Dataflow Gen2 dispose également d’un moteur de calcul amélioré pour améliorer les performances des transformations des requêtes référencées et obtenir des scénarios de données. Pour ce faire, Dataflow Gen2 crée des éléments Lakehouse et Warehouse dans votre espace de travail et les utilise pour stocker et accéder aux données afin d’améliorer les performances de tous vos flux de données.

Flux de données de licence Gen1 vs Gen2

La nouvelle génération Dataflow Gen2 réside à côté du flux de données Power BI (Gen1) et apporte de nouvelles fonctionnalités et des expériences améliorées. Elle nécessite une capacité Fabric ou une capacité d’essai Fabric. Pour mieux comprendre le fonctionnement des licences pour les flux de données, vous pouvez lire l’article suivant : Licences et concepts Microsoft Fabric

Essayez Dataflow Gen2 en réutilisant vos requêtes à partir de Dataflow Gen1

Vous avez probablement de nombreuses requêtes Dataflow Gen1 et vous vous demandez comment les essayer dans Dataflow Gen2. Nous avons quelques options pour recréer vos flux de données Gen1 en tant que Dataflow Gen2.

  • Exportez vos requêtes Dataflow Gen1 et importez-les dans Dataflow Gen2

    Vous pouvez maintenant exporter des requêtes dans les expériences de création De flux de données Gen1 et Gen2 et les enregistrer dans un fichier PQT que vous pouvez ensuite importer dans Dataflow Gen2. Pour plus d’informations, consultez Utiliser la fonctionnalité de modèle d’exportation.

  • Copier et coller dans Power Query

    Si vous disposez d’un flux de données dans Power BI ou Power Apps, vous pouvez copier vos requêtes et les coller dans l’éditeur de votre Dataflow Gen2. Cette fonctionnalité vous permet de migrer votre flux de données vers Gen2 sans avoir à réécrire vos requêtes. Pour plus d’informations, accédez à Copier et coller des requêtes Dataflow Gen1 existantes.