Considérations et limites relatives aux dataflows
Les dataflows sont soumis à des limitations en matière de création, d’actualisation et de gestion de capacité que les utilisateurs doivent garder à l’esprit, comme décrit dans les sections suivantes.
Limitations générales
- Les flux de données peuvent ne pas être disponibles pour tous les clients du Département de la Défense des États-Unis. La parité des fonctionnalités dans les environnements gouvernementaux est disponible dans l’article Disponibilité des fonctionnalités Power BI pour le secteur public .
- Les sources de données supprimées restent sur la page de source de données de flux de données. Il s’agit d’un comportement bénin qui n’affecte pas l’actualisation ni la modification des flux de données. Dans la vue de la traçabilité , les sources de données supprimées apparaissent comme traçabilité d’un dataflow.
- Les sources de données supprimées s’affichent toujours dans la page Paramètre de la liste déroulante de passerelle.
- La profondeur correspond aux dataflows liés à d’autres dataflows. La profondeur maximale actuelle est 32.
- La largeur correspond aux entités au sein d’un dataflow.
- Il n’existe aucune instruction ni limite pour le nombre optimal d’entités dans un flux de données. Toutefois, les flux de données partagés ont une limite d’actualisation de deux heures par entité et trois par flux de données. Par conséquent, si vous avez deux entités et que chacune prend deux heures, vous ne devez pas les placer dans le même dataflow.
- Pour Power BI Premium, les instructions et les limites sont au cas par cas plutôt que spécifiques. La seule limite pour Power BI Premium est une actualisation de 24 heures par dataflow.
- Un abonnement Power BI Premium est nécessaire pour actualiser plus de 10 flux de données inter-espaces de travail.
- Des limitations Power Query sont disponibles dans l’article Limites Power Query en ligne.
- Les flux de données Power BI ne prennent pas en charge l’utilisation de variables globales dans un argument d’URL.
- Les zones géographiques multiples ne sont pas prises en charge, sauf si vous configurez le stockage pour utiliser votre propre compte de stockage Azure Data Lake Gen2.
- La prise en charge des réseaux virtuels est obtenue à l’aide d’une passerelle.
- Lorsque vous utilisez desEntités calculées avec des sources de données de passerelle, l’ingestion de données doit être effectuée dans des sources de données différentes des calculs. Les entités calculées doivent reposer sur des entités qui sont utilisées uniquement pour l’ingestion, et ne pas ingérer de données au sein de leurs propres étapes de mashup.
- Dans les flux de données Power BI, vous pouvez utiliser des paramètres, mais non les modifier, sauf à modifier l’intégralité du flux de données. En d’autres termes, les paramètres des flux de données se comportent comme des constantes déclarées.
- Certains connecteurs trouvés dans Résoudre les problèmes des scénarios d’actualisation ne sont pas pris en charge pour des flux de données et des datamarts dans des espaces de travail Premium.
- Lors de l’utilisation de DirectQuery avec un flux de données, les recherches utilisant le visuel de segment respectent la casse.
Création de dataflows
Lorsque vous créez des flux de données, prenez en considération les points suivants :
La création de flux de données s’effectue dans l’environnement Power Query Online (PQO) ; prenez connaissance des limitations décrites dans Limites de Power Query. Les flux de données étant créés dans l’environnement Power Query Online (PQO), les mises à jour effectuées sur des configurations de charge de travail de flux de données affectent uniquement des actualisations et n’ont pas d’impact sur l’expérience de création.
Les flux de données ne peuvent être modifiés que par leurs propriétaires.
Les flux de données ne sont pas disponibles dans Mon espace de travail.
Les flux de données utilisant des sources de données de passerelle ne prennent pas en charge des informations d’identification différentes pour une même source de données.
Le connecteur Web.Page doit être utilisé avec une passerelle.
Dans l’expérience de modification Gen1 des flux de données, les utilisateurs peuvent ne pas être en mesure de supprimer une connexion de passerelle de données locale du flux de données en utilisant Options>Projet>Chargement des données>Sélectionner (aucun) dans la liste déroulante Passerelle de données. Les étapes suivantes peuvent résoudre le problème :
- Commencez à modifier le flux de données où vous voulez supprimer la connexion de passerelle de données locale.
- Sélectionnez Options>Chargement des données du projet>Passerelle de données, sélectionnez Aucun, puis OK.
- Si un avertissement en jaune avec un bouton « Configurer la connexion » s’affiche, sélectionnez « Configurer la connexion », sélectionnez la connexion cloud dans la zone de liste déroulante, puis insérez si nécessaire des informations d’identification pour la connexion cloud.
- Sélectionnez Gérer les connexions>, puis sélectionnez le bouton Dissocier de la connexion de passerelle.
- Fermez la boîte de dialogue Gérer les connexions ; si elle vous demande à nouveau de « Configurer la connexion », faites-le. Sélectionnez Enregistrer et fermer, puis attendez que l’opération d’enregistrement se termine.
- Si l’avertissement « Configurer la connexion » n’apparaît pas après l’application des étapes précédentes, appliquez les étapes précédentes, enregistrez et fermez le flux de données, puis modifiez-le à nouveau et recherchez l’avertissement « Configurer la connexion » pour effectuer des actions à partir de celui-ci.
Si la connexion à la passerelle n’est toujours pas supprimée du flux de données, il peut être nécessaire de recréer un nouveau flux de données avec les mêmes requêtes, non lié à la passerelle.
Considérations relatives aux API
Vous trouverez des informations supplémentaires sur les API REST de flux de données prises en charge dans la documentation de référence sur les API REST. Voici quelques points à prendre en considération et à garder à l’esprit :
L’exportation et l’importation d’un flux de données confèrent à celui-ci un nouvel ID.
L'importation de flux de données contenant des tables liées ne met pas à jour les références existantes dans le flux de données (ces requêtes doivent être mises à jour manuellement avant l'importation du flux de données).
Lorsque vous déployez un flux de données, vous pouvez utiliser des paramètres GenerateUniqueName et Abort des gestionnaires de conflit pour abandonner l’opération lorsqu’elle existe déjà ou indiquer à l’API de créer automatiquement un nom unique à la place. Les flux de données peuvent être remplacés par le paramètre CreateOrOverwrite s’ils ont été initialement créés à l’aide de l’API d’importation.
Dataflows dans les capacités partagées
Les flux de données des capacités partagées (hors Premium) présentent des limitations :
- Lors de l’actualisation d’un flux de données, les délais d’attente sont de deux heures par table et trois heures par flux de données dans une capacité partagée.
- Il n’est pas possible de créer des tables liées dans les flux de données partagés, même s’ils peuvent en contenir, tant que la propriété Load Enabled (Chargement activé) est désactivée au niveau de la requête.
- Il n’est pas possible de créer des tables calculées dans les flux de données partagés.
- AutoML et Cognitive Services ne sont pas disponibles dans les flux de données partagés.
- L’actualisation incrémentielle ne fonctionne pas dans les flux de données partagés.
Dataflows en mode Premium
Les flux de données qui existent en mode Premium présentent les considérations et limitations suivantes.
Considérations relatives aux actualisations et aux données :
Lors de l’actualisation des flux de données, les délais d’attente sont de 24 heures (sans distinction pour les tables et/ou les flux de données).
Le fait de faire passer la stratégie d’actualisation d’un flux de données d’une actualisation incrémentielle à une actualisation normale (et inversement) a pour effet de supprimer toutes les données.
La modification du schéma d’un flux de données a pour effet de supprimer toutes les données.
Lors de l’utilisation d’une licence Premium par utilisateur avec des flux de données, les données sont effacées lors de leur déplacement en dehors d’un environnement Premium par utilisateur.
Quand un flux de données est actualisé dans un contexte Premium par utilisateur, les données ne sont pas visibles pour les utilisateurs non-Premium par utilisateur.
L’actualisation incrémentielle fonctionne avec les flux de données uniquement quand le moteur de calcul avancé est activé.
Tables liées et calculées :
Les tables liées peuvent atteindre une profondeur de 32 références.
Les dépendances cycliques de tables liées ne sont pas autorisées.
Une table liée ne peut pas être jointe à une table standard qui obtient ses données à partir d’une source de données locale.
Quand une requête (par exemple, la requête A) est utilisée dans le calcul d’une autre requête (requête B) dans des dataflows, la requête B devient une table calculée. Les tables calculées ne peuvent pas faire référence à des sources locales.
Moteur de calcul :
Quand le moteur de calcul est utilisé, le temps nécessaire à l’ingestion de données augmente initialement d’environ 10 à 20 %.
- Cela vaut uniquement pour le premier flux de données qui se trouve dans le moteur de calcul et qui lit les données de la source de données.
- Les flux de données suivants qui utilisent le flux de données source n’encourent pas la même pénalité.
Seules certaines opérations utilisent le moteur de calcul et seulement quand elles sont utilisées par l’intermédiaire d’une table liée ou en tant que table calculée. La liste complète de ces opérations est consultable dans ce billet de blog.
Gestion de capacité :
Par défaut, les capacités Power BI Premium intègrent un Gestionnaire des ressources interne qui limite les charges de travail de différentes façons quand la capacité est à court de mémoire.
- Pour les flux de données, la pression exercée par cette limitation réduit le nombre de conteneurs M disponibles.
- La mémoire réservée aux flux de données peut être définie sur 100 %, avec une taille de conteneur adaptée à vos volumes de données ; la charge de travail gère alors le nombre de conteneurs de manière appropriée.
Le nombre approximatif de conteneurs peut être déterminé en divisant la mémoire totale allouée à la charge de travail par la quantité de mémoire allouée à un conteneur.
Utilisation du flux de données dans les modèles sémantiques
- Quand vous créez un modèle sémantique dans Power BI Desktop et que vous le publiez ensuite sur le service Power BI, veillez à ce que les informations d’identification utilisées dans Power BI Desktop pour la source de données des flux de données soient les mêmes que celles utilisées au moment de publier le modèle sémantique dans le service.
- Faute de quoi, vous obtiendrez une erreur de type Clé introuvable pendant l’actualisation du modèle sémantique
Remarque
Si la structure de flux de données est changée, par exemple si une colonne est créée ou renommée, le modèle sémantique ne reflète pas la modification tant qu’il n’est pas actualisé dans Power BI Desktop et republié. En outre, la modification peut empêcher l’actualisation des données dans le service Power BI du modèle sémantique.
Flux de données et connexions nommées
Lorsque vous utilisez des flux de données avec des connexions nommées, les limitations suivantes s’appliquent :
- Vous ne pouvez créer qu’une seule connexion cloud d’un chemin et d’un type particulier, par exemple, vous ne pouvez créer qu’une seule connexion SQL plus serveur/base de données cloud. Vous pouvez créer plusieurs connexions de passerelle.
- Vous ne pouvez pas nommer ou renommer des sources de données cloud. Vous pouvez nommer ou renommer des connexions de passerelle.
Limitations ADLS
- ADLS n’est pas disponible dans les environnements GCC, GCC High ni DOD. Pour plus d’informations, consultez Power BI pour les clients du gouvernement des États-Unis.
- Vous devez être affecté en tant que propriétaire de la ressource, en raison des modifications apportées aux API ADLS Gen 2.
- La migration d’abonnements Azure n’est pas prise en charge, mais il existe deux alternatives :
- Première approche : après la migration, l’utilisateur peut détacher les espaces de travail et les rattacher. Si vous utilisez le compte au niveau locataire, vous devez détacher tous les espaces de travail, les détacher au niveau du locataire, puis les rattacher. Cela peut ne pas être souhaitable pour les clients qui ne veulent pas supprimer tous leurs dataflows ou qui ont de nombreux espaces de travail.
- Seconde approche : si l’approche précédente n’est pas faisable, envoyez une demande de support pour changer l’ID d’abonnement dans la base de données.
- ADLS ne prend pas en charge la plupart des éléments de la liste dans la section Répertoires et noms de fichiers de l’article pour le nommage des espaces de travail et des dataflows, en raison des limitations suivantes :
- Power BI retourne une erreur qui n’aide pas, ou autorise le processus, mais l’actualisation échoue.
- Les abonnements ADLS interlocataires ne sont pas pris en charge. ADLS attaché à Power BI doit faire partie du même locataire Azure que celui utilisé par Power BI pour Microsoft Entra ID.
Types de données de dataflow
Les types de données pris en charge dans les dataflows sont les suivants :
Type de données de mashup | Type de données de dataflow |
---|---|
Temps | Temps |
Date | Date |
DateTime | DateTime |
DateTimeZone | DateTimeOffset |
Logical | Boolean |
Texte | String |
Quelconque | String |
Devise | Decimal |
Int8 | Int64 |
Int16 | Int64 |
Int32 | Int64 |
Int64 | Int64 |
Double | Double |
Pourcentage | Double |
Unique | Double |
Decimal | Double |
Number | Double |
Duration | Non pris en charge |
Binary | Non pris en charge |
Fonction | Non pris en charge |
Table de charge de travail | Non pris en charge |
List | Non pris en charge |
Enregistrement | Non pris en charge |
Type | Non pris en charge |
Action | Non pris en charge |
None | Non pris en charge |
Null | Non pris en charge |
Contenu connexe
Les articles suivants vous permettront d’en savoir plus sur les dataflows et Power BI :
- Introduction aux dataflows et à la préparation des données en libre-service
- Création d’un flux de données
- Configurer et consommer un dataflow
- Configuration du stockage de dataflows pour utiliser Azure Data Lake Gen 2
- Fonctionnalités Premium des dataflows
- IA et dataflows
- Bonnes pratiques pour les dataflows