Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
S’applique à :✅ point de terminaison d’analytique SQL et entrepôt dans Microsoft Fabric
Cet article détaille les limitations actuelles dans Microsoft Fabric.
Ces limitations s’appliquent uniquement aux éléments de point de terminaison d’analytique SQL et d’entrepôt de données dans Fabric Synapse Data Warehouse. Pour connaître les limitations de la base de données SQL dans Fabric, consultez Limitations dans la base de données SQL dans Microsoft Fabric (préversion).
Limites
Les limitations générales actuelles du produit pour l’Entrepôt de données dans Microsoft Fabric sont répertoriées dans cet article, avec les limitations au niveau des fonctionnalités décrites dans l'article de fonctionnalité correspondant. D’autres fonctionnalités s’appuieront sur l’histoire des performances et de la concurrence de classe mondiale et à la pointe de l’industrie, et seront mises en place progressivement. Pour plus d’informations sur l’avenir de Microsoft Fabric, consultez la Feuille de route de Fabric.
Important
Les connexions de point de terminaison Fabric Data Warehouse et SQL Analytics nécessitent que les éléments source et cible se trouver dans la même région. Les connexions interrégions, y compris celles entre espaces de travail ou capacités dans différentes régions, ne sont pas prises en charge et peuvent ne pas s’authentifier ou se connecter.
Pour plus d’informations sur les limitations dans des zones spécifiques, consultez :
- Table de clonage
- Connectivité
- Types de données dans Microsoft Fabric
- Journaux du lac Delta
- Assistant de migration
- Suspendre et reprendre dans l’entrepôt de données Fabric
- Modèles sémantiques
- Partager vos données et gérer les autorisations
- Contrôle de code source
- Statistiques
- Tables
- Transactions
- Éditeur de requêtes visuelles
Limitations du point de terminaison d'analyse SQL
Les limitations suivantes s’appliquent à la génération automatique de schéma de point de terminaison d’analytique SQL et à la découverte de métadonnées.
Les données doivent être au format Delta Parquet pour être automatiquement découvertes dans le point de terminaison analytique SQL. Delta Lake est un framework de stockage open source qui permet de construire l'architecture Lakehouse.
Le mappage de colonnes Delta par nom est pris en charge, mais le mappage de colonnes Delta par ID n'est pas pris en charge. Pour plus d'informations, consultez les fonctionnalités de Delta Lake et les expériences Fabric.
- Le Mappage de colonnes Delta dans le point de terminaison d’analytique SQL est actuellement en préversion.
Les tables delta créées en dehors du dossier
/tablesne sont pas disponibles dans le point de terminaison d’analytique SQL.Si vous ne voyez pas de table Lakehouse dans l'entrepôt, vérifiez l'emplacement de la table. Seules les tables qui font référence aux données du dossier
/tablessont disponibles dans l'entrepôt. Les tables qui référencent les données dans le dossier/filesdu lac ne sont pas exposées dans le point de terminaison d’analytique SQL. Pour contourner ce problème, déplacez vos données vers le dossier/tables.Certaines colonnes qui existent dans les tables Spark Delta peuvent ne pas être disponibles dans les tables du point de terminaison d’analytique SQL. Pour obtenir la liste complète des types de données pris en charge, consultez Les types de données dans Fabric Data Warehouse.
Si vous ajoutez une contrainte de clé étrangère entre les tables dans le point de terminaison d’analytique SQL, vous ne pourrez plus apporter de modifications au schéma (par exemple, ajouter les nouvelles colonnes). Si vous ne voyez pas les colonnes Delta Lake avec les types qui doivent être pris en charge dans le point de terminaison d’analytique SQL, vérifiez s’il existe une contrainte de clé étrangère qui pourrait empêcher les mises à jour sur la table.
Pour obtenir des informations et des recommandations sur les performances du point de terminaison SQL analytics, voir Considérations sur les performances du point de terminaison SQL analytics.
Les fonctions définies par l’utilisateur scalaire sont prises en charge lorsqu’elles sont inlineables. Pour plus d’informations, consultez CREATE FUNCTION et l'inlining des UDF scalaires.
Le type de données varchar(max) est pris en charge uniquement dans les points de terminaison d’analyse SQL des éléments mis en miroir et des bases de données Fabric, et non pour Lakehouses. Les tables créées après le 10 novembre 2025 seront automatiquement mappées avec varchar(max). Les tables créées avant le 10 novembre 2025 doivent être recréées pour adopter un nouveau type de données, ou seront automatiquement mises à niveau vers varchar(max) lors de la prochaine modification du schéma.
La troncation des données à 8 Ko s’applique toujours aux tables du point de terminaison d’analyse SQL du Lakehouse, y compris les raccourcis vers un élément mis en miroir.
Puisque toutes les tables ne prennent pas en charge les jointures varchar(max) sur ces colonnes, elles peuvent ne pas fonctionner comme prévu si l’une des tables a toujours une troncature des données. Par exemple, si vous utilisez CTAS pour une table d’un élément mis en miroir nouvellement créé dans une table du Lakehouse à l’aide de Spark, puis rejoignez-les en utilisant la colonne avec varchar(max), les résultats de la requête seront différents par rapport au type de données varchar(8000). Si vous souhaitez continuer à avoir un comportement précédent, vous pouvez convertir la colonne en varchar(8000) dans la requête.
Vous pouvez vérifier si une table contient une colonne varchar(max) à partir des métadonnées de schéma à l’aide de la requête T-SQL suivante. Valeur max_length de -1 représente varchar(max) :
SELECT o.name, c.name, type_name(user_type_id) AS [type], max_length
FROM sys.columns AS c
INNER JOIN sys.objects AS o
ON c.object_id = o.object_id
WHERE max_length = -1
AND type_name(user_type_id) IN ('varchar', 'varbinary');
Problèmes connus
Pour les problèmes connus dans Microsoft Fabric, consultez Problèmes connus de Microsoft Fabric.