Anmerkung
Der Zugriff auf diese Seite erfordert eine Genehmigung. Du kannst versuchen, dich anzumelden oder die Verzeichnisse zu wechseln.
Der Zugriff auf diese Seite erfordert eine Genehmigung. Du kannst versuchen , die Verzeichnisse zu wechseln.
Gilt für:✅ SQL-Analyseendpunkt und Warehouse in Microsoft Fabric
In diesem Artikel werden die aktuellen Einschränkungen in Microsoft Fabric erläutert.
Diese Einschränkungen gelten nur für Warehouse- und SQL-Analyseendpunktelemente in Fabric Synapse Data Warehouse. Einschränkungen der SQL-Datenbank in Fabric finden Sie unter Einschränkungen in der SQL-Datenbank in Microsoft Fabric (Vorschau).
Begrenzungen
Aktuelle allgemeine Produkteinschränkungen für Data Warehousing in Microsoft Fabric sind in diesem Artikel aufgeführt, wobei Einschränkungen auf Featureebene im entsprechenden Featureartikel aufgeführt werden. Weitere Funktionen werden auf der erstklassigen, branchenführenden Leistung und Parallelität aufbauen und inkrementell eingeführt. Weitere Informationen zur Zukunft von Microsoft Fabric finden Sie unter Fabric Roadmap.
Von Bedeutung
Fabric Data Warehouse- und SQL-Analyseendpunktverbindungen erfordern sowohl die Quell- als auch die Zielelemente in derselben Region. Regionsübergreifende Verbindungen, einschließlich der Verbindungen zwischen Arbeitsbereichen oder Kapazitäten in verschiedenen Regionen, werden nicht unterstützt und können möglicherweise nicht authentifiziert werden oder fehlschlagen beim Herstellen einer Verbindung.
Weitere Einschränkungen in bestimmten Bereichen finden Sie unter:
- Klonen einer Tabelle
- Konnektivität
- Datentypen in Microsoft Fabric
- Delta Lake-Protokolle
- Migration Assistant
- Anhalten und Fortsetzen in Fabric Data Warehousing
- Semantikmodelle
- Freigeben Ihrer Daten und Verwalten von Berechtigungen
- Quellcodeverwaltung
- Statistik
- Tabellen
- Transaktionen
- Der visuelle Abfrage-Editor
Einschränkungen des SQL-Analyseendpunkts
Die folgenden Einschränkungen gelten für die automatische Schemagenerierung und Metadatenermittlung von SQL-Analyseendpunkten.
Daten sollten im Delta Parquet-Format vorliegen, damit sie im SQL-Analyse-Endpunkt automatisch ermittelt werden. Delta Lake ist ein Open-Source-Speicherframework, das die Erstellung einer Lakehouse-Architektur ermöglicht.
Die Delta-Spaltenzuordnung nach Name wird unterstützt, die Delta-Spaltenzuordnung nach ID wird jedoch nicht unterstützt. Weitere Informationen finden Sie unter Delta Lake-Funktionen und Fabric-Erfahrungen.
- Die Delta-Spaltenzuordnung im SQL-Analyseendpunkt befindet sich derzeit in der Vorschauphase.
Deltatabellen, die außerhalb des Ordners
/tableserstellt wurden, sind im SQL-Analyseendpunkt nicht verfügbar.Wenn im Warehouse keine Lakehouse-Tabelle angezeigt wird, überprüfen Sie den Speicherort der Tabelle. Nur die Tabellen, die auf Daten im Ordner
/tablesverweisen, sind im Warehouse verfügbar. Die Tabellen, die im Lake auf Daten im Ordner/filesverweisen, werden im SQL-Analyseendpunkt nicht zur Verfügung gestellt. Verschieben Sie Ihre Daten als Problemumgehung in den Ordner/tables.Einige Spalten in den Spark Delta-Tabellen sind in den Tabellen im SQL-Analyseendpunkt möglicherweise nicht verfügbar. Eine vollständige Liste der unterstützten Datentypen finden Sie unter Datentypen in Fabric Data Warehouse.
Wenn Sie im SQL-Analyseendpunkt eine Fremdschlüsseleinschränkung zwischen Tabellen hinzufügen, können Sie keine weiteren Schemaänderungen vornehmen (z. B. die neuen Spalten hinzufügen). Wenn die Delta Lake-Spalten mit den Typen, die im SQL-Analyseendpunkt unterstützt werden sollten, nicht angezeigt werden, überprüfen Sie, ob eine Fremdschlüsseleinschränkung vorliegt, die Updates für die Tabelle möglicherweise verhindert.
Informationen und Empfehlungen zur Leistung des SQL-Analyseendpunkts finden Sie unter Überlegungen zur Leistung des SQL-Analyseendpunkts.
Skalare UDFs werden unterstützt, wenn sie inlineierbar sind. Weitere Informationen finden Sie unter CREATE FUNCTION und Scalar UDF inlining.
Der Datentyp varchar(max) wird nur in SQL-Analyseendpunkten von gespiegelten Elementen und Fabric-Datenbanken und nicht für Lakehouses unterstützt. Tabellen, die nach dem 10. November 2025 erstellt wurden, werden automatisch mit varchar(max)zugeordnet. Tabellen, die vor dem 10. November 2025 erstellt wurden, müssen neu erstellt werden, um einen neuen Datentyp zu übernehmen, oder während der nächsten Schemaänderung automatisch auf varchar(max) aktualisiert werden.
Datenkürzung auf 8 KB gilt weiterhin für die Tabellen im SQL-Analyseendpunkt des Lakehouse, einschließlich Verknüpfungen zu einem gespiegelten Element.
Da alle Tabellen keine varchar(max) -Verknüpfungen für diese Spalten unterstützen, funktioniert dies möglicherweise nicht wie erwartet, wenn eine der Tabellen noch eine Datenkürzung aufweist. Wenn Sie zum Beispiel eine Tabelle eines kürzlich erstellten gespiegelten Objekts mithilfe von Spark in einer Lakehouse-Tabelle erstellen und dann diese Tabellen über die Spalte mit dem Datentyp varchar(max) verbinden, unterscheiden sich die Abfrageergebnisse von denen mit dem Datentyp varchar(8000). Wenn Sie das vorherige Verhalten beibehalten möchten, können Sie die Spalte in der Abfrage in varchar(8000) umwandeln.
Sie können bestätigen, ob eine Tabelle eine varchar(max) -Spalte aus den Schemametadaten mithilfe der folgenden T-SQL-Abfrage enthält. Ein max_length-Wert von -1 stellt varchar(max) dar:
SELECT o.name, c.name, type_name(user_type_id) AS [type], max_length
FROM sys.columns AS c
INNER JOIN sys.objects AS o
ON c.object_id = o.object_id
WHERE max_length = -1
AND type_name(user_type_id) IN ('varchar', 'varbinary');
Bekannte Probleme
Informationen zu bekannten Problemen in Microsoft Fabric finden Sie unter Bekannte Probleme in Microsoft Fabric.