Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Dotyczy:✅ końcowego punktu analizy SQL i magazynu danych w usłudze Microsoft Fabric
Ten artykuł zawiera szczegółowe informacje o bieżących ograniczeniach w usłudze Microsoft Fabric.
Te ograniczenia dotyczą tylko elementów punktów końcowych magazynu i analizy SQL w usłudze Fabric Synapse Data Warehouse. Aby uzyskać informacje o ograniczeniach bazy danych SQL w usłudze Fabric, zobacz Ograniczenia w usłudze SQL Database w usłudze Microsoft Fabric (wersja zapoznawcza).
Ograniczenia
Bieżące ogólne ograniczenia produktowe dla magazynów danych w usłudze Microsoft Fabric są wymienione w tym artykule, z podanymi ograniczeniami na poziomie funkcji w odpowiednim artykule dotyczącym funkcji. Więcej funkcjonalności będzie opierało się na światowej klasy, wiodącej w branży historii wydajności i współbieżności i będzie wdrażane stopniowo. Aby uzyskać więcej informacji na temat przyszłości usługi Microsoft Fabric, zobacz Harmonogram działania sieci szkieletowej.
Ważne
Połączenia usługi Fabric Data Warehouse i punktu końcowego analizy SQL wymagają, aby elementy źródłowe i docelowe znajdowały się w tym samym regionie. Połączenia między regionami — w tym połączenia między przestrzeniami roboczymi lub zasobami w różnych regionach — nie są obsługiwane i mogą nie zostać uwierzytelnione lub mogą nie nawiązać się poprawnie.
Aby dowiedzieć się o większej liczbie ograniczeń w określonych obszarach, zobacz:
- Klonuj tabelę
- Łączność
- Typy danych w usłudze Microsoft Fabric
- Dzienniki Delta Lake
- Asystent migracji
- Wstrzymywanie i wznawianie w magazynie danych Fabric
- Modele semantyczne
- Udostępnianie danych i zarządzanie uprawnieniami
- Kontrola źródła
- Statystyki
- Tabele
- Transakcje
- Edytor zapytań wizualnych
Ograniczenia punktu końcowego analizy SQL
Następujące ograniczenia dotyczą automatycznego generowania schematu i odnajdywania metadanych punktu końcowego analizy SQL.
Dane powinny być w formacie Delta Parquet, aby mogły zostać automatycznie wykryte w punkcie końcowym analityki SQL. Delta Lake to system magazynowania typu open source, który umożliwia tworzenie architektury Lakehouse.
Mapowanie kolumn Delta według nazwy jest obsługiwane, ale mapowanie kolumn Delta według identyfikatora nie jest obsługiwane. Aby uzyskać więcej informacji, zobacz funkcje usługi Delta Lake i doświadczenia z platformą Fabric.
- Mapowanie kolumn delta w punkcie końcowym analizy SQL jest obecnie dostępne w wersji zapoznawczej.
Tabele Delta utworzone poza folderem
/tablesnie są dostępne w punkcie końcowym SQL Analytics.Jeśli w magazynie nie widzisz tabeli Lakehouse, sprawdź lokalizację tabeli. Tylko tabele odwołujące się do danych w
/tablesfolderze są dostępne w magazynie. Tabele, które odwołują się do danych w folderze/filesw jeziorze, nie są widoczne w punkcie końcowym analityki SQL. Aby obejść ten problem, przenieś dane do/tablesfolderu.Niektóre kolumny, które istnieją w tabelach Spark Delta, mogą nie być dostępne w tabelach w punkcie końcowym analizy SQL. Aby uzyskać pełną listę obsługiwanych typów danych, zobacz Typy danych w usłudze Fabric Data Warehouse.
Jeśli dodasz ograniczenie klucza obcego między tabelami w punkcie końcowym analizy SQL, nie będzie można wprowadzać żadnych dalszych zmian schematu (na przykład dodawania nowych kolumn). Jeśli nie widzisz kolumn usługi Delta Lake z typami, które powinny być obsługiwane w punkcie końcowym analizy SQL, sprawdź, czy istnieje ograniczenie klucza obcego, które może uniemożliwić aktualizacje w tabeli.
Aby uzyskać informacje i zalecenia dotyczące wydajności punktu końcowego analizy SQL, zobacz Zagadnienia dotyczące wydajności punktu końcowego analizy SQL.
Funkcje zdefiniowane przez użytkownika skalarnego są obsługiwane, gdy mogą być wbudowane. Aby uzyskać więcej informacji, zobacz CREATE FUNCTION oraz Wbudowywanie skalarnej funkcji UDF.
Typ danych varchar(max) jest obsługiwany tylko w punktach końcowych analizy SQL elementów dublowanych i baz danych sieci szkieletowej, a nie w przypadku usługi Lakehouse. Tabele utworzone po 10 listopada 2025 r. będą automatycznie mapowane na varchar(max). Tabele utworzone przed 10 listopada 2025 r. należy ponownie utworzyć w celu wdrożenia nowego typu danych lub zostaną automatycznie uaktualnione do wartości varchar(max) podczas następnej zmiany schematu.
Obcinanie danych do 8 KB nadal dotyczy tabel w punkcie końcowym analizy SQL usługi Lakehouse, w tym skrótów do elementu dublowanego.
Ponieważ wszystkie tabele nie obsługują sprzężeń varchar(max) w tych kolumnach, mogą nie działać zgodnie z oczekiwaniami, jeśli jedna z tabel nadal ma obcięcie danych. Jeśli na przykład utworzysz tabelę CTAS z nowo utworzonego elementu dublowanego w tabeli Lakehouse przy użyciu platformy Spark, a następnie połączysz je przy użyciu kolumny varchar(max), wyniki zapytania będą różne w porównaniu do użycia typu danych varchar(8000). Jeśli chcesz zachować poprzednie zachowanie, możesz rzutować kolumnę na varchar(8000) w zapytaniu.
Możesz sprawdzić, czy tabela ma dowolną kolumnę varchar(max) z metadanych schematu, korzystając z następującego zapytania T-SQL. Wartość max_length-1 reprezentuje varchar(max):
SELECT o.name, c.name, type_name(user_type_id) AS [type], max_length
FROM sys.columns AS c
INNER JOIN sys.objects AS o
ON c.object_id = o.object_id
WHERE max_length = -1
AND type_name(user_type_id) IN ('varchar', 'varbinary');
Znane problemy
W przypadku znanych problemów w usłudze Microsoft Fabric odwiedź stronę Znane problemy z usługą Microsoft Fabric.