Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Poniżej przedstawiono ograniczenia deklaratywnych potoków Lakeflow Spark, które są ważne podczas opracowywania potoków:
- Środowisko robocze usługi Azure Databricks jest ograniczone do 200 równoczesnych aktualizacji potoku. Liczba zestawów danych, które może zawierać pojedynczy potok, zależy od konfiguracji potoku i złożoności obciążenia.
- Zestawy danych potoku można definiować tylko raz. W związku z tym mogą one być celem tylko jednej operacji we wszystkich potokach. Wyjątkiem są tabele przesyłania strumieniowego z przetwarzaniem przyrostowym, co umożliwia zapisywanie danych w takiej tabeli z wielu różnych źródeł strumieniowych. Zobacz Używanie wielu przepływów do zapisu w jednym obiekcie docelowym.
- Kolumny tożsamości mają następujące ograniczenia. Aby dowiedzieć się więcej o kolumnach tożsamości w tabelach delty, zobacz Używanie kolumn tożsamości w usłudze Delta Lake.
- Kolumny tożsamości nie są obsługiwane w przypadku tabel, które są obiektem docelowym automatycznego przetwarzania CDC.
- Kolumny tożsamości mogą zostać ponownie przeliczone podczas aktualizacji widoków materializowanych. W związku z tym usługa Databricks zaleca używanie kolumn identyfikacyjnych w potokach tylko z tabelami przesyłania strumieniowego.
- Materializowane widoki i tabele przesyłania strumieniowego opublikowane z potoków, w tym te utworzone przez usługę Databricks SQL, mogą być dostępne tylko dla klientów i aplikacji usługi Azure Databricks. Jednak aby zmaterializowane widoki i tabele przesyłania strumieniowego były dostępne zewnętrznie, możesz użyć interfejsu
sinkAPI do zapisywania w tabelach w zewnętrznym wystąpieniu usługi Delta. Zobacz Sinks in Lakeflow Spark Deklaratative Pipelines (Ujścia w potokach deklaratywnych platformy Spark w usłudze Lakeflow). - Istnieją ograniczenia dotyczące obliczeń usługi Databricks wymaganych do uruchamiania potoków Unity Catalog i wykonywania zapytań względem tych potoków. Zobacz Wymagania dotyczące potoków publikowanych w Unity Catalog.
- Zapytania dotyczące podróży w czasie usługi Delta Lake są obsługiwane tylko w przypadku tabel przesyłania strumieniowego i nie są obsługiwane w przypadku zmaterializowanych widoków. Zobacz Pracuj z historią tabeli Delta Lake.
- Nie można włączyć Iceberg reads na zmaterializowanych widokach i tabelach strumieniowych.
- Funkcja
pivot()nie jest obsługiwana. Operacjapivotna platformie Spark wymaga załadowania danych wejściowych, aby obliczyć schemat wyjściowy. Ta funkcja nie jest obsługiwana w potokach.