Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Dotyczy:
Databricks SQL
Databricks Runtime 12.2 lub nowsze
Warunki błędu to opisowe ciągi czytelne dla człowieka, które są unikatowe dla opisanego błędu.
Możesz użyć warunków błędów, aby programowo obsługiwać błędy w aplikacji bez konieczności analizowania komunikatu o błędzie.
Jest to lista typowych, nazwanych warunków błędów zwracanych przez usługę Azure Databricks.
Databricks Runtime i Databricks SQL
DODAJ_DOMYŚLNE_NIEOBSŁUGIWANE
Nie można wykonać polecenia <statementType>, ponieważ wartości DEFAULT nie są obsługiwane podczas dodawania nowych kolumn do istniejącego wcześniej docelowego źródła danych z dostawcą tabel: "<dataSource>".
AGGREGATE_FUNCTION_IN_NESTED_REFERENCES_NOT_SUPPORTED
Wykryto funkcje agregujące w odwołaniach <expression> do zakresu zewnętrznego, które nie są obsługiwane.
FUNKCJA_AGREGUJĄCA_Z_NIEDETERMINISTYCZNYM_WYRAŻENIEM
Wyrażenie niedeterministyczne <sqlExpr> nie powinno być wyświetlane w argumentach funkcji agregującej.
AI_FUNCTION_HTTP_PARSE_BŁĄD_KONWERSJI
Nie można przeanalizować danych wyjściowych modelu podczas rzutowania do określonego returnType: "<dataType>", odpowiedź JSON : "<responseString>". Zaktualizuj element returnType, aby był zgodny z zawartością typu reprezentowanego przez odpowiedź JSON , a następnie ponów próbę zapytania. Wyjątek: <errorMessage>
AI_FUNCTION_HTTP_PARSE_COLUMNS_BŁĄD
Rzeczywiste dane wyjściowe modelu mają więcej niż jedną kolumnę "<responseString>". Jednak określony typ zwracany[""<dataType>] ma tylko jedną kolumnę. Zaktualizuj wartość returnType tak, aby zawierała taką samą liczbę kolumn jak dane wyjściowe modelu, a następnie ponów próbę zapytania.
BŁĄD ŻĄDANIA HTTP FUNKCJI AI (AI_FUNCTION_HTTP_REQUEST_ERROR)
Wystąpił błąd podczas wykonywania żądania HTTP dla funkcji <funcName>: <errorMessage>
Nieprawidłowa odpowiedź HTTP funkcji AI
Nieprawidłowa odpowiedź HTTP dla funkcji <funcName>: <errorMessage>
Błąd funkcji AI: przekroczona maksymalna ilość słów
Maksymalna liczba wyrazów musi być nieujemną liczbą całkowitą, ale otrzymano <maxWords>.
AI_FUNCTION_NIEPRAWIDŁOWE_PARAMETRY_MODELU
Podane parametry modelu (<modelParameters>) są nieprawidłowe w AI_QUERY funkcji obsługującej punkt końcowy "<endpointName>".
Aby uzyskać więcej informacji, zobacz AI_FUNCTION_INVALID_MODEL_PARAMETERS
NIEPRAWIDŁOWY_FORMAT_ODPOWIEDZI_FUNCKJI_SZTUCZNEJ_INTELIGENCJI
Funkcja sztucznej inteligencji: "<functionName>" wymaga prawidłowego <format> ciągu dla responseFormat parametru, ale znaleziono następujący format odpowiedzi: "<invalidResponseFormat>". Wyjątek: <errorMessage>
AI_FUNCTION_JSON_PARSE_ERROR (Błąd analizy JSON funkcji AI)
Wystąpił błąd podczas analizowania JSON odpowiedzi dla funkcji <funcName>: <errorMessage>
BŁĄD_PARSOWANIA_SCHEMATU_MODELU_AI_FUNCJI
Nie można przeanalizować schematu dla punktu końcowego obsługującego "<endpointName>": <errorMessage>, odpowiedź JSON : "<responseJson>".
Ustaw parametr returnType ręcznie w funkcji AI_QUERY, aby zmienić rozdzielczość schematu.
AI_FUNCTION_REGISTRY_LOOKUP_FAILURE
Nie można dynamicznie rozpoznawać funkcji "<functionName>" z rejestru funkcji sztucznej inteligencji.
BŁĄD_NIEOBSŁUGIWANA_FUNCKJA_AI
Funkcja <funcName> nie jest obsługiwana w bieżącym środowisku. Jest ona dostępna tylko w usłudze Databricks SQL Pro i bezserwerowej.
Żądanie nieobsługiwane przez funkcję AI
Nie można ocenić funkcji SQL "<functionName>", ponieważ podany argument <invalidValue> ma wartość "<invalidDataType>", ale obsługiwane są tylko następujące typy: <supportedDataTypes>. Zaktualizuj wywołanie funkcji, aby podać argument typu ciągu i ponowić próbę zapytania.
FUNKCJA_SZTUCZNEJ_INTELIGENCJI_NIEOBSŁUGIWANY_FORMAT_ODPOWIEDZI
Znaleziono nieobsługiwany format odpowiedzi.
Aby uzyskać więcej szczegółów, zobacz AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT
AI_FUNCTION_NIEOBSŁUGIWANY_TYP_ZWROTU
Funkcja sztucznej inteligencji: "<functionName>" nie obsługuje następującego typu jako typu zwracanego: "<typeName>". Zwracany typ musi być prawidłowym typem SQL zrozumiałym dla katalizatora i obsługiwanym przez funkcję sztucznej inteligencji. Bieżące obsługiwane typy obejmują: <supportedValues>
AI_BŁĄD_NIEPRAWIDŁOWA_WARTOŚĆ_ARGUMENTU
Podana wartość "<argValue>" nie jest obsługiwana przez argument "<argName>". Obsługiwane wartości to: <supportedValues>
Punkt końcowy zapytania AI nie obsługuje struktur danych wyjściowych.
Oczekiwano, że typ zadania dla obsługującego punktu końcowego powinien być "Chat" w celu obsługi uporządkowanych danych wyjściowych, ale znaleziono "<taskType>" dla punktu końcowego "<endpointName>".
Niezgodność_typu_kolumny_z_typem_zwracanego_zapytania_SI
Podana wartość "<sqlExpr>" nie jest obsługiwana przez argument returnType.
Błąd dostarczenia sprzecznego parametru zapytania w AI_SEARCH
Wykryto parametry powodujące konflikt dla funkcji vector_search SQL: <conflictParamNames>.<hint>
BŁĄD_TYPU_KOLUMNY_EMBEDDING_SZTUCZNEJ_INTELIGENCJI_NIEOBSŁUGIWANY
vector_search funkcja SQL z typem kolumny do osadzania <embeddingColumnType> nie jest obsługiwana.
Błąd puste parametry zapytania w wyszukiwarce AI
vector_search funkcja SQL nie ma parametru wejściowego zapytania, określ co najmniej jeden parametr z: <parameterNames>.
BŁĄD_DEPRECJACJI_PARAMETRU_ZAPYTANIA_HYBRYDOWEGO_AI_WYSZUKIWANIA
Parametr query do funkcji SQL vector_search nie jest obsługiwany dla wyszukiwania wektorów hybrid. Zamiast tego użyj query_text.
BŁĄD_SZTUCZNA_INTELIGENCJA_WYSZUKIWANIE_HYBRYDOWE_TEKST_NIE_ZNALEZIONY
Nie można odnaleźć tekstu zapytania w funkcji vector_search SQL na potrzeby wyszukiwania wektorów hybrid. Proszę podać query_text.
AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR (Nieobsługiwany typ indeksu wyszukiwania AI)
vector_search funkcja SQL z typem indeksu <indexType> nie jest obsługiwana.
AI_SEARCH_MISSING_EMBEDDING_INPUT_ERROR - Błąd: Brakujące dane wejściowe osadzania
query_vector należy określić dla indeksu <indexName>, ponieważ nie jest skojarzony z punktem końcowym modelu osadzenia.
Błąd przy konwersji/zakodowaniu typu zapytania AI
Niepowodzenie w materializacji zapytania funkcji SQL vector_search z typu spark <dataType> do obiektów scala-native podczas kodowania żądania z błędu: <errorMessage>.
Nieobsługiwany typ zapytania AI
vector_search funkcja SQL z typem zapytania <unexpectedQueryType> nie jest obsługiwana. Proszę wybrać jedną z: <supportedQueryTypes>.
BŁĄD_NIEOBSŁUGIWANEJ_LICZBY_WYNIKÓW_AI_SZUKAJ
vector_search funkcja SQL o rozmiarze num_results większym niż <maxLimit> nie jest obsługiwana. Limit został określony jako <requestedLimit>. Spróbuj ponownie z num_results <= <maxLimit>
AI_TOP_DRIVERS_PARAM_POZA_ZAKRESU
Parametr ai_top_drivers<param> musi zawierać się między parametrami <lo> i <hi>.
AI_GŁÓWNI_STEROWNIKI_NIEOBSŁUGIWANY_TYP_AGREGACJI
ai_top_drivers nie obsługuje agregacji <aggName> . Wybierz jeden z następujących obsługiwanych agregatów: <allowed>.
AI_GŁÓWNI_STYMULATORY_NIEOBSŁUGIWANY_TYP_WYMIARU
ai_top_drivers nie obsługuje kolumn wymiarów liczbowych, mapowych ani struktur.
<colName> Kolumna ma typ <dataType>. Usuń ten wymiar lub zmień na obsługiwany typ.
Typ etykiety nieobsługiwany przez najważniejszych kierowców sztucznej inteligencji
ai_top_drivers wymaga, aby typ kolumny etykiety był typu boolean.
<colName> Kolumna ma typ <dataType>. Zmień kolumnę etykiety lub przekształć ją na obsługiwany typ.
Typ metryki nieobsługiwany przez AI_TOP_DRIVERS
ai_top_drivers wymaga, aby typ kolumny metryki był liczbowy.
<colName> Kolumna ma typ <dataType>. Zmień kolumnę metryki lub przekonwertuj ją na obsługiwany typ.
WSZYSTKIE_PARAMETRY_MUSZĄ_BYĆ_NAZWANE
Użycie zapytań sparametryzowanych nazw wymaga nazwy wszystkich parametrów. Parametry bez nazw: <exprs>.
WSZYSTKIE_PARTYCJE_KOLUMN_NIEDOZWOLONE
Nie można użyć wszystkich kolumn jako kolumn partycji.
PLAN_ZMIAN_NIE_ISTNIEJE
Nie można zmienić <scheduleType> w tabeli bez istniejącego harmonogramu lub wyzwalacza. Przed podjęciem próby jego zmiany dodaj harmonogram lub wyzwalacz do tabeli.
ALTER_TABLE_KOLUMNOWY_OPIS_DUPLIKAT
ALTER TABLE <type> kolumna <columnName> określa deskryptor "<optionName>" więcej niż raz, co jest nieprawidłowe.
NIEJASNY_ALIAS_W_ZAGNIEŻDŻONYM_CTE
Nazwa <name> jest niejednoznaczna w zagnieżdżonym CTE.
Ustaw <config> na "CORRECTED", aby nazwa zdefiniowana w wewnętrznym CTE miała pierwszeństwo. Jeśli ustawisz ją na "LEGACY", zewnętrzne definicje CTE będą miały pierwszeństwo.
Zobacz "https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine".
NIEJASNA_KOLUMNA_LUB_POLE
Kolumna lub pole <name> są niejednoznaczne i mają <n> dopasowań.
NIEJEDNOZNACZNE_ODWOŁANIE_DO_KOLUMNY
Kolumna <name> jest niejednoznaczna. Jest to spowodowane tym, że połączono kilka ramek danych, a niektóre z tych ramek danych są takie same.
Ta kolumna wskazuje jedną z ramek danych, ale platforma Spark nie może ustalić, która z nich.
Aliasuj ramki danych różnymi nazwami za pomocą DataFrame.alias przed ich połączeniem.
i określ kolumnę przy użyciu kwalifikowanej nazwy, na przykład df.alias("a").join(df.alias("b"), col("a.id") > col("b.id")).
NIEJASNE_OGRANICZENIE
Niejednoznaczne odwołanie do ograniczenia <constraint>.
NIEJASNY_ALIAS_BOCZNEJ_KOLUMNY
Alias bocznej kolumny <name> jest niejednoznaczny i ma <n> pasujące.
NIEJEDNOZNACZNA_REFERENCJA
Odwołanie <name> jest niejednoznaczne, może to być: <referenceNames>.
NIEJASNE_ODNIESIENIE_DO_POLI_
Niejednoznaczne odwołanie do pola <field>. Pojawia się <count> razy w schemacie.
ANALIZA_OGRANICZEŃ_NIEOBSŁUGIWANA
ANALYZE CONSTRAINTS nie jest obsługiwana.
ANALYZE_TABLE_COMPUTE_STORAGE_METRICS_NOT_SUPPORTED
ANALYZE TABLE COMPUTE STORAGE METRICS nie jest obsługiwana. Skontaktuj się z zespołem pomocy technicznej usługi Databricks, aby zarejestrować ten obszar roboczy.
Nie można wyłączyć konfiguracji ANSI
Nie można wyłączyć konfiguracji ANSI SQL <config> w tym produkcie.
APPEND_ONCE_FROM_BATCH_QUERY
Użyj operatora stream().
Utworzenie tabeli przesyłania strumieniowego na podstawie zapytania wsadowego uniemożliwia przyrostowe ładowanie nowych danych ze źródła. Obrażając tabelę: "<table>".
Przykładowe użycie:
CREATE STREAMING TABLE <target table name>
...
AS SELECT
...
FROM stream(<source table name>) ...
APPROX_TOP_K_INVALID_NUM_OF_ARGUMENTS
approx_top_k oczekuje od 1 do 3 argumentów, ale dostał <argNum>.
APPROX_TOP_K_MAX_ITEMS_TRACKED_EXCEEDS_LIMIT
Maksymalna liczba śledzonych maxItemsTrackedelementów (<maxItemsTracked>) approx_top_k powinna być mniejsza lub równa <limit>.
APPROX_TOP_K_MAX_ITEMS_TRACKED_LESS_THAN_K
Maksymalna liczba śledzonych maxItemsTrackedelementów (<maxItemsTracked>) approx_top_k powinna być większa lub równa k(<k>).
APPROX_TOP_K_NON_POSITIVE_ARG
Wartość <argName> w approx_top_k musi być dodatnią liczbą całkowitą, ale ma wartość <argValue>.
APPROX_TOP_K_NULL_ARG
Wartość <argName> in approx_top_k nie może być NULL.
APPROX_TOP_K_SKETCH_SIZE_NOT_MATCH
Łączenie approx_top_k szkiców o różnych rozmiarach jest niedozwolone. Znaleziono szkice rozmiaru <size1> i <size2>.
APPROX_TOP_K_SKETCH_TYPE_NOT_MATCH
Łączenie approx_top_k szkiców różnych typów jest niedozwolone. Znaleziono szkice typu <type1> i <type2>.
Przerwanie AQE_THREAD
Wątek AQE jest przerywany, prawdopodobnie z powodu anulowania zapytania przez użytkownika.
ARGUMENT_NIE_JEST_STAŁY
Funkcja <functionName> zawiera parametr <parameterName> na pozycji <pos>, który wymaga stałego argumentu. Oblicz argument <sqlExpr> oddzielnie i przekaż wynik jako stałą.
ARITHMETIC_OVERFLOW
<message>.
<alternative> W razie potrzeby ustaw <config> na "false", aby zignorować ten błąd.
Aby uzyskać więcej informacji, zobacz ARITHMETIC_OVERFLOW
NIEZGODNOŚĆ_TYPÓW_STRZAŁKI
Nieprawidłowy schemat z <operation>: oczekiwano <outputTypes>, otrzymano <actualDataTypes>.
ARTEFAKT_JUŻ_ISTNIEJE
Artefakt <normalizedRemoteRelativePath> już istnieje. Wybierz inną nazwę nowego artefaktu, ponieważ nie można go zastąpić.
NIEZGODNOŚĆ_LICZBY_ARGUMENTÓW
Liczba przypisanych lub aliasowanych kolumn lub zmiennych: <numTarget> nie jest zgodna z liczbą wyrażeń źródłowych: <numExpr>.
Stan_na_dzień_dołączenia
Nieprawidłowe połączenie as-of.
Aby uzyskać więcej informacji, zobacz AS_OF_JOIN
ATTEMPT_ANALYSIS_IN_PIPELINE_QUERY_FUNCTION
Operacje wyzwalające analizę lub wykonywanie ramki danych nie są dozwolone w funkcjach zapytań potoku. Przenieś kod poza funkcję zapytania potoku.
AUTOCOMMIT_BEGIN_TRANSACTION_DURING_AUTOCOMMIT_TRANSACTION
Nie można uruchomić nowej transakcji, gdy niejawna transakcja uruchomiona przez SET AUTOCOMMIT=FALSE jest aktywna.
COMMIT lub ROLLBACK bieżąca transakcja najpierw i SET AUTOCOMMIT=TRUE przed rozpoczęciem nowej transakcji.
AUTOCOMMIT_NOT_SUPPORTED
Funkcja AUTOCOMMIT trybu jest obecnie opracowywana i nie jest jeszcze obsługiwana w usłudze Databricks.
AUTOCOMMIT_OLD_SQL_EDITOR_NOT_SUPPORTED
AUTOCOMMIT Nie można uzyskać dostępu do starszego edytora SQL ani zmodyfikować go. Przejdź do nowego edytora SQL (<docLink>) lub użyj notesu połączonego z usługą Databricks SQL Warehouse.
AUTOCOMMIT_ONLY_SUPPORTED_IN_DBSQL
AUTOCOMMIT Dostęp do usługi Databricks SQL Warehouse można uzyskać tylko lub zmodyfikować.
AUTOCOMMIT_SET_DURING_ACTIVE_TRANSACTION
SET AUTOCOMMIT jest niedozwolona podczas aktywnej transakcji. Najpierw zatwierdź lub wycofaj.
AUTOCOMMIT_SET_FALSE_ALREADY_DISABLED
SET AUTOCOMMIT=FALSE jest niedozwolona, gdy AUTOCOMMIT jest już wyłączona. To ograniczenie zapobiega nieporozumianiu i zapewnia jasne granice transakcji.
AUTOCOMMIT_SET_TRUE_DURING_AUTOCOMMIT_TRANSACTION
SET AUTOCOMMIT=PRAWDA jest niedozwolona po wykonaniu instrukcji w niejawnej transakcji uruchomionej przez .SET AUTOCOMMIT=FALSE Jest dozwolona tylko natychmiast po SET AUTOCOMMIT=FALSE (przed wszelkimi instrukcjami) lub po COMMIT lub ROLLBACK.
AUTO_TTL_COLUMN_NOT_FOUND
Nieprawidłowy schemat tabeli dla automatycznego czasu wygaśnięcia. Nie można odnaleźć kolumny <column> Auto-TTL.
AUTO_TTL_COLUMN_TYPE_NOT_SUPPORTED
Kolumna <column> Auto-TTL ma typ <type> , który jest nieprawidłowy. Typ kolumny musi być jednym z TIMESTAMP, TIMESTAMP_NTZelementów lub DATE.
AUTO_TTL_FEATURE_NOT_ENABLED
Skontaktuj się z przedstawicielem usługi Databricks, aby włączyć funkcję Auto-TTL.
AUTO_TTL_INCOMPLETE_SETTING
Aby ustawić automatyczne czas wygaśnięcia w tabeli, właściwości tabeli autottl.timestampColumn i autottl.expireInDays są wymagane, ale <missing> brakuje.
AUTO_TTL_INVALID_COLUMN_CHANGE
Kolumna <column> nie może być <operation> , ponieważ jest używana w definicji automatycznego czasu wygaśnięcia.
AUTO_TTL_NOT_SUPPORT_SHALLOW_CLONES
Automatyczne czas wygaśnięcia nie jest obsługiwany w płytkich tabelach klonowania.
AUTO_TTL_NOT_SUPPORT_TABLES_HAVING_SHALLOW_CLONES
Automatyczne czas wygaśnięcia nie jest obsługiwany w tabelach, które mają płytkie klony.
AUTO_TTL_REQUIRES_PREDICTIVE_OPTIMIZATION
Automatyczne czas wygaśnięcia wymaga włączenia optymalizacji predykcyjnej.
AUTO_TTL_REQUIRES_UC_MANAGED_TABLE
Automatyczne czas wygaśnięcia jest obsługiwany tylko w tabelach zarządzanych przez użytkownika.
AVRO_NIE_MOŻNA_ZAPISAĆ_POLE_NULL
Nie można zapisać wartości null dla pola <name> zdefiniowanego jako typ danych Avro, który nie dopuszcza wartości null.
Aby umożliwić wartość null dla tego pola, określ jego schemat Avro jako typ złożony, który zawiera opcję "null", korzystając z opcji avroSchema.
DOMYŚLNE WARTOŚCI AVRO NIEOBSŁUGIWANE
Użycie wartości domyślnych nie jest obsługiwane w przypadku włączeniarescuedDataColumn. Można spróbować usunąć to sprawdzenie, ustawiając wartość spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue na false, ale wartości domyślne nie będą się stosować i wartości null będą nadal używane.
Niekompatybilny_typ_odczytu_AVRO
Nie można przekonwertować pliku Avro <avroPath> na język SQL <sqlPath> , ponieważ oryginalny zakodowany typ danych to <avroType>, jednak próbujesz odczytać pole jako <sqlType>, co doprowadziłoby do nieprawidłowej odpowiedzi.
Aby umożliwić odczytanie tego pola, włącz konfigurację SQL: "spark.sql.legacy.avro.allowIncompatibleSchema".
AVRO_NIE_ZAŁADOWANO_SQL_FUNKCJE_NIEDOSTĘPNE
Nie można wywołać <functionName> funkcji SQL, ponieważ źródło danych Avro nie jest załadowane.
Uruchom ponownie zadanie lub sesję z załadowanym pakietem "spark-avro", na przykład używając argumentu --packages w wierszu polecenia, a następnie spróbuj ponownie wykonać zapytanie lub polecenie.
NIEOBSŁUGIWANE_DOPASOWYWANIE_POLA_POZYCYJNEGO_AVRO
Dopasowywanie pól pozycyjnych nie jest obsługiwane, gdy jest włączony rescuedDataColumn lub failOnUnknownFields. Usuń te opcje, aby kontynuować.
AZURE_INVALID_CREDENTIALS_CONFIGURATION
Dostawca kluczy platformy Azure lub poświadczenia są niepoprawnie skonfigurowane. Powód: <causedBy>.
METADANE_BATCH_NIE_ZNALEZIONE
Nie można odnaleźć partii <batchMetadataFile>.
BIGQUERY_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
Sprawdzanie poprawności źródeł danych BigQuery nie powiodło się.
Aby uzyskać więcej informacji, zobacz BIGQUERY_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
OPCJE_BIGQUERY_SĄ_WZAJEMNIE_WYKLUCZAJĄCE
Poświadczenia połączenia BigQuery należy określić za pomocą parametru "GoogleServiceAccountKeyJson" lub wszystkich parametrów: "projectId", "OAuthServiceAcctEmail", "OAuthPvtKey".
Przepełnienie binarnej arytmetyki
<value1> <symbol> <value2> spowodował przepełnienie. Użyj <functionName>, aby zignorować problem z przepełnieniem i zwrócić NULL.
Wbudowany_katalog
<operation> nie obsługuje wbudowanych wykazów.
WYWOŁANIE_NA_STRUMIENIU_ZESTAWU_DANYCH_NIEOBSŁUGIWANE
Nie można wywołać metody <methodName> na przesyłanym strumieniowo zbiorze danych/DataFrame.
NIE_MOŻNA_ZMIENIĆ_KOLEJNOŚCI_KOLUMN_W_SEGREGATORZE
ALTER TABLE (ALTER|CHANGE) COLUMN nie można zmienić porządku sortowania typów/podtypów kolumn zasobnika, ale znaleziono kolumnę zasobnika <columnName> w tabeli <tableName>.
CANNOT_ALTER_PARTITION_COLUMN (Nie można zmienić kolumny partycji)
ALTER TABLE (ALTER|CHANGE) COLUMN nie jest obsługiwana dla kolumn partycji, ale kolumna partycji <columnName> została znaleziona w tabeli <tableName>.
NIE MOŻNA PRZYPISAĆ KOLUMNY CZASU ZDARZENIA BEZ ZNACZNIKA WODNEGO
Aby ponownie przypisać kolumnę czasu zdarzenia, należy zdefiniować znacznik czasowy. Nie udało się znaleźć definicji znaku wodnego w zapytaniu strumieniowym.
NIE MOŻNA PRZEKONWERTOWAĆ TYPU DANYCH
Nie można rzutować <sourceType> na <targetType>.
NIE MOŻNA PRZEKONWERTOWAĆ TYPU POLA PROTOBUF NA TYP SQL
Nie można przekonwertować <protobufColumn> Protobuf na <sqlColumn> SQL, ponieważ schemat jest niezgodny (protobufType = <protobufType>, sqlType = <sqlType>).
Nie można przekonwertować typu wiadomości Protobuf na typ SQL
Nie można przekonwertować <protobufType> z Protobuf na typ SQL <toType>.
Nie można przekonwertować typu SQL na typ pola Protobuf
Nie można przekonwertować <sqlColumn> SQL na <protobufColumn> Protobuf, ponieważ schemat jest niezgodny (protobufType = <protobufType>, sqlType = <sqlType>).
NIE MOŻNA PRZEKONWERTOWAĆ WARTOŚCI SQL NA TYP ENUM PROTOBUF
Nie można przekonwertować SQL <sqlColumn> na Protobuf <protobufColumn>, ponieważ <data> nie znajduje się w zdefiniowanych wartościach dla typu wyliczeniowego: <enumString>.
NIE_MOŻNA_SKOPIOWAĆ_STANU
Nie można skopiować stanu katalogu, takich jak bieżąca baza danych i widoki tymczasowe, z Unity Catalog do katalogu dziedziczonego.
NIE MOŻNA UTWORZYĆ TABELI ŹRÓDŁA DANYCH
Nie można utworzyć tabeli źródła danych <tableName>:
Aby uzyskać więcej informacji, sprawdź CANNOT_CREATE_DATA_SOURCE_TABLE
Nie można zdekodować adresu URL
Nie można zdekodować podanego adresu URL: <url>. Upewnij się, że adres URL jest poprawnie sformatowany i spróbuj ponownie.
NIE MOŻNA USUNĄĆ WŁASNOŚCI SYSTEMU
Nie można usunąć <resourceType>, który jest własnością systemu.
NIE_MOŻNA_USUNĄĆ_NIEJEDNOZNACZNEGO_OGRANICZENIA
Nie można usunąć ograniczenia o nazwie <constraintName>, które jest współdzielone z ograniczeniem CHECK
oraz ograniczenie PRIMARY KEY lub FOREIGN KEY. Możesz usunąć PRIMARY KEY lub
FOREIGN KEY ograniczenie na podstawie zapytań:
ALTER TABLE ..
DROP PRIMARY KEY lub
ALTER TABLE ..
DROP FOREIGN KEY ..
CANNOT_DROP_BASE_TABLE_REFERENCED_BY_SHALLOW_CLONE
Nie można usunąć tabeli <baseTable> , ponieważ odwołuje się do niej co najmniej jeden płytkie klony: <cloneList>.
DROP wszystkie płytkie klony przed usunięciem tabeli bazowej. Jeśli nie jest to możliwe, rozważ użycie ciągu "DROP TABLE...FORCE", aby wymusić tabelę siłowo.
WARNING: Spowoduje to natychmiastowe przerwanie wszystkich istniejących płytkich odwołań klonowania i uniemożliwi ich użycie.
NIE MOŻNA NAWIĄZAĆ POŁĄCZENIA
Nie można nawiązać połączenia z zdalną bazą danych <jdbcDialectName>. Sprawdź informacje o połączeniu i poświadczenia, na przykład host, port, użytkownik, hasło i opcje bazy danych. ** Jeśli uważasz, że informacje są poprawne, sprawdź konfigurację sieci obszaru roboczego i upewnij się, że nie ma ograniczeń ruchu wychodzącego do hosta. Sprawdź również, czy host nie blokuje połączeń przychodzących z sieci, w której wdrożono klastry Spark obszaru roboczego. ** Szczegółowy komunikat o błędzie: <causeErrorMessage>.
NIE MOŻNA USTANOWIĆ POŁĄCZENIA_BEZSERWEROWO
Nie można nawiązać połączenia z zdalną bazą danych <jdbcDialectName>. Sprawdź informacje o połączeniu i poświadczenia, na przykład host, port, użytkownik, hasło i opcje bazy danych. ** Jeśli uważasz, że informacje są poprawne, zezwól na ruch przychodzący z Internetu do hosta, ponieważ używasz obliczeń w modelu bezserwerowym. Jeśli zasady sieciowe nie zezwalają na przychodzący ruch internetowy, użyj bezserwerowych obliczeń lub skontaktuj się z przedstawicielem usługi Databricks, aby dowiedzieć się więcej o bezserwerowej sieci prywatnej. ** Szczegółowy komunikat o błędzie: <causeErrorMessage>.
CANNOT_ESTABLISH_CONNECTION_TO_HOST
Nie można nawiązać <protocol> połączenia z usługą <host>. Sprawdź konfigurację sieci obszaru roboczego i upewnij się, że nie ma ograniczeń ruchu wychodzącego do hosta. Sprawdź również, czy host nie blokuje połączeń przychodzących z sieci, w której są wdrażane klastry obszaru roboczego.
Nie można wywołać w transformacjach
Przekształcenia i akcje zestawu danych mogą być wywoływane tylko przez sterownik, a nie wewnątrz innych przekształceń zestawu danych; na przykład element dataset1.map(x => dataset2.values.count() * x) jest nieprawidłowy, ponieważ nie można wykonać akcji przekształcania wartości i liczby wewnątrz przekształcenia dataset1.map. Aby uzyskać więcej informacji, zobacz SPARK-28702.
CANNOT_LOAD_CHECKPOINT_FILE_MANAGER
Błąd podczas ładowania menedżera plików punktu kontrolnego przesyłania strumieniowego dla ścieżki=<path>.
Aby uzyskać więcej informacji, zobacz CANNOT_LOAD_CHECKPOINT_FILE_MANAGER
NIE MOŻNA ZAŁADOWAĆ KLASY FUNKCJI
Nie można załadować klasy <className> podczas rejestrowania funkcji <functionName>, upewnij się, że znajduje się ona na ścieżce klas.
NIE MOŻNA ZAŁADOWAĆ KLASY PROTOBUF
Nie można załadować klasy Protobuf o nazwie <protobufClassName>.
<explanation>.
NIE MOŻNA ZAŁADOWAĆ MAGAZYNU STANU
Wystąpił błąd podczas ładowania stanu.
Aby uzyskać więcej informacji, zobacz CANNOT_LOAD_STATE_STORE
BŁĄD_SCALENIA_NIEZGODNYCH_TYPÓW_DANYCH
Nie można scalić niezgodnych typów danych <left> i <right>. Sprawdź typy danych scalonych kolumn i upewnij się, że są one zgodne. W razie potrzeby rozważ rzutowanie kolumn do zgodnych typów danych przed podjęciem próby scalenia.
NIE MOŻNA SCALIĆ SCHEMATÓW
Schematy scalania nie powiodły się:
Schemat początkowy:
<left>
Schemat, którego nie można scalić ze schematem początkowym:
<right>.
NIE MOŻNA ZMIENIĆ KONFIGURACJI
Nie można zmodyfikować wartości konfiguracji platformy Spark: <key>.
Zobacz też "https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements".
CANNOT_MODIFY_STATIC_CONFIG
Nie można zmodyfikować wartości statycznej konfiguracji platformy Spark: <key>.
NIE MOŻNA PRZETWORZYĆ LICZBY DZIESIĘTNEJ
Nie można przeanalizować liczby dziesiętnej. Upewnij się, że dane wejściowe są prawidłową liczbą z opcjonalnymi separatorami dziesiętnymi lub przecinkami.
NIE MOŻNA PRZETWORZYĆ PRZEDZIAŁU
Nie można sparsować <intervalString>. Upewnij się, że podana wartość jest w prawidłowym formacie definiowania interwału. Możesz odwołać się do dokumentacji dotyczącej poprawnego formatu. Jeśli problem będzie się powtarzać, sprawdź dokładnie, czy wartość wejściowa nie ma wartości null lub jest pusta i spróbuj ponownie.
NIE MOŻNA PARSOWAĆ POLA JSON
Nie można przeanalizować nazwy <fieldName> pola i wartości <fieldValue> typu tokenu JSON docelowego typu <jsonType><dataType>danych platformy Spark.
NIE MOŻNA PRZETWORZYĆ OPISU PROTOBUF
Błąd podczas analizowania bajtów deskryptora w pliku Protobuf FileDescriptorSet.
NIE_MOŻNA_PARSOWAĆ_CZASU
Nie można przeanalizować ciągu <input> wejściowego do wartości TIME, ponieważ nie jest on zgodny z formatem <format>daty/godziny.
NIE MOŻNA PRZETWORZYĆ ZNACZNIKA CZASU
<message>. Użyj <func>, aby tolerować nieprawidłowy ciąg wejściowy i zwracać NULL zamiast tego.
NIE MOŻNA WYKONAĆ ZAPYTANIA TABELI PODCZAS INICJALIZACJI
Nie można wykonywać zapytań MV/ST podczas inicjowania.
Aby uzyskać więcej informacji, zobacz CANNOT_QUERY_TABLE_DURING_INITIALIZATION
NIE MOŻNA ODCZYTAĆ PLIKU ARCHIWALNEGO
Nie można odczytać pliku w ścieżce <path>, ponieważ został zarchiwizowany. Dostosuj filtry zapytań, aby wykluczyć zarchiwizowane pliki.
NIE MOŻNA ODCZYTAĆ PLIKU
Nie można odczytać pliku <format> w ścieżce: <path>.
Aby uzyskać więcej informacji, zobacz CANNOT_READ_FILE
NIE MOŻNA ODCZYTAĆ KLUCZA WRAŻLIWEGO OD DOSTAWCY ZABEZPIECZEŃ
Nie można odczytać klucza poufnego "<key>" od bezpiecznego dostawcy.
NIE_MOŻNA_ROZPOZNAĆ_TYPU_ULU
Nie można rozpoznać ciągu typu hive: <fieldType>, kolumna: <fieldName>. Określony typ danych dla pola nie może zostać rozpoznany przez usługę Spark SQL. Sprawdź typ danych określonego pola i upewnij się, że jest to prawidłowy typ danych Spark SQL. Zapoznaj się z dokumentacją platformy Spark SQL, aby uzyskać listę prawidłowych typów danych i ich format. Jeśli typ danych jest poprawny, upewnij się, że używasz obsługiwanej wersji usługi Spark SQL.
NIE MOŻNA ODWOŁYWAĆ SIĘ DO UC W HMS
Nie można odwołać się do Unity Catalog <objType> w obiektach Hive Metastore.
NIE MOŻNA USUNĄĆ ZAREZERWOWANEJ WŁAŚCIWOŚCI
Nie można usunąć właściwości zarezerwowanej: <property>.
NIE MOŻNA ZMIENIĆ NAZWY MIĘDZY KATALOGAMI
Zmiana nazwy <type> między wykazami jest niedozwolona.
NIE MOŻNA ZMIENIĆ NAZWY MIĘDZY SCHEMATAMI
Zmiana nazwy <type> między schematami jest niedozwolona.
CANNOT_RESOLVE_DATAFRAME_COLUMN (Nie można rozwiązać kolumny w ramce danych)
Nie można rozpoznać kolumny <name>ramki danych. Prawdopodobnie wynika to z nielegalnych referencji, takich jak df1.select(df2.col("a")).
NIE MOŻNA ROZWIĄZAĆ ROZSZERZENIA GWIAZDKI
Nie można rozwiązać <targetString>.* przy podanych kolumnach wejściowych <columns>. Sprawdź, czy określona tabela lub struktura istnieje i jest dostępna w kolumnach wejściowych.
NIE MOŻNA PRZYWRÓCIĆ UPRAWNIEŃ DLA ŚCIEŻKI (CANNOT_RESTORE_PERMISSIONS_FOR_PATH)
Nie udało się przywrócić uprawnień dla utworzonej ścieżki <path> do <permission>.
NIE MOŻNA SKOPIOWAĆ PŁYTKIEGO KLONU MIĘDZY UC A HMS
Nie można tworzyć płytkich klonów tabel pomiędzy katalogiem Unity a magazynem metadanych Hive.
CANNOT_SHALLOW_CLONE_AUTO_TTL
Nie można pobieżnie sklonuć tabeli <table> z włączonym automatycznym czasem wygaśnięcia.
NIE MOŻNA PŁYTKO KLONOWAĆ ZAGNIEŻDŻONYCH
Nie można płytko sklonować tabeli <table>, która jest już płytkim klonem.
NIE MOŻNA POWIERZCHOWNIE KLONOWAĆ TABELI ZARZĄDZANEJ PRZEZ SYSTEM INNY NIŻ UC JAKO ŹRÓDŁO LUB CEL
Płytkie klonowanie jest obsługiwane tylko dla typu tabeli MANAGED. Tabela <table> nie jest tabelą MANAGED.
NIE MOŻNA ZAKTUALIZOWAĆ POLA
Nie można zaktualizować pola <table> typu <fieldName>:
Aby uzyskać więcej szczegółów, zobacz CANNOT_UPDATE_FIELD
Nie można zaktualizować kolumn partycji
Zadeklarowane partycjonowanie <requestedPartitionColumns> powoduje konflikty z istniejącym partycjonowaniem <existingPartitionColumns>tabeli.
Usuń tabelę lub zmień zadeklarowane partycjonowanie, aby było zgodne z jego partycjami.
NIE MOŻNA PRZEKONWERTOWAĆ TYPU DANYCH W GÓRĘ
Nie można konwertować <expression> z <sourceType> na <targetType>.
<details>
NIE_MOŻNA_UŻYĆ_KRYO
Nie można załadować kodeka serializacji Kryo. Serializacji Kryo nie można używać w kliencie Spark Connect. Użyj serializacji Java, podaj niestandardowy koder lub zamiast tego użyj klasycznego Spark.
CANNOT_USE_MULTI_ALIASES_IN_WATERMARK_CLAUSE
Wiele aliasów nie jest obsługiwanych w klauzuli limitu.
CANNOT_USE_RESERVED_STREAMING_PROVIDER_NAME
Nie można użyć nazwy zarezerwowanego dostawcy przesyłania strumieniowego: <providerName>.
NIE MOŻNA ZWERYFIKOWAĆ POŁĄCZENIA
Sprawdzanie poprawności połączenia <jdbcDialectName> nie jest obsługiwane. Skontaktuj się z pomocą techniczną usługi Databricks w przypadku alternatywnych rozwiązań lub ustaw wartość "spark.databricks.testConnectionBeforeCreation" na wartość "false", aby pominąć testowanie połączeń przed utworzeniem obiektu połączenia.
NIE MOŻNA ZAPISAĆ DO PRZECHOWALNI STANÓW
Wystąpił błąd podczas zapisywania plików w sklepie stanu dla dostawcy <providerClass>.
Aby uzyskać więcej informacji, zobacz CANNOT_WRITE_STATE_STORE
NIEPRAWIDŁOWE_DANE_WEJŚCIOWE
Nie można rzutować wartości <expression> typu <sourceType> do <targetType>, ponieważ jest źle sformułowana. Popraw wartość zgodnie ze składnią lub zmień jej typ docelowy. Użyj try_cast, aby tolerować źle sformułowane dane wejściowe i zwracać NULL zamiast tego.
Aby uzyskać więcej informacji, zobacz CAST_INVALID_INPUT
Przekroczenie_rzutu
Nie można rzutować wartości <value> typu <sourceType> do <targetType> z powodu przepełnienia. Użyj try_cast do tolerowania przepełnienia i zamiast tego zwróć NULL.
PRZEPEŁNIENIE_RZUTOWANIA_PRZY_WSTAWIANIU_DO_TABELI
Nie można przypisać wartości typu <sourceType> do kolumny typu <targetType> lub zmiennej <columnName> z powodu przepełnienia. Użyj try_cast na wartości wejściowej, aby tolerować przepełnienie i zwrócić NULL.
CATALOG_CONVERSION_FOREIGN_ENTITY_PRESENT
Konwersja wykazu z UC Foreign do UC Standard nie powiodła się, ponieważ wykaz zawiera jednostki obce (do 10 pokazano tutaj): <entityNames>. Aby wyświetlić pełną listę jednostek obcych w tym wykazie, zapoznaj się ze skryptami w dokumentacji poleceń "ALTER CATALOG DROP CONNECTION".
CATALOG_CONVERSION_UNSUPPORTED_CATALOG_TYPE
Nie można przekonwertować wykazu z UC Foreign na UC Standard. Tylko <convertableCatalogTypes> zagraniczne wykazy UC można konwertować na standard UC.
Katalog nie został znaleziony
Nie znaleziono katalogu <catalogName>. Rozważ ustawienie konfiguracji SQL <config> na wtyczkę katalogową.
Tworzenie tabeli należącej do katalogu niedozwolone
Tworzenie tabeli Delta przy użyciu funkcji <feature> tabeli jest niedopuszczalne. Skontaktuj się z pomocą techniczną usługi Databricks.
CHECKPOINT_DIR_NOT_SET
Katalog punktu kontrolnego nie został ustawiony w obiekcie SparkContext.
Ustaw go za pomocą polecenia SparkContext.setCheckpointDir().
NIE ZNALEZIONO_ID_BLOKU_RDD_CHECKPOINT
Nie można odnaleźć bloku punktu kontrolnego <rddBlockId>!
Albo egzekutor, który pierwotnie wykonał punkt kontrolny partycji, nie jest już aktywny, albo oryginalny RDD został usunięty.
Jeśli ten problem będzie się powtarzać, rozważ użycie rdd.checkpoint() zamiast lokalnych punktów kontrolnych, które jest wolniejsze, ale bardziej odporne na błędy.
CHECK_CONSTRAINT_VIOLATION
CHECK ograniczenie <constraintName> <expression> naruszone przez wiersz z wartościami:
<values>
REFERENCJA_KLASY_CYRKULARNEJ
Nie można mieć odwołań cyklicznych w klasie, ale wykryto odwołanie cykliczne dla klasy <t>.
KLASA_NIE_NADPISUJE_OCZEKIWANEJ_METODY
<className> musi zastąpić <method1> lub <method2>.
KLASA_NIEOBSŁUGIWANA_PRZEZ_OBIEKTY_MAPY
MapObjects nie obsługuje klasy <cls> jako wynikowej kolekcji.
KOMENDY_DO_POMIESZCZEŃ_CZYSTYCH_NIEOBSŁUGIWANE
Polecenia Clean Room nie są obsługiwane
NIEPRAWIDŁOWA_NAZWA_OBIEKTU_DANYCH_WSPÓLNYCH_CLEANROOM
Nieprawidłowa nazwa do odwołania się do <type> wewnątrz czystej strefy. Użyj nazwy <type> wewnątrz sterylnego pomieszczenia zgodnie z formatem [catalog].[schema].[<type>].
Jeśli nie masz pewności, jakiej nazwy użyć, możesz uruchomić polecenie "SHOW ALL IN CLEANROOM [clean_room]" i użyć wartości w kolumnie "name".
KLONOWANIE_Z_HISTORIĄ_NIEPRAWIDŁOWA_OPCJA
Klonowanie z historią zostało określone z nieprawidłową opcją: <invalidOption>.
Prawidłowa składnia: CREATE (OR REPLACE) TABLE ... DEEP CLONE...WITH HISTORY.
KLONOWANIE_Z_HISTORIĄ_NIEOBSŁUGIWANE
Klonowanie z historią nie jest obsługiwane.
CLOUD_FILE_ALREADY_EXISTS
Plik w chmurze już istnieje. Powód: <causedBy>.
CLOUD_FILE_NOT_FOUND
Nie można odnaleźć pliku w chmurze. Powód: <causedBy>.
Źródłowy plik w chmurze nie znaleziony
Odebrano powiadomienie o pliku: <filePath> ale już nie istnieje. Upewnij się, że pliki nie są usuwane przed ich przetworzeniem. Aby kontynuować przesyłanie strumieniowe, możesz ustawić konfigurację platformy Spark SQL <config> na true.
BŁĄD_USŁUGODAWCY_CHMURY
Błąd dostawcy usług w chmurze: <message>
NIEZGODNOŚĆ_KOLUMN_KLASTEROWANIA
Określone klastrowanie nie jest zgodne z istniejącą tabelą <tableName>.
Określone kolumny klastrowania: [<specifiedClusteringString>].
Istniejące kolumny klastrowania: [<existingClusteringString>].
KLASTROWANIE_NIEOBSŁUGIWANE
"<operation>" nie obsługuje klastrowania.
KLASTROWANIE_PO_AUTO_FUNKCJI_NIE_AKTYWOWANE
Proszę skontaktować się z przedstawicielem Databricks, aby włączyć funkcję automatycznego grupowania klastrów.
FUNKCJA_AUTOMATYCZNEGO_KLASTEROWANIA_WYMAGA_WŁĄCZENIA_FUNKCJI_KLASTEROWANIA
Włącz funkcję clusteringTable.enableClusteringTableFeature, aby używać CLUSTER BY AUTO.
CLUSTER_AUTO_WYMAGA_PREDYKCYJNEJ_OPTYMALIZACJI
CLUSTER BY AUTO wymaga włączenia Optymalizacji Predykcyjnej.
BŁĄD_TYP_TABLICY_NIEOBSŁUGIWANY_CLUSTER_BY_AUTO
CLUSTER BY funkcja AUTO jest obsługiwana tylko w tabelach zarządzanych przez UC.
CODEC_NOT_AVAILABLE (kodek niedostępny)
Koder <codecName> jest niedostępny.
Aby uzyskać więcej informacji, zobacz CODEC_NOT_AVAILABLE
Nie znaleziono krótkiej nazwy kodeka
Nie można odnaleźć krótkiej nazwy kodera <codecName>.
Niepoprawna nazwa sortowania
Wartość <collationName> nie reprezentuje poprawnej nazwy sortowania. Sugerowane poprawne nazwy sortowania: [<proposals>].
SORTOWANIE_NIEPRAWIDŁOWY_USŁUGODAWCA
Wartość <provider> nie reprezentuje poprawnego dostawcy sortowania. Obsługiwani dostawcy to: [<supportedProviders>].
NIEDOPASOWANIE KOLEJNOŚCI
Nie można określić, które sortowanie ma być używane dla funkcji ciągów i operatorów.
Aby uzyskać więcej informacji, zobacz COLLATION_MISMATCH
PRZEKROCZONO LIMIT ROZMIARU KOLEKCJI
Nie można utworzyć tablicy z elementami <numberOfElements> przekraczającymi limit <maxRoundedArrayLength>rozmiaru tablicy ,
Aby uzyskać więcej informacji, zobacz COLLECTION_SIZE_LIMIT_EXCEEDED
Aliasów kolumn nie można używać
Aliasy kolumn nie są dozwolone w <op>.
KOLUMNA_JUŻ_ISTNIEJE
Kolumna <columnName> już istnieje. Wybierz inną nazwę lub zmień nazwę istniejącej kolumny.
Niezgodność_typu_elementu_tablicy_kolumny
Niektóre wartości w polu <pos> są niezgodne z typem tablicy kolumny. Oczekiwany typ <type>.
COLUMN_MASKS_ABAC_MISMATCH
Nie można rozpoznać masek kolumn w <tableName>, ponieważ wystąpiła niezgodność między maskami kolumn przejętymi z zasad i maskami kolumn zdefiniowanymi jawnie. Aby kontynuować, wyłącz kontrolę dostępu opartą na atrybutach (ABAC) i skontaktuj się z pomocą techniczną usługi Databricks.
COLUMN_MASKS_SPRAWDŹ_OGRANICZENIE_NIEOBSŁUGIWANE
Tworzenie ograniczeń CHECK w tabeli <tableName> z zasadami maski kolumn nie jest obsługiwane.
COLUMN_MASKS_DUPLIKAT_UŻYWAJĄC_NAZWY_KOLUMN
Instrukcja <statementType> próbowała przypisać zasady maski kolumn do kolumny zawierającej co najmniej dwie inne przywoływane kolumny na liście USING COLUMNS o tej samej nazwie <columnName>, która jest nieprawidłowa.
COLUMN_MASKS_FUNKCJA_NIEOBSŁUGIWANA
Zasady maskowania kolumn dla <tableName> nie są obsługiwane:
Aby uzyskać więcej informacji, zobacz COLUMN_MASKS_FEATURE_NOT_SUPPORTED
COLUMN_MASKS_NIEKOMPATYBILNA_ZMIANA_SCHEMATU
Nie można <statementType> <columnName> z tabeli <tableName>, ponieważ jest referencjonowana w polityce maskowania kolumny dla kolumny <maskedColumn>. Właściciel tabeli musi usunąć lub zmienić tę politykę przed kontynuowaniem.
COLUMN_MASKS_NIEOBSŁUGIWANE_ŹRÓDŁO_SCALANE
MERGE INTO operacje nie obsługują zasad maskowania kolumn w tabeli źródłowej <tableName>.
COLUMN_MASKS_NIEOBSŁUGIWANY_CEL_SCALANIA
Operacje MERGE INTO nie obsługują zapisywania do tabeli <tableName> z zasadami maskowania kolumn.
COLUMN_MASKS_WIELO_CZĘŚCIOWA_DOCELOWA_NAZWA_KOLUMNY
Ta instrukcja próbowała przypisać zasady maski kolumn do kolumny <columnName> z wieloma częściami nazw, co jest nieprawidłowe.
COLUMN_MASKS_WIELO_CZĘŚCIOWE_UŻYWAJĄC_NAZWE_KOLUMNY
Ta instrukcja próbowała przypisać zasady maski kolumn do kolumny, a lista USING COLUMNS zawierała nazwę <columnName> z wieloma częściami nazw, co jest nieprawidłowe.
COLUMN_MASKS_NIE_WŁĄCZONE
Obsługa definiowania masek kolumn nie jest włączona
COLUMN_MASKS_WYMAGAJ_UNITY_CATALOG
Zasady maski kolumn są obsługiwane tylko w katalogu Unity Catalog.
COLUMN_MASKS_SECONDARY_INDEX_CREATION_UNSUPPORTED
Nie można utworzyć indeksu ON TABLE <tableName> pomocniczego, ponieważ tabela ma zdefiniowane zasady maski kolumn.
COLUMN_MASKS_POKAŻ_PARTYCJE_NIEOBSŁUGIWANE
SHOW PARTITIONS polecenie nie jest obsługiwane w przypadku tabel<format> z maskami kolumn.
COLUMN_MASKS_Klonowanie_tabeli_źródło_nieobsługiwane
<mode> klonowanie z <tableName> tabeli z zasadami maski kolumn nie jest obsługiwane.
COLUMN_MASKS_TABELA_DUŻY_CEL_NIE_PODPARTY
Klonowanie <mode> do tabeli <tableName> z zasadami maskowania kolumn nie jest obsługiwane.
COLUMN_MASKS_NIEOBSŁUGIWANA_STAŁA_JAKO_PARAMETR
Używanie stałej jako parametru w zasadach maski kolumn nie jest obsługiwane. Zaktualizuj polecenie SQL, aby usunąć stałą z definicji maski kolumny, a następnie ponów próbę polecenia.
COLUMN_MASKS_UNSUPPORTED_DATA_TYPE (nieobsługiwany_typ_danych)
SQLSTATE: 0AKDC
Funkcja <functionName> używana jako zasady maski kolumn zawiera parametr z nieobsługiwanym typem <dataType>danych .
COLUMN_MASKS_NIEOBSŁUGIWANY_DOSTAWCA
Nie można wykonać <statementType> polecenia, ponieważ przypisywanie zasad maski kolumn nie jest obsługiwane dla docelowego źródła danych z dostawcą tabel: "<provider>".
COLUMN_MASKS_UŻYWANIE_NAZWY_KOLUMNY_TAKIEJ_SAMEJ_JAK_DOCELOWA_KOLUMNA
Kolumna <columnName> miała taką samą nazwę jak kolumna docelowa, która jest nieprawidłowa; Usuń kolumnę z listy USING COLUMNS i ponów próbę polecenia.
KOLUMNA_NIEZDEFINIOWANA_W_TABELI
<colType> kolumny <colName> nie zdefiniowano w tabeli <tableName>, zdefiniowane kolumny tabeli to: <tableCols>.
KOLUMNA_NIE_ZNALEZIONA
Nie można odnaleźć kolumny <colName>. Sprawdź pisownię i poprawność nazwy kolumny zgodnie z konfiguracją SQL <caseSensitiveConfig>.
COLUMN_NOT_FOUND_IN_TABLE
Nie można odnaleźć kolumny <columnName> w tabeli <tableFullName>.
Przekroczenie zakresu COLUMN_ORDINAL
Numer porządkowy kolumny poza zakresem. Liczba kolumn w tabeli jest <attributesLength>, ale porządkowa kolumna jest <ordinal>.
Atrybuty są następujące: <attributes>.
COMMAND_NOT_ENABLED
<command> polecenie nie jest włączone.
BŁĄD_KRYPTOGRAFICZNY_PRZED_POPRZEDZAJĄCYMI_PRZECINKAMI
Nieoczekiwany przecinek przed definicją ograniczenia/ograniczeń. Upewnij się, że klauzula ograniczenia nie rozpoczyna się od przecinka, gdy kolumny (i oczekiwania) nie są zdefiniowane.
Komentarz do połączenia nie jest jeszcze zaimplementowany
Polecenie COMMENT ON CONNECTION nie zostało jeszcze zaimplementowane
KOMPARATOR_ZWRACA_NULL
Komparator zwrócił NULL dla porównania między <firstValue> a <secondValue>.
Powinna zwracać dodatnią liczbę całkowitą dla wartości "większe niż", 0 dla wartości "equal" i ujemną liczbę całkowitą dla wartości "less than".
Aby przywrócić przestarzałe zachowanie, w którym NULL jest traktowane jako 0 (równe), należy ustawić wartość "spark.sql.legacy.allowNullComparisonResultInArraySort" na wartość "true".
Złożone_Wyrażenie_Nieobsługiwany_Wejście
Nie można przetworzyć typów danych wejściowych dla wyrażenia: <expression>.
Aby uzyskać więcej informacji, zobacz COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
Równoczesne Zapytanie
Kolejne wystąpienie tego zapytania [id: <queryId>] zostało właśnie uruchomione przez jednoczesną sesję [istniejący identyfikator runId: <existingQueryRunId> nowy identyfikator runId: <newQueryRunId>].
BŁĄD: Za mało miejsc dla jednoczesnego planowania (CONCURRENT_SCHEDULER_INSUFFICIENT_SLOT)
Minimalna liczba wolnych miejsc wymaganych w klastrze wynosi <numTasks>, jednak klaster ma tylko <numSlots> wolnych miejsc. Zapytanie zostanie zatrzymane lub zakończy się niepowodzeniem. Zwiększ rozmiar klastra, aby kontynuować.
RÓWNOLEGŁA_AKTUALIZACJA_DZIENNIKA_STRUMIENIA
Równoczesna aktualizacja dziennika. Wykryto wiele zadań przesyłania strumieniowego dla <batchId>.
Upewnij się, że tylko jedno zadanie przesyłania strumieniowego jest uruchamiane w określonej lokalizacji punktu kontrolnego jednocześnie.
KONFIGURACJA_NIEDOSTĘPNA
Konfiguracja <config> nie jest dostępna.
konfliktowa_konfiguracja_klastra
Następujące konfiguracje powodują konflikt z elementem spark.databricks.streaming.realTimeMode.enabled: <confNames>. Usuń te konfiguracje z konfiguracji klastra i uruchom ponownie klaster Spark.
Konfliktujące struktury katalogów
Wykryto konfliktowe struktury katalogów.
Podejrzane ścieżki:
<discoveredBasePaths>
Jeśli podane ścieżki są katalogami partycji, ustaw wartość "basePath" w opcjach źródła danych, aby określić katalog główny tabeli.
Jeśli istnieje wiele katalogów głównych, załaduj je oddzielnie, a następnie połącz je.
Konfliktujące_nazwy_kolumn_partycji
Wykryto konfliktujące nazwy kolumn partycji:
<distinctPartColLists>
W przypadku katalogów tabel podzielonych na partycje pliki danych powinny być przechowywane tylko w katalogach liści.
Katalogi na tym samym poziomie powinny posiadać taką samą nazwę kolumny partycji.
Sprawdź następujące katalogi pod kątem nieoczekiwanych plików lub niespójnych nazw kolumn partycji:
<suspiciousPaths>
KONFLIKTOWA_NAZWA_KOLUMNY_PARTYCJI_Z_ZAREZERWOWANYM
Nazwa kolumny partycji "<partitionColumnName>" powoduje konflikt z nazwą kolumny zarezerwowanej.
Schemat <tableName> nie jest zgodny z Hive, Spark automatycznie generuje zarezerwowaną kolumnę '<partitionColumnName>', aby przechowywać tabelę w określony sposób.
Proszę użyć innej nazwy dla kolumny partycji.
KOLIDUJĄCY_DOSTAWCA
Określony dostawca <provider> jest niespójny z istniejącym dostawcą katalogu <expectedProvider>. Użyj polecenia "USING <expectedProvider>" i spróbuj ponownie wykonać polecenie.
KONFLIKTOWA_KONFIGURACJA_SQL
Następujące konfiguracje powodują konflikt z elementem spark.databricks.streaming.realTimeMode.enabled: <confNames>. Usuń te konfiguracje z konfiguracji platformy SparkSession.
POŁĄCZ
Ogólny błąd programu Spark Connect.
Aby uzyskać więcej informacji, zobacz CONNECT
POŁĄCZENIE_JUŻ_ISTNIEJE
Nie można utworzyć połączenia <connectionName>, ponieważ już istnieje.
Wybierz inną nazwę, upuść lub zastąp istniejące połączenie albo dodaj klauzulę IF NOT EXISTS, aby tolerować istniejące połączenia.
NAZWA_POŁĄCZENIA_NIE_MOŻE_BYĆ_PUSTA
Nie można wykonać tego polecenia, ponieważ nazwa połączenia nie może być pusta.
POŁĄCZENIE_NIE_ZNALEZIONE
Nie można wykonać tego polecenia, ponieważ nie można odnaleźć nazwy połączenia <connectionName>.
OPCJA_POŁĄCZENIA_NIEOBSŁUGIWANA
Połączenia typu "<connectionType>" nie obsługują następujących opcji: <optionsNotSupported>. Obsługiwane opcje: <allowedOptions>.
TYP_POŁĄCZENIA_NIEOBSŁUGIWANY
Nie można utworzyć połączenia typu "<connectionType>". Obsługiwane typy połączeń: <allowedTypes>.
CONNECTION_TYPE_NOT_SUPPORTED_FOR_OPTIONS_INJECTION
Połączenie z nazwą <connectionName> i typem <connectionType> nie jest obsługiwane w opcjach ramek danych.
CONNECTION_TYPE_NOT_SUPPORTED_FOR_REMOTE_QUERY_FUNCTION
Połączenie o nazwie "<connectionName>" typu "<connectionType>" nie jest obsługiwane w przypadku zdalnego wykonywania funkcji zapytań.
CONNECT_INVALID_PLAN
Plan programu Spark Connect jest nieprawidłowy.
Aby uzyskać więcej informacji, zobacz CONNECT_INVALID_PLAN
MIGRACJA_SESJI_POŁĄCZENIA
Błąd migracji sesji ogólnej (userId: <userId>, sessionId: <sessionId>, serverSessionId: <serverSessionId>).
Aby uzyskać więcej informacji, zajrzyj do CONNECT_SESSION_MIGRATION
WYMAGANIA_OGRANICZEŃ_UNITY_CATALOG
Ograniczenia tabel są obsługiwane tylko w Unity Catalog.
OGRANICZENIE_JUŻ_ISTNIEJE
Ograniczenie "<constraintName>" już istnieje. Najpierw usuń istniejące ograniczenie.
Istniejące ograniczenie:
<oldConstraint>
CONSTRAINT_ALREADY_EXISTS_IN_SCHEMA
<constraintName> Ograniczenie już istnieje w bazie danych <schemaName>.
CONSTRAINT_ALREADY_EXISTS_WITH_SERVER_MESSAGE
<serverMessage>
OGRANICZENIE_NIE_ISTNIEJE
Nie można usunąć nieistniejących ograniczeń <constraintName> z tabeli <tableName>.
NIEPRAWIDŁOWE_DANE_WEJŚCIOWE
Nie można przekonwertować wartości <str> (<fmt>) na <targetType> , ponieważ jest ona źle sformułowana. Popraw wartość zgodnie ze składnią lub zmień jej format. Użyj <suggestion>, aby tolerować źle sformułowane dane wejściowe i zwracać NULL zamiast tego.
Brak zgodności liczby kolumn w operacji COPY
Nie można zapisać do <tableName>, powodem jest
Aby uzyskać więcej informacji, zobacz COPY_INTO_COLUMN_ARITY_MISMATCH
Kopiowanie do danych uwierzytelniających nie jest dozwolone
Nieprawidłowy schemat <scheme>.
COPY INTO poświadczenia źródłowe obsługują obecnie jedynie s3/s3n/s3a/wasbs/abfss.
Konieczne wprowadzenie danych uwierzytelniających
COPY INTO poświadczenia pochodzenia muszą określać <keyList>.
Kopiowanie do zduplikowanych plików nie jest dozwolone.
Zduplikowane pliki wprowadzono podczas jednoczesnej operacji COPY INTO. Spróbuj ponownie później.
KOPIOWANIE_DO_SZYFROWANIA_NIEDOZWOLONE
Nieprawidłowy schemat <scheme>.
COPY INTO szyfrowanie źródłowe obecnie obsługuje tylko s3/s3n/s3a/abfss.
SKOPIOWANIE_DO_SZYFROWANIA_NIEOBSŁUGIWANE_DLA_AZURE
szyfrowanie COPY INTO obsługuje tylko usługę ADLS Gen2 lub schemat plików abfss://
WYMAGANE KOPIOWANIE DO SZYFROWANIA
COPY INTO szyfrowanie źródłowe musi określać wartość "<key>".
KOPIOWANIE_DO_SZYFROWANIA_WYMAGANE_Z_OCZEKIWANIEM
Nieprawidłowa opcja szyfrowania <requiredKey>.
COPY INTO szyfrowanie źródłowe musi określać '<requiredKey>' = '<keyValue>'.
FUNKCJA_KOPIOWANIA_NIEZGODNE_USTAWIENIA
Funkcja "COPY INTO" nie jest zgodna <feature> z elementem "<incompatibleSetting>".
KOPIOWANIE_DO_NIE_BEZPOŚREDNIEGO_DOŁĄCZENIA_NIEDOZWOLONE
COPY INTO nic poza dołączaniem danych nie może być uruchamiane współbieżnie z innymi transakcjami. Spróbuj ponownie później.
Przekroczono maksymalną liczbę prób skopiowania do RocksDB (COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED)
COPY INTO nie wczytał swojego stanu, przekroczono maksymalną liczbę ponownych prób.
NIEDOPASOWANIE SCHEMATU KOPIOWANIA DO TABELI DOCELWEJ
Podczas kopiowania do tabeli delty wykryto niezgodność schematu (Tabela: <table>).
Może to wskazywać na problem z danymi przychodzącymi lub schemat tabeli delty może być automatycznie ewoluowany zgodnie z przychodzącymi danymi przez ustawienie:
COPY_OPTIONS ('mergeSchema' = 'true')
Różnica schematu:
<schemaDiff>
Format pliku źródłowego nieobsługiwany dla kopiowania.
Format plików źródłowych musi być jednym z plików CSV, JSONAVRO, ORC, PARQUET, TEXT lub BINARYFILE. Używanie COPY INTO jako źródła w tabelach Delta nie jest obsługiwane, ponieważ zduplikowane dane mogą być pozyskiwane po operacjach OPTIMIZE. Tę kontrolę można wyłączyć, uruchamiając polecenie SQL set spark.databricks.delta.copyInto.formatCheck.enabled = false.
KOPIOWANIE_DO_ŹRÓDŁA_NIEPOWODZENIE_WNIOSKOWANIA_SCHEMATU
Katalog źródłowy nie zawiera żadnych plików możliwych do analizowania typu <format>. Sprawdź zawartość elementu "<source>".
Błąd można wyciszyć, ustawiając wartość "<config>" na "false".
BŁĄD_WEWNĘTRZNY_KOPIOWANIA_STANU
Wystąpił błąd wewnętrzny podczas przetwarzania stanu COPY INTO.
Aby dowiedzieć się więcej, zobacz COPY_INTO_STATE_INTERNAL_ERROR
BŁĄD_SKŁADNI_WSTAWIANIA
Nie można przeanalizować polecenia COPY INTO.
Aby uzyskać więcej informacji, zobacz COPY_INTO_SYNTAX_ERROR
KOPIOWANIE_DO_NIEOBSŁUGIWANEJ_FUNKCJI
COPY INTO Funkcja '<feature>' nie jest obsługiwana.
COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED (Typ błędu: Nieobsługiwany format typu rozładunku kopii)
Nie można rozładować danych w formacie "<formatType>". Obsługiwane formaty dla <connectionType> to: <allowedFormats>.
USZKODZONA_FUNCKJA_KATALOGU
Nie można przekonwertować funkcji wykazu "<identifier>" na funkcję SQL z powodu uszkodzonych informacji funkcji w katalogu. Jeśli funkcja nie jest funkcją SQL, upewnij się, że nazwa klasy "<className>" jest ładowana.
TWORZENIE_OBCEGO_SCHEMATU_JESZCZE_NIE_ZAIMPLEMENTOWANE
Polecenie CREATE FOREIGN SCHEMA nie zostało jeszcze zaimplementowane
KOMENDA_TWORZENIA_TABLIC_OBCEJ_NIE_JEST_JESZCZE_ZAIMPLEMENTOWANA
Polecenie CREATE FOREIGN TABLE nie zostało jeszcze zaimplementowane
Utwórz lub odśwież MV nieobsługiwane
CREATE USŁUGA OR REFRESH MATERIALIZED VIEW nie jest obsługiwana. Zamiast tego użyj or CREATEREPLACE MATERIALIZED VIEW .
CREATE_OR_REFRESH_MV_ST_ASYNC
Nie można CREATE lub REFRESH zmaterializować widoków lub tabel przesyłania strumieniowego z określonym ASYNC. Usuń ASYNC z instrukcji CREATE albo REFRESH lub użyj REFRESH ASYNC, aby asynchronicznie odświeżyć istniejące zmaterializowane widoki lub tabele strumieniowe.
Utwórz trwały widok bez aliasów
Nie można utworzyć widoku trwałego <name> bez jawnego przypisania aliasu dla wyrażenia <attr>.
TWORZENIE_OPISU_KOLUMNY_TABELI_DUPLIKAT
CREATE TABLE kolumna <columnName> określa deskryptor "<optionName>" więcej niż raz, co jest nieprawidłowe.
CREATE_VIEW_COLUMN_ARITY_MISMATCH
Nie można utworzyć widoku <viewName>, przyczyną jest
Aby uzyskać więcej informacji, zobacz CREATE_VIEW_COLUMN_ARITY_MISMATCH
BRAK_UWIERZYTELNIENIA
Podaj poświadczenia podczas tworzenia lub aktualizowania lokalizacji zewnętrznych.
NIEZGODNOŚĆ CELU POŚWIADCZENIA
Poświadczenie <credentialName> ma cel <actualPurpose> , ale celem podanym w poleceniu jest <expectedPurpose>.
CSV_WYMUSZANO_SCHEMAT_NIEOBSŁUGIWANE
Nie można ustawić opcji CSV enforceSchema w przypadku używania rescuedDataColumn, lub failOnUnknownFields, ponieważ kolumny są odczytywane według nazwy, a nie według kolejności.
REFERENCJA_FUNCKJI_CYKLICZNEJ
Wykryto cykliczne odniesienie do funkcji: <path>.
BŁĄD: DATABRICKS_DELTA_NOT_ENABLED (Delta w Databricks nie jest włączona)
Funkcja delta usługi Databricks nie jest włączona na Twoim koncie.<hints>
DATAFLOW_GRAPH_NOT_FOUND
Nie można odnaleźć wykresu przepływu danych o identyfikatorze <graphId>
DATATYPE_CANNOT_ORDER
Typ <dataType> nie obsługuje uporządkowanych operacji.
NIEZGODNOŚĆ_TYPÓW_DANYCH
Nie można rozpoznać <sqlExpr> z powodu niezgodności typu danych:
Aby uzyskać więcej informacji, zobacz DATATYPE_MISMATCH
BRAKUJE_ROZMIARU_TYPU_DANYCH
Typ danych <type> wymaga parametru długości, na przykład <type>(10). Określ długość.
POCHODZENIE_DANYCH_BEZPIECZNY_WIDOK_LIŚCIOWY_WĘZEŁ_NIE_MA_RELACJI
Niepowodzenie zapisu pochodzenia: brak odpowiadającej relacji z politykami dotyczącymi systemów CLM/RLS.
ŹRÓDŁO_DANYCH_JUŻ_ISTNIEJE
Źródło danych "<provider>" już istnieje. Wybierz inną nazwę nowego źródła danych.
DATA_SOURCE_CONNECTION_MISSING_ALLOW_LIST
Połączenie <connectionName> nie jest obsługiwane w tym kontekście, ponieważ nie ma skonfigurowanej listy dozwolonych opcji zewnętrznych. Zaktualizuj połączenie, aby uwzględnić prawidłowy <optionName>element .
BŁĄD_ZEWNETRZNEGO_ŹRÓDŁA_DANYCH
Napotkano błąd podczas zapisywania w zewnętrznym źródle danych.
ŹRÓDŁO_DANYCH_NIE_ISTNIEJE
Nie można odnaleźć źródła danych "<provider>". Upewnij się, że źródło danych jest zarejestrowane.
ŹRÓDŁO_DANYCH_NIE_ZNALEZIONO
Nie można odnaleźć źródła danych: <provider>. Upewnij się, że nazwa dostawcy jest poprawna, a pakiet jest poprawnie zarejestrowany i zgodny z wersją platformy Spark.
DATA_SOURCE_OPTIONS_VALIDATION_FAILED
Sprawdzanie <dataSource> poprawności opcji źródła danych nie powiodło się.
Aby uzyskać więcej informacji, zobacz DATA_SOURCE_OPTIONS_VALIDATION_FAILED
OPCJA_ŹRÓDŁA_DANYCH_ZAWIERA_NIEPRAWIDŁOWE_ZNAKI
Opcja <option> nie może być pusta i nie powinna zawierać nieprawidłowych znaków, ciągów zapytania ani parametrów.
Opcja źródła danych jest wymagana
Wymagana jest opcja <option>.
DATA_SOURCE_OPTION_NOT_ALLOWED_BY_CONNECTION
Opcja <optionName> nie jest dozwolona przez połączenie <connectionName> i nie może być dostarczana zewnętrznie.
DATA_SOURCE_OPTION_VALUE_NOT_VALID
Podana opcja źródła danych "<option>" zawiera nieprawidłową wartość ('<value>).
Aby uzyskać więcej informacji, zobacz DATA_SOURCE_OPTION_VALUE_NOT_VALID
DATA_SOURCE_SYNTAX_ERROR_DURING_QUERY_EXECUTION
Aparat <dataSourceEngine> zewnętrznego źródła danych zgłosił błąd składni podczas wykonywania zapytania "<query>".
<externalEngineError>.
NIEZGODNOŚĆ SCHEMATU TABELI ŹRÓDŁA DANYCH
Schemat tabeli źródła danych nie jest zgodny z oczekiwanym schematem. Jeśli używasz interfejsu API DataFrameReader.schema lub tworzenia tabeli, unikaj określania schematu.
Schemat źródła danych: <dsSchema>
Oczekiwany schemat: <expectedSchema>
ŹRÓDŁO_DANYCH_URL_ZABRONIONE
Adres URL JDBC nie jest dozwolony w opcjach źródła danych, określ opcje "host", "port" i "baza danych".
DATETIME_FIELD_OUT_OF_BOUNDS (pole daty i czasu poza zakresem)
<rangeMessage>.
Aby uzyskać więcej informacji, zobacz DATETIME_FIELD_OUT_OF_BOUNDS
Przekroczenie_Limitów_CzasuData
Przepełnienie operacji data/czas: <operation>.
LIMIT_API_DC_PRZEKROCZONY
Przekroczono limit przydziału interfejsu API dla źródła danych <sourceName>.
Aby uzyskać więcej szczegółów, zobacz DC_API_QUOTA_EXCEEDED
DC_CONNECTION_ERROR
Nie można nawiązać połączenia ze źródłem <sourceName>. Kod błędu: <errorCode>.
Aby uzyskać więcej informacji, zobacz DC_CONNECTION_ERROR
DC_DYNAMICS_API_ERROR
Wystąpił błąd w wywołaniach interfejsu API usługi Dynamics, errorCode: <errorCode>.
Aby uzyskać więcej informacji, zobacz DC_DYNAMICS_API_ERROR
DC_NETSUITE_ERROR
Wystąpił błąd w wywołaniach JDBC NetSuite, errorCode: <errorCode>.
Aby uzyskać więcej informacji, zobacz DC_NETSUITE_ERROR
BŁĄD_ZMIANY_SCHEMATU_DC
SQLSTATE: brak przypisania
W tabeli <tableName> źródła <sourceName> wystąpiła zmiana schematu.
Aby uzyskać więcej informacji, zobacz DC_SCHEMA_CHANGE_ERROR
DC_SERVICENOW_API_ERROR
Wystąpił błąd w wywołaniach interfejsu API usługi ServiceNow, errorCode: <errorCode>.
Aby uzyskać więcej informacji, zobacz DC_SERVICENOW_API_ERROR
DC_SFDC_BULK_QUERY_JOB_INCOMPLETE (masowa_plikowa_robota_jest_niekompletna)
Pobieranie obiektu <objName> jest niekompletne, ponieważ zadanie zapytania interfejsu API Salesforce trwało zbyt długo, nie powiodło się lub zostało anulowane ręcznie.
Aby spróbować ponownie, możesz ponownie uruchomić cały potok lub odświeżyć tę konkretną tabelę docelową. Jeśli błąd będzie się powtarzać, zgłoś zgłoszenie. Identyfikator zadania: <jobId>. Stan pracy: <jobStatus>.
DC_SHAREPOINT_API_ERROR
Wystąpił błąd w wywołaniach interfejsu API programu SharePoint, errorCode: <errorCode>.
Aby uzyskać więcej informacji, zobacz DC_SHAREPOINT_API_ERROR
Błąd API źródła DC
Wystąpił błąd w wywołaniu interfejsu API <sourceName>. Typ źródłowego interfejsu API: <apiType>. Kod błędu: <errorCode>.
Czasami może się to zdarzyć, gdy osiągniesz limit <sourceName> API. Jeśli limit interfejsu API nie został przekroczony, spróbuj ponownie uruchomić łącznik. Jeśli problem będzie się powtarzać, utwórz zgłoszenie.
DC_UNSUPPORTED_ERROR (Niewspierany błąd)
Wystąpił nieobsługiwany błąd w źródle danych <sourceName>.
Aby uzyskać więcej informacji, zobacz DC_UNSUPPORTED_ERROR
DC_WORKDAY_RAAS_API_ERROR
Wystąpił błąd w wywołaniach API RAAS w Workday, kod błędu: <errorCode>.
Aby uzyskać więcej informacji, zobacz DC_WORKDAY_RAAS_API_ERROR
Dokładność dziesiętna przekracza maksymalną dokładność
Precyzja dziesiętna <precision> przekracza maksymalną precyzję <maxPrecision>.
DOMYŚLNA_BAZA_DANYCH_NIE_ISTNIEJE
Domyślna baza danych <defaultDatabase> nie istnieje, proszę najpierw ją utworzyć lub zmienić domyślną bazę danych na <defaultDatabase>.
DOMYŚLNY_PLIK_NIE_ZNALEZIONY
Możliwe, że pliki bazowe zostały zaktualizowane. Możesz jawnie unieważnić pamięć podręczną na platformie Spark, uruchamiając polecenie "REFRESH TABLE tableName" w języku SQL lub tworząc ponownie zaangażowany zestaw danych/ramkę danych. Jeśli pamięć podręczna dysku jest nieaktualna lub pliki bazowe zostały usunięte, możesz ręcznie unieważnić pamięć podręczną dysku, uruchamiając ponownie klaster.
DOMYŚLNE_UMIEJSCOWIENIE_NIEPRAWIDŁOWE
Słowo DEFAULT kluczowe w poleceniu MERGE, INSERT, UPDATElub SET VARIABLE nie może być bezpośrednio przypisane do kolumny docelowej, ponieważ było częścią wyrażenia.
Na przykład: UPDATE SET c1 = DEFAULT jest dozwolona, ale UPDATE T SET c1 = DEFAULT + 1 nie jest dozwolona.
TRYB_DOMYŚLNY_NIEOBSŁUGIWANY
Nie można wykonać polecenia <statementType>, ponieważ wartości DEFAULT nie są obsługiwane dla docelowego źródła danych z dostawcą tabel: "<dataSource>".
DEFINE_FLOW_ONCE_OPTION_NOT_SUPPORTED
Definiowanie jednorazowego przepływu <flowName> z opcją "raz" nie jest obsługiwane.
OPIS_JSON_NIE_ROZSZERZONY
DESCRIBE TABLE
...
AS JSON obsługiwane tylko wtedy, gdy określono wartość [EXTENDED|FORMATTED].
Na przykład: DESCRIBE EXTENDED <tableName> AS JSON jest obsługiwany, ale DESCRIBE <tableName> AS JSON nie.
RÓŻNE_TABELA_DELTA_CZYTE_PRZEZ_ŹRÓDŁO_STRUMIENIOWE
Zapytanie strumieniowe odczytywało z nieoczekiwanej tabeli Delta (id = '<newTableId>').
Kiedyś odczytywano dane z innej tabeli Delta (id = '<oldTableId>') zgodnie z punktem kontrolnym.
Może się tak zdarzyć, gdy zmieniłeś kod w celu odczytu z nowej tabeli lub usunąłeś dane.
ponownie utworzono tabelę. Cofnij zmianę lub usuń punkt kontrolny zapytania przesyłania strumieniowego
zacząć od zera.
Funkcja okna DISTINCT nieobsługiwana
Funkcje odrębnych okien nie są obsługiwane: <windowExpr>.
DIVIDE_BY_ZERO
Dzielenie według zera. Użyj try_divide, aby obsłużyć przypadek, gdy dzielnik wynosi 0 i zwrócić zamiast tego NULL. W razie potrzeby ustaw <config> na "false", aby pominąć ten błąd.
Aby uzyskać więcej informacji, zobacz DIVIDE_BY_ZERO
OCZEKIWANIA_DLT_NIE_OBSŁUGIWANE
Oczekiwania są obsługiwane tylko w potoku Potoki deklaratywne platformy Spark w usłudze Lakeflow.
WIDOK_KLASTER_PO_NIE_WSPOMAGANY
MATERIALIZED Platformy VIEW z klauzulą CLUSTER BY są obsługiwane tylko w potoku Potoki deklaratywne spark lakeflow.
DLT_VIEW_LOCATION_NOT_SUPPORTED (Lokalizacja widoku nieobsługiwana)
MATERIALIZED VIEW lokalizacje są obsługiwane tylko w potoku potoków deklaratywnych spark lakeflow.
WYŚWIETLANIE SCHEMATU DLT Z TYM TYPEM NIE JEST OBSŁUGIWANE
MATERIALIZED VIEW Schematy z określonym typem są obsługiwane tylko w potoku Potoki deklaratywne spark lakeflow.
TABLE_CONSTRAINTSDLT_VIEW__NIE_OBSŁUGIWANE
CONSTRAINT klauzule w widoku są obsługiwane tylko w potoku Potoki deklaratywne platformy Spark w usłudze Lakeflow.
DML_OPERATIONS_NOT_SUPPORTED_FOR_REMOTE_QUERY_FUNCTION
Funkcja zapytania zdalnego nie obsługuje zapytań DML.
DROP_COMMAND_TYPE_MISMATCH
Nie można usunąć za pomocą <metadataType> polecenia DROP <commandType>.
Zamiast tego użyj DROP <metadataTypeUpper>.
HARMONOGRAM_ZWOLNIEŃ_NIE_ISTNIEJE
Nie można usunąć SCHEDULE na tabeli bez istniejącego harmonogramu lub wyzwalacza.
Powielone nazwy CTE (DUPLICATED_CTE_NAMES)
Definicja CTE nie może mieć zduplikowanych nazw: <duplicateNames>.
Nazwa_pola_jest_zduplikowana_w_strukturze_Arrow
Zduplikowane nazwy pól w strukturze Arrow są niedozwolone, otrzymano <fieldNames>.
ZDUPLIKOWANY_KLUCZ_MAPY
Znaleziono zduplikowany klucz mapy <key>. Sprawdź dane wejściowe.
Jeśli chcesz usunąć zduplikowane klucze, możesz ustawić <mapKeyDedupPolicy> na "LAST_WIN", aby klucz wstawiony jako ostatni miał pierwszeństwo.
DUPLIKOWANA_NAZWA_METRYKI
Nazwa metryki nie jest unikatowa: <metricName>. Nie można używać tej samej nazwy dla metryk z różnymi wynikami.
Jednak wiele wystąpień metryk z tym samym wynikiem i nazwą jest dozwolonych (na przykład samosprzężenia).
ZDUPLIKOWANE_PRZYDZIAŁY
Kolumny lub zmienne <nameList> są wyświetlane więcej niż raz jako obiekty docelowe przypisania.
ZDUBLUJ_KLAUZULE
Znaleziono zduplikowane klauzule: <clauseName>. Usuń jeden z nich.
ZDUPLIKOWANY_WARUNEK_W_ZAKRESIE
W zakresie znaleziono zduplikowany warunek <condition>. Usuń jeden z nich.
DUPLICATE_EXCEPTION_HANDLER
Znaleziono zduplikowane procedury obsługi. Usuń jeden z nich.
Aby uzyskać więcej informacji, zobacz DUPLICATE_EXCEPTION_HANDLER
DUPLICATE_FLOW_SQL_CONF
Znaleziono zduplikowane narzędzie SQL Conf dla zestawu danych "<datasetName>": "<key>" jest definiowane zarówno przez element "<flowName1>" i "<flowName2>".
DUPLICATE_KEY (Zduplikowany_klucz)
Znaleziono zduplikowane klucze <keyColumn>.
DUPLICATYWNE PRZYPISANIE PARAMETRU FUNKCJI
Wywołanie procedury <routineName> jest nieprawidłowe, ponieważ zawiera wiele przypisań argumentów do tej samej nazwy parametru <parameterName>.
Aby uzyskać więcej informacji, zobacz DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
Zduplikowane_nazwy_parametrów_rutyny
Znaleziono zduplikowane nazwy na liście parametrów procedury zdefiniowanej przez użytkownika <routineName>: <names>.
ZDUPLIKOWANE_KOLUMNY_ZWRACANE_PRZEZ_PROCEDURĘ
Znaleziono zduplikowane kolumny na liście kolumn w klauzuli RETURNS w rutynie zdefiniowanej przez użytkownika <routineName>: <columns>.
DUPLICATE_VARIABLE_NAME_INSIDE_DECLARE
Znaleziono zduplikowaną zmienną <variableName> na liście zadeklarowanych zmiennych. Usuń jeden z nich.
Emitowanie wierszy starszych niż znacznik czasu nie jest dozwolone
Poprzedni węzeł emitował wiersz z czasem zdarzenia=<emittedRowEventTime>, który jest starszy niż aktualna wartość watermarka=<currentWatermark>
Może to prowadzić do problemów z poprawnością w dalszych operatorach stanowych w potoku wykonywania.
Popraw logikę operatora, aby emitować wiersze po aktualnej wartości globalnego znacznika czasowego.
PUSTA_WARTOŚĆ_POLA_JSON
Nie można przeanalizować pustego ciągu dla typu danych <dataType>.
PUSTY_LOKALNY_PLIK_W_ZAPYTANIU_DOSTĘPU_ETAPU_PREZUMPOWANIA
Pusty plik lokalny w zapytaniu <operation> na etapie testowym
Niezastosowalny pusty schemat dla źródła danych
Źródło danych <format> nie obsługuje zapisywania pustych ani zagnieżdżonych pustych schematów. Upewnij się, że schemat danych zawiera co najmniej jedną kolumnę.
ENKODER_NIE_ZNALEZIONY
Nie znaleziono kodera typu <typeName> do wewnętrznej reprezentacji Spark SQL.
Rozważ zmianę typu wejściowego na jeden z obsługiwanych pod adresem '<docroot>/sql-ref-datatypes.html'.
KOŃCOWA_ETYKIETA_BEZ_POCZĄTKOWEJ_ETYKIETY
Etykieta końcowa <endLabel> nie może istnieć bez etykiety rozpoczęcia.
KOŃCOWY_OFFSET_MA_WIĘKSZY_OFFSET_DLA_PARTYCJI_TEMU_JAK_NAJNOWSZY_Z_AKTUALNYM_TRIGGER_AVAILABLENOW
Niektóre partycje w temacie Kafka zgłaszają dostępny offset, który jest mniejszy niż offset końcowy podczas wykonywania zapytania z wyzwalaczem Trigger.AvailableNow. Błąd może być przejściowy — uruchom ponownie zapytanie i zgłoś, jeśli nadal widzisz ten sam problem.
ostatnie przesunięcie: <latestOffset>, przesunięcie końcowe: <endOffset>
OFFSET_KOŃCOWY_MA_WIĘKSZY_OFFSET_DLA_PARTYCJI_TEMATU_NIŻ_PREFETCHED
W przypadku źródła danych Kafka z Trigger.AvailableNow, offset końcowy powinien mieć niższy lub równy offset dla każdej partycji tematu niż wstępnie pobrany offset. Błąd może być przejściowy — uruchom ponownie zapytanie i zgłoś, jeśli nadal widzisz ten sam problem.
przesunięcie wstępne: <prefetchedOffset>, przesunięcie końcowe: <endOffset>.
BŁĄD_ODCZYTU_AVRO_NIEZNANY_ODCISK_PALCA
Błąd podczas odczytywania danych avro — napotkał nieznany odcisk palca: <fingerprint>, nie ma pewności, jakiego schematu użyć.
Może się tak zdarzyć, jeśli po uruchomieniu kontekstu platformy Spark zarejestrowano dodatkowe schematy.
Dziennik zdarzeń jest pusty
Dziennik zdarzeń dla <tableOrPipeline> nie zawiera schematu i nie zawiera żadnych zdarzeń. Spróbuj ponownie później po wygenerowaniu zdarzeń
This specific context does not warrant a translated output. Therefore, it is suitable to leave it untranslated. However, if it were necessary for a specific context, it could be accompanied by a translation like "Dziennik zdarzeń wymaga wspólnej obliczeń" for descriptive purposes.
Nie można wysyłać zapytań dotyczących dzienników zdarzeń z klastra przypisanego lub współdzielonego bez izolacji. Proszę użyć współdzielonego klastra lub magazynu SQL usługi Databricks.
If the term is a technical identifier or remains in its original form, no change is necessary. Otherwise, additional context or explanation might be needed for a non-technical audience.
EVENT_LOG Funkcja Table-Valued nie jest obsługiwana w przypadku potoków używających pola "schema" lub potoków publikujących do domyślnego magazynu.
Aby wykonać zapytanie dotyczące dziennika zdarzeń, należy opublikować go w magazynie metadanych, określając pole event_log w ustawieniach potoku.
Aby uzyskać więcej informacji, zobacz dokumentację potoków Deklaratywnych potoków spark usługi Monitor Lakeflow: https://docs.databricks.com/aws/en/delta-live-tables/observability
DZIENNIK_ZDARZEŃ_NIEDOSTĘPNY
Brak dzienników zdarzeń dostępnych dla <tableOrPipeline>. Spróbuj ponownie później po wygenerowaniu zdarzeń
LOG_ZDARZEŃ_TYP_TABELI_NIEOBSŁUGIWANY
Typ tabeli <tableIdentifier> to <tableType>.
Wykonywanie zapytań dotyczących dzienników zdarzeń obsługuje tylko zmaterializowane widoki, tabele przesyłania strumieniowego lub potoki potoków deklaratywnych spark platformy Lakeflow
CZAS_ZDARZENIA_NIE_JEST_NA_TYP_TIMESTAMP
Czas <eventName> zdarzenia ma nieprawidłowy typ <eventType>, ale oczekiwano "TIMESTAMP".
Przekroczono limit długości
Przekracza ograniczenie długości typu char/varchar: <limit>.
EXCEL_DATA_SOURCE_NOT_ENABLED
Źródło danych programu Excel nie jest włączone w tym klastrze.
EXCEL_FILE_ERROR
Błąd podczas przetwarzania pliku programu Excel "<filePath>".
Aby uzyskać więcej informacji, zobacz EXCEL_FILE_ERROR
EXCEL_INVALID_READ_OPTION_VALUE
Nieprawidłowa wartość opcji odczytu dla źródła danych programu Excel.
Aby uzyskać więcej informacji, zobacz EXCEL_INVALID_READ_OPTION_VALUE
EXCEL_INVALID_WRITE_OPTION_VALUE
Źródło danych programu Excel nie obsługuje wartości "<value>" dla opcji zapisu "<option>".
Aby uzyskać więcej informacji, zobacz EXCEL_INVALID_WRITE_OPTION_VALUE
EXCEL_INVALID_WRITE_SCHEMA
Źródło danych programu Excel nie obsługuje schematu "<schema>" dla zapisów.
<hint>
EXCEL_PARSING_ERROR
Błąd podczas analizowania danych programu Excel.
Aby uzyskać więcej informacji, zobacz EXCEL_PARSING_ERROR
EXCEL_UNSUPPORTED_WRITE_OPTION
Źródło danych programu Excel nie obsługuje opcji zapisu "<option>".
<hint>
OPCJA_KOLUMNA_ZAGNIEŻDZONA_NIEPRAWIDŁOWY_TYP
Kolumna EXCEPT<columnName> została rozwiązana, a oczekiwano typu StructType, ale znaleziono typ <dataType>.
Z wyjątkiem nakładających się kolumn
Kolumny w liście EXCEPT muszą być rozdzielone i nie mogą się nakładać, ale otrzymano (<columns>).
WYKLUCZ_ROZWIĄZANE_KOLUMNY_BEZ_ODPOWIEDNIKA
EXCEPT kolumn [<exceptColumns>] zostały zidentyfikowane, ale nie pasują do żadnej z kolumn [<expandedColumns>] z rozszerzenia gwiazdy.
WYJĄTEK_NIEROZWIAZANA_KOLUMNA_W_ROZSZERZENIU_STRUKTURY
Nie można rozpoznać nazwy kolumny/pola <objectName> w klauzuli EXCEPT. Czy chodziło o jedną z następujących czynności: [<objectList>]?
Uwaga: kolumny zagnieżdżone w klauzuli EXCEPT mogą nie zawierać kwalifikatorów (nazwa tabeli, nazwa kolumny struktury nadrzędnej itp.) podczas rozszerzania struktury; spróbuj usunąć kwalifikatory, jeśli są używane z kolumnami zagnieżdżonymi.
EXECUTOR_DISK_OUT_OF_SPACE
Brak miejsca na dysku funkcji wykonawczej. Zwiększ pojemność dysku, jeśli jest dostępna. Jeśli używasz rozwiązania Bezserwerowego, skontaktuj się z naszym zespołem pomocy technicznej.
WYKONAJ_NATYCHMIAST_DUPLIKAT_ALIASÓW_ARGUMENTÓW
Klauzula USING tego polecenia EXECUTE IMMEDIATE zawierała wiele argumentów z tym samym aliasem (<aliases>), który jest nieprawidłowy; Zaktualizuj polecenie , aby określić unikatowe aliasy, a następnie spróbuj ponownie.
Oczekuję trwałej tabeli, a nie tymczasowej
'<operation>' oczekuje stałej tabeli, ale <tableName> jest tabelą tymczasową. Zamiast tego określ stałą tabelę.
OCZEKUJ_TRWAŁEGO_WIDOKU_NIE_TYMCZASOWEGO
Element "<operation>" oczekuje stałego widoku, ale <viewName> jest widokiem tymczasowym.
SPODZIEWAJ_SIĘ_TABELI_NIE_WIDOKU
Element "<operation>" oczekuje tabeli, ale <viewName> jest widokiem.
Aby uzyskać więcej informacji, zobacz EXPECT_TABLE_NOT_VIEW
OCZEKIWANY_WIDOK_NIE_TABLICA
Tabela <tableName> nie obsługuje <operation>.
Aby uzyskać więcej informacji, zobacz EXPECT_VIEW_NOT_TABLE
BŁĄD_DEKODOWANIA_WYRAŻENIA
Nie udało się zdekodować wiersza na wartość wyrażeń: <expressions>.
NIEUDANE_KODOWANIE_WYRAŻENIA
Nie można zakodować wartości wyrażeń: <expressions> do wiersza.
EXPRESSION_TRANSLATION_TO_V2_IS_NOT_SUPPORTED
Nie można przetłumaczyć wyrażenia <expr> na wyrażenie w wersji 2.
TYP_WYRAŻENIA_NIE_PODLEGA_SORTOWANIU
Nie można sortować wyrażenia kolumny <expr>, ponieważ jego typ <exprType> nie jest uporządkowany.
EXTERNAL_METASTORE_CLIENT_ERROR
Operacja klienta nie powiodła się:
Aby uzyskać więcej informacji, zobacz EXTERNAL_METASTORE_CLIENT_ERROR
ZEWNĘTRZNA_PŁYTKA_KOPIA_NADAL_ISTNIEJE
Nie udało się uruchomić operacji na tabeli <sourceTable> źródłowej, ponieważ płytki klon <targetTable> nadal istnieje, a jego stan jest nieprawidłowy. Jeśli rzeczywiście chcesz kontynuować tę operację, posprzątaj płytki klon, uruchamiając jawnie polecenie DROP.
NIEPRAWIDŁOWY_SCHEMAT_TABELI_ZEWNETRZNEJ
Tabele zewnętrzne nie obsługują schematu <scheme> .
NIEPRAWIDŁOWY_ZAKRES_ODŚWIEŻANIA_FABRYKI
Wystąpił błąd podczas uruchamiania 'REFRESH FOREIGN <scope> <name>'. Nie można odświeżyć bezpośrednio Fabric <scope>. Użyj polecenia "REFRESH FOREIGN CATALOG <catalogName>", aby odświeżyć katalog Fabric.
NIEPOWODZENIE_W_WYKONANIU_UDF
Funkcja zdefiniowana przez użytkownika (: (<functionName><signature>) => <result>) nie powiodła się z powodu: <reason>.
NIEUDANA_FUNKCJA
Nie można przygotować funkcji <funcName> do wywołania. Sprawdź dokładnie argumenty funkcji.
NIEUDANY_JDBC
Wystąpiło niepowodzenie JDBC <url> podczas operacji.
Aby uzyskać więcej informacji, zobacz FAILED_JDBC
NIEUDANE_PARSOWANIE_TYPU_STRUKTURY
Nie można przeanalizować struktury: <raw>.
Nieudane_Czytanie_Pliku
Błąd podczas odczytywania pliku <path>.
Aby uzyskać więcej informacji, zobacz FAILED_READ_FILE
NIEUDANA_REJESTRACJA_KLASY_Z_KRYO
Nie można zarejestrować klas w Kryo.
FAILED_RENAME_PATH (Nie udało się zmienić nazwy ścieżki)
Nie można zmienić nazwy <sourcePath> na <targetPath>, ponieważ miejsce docelowe już istnieje.
NIEUDANA_ZMIANA_NAZWY_PLIKU_TYMCZASOWEGO
Nie można zmienić nazwy pliku tymczasowego <srcPath> na <dstPath>, ponieważ nazwa FileSystem.rename zwróciła wartość false.
NIEUDANY_WIERSZ_DO_JSON
Nie można przekonwertować wartości <value> wiersza klasy <class> na docelowy typ <sqlType> SQL w JSON formacie.
FAILED_TO_CREATE_PLAN_FOR_DIRECT_QUERY
Nie można utworzyć planu dla zapytań bezpośrednich dla plików: <dataSourceType>
NIE UDAŁO SIĘ ZAŁADOWAĆ PROCEDURY
Nie można załadować procedury <routineName>.
Nie udało się przetworzyć: zbyt skomplikowane
Instrukcja, w tym potencjalne funkcje SQL i odwołania do widoków, była zbyt złożona, aby ją przeanalizować.
Aby wyeliminować ten błąd, podziel instrukcję na wiele, mniej złożonych fragmentów.
FUNKCJA_NIEAKTYWOWANA
Funkcja <featureName> nie jest włączona. Rozważ ustawienie konfiguracji <configKey> na <configValue>, aby włączyć tę funkcję.
FUNKCJA_NIEDOSTĘPNA_W_MAGAZYNIE_KLASYK
<feature> nie jest obsługiwana w klasycznych magazynach SQL. Aby użyć tej funkcji, użyj usługi SQL Warehouse pro lub bezserwerowej.
FUNKCJA_WYMAGA_UC
<feature> nie jest obsługiwany bez Unity Catalog. Aby użyć tej funkcji, włącz Unity Catalog.
FUNKCJA_NIEDOSTĘPNA
<feature> nie jest obsługiwana w danym środowisku. Aby użyć tej funkcji, skontaktuj się z pomocą techniczną usługi Databricks.
FETCH_FAILED
Zadanie nie powiodło się podczas pobierania danych mieszania lub metadanych: <errorString>.
FGAC_ON_DEDICATED_COMPUTE_FAILED
Szczegółowa kontrola dostępu (FGAC) w dedykowanych obliczeniach nie powiodła się z powodu następującego wyjątku: <message>
Pole już istnieje.
Nie można dodać kolumny <op>, ponieważ <fieldNames> już istnieje w <struct>.
POLE_NIE_ZNALEZIONE
W strukturze <fieldName>nie ma pola o nazwie <fields>.
PLIK_W_ŚCIEŻCE_ETAPU_JUŻ_ISTNIEJE
Plik w ścieżce przejściowej <path> już istnieje, ale OVERWRITE nie jest ustawiony
BŁĄD_FUNKCJI_UŻYTKOWNIKA_FLATMAPGROUPSWITHSTATE
Wystąpił błąd w funkcji udostępnionej przez użytkownika w flatMapGroupsWithState. Przyczyna: <reason>
ZABRONIONE_ŹRÓDŁO_DANYCH_W_BEZSERWEROWYM
Wykonywanie zapytań dotyczących źródła danych <source> w obliczeniach bezserwerowych jest niedozwolone. W obliczeniach bezserwerowych obsługiwane są tylko źródła danych <allowlist>.
FORBIDDEN_KEYWORD_IN_JDBC_QUERY
Opcja <queryOption> kwerendy nie może zawierać niedozwolonych słów kluczowych. Usuń następujące słowa kluczowe z zapytania: <keywords>
ZABRONIONA_OPERACJA
Operacja <statement> nie jest dozwolona w <objectType>: <objectName>.
BŁĄD_FUNKCJI_UŻYTKOWNIKA_FOREACH_BATCH
Wystąpił błąd w funkcji dostarczonej przez użytkownika w mechanizmie przetwarzania partii typu foreach. Przyczyna: <reason>
BŁĄD_FUNKCJI_DLA_KAŻDEGO_UŻYTKOWNIKA
Wystąpił błąd w funkcji podanej przez użytkownika w pętli foreach. Przyczyna: <reason>
NIEZGODNOŚĆ KLUCZA OBCIEGO
Kolumny nadrzędnego klucza obcego <parentColumns> nie pasują do kolumn podrzędnego klucza podstawowego <childColumns>.
NAZWA_OBIEKTU_ZAGRANICZNEGO_NIE_MOŻE_BYĆ_PUSTA
Nie można wykonać tego polecenia, ponieważ nazwa obcej <objectType> nie może być pusta.
NIEOBSŁUGIWANA_KONWERSJA_ZAGRANICZNEJ_TABELI
Tabela nie kwalifikuje się do aktualizacji z UC Foreign do UC External. Powód:
Aby uzyskać więcej informacji, sprawdź FOREIGN_TABLE_CONVERSION_UNSUPPORTED
FOREIGN_VIEW_CONVERSION_UNSUPPORTED
Obiekt <objectName> nie kwalifikuje się do konwersji na widok zarządzany przez użytkownika. Powód:
Aby uzyskać więcej informacji, zobacz FOREIGN_VIEW_CONVERSION_UNSUPPORTED
AKTUALIZACJE_SCHEMA_KONFLIKTU_JSON
Step 2:
"Wnioskowanie z from_json napotkało konfliktowe aktualizacje schematu w: <location>"
KOLUMNOWA_WIERSZ_USZKODZONE_ZAPISU_JSON_W_SCHEMACIE
from_json znalazł columnNameOfCorruptRecord (obecny <columnNameOfCorruptRecord>)
JSON w obiekcie i nie można już kontynuować. Skonfiguruj inną wartość dla
opcja „columnNameOfCorruptRecord”.
FROM_JSON_USZKODZONY_SCHEMAT
from_json wnioskowanie nie może odczytać schematu przechowywanego pod adresem: <location>
WNIOSEK_Z_JSON_NEWYKONANY
from_json nie udało się wywnioskować schematu. Podaj zamiast tego jeden.
INFERENCJA_Z_JSON_NIE_OBSŁUGIWANA
Wnioskowanie from_json jest obsługiwane tylko podczas definiowania tabel przesyłania strumieniowego.
NIEPRAWIDŁOWA_KONFIGURACJA_Z_JSON
konfiguracja from_json jest nieprawidłowa:
Aby uzyskać więcej szczegółów, zobacz FROM_JSON_INVALID_CONFIGURATION
NIEUDANE PRZYSTOSOWANIE SCHEMATU JSON
from_json nie może ewoluować od <old> do <new>
PARAMETRY_FUNKCJI_MUSZĄ_BYĆ_NAZWANE
Funkcja <function> wymaga nazwanych parametrów. Parametry bez nazw: <exprs>. Zaktualizuj wywołanie funkcji, aby dodać nazwy wszystkich parametrów, na przykład <function>(param_name => ...).
Generowana kolumna z wartością domyślną
Kolumna nie może mieć zarówno wartości domyślnej, jak i wyrażenia generacji, ale kolumna <colName> ma wartość domyślną: (<defaultValue>) i wyrażenie generowania: (<genExpr>).
POBIERZ_TABEL_EWEDŁUG_TYPÓW_NIEOBSŁUGIWANE_PRZEZ_WERSJĘ_HIVE
Wersje Hive 2.2 i starsze nie obsługują funkcji getTablesByType. Użyj programu Hive w wersji 2.3 lub nowszej.
BŁĄD_ŚLEDZENIA_ROZGRZEWKI
Nie udało się uzyskać śledzenia fazy rozgrzewki. Przyczyna: <cause>.
FUNKCJA_ŚLEDZENIA_ROZGRZEWANIA_NIEDOZWOLONA
Niedozwolona funkcja get_warmup_tracing().
NIEWŁAŚCIWY_PROTOKÓŁ_W_GRAFICIE_SINK
Nieprawidłowy protokół Graphite: <protocol>.
Brak właściwości „SINK” dla grafitu
Zlew grafitowy wymaga właściwości "<property>".
NIEDOPASOWANIE_KOLUMNY_GRUPOWANIA
Nie można odnaleźć kolumny grupowania (<grouping>) w kolumnach grupowania <groupingColumns>.
Niezgodność kolumny GROUPING_ID
Kolumny grouping_id (<groupingIdColumn>) nie są zgodne z kolumnami grupowania (<groupByColumns>).
Limit rozmiaru grupowania został przekroczony
Rozmiar zestawów grupowania nie może być większy niż <maxSize>.
GRUPOWANIE_PO_AGREGACJI
Funkcje agregujące nie są dozwolone w GROUP BY, jednak znaleziono <sqlExpr>.
Aby uzyskać więcej informacji, zobacz GROUP_BY_AGGREGATE
GRUPUJ_WEDŁUG_POZ_SUMUJ
GROUP BY <index> odnosi się do wyrażenia <aggExpr>, które zawiera funkcję agregacji. Funkcje agregujące nie są dozwolone w GROUP BY.
GROUP_BY_POS_POZA_ZAKRESEM
GROUP BY pozycja <index> nie znajduje się na liście wyboru (prawidłowy zakres to [1, <size>]).
TYP_WYRAŻENIA_GRUPOWEGO_NIEJEST_SORTOWALNY
Nie można użyć wyrażenia <sqlExpr> jako wyrażenia grupowania, ponieważ jego typ danych <dataType> nie jest uporządkowanym typem danych.
HDFS_HTTP_ERROR
Podczas próby odczytu z systemu plików HDFS żądanie HTTP nie powiodło się.
Aby uzyskać więcej informacji, zobacz HDFS_HTTP_ERROR
Wskazówka_nieobsługiwana_dla_dialektu_JDBC
Opcja hint nie jest obsługiwana dla <jdbcDialect> w źródle danych JDBC. Obsługiwane dialekty to MySQLDialect, OracleDialect i DatabricksDialect.
NIEWAŻNA_ŚCIEŻKA_ZASTĘPCZA_W_HIVE_METASTORE
Wykonanie zapytania lub polecenia nie powiodło się, ponieważ konfiguracja tabeli "spark.databricks.hive.metastore.tablePlaceholderPath" dostarczyła nieprawidłową ścieżkę symbolu zastępczego tabeli magazynu metadanych Hive. Zaktualizuj tę konfigurację przy użyciu nowej wartości, aby podać prawidłową ścieżkę, a następnie ponownie uruchomić zapytanie lub polecenie.
ŚCIEŻKA_PLACEHOLDER_TABELI_HIVE_METASTORE_NIE_USTAWIONA
Zapytanie lub polecenie zakończyło się niepowodzeniem, ponieważ ścieżka zastępcza tabeli Hive Metastore nie jest ustawiona, co jest konieczne, gdy lokalizacja schematu jest na DBFS, a lokalizacja tabeli to obiekt/plik. Ustaw parametr spark.databricks.hive.metastore.tablePlaceholderPath na ścieżkę, do której masz dostęp, a następnie ponownie uruchom zapytanie lub polecenie.
HLL_NIEPRAWIDŁOWY_BUFORY_WEJŚCIOWY_SKETCH
Nieprawidłowe wywołanie <function>; tylko prawidłowe szkice HLL są akceptowane jako dane wejściowe (takie jak te generowane przez funkcję hll_sketch_agg).
HLL_INVALID_LG_K
Nieprawidłowe wywołanie <function>; wartość lgConfigK musi zawierać się w zakresie od <min> do <max>, włącznie: <value>.
HLL_K_MUST_BE_CONSTANT
Nieprawidłowe wywołanie metody <function>; K wartość musi być wartością stałą, ale została wyrażeniu niestałych.
HLL_UNION_DIFFERENT_LG_K
Szkice mają różne wartości lgConfigK: <left> i <right>. Ustaw parametr allowDifferentLgConfigK na wartość true, aby wywołać <function> z różnymi wartościami lgConfigK.
Klon płytki HMS_FEDERATION nie znaleziony w UC
Nie można było przekształcić ścieżki płytkiego klonowania "<path>" na tabelę w katalogu Unity. Upewnij się, że tabela istnieje i jest zintegrowana z Unity Catalog.
WYJĄTEK_ANALIZATORA_HYBRYDOWEGO
Wystąpił błąd podczas próby rozwiązania zapytania lub polecenia przy użyciu zarówno starszego analizatora arytmetyki stałoprzecinkowej, jak i modułu jednoprzebiegowego rozwiązywania.
Aby uzyskać więcej informacji, zobacz HYBRID_ANALYZER_EXCEPTION
IDENTYFIKATOR_ZBYT_WIELE_CZĘŚCI_NAZWY
<identifier> nie jest prawidłowym identyfikatorem, ponieważ zawiera więcej niż <limit> części nazw.
TOŻSAMOSĆ_KOLUMN_DUPLIKOWANYCH_OPCJA_GENERATORA_SEKWENCJI
Opcja generatora sekwencji zduplikowanych kolumn IDENTITY: <sequenceGeneratorOption>.
NIEPRAWIDŁOWY_KROK_KOLUMN_TOŻSAMOŚCI
IDENTITY wartość kroku w kolumnie nie może wynosić 0.
KOLUMNY_TOŻSAMOŚCI_NIEOBSŁUGIWANY_TYP_DANYCH
Typ danych <dataType> nie jest obsługiwany dla kolumn IDENTITY.
NIELEGALNY_DZIEŃ_TYGODNIA
Nieprawidłowe dane wejściowe dla dnia tygodnia: <string>.
NIEPRAWIDŁOWA_WARTOŚĆ_PRZECHOWYWANA
Niedozwolona wartość przekazana do sklepu stanowego
Aby uzyskać więcej szczegółów, zobacz ILLEGAL_STATE_STORE_VALUE
Nieodpowiedni schemat URI opcji połączenia
Nie można utworzyć połączenia z powodu nieodpowiedniego schematu identyfikatora URI <uri> podanego dla opcji połączenia "<option>".
Dozwolone schematy: <allowedSchemes>.
Dodaj schemat, jeśli nie jest obecny w identyfikatorze URI, lub wybierz schemat spośród dozwolonych wartości.
NIEPORÓWNYWALNA_KOLUMNA_PRZESTAWNA
Nieprawidłowa kolumna przestawna <columnName>. Kolumny tabeli przestawnej muszą być porównywalne.
INCOMPATIBLE_BATCH_VIEW_READ
Widok <datasetIdentifier> jest widokiem wsadowym i musi być przywołyany przy użyciu platformy SparkSession#read. To sprawdzenie można wyłączyć, ustawiając parametr Spark conf pipelines.incompatibleViewCheck.enabled = false.
NIEZGODNY_TYP_KOLUMNY
<operator> można wykonywać tylko w tabelach z zgodnymi typami kolumn. Kolumna <columnOrdinalNumber> tabeli <tableOrdinalNumber> jest typem <dataType1>, który nie jest zgodny z <dataType2> w tej samej kolumnie pierwszej tabeli.<hint>.
NIEKOMPATYBILNY_REJESTR_ZRÓDŁA_DANYCH
Wykryto niezgodną usługę DataSourceRegister. Usuń niezgodną bibliotekę ze ścieżki klas lub zaktualizuj ją. Błąd: <message>
NIEZGODNE_DANE_DLA_TABELI
Nie można zapisać niezgodnych danych dla tabeli <tableName>:
Aby uzyskać więcej szczegółów, zobacz INCOMPATIBLE_DATA_FOR_TABLE
NIEKOMPATYBILNE_TYPY_ZŁĄCZEŃ
Typy sprzężenia <joinType1> i <joinType2> są niezgodne.
INCOMPATIBLE_STREAMING_VIEW_READ
Widok <datasetIdentifier> jest widokiem przesyłania strumieniowego i musi być przywołyany przy użyciu platformy SparkSession#readStream. To sprawdzenie można wyłączyć, ustawiając parametr Spark conf pipelines.incompatibleViewCheck.enabled = false.
NIEKOMPATYBILNA_ZMIANA_SCHEMATU_WIDOKU
Zapytanie SQL widoku <viewName> ma niezgodny schemat zmiany, a kolumny <colName> nie można rozwiązać. Spodziewano się <expectedNum> kolumn nazwanych <colName>, ale otrzymano <actualCols>.
Spróbuj ponownie utworzyć widok, uruchamiając polecenie: <suggestion>.
NIEKOMPLETNA_DEFINICJA_TYPU
Niekompletny typ złożony
Aby uzyskać więcej informacji, zobacz INCOMPLETE_TYPE_DEFINITION
NIEKONSEKWENTNE_ZACHOWANIE_WERSJE_KRZYŻOWE
Może być wyświetlony inny wynik na skutek aktualizacji
Więcej szczegółów można znaleźć w INCONSISTENT_BEHAVIOR_CROSS_VERSION
NIEWŁAŚCIWA_LICZBA_ARGUMENTÓW
<failure>, <functionName> wymaga co najmniej <minArgs> argumentów i co najwyżej <maxArgs> argumentów.
NIEWŁAŚCIWA_SZYBKOŚĆ_NARASTANIA
Maksymalna przesunięcie przy <rowsPerSecond> wierszach na sekundę to <maxSeconds>, ale 'rampUpTimeSeconds' wynosi <rampUpTimeSeconds>.
NIEOKREŚLONA PORZĄDKOWOŚĆ
Nie można określić, które sortowanie ma być używane dla operacji na ciągach znaków. Użyj klauzuli COLLATE, aby jawnie ustawić sortowanie.
NIEOKREŚLONA_KONFLIKTOWA_KOLEJNOŚĆ_W_WYRAŻENIU
Typ danych <expr> ma nieokreślone sortowanie. Użyj klauzuli COLLATE, aby jawnie ustawić sortowanie.
NIEOKREŚLONA KOLEJNOŚĆ W SCHEMACIE
Schemat zawiera nieokreślone sortowanie w: [<columnPaths>]. Użyj klauzuli COLLATE, aby jawnie ustawić sortowanie.
INDEKS_JUŻ_ISTNIEJE
Nie można utworzyć indeksu <indexName> w tabeli <tableName>, ponieważ już istnieje.
Nie znaleziono indeksu
Nie można odnaleźć indeksu <indexName> w tabeli <tableName>.
INET_FUNCTIONS_NOT_ENABLED
<functionName> jest wyłączona lub nieobsługiwana. Funkcje INET nie są jeszcze publicznie dostępne.
TRIGGER_NIESKOŃCZONEGO_TRANSMITOWANIA_NIEOBSŁUGIWANY
Typ wyzwalacza <trigger> nie jest obsługiwany dla tego typu klastra.
Użyj innego typu wyzwalacza, na przykład AvailableNow, Once.
INSERT_COLUMN_ARITY_MISMATCH
Nie można zapisać do <tableName>, powodem jest
Aby uzyskać więcej informacji, zobacz INSERT_COLUMN_ARITY_MISMATCH
INSERT_PARTITION_COLUMN_ARITY_MISMATCH (niespójność liczby kolumn wstawianych do partycji)
Nie można zapisać do '<tableName>', <reason>:
Kolumny tabeli: <tableColumns>.
Kolumny partycji z wartościami statycznymi: <staticPartCols>.
Kolumny danych: <dataColumns>.
INSERT_REPLACE_USING_DISALLOW_MISALIGNED_COLUMNS
Wszystkie kolumny w klauzuli USING muszą znajdować się w tej samej pozycji zarówno w schemacie docelowym, jak i źródłowym.
USING Klauzula zawierająca nieprawidłowo wyrównane kolumny nie jest obsługiwana.
Następujące kolumny są nieprawidłowo wyrównane: <misalignedReplaceUsingCols>
WSTAW/ZAMIEŃ PRZY UŻYCIU NIEPRAWIDŁOWEGO ZESTAWU KOLUMN
Tabela musi być podzielona na partycje, a wszystkie określone kolumny muszą reprezentować pełny zestaw kolumn partycji tabeli.
Następujące kolumny nie są kolumnami partycji: <nonPartitionColumns>
Brak następujących kolumn partycji: <missingPartitionsColumns>
WSTAW_ZAMIANA_USING_NIE_WŁĄCZONA
Skontaktuj się z przedstawicielem usługi Databricks, aby włączyć INSERT INTO...REPLACE USING funkcję (...) .
NIEWYSTARCZAJĄCE_UPRAWNIENIA
Niewystarczające uprawnienia:
<report>
Niewystarczające uprawnienia
Użytkownik <user> ma niewystarczające uprawnienia do lokalizacji zewnętrznej <location>.
NIEWYSTARCZAJĄCE_UPRAWNIENIA_BRAK_WŁAŚCICIELA
Brak właściciela dla <securableName>. Poproś administratora o ustawienie właściciela.
NIEWYSTARCZAJĄCE_UPRAWNIENIA_WŁASNOŚCI_DO_ZABEZPIECZENIA
Użytkownik nie jest właścicielem <securableName>.
NIEWYSTARCZAJĄCE_UPRAWNIENIA_DO_ZABEZPIECZENIA
Użytkownik nie ma uprawnień <action> na <securableName>.
NIEWYSTARCZAJĄCE_UPRAWNIENIA_WŁAŚCICIELA_SEKURABLE_PARENT
Właściciel <securableName> różni się od właściciela <parentSecurableName>.
Nieodpowiednie_uprawnienia_Client_spark_connect_do_ustawienia_czas_retencji_cloudfetch
Klient nie ma uprawnień do ustawiania niestandardowego limitu czasu przechowywania dla wyników cloudFetch.
Niewystarczające uprawnienia do przechowywania poświadczeń
Poświadczenie magazynu <credentialName> ma niewystarczające uprawnienia.
Niewystarczające uprawnienia dla podstawowych elementów zabezpieczających
Użytkownik nie może <action> na <securableName> z powodu uprawnień do podstawowych obiektów zabezpieczeń.
NIEWYSTARCZAJĄCE_UPRAWNIENIA_PODLEGAJĄCE_ZABEZPIECZENIOM_SZCZEGÓŁOWE
Użytkownik nie może <action> na <securableName> z powodu uprawnień do podstawowych składników zabezpieczeń.
<underlyingReport>
PRZEPEŁNIENIE ARYTMETYKI PRZEDZIAŁOWEJ
Przepełnienie liczb całkowitych podczas pracy z interwałami.
Aby uzyskać więcej informacji, zobacz INTERVAL_ARITHMETIC_OVERFLOW
PRZEDZIAŁ_DZIELONY_PRZEZ_ZERO
Dzielenie według zera. Użyj try_divide, aby obsłużyć przypadek, gdy dzielnik wynosi 0 i zwrócić zamiast tego NULL.
NIEPRAWIDŁOWY_FILTR_AGREGATU
Wyrażenie FILTER<filterExpr> w funkcji agregującej jest nieprawidłowe.
Aby uzyskać więcej informacji, zobacz INVALID_AGGREGATE_FILTER
NIEWAŻNY_AGNOSTYCZNY_KODER
Znaleziono nieprawidłowy niezwiązany koder. Oczekuje wystąpienia AgnosticEncoder, ale dostał <encoderType>. Aby uzyskać więcej informacji, zobacz "<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html".
INVALID_ARRAY_INDEX (nieprawidłowy indeks tablicy)
Indeks <indexValue> jest poza granicami. Tablica ma <arraySize> elementów. Użyj funkcji SQL get(), aby tolerować dostęp do elementu w nieprawidłowym indeksie i zwracać NULL zamiast tego.
Aby uzyskać więcej informacji, zobacz INVALID_ARRAY_INDEX
NIEPRAWIDŁOWY_INDEKS_TABLICY_W_ELEMENCIE_AT
Indeks <indexValue> jest poza granicami. Tablica ma <arraySize> elementów. Użyj try_element_at, aby tolerować dostęp do elementu w nieprawidłowym indeksie i zamiast tego zwracać NULL.
Aby uzyskać więcej szczegółów, zobacz INVALID_ARRAY_INDEX_IN_ELEMENT_AT
INVALID_ARTIFACT_PATH
Artefakt o nazwie <name> jest nieprawidłowy. Nazwa musi być ścieżką względną i nie może odwoływać się do katalogów nadrzędnych/równorzędnych/siostrzeńców.
NIEPRAWIDŁOWA_SKŁADNIA_NAZWY_ATTRYBUTU
Błąd składniowy w nazwie atrybutu: <name>. Sprawdź, czy backticks występują w parach, ciąg cytowany jest pełną częścią nazwy i używaj backticków tylko wewnątrz cytowanych części nazw.
INVALID_AUTO_TTL_EXPIRE_IN_DAYS
Liczba dni określona dla automatycznego czasu wygaśnięcia musi być nieujemna.
NIEPRAWIDŁOWE_UWIERZYTELNIENIE_AWS
Wybierz dokładnie jedną z następujących metod uwierzytelniania:
Podaj nazwę poświadczeń usługi Databricks (
<serviceCredential>) (jako opcję strumienia Spark lub jako zmienną środowiskową klastra).Podaj zarówno klucz dostępu platformy AWS (
<awsAccessKey>), jak i klucz SecretAccessKey (<awsSecretKey>) do używania kluczy platformy AWS.Nie podaj ani kluczy platformy AWS, ani poświadczeń usługi Databricks, aby użyć domyślnego łańcucha dostawców poświadczeń platformy AWS na potrzeby uwierzytelniania Kinesis.
NIEWAŻNE_AWS_UWIERZYTELNIENIE_OPCJE_JAWNE
Podaj nazwę poświadczenia lub nazwę usługi Databricks (<serviceCredential>)
LUB zarówno <awsAccessKey>, jak i <awsSecretKey>
NIEPRAWIDŁOWA_POZYCJA_BITMAPY
Pozycja bitmapy indeksowanej od 0, <bitPosition>, znajduje się poza granicami. Mapa bitowa ma <bitmapNumBits> bity (<bitmapNumBytes> bajty).
Nieprawidłowe wyrażenie logiczne
Oczekiwano wyrażenia logicznego w warunku, ale znaleziono <invalidStatement>.
NIEPRAWIDŁOWA GRANICA
Granica <boundary> jest nieprawidłowa: <invalidValue>.
Aby uzyskać więcej informacji, zobacz INVALID_BOUNDARY
Nieprawidłowy typ danych kolumny segmentu
Nie można użyć <type> dla kolumny kubełkowej. Zestawione typy danych nie są obsługiwane w przypadku segmentacji.
INVALID_BUCKET_COUNT
Liczba zasobników powinna być większa niż 0, ale mniejsza lub równa zasobnikom.maxBuckets (<bucketingMaxBuckets>). Masz plik <numBuckets>.
NIEPRAWIDŁOWY_PLIK_BUCKET
Nieprawidłowy plik zasobnika: <path>.
Nieprawidłowy_ciąg_bajtów
Oczekiwany format to ByteString, ale to <unsupported> (<class>).
INVALID_CIDR_RANGE
Funkcja <functionName> otrzymała nieprawidłowy zakres CIDR: <value>.
INVALID_CLONE_SESSION_REQUEST
Nieprawidłowe żądanie klonowania sesji.
Aby uzyskać więcej informacji, zobacz INVALID_CLONE_SESSION_REQUEST
NIEPRAWIDŁOWA_NAZWA_KOLUMNY_JAKO_ŚCIEŻKA
Źródło danych <datasource> nie może zapisać kolumny <columnName>, ponieważ jego nazwa zawiera niektóre znaki, które nie są dozwolone w ścieżkach plików. Użyj aliasu, aby zmienić jego nazwę.
NIEPRAWIDŁOWY_TYP_DANYCH_KOLUMNY_LUB_POLA
Kolumna lub pole <name> jest typu <type>, choć powinno być <expectedType>.
Nieprawidłowa_Wartość_Konfiguracji
Wartość "<confValue>" w konfiguracji "<confName>" jest nieprawidłowa.
Aby uzyskać więcej informacji, zobacz INVALID_CONF_VALUE
INVALID_CONSTRAINT_CHARACTERISTICS
Charakterystyki ograniczeń [<characteristics>] są duplikowane lub powodują konflikt ze sobą.
NIEPRAWIDŁOWY_USZKODZONY_TYP_REKORDU
Kolumna <columnName> dla uszkodzonych rekordów musi mieć typ STRING zezwalający na wartości null, otrzymano jednak <actualType>.
NIEPRAWIDŁOWE_UŻYCIE_AKTUALNEGO_ODBIORCY
Funkcji current_recipient można używać tylko w instrukcji CREATE VIEW lub instrukcji ALTER VIEW w celu zdefiniowania widoku wyłącznie do udostępniania w Unity Catalogu.
Nieprawidłowy_kursor
Kursor jest nieprawidłowy.
Aby uzyskać więcej informacji, zobacz INVALID_CURSOR
INVALID_DATASOURCE_FORMAT_FOR_CONNECTION_OPTIONS_INJECTION
Połączenie z nazwą <connectionName> i typem <connectionType> nie obsługuje formatu <actualFormat>. Obsługiwany format: <expectedFormat>.
INVALID_DATASOURCE_OPTION_OVERRIDE_ATTEMPT
Opcja <optionName> już istnieje w połączeniu <connectionName> i nie można jej zastąpić.
NIEWŁAŚCIWY_WZORZEC_DATY_CZASU
Nierozpoznany wzorzec daty/godziny: <pattern>.
Aby uzyskać więcej informacji, zobacz INVALID_DATETIME_PATTERN
INVALID_DBFS_MOUNT
Nie można uzyskać dostępu do instalacji systemu plików DBFS.
Aby uzyskać więcej informacji, zobacz INVALID_DBFS_MOUNT
INVALID_DBSQL_CONFIG
<confValue> nie jest obsługiwana w przypadku klucza konfiguracji SQL <confKey>
NIEPRAWIDŁOWA_WARTOŚĆ_DOMYŚLNA
Nie można wykonać polecenia <statement>, ponieważ kolumna docelowa lub zmienna <colName> ma wartość DEFAULT<defaultValue>,
Aby uzyskać więcej informacji, zobacz INVALID_DEFAULT_VALUE
NIEPRAWIDŁOWA_WARTOŚĆ_ODDZIELA
Nieprawidłowa wartość ogranicznika.
Aby uzyskać więcej informacji, zobacz INVALID_DELIMITER_VALUE
NIEPRAWIDŁOWY_KATALOG_DOC
Katalog docelowy polecenia SYNC musi znajdować się w Unity Catalog. Znaleziono <catalog>.
NIEPRAWIDŁOWA_PAMIĘĆ_STEROWNIKA
Pamięć systemowa <systemMemory> musi mieć co najmniej <minSystemMemory>.
Zwiększ rozmiar sterty przy użyciu opcji --driver-memory lub "<config>" w konfiguracji Spark.
INVALID_DROP_TABLE_OPTIONS
Nie można określić opcji PURGE i FORCE w DROP TABLE poleceniu . Użyj wartości PURGE lub FORCE, ale nie obu tych elementów.
NIEPRAWIDŁOWE_DYNAMICZNE_OPCJE
Opcje przekazane <option_list> są niedozwolone dla tabeli obcej <table_name>.
NIEWAŻNA_PUSTA_LOKALIZACJA
Nazwa lokalizacji nie może być pusta, ale podano <location>.
INVALID_ENVIRONMENT_SETTINGS_DEPENDENCIES
Brak parametru zależności ustawień środowiska lub nie można go przeanalizować na liście ciągów. Oczekiwany format: ["dep1", "dep2"]
INVALID_ENVIRONMENT_SETTINGS_ENVIRONMENT_VERSION
Ta wersja środowiska uruchomieniowego nie obsługuje wersji środowiska dla źródeł danych. Wartość: <environmentVersion>.
NIEPRAWIDŁOWA_DEKLARACJA_KONDYCJI_BŁĘDU
Nieprawidłowa deklaracja warunku.
Aby uzyskać więcej informacji, zapoznaj się z INVALID_ERROR_CONDITION_DECLARATION
NIEPRAWIDŁOWY_ESC
Znaleziono nieprawidłowy łańcuch ucieczki: <invalidEscape>. Ciąg znaków ucieczki musi zawierać tylko jeden znak.
NIEWAŻNY_ZNAK_UCIECZKI
EscapeChar powinien być literałem znakowym o długości jeden, ale ma długość <sqlExpr>.
NIEPRAWIDŁOWA_PAMIĘĆ_WYKONAWCY
Pamięć wykonawcy <executorMemory> musi wynosić co najmniej <minSystemMemory>.
Zwiększ pamięć funkcji wykonawczej przy użyciu opcji --executor-memory lub "<config>" w konfiguracji platformy Spark.
NIEPRAWIDŁOWY_KODER_WYRAŻEŃ
Znaleziono nieprawidłowy koder wyrażeń. Oczekuje się wystąpienia ExpressionEncoder, ale otrzymano <encoderType>. Aby uzyskać więcej informacji, zobacz "<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html".
INVALID_EXPR_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE
Typ wyrażenia musi być typem ciągu, ale ma wartość <exprType>.
NIEPRAWIDŁOWY_TYP_ZEWNĘTRZNY
Typ zewnętrzny <externalType> jest nieprawidłowy dla typu <type> w wyrażeniu <expr>.
INVALID_EXTRACT_BASE_FIELD_TYPE (Nieprawidłowy typ pola bazowego dla wyodrębnienia)
Nie można wyodrębnić wartości z <base>. Potrzebujesz typu złożonego [STRUCT, ARRAY, MAP], ale ma wartość <other>.
NIEPRAWIDŁOWE_POLE_EKSTRAKCJI
Nie można wyodrębnić <field> z <expr>.
NIEPRAWIDŁOWY_TYP_POLA_WYODRĘBNIANIA
Nazwa pola powinna być niepustym literałem tekstowym, ale jest <extraction>.
NIEPRAWIDŁOWA_NAZWA_POLA
Nazwa pola <fieldName> jest nieprawidłowa: <path> nie jest strukturą.
INVALID_FLOW_QUERY_TYPE
Przepływ <flowIdentifier> zwraca nieprawidłowy typ relacji.
Aby uzyskać więcej informacji, zobacz INVALID_FLOW_QUERY_TYPE
Niepoprawny_Format
Format jest nieprawidłowy: <format>.
Aby uzyskać więcej informacji, zobacz INVALID_FORMAT
NIEPRAWIDŁOWA CZĘŚĆ SEKUNDY
Prawidłowy zakres dla sekund to [0, 60] (włącznie), ale podana wartość jest <secAndMicros>. Aby uniknąć tego błędu, użyj try_make_timestamp, która zwraca NULL w przypadku błędu.
Jeśli nie chcesz używać domyślnej wersji znacznika czasu sesji tej funkcji, użyj try_make_timestamp_ntz lub try_make_timestamp_ltz.
NIEPRAWIDŁOWE_UŻYCIE_GET_DIAGNOSTICS
Nieprawidłowe użycie instrukcji GETDIAGNOSTICS .
Aby uzyskać więcej informacji, zobacz INVALID_GET_DIAGNOSTICS_USAGE
INVALID_GET_DIAGNOSTICS_UŻYCIE_WARUNKU_NUMER_MUSI_BYĆ_RÓWNY_JEDEN
Nieprawidłowe użycie instrukcji GETDIAGNOSTICS . Jedyną obsługiwaną wartością liczby warunku w instrukcji GETDIAGNOSTICS jest 1.
NIEPRAWIDŁOWY_UCHWYT
Uchwyt <handle> jest nieprawidłowy.
Aby uzyskać więcej informacji, zobacz INVALID_HANDLE
NIEPRAWIDŁOWA_DEKLARACJA_OBSERWATORA
Nieprawidłowa deklaracja obsługi.
Aby uzyskać więcej informacji, zobacz INVALID_HANDLER_DECLARATION
NIEPRAWIDŁOWA_METODA_ŻĄDANIA_HTTP
Parametr wejściowy: metoda, wartość: <paramValue> nie jest prawidłowym parametrem dla http_request, ponieważ nie jest to prawidłowa metoda HTTP.
Nieprawidłowa ścieżka żądania HTTP
Parametr wejściowy: ścieżka, wartość: <paramValue> nie jest prawidłowym parametrem dla http_request, ponieważ przechodzenie ścieżki jest niedozwolone.
NIEPRAWIDŁOWY_IDENTYFIKATOR
Identyfikator bez cudzysłów <ident> jest nieprawidłowy i musi zostać zwrócony jako: <ident>.
Identyfikatory bez znaków cudzysłowu mogą zawierać tylko litery ('a' — 'z', 'A' - 'Z'), cyfry ('0' - '9') i podkreślenie ('_').
Identyfikatory bez cudzysłów nie mogą również rozpoczynać się od cyfry.
Różne źródła danych i magazyny metadanych mogą nakładać dodatkowe ograniczenia dotyczące prawidłowych identyfikatorów.
NIEPRAWIDŁOWY_INDEKS_ZERO
Indeks 0 jest nieprawidłowy. Indeks musi mieć wartość < 0 or > 0 (pierwszy element ma indeks 1).
NIEPRAWIDŁOWA_TABELA_W_LINII
Nieprawidłowa tabela śródliniowa.
Aby uzyskać więcej informacji, zobacz INVALID_INLINE_TABLE
NIEPRAWIDŁOWY_FORMAT_PRZEDZIAŁU
Błąd podczas analizowania "<input>" na interwał. Upewnij się, że podana wartość jest w prawidłowym formacie definiowania interwału. Możesz odwołać się do dokumentacji dotyczącej poprawnego formatu.
Aby uzyskać więcej informacji, zobacz INVALID_INTERVAL_FORMAT
NIEPRAWIDŁOWY_PRZEDZIAŁ_Z_DODANIEM_MIKROSEKUND
Nie można dodać interwału do daty, ponieważ jego część mikrosekund nie jest równa 0. Aby rozwiązać ten problem, rzutuj datę wejściową na znacznik czasu, który obsługuje dodawanie interwałów z niezerowymi mikrosekundami.
INVALID_IP_ADDRESS
Funkcja <functionName> otrzymała nieprawidłowy adres IP: <value>.
INVALID_IP_ADDRESS_OR_CIDR_RANGE
Funkcja <functionName> otrzymała nieprawidłowy adres IP lub zakres CIDR: <value>.
INVALID_JAVA_IDENTIFIER_AS_FIELD_NAME (Nieprawidłowy identyfikator Java jako nazwa pola)
<fieldName> nie jest prawidłowym identyfikatorem języka Java i nie można go użyć jako nazwy pola
<walkedTypePath>.
Nieprawidłowa opcja połączenia JDBC
Opcja <optionKey> nie jest prawidłowym parametrem dla tego połączenia jdbc.
Nieprawidłowa wartość opcji połączenia JDBC
Opcja <optionKey> z wartością <optionValue> nie jest prawidłową opcją dla tego połączenia jdbc.
INVALID_JOIN_TYPE_FOR_JOINWITH (Nieprawidłowy typ połączenia dla JOINWITH)
Nieprawidłowy typ łączenia w funkcji joinWith: <joinType>.
NIEPRAWIDŁOWY_TYP_DANYCH_JSON
Nie można przekonwertować JSON ciągu "<invalidType>" na typ danych. Wprowadź prawidłowy typ danych.
NIEPRAWIDŁOWY_TYP_DANYCH_JSON_DLA_KOLACJI
Sortowania można stosować tylko do typów ciągów, ale JSON typ danych to <jsonType>.
NIEPRAWIDŁOWY_TYP_REKORDU_JSON
Wykryto nieprawidłowy typ rekordu JSON podczas wnioskowania wspólnego schematu w trybie <failFastMode>. Oczekiwano typu STRUCT, ale znaleziono <invalidType>.
INVALID_JSON_ROOT_FIELD (nieprawidłowe pole główne JSON)
Nie można przekonwertować JSON pola głównego na docelowy typ platformy Spark.
NIEPRAWIDŁOWY_TYP_MAPY_SCHEMATU_JSON
Schemat wejściowy <jsonSchema> może zawierać tylko STRING jako typ klucza dla MAP.
NIEPRAWIDŁOWY_ROZMIAR_BUFORA_SERIALIZATORA_KRYO
Wartość konfiguracji "<bufferSizeConfKey>" musi być mniejsza niż 2048 MiB, ale ma <bufferSizeConfValue> MiB.
INVALID_KRYO_SERIALIZER_NO_DATA
Obiekt "<obj>" jest nieprawidłowy lub źle sformułowany do <serdeOp> używania polecenia <serdeClass>.
NIEPRAWIDŁOWE_UŻYCIE_ETYKIETY
Użycie etykiety <labelName> jest nieprawidłowe.
Aby uzyskać więcej informacji, zobacz INVALID_LABEL_USAGE
Nieprawidłowe_wywołanie_funkcji_lambda
Nieprawidłowe wywołanie funkcji lambda.
Aby uzyskać więcej informacji, zobacz INVALID_LAMBDA_FUNCTION_CALL
Nieprawidłowy_typ_łączenia_bocznego
<joinType>
JOIN z korelacją LATERAL nie jest dozwolona, ponieważ podzapytanie OUTER nie może być skorelowane z partnerem dołączania. Usuń korelację LATERAL lub zamiast tego użyj INNERJOINlub OUTERJOIN LEFT.
NIEWAŻNE_WYRAŻENIE_LIMITU_LIKE
Wyrażenie podobne do limitu <expr> jest nieprawidłowe.
Aby uzyskać więcej informacji, zobacz INVALID_LIMIT_LIKE_EXPRESSION
NIEPRAWIDŁOWA_WERSJA_DZIENNIKA
Nieobsługiwana wersja LogVersion.
Aby uzyskać więcej informacji, zobacz INVALID_LOG_VERSION
NIEPRAWIDŁOWA_NAZWA_W_UŻYCIU_POLECENIE
Nieprawidłowa nazwa "<name>" w <command> poleceniu. Przyczyna: <reason>
NIEPRAWIDŁOWA_NIEBEZWZGLĘDNA_ŚCIEŻKA
Nie można zakwalifikować podanej ścieżki nie bezwzględnej <path>. Zaktualizuj ścieżkę tak, aby była prawidłową lokalizacją instalacji systemu dbfs.
NIEPRAWIDŁOWE_NIEDETERMINISTYCZNE_WYRAŻENIA
Operator oczekuje wyrażenia deterministycznego, ale rzeczywiste wyrażenie jest <sqlExprs>.
NIEPRAWIDŁOWY_ZAKRES_CYFR
Literał liczbowy <rawStrippedQualifier> znajduje się poza prawidłowym zakresem dla <typeName> z minimalną wartością <minValue> i maksymalną wartością <maxValue>. Dostosuj odpowiednio wartość.
NIEWAŻNE_OBSERWOWANE_METRYKI
Nieprawidłowe zaobserwowane metryki.
Aby uzyskać więcej informacji, zobacz INVALID_OBSERVED_METRICS
NIEPRAWIDŁOWE_OPCJE
Nieprawidłowe opcje:
Aby uzyskać więcej informacji, zapoznaj się z INVALID_OPTIONS
NIEWŁAŚCIWE UMIESZCZENIE PANDAS UDF
Grupowa funkcja agregująca pandas UDF <functionList> nie może być wywoływana razem z innymi funkcjami agregującymi, które nie są funkcjami pandas.
NIEPRAWIDŁOWA_WARTOŚĆ_ZNACZNIKA_PARAMETRU
Podano nieprawidłowe mapowanie parametrów:
Aby uzyskać więcej informacji, zobacz INVALID_PARAMETER_MARKER_VALUE
INVALID_PARAMETER_VALUE
Wartość parametrów <parameter> w <functionName> jest nieprawidłowa:
Aby uzyskać więcej informacji, zobacz INVALID_PARAMETER_VALUE
NIEWŁAŚCIWY_TYP_DANYCH_KOLUMNY_PARTYCJI
Nie można użyć <type> dla kolumny partycji.
NIEPRAWIDŁOWA_OPERACJA_PARTYCJI
Komenda partycjonowania jest nieprawidłowa.
Aby uzyskać więcej informacji, odwiedź INVALID_PARTITION_OPERATION
NIEPRAWIDŁOWA_WARTOŚĆ_PARTYCJI
Nie można rzutować wartości <value> na typ danych <dataType> dla kolumny partycji <columnName>. Upewnij się, że wartość jest zgodna z oczekiwanym typem danych dla tej kolumny partycji.
NIEPRAWIDŁOWE_PIPELINE_ID
Identyfikator potoku <pipelineId> jest nieprawidłowy.
Identyfikator potoku powinien być UUID w formacie 'xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx'
Nieprawidłowe uprawnienie
Privilege <privilege> nie jest ważny dla <securable>.
NIEPRAWIDŁOWY_KLUCZ_WŁAŚCIWOŚCI
<key> jest nieprawidłowym kluczem właściwości, użyj cudzysłowów, na przykład SET <key>=<value>.
NIEPRAWIDŁOWA_WARTOŚĆ_WŁAŚCIWOŚCI
<value> jest nieprawidłową wartością właściwości, użyj cudzysłowów, na przykład SET <key>=<value>
NIEPRAWIDŁOWA_ZŁOŻONA_NAZWA_KOLUMNY
Nazwa kolumny <columnName> jest nieprawidłowa, ponieważ nie jest opatrzona nazwą tabeli lub składa się z więcej niż 4 części nazw.
NIEPRAWIDŁOWE_ZAPYTANIE_MIESZANE_PARAMETRY_ZAPYTANIA
Zapytanie sparametryzowane musi używać parametrów pozycyjnych lub nazwanych, ale nie obu tych parametrów.
NIEPRAWIDŁOWA_REKURENCYJNA_CTE
Znaleziono nieprawidłową definicję rekursywną. Zapytania cykliczne muszą zawierać instrukcję UNION lub UNION ALL z 2 elementami podrzędnymi. Pierwsze dziecko musi być terminem kotwicy bez żadnych odwołań rekurencyjnych. Każdy wewnętrzny CTE najwyższego poziomu nie może zawierać odwołań do siebie.
NIEPRAWIDŁOWE_REFERENCJE_REKURENCYJNE
Znaleziono nieprawidłowe rekurencyjne odwołanie w klauzuli WITH RECURSIVE.
Aby uzyskać więcej informacji, zobacz INVALID_RECURSIVE_REFERENCE
NIEPRAWIDŁOWA_ZAMIANA_REGEXP
Nie można wykonać regexp_replace dla źródła = "<source>", wzorca = "<pattern>", zamiennika = "<replacement>" i pozycji = <position>.
INVALID_RESETTABLE_DEPENDENCY
Tabele <upstreamResettableTables> są resetowalne, ale mają niezresetowalne zależności podrzędne "<downstreamTable>".
reset usługa nie powiedzie się, ponieważ przesyłanie strumieniowe platformy Spark nie obsługuje usuniętych danych źródłowych. Możesz usunąć <resetAllowedKey>właściwość =false z "<downstreamTable>" lub dodać ją do jej nadrzędnych zależności.
NIEPRAWIDŁOWY_FORMAT_POLECENIA_RESETU
Oczekiwany format to "RESET" lub "RESET-klucz". Jeśli chcesz uwzględnić znaki specjalne w kluczu, użyj cudzysłowów, na przykład RESET key.
NIEPRAWIDŁOWE_UŻYCIE_RESIGNAL
RESIGNAL kiedy obsługujący nie jest aktywny.
RESIGNAL instrukcja może być używana tylko wewnątrz ciała obsługi wyjątków.
Nieprawidłowe poświadczenia kopiowania w S3
COPY INTO poświadczenia muszą zawierać AWS_ACCESS_KEY, AWS_SECRET_KEYwartości , i AWS_SESSION_TOKEN.
NIEPRAWIDŁOWY_TRYB_ZAPISU
Określony tryb zapisywania <mode> jest nieprawidłowy. Prawidłowe tryby zapisywania to: "append", "overwrite", "ignore", "error", "errorifexists" i "default".
NIEPRAWIDŁOWY_SCHEMAT
Schemat wejściowy <inputSchema> nie jest prawidłowym ciągiem schematu.
Aby uzyskać więcej informacji, zobacz INVALID_SCHEMA
NIEPRAWIDŁOWA_NAZWA_SCHEMATU_LUB_RELACJI
<name> nie jest prawidłową nazwą tabel/schematów. Prawidłowe nazwy zawierają tylko znaki alfabetu, cyfry i _.
INVALID_SCHEMA_TYPE_NON_STRUCT
Nieprawidłowy typ schematu. Oczekiwano typu struktury, ale otrzymaliśmy <dataType>wartość .
Nieprawidłowy schemat
Unity Catalog nie obsługuje <name> jako domyślnego schematu pliku.
INVALID_SECRET_LOOKUP
Nieprawidłowy odczyt tajnych danych:
Aby uzyskać więcej informacji, zobacz INVALID_SECRET_LOOKUP
NIEPRAWIDŁOWA_SKŁADNIA_ZESTAWU
Oczekiwany format to "SET", "SET klucz" lub "SET klucz=wartość". Jeśli chcesz uwzględnić znaki specjalne w kluczu lub uwzględnić średnik w wartości, użyj backquotes, na przykład SET key=value.
NIEWAŻNA_WSPÓŁDZIELONA_NAZWA_ALIASU
Nazwa <sharedObjectType> aliasu musi mieć postać "schema.name".
NIEPRAWIDŁOWA_POJEDYNCZA_KOLUMNA_WARIANTU
Określony przez użytkownika schemat <schema> jest nieprawidłowy, gdy singleVariantColumn opcja jest włączona. Schemat musi być polem wariantu lub polem wariantu oraz uszkodzonym polem kolumny.
NIEWAŻNY_KATALOG_ŹRÓDŁOWY
Katalog źródłowy nie może znajdować się w Unity Catalog dla polecenia SYNC. Znaleziono <catalog>.
NIEPRAWIDŁOWE_ŹRÓDŁO_DLA_POLECENIA_ŁĄCZENIA_USŁUGI_FILTROWANIA
Źródło operacji filtrowania usługi MERGE może zawierać tylko projekcje i filtry.
Proszę dostosować polecenie MERGE lub użyć tabeli przejściowej jako źródła.
<stmt>
Nieprawidłowa_Konfiguracja_SPARC
Nieprawidłowa konfiguracja platformy Spark:
Aby uzyskać więcej informacji, zobacz INVALID_SPARK_CONFIG
INVALID_SQLSTATE
Nieprawidłowa SQLSTATE wartość: "<sqlState>".
SQLSTATE musi mieć długość dokładnie 5 znaków i zawierać tylko znaki A-Z i 0-9.
SQLSTATE nie może zaczynać się od "00", "01" lub "XX".
INVALID_SQL_ARG (Nieprawidłowy argument SQL)
Argument <name> w sql() jest nieprawidłowy. Rozważ zastąpienie go literałem SQL lub funkcjami konstruktora kolekcji, takimi jak map(), array(), struct().
INVALID_SQL_FUNCTION_DATA_ACCESS
Nie można utworzyć funkcji SQL z CONTAINS bazą danych SQL, która uzyskuje dostęp do tabeli/widoku lub funkcji SQL, która odczytuje dane SQL. Zamiast tego użyj usługi READS SQL DATA.
NIEPRAWIDŁOWA_SKŁADNIA_SQL
Nieprawidłowa składnia SQL:
Aby uzyskać więcej informacji, zobacz INVALID_SQL_SYNTAX
NIEPRAWIDŁOWA_ŚCIEŻKA_W_ETAPIE_DOSTĘPU_DO_ETAPU
Nieprawidłowa ścieżka stagingowa w zapytaniu stagingowym <operation>: <path>
NIEPRAWIDŁOWA_INSTRUKCJA_DLA_EXECUTE_INTO
Klauzula INTO z EXECUTE IMMEDIATE jest prawidłowa tylko dla zapytań, ale dane wyrażenie nie jest zapytaniem: <sqlString>.
NIEPRAWIDŁOWE_WYRAŻENIE_LUB_KLAUZULA
Oświadczenie lub klauzula: <operation> jest nieprawidłowa.
INVALID_STREAMING_RATE_SOURCE_VERSION
Nieprawidłowa wersja źródła stawki: <version>. Wersja musi mieć wartość 1 lub 2.
NIEPRAWIDŁOWY_INTERWAŁ_WYZWALANIA_STRUMIENIOWEGO_CZASU_RZECZYWISTEGO
Interwał wyzwalacza w czasie rzeczywistym jest ustawiony na <interval> ms. Jest to mniej niż minimalna wartość <minBatchDuration> ms określona przez spark.databricks.streaming.realTimeMode.minBatchDuration.
NIEPRAWIDŁOWY_STREAMING_TRYB_REAL_TIME_WYMUSZENIE_INTERWAŁU_TRIGGERA
Nie można przeanalizować interwału punktu kontrolnego wyzwalacza w czasie rzeczywistym <interval>. Proszę sprawdzić, czy została podana dodatnia liczba całkowita.
NIEPRAWIDŁOWE_WYRAŻENIE_PODZAPYTU
Nieprawidłowe podzapytanie.
Aby uzyskać więcej informacji, zobacz INVALID_SUBQUERY_EXPRESSION
Niepoprawny cel dla komendy ALTER.
ALTER <commandTableType>
...
<command> program nie obsługuje <tableName>. Zamiast tego użyj polecenia ALTER <targetTableType>...<command> .
NIEWŁAŚCIWY_CEL_DLA_POLECENIA_SET_TBLPROPERTIES
ALTER <commandTableType>
...
SET TBLPROPERTIES program nie obsługuje <tableName>. Zamiast tego użyj polecenia ALTER <targetTableType>...SET TBLPROPERTIES .
NIEPRAWIDŁOWE_ODWOŁANIE_DO_OBIEKTU_TYMCZASOWEGO
Nie można utworzyć obiektu trwałego <objName> typu <obj>, ponieważ odwołuje się do obiektu tymczasowego <tempObjName> typu <tempObj>. Utwórz obiekt tymczasowy <tempObjName> trwały lub utwórz obiekt trwały <objName> tymczasowy.
NIEPRAWIDŁOWY_FORMAT_ZNACZNIKA_CZASU
Podany znacznik <timestamp> czasu nie jest zgodny z oczekiwaną składnią <format>.
NIEPRAWIDŁOWA_STREFA_CZASOWA
Strefa czasowa: <timeZone> jest nieprawidłowa. Strefa czasowa musi być identyfikatorem strefy opartej na regionie lub przesunięciem czasowym. Identyfikatory regionów muszą mieć postać "obszar/miasto", na przykład "Ameryka/Los_Angeles". Przesunięcia strefy muszą mieć format "(+|-)HH", "(+|-)HH:mm" lub "(+|-)HH:mm:ss", np. "-08", "+01:00" lub "-13:33:33" i muszą znajdować się w zakresie od -18:00 do +18:00. "Z" i "UTC" są akceptowane jako synonimy dla "+00:00".
NIEPRAWIDŁOWA_SPECYFIKACJA_PODRÓŻY_W_CZASIE
Nie można określić zarówno wersji, jak i znacznika czasu podczas analizowania tabeli w przeszłości.
NIEPRAWIDŁOWE_WYRAŻENIE_ZNACZNIKA_CZASOWEGO_PODRÓŻY_W_CZASIE
Wyrażenie znacznika czasu podróży w czasie <expr> jest niepoprawne.
Aby uzyskać więcej informacji, zobacz INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
NIEPRAWIDŁOWA_LITERAŁ_TYPOWANY
Wartość wpisanego literału <valueType> jest nieprawidłowa: <value>.
NIEPRAWIDŁOWA_IMPLEMENTACJA_UDF
Funkcja <funcName> nie implementuje funkcji ScalarFunction ani AggregateFunction.
NIEPRAWIDŁOWA_SKŁADNIA_AKTUALIZACJI
<command> <supportedOrNot> tabela źródłowa znajduje się w Hive Metastore, a tabela docelowa znajduje się w Unity Catalog.
INVALID_URL
Adres URL jest nieprawidłowy: <url>. Użyj try_parse_url, aby tolerować nieprawidłowy adres URL i zwracać NULL zamiast tego.
Niewłaściwe użycie gwiazdki lub wyrażenia regularnego
Nieprawidłowe użycie <elem> w <prettyName>.
Nieprawidłowy ciąg UTF8
Znaleziono nieprawidłową sekwencję bajtów UTF8 w ciągu: <str>.
NIEPRAWIDŁOWY_UUID
Wartość <uuidInput> nie jest prawidłowym identyfikatorem UUID.
Identyfikator UUID powinien mieć format "xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxx"
Sprawdź format identyfikatora UUID.
NIEPRAWIDŁOWA_DEKLARACJA_ZMIENNEJ
Nieprawidłowa deklaracja zmiennej.
Aby uzyskać więcej szczegółów, zobacz INVALID_VARIABLE_DECLARATION
NIEPRAWIDŁOWE_RZUTOWANIE_VARIANTU
Nie można rzutować wartości wariantu <value> na <dataType>. Zamiast tego użyj try_variant_get.
Nieprawidłowy wariant z Parquet
Nieprawidłowy wariant.
Aby uzyskać więcej szczegółów, zobacz INVALID_VARIANT_FROM_PARQUET
NIEPRAWIDŁOWY_WARIANT_POBIERZ_ŚCIEŻKĘ
Ścieżka <path> nie jest prawidłową ścieżką wyodrębniania wariantów w <functionName>.
Prawidłowa ścieżka powinna zaczynać się od $ i następuje zero lub więcej segmentów, takich jak [123], .name, ['name'], lub ["name"].
NIEPRAWIDŁOWY_SCHEMAT_NISZCZENIA_WARIANTU
Schemat <schema> nie jest prawidłowym schematem rozdrabniania wariantów.
NIEPRAWIDŁOWY_WARUNEK_WHERE
Warunek WHERE<condition> zawiera nieprawidłowe wyrażenia: <expressionList>.
Zapisz ponownie zapytanie, aby uniknąć funkcji okien, funkcji agregujących i funkcji generatora w klauzuli WHERE.
NIEPRAWIDŁOWA_SPECYFIKACJA_OKNA_DLA_FUNKCJI_AGREGUJĄCEJ
Nie można określić ORDER BY ani ramy okna dla <aggFunc>.
NIEPRAWIDŁOWE_WYRAŻENIE_W_GRUPIE
Nieprawidłowa funkcja <funcName> z WITHIN GROUP.
Aby uzyskać więcej informacji, zobacz INVALID_WITHIN_GROUP_EXPRESSION
NIEPRAWIDŁOWA_WIADOMOŚĆ_WPISU_AUTORA
Program źródła danych wygenerował nieprawidłową liczbę wiadomości zatwierdzenia. Oczekiwano dokładnie jednej wiadomości zatwierdzenia od każdego zadania, ale otrzymano <detail>.
NIEPRAWIDŁOWY ROZKŁAD ZAPISU
Żądana dystrybucja zapisu jest nieprawidłowa.
Aby uzyskać więcej szczegółowych informacji, zobacz INVALID_WRITE_DISTRIBUTION
IRC_CREDENTIAL_VENDING_ERROR
Wystąpił błąd podczas nawiązywania połączenia z hostem IRC, który nie może uzyskać poświadczeń automatu dla tabeli <tableIdentifier>.
Aby uzyskać więcej informacji, zobacz IRC_CREDENTIAL_VENDING_ERROR
IZOLOWANA_AWARIA_POLECENIA
Nie udało się wykonać <command>. Dane wyjściowe polecenia:
<output>
IZOLOWANA_KOMENDA_NIEZNANA_AWARIA
Nie udało się wykonać <command>.
ISOLATION_ENVIRONMENT_ERROR
Nie można zainstalować zależności środowiska z <name> powodu błędu systemu.
Aby uzyskać więcej informacji, zobacz ISOLATION_ENVIRONMENT_ERROR
ISOLATION_ENVIRONMENT_USER_ERROR
Nie można zainstalować zależności środowiska dla programu <name>.
Aby uzyskać więcej informacji, zobacz ISOLATION_ENVIRONMENT_USER_ERROR
JDBC_EXTERNAL_ENGINE_SYNTAX_ERROR
Błąd składni aparatu zewnętrznego JDBC. Błąd został spowodowany przez zapytanie <jdbcQuery>.
<externalEngineError>.
Aby uzyskać więcej informacji, zobacz JDBC_EXTERNAL_ENGINE_SYNTAX_ERROR
WARUNEK_JOIN_NIE_JEST_TYPU_BOOLEAN
Warunek <joinCondition> sprzężenia ma nieprawidłowy typ <conditionType>, a oczekiwany typ to "BOOLEAN".
KAFKA_UTRATA_DANYCH
Niektóre dane mogły zostać utracone, ponieważ nie są one już dostępne na platformie Kafka;
dane zostały usunięte przez mechanizm przeterminowania w platformie Kafka lub temat mógł zostać usunięty, zanim wszystkie dane zostały przetworzone.
temat został przetworzony
Jeśli nie chcesz, aby zapytanie strumieniowe zakończyło się niepowodzeniem w takich przypadkach, ustaw opcję źródła failOnDataLoss na false.
Powód:
Aby uzyskać więcej informacji, zobacz KAFKA_DATA_LOSS
KINESIS_NIE_MOŻE_ODCZYTAĆ_ODŁAMKA_DO_KOŃĆOWEGO_OFFSETU
Nie można odczytać danych dla fragmentu <endSeqNum>, dopóki nie osiągnie się żądanego numeru sekwencji <shardId>.
strumień kinezy <stream> z trybem konsumenta <consumerMode>. Zapytanie zakończy się niepowodzeniem z powodu
potencjalna utrata danych. Ostatni odczytany rekord miał numer sekwencji <lastSeqNum>.
Może się tak zdarzyć, jeśli dane z parametrem endSeqNum zostały już przeterminowane, lub jeśli strumień Kinesis został usunięty.
usunięty i zrekonstruowany z taką samą nazwą. Sposób działania w przypadku błędu może zostać zastąpiony
poprzez ustawienie spark.databricks.kinesis.failOnDataLoss na false w konfiguracji Spark.
KINESIS_EFO_KONSUMENT_NIE_ZNALEZIONY
W strumieniu kinezy <streamId>usunięto wcześniej zarejestrowanego użytkownika EFO <consumerId>.
Uruchom ponownie zapytanie, aby zarejestrować nowego konsumenta.
KINESIS_EFO_PRZEKROCZONY_LIMIT_SUBSKRPCJI
W przypadku fragmentu <shard>, poprzednie wywołanie API subscribeToShard miało miejsce w ciągu 5 sekund od następnego wywołania.
Uruchom ponownie zapytanie po upływie co najmniej 5 sekund.
Brak propozycji tłumaczenia, ponieważ tekst pozostaje specyficznym kodem technicznym.
Minimalne pobrane shardId z Kinesis (<fetchedShardId>)
jest mniejszy niż minimalnie śledzony identyfikator „shardId” (<trackedShardId>).
Jest to nieoczekiwane i występuje, gdy strumień Kinesis zostanie usunięty i utworzony ponownie o tej samej nazwie,
Zapytanie przesyłane strumieniowo, wykorzystujące ten strumień Kinesis, jest ponownie uruchamiane z użyciem istniejącej lokalizacji punktu kontrolnego.
Uruchom ponownie zapytanie przesyłane strumieniowo z nową lokalizacją punktu kontrolnego lub utwórz strumień o nowej nazwie.
Tryb ankietowania Kinesis nieobsługiwany
Tryb sondowania Kinesis jest nieobsługiwany.
Naruszenie porządku numeru sekwencyjnego rekordu Kinesis
W przypadku fragmentu o numerze <shard>, ostatni rekord odczytany z Kinesis w poprzednich pobraniach ma numer sekwencji <lastSeqNum>,
który jest większy niż rekord odczytany w aktualnym pobieraniu z numerem sekwencji <recordSeqNum>.
Jest to nieoczekiwane i może wystąpić, gdy przy inicjalizacji pozycji początkowej ponawiania próby lub kolejnego pobierania wystąpi błąd, co może spowodować zduplikowanie rekordów w dalszym etapie.
ŹRÓDŁO_KINESIS_MUSI_BYĆ_W_MODUSIE_EFO_BY_KONFIGUROWAĆ_KONSUMENTÓW
Aby odczytać ze strumieni Kinesis z konfiguracjami konsumentów (consumerName, consumerNamePrefixlub registeredConsumerId), consumerMode musi być efo.
ŹRÓDŁO_KINESIS_MUSI_OKREŚLIĆ_ZAREJESTROWANE_ID_KONSUMENTA_I_TYP
Aby odczytywać strumienie Kinesis z zarejestrowanymi konsumentami, należy określić opcje registeredConsumerId i registeredConsumerIdType.
ŹRÓDŁO_KINESIS_MUSI_OKREŚLIĆ_NAZWY_STRUMIENIA_LUB_ARNS
Aby odczytać ze strumieni Kinesis, należy skonfigurować jedną z opcji (ale nie obie) streamName lub streamARN jako rozdzielaną przecinkami listę nazw strumieni/ARN-ów.
KINESIS_SOURCE_NO_CONSUMER_OPTIONS_WITH_REGISTERED_CONSUMERS (Brak opcji dla konsumenta źródła Kinesis z zarejestrowanymi konsumentami)
Aby odczytywać strumienie Kinesis z zarejestrowanymi consumerami, nie należy konfigurować opcji consumerName ani consumerNamePrefix, ponieważ nie zostaną one zastosowane.
Niezgodność liczby zarejestrowanych identyfikatorów klientów źródła Kinesis
Liczba zarejestrowanych identyfikatorów konsumentów powinna być równa liczbie strumieni Kinesis, ale jest <numConsumerIds> identyfikatorów konsumentów i <numStreams> strumieni.
Rejestrowany konsument źródła Kinesis nie został znaleziony.
Nie można odnaleźć zarejestrowanego konsumenta <consumerId> podanego dla streamARN <streamARN>. Zweryfikuj, czy zarejestrowałeś użytkownika, lub nie podawaj opcji registeredConsumerId.
KINESIS_SOURCE_ZAREJESTROWANY_TYP_KONSUMENTA_NIEPRAWIDŁOWY
Zarejestrowany typ odbiorcy <consumerType> jest nieprawidłowy. Musi to być name lub ARN.
KLL_SKETCH_INCOMPATIBLE_MERGE
W przypadku funkcji <functionName>nie można scalić szkiców KLL: <reason>
KLL_SKETCH_INVALID_INPUT
W przypadku funkcji <functionName>nieprawidłowy szkic danych binarnych KLL: <reason>
KLL_SKETCH_INVALID_QUANTILE_RANGE
W przypadku funkcji <functionName>wartość kwantylu musi należeć do zakresu od 0,0 do 1,0 (włącznie), ale ma wartość <quantile>.
KLL_SKETCH_K_MUST_BE_CONSTANT
W przypadku funkcji <functionName>parametr k musi być wartością stałą, ale otrzymał wyrażenie niestałej.
KLL_SKETCH_K_OUT_OF_RANGE
W przypadku funkcji <functionName>parametr k musi należeć do zakresu od 8 do 65535 (włącznie), ale ma wartość <k>.
Przepełnienie bufora KRYO
Serializacja Kryo nie powiodła się: <exceptionMsg>. Aby tego uniknąć, zwiększ wartość "<bufferSizeConfKey>".
NIEZGODNOŚĆ_ETYKIET
Etykieta rozpoczęcia <beginLabel> nie jest zgodna z etykietą końcową <endLabel>.
LABEL_OR_FOR_VARIABLE_ALREADY_EXISTS
Etykieta lub FOR zmienna <label> już istnieje. Wybierz inną nazwę lub zmień nazwę istniejącego.
LABEL_OR_FOR_VARIABLE_NAME_FORBIDDEN
Nazwa etykiety lub FOR zmiennej <label> jest zabroniona.
ŹRÓDŁO_DANYCH_FEDERACJI_JEZIORA_WYMAGA_NOWSZEJ_WERSJI_DBR
Źródło danych federacyjnych usługi Lakehouse "<provider>" wymaga nowszej wersji środowiska Databricks Runtime.
Więcej informacji znajdziesz w LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION
LATERAL_JOIN_WITH_ARROW_UDTF_UNSUPPORTED
LATERAL
JOIN Funkcja tabeli zdefiniowana przez użytkownika (UDTFs) zoptymalizowana pod kątem strzałki nie jest obsługiwana. Nie można używać funkcji UDTF strzałki po prawej stronie sprzężenia bocznego.
Zamiast tego użyj zwykłego protokołu UDTF lub zmień strukturę zapytania, aby uniknąć sprzężenia bocznego.
LEGACY_CREATE_TEMP_TABLE_WITHOUT_PROVIDER_NOT_SUPPORTED
CREATE TEMPORARY TABLE bez dostawcy jest niedozwolone.
ŚCIEŻKA_ŁADOWANIA_DANYCH_NIE_ISTNIEJE
LOAD DATA ścieżka wejściowa nie istnieje: <path>.
LOKALNY_MUSI_Z_PLIKIEM_SCHEMATU
LOCAL należy używać razem ze schematem file, ale otrzymano: <actualSchema>.
LOKALIZACJA_JUŻ_ISTNIEJE
Nie można nazwać tabeli zarządzanej jako <identifier>, ponieważ jej skojarzona lokalizacja <location> już istnieje. Wybierz inną nazwę tabeli lub usuń istniejącą lokalizację jako pierwszą.
UTRACONE_PARTYCJE_TEMATU_W_KOŃCOWYM_OFFSET_Z_WYZWALACZEM_DOSTĘPNE_TERAŹNIEJSZE
Część partycji w tematach Kafka została utracona podczas uruchamiania zapytania z użyciem Trigger.AvailableNow. Błąd może być przejściowy — uruchom ponownie zapytanie i zgłoś, jeśli nadal widzisz ten sam problem.
partycje tematyczne dla najnowszego przesunięcia: <tpsForLatestOffset>, partycje tematyczne dla końcowego przesunięcia: <tpsForEndOffset>
NIEPOPRAWNY_KOMUNIKAT_AVRO
Źle sformułowane komunikaty Avro są wykrywane w deserializacji komunikatów. Tryb analizowania: <mode>. Aby przetworzyć niepoprawnie sformułowaną wiadomość Avro jako wynik null, spróbuj ustawić opcję 'mode' jako 'PERMISSIVE'.
NIEPRAWIDŁOWE_KODOWANIE_ZNAKU
Znaleziono nieprawidłową wartość podczas wykonywania <function> za pomocą <charset>
NIEPOPRAWNY_REKORD_CSV
Źle sformułowany rekord CSV: <badRecord>
NIEPRAWIDŁOWY_PLIK_DZIENNIKA
Plik dziennika został nieprawidłowo sformułowany: nie można odczytać poprawnej wersji dziennika z <text>.
NIEPOPRAWNY_KOMUNIKAT_PROTOBUF
Źle sformułowane komunikaty Protobuf są wykrywane w deserializacji komunikatów. Tryb analizowania: <failFastMode>. Aby przetworzyć błędnie sformułowany komunikat protobuf jako wynik "null", spróbuj ustawić opcję 'mode' na 'PERMISSIVE'.
NIEPOPRAWNY_REKORD_PODCZAS_PARSOWANIA
Podczas przetwarzania rekordów wykryto nieprawidłowo sformułowane rekordy: <badRecord>.
Tryb analizowania: <failFastMode>. Aby przetworzyć źle sformułowane rekordy jako wynik null, spróbuj ustawić opcję "mode" jako "PERMISSIVE".
Aby uzyskać więcej szczegółów, zobacz MALFORMED_RECORD_IN_PARSING
NIEPOPRAWNY_STAN_W_WSKAŹNIKU_NA_MIKRO_PARTIĘ_ŹRÓDŁO
Zniekształcony stan w źródle RatePerMicroBatch.
Aby uzyskać więcej informacji, zobacz MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE
ŹLE SFORMOWANY_WARIANT
Wariant binarny jest źle sformułowany. Sprawdź, czy źródło danych jest prawidłowe.
Obsługiwane jako Iceberg: próba włączenia klastrowania bez wyłączania DVS lub śledzenia wierszy.
Podjęto próbę włączenia klastrowania Liquid w zarządzanej tabeli Apache Iceberg bez wyłączania zarówno wektorów usuwania, jak i śledzenia wierszy. Wektory usuwania i śledzenie wierszy nie są obsługiwane w przypadku zarządzanych tabel Apache Iceberg, ale są wymagane do współbieżności na poziomie wiersza z tabelami Liquid. Aby włączyć klastrowanie Liquid w zarządzanej tabeli Apache Iceberg z ograniczoną kontrolą współbieżności, wektory usuwania i śledzenie wierszy muszą być wyłączone dla tej tabeli.
ZARZĄDZANA OPERACJA ICEBERG NIE JEST OBSŁUGIWANA
Zarządzane tabele Apache Iceberg nie obsługują programu <operation>.
ZARZĄDZANA_TABELA_Z_KREDENCJAMI
Tworzenie zarządzanej tabeli przy użyciu poświadczeń magazynowych nie jest obsługiwane.
MATERIALIZOWANY_WIDOK_MESA_ODŚWIEŻ_BEZ_PIPELINE_ID
Nie można <refreshType> materializować widoku, ponieważ powstał przed wprowadzeniem identyfikatora pipelineId. Aby włączyć <refreshType>, usuń i ponownie utwórz zmaterializowany widok.
MATERIALIZED_VIEW_NOT_INCREMENTALIZABLE
Nie można utworzyć zmaterializowanego widoku z zasadami odświeżania, <refreshPolicy> ponieważ nie jest obsługiwany w przypadku odświeżania przyrostowego. Powód:
Aby uzyskać więcej informacji, zobacz MATERIALIZED_VIEW_NOT_INCREMENTALIZABLE
OPERACJA_Z_MATERIALIZOWANYM_WIDOKIEM_NIEDOZWOLONA
Operacja widoku materializowanego <operation> jest niedozwolona :
Aby uzyskać więcej szczegółowych informacji, zobacz MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
Wynik_materializowanego_widoku_bez_eksplitytnej_nazwy_aliasu
Wyrażenie wyjściowe <expression> w zmaterializowanym widoku musi być jawnie aliasowane.
NIEWŁAŚCIWY_MATERIALIZOWANY_WIDOK_NAD_STRUMIENIEM_ZAPYTAŃ
nie można utworzyć zmaterializowanego widoku <name> za pomocą zapytania strumieniowego. Użyj słowa CREATE kluczowego STREAM [OR REFRESH] STREAMING TABLE lub usuń słowo kluczowe do FROM klauzuli , aby przekształcić tę relację w kwerendę wsadową.
Operacja_na_zmaterializowanym_widoku_nieobsługiwana
Operacja <operation> nie jest obecnie obsługiwana w zmaterializowanych widokach.
MAKSYMALNA_LICZBA_ZMIENNYCH_W_SESJI_PRZEKROCZONA
Nie można utworzyć nowej zmiennej <variableName>, ponieważ liczba zmiennych w sesji przekracza maksymalną dozwoloną liczbę (<maxNumVariables>).
MAKS_REKORDÓW_NA_POBRANIE_NIEPRAWIDŁOWY_DLA_ŹRÓDŁA_KINESIS
wartość maxRecordsPerFetch musi być dodatnią liczbą całkowitą mniejszą niż lub równą <kinesisRecordLimit>
MCV_INVALID_INPUT_SKETCH_BUFFER
Nieprawidłowe wywołanie metody <function>; tylko prawidłowe szkicu MCV są obsługiwane jako dane wejściowe (takie jak te generowane przez mcv_collect_internal funkcję).
Blad łączenia - naruszenie kardynalności
Warunek wyszukiwania ON w instrukcji MERGE pasował do pojedynczego wiersza w tabeli docelowej i wielu wierszy w tabeli źródłowej.
Może to spowodować, że wiersz docelowy jest przetwarzany więcej niż raz w ramach operacji aktualizacji lub usuwania, i jest to niedozwolone.
SCALAJ_BEZ_KIEDY
W instrukcji WHEN musi istnieć co najmniej jedna klauzula MERGE.
OGRANICZENIE_METRYCZNE_NIEOBSŁUGIWANE
METRIC CONSTRAINT nie jest włączona.
METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR - Błędna wartość argumentu w sklepie metric.
Podana wartość "<argValue>" nie jest obsługiwana przez argument "<argName>" w funkcji tabelowej METRIC_STORE.
Aby uzyskać więcej informacji, zobacz METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
METRIC_STORE_UNSUPPORTED_ERROR (Błąd: Sklep z metrykami nieobsługiwany)
Rutyna magazynu metryk <routineName> jest obecnie wyłączona w tym środowisku.
KRYTERIA_ŁĄCZENIA_METRYKI_NIEJEDNOZNACZNE
Definicja widoku metryki zawiera złączenie z niejednoznacznymi kryteriami: <expr>. Możesz użyć using kryteriów sprzężenia lub jawnie kwalifikować kolumny przy użyciu aliasu <sourceAlias>.
METRYCZNY_WIDOK_TABELA_PAMIECI_NIEOBSŁUGIWANA
Widok metryk nie może używać tabel pamięci podręcznej.
FUNKCJA_WIDOKU_METRYCZNEGO_WYŁĄCZONA
Funkcja widoku metryki jest wyłączona. Upewnij się, że parametr "spark.databricks.sql.metricView.enabled" ma wartość true.
Nieprawidłowy argument funkcji miary w widoku metryki
Funkcja MEASUREprzyjmuje tylko atrybut jako dane wejściowe, ale otrzymała <expr>.
NIEPRAWIDŁOWA_DEFNICJA_WIDOKU_METRYCZNEGO
Definicja widoku metryki jest nieprawidłowa. Powód: <reason>.
WIDOK_METRYCZNY_W_CTE_NIE_OBSLUGIWANY
Widok metryczny nie jest dozwolony w definicjach CTE. plan: <plan>
Łączenie widoku metryki nieobsługiwane
Widok metryki nie może używać łączeń. plan: <plan>
Materializacje widoku metrycznego wyłączone
Materializacje widoków metryk są wyłączone. Upewnij się, że parametr "spark.databricks.sql.metricView.materializations.enabled" ma wartość true.
METRIC_VIEW_MATERIALIZATIONS_UNAGGREGATED_WITH_METRIC_VIEW
Nie agregowana materializacja nie jest obsługiwana, gdy widok metryki odwołuje się do innych widoków metryk.
METRIC_VIEW_MATERIALIZATION_ON_TEMPORARY_VIEW_NOT_SUPPORTED
Materializacja nie jest obsługiwana w tymczasowych widokach metryk.
METRIC_VIEW_MATERIALIZATION_WITH_INVOKER_DEPENDENT_EXPRESSIONS_NOT_SUPPORTED
Materializacja nie jest obsługiwana w przypadku widoków metryk zawierających wyrażenia zależne od wywołania. Te wyrażenia uniemożliwiają ponowne użycie materializacji.
METRIC_VIEW_MEASURE_IN_GROUP_BY
<measureColumns> kolumn miary nie można używać w GROUP BY klauzuli ani jako wartości kategorii. Zalecamy opakowywanie ich za pomocą funkcji agregującej, takiej jak SUM() dla oczekiwanego zachowania.
METRIC_VIEW_MISSING_MEASURE_FUNCTION – Brakuje funkcji miary w widoku metryki.
Użycie kolumny miary <column> w widoku metryki wymaga funkcji MEASURE(), aby uzyskać wyniki.
METRIC_VIEW_NOT_MATERIALIZED
Wywoływane zmaterializowane polecenie widoku w widoku metryki bez zdefiniowanych materializacji
Aby uzyskać więcej informacji, zobacz METRIC_VIEW_NOT_MATERIALIZED
METRIC_VIEW_NOT_SUPPORTED_IN_HMS
Widoki metryk nie są obsługiwane w systemie HMS.
ZMIANA_NAZWY_METRYKI_DLA_INNEGO_KATALOGU_I_SCHEMATU
Widok metryczny <oldName> nie może zmienić nazwy na inny katalog lub schemat: <newName>.
METRIC_VIEW_SNOWFLAKE_JOIN_FEATURE_DISABLED
Funkcja sprzężenia płatka śniegu widoku metryki jest wyłączona. Upewnij się, że parametr "spark.databricks.sql.metricView.snowflake.join.enable" ma wartość true.
Nieobsługiwane użycie widoku metryki
Wykorzystanie widoku metrycznego nie jest obsługiwane. plan: <plan>
NIEOBSŁUGIWANA_FUNCKJA_OKNA_W_METRYCE
Widok metryki nie może używać funkcji okna <expr>.
METRIC_VIEW_YAML_V11_DISABLED
Widok metryki YAML w wersji 1.1 jest wyłączony. Upewnij się, że parametr "spark.databricks.sql.metricView.yaml.v11.enabled" ma wartość true.
MIGRACJA_NIEOBSŁUGIWANA
<table> nie jest obsługiwane w przypadku migracji do tabeli zarządzanej <tableKind>, ponieważ nie jest to tabela <tableKind>.
Upewnij się, że tabela, którą migrujesz, jest zewnętrzną tabelą delta UC.
jest przywoływany swoją nazwą zamiast ścieżki.
COFNIĘCIE MIGRACJI NIEOBSŁUGIWANE
<table> nie jest obsługiwane w przypadku wycofywania z tabeli zarządzanej do tabeli zewnętrznej <tableKind>, ponieważ nie jest to tabela <tableKind>.
Niedopasowane partycje tematu między końcowym offsetem a wstępnie pobranym
Źródło danych Kafka w Trigger.AvailableNow powinno zapewniać te same partycje tematów od wstępnie pobranego przesunięcia do przesunięcia końcowego dla każdej mikropartii. Błąd może być przejściowy — uruchom ponownie zapytanie i zgłoś, jeśli nadal widzisz ten sam problem.
partycje tematów dla wstępnie pobranych offsetów: <tpsForPrefetched>, partycje tematów dla ostatecznych offsetów: <tpsForEndOffset>.
BRAKUJĄCA_AGREGACJA
Wyrażenie nie agregujące <expression> jest oparte na kolumnach, które nie uczestniczą w klauzuli GROUP BY.
Dodaj kolumny lub wyrażenie do GROUP BY, zagreguj wyrażenie lub użyj <expressionAnyValue>, jeśli nie obchodzisz, które wartości w grupie są zwracane.
Aby uzyskać więcej informacji, zobacz MISSING_AGGREGATION
MISSING_CATALOG_ABILITY
Wykaz <plugin> nie obsługuje
Aby uzyskać więcej informacji, zobacz MISSING_CATALOG_ABILITY
BRAK_KLAUZUL_DLA_OPERACJI
Brak klauzuli <clauses> dla operacji <operation>. Dodaj wymagane klauzule.
BRAKUJE_OPCJI_POŁĄCZENIA
Połączenia typu "<connectionType>" muszą zawierać następujące opcje: <requiredOptions>.
BRAKUJĄCA BAZA DANYCH DLA V1_SESSION_CATALOG
Nazwa bazy danych nie jest określona w wykazie sesji w wersji 1. Upewnij się, że podczas interakcji z wykazem w wersji 1 podaj prawidłową nazwę bazy danych.
BRAK_GROUP_BY
Zapytanie nie zawiera klauzuli GROUP BY. Dodaj GROUP BY lub przekształcij je w funkcje okna przy użyciu klauzul OVER.
Brak_nazwy_dla_Ograniczenia_Sprawdzającego
CHECK ograniczenie musi mieć nazwę.
BRAKUJĄCY_PARAMETR_DLA_KAFKA
Parametr <parameterName> jest wymagany dla Kafka, ale nie jest określony w <functionName>.
BRAK_PARAMETRU_DLA_RUTYNY
Parametr <parameterName> jest wymagany, ale nie jest określony w <functionName>.
BRAK_DEFINICJI_HARMONOGRAMU
Definicję harmonogramu należy podać zgodnie z SCHEDULE.
BRAK KONFIGURACJI LIMITU CZASU
Czas operacji upłynął, ale nie skonfigurowano czasu trwania limitu. Aby ustawić limit czasu przetwarzania oparty na czasie, użyj "GroupState.setTimeoutDuration()" w operacji "mapGroupsWithState" lub "flatMapGroupsWithState". W przypadku limitu czasu opartego na czasie zdarzenia użyj funkcji "GroupState.setTimeoutTimestamp()" i zdefiniuj znak wodny przy użyciu funkcji "Dataset.withWatermark()".
BRAK_SPECYFIKACJI_OKNA
Specyfikacja okna nie jest zdefiniowana w klauzuli WINDOW dla <windowName>. Aby uzyskać więcej informacji na temat WINDOW klauzul, zobacz "<docroot>/sql-ref-syntax-qry-select-window.html".
MODYFIKUJ_WBUDOWANY_KATALOG
Modyfikowanie wbudowanego katalogu <catalogName> nie jest obsługiwane.
MULTIPART_FLOW_NAME_NOT_SUPPORTED
Przepływ o nazwie wieloczęściowej "<flowName>" nie jest obsługiwany.
MULTIPLE_EXCEL_DATA_SOURCE
Wykryto wiele źródeł danych programu Excel o nazwie <provider> (<sourceNames>). Określ w pełni kwalifikowaną nazwę klasy lub usuń <externalSource> ze ścieżki klasy.
ŚCIEŻKA_WIELOKROTNEGO_ŁADOWANIA
Databricks Delta nie obsługuje wielu ścieżek wejściowych w interfejsie API load().
ścieżki: <pathList>. Aby utworzyć jeden DataFrame (ramkę danych) poprzez załadowanie
istnieje wiele ścieżek z tej samej tabeli Delta, załaduj ścieżkę główną
tabela delta z odpowiednimi filtrami partycji. Jeśli wiele ścieżek
znajdują się w różnych tabelach Delta. Użyj interfejsów API union()/unionByName() zestawu danych
aby połączyć ramki danych generowane przez oddzielne wywołania interfejsu API load().
WIELE_DOPASOWUJĄCYCH_OGRANICZEŃ
Znaleziono co najmniej dwa zgodne ograniczenia z danym warunkiem.
WIELOKROTNE_KLAUZULE_WYNIKU_ZAPYTANIA_Z_OPERATORAMI_RUROCIĄGÓW
<clause1> i <clause2> nie mogą współistnieć w tym samym operatorze potoku SQL przy użyciu '|>'. Rozdziel wiele klauzul wyników na oddzielne operatory potoku, a następnie ponów próbę ponownego uruchomienia zapytania.
SPECYFIKACJA_PODRÓŻY_W_CZASIE_WIELOKROTNEJ
Nie można określić podróży czasowej zarówno w klauzuli podróży czasowej, jak i w opcjach.
ŹRÓDŁO_DANYCH_XML_WIELU_PLIKÓW
Wykryto wiele źródeł danych o nazwie <provider> (<sourceNames>). Określ w pełni kwalifikowaną nazwę klasy lub usuń <externalSource> ze ścieżki klasy.
Wielowariantowy_alias_bez_generowania
Aliasowanie wieloczęściowe (<names>) nie jest obsługiwane w przypadku <expr>, ponieważ nie jest to funkcja generatora.
WIELE_ŹRÓDEŁ_NIEOBSŁUGIWANE_DLA_WYRAŻENIA
Wyrażenie <expr> nie obsługuje więcej niż jednego źródła.
MULTI_SOURCE_METRIC_VIEW_MEASURE_REFERENCING_DIMENSION
Kolumna miary <measureColumn> w widoku metryki nie może odwoływać się do kolumn wymiarów (<dimensionColumn>).
MULTI_SOURCE_METRIC_VIEW_UNQUALIFIED_MEASURE_REF
Niekwalifikowane odwołanie <measureColumn> do kolumny miary w widoku metryki wieloźródłowej jest niedozwolone. Zakwalifikuj kolumnę miary z aliasem źródłowym.
MULTI_SOURCE_METRIC_VIEW_UNSUPPORTED_EXPRESSION
Wyrażenie agregacji na podstawie wielu źródeł w widoku metryki nie jest obsługiwane: <expr>.
BŁĄD INTERFEJSU WIELO_UDF
Niedozwolone zaimplementowanie wielu interfejsów UDF, klasa UDF <className>.
WZAJEMNIE_WYKLUCZAJĄCE_SIĘ_KLAUZULE
Wzajemnie wykluczające się klauzule lub opcje <clauses>. Usuń jedną z tych klauzul.
Polecenie MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE ma nieprawidłowy typ zapasowy.
Zapytanie wejściowe oczekuje <expectedType>, ale podstawowa tabela to <givenType>.
NAZWANE_PARAMETRY_NIEOBSŁUGIWANE
Nazwane parametry nie są obsługiwane dla funkcji <functionName>. Proszę spróbować ponownie wykonać zapytanie z argumentami pozycyjnymi do wywołania funkcji.
NAZWANE_PARAMETRY_NIEOBSŁUGIWANE_DLA_SQL_UDF
Nie można wywołać funkcji <functionName>, ponieważ nazwane odwołania argumentów nie są obsługiwane. W tym przypadku odniesienie do nazwanego argumentu było <argument>.
Obsługa nazwanych parametrów wyłączona
Nie można wywołać funkcji <functionName>, ponieważ nazwane odwołania argumentów nie są tutaj włączone.
W tym przypadku odniesienie do nazwanego argumentu było <argument>.
Ustaw wartość "spark.sql.allowNamedFunctionArguments" na wartość "true", aby włączyć funkcję.
Nazwa przestrzeni nazw już istnieje
Nie można utworzyć przestrzeni nazw <nameSpaceName>, ponieważ już istnieje.
Wybierz inną nazwę, upuść istniejącą przestrzeń nazw lub dodaj klauzulę IF NOT EXISTS, aby tolerować wcześniej istniejącą przestrzeń nazw.
Nazwa_sektora_nie_jest_pusty
Nie można usunąć przestrzeni nazw <nameSpaceNameName>, ponieważ zawiera ona obiekty.
Użyj polecenia DROP NAMESPACE...CASCADE , aby usunąć przestrzeń nazw i wszystkie jej obiekty.
NIE ZNALEZIONO PRZESTRZENI NAZW
Nie można odnaleźć przestrzeni nazw <nameSpaceName>. Sprawdź pisownię i poprawność tej przestrzeni nazw.
Jeśli nazwa nie została zakwalifikowana, sprawdź dane wyjściowe current_schema() lub zakwalifikuj nazwę poprawnie.
Aby tolerować błąd podczas upuszczania, użyj DROP NAMESPACE IF EXISTS.
BŁĄD_NATIVE_IO
Żądanie natywne nie powiodło się. requestId: <requestId>, chmura: <cloud>, operacja: <operation>
żądanie: [https: <https>, method = <method>, path = <path>, params = <params>, host = <host>, headers = <headers>, bodyLen = <bodyLen>],
błąd: <error>
NATYWNE_ŹRÓDŁO_DANYCH_XML_NIEJEST_WŁĄCZONE
W tym klastrze nie włączono natywnego źródła danych XML.
NIEDOZWOLONA_SKALA_UJEMNA
Skala ujemna jest niedozwolona: "<scale>". Ustaw konfigurację <sqlConf> na "true", aby go umożliwić.
WARTOŚCI_UJEMNE_W_WYRAŻENIU_CZĘSTOTLIWOŚCI
Znaleziono wartość ujemną w <frequencyExpression>: <negativeValue>, ale oczekiwano dodatniej wartości całkowitej.
ZAGNIEŻDŻONA_FUNKCJA_AGREGUJĄCA (NESTED_AGGREGATE_FUNCTION)
Nie można używać funkcji agregującej w argumencie innej funkcji agregującej. Użyj wewnętrznej funkcji agregacji w podzapytaniu.
NESTED_EXECUTE_IMMEDIATE
Zagnieżdżone polecenia EXECUTE IMMEDIATE nie są dozwolone. Upewnij się, że podane zapytanie SQL (<sqlString>) nie zawiera innego polecenia EXECUTE IMMEDIATE.
NESTED_REFERENCES_IN_LATERAL_SUBQUERY_NOT_SUPPORTED
Wykryto odwołania <expression> do zakresu zewnętrznego w podzapytaniu bocznym, który nie jest obsługiwany. Upewnij się, że podzapytanie boczne nie zawiera podzapytania odwołujących się do atrybutów z zagnieżdżonych zakresów zewnętrznych.
NESTED_REFERENCES_IN_SUBQUERY_NOT_SUPPORTED
Wykryto odwołania <expression> do zakresu zewnętrznego w podzapytaniu, które nie jest obsługiwane.
NEW_CHECK_CONSTRAINT_VIOLATION
Nie można dodać nowego ograniczenia sprawdzania (<expression>), ponieważ byłoby to naruszone przez istniejące dane w tabeli <tableName>. Przed dodaniem upewnij się, że wszystkie istniejące wiersze spełniają ograniczenie.
NIEISTNIEJĄCA_NAZWA_POLA_W_LIŚCIE
Pola <nonExistFields> nie istnieją. Dostępne pola: <fieldNames>
NON_DETERMINISTIC_CHECK_CONSTRAINT
Ograniczenie <checkCondition> sprawdzania nie jest deterministyczne. Ograniczenia sprawdzania muszą zawierać tylko wyrażenia deterministyczne.
NIE_SKŁADANY_ARGUMENT
Funkcja <funcName> wymaga, aby parametr <paramName> był wyrażeniem, które można zwinąć, typu <paramType>, ale rzeczywisty argument jest nieskładany.
NIE_OSTATNIE_DOPASOWANE_KLAUZULA_POMIŃ_WARUNEK
Jeśli w instrukcji MATCHED istnieje więcej niż jedna klauzula MERGE, tylko ostatnia klauzula MATCHED może pominąć warunek.
NIEOSTATNI_NIEZNALAZIONY_PRZEZ_PUNKT_ODNIESIENIA_POMIŃ_WARUNEK
Jeśli w instrukcji NOT MATCHED BY SOURCE istnieje więcej niż jedna klauzula MERGE, tylko ostatnia klauzula NOT MATCHED BY SOURCE może pominąć warunek.
NIE_OSTATNI_NIE_DOPASOWANY_DO_CELU_POMIŃ_WARUNEK
Jeśli w instrukcji NOT MATCHED [BY TARGET] istnieje więcej niż jedna klauzula MERGE, tylko ostatnia klauzula NOT MATCHED [BY TARGET] może pominąć warunek.
Nie_literowe_wartości_piwotowe
Wyrażenia literałów wymagane dla wartości przestawnych zostały znalezione <expression>.
KOLUMNA_NIEPARTYCJONOWANA
klauzula PARTITION nie może zawierać kolumny niebędącej kolumną partycji: <columnName>.
OBSZAR_CZASOWY_NIEOBSŁUGIWANY_W_TRANSMISJI_STRUMIENIOWEJ
Funkcja okna nie jest obsługiwana w <windowFunc> (jako kolumna <columnName>) w przesyłaniu strumieniowym ramek danych/zestawów danych.
Strukturalne przesyłanie strumieniowe obsługuje tylko agregację przedziału czasu przy użyciu funkcji WINDOW. (specyfikacja okna: <windowSpec>)
NIE_DOZWOLONE_W_OD
Niedozwolone w klauzuli FROM:
Aby uzyskać więcej szczegółów, zobacz NOT_ALLOWED_IN_FROM
NIE_DOZWOLONE_W_OPERATORZE_RURY_GDZIE
W klauzuli potoku WHERE niedozwolone:
Więcej informacji można znaleźć w NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE
NIE_JEST_STAŁYM_CIĄGIEM
Wyrażenie <expr> używane dla procedury lub klauzuli <name> musi być stałą STRING, która jest NOT NULL.
Aby uzyskać więcej informacji, zobacz NOT_A_CONSTANT_STRING
NIE JEST TABELĄ PARTYKCYJNĄ
Operacja <operation> nie jest dozwolona dla <tableIdentWithDB>, ponieważ to nie jest tabela partycjonowana.
NIE_JEST_FUNKCJĄ_SKALARNĄ
<functionName> pojawia się tutaj jako wyrażenie skalarne, ale funkcja została zdefiniowana jako funkcja tabeli. Zaktualizuj zapytanie, aby przenieść wywołanie funkcji do klauzuli FROM lub ponownie zdefiniować <functionName> jako funkcję skalarną.
Not applicable in this case, as translating identifiers like these typically remain in their original form unless noted otherwise for specific technical or programming use cases.
<functionName> pojawia się w tym miejscu jako funkcja tabeli, ale funkcja została zdefiniowana jako funkcja skalarna. Zaktualizuj zapytanie, aby przenieść wywołanie funkcji poza klauzulą FROM lub ponownie zdefiniować <functionName> jako funkcję tabeli.
NOT_ENOUGH_ARGS
Funkcja <functionName> oczekuje co najmniej <minNum> parametrów, ale odebrano <actualNum> (<actualArgs>)polecenie .
Naruszenie_niezerowej_asercji
NULL wartość pojawiła się w polu bez wartości null: <walkedTypePath>Jeśli schemat jest wywnioskowany z krotki Scala/klasy przypadków lub klasy Java bean, spróbuj użyć scala.Option[_] lub innych typów dopuszczających wartości null (takich jak java.lang.Integer zamiast int/scala.Int).
NARUSZENIE OGRANICZENIA NOT_NULL
Przypisywanie NULL nie jest dozwolone tutaj.
Aby uzyskać więcej szczegółów, zobacz NOT_NULL_CONSTRAINT_VIOLATION
NIE_OBSŁUGIWANA_ZMIANA_KOLUMNY
ALTER TABLE ALTER
/
CHANGE COLUMN nie jest obsługiwane w przypadku zmiany kolumny <table><originName> z typu <originType> na <newName> z typu <newType>.
Nieobsługiwana zmiana w tej samej kolumnie
ALTER TABLE ALTER
/
CHANGE COLUMN nie jest obsługiwane dla zmiany kolumny <table><fieldName> włącznie z jego polami zagnieżdżonymi co najmniej raz w tym samym poleceniu.
KOMENDA_NIEOBSŁUGIWANA_DLA_TABELI_V2
<cmd> nie jest obsługiwana w przypadku tabel w wersji 2.
Polecenie nieobsługiwane bez wsparcia Hive
<cmd> nie jest obsługiwany, jeśli chcesz to włączyć, ustaw "spark.sql.catalogImplementation" na "hive".
NIE_OBSŁUGIWANE_W_JDBC_KATALOGU
Nieobsługiwane polecenie w katalogu JDBC:
Aby uzyskać więcej informacji, zobacz NOT_SUPPORTED_IN_JDBC_CATALOG
Nieobsługiwane z DB_SQL
<operation> nie jest obsługiwane w SQL <endpoint>.
Nieobsługiwane z Serverless
<operation> nie jest obsługiwana w obliczeniach bezserwerowych.
NIE_ROZWIĄZANY_KODER
Oczekiwano nierozwiązanego enkodera, ale znaleziono <attr>.
NO_ACTIVE_TRANSACTION
Nie ma aktywnej transakcji do <action>.
BRAK_DOMYŚLNEJ_WARTOŚCI_KOLUMNY_DOSTĘPNEJ
Nie można określić wartości domyślnej, <colName> ponieważ nie jest ona dopuszczana do wartości null i nie ma wartości domyślnej.
Brak obsługi dla UDAF
Brak obsługi dla UDAF '<functionName>'. Zamiast tego użyj pliku sparkSession.udf.register(...).
NIE OKREŚLONO DZIAŁANIA SCALANIA
Po df.mergeInto konieczne jest wykonanie co najmniej jednej z instrukcji whenMatched/whenNotMatched/whenNotMatchedBySource.
BRAK_ZEWNĘTRZNEJ_LOKALIZACJI_DLA_ŚCIEŻKI
Nie odnaleziono lokalizacji zewnętrznej nadrzędnej dla ścieżki "<path>". Utwórz lokalizację zewnętrzną w jednej ze ścieżek nadrzędnych, a następnie spróbuj ponownie wykonać zapytanie lub polecenie.
NO_PRIMARY_KEY_CONSTRAINT_EXCEPTION
TABLE <table> nie ma ograniczenia klucza podstawowego.
NO_SQL_TYPE_IN_PROTOBUF_SCHEMA
Nie można odnaleźć <catalystFieldPath> w schemacie Protobuf.
BRAK_LOKALIZACJI_MAGAZYNOWANIA_DLA_TABELI
SQLSTATE: brak przypisania
Nie znaleziono lokalizacji przechowywania tabeli "<tableId>" podczas generowania poświadczeń tabeli. Sprawdź typ tabeli i adres URL lokalizacji tabeli, a następnie spróbuj ponownie wykonać zapytanie lub polecenie.
Wyjątek_Nie_Ma_Takiego_Katalogu
Nie można odnaleźć wykazu "<catalog>". Sprawdź nazwę wykazu, a następnie ponów próbę ponownego uruchomienia zapytania lub polecenia.
NO_SUCH_CLEANROOM_EXCEPTION (Brak takiego pomieszczenia sterylnego)
SQLSTATE: brak przypisania
Czysty pokój "<cleanroom>" nie istnieje. Sprawdź, czy nazwa czystego pokoju jest poprawna i pasuje do nazwy prawidłowego istniejącego pomieszczenia, a następnie ponów próbę ponownego uruchomienia zapytania lub polecenia.
NO_SUCH_CONSTRAINT_EXCEPTION
Nie można odnaleźć ograniczenia <constraint> w pliku <identifier>.
WYJĄTEK_BRAKU_TAKIEGO_UPOWAŻNIENIA
Poświadczenie "<credential>" nie istnieje. Sprawdź, czy nazwa poświadczeń jest poprawna i pasuje do nazwy prawidłowego istniejącego poświadczenia, a następnie spróbuj ponownie wykonać zapytanie lub polecenie.
Brak takiej lokalizacji zewnętrznej (NO_SUCH_EXTERNAL_LOCATION_EXCEPTION)
SQLSTATE: brak przypisania
Lokalizacja zewnętrzna "<externalLocation>" nie istnieje. Sprawdź, czy nazwa lokalizacji zewnętrznej jest poprawna, a następnie spróbuj ponownie wykonać zapytanie lub polecenie.
BRAK_TAKIEGO_METASKLEPU_EXCEPTION
SQLSTATE: brak przypisania
Metastore nie został znaleziony. Poproś administratora konta o przypisanie magazynu metadanych do bieżącego obszaru roboczego, a następnie spróbuj ponownie wykonać zapytanie lub polecenie.
NO_SUCH_PROVIDER_EXCEPTION (brak takiego dostawcy)
SQLSTATE: brak przypisania
Dostawca udostępniania '<providerName>' nie istnieje. Sprawdź, czy nazwa dostawcy udostępniania jest napisana poprawnie i pasuje do nazwy prawidłowego, istniejącego dostawcy, a następnie spróbuj ponownie wykonać zapytanie lub polecenie.
NO_SUCH_RECIPIENT_EXCEPTION (Brak takiego odbiorcy)
SQLSTATE: brak przypisania
Odbiorca "<recipient>" nie istnieje. Sprawdź, czy nazwa adresata jest poprawnie wpisana i pasuje do nazwy prawidłowego istniejącego adresata, a następnie ponów próbę kwerendy lub polecenia ponownie.
Brak wyjątku o nazwie NO_SUCH_SHARE_EXCEPTION
SQLSTATE: brak przypisania
Udział "<share>" nie istnieje. Sprawdź, czy nazwa udziału jest poprawnie wpisana i odpowiada nazwie istniejącego prawidłowego udziału, a następnie ponów próbę zapytania lub polecenia.
Nie znaleziono danych uwierzytelniających magazynu (NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION)
SQLSTATE: brak przypisania
Poświadczenie magazynowania '<storageCredential>' nie istnieje. Sprawdź, czy nazwa poświadczeń magazynu jest poprawnie wpisana i pasuje do nazwy prawidłowego istniejącego poświadczenia magazynu, a następnie ponów próbę zapytania lub polecenia.
NO_SUCH_USER_EXCEPTION (Brak takiego użytkownika)
SQLSTATE: brak przypisania
Użytkownik "<userName>" nie istnieje. Sprawdź, czy użytkownik, któremu udzielono uprawnień lub zmiany własności, jest poprawnie wpisany i pasuje do nazwy prawidłowego istniejącego użytkownika, a następnie ponów próbę ponownego uruchomienia zapytania lub polecenia.
BRAK_INTERFEJSU_UDF
Klasa <className> UDF nie implementuje żadnego interfejsu UDF.
Kolumna_lub_pole_nullowalne
Kolumna lub pole <name> jest nullable, chociaż wymagane jest, aby było non-nullable.
Atrybuty_ID_Wiersza_Pozwalające_na_Null
Atrybuty identyfikatora wiersza nie mogą mieć wartości null: <nullableRowIdAttrs>.
NULL_DATA_SOURCE_OPCJA_DANYCH
Opcja odczytu/zapisu źródła danych <option> nie może mieć wartości null.
klucz pustej mapy
Nie można użyć wartości null jako klucza mapy.
NULL_KWERENDA_STRING_WYKONAJ_NATYCHMIAST
Wykonanie natychmiastowe wymaga, aby zmienna używana jako ciąg zapytania nie była pusta, ale podana zmienna <varName> jest pusta.
Oświadczenie sygnału o wartości NULL
Argumenty instrukcji sygnału wymagają wartości innych niż null, ale <argument> otrzymały wartość null.
Wartość numeryczna poza obsługiwanym zakresem
Nie można interpretować wartości <value> jako liczbowej, ponieważ ma więcej niż 38 cyfr.
NUMERYCZNA_WARTOŚĆ_POZA_ZAKRESEM
Aby uzyskać więcej informacji, zobacz NUMERIC_VALUE_OUT_OF_RANGE
NIEZGODNOŚĆ_LICZBY_KOLUMN
<operator> można wykonać tylko na danych wejściowych o tej samej liczbie kolumn, ale pierwsze dane wejściowe mają kolumny <firstNumColumns>, a dane wejściowe <invalidOrdinalNum> mają <invalidNumColumns> kolumny.
NIESPÓJNOŚĆ_ALIASÓW_WARTOŚCI_TABELI_NUMERYCZNEJ
Liczba podanych aliasów nie jest zgodna z liczbą kolumn wyjściowych.
Nazwa funkcji: <funcName>; liczba aliasów: <aliasesNum>; liczba kolumn wyjściowych: <outColsNum>.
ROSZCZENIE_TOŻSAMOŚCI_NIE_ZOSTAŁO_PRZEKAZANE_W_OAUTH
Nie podano niestandardowego potwierdzenia tożsamości.
TYLKO_TAJNA_FUNKCJA_JEST_TUTAJ_OBSŁUGIWANA
Wywoływanie funkcji <functionName> nie jest obsługiwane w tym <location>; <supportedFunctions> tutaj obsługiwane.
Obsługiwane tylko z UC_SQL_CONNECTOR
Operacja SQL <operation> jest obsługiwana tylko w przypadku łączników SQL usługi Databricks z obsługą katalogu Unity.
OPERACJA_ANULOWANA
Operacja została anulowana.
OPERACJA WYMAGA UNITY CATALOG
Operacja <operation> wymaga włączenia Unity Catalog.
OPERACJA_NIEOBSŁUGIWANA_TYLKO_DO_ODCZYTU
<plan> nie jest obsługiwana w trybie sesji tylko do odczytu.
POZYCJA_SORTOWANIA_POZA_ZAKRESEM
ORDER BY pozycja <index> nie znajduje się na liście wyboru (prawidłowy zakres to [1, <size>]).
PARQUET_CONVERSION_FAILURE
Nie można utworzyć konwertera Parquet dla typu danych <dataType>, którego typ Parquet to <parquetType>.
Aby uzyskać więcej informacji, zobacz PARQUET_CONVERSION_FAILURE
TYP_PARKIET_NIELEGALNY
Niedozwolony typ Parquet: <parquetType>.
TYP_PARQUET_NIE_ROZPOZNANY
Nierozpoznany typ Parquet: <field>.
TYP_PARQUETU_NIEOBSŁUGIWANY
Typ Parquet nie jest jeszcze obsługiwany: <parquetType>.
Analiza_pustego_instrukcji
Błąd składniowy, nieoczekiwana pusta instrukcja.
Tryb analizy nieobsługiwany
Funkcja <funcName> nie obsługuje <mode> trybu. Dopuszczalne tryby to PERMISSIVE i FAILFAST.
BŁĄD_SKŁADNI_ANALIZY
Błąd składniowy w lub w pobliżu <error> <hint>.
PARTYCJE_JUŻ_ISTNIEJĄ
Nie można dodać ani RENAME do partycji <partitionList> w tabeli <tableName>, ponieważ te już istnieją.
Wybierz inną nazwę, upuść istniejącą partycję lub dodaj klauzulę IF NOT EXISTS, aby tolerować istniejącą partycję.
PARTYCJE_NIE_ZNALEZIONE
Nie można odnaleźć partycji <partitionList> w tabeli <tableName>.
Sprawdź specyfikację partycji i nazwę tabeli.
Aby tolerować błąd przy odrzuceniu, użyj ALTER TABLE …
DROP IF EXISTS PARTITION.
NIE ZNALEZIONO KOLUMNY PARTYCJI W SCHEMACIE
Nie można odnaleźć kolumny partycji <column> w schemacie <schema>. Podaj istniejącą kolumnę do podziału.
Lokalizacja partycji już istnieje
Lokalizacja partycji <locationPath> już istnieje w tabeli <tableName>.
LOKALIZACJA_PARTYCJI_NIE_ZNAJDUJE_SIĘ_W_KATALOGU_TABELI
Nie można wykonać instrukcji ALTER TABLE SET PARTITION LOCATION, ponieważ
Lokalizacja partycji <location> nie znajduje się w katalogu tabeli <table>.
Aby rozwiązać ten problem, ustaw lokalizację partycji na podkatalog <table>.
PARTITION_METADATA
<action> nie jest dozwolone w tabeli <tableName> , ponieważ przechowywanie metadanych partycji nie jest obsługiwane w wykazie aparatu Unity.
NIEZGODNOŚĆ_NUMERÓW_PARTYCJI
Liczba wartości (<partitionNumber>) nie jest zgodna z rozmiarem schematu (<partitionSchemaSize>): wartości są <partitionValues>, schemat jest <partitionSchema>, ścieżka pliku jest <urlEncodedPath>.
Proszę ponownie zmaterializować stół lub skontaktować się z właścicielem.
Ekspresja transformacji partycji nie znajduje się w partycji.
Wyrażenie <expression> musi znajdować się wewnątrz elementu "partitionedBy".
Ścieżka już istnieje
Ścieżka <outputPath> już istnieje. Ustaw tryb na "nadpisz", aby nadpisać istniejącą ścieżkę.
ŚCIEŻKA_NIE_ZNALEZIONA
Ścieżka nie istnieje: <path>.
PATH_RESOLUTION_ERROR
Nie można rozpoznać ścieżki <path>. Spowodowane: <causedBy>
Przekroczono limit pamięci zdeserializowanego Protobuf.
Deserializacja planu Photon protobuf wymaga co najmniej <size> bajtów, co przekracza określony limit.
limit wynosi <limit> bajtów. Może to być spowodowane bardzo dużym planem lub obecnością bardzo dużego projektu.
ogólny schemat Spróbuj uprościć zapytanie, usunąć niepotrzebne kolumny lub wyłączyć aplikację Photon.
LIMIT_PAMIĘCI_PHOTON_SERIALIZOWANY_PROTOBUF_PRZEKROCZONY
Serializowany plan protobuf Photon ma rozmiar <size> bajtów, co przekracza dozwolony limit
<limit> bajtów. Serializowana wielkość typów danych w planie wynosi <dataTypeSize> bajtów.
Może to być spowodowane bardzo dużym planem lub obecnością bardzo szerokiego schematu.
Rozważ ponowne zapisywanie zapytania, aby usunąć niechciane operacje i kolumny lub wyłączyć aplikację Photon.
PIPELINE_DATASET_WITHOUT_FLOW
Zestaw danych <identifier> potoku nie ma żadnych zdefiniowanych przepływów. Dołącz zapytanie z definicją zestawu danych lub jawnie zdefiniuj co najmniej jeden przepływ, który zapisuje w zestawie danych.
PIPELINE_NIE_ISTNIEJE
Potok "<pipelineId>" nie istnieje
Aby uzyskać więcej informacji, zobacz PIPELINE_DOES_NOT_EXIST
PIPELINE_DUPLICATE_IDENTIFIERS
Znaleziono zduplikowany identyfikator elementów zarejestrowanych w grafie przepływu danych potoku.
Aby uzyskać więcej informacji, zobacz PIPELINE_DUPLICATE_IDENTIFIERS
PIPELINE_SQL_GRAPH_ELEMENT_REGISTRATION_ERROR
<message>
<offendingQuery>
<codeLocation>
PIPELINE_STORAGE_ROOT_INVALID
Katalog główny magazynu potoku musi być ścieżką bezwzględną ze schematem identyfikatora URI (na przykład file://, s3a://, hdfs://). Masz: <storage_root>.
WYRAŻENIE_AGREGUJĄCE_OPERATOR_RUROCIĄGOWY_NIE_ZAWIERA_FUNKCJI_AGREGUJĄCEJ
Wyrażenie <expr> nie grupujące jest podawane jako argument dla operatora |>AGGREGATE potoku, ale nie zawiera żadnej funkcji agregującej. Zaktualizuj je, aby uwzględnić funkcję agregacji, a następnie ponów próbę kwerendy ponownie.
OPERATOR_RUROCIĄGU_ZAWIERA_FUNKCJĘ_AGREGUJĄCĄ
Funkcja <expr> agregacji nie jest dozwolona w przypadku korzystania z operatora potoku | klauzuli. Użyj operatora potoku |><clause>>AGGREGATE klauzuli .
NIEZGODNOŚĆ_TYPU_DANYCH_WARTOŚCI_PRZESTAWNEJ
Nieprawidłowa wartość przestawna '<value>': typ danych wartości <valueType> nie jest zgodny z typem danych kolumny przestawnej <pivotType>.
Polisa już istnieje
Nie można utworzyć polisy <policyName>, ponieważ już istnieje.
Wybierz inną nazwę lub usuń istniejące zasady, aby tolerować istniejące połączenia.
POLITYKA_NIE_ZNALEZIONA
Nie można wykonać polecenia <commandType>, ponieważ zasada <policyName> na <securableFullname> nie została odnaleziona.
Sprawdź pisownię i poprawność.
ZASADA_DLA_NIEOBSŁUGIWANEGO_TYPU_ODZYSKIWALNEGO_SYSTEMEM
Nie można utworzyć polityki dla zabezpieczanego typu <securableType>. Obsługiwane typy zabezpieczeń: <allowedTypes>.
PREVIEW_FEATURE_NOT_ENABLED
Funkcja <featureName> w wersji zapoznawczej nie jest włączona. Skontaktuj się z administratorem obszaru roboczego, aby włączyć tę funkcję za pośrednictwem portalu w wersji zapoznawczej.
NIEZGODNOŚĆ LICZBY ARGUMENTÓW PROCEDURY
Procedura <procedureName> oczekuje <expected> argumentów, ale <actual> zostały podane.
TWORZENIE_PROCEDURY_PUSTA_RUTYNA
CREATE PROCEDURE z pustą definicją procedury jest niedozwolona.
Parametr_utworzenia_procedury_out_inout_z_domyslnym
Parametr <parameterName> jest definiowany w trybie parametru <parameterMode>. Nie można pominąć parametru out i INOUT podczas wywoływania procedury i dlatego nie obsługują DEFAULT wyrażenia. Aby kontynuować, usuń klauzulę DEFAULT lub zmień tryb parametru na IN.
PROCEDURA_NIEOBSŁUGIWANA
Procedura składowana nie jest obsługiwana
Procedura_nieobsługiwana_z_HMS
Procedury składowane nie są obsługiwane przez Metastore Hive'a. Zamiast tego użyj Unity Catalog.
BRAK_ZALEŻNOŚCI_PROTOBUF
Nie można odnaleźć zależności: <dependencyName>.
PLIK_OPISU_PROTOBUF_NIE_ZNALEZIONY
Błąd podczas odczytywania pliku deskryptora Protobuf w ścieżce: <filePath>.
BRAKUJĄCE_POLE_PROTOBUF
Wyszukiwanie <field> w schemacie Protobuf pod <protobufSchema> dało <matchSize> wyniki. Kandydaci: <matches>.
Pole Protobuf nieobecne w schemacie SQL (PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA)
Znaleziono <field> w schemacie Protobuf, ale nie ma odpowiadającego elementu w schemacie SQL.
NIEDOPASOWANIE_TYPÓW_POLA_PROTOBUF
Wystąpiła niezgodność typów dla pola: <field>.
PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED (Klasy Java protokołu nie są obsługiwane)
Klasy języka Java nie są obsługiwane w przypadku <protobufFunction>. Skontaktuj się z pomocą techniczną usługi Databricks, aby uzyskać informacje o opcjach alternatywnych.
PROTOBUF_MESSAGE_NOT_FOUND (Brak wiadomości w protokole)
Nie można zlokalizować wiadomości <messageName> w deskryptorze.
Protobuf nie załadowany, funkcje SQL nieużywalne
Nie można wywołać funkcji <functionName> SQL, ponieważ źródło danych Protobuf nie jest załadowane.
Uruchom ponownie zadanie lub sesję z załadowanym pakietem "spark-protobuf", np. używając argumentu --packages w wierszu polecenia, a następnie ponownie uruchom zapytanie lub polecenie.
TYP_PROTOBUF_NIEOBSŁUGIWANY
Typ Protobuf nie jest jeszcze obsługiwany: <protobufType>.
PS_BŁĄD_WZNOWIENIA_POBIERANIA
Nie można ponowić zadania w etapie pobierania z pubsub. Partycja <partitionInfo> w etapie <stageInfo>, TID <taskId>.
PS_NIEPRAWIDŁOWA_PUSTA_OPCJA
<key> nie może być pustym ciągiem.
PS_NIEPRAWIDŁOWY_TYP_KLUCZA
Nieprawidłowy typ klucza do deduplikacji w PubSub: <key>.
PS_NIEPRAWIDŁOWA_OPCJA
Opcja <key> nie jest obsługiwana przez usługę PubSub. Można go używać tylko podczas testowania.
PS_NIEPRAWIDŁOWY_TYP_OPCJI
Nieprawidłowy typ <key>. Oczekiwano, że typ <key> ma być typem <type>.
PS_NIEPRAWIDŁOWY_LIMIT_ODCZYTU
Nieprawidłowy limit odczytu w strumieniu PubSub: <limit>.
PS_NIEPOPRAWNA_NIEBEZPIECZNA_KONWERSJA_WIERSZA_Z_PROTO
Nieprawidłowy element UnsafeRow do dekodowania do PubSubMessageMetadata, żądany schemat protokołu brzmi: <protoSchema>. Dane wejściowe UnsafeRow mogą być uszkodzone: <unsafeRow>.
NIEWAŻNA OPCJA FEDERACJI TOŻSAMOŚCI ZADANIA DLA ODBIORCÓW PS
Kwerenda lub polecenie nie powiodło się z powodu nieprawidłowej opcji odczytu: w spark.readStream.format("pubsub").option("workloadIdentityFederation.audience", <audience>). Zaktualizuj <audience> do następującego formatu: //iam.googleapis.com/projects/{PROJECT_NUMBER}/locations/global/workloadIdentityPools/{POOL_ID}/providers/{PROVIDER_ID}, a następnie ponów próbę kwerendy lub polecenia ponownie.
Brak informacji uwierzytelniających - PS_MISSING_AUTH_INFO
Nie można odnaleźć pełnych informacji o uwierzytelnianiu PubSub.
PS_BRAK_WYMAGANEJ_OPCJI
Nie można odnaleźć wymaganej opcji: <key>.
BŁĄD_PRZENOSZENIA_PUNKTU_KONTROLNEGO
Nie można przenieść plików pierwotnych punktów kontrolnych danych z <src> do katalogu docelowego: <dest>.
Opcje_wielu_metod_uwierzytelniania
Proszę podać poświadczenia usługi Databricks lub poświadczenia konta usługi GCP.
PS_WIELOKROTNE_NIEUDANE_EPOCHY
Nie można uruchomić strumienia PubSub, ponieważ więcej niż jedno pobieranie nie powiodło się: <failedEpochs>.
Opcja poza dopuszczalnym zakresem
<key> musi znajdować się w następujących granicach (<min>, <max>) wyłącznych od obu granic.
PS_PODAJ_POŚWIADCZENIA_Z_OPCJĄ
Udostępnione klastry nie obsługują uwierzytelniania z profilami instancji. Podaj poświadczenia do strumienia bezpośrednio za pomocą metody .option().
PS_SPARK_SPEKULACJA_NIEOBSŁUGIWANA
Łącznik źródłowy PubSub jest dostępny tylko w klastrze, gdy spark.speculation jest wyłączone.
PS_NIE_MOGĘ_UTWORZYĆ_SUBSKRYPCJI
Wystąpił błąd podczas próby utworzenia subskrypcji <subId> na temat <topicId>. Sprawdź, czy istnieją wystarczające uprawnienia do utworzenia subskrypcji i spróbuj ponownie.
PS_NIE MOŻNA ZPARSOWAĆ PROTOTO
Nie można przeanalizować zserializowanych bajtów w celu wygenerowania prototypu.
PS_NIEOBSŁUGIWANE_WYWOŁANIE_GET_OFFSET
getOffset nie jest obsługiwany bez podawania limitu.
BŁĄD_ŹRÓDŁA_DANYCH_PYTHON
Nie można uzyskać dostępu do źródła danych Python <action><type>: <msg>
PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR (Błąd wykonania źródła danych strumieniowych w Pythonie)
Gdy źródło danych przesyłania strumieniowego w języku Python nie powiodło się podczas wykonywania <action>: <msg>
QUERY_TABLE_NIEZGODNY_Z_POLITYKĄ_MASKOWANIA_KOLUMN
Nie można uzyskać dostępu do tabeli, do której odwołuje się odwołanie, ponieważ wcześniej przypisana maska kolumn jest obecnie niezgodna ze schematem tabeli; aby kontynuować, skontaktuj się z właścicielem tabeli, aby zaktualizować zasady:
Więcej informacji znajdziesz w QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
TABELA_ZAPYTANA_NIEZGODNA_Z_POLITYKĄ_BEZPIECZEŃSTWA_POZIOMU_WIERSZA
Nie można uzyskać dostępu do tabeli, do której odwołuje się odwołanie, ponieważ wcześniej przypisane zasady zabezpieczeń na poziomie wiersza są obecnie niezgodne ze schematem tabeli; aby kontynuować, skontaktuj się z właścicielem tabeli, aby zaktualizować zasady:
Aby uzyskać więcej szczegółów, zobacz QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
Przekroczono limit czasu wykonania zapytania
Wykonanie zapytania zostało anulowane z powodu przekroczenia limitu czasu (<timeoutSec>s). Limit można zwiększyć w sekundach, ustawiając <config>.
QUERY_INCOMPATIBLE_WITH_RLSCM_POLICY
Zobacz go/rowcolumncontrols-allowlist. Wartość LogicalPlan <unknownLogicalPlan> jest niezgodna z zasadami zabezpieczeń na poziomie wiersza/cm.
ZAPYTANIE ODRZUCONE
Wykonanie zapytania zostało odrzucone.
Błąd uprawnień zapisu wyniku zapytania do Cloud Store (QUERY_RESULT_WRITE_TO_CLOUD_STORE_PERMISSION_ERROR)
Konfiguracja wewnętrznej pamięci obszaru roboczego uniemożliwia usłudze Databricks dostęp do chmury.
QUERY_TAGS_NOT_IMPLEMENTED_ERROR
Tagi zapytań nie są jeszcze obsługiwane w języku SQL.
QUERY_TAGS_SYNTAX_INVALID
Nieprawidłowy format polecenia SET QUERY_TAGS .
QUERY_TAG_KEY_INVALID
Sprawdzanie poprawności klucza tagu zapytania "<key>" nie powiodło się.
QUERY_TAG_KEY_MAY_NOT_BE_EMPTY
Klucz tagu zapytania może nie mieć wartości null ani być pusty. Białe znaki wiodące i końcowe są przycinane na kluczach i wartościach.
QUERY_TAG_MAX_COUNT_EXCEEDED
Przekroczono limit tagów zapytania dla maksymalnej liczby tagów <tagLimit> na sesję.
QUERY_TAG_VALUE_INVALID
Sprawdzanie poprawności wartości tagu kwerendy "<value>" nie powiodło się.
QUERY_WATCHDOG_CHECK_FAILED
Sprawdzanie watchdog zapytania nie powiodło się.
Aby uzyskać więcej informacji, zobacz QUERY_WATCHDOG_CHECK_FAILED
AKTUALNY_PLIK_NIE_ZNALEZIONY
<message>
Możliwe, że pliki bazowe zostały zaktualizowane. Możesz jawnie unieważnić pamięć podręczną na platformie Spark, uruchamiając polecenie "REFRESH TABLE tableName" w języku SQL lub tworząc ponownie zaangażowany zestaw danych/ramkę danych.
ODCZYT_PLIKÓW_NIEJASNE_PARAMETRY_RUTYNY
Wywołanie funkcji <functionName> ma ustawione <parameterName> i <alternativeName>, które są wzajemnymi aliasami. Proszę ustawić tylko jeden z nich.
READ_FILES_CREDENTIALS_PARSE_ERROR
Wystąpił błąd podczas analizowania tymczasowych poświadczeń funkcji read_files().
Aby uzyskać więcej informacji, zobacz READ_FILES_CREDENTIALS_PARSE_ERROR
ODCZYT_TVF_NIEOCZEKIWANY_WYMAGANY_PARAMETR
Parametr <functionName> wymagany przez funkcję <parameterName> musi być przypisany na pozycji <expectedPos> bez nazwy.
Termin ważności odbiorcy nieobsługiwany
Tylko typy TIMESTAMP/TIMESTAMP_LTZ/TIMESTAMP_NTZ są obsługiwane dla znaczników czasu wygaśnięcia odbiorcy.
Przekroczono limit poziomu rekursji
Osiągnięto limit <levelLimit> poziomu rekursji, ale zapytanie nie zostało wyczerpane, spróbuj zwiększyć go tak jak 'WITH RECURSIVE t(col) MAX RECURSION LEVEL 200'.
LIMIT_REKURSJI_WIERSZY_PRZEKROCZONY
Osiągnięto limit <rowLimit> wierszy rekursji, ale zapytanie nie zostało wyczerpane, spróbuj ustawić większą LIMIT wartość podczas wykonywania zapytań dotyczących relacji CTE.
REKURENCYJNE_CTE_W_TRYBIE_DZIEDZICTWA
Definicje rekurencyjne nie mogą być używane w trybie precedencji CTE w wersji legacy (spark.sql.legacy.ctePrecedencePolicy=LEGACY).
Rekurencyjny_CTE_z_Przestarzałym_Flagą_Inline
Nie można używać definicji rekursywnych, gdy ustawienie starszej flagi ciągłej jest na true (spark.sql.legacy.inlineCTEInCommands=true).
Schemat rekurencyjny Protobuf
Znaleziono odwołanie cykliczne w schemacie Protobuf, którego nie można przetworzyć przez platformę Spark domyślnie: <fieldDescriptor>. Spróbuj ustawić opcję recursive.fields.max.depth od 1 do 10. Przechodzenie poza 10 poziomów rekursji nie jest dozwolone.
REKURSIWNY_WIDOK
Wykryto rekursywny widok <viewIdent> (cykl: <newPath>).
WARTOŚĆ_DOMYŚLNA_NIE_JEST_DOZWOLONA_W_PARTYCJI
Odwołania do wartości kolumn DEFAULT nie są dozwolone w klauzuli PARTITION.
RELACJA_WIĘKSZA_NIŻ_8G
Nie można utworzyć <relationName>, który jest większy od 8G.
REMAINDER_BY_ZERO
Pozostałe o zero. Użyj try_mod, aby obsłużyć przypadek, gdy dzielnik wynosi 0 i zwrócić zamiast tego NULL. W razie potrzeby ustaw <config> na "false", aby pominąć ten błąd.
Błąd REMOTE_FUNCTION_HTTP_FAILED_ERROR (niepowodzenie funkcji zdalnej HTTP)
Zdalne żądanie HTTP nie powiodło się z kodem <errorCode>i komunikatem o błędzie <errorMessage>
REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR (Błąd analizowania wyniku HTTP funkcji zdalnej)
Nie można ocenić <functionName> funkcji SQL z powodu niezdolności do analizowania JSON wyniku z zdalnej odpowiedzi HTTP; komunikat o błędzie to <errorMessage>. Zapoznaj się z dokumentacją interfejsu API: <docUrl>. Rozwiąż problem wskazany w komunikacie o błędzie i spróbuj ponownie wykonać zapytanie.
WYNIK_ZDALNEJ_FUNKCJI_HTTP_NIESPODZIEWANY_BŁĄD
Nie można ocenić funkcji <functionName> SQL z powodu braku możliwości przetworzenia nieoczekiwanej zdalnej odpowiedzi HTTP; komunikat o błędzie to <errorMessage>. Zapoznaj się z dokumentacją interfejsu API: <docUrl>. Rozwiąż problem wskazany w komunikacie o błędzie i spróbuj ponownie wykonać zapytanie.
LIMIT_CZASU_WZNOWIENIA_HTTP_FUNKCJI_ZDALNEJ
Żądanie zdalne nie powiodło się po ponowieniu próby <N> razy; ostatni kod błędu HTTP, który zakończył się niepowodzeniem, został <errorCode>, a komunikat został <errorMessage>
BŁĄD_ZDALNEJ_FUNKCJI_BRAKUJĄ_WYMAGANIA
Nie udało się ocenić funkcji SQL <functionName>, ponieważ <errorMessage>. Sprawdź wymagania w <docUrl>. Rozwiąż problem wskazany w komunikacie o błędzie i spróbuj ponownie wykonać zapytanie.
REMOTE_QUERY_FUNCTION_UNSUPPORTED_CONNECTOR_PARAMETERS
Parametry <parameterNames> nie są obsługiwane dla funkcji remote_query, która wysyła zapytanie do połączenia "<connectionName>" typu "<connectionType>".
Aby uzyskać więcej informacji, zobacz REMOTE_QUERY_FUNCTION_UNSUPPORTED_CONNECTOR_PARAMETERS
RENAME_SRC_PATH_NIEZNALAZŁ ŚCIEŻKI
Nie udało się zmienić nazwy, ponieważ nie znaleziono <sourcePath>.
POWTÓRZONA_KLAUZULA
Klauzula <clause> może być używana co najwyżej raz na operację <operation>.
OBOWIĄZKOWY_PARAMETR_JUŻ_DOSTARCZONY_POZYCYJNIE
Parametr <routineName> wymagany dla rutyny <parameterName> został przypisany na pozycji <positionalIndex> bez nazwy.
Zaktualizuj wywołanie funkcji, aby usunąć nazwany argument z <parameterName> dla tego parametru lub usunąć argument pozycyjny.
argument w <positionalIndex>, potem spróbuj ponownie wykonać zapytanie.
NIE ZNALEZIONO WYMAGANEGO PARAMETRU
Nie można wywołać rutyny <routineName>, ponieważ parametr o nazwie <parameterName> jest wymagany, ale wywołanie rutyny nie podało wartości. Zaktualizuj rutynowe wywołanie, aby podać wartość argumentu (pozycjonalnie w indeksie <index> lub według nazwy) i ponów próbę zapytania.
REQUIRES_EXPLICIT_NAME_IN_WATERMARK_CLAUSE
Klauzula limitu wymaga jawnej nazwy, jeśli określono wyrażenie, ale ma wartość <sqlExpr>.
WYMAGA_JEDNOELEMENTOWEJ_PRZESTRZENI_NAZW
<sessionCatalog> wymaga jednoczęściowej przestrzeni nazw, ale otrzymano <namespace>.
KOLIZJA_KOLUMN_DANYCH_URATOWANYCH_Z_POJEDYNCZYM_WARIANTEM
Opcja API DataFrame 'rescuedDataColumn' czytnika jest wzajemnie wykluczająca się z opcją API DataFrame 'singleVariantColumn'.
Usuń jedną z nich, a następnie ponów próbę wykonania operacji ramki danych.
ZAREZERWOWANE_KOLUMNY_CDC_PODCZAS_ZAPISU
Zapis zawiera kolumny zarezerwowane <columnList>, które są używane
wewnętrznie jako metadane dla strumienia zmian danych. Aby móc zapisać do tabeli, zmień jej nazwę lub usuń.
te kolumny lub wyłącz strumień danych zmian w tabeli przez ustawienie
<config> na false.
OGRANICZONA_OPCJA_STREAMINGU_UPRAWNIENIA_EGZEKWOWANA
Opcja <option> ma ograniczone wartości w klastrach udostępnionych dla źródła <source>.
Aby uzyskać więcej informacji, odwołaj się do RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
ROUTINE_JUŻ_ISTNIEJE
Nie można utworzyć <newRoutineType> <routineName>, ponieważ istnieje już <existingRoutineType> tej nazwy.
Wybierz inną nazwę, upuść lub zastąp istniejącą <existingRoutineType>lub dodaj klauzulę IF NOT EXISTS, aby tolerować istniejącą <newRoutineType>.
RUTYNA_NIEZNALAZŁA
Nie można odnaleźć rutyny <routineName>. Sprawdź pisownię i poprawność schematu i wykazu.
Jeśli nazwa nie została zakwalifikowana do schematu i katalogu, sprawdź dane wyjściowe current_schema() lub zakwalifikuj nazwę z poprawnym schematem i wykazem.
Aby tolerować błąd podczas upuszczania, użyj polecenia DROP...IF EXISTS.
NIE ZNALEZIONO PARAMETRU PROCEDURY
Procedura <routineName> nie obsługuje parametru <parameterName> określonego na pozycji <pos>.<suggestion>
ROUTINE_USES_SYSTEM_RESERVED_NAZWA_KLASY_ZASTRZEŻONA_PRZEZ_SYSTEM
Nie można utworzyć funkcji <routineName> , ponieważ określona nazwa klasy "<className>" jest zarezerwowana do użycia systemu. Zmień nazwę klasy i spróbuj ponownie.
Niezgodność ochrony na poziomie wiersza (ABAC)
Nie można rozpoznać filtrów wierszy w <tableName>, ponieważ wystąpiła niezgodność między filtrami wierszy dziedziczonych z zasad i jawnie zdefiniowanymi filtrami wierszy. Aby kontynuować, wyłącz kontrolę dostępu opartą na atrybutach (ABAC) i skontaktuj się z pomocą techniczną usługi Databricks.
ZABEZPIECZENIA_POZIOMU_WIERSZA_SPRAWDZENIE_OGRANICZENIA_NIEOBSŁUGIWANE
Tworzenie ograniczenia CHECK w tabeli <tableName> z zasadami zabezpieczeń na poziomie wiersza nie jest obsługiwane.
ROW_LEVEL_SECURITY_COLUMN_MASK_UNRESOLVED_REFERENCE_COLUMN
Nie można rozpoznać kolumny o nazwie <objectName> , do której odwołuje się filtr wiersza lub parametr funkcji maski kolumny.
Może się tak zdarzyć, jeśli schemat tabeli bazowej uległ zmianie i kolumna, do których odwołuje się odwołanie, już nie istnieje.
Na przykład może się to zdarzyć, jeśli kolumna została usunięta w systemie zewnętrznym (na przykład w tabeli federacyjnej) lub jeśli REPLACE operacja w tabeli porzuciła kolumnę.
Aby rozwiązać ten problem, użytkownicy z uprawnieniami do zarządzania w tabeli mogą sprawdzać bieżące filtry wierszy i maski kolumn przy użyciu polecenia , i usuwać lub ponownie tworzyć dowolne, które odwołują się do nieistniejących kolumn przy użyciu DESCRIBE TABLE EXTENDEDwiersza/FILTERALTER TABLE...SETDROP lub maski.
Uwaga: usługa Databricks wprowadziła poprawę bezpieczeństwa w celu zachowania masek kolumn podczas REPLACE operacji, gdy nowy schemat zawiera tę samą kolumnę, nawet jeśli maska nie jest określona. Zapobiega to przypadkowej utracie zasad w tabelach.
BEZPIECZEŃSTWO_W_POZIOMIE_WIERSZA_DUPLIKAT_NAZWY_KOLUMNY
Instrukcja <statementType> próbowała przypisać zasady zabezpieczeń na poziomie wiersza do tabeli, ale co najmniej dwie przywoływane kolumny miały taką samą nazwę <columnName>, co jest nieprawidłowe.
FUNKCJA ZABEZPIECZEŃ NA POZIOMIE WIERSZA NIE JEST OBSŁUGIWANA
Zasady zabezpieczeń na poziomie wiersza dla <tableName> nie są obsługiwane:
Aby uzyskać więcej informacji, zobacz ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
Niezgodna zmiana schematu zabezpieczeń na poziomie wiersza
Nie można wykonać <statementType> <columnName> na tabeli <tableName>, ponieważ odwołuje się do niej polityka zabezpieczeń na poziomie wiersza. Właściciel tabeli musi usunąć lub zmienić tę politykę przed kontynuowaniem.
ZŁĄCZANIE_POZIOMU_WIERSZA_BEZ_WSPARCIA_ŹRÓDŁA
MERGE INTO operacje nie obsługują polityk zabezpieczeń na poziomie wierszy w źródłowej tabeli <tableName>.
NIEOBSŁUGIWANY_CEL_MERGE_DLA_BEZPIECZEŃSTWA_POZIOMU_WIERSZA
MERGE INTO operacje nie obsługują zapisu do tabeli <tableName> z politykami zabezpieczeń na poziomie wiersza.
SEKURYTET_POZIOMU_WIERSZA_NAZWA_WIELOCZĘŚCIOWA_KOLUMNY
Ta instrukcja próbowała przypisać zasady zabezpieczeń na poziomie wiersza do tabeli, ale przywoływane kolumny <columnName> miały wiele części nazw, co jest nieprawidłowe.
Bezpieczeństwo na poziomie wiersza wymaga katalogu Unity
Zasady zabezpieczeń na poziomie wiersza są obsługiwane tylko w Unity Catalog.
ROW_LEVEL_SECURITY_SECONDARY_INDEX_CREATION_UNSUPPORTED
Nie można utworzyć indeksu ON TABLE <tableName> pomocniczego, ponieważ tabela ma zdefiniowane zasady zabezpieczeń na poziomie wiersza.
ZABEZPIECZENIE_W_POZIOMIE_WIERSZA_POKAŻ_PARTYCJE_NIEOBSŁUGIWANE
SHOW PARTITIONS polecenie nie jest obsługiwane w przypadku tabel<format> z polityką zabezpieczeń na poziomie wiersza.
Źródło klonowania tabeli z zabezpieczeniami na poziomie wiersza nieobsługiwane.
<mode> klonowanie z tabeli <tableName> z zasadami zabezpieczeń na poziomie wiersza nie jest obsługiwane.
OGRANICZENIA_POZIOMU_WIERSZY_KLONOWANIE_TABELI_CEL_NIEOBSŁUGIWANY
Klonowanie tabeli <mode> do tabeli <tableName> z zasadami zabezpieczeń na poziomie wiersza nie jest obsługiwane.
Bezpieczeństwo na poziomie wiersza: nieobsługiwana stała jako parametr
Używanie stałej jako parametru w zasadach zabezpieczeń na poziomie wiersza nie jest obsługiwane. Zaktualizuj polecenie SQL, aby usunąć stałą z definicji filtru wierszy, a następnie ponów próbę polecenia.
Nieobsługiwany typ danych dla ROW_LEVEL_SECURITY
SQLSTATE: 0AKDC
Funkcja <functionName> używana dla zasad zabezpieczeń na poziomie wiersza ma parametr z nieobsługiwanym typem <dataType>danych .
NIEWSPARTE_DOSTAWCA_POZIOMU_BEZPIECZEŃSTWA_WIERSZA
Nie można wykonać <statementType> polecenia, ponieważ przypisywanie zasad zabezpieczeń na poziomie wiersza nie jest obsługiwane dla docelowego źródła danych z dostawcą tabel: "<provider>".
ZAPYTANIE_PODZAPYTANIA_ZA_DUŻO_WIERSZY
Więcej niż jeden wiersz zwracany przez podzapytywanie używane jako wiersz.
WARTOŚĆ_WIERSZA_JEST_PUSTA
Znaleziono NULL w wierszu pod indeksem <index>, oczekiwano wartości różnej odNULL.
IDENTYFIKATOR_ZASADY_NIE_ZNALEZIONY
Nie znaleziono identyfikatora nazwy reguły "<ruleName>". Zmodyfikuj regułę RuleIdCollection.scala, jeśli dodajesz nową regułę.
RUN_EMPTY_PIPELINE
Potoki powinny mieć zdefiniowany co najmniej jeden nie tymczasowy zestaw danych (tabele, utrwalone widoki), ale w potoku nie znaleziono żadnych nie tymczasowych zestawów danych.
Sprawdź, czy zostały dołączone oczekiwane pliki źródłowe i czy kod źródłowy zawiera definicje tabeli (na przykład CREATE MATERIALIZED VIEW w kodzie @dp.table SQL w kodzie python).
API UDOSTĘPNIANIA DANYCH SALESFORCE NIEAUTORYZOWANE
Autoryzacja interfejsu API usługi Salesforce Data Share nie powiodła się. Sprawdź, czy szczegóły połączenia z Databricks zostały podane odpowiedniemu odbiorcy danych w udostępnianiu danych Salesforce.
UPRAWNIENIA_TABELI_PRZYKŁADOWEJ
Uprawnienia niewspierane w przykładowych bazach danych/tabelach.
SCALAR_FUNCTION_NOT_COMPATIBLE (Funkcja skalarna niezgodna)
ScalarFunction <scalarFunc> nie nadpisuje metody 'produceResult(InternalRow)' za pomocą własnej implementacji.
FUNKCJA_SKALARNY_NIECAŁKOWICIE_ZAIMPLEMENTOWANA
Funkcja skalarna <scalarFunc> nie implementuje ani nie zastępuje metody "produceResult(InternalRow)".
PODZAPYTANIE_SKALARNE_JEST_W_GROUP_BY_LUB_FUNKCJI_AGREGUJĄCEJ
Skorelowane podzapytanie skalarne "<sqlExpr>" nie występuje ani w GROUP BY, ani w żadnej funkcji agregującej.
Dodaj ją do GROUP BY zgodnie z pozycją porządkową lub opakuj ją w first() (lub first_value), jeśli nie zależy Ci na uzyskanej wartości.
Podzapytanie skalarnie: za dużo wierszy
Zwrócono więcej niż jeden wiersz przez podzapytanie użyte jako wyrażenie.
SCDS_COMMIT_LOG_UNAVAILABLE
Dziennik zatwierdzń nie istnieje z lokalizacją punktu kontrolnego=<checkpointLocation>.
SCDS_INVALID_OPTION_VALUE
Nieprawidłowa wartość opcji źródła=<optionName> z errorMsg=<message>.
SCDS_OFFSET_LOG_UNAVAILABLE
Dziennik przesunięcia nie istnieje z lokalizacją punktu kontrolnego=<checkpointLocation>.
SCDS_REQUIRED_OPTION_UNSPECIFIED
Nie można określić wymaganej opcji=<optionName>.
Harmonogram już istnieje
Nie można dodać <scheduleType> do tabeli, która ma już <existingScheduleType>. Upuść istniejący harmonogram lub użyj ... ALTER TABLE...ALTER <scheduleType> aby go zmienić.
Nieprawidłowy okres harmonogramu
Okres harmonogramu dla <timeUnit> musi być wartością całkowitą z zakresu od 1 do <upperBound> (włącznie). Otrzymano: <actual>.
Schemat już istnieje
Nie można utworzyć <schemaName> schematu, ponieważ już istnieje.
Wybierz inną nazwę, upuść istniejący schemat lub dodaj klauzulę IF NOT EXISTS, aby tolerować istniejący schemat.
SCHEMAT_NIE_PUSTY
Nie można usunąć <schemaName> schematu, ponieważ zawiera on obiekty.
Użyj DROP SCHEMA...CASCADE polecenia , aby usunąć schemat i wszystkie jego obiekty.
SCHEMAT_NIE_ZNALEZIONY
Nie można odnaleźć <schemaName> schematu. Sprawdź pisownię i poprawność schematu i wykazu.
Jeśli nie kwalifikowałeś nazwy katalogiem, sprawdź wyniki current_schema() lub zakwalifikuj nazwę z poprawnym katalogiem.
Aby tolerować błąd podczas upuszczania, użyj DROP SCHEMA IF EXISTS.
BŁĄD_KONFIGURACJI_REJESTRU_SCHEMATÓW
Nie można zainicjować schematu z rejestru schematów.
<reason>.
SEARCH_INDEX_CATALOG_SCHEMA_MISMATCH
Nie można utworzyć indeksu <indexName> wyszukiwania w katalogu <indexCatalog> i schemacie <indexSchema>. Indeks musi zostać utworzony w tym samym wykazie i schemacie co tabela <tableName> (<tableCatalog>podstawowa .<tableSchema>
SEARCH_INDEX_INVALID_PARAMETERS
Nie można utworzyć indeksu wyszukiwania. Podano nieprawidłowy parametr:
Aby uzyskać więcej informacji, zobacz SEARCH_INDEX_INVALID_PARAMETERS
SEARCH_INDEX_NAME_CONFLICTS_WITH_TABLE
Tabela o nazwie <indexName> indeksu już istnieje. Podaj niestandardową nazwę indeksu, która nie powoduje konfliktu z istniejącymi tabelami.
SEARCH_INDEX_OUTDATED_SCHEMA
Indeks <indexName> wyszukiwania ma nieaktualny schemat. Utwórz ponownie indeks przy użyciu:
DROP SEARCH INDEX <indexName>;
CREATE SEARCH INDEX <indexName> ON <tableName>(<columnsList>);
SEARCH_REQUIRES_SEARCHABLE_COLUMNS
<context> wymaga kolumn z typami z możliwością wyszukiwania (STRING COLLATE UTF8_BINARY, VARIANTlub ARRAY).
Aby uzyskać więcej informacji, zobacz SEARCH_REQUIRES_SEARCHABLE_COLUMNS
SEARCH_REQUIRES_STRING_LITERALS_ARGUMENTS
SEARCH wymaga <argument> , aby argument był literałami ciągu, ale <actualExpr> został podany. <possibleOptionsMessage>
SECONDARY_INDEX_REQUIRES_MANAGED_TABLE
Nie można <operation> ON TABLE <tableName>. Operację można wykonać tylko w zarządzanych tabelach.
Aby przekonwertować tabelę na zarządzaną tabelę, użyj ALTER TABLE <tableName> SET MANAGED polecenia .
Aby uzyskać więcej informacji, zobacz https://docs.databricks.com/aws/en/tables/convert-external-managed
SECONDARY_INDEX_UNSUPPORTED_TABLE_FORMAT
Nie <operation> ON TABLE <tableName>
Operację można wykonać tylko w tabelach z następującymi formatami: <supportedFormats>.
Sprawdź format tabeli za pomocą polecenia DESCRIBE DETAIL <tableName>.
Jeśli bieżący format to Parquet lub Apache Iceberg, możesz trwale przekonwertować go na miejsce za pomocą CONVERT funkcji TO DELTA <tableName>. Zobacz https://docs.databricks.com/aws/en/sql/language-manual/delta-convert-to-delta
W przeciwnym razie utwórz ponownie tabelę w jednym z obsługiwanych formatów.
DRUGI_ARGUMENT_FUNKCJI_NIE_JEST_LICZBĄ_CAŁKOWITĄ
Drugi argument funkcji <functionName> musi być liczbą całkowitą.
NIEPRAWIDŁOWA_LOKALIZACJA_FUNKCJI_TAJNEJ
Nie można wykonać <commandType> polecenia z co najmniej jednym nieszyfrowanym odwołaniem do funkcji SECRET; Zaszyfruj wynik każdego takiego wywołania funkcji za pomocą AES_ENCRYPT i spróbuj ponownie wykonać polecenie
SECURABLE_DOES_NOT_EXIST
<securable> nie istnieje.
WYRAŻENIE_NASIONA_NIE_MOŻNA_ROZWIĄZAĆ
Wyrażenie początkowe <seedExpr> wyrażenia <exprWithSeed> musi być składane.
SERWER_JEST_ZAJĘTY
Serwer jest zajęty i nie może obsłużyć żądania. Poczekaj chwilę i spróbuj ponownie.
SET_QUERY_TAGS_SYNTAX_INVALID
Nie można wykonać SET polecenia, ponieważ składnia była nieprawidłowa. Oczekiwana składnia tego polecenia to SET QUERY_TAGS lub SET QUERY_TAGS['key'] = 'value'. Popraw polecenie, aby było zgodne z tą składnią, a następnie ponownie uruchom je ponownie.
SFTP_DEPRECATED_SSH_RSA_KEY_ALGORITHM
Serwer <host>SFTP :<port> używa przestarzałego algorytmu SSH RSA na potrzeby wymiany kluczy.
Rozważ uaktualnienie serwera SFTP, aby użyć bezpieczniejszego algorytmu, takiego jak ECDSA lub ED25519.
Alternatywnie pomiń ten błąd, ustawiając <escapeHatchConf> wartość true
NIE MOŻNA POŁĄCZYĆ Z SFTP
Nie można nawiązać połączenia z serwerem <host> SFTP na porcie <port> z nazwą użytkownika <user>.
<error>
SFTP_UNKNOWN_HOST_KEY
Klucz hosta serwera <host> SFTP jest nieznany lub został zmieniony.
Sprawdź poniższy komunikat o błędzie, a następnie podaj odcisk palca klucza w Key fingerprint polu.
Jeśli na przykład komunikat wskazuje, że "ECDSA odcisk palca klucza to SHA256:XXX/YYY", prześlij "SHA256:XXX/YYY" jako odcisk palca klucza.
Komunikat o błędzie połączenia:
<error>
Użytkownik SFTP nie pasuje
Użytkownik pobrany z poświadczeń <credentialUser> nie jest zgodny z tym, który został określony w ścieżce SFTP <path>.
POKAŻ_KOLUMNY_Z_KONFLIKTOWĄ_PRZESTRZENIĄ_NAZEWNICTWA
SHOW COLUMNS z konfliktowymi przestrzeniami nazw: <namespaceA> != <namespaceB>.
SNOWFLAKE_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
Walidacja źródeł danych Snowflake nie powiodła się.
Aby uzyskać więcej informacji, zobacz SNOWFLAKE_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
Sortuj bez grupowania
Funkcji sortBy należy używać razem z bucketBy.
ANULOWANO_ZADANIE_SPARK
Zadanie <jobId> zostało anulowane <reason>
Określenie segmentacji nie jest dozwolone
CREATE TABLE bez jawnej listy kolumn nie może określić informacji dotyczących segmentacji.
Proszę użyć tego formularza z jawną listą kolumn i określić informacje dotyczące segmentacji.
Alternatywnie, możesz pozwolić, aby informacje o grupowaniu były wywnioskowane poprzez pominięcie klauzuli.
OKREŚLENIE_CLUSTER_BY_Z_BUCKETING_NIE_JEST_DOZWOLONE
Nie można określić zarówno CLUSTER BY, jak i CLUSTERED BY INTO BUCKETS.
Podanie CLUSTER BY razem z PARTITIONED BY nie jest dozwolone
Nie można określić zarówno CLUSTER BY, jak i PARTITIONED BY.
Określenie partycji nie jest dozwolone.
CREATE TABLE nie może określić PARTITIONED BYbez jawnej listy kolumn.
Użyj formularza z jawną listą kolumn i określ PARTITIONED BY.
Alternatywnie, można dopuścić domyślne partycjonowanie, pomijając klauzulę PARTITION BY.
SQL_CONF_NOT_FOUND (konfiguracja SQL nie została znaleziona)
Nie można odnaleźć konfiguracji SQL <sqlConf>. Sprawdź, czy konfiguracja istnieje.
SQL_SCRIPT_IN_EXECUTE_IMMEDIATE
Skrypty SQL w EXECUTE IMMEDIATE poleceniach są niedozwolone. Upewnij się, że podane zapytanie SQL (<sqlString>) nie jest skryptem SQL. Upewnij się, że sql_string jest poprawnie sformułowaną instrukcją SQL i nie zawiera BEGIN i END.
Przekroczono maksymalną liczbę znaków w skrypcie SQL
Przekroczono maksymalną liczbę znaków w skrycie SQL (identyfikator: <scriptId>) . Maksymalna dozwolona liczba znaków to <maxChars>, a skrypt miał <chars> znaki.
MAKSYMALNA_LICZBA_LINII_SKRYPTU_SQL_PRZEKROCZONA
Przekroczono maksymalną liczbę wierszy skryptu SQL (identyfikator: <scriptId>) . Maksymalna dozwolona liczba wierszy to <maxLines>, a skrypt miał <lines> wiersze.
Przekroczono maksymalną liczbę deklaracji zmiennych lokalnych w skrypcie SQL
Przekroczono maksymalną liczbę deklaracji zmiennych lokalnych w skrypcie SQL (identyfikator: <scriptId>). Maksymalna dozwolona liczba deklaracji to <maxDeclarations>, a skrypt miał <declarations>.
SQL_LIMIT_PRZEKROCZONY_DLA_ZAGNIEŻDŻONYCH_WYWOWŁAŃ_PROCEDUR_SKŁADOWANYCH
Przekroczono maksymalną liczbę zagnieżdżonych wywołań procedury (nazwa: <procedureName>, identyfikator wywołania: <procedureCallId>). Maksymalna dozwolona liczba zagnieżdżonych wywołań procedury to <limit>.
ŚCIEŻKA_INSCENIZACJI_AKTUALNIE_NIEDOSTĘPNA
Błąd przejściowy podczas uzyskiwania dostępu do tymczasowej ścieżki docelowej <path>, proszę spróbować ponownie za kilka minut.
GRUPA_GWIAZD_WEDŁUG_POZYCJI
Gwiazdka (*) nie jest dozwolona na liście wyboru, gdy używana jest pozycja porządkowa GROUP BY.
PROCESOR_STANOWISKOWY_NIE_MOŻE_WYKONAĆ_OPERACJI_Z_NIEPRAWIDŁOWYM_STANEM_UCHWYTU
Nie udało się wykonać operacji stanowej procesora=<operationType> z nieprawidłowym stanem uchwytu=<handleState>.
PROCESOR_STANOWY_NIE_MOŻE_WYKONAĆ_OPERACJI_Z_NIEPRAWIDŁOWYM_TYPOWANIEM_CZASU
Nie udało się wykonać operacji procesora ze stanem =<operationType> z nieprawidłowym trybem czasowym =<timeMode>
DUPLIKAT ZMIENNEJ STANU ZDEFINIOWANY W PROCESORZE STANOWYM
Zmienna stanu o nazwie <stateVarName> została już zdefiniowana w obiekcie StatefulProcessor.
Procesor o stanie niepoprawnym trybie czasu do przypisania TTL
Nie można użyć TTL dla state=<stateName> w timeMode=<timeMode>. Zamiast tego użyj TimeMode.ProcessingTime().
CZAS_TRWANIA_PROCESORA_Z_STANEM_MUSI_BYĆ_DODATNI
Czas życia (TTL) musi być większy niż zero dla operacji w magazynie stanu = <operationType> na stanie = <stateName>.
NIEZNANY TRYB CZASOWY PROCESORA STANU
Nieznany tryb czasu <timeMode>. Zaakceptowane tryby dla timeMode to "none", "processingTime", "eventTime"
STATE_REPARTITION_INVALID_CHECKPOINT
Podana lokalizacja punktu kontrolnego "<checkpointLocation>" jest w nieprawidłowym stanie.
Aby uzyskać więcej informacji, zobacz STATE_REPARTITION_INVALID_CHECKPOINT
STATE_REPARTITION_INVALID_PARAMETER
Parametr <parameter> ponownej części jest nieprawidłowy:
Aby uzyskać więcej informacji, zobacz STATE_REPARTITION_INVALID_PARAMETER
NIE MOŻNA UTWORZYĆ RODZINY KOLUMN ZE ZASTRZEŻONYMI ZNAKAMI W STATE_STORE
Nie można utworzyć rodziny kolumn z nieobsługiwanym znakiem początkowym i nazwą =<colFamilyName>.
NIE MOŻNA UŻYĆ RODZINY KOLUMN Z NIEPRAWIDŁOWĄ NAZWĄ W MAGAZYNIE STANU
Nie można wykonać operacji rodziny kolumn =<operationName> z nieprawidłową nazwą =<colFamilyName>. Nazwa rodziny kolumn nie może być pusta, zawierać spacji na początku lub na końcu, lub zawierać zastrzeżonego słowa kluczowego 'default'.
STATE_STORE_CHECKPOINT_IDS_NOT_SUPPORTED
<msg>
STATE_STORE_CHECKPOINT_LOCATION_NOT_EMPTY
Lokalizacja <checkpointLocation> punktu kontrolnego powinna być pusta w partii 0
Użyj nowej lokalizacji punktu kontrolnego lub usuń istniejące dane w lokalizacji punktu kontrolnego.
SCHEMAT KOLUMN RODZINNYCH W SKLEPIE STANU JEST NIEKOMPATYBILNY
Niezgodna transformacja schematu z rodziną kolumn =<colFamilyName>, oldSchema =<oldSchema>, newSchema =<newSchema>.
MAGAZYN_STANU_NIE_OBSŁUGUJE_WIELOKROTNEGO_ITERATORA
<inputClass> StateStore nie obsługuje iteratora wielokrotnego użytku.
UCHWYT_STANU_SKLEPU_NIEZAINICJALIZOWANY
Uchwyt nie został zainicjowany dla tego StatefulProcessor.
Używaj tylko StatefulProcessor w odniesieniu do operatora transformWithState.
STATE_STORE_BŁĘDNA_LICZBA_KOLUMN_SORTOWANIA_DLA_ZASIĘGU_SKANOWANIA
Nieprawidłowa liczba liczb porządkowych =<numOrderingCols> dla enkodera skanowania zakresu. Liczba liczb porządkowych nie może być równa zero ani większa niż liczba kolumn schematu.
NIEWŁAŚCIWA_LICZBA_KOLUMN_PREFIKSU_DLA_SKANU_PREFIKSU
Nieprawidłowa liczba kolumn prefiksu =<numPrefixCols> dla kodera skanującego prefiksy. Kolumny prefiksu nie mogą być zerowe ani większe lub równe liczbie kolumn schematu.
STATE_STORE_INVALID_AVRO_SCHEMA
Wykryto nieprawidłowy schemat kodowania Avro.
Aby uzyskać więcej informacji, zobacz STATE_STORE_INVALID_AVRO_SCHEMA
NIEWŁAŚCIWA_KONFIGURACJA_SKLEPU_STANU_PO_RESTARCIE
Nie można zmienić <configName> z <oldConfig> na <newConfig> między ponownymi uruchomieniami. Ustaw <configName> na <oldConfig>lub uruchom ponownie przy użyciu nowego katalogu punktu kontrolnego.
NIEPRAWIDŁOWY_DOSTAWCA_ZBIORNIKA_STANU
Dany dostawca pamięci stanu <inputClass> nie rozszerza org.apache.spark.sql.execution.streaming.state.StateStoreProvider.
NIEPRAWIDŁOWA_ZMIANA_TYPU_ZMIENNEJ_W_MAGAZYNIE_STANU
Nie można zmienić <stateVarName> na <newType> między ponownym uruchomieniem zapytania. Ustaw <stateVarName> na <oldType>lub uruchom ponownie przy użyciu nowego katalogu punktu kontrolnego.
STATE_STORE_KEY_SCHEMA_NOT_COMPATIBLE
Podany schemat klucza nie jest zgodny z istniejącym schematem w stanie operatora.
Istniejący schemat=<storedKeySchema>; podany schemat=<newKeySchema>.
Aby uruchomić zapytanie bez weryfikacji schematu, ustaw wartość false spark.sql.streaming.stateStore.stateSchemaCheck.
Należy pamiętać, że uruchamianie bez sprawdzania poprawności schematu może mieć niedeterministyczne zachowanie.
Timeout_natywny_rocksdb_state_store
Podczas uzyskiwania dostępu do sklepu stanów RocksDB dla operacji strumieniowej z pamięcią o stanie, wywołanie natywnej funkcji RocksDB <funcName> przekroczyło limit czasu po oczekiwaniu timeout=<timeoutMs> ms. Spróbuj ponownie i uruchom ponownie klaster, jeśli błąd będzie się powtarzać.
ZAMÓWIENIE_KOLUMN_TYP_NIEZNANY_STAN_SKLEPU_NIEOBSŁUGIWANY
Kolumna sortowania typu null o nazwie <fieldName> przy indeksie <index> nie jest obsługiwana dla kodera skanowania zakresowego.
DOSTAWCA_PRZECHOWYWANIA_STANU_NIE_OBSŁUGUJE_DROBNOSZCZEGÓŁOWEGO_ODTWARZANIA_STANU
Podany dostawca magazynu stanów <inputClass> nie rozszerza org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay.
W związku z tym nie obsługuje opcji takich jak snapshotStartBatchId lub readChangeFeed w źródle danych stanu.
STATE_STORE_ROCKSDB_ZIP_ALREADY_EXISTS
Plik <zipFilePath> zip migawki bazy danych RocksDB już istnieje. Oznacza to, że migawka została już przekazana do systemu plików DFS.
(allowVersionOverwrite=<allowVersionOverwrite>, shouldUseCommitService=<shouldUseCommitService>)
PROG_STANU_PRZEKROCZONY_PRÓG_PLIKÓW_SCHEMA_STANU
Liczba plików schematu stanu <numStateSchemaFiles> przekracza maksymalną liczbę plików schematu stanu dla tego zapytania: <maxStateSchemaFiles>.
Dodano: <addedColumnFamilies>, usunięto: <removedColumnFamilies>
Ustaw wartość "spark.sql.streaming.stateStore.stateSchemaFilesThreshold" na wyższą liczbę lub przywróć modyfikacje schematu stanu
NIEOBSŁUGIWANA_OPERACJA_W_STANOWYM_MAGAZYNIE_DANYCH_NA_NIEISTNIEJĄCEJ_RODZINIE_KOLUMN
Operacja przechowywania stanu=<operationType> niedozwolona dla brakującej rodziny kolumn=<colFamilyName>.
PRZEKROCZONO PRÓG EWOLUCJI SCHEMATU WARTOŚCI W MAGAZYNIE STANU
Liczba ewolucji schematu stanu <numSchemaEvolutions> przekracza maksymalną liczbę ewolucji schematu stanu, <maxSchemaEvolutions>, dozwoloną dla tej rodziny kolumn.
Problemowa rodzina kolumn: <colFamilyName>
Ustaw wartość "spark.sql.streaming.stateStore.valueStateSchemaEvolutionThreshold" na wyższą liczbę lub przywróć modyfikacje schematu stanu
STATE_STORE_VALUE_SCHEMA_NOT_COMPATIBLE
Podany schemat wartości nie jest zgodny z istniejącym schematem w stanie operatora.
Istniejący schemat=<storedValueSchema>; podany schemat=<newValueSchema>.
Aby uruchomić zapytanie bez weryfikacji schematu, ustaw wartość false spark.sql.streaming.stateStore.stateSchemaCheck.
Należy pamiętać, że uruchamianie bez sprawdzania poprawności schematu może mieć niedeterministyczne zachowanie.
State_Store_Zmiennej_Wielkości_Kolumny_Sortowania_Nieobsługiwane
Nieobsługiwana jest kolumna o zmiennym rozmiarze z nazwą=<fieldName> na indeksie=<index> dla kodera skanowania zakresowego.
KOLUMNA_PARTYCJI_STATYCZNEJ_W_LIŚCIE_KOLUMN_WSTAWIANIA
Kolumna partycji statycznej <staticName> jest również określona na liście kolumn.
BŁĄD_SKOMMITOWANEJ_SERII_NIEDOSTĘPNY
Nie znaleziono zaksięgowanej partii, lokalizacja punktu kontrolnego: <checkpointLocation>. Upewnij się, że zapytanie zostało uruchomione i zakończone każda mikropartia przed zatrzymaniem.
Opcje_konfliktu_STDЕРами
Opcji <options> nie można określić razem. Proszę określić, który.
STDS_NIEUDANO_ODCZYTU_METADANYCH_OPERATORA
Nie można odczytać metadanych operatora dla checkpointLocation=<checkpointLocation> i batchId=<batchId>.
Plik nie istnieje lub plik jest uszkodzony.
Uruchom ponownie zapytanie przesyłania strumieniowego, aby skonstruować metadane operatora i zgłosić je odpowiednim społecznościom lub dostawcom, jeśli błąd będzie się powtarzać.
STDS_NIE UDAŁO SIĘ ODCZYTAĆ SCHEMAT STANU
Nie można odczytać schematu stanu. Plik nie istnieje lub plik jest uszkodzony. opcje: <sourceOptions>.
Uruchom ponownie zapytanie przesyłania strumieniowego, aby skonstruować schemat stanu i zgłosić je odpowiednim społecznościom lub dostawcom, jeśli błąd będzie się powtarzać.
NIEPRAWIDŁOWA_WARTOŚĆ_OPCJI
Nieprawidłowa wartość opcji źródłowej "<optionName>":
Aby uzyskać więcej informacji, zobacz STDS_INVALID_OPTION_VALUE
STDS_MIXED_CHECKPOINT_FORMAT_VERSIONS_NOT_SUPPORTED
Stan odczytu w różnych wersjach formatu punktu kontrolnego nie jest obsługiwany.
startBatchId=<startBatchId>, endBatchId=<endBatchId>.
startFormatVersion=<startFormatVersion>, endFormatVersion=<endFormatVersion>.
STDS_BRAK_PARTYCJI_ODKRYTEJ_W_STANIE_MAGAZYNOWYM
Stan nie ma żadnej partycji. Sprawdź dokładnie, czy zapytanie wskazuje prawidłowy stan. opcje: <sourceOptions>
STDS_OFFSET_LOG_NIEDOSTĘPNY
Dziennik przesunięcia dla <batchId> nie istnieje, lokalizacja punktu kontrolnego: <checkpointLocation>.
Określ identyfikator wsadu, który jest dostępny do zapytania — możesz zapytać o dostępne identyfikatory wsadowe przy użyciu źródła danych dotyczących metadanych stanu.
STDS_OFFSET_METADATA_LOG_NIEDOSTĘPNY
Metadane nie są dostępne dla dziennika przesunięcia dla <batchId>, lokalizacja punktu kontrolnego: <checkpointLocation>.
Wydaje się, że punkt kontrolny działa tylko ze starszymi wersjami platformy Spark. Uruchom zapytanie przesyłania strumieniowego z najnowszą wersją Sparka, aby Spark skonstruował metadane stanu.
Opcja_wymagana_STDS_nieokreślona
Należy określić wartość "<optionName>".
Strumieniowanie_AQE_nieobsługiwane_dla_operatorów_stanowych
Wykonywanie zapytań adaptacyjnych nie jest obsługiwane w przypadku operatorów stanowych w strumieniu ustrukturyzowanym.
STREAMING_CHECKPOINT_METADATA_ERROR
Błąd z metadanymi punktu kontrolnego przesyłania strumieniowego.
Aby uzyskać więcej informacji, zobacz STREAMING_CHECKPOINT_METADATA_ERROR
STREAMING_CHECKPOINT_PIN_BATCH_ERROR
Nie można wykonać operacji przypinania dla zapytania przesyłania strumieniowego z lokalizacją punktu kontrolnego =<checkpointLocation> na batchId=<batchId>.
Aby uzyskać więcej informacji, zobacz STREAMING_CHECKPOINT_PIN_BATCH_ERROR
STREAMING_CHECKPOINT_REWIND_ERROR
Nie można wykonać operacji ponownego przewijania dla zapytania przesyłania strumieniowego z lokalizacją punktu kontrolnego=<checkpointLocation>.
Aby uzyskać więcej informacji, zobacz STREAMING_CHECKPOINT_REWIND_ERROR
STREAMING_CHECKPOINT_REWIND_OPTIONS_ERROR
Błąd podczas operacji ponownego przewijania punktu kontrolnego przesyłania strumieniowego.
Aby uzyskać więcej informacji, zobacz STREAMING_CHECKPOINT_REWIND_OPTIONS_ERROR
STRUMIENIOWANIE_Z_ZMATERIALIZOWANEGO_WIDOKU
Niemożliwe jest streamowanie z zmaterializowanego widoku <viewName>. Przesyłanie strumieniowe z zmaterializowanych widoków nie jest obsługiwane.
STREAMING_OUTPUT_MODE (tryb wyjściowy strumieniowania)
Nieprawidłowy tryb wyjściowy przesyłania strumieniowego: <outputMode>.
Aby uzyskać więcej informacji, zobacz STREAMING_OUTPUT_MODE
STREAMING_QUERY_EVOLUTION_ERROR
Błąd ewolucji zapytań przesyłanych strumieniowo:
Aby uzyskać więcej informacji, zobacz STREAMING_QUERY_EVOLUTION_ERROR
STREAMING_RATE_SOURCE_OFFSET_VERSION_MISMATCH
Oczekiwano wersji <expectedVersion>przesunięcia źródła współczynnika, ale masz wersję <actualVersion>. Aby kontynuować, ustaw opcję "wersja" na <expectedVersion> wartość w opcjach źródła stawki. Na przykład spark.readStream.format("rate").option("version", "<expectedVersion>").
STREAMING_RATE_SOURCE_V2_PARTITION_NUM_CHANGE_UNSUPPORTED
Liczba partycji (<prevNum>) używanych w poprzednim mikrobajcie różni się od bieżącej liczby partycji (<currNum>). Mogą istnieć dwa możliwe przyczyny:
Opcja "numPartitions" źródła szybkości jest zmieniana podczas ponownego uruchamiania zapytania.
Rozmiar klastra może ulec zmianie podczas ponownego uruchamiania zapytania.
Jawnie ustaw opcję "numPartitions" źródła stawki, aby rozwiązać <prevNum> ten problem.
STREAMING_RATE_SOURCE_V2_RAMPUP_TIME_UNSUPPORTED
Opcja "rampUpTime" nie jest obsługiwana przez wersję 2. Aby użyć tej opcji, ustaw opcję "version" na 1. Na przykład spark.readStream.format("rate").option("version", "1").
TRYB_TRANSMISJI_W_CZASIE_RZECZYWISTYM
Tryb przesyłania strumieniowego w czasie rzeczywistym ma następujące ograniczenie:
Aby uzyskać więcej informacji, zobacz STREAMING_REAL_TIME_MODE
STREAMING_REAL_TIME_WATERMARK_PROPAGATION
Propagacja znaku wodnego w czasie rzeczywistym ma następujące ograniczenie:
Aby uzyskać więcej informacji, zobacz STREAMING_REAL_TIME_WATERMARK_PROPAGATION
STREAMING_SINK_DELIVERY_MODE
Nieprawidłowy tryb dostarczania ujścia przesyłania strumieniowego: <deliveryMode>.
Aby uzyskać więcej informacji, zobacz STREAMING_SINK_DELIVERY_MODE
STREAMING_SKIP_OFFSETS_INVALID_RANGE
Nieprawidłowy zakres przesunięcia pominięcia: przesunięcie <endOffset> końcowe jest mniejsze niż przesunięcie <startOffset>początkowe . Napraw ten zakres przesunięcia i spróbuj ponownie.
STREAMING_STATEFUL_OPERATOR_MISSING_STATE_DIRECTORY
Nie można ponownie uruchomić zapytania przesyłania strumieniowego za pomocą operatorów stanowych, ponieważ katalog stanu jest pusty lub brakuje go.
Zwykle występuje to, gdy pliki stanu zostały usunięte lub zapytanie przesyłania strumieniowego zostało wcześniej uruchomione bez operatorów stanowych, ale ponownie uruchomione z operatorami stanowymi.
Usuń operatory stanowe, użyj nowej lokalizacji punktu kontrolnego lub przywróć brakujące pliki stanu.
OPERATOR_STANU_STRUMIENIOWEGO_NIEZGODNY_W_METADANYCH_STANU
Nazwa operatora z zachowaniem stanu nie pasuje do operatora w metadanych stanu. Może to mieć miejsce, gdy użytkownik dodaje, usuwa lub zmienia stanowy operator istniejącego zapytania przesyłania strumieniowego.
Operatory stanowe w metadanych: [<OpsInMetadataSeq>]; Operatory stanowe w bieżącej partii: [<OpsInCurBatchSeq>].
TABELA_STRUMIENIOWA_WYMAGA_ODŚWIEŻENIA
aby można było wykonać <tableName>, należy odświeżyć tabelę przesyłania strumieniowego <operation>.
Jeśli tabela zostanie utworzona na podstawie DBSQL, uruchom REFRESH STREAMING TABLE.
Jeśli tabela jest tworzona przez potok w potoku w potoku Lakeflow Spark Deklaratywne potoki, uruchom aktualizację potoku.
TABELA_TRANSMISJI_NIEOBSŁUGIWANA
Tabele przesyłania strumieniowego można tworzyć i odświeżać tylko w usłudze Lakeflow Spark Deklaratywne potoki i usługi Databricks SQL Warehouse.
OPERACJA_NA_TABELI_STRUMIENIOWEJ_NIE_DOZWOLONA
Operacja <operation> jest niedozwolona:
Aby uzyskać więcej szczegółów, zobacz STREAMING_TABLE_OPERATION_NOT_ALLOWED
Nieprawidłowe zapytanie tabeli strumieniowej
Tabela przesyłania strumieniowego <tableName> może być utworzona tylko na podstawie zapytania przesyłania strumieniowego. Dodaj słowo kluczowe STREAM do klauzuli FROM, aby przekształcić tę relację w zapytanie strumieniowe.
STRUMIEŃ_NIE_ZNALEZIONY_DLA_ŹRÓDŁA_KINESIS
Nie można odnaleźć strumienia Kinesis <streamName> w <region>.
Uruchom nowe zapytanie wskazujące poprawną nazwę strumienia.
NIEZGODNOŚĆ_DŁUGOŚCI_TABLICY_STRUKTUR
Wiersz wejściowy nie zawiera oczekiwanej liczby wartości wymaganej przez schemat.
<expected> pola są wymagane, o ile <actual> wartości są dostarczone.
ST_INVALID_ALGORITHM_VALUE
Nieprawidłowa lub nieobsługiwana wartość algorytmu interpolacji krawędzi: "<alg>".
ST_INVALID_CRS_VALUE
Nieprawidłowa lub nieobsługiwana wartość CRS (system odwołania współrzędnych): "<crs>".
ST_NIEPRAWIDŁOWA_WARTOŚĆ_SRID
Nieprawidłowa lub nieobsługiwana wartość <srid>SRID (identyfikator odwołania przestrzennego): .
Suma limitu i offsetu przekracza maksymalną wartość INT
Suma klauzuli LIMIT i klauzuli OFFSET nie może być większa niż maksymalna 32-bitowa wartość całkowita (2 147 483 647), ale znaleziono limit = <limit>, przesunięcie = <offset>.
Synchronizuj_tylko_delta_metadanych
Polecenie naprawy metadanych synchronizacji tabel jest obsługiwane tylko w przypadku tabeli delta.
Synchronizacja: Źródło i Tabela docelowa nie są takie same
Nazwa tabeli źródłowej <srcTable> musi być taka sama jak nazwa tabeli docelowej <destTable>.
SYNTAKSA_ZAPRZESTANO
Obsługa klauzuli lub słowa kluczowego <clause> została zakończona w tym kontekście.
Aby uzyskać więcej informacji, zobacz SYNTAX_DISCONTINUED
TABLE_ARGUMENTS_NOT_ALLOWED
TABLE parametry nie są obsługiwane w programie <routineType>.
TABLE_NOT_VALID_SECONDARY_INDEX
Nie można wykonać DESCRIBE SEARCH INDEX polecenia, ponieważ tabela <tableName> nie jest prawidłowym <indexType> indeksem. Zaktualizuj polecenie , aby użyć prawidłowego indeksu i ponów próbę.
TABELA_LUB_WIDOK_JUŻ_ISTNIEJE
Nie można utworzyć tabeli lub widoku <relationName>, ponieważ już istnieje.
Wybierz inną nazwę, upuść istniejący obiekt, dodaj klauzulę IF NOT EXISTS, aby tolerować istniejące obiekty, dodać klauzulę OR REPLACE, aby zastąpić istniejący zmaterializowany widok lub dodać klauzulę OR REFRESH, aby odświeżyć istniejącą tabelę przesyłania strumieniowego.
TABELA_LUB_WIDOK_NIE_ZNALEZIONY
Nie można odnaleźć tabeli lub widoku <relationName>. Sprawdź pisownię i poprawność schematu i wykazu.
Jeśli nazwa nie została określona za pomocą schematu, sprawdź wynik current_schema() lub określ nazwę z poprawnym schematem i katalogiem.
Aby tolerować błąd podczas odrzutu, użyj DROP VIEW IF EXISTS lub DROP TABLE IF EXISTS.
Aby uzyskać więcej informacji, zobacz TABLE_OR_VIEW_NOT_FOUND
TABLE_TYPE_INCOMPATIBLE_WITH_ABAC_POLICY
Typ <tableName>, <tableType>tabeli nie obsługuje zasad ABAC.
Usuń zasady i ponów próbę.
ARGUMENTY_TABELARYCZNE_JESZCZE_NIE_ZAIMPLEMENTOWANE_DLA_FUNKCJI_SQL
Nie można <action> funkcji użytkownika zdefiniowanej przez SQL <functionName> przy użyciu argumentów TABLE, ponieważ ta funkcjonalność nie została jeszcze zaimplementowana.
FUNKCJA_ZWRACAJĄCA_TABELE_NIE_POWIODŁA_SIĘ_W_ANALIZIE_W_PYTHONIE
Nie można przeanalizować funkcji tabeli zdefiniowanej przez użytkownika języka Python: <msg>
Funkcja tabelaryczna: wymagana metadana jest niezgodna z wywołaniem
Nie można ewaluować funkcji tabeli <functionName>, ponieważ jej metadane tabeli to <requestedMetadata>, a wywołanie funkcji to <invalidFunctionCallProperty>.
NIEPRAWIDŁOWE METADANE WYMAGANE DLA FUNKCJI ZWRACAJĄCEJ TABELĘ
Nie można ocenić funkcji tabeli <functionName>, ponieważ jej metadane tabeli były nieprawidłowe; <reason>.
FUNKCJA_TABELARYCZNA_ZBYT_WIELE_ARGUMENTÓW_TABLICOWYCH
Istnieje zbyt wiele argumentów dla funkcji zwracającej wartości tabeli.
Umożliwia to użycie jednego argumentu tabeli, ale otrzymaliśmy: <num>.
Jeśli chcesz zezwolić na to, ustaw wartość "spark.sql.allowMultipleTableArguments.enabled" na wartość "true"
Tabela o identyfikatorze nie znaleziona
Nie można odnaleźć tabeli o identyfikatorze <tableId>. Sprawdź poprawność identyfikatora UUID.
NIE POWIODŁO SIĘ ZAPISANIE ZADANIA
Zadanie nie powiodło się przy próbie zapisywania wierszy w <path>.
LOKALIZACJA_TIMP_CZAJOWA_CHECKPOINT_NIEOBSŁUGIWANA
W bieżącym obszarze roboczym nie są obsługiwane niejawne tymczasowe lokalizacje punktów kontrolnych przesyłania strumieniowego. Prosimy o jawne określenie lokalizacji punktu kontrolnego.
W przypadku funkcji display() ustaw lokalizację punktu kontrolnego przy użyciu:
display(df, checkpointLocation = "twoja_ścieżka")
W przypadku wszystkich innych zapytań przesyłania strumieniowego użyj:
.option("checkpointLocation", "your_path").
TWORZENIE_TABELI_TYMCZASOWEJ_DZIEDZICTWO_Z_ZAPYTANIEM
CREATE TEMPORARY TABLE
...
AS... nie jest obsługiwany w tym miejscu. Zamiast tego użyj polecenia CREATE TEMPORARY VIEW
TEMP_TABLE_CREATION_MUTUAL_EXCLUSIVE_SPECS
CREATE TEMPORARY TABLE program nie obsługuje określania parametru <unsupportedSpec>.
Aby uzyskać więcej informacji, zobacz TEMP_TABLE_CREATION_MUTUAL_EXCLUSIVE_SPECS
TEMP_TABLE_CREATION_NAME_RESERVED
Nie można utworzyć tabeli <tableName> tymczasowej, ponieważ rozpoczyna się od prefiksu <reservedPrefix>nazwy zarezerwowanej. Wybierz inną nazwę i spróbuj ponownie.
TEMP_TABLE_CREATION_NOT_SUPPORTED_IN_COMPUTE
CREATE TEMPORARY TABLE [AS ... ] nie jest obsługiwany w przypadku bieżącego typu obliczeniowego. Użyj usługi Databricks SQL (DBSQL), aby zamiast tego utworzyć lokalne tabele tymczasowe sesji.
Utworzenie tymczasowej tabeli wymaga jednoczęściowej nazwy
Utworzenie lokalnej tabeli tymczasowej sesji wymaga nazwy tabeli z jedną częścią, ale ma wartość <tableName>. Zaktualizuj polecenie, aby użyć nazwy tabeli z jedną częścią i spróbuj ponownie.
TEMP_TABLE_CREATION_UNSUPPORTED_LEGACY_SYNTAX_WITH_HINTS
CREATE TEMPORARY TABLE
...
USING
...
AS ... nie jest obsługiwana. Aby utworzyć tabelę tymczasową, usuń klauzulę i ponów próbę USING .
USUNIĘCIE_TYMCZASOWEJ_TABELI_WZAJEMNIE_WYKLUCZAJĄCE_SPECS
DROP TEMPORARY TABLE nie obsługuje określania parametru <unsupportedSpec>, usuń tę specyfikację lub usuń stałą tabelę przy użyciu DROP TABLE polecenia .
Usunięcie tabeli tymczasowej wymaga nazwy z jedną częścią
Usunięcie sesyjnej lokalnej tabeli tymczasowej wymaga jednoczęściowej nazwy tabeli, ale otrzymano <tableName>. Zaktualizuj polecenie DROP TEMPORARY TABLE tak, aby użyć nazwy tabeli z jedną częścią w celu usunięcia tabeli tymczasowej lub zamiast tego użyj polecenia DROP TABLE w celu usunięcia tabeli trwałej.
TABELA_TYMCZASOWA_NIE_ZNALEZIONA
Nie można odnaleźć tabeli <tableName> tymczasowej w bieżącej sesji. Sprawdź pisownię i poprawność nazwy tabeli, a następnie spróbuj ponownie wykonać zapytanie lub polecenie.
Aby tolerować błąd podczas upuszczania, użyj DROP TEMP TABLE IF EXISTS.
TEMP_TABLE_NOT_SUPPORTED_WITH_DATABRICKS_JOBS
Tabela tymczasowa nie jest jeszcze obsługiwana w zadaniach usługi Databricks. Zamiast tego skorzystaj z notesów usługi Databricks i skontaktuj się z pomocą techniczną usługi Databricks, aby uzyskać więcej informacji.
Tabela tymczasowa nieobsługiwana przez HMS
Operacja <operation> tabeli tymczasowej nie jest obsługiwana w magazynie metadanych Hive.
OPERACJA_TYMCZASOWEJ_TABELI_NIEOBSŁUGIWANA
Operacje w tymczasowej lokalnej tabeli sesji <tableName> nie są obsługiwane.
Aby uzyskać więcej informacji, zobacz TEMP_TABLE_OPERATION_NOT_SUPPORTED
TEMP_TABLE_OPERATION_NOT_SUPPORTED_IN_V1_COMMAND
<operation> w tabelach tymczasowych nie jest obsługiwane za pomocą poleceń V1. Ustaw wartość "spark.sql.legacy.useV1Command" na wartość false i ponów próbę.
Tymczasowa tabela lub widok już istnieje
Nie można utworzyć tabeli tymczasowej lub widoku <relationName> , ponieważ już istnieje.
Wybierz inną nazwę, upuść lub zastąp istniejący obiekt.
TEMP_TABLE_REPLACE_NOT_SUPPORTED
[CREATE OR] REPLACE TEMPORARY TABLE nie jest obsługiwany. Aby zastąpić istniejącą tabelę tymczasową, upuść ją przy użyciu ... DROP TEMPORARY TABLE [IF EXISTS] i utwórz go ponownie przy użyciu CREATE TEMPORARY TABLE ... .
TEMP_TABLE_REQUIRES_DATABRICKS_ENV
Operacje na tabelach tymczasowych sesji lokalnej wymagają środowiska usługi Databricks.
TEMP_TABLE_REQUIRES_DELTA
Operacje na tabelach tymczasowych sesji lokalnej wymagają włączenia wykazu różnicowego. Włącz katalog Delta i spróbuj ponownie.
TABELA_TYMCZASOWA_WYMAGA_WIELKICH_LITER
Operacje na lokalnych tabelach tymczasowych sesji wymagają Unity Catalog. Włącz Unity Catalog w bieżącym środowisku i ponów próbę.
Tymczasowy widok: za dużo części nazwy
CREATE TEMPORARY VIEW lub odpowiednie interfejsy API zestawu danych akceptują tylko nazwy widoków jednoczęściowych, ale otrzymano: <actualName>.
THETA_INVALID_INPUT_SKETCH_BUFFER
Nieprawidłowe wywołanie metody <function>; tylko prawidłowe szkicu Theta są obsługiwane jako dane wejściowe (takie jak te generowane przez theta_sketch_agg funkcję).
THETA_INVALID_LG_NOM_ENTRIES
Nieprawidłowe wywołanie <function>; wartość lgNomEntries musi zawierać się w zakresie od <min> do <max>, włącznie: <value>.
THETA_LG_NOM_ENTRIES_MUST_BE_CONSTANT
Nieprawidłowe wywołanie metody <function>; lgNomEntries wartość musi być wartością stałą, ale została wyrażeniu niestałych.
ZNAK_PRZECINEK_W_ZAPYTANIU_SELECT
Końcowy przecinek znaleziono w klauzuli SELECT. Usuń przecinek końcowy przed klauzulą FROM.
TRANSACTION_CDF_SCHEMA_WITH_RESERVED_COLUMN_NAME
Nie można włączyć zestawienia danych zmian w transakcji, ponieważ tabela zawiera zarezerwowaną nazwę kolumny (<column_name>).
Aby kontynuować, upewnij się, że tabela używa tylko nazw kolumn innych niż zastrzeżone.
TRANSACTION_CDF_SETTING_HIGH_WATERMARK_NOT_ALLOWED
Ręczne ustawianie wysokiego poziomu odniesienia identyfikatorów CDC jest niedozwolone.
TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE
Wykryto współbieżną zmianę metadanych w obiekcie <table>. Uruchom polecenie ROLLBACK , a następnie ponów próbę tej transakcji. Szczegóły:
Aby uzyskać więcej informacji, zobacz TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE
TRANSACTION_CONTEXT_MISMATCH
Wykryto niespójność kontekstu transakcji między bieżącym wątkiem a sesją platformy Spark. Dzieje się tak zwykle, gdy sesja platformy Spark jest współużytkowana w wielu wątkach. Użyj dedykowanej sesji i wątku dla każdej transakcji, a następnie zatwierdź/wycofaj transakcję w swoim wątku przed ponownym użyciem sesji i wątku dla nowej transakcji. Szczegóły:
Aby uzyskać więcej informacji, zobacz TRANSACTION_CONTEXT_MISMATCH
TRANSACTION_MAX_COMMIT_TIMESTAMP_EXCEEDED (Przekroczono maksymalny czas zakończenia transakcji)
Transakcja nie może zostać zatwierdzona, ponieważ przekroczono maksymalny znacznik czasu zatwierdzenia. maxCommitTimestamp: commitTimestamp:<maxCommitTimestampMs><commitTimestampMs>
TRANSACTION_NOT_SUPPORTED
Nie udało się wykonać zapytania.
Aby uzyskać więcej informacji, zobacz TRANSACTION_NOT_SUPPORTED
TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT
Bieżąca transakcja została przerwana. Przed kontynuowaniem uruchom polecenie ROLLBACK TRANSACTION . Przyczyna przerwania:
Aby uzyskać więcej informacji, zobacz TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT
BŁĄD_FUNKCJI_UŻYTKOWNIKA_Z_STANEM_TRANSFORMACJI
Wystąpił błąd w funkcji <function> zdefiniowanej przez użytkownika klasy StatefulProcessor. Powód: <reason>.
PRZEKROCZONY_LIMITY_WIERSZY_TRANSPOZYCJI
Liczba wierszy przekracza dozwolony limit <maxValues> dla elementu TRANSPOSE. Jeśli jest to zamierzone, ustaw <config> na wartość równą lub większą niż bieżąca liczba wierszy.
TRANSPOSE_INVALID_INDEX_COLUMN (nieprawidłowa kolumna indeksu)
Nieprawidłowa kolumna indeksu dla TRANSPOSE: <reason>
TRANSPONUJ_BRAK_NAJMNIEJ_WSPÓLNEGO_TYPU
Transponowanie wymaga, aby kolumny inne niż indeksy miały najmniejszy wspólny typ, ale <dt1> i <dt2> tego nie czynią.
INTERWAŁ WYZWALACZA JEST NIEPRAWIDŁOWY
Interwał wyzwalacza musi być dodatnim okresem czasu trwania, który musi dać się przekonwertować na całe sekundy. Odebrano: <actual> sekundy.
TUPLE_IS_EMPTY
Ze względu na ograniczoną obsługę krotek w Scala, puste krotki nie są obsługiwane.
ROZMIAR_TUPLI_PRZEKRACZA_LIMIT
Ze względu na ograniczoną obsługę krotek w języku Scala, krotki z więcej niż 22 elementami nie są obsługiwane.
UC_BUCKETED_TABLES
Tabele bucketed nie są obsługiwane w Unity Catalog.
NIE PODANO NAZWY KATALOGU UC
W przypadku katalogu Unity proszę jasno określić nazwę katalogu. Na przykład SHOW GRANT your.address@email.com ON CATALOG główne.
UC_KOMENDA_NIEOBSŁUGIWANA
Polecenie(-a): <commandName> nie są obsługiwane w katalogu Unity.
Aby uzyskać więcej informacji, zobacz UC_COMMAND_NOT_SUPPORTED
POLECENIE UC NIE JEST OBSŁUGIWANE W ŚRODOWISKU BEZSERWEROWYM
Polecenia o kodzie <commandName> nie są obsługiwane w przypadku klastrów Unity Catalog w środowisku bezserwerowym. Zamiast tego użyj jednego użytkownika lub klastrów udostępnionych.
UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE (polecenie UC nieobsługiwane w trybie współdzielonego dostępu)
Polecenia <commandName> nie są obsługiwane w przypadku klastrów Unity Catalog w trybie współdzielonego dostępu. Zamiast tego należy użyć trybu dostępu pojedynczego użytkownika.
NIE ZNALEZIONO POŁĄCZENIA DLA DOSTĘPU DO ŹRÓDŁA SYSTEMU PLIKÓW
Nie można znaleźć prawidłowego połączenia UC do uzyskania dostępu do <path> po ocenie <connectionNames>.
Upewnij się, że co najmniej jedno prawidłowe połączenie UC jest dostępne do uzyskiwania dostępu do ścieżki docelowej.
Szczegółowe błędy dla ocenianych połączeń:
<connectionErrors>
UC_CEL_CREDENCJAŁÓW_NIEOBSŁUGIWANY
Określony rodzaj poświadczeń nie jest obsługiwany.
ŹRÓDŁO_DANYCH_NIE_OBSŁUGIWANE
Format źródłowy danych <dataSourceFormatName> nie jest obsługiwany przez Unity Catalog.
OPCJE_ŹRÓDŁA_DANYCH_NIEOBSŁUGIWANE
Opcje źródła danych nie są obsługiwane w Unity Catalog.
UC_ZALEŻNOŚĆ_NIE_ISTNIEJE
Zależność nie istnieje w Katalogu Unity.
<errorMessage>
Zewnętrzny wolumen nie posiada lokalizacji
klauzula LOCATION musi być obecna dla woluminu zewnętrznego. Sprawdź składnię "CREATE EXTERNAL VOLUME...LOCATION ... " do tworzenia woluminu zewnętrznego.
Stan_Provisioning_Niepowodzenie_UC
Kwerenda nie powiodła się, ponieważ próbowała odwołać się do tabeli <tableName>, ale nie mogła tego zrobić: <failureReason>. Zaktualizuj tabelę <tableName>, aby upewnić się, że jest ona w stanie aktywnej aprowizacji, a następnie spróbuj ponownie wykonać zapytanie.
SCHEMAT_PLIKU_DLA_TWORZENIA_TABELI_NIEOBSŁUGIWANY
Tworzenie tabeli w Unity Catalog ze schematem plików <schemeName> nie jest obsługiwane.
Zamiast tego utwórz połączenie federacyjnego źródła danych przy użyciu polecenia CREATE CONNECTION dla tego samego dostawcy tabel, a następnie utwórz katalog na podstawie połączenia z poleceniem CREATE FOREIGN CATALOG, aby odwołać się do tabel w tym miejscu.
UC_HIVE_METASTORE_DISABLED_EXCEPTION
Operacja próbowała użyć magazynu metadanych<identifier> Hive, który jest wyłączony z powodu wyłączenia starszego dostępu na koncie lub obszarze roboczym. Dokładnie sprawdź domyślny wykaz w bieżącej sesji i domyślnym ustawieniu przestrzeni nazw. Jeśli musisz uzyskać dostęp do magazynu metadanych Hive, poproś administratora o skonfigurowanie federacji magazynu metadanych Hive za pośrednictwem wykazu aparatu Unity.
Federacja UC Hive Metastore - widok między katalogami nieobsługiwany
Widok federacji metastore Hive nie obsługuje zależności pomiędzy wieloma katalogami. Widok <view> w katalogu federacji Hive Metastore musi używać zależności z katalogu hive_metastore lub spark_catalog, ale jego zależność <dependency> znajduje się w innym katalogu <referencedCatalog>. Zaktualizuj zależności, aby spełnić to ograniczenie, a następnie ponów próbę ponownego uruchomienia zapytania lub polecenia.
UC_HIVE_METASTORE_POŚREDNICTWO_NIE_WŁĄCZONE
Federacja magazynu metadanych Hive nie jest włączona w tym klastrze.
Uzyskiwanie dostępu do katalogu <catalogName> nie jest obsługiwane w tym klastrze.
UC_INVALID_DEPENDENCIES
Zależności <securable> są rejestrowane jako <storedDeps>, podczas gdy są analizowane jako <parsedDeps>. Prawdopodobnie wystąpiło to przez niewłaściwe użycie interfejsu API innego niż SQL.
Aby uzyskać więcej informacji, zobacz UC_INVALID_DEPENDENCIES
UC_NIEPRAWIDŁOWA_PRZESTRZEŃ_NAZW
Zagnieżdżone lub puste przestrzenie nazw nie są obsługiwane w Unity Catalog.
UC_NIEPRAWIDŁOWE_ODNIESIENIE
Obiekt <name>, który nie jestUnity-Catalog, nie może być powiązany z obiektami w katalogu Unity.
ZAPISY_DO_FEDERACJI_W_LAKEHOUSE_NIEDOZWOLONE
Federacyjna obsługa zapisu Unity Catalog Lakehouse nie jest włączona dla dostawcy <provider> w tym klastrze.
UC_LOCATION_DLA_ZARZĄDZANEJ_WOLUMINU_NIE_OBSŁUGIWANE
Wolumin zarządzany nie akceptuje klauzuli LOCATION. Sprawdź składnię "CREATE VOLUME ... " do tworzenia woluminu zarządzanego.
UC_NIE_AKTYWOWANE
Unity Catalog nie jest aktywowany w tym klastrze.
ZAPYTANIE_UC_FEDERACJA_NIE_WŁĄCZONA
Federacja zapytań Unity Catalog nie jest włączona w tym klastrze.
Rozwiązana_niezgodność_ścieżki_DBFS
Kwerenda nie powiodła się, ponieważ próbowała odwołać się do <objectType> <name>, ale nie była w stanie tego zrobić: Ścieżka DBFS <resolvedHmsPath> nie jest zgodna z lokalizacją magazynu katalogu Unity <ucStorageLocation>.
UC_SECRETS_NOT_ENABLED
Obsługa wpisów tajnych wykazu aparatu Unity nie jest włączona.
UC_SECRET_ALREADY_EXISTS
Nie można utworzyć wpisu tajnego <name> , ponieważ już istnieje.
Wybierz inną nazwę, upuść lub zastąp istniejący obiekt albo dodaj klauzulę IF NOT EXISTS, aby tolerować istniejące obiekty.
UC_SECRET_NOT_FOUND
Wpis tajny <name> nie istnieje. Użyj ciągu "SHOW SECRETS", aby wyświetlić listę dostępnych wpisów tajnych.
UC_USŁUGA_UPRAWNIENIA_NIEAKTYWNE
Poświadczenia usług nie są włączone w tym klastrze.
UC_TABLE_METADATA_OUT_OF_SYNC
Nie można wykonać kwerendy w tabeli <tableName> , ponieważ metadane tabeli nie są zsynchronizowane w wykazie. Napraw tabelę, uruchamiając najpierw polecenie "MSK REPAIR TABLE <tableName> SYNC METADATA", aby zsynchronizować metadane.
UC_UNCAUGHT_CLIENT_EXCEPTION
Napotkano nieoczekiwany błąd HTTP podczas komunikacji z zapleczem wykazu aparatu Unity usługi Databricks. Kod błędu: <errCode>. Wiadomość: <message>
UC_WOLUMENY_NIE_WŁĄCZONE
Obsługa Unity Catalog Volumes nie jest włączona na tym instancji.
UC_VOLUMES_NOT_SUPPORTED
Woluminy nie są obsługiwane w przypadku tej operacji. Określona ścieżka to "<path>".
Udostępnianie woluminów UC nie jest włączone
Funkcja współdzielenia woluminów nie jest włączona na tej instancji.
UC_WOLUMEN_NIE_ODNALEZIONO
Wolumin <name> nie istnieje. Użyj polecenia "SHOW VOLUMES", aby wyświetlić listę dostępnych woluminów.
BŁĄD_ŚRODOWISKA_UDF
Nie można zainstalować zależności UDF z <udfName> powodu błędu systemu.
Aby uzyskać więcej informacji, zobacz UDF_ENVIRONMENT_ERROR
Błąd użytkownika środowiska UDF
Nie można zainstalować zależności UDF dla <udfName>.
Aby uzyskać więcej informacji, zobacz UDF_ENVIRONMENT_USER_ERROR
UDF_ERROR
SQLSTATE: brak przypisania
Wykonanie <fn> funkcji nie powiodło się
Aby uzyskać więcej informacji, zobacz UDF_ERROR
UDF_LIMITS
Naruszono jeden lub więcej limitów funkcji UDF.
Aby uzyskać więcej informacji, zobacz UDF_LIMITS
Przekroczono maksymalną liczbę UDF (UDF_MAX_COUNT_EXCEEDED)
Przekroczono ogólny limit <maxNumUdfs> funkcji UDF dla zapytania (ograniczony podczas publicznego podglądu). Znaleziono <numUdfs>. Funkcje UDF to: <udfNames>.
UDF_PYSPARK_ERROR
Pracownik Python nieoczekiwanie zakończył działanie
Aby uzyskać więcej informacji, zobacz UDF_PYSPARK_ERROR
UDF_PYSPARK_UNSUPPORTED_TYPE
Funkcja UDF <udf> (<eval-type>) PySpark nie jest obsługiwana w klastrach w trybie dostępu współdzielonego.
UDF_PYSPARK_USER_CODE_ERROR
Wykonanie nie powiodło się.
Aby uzyskać więcej informacji, zobacz UDF_PYSPARK_USER_CODE_ERROR
UDF_NIEOBSŁUGIWANA_DOMYŚLNA_WARTOŚĆ_PARAMETRU
Wartość domyślna parametru nie jest obsługiwana w przypadku funkcji <functionType> zdefiniowanej przez użytkownika.
UDF_USER_CODE_ERROR
Wykonanie funkcji <fn> nie powiodło się.
Aby uzyskać więcej informacji, zobacz UDF_USER_CODE_ERROR
Niezgodność liczby aliasów UDTF
Liczba aliasów podanych w klauzuli AS nie jest zgodna z liczbą kolumn wyjściowych przez udTF.
Oczekiwano <aliasesSize> aliasów, ale otrzymano <aliasesNames>.
Upewnij się, że podana liczba aliasów zgadza się z liczbą kolumn generowanych przez UDTF.
NIEPRAWIDŁOWY_ALIAS_W_ŻĄDANEJ_KOLEJNOŚCI_W_METODZIE_ANALIZY_UDTF
Nie można ocenić funkcji tabeli zdefiniowanej przez użytkownika, ponieważ jej metoda "analyze" zwróciła żądaną kolumnę OrderingColumn, której wyrażenie nazwy kolumny zawiera niepotrzebny alias <aliasName>; usuń ten alias, a następnie spróbuj ponownie wykonać zapytanie.
UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_WYMAGA_ALIASU
Nie można ocenić funkcji tabeli zdefiniowanej przez użytkownika, ponieważ jej metoda "analyze" zwróciła żądane wyrażenie "select" (<expression>), które nie zawiera odpowiedniego aliasu. Zaktualizuj funkcję UDTF, aby określić tam alias, a następnie spróbuj ponownie wykonać zapytanie.
NIE MOŻNA PRZEKONWERTOWAĆ NA TYP WIADOMOŚCI PROTOBUF
Nie można przekonwertować typu SQL <toType> na typ Protobuf <protobufType>.
NIE UDAŁO SIĘ POBRAĆ TABEL HIVE
Nie można pobrać tabel bazy danych Hive: <dbName>. Nazwa klasy błędu: <className>.
UNABLE_TO_INFER_PIPELINE_TABLE_SCHEMA
Nie można wywnioskować schematu tabeli <tableName> z przepływów nadrzędnych.
Zmodyfikuj przepływy zapisywane w tej tabeli, aby ich schematy były zgodne.
Schemat wywnioskowany do tej pory
<inferredDataSchema>
Niezgodny schemat:
<incompatibleDataSchema>
Nie można wnioskować schematu
Nie można wywnioskować schematu dla <format>. Należy go określić ręcznie.
NIEZWERYFIKOWANY
Żądanie nie ma prawidłowych poświadczeń uwierzytelniania dla operacji.
NIEAUTORYZOWANY_DOSTĘP
Nieautoryzowany dostęp:
<report>
Niezwiązany parametr SQL
Znaleziono parametr niezwiązany: <name>.
args Popraw i podaj mapowanie parametru na funkcje literału SQL lub konstruktora kolekcji, takie jak map(), array(), struct().
NIEDOKOŃCZONY_KOMENTARZ_W_NAWIASIE
Znaleziono niedomknięty komentarz w nawiasie. Dołącz */ na końcu komentarza.
NIEOCZEKIWANY_TYP_DANYCH_WEJŚCIOWYCH
Parametr <paramIndex> funkcji <functionName> wymaga typu <requiredType>, jednak <inputSql> ma typ <inputType>.
NIEOCZEKIWANY_TYP_WEJŚCIA_DLA_NAZWANEGO_PARAMETRU
Parametr <namedParamKey> funkcji <functionName> wymaga typu <requiredType>, jednak <inputSql> ma typ <inputType>.<hint>
NIEOCZEKIWANY_OPERATOR_W_WIDOKU_STRUMIENIOWYM
Nieoczekiwany operator <op> w instrukcji CREATE VIEW jako źródło strumieniowania.
Zapytanie widoku przesyłania strumieniowego musi składać się tylko z SELECT, WHEREoperacji i .UNION ALL
NIEOCZEKIWANY_ARGUMENT_POZYCYJNY
Nie można wywołać rutyny <routineName>, ponieważ zawiera argumenty pozycyjne po nazwanym argumencie przypisanym do <parameterName>; przestaw je tak, aby argumenty pozycyjne były pierwsze, a następnie ponownie spróbuj zapytania.
NIEOCZEKIWANY_SERIALIZATOR_DLA_KLASY
Klasa <className> ma nieoczekiwany serializator wyrażeń. Oczekuje "STRUCT" lub "IF", które zwraca "STRUCT", ale znaleziono <expr>.
WYKLUCZENIE{UNION} NIEOBSŁUGIWANE W REKURENTNYM CTE
Operator UNION nie jest jeszcze obsługiwany w rekursywnych wspólnych wyrażeniach tabelarycznych (klauzula WITH odwołująca się bezpośrednio lub pośrednio do samej siebie). Zamiast tego użyj UNION ALL.
UNIQUE_CONSTRAINT_DISABLED
Unikatowa funkcja ograniczeń jest wyłączona. Aby ją włączyć, ustaw wartość "spark.databricks.sql.dsv2.unique.enabled" na wartość true.
WYJĄTEK_NIEZNANE_POLE
Napotkano <changeType> podczas analizowania: <unknownFieldBlob>, co można naprawić za pomocą automatycznego ponowienia: <isRetryable>
Aby uzyskać więcej informacji, zobacz UNKNOWN_FIELD_EXCEPTION
NIEZNANY_ARGUMENT_POZYCYJNY
Wywołanie procedury <routineName> zawiera nieznany argument pozycyjny <sqlExpr> na pozycji <pos>. Jest to nieprawidłowe.
NIEZNANY_TYP_PRYMITYWNY_W_WARIANCIE
Nieznany typ prymitywny z id <id> został znaleziony w zmiennej wartości.
NIEZNANY_TYP_WIADOMOŚCI_PROTOBUF
Próba traktowania <descriptorName> jako komunikatu, ale było to <containingType>.
UNPIVOT_WYMAGA_ATRYBUTÓW
UNPIVOT wymaga, aby wszystkie wyrażenia <given> były kolumnami, kiedy nie podano żadnych wyrażeń <empty>. Nie są to kolumny: [<expressions>].
UNPIVOT_REQUIRES_VALUE_COLUMNS (wymaga kolumn wartości)
Co najmniej jedną kolumnę wartości należy określić dla UNPIVOT, przy czym wszystkie kolumny wskazane jako identyfikatory.
The term can remain as is unless context demands a translation. If so, a possible explanation could be: "Niezgodność_typu_danych_UNPIVOT_VALUE."
Kolumny, które mają być przestawiane, muszą współdzielić najmniej wspólny typ, a niektóre typy tego nie spełniają: [<types>].
NIEZGODNOŚĆ_ROZMIARU_UNPIVOT
Wszystkie kolumny wartości po rozbiciu muszą mieć tę samą wielkość, jak nazwy kolumn wartości (<names>).
NIEZNAWANA_NAZWA_PARAMETRU
Nie można wywołać procedury <routineName>, ponieważ wywołanie procedury zawiera nazwane odwołanie do argumentu o nazwie <argumentName>, ale ta procedura nie zawiera żadnej sygnatury zawierającej argument o tej nazwie. Czy masz na myśli jedną z następujących czynności? [<proposal>].
NIEZROZPOZNANY_TYP_SQL
Nierozpoznany typ SQL — nazwa: <typeName>, identyfikator: <jdbcType>.
NIEZNANA_STATYSTYKA
Statystyka <stats> nie jest rozpoznawana. Prawidłowe statystyki obejmują count, count_distinct, approx_count_distinct, mean, stddev, min, maxwartości , i percentyla. Percentyl musi być wartością liczbową, po której następuje%" w zakresie od 0% do 100%.
NIEROZWIĄZYWALNA_FUNCKJA_TABELI
Nie można rozwiązać <name> jako funkcję zwracającą tabelę.
Upewnij się, że <name> jest zdefiniowana jako funkcja z wartością tabeli i że wszystkie wymagane parametry są podane poprawnie.
Jeśli <name> nie jest zdefiniowana, utwórz funkcję z wartością tabeli przed jej użyciem.
Aby uzyskać więcej informacji na temat definiowania funkcji wartości tabeli, zapoznaj się z dokumentacją platformy Apache Spark.
NIEZRESZONY_ALL_W_GROUP_BY
Nie można wnioskować kolumn grupowania dla GROUP BY ALL na podstawie klauzuli SELECT. Jawnie określ kolumny grupowania.
Nierozwiązana_Kolumna
Nie można rozpoznać parametru kolumny, zmiennej lub funkcji o nazwie <objectName>.
Aby uzyskać więcej informacji, zobacz UNRESOLVED_COLUMN
UNRESOLVED_COLUMN_AMONG_FIELD_NAMES
Nie można rozpoznać nazwy kolumny "<colName>" między (<fieldNames>).
NIEZIDENTYFIKOWANE_POLE
Nie można dopasować pola o nazwie <fieldName> do kolumny typu struktury <columnPath>.
Aby uzyskać więcej informacji, zobacz UNRESOLVED_FIELD
NIERESOLWANY_INSERT_ZASTĄPIENIE_UŻYWA_KOLUMNU
REPLACE USING kolumny <colName> nie można rozpoznać w <relationType>.
Czy chodziło o jedną z następujących kolumn? [<suggestion>].
NIEZNANY_KLUCZ_MAPY
Nie można rozwiązać kolumny <objectName> jako klucza mapy. Jeśli klucz jest literałem ciągu, dodaj wokół niego pojedyncze cudzysłowy "".
Aby uzyskać więcej informacji, zobacz UNRESOLVED_MAP_KEY
NIERESOLWANA_RUTYNA
Nie można rozwiązać rutyny <routineName> w ścieżce wyszukiwania <searchPath>.
Sprawdź pisownię <routineName>, sprawdź, czy istnieje rutyna, i upewnij się, że masz uprawnienia USE w wykazie i schemacie oraz EXECUTE w procedurze.
Aby uzyskać więcej informacji, zobacz UNRESOLVED_ROUTINE
Nierozpoznana_Ścieżka_Tabeli
Nie można odnaleźć ścieżki przechowywania dla tabeli <identifier>.
Nierozwiązana_kolumna_używana_do_join (UNRESOLVED_USING_COLUMN_FOR_JOIN)
USINGKolumna <colName> nie może być rozpoznana po stronie <side> łączenia. Kolumny po stronie <side>: [<suggestion>].
NIEROZWIĄZANA_ZMIENNA
Nie można rozwiązać zmiennej <variableName> w ścieżce wyszukiwania <searchPath>.
PRZETWARZANIE_DANYCH_NIESTRUKTURALNYCH_NIEOBSŁUGIWANY_FORMAT_PLIKU
Format pliku bez struktury <format> nie jest obsługiwany. Obsługiwane formaty plików to <supportedFormats>.
Zaktualizuj format z wyrażenia <expr> do jednego z obsługiwanych formatów, a następnie spróbuj ponownie wykonać zapytanie.
Przetwarzanie niezorganizowanych danych – opcja modelu nieobsługiwana
Opcja modelu bez struktury ('<option>' —> '<value>') nie jest obsługiwana. Obsługiwane wartości to: <supportedValues>.
Przejdź do jednej z obsługiwanych wartości, a następnie spróbuj ponownie wykonać zapytanie.
NIESTRUKTURALNA_KOLUMNA_OCR_NIEDOZWOLONA_Z_OPCJĄ_MODELU_METADANYCH
Parametr funkcji "ocrText" musi być NULL lub pominięty po określeniu opcji "metadataModel". Opcja określonego „metadataModel” powoduje wyodrębnienie metadanych, gdzie dostarczony „ocrText” jest niedozwolony.
NIEOBSŁUGIWANA_DODAJ_PLIK
Nie obsługuje dodawania pliku.
Aby uzyskać więcej informacji, zobacz UNSUPPORTED_ADD_FILE
NIEOBSŁUGIWANY_PARAMETR_ZMIANY_KOLUMNY
Określanie <parameter> przy użyciu ALTER <commandTableType> nie jest obsługiwane.
NIEOBSŁUGIWANY_TYP_STRZAŁKI
Nieobsługiwany typ strzałki <typeName>.
Funkcja tabelowa wsadowa nieobsługiwana
Funkcja <funcName> nie obsługuje zapytań wsadowych.
NIEOBSŁUGIWANE_WYWOŁANIE
Nie można wywołać metody "<methodName>" klasy "<className>".
Aby uzyskać więcej informacji, zobacz UNSUPPORTED_CALL
NIEOBSŁUGIWANY_CHAR_LUB_VARCHAR_JAKO_STRING
Nie można użyć typu char/varchar w schemacie tabeli.
Jeśli chcesz, aby Spark traktował je jako typ ciągu, tak samo jak Spark 3.0 i starsze wersje, ustaw wartość "spark.sql.legacy.charVarcharAsString" na "true".
UNSUPPORTED_CHAR_OR_VARCHAR_COLLATION
Nie można określić sortowania typu <type> char/varchar.
NIEOBSŁUGIWANA KLAUZULA DLA OPERACJI
<clause> nie jest obsługiwana w przypadku <operation>.
NIEOBSŁUGIWANA PORÓWNANIE
Sortowanie <collationName> nie jest obsługiwane dla:
Aby uzyskać więcej informacji, zobacz UNSUPPORTED_COLLATION
NIEOBSŁUGIWANA_WSPÓLNA_LOKALIZACJA_PRZODKA_DLA_ŹRÓDŁA_STRUMIENIA_PLIKÓW
Wspólny element nadrzędny ścieżki źródłowej i sourceArchiveDir powinien być zarejestrowany w UC.
Jeśli zostanie wyświetlony ten komunikat o błędzie, prawdopodobnie zarejestrujesz ścieżkę źródłową i element sourceArchiveDir w różnych lokalizacjach zewnętrznych.
Proszę umieścić je w jednej lokalizacji zewnętrznej.
NIEOBSŁUGIWANA_FUNCKJA_POŁĄCZENIA
Funkcja nie jest obsługiwana w programie Spark Connect:
Aby uzyskać więcej informacji, zobacz UNSUPPORTED_CONNECT_FEATURE
UNSUPPORTED_CONSTRAINT_CHARACTERISTIC
Cecha ograniczenia "<characteristic>" nie jest obsługiwana w przypadku typu ograniczenia "<constraintType>".
NIEOBSŁUGIWANE_KLAUZULE_OGRANICZEŃ
Klauzule ograniczeń <clauses> nie są obsługiwane.
NIEOBSŁUGIWANY_TYP_OGRANICZENIA
Nieobsługiwany typ ograniczenia. Obsługiwane są tylko <supportedConstraintTypes>
NIEOBSŁUGIWANE_ŹRÓDŁO_DANYCH_DLA_ZAPYTANIA_BEZPOŚREDNIEGO
Nieobsługiwany typ źródła danych dla zapytań bezpośrednich dotyczących plików: <dataSourceType>
NIEOBSŁUGIWANY_TYP_DANYCH
Nieobsługiwany typ danych <typeName>.
NIEOBSŁUGIWANY_TRYB_ZAPISU_ŹRÓDŁA_DANYCH
Nie można zapisać źródła danych "<source>" w trybie <createMode> . Zamiast tego użyj trybu "Dołącz" lub "Zastąp".
NIEOBSŁUGIWANY_TYP_DANYCH_DLA_ŹRÓDŁA_DANYCH
Źródło <format> danych nie obsługuje kolumny <columnName> typu <columnType>.
NIEOBSŁUGIWANY_TYP_DANYCH_DLA_KODERA
Nie można utworzyć kodera dla <dataType>. Użyj innego typu danych wyjściowych dla swojego UDF-a lub DataFrame.
NIEOBSŁUGIWANA_WARTOŚĆ_DOMYŚLNA
DEFAULT obsługa wartości w kolumnach nie jest możliwa.
Aby uzyskać więcej informacji, zobacz UNSUPPORTED_DEFAULT_VALUE
NIEOBSŁUGIWANY_DESERIALIZATOR
Deserializator nie jest obsługiwany.
Aby uzyskać więcej informacji, zobacz UNSUPPORTED_DESERIALIZER
NIEOBSŁUGIWANE_WYRAŻENIE_KOLUMNA_GENEROWANA
Nie można utworzyć wygenerowanej kolumny <fieldName> z wyrażeniem generowania <expressionStr>, ponieważ <reason>.
NIEOBSŁUGIWANE_WYRAŻENIE_DLA_OPERATORA
Operator zapytania zawiera jedno lub więcej nieobsługiwanych wyrażeń.
Rozważ ponowne przepisanie go, aby uniknąć funkcji okien, funkcji agregacji i funkcji generatora w klauzuli WHERE.
Nieprawidłowe wyrażenia: [<invalidExprSqls>]
Nieobsługiwany_wyrażenie_dla_parametru
Parametr zapytania zawiera nieobsługiwane wyrażenie.
Parametry mogą być zmiennymi lub literałami.
Nieprawidłowe wyrażenie: [<invalidExprSql>]
NIEOBSŁUGIWANE_WYRAŻENIE_DLA_OKNA
Wyrażenie <sqlExpr> nie jest obsługiwane w funkcji okna.
NIEOBSŁUGIWANA_FUNCKJA
Ta funkcja nie jest obsługiwana:
Aby uzyskać więcej informacji, zobacz UNSUPPORTED_FEATURE
NIEOBSŁUGIWANY_TYP_FN
Nieobsługiwany typ funkcji zdefiniowanej przez użytkownika: <language>
NIEOBSŁUGIWANY_GENERATOR
Generator nie jest obsługiwany:
Więcej informacji można znaleźć w UNSUPPORTED_GENERATOR
NIEOBSŁUGIWANE_WYRAŻENIE_GRUPOWANIA
grupowanie()/grouping_id() może być używane tylko z GroupingSets/Cube/Rollup.
NIEOBSŁUGIWANA_POCZĄTKOWA_POZYCJA_I_PARA_TRIGGER_DLA_KINESIS_SOURCE
<trigger> z pozycją początkową <initialPosition> nie jest obsługiwane przez źródło Kinesis
NIEOBSŁUGIWANE_WSTAWIENIE
Nie można wstawić do celu.
Aby uzyskać więcej informacji, zobacz UNSUPPORTED_INSERT
NIEOBSŁUGIWANY_TYP_DOŁĄCZENIA
Nieobsługiwany typ łączenia "<typ>". Obsługiwane typy połączeń obejmują: <supported>.
Tworzenie zarządzanej tabeli jest nieobsługiwane
Tworzenie tabeli zarządzanej <tableName> przy użyciu <dataSource> źródła danych nie jest obsługiwane. Musisz użyć źródła DELTA danych lub utworzyć tabelę zewnętrzną przy użyciu ...CREATE EXTERNAL TABLE <tableName>...USING <dataSource>
NIEOBSŁUGIWANY_WARUNEK_SCALANIA
Operacja MERGE zawiera warunek <condName>, który nie jest obsługiwany.
Aby uzyskać więcej informacji, zajrzyj do UNSUPPORTED_MERGE_CONDITION
UNSUPPORTED_METADATA_KEY
Nieobsługiwany klucz metadanych: <key>. Obsługiwane klucze: <supportedKeys>.
NIEOBSŁUGIWANA_ZASADA_DOSTĘPU_DO_ZAGNIEŻDŻONYCH_WIERSZY_LUB_KOLUMN
Tabela <tableName> ma zasady zabezpieczeń na poziomie wiersza lub maskę kolumny, która pośrednio odwołuje się do innej tabeli z zasadami zabezpieczeń na poziomie wiersza lub maską kolumny; nie jest to obsługiwane. Sekwencja wywołań: <callSequence>
UNSUPPORTED_OPERATION_FOR_CONTINUOUS_MEMORY_SINK
Operacja nie jest obsługiwana <operation> w przypadku ujścia pamięci ciągłej. Jeśli piszesz test trybu Real-Time przesyłania strumieniowego, rozważ użycie funkcji CheckAnswerWithTimeout w przypadku innych testów.
NADPISYWANIE_NIEOBSŁUGIWANE
Nie można nadpisać celu, z którego jednocześnie się czyta.
Aby uzyskać więcej szczegółów, zobacz UNSUPPORTED_OVERWRITE
NIEOBSŁUGIWANA_TRANSFORMACJA_PARTYCJI
Nieobsługiwana transformacja partycji: <transform>. Obsługiwane przekształcenia to identity, bucket, i clusterBy. Upewnij się, że twoje wyrażenie transformacji używa jednej z tych opcji.
UNSUPPORTED_PIPELINE_SPARK_SQL_COMMAND
Element "<command>" nie jest obsługiwany w interfejsie API spark.sql("...") w potoku deklaratywnym platformy Spark.
UNSUPPORTED_PROCEDURE_COLLATION
Procedura <procedureName> musi określać lub dziedziczyć DEFAULT COLLATION UTF8_BINARY. Użyj CREATE PROCEDURE <procedureName> (...) DEFAULT COLLATION UTF_BINARY ....
NIEOBSŁUGIWANY_TRYB_ZAPISU
Tryb zapisywania <saveMode> nie jest obsługiwany w następujących celach:
Aby uzyskać więcej informacji, zobacz UNSUPPORTED_SAVE_MODE
UNSUPPORTED_SHOW_CREATE_TABLE (nieobsługiwana funkcja SHOW CREATE TABLE)
Nieobsługiwane polecenie SHOW CREATE TABLE.
Aby uzyskać więcej informacji, zobacz UNSUPPORTED_SHOW_CREATE_TABLE
UNSUPPORTED_SINGLE_PASS_ANALYZER_FEATURE (nieobsługiwana cecha jednorazowego analizatora)
Analizator jednoprzepustowy nie może przetworzyć tego zapytania lub polecenia, ponieważ nie obsługuje jeszcze <feature>.
NIEOBSŁUGIWANE_UŻYCIE_SQL_UDF
Używanie funkcji <functionName> SQL w programie <nodeName> nie jest obsługiwane.
OPERATOR_TRANSMISJI_NIEOBSŁUGIWANY_BEZ_ZNACZNIKA_CZASU
<outputMode> tryb wyjściowy nie jest obsługiwany dla <statefulOperator> w przypadku strumieniowego przesyłania ram danych/zestawów danych bez ustawionego watermarku.
OPCJE_STRUMIENIOWANIA_NIEOBSŁUGIWANE_DLA_WIDOKU
Brak obsługi dla strumieniowego przesyłania widoku. Powód:
Aby uzyskać więcej informacji, zobacz UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
NIEOBSŁUGIWANE_OPCJE_STREAMINGU_ZEZWOLENIE_WYMUSZONE
Opcje przesyłania strumieniowego <options> nie są obsługiwane dla źródła danych <source> w udostępnionym klastrze. Upewnij się, że opcje są określone i pisownia poprawne<prefixHint>, i sprawdź https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode ograniczenia.
NIEWSPIERANA_ZGODA_NA_STRUMIENIOWANIE_WYMUSZONA
Źródło danych <sink> nie jest obsługiwane jako odbiornik strumieniowy w udostępnionym klastrze.
NIEWSPARCIE ŹRÓDŁA TRANSMISJI - WYMUSZONE ZEZWOLENIE
Źródło danych <source> nie jest obsługiwane jako źródło przesyłania strumieniowego w klastrze udostępnionym.
NIEOBSŁUGIWANA_STRUMIENIOWA_FUNKCJA_TABELARYCZNA
Funkcja <funcName> nie obsługuje przesyłania strumieniowego. Usuń słowo kluczowe STREAM
Nieobsługiwany limit odczytu strumienia dla źródła Kinesis
<streamReadLimit> nie jest obsługiwany przez źródło Kinesis
NIEOBSŁUGIWANA_KATEGORIA_WYRAŻENIA_PODZAPYTANIA
Nieobsługiwane wyrażenie podzapytania:
Aby uzyskać więcej informacji, zobacz UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
UNSUPPORTED_TABLE_CHANGE_IN_AUTO_SCHEMA_EVOLUTION
Zmiany <changes> tabeli nie są obsługiwane przez wykaz w tabeli <tableName>.
NIEOBSŁUGIWANA_ZMIANA_TABELI_W_KATALOGU_JDBC
Zmiana tabeli <change> nie jest obsługiwana w katalogu JDBC dla tabeli <tableName>. Obsługiwane zmiany to: AddColumn, RenameColumn, DeleteColumn, UpdateColumnType, UpdateColumnNullability.
Nieobsługiwane_kolumny_szeregów_czasowych
Tworzenie klucza podstawowego z kolumnami timeseries nie jest obsługiwane
NIEOBSŁUGIWANA_SERIA_CZASOWA_Z_WIĘCEJ_NIŻ_JEDNĄ_KOLUMNĄ
Tworzenie klucza podstawowego z więcej niż jedną kolumną czasowników <colSeq> nie jest obsługiwane
Nieobsługiwana precyzja czasu
Precyzja sekund <precision> typu danych TIME jest poza obsługiwanym zakresem [0, 6].
NIEOBSŁUGIWANY_TYPU_CZASU
Typ danych TIME nie jest obsługiwany.
NIEOBSŁUGIWANE_WYZWALACZE_DLA_ŹRÓDŁA_KINESIS
<trigger> nie jest obsługiwany przez źródło Kinesis
NIEOBSŁUGIWANY_TYP_LITEROWY
Literały typu <unsupportedType> nie są obsługiwane. Obsługiwane typy to <supportedTypes>.
NIEOBSŁUGIWANA_FUNKCJA_UŻYTKOWNIKA
Funkcja <function> używa następujących funkcji, które wymagają nowszej wersji środowiska uruchomieniowego usługi Databricks: <features>. Aby uzyskać szczegółowe informacje, zapoznaj się z <docLink>.
Nieobsługiwane typy UDF w tym samym miejscu
Nie można używać razem typów „funkcji zdefiniowanej przez użytkownika”: <types>
UNTYPED_SCALA_UDF (niektóre funkcje w Scala mogą być nieprzypisane typem, dotyczy programowania UDF)
Używasz nietypowanej funkcji UDF języka Scala, która nie ma informacji o typie wejściowym.
Platforma Spark może w ciemno przekazać wartość null do zamknięcia języka Scala z argumentem typu pierwotnego, a zamknięcie zobaczy domyślną wartość typu Języka Java dla argumentu o wartości null, na przykład , udf((x: Int) => x, IntegerType)wynik wynosi 0 dla danych wejściowych o wartości null. Aby pozbyć się tego błędu, możesz:
użyj typowych interfejsów API funkcji UDF Scala (bez parametru typu zwracanego), na przykład
udf((x: Int) => x).użyj interfejsów API funkcji UDF języka Java, na przykład
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType), jeśli typy danych wejściowych są inne niż pierwotne.Ustaw "spark.sql.legacy.allowUntypedScalaUDF" na "true" i używaj tego API ostrożnie.
AKTUALIZACJA_NIEOBSŁUGIWANA
Tabela nie kwalifikuje się do uaktualnienia z Hive Metastore do Unity Catalog. Powód:
Aby uzyskać więcej informacji, zobacz UPGRADE_NOT_SUPPORTED
FUNKCJE_DEFINIOWANE_PRZEZ_UŻYTKOWNIKA
Funkcja zdefiniowana przez użytkownika jest nieprawidłowa:
Aby uzyskać więcej informacji, zobacz USER_DEFINED_FUNCTIONS
WYJĄTEK_WYRÓŻNIONY_PRZEZ_UŻYTKOWNIKA
<errorMessage>
WYJĄTEK_WYRZUCONY_PRZEZ_UŻYTKOWNIKA_NIEZGODNOŚĆ_PARAMETRÓW
Funkcja raise_error() została użyta do podniesienia klasy błędów: <errorClass>, która oczekuje parametrów: <expectedParms>.
Podane parametry <providedParms> nie są zgodne z oczekiwanymi parametrami.
Upewnij się, że wszystkie oczekiwane parametry są podane.
PODNIESIONY_WYJĄTEK_UŻYTKOWNIKA_NIEZNANA_KLASA_BŁĘDU
Funkcja raise_error() została użyta do podniesienia nieznanej klasy błędów: <errorClass>
USER_SPECIFIED_AND_ACTUAL_SCHEMA_MISMATCH
Schemat określony przez użytkownika nie jest zgodny z rzeczywistym schematem:
określony przez użytkownika: <schema>, rzeczywisty: <actualSchema>. Jeśli używasz
Interfejs API DataFrameReader.schema lub tworzenie tabeli nie określaj schematu.
Ewentualnie, jeśli skanujesz istniejącą tabelę, upuść ją i ponownie ją utwórz.
USER_SPECIFIED_AND_INFERRED_SCHEMA_NOT_COMPATIBLE
Tabela "<tableName>" ma schemat określony przez użytkownika, który jest niezgodny ze schematem
wywnioskowany z zapytania.
<streamingTableHint>
Zadeklarowany schemat:
<specifiedSchema>
Wywnioskowany schemat:
<inferredDataSchema>
USE_CATALOG_SCHEMA_IN_DEFINER_STORED_PROCEDURE_NOT_SUPPORTED
Ustawianie wykazu lub schematu w procedurze składowanej SQL SECURITY DEFINER nie jest obsługiwane.
ZMIENNA_JUŻ_ISTNIEJE
Nie można utworzyć <variableName> zmiennej, ponieważ już istnieje.
Wybierz inną nazwę lub upuść lub zastąp istniejącą zmienną.
NIE ZNALEZIONO ZMIENNEJ
Nie można odnaleźć <variableName> zmiennej. Sprawdź pisownię i poprawność schematu i wykazu.
Jeśli nazwa nie została zakwalifikowana do schematu i katalogu, sprawdź dane wyjściowe current_schema() lub zakwalifikuj nazwę z poprawnym schematem i wykazem.
Aby tolerować błąd podczas upuszczania, użyj DROP VARIABLE IF EXISTS.
OGRANICZENIE_ROZMIARU_KONSTRUKTORA_WARIANTU
Nie można skonstruować wariantu większego niż 16 MiB. Maksymalny dozwolony rozmiar wartości wariantu to 16 MiB.
WARIANT_DUPLIKAT_KLUCZ
Nie można skompilować wariantu z powodu zduplikowanego klucza obiektu <key>.
LIMIT_ROZMIARU_WARIANTU
Nie można zbudować wariantu większego niż <sizeLimit> w <functionName>.
Unikaj dużych ciągów wejściowych do tego wyrażenia (na przykład dodaj wywołania funkcji w celu sprawdzenia rozmiaru wyrażenia i przekonwertuj je na NULL najpierw, jeśli jest zbyt duży).
FUNKCJA_TABELI_NIEOBSŁUGIWANA_PRZEZ_WERSJONOWANY_KLON
Historia tabeli źródłowej zawiera funkcje tabel, które nie są obsługiwane przez klony wersji w tej wersji DBR: <unsupportedFeatureNames>.
Uaktualnij do nowszej wersji DBR.
Widok już istnieje
Nie można utworzyć widoku <relationName>, ponieważ już istnieje.
Wybierz inną nazwę, upuść lub zastąp istniejący obiekt albo dodaj klauzulę IF NOT EXISTS, aby tolerować istniejące obiekty.
Widok przekracza maksymalną głębokość zagnieżdżania
Głębokość widoku <viewName> przekracza maksymalną głębokość rozdzielczości widoku (<maxNestedDepth>).
Analiza została przerwana, aby uniknąć błędów. Jeśli chcesz to obejść, spróbuj zwiększyć wartość "spark.sql.view.maxNestedViewDepth".
WIDOK_NIE_ZNALEZIONY
Nie można odnaleźć widoku <relationName>. Sprawdź pisownię i poprawność schematu i wykazu.
Jeśli nazwa nie została określona za pomocą schematu, sprawdź wynik current_schema() lub określ nazwę z poprawnym schematem i katalogiem.
Aby tolerować błąd podczas upuszczania, użyj DROP VIEW IF EXISTS.
Objętość już istnieje
Nie można utworzyć woluminu <relationName>, ponieważ już istnieje.
Wybierz inną nazwę, upuść lub zastąp istniejący obiekt albo dodaj klauzulę IF NOT EXISTS, aby tolerować istniejące obiekty.
WATERMARK_ADVANCEMENT_STRATEGY
Strategia rozwoju znaku wodnego przesyłania strumieniowego ma następujące ograniczenie:
Aby uzyskać więcej informacji, zobacz WATERMARK_ADVANCEMENT_STRATEGY
NIEZGODNOŚĆ_FUNKCJI_I_RAMY_OKNA
<funcName> funkcja może być oceniona tylko w uporządkowanej ramie okna opartej na wierszach z jednym przesunięciem: <windowExpr>.
Funkcja okna bez klauzuli OVER
Funkcja window <funcName> wymaga klauzuli OVER.
Z_UPRAWNIENIEM
składnia WITH CREDENTIAL nie jest obsługiwana dla <type>.
NIE DOZWOLONO ZAPISU STRUMIENIA
writeStream można wywoływać tylko na strumieniowym zestawie danych lub ramce danych.
NIEWŁAŚCIWE_DOMYŚLNE_USTAWIENIA_KOLUMN_DLA_DELTA_ALTER_TABLE_ADD_COLUMN_NIEOBSŁUGIWANE
SQLSTATE: 0AKDC
Nie można wykonać polecenia, ponieważ wartości DEFAULT nie są obsługiwane podczas dodawania nowego elementu.
kolumny do uprzednio istniejących tabel delty; dodaj kolumnę bez wartości domyślnej
najpierw ustal wartość, a następnie uruchom drugie polecenie ALTER TABLE ALTER COLUMN SET DEFAULT, aby zastosować
zamiast tego dla przyszłych wstawianych wierszy.
NIEPRAWIDŁOWE_DOMYŚLNE_WARTOŚCI_KOLUMNY_DLA_FUNKCJI_DELTA_NIE_AKTYWOWANA
Nie można wykonać polecenia <commandType>, ponieważ przypisano mu wartość kolumny DEFAULT.
ale odpowiednia funkcja tabeli nie została włączona. Spróbuj ponownie wykonać polecenie
po wykonaniu ALTER TABLE nazwaTabeli SET
TBLPROPERTIES('delta.feature.allowColumnDefaults' = 'supported').
NIEWŁAŚCIWA_KOMENDA_DLA_TYPU_OBIEKTU
Operacja <operation> wymaga <requiredType>. Ale <objectName> jest <foundType>. Zamiast tego użyj <alternative>.
NIEPRAWIDŁOWA_LICZBA_ARGUMENTÓW
<functionName> wymaga parametrów <expectedNum>, ale rzeczywista liczba jest <actualNum>.
Aby uzyskać więcej informacji, zobacz WRONG_NUM_ARGS
BRAK_TAGU_WIERSZA_XML
<rowTag> opcja jest wymagana do odczytywania/zapisywania plików w formacie XML.
XML_NIEOBSŁUGIWANE_ZAGNIEŻDŻONE_TYPY
Kod XML nie obsługuje <innerDataType> jako typu wewnętrznego <dataType>. Umieść <innerDataType> w polu typu StructType, kiedy używasz go w <dataType>.
XML_Symbol_znak_wieloznaczny_ratowane_dane_błąd_konfliktu
Nie można jednocześnie włączyć odzyskanych danych i kolumn wieloznacznych. Usuń opcję wildcardColumnName.
KOLEJNOŚĆ_KOLUMNY_NIE_ISTNIEJE
Kolumna <columnName> ZOrderBy nie istnieje.
Delta Lake
SESJA_SPARK_DELTA_AKTYWNA_NIE_ZNALEZIONA
Nie można odnaleźć aktywnej platformy SparkSession.
DELTA_AKTYWNA_TRANSAKCJA_JUŻ_URUCHOMIONA
Nie można ustawić nowego txn jako aktywnego, gdy jest już aktywny.
Nie udało się dodać kolumny z wewnętrzną nazwą (DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED)
Nie można dodać kolumny <colName>, ponieważ nazwa jest zarezerwowana.
Dodawanie wektorów usuwania nie jest dozwolone
Bieżąca operacja próbowała dodać wektor usuwania do tabeli, która nie zezwala na tworzenie nowych wektorów usuwania. Zgłoś raport o usterce.
DODAWANIE_WEKTORÓW_USUNIĘCIA_DELTA_Z_OSTRYMI_GRANICAMI_NIEDOZWOLONE
Wszystkie operacje, które dodają wektory usuwania, powinny ustawić kolumnę tightBounds w statystykach na wartość false. Zgłoś raport o usterce.
DELTA_DODAJ_KOLUMNĘ_PRZY_INDEKSIE_MNIEJSZYM_OD_ZERO
Indeks <columnIndex> dodawania kolumny <columnName> jest niższy niż 0.
DELTA_ADD_KOLUMNA_NADRZĘDNA_NIE_STRUKTURA
Nie można dodać <columnName>, ponieważ jego element nadrzędny nie jest obiektem StructType. Znaleziono <other>.
STRUKTURA DODAWANIA KOLUMNY DELTA NIE ZNALEZIONA
Nie można odnaleźć struktury w pozycji <position>.
DELTA_DODAJ_OGRANICZENIA
Aby dodać ograniczenia ALTER TABLE, użyj CONSTRAINT ADD CHECK.
DELTA_AGGREGATE_IN_CHECK_CONSTRAINT
Znaleziono <sqlExpr> w ograniczeniu CHECK . Wyrażenia agregacji nie są dozwolone w CHECK ograniczeniach.
DELTA_AGGREGATE_W_GENEROWANEJ_KOLUMNIE
Znaleziono <sqlExpr>. Wygenerowana kolumna nie może używać wyrażenia agregowanego.
DELTA_AGREGACJA_NIEOBSŁUGIWANA
Funkcje agregujące nie są obsługiwane w <operation> <predicate>.
DELTA_ALTER_KOLACJA_NIE_OBSLUGIWANE_FILTER_BLOOM
Nie udało się zmienić sortowania kolumny <column>, ponieważ posiada indeks filtru Bloom. Proszę zachować istniejące sortowanie lub usunąć indeks filtru Blooma, a następnie spróbować ponownie polecenia, aby zmienić sortowanie.
DELTA_ALTER_COLLATION_NIEOBSŁUGIWANE_SORTOWANIE_PRZEZ
Nie można zmienić sortowania kolumny <column>, ponieważ jest to kolumna klastrowania. Zachowaj istniejące sortowanie lub zmień kolumnę na kolumnę bez klastrowania za pomocą polecenia ALTER TABLE, a następnie spróbuj ponownie wykonać polecenie, aby zmienić sortowanie.
DELTA_ALTER_TABELA_ZMIANA_KOLUMNY_NIE_OBSŁUGIWANE
ALTER TABLE CHANGE COLUMN Nie jest obsługiwane w przypadku zmiany kolumny <currentType> na <newType>.
ZMIANA_TABELI_DELTA_OGRANICZENIA_CLUSTER_BY_NIE_DOZWOLONE
ALTER TABLE CLUSTER BY jest obsługiwane tylko w przypadku tabeli Delta z klastrowaniem Liquid.
ALTER TABLE DELTA: NIE MOŻNA UŻYĆ CLUSTER BY NA ZPARTYCJONOWANEJ TABELI
ALTER TABLE CLUSTER BY nie można zastosować do tabeli partycjonowanej.
Zmiana nazwy tabeli Delta nie jest dozwolona
Niedozwolona operacja: ALTER TABLE RENAME TO nie jest dozwolona dla zarządzanych tabel Delta w usłudze S3, ponieważ spójność ostateczna w usłudze S3 może uszkodzić dziennik transakcji Delta. Jeśli nalegasz na to i upewniasz się, że nigdy wcześniej nie było tabeli Delta o nowej nazwie <newName>, możesz to włączyć, ustawiając <key> na wartość true.
DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED (Funkcja ustawiania tabeli klastrowania nie jest dozwolona)
Nie można włączyć funkcji tabeli <tableFeature> przy użyciu ALTER TABLE SET TBLPROPERTIES. Użyj CREATE LUB REPLACE TABLE CLUSTER BY, aby utworzyć tabelę Delta z grupowaniem.
DELTA_ALTER_TABLE_SET_MANAGED_COPY_OR_MOVE_REQUIRED
ALTER TABLE ... SET MANAGED wymaga COPY określenia wartości lub MOVE dla tabeli obcej <table>.
DELTA_ALTER_TABLE_SET_MANAGED_NIE_WSPARCIA_JEDNOLITEGO_ICEBERG (nie obsługuje jednolitych tabel Iceberg)
ALTER TABLE ... SET MANAGED nie obsługuje tabeli Uniform Apache Iceberg. Wyłącz jednolite lub użyj polecenia SET MANAGED TRUNCATE UNIFORM HISTORY.
DELTA_ALTER_TABLE_SET_MANAGED_FAILED
ALTER TABLE <table> SET MANAGED Nie powiodło się.
Aby uzyskać więcej informacji, zobacz DELTA_ALTER_TABLE_SET_MANAGED_FAILED
DELTA_ALTER_TABLE_SET_ZARZĄDZANY_NIE_WŁĄCZONY
SQLSTATE: 0AKDC
ALTER TABLE
...
SET MANAGED polecenie nie jest włączone. Aby uzyskać pomoc, skontaktuj się z zespołem pomocy technicznej usługi Databricks.
DELTA_ALTER_TABLE_SET_MANAGED_TABLE_NOT_MIGRATABLE
ALTER TABLE <table> SET MANAGED Program nie może przeprowadzić migracji danej tabeli.
Upewnij się, że tabela jest w prawidłowym stanie i ponów próbę wykonania polecenia. Jeśli problem będzie się powtarzać, skontaktuj się z pomocą techniczną usługi Databricks.
Aby uzyskać więcej informacji, zobacz DELTA_ALTER_TABLE_SET_MANAGED_TABLE_NOT_MIGRATABLE
DELTA_ALTER_TABLE_SET_MANAGED_UNSUPPORTED_COPY_MOVE_SYNTAX
ALTER TABLE ... SET MANAGED [COPY | MOVE] składnia nie jest obsługiwana w przypadku tabeli <table>. Zamiast tego użyj ALTER TABLE ... SET MANAGED.
DELTA_ALTER_TABLE_SET_MANAGED_UNSUPPORTED_FOREIGN_TABLE
Tabela <table> zagraniczna nie jest obsługiwana w przypadku migracji do tabeli zarządzanej przez interfejs użytkownika: <errorMessage>.
DELTA_ALTER_TABLE_UNSET_MANAGED_DOES_NOT_SUPPORT_COMPATIBILITY_MODE
SQLSTATE: 0AKDC
ALTER TABLE ... UNSET MANAGED nie obsługuje tabeli z włączonym trybem zgodności.
Wyłącz tryb zgodności w tabeli przed uruchomieniem tego polecenia.
DELTA_ALTER_TABLE_UNSET_MANAGED_DOES_NOT_SUPPORT_UNIFORM
SQLSTATE: 0AKDC
ALTER TABLE ... UNSET MANAGED nie obsługuje funkcji Uniform. Wyłącz jednolite lub użyj polecenia UNSET MANAGED TRUNCATE UNIFORM HISTORY.
Niezdefiniowane ustawienie zarządzania dla tabeli DELTA_ALTER_TABLE zakończone niepowodzeniem.
<table> nie można cofnąć z tabeli zarządzanej do tabeli zewnętrznej.
Więcej informacji znajdziesz w DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED
DELTA_ALTER_TABLE_ODZNAK_ZARZĄDZANE_NIE_WŁĄCZONE
SQLSTATE: 0AKDC
ALTER TABLE
...
UNSET MANAGED polecenie nie jest włączone. Aby uzyskać pomoc, skontaktuj się z zespołem pomocy technicznej usługi Databricks.
ZMIANA_TYPU_DANYCH_DELTA_NIEJEDNOZNACZNA
Nie można zmienić typu danych <column> z <from> na <to>. Ta zmiana zawiera usunięcia kolumn i dodatki, dlatego są niejednoznaczne. Wprowadź te zmiany indywidualnie przy użyciu ALTER TABLE [ADD | DROP | RENAME] COLUMN.
DELTA_NIEJEDNOZNACZNA_KOLUMNA_PARTYCJI
Niejednoznaczna kolumna partycji <column> może być <colMatches>.
DELTA_NIEJEDNOZNACZNE_ŚCIEŻKI_W_TWORZENIU_TABELI (DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE)
CREATE TABLE zawiera dwie różne lokalizacje: <identifier> i <location>.
Możesz usunąć klauzulę LOCATION z instrukcji CREATE TABLE lub ustawić
Aby pominąć tę kontrolę, ustaw <config> na true.
Granica zarchiwizowanych plików w delcie
Tabela <table> nie zawiera wystarczającej liczby rekordów w plikach niezarchiwizowanych, aby spełnić określoną liczbę LIMIT rekordów <limit>.
DELTA_ARCHIWIZOWANE_PLIKI_W_SKANIE
Znaleziono <numArchivedFiles> potencjalnie zarchiwizowane pliki w tabeli <table>, które należy zeskanować w ramach tego zapytania.
Nie można uzyskać dostępu do zarchiwizowanych plików. Aktualny czas do archiwizacji jest skonfigurowany jako <archivalTime>.
Dostosuj filtry zapytań, aby wykluczyć wszystkie zarchiwizowane pliki.
BLOK_MAPOWANIE_KOLUMN_I_OPERACJA_CDC
Operacja "<opName>" nie jest dozwolona, gdy w tabeli jest włączony strumień danych zmian (CDF) i dokonano w niej zmian schematu przy użyciu polecenia DROP COLUMN lub RENAME COLUMN.
DELTA_BLOOM_FILTER_USUNIĘCIE_NIEISTNIEJĄCYCH_KOLUMN
Nie można usunąć indeksów filtru bloom dla następujących nieistniejących kolumn: <unknownColumns>.
DELTA_BLOOM_FILTER_PRZEPEŁNIENIE_PAMIĘCI_PRZY_ZAPISIE
Błąd OutOfMemoryError wystąpił podczas pisania indeksów filtrów bloom dla następujących kolumn: <columnsWithBloomFilterIndices>.
Możesz zmniejszyć ilość pamięci indeksów filtru blooma, wybierając mniejszą wartość opcji "numItems", większą wartość opcji "fpp" lub indeksując mniej kolumn.
DELTA_NIE_MOŻNA_ZMIENIĆ_TYPU_DANYCH
Nie można zmienić typu danych: <dataType>.
DELTA_NIE_MOŻE_ZMIENIĆ_LOKALIZACJI
Nie można zmienić lokalizacji tabeli delty przy użyciu polecenia SET TBLPROPERTIES. Zamiast tego użyj ALTER TABLE SET LOCATION.
DELTA_CANNOT_CHANGE_PROVIDER (Nie można zmienić dostawcy)
"provider" to właściwość tabeli zarezerwowanej i nie można jej zmienić.
NIE MOŻNA UTWORZYĆ FILTRA BLOOM DLA NIEISTNIEJĄCEJ KOLUMNY DELTA
Nie można utworzyć indeksów filtru bloom dla następujących nieistniejących kolumn: <unknownCols>.
NIE MOŻNA UTWORZYĆ ŚCIEŻKI LOGU DELTA
Nie można utworzyć <path>.
DELTA_NIE_MOŻE_OPISAĆ_HISTORII_WIDOKU
Nie można opisać historii widoku.
NIE MOŻNA USUNĄĆ FILTRA BLOOMA Z KOLUMNY BEZ INDEKSU
Nie można usunąć indeksu filtra Blooma na kolumnie bez indeksu: <columnName>.
DELTA_NIE_MOŻNA_USUNĄĆ_FUNKCJI_WARUNKU_SPRAWDZANIA
Nie można usunąć funkcji tabeli ograniczeń CHECK.
Najpierw należy porzucić następujące ograniczenia: <constraints>.
DELTA_NIE_MOŻNA_USUNĄĆ_FUNKCJI_KOLEKCJI
Nie można usunąć funkcji tabeli sortowania.
Najpierw należy zmienić kolumny z sortowaniami innych niż domyślne w celu używania UTF8_BINARY: <colNames>.
DELTA_CANNOT_DROP_DOMAIN_METADATA_FEATURE_FROM_MANAGED_ICEBERG_TABLE
Nie można usunąć funkcji tabeli domainMetadata. Tabela <name> jest zarządzaną tabelą Apache Iceberg. Nie można usunąć danych DomainMetadata z zarządzanych tabel Apache Iceberg.
DELTA_CANNOT_DROP_GEOSPATIAL_FEATURE
Nie można usunąć funkcji tabeli geoprzestrzennych. Utwórz ponownie tabelę lub upuść kolumny z typami geometrii/geografii: <colNames> i spróbuj ponownie.
DELTA_CANNOT_DROP_VARIANT_FEATURE
DROP FEATURE <feature> nie powiodło się. Nie można usunąć funkcji tabeli wariantów. Najpierw należy porzucić kolumny wariantu: <colNames>.
DELTA_NIE_MOŻE_OCENIĆ_WYRAŻENIA
SQLSTATE: 0AKDC
Nie można ocenić wyrażenia: <expression>.
NIE MOŻNA ZNALEŹĆ SPECYFIKACJI WIADRA DELTA
Oczekiwano tabeli Delta z segmentacją, ale nie można odnaleźć specyfikacji segmentacji w tabeli.
NIE MOŻNA WYGNEROWAĆ KODU DLA WYRAŻENIA
SQLSTATE: 0AKDC
Nie można wygenerować kodu dla wyrażenia: <expression>.
DELTA_NIE_MOŻNA_MODYFIKOWAĆ_TYLKO_DODAWANIE
Ta tabela jest skonfigurowana tak, aby zezwalała tylko na dołączanie. Jeśli chcesz zezwolić na aktualizacje lub usunięcia, użyj polecenia "ALTER TABLE <table_name> SET TBLPROPERTIES (<config>=false)".
NIE_MOŻNA_MODYFIKOWAĆ_KATALOG_POSIADANYCH_ZALEŻNOŚCI
Nie można zastąpić ani cofnąć ustawień właściwości tabeli sygnatury czasowej w trakcie zatwierdzenia, ponieważ ta tabela jest własnością katalogu. Usuń "delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion" i "delta.inCommitTimestampEnablementTimestamp" z klauzuli TBLPROPERTIES, a następnie ponów próbę polecenia.
DELTA_NIE_MOŻNA_MODYFIKOWAĆ_ZALEŻNOŚCI_SKORELOWANYCH_ZGODNOŚCI
<Command> nie można nadpisać lub usunąć właściwości tabeli znacznika czasu podczas zatwierdzania, ponieważ skoordynowane zatwierdzenia są włączone w tej tabeli i zależą od nich. Usuń je ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") z TBLPROPERTIES klauzuli, a następnie ponów próbę polecenia.
NIE MOŻNA ZMIENIĆ WŁAŚCIWOŚCI TABELI DELTA
Użytkownik nie może określić konfiguracji <prop> tabeli delty.
NIE MOŻNA NADPISAĆ SKOORDYNOWANYCH ZATRZYMAŃ W DELTA
<Command> nie może zastąpić konfiguracji zatwierdzeń skoordynowanych dla istniejącej tabeli docelowej. Proszę usunąć je ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview", "delta.coordinatedCommits.tableConf-preview") z klauzuli TBLPROPERTIES, a następnie ponownie spróbować uruchomić polecenie.
NIE MOŻNA ODTWORZYĆ ŚCIEŻKI Z URI
W dzienniku transakcji znaleziono identyfikator URI (<uri>), który nie może zostać przekonwertowany na ścieżkę względną.
DELTA_CANNOT_RELATIVIZE_PATH (Nie można spowodować względności ścieżki)
Ścieżka (<path>), której nie można zunifikować z bieżącym wejściem znalezionym w
dziennik transakcji. Proszę uruchomić to ponownie jako:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<userPath>, true)
a następnie również uruchom:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<path>")
DELTA_NIE_MOŻNA_ZMIENIĆ_NAZWY_ŚCIEŻKI
Nie można zmienić nazwy <currentPath> na <newPath>.
DELTA_NIE_MOŻE_ZASTĄPIĆ_BRAKUJĄCEJ_TABELI
Nie można zamienić tabeli <tableName>, ponieważ nie istnieje. Użyj CREATE OR REPLACE TABLE, aby utworzyć tabelę.
DELTA_NIE MOŻE ROZWIĄZAĆ KOLUMN KLASTROWANIA
Nie można rozwiązać kolumny klastrowania <columnName> w <schema> z powodu nieoczekiwanego błędu. Uruchom ALTER TABLE...CLUSTER BY ... w celu naprawy metadanych klastrowania różnicowego.
DELTA_NIE_MOŻNA_ROZWIĄZAĆ_KOLUMNY
Nie można rozpoznać kolumny <columnName> w <schema>
DELTA_NIE_MOŻNA_PRZYWRÓCIĆ_WERSJI_TABELI
Nie można przywrócić tabeli do wersji <version>. Dostępne wersje: [<startVersion>, <endVersion>].
NIE MOŻNA PRZYWRÓCIĆ ZNACZNIKA CZASU DO WCZEŚNIEJSZEJ WARTOŚCI
Nie można przywrócić tabeli do sygnatury czasowej (<requestedTimestamp>), ponieważ jest ona wcześniejsza niż najwcześniejsza dostępna wersja. Proszę użyć znacznika czasu po (<earliestTimestamp>).
DELTA_NIE_MOŻNA_PRZYWRÓCIĆ_ZNACZNIKA_CZASU_WIĘKSZEGO
Nie można przywrócić tabeli do znacznika czasu (<requestedTimestamp>), ponieważ jest on późniejszy niż najnowsza dostępna wersja. Użyj znacznika czasu przed (<latestTimestamp>).
NIE MOŻNA USTAWIĆ SKOORDYNOWANYCH ZALEŻNOŚCI KOMITÓW DELTA
<Command> nie można ustawić właściwości tabeli znaczników czasu podczas zatwierdzania razem z koordynowanymi zatwierdzeniami, ponieważ te drugie zależą od tych pierwszych i ustalają je wewnętrznie. Usuń je ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") z TBLPROPERTIES klauzuli, a następnie ponów próbę polecenia.
DELTA_NIE_MOŻNA_USTAWIĆ_LOKALIZACJI_NA_IDENTYFIKATORZE_ŚCIEŻKI
Nie można zmienić lokalizacji tabeli opartej na ścieżkach.
DELTA_NIE_MOŻNA_USTAWIĆ_WŁAŚCIWOŚCI_ZARZĄDZANYCH_STATYSTYK_KOLUMN
Nie można ustawić obiektu delta.managedDataSkippingStatsColumns w tabeli potoków deklaratywnych platformy Spark innej niż Lakeflow.
DELTA_NIE_MOŻNA_USTAWIĆ_UC_COMMIT_COORDINATOR_CONF_W_COMMAND
Podczas włączania unity-catalog jako koordynatora zatwierdzania zmian nie można ustawić konfiguracji "<configuration>" z poziomu polecenia. Usuń go z klauzuli TBLPROPERTIES, a następnie ponów próbę ponownego uruchomienia polecenia.
DELTA_NIE_MOŻNA_USTAWIĆ_UC_COMMIT_KOORDYNATOR_CONF_W_SESJI
Podczas włączania 'unity-catalog' jako koordynatora zatwierdzania, konfiguracji "<configuration>" nie można ustawić w konfiguracjach SparkSession. Usuń jego ustawienia, uruchamiając spark.conf.unset("<configuration>"), a następnie ponów próbę ponownego uruchomienia polecenia.
NIE MOŻNA WYŁĄCZYĆ SKOORDYNOWANYCH ZATWIERDZEŃ_DELTA
ALTER nie może wyłączyć konfiguracji zatwierdzeń skoordynowanych. Aby obniżyć dół tabeli z skoordynowanych zatwierdzeń, spróbuj ponownie przy użyciu polecenia ALTER TABLE [table-name] DROP FEATURE 'coordinatedCommits-preview'.
DELTA_NIE MOŻNA AKTUALIZOWAĆ POLA TABLICY
Nie można zaktualizować <tableName> typu pola <fieldName> : zaktualizuj element, aktualizując <fieldName>.elementelement .
DELTA_NIE_MOŻNA_ZAKTUALIZOWAĆ_POLA_MAPY
Nie można zaktualizować <tableName> typu pola <fieldName> : zaktualizuj mapę, aktualizując <fieldName>.key lub <fieldName>.value.
DELTA_NIE_MOŻE_ZAKTUALIZOWAĆ_INNEGO_POLA
Nie można zaktualizować <tableName> pola typu <typeName>.
NIE_MOŻNA_ZAKTUALIZOWAĆ_POLA_STRUKTURY_DELTA
Nie można zaktualizować <tableName> typu pola <fieldName> : aktualizacja struktury przez dodanie, usunięcie lub zaktualizowanie pól.
DELTA_NIE_MOŻNA_UŻYĆ_WSZYSTKICH_KOLUMN_DO_PARTYCJONOWANIA
Nie można użyć wszystkich kolumn jako kolumn partycji.
Delta_nie_może_odkurzać_lite
VACUUM LITE nie może usunąć wszystkich kwalifikujących się plików, ponieważ niektóre pliki nie są uwzględnione w dzienniku Delta. Proszę uruchomić VACUUM FULL.
NIE MOŻNA ZAPISAĆ W WIDOKU_DELTA
<table> to widok. Zapisy do widoku nie są obsługiwane.
DELTA_PRZEKROCZENIE_WARTOŚCI_PODCZAS_ZAPISU_W_TABELI
Nie można zapisać wartości typu <sourceType> w kolumnie typu <targetType><columnName> z powodu przepełnienia.
Użyj try_cast na wartości wejściowej, aby tolerować przepełnienie i zwrócić NULL.
W razie potrzeby ustaw <storeAssignmentPolicyFlag> na "LEGACY", aby pominąć ten błąd lub ustaw <updateAndMergeCastingFollowsAnsiEnabledFlag> na true, aby powrócić do poprzedniego zachowania i postępuj zgodnie z <ansiEnabledFlag> w UPDATE i MERGE.
DELTA_CATALOG_MANAGED_TABLE_UPGRADE_OR_DOWNGRADE_NOT_SUPPORTED
Uaktualnianie lub obniżanie poziomu tabeli zarządzanej przez wykaz nie jest obsługiwane. Zamiast tego utwórz nową tabelę z żądanymi funkcjami tabeli.
DELTA_CATALOG_MANAGED_TABLE_UPGRADE_WITH_OTHER_PROPERTIES
Nie można połączyć uaktualniania tabeli <tableName> do katalogu zarządzanego z innymi zmianami właściwości.
Podano właściwości: <properties>.
DELTA_CDC_NIE_DOZWOLONE_W_TEJ_WERSJI
SQLSTATE: 0AKDC
Nie można ustawić właściwości delta.enableChangeDataFeed. Zmiana kanału danych z Delta nie jest jeszcze dostępna.
DELTA_ODCZYT_CDC_NULL_GRANICA_ZASIĘGU
Parametry początkowe/końcowe odczytu CDC nie mogą mieć wartości null. Podaj prawidłową wersję lub znacznik czasu.
STRUMIEŃ_DANYCH_DELTA_NIEZGODNY_Z_SCHEMATEM_DANYCH
SQLSTATE: 0AKDC
Pobieranie zmian tabeli między wersjami <start> i <end> nie powiodło się ze względu na niekompatybilny schemat danych.
Schemat odczytu jest <readSchema> w wersji <readVersion>, ale znaleźliśmy niezgodny schemat danych w wersji <incompatibleVersion>.
Jeśli to możliwe, pobierz zmiany tabeli, używając schematu wersji końcowej, ustawiając <config> na endVersion, lub skontaktuj się z pomocą techniczną.
ZMIANA_DELTA_FEED_DANYCH_NIEKOMPATYBILNA_ZMIANA_SCHEMATU
SQLSTATE: 0AKDC
Pobieranie zmian tabeli między wersją <start> a <end> nie powiodło się z powodu niekompatybilnej zmiany schematu.
Schemat odczytu w wersji <readSchema>to <readVersion>, ale znaleźliśmy niekompatybilną zmianę schematu w wersji <incompatibleVersion>.
Jeśli to możliwe, należy wykonać zapytanie o zmianę tabeli oddzielnie od wersji <start> do <incompatibleVersion> — 1 i od wersji <incompatibleVersion> do <end>.
PLIK_DANYCH_DELTA_ZMIANY_NIE_ZNALEZIONY
Nie można odnaleźć <filePath> pliku, do którego odwołuje się dziennik transakcji. Taka sytuacja może wystąpić, gdy dane zostały ręcznie usunięte z systemu plików, raczej niż przy użyciu instrukcji tabeli DELETE. To żądanie wydaje się dotyczyć funkcji Change Data Feed. Jeśli tak jest, ten błąd może wystąpić, gdy plik z danymi o zmianach znajduje się poza okresem przechowywania i został usunięty w wyniku działania polecenia VACUUM. Aby uzyskać więcej informacji, zobacz <faqPath>
DELTA_ZMIANA_TABELA_KANAL_WYŁĄCZONY
Nie można zapisać w tabeli, gdy jest ustawiony delta.enableChangeDataFeed. Zmiana kanału danych z Delta jest niedostępna.
DELTA_PUNKT_KONTROLNY_NIEISTNIEJĄCA_TABELA
Nie można wskazać punktu kontrolnego nieistniejącej tabeli <path>. Czy ręcznie usunięto pliki w katalogu _delta_log?
DELTA_KLON_NIEJASNY_CEL
Dwie ścieżki zostały podane jako docelowy punkt CLONE, więc nie wiadomo, którą należy użyć. Zewnętrzny element
lokalizacja CLONE została podana w <externalLocation> w tym samym czasie co ścieżka
<targetIdentifier>.
DELTA_KLON_NIEKOMPATYBILNE_ŹRÓDŁO
SQLSTATE: 0AKDC
Źródło klonowania ma prawidłowy format, ale zawiera nieobsługiwaną funkcję Delta.
Aby uzyskać więcej informacji, zobacz DELTA_CLONE_INCOMPATIBLE_SOURCE
DELTA_KLON_NIEKOMPLETNY_KOPIA_PLIKU
Plik (<fileName>) nie został całkowicie skopiowany. Oczekiwany rozmiar pliku: <expectedSize>, znaleziono: <actualSize>. Aby kontynuować operację, pomijając kontrolę rozmiaru pliku, ustaw <config> na wartość false.
DELTA_KLON_NIEOBSŁUGIWANE_ŹRÓDŁO
SQLSTATE: 0AKDC
Nieobsługiwane źródło klonu <mode> '<name>', którego format to <format>.
Obsługiwane formaty to "delta", "Apache Iceberg" i "parquet".
DELTA_KLONOWANIE_Z_HISTORIĄ_NIEOBSŁUGIWANE_ŹRÓDŁO
SQLSTATE: 0AKDC
Nieobsługiwana tabela źródłowa:
Aby uzyskać więcej informacji, zobacz DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE
Docelowy system nie obsługuje klonowania z historią delta.
SQLSTATE: 0AKDC
Nieobsługiwana tabela docelowa:
Aby uzyskać więcej informacji, zobacz DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET
DELTA_CLONE_WITH_ROW_TRACKING_WITHOUT_STATS
Nie można płytkiej klonowania tabeli bez statystyk i z włączonym śledzeniem wierszy.
Jeśli chcesz włączyć śledzenie wierszy, musisz najpierw zebrać statystyki w tabeli źródłowej, uruchamiając polecenie:
ANALYZE TABLE nazwa_tabeli COMPUTE DELTA STATISTICS
KLONOWANIE_TABELI_DELTA_CLUSTERING_NIEOBSŁUGIWANE
CLONE Nie jest obsługiwana w przypadku tabeli delty z klastrowaniem Liquid dla DBR w wersji < 14.0.
DELTA_TYP_DANYCH_KOLUMN_KLASTERUJĄCYCH_NIEOBSŁUGIWANY
CLUSTER BY nie jest obsługiwany, ponieważ następujące kolumny: <columnsWithDataTypes> nie obsługują pomijania danych.
BŁĄD_NIEZGODNOŚCI_KOLUMN_GRUPUJĄCYCH_DELTA
Podane kolumny klastrowania nie są zgodne z istniejącymi tabelami.
Dostarczone:
<providedClusteringColumns>istniejący:
<existingClusteringColumns>
DELTA_BRAKUJĄCA_STATYSTYKA_GRUPOWANIA_KOLUMNY
Klastrowanie płynne wymaga, aby kolumny klastrowania miały statystyki. Nie znaleziono kolumn klastrowania "<columns>" w schemacie statystyk.
<schema>
Tworzenie zewnętrznej tabeli niepłynnej z tabeli płynnej w klasteryzacji Delta
Tworzenie tabeli zewnętrznej bez płynnego klastrowania z katalogu tabeli z klastrowaniem płynnym jest niedozwolone; path: <path>.
DELTA_CLUSTERING_NIEOBSŁUGIWANE
"<operation>" nie obsługuje klastrowania.
DELTA_CLUSTERING_FAZA_WYŁĄCZANIA_ZAKOŃCZYŁA_SIĘ_NIEPOWODZENIEM
Nie można zakończyć elementu <phaseOutType> w tabeli przy użyciu funkcji tabeli <tableFeatureToAdd> (przyczyna: <reason>). Spróbuj ponownie polecenia OPTIMIZE.
== Błąd ==
<error>
ZASTĄPIENIE_TABELI_DELTA_TABELĄ_Z_PARTYCJAMI
REPLACE tabela Delta z klastrowaniem Liquid nie może być łączona z tabelą partycjonowaną.
POKAŻ_TABELĘ_BEZ_KOLUMN_KLASTROWANIA_DELTA_KLASTROWANIE
SHOW CREATE TABLE nie jest obsługiwana dla tabeli Delta z klastrowaniem Liquid bez żadnych kolumn klastrowania.
Klasteryzacja Delta do tabeli partycjonowanej z niepustymi kolumnami klastryzującymi
Przejście tabeli Delta z klastrowaniem Liquid do tabeli partycjonowanej nie jest dozwolone w operacji: <operation>, jeśli istniejąca tabela ma niepuste kolumny klastrowania.
Uruchom ALTER TABLE CLUSTER BY NONE, aby najpierw usunąć kolumny klastrowania.
If using the term in Polish is beneficial for clarity: KLASTROWANIE_DELTA_Z_DYNAMICZNYM_NADPISYWANIEM_PARTYCJI. If leaving the term in English is standard and appropriate for the context: DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE.
Tryb zastępowania partycji dynamicznej nie jest dozwolony dla tabeli Delta z klastrowaniem Liquid.
Grupowanie Delta z Predykatem Partycji
OPTIMIZE polecenie dla tabeli Delta z klastrowaniem Liquid nie obsługuje predykatów partycji. Usuń predykaty: <predicates>.
DELTA_CLUSTERING_ZAMÓWIENIE_Z_ORDER
OPTIMIZE polecenie dla tabeli Delta z klastrowaniem Liquid nie może określić ZORDER BY. Usuń plik ZORDER BY (<zOrderBy>).
DELTA_KLASTEROWAĆ_SIĘ_AUTOMATYCZNIE_NIEZGODNOŚĆ
Podana wartość clusterByAuto nie jest zgodna z istniejącą tabelą.
DELTA_KLASTER_NIEPOPRAWNA_LICZBA_KOLUMN
CLUSTER BY dla klastrowania Liquid obsługuje maksymalnie <numColumnsLimit> kolumn klastrowania, ale tabela ma <actualNumColumns> kolumn klastrowania. Usuń dodatkowe kolumny klastrowania.
DELTA_CLUSTER_BY_SCHEMA_NIE_ZDEFINIOWANY
Nie można określić CLUSTER BY, gdy schemat nie jest zdefiniowany. Zdefiniuj schemat tabeli <tableName>.
Grupowanie DELTA według klastra z bucketingiem
Nie można jednocześnie określić klastrowania i grupowania. Usuń CLUSTERED BY INTO BUCKETS/bucketBy, jeśli chcesz utworzyć tabelę Delta z klastrowaniem.
DELTA_CLUSTERUJ_POPRZEZ_Z_PARTYCJONOWANIEM_POPRZEZ
Nie można określić klastrowania i partycjonowania. Usuń PARTITIONED BY / partitionBy / partitionedBy, jeśli chcesz utworzyć tabelę delty z klastrowaniem.
Formatowania Delta nie są obsługiwane
SQLSTATE: 0AKDC
Porządkowania nie są obsługiwane w Delta Lake.
Pomijanie danych w kolumnach Delta nieobsługiwane w przypadku kolumn partycjonowanych
SQLSTATE: 0AKDC
Pomijanie danych nie jest obsługiwane dla kolumny partycyjnej '<column>'.
DELTA_KOLUMNA_POMIJANIE_DANYCH_TYP_NIEOBSŁUGIWANY
SQLSTATE: 0AKDC
Pomijanie danych nie jest obsługiwane dla kolumny "<column>" typu <type>.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NIE_OKREŚLONO
Właściwość maksymalnego identyfikatora kolumny (<prop>) nie jest ustawiona w tabeli z włączoną mapowaniem kolumn.
MAKSYMALNY_ID_KOLUMNY_MAPOWANIA_DELTA_NIE_USTAWIONY_POPRAWNIE
Maksymalna właściwość identyfikatora kolumny (<prop>) w tabeli z włączoną mapowaniem kolumny jest <tableMax>, która nie może być mniejsza niż maksymalny identyfikator kolumny dla wszystkich pól (<fieldMax>).
BRAK_TYPU_DANYCH_DLA_KOLUMNY_DELTA
Nie podano typu danych kolumny <colName>.
NIE ZNALEZIONO KOLUMNY DELTA
Nie można odnaleźć kolumny <columnName> z [<columnList>].
DELTA_KOLUMNA_NIE_ZNALEZIONA_W_SCALENIU
Nie można znaleźć kolumny '<targetCol>' w tabeli docelowej na podstawie kolumn INSERT: <colNames>.
INSERT klauzula musi określać wartość dla wszystkich kolumn tabeli docelowej.
DELTA_KOLUMNA_NIEZNALAZIONA_W_SCHEMACIE
Nie można odnaleźć kolumny <columnName> w:
<tableSchema>
ŚCIEŻKA_KOLUMN_DELTA_NIE_ZAGNIECIONA
Oczekiwano, że <columnPath> będzie typem danych zagnieżdżonym, ale znaleziono <other>. Szukał(-a)
indeks <column> w gnieździeansch polu.
Schemat:
<schema>
NIEZGODNOŚĆ STRUKTURY TYPÓW KOLUMN DELTA
Nie można wstawić kolumny struktury <source> do pola <targetType><targetField> w <targetTable>.
STAN POŚREDNI PRZEKIEROWANIA ZATWIERDZENIA ZMIAN
Nie można obsłużyć zatwierdzenia tabeli w stanie "tabela przekierowania" "<state>".
WERYFIKACJA KOMPRESJI DELTA NIE POWIODŁA SIĘ
Sprawdzanie poprawności kompaktowania ścieżki od <compactedPath> do <newPath> nie powiodło się: prosimy zgłosić raport o błędzie.
Kolumna typu złożonego DELTA zawiera typ null
Odnaleziono zagnieżdżony typ NullType w kolumnie <columName>, która jest typu <dataType>. Funkcja Delta nie obsługuje zapisywania wartości NullType w typach złożonych.
Równoległe dodawanie_delta
ConcurrentAppendException: pliki zostały dodane do <partition> przez współbieżną aktualizację. <retryMsg> <conflictingCommit>
Aby uzyskać więcej informacji, zobacz <docLink>.
DELTA_JEDNOCZESNE_USUNIĘCIE削除
ConcurrentDeleteDeleteException: ta transakcja próbowała usunąć co najmniej jeden plik, który został usunięty (na przykład <file>) przez współbieżną aktualizację. Spróbuj ponownie wykonać operację.<conflictingCommit>
Aby uzyskać więcej informacji, zobacz <docLink>.
RÓWNOLEGŁE_USUWANIE_CZYTANIE_DELTA
ConcurrentDeleteReadException: ta transakcja próbowała odczytać co najmniej jeden plik, który został usunięty (na przykład <file>) przez współbieżną aktualizację. Spróbuj ponownie wykonać operację.<conflictingCommit>
Aby uzyskać więcej informacji, zobacz <docLink>.
DELTA_WSPÓŁCZESNA_TRANSAKCJA
ConcurrentTransactionException: ten błąd występuje, gdy wiele zapytań przesyłanych strumieniowo używa tego samego punktu kontrolnego do zapisania w tej tabeli. Czy uruchomiłeś wiele wystąpień tego samego zapytania przesyłania strumieniowego w tym samym czasie?<conflictingCommit>
Aby uzyskać więcej informacji, zobacz <docLink>.
DELTA_RÓWNOCZESNY_ZAPIS
ConcurrentWriteException: Współbieżna transakcja zapisywała nowe dane od czasu odczytania tabeli przez bieżącą transakcję. Spróbuj ponownie wykonać operację.<conflictingCommit>
Aby uzyskać więcej informacji, zobacz <docLink>.
There are no improvements needed; leave it unchanged as "DELTA_CONFLICT_SET_COLUMN."
Istnieje konflikt między tymi kolumnami SET: <columnList>.
Nadpisywanie konfiguracji DELTA nie jest obsługiwane w poleceniu
Podczas <command> nie można ustawić konfiguracji "<configuration>" z polecenia. Usuń go z klauzuli TBLPROPERTIES, a następnie ponów próbę ponownego uruchomienia polecenia.
Opcja zastąpienia konfiguracji DELTA nie jest obsługiwana w tej sesji
Podczas <command> nie można ustawić konfiguracji "<configuration>" z ustawień SparkSession. Usuń jego ustawienia, uruchamiając spark.conf.unset("<configuration>"), a następnie ponów próbę ponownego uruchomienia polecenia.
OGRANICZENIE_DELTA_JUŻ_ISTNIEJE
Ograniczenie "<constraintName>" już istnieje. Najpierw usuń stare ograniczenie.
Stare ograniczenie:
<oldConstraint>
DELTA_CONSTRAINT_NIEZGODNOŚĆ_TYPÓW_DANYCH
Kolumna <columnName> ma typ danych <columnType> i nie można jej zmienić na typ danych <dataType>, ponieważ ta kolumna jest przywoływane przez następujące ograniczenia kontrolne:
<constraints>
Delta_Zależna_Zmiana_Kolumny_Ograniczenia
Nie można zmienić kolumny <columnName>, ponieważ ta kolumna jest przywoływana przez następujące ograniczenia sprawdzania:
<constraints>
DELTA_CONSTRAINT_NIE_ISTNIEJE
Nie można usunąć nieistniejących ograniczeń <constraintName> z tabeli <tableName>. Aby uniknąć zgłaszania błędu, podaj parametr IF EXISTS lub ustaw konfigurację sesji SQL <config> na <confValue>.
DELTA_CONVERSION_MERGE_ON_READ_NIEOBSŁUGIWANY
SQLSTATE: 0AKDC
Konwersja tabeli Merge-On-Read <format> nie jest obsługiwana: <path>, <hint>
NIE ZNALEZIONO_PARTYCJI_DELTA_KONWERSJI
Nie znaleziono informacji o partycji w katalogu dla tabeli <tableName>. Czy uruchomiłeś "MSCK REPAIR TABLE" na swojej tabeli, aby odnaleźć partycje?
KONWERSJA_DELTA_NIEOBSŁUGIWANA_SKOLACJONOWANA_KOLUMNA_PARTYCJI
SQLSTATE: 0AKDC
Nie można przekonwertować tabeli Parquet z uporządkowaną kolumną partycji <colName> na Delta.
DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING (Niezgodna mapowanie kolumn)
SQLSTATE: 0AKDC
Nie można ustawić konfiguracji "<config>" na wartość <mode>, podczas korzystania z CONVERT TO DELTA.
NIEOBSŁUGIWANA_ZMIANA_SCHEMATU_DELTA_KONWERSJI
SQLSTATE: 0AKDC
Nieobsługiwane zmiany schematu znalezione dla <format> tabeli: <path>, <hint>
DELTA_CONVERT_NON_PARQUET_TABLE
SQLSTATE: 0AKDC
CONVERT TO DELTA obsługuje tylko tabele typu Parquet, ale próbujesz przekonwertować źródło <sourceName>: <tableId>.
KONWERSJA_DELTA_DO_ŚLEDZENIA_RZĘDÓW_DELTA_BEZ_STATYSTYK
Nie można włączyć śledzenia wierszy bez zbierania statystyk.
Jeśli chcesz włączyć śledzenie wierszy, wykonaj następujące czynności:
- Włącz zbieranie statystyk, uruchamiając polecenie
SET <statisticsCollectionPropertyKey> = prawda
- Uruchom
CONVERTTODELTAbez opcji NOSTATISTICS.
Jeśli nie chcesz zbierać statystyk, wyłącz śledzenie zmian w wierszach.
- Dezaktywowanie włączania funkcji tabeli domyślnie przez uruchomienie polecenia :
RESET <rowTrackingTableFeatureDefaultKey>
- Dezaktywuj właściwość tabeli domyślnie, uruchamiając polecenie:
SET <rowTrackingDefaultPropertyKey> = fałsz
KOPIUJ_DELTA_DO_FORMATU_DOCELOWEGO
COPY INTO celem musi być tabela Delta.
DELTA_STWÓRZ_ZEWNETRZNA_TABELA_BEZ_SCHEMATU
Próbujesz utworzyć tabelę zewnętrzną <tableName>
z <path> przy użyciu Delta, ale schemat nie jest określony, gdy
ścieżka wejściowa jest pusta.
Aby dowiedzieć się więcej o funkcji Delta, zobacz <docLink>
Utwórz tabelę zewnętrzną DELTA bez dziennika transakcji
Próbujesz utworzyć zewnętrzną tabelę <tableName> z <path> używając Delta, ale w lokalizacji <logPath> nie ma dziennika transakcji. Sprawdź zadanie nadrzędne, aby upewnić się, że zapisuje przy użyciu formatu("delta") i czy ścieżka jest katalogem głównym tabeli.
Aby dowiedzieć się więcej o funkcji Delta, zobacz <docLink>
NIEZGODNOŚĆ LOKALIZACJI IDENTYFIKATORA PRZY TWORZENIU TABELI DELTA
SQLSTATE: 0AKDC
Tworzenie tabeli delty opartej na ścieżkach z inną lokalizacją nie jest obsługiwane. Identyfikator: <identifier>, Lokalizacja: <location>.
BRAK_NAZWY_TABELI_LUB_LOKALIZACJI_PRZY_TWORZENIU_DELTY
Należy określić nazwę tabeli lub lokalizację.
BŁĄD_DELTA_TWORZENIE_SCHEMATU_TABELI_NIEZGODNOŚĆ
Określony schemat nie jest zgodny z istniejącym schematem w <path>.
== Określony ==
<specifiedSchema>
== Istniejące ==
<existingSchema>
== Różnice ==
<schemaDifferences>
Jeśli twoim zamiarem jest zachowanie istniejącego schematu, możesz pominąć
schema z polecenia create table. W przeciwnym razie upewnij się, że
schemat jest zgodny.
DELTA_UTWÓRZ_TABELĘ_USTAWIENIE_KLASTROWANIA_CECHY_TABELI_NIEDOZWOLONE
Nie można włączyć funkcji tabeli <tableFeature> przy użyciu TBLPROPERTIES. Użyj CREATE LUB REPLACE TABLE CLUSTER BY, aby utworzyć tabelę Delta z grupowaniem.
DELTA_TWORZENIE_TABELI_Z_RÓŻNYM_KLASTROWANIEM
Określone kolumny klastrowania nie są zgodne z istniejącymi kolumnami klastrowania w <path>.
== Określony ==
<specifiedColumns>
== Istniejące ==
<existingColumns>
DELTA_UTWÓRZ_TABELĘ_Z_INNYM_PARTYCJONOWANIEM
Określone partycjonowanie nie jest zgodne z istniejącym partycjonowaniem w <path>.
== Określony ==
<specifiedColumns>
== Istniejące ==
<existingColumns>
DELTA_TWORZENIE_TABELI_Z_RÓŻNYMI_PARAMETRAMI
Określone właściwości nie są zgodne z istniejącymi właściwościami w <path>.
== Określony ==
<specifiedProperties>
== Istniejące ==
<existingProperties>
DELTA_TWORZENIE_TABELI_Z_NIEPUSTĄ_LOKALIZACJĄ
Nie można utworzyć tabeli ('<tableId>'). Skojarzona lokalizacja ('<tableLocation>') nie jest pusta, a także nie tabela delty.
Not applicable unless context dictates otherwise, as this could remain as a technical identifier.
Nie można zmienić metadanych tabeli, ponieważ opcja "dataChange" jest ustawiona na wartość false. Próbna operacja: '<op>'.
USUNIĘTY_PLIK_PARQUET_NIE_ZNALEZIONY
Nie można odnaleźć <filePath> pliku, do którego odwołuje się dziennik transakcji. Ten plik w formacie Parquet może zostać usunięty zgodnie z zasadami przechowywania danych Delta.
Domyślny okres przechowywania danych Delta: <logRetentionPeriod>. Czas modyfikacji pliku Parquet: <modificationTime>. Czas usunięcia pliku formatu Parquet: <deletionTime>. Usunięto wersję Delta: <deletionVersion>.
DELTA_DELETION_VECTOR_BRAK_LICZBY_REKORDÓW
Nie można zatwierdzać plików zawierających wektory usuwania, które nie zawierają statystyki numRecords.
DELTA_DISABLE_SOURCE_MATERIALIZATION_IN_INSERT_REPLACE_ON_OR_USING_NOT_ALLOWED
SQLSTATE: 0AKDC
Wyłączenie materializacji źródła w programie INSERT REPLACE ON/USING przez ustawienie wartości "spark.databricks.delta.insertReplaceOnOrUsing.materializeSource" na wartość "none" jest niedozwolone.
Wyłączenie materializacji źródła w DELTA podczas łączenia jest niedozwolone.
SQLSTATE: 0AKDC
Wyłączenie materializacji źródła w MERGE przez ustawienie wartości spark.databricks.delta.merge.materializeSource na none nie jest dozwolone.
METADANE_DELTA_DOMENY_NIE_SĄ_OBSŁUGIWANE
Wykryto działanie DomainMetadata dla domen <domainNames>, ale DomainMetadataTableFeature nie jest włączona.
DELTA_USUŃ_KOLUMNĘ_PRZY_INDEKSIE_MNIEJSZYM_OD_ZERA
Indeks <columnIndex> do upuszczania kolumny jest niższy niż 0.
USUWANIE_KOLUMNY_DELTA_W_POJEDYNCZYM_SCHEMACIE_POLA
SQLSTATE: 0AKDC
Nie można usunąć kolumny ze schematu z jedną kolumną. Schemat:
<schema>
ZNALEZIONO_DUPLIKATY_DZIAŁAŃ_DELTA
Operacja pliku "<actionType>" dla ścieżki <path> została określona kilka razy.
Konfliktuje z <conflictingPath>.
Nie jest dopuszczalne, aby wiele operacji na plikach z tą samą ścieżką znajdowało się w jednym komicie.
DELTA_ZDUPLIKOWANE_KOLUMNY_ZNALEZIONE
Znaleziono zduplikowane kolumny <coltype>: <duplicateCols>.
DUPLIKATY_KOLUMN_PRZY_WSTAWIANIU
Zduplikowane nazwy kolumn w INSERT klauzuli .
DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE (Powielanie kolumn w tabeli aktualizacji)
<message>
Przed zaktualizowaniem tabeli usuń zduplikowane kolumny.
DELTA_ZDUPLIKOWANE_DANE_POMIJANIE_KOLUMN
Znaleziono zduplikowane dane pomijające kolumny: <columns>.
BŁĄD_WEWNĘTRZNY_DUPLIKAT_META_DANYCH_DOMAIN Δ
Błąd wewnętrzny: dwie akcje DomainMetadata w ramach tej samej transakcji mają tę samą domenę <domainName>.
DELTA_DUPLICATE_LOG_ENTRIES_FOUND
Dziennik delty jest w stanie niedozwolonym: <numDuplicates> ścieżki mają zduplikowane wpisy w wersji <version>.
RESTORE do wersji przed zatwierdzeniem, które wprowadziło duplikację lub skontaktuj się z pomocą techniczną w celu uzyskania pomocy.
DELTA_DV_HISTOGRAM_DESERIALIZATION
Nie można deserializować histogramu liczby usuniętych rekordów podczas weryfikacji integralności tabeli.
NADPISYWANIE_DYNAMINCZNYCH_PARTYCJI_DELTA_WYŁĄCZONE
Tryb nadpisywania partycji dynamicznych jest określany przez konfigurację sesji lub opcje zapisu, ale jest wyłączony przez spark.databricks.delta.dynamicPartitionOverwrite.enabled=false.
DELTA_PUSTE_DANE
Dane używane podczas tworzenia tabeli delty nie mają żadnych kolumn.
DELTA_EMPTY_DIRECTORY
W katalogu nie znaleziono pliku: <directory>.
DELTA_PRZEKRACZA_LIMIT_CHAR_VARCHAR
Wartość "<value>" przekracza ograniczenie długości typu char/varchar. Sprawdzanie nie powiodło się: <expr>.
DELTA_EXTERNAL_METADATA_UNRESOLVED_PROJECTION
Nie można rozpoznać zapytania projekcji "<query>" w schemacie: <schemaTreeString>
DELTA_EXTERNAL_METADATA_UNSUPPORTED_SOURCE
SQLSTATE: 0AKDC
Metadane zewnętrzne nie obsługują źródła:
Aby uzyskać więcej informacji, zobacz DELTA_EXTERNAL_METADATA_UNSUPPORTED_SOURCE
DELTA_FAILED_CAST_PARTITION_VALUE (Nie powiodło się rzutowanie wartości partycji w systemie Delta)
Nie można przekonwertować wartości <value> partycji na <dataType>.
DELTA_NIE_UDALO_SIE_ZNALEZC_ATRYBUTU_W_KOLUMNACH_WYJSCIOWYCH
Nie można odnaleźć <newAttributeName> spośród istniejących danych wyjściowych <targetOutputColumns>docelowych.
DELTA_NIEPOWODZENIE_INFERENCJI_SCHEMATU
Nie można wywnioskować schematu z podanej listy plików.
BŁĄD_SCALENIA_PLIKU_SCHEMATU_DELTA
Nie można scalić schematu pliku <file>:
<schema>
DELTA_NIEUDANA_OPERACJA_NA_PŁYTEJ_KOPII
Nie można uruchomić operacji w tabeli <sourceTable> źródłowej, ponieważ płytki klon <targetTable> nadal istnieje i wystąpił następujący błąd w płytkim klonie: <message>
BŁĄD_DELTA_ODCZYTU_STOPKI_PLIKU
Nie można odczytać stopki dla pliku: <currentFile>.
DELTA_NIEUDANE_ROZPOZNANIE_PREDYKATU
Nie można rozpoznać predykatu "<predicate>".
Nieudane skanowanie DELTA z wersją historyczną
Oczekuj pełnego skanowania najnowszej wersji źródła Delta, ale znaleziono skanowanie wersji historycznej <historicalVersion>.
DELTA_NIE_UDALO_SIE_SCALIC_POL_TERMINOW
Nie można scalić pól "<currentField>" i "<updateField>".
NIEDOPASOWANIE_PROTOKOŁU_METADANYCH_CECH_DELTA
Nie można wykonać operacji w tej tabeli, ponieważ następujące funkcje tabeli są włączone w metadanych, ale nie są wymienione w protokole: <features>.
FUNKCJE DELTA WYMAGAJĄ RĘCZNEGO WŁĄCZENIA
Schemat tabeli wymaga ręcznego włączenia następujących funkcji tabeli: <unsupportedFeatures>.
W tym celu uruchom następujące polecenie dla każdej z funkcji wymienionych powyżej:
ALTER TABLE
SET TBLPROPERTIES table_name ('delta.feature.feature_name' = 'supported')
Zastąp "table_name" i "feature_name" rzeczywistymi wartościami.
Bieżąca obsługiwana funkcja: <supportedFeatures>.
Funkcja DELTA pozwala zrezygnować z ochrony punktu kontrolnego jedynie poprzez skrócenie historii
Nie można usunąć funkcji Ochrony punktu kontrolnego.
Tę funkcjonalność można usunąć tylko przez obcięcie historii.
Spróbuj ponownie za pomocą opcji TRUNCATE HISTORY:
ALTER TABLE
DROP FEATURE table_name ochrona punktu kontrolnegoTRUNCATE HISTORY
DELTA_FEATURE_USUNIĘCIE_PUNKTU_KONTROLNEGO_NIEPOWODZENIE
Usunięcie <featureName> nie powiodło się z powodu błędu przy tworzeniu punktu kontrolnego.
Spróbuj ponownie później. Jeśli problem będzie się powtarzać, skontaktuj się z pomocą techniczną usługi Databricks.
DELTA_FEATURE_USUNIĘCIE_PUNKTU_ODTWARZANIA_OCHRONY_OCZEKIWANIE_NA_OKRES_ZACHOWANIA
Operacja nie powiodła się, ponieważ nadal istnieją ślady porzuconych funkcji
w historii tabeli. Nie można usunąć CheckpointProtection, dopóki nie zostanie spełniony warunek dotyczący historycznych danych.
wersje wygasły.
Aby usunąć program CheckpointProtection, poczekaj, aż wersje historyczne będą dostępne
poczekaj, aż polecenie wygaśnie, a następnie powtórz je. Okres przechowywania dla wersji historycznych to
program jest obecnie skonfigurowany na <truncateHistoryLogRetentionPeriod>.
DELTA_FEATURE_DROP_KONFLIKT_PONOWNA_WERYFIKACJA_NIEPOWODZENIE
Nie można usunąć funkcji, ponieważ współbieżna transakcja zmodyfikowała tabelę.
Spróbuj ponownie wykonać operację.
<concurrentCommit>
DELTA_CECHY_USUŃ_ZALEŻNE_CECHY
Nie można usunąć funkcji tabeli <feature>, ponieważ niektóre inne funkcje (<dependentFeatures>) w tej tabeli zależą od <feature>.
Rozważ usunięcie ich najpierw przed usunięciem tej funkcji.
DELTA_FEATURE_DROP_FEATURE_IS_DELTA_PROPERTY
Nie można usunąć <property> z tej tabeli, ponieważ jest to właściwość tabeli różnicowej, a nie funkcja tabeli.
DELTA_CECHY_OPUSZCZENIE_CECHY_NIEOBECNA
Nie można usunąć <feature> z tej tabeli, ponieważ nie jest on obecnie obecny w protokole tabeli.
FUNKCJA_DELTA_USUWANIE_ISTNIEJĄCYCH_HISTORYCZNYCH_WERSJI
Nie można usunąć <feature>, ponieważ dziennik delty zawiera wersje historyczne korzystające z tej funkcji.
Zaczekaj na okres przechowywania historii (<logRetentionPeriodKey>=<logRetentionPeriod>)
funkcja została przekazana od czasu ostatniego aktywnego działania funkcji.
Możesz też poczekać na wygaśnięcie okresu przechowywania TRUNCATE HISTORY (<truncateHistoryLogRetentionPeriod>)
a następnie uruchom
ALTER TABLE nazwa_tabeli DROP FEATURE nazwa_cechy TRUNCATE HISTORY
FUNKCJA_DELTA_USUNIĘCIE_HISTORII_SKRÓCENIE_NIEDOZWOLONE
Określona funkcja nie wymaga skracania historii.
DELTA_CECHY_USUNIĘCIE_NIEUSUWALNEJ_CECHY
SQLSTATE: 0AKDC
Nie można usunąć <feature>, ponieważ usunięcie tej funkcji nie jest obsługiwane.
Skontaktuj się z pomocą techniczną usługi Databricks.
Odzrzucenie funkcji Delta z powodu nieobsługiwanej funkcji klienta
SQLSTATE: 0AKDC
Nie można usunąć <feature>, ponieważ nie jest obsługiwana przez tę wersję usługi Databricks.
Rozważ użycie usługi Databricks z wyższą wersją.
Funkcja_DELTA_Usuwanie_Czekaj_na_Okres_Retencji
Odrzucenie <feature> było częściowo udane.
Funkcja nie jest już używana w bieżącej wersji tabeli. Jednak funkcja
nadal jest obecny w historycznych wersjach tabeli. Nie można usunąć funkcji tabeli
od schematu tabeli do momentu wygaśnięcia tych wersji historycznych.
Aby usunąć funkcję tabeli z protokołu, poczekaj na ukończenie przeglądu wersji historycznych.
poczekaj, aż polecenie wygaśnie, a następnie powtórz je. Okres przechowywania dla wersji historycznych to
obecnie skonfigurowane jako <logRetentionPeriodKey>=<logRetentionPeriod>.
Możesz też poczekać na wygaśnięcie okresu przechowywania TRUNCATE HISTORY (<truncateHistoryLogRetentionPeriod>)
a następnie uruchom
ALTER TABLE nazwa_tabeli DROP FEATURE nazwa_cechy TRUNCATE HISTORY
Funkcja DELTA wymaga nowszej wersji czytnika.
Nie można włączyć funkcji tabeli <feature>, ponieważ wymaga nowszej wersji protokołu czytnika (bieżąca <current>). Rozważ uaktualnienie wersji protokołu czytnika tabeli do <required>wersji lub do wersji, która obsługuje funkcje tabel czytników. Aby uzyskać więcej informacji na temat wersji protokołu tabeli, zobacz <docLink>.
Funkcja DELTA wymaga nowszej wersji pisarza
Nie można włączyć funkcji tabeli <feature>, ponieważ wymaga nowszej wersji protokołu zapisywania (bieżąca <current>). Rozważ uaktualnienie wersji protokołu zapisywania tabeli do <required>, lub do wersji obsługującej funkcje tabeli zapisywania. Aby uzyskać więcej informacji na temat wersji protokołu tabeli, zobacz <docLink>.
PLIK_DELTA_JUŻ_ISTNIEJE
Istniejąca ścieżka pliku <path>.
Konflikt_listy_i_wzoru_plików_DELTY
Nie można określić zarówno listy plików, jak i ciągu wzorca.
PLIK_DELTY_NIE_ODNALEZIONO
Ścieżka pliku <path>.
DELTA_PLIK_NIE_ZNALEZIONO_DETAILED
Nie można odnaleźć <filePath> pliku, do którego odwołuje się dziennik transakcji. Dzieje się tak, gdy dane zostały ręcznie usunięte z systemu plików, zamiast użycia instrukcji tabeli DELETE. Aby uzyskać więcej informacji, zobacz <faqPath>
DELTA_FILE_OR_DIR_NOT_FOUND (Plik lub katalog DELTA nie znaleziono)
Nie ma takiego pliku lub katalogu: <path>.
NIE ZNALEZIONO PLIKU DELTA DO NADPISANIA
Plik (<path>), który ma być przepisany, nie można znaleźć wśród plików kandydujących:
<pathList>
TYP_KOLUMNY_MAPY_ZNALEZIONEJ_DELTA
Znaleziono element MapType. Aby uzyskać dostęp do klucza lub wartości typu MapType, określ jeden
z:
<key> lub
<value>
następnie nazwę kolumny (tylko wtedy, gdy ta kolumna jest typem struktury).
na przykład mymap.key.mykey
Jeśli kolumna jest typem podstawowym, mymap.key lub mymap.value jest wystarczająca.
Schemat:
<schema>
DELTA_FSCK_CANNOT_REPAIR_DELTA_LOG
FsCK nie może naprawić tabeli. Tabela nie ma prawidłowego punktu kontrolnego do uruchomienia odtwarzania dziennika i nie ma wystarczającej historii dziennika do odtworzenia z pierwszej wersji.
DELTA_FSCK_CONCURRENT_MODIFICATION
Współbieżne modyfikacje tabeli wykryte podczas uruchamiania narzędzia FSCK. Ponów próbę wykonania polecenia FSCK i upewnij się, że żadne inne operacje nie zapisują się w tabeli podczas procesu naprawy.
DELTA_FSCK_DRY_RUN_CANNOT_PROCEED_WITH_INVALID_CHECKPOINTS
Nie można kontynuować PRZEBIEGU DRY FSCK, ponieważ wykryto nieprawidłowe punkty kontrolne. Najpierw uruchom polecenie "TYLKO tabela METADATA FSCKREPAIR TABLE", aby naprawić punkty kontrolne.
DELTA_FSCK_DRY_RUN_CANNOT_PROCEED_WITH_MISSING_OR_INVALID_PARTITION_FILES
Nie można kontynuować PRZEBIEGU DRY FSCK, ponieważ wykryto brakujące pliki lub pliki z nieprawidłowymi wartościami partycji. Najpierw uruchom polecenie "FSCK REPAIR TABLE table", aby naprawić tabelę.
DELTA_FSCK_INVALID_BARRIER_CHECKPOINT
FsCK nie może naprawić tabeli. Niektóre z nieprawidłowych punktów kontrolnych są chronione i nie można ich usunąć. Skontaktuj się z pomocą techniczną usługi Databricks.
DELTA_FSCK_NO_VALID_CHECKPOINT
FsCK nie może naprawić tabeli. Wszystkie punkty kontrolne tej tabeli są nieprawidłowe. Skontaktuj się z pomocą techniczną usługi Databricks.
Niezgodność typów danych dla wygenerowanych kolumn DELTA
Kolumna <columnName> ma typ danych <columnType> i nie można jej zmienić na typ danych <dataType>, ponieważ ta kolumna jest przywoływane przez następujące wygenerowane kolumny:
<generatedColumns>.
ZMIANA_KOLUMNY_ZALEŻNEJ_WYGENEROWANEJ_DELTA
Nie można zmienić <columnName> kolumny, ponieważ do tej kolumny odwołuje się następująca wygenerowana kolumna:
<generatedColumns>.
DELTA_GENERATED_COLUMNS_WYRAŻENIE_TYP_DOPASOWANIA
Typ wyrażenia wygenerowanej kolumny <columnName> to <expressionType>, ale typ kolumny to <columnType>.
BŁĄD_TYP_DOPASOWANIA_AKTUALIZACJI_WYGENEROWANEJ_KOLUMNY
Kolumna <currentName> to wygenerowana kolumna lub kolumna używana przez wygenerowaną kolumnę. Typ danych to <currentDataType> i nie można go przekonwertować na typ <updateDataType>danych .
DELTA_GEOSPATIAL_NIEOBSŁUGIWANE
SQLSTATE: 0AKDC
Typy geoprzestrzenne nie są obsługiwane w tej wersji usługi Delta Lake.
DELTA_GEOSPATIAL_SRID_NOT_SUPPORTED (DELTA_GEOPRZESTRZENNE_SRID_NIEOBSŁUGIWANE)
SQLSTATE: 0AKDC
Typ geoprzestrzenny ma nieobsługiwane srid: <srid>. Tabele Delta obsługują tylko nieujemne wartości srid.
NARUSZENIE_ZGODNOŚCI_DELTA_ICEBERG
Walidacja IcebergCompatV nie powiodła się dla<version>.
Aby uzyskać więcej informacji, zobacz DELTA_ICEBERG_COMPAT_VIOLATION
DELTA_ICEBERG_WRITER_COMPAT_VIOLATION (naruszenie zgodności zapisu w Delta Iceberg)
Weryfikacja elementu IcebergWriterCompatV<version> nie powiodła się.
Więcej szczegółów znajdziesz w DELTA_ICEBERG_WRITER_COMPAT_VIOLATION
DELTA_IDENTITY_COLUMNS_ZMIANA_KOLUMNY_NIE_JEST_OBSŁUGIWANA
ALTER TABLE ALTER COLUMN nie jest obsługiwana w przypadku kolumn IDENTITY.
DELTA_KOLUMNY_TOŻSAMOŚCI_ZMIANA_FORMATU_NIE-DELTA
ALTER TABLE ALTER COLUMN SYNC IDENTITY jest wspierane tylko przez Delta.
DELTA_KOLUMNY_TOŻSAMOŚCI_ZMIANA_NIE_TOŻSAMOŚCIOWEJ_KOLUMNY
nie można wywołać ALTER TABLE ALTER COLUMN SYNC IDENTITY w kolumnach innych niż IDENTITY.
Wstawianie wyraźne wartości do kolumn IDENTITY w DELTA nie jest obsługiwane
Podawanie wartości dla GENERATED ALWAYS AS IDENTITY kolumny <colName> nie jest obsługiwane.
NIEPRAWIDŁOWY_KROK_KOLUMN_TOŻSAMOŚCI_DELTA
IDENTITY wartość kroku w kolumnie nie może wynosić 0.
KOLUMNY_IDENTITY_DELTA_BEZ_FORMATU_DELTA
IDENTITY kolumny są obsługiwane tylko przez Delta.
KOLUMNY_TOŻSAMOŚCI_DELTA_PARTYCJONOWANIE_NIEOBSŁUGIWANE
Kolumna PARTITIONED BY IDENTITY oraz kolumna <colName> nie są obsługiwane.
Kolumny tożsamości DELTA nie obsługują zastępowania kolumny.
ALTER TABLE REPLACE COLUMNS nie jest obsługiwana w przypadku tabel z kolumnami IDENTITY.
DELTA_IDENTITY_COLUMNS_NIEOBSŁUGIWANY_TYP_DANYCH
Typ danych <dataType> nie jest obsługiwany dla kolumn IDENTITY.
Aktualizacja kolumn tożsamości DELTA jest niewspierana
UPDATE w kolumnie IDENTITY<colName> nie jest obsługiwane.
DELTA_KOLUMNY_TOŻSAMOŚCI_Z_WYGENEROWANYM_WYRAŻENIEM
nie można określić kolumny IDENTITY z wygenerowanym wyrażeniem kolumny.
DELTA_OPCJA_NIEDOZWOLONA
Nieprawidłowa wartość "<input>" dla opcji "<name>", <explain>
DELTA_ILLEGAL_USAGE (Niedozwolone użycie)
Użycie <option> nie jest dozwolone, gdy <operation> jest tabelą Delta.
DELTA_NIESPÓJNA_SPECYFIKACJA_KOSZTA
Specyfikacja Bucketa w tabeli kubełkowej Delta nie jest zgodna ze specyfikacją Bucketa z metadanych. Oczekiwano: <expected>. Rzeczywisty: <actual>.
DELTOWE_NIESPÓJNE_KONFIGURACJE_LOGSTORE
(<setKeys>) nie można ustawić na różne wartości. Ustaw tylko jedną z nich lub ustaw dla nich tę samą wartość.
NIEPRAWIDŁOWY_DOSTĘP_DO_TABLICY_DELTA
Niepoprawny dostęp do obiektu ArrayType. Użyj pozycji „arrayname.element.elementname”, aby
dodaj do tablicy
Niepoprawny dostęp do tablicy według nazwy (DELTA)
Znaleziono ArrayType. Aby uzyskać dostęp do elementów arrayType, określ
<rightName> zamiast <wrongName>.
Schemat:
<schema>
DELTA_INCORRECT_GET_CONF
Użyj getConf() zamiast conf.getConf().
DELTA_NIEPOPRAWNA_IMPLEMENTACJA_MAGAZYNU_LOGÓW
SQLSTATE: 0AKDC
Błąd zwykle występuje, gdy domyślna implementacja LogStore, która
"Funkcja, HDFSLogStore, jest używana do zapisu w tabeli Delta na systemie pamięciowym innym niż HDFS."
Aby uzyskać gwarancje ACID dotyczące transakcyjnych aktualizacji tabel, musisz użyć
Prawidłowa implementacja LogStore odpowiednia dla twojego systemu magazynowania.
Aby uzyskać szczegółowe informacje, zobacz <docLink>.
DELTA_INDEX_WIĘKSZY_LUB_RÓWNY_NIŻ_STRUKTURA
Indeks <index> , aby usunąć kolumnę równą lub jest większa niż długość struktury: <length>.
DELTA_INDEX_WIĘKSZY_OD_STRUKTURY
Indeks <index> dodawania kolumny <columnName> jest większy niż długość struktury: <length>.
NIEDOPASOWANIE LICZBY KOLUMN DELTA_INSERT
Nie można zapisać w '<tableName>', <columnName> tabela docelowa zawiera <numColumns> kolumny, ale wstawione dane mają <insertColumns> kolumny.
NIEZGODNOŚĆ KOLUMN WE WSTAWIENIU DELTA
Kolumna <columnName> nie jest określona w INSERT.
DELTA_INSERT_REPLACE_ON_AMBIGUOUS_COLUMNS_IN_CONDITION
Kolumny <columnNames> są niejednoznaczne w warunku INSERT REPLACE ON. Rozważ określenie aliasu dla tych kolumn.
DELTA_INSERT_REPLACE_ON_NOT_ENABLED
Skontaktuj się z przedstawicielem usługi Databricks, aby włączyć usługę INSERT INTO...REPLACE ON ... Interfejsy API SQL i DataFrame.
DELTA_INSERT_REPLACE_ON_UNRESOLVED_COLUMNS_IN_CONDITION
<columnNames> Nie można rozpoznać kolumn w warunku INSERT REPLACE ON.
DELTA_NIEPRAWIDŁOWY_TYP_AUTOMATYCZNEJ_KOMPAKCJI
Nieprawidłowy typ auto-kompaktowy: <value>. Dozwolone wartości to: <allowed>.
DELTA_NIEWAŻNA_LICZBA_WIADEREK
Nieprawidłowa liczba pojemników: <invalidBucketCount>. Liczba zasobników powinna być liczbą dodatnią, będącą potęgą liczby 2 i wynosić co najmniej 8. Zamiast tego można użyć <validBucketCount>.
DELTA_NIEPRAWIDŁOWY_INDEKS_SKOREK
Nie można odnaleźć kolumny zasobnika w kolumnach partycji.
DELTA_NIEPRAWIDŁOWY_PRZEDZIAŁ_KALENDARZA_PUSTY
Interwał nie może być wartością null ani pusty.
DELTA_NIEPRAWIDŁOWY_ZAKRES_CDC
Zakres CDC od początku <start> do końca <end> był nieprawidłowy. Koniec nie może być przed rozpoczęciem.
DELTA_NIEPRAWIDŁOWE_ZNAKI_W_NAZWIE_KOLUMNY
Nazwa atrybutu "<columnName>" zawiera nieprawidłowe znaki między znakami " ,;{}()\n\t=". Użyj aliasu, aby zmienić nazwę.
NIEPRAWIDŁOWE_ZNAKI_W_NAZWACH_KOLUMN_DELTA
Znaleziono nieprawidłowe znaki między znakami " , ;{}()\n\t=" w nazwach kolumn schematu.
Nieprawidłowe nazwy kolumn: <invalidColumnNames>.
Użyj innych znaków i spróbuj ponownie.
Możesz też włączyć mapowanie kolumn, aby nadal używać tych znaków.
DELTA_INVALID_CHECK_CONSTRAINT_REFERENCES
Znaleziono <colName> w CHECK ograniczeniu. Ograniczenie sprawdzania nie może używać nieistniejącej kolumny.
DELTA_NIEPRAWIDŁOWA_ŚCIEŻKA_KLONOWANIA
Lokalizacja docelowa CLONE musi być ścieżką bezwzględną lub nazwą tabeli. Użyj elementu
ścieżka bezwzględna zamiast <path>.
DELTA_NIEPRAWIDŁOWE_NAZWY_KOLUMN_PRZY_USUWANIU_MAPOWANIA_KOLUMN
Znaleziono nieprawidłowe znaki między znakami " , ;{}()\n\t=" w nazwach kolumn schematu.
Nieprawidłowe nazwy kolumn: <invalidColumnNames>.
Nie można usunąć mapowania kolumn, jeśli w nazwach kolumn znajdują się nieprawidłowe znaki.
Zmień nazwy kolumn, aby usunąć nieprawidłowe znaki i ponownie wykonać to polecenie.
DELTA_NIEPRAWIDŁOWY_FORMAT
Wykryto niezgodny format.
Znaleziono dziennik transakcji dla Delta pod adresem <deltaRootPath>/_delta_log.
ale próbujesz używać <operation> <path> w formacie („<format>”). Musisz użyć
Użyj "format("delta")", żeby odczytać i zapisać w tabeli delta.
Aby dowiedzieć się więcej o funkcji Delta, zobacz <docLink>
DELTA_NIEPRAWIDŁOWE_ODNIESIENIA_DO_GENEROWANEJ_KOLUMNY
Wygenerowana kolumna nie może używać kolumny nieistniejącej ani innej wygenerowanej kolumny.
DELTA_OPCJE_NIEPRAWIDŁOWYCH_ZAPISÓW_IDEMPOTENTNYCH
Nieprawidłowe opcje zapisu idempotentnych ram danych: <reason>
DELTA_BŁĘDNY_INTERWAŁ
<interval> nie jest prawidłowym INTERVAL.
DELTA_NIEPRAWIDŁOWY_SCHEMAT_INWENTARZA
Schemat dla określonego INVENTORY nie zawiera wszystkich wymaganych pól. Wymagane pola to: <expectedSchema>
NIEWAŻNY POZIOM IZOLACJI DELTA
nieprawidłowy poziom izolacji '<isolationLevel>'.
BŁĄD_NIEPRAWIDŁOWA_KONFIGURACJA_LOGSTORE_DELTA
(<classConfig>) i (<schemeConfig>) nie można ustawić jednocześnie. Ustaw tylko jedną grupę spośród nich.
DELTA_NIEPRAWIDŁOWA_SKŁADNIA_TABELI_ZARZĄDZANEJ_BEZ_SCHEMATU
Próbujesz utworzyć zarządzaną tabelę <tableName>
przy użyciu Delta, ale schemat nie jest określony.
Aby dowiedzieć się więcej o funkcji Delta, zobacz <docLink>
Delta_Niepoprawna_Kolumna_Partycji
<columnName> nie jest prawidłową kolumną partycji w tabeli <tableName>.
DELTA_NIEPRAWIDŁOWA_NAZWA_KOLUMNY_PARTYCJI
Znaleziono kolumny partycji o nieprawidłowych znakach między znakami " ,;{}()\n\t=". Proszę zmienić nazwę na nazwę kolumn partycji. Tę kontrolę można wyłączyć, ustawiając wartość spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false), ale nie jest to zalecane, ponieważ inne funkcje Delta mogą nie działać prawidłowo.
DELTA_NIEPRAWIDŁOWY_TYP_KOLUMNY_PARTYCJI
Używanie kolumny <name> typu <dataType> jako kolumny partycjonowania nie jest obsługiwane.
DELTA_NIEPRAWIDŁOWA_ŚCIEŻKA_PARTYCJI
Fragment ścieżki partycji powinien być w formacie part1=foo/part2=bar. Ścieżka partycji: <path>.
DELTA_NIEPRAWIDŁOWE_DEGRADACJA_PROTOKOŁU
Nie można obniżyć wersji protokołu z (<oldProtocol>) na (<newProtocol>).
DELTA_NIEPRAWIDŁOWA_WERSJA_PROTOCOLU
Nieobsługiwana wersja protokołu Delta: tabela "<tableNameOrPath>" wymaga wersji <readerRequired> czytnika oraz wersji <writerRequired> zapisującego, ale ta wersja usługi Databricks obsługuje wersje czytnika <supportedReaders> i zapisującego <supportedWriters>. Uaktualnij do nowszej wersji.
BŁĄD_DELTY_WARTOŚCI_TABELI
Funkcja <function> jest nieobsługiwaną funkcją zwracającą tabelę dla odczytów CDC.
DELTA_NIEPRAWIDŁOWY_FORMAT_ZNACZNIKA_CZASU
Podana sygnatura czasowa <timestamp> nie jest zgodna z oczekiwaną składnią <format>.
DELTA_LOG_JUŻ_ISTNIEJE
Dziennik Delta już istnieje pod adresem <path>.
DELTA_LOG_FILE_NOT_FOUND
Nie można pobrać plików dziennika różnicowego do konstruowania wersji <version> tabeli, począwszy od wersji <checkpointVersion> punktu kontrolnego pod adresem <logPath>.
DELTA_NIE_ZNALEZIONO_PLIKU_LOG_DLA_ŹRÓDŁA_STRUMIENIOWANIA
Jeśli nigdy go nie usunięto, prawdopodobnie zapytanie pozostaje opóźnione. Usuń punkt kontrolny, aby ponownie uruchomić od podstaw. Aby uniknąć ponownego wystąpienia tego problemu, możesz zaktualizować zasady przechowywania tabeli delty.
DELTA_LOG_JSON_FILE_ACCESS_DENIED
Odmowa dostępu podczas odczytywania pliku dziennika JSON usługi Delta: <filePath>. Sprawdź, czy masz uprawnienia do odczytu dla lokalizacji tabeli delty.
DELTA_BRAK_NAZWY_KOLUMNY_DOŚLEDZENIA_ZINTEGROWANEGO_WIERSZA
Brak zmaterializowanej nazwy kolumny <rowTrackingColumn> dla <tableName>.
DELTA_MAX_ARRAY_SIZE_EXCEEDED (Przekroczony maksymalny rozmiar tablicy DELTA)
Użyj limitu mniejszego niż Int.MaxValue — 8.
DELTA_MAX_COMMIT_RETRIES_EXCEEDED - Przekroczono maksymalną liczbę prób potwierdzenia transakcji.
To zatwierdzenie nie powiodło się, ponieważ próbowano to zrobić <numAttempts> razy, ale bez powodzenia.
Może to być spowodowane ciągłym zatwierdzaniem tabeli Delta przez wiele współbieżnych procesów.
Zatwierdza.
Zatwierdzanie rozpoczęto w wersji: <startVersion>
Nie udało się zatwierdzić wersji: <failVersion>
Liczba akcji, które próbowano zrealizować: <numActions>
Całkowity czas poświęcony na próbę wykonania tego zatwierdzenia: <timeSpent> ms
Przekroczono maksymalną listę plików DELTA
Lista plików musi zawierać co najwyżej wpisy <maxFileListSize>, <numFiles>.
DELTA_SCALAJ_DODAJ_PUSTA_KOLUMNA
Nie można dodać kolumny <newColumn> z typem VOID. Jawnie określ typ niepustkowy.
DELTA_MERGE_NIEZGODNY_TYP_DANYCH
Nie można scalić niezgodnych typów danych <currentDataType> i <updateDataType>.
Brak zgodności typu dziesiętnego w scalaniu Delta (DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE)
Nie można scalić typów dziesiętnych z niekompatybilnym <decimalRanges>.
DELTA_MERGE_MATERIALIZACJA_ŹRÓDŁA_NIEPOWODZENIE_WIELOKROTNE
Utrzymanie źródła instrukcji MERGE w postaci zmaterializowanej nie powiodło się wielokrotnie.
BŁĄD_DELTA_BRZMIEĆ_BRAK
W instrukcji WHEN musi istnieć co najmniej jedna klauzula MERGE.
ATRYBUT_ROZWIĄZANY_DELTA_NIEOBECNY_W_WEJŚCIU
Rozwiązano brakujące atrybuty <missingAttributes> w <input> operatorze <merge>.
DELTA_MERGE_SOURCE_CACHED_DURING_EXECUTION
Operacja MERGE nie powiodła się, ponieważ (część) planu źródłowego została buforowana podczas MERGE wykonywania operacji.
DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY (Nieoczekiwany klucz przypisania podczas scalania danych)
Nieoczekiwany klucz przypisania: <unexpectedKeyClass> - <unexpectedKeyObject>.
DELTA_MERGE_NIEROZWIĄZANE_WYRAŻENIE
Nie można rozpoznać <sqlExpr> w <clause> podanych kolumnach <cols>.
ZMIANA_METADANYCH_DELTA
MetadataChangedException: metadane tabeli delty zostały zmienione przez współbieżną aktualizację. Spróbuj ponownie wykonać operację.<conflictingCommit>
Aby uzyskać więcej informacji, zobacz <docLink>.
BRAK_DANYCH_ZMIANY_DELTA
Błąd podczas pobierania danych zmiany dla zakresu [<startVersion> , <endVersion>] w miarę braku danych zmiany
zarejestrowane dla wersji [<version>]. Jeśli włączono strumień zmian danych w tej tabeli,
użyj DESCRIBE HISTORY, aby sprawdzić, kiedy została ona włączona.
W przeciwnym razie, aby rozpocząć rejestrowanie danych zmiany, użyj polecenia ALTER TABLE table_name SET TBLPROPERTIES
(<key>=true).
DELTA_BRAKUJĄCA_KOLUMNA
Nie można odnaleźć <columnName> w kolumnach tabeli: <columnList>.
BRAK_DANYCH_O_COMMIT
Ta tabela ma włączoną funkcję <featureName>, która wymaga obecności akcji CommitInfo w każdym zatwierdzeniu. Jednak w wersji <version>brakuje akcji CommitInfo.
DELTA_BRAK_ZNACZNIKA_CZASU_KOMITowanych
Ta tabela ma włączoną funkcję <featureName>, która wymaga obecności znacznika commitTimestamp w akcji CommitInfo. Jednak to pole nie zostało ustawione w wersji zatwierdzenia <version>.
BRAKUJĄCA_TABELA_DELTA
<tableName> nie jest tabelą delty.
TABELA_DELTA_BRAK_TABELI_DELTA_WKLEJKA_DO
Tabela nie istnieje. Najpierw utwórz pustą tabelę delty przy użyciu CREATE TABLE <tableName>.
DELTA_BRAKUJĄCA_KLASA_GÓRY_LODOWEJ
Nie można odnaleźć klasy Apache Iceberg. Upewnij się, że jest zainstalowana obsługa platformy Delta Apache Iceberg.
Aby uzyskać więcej informacji, zobacz <docLink>.
WARTOŚĆ_KOLUMNY_NIE_NULL_DELTA_BRAKUJĄCA
Kolumna <columnName>, która ma ograniczenie NOT NULL, jest nieobecna w danych zapisywanych do tabeli.
Brakuje_kolumny_partycji_DELTA
Nie można odnaleźć kolumny partycji <columnName> w schemacie <columnList>.
BRAK_PLIKÓW_CZĘŚCI_DELTA
Nie można odnaleźć wszystkich części składowych plików wersji punktu kontrolnego: <version>.
DELTA_BRAKUJE_DOSTAWCY_DO_KONWERSJI
SQLSTATE: 0AKDC
CONVERT TO DELTA obsługuje tylko tabele w formacie parquet. Zapisz ponownie obiekt docelowy jako parquet.
<path> jeśli jest to katalog parquet.
DELTA_MISSING_ROW_TRACKING_FOR_CDC
Wystąpił błąd podczas pobierania danych zmiany, <tableName> ponieważ śledzenie wierszy nie zostało włączone. Aby włączyć śledzenie wierszy, użyj polecenia ALTER TABLE table_name SET TBLPROPERTIES (<key>=true).
DELTA_BRAKUJE_USTAW_KOLUMNY
SET kolumna <columnName> nie została znaleziona. Podane kolumny: <columnList>.
BRAK DZIENNIKA TRANSAKCJI DELTA
Wykryto niezgodny format.
Próbujesz użyć <operation> <path> za pomocą funkcji Delta, ale nie ma
dziennik transakcji dostępny. Sprawdź zadanie nadrzędne, aby upewnić się, że zapisuje
przy użyciu formatu("delta") i próbujesz ustalić ścieżkę bazową tabeli za pomocą %1$s.
Aby dowiedzieć się więcej o funkcji Delta, zobacz <docLink>
TRYB_DELTA_NIEOBSŁUGIWANY
SQLSTATE: 0AKDC
Określony tryb "<mode>" nie jest obsługiwany. Obsługiwane tryby to: <supportedModes>.
Granica wielokrotnej synchronizacji CDC
Podano wiele argumentów <startingOrEnding> dla odczytu CDC. Podaj jeden z: <startingOrEnding>sygnatury czasowej lub <startingOrEnding>wersji.
DELTA_WIELOKROTNE_KONFIGURACJE_DLA_POJEDYNCZEJ_KOLUMNY_W_BLOOM_FILTRZE
Konfiguracje indeksów filtru bloom zostały przekazane do polecenia dla kolumny: <columnName>.
WIELE_RZĘDÓW_ŹRÓDŁA_ODPOWIADA_RZĘDOWI_DOCELOWEMU_W_SCALANIU
Nie można wykonać scalania, ponieważ wiele wierszy źródłowych jest dopasowanych i podjęto próbę zmodyfikowania tego samego
docelowy wiersz w tabeli delty w prawdopodobnie powodujący konflikty sposób. Według semantyki SQL scalania,
gdy wiele wierszy źródłowych pasuje do tego samego wiersza docelowego, wynik może być niejednoznaczny
ponieważ nie jest jasne, którego wiersza źródłowego należy użyć do zaktualizowania lub usunięcia pasującego wiersza
docelowy wiersz. Możesz wstępnie przetworzyć tabelę źródłową, aby wyeliminować możliwość
wiele dopasowań. Zapoznaj się z
<usageReference>
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND musi ustawić wszystkie skoordynowane zatwierdzenia w poleceniu
Podczas <command> obie konfiguracje zatwierdzeń koordynowanych ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview") muszą być ustawione w poleceniu, lub żadna z nich. Brak: "<configuration>". Określ tę konfigurację w klauzuli TBLPROPERTIES lub usuń inną konfigurację, a następnie spróbuj ponownie wykonać polecenie.
DELTA_MUSI_USTAWIĆ_WSZYSTKIE_SKOMITOWANE_SKONFIGURACJE_W_SESJI
Podczas <command> albo obie konfiguracje zatwierdzeń koordynowanych ("coordinatedCommits.commitCoordinator-preview", "coordinatedCommits.commitCoordinatorConf-preview") są ustawione w konfiguracjach platformy SparkSession, albo żadna z nich. Brak: "<configuration>". Ustaw tę konfigurację w usłudze SparkSession lub usuń konfigurację inną, a następnie ponów próbę ponownego uruchomienia polecenia.
Konflikt_nazwy_DELTA_w_tabeli_w_kubkach
Następujące nazwy kolumn są zarezerwowane wyłącznie do użytku wewnętrznego pogrupowanej tabeli delty: <names>.
PODMODYFIKUJ_ZAGNIEŻDŻONE_POLA_WYMAGAJĄCE_ZMIANY_NAZWY
Schemat wejściowy zawiera zagnieżdżone pola, które są kapitalizowane inaczej niż tabela docelowa.
Należy zmienić ich nazwy, aby uniknąć utraty danych w tych polach podczas zapisywania w funkcji Delta.
Pola:
<fields>.
Oryginalny schemat:
<schema>
DELTA_ZAGNIEŻDŻONY_NIE_NULO_CONSTRAINT
SQLSTATE: 0AKDC
Typ pola <nestType> zawiera ograniczenie <parent> dla NOT NULL. Delta nie obsługuje ograniczeń NOT NULL zagnieżdżonych w tablicach lub mapach. Aby pominąć ten błąd i dyskretnie zignorować określone ograniczenia, ustaw <configKey> = true.
Typ <nestType> przeanalizowany:
<nestedPrettyJson>
DELTA_ZAGNIEŻDŻONE_ZAPYTANIE_NIEOBSŁUGIWANE
Zagnieżdżone podzapytanie nie jest obsługiwane w warunku <operation>.
Naruszenie nowego ograniczenia kontrolnego DELTA
<numRows> wiersze znajdujące się w <tableName> tabeli naruszają nowe CHECK ograniczenie (<checkConstraint>).
DELTA_NEW_NIE_PUSTE_NARUSZENIE
<numRows> wiersze w <tableName> elemencie naruszają nowe NOT NULL ograniczenie w <colName>.
DELTA_SPRAWDZENIE_OGRANICZENIA_NIE_BOLEAN```
CHECK ograniczenie '<name>' (<expr>) powinno być wyrażeniem logicznym.
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_CHECK_CONSTRAINT
Znaleziono <expr> w ograniczeniu CHECK . Ograniczenie CHECK nie może używać wyrażenia nieokreślonego.
DELTA_NIEDETERMINISTYCZNE_WYRAŻENIE_W_GENEROWANEJ_KOLUMNIE
Znaleziono <expr>. Wygenerowana kolumna nie może używać wyrażenia niedeterministycznego.
Funkcja nieokreślona DELTA nie jest obsługiwana
SQLSTATE: 0AKDC
Funkcje niedeterministyczne nie są obsługiwane w systemie <operation> <expression>.
DELTA_NIEOSTATNI_DOPASOWANY_KLAUZULA_POMIJAJ_WARUNEK
Jeśli w instrukcji MATCHED istnieje więcej niż jedna klauzula MERGE, tylko ostatnia klauzula MATCHED może pominąć warunek.
DELTA_NIEOSTATNI_NIEDOPASOWANY_PRZEZ_WARUNEK_USUNIĘCIA_ŹRÓDŁOWEJXX_CZĘŚCI
Jeśli w instrukcji NOT MATCHED BY SOURCE istnieje więcej niż jedna klauzula MERGE, tylko ostatnia klauzula NOT MATCHED BY SOURCE może pominąć warunek.
Klauzula_DELTY_NIESKOŃCZONA_NIEZGODNA_POMIJAJĄCE_WARUNEK
Jeśli w instrukcji NOT MATCHED istnieje więcej niż jedna klauzula MERGE, tylko ostatnia klauzula NOT MATCHED może pominąć warunek.
DELTA_NON_PARSABLE_TAG
Nie można przeanalizować tagu <tag>.
Tagi plików to: <tagList>.
DELTA_NIEOBECNA_KOLUMNA_NIEPARTYCJONOWANA
Dane zapisane w funkcji Delta muszą zawierać co najmniej jedną kolumnę bez partycjonowania.<details>
DELTA_ODNIESIENIE_DO_KOLUMNY_NIE_BĘDĄCEJ_CZĘŚCIĄ_PARTYCJI
Predykat odwołuje się do kolumny nie będącej partycją "<columnName>". Można odwoływać się tylko do kolumn partycji: [<columnList>].
DELTA_NIEPARTYCYJNY_KOLUMNĘ_OKREŚLONO
Kolumny bez partycjonowania <columnList> są określane w przypadku, gdy oczekiwane są tylko kolumny partycjonowania: <fragment>.
DELTA_NIE_POJEDYNCZA_CZĘŚĆ_NAMESPACE_DLA_KATALOGU
Katalog delta wymaga jednoczęściowej przestrzeni nazw, ale <identifier> jest przestrzenią wieloczęściową.
KOORDYNATOR_ZATWIERDZENIA_DELTA_NON_UC_NIEOBSŁUGIWANY_W_POLECENIU
Ustawienie koordynatora zatwierdzania na "<nonUcCoordinatorName>" z polecenia nie jest obsługiwane, ponieważ tabele zarządzane przez UC mogą mieć tylko "unity-catalog" jako koordynator zatwierdzania. Zmień na "unity-catalog" lub usuń wszystkie właściwości tabeli Zatwierdzenia skoordynowane z klauzuli TBLPROPERTIES, a następnie spróbuj ponownie wykonać polecenie.
Koordynator zatwierdzeń DELTA_NON_UC nie jest obsługiwany w sesji
Ustawienie koordynatora zatwierdzeń na "<nonUcCoordinatorName>" z konfiguracji SparkSession nie jest obsługiwane, ponieważ tabele zarządzane przez Unity Catalog mogą mieć tylko 'unity-catalog' jako koordynator zatwierdzeń. Zmień go na "unity-catalog", uruchamiając spark.conf.set("<coordinatorNameDefaultKey>", "unity-catalog")polecenie , lub usuń wszystkie właściwości tabeli Zatwierdzenia skoordynowane z konfiguracji SparkSession, uruchamiając spark.conf.unset("<coordinatorNameDefaultKey>"), spark.conf.unset("<coordinatorConfDefaultKey>"), spark.conf.unset("<tableConfDefaultKey>")polecenie , a następnie ponów próbę ponownego uruchomienia polecenia.
DELTA_NON_UC_MANAGED_TABLE_UPGRADE_OR_DOWNGRADE_NOT_SUPPORTED
Tabela <tableName> nie jest zarządzana przez UC. Tylko tabele zarządzane przez użytkownika można uaktualnić lub obniżyć do tabel zarządzanych przez wykaz.
DELTA_NIE_JEST_TABELĄ_DELTA_DATABRICKS
<table> nie jest tabelą delty. Najpierw usuń tę tabelę, jeśli chcesz ją utworzyć za pomocą Delta firmy Databricks.
DELTA_NIE_JEST_TABELĄ_DELTA
<tableName> nie jest tabelą delty. Najpierw upuść tę tabelę, jeśli chcesz ją ponownie utworzyć za pomocą usługi Delta Lake.
DELTA_KOLUMN_NOT_NULL_NIE_ZNALEZIONO_W_STRUKTURZE
Nie można odnaleźć kolumny niedopuszczającej wartości null w strukturze: <struct>.
NARUSZENIE OGRANICZENIA DELTA_NOT_NULL
NOT NULL ograniczenie naruszone dla kolumny: <columnName>.
DELTA_NIENULLOWE_ZAGNIEŻDŻONE_POLE
Nie można dodać pola zagnieżdżonego bez wartości null do nadrzędnego elementu, który może przyjmować wartość null. Proszę odpowiednio ustawić możliwość przyjmowania wartości null przez kolumnę nadrzędną.
Brak znalezionych zmian
Nie znaleziono zatwierdzeń pod adresem <logPath>.
DELTA_NIE_ZNALEZIONO_HISTORII_DO_ODTWORZENIA
Nie znaleziono żadnych zatwierdzeń do odtworzenia pod <logPath>.
DELTA_BEZ_NARUSZENIA_ZASAD_PRZEKIEROWANIA
Niedozwolona operacja: nie można wykonać <operation> w tabeli z funkcją przekierowania.
Żadne reguły przekierowania nie są spełnione <noRedirectRules>.
DELTA_BRAK_TABELI_RELACJI
Nie można odnaleźć tabeli <tableIdent> .
BRAK_STARTU_DELTA_DLA_ODCZYTU_CDC
Nie podano parametru startingVersion lub startingTimestamp dla odczytu CDC.
DELTA_PUSTY_SCHEMA_W_PISANIU_STRUMIENIOWYM
Delta nie akceptuje typów Null w schemacie do strumieniowego zapisu.
DELTA_ONEOF_IN_TIMETRAVEL
Proszę podać albo 'timestampAsOf', albo 'versionAsOf' do podróży w czasie.
Operacja Tylko Delta
<operation> jest obsługiwana tylko w przypadku tabel delty.
DELTA_OPERACJA_BRAK_ŚCIEŻKI
Podaj ścieżkę lub identyfikator tabeli dla <operation>.
Operacja Delta niedozwolona
SQLSTATE: 0AKDC
Niedozwolona operacja: <operation> nie jest obsługiwana w przypadku tabel delty.
OPERACJA_DELTA_NIEDOZWOLONA_SZCZEGÓŁY
SQLSTATE: 0AKDC
Niedozwolona operacja: <operation> nie jest obsługiwana w przypadku tabel delty: <tableName>.
OPERACJA_DELTA_NIEOBSŁUGIWANA_DLA_KOLUMNY_Z_USTAWIENIEM_KOLEJNOŚCI
SQLSTATE: 0AKDC
<operation> nie jest obsługiwane dla kolumny <colName> z sortowaniem innym niż domyślne <collation>.
Operacja delta nie jest obsługiwana dla typów danych
SQLSTATE: 0AKDC
<operation> nie jest obsługiwany w przypadku typów danych: <dataTypeList>.
Operacja Delta nie jest obsługiwana dla wyrażenia z porównaniem
SQLSTATE: 0AKDC
<operation> nie jest obsługiwane dla wyrażenia <exprText>, ponieważ używa sortowania innego niż domyślne.
Operacja DELTA na widoku tymczasowym z kolumnami generowanymi nieobsługiwana
<operation> polecenie w widoku tymczasowym odwołujące się do tabeli delty zawierającej wygenerowane kolumny nie jest obsługiwane. Uruchom polecenie <operation> bezpośrednio na tabeli Delta.
Operacja różnicowa na widoku niedozwolona
SQLSTATE: 0AKDC
Operacja niedozwolona: <operation> nie może być wykonana na widoku.
DELTA_OPTYMALIZACJA_PEŁNA_NIEOBSŁUGIWANA
OPTIMIZE FULL jest obsługiwana tylko w przypadku tabel klastrowanych z niepustymi kolumnami klastrowania.
DELTA_NADPISAĆ_MUSI_BYĆ_PRAWDA
Opcji nadpiszSchemat nie można ustawić bez ustawienia OVERWRITE = „true”.
NADPISZ_SCHEMAT_Z_DYNAMICZNYM_NADPISANIEM_PARTYCJI_DELTA
"OverwriteSchema" nie może być używane w trybie nadpisywania partycji dynamicznej.
BŁĄD_PRZEKSZTAŁCENIA_KOLUMN_PARTYCJI_DELTA
Nie udało się rzutować wartości <value> na <dataType> w kolumnie partycji <columnName>.
Kolumna partycji Delta nie została znaleziona
Nie można odnaleźć kolumny <columnName> partycji w schemacie [<schemaMap>].
Schemat partycji Delta w tabelach Iceberg
Nie można określić schematu partycji podczas konwertowania tabel platformy Apache Iceberg. Jest wnioskowane automatycznie.
DELTA_PATH_BASED_ACCESS_TO_CATALOG_MANAGED_TABLE_BLOCKED
Dostęp oparty na ścieżkach nie jest dozwolony dla tabeli Catalog-Managed: <path>. Uzyskaj dostęp do tabeli za pośrednictwem jej nazwy i ponów próbę.
DELTA_PATH_BASED_ACCESS_TO_TABLE_BLOCKED
Tabela w at <path> została zmigrowana do tabeli zarządzanej wykazu aparatu Unity i nie może być już dostępna przez ścieżkę. Zaktualizuj klienta, aby uzyskać dostęp do tabeli według nazwy.
ŚCIEŻKA_DELTA_NIE_ISTNIEJE
<path> nie istnieje lub nie jest tabelą delty.
ŚCIEŻKA_DELTA_ISTNIEJE
Nie można zapisać w istniejącej ścieżce <path> bez ustawienia OVERWRITE na 'true'.
Hak po zatwierdzeniu DELTA nie powiódł się
Zatwierdzanie wersji tabeli Delta <version> powiodło się, ale wystąpił błąd podczas wykonywania hooka po zatwierdzeniu <name> <message>
ZMIENIONO_PROTOKÓŁ_DELTA
ProtocolChangedException: wersja protokołu tabeli delty została zmieniona przez współbieżną aktualizację. <additionalInfo> <conflictingCommit>
Aby uzyskać więcej informacji, zobacz <docLink>.
DELTA_PROTOCOL_PROPERTY_NOT_INT (Właściwość protokołu Delta nie jest typu 'int')
Właściwość protokołu <key> musi być liczbą całkowitą. Znaleziono <value>.
PROTOKÓŁ_CZYTANIA_DELTY_WYMAGA_PISANIA
Nie można uaktualnić tylko wersji protokołu czytnika do korzystania z funkcji tabeli. Wersja protokołu zapisu musi wynosić co najmniej <writerVersion>, aby kontynuować. Aby uzyskać więcej informacji na temat wersji protokołu tabeli, zobacz <docLink>.
ODCZYT_TABELI_BEZ_KOLUMN_DELTA
Próbujesz odczytać tabelę delty <tableName>, która nie ma żadnych kolumn.
Zapisz nowe dane przy użyciu opcji mergeSchema = true, aby móc odczytać tabelę.
DELTA_READ_TIME_CDC_NOT_SUPPORTED_FOR_TABLES_WITH_ACCESS_POLICIES
Próbujesz obliczyć zestawienie zmian danych, na <tableName> którym zdefiniowano zasady dostępu. Źródło danych zmiany czasu odczytu jest obecnie w wersji zapoznawczej i nie obsługuje usługi CDF w tabelach z zasadami dostępu. Włącz funkcję CDF zoptymalizowaną pod kątem odczytu, ustawiając właściwość tabeli "<cdfTableProperty>" na wartość "true" w tabeli.
DELTA_REDIRECT_TARGET_ROW_FILTER_COLUMN_MASK_UNSUPPORTED
SQLSTATE: 0AKDC
Przekierowywanie do tabeli z filtrem wierszy lub maską kolumny nie jest obsługiwane. Zaktualizuj kod, aby odwołył się bezpośrednio do tabeli <tableIdent> docelowej.
DELTA_REGEX_OPT_BŁĄD_SKŁADNI
Sprawdź ponownie składnię "<regExpOption>".
NIEDOPASOWANIE_ŚCIEŻKI_RELACJI_DELTA
Ścieżka relacji "<relation>" jest niezgodna ze ścieżką <targetType> "<targetPath>".
DELTA_REORG_MATERIALIZATION_NOT_SUPPORTED_ON_UNPARTITIONED_TABLE
Konwersja liquid przy użyciu polecenia reorg nie jest obsługiwana w niepartowanej tabeli.
DELTA_REORG_PARTITION_MATERIALIZATION_CONFLICT
Nie można podzielić <action> kolumn na partycje.
<instruction>materializacja kolumn partycji przez ustawienie właściwości tabeli "<tableProperty>" na <value> lub konfiguracji SQL na<sqlConfig><value> wartość .
DELTA_REORG_UNKNOWN_MODE
SQLSTATE: 0AKDC
Nieznany REORG TABLE tryb: <mode>.
DELTA_ZASTĄP_GDZIE_W_NADPISYWANIU
Nie można użyć funkcji replaceWhere w połączeniu z nadpisywaniem przy użyciu filtru.
ZASTĄP_DELTA_GDZIE_NIEDOPASOWANIE
Dane zapisane nie spełniają warunków częściowej nadpisywania tabeli lub ograniczenia '<replaceWhere>'.
<message>
DELTA_ZAMIEN_GDZIE_Z_DYNAMICZNYM_NADPISYWANIEM_PARTYCJI
Wyrażenie "replaceWhere" i "partitionOverwriteMode"="dynamic" nie mogą być jednocześnie ustawione w opcjach elementu DataFrameWriter.
DELTA_ZASTĄP_GDZIE_Z_FILTRUJ_ZMIANA_DANYCH_NIEUSTAWIONA
Funkcja 'replaceWhere' nie może być używana z filtrami danych, gdy 'dataChange' jest ustawione na false. Filtry: <dataFilters>.
DELTA_ROW_ID_PRZYPISANIE_BEZ_STATYSTYK
Nie można przypisać identyfikatorów wierszy bez statystyk liczby wierszy.
Zbierz statystyki dla tabeli, uruchamiając ANALYZE TABLE polecenie :
ANALYZE TABLE nazwaTabeli COMPUTE DELTA STATISTICS
DELTA_ROW_TRACKING_BACKFILL_RUNNING_CONCURRENTLY_WITH_UNBACKFILL
Wykryto operację włączania śledzenia wierszy uruchomioną współbieżnie z wyłączeniem śledzenia wierszy. Przerywanie operacji wyłączania. Spróbuj ponownie wykonać operację wyłączania w razie potrzeby po zakończeniu operacji włączania.
DELTA_ROW_TRACKING_ILLEGAL_PROPERTY_COMBINATION
Wykryto niedozwolony stan tabeli. Właściwości <property1> tabeli i <property2> są ustawione na wartość true. Problem można rozwiązać, wyłączając dowolną z dwóch właściwości tabeli.
Aby uzyskać dalszą pomoc, skontaktuj się z pomocą techniczną usługi Databricks.
ZMIANA_SCHEMATU_DELTA
Wykryta zmiana schematu:
schemat źródła przesyłania strumieniowego: <readSchema>
schemat pliku danych: <dataSchema>
Spróbuj ponownie uruchomić zapytanie. Jeśli ten problem powtarza się przy każdym ponownym uruchomieniu zapytania bez
czynienie postępów, dokonałeś niezgodnej zmiany schematu i musisz uruchomić ponownie
Rozpoczęcie zapytania od zera przy użyciu nowego katalogu punktów kontrolnych.
ZMIANA SCHEMATU DELTA Z OPCJAMI STARTOWYMI
Wykryto zmianę schematu w wersji <version>:
schemat źródła przesyłania strumieniowego: <readSchema>
schemat pliku danych: <dataSchema>
Spróbuj ponownie uruchomić zapytanie. Jeśli ten problem powtarza się przy każdym ponownym uruchomieniu zapytania bez
czynienie postępów, dokonałeś niezgodnej zmiany schematu i musisz uruchomić ponownie
Rozpoczęcie zapytania od zera przy użyciu nowego katalogu punktów kontrolnych. Jeśli problem nadal występuje po
Zmieniając katalog punktu kontrolnego na nowy, może być konieczna zmiana istniejącego.
Opcja "startingVersion" lub "startingTimestamp", aby rozpocząć od nowszej wersji niż
<version> z nowym katalogiem punktu kontrolnego.
Schemat_Delta_Zmieniony_Z_Wersją
Wykryto zmianę schematu w wersji <version>:
schemat źródła przesyłania strumieniowego: <readSchema>
schemat pliku danych: <dataSchema>
Spróbuj ponownie uruchomić zapytanie. Jeśli ten problem powtarza się przy każdym ponownym uruchomieniu zapytania bez
czynienie postępów, dokonałeś niezgodnej zmiany schematu i musisz uruchomić ponownie
Rozpoczęcie zapytania od zera przy użyciu nowego katalogu punktów kontrolnych.
ZMIANA SCHEMATU DELTA OD ANALIZY
Schemat tabeli delta został zmieniony w niezgodny sposób od ramki danych
lub utworzono obiekt DeltaTable. Ponownie zdefiniuj obiekt DataFrame lub DeltaTable.
Zmiany:
<schemaDiff> <legacyFlagMessage>
Schemat DELTA nie został podany
Nie podano schematu tabeli. Podaj schemat (definicję kolumny) tabeli podczas korzystania z REPLACE tabeli i AS SELECT nie podano zapytania.
Schemat delta nieustawiony
Schemat tabeli nie jest ustawiony. Zapisz dane w nim lub użyj CREATE TABLE, aby ustawić schemat.
NIEDOPASOWANIE SCHEMATÓW LOKALIZACJI DELTA (DELTA_SET_LOCATION_SCHEMA_MISMATCH)
Schemat nowej lokalizacji delty różni się od bieżącego schematu tabeli.
oryginalny schemat:
<original>
schemat docelowy:
<destination>
Jeśli jest to zamierzona zmiana, możesz wyłączyć tę funkcję, uruchamiając:
%%sql set <config> = true (ustawia wartość na true)
PLIK_DO_PŁYTKIEGO_KLONOWANIA_NIE_ZNALEZIONO
Nie można odnaleźć <filePath> pliku, do którego odwołuje się dziennik transakcji. Taka sytuacja może wystąpić, gdy dane zostały ręcznie usunięte z systemu plików, raczej niż przy użyciu instrukcji tabeli DELETE. Ta tabela wydaje się być płytkim klonem, jeśli tak jest, ten błąd może wystąpić, gdy oryginalna tabela, z której sklonowano tę tabelę, usunęła plik, którego klon nadal używa. Jeśli chcesz, aby klony były niezależne od oryginalnej tabeli, użyj klonowania DEEP.
DELTA_SHARING_NIE_MOŻNA_ZMIENIĆ_ZASTRZEŻONEJ_WŁASNOŚCI_ODBIORCY
Nie można modyfikować wstępnie zdefiniowanych właściwości rozpoczynających się od <prefix>.
DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
Dane są ograniczone przez właściwość adresata <property>, które nie mają zastosowania do bieżącego adresata w sesji.
Aby uzyskać więcej informacji, odnieś się do DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
NIEPRAWIDŁOWA OPERACJA W ZEWNĘTRZNYM UDOSTĘPNIONYM WIDOKU DELTA
<operation> nie można używać w widokach Delta Sharing, które są udostępniane między kontami.
DELTA_UDOSTĘPNIANIE_NIEPRAWIDŁOWE_UPRAWNIENIA_DOSTAWCY
Niedozwolony typ uwierzytelniania <authenticationType> dla dostawcy <provider>.
NIEWŁAŚCIWE_UWIERZYTELNIENIE_ODBIORCY_DELTA_SHARING
Niedozwolony typ uwierzytelniania <authenticationType> dla adresata <recipient>.
DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME (Nazwa udostępnionego obiektu danych jest nieprawidłowa)
Nieprawidłowa nazwa do odwołania się na <type> w zasobie współdzielonym. Możesz użyć nazwy <type> w udziale zgodnie z formatem [schema].[<type>] lub możesz również użyć oryginalnej pełnej nazwy tabeli zgodnie z formatem [catalog].[schema].[>typ>].
Jeśli nie masz pewności, jakiej nazwy użyć, możesz uruchomić "SHOW ALL IN SHARE [share]" i znaleźć nazwę <type> do usunięcia: kolumna "name" określa nazwę <type> wewnątrz udziału, a kolumna "shared_object" zawiera oryginalną pełną nazwę <type>.
DELTA_UDOSTĘPNIANIE_MAKSYMALNE_RECIPIENT_TOKENS_PRZEKROCZONE
Istnieje więcej niż dwa tokeny dla adresata <recipient>.
NIE ZNALEZIONO_WŁAŚCIWOŚCI_ODBIORCY_DELTA_SHARING
Właściwość adresata <property> nie istnieje.
RECIPIENT_TOKENSDELTA_SHARING__NOT_FOUND
Brakuje tokenów odbiorcy dla odbiorcy <recipient>.
DELTA_POKAŻ_PARTYCJĘ_W_NIEPARTYCJONOWANEJ_KOLUMNIE
Kolumny <badCols> bez partycjonowania są określone dla elementu SHOW PARTITIONS.
DELTA_SHOW_PARTYCJA_W_NIEPARTYCJONOWANEJ_TABELI
SHOW PARTITIONS jest niedozwolona w tabeli, która nie jest partycjonowana: <tableName>.
DELTA_SHREDDED_WRITES_DISABLED
Nie można uruchomić REORG APPLY(SHRED) operacji, ponieważ rozdrabnione zapisy są wyłączone.
DELTA_SHREDDING_TABLE_PROPERTY_DISABLED
Podjęto próbę zapisu rozdrobnionych wariantów, ale tabela nie obsługuje rozdrobnionych zapisów. Rozważ ustawienie właściwości tabeli enableVariantShredding na true.
DELTA_SOURCE_IGNORE_DELETE (ignoruj usunięcia źródła)
Wykryto usunięte dane (na przykład <removedFile>) z przesyłanego strumieniowo źródła w wersji <version>. Obecnie nie jest to obsługiwane. Jeśli chcesz zignorować usunięcia, ustaw opcję "ignoreDeletes" na wartość "true". Tabelę źródłową można znaleźć w ścieżce <dataPath>.
DELTA_ŹRÓDŁOWA_TABELA_IGNORUJ_ZMIANY
Wykryto aktualizację danych (na przykład <file>) w tabeli źródłowej w wersji <version>. Obecnie nie jest to obsługiwane. Jeśli dzieje się to regularnie i możesz pominąć zmiany, ustaw opcję "skipChangeCommits" na wartość "true". Jeśli chcesz, aby aktualizacja danych została odzwierciedlona, uruchom ponownie to zapytanie przy użyciu nowego katalogu punktu kontrolnego lub wykonaj pełne odświeżanie, jeśli używasz potoków deklaratywnych spark lakeflow. Jeśli potrzebujesz obsłużyć te zmiany, przełącz się na MVs. Tabelę źródłową można znaleźć w ścieżce <dataPath>.
DELTA_POCZĄTKOWA_WERSJA_I_ZNACZNIK_CZASU_OBA_USTAWIONE
Podaj wartość "<version>" lub "<timestamp>".
NIE ZNALEZIONO KOLUMNY KOLEKCJI STATYSTYK DELTA
<statsType> nie znaleziono statystyk dla kolumny w metadanych Parquet: <columnPath>.
DELTA_STATS_NOT_FOUND_IN_FILE
Nie można odnaleźć statystyk w pliku: <filePath>. Uruchom polecenie "ANALYZE TABLE [tableName] COMPUTE DELTA STATISTICS", aby obliczyć statystyki.
DELTA_STREAMING_NIE_MOŻE_KONTYNUOWAĆ_PRZETWARZANIA_PO_EWOLUCJI_SCHEMATU
Wykryliśmy co najmniej jedną nieaddytywną zmianę schematu (<opType>) między wersją Delta <previousSchemaChangeVersion> a <currentSchemaChangeVersion> w źródle strumieniowego przesyłania Delta.
Zmiany:
<columnChangeDetails>
Proszę sprawdzić, czy chcesz ręcznie wprowadzić zmiany w schemacie do tabeli docelowej, zanim przejdziemy do przetwarzania strumieniowego z użyciem ostatecznego schematu w wersji <currentSchemaChangeVersion>.
Po naprawieniu schematu tabeli ujścia lub podjęciu decyzji, że nie ma potrzeby naprawiania, można ustawić następujące konfiguracje, aby odblokować zmiany schematu nie addytywne i kontynuować przetwarzanie strumienia.
Korzystanie z opcji czytnika ramek danych:
Aby odblokować ten konkretny strumień tylko dla tej serii zmian schematu:
<unblockChangeOptions>
Aby odblokować ten konkretny strumień:
<unblockStreamOptions>
Korzystanie z konfiguracji SQL:
Aby odblokować ten konkretny strumień tylko dla tej serii zmian schematu:
<unblockChangeConfs>
Aby odblokować ten konkretny strumień:
<unblockStreamConfs>
Aby odblokować dla wszystkich strumieni:
<unblockAllConfs>
Sprawdź mapowanie kolumn w transmisji Delta - brak zrzutu.
Nie można uzyskać migawki dziennika Delta dla początkowej wersji podczas sprawdzania zmian schematu mapowania kolumn. Proszę wybierz inną wersję początkową lub wymuś włączenie odczytu strumieniowego na własne ryzyko, ustawiając '<config>' na 'true'.
ZMIANA_SCHEMATU_NIEZGODNA_Z_DELTA_STREAMING
Odczyt strumieniowy nie jest obsługiwany w tabelach ze zmianami schematu niezgodnymi z odczytem (na przykład zmiana nazwy lub upuszczania lub zmiany typu danych).
Aby uzyskać więcej informacji i możliwe następne kroki rozwiązywania tego problemu, zapoznaj się z dokumentacją w <docLink>
Odczyt schematu: <readSchema>. Niezgodny schemat danych: <incompatibleSchema>.
DELTA_STREAMING_NIEKOMPATYBILNA_ZMIANA_SCHEMATU_UŻYJ_SCHEMA_LOG
Odczyt strumieniowy nie jest obsługiwany w tabelach ze zmianami schematu niezgodnymi z odczytem (na przykład zmiana nazwy lub upuszczania lub zmiany typu danych).
Proszę podać 'schemaTrackingLocation', aby umożliwić nieaddytywne ewolucje schematu dla przetwarzania strumienia Delta.
Aby uzyskać więcej informacji, zobacz <docLink>.
Odczyt schematu: <readSchema>. Niezgodny schemat danych: <incompatibleSchema>.
DELTA_STRUMIENIOWE_METADANE_EWOLUCJA
Schemat, konfiguracja tabeli lub protokół tabeli delty zmienił się podczas przesyłania strumieniowego.
Zaktualizowano dziennik śledzenia schematu lub metadanych.
Uruchom ponownie strumień, aby kontynuować przetwarzanie przy użyciu zaktualizowanych metadanych.
Zaktualizowany schemat: <schema>.
Zaktualizowano konfiguracje tabel: <config>.
Zaktualizowany protokół tabeli: <protocol>
Niedozwolony filtr wierszy w zmianie schematu strumieniowego Delta COLUMN_MASKS
Strumieniowanie z tabeli źródłowej <tableId> z śledzeniem schematu nie obsługuje filtrów wierszy ani masek kolumn.
Usuń filtry wierszy lub maski kolumn lub wyłącz śledzenie schematu.
Konflikt lokalizacji schematu strumieniowania Delta
Wykryto konfliktujące położenie schematu '<loc>' podczas przesyłania strumieniowego z tabeli lub tabeli znajdującej się w '<table>'.
Inny strumień może ponownie używać tej samej lokalizacji schematu, która nie jest dozwolona.
Proszę podać nową unikatową ścieżkę schemaTrackingLocation lub streamingSourceTrackingId jako opcję dla czytnika dla jednego ze strumieni z tej tabeli.
If we were to translate for clarity: "LOKALIZACJA_SCHEMATU_STREAMING_NIE_POD_KONTROLĄ_PUNKTU_REKONTROLI" Otherwise, keep: "DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT" (if staying faithful to technical norms).
Lokalizacja schematu "<schemaTrackingLocation>" musi być umieszczona w lokalizacji punktu kontrolnego "<checkpointLocation>".
DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED (Nie udało się deserializować dziennika schematów strumieniowych)
Niekompletny plik dziennika w schemacie źródła przesyłania strumieniowego Delta pod adresem "<location>".
Dziennik schematu mógł być uszkodzony. Wybierz nową lokalizację schematu.
BŁĄD_STRUMIENIA_DELTA_NIEZGODNY_SCHEMAT_DELTA_ID_TABELI
Wykryto niezgodny identyfikator tabeli Delta podczas próby odczytania strumienia Delta.
Trwały identyfikator tabeli: <persistedId>, identyfikator tabeli: <tableId>
Dziennik schematu mógł zostać użyty ponownie. Wybierz nową lokalizację schematu.
DELTA_STREAMING_SCHEMA_LOG_NIEKOMPATYBILNY_SCHEMAT_PARTYCJI
Wykryto niezgodny schemat partycji podczas próby odczytania strumienia Delta.
Utrwalony schemat: <persistedSchema>, schemat partycji różnicowej: <partitionSchema>
Wybierz nową lokalizację schematu, aby ponownie zainicjować dziennik schematu, jeśli schemat partycji tabeli został ostatnio zmieniony ręcznie.
DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_NIEKOMPATYBILNE_METADANE
Nie można zainicjować dziennika schematu przesyłania strumieniowego źródła Delta, ponieważ
Wykryliśmy niezgodną zmianę schematu lub protokołu podczas realizacji partii danych przesyłanych strumieniowo z wersji tabeli <a> na <b>.
DELTA_STREAMING_SCHEMA_LOG_BŁĄD_PARSOWANIA_SCHEMATU
Nie udało się przetworzyć schematu z dziennika schematów źródła strumieniowania Delta.
Dziennik schematu mógł być uszkodzony. Wybierz nową lokalizację schematu.
DELTA_STREAMING_SINK_TRANSACTION_NOT_FOUND
Nie znaleziono transakcji dla partii <batchId> w ujściu funkcji delta przesyłania strumieniowego w ostatnich <versionLimit> wersjach.
DELTA_STREAMING_SKIP_OFFSETS_INVALID_OFFSET_RANGE
Nieprawidłowy zakres przesunięcia pominięcia dla zakresu źródłowego delty =[<startOffset>, <endOffset>). Napraw ten zakres przesunięcia i spróbuj ponownie.
Aby uzyskać więcej informacji, zobacz DELTA_STREAMING_SKIP_OFFSETS_INVALID_OFFSET_RANGE
Tabela Delta już zawiera kolumny CDC
Nie można włączyć przechwytywania zmian danych w tabeli. Tabela już zawiera
zastrzeżone kolumny <columnList>, które będą
Może być używane wewnętrznie jako metadane dla Strumienia Zmian Danych tabeli. Aby umożliwić
Zmień źródło danych tabeli, zmieniając nazwę lub usuwając wskazane kolumny.
DELTA_TABLE_ALREADY_EXISTS (Tabela Delta już istnieje)
Tabela <tableName> już istnieje.
DELTA_TABLE_CONTAINS_RESERVED_CDC_COLUMNS
Nie można obliczyć zestawienia danych zmian w tabeli. Tabela zawiera nazwy kolumn <columnList> zarezerwowanych, które są używane jako kolumny wyjściowe dla zestawienia zmian danych tabeli. Aby obliczyć zmianę źródła danych w tabeli, zmień nazwę/upuść te kolumny.
DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF (Nieobsługiwana konfiguracja Hadoop dla ścieżki delta table)
SQLSTATE: 0AKDC
Obecnie funkcja DeltaTable.forPath obsługuje tylko klucze konfiguracji platformy Hadoop rozpoczynające się od <allowedPrefixes> , ale mają wartość <unsupportedOptions>.
ID_DELTA_TABELA_NIEZGODNOŚĆ
Tabela delty w <tableLocation> została zastąpiona, podczas gdy to polecenie używało tabeli.
Identyfikator tabeli był <oldId>, a teraz jest <newId>.
Proszę ponownie spróbować wykonać bieżące polecenie, aby zapewnić spójny widok tabeli.
NIEPRAWIDŁOWE_PRZEJŚCIE_STANU_PRZEKIEROWANIA_TABELI_DELTA
Nie można zaktualizować stanu przekierowania tabeli: próbowano wykonać nieprawidłową operację przejścia stanu.
Tabela delty "<table>" nie może zmienić się z "<oldState>" na "<newState>".
USTAWIENIE_LUB_RESETOWANIE_NIEPRAWIDŁOWEJ_TABLICY_DELTA
Nie można SET ani UNSET przekierować właściwości na <table>: bieżąca właściwość "<currentProperty>" nie pasuje do nowej właściwości "<newProperty>".
NIEDOPASOWANIE_LOKALIZACJI_TABELI_DELTA
Lokalizacja istniejącej tabeli <tableName> jest <existingTableLocation>. Nie jest zgodna z określoną lokalizacją <tableLocation>.
NIE ZNALEZIONO_TABELI_DELTA
Tabela <tableName> delty nie istnieje.
DELTA_TABLE_NIEOBSŁUGIWANA_W_OP
Tabela nie jest obsługiwana w <operation>. Zamiast tego użyj ścieżki.
DELTA_TABLE_ONLY_OPERATION (operacja tylko dla tabeli DELTA)
<tableName> nie jest tabelą delty.
<operation> jest obsługiwana tylko w przypadku tabel delty.
Nierozpoznane Przekierowanie DELTA_TABLE_SPEC
Dziennik Delta zawiera nierozpoznaną specyfikację przekierowania tabeli "<spec>".
PUSTY_SCHEMAT_KOŃCOWY_TABELI_DOCELOWEJ_DELTA
Ostateczny schemat tabeli docelowej jest pusty.
DELTA_TIMESTAMP_EARLIER_THAN_COMMIT_RETENTION
Podany znacznik czasu (<userTimestamp>) jest przed najwcześniejszą wersją dostępną dla
ta tabela (<commitTs>). Użyj znacznika czasu po <timestampString>.
ZNACZNIK_CZASU_DELTA_WYŻSZY_NIŻ_ZOBOWIĄZANIE
Podany znacznik czasu (<providedTimestamp>) jest późniejszy niż najnowsza dostępna wersja.
tabela (<tableName>). Proszę użyć znacznika czasu przed lub przy <maximumTimestamp>.
Nieprawidłowy znacznik czasu DELTA
Nie można przekonwertować podanego znacznika czasu (<expr>) na prawidłowy znacznik czasu.
DELTA_NIEPRAWIDŁOWA_WARTOŚĆ_POCZĄTKOWA_CZASU_PODRÓŻY
<timeTravelKey> musi być prawidłową wartością rozpoczęcia.
DELTA_ZA_DUŻO_PAMIĘCI_LISTOWANIA
Nie można wyświetlić listy plików (<numFiles>) w tabeli delty z powodu niewystarczającej ilości pamięci. Wymagana pamięć: <estimatedMemory>, dostępna pamięć: <maxMemory>.
Dziennik transakcji DELTA_TRUNCATED_TRANSACTION_LOG (przycięty delta)
<path>: Nie można odtworzyć stanu w wersji<version>, ponieważ dziennik transakcji został obcięty z powodu ręcznego usunięcia lub zasad przechowywania dziennika () i zasad przechowywania punktów kontrolnych (<logRetentionKey>=<logRetention><checkpointRetentionKey>=<checkpointRetention>).
Wsparcie dla operacji TRUNCATE na podzielonych tabelach w DELTA nie jest obsługiwane
SQLSTATE: 0AKDC
Niedozwolona operacja: TRUNCATE TABLE w tabelach delty nie obsługuje predykatów partycji; użyj DELETE, aby usunąć określone partycje lub wiersze.
DELTA_UDF_IN_CHECK_CONSTRAINT
Znaleziono <expr> w ograniczeniu CHECK . Ograniczenie CHECK nie może używać funkcji zdefiniowanej przez użytkownika.
DELTA_UDF_W_GENEROWANEJ_KOLUMNIE
Znaleziono <udfExpr>. Wygenerowana kolumna nie może używać funkcji zdefiniowanej przez użytkownika.
NIEOCZEKIWANA_WYRAŻENIE_AKCJI_DELTA
Nieoczekiwane wyrażenie akcji <expression>.
DELTA_NIEOCZEKIWANA_LICZBA_KOLUMN_PARTYCJI_Z_NAZWY_PLIKU
<expectedColsSize> Oczekiwano kolumn partycji: <expectedCols>, ale odnaleziono <parsedColsSize> kolumny partycji: <parsedCols> z analizowania nazwy pliku: <path>.
DELTA_NIESPODZIEWANE_CZĘŚCIOWE_SKANOWANIE
Oczekiwano pełnego skanowania źródeł Delta, ale znaleziono jedynie skanowanie częściowe. Ścieżka: <path>.
NIESPODZIEWANA_KOLUMNA_PARTYCJI_Z_NAZWY_PLIKU_DELTA
Oczekiwano kolumny partycji <expectedCol>, ale znaleziono kolumnę partycji <parsedCol> wynikającą z analizy nazwy pliku: <path>.
DELTA_NIEOCZEKIWANA_PARTYCJA_SCHEMATU_OD_USERA
CONVERT do DELTA wywołano z użyciem schematu partycji innego niż schemat partycji wywnioskowany z katalogu, unikaj podawania schematu, aby schemat partycji można było wybrać z katalogu.
schemat partycji katalogu:
<catalogPartitionSchema>
udostępniony schemat partycji:
<userPartitionSchema>
Lokalizacja zgodności DELTA_UNIFORM nie może zostać zmieniona.
SQLSTATE: 0AKDC
Nie można zmienić pliku delta.universalFormat.compatibility.location.
LOKALIZACJA_DELTA_UNIFORM_KOMPATYBILNOŚCI_NIEZAREJESTROWANA
delta.universalFormat.compatibility.location nie jest zarejestrowana w wykazie.
DELTA_UNIFORM_KOMPATYBILNOŚĆ_BRAK_LUB_NIEPRAWIDŁOWA_LOKALIZACJA
Brak lub nieprawidłowa lokalizacja dla jednolitego formatu zgodności. Ustaw pusty katalog dla pliku delta.universalFormat.compatibility.location.
Przyczyna niepowodzenia:
Aby uzyskać więcej szczegółów, zobacz DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
NARUSZENIE_WEJŚCIA_ICEBERGA_DELTA_UNIFORM
Przeczytaj Apache Iceberg z Delta Uniform nie powiodło się.
Aby uzyskać więcej informacji, zobacz DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
DELTA_UNIFORM_WEJŚCIE_NIEJEDNOZNACZNY_FORMAT
Znaleziono wiele formatów wejściowych Delta Uniform (<formats>), co najwyżej jeden można ustawić.
DELTA_UNIFORM_WEJŚCIE_NIEOBSŁUGIWANE
Tworzenie lub odświeżanie jednolitej tabeli wejścia nie jest obsługiwane.
DELTA_UNIFORM_WEJŚCIE_NIEOBSŁUGIWANY_FORMAT
SQLSTATE: 0AKDC
Format <fileFormat> nie jest obsługiwany. Obsługiwane są tylko biblioteki Apache Iceberg i hudi jako oryginalny format pliku.
Naruszenie ruchu wejściowego typu DELTA_UNIFORM
Odczyt Delta Uniform kończy się niepowodzeniem:
Aby uzyskać więcej szczegółów, zobacz DELTA_UNIFORM_INGRESS_VIOLATION
NIEOBSŁUGIWANA DELTA_UNIFORM
SQLSTATE: 0AKDC
Obsługiwany jest tylko uniwersalny format w tabelach katalogu Unity.
DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT
REFRESH TABLE z nieprawidłowym argumentem:
Aby uzyskać więcej informacji, zobacz DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED (Odświeżanie jednolite Delta nie jest obsługiwane)
SQLSTATE: 0AKDC
REFRESH identyfikator SYNC UNIFORM nie jest obsługiwany z przyczyn:
Aby uzyskać więcej szczegółów, zobacz DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
AKTUALIZACJA_JEDNOLITA_DELTA_NIEOBSŁUGIWANA_DLA_ZARZĄDZANEJ_TABELI_ICEBERG_Z_ŚCIEŻKĄ_METADANYCH
SQLSTATE: 0AKDC
REFRESH TABLE program with METADATA_PATH nie jest obsługiwany w przypadku zarządzanych tabel Apache Iceberg.
DELTA_UNIWERSALNA_KONWERSJA_FORMATU_NIEUDANA
Nie można przekonwertować wersji tabeli <version> na format uniwersalny <format>. <message>
NARUSZENIE_FORMATU_UNIWERSALNEGO_DELTA
Walidacja formatu uniwersalnego (<format>) nie powiodła się: <violation>.
NIEZNANA_KONFIGURACJA_DELTA
Określono nieznaną konfigurację: <config>.
Aby wyłączyć to sprawdzanie, ustaw <disableCheckConfig>=true w konfiguracji sesji platformy Spark.
DELTA_NIEZNANE_UPRAWNIENIE
Nieznany przywilej: <privilege>.
NIEZNANA_GRANICA_ODCZYTU_DELTA
Nieznany Limit Odczytu: <limit>.
DELTA_NIEZNANA_ZMIANA_KOLUMNY
Nierozpoznana zmiana kolumny <otherClass>. Być może jest uruchomiona nieaktualna wersja usługi Delta Lake.
DELTA_NIEROZPOZNANA_NIEZMIENNA
Nierozpoznany inwariant. Uaktualnij wersję platformy Spark.
NIEZNANY_PLIK_DZIENNIKA_DELTA
Nierozpoznany plik dziennika <filename>.
DELTA_RESETOWANIE_NIEISTNIEJĄCEJ_WŁAŚCIWOŚCI
Podjęto próbę odstawienia nieistniejącej właściwości "<property>" w tabeli <tableName>.
DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE (NIEOBSŁUGIWANY_ABSOLUTYŚCIE_ŚCIEŻKA_DODAJ_PLIK)
SQLSTATE: 0AKDC
<path> program nie obsługuje dodawania plików ze ścieżką bezwzględną.
DELTA_NIEOBSŁUGIWANA_ZMIANA_KOLUMNY_ALTER_TABLE
SQLSTATE: 0AKDC
ALTER TABLE CHANGE COLUMN nie jest obsługiwane w przypadku zmiany kolumny <fieldPath> z <oldField> na <newField>.
Nieobsługiwana operacja zmiany tabeli: zastąpienie kolumny (DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP)
SQLSTATE: 0AKDC
Nieobsługiwana operacja ALTER TABLE REPLACE COLUMNS. Przyczyna: <details>
Nie udało się zmienić schematu z:
<oldSchema>
do:
<newSchema>
DELTA_NIEOBSŁUGIWANE_KLONOWANIE_ZAMIANA_TA_SAMA_TABLICA
SQLSTATE: 0AKDC
Próbowałeś wykonać REPLACE na istniejącej tabeli (<tableName>) z użyciem CLONE. Ta operacja jest następująca:
nieobsługiwany Spróbuj użyć innego elementu docelowego dla CLONE lub usuń tabelę w bieżącej lokalizacji docelowej.
DELTA_UNSUPPORTED_CLUSTERING_COLUMN_PREDICATES
OPTIMIZE
...
FULL WHERE polecenie dla tabel Liquid nie obsługuje podanych predykatów:
Aby uzyskać więcej informacji, zobacz DELTA_UNSUPPORTED_CLUSTERING_COLUMN_PREDICATES
DELTA_NIEOBSŁUGIWANY_TRYB_MAPOWANIA_KOLUMN_ZMIANA
SQLSTATE: 0AKDC
Zmiana trybu mapowania kolumn z "<oldMode>" na "<newMode>" nie jest obsługiwana.
NIEOBSŁUGIWANE OPERACJE MAPOWANIA KOLUMN W DELTA NA KOLUMNACH Z BLOOM FILTER INDEX
SQLSTATE: 0AKDC
Nie można wykonać operacji mapowania kolumn <opName> w kolumnach <quotedColumnNames>
ponieważ te kolumny mają indeksy filtrów Blooma.
Jeśli chcesz wykonać działanie mapowania kolumn
z Bloom Filter Index(es)
Najpierw usuń indeks filtru Blooma:
DROP BLOOMFILTER INDEX ON TABLE nazwaTabeli FOR COLUMNS(<columnNames>)
Jeśli zamiast tego chcesz usunąć wszystkie indeksy filtru Blooma w tabeli, użyj:
DROP BLOOMFILTER INDEX ON TABLE nazwaTabeli
NIEOBSŁUGIWANY PROTOKÓŁ MAPOWANIA KOLUMN DELTA
Bieżąca wersja protokołu tabeli nie obsługuje zmieniania trybów mapowania kolumn
przy użyciu <config>.
Wymagana wersja protokołu Delta do mapowania kolumn:
<requiredVersion>
Bieżąca wersja protokołu delta tabeli:
<currentVersion>
<advice>
ZMIANA SCHEMATU MAPOWANIA KOLUMN DELTA_NIEOBSŁUGIWANY
SQLSTATE: 0AKDC
Wykryto zmianę schematu:
stary schemat:
<oldTableSchema>
nowy schemat:
<newTableSchema>
Zmiany schematu nie są dozwolone podczas zmiany trybu mapowania kolumn.
Nieobsługiwane odwzorowanie kolumn w zapisie DELTA
SQLSTATE: 0AKDC
Zapisywanie danych w trybie mapowania kolumn nie jest obsługiwane.
DELTA_NIEOBSŁUGIWANY_TYP_KOLUMNY_W_BLOOM_FILTER
SQLSTATE: 0AKDC
Tworzenie indeksu filtra Blooma w kolumnie z typem <dataType> jest nieobsługiwane: <columnName>.
DELTA_NIEOBSŁUGIWANA_MAPA_KOMENTARZY_TABLICA
SQLSTATE: 0AKDC
Nie można dodać komentarza do <fieldPath>. Dodawanie komentarza do klucza/wartości mapy lub elementu tablicy nie jest obsługiwane.
DELTA_NIEOBSŁUGIWANE_TYPY_DANYCH
SQLSTATE: 0AKDC
Odnaleziono kolumny używające nieobsługiwanych typów danych: <dataTypeList>. Możesz ustawić wartość "<config>" na wartość "false", aby wyłączyć sprawdzanie typu. Wyłączenie tego sprawdzania typów może umożliwić użytkownikom tworzenie nieobsługiwanych tabel Delta i powinno być używane tylko podczas próby odczytywania lub zapisywania tabel legacy.
DELTA_NIEOBSŁUGIWANY_TYP_DANYCH_W_GENEROWANEJ_KOLUMNIE
<dataType> nie może być wynikiem wygenerowanej kolumny.
DELTA_NIEOBSŁUGIWANE_GŁĘBOKIE_KOPIOWANIE
Ta wersja Delta nie obsługuje głębokiego klonowania.
DELTA_NIEOBSŁUGIWANA_OPIS_SZCZEGÓŁOWY_WIDOK
<view> to widok.
DESCRIBE DETAIL jest obsługiwana tylko w przypadku tabel.
NIEWSPARTE_USUNIĘCIE_KOLUMN_KLASUSTROWANIA_DELTA
SQLSTATE: 0AKDC
Usuwanie kolumn klastrowania (<columnList>) jest niedozwolone.
DELTA_NIEOBSŁUGIWANE_USUNIĘCIE_KOLUMNY
SQLSTATE: 0AKDC
DROP COLUMN nie jest obsługiwany dla tabeli Delta. <advice>
DELTA_NIEOBSŁUGIWANE_USUNIĘCIE_ZAGNIEŻDŻONEJ_KOLUMNY_Z_NIESTRUKTURALNEGO_TYP W
SQLSTATE: 0AKDC
Można usuwać tylko zagnieżdżone kolumny z typu StructType. Znaleziono <struct>.
DELTA_NIEOBSŁUGIWANE_USUNIĘCIE_KOLUMNY_PARTYCJI
SQLSTATE: 0AKDC
Usuwanie kolumn partycji (<columnList>) jest niedozwolone.
DELTA_NIEOBSŁUGIWANE_WYRAŻENIE
Nieobsługiwany typ wyrażenia(<expType>) dla <causedBy>. Obsługiwane typy to [<supportedTypes>].
DELTA_UNSUPPORTED_EXPRESSION_CHECK_CONSTRAINT
Znaleziono <expression> w ograniczeniu CHECK .
<expression> nie można używać w ograniczeniu CHECK .
KOLUMNA_GENEROWANA_DELTA_NIEOBSŁUGIWANE_WYRAŻENIE
<expression> Nie można używać w wygenerowanej kolumnie.
DELTA_NIEWSPIERANE_FUNKCJE_DO_ODCZYTU
Nieobsługiwana funkcja odczytu Delta: tabela "<tableNameOrPath>" wymaga funkcji obsługi tabeli, które nie są obsługiwane przez tę wersję usługi Databricks: <unsupported>. Aby uzyskać więcej informacji na temat zgodności funkcji usługi Delta Lake, zapoznaj się z <link>.
NIEDOSTĘPNE FUNKCJE DELTA DLA ZAPISU
Nieobsługiwana funkcja Delta zapisu: tabela "<tableNameOrPath>" wymaga funkcji tabeli zapisującej, które nie są obsługiwane przez tę wersję usługi Databricks: <unsupported>. Aby uzyskać więcej informacji na temat zgodności funkcji usługi Delta Lake, zapoznaj się z <link>.
DELTA_NIEOBSŁUGIWANE_FUNKCJE_W_KONFIGURACJI
Funkcje tabel skonfigurowane w następujących konfiguracjach platformy Spark lub właściwościach tabeli delta nie są rozpoznawane przez tę wersję usługi Databricks: <configs>.
DELTA_STATUS_NIEOBSŁUGIWANEJ_FUNKCJI
Oczekiwano, że funkcja tabeli <feature> będzie "obsługiwana", ale otrzymano "<status>".
DELTA_NIEOBSŁUGIWANA_AKTUALIZACJA_POLA_POZA_STRUKTURĄ
SQLSTATE: 0AKDC
Aktualizowanie zagnieżdżonych pól jest obsługiwane tylko w przypadku obiektu StructType, ale próbujesz zaktualizować pole <columnName>, które jest typu: <dataType>.
DELTA_NIEOBSŁUGIWANE_FSCK_Z_WEKTORAMI_USUWANIA
Polecenie "FSCK REPAIR TABLE" nie jest obsługiwane w wersjach tabeli z brakującymi plikami wektorów kasowania.
Skontaktuj się z pomocą techniczną.
DELTA_NIEOBSŁUGIWANE_GENERUJ_Z_WEKTORAMI_USUWANIA
Polecenie 'GENERATE symlink_format_manifest' nie jest obsługiwane w wersjach tabel z wektorami usunięć.
Aby utworzyć wersję tabeli bez wektorów usuwania, uruchom "tabelęAPPLY (PURGE)".REORG TABLE Następnie uruchom ponownie polecenie "GENERATE".
Upewnij się, że żadne równoczesne transakcje nie dodają ponownie wektorów usuwania między REORG a GENERATE.
Jeśli musisz regularnie generować manifesty lub nie możesz zapobiec równoczesnym transakcjom, rozważ wyłączenie wektorów usuwania na tej tabeli za pomocą 'ALTER TABLE tabela SET TBLPROPERTIES (delta.enableDeletionVectors = false)'.
DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT (Explanation note or additional context in Polish, if applicable, might be helpful for clarity in a localized context.)
SQLSTATE: 0AKDC
Niezmienniki w zagnieżdżonych polach innych niż StructTypes nie są obsługiwane.
DELTA_NIEOBSŁUGIWANA_W_ZAPYTANIU_PODBORNIKOWYM
SQLSTATE: 0AKDC
Podzapytania nie są obsługiwane w warunku <operation>.
DELTA_NIEOBSŁUGIWANA_LISTA_KLUCZY_Z_PREFIKSEM
listKeywithPrefix jest niedostępny.
DELTA_NIEOBSŁUGIWANA_GENERACJA_MANIFESTU_Z_MAPOWANIEM_KOLUMN
SQLSTATE: 0AKDC
Generowanie manifestu nie jest obsługiwane w przypadku tabel korzystających z mapowania kolumn, ponieważ zewnętrzne narzędzia do odczytu nie mogą odczytać tych tabel Delta. Aby uzyskać więcej informacji, zobacz dokumentację usługi Delta.
Nieobsługiwana ewolucja schematu scalania Delta z CDC.
MERGE INTO operacje z ewolucją schematu nie obsługują obecnie zapisywania danych wyjściowych usługi CDC.
NIEOBSŁUGIWANY_MULTI_COL_W_PREDYKACIE DELTA
SQLSTATE: 0AKDC
Wielokolumnowe predykaty In nie są obsługiwane w warunku <operation>.
DELTA_NIEOBSŁUGIWANA_ZAGNIEŻDŻONA_KOLUMNA_W_BLOOM_FILTRZE
SQLSTATE: 0AKDC
Tworzenie indeksu pliku blooma w zagnieżdżonej kolumnie jest obecnie nieobsługiwane: <columnName>.
DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION (nieobsługiwane pole zagnieżdżone w operacji)
SQLSTATE: 0AKDC
Pole zagnieżdżone nie jest obsługiwane w <operation> (pole = <fieldName>).
DELTA_NIEOBSŁUGIWANY_NIEPUSTY_KLON
SQLSTATE: 0AKDC
Tabela docelowa klonowania nie jest pusta. Przed uruchomieniem TRUNCATEwyczyść tabelę za pomocą DELETE FROM lub CLONE.
NIEOBSŁUGIWANY TRYB WYJŚCIA
SQLSTATE: 0AKDC
Źródło <dataSource> danych nie obsługuje <mode> trybu wyjściowego.
NIEWSPÓLNIE WSPARCIE KOLUMNA PARTYCJI W FILTRZE BLOOM DELTA
SQLSTATE: 0AKDC
Tworzenie indeksu filtru Bloom w kolumnie partycjonowania nie jest obsługiwane: <columnName>.
DELTA_NIEOBSŁUGIWANA_ZMIANA_NAZWY_KOLUMNY
SQLSTATE: 0AKDC
Zmiana nazwy kolumn nie jest obsługiwana dla tabeli delty. <advice>
DELTA_NIEOBSŁUGIWANY_SCHEMAT_PODCZAS_ODCZYTU
SQLSTATE: 0AKDC
Funkcja Delta nie obsługuje określania schematu w czasie odczytu.
DELTA_NIEOBSŁUGIWANY_SORT_NA_TABELACH_Z_SEGMENTAMI
SORTED BY nie jest obsługiwany dla tabel koszykowanych Delta.
ŹRÓDŁO_NIEOBSŁUGIWANE_DELTA
<operation> miejsce docelowe obsługuje tylko źródła Delta.
<plan>
NIEOBSŁUGIWANE_STATYCZNE_PARTYCJE_DELTA
Określanie partycji statycznych w specyfikacji partycji nie jest obecnie obsługiwane podczas wstawiania.
DELTA_NIEOBSŁUGIWANA_NAZWA_STRATEGII
Niewspierana nazwa strategii: <strategy>.
DELTA_NIEOBSŁUGIWANE_ZAPYTANIE_PODBODOWE
SQLSTATE: 0AKDC
Podzapytania nie są obsługiwane w <operation> (warunek = <cond>).
DELTA_NIEOBSŁUGIWANA_PODZAPYTANIE_W_PREDYKATACH_PARTYCJI
SQLSTATE: 0AKDC
Podzapytywania nie są obsługiwane w predykatach partycji.
DELTA_UNSUPPORTED_TIME_TRAVEL_BEYOND_DELETED_FILE_RETENTION_DURATION
SQLSTATE: 0AKDC
Nie można przejść poza delta.deletedFileRetentionDuration (<deletedFileRetention> HOURS) ustawioną w tabeli.
DELTA_BRAK_OBSŁUGI_PODRÓŻY_W_CZASIE_WIELU_FORMATÓW
Nie można określić podróży czasowej w wielu formatach.
DELTA_NIEOBSŁUGIWANE_WIDOKI_PODRÓŻY_W_CZASIE
SQLSTATE: 0AKDC
Nie można podróżować w czasie w widokach, podzapytaniach, strumieniach ani w zapytaniach o zmianę danych wejściowych.
DELTA_NIEOBSŁUGIWANY_OBRÓĆ_TABEL_PRZYKŁADOWYCH
Obcinanie przykładowych tabel nie jest obsługiwane.
NIEOBSŁUGIWANA_ZMIANA_TYPÓW_W_SCHEMACIE
SQLSTATE: 0AKDC
Nie można wykonać operacji na tej tabeli, ponieważ zastosowano nieobsługiwaną zmianę typu. Pole <fieldName> zostało zmienione z <fromType> na <toType>.
ZMIANA TYPU NIEOBSŁUGIWANA NA KOLUMNACH Z INDEKSEM FILTRA BLOOM'A
SQLSTATE: 0AKDC
Nie można zmienić typu danych kolumn <quotedColumnNames>
ponieważ te kolumny mają indeksy filtru Blooma.
Jeśli chcesz zmienić typ danych kolumn za pomocą indeksów filtru Blooma,
Najpierw usuń indeks filtru Blooma:
DROP BLOOMFILTER INDEX ON TABLE nazwaTabeli FOR COLUMNS(<columnNames>)
Jeśli zamiast tego chcesz usunąć wszystkie indeksy filtru Blooma w tabeli, użyj:
DROP BLOOMFILTER INDEX ON TABLE nazwaTabeli
DELTA_NIEOBSŁUGIWANE_WYCZYSZCZENIE_SPECYFICZNEJ_PARTYCJI
SQLSTATE: 0AKDC
Podaj ścieżkę bazową (<baseDeltaPath>) podczas czyszczenia tabel Delta. Opróżnianie określonych partycji nie jest obecnie obsługiwane.
TABELA_ETAPOWA_DELTA_NIEOBSŁUGIWANE_PISANIE
Implementacja tabeli nie obsługuje operacji zapisu: <tableName>.
NIEWSPIERANE_ZAPISY_DELTA_BEZ_KOORDYNATORA
SQLSTATE: 0AKDC
Próbujesz wykonać operacje zapisu w tabeli, która została zarejestrowana u koordynatora zatwierdzeń <coordinatorName>. Jednak żadna implementacja tego koordynatora nie jest dostępna w bieżącym środowisku i zapisy bez koordynatora nie są dozwolone.
DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES (niewspierana operacja zapisu do przykładów tabeli)
Zapisywanie w przykładowych tabelach nie jest obsługiwane.
DELTA_UPDATE_NIEDOPASOWANIE_SCHEMATU_EXPRESSION
Nie można rzutować <fromCatalog> na <toCatalog>. Wszystkie zagnieżdżone kolumny muszą się zgadzać.
WYMAGANE_ZMIANY_WERSJI_DELTA_V2_DLA_OPERACJI
CHECKPOINT operacja wymaga włączenia punktów kontrolnych wersji 2 w tabeli.
BŁĄD_STANU_KOPIOWANIA_DELTA_VACUUM
VACUUM na plikach danych zakończyło się pomyślnie, ale COPY INTO czyszczenie pamięci nie powiodło się.
Wersje delta nie są ciągłe
Wersje (<versionList>) nie są ciągłe.
Podczas próby załadowania wersji <startVersion> wykryto lukę w dzienniku różnicowym między wersjami <endVersion> i <versionToLoad>.
Aby uzyskać więcej informacji, zobacz DELTA_VERSIONS_NOT_CONTIGUOUS
Nieprawidłowa wersja delta
Podana wersja (<version>) nie jest prawidłową wersją.
DELTA_VERSION_NOT_FOUND
Nie można przesunieć tabeli delty na wersję <userVersion>. Dostępne wersje: [<earliest>, <latest>].
DELTA_NARUSZA_OGRANICZENIE_Z_WARTOŚCIAMI
CHECK ograniczenie <constraintName> <expression> naruszone przez wiersz z wartościami:
<values>.
DELTA_BŁĄD_WALIDACJI_WŁAŚCIWOŚCI_TABELI
Weryfikacja właściwości <table> tabeli została naruszona:
Aby uzyskać więcej informacji, zobacz DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
DELTA_ZAPIS_DO_WIDOKU_NIEOBSŁUGIWANY
<viewIdentifier> to widok. Nie wolno zapisywać danych w widoku.
DELTA_KOLUMNA_ZPORZĄDKOWANIA_NIE_ISTNIEJE
Kolumna porządkowania Z <columnName> nie istnieje w schemacie danych.
DELTA_ZORDEROWANIE_NA_KOLUMNIE_BEZ_STATYSTYK
Kolejność Z na <cols> będzie nieskuteczna, ponieważ obecnie nie zbieramy statystyk dla tych kolumn. Aby uzyskać więcej informacji na temat pomijania danych i porządkowania według z-index, zapoznaj się z <link>. Możesz wyłączyć to sprawdzanie, ustawiając
SET <zorderColStatKey> = fałsz
DELTA_SORTOWANIE_Z_KOLUMNAMI_PARTYCJI
<colName> jest kolumną partycji. Kolejność Z może być wykonywana tylko na kolumnach danych.
Udostępnianie różnicowe
NIE_ISTNIEJE_KOD_AKTYWACJI_DELTA_SHARING
SQLSTATE: brak przypisania
Nie znaleziono tokenu aktywacji. Użyty link aktywacji jest nieprawidłowy lub wygasł. Ponownie wygeneruj link aktywacji i spróbuj ponownie.
DELTA_SHARING_CROSS_REGION_SHARE_NIEOBSŁUGIWANE
SQLSTATE: brak przypisania
Udostępnianie między regionami <regionHint> i regionami poza nimi nie jest obsługiwane.
DELTA_SHARING_GET_RECIPIENT_PROPERTIES_NIEPRAWIDŁOWA_ZALEŻNOŚĆ
SQLSTATE: brak przypisania
Widok zdefiniowany za pomocą funkcji current_recipient służy tylko do udostępniania i może być odpytywany tylko po stronie adresata danych. Dostarczony zabezpieczany element z identyfikatorem <securableId> nie jest widokiem Delta Sharing.
DELTA_UDOSTĘPNIANIE_TYPU_ZMIENNEGO_NIEOBSŁUGIWANE
SQLSTATE: brak przypisania
Rodzaj zabezpieczalny <securableKind> nie obsługuje zmienności w Delta Sharing.
DELTA_UDOSTĘPNIANIE_OBRÓĆ_TOKEN_NIEAUTORYZOWANY_DLA_RYNKU
SQLSTATE: brak przypisania
Podany typ zabezpieczenia <securableKind> nie obsługuje rotacji tokenu zainicjowanej przez usługę Marketplace.
Typ autoryzacji DS nie jest dostępny
SQLSTATE: brak przypisania
<dsError>: Typ uwierzytelniania jest niedostępny w jednostce dostawcy <providerEntity>.
DS_CDF_NIE_JEST_WŁĄCZONY
SQLSTATE: brak przypisania
<dsError>: Nie można uzyskać dostępu do zestawienia zmian danych dla <tableName>. CDF nie jest włączona w oryginalnej tabeli delta dla wersji <version>. Skontaktuj się z dostawcą danych.
DS_FORMAT_ZDANYCH_NIE_UDOSTĘPNIONY
SQLSTATE: brak przypisania
<dsError>: Nie można uzyskać dostępu do zestawienia zmian danych dla <tableName>. CDF nie jest udostępniany w tabeli. Skontaktuj się z dostawcą danych.
DS_CDF_RPC_NIEPRAWIDŁOWY_PARAMETR
SQLSTATE: brak przypisania
<dsError>: <message>
Błąd uwierzytelniania klienta dla bazy danych DS_CLIENT_AUTH_ERROR_FOR_DB_DS_SERVER
SQLSTATE: brak przypisania
<dsError>: <message>
Błąd klienta dla bazy danych serwera DS
SQLSTATE: brak przypisania
<dsError>: <message>
BŁĄD WYMIANY TOKENA DS_KLIENT_OAUTH
SQLSTATE: brak przypisania
<dsError>: <message>
WYMIANA_TOKENÓW_DS_KLIENT_OAUTH_NIEAUTORYZOWANA
SQLSTATE: brak przypisania
<dsError>: <message>
DS_CLOUD_VENDOR_NIEDOSTĘPNY
SQLSTATE: brak przypisania
<dsError>: Dostawca chmury jest tymczasowo niedostępny dla <rpcName>, spróbuj ponownie.<traceId>
Polecenie materializacji danych DS zakończyło się niepowodzeniem
SQLSTATE: brak przypisania
<dsError>: zadanie materializacji danych <runId> z organizacji <orgId> nie powiodło się za pomocą polecenia <command>
Polecenie materializacji danych DS nieobsługiwane
SQLSTATE: brak przypisania
<dsError>: zadanie materializacji danych uruchomione <runId> z organizacji <orgId> nie obsługuje polecenia <command>
DS_MATERIALIZACJA_DANYCH_NIE_OBSŁUGIWANA_BEZ_SERVERLESS
SQLSTATE: brak przypisania
<dsError>: <featureName> nie jest obsługiwany, ponieważ funkcja bezserwerowa nie jest obsługiwana lub włączona w przestrzeni roboczej dostawcy. Skontaktuj się z dostawcą danych, aby włączyć bezserwerowe.
DS_DATA_MATERIALIZATION_BRAK_PRAWIDŁOWEGO_PRZESTRZENI_NAZW
SQLSTATE: brak przypisania
<dsError>: Nie można odnaleźć właściwej przestrzeni nazw dla utworzenia materializacji dla <tableName>. Skontaktuj się z dostawcą danych, aby rozwiązać ten problem.
DS_DATA_MATERIALIZATION_RECIPIENT_MISSING_WORKSPACE_ID
SQLSTATE: brak przypisania
<dsError>: nie znaleziono odpowiedniego obszaru roboczego w celu zmaterializowania udostępnionego zasobu. Skontaktuj się z dostawcą danych, aby ponownie utworzyć adresata w obszarze roboczym, w którym dozwolony jest dostęp do zapisu do katalogu udostępnionego zasobu.
URUCHOMIENIE_MATERIALIZACJI_DANYCH_DS_NIE_ISTNIEJE
SQLSTATE: brak przypisania
<dsError>: Zadanie materializacji danych <runId> z organizacji <orgId> nie istnieje
Stan_Nielegalny_DS_DELTA
SQLSTATE: brak przypisania
<dsError>: <message>
DS_DELTA_BRAKUJĄCE_PLIKI_PUNKT_KONTROLNY
SQLSTATE: brak przypisania
<dsError>: Nie można odnaleźć wszystkich części plików punktu kontrolnego w wersji: <version>. <suggestion>
DS_DELTA_NULL_POINTER
SQLSTATE: brak przypisania
<dsError>: <message>
DS_DELTA_RUNTIME_EXCEPTION
SQLSTATE: brak przypisania
<dsError>: <message>
DS_TOKEN_WYGAŚNIĘCIE_BRAK_UPRAWNIEŃ_DO_MARKETPLACE
SQLSTATE: brak przypisania
<dsError>: Podany rodzaj obiektu zabezpieczalnego <securableKind> nie obsługuje akcji wygaszenia tokenu zainicjowanej przez usługę Marketplace.
Nie udało się wysłać żądania otwarcia serwera DS.
SQLSTATE: brak przypisania
<dsError>: <message>
AWARIA_ŻĄDANIA_DO_SERWERA_SAP_DS
SQLSTATE: brak przypisania
<dsError>: <message>
DS_FEATURE_TYLKO_DLA_DATABRICKS_DO_DATABRICKS
SQLSTATE: brak przypisania
<dsError>: <feature> jest włączona tylko w przypadku udostępniania Databricks do Databricks Delta.
DS_FILE_LISTING_EXCEPTION (Błąd listowania plików)
SQLSTATE: brak przypisania
<dsError>: <storage><message>
Wyjątek_signowania_pliku_DS
SQLSTATE: brak przypisania
<dsError>: <message>
Odświeżenie metadanych tabeli zewnętrznej DS nie powiodło się.
SQLSTATE: brak przypisania
<dsError>: <message>
DS_GATEKEEPER_DISABLED
SQLSTATE: brak przypisania
<dsError>: Ta funkcja jest wyłączona dla konta. Skontaktuj się z dostawcą danych.
DS_HADOOP_CONFIG_NOT_SET (Konfiguracja Hadoop nie jest ustawiona)
SQLSTATE: brak przypisania
<dsError>: <key> nie jest ustawiana przez obiekt wywołujący.
DS_ILLEGAL_STATE (nielegalny stan)
SQLSTATE: brak przypisania
<dsError>: <message>
Wewnętrzny błąd DS z bazy danych lub serwera
SQLSTATE: brak przypisania
<dsError>: <message>
DS_INVALID_AZURE_PATH (nieprawidłowa ścieżka Azure)
SQLSTATE: brak przypisania
<dsError>: nieprawidłowa ścieżka platformy Azure: <path>.
DS_INVALID_DELTA_ACTION_OPERATION (Nieprawidłowa operacja akcji delta)
SQLSTATE: brak przypisania
<dsError>: <message>
DS_NIEPRAWIDŁOWE_POLE
SQLSTATE: brak przypisania
<dsError>: <message>
Niepoprawna operacja iteratora
SQLSTATE: brak przypisania
<dsError>: <message>
DS_NIEPRAWIDŁOWA_WARTOŚĆ_PARAMETRU
SQLSTATE: brak przypisania
<dsError>: Nieprawidłowy parametr dla <rpcName> z powodu <cause>.
DS_INVALID_PARTITION_SPEC (Nieprawidłowa specyfikacja partycji)
SQLSTATE: brak przypisania
<dsError>: <message>
DS_NIEPRAWIDŁOWA_ODPOWIEDŹ_OD_DS_SERWERA
SQLSTATE: brak przypisania
<dsError>: <message>
Błąd zapytania DS_MATERIALIZATION
SQLSTATE: brak przypisania
<dsError>: kwerenda nie powiodła się dla <schema>.
<table> z witryny Share <share>.
ZAPYTANIE_DS_UTRWALENIA_PRZEKROCZYŁO_LIMIT_CZASU
SQLSTATE: brak przypisania
<dsError>: Przekroczono limit czasu zapytania dla <schema>.Udostępnij <table> z <share> po <timeoutInSec> sekundach.
DS_MIGRATED_MANAGEMENT_API_CALLED
SQLSTATE: brak przypisania
<dsError>: UC RPC <rpcName> nie powiodło się.
KLUCZ_IDEMPOTENCYJNY_DS_BRAK
SQLSTATE: brak przypisania
<dsError>: Klucz idempotentności jest wymagany podczas zapytania <schema>.
<table> z Share <share> asynchronicznie.
DS_MISSING_SERVERLESS_BUDGET_POLICY
SQLSTATE: brak przypisania
<dsError>: Operacja używa bezserwerowej usługi Databricks dostawcy, ale w udziale brakuje zasad budżetu bezserwerowego. Skontaktuj się z dostawcą danych, aby dodać zasady budżetu bezserwerowego do udostępnienia.
Więcej niż jeden zestaw parametrów RPC
SQLSTATE: brak przypisania
<dsError>: podaj tylko jedną z: <parameters>.
Połączenie sieciowe DS zostało zamknięte
SQLSTATE: brak przypisania
<dsError>: Połączenie sieciowe zostało zamknięte dla <rpcName> z powodu <errorCause>. Proszę spróbować ponownie.<traceId>
Limit czasu połączenia sieciowego DS
SQLSTATE: brak przypisania
<dsError>: Przekroczenie limitu czasu połączenia sieciowego z <rpcName> z powodu <errorCause>, proszę spróbować ponownie.<traceId>
BŁĄD SIECI DS
SQLSTATE: brak przypisania
<dsError>: Błąd sieci dla <rpcName> z powodu <errorCause>, proszę spróbować ponownie.<traceId>
DS_BRAK_PRZYDZIELONEGO_METAMAGAZYNU
SQLSTATE: brak przypisania
<dsError>: brak przypisanego magazynu metadanych dla bieżącego obszaru roboczego (workspaceId: <workspaceId>).
DS_O2D_OIDC_GENEROWANIE_TOKENA_TOŻSAMOŚCI_OBCIĄŻENIA_NIEPOWODZENIE
SQLSTATE: brak przypisania
<dsError>: Nie udało się wygenerować tokenu tożsamości zadania dla dostawcy O2D OIDC: <message>.
NIEZGODNOŚĆ ARGUMENTÓW PAGINACJI I ZAPYTANIA
SQLSTATE: brak przypisania
<dsError>: Niezgodność stron lub argumentów zapytania.
DS_KOLUMNY_PARTYCJI_ZMIENIONE_NAZWY
SQLSTATE: brak przypisania
<dsError>: Kolumna partycji [<renamedColumns>] zmieniona w udostępnionej tabeli. Skontaktuj się z dostawcą danych, aby rozwiązać ten problem.
DS_ZAPYTANIE_PRZED_ROZPOCZĘCIEM_WERSJI
SQLSTATE: brak przypisania
<dsError>: Możesz zapytanie o dane tabeli od wersji <startVersion>.
DS_ZAPYTANIE_KONIEC_WERSJI_PO_NAJNOWSZEJ_WERSJI
SQLSTATE: brak przypisania
<dsError>: Podana wersja końcowa (<endVersion>) do odczytywania danych jest nieprawidłowa. Wersja końcowa nie może być większa niż najnowsza wersja tabeli(<latestVersion>).
DS_START_WERSJA_PO_NAJNOWSZEJ_WERSJI
SQLSTATE: brak przypisania
<dsError>: Podana wersja początkowa (<startVersion>) do odczytywania danych jest nieprawidłowa. Wersja początkowa nie może być większa niż najnowsza wersja tabeli(<latestVersion>).
Limit czasu zapytania DS na serwerze
SQLSTATE: brak przypisania
<dsError>: Wystąpił przekroczenie limitu czasu podczas przetwarzania <queryType> na <tableName> po <numActions> aktualizacjach w <numIter> iteracjach.<progressUpdate> <suggestion> <traceId>
Limit prędkości na serwerze DS
SQLSTATE: brak przypisania
<dsError>: <message>
DS_RECIPIENT_RPC_NIEPRAWIDŁOWY_PARAMETR
SQLSTATE: brak przypisania
<dsError>: <message>
Błąd DS_RECON_FAILED_ON_UC_WRITE_RPC podczas zapisu przez RPC
SQLSTATE: brak przypisania
<dsError>: UC RPC <rpcName> nie powiodło się, zostało przekonwertowane na INTERNAL_ERROR.
ZASÓB_DS_JUŻ_ISTNIEJE_NA_SERWERZE_DS
SQLSTATE: brak przypisania
<dsError>: <message>
Zasoby_wyczerpane
SQLSTATE: brak przypisania
<dsError>: przekroczono limit <resource>: [<limitSize>]<suggestion>.<traceId>
Zasób_DS_Nie_Znaleziono_Na_Serwerze_DS
SQLSTATE: brak przypisania
<dsError>: <message>
DS_SAP_UNSUPPORTED_DBR_VERSION
SQLSTATE: brak przypisania
<dsError>: Łącznik SAP udostępniania różnicowego nie jest obsługiwany w systemie DBR <dbrVersion>. Minimalne obsługiwane wersje to: <supportedVersions>.
ZNALEZIONO_KONFLIKT_NAZWY_SCHEMATU_DS
SQLSTATE: brak przypisania
<dsError>: Wykaz <catalogName> zawiera już nazwy schematów, które znajdują się w udziale <shareName>.
<description> konfliktujących nazw schematów: <schemaNamesInCommon>.
DS_PRZEKROCZENIE_CZASU_OCZEKIWANIA
SQLSTATE: brak przypisania
<dsError>: Przekroczono limit czasu oczekiwania na serwer dla <rpcName> z powodu <errorCause>, proszę spróbować ponownie.<traceId>
DS_SERVICE_DENIED
SQLSTATE: brak przypisania
<dsError>: Żądanie zostało odrzucone, ponieważ usługa jest zbyt obciążona. Spróbuj ponownie później po pewnym czasie.
UDOSTĘPNIENIE_DS_JUŻ_ZAMONTOWANE_DO_KATALOGU
SQLSTATE: brak przypisania
<dsError>: Udział <shareName> od dostawcy <providerName> jest już zamontowany w katalogu <catalogName>.
DS_SYSTEM_PRZESTRZEN_ROBOCZA_GRUPA_UPRAWNIENIE_NIEOBSLUGIWANE
SQLSTATE: brak przypisania
Nie można udzielić uprawnień na <securableType> dla grupy wygenerowanej przez system <principal>.
DS_TABLE_METADATA_TEMPORARILY_UNAVAILABLE
SQLSTATE: brak przypisania
<dsError>: metadane tabeli są niedostępne. Spróbuj ponownie za kilka chwil.
Podróż w czasie niedozwolona
SQLSTATE: brak przypisania
<dsError>: Zapytanie dotyczące podróży w czasie nie jest dozwolone, chyba że historia jest udostępniana w <tableName>. Skontaktuj się z dostawcą danych.
DS_NIEAUTORYZOWANY
SQLSTATE: brak przypisania
<dsError>: Brak autoryzacji.
NIEAUTORYZOWANY_D2O_OIDC_ODBIORCA
SQLSTATE: brak przypisania
<dsError>: Nieautoryzowany odbiorca OIDC D2O: <message>.
NIEZNANY_WYJĄTEK_DS
SQLSTATE: brak przypisania
<dsError>: <traceId>
DS_NIEZNANE_ID_ZAPYTANIA
SQLSTATE: brak przypisania
<dsError>: nieznany identyfikator zapytania <queryID> dla <schema>.
<table> z witryny Share <share>.
Nieznany status zapytania
SQLSTATE: brak przypisania
<dsError>: Nieznany stan zapytania dla identyfikatora zapytania <queryID> dla <schema>.
<table> z witryny Share <share>.
DS_NIEZNANE_RPC
SQLSTATE: brak przypisania
<dsError>: Nieznany rpc <rpcName>.
DS_NIEOBSŁUGIWANA_WERSJA_CZYTNIKA_DELTA
SQLSTATE: brak przypisania
<dsError>: wersja czytnika protokołu delta <tableReaderVersion> jest wyższa niż <supportedReaderVersion> i nie może być obsługiwana na serwerze udostępniania delta.
DS_NIEOBSŁUGIWANE_FUNKCJE_TABELI_DELTA
SQLSTATE: brak przypisania
<dsError>: funkcje tabeli <tableFeatures> znajdują się w tabeli<versionStr> <historySharingStatusStr> <optionStr>
Nieobsługiwana operacja
SQLSTATE: brak przypisania
<dsError>: <message>
DS_ NIEWSPÓLNY_SCHEMAT_PRZECHOWYWANIA
SQLSTATE: brak przypisania
<dsError>: Nieobsługiwany schemat przechowywania: <scheme>.
DS_NIEOBSŁUGIWANY_TYP_TABELI
SQLSTATE: brak przypisania
<dsError>: nie udało się pobrać <schema>.
<table> z opcji Udostępnij <share> , ponieważ tabela o typie [<tableType>] nie jest obecnie obsługiwana w zapytaniach <queryType>.
DS_UNSUPPORTED_TABLE_TYPE_IN_MST
SQLSTATE: brak przypisania
<dsError>: Kwerenda typu tabeli [<tableType>] nie jest obsługiwana w kwerendzie wieloskładnikowej (MST).
BŁĄD_KONTEKSTU_UŻYTKOWNIKA
SQLSTATE: brak przypisania
<dsError>: <message>
Funkcje udostępniania DS_VIEW są niedozwolone
SQLSTATE: brak przypisania
<dsError>: następujące funkcje: <functions> nie są dozwolone w zapytaniu udostępniania widoku.
Nazwa domeny przestrzeni roboczej nie została ustawiona
SQLSTATE: brak przypisania
<dsError>: domena <workspaceId> obszaru roboczego nie jest ustawiona.
WORKSPACE_DS_NIE_ZNALEZIONO
SQLSTATE: brak przypisania
<dsError>: nie znaleziono obszaru roboczego <workspaceId>.
Automatyczny ładowacz
Dodawanie nowego elementu nie jest obsługiwane.
Tryb ewolucji schematu <addNewColumnsMode> nie jest obsługiwany w przypadku określenia schematu. Aby użyć tego trybu, możesz podać schemat za pomocą cloudFiles.schemaHints zamiast tego.
CF_BŁĘDNE_OPCJE_AUTORYZACJI (niejednoznaczność)
Znaleziono opcje uwierzytelniania dla ustawień powiadomień dla (domyślnego) katalogu.
tryb listowania
<options>
Jeśli chcesz użyć trybu powiadamiania o pliku, ustaw jawnie:
.option("cloudFiles.<useNotificationsKey>", "true")
Alternatywnie, jeśli chcesz pominąć walidację opcji i zignorować te opcje
opcje uwierzytelniania, które można ustawić:
.option("cloudFiles.ValidateOptionsKey>", "false")
Błąd: Niejednoznaczny tryb listowania inkrementalnego CF.
Tryb listy przyrostowej (cloudFiles.<useIncrementalListingKey>)
i powiadomienia o plikach (cloudFiles.<useNotificationsKey>)
zostały włączone jednocześnie.
Upewnij się, że wybrano tylko jeden.
BRAK_OPCJI_UWIERZYTELNIANIA_AZURE
Podaj poświadczenia usługi Databricks lub zarówno clientId, jak i clientSecret na potrzeby uwierzytelniania na platformie Azure.
CF_AZURE_UWIERZYTELNIANIE_WIELE_OPCJI
Po podaniu poświadczeń usługi Databricks należy podać żadne inne opcje poświadczeń (na przykład clientId, clientSecret lub connectionString).
CF_AZURE_OBOWIĄZKOWE_SUFFIKSY_MAGAZYNOWE
Wymagane są adlsBlobSuffix i adlsDfsSuffix dla platformy Azure
CF_NIEZGODNOŚĆ_BUCKETA
To, co jest wewnątrz <storeType> w zdarzeniu pliku <fileEvent>, różni się od tego, co jest oczekiwane przez źródło: <source>.
Nie można zmienić schematu, log jest pusty (CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY)
Nie można rozwinąć schematu, gdy dziennik schematu jest pusty. Lokalizacja dziennika schematu: <logPath>
CF_NIE_MOŻNA_PRZETWORZYĆ_WIADOMOŚCI_KOLEJKI
Nie można przeanalizować następującego komunikatu kolejki: <message>
CF_CANNOT_RESOLVE_CONTAINER_NAME – Nie można rozpoznać nazwy kontenera
Nie można rozpoznać nazwy kontenera z ścieżki: <path>, Rozpoznany URI: <uri>
CF_NIE_MOŻNA_URUCHOMIĆ_LISTY_KATALOGÓW
Nie można wykonać listingu katalogu, gdy działa asynchroniczny wątek uzupełniający.
CF_ŹRÓDŁO_CZYSTE_POZWÓL_NADPISAĆ_OBA_ON
Nie można jednocześnie włączyć ustawień cloudFiles.cleanSource i cloudFiles.allowOverwrites.
CF_NIE_MOŻNA_PRZENIEŚĆ_PLIKÓW_W_OBRĘBIE_ŚCIEŻKI_ŹRÓDŁOWEJ
Przenoszenie plików do katalogu znajdującego się wewnątrz ścieżki, z której są pobierane dane, nie jest obsługiwane.
CF_CLEAN_SOURCE_NOT_ENABLED (Źródło czyste nie jest włączone)
Dla tego obszaru roboczego nie włączono funkcji CleanSource. Aby uzyskać pomoc, skontaktuj się z pomocą techniczną usługi Databricks.
CF_CLEAN_SOURCE_NOT_SUPPORTED
Funkcja CleanSource nie jest obsługiwana w przypadku programu <op>.
CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
System Auto Loader nie może archiwizować przetworzonych plików, ponieważ nie posiada uprawnień do zapisu w katalogu źródłowym ani w docelowym katalogu.
Aby uzyskać więcej informacji, zobacz CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
Powielona kolumna w danych
Wystąpił błąd podczas próby wywnioskowania schematu partycji tabeli. Masz tę samą kolumnę zduplikowaną w ścieżkach danych i partycji. Aby zignorować wartość partycji, podaj kolumny partycji jawnie przy użyciu: .option("cloudFiles.<partitionColumnsKey>", "{comma-separated-list}")
Katalog pusty dla wywnioskowania schematu
Nie można wnioskować schematu, gdy ścieżka wejściowa <path> jest pusta. Spróbuj uruchomić strumień, gdy w ścieżce wejściowej znajdują się pliki lub określ schemat.
CF_EVENT_GRID_AUTH_ERROR (Błąd uwierzytelnienia siatki zdarzeń)
Nie można utworzyć subskrypcji usługi Event Grid. Upewnij się, że Państwa usługa
Principal ma <permissionType> subskrypcji usługi Event Grid. Zobacz więcej szczegółów na stronie:
<docLink>
Błąd tworzenia siatki zdarzeń CF
Nie można utworzyć subskrypcji usługi Event Grid. Proszę się upewnić, że Microsoft.EventGrid jest
zarejestrowany jako dostawca zasobów w ramach subskrypcji. Zobacz więcej szczegółów na stronie:
<docLink>
BŁĄD_CFNIE_ZNALEZIONO_SIATKI_ZDARZEŃ
Nie można utworzyć subskrypcji usługi Event Grid. Upewnij się, że magazyn jest odpowiednio zabezpieczony.
konto (<storageAccount>) znajduje się w Twojej grupie zasobów (<resourceGroup>) i
Konto magazynowe jest kontem "StorageV2 (ogólnego przeznaczenia v2)". Zobacz więcej szczegółów na stronie:
<docLink>
POWIADOMIENIE_O_WYDARZENIU_NIEOBSŁUGIWANE
Tryb powiadamiania o zdarzeniach modułu automatycznego ładującego nie jest obsługiwany dla <cloudStore>.
CF_EVENT_NOTIFICATION_SETUP_FAILED
Nie można skonfigurować zasobów powiadomień dotyczących plików dla automatycznego modułu ładującego.
Aby uzyskać więcej informacji, zobacz CF_EVENT_NOTIFICATION_SETUP_FAILED
CF_FAILED_TO_CHECK_STREAM_NEW - Nie udało się sprawdzić nowego strumienia
Nie można sprawdzić, czy strumień jest nowy
CF_NIE_UTWORZONO_PRENUMERATY_PUBSUB
Nie można utworzyć subskrypcji: <subscriptionName>. Subskrypcja o tej samej nazwie już istnieje i jest skojarzona z innym tematem: <otherTopicName>. Tematem, którego sobie życzysz, jest <proposedTopicName>. Usuń istniejącą subskrypcję lub utwórz subskrypcję z nowym sufiksem zasobu.
CF_FAILED_TO_CREATED_PUBSUB_TOPIC - Nie udało się utworzyć tematu Pub/Sub
Nie można utworzyć tematu: <topicName>. Temat o tej samej nazwie już istnieje.
<reason> Usuń istniejący temat lub spróbuj ponownie za pomocą innego sufiksu zasobu
Nie udało się usunąć powiadomienia GCP.
Nie udało się usunąć powiadomienia z identyfikatorem <notificationId> w kubełku <bucketName> dla tematu <topicName>. Spróbuj ponownie lub ręcznie usuń powiadomienie za pośrednictwem konsoli GCP.
Nie udało się zdeserializować utrwalonego schematu
Nie można wykonać deserializacji zachowanego schematu z ciągu: "<jsonSchema>"
CF_NIE_UDANO_SIĘ_ROZWINĄĆ_SCHEMATU
Nie można rozwijać schematu bez dziennika schematu.
The translation of such error codes usually remains as-is because they are often referenced in technical contexts exactly as they appear. However, if the context allows and there's a need to explain it in Polish for better user understanding, a potential translation could describe this code, such as "BŁĄD: Nie znaleziono dostawcy" for informational purposes.
Nie można odnaleźć dostawcy dla <fileFormatInput>
CF_NIE_UDALO_SIE_WYPROWADZIC_SCHEMAT
Nie można wywnioskować schematu dla formatu <fileFormatInput> z istniejących plików w ścieżce wejściowej <path>.
Aby uzyskać więcej szczegółów, zobacz CF_FAILED_TO_INFER_SCHEMA
CF_FAILED_TO_WRITE_TO_SCHEMA_LOG (Nie udało się zapisać do dziennika schematu)
Nie udało się zapisać w dzienniku schematów w lokalizacji <path>.
CF_FILE_FORMAT_REQUIRED - Wymagany format pliku
Nie można odnaleźć wymaganej opcji: cloudFiles.format.
Znaleziono wiele subskrypcji PubSub dla autoloadera CF
Znaleziono wiele subskrypcji (<num>) z prefiksem Auto Loader dla tematu <topicName>:
<subscriptionList>
W każdym temacie powinna istnieć tylko jedna subskrypcja. Ręcznie upewnij się, że temat nie ma wielu subskrypcji.
Uwierzytelnianie_CF_GCP
Podaj wszystkie następujące elementy: <clientEmail>, <client>,
<privateKey>i <privateKeyId> lub podaj <serviceCredential>, aby skorzystać z poświadczenia usługi Databricks.
Alternatywnie, nie podawaj żadnego z nich, aby użyć domyślnego łańcucha dostawców poświadczeń GCP do uwierzytelniania względem zasobów GCP.
Przekroczono limit etykiet GCP CF
Otrzymano zbyt wiele etykiet (<num>) dla zasobu GCP. Maksymalna liczba etykiet na zasób wynosi <maxNum>.
CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED (Przekroczono limit liczby tagów zasobów w GCP)
Otrzymano zbyt wiele tagów zasobów dla zasobu GCP (<num>). Maksymalna liczba tagów na jeden zasób wynosi <maxNum>, ponieważ tagi zasobów są przechowywane jako etykiety GCP zasobów, a określone tagi usługi Databricks zużywają część tego przydziału etykietowego.
Niekompletny plik dziennika w dzienniku schematu
Niekompletny plik dziennika w dzienniku schematu na ścieżce <path>
CF_NIEKOMPLETNY_PLIK_METADATA_W_PUNKCIE_KONTROLNYM
Niekompletny plik metadanych w punkcie kontrolnym Auto Loader
CF_NIEPRAWIDŁOWE_UŻYCIE_BATCH
CloudFiles to źródło przesyłania strumieniowego. Proszę użyć spark.readStream zamiast spark.read. Aby wyłączyć to sprawdzanie, ustaw <cloudFilesFormatValidationEnabled> na wartość false.
CF_INCORRECT_SQL_PARAMS
Metoda cloud_files akceptuje dwa wymagane parametry ciągu: ścieżkę do załadowania i format pliku. Opcje czytnika plików muszą być podane w mapie ciągu klucz-wartość. na przykład cloud_files("path", "json", map("option1", "value1")). Odebrano: <params>
CF_NIEPRAWIDŁOWE_WYKORZYSTANIE_STRUMIENIA
Aby użyć pliku "cloudFiles" jako źródła przesyłania strumieniowego, podaj format pliku z opcją "cloudFiles.format" i użyj polecenia .load(), aby utworzyć ramkę danych. Aby wyłączyć to sprawdzanie, ustaw <cloudFilesFormatValidationEnabled> na wartość false.
CF_INTERNAL_ERROR
Auto loader napotkał błąd wewnętrzny. Aby uzyskać pomoc, skontaktuj się z pomocą techniczną usługi Databricks.
Aby uzyskać więcej informacji, zobacz CF_INTERNAL_ERROR
CF_INVALID_ARN
Nieprawidłowy ARN: <arn>
CF_NIEPRAWIDŁOWY_CERTYFIKAT_AZURE
Nie można przeanalizować klucza prywatnego dostarczonego z opcją cloudFiles.certificate. Podaj prawidłowy klucz publiczny w formacie PEM.
NIEWAŻNY_KLUCZ_PRYWATNY_CERTYFIKATU_AZURE
Nie można przeanalizować klucza prywatnego dostarczonego z opcją cloudFiles.certificatePrivateKey. Podaj prawidłowy klucz prywatny w formacie PEM.
CF_NIEPRAWIDŁOWY_PUNKT_KONTROLNY
Ten punkt kontrolny nie jest prawidłowym źródłem CloudFiles
CF_NIEPRAWIDŁOWY_TRYB_CZYSTEGO_ŹRÓDŁA
Nieprawidłowy tryb dla opcji czystego źródła <value>.
CF_INVALID_GCP_RESOURCE_TAG_KEY (Niewłaściwy klucz tagu zasobu GCP)
Nieprawidłowy klucz tagu zasobu dla zasobu GCP: <key>. Klucze muszą zaczynać się od małej litery, mieć długość od 1 do 63 znaków i zawierać tylko małe litery, cyfry, podkreślenia (_) i łączniki (-).
Nieprawidłowa wartość tagu zasobu GCP
Nieprawidłowa wartość tagu zasobu dla zasobu GCP: <value>. Wartości muszą mieć długość od 0 do 63 znaków i muszą zawierać tylko małe litery, cyfry, podkreślenia (_) i łączniki (-).
CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS (Nieprawidłowe klucze opcji zarządzanych zdarzeń plików)
Auto Loader nie obsługuje następujących opcji, gdy jest używany z zarządzanymi zdarzeniami plików:
<optionList>
Zalecamy usunięcie tych opcji, a następnie ponowne uruchomienie strumienia.
Nieprawidłowa odpowiedź na zarządzane zdarzenia plikowe
Nieprawidłowa odpowiedź z usługi zarządzania zdarzeniami plików. Aby uzyskać pomoc, skontaktuj się z pomocą techniczną usługi Databricks.
Aby uzyskać więcej szczegółów, zobacz CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
CF_NIEPRAWIDŁOWY_TYP_ROZBUDOWY_SCHEMATU
cloudFiles.
<schemaEvolutionModeKey> musi być jednym z {
<addNewColumnsWithTypeWidening>
<addNewColumns>
<failOnNewColumns>
<rescue>
"<noEvolution>"}
Nieważna opcja podpowiedzi schematu
Wskazówki schematu mogą określać tylko określoną kolumnę raz.
W tym przypadku ponowne zdefiniowanie kolumny: <columnName>
wielokrotnie w schemaHints:
<schemaHints>
CF_INVALID_SCHEMA_HINT_COLUMN (No translation needed for technical identifier)
Wskazówek schematu nie można używać do zastępowania typów zagnieżdżonych map i tablic.
Kolumna powodująca konflikt: <columnName>
OGRANICZENIE_OSTATNIEGO_ODCZYTU_WYMAGANE_CZĘŚĆ_CF
Funkcja latestOffset powinna być wywoływana z użyciem ReadLimit na tym źródle.
CF_LOG_FILE_MALFORMED (Niewłaściwy format pliku dziennika)
Plik dziennika został nieprawidłowo sformułowany: nie można odczytać poprawnej wersji dziennika z <fileName>.
CF_MANAGED_FILE_EVENTS_DOPEŁNIENIE_ZDARZEŃ_W_TRAKCIE
Polecono, aby Auto Loader zignorował istniejące pliki w lokalizacji zewnętrznej, ustawiając parametr includeExistingFiles na wartość false. Usługa zarządzania zdarzeniami plików nadal odkrywa istniejące pliki w lokalizacji zewnętrznej. Spróbuj ponownie po zakończeniu zdarzeń zarządzania plikami, gdy wszystkie pliki w lokalizacji zewnętrznej zostaną odnalezione.
KOORDYNOWANE_ZDARZENIA_PLIKÓW_ENDPOINT_NIE_ZNALEZIONY
Używasz Auto Loader z zarządzanymi zdarzeniami plików, ale wydaje się, że lokalizacja zewnętrzna dla ścieżki wejściowej "<path>" nie ma włączone zdarzenia plików lub ścieżka wejściowa jest nieprawidłowa. Proszę poprosić administratora Databricks o włączenie zdarzeń plikowych w zewnętrznej lokalizacji dla Państwa ścieżki wejściowej.
CF_MANAGED_FILE_EVENTS_ENDPOINT_BRAK_UPRAWNIEŃ
Używasz Automatycznego Załadunku z zarządzanymi zdarzeniami plików, ale nie masz dostępu do zewnętrznej lokalizacji ani woluminu dla ścieżki wejściowej "<path>" lub ścieżka wejściowa jest nieprawidłowa. Poproś administratora usługi Databricks o udzielenie uprawnień do odczytu dla lokalizacji zewnętrznej lub woluminu lub podaj prawidłową ścieżkę wejściową w istniejącej lokalizacji zewnętrznej lub woluminie.
CF_MANAGED_FILE_EVENTS_INVALID_CONTINUATION_TOKEN
Pozycja odczytu strumienia w pamięci podręcznej zdarzeń plików została unieważniona. Może się tak zdarzyć, ponieważ konfiguracja zdarzeń plików została zaktualizowana (na przykład podany adres URL kolejki został zmieniony lub zdarzenia plików zostały wyłączone i ponownie włączone). Aby uzyskać pomoc, skontaktuj się z pomocą techniczną usługi Databricks.
CF_ZARZĄDZANE_ZDARZENIA_PLIKU_CZY_JEST_ZAPOWIEDZIĄ
Automatyczne ładowanie ze zdarzeniami zarządzania plików jest funkcjonalnością w wersji zapoznawczej. Aby kontynuować, skontaktuj się z pomocą techniczną usługi Databricks lub wyłącz opcję cloudFiles.useManagedFileEvents.
CF_MANAGED_FILE_EVENTS_RATE_LIMIT_EXCEEDED
Jest uruchomionych zbyt wiele współbieżnych strumieni automatycznego modułu ładującego. Aby rozwiązać ten problem, zmniejsz współbieżność strumienia, jeśli to możliwe, lub utwórz oddzielne woluminy dla każdego podkatalogu podczas ładowania z wielu podkatalogów w lokalizacji zewnętrznej. Jeśli problem będzie się powtarzać, skontaktuj się z przedstawicielem usługi Databricks.
CF_MAX_MUSI_BYĆ_DODATNI
wartość maksymalna musi być dodatnia
Plik metadanych CF jest jednocześnie używany
Wiele zapytań przesyłania strumieniowego jednocześnie używa <metadataFile>
BŁĄD_BRAKUJACEGO_PLIKU_METADATA_CF
Brak pliku metadanych w katalogu źródłowego punktu kontrolnego źródła przesyłania strumieniowego. Te metadane
plik zawiera ważne opcje domyślne dla strumienia, więc nie można ponownie uruchomić strumienia
Teraz. Aby uzyskać pomoc, skontaktuj się z pomocą techniczną usługi Databricks.
BŁĄD_BRAKUJĄCEJ_KOLUMNY_PARTYCJI
Kolumna partycji <columnName> nie istnieje w podanym schemacie:
<schema>
Brakujący schemat w trybie bez ścieżki
Określ schemat przy użyciu metody .schema(), jeśli ścieżka nie jest dostarczana do źródła CloudFiles podczas korzystania z trybu powiadamiania o pliku. Alternatywnie, aby moduł automatycznego ładowania wywnioskował schemat, podaj ścieżkę podstawową w metodzie .load().
CF_WIELE_PUBSUB_POWIADOMIEŃ_DLA_TEMATU (CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC)
Znaleziono istniejące powiadomienia dotyczące tematu <topicName> w bucket <bucketName>.
powiadomienie, identyfikator
<notificationList>
Aby uniknąć obciążania subskrybenta niepożądanymi zdarzeniami, usuń powyższe powiadomienia i ponów próbę.
BŁĄD_NOWA_PARTYCJA_CF
Nowe kolumny partycji zostały wywnioskowane z plików: [<filesList>]. Podaj wszystkie kolumny partycji w schemacie lub podaj listę kolumn partycji, dla których chcesz wyodrębnić wartości przy użyciu: .option("cloudFiles.partitionColumns", "{rozdzielane przecinkami-list|empty-string}")
CF_PARTITION_BŁĄD_INFERENCJI
Wystąpił błąd podczas próby wywnioskowania schematu partycji bieżącej partii plików. Podaj kolumny partycji jawnie przy użyciu: .option("cloudFiles.<partitionColumnOption>", "{comma-separated-list}")
Ścieżka CF nie istnieje dla odczytu plików
Nie można odczytać plików, gdy ścieżka wejściowa <path> nie istnieje. Upewnij się, że ścieżka wejściowa istnieje i spróbuj ponownie.
CF_PERIODIC_BACKFILL_NOT_SUPPORTED - Okresowe uzupełnianie nie jest obsługiwane
Okresowe wypełnianie nie jest obsługiwane, jeśli wypełnianie asynchroniczne jest wyłączone. Możesz włączyć asynchroniczne wypełnianie/wyświetlanie listy katalogów, ustawiając spark.databricks.cloudFiles.asyncDirListing na true
Niedopasowanie_prefiksu_CF
Znaleziono niezgodne zdarzenie: klucz <key> nie ma prefiksu: <prefix>
CF_PROTOCOL_MISMATCH (Niezgodność protokołu)
<message>
Jeśli nie musisz wprowadzać żadnych innych zmian w kodzie, ustaw język SQL
konfiguracja: "<sourceProtocolVersionKey> = <value>"
aby wznowić transmisję. Zapoznaj się z tematem:
<docLink>
aby uzyskać więcej informacji.
Błąd: region CF nie został znaleziony
Nie można pobrać domyślnego regionu platformy AWS. Określ region przy użyciu opcji cloudFiles.region.
CF_RESOURCE_SUFFIX_EMPTY
Nie można utworzyć usług powiadomień: sufiks zasobu nie może być pusty.
CF_RESOURCE_SUFFIX_NIEPRAWIDŁOWY_ZNAK_AWS
Nie można utworzyć usług powiadomień: sufiks zasobu może zawierać tylko znaki alfanumeryczne, łączniki (-) i podkreślenia (_).
Niepoprawny znak w sufiksie zasobu CF w Azure
Nie można utworzyć usług powiadomień: sufiks zasobu może zawierać tylko małe litery, cyfry i kreski (-).
SUFFIX_ZASOBU_CF_NIEWŁAŚCIWY_ZNAK_GCP
Nie można utworzyć usług powiadomień: sufiks zasobu może zawierać tylko znaki alfanumeryczne, łączniki (-), podkreślenia (_), kropki (.), tyldy (~) plus znaki (+) i znaki procentowe (<percentSign>).
LIMIT SUFIKSU ZASOBU_CF
Nie można utworzyć usług powiadomień: sufiks zasobu nie może zawierać więcej niż <limit> znaków.
CF_RESOURCE_SUFFIX_LIMIT_GCP
Nie można utworzyć usług powiadomień: sufiks zasobu musi zawierać się między <lowerLimit> a <upperLimit> znakami.
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY (klucz tagu zasobu Google Cloud Platform)
Znaleziono ograniczony klucz tagu zasobu GCP (<key>). Następujące klucze tagów zasobów GCP są ograniczone dla Auto Loader: [<restrictedKeys>]
RECYKLING_PLIKU_PRZEKRACZA_MAKSYMALNY_WIEK_PLIKU
parametr cloudFiles.cleanSource.retentionDuration nie może być większy niż cloudFiles.maxFileAge.
CF_TEN_SAMY_PUB_SUB_TEMAT_NOWY_PREFIX_KLUCZA
Nie można utworzyć powiadomienia dla tematu: <topic> z prefiksem: <prefix>. Istnieje już temat o tej samej nazwie z innym prefiksem: <oldPrefix>. Spróbuj użyć innego sufiksu zasobu do instalacji lub usuń istniejącą konfigurację.
Nie udało się głębokie klonowanie schematu dziennika CF
Nie można sklonować i zmigrować żadnych wpisów dziennika schematu z dziennika schematu źródłowego.
CF_SFTP_BRAKUJE_HASŁA_LUB_PLIKU_KLUCZA
Dla sfTP należy określić hasło lub plik klucza.
Określ hasło w źródłowym identyfikatorze URI lub za pośrednictwem <passwordOption>lub określ zawartość pliku klucza za pośrednictwem <keyFileOption>.
CF_SFTP_NIEAKTYWNE
Uzyskiwanie dostępu do plików SFTP nie jest włączone. Aby uzyskać pomoc, skontaktuj się z pomocą techniczną usługi Databricks.
CF_SFTP_REQUIRE_FULL_PATH
Określ składniki pełnej ścieżki dla źródła SFTP w postaci sftp://$user@$host:$port/$path, aby zapewnić dokładne wyszukiwanie połączenia UC.
CF_SFTP_WYMAGAJ_UC_KLASĘ
Do uzyskiwania dostępu do plików SFTP wymagany jest klaster z włączoną obsługą interfejsu użytkownika. Aby uzyskać pomoc, skontaktuj się z pomocą techniczną usługi Databricks.
Nazwa użytkownika CF_SFTP nie znaleziona
Nazwa użytkownika musi być określona dla protokołu SFTP.
Podaj nazwę użytkownika w źródłowym URI lub za pośrednictwem <option>.
ŚCIEŻKA_KATALOGU_ŹRÓDŁOWEGO_WYMAGANA
Podaj ścieżkę katalogu źródłowego z opcją path
ŹRÓDŁO_CF_NIEOBSŁUGIWANE
Źródło plików w chmurze obsługuje tylko ścieżki S3, Azure Blob Storage (wasb/wasbs), Azure Data Lake Gen1 (adl) i Gen2 (abfs/abfss) w tej chwili. ścieżka: '<path>', rozwiązywany URI: '<uri>'
CF_STATE_BŁĘDNE_PARAMETRY_SQL
Funkcja cloud_files_state akceptuje parametr typu string, który reprezentuje katalog punktów kontrolnych strumienia cloudFiles lub wieloczęściową nazwę tabeli (tableName) identyfikującą tabelę przesyłania strumieniowego, oraz opcjonalny drugi parametr całkowity reprezentujący wersję punktu kontrolnego, aby załadować stan. Drugi parametr może również być 'latest', aby odczytać najnowszy punkt kontrolny. Odebrano: <params>
CF_STAN_NIEPRAWIDŁOWA_ŚCIEŻKA_PUNKTU_KONTROLNEGO
Ścieżka wejściowego punktu kontrolnego <path> jest nieprawidłowa. Ścieżka nie istnieje lub nie znaleziono żadnych źródeł cloud_files.
STAN_CF_NIEPRAWIDŁOWA_WERSJA
Określona wersja <version> nie istnieje lub została usunięta podczas analizy.
CF_THREAD_IS_DEAD (wątek jest martwy)
<threadName> wątek nie działa.
NIEMOŻLIWOŚĆ WYPROWADZENIA LOKALIZACJI PUNKTU KONTROLNEGO STRUMIENIA
Nie można uzyskać lokalizacji punktu kontrolnego strumienia z lokalizacji źródłowego punktu kontrolnego: <checkPointLocation>
CF_NIE_MOŻNA_WYKRYĆ_FORMATU_PLIKU
Nie można rozpoznać formatu pliku źródłowego z <fileSize> przykładowych plików, znaleziono format <formats>. Określ format.
CF_UNABLE_TO_EXTRACT_BUCKET_INFO - Nie można wyodrębnić informacji o koszyku.
Nie można pobrać informacji o zasobie. Ścieżka: '<path>', rozpoznany identyfikator URI: '<uri>'.
NIE MOŻNA WYODRĘBNIĆ INFORMACJI KLUCZOWYCH
Nie można wyodrębnić kluczowych informacji. Ścieżka: '<path>', rozpoznany identyfikator URI: '<uri>'.
CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO (Nie można wyodrębnić informacji o koncie magazynowym)
Nie można wyodrębnić informacji o koncie magazynu; ścieżka: '<path>', rozpoznany identyfikator URI: '<uri>'
NIE MOŻNA WYMIENIĆ EFEKTYWNIE
Otrzymano zdarzenie zmiany nazwy katalogu dla ścieżki <path>, ale nie możemy wydajnie wyświetlić tego katalogu. Aby strumień mógł kontynuować swoje działanie, ustaw opcję "cloudFiles.ignoreDirRenames" na true, i rozważ włączenie regularnego uzupełniania, przy użyciu elementu cloudFiles.backfillInterval, aby dane te mogły być przetworzone.
Limit niespodziewanego odczytu CF
Niespodziewany limit odczytu: <readLimit>
CF_UNKNOWN_OPTION_KEYS_ERROR (Nieznany klucz opcji)
Znaleziono nieznane klucze opcji:
<optionList>
Upewnij się, że wszystkie podane klucze opcji są poprawne. Jeśli chcesz pominąć
Aby zweryfikować swoje opcje i zignorować te nieznane, można ustawić:
.option("cloudFiles.<validateOptions>", "false")
CF_NIEZNANY_LIMIT_ODCZYTU
Nieznany ReadLimit: <readLimit>
CF_UNSUPPORTED_CLEAN_SOURCE_MOVE
konfiguracja trybu "move" cleanSource nie jest obsługiwana.
Aby uzyskać więcej informacji, zobacz CF_UNSUPPORTED_CLEAN_SOURCE_MOVE
CF_NIEOBSŁUGIWANA_FUNKCJA_SQL_DLA_PLIKÓW_CHMUROWYCH
Funkcja SQL "cloud_files" w celu utworzenia źródła przesyłania strumieniowego automatycznego modułu ładującego jest obsługiwana tylko w potoku Potoki deklaratywne platformy Spark w usłudze Lakeflow. Zobacz więcej szczegółów na stronie:
<docLink>
Format nieobsługiwany do wywnioskowania schematu (CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE)
Wnioskowanie schematu nie jest obsługiwane w przypadku formatu: <format>. Określ schemat.
CF_NIEOBSŁUGIWANA_WERSJA_DZIENNIKA
Nieobsługiwana wersja dziennika: maksymalna obsługiwana wersja to v<maxVersion>, ale napotkana wersja to v<version>. Plik dziennika został utworzony przez nowszą wersję DBR i nie można go odczytać w tej wersji. Uaktualnij.
CF_NIEOBSŁUGIWANY_TRYB_ROZWOJU_SCHEMATU
Tryb ewolucji schematu <mode> nie jest obsługiwany dla formatu: <format>. Ustaw tryb ewolucji schematu na wartość "none".
CF_UŻYJ_FORMATU_DELTA
Odczytywanie z tabeli delty nie jest obsługiwane w tej składni. Jeśli chcesz korzystać z danych z Delta, zapoznaj się z dokumentacją: odczytaj tabelę Delta (<deltaDocLink>) lub odczytaj tabelę Delta jako źródło strumienia (<streamDeltaDocLink>). Źródło przesyłania strumieniowego z Delta jest już zoptymalizowane pod kątem przyrostowego pobierania danych.
Geoprzestrzenne
EWKB_PARSE_ERROR
Błąd podczas analizowania EWKB: <parseError> na pozycji <pos>
Aby uzyskać więcej informacji, zobacz EWKB_PARSE_ERROR
EWKT_PARSE_ERROR
Błąd podczas analizowania EWKT: <parseError> na pozycji <pos>
GEOJSON_PARSE_ERROR
Błąd podczas analizowania danych GeoJSON: <parseError> na pozycji <pos>
Aby uzyskać więcej informacji, zobacz GEOJSON_PARSE_ERROR
BŁĄD_NIEZGODNOŚCI_SRID_KODERA_GEOGRAFICZNEGO
Nie można zakodować <type> wartości, ponieważ podany identyfikator SRID <valueSrid> wartości do kodowania nie jest zgodny z typem SRID: <typeSrid>.
H3_INVALID_CELL_ID
<h3Cell> nie jest prawidłowym identyfikatorem komórki H3
Aby uzyskać więcej informacji, zobacz H3_INVALID_CELL_ID
NIEPRAWIDŁOWA_WARTOŚĆ_ODLEGŁOŚCI_SIATKI_H3
Odległość siatki H3 <k> musi być nieujemna
Aby uzyskać więcej informacji, zapoznaj się z H3_INVALID_GRID_DISTANCE_VALUE
H3_NIEPRAWIDŁOWA_WARTOŚĆ_ROZDZIELCZOŚCI
Rozdzielczość H3 <r> musi znajdować się między <minR> a <maxR>, włącznie.
Aby uzyskać więcej informacji, zapoznaj się z H3_INVALID_RESOLUTION_VALUE
H3_NIE_AKTYWOWANY
<h3Expression> jest wyłączona lub nieobsługiwana. Rozważ przełączenie do warstwy obsługującej wyrażenia H3
Aby uzyskać więcej informacji, zobacz H3_NOT_ENABLED
Kod błędu: H3_PENTAGON_ENCOUNTERED_ERROR
Pentagon został napotkany podczas obliczania pierścienia sześciokątnego <h3Cell> o odległości siatki <k>
Niezdefiniowana_odległość_siatki_H3
Odległość siatki H3 między <h3Cell1> a <h3Cell2> jest niezdefiniowana
ST_RÓŻNE_WARTOŚCI_SRID
Argumenty do "<sqlFunction>" muszą mieć taką samą wartość SRID. Odnaleziono wartości SRID: <srid1>, <srid2>
ST_INVALID_ARGUMENT
"<sqlFunction>":
Aby uzyskać więcej informacji, zobacz ST_INVALID_ARGUMENT
BŁĄD_NIEPRAWIDŁOWEJ_TRANSFORMACJI_CRS
<sqlFunction>: Nieprawidłowa lub nieobsługiwana transformacja CRS ze SRID <srcSrid> do SRID <trgSrid>
ST_INVALID_PRECISION_VALUE (Nieprawidłowa wartość precyzji)
Precyzja <p> musi znajdować się między <minP> a <maxP>, włącznie.
Błąd: ST_NOT_ENABLED
<stExpression> jest wyłączona lub nieobsługiwana. Rozważ przełączenie do warstwy obsługującej wyrażenia ST
WKB_PARSE_ERROR
Błąd analizowania WKB: <parseError> na pozycji <pos>
Aby uzyskać więcej informacji, zobacz WKB_PARSE_ERROR
WKT_PARSE_ERROR
Błąd podczas analizowania WKT: <parseError> na pozycji <pos>
Aby uzyskać więcej informacji, zobacz WKT_PARSE_ERROR
Katalog Unity
CANNOT_DROP_TAGGED_COLUMN
Nie można usunąć kolumny, ponieważ ma przypisany co najmniej jeden tag podlegający. Usuń tagi przed usunięciem kolumny. Aby uzyskać wskazówki, zapoznaj się z dokumentacją <docLink>.
CHILD_CREATION_FORBIDDEN_FOR_FOREIGN_SECURABLE
Nie można utworzyć zabezpieczanego <childSecurableName> typu <childSecurableType> w obiekcie nadrzędnym <parentSecurableName> typu <parentSecurableKind>.
COLUMN_FORMAT_INCOMPATIBLE_WITH_COLUMN_TYPE
Kolumna <columnName> ma <formatType> format niezgodny z typem <columnType>kolumny .
BŁĄD_KONFLIKTU_NAZW_KOLUMN
Kolumna <columnName> powoduje konflikt z inną kolumną o tej samej nazwie, ale z /bez końcowych białych znaków (na przykład istniejąca kolumna o nazwie <columnName> ). Zmień nazwę kolumny na inną.
Poświadczenia połączenia nie są obsługiwane dla połączenia z tabelą online
Nieprawidłowe żądanie pobrania poświadczeń na poziomie połączenia dla połączenia typu <connectionType>. Takie poświadczenia są dostępne tylko dla zarządzanych połączeń PostgreSQL.
TYP_POŁĄCZENIA_NIEAKTYWNY
Typ połączenia "<connectionType>" nie jest włączony. Włącz połączenie, aby go używać.
DELTA_SHARING_PROVISIONING_STATE_NOT_ACTIVE
Jednostka udostępniona "<securableFullName>" nie jest obecnie dostępna do użycia, ponieważ nie została jeszcze w pełni zsynchronizowana z odpowiednią jednostką źródłową. Spowodowane przez: <reason>.
DELTA_SHARING_UŻYTKOWNIK_BEZ_UPRAWNIEŃ_DO_ZAPISU_ISTNIEJE
Istnieje już obiekt adresata "<existingRecipientName>" z tym samym identyfikatorem udostępniania "<existingMetastoreId>".
RODZAJ_BEZPIECZNEGO_UDOSTĘPNIANIA_DELTA_TYLKO_DO_ODCZYTU
Dane typu Delta Sharing Securable <securableKindName> są tylko do odczytu i nie można ich tworzyć, modyfikować ani usuwać.
DISASTER_RECOVERY_READ_ONLY
Dane w katalogu <catalogName> replik zarządzanych przez odzyskiwanie po awarii są tylko do odczytu i nie można ich tworzyć, modyfikować ani usuwać.
DOSTĘP ZEWNĘTRZNY WYŁĄCZONY W METASKLEPIE
Odmowa udzielania poświadczeń dla środowisk innych niż Databricks Compute jest spowodowana wyłączeniem dostępu do danych zewnętrznych dla magazynu metadanych <metastoreName>. Skontaktuj się z administratorem magazynu metadanych, aby włączyć konfigurację dostępu do danych zewnętrznych w magazynie metadanych.
DOSTĘP ZEWNĘTRZNY NIE DOZWOLONY DLA TABELI
Nie można uzyskać dostępu do tabeli o identyfikatorze <tableId> spoza środowiska obliczeniowego usługi Databricks, ponieważ jego rodzaj jest <securableKind>. Dostęp do typów tabel "TABLE_EXTERNAL", "TABLE_DELTA_EXTERNAL" i "TABLE_DELTA" można uzyskać zewnętrznie.
Schemat_użycia_zewnętrznego_przypisany_do_niewłaściwego_typu_bezpieczeństwa
Uprawnienie EXTERNAL USE SCHEMA nie ma zastosowania do tej jednostki <assignedSecurableType> i może być przypisane tylko do schematu lub katalogu. Usuń uprawnienie z obiektu <assignedSecurableType> i przypisz go do schematu lub wykazu.
ZAPIS_ZEWNETRZNY_NIEDOZWOLONY_DLA_TABELI
Nie można zapisać tabeli o identyfikatorze <tableId> spoza środowiska obliczeniowego usługi Databricks, ponieważ jego rodzaj jest <securableKind>. Tylko rodzaje tabel "TABLE_EXTERNAL" i "TABLE_DELTA_EXTERNAL" można zapisywać zewnętrznie.
KORZEŃ_PAMIĘCI_ZAGRANICZNEGO_KATALOGU_MUSI_OBSŁUGIWAĆ_ZAPISY
Lokalizacja przechowywania dla katalogu zagranicznego typu <catalogType> będzie używana do rozładowywania danych i nie może być ustawiona jako tylko do odczytu.
Przekroczono limit zabezpieczalnego nakładania
Liczba <resourceType>dla ścieżki wejściowej <url> przekracza dozwolony limit (<overlapLimit>) dla nakładających się HMS-ów <resourceType>.
INVALID_DATASOURCE_FORMAT
Format źródła danych "<datasourceFormat>" nie jest obsługiwany<tableTypeSuffix> <catalogKindSuffix>.
INVALID_NAME_FORMAT
<fieldDescription> jest nieprawidłową nazwą. Prawidłowe nazwy muszą zawierać tylko znaki alfanumeryczne i podkreślenia oraz nie mogą zawierać spacji, krosek, ukośników lub znaków sterujących.
NIEPRAWIDŁOWA_NAZWA_ZASOBU_DELTA_SHARING
Żądania Delta Sharing nie są obsługiwane przy użyciu nazw zasobów
NIEPRAWIDŁOWY_TYP_JEDNOSTKI_NAZWA_ZASOBU
Podana nazwa zasobu odnosi się do typu jednostki <provided>, ale oczekiwano <expected>.
NIEPRAWIDŁOWA_NAZWA_ZASOBU_METASTORE_ID
Podana nazwa zasobu odwołuje się do magazynu metadanych, który nie znajduje się w zakresie bieżącego żądania
INVALID_SECURABLE_NAME
<rpcName> nieprawidłowa <securableType> nazwa: "<securableFullName>"
NAKŁADANIE_SIĘ_LOKACJI
Ścieżka wejściowa URL "<path>" nakłada się na wywołanie <overlappingLocation> w "<caller>".
<conflictingSummary>. <permissionErrorSuggestion>
LOCATION_OVERLAP_STORAGE_CONFLICT_WITH_WORKSPACE_STORAGE
Lokalizacja magazynu zdefiniowana przez klienta powoduje konflikt z domyślnym magazynem obszaru roboczego "<path>" podczas operacji "<caller>". Uniemożliwia to działanie funkcji opartych na magazynie obszarów roboczych. Podsumowanie konfliktu: <conflictingSummary>. Zobacz https://docs.databricks.com/aws/en/data-governance/unity-catalog/storage-conflicts , aby uzyskać instrukcje korygowania.
MANAGED_TABLE_FORMAT
Tylko funkcja Delta jest obsługiwana w przypadku tabel zarządzanych. Podany format źródła danych to <datasourceFormat>.
Łącze MONGO_DB_SRV nie obsługuje portu
Tworzenie lub aktualizowanie połączenia bazy danych MongoDB jest niedozwolone, ponieważ parametry połączenia SRV bazy danych MongoDB nie wymagają portu.
Usuń port, ponieważ parametry połączenia SRV nie wymagają portu.
PRINCIPAL_DOES_NOT_EXIST
Nie można odnaleźć podmiotu zabezpieczeń o nazwie <principalName>.
PRIVILEGES_SUPPORT_NOT_ENABLED
Obsługa uprawnień nie jest włączona dla typu [<typeString>]
PRIVILEGE_NOT_APPLICABLE_TO_ENTITY
Uprawnienie <privilege> nie ma zastosowania do tej jednostki [<classifier>]. Jeśli wydaje się to nieoczekiwane, sprawdź wersję uprzywilejowaną magazynu metadanych w użyciu [<privilegeVersion>].
READ_ONLY_CATALOG
Dane w wykazie udostępniania różnicowego są tylko do odczytu i nie można ich tworzyć, modyfikować ani usuwać. Wykaz "<catalogName>" to wykaz udostępniania różnicowego.
KATALOG_REDSHIFT_ZDALNY_MAGAZYN_KORZEN_MUSI_BYC_S3
Katalog główny przechowywania dla katalogu zewnętrznego Redshift musi być usługą AWS S3.
SCHEMAT_NIE_PUSTY
Schemat "<fullName>" nie jest pusty. <extraInfo>
TYP_OBIEKTU_NIE_OBSLUGUJE_FEDERACJI_LAKEHOUSE
Element zabezpieczany z typem <securableKind> nie obsługuje "Lakehouse Federation".
TYP_CHRONIONEGO_NIEAKTYWNY
Rodzaj zabezpieczeń "<securableKind>" nie jest włączony. Jeśli jest to zabezpieczalny rodzaj związany z funkcją w wersji próbnej, włącz go w ustawieniach przestrzeni roboczej.
TYP_SECURE_NIE_OBSŁUGUJE_FEDERACJI_LAKEHOUSE
Obiekt możliwy do zabezpieczenia z typem <securableType> nie obsługuje federacji Lakehouse.
LICZBA_KOLUMN_TABELI_ŹRÓDŁOWEJ_PRZEKRACZA_LIMIT
Tabela źródłowa zawiera więcej niż <columnCount> kolumn. Zmniejsz liczbę kolumn do <columnLimitation> lub mniej.
SYSTEM_SERVICE_PRINCIPAL_IS_NOT_REGISTERED
Nie można odnaleźć zarejestrowanej jednostki usługi systemowej o nazwie <servicePrincipalResource>zasobu .
TABLE_TYPE_DOES_NOT_SUPPORT_COLUMN_METADATA
Typ <tableType> tabeli nie obsługuje metadanych kolumn.
UC_AAD_CLIENT_SECRET_EXPIRED_FOR_SERVICE_PRINCIPAL
Klucze tajne klienta dla jednostki usługi z identyfikatorem <applicationId> aplikacji wygasły. Odwiedź witrynę Azure Portal, aby utworzyć nowe klucze dla jednostki usługi.
UC_AAD_CLIENT_SECRET_EXPIRED_FOR_STORAGE_CREDENTIAL
Klucze tajne klienta dla poświadczeń <storageCredentialName> magazynu wygasły. Skontaktuj się z właścicielem lub administratorem konta, aby zaktualizować poświadczenia magazynu.
UC_AAD_CLIENT_SECRET_INVALID_FOR_SERVICE_PRINCIPAL
Klucz tajny klienta dla jednostki usługi z identyfikatorem <applicationId> aplikacji jest nieprawidłowy.
UC_AAD_SERVICE_PRINCIPAL_CONFIG_INVALID
Konfiguracja jednostki usługi jest nieprawidłowa. Sprawdź identyfikator katalogu, identyfikator aplikacji i klucz tajny klienta.
UC_AAD_TOKEN_EXCHANGE_GENERIC_FAILURE
Nie można pobrać poświadczeń: poświadczenia <storageCredentialName> magazynu nie są poprawnie skonfigurowane. Skontaktuj się z właścicielem lub administratorem konta, aby zaktualizować konfigurację.
UC_CZAS_TRWANIA_TOKEN_ZBYT_KRÓTKI
Okres ważności tokenu AAD w programie Exchange jest <lifetime>, który jest skonfigurowany jako zbyt krótki. Sprawdź ustawienie usługi Azure AD, aby upewnić się, że tymczasowy token dostępu ma co najmniej godzinę istnienia. https://learn.microsoft.com/azure/active-directory/develop/active-directory-configurable-token-lifetimes
UC_ABAC_AMBIGUOUS_COLUMN_MATCH
Błąd podczas oceniania zasad ABAC dla elementu "<resource>". Zasady "<policyName>" nie powiodły się z komunikatem: użycie aliasu "<alias>" miało <size> dopasowania, dokładnie 1 dopasowanie jest dozwolone.
UC_ABAC_DEPENDENCY_COMPLEXITY_LIMIT_EXCEEDED
<resourceType> Element "<ref>" ma zbyt wiele <resolverType> zależności abac.
UC_ABAC_DEPENDENCY_DIFFERING_RF_CM
Zależność "<dependency>" jest przywoływana wiele razy i skutkowała różnymi filtrami wierszy ABAC lub maskami kolumn.
BŁĄD_OCENY_UŻYTKOWNIKA_ABAC
Błąd podczas oceniania zasad ABAC dla elementu "<resource>". Polityka '<policyName>' zakończyła się niepowodzeniem z komunikatem: <message>.
UC_ABAC_INVALID_TAG_POLICY_VALUE
Błąd podczas oceniania zasad ABAC dla elementu "<resource>". Nie można uruchomić komunikatu: Nieprawidłowa wartość <tagValue> zasad tagu dla klucza <tagKey>.
UC_ABAC_MULTIPLE_ROW_FILTERS
Ocena zasad ABAC dla "<resource>" spowodowała wiele filtrów wierszy. Dozwolony jest co najwyżej jeden filtr wierszy.
UC_ABAC_UNKNOWN_TAG_POLICY
Błąd podczas oceniania zasad ABAC dla elementu "<resource>". Nie można uruchomić komunikatu: Nieznane zasady tagu: <tagKey>.
UC_ABAC_UNMATCHED_ALIAS_IN_USING_COLUMNS
Błąd podczas oceniania zasad ABAC dla elementu "<resource>". Komunikat zakończył się niepowodzeniem: alias "<alias>" używany w USING COLUMNS elemecie nie pasuje do żadnej kolumny.
UC_ABAC_UNMATCHED_ON_COLUMN_ALIAS
Błąd podczas oceniania zasad ABAC dla elementu "<resource>". Zasady "<policyName>" nie powiodły się z komunikatem: Alias "<alias>" używany w ON COLUMN kolumnie nie pasuje do żadnej kolumny.
UC_ABAC_UNMATCHED_USING_ALIAS
Błąd podczas oceniania zasad ABAC dla elementu "<resource>". Zasady "<policyName>" nie powiodły się z komunikatem: Używanie aliasu "<alias>" nie ma dopasowanej kolumny.
UC_ABAC_USING_REF_OF_NATIVE_MASKED_COLUMNS
Błąd podczas oceniania zasad ABAC dla elementu "<resource>". Komunikat zakończył się niepowodzeniem: kolumna "<usingCol>" została zamaskowana przez natywne zasady zabezpieczeń na poziomie wiersza/cm i nie może być używana jako dane wejściowe dla zasad ABAC "<policyName>".
UC_ACCESS_REQUIRES_WORKSPACE
Nie można uzyskać dostępu do zabezpieczania powiązanego obszaru roboczego, ponieważ użytkownik nie jest przypisany do skojarzonego obszaru roboczego.
UC_ZMIEŃ_DLT_WIDOK_POZA_DEF_PIPELINE
Zmiana widoku "<viewFullName>" poza jednostką procesową, która go zdefiniowała, jest niedozwolona. Zamiast tego zaktualizuj definicję widoku z potoku, który go zdefiniował (identyfikator potoku: <owningPipelineId>).
UC_ATLAS_NOT_ENABLED_FOR_CALLING_SERVICE
Usługa Atlas nie jest włączona dla usługi <serviceName>wywołującej .
UC_AUTHZ_AKCJA_NIEOBSŁUGIWANA
Autoryzowanie <actionName> nie jest obsługiwane; Sprawdź, czy wywołany RPC jest implementowany dla tego typu zasobu
UC_AWS_ASSUME_ROLE_FAILED
Nie można pobrać poświadczeń: rola IAM platformy AWS w poświadczeniu wykazu aparatu Unity nie jest poprawnie skonfigurowana. Skontaktuj się z administratorem magazynu metadanych lub właścicielem poświadczeń, aby zaktualizować konfigurację na platformie AWS.
UC_AWS_EMPTY_STORAGE_LOCATION
Pusta lokalizacja magazynu.
UC_AWS_INVALID_S3_POLICY_PREFIX
Nieprawidłowa ścieżka S3 dla lokalizacji magazynu: ścieżka <providedPath> S3 nie zaczyna się od oczekiwanego prefiksu: <expectedPrefix>.
UC_AWS_UNSUPPORTED_S3_SCHEME
Nieprawidłowa ścieżka s3 dla lokalizacji magazynu: znaleziono nieobsługiwany schemat: <providedScheme>. Obsługiwane schematy to: <supportedS3Schemes>.
UC_AZURE_BLOB_SERVICE_UNAVAILABLE
Usługa Azure Blob Service jest tymczasowo niedostępna. Spróbuj ponownie później.
UC_AZURE_UDK_UNAUTHORIZED
Żądanie klucza delegowania użytkownika nie jest autoryzowane. Szczegóły: <details>
Odmowa uprawnień do utworzenia połączenia HMS.
Nie można utworzyć połączenia dla wbudowanego magazynu metadanych hive, ponieważ użytkownik: <userId> nie jest administratorem obszaru roboczego: <workspaceId>
UC_WBUDOWANY_HMS_POŁĄCZENIE_MODYFIKUJ_POLE_O_OGRANICZONYM_DOSTĘPIE
Próba modyfikacji ograniczonego pola w wbudowanym połączeniu HMS '<connectionName>'. Można zaktualizować tylko warehouse_directory.
NIE_MOŻNA_ZMIENIĆ_NAZWY_KOLUMNY_FILTROWANIA_PARTYCJI
Nie można zmienić nazwy kolumny <originalLogicalColumn> tabeli, ponieważ jest ona używana do filtrowania partycji w programie <sharedTableName>. Aby kontynuować, możesz usunąć tabelę z udziału, zmienić nazwę kolumny, a następnie udostępnić ją ponownie z żądanymi kolumnami filtrującymi partycje. Jednak może to spowodować przerwanie zapytania strumieniowego dla odbiorcy.
Tworzenie dzieci w klastrze UC zabronione dla nieflagowego klastra UC
Nie można utworzyć <securableType> elementu "<securable>" pod <parentSecurableType> "<parentSecurable>", ponieważ żądanie nie pochodzi z klastra UC.
UC_CONFLICTING_CONNECTION_ALLOW_LIST_OPTIONS
Nie można utworzyć połączenia z listą dozwolonych nakładającą się na opcję połączenia. Wartość: <conflictingOptions>
UC_KONFLIKTOWE_OPCJE_PODŁĄCZENIA
Nie można utworzyć połączenia z opcjami uwierzytelniania nazwy użytkownika/hasła i uwierzytelniania oauth. Wybierz jeden.
Maksymalna liczba połączeń z danymi uwierzytelniającymi została osiągnięta
Osiągnięto maksymalną liczbę poświadczeń dla nazwy połączenia "<connectionName>". Usuń istniejące poświadczenia przed utworzeniem nowego.
Poświadczenia połączenia nie istnieją dla użytkownika z loginem
Nie można odnaleźć poświadczeń dla tożsamości użytkownika ('<userIdentity>') dla połączenia "<connectionName>". Zaloguj się najpierw do połączenia, odwiedzając stronę <connectionPage>
Typ poświadczeń połączenia nie jest obsługiwany
Tworzenie poświadczeń dla zabezpieczanego typu "<securableType>" nie jest obsługiwane. Obsługiwane typy zabezpieczeń: <allowedSecurableType>.
Istnieje połączenie UC dla poświadczenia
Poświadczenie "<credentialName>" ma co najmniej jedno połączenie zależne. Możesz użyć opcji wymuszania, aby kontynuować aktualizowanie lub usuwanie poświadczeń, ale połączenia korzystające z tego poświadczenia mogą już nie działać.
Połączenie straciło ważność z powodu wygasłego tokenu dostępu
Token dostępu skojarzony z połączeniem wygasł. Zaktualizuj połączenie, aby ponownie uruchomić przepływ OAuth, aby pobrać token.
Połączenie wygasło - odśwież token
Token odświeżania skojarzony z połączeniem wygasł. Zaktualizuj połączenie, aby ponownie uruchomić przepływ OAuth, aby pobrać nowy token.
UC_POŁĄCZENIE_W_STANIE_NIEUDANE
Połączenie jest w stanie FAILED. Zaktualizuj połączenie przy użyciu prawidłowych poświadczeń, aby go ponownie uaktywnić.
UC_POŁĄCZENIE_BRAK_OPCJI
Połączenia typu zabezpieczanego "<securableType>" muszą zawierać następujące opcje: <requiredOptions>.
BRAK_TOKENU_ODŚWIEŻENIA_W_UCZENIE
Nie ma tokenu odświeżania skojarzonego z połączeniem. Zaktualizuj integrację klienta OAuth u dostawcy tożsamości, aby zwrócić tokeny odświeżania, a następnie zaktualizuj lub ponownie utwórz połączenie, aby ponownie uruchomić przepływ OAuth i pobrać niezbędne tokeny.
UC_POŁĄCZENIE_WYMIANA_OAUTH_NIEPOWODZENIE
Wymiana tokenu OAuth nie powiodła się z kodem stanu HTTP <httpStatus>. Zwrócona odpowiedź serwera lub komunikat o wyjątku to: <response>
OPCJA_POŁĄCZENIA_UC_NIEOBSŁUGIWANA
Połączenia typu zabezpieczanego "<securableType>" nie obsługują następujących opcji: <optionsNotSupported>. Obsługiwane opcje: <allowedOptions>.
SKOORDYNOWANE_ZATWIERDZENIA_NIE_WŁĄCZONE
Obsługa zatwierdzeń skoordynowanych nie jest włączona. Skontaktuj się z pomocą techniczną usługi Databricks.
UC_TWORZENIE_ZABRONIONE_POD_AKTYWNYM_ZABEZPIECZENIEM_NIEAKTYWNE
Nie można utworzyć <securableType> elementu "<securableName>", ponieważ jest umieszczony w obszarze <parentSecurableType> "<parentSecurableName>", który jest nieaktywny. Proszę usunąć nadrzędny obiekt zabezpieczający i odtworzyć nadrzędny.
UC_CREDENTIAL_ACCESS_CONNECTOR_BŁĄD_PARSOWANIA
Nie można przeanalizować podanego identyfikatora łącznika dostępu: <accessConnectorId>. Sprawdź jego formatowanie i spróbuj ponownie.
UC_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN (Brak możliwości uzyskania tokenu weryfikacyjnego)
Nie można uzyskać tokenu usługi AAD w celu przeprowadzenia weryfikacji uprawnień w chmurze na łączniku dostępu. Spróbuj ponownie wykonać akcję.
UC_CREDENTIAL_INVALID_NIEPRAWIDŁOWE_UPRAWNIENIA_CHMURY
SQLSTATE: brak przypisania
Zarejestrowanie poświadczeń wymaga roli współtwórcy dla odpowiedniego łącznika dostępu o identyfikatorze <accessConnectorId>. Skontaktuj się z administratorem konta.
UC_CREDENTIAL_NIEPRAWIDŁOWY_TYP_KREDENCJAŁU_DLA_CELU
Typ poświadczeń "<credentialType>" nie jest obsługiwany w celach "<credentialPurpose>"
Odmowa dostępu do poświadczeń UC
SQLSTATE: brak przypisania
Tylko administrator konta może utworzyć lub zaktualizować poświadczenia przy użyciu typu <storageCredentialType>.
POLITYKA_ZAUFANIA_UC_CREDENTIAL_JEST_OTWARTA
Zasady zaufania roli IAM, umożliwiające konto usługi Databricks przejęcie roli, powinny wymagać identyfikatora zewnętrznego. Skontaktuj się z administratorem konta, aby dodać warunek identyfikatora zewnętrznego. To zachowanie chroni przed problemem Mylonego Zastępcy (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html).
UC_CREDENTIAL_PRZESTRZEŃ_ROBOCZA_API_ZABRONIONA
Tworzenie lub aktualizowanie poświadczeń przez osobę inną niż administrator konta nie jest obsługiwane w interfejsie API na poziomie konta. Proszę zamiast tego używać API na poziomie przestrzeni roboczej.
UC_DBR_WERSJA_ZAUFANIA_ZBYT_STARA
Używane środowisko Uruchomieniowe usługi Databricks nie obsługuje już tej operacji. Użyj najnowszej wersji (może być konieczne ponowne uruchomienie klastra).
UC_DELTA_ILLEGAL_BACKFILLED_VERSION
Nieoczekiwana wersja latestBackfilledVersion <latestBackfilledVersion> w zatwierdzeniu (<version>, <commitType>).
UC_DELTA_ILLEGAL_CONCURRENT_MIGRATION
Współbieżne uaktualnianie lub obniżanie do/z tabeli zarządzanej przez wykaz nie jest obsługiwane. Upewnij się, że tylko jedna transakcja uruchamia polecenie migracji jednocześnie. Wykryto duplikat <commitType> .
UC_DELTA_ILLEGAL_MIGRATION_STATE_CHANGE
Niedozwolone przejście stanu ze starego typu <lastCommitType> zatwierdzenia na nowy <commitType>.
UC_DELTA_MIGRATION_STATE_CHANGE_VERSION_MISMATCH
Wersje nie są zgodne z przejściem stanu ze starego (<lastVersion>, <lastCommitType>) na nowy (<version>, <commitType>).
UC_DELTA_UNIWERSALNY_FORMAT_NIE_MOŻE_PRZETWORZYĆ_WERSJI_ICEBERG
Nie można przeanalizować wersji tabeli Apache Iceberg z lokalizacji <metadataLocation>metadanych .
Format_Uniwersalny_Delta_Konkurencyjny_Zapis
Wykryto współbieżną aktualizację do tej samej wersji metadanych platformy Apache Iceberg.
UC_DELTA_FORMAT_UNIWERSALNY_NIEPRAWIDŁOWE_POŁOŻENIE_METADANYCH
Zatwierdzona lokalizacja metadanych <metadataLocation> jest nieprawidłowa. Nie jest to podkatalog katalogu głównego tabeli <tableRoot>.
UC_DELTA_UNIWERSALNY_FORMAT_BRAK_POLA_OGRANICZENIE
W podanych polach konwersji formatu delta Apache Iceberg brakuje wymaganych pól.
UC_DELTA_FORMAT_UNIWERSALNY_BEZ_OGRANICZEŃ_DLA_TWORZENIA
Ustawianie informacji o formacie delta Apache Iceberg podczas tworzenia jest nieobsługiwane.
UC_DELTA_UNIWERSELNY_FORMAT_ZBYT_DUŻY_OGRANICZENIE
Podane informacje konwersji formatu delta Apache Iceberg są zbyt duże.
UC_DELTA_UNIVERSAL_FORMAT_UPDATE_INVALID (Nieprawidłowa aktualizacja uniwersalnego formatu)
Jednolite metadane można aktualizować tylko w tabelach Delta z włączoną jednorodnością.
LIMIT_GŁĘBOKOŚCI_ZALEŻNOŚCI_PRZEKROCZONY
<resourceType> '<ref>' głębokość przekracza limit (lub ma odniesienie cykliczne).
UC_ZALEŻNOŚĆ_NIE_ISTNIEJE
<resourceType> Element "<ref>" jest nieprawidłowy, ponieważ jeden z podstawowych zasobów nie istnieje. <cause>
Odmowa uprawnień dla UC_DEPENDENCY_PERMISSION_DENIED
<resourceType> Element "<ref>" nie ma wystarczających uprawnień do wykonania, ponieważ właściciel jednego z zasobów bazowych nie przeszedł kontroli autoryzacji. <cause>
UC_DUPLIKAT_POŁĄCZENIA
Połączenie o nazwie "<connectionName>" z tym samym adresem URL już istnieje. Poproś właściciela o uprawnienie do korzystania z tego połączenia zamiast tworzenia duplikatu.
TWORZENIE_DUPlKATU_KATALOGU_TKANIN
Podjęto próbę utworzenia katalogu Fabric z adresem URL "<storageLocation>", który jest zgodny z istniejącym katalogiem, co jest niedozwolone.
Zduplikowane przypisanie tagu
Przypisanie tagu z kluczem <tagKey> już istnieje
JD_ENTITY_NIE_MA_ODPOWIADAJĄCEGO_ONLINE_KLASTRA
Jednostka <securableType> <entityId> nie ma odpowiedniego klastra online.
UC_ETAG_MISMATCH
Zasób został zmodyfikowany. Pobierz najnowszy element etag i ponów próbę. Oczekiwana wartość etagu: <expectedTokenValue> z wersją <expectedTokenVersion>protokołu odebrano wartość etag: <providedTokenValue> z wersją protokołu <providedTokenVersion>
UC_PRZEKROCZONO_MAKSYMALNY_LIMIT_PLIKÓW
Istnieje więcej niż pliki <maxFileResults>. Określ [max_results], aby ograniczyć liczbę zwracanych plików.
UC_EXTERNAL_HMS_SCHEMA_LOCATION_NOT_FEDERATED
Schemat <schemaName> jest w DEGRADED stanie aprowizacji, który jest oczekiwany, ponieważ lokalizacja schematu eHMS / kleju nie jest federacyjna.
Operacja lokalizacji zewnętrznej niedozwolona.
Nie można <opName> <extLoc> <reason>.
<suggestion>.
Funkcja wyłączona
<featureName> jest obecnie wyłączone w UC.
Katalog zewnętrzny dla typu połączenia nieobsługiwany
Tworzenie wykazu obcego dla typu połączenia "<connectionType>" nie jest obsługiwane. Tego rodzaju połączenia można używać wyłącznie do tworzenia zarządzanych potoków przetwarzania danych. Aby uzyskać więcej informacji, zapoznaj się z dokumentacją usługi Databricks.
SPRAWDZENIE_OBCEGO_POŚWIADCZENIA_TYLKO_DLA_OPERACJI_ODCZYTU
Można pobrać tylko poświadczenia typu READ dla tabel obcych.
UC_FOREIGN_ENTITY_CREATION_FORBIDDEN_DURING_CONVERSION
Tworzenie FOREIGN <securableType> elementu "<entityName>" w katalogu "<catalogName>" jest zabronione, gdy wykaz jest konwertowany z FOREIGN na STANDARD.
UC_OBCE_HMS_PŁYTKIE_KLONOWANIE_NIEDOPASOWANE
Tabela bazowa i tabela klonów muszą znajdować się w tym samym katalogu dla płytkich klonów tworzonych w zagranicznych katalogach Hive Metastore. Tabela bazowa "<baseTableName>" znajduje się w wykazie "<baseCatalogName>", a klonowanie tabeli "<cloneTableName>" znajduje się w katalogu "<cloneCatalogName>".
UC_FOREIGN_KEY_CHILD_COLUMN_LENGTH_MISMATCH - Niezgodność długości kolumny dziecka klucza obcego
Kolumny podrzędne i nadrzędne klucza obcego <constraintName> mają różne wymiary.
NIEDOPASOWANIE_KOLUMNY_KLUCZA_OBCEGO
Kolumny nadrzędne klucza obcego nie są zgodne z kolumnami podrzędnymi klucza podstawowego, na które się odwołują. Kolumny klucza obcego rodzica to (<parentColumns>), a kolumny klucza podstawowego dziecka to (<primaryKeyChildColumns>).
Niezgodność typu kolumny klucza obcego
Typ kolumny dziecka klucza obcego nie pasuje do typu kolumny rodzica. Kolumna podrzędna klucza obcego <childColumnName> ma typ <childColumnType>, a kolumna nadrzędna <parentColumnName> ma typ <parentColumnType>.
UC_GCP_NIEPRAWIDŁOWY_KLUCZ_PRYWATNY
Odmowa dostępu. Przyczyna: klucz prywatny konta usługi jest nieprawidłowy.
UC_GCP_NIEPRAWIDŁOWY_FORMAT_JSON_KLUCZA_PRYWATNEGO
Klucz prywatny OAuth konta serwera Google musi być prawidłowym JSON obiektem z wymaganymi polami. Upewnij się, że pełny JSON plik wygenerowany w sekcji "KLUCZE" na stronie szczegółów konta usługi.
Nieprawidłowy format klucza prywatnego JSON w GCP - brakujące pola
Klucz prywatny OAuth konta serwera Google musi być prawidłowym JSON obiektem z wymaganymi polami. Upewnij się, że pełny JSON plik wygenerowany w sekcji "KLUCZE" na stronie szczegółów konta usługi. Brakuje pól oznaczonych jako <missingFields>
ROLA_BEZ_AUTOMATYCZNEGO_NADANIA_UPRAWNIEŃ
Rola IAM dla tego poświadczenia magazynu została uznana za nieumożliwiającą samodzielnego przyjęcia. Sprawdź zaufanie roli i zasady zarządzania dostępem i tożsamościami, aby upewnić się, że rola zarządzania dostępem i tożsamościami może przyjąć się zgodnie z dokumentacją poświadczeń magazynu wykazu aparatu Unity.
Konflikt zatwierdzenia UC_ICEBERG
Nie można zatwierdzić <tableName>: lokalizacja metadanych <baseMetadataLocation> została zmieniona z <catalogMetadataLocation>.
UC_ICEBERG_NIEPRAWIDŁOWA_TABELA_COMMIT
Nie można wykonać zatwierdzenia zarządzanego platformy Apache Iceberg w niezarządzanej tabeli Apache Iceberg: <tableName>.
UC_ICEBERG_ZOBOWIĄZANIE_BRAKUJĄCE_OGRANICZENIE_POLA
Brak wymaganych pól podanych informacji o zatwierdzeniu zarządzanego platformy Apache Iceberg.
NieprawidłoweIdentyfikatory_UC
<type> <name> nie ma identyfikatora <wrongId>. Ponów próbę wykonania operacji.
UC_INFORMATION_SCHEMA_PER_METASTORE_DB_RATE_LIMIT_EXCEEDED
Zbyt wiele żądań schematu informacji dla magazynu metadanych. Poczekaj chwilę i spróbuj ponownie. Jeśli problem będzie się powtarzać, rozważ dostosowanie wyboru zapytań lub skontaktowanie się z pomocą techniczną w celu uzyskania pomocy.
UC_INVALID_ACCESS_BRICKSTORE_ONLINE_TABLE_DEPRECATION
Tabela online jest przestarzała. Uzyskiwanie dostępu do tabeli <securableName> online nie jest już obsługiwane.
Nieprawidłowy dostęp do połączenia Brickstore PG (UC_INVALID_ACCESS_BRICKSTORE_PG_CONNECTION)
Nieprawidłowy dostęp do instancji bazy danych. <reason>
UC_NIEPRAWIDŁOWY_DOSTĘP_DBFS_ENTITY
Nieprawidłowy dostęp do <securableType> <securableName> w katalogu federacyjnym <catalogName>. <reason>
UC_INVALID_AZURE_PATH
Nieprawidłowa ścieżka platformy Azure: <path>
UC_NIEPRAWIDŁOWY_ID_KONTA_CLOUDFLARE
Nieprawidłowy identyfikator konta cloudflare.
UC_NIEPRAWIDŁOWE_HASŁO_CHMURA
Nieprawidłowy dostawca usług w chmurze poświadczeń "<cloud>". Dozwolony dostawca usług w chmurze "<allowedCloud>".
UC_NIEPRAWIDŁOWA_WARTOŚĆ_CELU_UWIERZYTELNIENIA
Nieprawidłowa wartość "<value>" dla "przeznaczenia" poświadczeń. Dozwolone wartości "<allowedValues>".
UC_NIEPRAWIDŁOWY_PRZEJŚCIE_CREDENCJI
Nie można zaktualizować połączenia z <startingCredentialType> do <endingCredentialType>. Jedynym prawidłowym przejściem jest połączenie oparte na nazwie użytkownika/haśle z połączeniem opartym na tokenie OAuth.
UC_NIEPRAWIDŁOWY_CIĄG_CRON_FABRIC
Nieprawidłowy ciąg cron. Znaleziono: "<cronString>" z błędem analizy: "<message>"
UC_NIEPRAWIDŁOWY_BEZPOŚREDNI_DOSTĘP_ZARZĄDZANA_TABELA
Nieprawidłowa zarządzana tabela bezpośredniego dostępu <tableName>. Upewnij się, że definicje tabeli źródłowej i potoku nie są zdefiniowane.
Nieprawidłowa pusta lokalizacja magazynowa UC
Nieoczekiwana pusta lokalizacja magazynu dla <securableType> "<securableName>" w katalogu "<catalogName>". Aby naprawić ten błąd, uruchom polecenie DESCRIBE SCHEMA <catalogName>.
<securableName> i odśwież tę stronę.
UC_NIEPRAWIDŁOWA_AKTUALIZACJA_OPCJI
Podano nieprawidłowe opcje aktualizacji. Nieprawidłowe opcje: <invalidOptions>. Dozwolone opcje: <allowedOptions>.
UC_NIEPRAWIDŁOWA_WARTOŚĆ_OPCJI
Nieprawidłowa wartość '<value>' dla '<option>'. Dozwolone wartości "<allowedValues>".
UC_NIEPRAWIDŁOWA_WARTOŚĆ_OPCJI_PUSTA
'<option>' nie może być pusty. Proszę wprowadzić wartość, która nie jest pusta.
UC_NIEPRAWIDŁOWY_WARUNEK_POLITYKI
Nieprawidłowy warunek w zasadach "<policyName>". Błąd kompilacji z komunikatem "<message>".
Niewłaściwy identyfikator klucza dostępu R2 (UC_INVALID_R2_ACCESS_KEY_ID)
Nieprawidłowy identyfikator klucza dostępu R2.
UC_INVALID_R2_SECRET_ACCESS_KEY
Nieprawidłowy tajny klucz dostępu R2.
UC_NIEPRAWIDŁOWA_AKTUALIZACJA_NA_SYSTEMOWEJ_PRZESTRZENI_ROBOCZEJ_ZARZĄDZALNY_PRZEZ_GRUPĘ_ADMINISTRACYJNĄ
Nie można zaktualizować <securableType> „<securableName>”, ponieważ jest własnością grupy wewnętrznej. Aby uzyskać dodatkowe informacje, skontaktuj się z pomocą techniczną usługi Databricks.
UC_INVALID_WASBS_ZEWNETRZNA_LOKALIZACJA_KREDENCJA_STORAGE
Podane poświadczenie magazynu <storageCredentialName> nie jest skojarzone z katalogiem głównym DBFS, nie wolno tworzyć lokalizacji zewnętrznej wasbs.
UC_LOKALIZACJA_NIEPRAWIDŁOWY_SCHEMAT
Lokalizacja magazynu ma nieprawidłowy schemat identyfikatora URI: <scheme>.
UC_MALFORMED_OAUTH_SERVER_RESPONSE (nieprawidłowa odpowiedź serwera OAuth)
W odpowiedzi z serwera tokenów brakuje pola <missingField>. Zwrócona odpowiedź serwera to: <response>
UC_MANAGED_ICEBERG_UNSUPPORTED
Nie można obsługiwać zarządzanej tabeli Apache Iceberg w bieżącym punkcie końcowym.
Status przydzielenia do metastore UC jest nieprawidłowy.
"<metastoreAssignmentStatus>" nie można przypisać. Obsługiwane są tylko MANUALLY_ASSIGNABLE i AUTO_ASSIGNMENT_ENABLED.
UC_METASTORE_CERTYFIKACJA_NIE_AKTYWOWANA
Certyfikacja magazynu metadanych nie jest włączona.
UC_METASTORE_MA_AKTYWNE_ZARZĄDZANE_KATALOGI_ONLINE
SQLSTATE: brak przypisania
Metastore <metastoreId> ma <numberManagedOnlineCatalogs> zarządzany katalog online. Usuń je wyraźnie, a następnie ponów próbę usunięcia magazynu metadanych.
UC_METASTORE_QUOTA_EXCEEDED
To konto o identyfikatorze <accountId> osiągnęło limit dla magazynów metadanych w regionie <region>.
AKTUALIZACJA_NIEPRAWIDŁOWA_DLA_POŚWIADCZENIA_KORZENIOWEGO_PRZECHOWYWANIA_METADANYCH
Nie można zdefiniować danych uwierzytelniających głównego magazynu metadanych podczas aktualizowania lokalizacji głównej magazynu metadanych. Poświadczenie zostanie pobrane z zewnętrznej lokalizacji nadrzędnej metastore.
UC_METASTORE_STORAGE_ROOT_DELETION_INVALID (nieprawidłowe usunięcie głównego katalogu magazynu)
Nie udało się usunąć lokalizacji głównej magazynu metadanych. <reason>
UC_METASTORE_STORAGE_ROOT_READ_ONLY_NIEPRAWIDŁOWE
Korzeń <securableType> dla metastore nie może być tylko do odczytu.
Aktualizacja głównego katalogu metadanych jest nieprawidłowa
Nie można zaktualizować katalogu głównego magazynu metadanych po jego skonfigurowaniu.
NIEWAŻNY_STAN_MODELU_UC
Nie można wygenerować tymczasowych poświadczeń "<opName>" dla wersji <modelVersion> modelu ze stanem <modelVersionStatus>. Poświadczenia "<opName>" można wygenerować tylko dla wersji modelu ze stanem <validStatus>
UC_NATIVE_USING_REF_OF_ABAC_MASKED_COLUMNS
Błąd podczas oceniania zasad ABAC dla elementu "<resource>". Komunikat zakończył się niepowodzeniem: kolumna "<usingCol>" została zamaskowana przez zasady ABAC "<policyName>" i nie może być używana jako dane wejściowe dla natywnych zasad zabezpieczeń na poziomie wiersza/cm.
Brak identyfikatora organizacji w kontekście
Podjęto próbę uzyskania dostępu do identyfikatora organizacji (lub identyfikatora obszaru roboczego), ale brak kontekstu.
UC_ONELAKE_PATH_BAD_DOMAIN
Ścieżka usługi Azure OneLake "<path>" musi mieć nazwę domeny "<expectedHost>".
UC_ONELAKE_PATH_BAD_FORMAT
Ścieżka usługi Azure OneLake "<path>" musi mieć format "abfss://_WORKSPACE_@<host>/".
UC_ONELAKE_PATH_MISSING_AT
Ścieżka usługi Azure OneLake "<path>" nie zawiera znaku "@".
UC_ONELAKE_PATH_MISSING_WORKSPACE
Ścieżka usługi Azure OneLake "<path>" musi zawierać nazwę obszaru roboczego.
Katalog_Online_Nie_Można_Zmieniać
SQLSTATE: brak przypisania
Żądanie <rpcName> aktualizuje <fieldName>. Użyj zakładki 'obliczenia' sklepu online, aby zmodyfikować inne elementy niż komentarz, właściciel i isolationMode katalogu online.
PRZEKROCZONY_LIMIT_KATALOGU_ONLINE
Nie można utworzyć więcej niż <quota> sklepów online w metasklepie, a już istnieje <currentCount>. Być może nie masz dostępu do żadnych istniejących sklepów online. Skontaktuj się z administratorem magazynu metadanych, aby uzyskać dostęp lub uzyskać dalsze instrukcje.
Katalog online indeksu nieprawidłowego CRUD (UC_ONLINE_INDEX_CATALOG_INVALID_CRUD)
SQLSTATE: brak przypisania
Katalogi indeksów online muszą być dostępne <action> za pośrednictwem interfejsu API /vector-search.
UC_ONLINE_INDEX_CATALOG_NIEZMIENNE
SQLSTATE: brak przypisania
Żądanie <rpcName> aktualizuje <fieldName>. Użyj interfejsu API /vector-search, aby zmodyfikować wszystko oprócz komentarza, właściciela i trybu izolacji katalogu indeksów online.
Przekroczono limit katalogu indeksu online UC.
Nie można utworzyć więcej niż <quota> katalogów indeksów online w magazynie metadanych, a już istnieje <currentCount>. Być może nie masz dostępu do żadnych istniejących katalogów indeksów online. Skontaktuj się z administratorem magazynu metadanych, aby uzyskać dostęp lub uzyskać dalsze instrukcje.
UC_ONLINE_INDEX_INVALID_CRUD (Nieprawidłowy indeks operacji CRUD)
Indeksy online muszą być <action> poprzez API /vector-search.
UC_ONLINE_STORE_INVALID_CRUD - Nieprawidłowa operacja CRUD w sklepie online
SQLSTATE: brak przypisania
Sklepy internetowe muszą być <action> za pośrednictwem zakładki obliczeniowej sklepu online.
UC_ONLINE_NAZWA_KOLUMNY_TABELI_ZBYT_DŁUGA
Nazwa kolumny tabeli źródłowej <columnName> jest za długa. Maksymalna długość to <maxLength> znaków.
KLUCZ_PRIMARY_UC_ONLINE_TABLE_JEST_NIEOBECNY_W_OGRANICZENIU_PRIMARY_KEY_TABELI_ŹRÓDŁOWEJ
Kolumna <columnName> nie może być używana jako kolumna klucza podstawowego tabeli online, ponieważ nie jest częścią istniejącego ograniczenia PRIMARY KEY tabeli źródłowej. Aby uzyskać szczegółowe informacje, zobacz <docLink>
Klucz szeregu czasowego UC_ONLINE_TABLE nie występuje w kluczu głównym tabeli źródłowej.
Kolumna <columnName> nie może być używana jako klucz szeregów czasowych tabeli online, ponieważ nie jest to kolumna szeregów czasowych w istniejącym ograniczeniu PRIMARY KEY tabeli źródłowej. Aby uzyskać szczegółowe informacje, zobacz <docLink>
LIMIT_WIDOKÓW_ONLINE_PER_TABELA_ŹRÓDŁOWA_PRZEKROCZONY
Nie można utworzyć więcej niż <quota> tabel online dla jednej tabeli źródłowej.
Dostęp do widoku online zabroniony
Uzyskiwanie dostępu do zasobów <resourceName> wymaga użycia bezserwerowego magazynu SQL Warehouse. Upewnij się, że magazyn używany do wykonywania zapytania lub wyświetlania wykazu baz danych w interfejsie użytkownika jest bezserwerowy. Aby uzyskać szczegółowe informacje, zobacz <docLink>
Limit na ciągłe przeglądanie online został przekroczony.
Nie można utworzyć więcej niż <quota> ciągłych widoków online w sklepie online, a już istnieje <currentCount>. Być może nie masz dostępu do żadnych istniejących widoków w trybie online. Skontaktuj się z administratorem sklepu online, aby uzyskać dostęp lub uzyskać dalsze instrukcje.
Widok online UC nie obsługuje DMK
SQLSTATE: brak przypisania
<tableKind> nie można utworzyć w lokalizacji magazynu przy użyciu kluczy zarządzanych usługi Databricks. Wybierz inny schemat/katalog w lokalizacji magazynu bez szyfrowania za pomocą kluczy zarządzanych przez usługę Databricks.
Widok online nieprawidłowego katalogu
Nieprawidłowy katalog <catalogName> o typie <catalogKind>, aby utworzyć w nim <tableKind>.
<tableKind> można utworzyć tylko w katalogach typów: <validCatalogKinds>.
UC_ONLINE_VIEW_NIEPRAWIDŁOWY_SCHEMAT
Nieprawidłowy schemat <schemaName> z rodzajem <schemaKind> do utworzenia <tableKind> wewnątrz.
<tableKind> można utworzyć tylko w ramach schematów typu: <validSchemaKinds>.
UC_ONLINE_VIEW_NIEPRAWIDŁOWY_TYP_KOLUMN_TTL_CZASU
Kolumna <columnName> typu <columnType> nie może być używana jako kolumna czasu TTL. Dozwolone typy są <supportedTypes>.
OPERACJA_NIEOBSŁUGIWANA
Operacja nie jest obsługiwana przez Katalog Unity. <detailedMessage>
UC_POZA_DOZWOLONYM_ZAKRESEM_ŚCIEŻEK
Błąd ścieżki autoryzacji. Lokalizacja <securableType><location> nie jest zdefiniowana w zatwierdzonych ścieżkach dla katalogu: <catalogName>. Poproś właściciela wykazu o dodanie ścieżki do listy autoryzowanych ścieżek zdefiniowanych w wykazie.
UC_NAKŁADAJĄCE_SIĘ_AUTORYZOWANE_ŚCIEŻKI
Opcja "authorized_paths" zawiera nakładające się ścieżki: <overlappingPaths>. Upewnij się, że każda ścieżka jest unikatowa i nie przecina się z innymi na liście.
Niedopasowanie paginacji i argumentów zapytania UC
Argument zapytania "<arg>" jest ustawiony na "<received>", który różni się od wartości użytej w pierwszym wywołaniu stronicowania ('<expected>)
UC_PATH_FILTER_LISTA_DOZWOLENIA_NARUSZENIE
Poświadczenie "<credentialName>" to domyślne poświadczenie obszaru roboczego, które może uzyskiwać dostęp tylko do danych w następujących ścieżkach: "<allowlist>". Upewnij się, że każda ścieżka, do której uzyskuje dostęp przy użyciu tego poświadczenia, znajduje się w jednej z tych ścieżek.
UC_PATH_FILTER_DENYLIST_VIOLATION
Poświadczenie "<credentialName>" to domyślne poświadczenie obszaru roboczego, które nie może uzyskać dostępu do danych w następującej ścieżce z ograniczeniami: "<targetPath>".
ŚCIEŻKA_ZBYT_DŁUGA
Ścieżka wejściowa jest za długa. Dozwolona długość: <maxLength>. Długość danych wejściowych: <inputLength>. Dane wejściowe: <path>...
Limit współbieżności dla bazy danych w metasklepie został przekroczony.
Przekroczono limit współbieżności dla magazynu metadanych <metastoreId>. Spróbuj ponownie później. Jeśli problem będzie się powtarzać, skontaktuj się z pomocą techniczną. Kod błędu #UC—<errorCodeArbitraryFiveLettersUpperCase>
UC_POSTGRESQL_LIMIT_PRZEKROCZONY_DLA_WIDOKÓW_ONLINE_NA_TABELĘ_ŹRÓDŁOWĄ
Nie można utworzyć więcej niż <quota> zsynchronizowanych tabel baz danych na tabelę źródłową.
Klucz główny na kolumnie umożliwiającej wartości NULL
Nie można utworzyć klucza podstawowego <constraintName>, ponieważ jego kolumny podrzędne <childColumnNames> mogą przyjmować wartość null. Zmień wartość null kolumny i spróbuj ponownie.
UC_REQUEST_LIMIT_EXCEEDED
Twoje żądanie zostało odrzucone, ponieważ Organizacja przekroczyła limit szybkości. Ponów próbę żądania później.
UC_PRZEKROCZENIE_CZASU_ŻĄDANIA
Ta operacja trwała zbyt długo.
UC_RESOURCE_QUOTA_EXCEEDED
Nie można utworzyć <amount> <resourceType>(s) w ( <parentResourceType> <parentResourceId> szacowana liczba: <currentCount>, limit: <quotaLimit>).
NAZWA_WIADRA_S3_KORZENIOWEJ_PAMIECI_CONTAINS_DOT
Nazwa głównego zasobnika magazynu S3 zawierająca kropki nie jest obsługiwana przez Katalog Unity: <uri>
UC_SCHEMA_PUSTA_LOKALIZACJA_MAGAZYNOWA
Nieoczekiwane puste miejsce składowania dla schematu "<schemaName>" w katalogu "<catalogName>". Upewnij się, że schemat używa schematu ścieżki <validPathSchemesListStr>.
Mintowanie tokenów magazynu niezaufanej domeny bezserwerowej UC
Bezserwerowe notesy python i scala nie mogą pobierać poświadczeń magazynu tymczasowego z wykazu aparatu Unity w obszarach roboczych z ograniczeniami sieci.
UC_SHALLOW_CLONE_BASE_TABLE_DELETED
Nie można uzyskać dostępu do płytkiego klonu "<tableFullName>", ponieważ jego tabela podstawowa "<baseTableName>" została usunięta.
STORAGE_CREDENTIALSUC__WITH_EXTERNAL_LOCATION_DELETION_DENIED
Poświadczenie magazynu "<credentialName>" ma <extTablesCount> bezpośrednio zależne tabele zewnętrzne i <extLocationsCount> zależne lokalizacje magazynu. Możesz użyć opcji wymuszenia usunięcia, ale dane magazynu zarządzanego przy użyciu tego poświadczenia magazynu nie mogą być już czyszczone przez wykaz aparatu Unity.
STORAGE_CREDENTIALSUC__WITH_EXTERNAL_LOCATION_UPDATE_DENIED
Poświadczenie magazynu "<credentialName>" ma <extTablesCount> bezpośrednio zależne tabele zewnętrzne i <extLocationsCount> zależne lokalizacje magazynu; użyj opcji wymuszania, aby mimo to zaktualizować.
Problem z parsowaniem danych uwierzytelniających wtyczki UC_STORAGE_CREDENTIAL_ACCESS_CONNECTOR
Nie można przeanalizować podanego identyfikatora łącznika dostępu: <accessConnectorId>. Sprawdź jego formatowanie i spróbuj ponownie.
ODMOWA UPRAWNIEŃ DO UTWORZENIA KREDYTU DO PRZECHOWYWANIA W DBFS_ROOT
Nie można utworzyć poświadczenia magazynu dla DBFS root, ze względu na to, że użytkownik: <userId> nie jest administratorem obszaru roboczego: <workspaceId>
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_DBFS_ENABLED
Poświadczenia magazynu głównego DBFS nie są jeszcze obsługiwane w przypadku obszarów roboczych z włączoną zaporą DBFS
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_NIEOBSŁUGIWANE
Poświadczenie dla głównego magazynu DBFS w bieżącym obszarze roboczym nie jest jeszcze obsługiwane
UC_STORAGE_CREDENTIAL_DBFS_ROOT_WORKSPACE_DISABLED (UC magazyn poświadczeń DBFS główny obszar roboczy wyłączony)
Katalog główny systemu plików DBFS nie jest włączony dla obszaru roboczego <workspaceId>
UC_STORAGE_CREDENTIAL_NIE UDAŁO SIĘ UZYSKAĆ TOKENA WALIDACJI
Nie można uzyskać tokenu usługi AAD w celu przeprowadzenia weryfikacji uprawnień w chmurze na łączniku dostępu. Spróbuj ponownie wykonać akcję.
NIEWAŻNE UPRAWNIENIA CHMUR DLA UC_STORAGE_CREDENTIAL
Zarejestrowanie poświadczeń magazynu wymaga roli współtwórcy za pośrednictwem odpowiedniego łącznika dostępu z identyfikatorem <accessConnectorId>. Skontaktuj się z administratorem konta.
UC_STORAGE_CREDENTIAL_METASTORE_ROOT_DELETION_DENIED
Nie można usunąć poświadczenia magazynu "<credentialName>", ponieważ jest ono skonfigurowane jako poświadczenia główne tego magazynu metadanych. Przed podjęciem próby usunięcia zaktualizuj poświadczenia głównego magazynu metadanych.
Odmowa dostępu do poświadczeń pamięci.
Tylko administrator konta może utworzyć lub zaktualizować poświadczenie magazynu o typie <storageCredentialType>.
UC_STORAGE_CREDENTIAL_SERVICE_PRINCIPAL_MISSING_VALIDATION_TOKEN (brak tokenu walidacji dla poświadczeń serwisu)
Brak tokenu walidacji dla końcowego użytkownika usługi. Proszę podać prawidłowy token Entra ID ograniczony do ARM w nagłówku żądania 'X-Databricks-Azure-SP-Management-Token' i spróbować ponownie. Aby uzyskać szczegółowe informacje, sprawdź https://docs.databricks.com/api/workspace/storagecredentials
ZASADA_ZAUFANIA_DO_PRZECHOWYWANIA_POŚWIADCZEŃ_JEST_OTWARTA
Zasady zaufania roli IAM, umożliwiające konto usługi Databricks przejęcie roli, powinny wymagać identyfikatora zewnętrznego. Skontaktuj się z administratorem konta, aby dodać warunek identyfikatora zewnętrznego. To zachowanie chroni przed problemem Mylonego Zastępcy (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html).
Poświadczenie przechowywania WASBS nie jest głównym katalogiem DBFS
Lokalizacja <location> nie znajduje się w katalogu głównym systemu plików DBFS, dlatego nie możemy utworzyć poświadczenia magazynu <storageCredentialName>
Zabronione poświadczenia magazynu roboczego API UC
Tworzenie lub aktualizowanie poświadczeń magazynu przez osobę, która nie jest administratorem konta, nie jest obsługiwane w interfejsie API na poziomie konta. Proszę zamiast tego używać API na poziomie przestrzeni roboczej.
UC_STORAGE_CREDENTIAL_WS_BUCKET_NIEPRAWIDŁOWA_LOKALIZACJA
Lokalizacja <requestedLocation> nie znajduje się wewnątrz dozwolonego kontekstu <allowedLocation>
Status: UC_STORAGE_CREDENTIAL_WS_INTERNAL_CATALOG_NOT_SUPPORTED (Katalog wewnętrzny nieobsługiwany)
Poświadczenia przechowywania wewnętrznego katalogu dla bieżącego obszaru roboczego nie są jeszcze obsługiwane.
UC_SYSTEM_SCHEMA_NOT_AVAILABLE_FOR_ENABLEMENT
Schemat <systemSchema> systemu nie jest obecnie dostępny dla włączenia. Spróbuj ponownie później.
Nieobsługiwane uprawnienia grupowe w przestrzeni roboczej systemu
Nie można udzielić uprawnień na <securableType> dla grupy wygenerowanej przez system <principal>.
UC_TABLE_IS_LOCKED_FOR_CATALOG_MANAGED_TABLE_MIGRATION
Tabela "<tableId>" jest tymczasowo zablokowana na potrzeby migracji tabel zarządzanych przez wykaz. Transakcje w tej tabeli są blokowane do czasu zakończenia migracji. Spróbuj ponownie transakcji wkrótce.
UC_TABELA_NIE_JEST_CATALOG_WŁASNOŚCIĄ
Wykonanie żądania commit/getCommits dla tabeli "<tableId>" wymaga włączenia funkcji zarządzanej przez katalog na tej tabeli.
PRZYPISANIE_TAGU_Z_KLUCZEM_NIE_ISTNIEJE
Przypisanie tagu z kluczem <tagKey> nie istnieje
Operacja tymczasowego poświadczenia UC nieobsługiwana
Operacja tymczasowych poświadczeń nie jest obsługiwana.
UC_UNDROP_RESOURCE_ID_ALREADY_EXISTS
Nie można cofnąć "<resourceType>", ponieważ istnieje już element "<resourceType>" o identyfikatorze "<resourceId>".
UC_NAZWA_ZASOBU_JEST_JUŻ_ODTWORZONA
Nie można cofnąć "<resourceType>", ponieważ element "<resourceType>" o nazwie "<resourceName>" już istnieje.
Produkt źródłowy niedostępny
Nie można cofnąć '"<resourceType>"', ponieważ '<resourceType>' o identyfikatorze '<resourceId>' nie jest gotowy do przywrócenia, spróbuj ponownie później.
UC_UNDROP_RESOURCE_PAST_CUSTOM_RETENTION_PERIOD
Nie można cofnąć "<resourceType>", ponieważ identyfikator "<resourceType>" o identyfikatorze "<resourceId>" wykracza poza niestandardowy okres przywracania.
UC_UNDROP_RESOURCE_PAST_RECOVERABLE_WINDOW (Zasób nie do odzyskania po upływie okna przywracania)
Nie można przywrócić "<resourceType>", ponieważ element "<resourceType>" o identyfikatorze "<resourceId>" przekracza obsługiwany okres przywracania wynoszący "<maxRestorationPeriodDay>" dni.
UC_UNIQUE_CONSTRAINT_CHILD_COLUMNS_ALREADY_EXIST
Nie można utworzyć UNIQUE ograniczenia <newConstraintName>: tabela <tableName> ma UNIQUE już ograniczenie: <existingConstraintName>, który ma ten sam zestaw kolumn podrzędnych.
UC_UNIQUE_CONSTRAINT_NOT_SUPPORTED
Nie można uruchomić z UNIQUE ograniczeniem <constraintName>: UNIQUE ograniczenie nie jest włączone.
UC_NIEOBSŁUGIWANA_ŚCIEŻKA_BAZOWA_POŁĄCZENIA_HTTP
Podano nieprawidłową ścieżkę podstawową, ścieżka podstawowa powinna być podobna do /api/resources/v1. Nieobsługiwana ścieżka: <path>
NIENOBSŁUGIWANY HOST POŁĄCZENIA HTTP
Podano nieprawidłową nazwę hosta. Nazwa hosta powinna być podobna do https://www.databricks.com i nie zawierać sufiksu ścieżki. Nieobsługiwany host: <host>
NIEOBSŁUGIWANY_ZNAK_LATYŃSKI_W_ŚCIEŻCE
Obsługiwane są tylko podstawowe znaki łacińskie/łacina-1 ASCII w ścieżkach lokalizacji, woluminach i tabelach. Nieobsługiwana ścieżka: <path>
Aktualizacja UC jest zabroniona dla chronionego zasobu konfiguracyjnego
Nie można zaktualizować <securableType> "<securableName>", ponieważ jest w trakcie aprowizacji.
UC_USING_REF_OF_MASKED_COLUMNS
Błąd podczas oceniania zasad ABAC dla elementu "<resource>". Komunikat zakończył się niepowodzeniem: kolumna "<usingCol>" została zamaskowana przez zasady ABAC "<existingMaskingPolicy>" i nie można jej użyć w zasadach "<policyName>".
Konflikt zapisu UC
<type> <name> zostało zmodyfikowane przez inne żądanie. Ponów próbę wykonania operacji.
UNDROP_TABLE_NOT_FOUND
Nie można cofnąć tabeli, ponieważ żadna tabela o nazwie <tableFullName> nie kwalifikuje się do cofnięcia. Ta tabela może być już rozpakowana, usunięta poza maksymalny okres przywracania lub nigdy nie istniała.
ŻĄDANIE KOORDYNOWANYCH KOMITETÓW ZEWNĘTRZNYCH W JEDNOLITYM KATALOGU ODRZUCONE
Żądanie wykonania commit/getCommits dla tabeli "<tableId>" z poza środowiska obliczeniowego z włączonym Databricks Unity Catalog zostało odrzucone ze względu na bezpieczeństwo. Skontaktuj się z pomocą techniczną Databricks w sprawie integracji z Unity Catalog.
Żądanie utworzenia tabeli tymczasowej zewnętrznej w Unity Catalog zostało odrzucone.
Żądanie utworzenia tabeli przejściowej "<tableFullName>" spoza środowiska obliczeniowego z włączonym katalogiem Unity usługi Databricks zostało odrzucone w celu zapewnienia bezpieczeństwa. Skontaktuj się z pomocą techniczną Databricks w sprawie integracji z Unity Catalog.
COLUMN_MASKSUNITY_CATALOG_EXTERNAL_CREATE_TABLE_FAILED_VALIDATION__DEFINED
Żądanie utworzenia tabeli "<tableFullName>" spoza środowiska obliczeniowego z obsługą wykazu aparatu Unity usługi Databricks zostało odrzucone. Maski kolumn nie są obsługiwane podczas tworzenia tabel zewnętrznie.
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_FAILED_VALIDATION_DATA_SOURCE_FORMAT_NOT_DELTA
Żądanie utworzenia tabeli "<tableFullName>" spoza środowiska obliczeniowego z obsługą wykazu aparatu Unity usługi Databricks zostało odrzucone. Format źródła danych musi być DELTA tworzony zewnętrznie, zamiast tego jest to "<dataSourceFormat>".
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_FAILED_VALIDATION_TABLE_TYPE_NOT_EXTERNAL
Żądanie utworzenia tabeli "<tableFullName>" spoza środowiska obliczeniowego z obsługą wykazu aparatu Unity usługi Databricks zostało odrzucone. Typ tabeli musi być EXTERNAL tworzony zewnętrznie, zamiast tego jest to "<tableType>".
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_INFO_CONTAINS_INVALID_FIELDS
Tworzenie tabeli zewnętrznej zezwala tylko na następujące pola: [name, catalog_name, schema_name, table_type, data_source_format, columns, storage_location i properties].
Próba utworzenia tabeli zewnętrznej dla nie-zewnętrznej tabeli w katalogu UNITY została odrzucona.
Żądanie utworzenia wewnętrznej tabeli "<tableFullName>" spoza środowiska obliczeniowego z włączoną obsługą Unity Catalog usługi Databricks jest odrzucone dla zapewnienia bezpieczeństwa. Skontaktuj się z pomocą techniczną Databricks w sprawie integracji z Unity Catalog.
ŻĄDANIE_USUNIĘCIA_TABELI_ZEWNĘTRZNEJ_W_KATALOGU_JEDNOŚCI_ODRZUCONE_DLA_NIEZEROWNĘTRZNEJ_TABELI
Żądanie usunięcia tabeli niewewnętrznej "<tableFullName>" spoza środowiska obliczeniowego z włączonym Databricks Unity Catalog nie jest obsługiwane.
Odmowa generowania poświadczeń ścieki w UNITY_CATALOG_EXTERNAL.
Żądanie wygenerowania poświadczeń dostępu dla ścieżki "<path>" spoza środowiska obliczeniowego z włączonym Unity Catalog Databricks jest odrzucone z powodów bezpieczeństwa. Skontaktuj się z pomocą techniczną Databricks w sprawie integracji z Unity Catalog.
ODMOWA PRZYZNANIA UPRAWNIEŃ DO GENEROWANIA DANYCH UWIERZYTELNIAJĄCYCH W TABELI W UNITY CATALOG EXTERNAL
Żądanie wygenerowania poświadczeń dostępu dla tabeli "<tableId>" spoza środowiska obliczeniowego z obsługą katalogu Unity w Databricks zostało odrzucone ze względów bezpieczeństwa. Skontaktuj się z pomocą techniczną Databricks w sprawie integracji z Unity Catalog.
UNITY_CATALOG_EXTERNAL_GENERATE_TEMP_PATH_CRED_FAILED_VALIDATION_CREDENTIAL_ID_DEFINED
Żądanie wygenerowania poświadczeń ścieżki tymczasowej spoza środowiska obliczeniowego z obsługą wykazu aparatu Unity usługi Databricks zostało odrzucone. Identyfikator poświadczeń nie może być zdefiniowany podczas zewnętrznego generowania poświadczeń ścieżki tymczasowej.
UNITY_CATALOG_EXTERNAL_GENERATE_TEMP_PATH_CRED_FAILED_VALIDATION_MAKE_PATH_ONLY_PARENT_DEFINED
Żądanie wygenerowania poświadczeń ścieżki tymczasowej spoza środowiska obliczeniowego z obsługą wykazu aparatu Unity usługi Databricks zostało odrzucone. make_path_only_parent nie można zdefiniować podczas zewnętrznego generowania poświadczeń ścieżki tymczasowej.
UNITY_CATALOG_EXTERNAL_GENERATE_VOLUME_CREDENTIALS_DENIED
Żądanie wygenerowania poświadczeń dostępu dla woluminu "<volumeId>" spoza środowiska obliczeniowego z obsługą wykazu aparatu Unity usługi Databricks jest odrzucane w celu zapewnienia bezpieczeństwa. Skontaktuj się z pomocą techniczną Databricks w sprawie integracji z Unity Catalog.
UNITY_CATALOG_EXTERNAL_GENERATE_VOLUME_CREDENTIALS_FOR_SECURABLE_KIND_NOT_SUPPORTED
Żądanie wygenerowania poświadczeń dostępu dla elementu "<volumeSecurableKind>" spoza środowiska obliczeniowego z obsługą wykazu aparatu Unity usługi Databricks jest odrzucane w celu zapewnienia bezpieczeństwa. Skontaktuj się z pomocą techniczną Databricks w sprawie integracji z Unity Catalog.
If more context is given about the use, the translation or explanation can be fine-tuned. Without specific instructions or context indicating the necessity to translate, it is reasonable not to translate the term and leave it as is in environments where the specific technical term is recognized.
Żądanie uzyskania zagranicznych poświadczeń dla zabezpieczeń spoza środowiska obliczeniowego obsługiwanego przez Databricks Unity Catalog zostaje odrzucone ze względów bezpieczeństwa.
UNITY_CATALOG_ZEWNETRZNA_AKTUALIZACJA_METADANYCH_PRZECHWYT_DENIED
Żądanie zaktualizowania migawek metadanych spoza środowiska obliczeniowego z obsługą Unity Catalog w Databricks jest odrzucane ze względów bezpieczeństwa.
UNSUPPORTED_LOCATION_SCHEME
<fieldName> ma nieprawidłowy schemat <scheme>identyfikatora URI . Prawidłowe schematy identyfikatorów URI obejmują .<validSchemes> Nieprawidłowa ścieżka: <path>.
UPDATE_SYSTEM_TABLE
Nie można zmodyfikować tabeli należącej do systemu. Tabela "<tableName>" jest tabelą należącą do systemu.
Pisanie poświadczeń nieobsługiwane dla zarządzanej tabeli online starszego typu.
Nieprawidłowe żądanie uzyskania uprawnień do zapisu dla zarządzanej tabeli online w wykazie online.
API plików
API do plików nie jest włączone
SQLSTATE: brak przypisania
<api_name> Interfejs API nie jest włączony
API_do_plików_nie_jest_aktywowana_dla_ścieżek_chmurowych
SQLSTATE: brak przypisania
Żądana metoda Files API nie jest obsługiwana dla ścieżek w chmurze.
FILES_API_AWS_ACCESS_DENIED (Odmowa dostępu do API plików AWS)
SQLSTATE: brak przypisania
Odmowa dostępu do wiadra przechowywania przez AWS.
API_PLIKI_AWS_WSZYSTKIE_DOSTĘPY_WYŁĄCZONE
SQLSTATE: brak przypisania
Cały dostęp do zasobnika przechowywania został wyłączony w AWS.
FILES_API_AWS_BUCKET_NIE_ISTNIEJE
SQLSTATE: brak przypisania
Wskazany zasobnik pamięci nie istnieje w AWS.
Pliki_API_AWS_Zabronione
SQLSTATE: brak przypisania
Dostęp do przestrzeni magazynowej jest zabroniony przez AWS.
FILES_API_AWS_INVALID_AUTHORIZATION_HEADER (Nieprawidłowy nagłówek autoryzacji)
SQLSTATE: brak przypisania
Obszar roboczy jest nieprawidłowo skonfigurowany: musi znajdować się w tym samym regionie co główny zasobnik magazynu obszaru roboczego platformy AWS.
FILES_API_AWS_NIEPRAWIDŁOWA_NAZWA_KOSZYKA
SQLSTATE: brak przypisania
Nazwa kosza magazynowego jest nieprawidłowa.
FILES_API_AWS_KMS_KEY_WYŁĄCZONY
SQLSTATE: brak przypisania
Skonfigurowane klucze usługi KMS w celu uzyskania dostępu do zasobnika magazynu są wyłączone w usłudze AWS.
DOSTĘP_DO_API_PLIKÓW_AWS_NIEAUTORYZOWANY
SQLSTATE: brak przypisania
Dostęp do zasobu platformy AWS jest nieautoryzowany.
KONTO_AZURE_API_PLIKI_JEST_WYŁĄCZONE
SQLSTATE: brak przypisania
Konto przechowywania jest wyłączone na platformie Azure.
UPRAWNIENIA_AUTORYZACJA_AZURE_NIEZGODNOŚĆ
SQLSTATE: brak przypisania
Niezgodność uprawnień do autoryzacji.
FILES_API_AZURE_CMK_NOT_FOUND
SQLSTATE: brak przypisania
Nie można odnaleźć klucza szyfrowania zarządzanego.
FILES_API_AZURE_CMK_SOFT_DELETED
SQLSTATE: brak przypisania
Klucz szyfrowania zarządzanego został usunięty nietrwale.
PlikAPI_KontenerAzureNieIstnieje
SQLSTATE: brak przypisania
Kontener platformy Azure nie istnieje.
FILES_API_AZURE_CREDENTIAL_NOT_FOUND
SQLSTATE: brak przypisania
Nie znaleziono poświadczeń platformy Azure. Brak poświadczeń platformy Azure lub jest on niedostępny.
DOSTĘP DO AZURE FILES API ZABRONIONY
SQLSTATE: brak przypisania
Dostęp do kontenera magazynu jest zabroniony przez platformę Azure.
Plików_API_Azure_ma_dzierżawę
SQLSTATE: brak przypisania
Platforma Azure odpowiedziała, że obecnie istnieje dzierżawa zasobu. Spróbuj ponownie później.
FILES_API_AZURE_NIEWYSTARCZAJĄCE_UPRAWNIENIA_KONTA
SQLSTATE: brak przypisania
Konto, do którego próbujesz uzyskać dostęp, nie ma wystarczających uprawnień do wykonania tej operacji.
PLIKI_API_AZURE_NIEPRAWIDŁOWA_KONFIGURACJA_KONTA_MAGAZYNOWANIA
SQLSTATE: brak przypisania
Konfiguracja konta, do którego jest dostęp, nie jest obsługiwana.
NIEPRAWIDŁOWA_NAZWA_KONTA_STORAGE_AZURE_FILES_API
SQLSTATE: brak przypisania
Nie można uzyskać dostępu do konta magazynu na platformie Azure: nieprawidłowa nazwa konta magazynu.
Uwierzytelnianie za pomocą klucza w plikach API Azure jest niedozwolone.
SQLSTATE: brak przypisania
Magazyn kluczy nie został znaleziony na platformie Azure. Sprawdź ustawienia kluczy zarządzanych przez klienta.
PLIK_API_AZURE_KEY_VAULT_KLUCZ_NIE_ZNALEZIONO
SQLSTATE: brak przypisania
Nie można odnaleźć klucza usługi Azure Key Vault na platformie Azure. Sprawdź ustawienia kluczy zarządzanych przez klienta.
KLUCZ AZURE W SKRZYNI NIE ZNALEZIONY
SQLSTATE: brak przypisania
Magazyn kluczy nie został znaleziony na platformie Azure. Sprawdź ustawienia kluczy zarządzanych przez klienta.
Brak połączenia z FILES_API_AZURE_MI_ACCESS_CONNECTOR_NOT_FOUND
SQLSTATE: brak przypisania
Nie można odnaleźć poświadczenia tożsamości zarządzanej Azure z konektorem dostępu. Może to być spowodowane tym, że mechanizmy kontroli dostępu do adresów IP odrzuciły twoje żądanie.
Przekroczenie czasu operacji FILES_API_AZURE
SQLSTATE: brak przypisania
Nie można ukończyć operacji w dozwolonym czasie.
Ścieżka pliku API Azure jest nieprawidłowa
SQLSTATE: brak przypisania
Żądana ścieżka jest nieprawidłowa dla platformy Azure.
Ścieżka w FILES_API_AZURE jest niezmienna.
SQLSTATE: brak przypisania
Żądana ścieżka jest niezmienna.
FILES_API_AZURE_UNSUPPORTED_HEADER (Nieobsługiwany nagłówek Azure Files API)
SQLSTATE: brak przypisania
Jeden z nagłówków określonych w operacji nie jest obsługiwany.
FILES_API_NIE_MOŻE_JEDNOZNACZNIE_OKREŚLIĆ_PARAMETRU_URL
SQLSTATE: brak przypisania
Nie można przeanalizować parametru adresu URL.
PLIK_API_KATALOG_NIE_ZNALEZIONY
SQLSTATE: brak przypisania
<unity_catalog_error_message>
ZASOBY_CHMURY_API_PLIKÓW_WYCZERPANE
SQLSTATE: brak przypisania
<message>
PROBLEM Z POŁĄCZENIEM DOSTAWCY PRZECHOWYWANIA W CHMURZE W API PLIKÓW
SQLSTATE: brak przypisania
Wystąpił problem z połączeniem w dotarciu do <cloud_storage_provider>. Spróbuj ponownie później.
API_PLIKÓW_DWUKROPEK_NIE_JEST_OBSŁUGIWANY_W_ŚCIEŻCE
SQLSTATE: brak przypisania
znak ":" nie jest obsługiwany w ścieżkach
STREFY_SIECI_KONSUMENCKIEJ_API_PLIKÓW_NIEDOZWOLONA
SQLSTATE: brak przypisania
Strefa sieci użytkownika "<consumer_network_zone>" nie jest dozwolona dla strefy sieciowej żądającego "<requester_network_zone>".
STREFY SIECI NIE DOZWOLONE W PŁASZCZYŹNIE STEROWANIA PLIKAMI API
SQLSTATE: brak przypisania
Strefa sieciowa płaszczyzny sterowania Databricks jest zabroniona.
FILES_API_CREDENTIAL_NOT_FOUND
SQLSTATE: brak przypisania
Nie można odnaleźć poświadczeń.
FILES_API_KATALOGI_NIE_MOGĄ_MIEĆ_TREŚCI
SQLSTATE: brak przypisania
Treść została podana, ale katalogi nie mogą mieć treści pliku
Katalog nie jest pusty
SQLSTATE: brak przypisania
Katalog nie jest pusty. Ta operacja nie jest obsługiwana w katalogach innych niż puste.
KATALOG_API_PLIKÓW_NIE_ZNALEZIONO
SQLSTATE: brak przypisania
Katalog, do którego uzyskujesz dostęp, nie został znaleziony.
FILES_API_DIRECTORY_ZIP_DOWNLOAD_FILE_LIMIT_EXCEEDED
SQLSTATE: brak przypisania
Katalog zawiera zbyt wiele plików do pobrania pliku ZIP. Maksymalna dozwolona <max_file_count> liczba plików.
FILES_API_DMK_ZASZYFROWANY_KLUCZ_KORZENNY_WYŁĄCZONY
SQLSTATE: brak przypisania
Klucz główny szyfrowania zarządzanego przez klienta jest wyłączony.
FILES_API_ZDUBLOWANY_NAGŁÓWEK
SQLSTATE: brak przypisania
Żądanie zawierało wiele kopii nagłówka, które jest dozwolone tylko raz.
PARAMETR_ZAPYTANIA_DUPLIKATU_PLIKÓW_API
SQLSTATE: brak przypisania
Parametr zapytania "<parameter_name>" musi być obecny dokładnie raz, ale został podany wiele razy.
FILES_API_PUSTA_NAZWA_BUCKETU
SQLSTATE: brak przypisania
Nazwa zasobnika DBFS jest pusta.
BŁĄD_API_KLUCZ_SZYFROWANIA_UPRAWNIENIA_ODRZUCONE
SQLSTATE: brak przypisania
Użytkownik nie ma dostępu do klucza szyfrowania.
LIMIT_CZASU_OPERACJI_ODZYSKIWANIA_KLUCZA_SZYFROWANIA_API_PLIKÓW
SQLSTATE: brak przypisania
Nie można ukończyć operacji pobierania klucza szyfrowania w dozwolonym czasie.
Plik API jest za duży
SQLSTATE: brak przypisania
Obiekt przekracza maksymalny dozwolony rozmiar obiektu.
BŁĄD_API_PLIKÓW_WYGAŚNIĘCIE_TTL
SQLSTATE: brak przypisania
TTL wygasł.
FILES_API_ERROR_INVALID_TTL (BŁĄD_API_PLIKÓW_NIEWAŻNY_TTL)
SQLSTATE: brak przypisania
TTL jest nieprawidłowy.
BŁĄD_FILES_API_KLUCZ_DLA_PRZESTRZENI_ROBOCZEJ_NIE_ODNALEZIONO
SQLSTATE: brak przypisania
Nie można odnaleźć klucza obszaru roboczego.
BŁĄD_API_PLIKÓW_BRAKUJĄCY_WYMAGANY_PARAMETR
SQLSTATE: brak przypisania
Brak wymaganego parametru adresu URL.
BŁĄD_API_PLIKÓW_TTL_W_PRZYSZŁOŚCI
SQLSTATE: brak przypisania
Czas TTL jest w przyszłości.
BŁĄD_API_PLIKÓW_NIEPRAWIDŁOWY_ADRES_URL_NADAJĄCY_FRAGMENT_NAZWY
SQLSTATE: brak przypisania
Nazwa fragmentu wystawcy jest nieprawidłowa.
CZAS_WAŻNOŚCI_API_PLIKÓW_MUSI_BYĆ_OBECNY
SQLSTATE: brak przypisania
Czas wygaśnięcia musi być podany
TOKEN_API_PLIKÓW_WYGAŚNIĘTY
SQLSTATE: brak przypisania
Podany token wygasł.
CZAS_WAŻNOŚCI_FILES_API_MUSI_BYĆ_W_PRZYSZŁOŚCI
SQLSTATE: brak przypisania
ExpireTime musi być w przyszłości
PLIKI_API_CZAS_WYGAŚNIĘCIA_ZBYT_ODLEGŁY_W_PRZYSZŁOŚCI
SQLSTATE: brak przypisania
Żądany czas wygaśnięcia (TTL) jest dłuższy niż obsługiwany (1 godzina).
{ "PLIKI_API": "PLIKI_API", "ZEWNĘTRZNA_ŚCIEŻKA": "ZEWNĘTRZNA_ŚCIEŻKA", "NAKŁADANIE_SIĘ": "NAKŁADANIE_SIĘ", "INNA_ jednostka_uc": "INNA_JEDNOSTKA_UC", "ENTITY": "ENCJA" }
SQLSTATE: brak przypisania
<unity_catalog_error_message>
PLIKI_API_PLIK_JUŻ_ISTNIEJE
SQLSTATE: brak przypisania
Utworzony plik już istnieje.
PLIK_API_PLIK_NIE_ZNALEZIONY
SQLSTATE: brak przypisania
Nie można odnaleźć dostępnego pliku.
PLIK_API_PLIK_LUB_KATALOG_KOŃCZY_SIĘ_KROPKĄ
SQLSTATE: brak przypisania
Pliki lub katalogi kończące się znakiem "". Nie są obsługiwane.
Rozmiar pliku przekroczył dozwolony limit API.
SQLSTATE: brak przypisania
Rozmiar pliku nie powinien przekraczać <max_download_size_in_bytes> bajtów, ale znaleziono <size_in_bytes> bajtów.
KONTO_API_GCP_JEST_WYŁĄCZONE
SQLSTATE: brak przypisania
Dostęp do wiadra pamięci został wyłączony w GCP.
Plik_API_GCP_Wiadro_Nie_Istnieje
SQLSTATE: brak przypisania
Kubełek storage nie istnieje w GCP.
Pliki_API_GCP_Zabronione
SQLSTATE: brak przypisania
Dostęp do zasobnika jest zabroniony przez GCP.
FILES_API_GCP_IAM_AUTHENTICATION_FAILURE
SQLSTATE: brak przypisania
Uwierzytelnianie nie powiodło się w przypadku operacji GCP IAM.
FILES_API_GCP_IAM_CREDENTIALS_NOT_FOUND
SQLSTATE: brak przypisania
Określone poświadczenia GCP nie istnieją lub nie można uzyskać do niego dostępu.
FILES_API_GCP_IAM_PERMISSION_DENIED
SQLSTATE: brak przypisania
Odmowa uprawnień dla operacji GCP IAM.
FILES_API_GCP_KEY_DELETED
SQLSTATE: brak przypisania
Klucz szyfrowania został usunięty lub nie jest już dostępny.
KLUCZ_FILES_API_GCP_WYŁĄCZONY_LUB_USUNIĘTY
SQLSTATE: brak przypisania
Klucz szyfrowania zarządzany przez klienta skonfigurowany dla tej lokalizacji jest wyłączony lub zniszczony.
Żądanie do FILES_API_GCP jest zabronione przez politykę.
SQLSTATE: brak przypisania
Żądania GCP do zasobnika są zabronione przez politykę, sprawdź kontrole usług VPC.
FILES_API_GCP_USER_PROJECT_ACCOUNT_PROBLEM
SQLSTATE: brak przypisania
Wystąpił problem z projektem GCP używanym w żądaniu, który uniemożliwia pomyślne ukończenie operacji.
HOST_API_PLIKÓW_JEST_CHWILOWO_NIEDOSTĘPNY
SQLSTATE: brak przypisania
Host dostawcy usług w chmurze jest tymczasowo niedostępny; Spróbuj ponownie później.
FILES_API_INVALID_CONTENT_LENGTH
SQLSTATE: brak przypisania
Wartość nagłówka zawartości musi być liczbą całkowitą większą lub równą 0.
NIEPRAWIDŁOWY_TOKEN_KONTYNUACJI_API_PLIKÓW
SQLSTATE: brak przypisania
Podany token strony jest nieprawidłowy.
FILES_API_INVALID_HEADER_VALUE
SQLSTATE: brak przypisania
Wartość nagłówka "<header_name>" jest nieprawidłowa.
FILES_API_NIEPRAWIDŁOWA_NAZWA_HOSTA
SQLSTATE: brak przypisania
Nazwa hosta jest nieprawidłowa.
NIEPRAWIDŁOWA_METODA_HTTP_W_API_PLIKÓW
SQLSTATE: brak przypisania
Nieprawidłowa metoda http. Oczekiwano "<expected>", ale ma "<actual>".
FILES_API_NIEPRAWIDŁOWY_NAGŁÓWEK_METASTORE_ID
SQLSTATE: brak przypisania
Nagłówek identyfikatora magazynu metadanych jest nieprawidłowy.
BŁĘDNY TOKEN STRONY W API PLIKÓW
SQLSTATE: brak przypisania
nieprawidłowy token strony
Ścieżka pliku API jest niepoprawna
SQLSTATE: brak przypisania
Nieprawidłowa ścieżka: <validation_error>
FILES_API_NIEPRAWIDŁOWY_ZAKRES
SQLSTATE: brak przypisania
Nagłówek zakresu jest nieprawidłowy.
FILES_API_INVALID_RESOURCE_FULL_NAME (Błędna pełna nazwa zasobu)
SQLSTATE: brak przypisania
<unity_catalog_error_message>
BŁĄD_API_NIEPRAWIDŁOWY_TOKEN_SESJI
SQLSTATE: brak przypisania
Nieprawidłowy token sesji
NIEPRAWIDŁOWY_TYP_TOKENU_SESJI_FILES_API
SQLSTATE: brak przypisania
Nieprawidłowy typ tokenu sesji. Oczekiwano "<expected>", ale ma "<actual>".
NIEPRAWIDŁOWY_ZNACZNIK_CZASU_API_PLIKÓW
SQLSTATE: brak przypisania
Sygnatura czasowa jest nieprawidłowa.
Nieprawidłowy typ przesyłania w API plików
SQLSTATE: brak przypisania
Nieprawidłowy typ przekazywania. Oczekiwano "<expected>", ale ma "<actual>".
FILES_API_INVALID_URL
SQLSTATE: brak przypisania
Nieprawidłowy adres URL
BŁĘDNY PARAMETR URL W API PLIKÓW
SQLSTATE: brak przypisania
Adres URL przekazany jako parametr jest nieprawidłowy
NIEPRAWIDŁOWA_WARTOŚĆ_DLA_PARAMETRU_ZAPYTANIA_NADPISYWANIE_FILES_API
SQLSTATE: brak przypisania
Parametr zapytania "overwrite" musi mieć wartość jedną z: true, false, ale miał: <got_values>
FILES_API_NIEPRAWIDŁOWA_WARTOŚĆ_DLA_PARAMETRU_ZAPYTANIA
SQLSTATE: brak przypisania
Parametr zapytania "<parameter_name>" musi być jednym z: <expected> ale był: <actual>
NIEPRAWIDŁOWE_CIAŁO_ŻĄDANIA_API_PLIKÓW
SQLSTATE: brak przypisania
Źle sformułowana treść żądania
FUNKCJA KATALOGU ZARZĄDZANEGO API PLIKÓW WYŁĄCZONA
SQLSTATE: brak przypisania
<unity_catalog_error_message>
Pliki_API_Metadane_Nie_Znaleziono
SQLSTATE: brak przypisania
<unity_catalog_error_message>
Metoda FILES_API nie jest włączona dla przechowywania artefaktów obliczeń w tle zadań.
SQLSTATE: brak przypisania
Żądana metoda API plików nie jest obsługiwana w przypadku magazynowania artefaktów przetwarzania w tle zadań.
BRAKUJE_DŁUGOŚCI_TREŚCI_API_PLIKÓW
SQLSTATE: brak przypisania
Nagłówek określający długość jest wymagany w żądaniu.
BRAK_PARAMETRU_ZAPYTANIA_API_PLIKÓW
SQLSTATE: brak przypisania
Parametr zapytania "<parameter_name>" jest wymagany, ale brakuje go w żądaniu.
FILES_API: Brak wymaganych parametrów w żądaniu
SQLSTATE: brak przypisania
W żądaniu brakuje wymaganego parametru.
FILES_API_MLFLOW_PERMISSION_DENIED (Odmowa uprawnień do API plików MLflow)
SQLSTATE: brak przypisania
<mlflow_error_message>
FILES_API_MLFLOW_RESOURCE_EXHAUSTED
SQLSTATE: brak przypisania
Limit żądań przekroczył rozmowę z usługą mlflow.
WERSJA MODELU API PLIKÓW NIE JEST GOTOWA
SQLSTATE: brak przypisania
Wersja modelu nie jest jeszcze gotowa
FILES_API_WIELOCZĘŚCIOWE_PRZESYŁANIE_ANULUJ_UTWORZONY_ADRES_URL_NIEOBSŁUGIWANY
SQLSTATE: brak przypisania
Wstępnie podpisane adresy URL do przerywania wysyłania wieloczęściowego nie są obsługiwane dla plików przechowywanych w systemie <cloud_storage_provider>.
FILES_API_MULTIPART_UPLOAD_ABORT_UPLOAD_NOT_SUPPORTED
SQLSTATE: brak przypisania
Przerywanie przekazywania wieloczęściowego nie jest obsługiwane w przypadku plików przechowywanych w systemie <cloud_storage_provider>.
PLIKI_API_WIELOCZĘŚCIOWY_UPLOAD_PUSTA_LISTA_CZĘŚCI
SQLSTATE: brak przypisania
Lista części musi zawierać co najmniej jeden element, ale była pusta.
BŁĄD_API_NIEPRAWIDŁOWA_CZĘŚĆ_WIELOCZĘŚCIOWEGO_PRZESYŁANIA
SQLSTATE: brak przypisania
Nie można odnaleźć co najmniej jednej z określonych części. Część mogła nie zostać załadowana lub podany tag jednostki może nie być zgodny z tagiem jednostki części.
BŁĄD_API_WIELOCZĘŚCIOWEGO_PRZESYŁANIA_NIEPRAWIDŁOWY_NUMER_CZĘŚCI
SQLSTATE: brak przypisania
Liczby części muszą być większe lub równe <min> i mniejsze niż lub równe <max>.
Przesyłanie_wieloczęściowe_API_PLIKÓW_BRAKUJĄCY_ETAG
SQLSTATE: brak przypisania
ETagi muszą być dostarczone dla plików przechowywanych na <cloud_storage_provider>. Co najmniej jeden element ETag nie został podany ani pusty.
PLIKI_API_ZMIENIONY_STAN_JEDNOSTKI_PRZECHOWYWANIA_MULTICZĘŚCIOWEGO_UPLOADU
SQLSTATE: brak przypisania
Stan wewnętrzny jednostki magazynu został zmodyfikowany od momentu zainicjowania przekazywania, na przykład dlatego, że ścieżka pliku nie wskazuje tej samej bazowej lokalizacji magazynu w chmurze. Przejdź do rozpoczęcia nowej sesji wysyłania.
CZĘŚCI NIETRAJLUJĄCE O RÓŻNYCH ROZMIARACH W WIELOCZĘŚCIOWYM PRZESYŁANIU PLIKÓW ZA POMOCĄ API
SQLSTATE: brak przypisania
Części przekazane w ramach sesji przekazywania wieloczęściowego muszą mieć taki sam rozmiar dla plików przechowywanych w systemie <cloud_storage_provider>, z wyjątkiem ostatniej części, która może być mniejsza.
Rozmiar części przesyłania wieloczęściowego przez FILES_API poza zakresem
SQLSTATE: brak przypisania
Rozmiar części przekazanych w ramach sesji przesyłania wieloczęściowego musi być większy lub równy <min> oraz mniejszy lub równy <max>.
SESJA_PRZESYŁANIA_WIELOCZĘŚCIOWEGO_NIE_ZNALEZIONA
SQLSTATE: brak przypisania
Nie można odnaleźć sesji przesyłania. Mogło to zostać przerwane lub ukończone.
Niezamówiona lista części przesyłania wieloczęściowego API plików
SQLSTATE: brak przypisania
Lista części musi być uporządkowana według numeru części, ale nie została uporządkowana.
FILES_API_NON_ZERO_CONTENT_LENGTH
SQLSTATE: brak przypisania
Nagłówek o długości zawartości musi być zerowy dla tego żądania.
API plików nie jest włączone dla miejsca
SQLSTATE: brak przypisania
API plików dla <place> nie jest włączone dla tego obszaru roboczego/konta
API_PLIKÓW_NIEOBSŁUGIWANE_DLA_WEWNĘTRZNEJ_PAMIĘCI_ROBOCZEJ
SQLSTATE: brak przypisania
Żądana metoda interfejsu API plików nie jest obsługiwana dla wewnętrznego magazynu obszarów roboczych
OPERACJA_API_PLIKÓW_MUSI_BYĆ_OBECNA
SQLSTATE: brak przypisania
musi istnieć operacja
LIMIT_CZASOWY_OPERACJI_FILES_API
SQLSTATE: brak przypisania
Upłynął limit czasu operacji.
ROZMIAR_STRONY_FILES_API_MUSI_BYĆ_WIĘKSZY_LUB_RÓWNY_ZERO
SQLSTATE: brak przypisania
page_size musi być większa lub równa 0
FILES_API_PATH_BASED_ACCESS_TO_TABLE_WITH_FILTER_NOT_ALLOWED
SQLSTATE: brak przypisania
<unity_catalog_error_message>
ŚCIEŻKA_API_PLIKÓW_MUSI_KOŃCZYĆ_SIĘ_SKOŚNIKIEM
SQLSTATE: brak przypisania
Ścieżki kończące się znakiem "/" reprezentują katalogi. Ten interfejs API nie obsługuje operacji na katalogach.
ŚCIEŻKA_API_PLIKÓW_JEST_KATALOGIEM
SQLSTATE: brak przypisania
Podana ścieżka wskazuje istniejący katalog. Ten interfejs API nie obsługuje operacji na katalogach.
ŚCIEŻKA_FILES_API_JEST_PLIKIEM
SQLSTATE: brak przypisania
Podana ścieżka wskazuje istniejący plik. Ten interfejs API nie obsługuje operacji na plikach.
ŚCIEŻKA_API_PLIKÓW_NIE_JEST_POPRAWNYM_UTF8_ZAKODOWANYM_URL
SQLSTATE: brak przypisania
podana ścieżka nie była prawidłowym adresem URL zakodowanym w formacie UTF-8
Ścieżka API plików nie jest włączona dla proxy płaszczyzny danych
SQLSTATE: brak przypisania
Podana ścieżka nie jest aktywowana dla serwera proxy warstwy danych
ŚCIEŻKA_PLIKU_API_MUSI_BYĆ_OBECNA
SQLSTATE: brak przypisania
ścieżka musi istnieć
ŚCIEŻKA_API_PLIKÓW_NIEOBSŁUGIWANA
SQLSTATE: brak przypisania
<rejection_message>
ŚCIEŻKA_API_PLIKÓW_ZBYT_DŁUGA
SQLSTATE: brak przypisania
Podana ścieżka pliku jest za długa.
BŁĄD_WARUNKÓW_WSTĘPNYCH_API_PLIKÓW
SQLSTATE: brak przypisania
Żądanie nie powiodło się z powodu warunku wstępnego.
FILES_API_PODPISANE_ADRESY_URL_DLA_MODELI_NIE_SĄ_OBSŁUGIWANE
SQLSTATE: brak przypisania
Interfejs API plików nie obsługuje obecnie wstępnie podpisanych adresów URL dla modeli.
Pliki_API_R2_Uwierzytelnienia_Wyłączone
SQLSTATE: brak przypisania
R2 nie jest obecnie obsługiwany.
Przedział żądania plików jest nieakceptowalny
SQLSTATE: brak przypisania
Żądany zakres nie jest możliwy do zaspokojenia.
REKURSYWNA_LISTA_FILES_API_NIE_JEST_OBSLUGIWANA
SQLSTATE: brak przypisania
Rekurencyjne wyświetlanie plików nie jest obsługiwane.
PLIKI_API_WNIOSKODAWCA_STREFA_SIECIOWA_NIEZNANA
SQLSTATE: brak przypisania
Nie można wywnioskować strefy sieciowej żądającego.
Żądanie API PLIKÓW zostało nieprawidłowo przekierowane
SQLSTATE: brak przypisania
Żądanie zostało niepoprawnie przekierowane
ŻĄDANIE_FILES_API_MUSI_ZAWIERAĆ_INFORMACJE_O_KONCIE
SQLSTATE: brak przypisania
Żądanie musi zawierać informacje o koncie
FILES_API_REQUEST_MUST_INCLUDE_RECIPIENT_INFORMATION
SQLSTATE: brak przypisania
Żądanie musi zawierać informacje o adresatach.
ŻĄDANIE_FILES_API_MUSI_ZAWIERAĆ_INFORMACJE_O_UŻYTKOWNIKU
SQLSTATE: brak przypisania
Żądanie musi zawierać informacje o użytkowniku
Żądanie FILES_API musi zawierać informacje o przestrzeni roboczej
SQLSTATE: brak przypisania
Żądanie musi zawierać informacje o obszarze roboczym
ZASÓB_PLIKÓW_API_JEST_TYLKO_DO_ODCZYTU
SQLSTATE: brak przypisania
Zasób jest tylko do odczytu.
PLIK_API_ZASÓB_NIEODNALEZIONY
SQLSTATE: brak przypisania
<unity_catalog_error_message>
FILES_API_SCHEMA_NOT_FOUND (Nie znaleziono schematu API plików)
SQLSTATE: brak przypisania
<unity_catalog_error_message>
PLIKI_API_BEZPIECZNY_ADRES_URL_NIE_MOŻE_BYĆ_DOSTĘPNY
SQLSTATE: brak przypisania
Nie można uzyskać dostępu do adresu URL.
WERYFIKACJA PODPISU API PLIKÓW NIE POWIODŁA SIĘ
SQLSTATE: brak przypisania
Weryfikacja podpisu nie powiodła się.
FILES_API_STORAGE_ACCESS_CONTEXT_INVALID
SQLSTATE: brak przypisania
Kontekst dostępu do magazynu jest nieprawidłowy.
KONTEKST_PRZECHOWYWANIA_API_PLIKÓW_NIE_JEST_USTAWIONY
SQLSTATE: brak przypisania
Konfiguracja przechowywania dla tego obszaru roboczego jest niedostępna.
UPRAWNIENIA_DO_PRZECHOWYWANIA_PLIKÓW_NIE_ZNALEZIONE
SQLSTATE: brak przypisania
<unity_catalog_error_message>
TYP_TABELI_API_PLIKÓW_NIEOBSŁUGIWANY
SQLSTATE: brak przypisania
Interfejs API plików nie jest obsługiwany dla <table_type>
BŁĄD_UWIERZYTELNIANIA_FILES_API_UC
SQLSTATE: brak przypisania
<unity_catalog_error_message>
FILES_API_UC_IAM_ROLA_NIE_AUTOMATYCZNA
SQLSTATE: brak przypisania
<unity_catalog_error_message>
PLIKI_API_UC_MODEL_NIEPRAWIDŁOWY_STAN
SQLSTATE: brak przypisania
<unity_catalog_error_message>
BŁĄD_API_UC_ODMOWA_UPRAWNIEŃ
SQLSTATE: brak przypisania
<unity_catalog_error_message>
FILES_API_UC_ZASÓB_WYCZERPANY
SQLSTATE: brak przypisania
<message>
NIEOBSŁUGIWANY_ZNAK_ŁACIŃSKI_W_ŚCIEŻCE_PLIKU
SQLSTATE: brak przypisania
<unity_catalog_error_message>
FILES_API_UC_NAZWA_WOLUMINU_ZMIENIONA
SQLSTATE: brak przypisania
<unity_catalog_error_message>
FILES_API_UNABLE_TO_RENEW_AZURE_MANAGED_IDENTITIES
SQLSTATE: brak przypisania
Nie można odnowić tożsamości zarządzanej platformy Azure.
FILES_API_NIEOCZEKIWANY_BŁĄD_PODCZAS_PARSOWANIA_URI
SQLSTATE: brak przypisania
Nieoczekiwany błąd podczas analizowania identyfikatora URI
NIESPODZIEWANE_PARAMETRY_ZAPYTANIA_FILES_API
SQLSTATE: brak przypisania
Nieoczekiwane parametry zapytania: <unexpected_query_parameters>
NIEZNANA_METODA_API_PLIKÓW
SQLSTATE: brak przypisania
Nieznana metoda <method>
BŁĄD_NIEZNANY_SERWER_API_PLIKÓW
SQLSTATE: brak przypisania
Nieznany błąd serwera.
FILES_API_NIEZNANY_HOST_URL
SQLSTATE: brak przypisania
Host adresu URL jest nieznany.
FILES_API_NIEOBSŁUGIWANA_METODA_UWIERZYTELNIANIA
SQLSTATE: brak przypisania
Żądanie nie zostało poprawnie uwierzytelnione.
FILES_API_NIEOBSŁUGIWANA_METODA_HTTP
SQLSTATE: brak przypisania
HttpMethod nie jest obsługiwany.
Kombinacja parametrów FILES_API jest nieobsługiwana
SQLSTATE: brak przypisania
Kombinacja parametrów nie jest obsługiwana.
ŚCIEŻKA_NIEOBSŁUGIWANA_API_PLIKÓW
SQLSTATE: brak przypisania
Podana ścieżka nie jest obsługiwana przez API Plików. Upewnij się, że podana ścieżka nie zawiera sekwencji '../' lub './'. Upewnij się, że podana ścieżka nie używa wielu kolejnych ukośników (na przykład "///").
LICZBA_URL_CZĘŚCI_PLIKÓW_API_UPLOAD_MUSI_BYĆ_WIĘKSZA_OD_ZERA
SQLSTATE: brak przypisania
Parametr wejściowy "count" musi być większy niż 0.
GENEROWANIE_URL_API_PLIKÓW_WYŁĄCZONE
SQLSTATE: brak przypisania
Generowanie wstępnie podpisanego adresu URL nie jest włączone dla <cloud>.
FILES_API_TYP_WOLUMINU_NIEOBSŁUGIWANY
SQLSTATE: brak przypisania
Interfejs API plików nie jest obsługiwany w przypadku programu <volume_type>.
FILES_API_WORKSPACE_ZOSTAŁ_ANULOWANY
SQLSTATE: brak przypisania
Obszar roboczy został odwołany.
WORKSPACE_API_PLIKI_NIE_ZNALEZIONO
SQLSTATE: brak przypisania
Konfiguracja przechowywania dla tego obszaru roboczego jest niedostępna.
Potoki deklaratywne platformy Spark w usłudze Lakeflow
ABAC_POLICIES_NOT_SUPPORTED
Zasady ABAC nie są obsługiwane w tabelach zdefiniowanych w potoku.
Usuń zasady lub skontaktuj się z pomocą techniczną usługi Databricks.
ABNORMAL_DRIVER_TERMINATION
Sterownik w klastrze <clusterId> został przerwany nieprawidłowo z powodu .<terminationCause> Aby uzyskać więcej informacji, sprawdź dzienniki sterowników.
AKTUALIZACJA JEST DOSTĘPNA DLA POWIĄZANEGO PIPELINU
Aktywna aktualizacja "<updateId>" już istnieje dla połączonego potoku "<linkedPipelineId>".
AKTUALNA AKTUALIZACJA ISTNIEJE DLA RUROCIĄGU
Aktywna aktualizacja "<updateId>" już istnieje dla potoku "<pipelineId>".
ALTER_NIE_DOZWOLONE_DLA_TABELI_PIPELINE
ALTER nie jest dozwolone na tabelach zarządzanych przez
Aby uzyskać więcej informacji, zobacz ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE
HARMONOGRAM_DO_ZMIANY_NIE_ISTNIEJE
Nie można zmienić <type> w tabeli bez istniejącego harmonogramu lub wyzwalacza. Przed podjęciem próby jego zmiany dodaj harmonogram lub wyzwalacz do tabeli.
Limit API przekroczony
Przekroczono limit przydziału interfejsu API dla źródła danych <sourceName>.
Aby uzyskać więcej szczegółów, zobacz API_QUOTA_EXCEEDED
BŁĄD_APLIKOWANIA_ZMIAN
Wystąpił błąd podczas AUTO CDC operacji.
Aby uzyskać więcej szczegółów, zobacz APPLY_CHANGES_ERROR
BŁĄD_WPROWADZANIA_ZMIAN_Z_ZRZUTU_EKRANU
Wystąpił błąd podczas AUTO CDC FROM SNAPSHOT operacji.
Aby uzyskać więcej informacji, zobacz APPLY_CHANGES_FROM_SNAPSHOT_ERROR
WPROWADZANIE_ZMIAN_Z_OCZEKIWANIAMI_Z_SNAPSHOT_NIEOBSŁUGIWANE
Zestaw danych <datasetName> ma zdefiniowane oczekiwania, ale oczekiwania nie są obecnie obsługiwane w przypadku zestawów danych przy użyciu programu AUTO CDC FROM SNAPSHOT.
Usuń oczekiwania, aby rozwiązać ten błąd. Alternatywnie rozważ użycie następującej struktury, aby zastosować oczekiwania, łącząc AUTO CDC i AUTO CDC FROM SNAPSHOT:
Zastosuj zmiany z migawki przy użyciu typu SCD 1 do tabeli pośredniej bez oczekiwań.
Odczytywanie zmian z tabeli pośredniej przy użyciu polecenia
spark.readStream.option("readChangeFeed", "true").table.Zastosuj zmiany z tabeli pośredniej do ostatecznej tabeli docelowej przy użyciu
dlt.apply_changesnastępujących parametrów oprócz tych, które są obecnie używane zdlt.apply_changes_from_snapshot:
Aby obsłużyć zmiany:
apply_as_deletes = "_change_type == 'delete'"Aby usunąć kolumny dodane przez usługę CDF:
except_column_list = ["_change_type", "_commit_version", "_commit_timestamp"]
- Uwzględnij bieżący zestaw oczekiwań w końcowej tabeli docelowej używanej dla elementu
dlt.apply_changes.
ZASTOSUJ_ZMIANY_CZĘŚCIOWE_AKTUALIZACJE_NIE_WŁĄCZONE
Funkcjonalność od COLUMNS do UPDATE jest dostępna w wersji zapoznawczej i nie jest aktywowana dla Twojego obszaru roboczego. Skontaktuj się z przedstawicielem usługi Databricks, aby dowiedzieć się więcej o tej funkcji i uzyskać dostęp do prywatnej wersji zapoznawczej.
APPLY_ENVIRONMENT_CLUSTER_NOT_AVAILABLE
Obliczenia potoku dla <pipelineId> usługi nie są dostępne. Przetwarzanie potoku mogło zostać zatrzymane lub nadal może być uruchamiane.
Spróbuj ponownie później, gdy zasoby obliczeniowe są w pełni dostępne. Jeśli problem będzie się powtarzać, skontaktuj się z pomocą techniczną usługi Databricks.
APPLY_ENVIRONMENT_CLUSTER_NOT_FOUND
Nie można odnaleźć obliczeń <pipelineId> potoku. To wystąpienie obliczeniowe potoku mogło nigdy nie zostać uruchomione lub zostało już zatrzymane. Uruchom potok
przed zastosowaniem środowiska.
APPLY_ENVIRONMENT_NOT_SUPPORTED
Punkt końcowy ApplyEnvironment nie jest obsługiwany.
NIEPOWODZENIE_MIGRACJI_ARCHITEKTURY
Aby uzyskać więcej informacji, zobacz ARCHITECTURE_MIGRATION_FAILURE
ARCLIGHT_WYMAGA_BEZSERWEROWOŚCI
Rurociągi przeznaczone dla wykazów korzystających z magazynu domyślnego muszą używać bezserwerowych zasobów obliczeniowych. Jeśli nie masz dostępu do bezserwerowych zasobów obliczeniowych, skontaktuj się z usługą Databricks, aby włączyć tę funkcję dla obszaru roboczego.
AUTO_FULL_REFRESH_DISABLED
Automatyczne odświeżanie pełne jest wyłączone dla tabeli <tableName>.
AUTO_FULL_REFRESH_NOT_ALLOWED
Automatyczne odświeżanie pełne nie powiodło się dla tabeli <tableName> , ponieważ <reason>.
AUTO_FULL_REFRESH_THROTTLED
Automatyczne odświeżanie pełne nie powiodło się. Tabela <tableName> została automatycznie odświeżona i <timestamp> minimalna interwał przed następnym automatycznym pełnym odświeżaniem wynosi: <minInterval> minuty.
AZURE_ACTIVE_DIRECTORY_AUTHENTICATION_FAILED
Uwierzytelnianie usługi Azure Active Directory nie powiodło się (AADSTS5000224).
Identyfikator śledzenia: <traceId>, identyfikator korelacji: <correlationId>.
Sprawdź, czy usługa Azure Active Directory jest poprawnie skonfigurowana i dostępna. Jeśli problem będzie się powtarzać, skontaktuj się z pomocą techniczną firmy Microsoft.
AZURE_MANAGED_IDENTITY_CREDENTIAL_NOT_FOUND
Nie można odnaleźć poświadczeń tożsamości zarządzanej platformy Azure z identyfikatorem <accessConnectorId> łącznika dostępu dla konta <accountId>.
Sprawdź, czy poświadczenie istnieje i czy jest poprawnie skonfigurowane.
AZURE_STORAGE_HOSTNAME_RESOLUTION_FAILED
Nie można rozpoznać nazwy hosta usługi Azure Storage: <hostname>.
Sprawdź, czy system DNS jest prawidłowo skonfigurowany, a konto magazynu jest dostępne z sieci.
AZURE_STORAGE_REQUEST_NOT_AUTHORIZED
Żądanie do usługi Azure Storage nie zostało autoryzowane przez obwód zabezpieczeń sieci.
Sprawdź, czy magazyn jest poprawnie skonfigurowany i dostępny.
BIGQUERY_DATA_CONNECTOR_SOURCE_CATALOG_MISSING
Wystąpił błąd w łączniku danych BigQuery.
Brak specyfikacji pozyskiwania "katalogu źródłowego" (identyfikator projektu GCP).
Określ katalog źródłowy (identyfikator projektu) w specyfikacji pozyskiwania, aby rozwiązać ten problem.
NIE MOŻNA DODAĆ KOLUMNY DO KOLUMN DOŁĄCZONYCH
Nowe kolumny (<columnNames>) są dodawane do pola include_columns w definicji rurociągu dla tabeli <qualifiedTableName>. Odśwież całą tabelę, aby uniknąć potencjalnej utraty danych lub usunąć te kolumny z include_columns.
NIE MOŻNA DODAĆ LOKALIZACJI MAGAZYNOWEJ
Nie można dodać lokalizacji magazynu do istniejącego potoku z zdefiniowanym katalogiem. Jeśli chcesz ustawić lokalizację magazynu, utwórz nowy potok.
Istniejący wykaz: "<catalog>".
Żądana lokalizacja magazynu: <storageLocation>.
NIE MOŻNA STWORZYĆ DEKORATORA
SQLSTATE: brak przypisania
Dekorator @<decoratorName> nie może składać się z <otherDecorators>.
NIE MOŻNA WYKLUCZYĆ NIEISTNIEJĄCEJ KOLUMNY
Definicja ciągu przetwarzania wyklucza kolumny (<columnNames>), które nie istnieją w źródle <qualifiedTableName>w tabeli <sourceType>. Usuń te kolumny z pola exclude_columns.
NIE MOŻNA ODSEPAROWAĆ WYMAGANEJ KOLUMNY
Definicja potoku nie zawiera wymaganych kolumn (<columnNames>) w tabeli <qualifiedTableName> źródła <sourceType> na potrzeby zasilenia. Dodaj je do include_columns lub usuń je z exclude_columns.
NIE MOŻNA UWZGLĘDNIĆ NIEISTNIEJĄCEJ KOLUMNY
Definicja potoku zawiera kolumny (<columnNames>), które nie istnieją lub nie są dostępne w tabeli <qualifiedTableName> źródła <sourceType>. Usuń te kolumny z pola include_columns.
NIE MOŻNA WCZYTAĆ TABELI BEZ KLUCZA GŁÓWNEGO
Tabela <qualifiedTableName> w źródle <sourceType> nie ma klucza podstawowego.
Określ klucz podstawowy w konfiguracji łącznika, aby wczytać tabelę, jeśli istnieje.
Nie można zmodyfikować właściciela potoku dla potoków UC
Zmiana właściciela potoków innych niż UC nie jest jeszcze obsługiwana.
NIE MOŻNA ZMIENIĆ WŁAŚCICIELA RURY - BRAK UPRAWNIEŃ CANNOT_MODIFY_PIPELINE_OWNER_PERMISSION_DENIED
Tylko administratorzy obszaru roboczego mogą zmienić właściciela potoku.
NIE MOŻNA ZMIENIĆ WŁAŚCICIELA RURKI, GDY BRAKUJE
Nowy właściciel nie istnieje.
NIE MOŻNA ZMIENIĆ TYPU POTOKU
nie można zaktualizować pipeline_type.
Aktualny pipeline_type: <currentPipelineType>.
Zaktualizowano pipeline_type: <requestedPipelineType>.
NIE MOŻNA ZMIENIĆ LOKALIZACJI MAGAZYNOWEJ
Nie można zmodyfikować lokalizacji przechowywania istniejącego potoku.
Istniejąca lokalizacja magazynu: "<existingStorageLocation>".
Żądana lokalizacja magazynu: <requestedStorageLocation>.
NIE MOŻNA USUNĄĆ KOLUMNY Z WYKLUCZONYCH KOLUMN
Kolumny (<columnNames>) są usuwane z pola exclude_columns w definicji procesu dla tabeli <qualifiedTableName>. Wykonaj pełne odświeżenie tabeli, aby uniknąć potencjalnej utraty danych, lub dodaj te kolumny z powrotem do exclude_columns.
NIEMOŻLIWOŚĆ_USTAWIENIA_KATALOGU_DLA_HMS_PIPELINE
Nie można dodać katalogu do istniejącego potoku z określoną lokalizacją magazynu. Jeśli chcesz użyć UC, utwórz nowy potok i skonfiguruj katalog.
Istniejąca lokalizacja magazynu: "<storageLocation>"
Żądany wykaz: "<catalog>"
NIE MOŻNA USTAWIĆ LINKOWANEGO IDENTYFIKATORA POTOKU (CANNOT_SET_LINKED_PIPELINE_ID)
Identyfikatory rurociągów są takie same, przydzielenie identyfikatorów połączonego rurociągu może spowodować zakleszczenie.
NIE MOŻNA USTAWIĆ SCHEMATU DLA ISTNIEJĄCEGO PIPELINE
Określone pole „schema” w ustawieniach potoku dla potoku '<pipelineName>' jest nieprawidłowe. Powód:
Aby uzyskać więcej szczegółów, zobacz CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE
CANNOT_SET_TOGETHER
SQLSTATE: brak przypisania
<argList> wzajemnie się wykluczają i nie można ich ustawić razem.
NIE MOŻNA OKREŚLIĆ OBA STOSOWANIA I WYKLUCZENIA KOLUMN
Definicja potoku określa zarówno „include_columns”, jak i „exclude_columns” dla <identifier>. Usuń jeden z nich.
NIE MOŻNA ZAKTUALIZOWAĆ KOLUMN KLASTROWANIA
Nie można zaktualizować kolumn klastrowania dla tabeli <tableName> , ponieważ używa kolumn partycji. Tabela może używać kolumn partycji lub kolumn klastrowania, ale nie obu tych kolumn.
Aby przełączać się między klastrowaniem płynnym a partycjonowaniem, uruchom pełne odświeżenie tej tabeli.
Nie można zaktualizować kolumn partycji
Nie można zaktualizować kolumn partycji dla tabeli przesyłania strumieniowego <tableName>.
Bieżący: <existingPartitionColumns>,
Zażądano: <requestedPartitionColumns>
Aby zastosować tę zmianę partycji, rozpocznij pełne odświeżenie tej tabeli oraz wszystkich innych tabel przesyłania strumieniowego, które zaktualizowały kolumny partycji.
Możesz też przywrócić tę zmianę, aby nadal używać istniejących kolumn partycji.
NIE MOŻNA ZAKTUALIZOWAĆ SCHEMATU TABELI
Nie można scalić bieżących i nowych schematów dla tabeli <tableName>.
Aby kontynuować tę zmianę schematu, możesz wyzwolić pełne odświeżenie tej tabeli.
W zależności od przypadku użycia i zmian schematu może być możliwe usunięcie zmiany schematu — można zaktualizować zapytania, aby schemat wyjściowy był zgodny z istniejącym schematem (np. jawnie rzutując kolumny na poprawny typ danych).
NIE MOŻNA PISAĆ DO NIEAKTYWNYCH KOLUMN
<details>
Jednak tabele docelowe mają już nieaktywne kolumny o tej nazwie; kolumny są nieaktywne, ponieważ zostały wcześniej usunięte z tabel źródłowych.
Aby kontynuować aktualizację, uruchom element FULL REFRESH w tabelach.
NIE MOŻNA ZAPISYWAĆ DO NIEAKTYWNYCH TABEL
Następujące tabele w miejscu docelowym są nieaktywne i powodują konflikt z bieżącymi tabelami źródłowymi: <tables>.
Te tabele pozostają nieaktywne, ponieważ zostały one wcześniej usunięte ze źródła lub niezaznaczone w łączniku.
Aby kontynuować aktualizację, zmień nazwę tabeli docelowej lub wykonaj FULL REFRESH polecenie na tych tabelach lub usuń te nieaktywne tabele z miejsca docelowego w Eksploratorze wykazu lub za pomocą DROP TABLE polecenia i ponów próbę aktualizacji.
NIE MOŻNA PISAĆ DO TABEL OCZEKUJĄCYCH NA ZRESETOWANIE
Poniższe tabele w docelowej lokalizacji nie są poprawnie resetowane przy wcześniejszym pełnym odświeżeniu: <tables>.
Uruchom pełne odświeżanie, aby je przywrócić.
MAPOWANIE_KATALOGU_NIEDOSTĘPNE_W_UC
Wykaz UC nie zawiera mapowania dla katalogu "<sourceCatalog>".
Sprawdź, czy wykaz jest zarejestrowany w wykazie UC.
Niezgodność schematu katalogu z docelowym potokiem
Wykaz <destPipelineCatalog> i schemat <destPipelineSchema> potoku docelowego o identyfikatorze "<destPipelineId>" nie są zgodne z wykazem i schematem tabeli <tableName>. Docelowy potok powinien mieć ten sam katalog i schemat co tabela lub docelowy potok musi używać Trybu Bezpośredniego Publikowania.
SPECYFIKACJA_KATALOGU_NIEOBSŁUGIWANA
CatalogSpecs nie są obecnie obsługiwane przez łączniki bazy danych. Usuń specyfikację katalogu.
CDC_APPLIER_AUTO_FULL_REFRESH_POLICY_MUST_BE_SAME_FOR_ALL_DESTINATION_TABLES
Zasady automatycznego odświeżania wszystkich tabel docelowych połączonych z tą samą tabelą źródłową muszą być takie same.
Zmień zasady dla następujących tabel docelowych połączonych <destinationTables> ze źródłem <sourceTable>.
CDC_APPLIER_KOLUMNA_UOID_NIEOBSŁUGIWANY
Kolumny z UOID <columnNames> dla tabeli <tableName> nie są obsługiwane w zarządzanych przez CDC potokach wczytywania danych.
Sprawdź, czy potok pozyskiwania obsługuje identyfikator UOID kolumny lub zażądaj pełnego odświeżenia w tabeli.
CDC_APPLIER_FATAL_FAILURE_FROM_GATEWAY (Krytyczny błąd aplikatora CDC z bramy)
Rurociąg Gateway napotkał błąd krytyczny.
<errorMessage>
Przejrzyj błąd aktualizacji potoku danych tutaj: <link>.
CDC_APPLIER_INGESTION_GATEWAY_REMOVED
Potok bramy <pipelineId> pozyskiwania połączony z potokiem zarządzanego pozyskiwania został usunięty.
Usuń potok zarządzanego pozyskiwania i utwórz zarówno bramę pozyskiwania, jak i potoki zarządzanego pozyskiwania.
Metadane dla replikowanej tabeli CDC_APPLIER nie są gotowe.
Replikowane metadane tabeli dla tabeli <tableName> nie są gotowe.
Istniejący znacznik czasu żądania zadania to <existingRequestTs>, ale oczekujemy <expectedRequestTs> lub później.
CDC_APPLIER_WYMAGA_PEŁNEGO_ODŚWIEŻENIA_WSZYSTKICH_TABEL_DOCELOWYCH
Pełne odświeżanie jednej tabeli docelowej i normalna aktualizacja innej tabeli docelowej z tego samego źródła nie jest obsługiwana.
Proszę całkowicie odświeżyć obie tabele, aby kontynuować, jeśli to możliwe.
Tablice pełnego odświeżania: <fullRefreshTables>
Tabele docelowe dla źródła <sourceTable>: <destinationTables>
SCHEMA_APLIKUJĄCEGO_CDC_ZMIENIONE_PODCZAS_STREAMOWANIA
Wersja schematu <dataSchemaVersion> różni się od wersji schematu <readSchemaVersion>.
Potoki deklaratywne platformy Spark lakeflow ponawiają próbę aktualizacji.
SEK_CDC_APPLIKUJĄCY_SEKWENCJA_PO_KOLUMNIE_NIE_ZNALEZIONA
Kolumna <columnName> dla tabeli <tableName> określonej w SequenceBy nie istnieje w <columns>.
SEKWENCJA_APLIKACJI_CDC_WEDŁUG_NIEPRAWIDŁOWEGO_TYPU
Kolumna <columnName> tabeli <tableName> określonej w sequenceBy jest typu <typeName>, który nie jest obsługiwany.
Obsługiwane typy dla kolumn sequenceBy to <allowedTypes>.
CDC_APPLIER_SEKWENCJA_WEDŁUG_WIELU_KOLUMN_NIEOBSŁUGIWANA
Co najwyżej jedną kolumnę można określić w sekwencji Według potoku pozyskiwania zarządzanego przez usługę CDC.
Określone kolumny: <columns> dla tabeli <tableName>.
CDC_NIEKOMPATYBILNE_ZMIANY_SCHEMATU
Napotkaliśmy niezgodną zmianę schematu (<cause>) z wersji schematu <previousSchemaVersion> na <currentSchemaVersion>.
W związku z tym nie możemy kontynuować stosowania zmian dla <tableName>. Poproś o pełne odświeżenie tabeli.
Poprzedni schemat: <previousSchema>
Bieżący schemat: <currentSchema>
CDC_WIELE_ŹRÓDŁOWYCH_TABEL_ODZWIERCIEDLONE_NA_TĘ_SAMĄ_DOCELOWĄ_TABELĘ
Znaleziono wiele tabel źródłowych: <source_tables> zamapowane na tę samą tabelę <destination_table>docelową .
Przypisz je do innej nazwy tabeli docelowej lub innego schematu docelowego.
LU_CDC_POTENCJALNE_LUKI_DANYCH
Następujące tabele [<needFullRefreshTableList>] nie były pomyślnie zaktualizowane od <retention> dni.
Proszę wykonać pełne odświeżenie tych tabel lub całego przepływu.
CDC_TA_SAMA_TABELA_Z_WIELU_ŹRÓDEŁ
Znaleziono tę samą nazwę tabeli <table> z wielu źródeł: <sources>.
Podziel je na różne linie, aby uniknąć konfliktu.
CDC_SOURCE_VALIDATION_FAILURE
Wykryto <errorCount> błędy sprawdzania poprawności źródłowej bazy danych. Szczegółowe wyniki i kroki korygowania można znaleźć w raportach dziennika zdarzeń.
CDC_TABELA_NIE_ZNALEZIONA_WE_WSZYSTKICH_TABELACH
Tabela <table> nie została odnaleziona w migawce wszystkich tabel źródłowej bazy danych.
Szczegóły specyfikacji stołu:
<tableSpec>
Zmiany HMS pipeline do UC nie są dozwolone.
Nie można zmieniać pipeline'u HMS na pipeline UC.
ZMIANY_LINII_TECHNICZNEJ_DO_HMS_NIEDOZWOLONE
Zmiana rurociągu UC na rurociąg HMS nie jest dozwolona.
ZMIANA_KATALOGU_NIEDOZWOLONA
Nie można zmodyfikować katalogu istniejącego potoku. Istniejący wykaz: "<existingCatalog>". Żądany katalog: "<requestedCatalog>".
ZMIANA_SCHEMATU_CELU_NIEDOZWOLONA
Zmiana schematu docelowego jest niedozwolona. Powód: <reason>.
LIMIT_POLITYKI_BUDŻETOWEJ_TWORZENIA_KLASTRA_PRZEKROCZONY
Nie można utworzyć klastra, ponieważ polityka budżetowa potoku przekroczyła limit. Użyj innych zasad lub skontaktuj się z administratorem rozliczeń.
BŁĄD_KLIENTA_TWORZENIA_KLASTRA
Nie można utworzyć klastra potoków: <errorMessage>
Ten błąd prawdopodobnie jest spowodowany błędną konfiguracją w rurze.
Sprawdź konfigurację klastra przepływu pracy i skojarzone zasady klastra.
CLUSTER_CREATION_CLUSTER_POLICY_LIMIT_EXCEEDED
Nie można utworzyć klastra, ponieważ liczba uruchomionych klastrów dla zasad "<clusterPolicy>" przekroczyła limit .<clusterLimit> Użyj innych zasad lub skontaktuj się z administratorem.
Wykończono limity na tworzenie klastrów
Nie udało się utworzyć klastra, ponieważ wykorzystałeś dostępne kredyty. Dodaj formę płatności, aby uaktualnić konto.
WYTWARZANIE_KLASRÓW_ZUŻYCIE_ZASOBÓW
Nie można utworzyć klastra, ponieważ przekroczono limity zasobów: <errorMessage>
CLUSTER_CREATION_SECRETS_FETCH_FAILED
Nie można pobrać wpisów tajnych określonych w konfiguracji platformy Spark.
Sprawdź, czy wpisy tajne istnieją, a właściciel klastra ma uprawnienia do odczytu.
Błąd uruchamiania klienta: CLUSTER_LAUNCH_CLIENT_ERROR
Nie można uruchomić klastra pipeline'u <clusterId>: <clusterStateMessage>
Ten błąd prawdopodobnie jest spowodowany błędną konfiguracją w rurze.
Sprawdź konfigurację klastra przepływu pracy i skojarzone zasady klastra.
BŁĄD_URUCHAMIANIA_CHMURY_KLASERA
Nie można uruchomić klastra pipeline'u <clusterId>: <clusterStateMessage>
Ten błąd może być przejściowy — zresetuj proces i zgłoś, jeśli nadal występuje ten sam problem.
CLUSTER_LAUNCH_RESOURCE_EXHAUSTED
Nie można uruchomić klastra <clusterId> potoku z powodu wyczerpania limitów zasobów: <clusterStateMessage>.
CLUSTER_LAUNCH_RESOURCE_STOCKOUT
Nie można uruchomić klastra pipeline'u <clusterId>: <clusterStateMessage>
Żądany typ wystąpienia nie może być dostarczony przez dostawcę usług w chmurze.
Sprawdź subskrypcję dostawcy usług w chmurze lub spróbuj ponownie przy użyciu innego typu wystąpienia.
BŁĄD_KONFIGURACJI_KLIENTA_KLASTRA
Nie można pomyślnie skonfigurować klastra <clusterId> na potrzeby wykonywania aktualizacji potoku. Powód:
Aby uzyskać więcej informacji, zobacz CLUSTER_SETUP_CLIENT_ERROR
KLASTER_NIEDOSTĘPNY
Komunikacja utracona ze sterownikiem. Klaster <clusterId> był niedostępny przez <timeoutSeconds> sekund.
MASKA_KOLUMN_BEZ_KOLUMNY
Znaleziono maskę kolumny dla kolumny "<columnName>", która nie istnieje w schemacie MV/ST. Jeśli jest to spowodowane zmianą schematu tabeli bazowej,
Proszę usunąć starą maskę z ALTER TABLE [table_name] ALTER COLUMN [kolumna, w której zastosowano maskę] DROP MASK; lub przywrócić kolumnę.
NIE ZNALEZIONO KOLUMNY DO AKTUALIZACJI
Kolumna <column> określona w COLUMNS DO UPDATE nie została odnaleziona w źródłowej ramce danych.
Nie udało się przerwać poprzedniej aktualizacji podczas równoczesnego uaktualniania.
Rozpoczęto aktualizację "<upgradedUpdateId>" dla uaktualnienia, ale nie można zatrzymać poprzedniej aktualizacji "<oldUpdateId>".
Ten błąd jest prawdopodobnie przejściowy. Potok zostanie automatycznie wznowiony, a problem powinien sam się rozwiązać.
Zgłoś ten błąd do usługi Databricks, jeśli nadal widzisz ten sam problem.
CREATE_APPEND_ONCE_FLOW_FROM_BATCH_QUERY_NOT_ALLOWED
Nie można utworzyć tabeli przesyłania strumieniowego dołączanej po przepływie z zapytania wsadowego.
Zapobiega to przyrostowemu pozyskiwaniu ze źródła i może spowodować nieprawidłowe zachowanie.
Obrażając tabelę: "<table>".
Aby rozwiązać ten problem, użyj STREAMoperatora () lub readStream, aby zadeklarować źródło jako dane wejściowe przesyłania strumieniowego.
Przykład: SELECT...FROM STREAM(<source table name>) lub spark.readStream.table('<source table name>')
Dekorator_zbioru_danych_zastosowany_dwukrotnie
SQLSTATE: brak przypisania
Zestaw danych <datasetName> już istnieje. Upewnij się, że funkcja zapytania została oznaczona jedynie jako widok lub tabela jeden raz.
ZBIÓR_DANYCH_NIE_ZDEFINIOWANY
Nie można odczytać zestawu danych "<datasetName>". Ten zestaw danych nie jest zdefiniowany w pipeline'u.
Jeśli ta tabela jest zarządzana przez inny potok, nie używaj dlt.read / dlt.readStream do odczytywania tabeli ani nie poprzedzaj nazwy słowem kluczowym LIVE.
DATASET_NOT_FOUND_FOR_EXPECTATIONS
Podjęto próbę zdefiniowania oczekiwań dla zestawu danych "<datasetName>", który nie istnieje
DATASET_NOT_REGISTERED_FOR_FLOW
Podjęto próbę zarejestrowania przepływu dla zestawu danych "<datasetName>", ale zestaw danych nie został zarejestrowany.
DBFS_NOT_ENABLED (DBFS nie jest włączony)
System plików DBFS nie jest włączony dla tego obszaru roboczego; proszę opublikować do Unity Catalog lub określić inną lokalizację przechowywania dla potoku.
DBSQL_INCONSISTENT_SCHEDULE_IN_PIPELINE
Potok <pipelineId> ma wiele tabel produkcyjnych z różnymi ustawieniami harmonogramu: [<tableScheduleInfo>]. Wszystkie tabele produkcyjne muszą mieć ten sam harmonogram.
DBSQL_INVALID_CHANNEL_VALUE
Nieprawidłowy kanał określony z właściwością pipelines.channel : <channel>. Prawidłowe wartości to: <validChannels>.
DBSQL_INVALID_SCHEDULE_TYPE
Nieprawidłowy typ harmonogramu określony z właściwością harmonogramu: <scheduleValue>.
DBSQL_MISSING_SCHEDULE_PROPERTY
Brak wymaganej właściwości harmonogramu we właściwościach tabeli.
DBSQL_PIPELINE_IS_MISSING
DBSQL Brak potoku. Odśwież zmaterializowany widok lub tabelę przesyłania strumieniowego, DBSQL aby utworzyć potok.
DBSQL_PIPELINE_NIE_POWINIEN_MIEĆ_WIELU_TABEL
Pipeline DBSQL musi mieć dokładnie jeden zmaterializowany widok lub tablicę strumieniową, ale znaleziono <tablesSize> tabele: <tables>
DELETE_PIPELINE_DISABLED
Obecnie nie można usunąć potoku.
Skontaktuj się z pomocą techniczną usługi Databricks, aby uzyskać pomoc dotyczącą usuwania potoku "<pipelineId>".
NIE ZNALEZIONO RURKOCIĄGU DOCELOWEGO
Nie można znaleźć docelowego potoku o identyfikatorze '<pipelineId>'. Upewnij się, że jesteś w tym samym obszarze roboczym co potok danych, jesteś właścicielem potoku danych, a potok danych był uruchamiany co najmniej raz.
PIPELINE_CELOWY_NIE_JEST_W_BEZPOŚREDNIM_MODE_PUBLIKACJI
Potok docelowy o identyfikatorze '<pipelineId>' nie korzysta z trybu Direct Publishing Mode.
Brak uprawnień do potoku docelowego
Nie masz uprawnień do wykonania tej operacji, nie jesteś właścicielem docelowego potoku o identyfikatorze '<pipelineId>'. Tylko właściciele mogą zmienić przepływ pracy tabeli.
Typ kanału docelowego nie jest typem kanału przestrzeni roboczej
Potok docelowy o identyfikatorze "<pipelineId>" nie jest potokiem ETL.
DIRECTORY_PATH_REQUIRES_GLOB
Ścieżka <path> jest katalogiem. Aby uwzględnić wszystkie pliki w katalogu, użyj wzorca glob z sufiksem "**" , "<path>/**" w konfiguracji potoku.
DISALLOWED_REQUEST_FOR_RESTORING_PIPELINE
Żądanie <request> jest niedozwolone dla potoku "<pipelineId>" w RESTORING stanie.
UTWÓRZ_LUB_EDYTUJ_NIEPRAWIDŁOWA_AKCJA_UŻYTKOWNIKA
Błąd podczas obsługi żądania "<action>".
USUŃ_HARMONOGRAM_HARMONOGRAM_NIE_ISTNIEJE
Nie można usunąć SCHEDULE na tabeli bez istniejącego harmonogramu lub wyzwalacza.
This text doesn't need improvement if it's a technical term meant to be universally understood across language contexts.
Zduplikowany klucz lokalizacji schematu from_json: <schemaLocationKey>.
Wybierz unikalne klucze lokalizacji schematu dla każdego zapytania from_json w potoku
Konfiguracja zduplikowanego tabeli dla INGESJI
Konfiguracja potoku pobierania danych zawiera duplikaty tabel. Upewnij się, że każda tabela jest unikatowa.
PUSTE_OBIEKTY_KONFIGURACJI_POBIERANIA
Obiekty konfiguracji zbierania danych są puste.
ULEPSZONE_AUTOSKALOWANIE_WYMAGA_EDYCJI_ZAAWANSOWANEJ
Rozszerzone ustawienie automatycznego skalowania "spare_capacity_fraction" jest obsługiwane tylko w wersji Advanced product edition of Lakeflow Spark Deklaratywne potoki.
Edytuj ustawienia potoku, aby ustawić "edition": "advanced" w celu użycia funkcji "spare_capacity_fraction".
ENVIRONMENT_PIP_INSTALL_ERROR
Nie można zainstalować zależności środowiska: "<pipDependency>". Aby uzyskać więcej informacji, sprawdź dzienniki stdout sterownika w klastrze.
FUNKCJA WYBIERANIA DZIENNIKA ZDARZEŃ NIE JEST OBSŁUGIWANA
Publikowanie dziennika zdarzeń w wykazie aparatu Unity nie jest obsługiwane w starszym trybie publikowania. Aby włączyć tę funkcję, przeprowadź migrację potoku do domyślnego trybu publikowania, wykonując kroki opisane w przewodniku https://docs.databricks.com/aws/en/dlt/migrate-to-dpmmigracji. Jeśli wolisz nadal korzystać ze starszego trybu publikowania, usuń konfigurację "event_log" ze specyfikacji potoku.
NARUSZENIE_OCZEKIWAŃ
Przepływ "<flowName>" nie spełnił oczekiwań.
Aby uzyskać więcej szczegółów, zobacz EXPECTATION_VIOLATION
USTAWIENIE_TYLKO_EKSPLORACJI_NIE_MOŻE_BYĆ_ŁĄCZONE_Z_USTAWIENIEM_TYLKO_WALIDACJI
explore_only i validate_only nie mogą być jednocześnie ustawione na wartość true.
Funkcja TYLKO PRZEGLĄDANIE nie jest włączona
Aktualizacja explore_only jest wyłączona. Skontaktuj się z pomocą techniczną usługi Databricks.
NIE UDAŁO SIĘ UTWORZYĆ DZIENNIKA ZDARZEŃ
Nie udało się utworzyć potoku (id=<pipelineId>) dziennika zdarzeń z identyfikatorem <eventLogIdentifier>. Aby uzyskać więcej informacji, zobacz wyjątek poniżej.
Nie udało się opublikować widoku w metastore
Nie można opublikować widoku <viewName> w magazynie metadanych, ponieważ <reason>.
Nie udało się zaktualizować dziennika zdarzeń
Nie udało się zaktualizować identyfikatora dziennika zdarzeń dla potoku (id=<pipelineId>) na <newEventLogIdentifier>. Aby uzyskać więcej informacji, zobacz wyjątek poniżej.
ZMIANA_SCHEMATU_PRZEPŁYWU
Przepływ <flowName> został zakończony, ponieważ napotkał zmianę schematu podczas wykonywania.
Zmiana schematu jest zgodna z istniejącym schematem docelowym, a kolejne uruchomienie przepływu może zostać wznowione przy użyciu nowego schematu.
FOREACH_BATCH_SINK_JEST_OBSŁUGIWANE_TYLKO_W_KANALE_PRZEGLĄDU
Potoki deklaratywne Platformy Spark dla rozwiązania Lakeflow ForeachBatch nie są obecnie obsługiwane.
Prywatna wersja zapoznawcza potoków deklaratywnych platformy Lakeflow foreachBatch wymaga kanału PREVIEW .
Ujścia potoków deklaratywnych platformy Spark lakeflow: <sinkNames>
SKRYPTY_INICJALIZACYJNE_DLA_POTOKÓW_BRAMKI_NIEDOZWOLONE
Rurociąg Gateway nie zezwala na skrypty startowe klastra. Usuń go z <from>.
GATEWAY_PIPELINE_KONFIGURACJA_SPARK_NIEDOZWOLONA
Rurociąg Gateway nie zezwala na konfigurację Spark [<configs>]. Usuń je z <from>.
LIMIT AKTUALIZACJI POJEMNOŚCI ORGANIZACJI PRZEKROCZONY
Liczba żądanych identyfikatorów organizacji przekracza maksymalny dozwolony limit <limit>
ŁĄCZE_PRZEZ_STRUMIEŃ_DANYCH_GOOGLE_ANALYTICS_RAW_DATA_KATALOLOGU_ŹRÓDEŁ_BRAK
Wystąpił błąd w łączniku danych pierwotnych usługi Google Analytics.
Brak specyfikacji pozyskiwania "katalogu źródłowego" (identyfikator projektu GCP).
Określ katalog źródłowy (identyfikator projektu) w specyfikacji pozyskiwania, aby rozwiązać ten problem.
Jeśli HMS_NOT_ENABLED to kod błędu lub techniczny termin rozpoznawany w języku angielskim, który nie ma powszechnie używanego polskiego odpowiednika, pozostawienie oryginału jest poprawne. W przeciwnym razie, jeśli możliwe jest przetłumaczenie lub dodanie wyjaśnienia, należałoby „HMS_NIEAKTYWOWANE” jako odpowiednika, ale należy upewnić się, że przekaz jest zgodny z kontekstem technicznym.
Metastore Hive nie jest włączony dla tego obszaru roboczego; opublikuj do Unity Catalog.
NIELEGALNA_KOLUMNA_DO_AKTUALIZACJI_TYPU_DANYCH
Typ danych kolumny określonej w COLUMNS TO UPDATE musi być tablicą ciągów, ale znaleziono <illegalDataType>.
NIELEGALNY_PARAMETR_ID_W_USTAWIENIACH_PIPELINE
Ustawienia nie mogą zawierać wartości "<fieldName>".
NIELEGALNE_POLE_SCHEMATU_W_SPECYFIKACJI_PIPELINY
Użycie określonego pola 'schematu' w ustawieniach przepływu danych jest niedozwolone. Powód: <reason>.
NIEPRAWIDŁOWY_TYP_ŚCIEŻKI_KORZENIOWEJ
Ścieżka główna '<rootPath>' musi być katalogiem, ale znaleziono <objectType>.
INCREMENTAL_REFRESH_UNAVAILABLE_WITH_STRICT_REFRESH_POLICY
zmaterializowany widok ma zasady odświeżania, INCREMENTAL_STRICT ale nie można ich zwiększać.
INFRASTRUCTURE_MAINTENANCE
Sterownik w klastrze <clusterId> został przerwany z powodu konserwacji infrastruktury.
KONFIGURACJA_PRZYJMOWANIA_ZDUPLIKOWANY_SCHEMA
Konfiguracja potoku przetwarzania zawiera zduplikowane schematy. Upewnij się, że każdy schemat jest unikatowy.
Błąd uwierzytelniania bramy ingestii
Niepowodzenie uwierzytelniania
Aby uzyskać więcej informacji, zobacz INGESTION_GATEWAY_AUTHENTICATION_FAILURE
Awaria związana ze zmianą schematu w bramie dostępu do systemu ingestii
Wykryto niezgodność schematu między tabelami źródłowymi i docelowymi. Aby rozwiązać ten problem, w potoku pozyskiwania jest wymagane pełne odświeżenie tabeli "<entityName>".
INGESTION_GATEWAY_CAPTURE_INSTANCE_UNAVAILABLE
Wystąpienie przechwytywania dla elementu <entityName> nie jest już dostępne w źródle.
Wyzwól pełne odświeżanie po włączeniu usługi CDC lub CT w tabeli.
INGESTION_GATEWAY_CDC_LOG_TRUNCATED
Dziennik CDC został obcięty dla tabeli "<entityName>", przyczyna: <errorMessage>.
Może to być spowodowane przez zasady przechowywania dzienników CDC obcięte dzienniki śledzenia zmian przed ich przetworzeniem.
Tabela zostanie pominięta z przetwarzania. Aby ponownie włączyć przetwarzanie, należy ponownie odświeżyć tabelę.
INGESTION_GATEWAY_CDC_NOT_ENABLED - "CDC nie włączone"
Usługa CDC nie jest włączona w '<entityType><entityName>'. Włącz usługę CDC i pełne odświeżanie tabeli w potoku pozyskiwania. Komunikat o błędzie: "<errorMessage>".
INGESTION_GATEWAY_DB_VERSION_NOT_SUPPORTED
Wersja bazy danych nie jest obsługiwana.
Aby uzyskać więcej informacji, zobacz INGESTION_GATEWAY_DB_VERSION_NOT_SUPPORTED
Bramka_ingest_DDL_obiekty_brakujące
Brak obiektów DDL na '<entityType><entityName>'. Wykonaj skrypt obiektów DDL i odśwież pełną tabelę w potoku pozyskiwania. Komunikat o błędzie: "<errorMessage>".
INGESTION_GATEWAY_HEALTH_CHECKER_VALIDATION_CYCLE_FAILED
Wewnętrzny cykl sprawdzania kondycji zakończył się niepowodzeniem. Spróbuje ponownie w następnym cyklu, jeśli problem będzie się powtarzać, prześlij bilet.
Komunikat o błędzie: <errorMessage>
Brak połączenia z bramą pobierania danych
Brakuje połączenia w konfiguracji bramy ingestii.
Proszę dodać referencję do połączenia z katalogiem Unity zawierającym Twoje poświadczenia.
Szczegóły definicji przepływu bramy wejściowej:
<definition>
BRAMA_IMPORTU_BRAK_WEWNĘTRZNEGO_KATALOGU_PAMIĘCI
W konfiguracji bramy wejściowej brakuje katalogu lokalizacji wewnętrznej pamięci.
Dodaj wewnętrzny wykaz lokalizacji magazynu.
Szczegóły definicji przepływu bramy wejściowej:
<definition>
Brakująca nazwa wewnętrznej pamięci w bramie Ingestion.
W konfiguracji bramy pozyskiwania brakuje nazwy lokalizacji wewnętrznego magazynu.
Dodaj nazwę wewnętrznej lokalizacji magazynu.
Szczegóły definicji przepływu bramy wejściowej:
<definition>
BŁĄD_BRAMKI_WEJŚCIA_BRAK_SCHEMATU_WEWNĘTRZNEGO_PRZECHOWYWANIA
W konfiguracji bramy wejściowej brakuje schematu lokalizacji wewnętrznego magazynu.
Dodaj schemat wewnętrznej lokalizacji magazynu.
Szczegóły definicji przepływu bramy wejściowej:
<definition>
BRAMA_DO_INTEGRACJI_BRAKUJĄCA_TABELA_W_ŹRÓDLE
Tabela "<entityName>" nie istnieje w źródłowej bazie danych lub została porzucona. Rozwiąż problem i dokonaj pełnego odświeżenia tabeli w potoku zarządzania pozyskiwaniem. Komunikat o błędzie: "<errorMessage>".
INGESTION_GATEWAY_MYSQL_BINLOG_FILE_DELETED
Wymagane pliki binlogu mySQL zostały usunięte w źródłowej bazie danych. Zwykle dzieje się tak, gdy okres przechowywania dziennika binlog jest zbyt niski lub gdy pozyskiwanie zostanie uruchomione ponownie po upływie okna przechowywania. Aby rozwiązać ten problem, uruchom pełne odświeżanie we wszystkich tabelach i zwiększ przechowywanie dziennika binlogu w źródle.
Komunikat o błędzie: <errorMessage>
INGESTION_GATEWAY_MYSQL_MISSED_BINLOG_FILES_DETECTED
Nieodebrane wykrywanie plików Binlog bazy danych MySQL. Wykonaj pełne odświeżanie w pliku <entityName>.
Komunikat o błędzie: <errorMessage>
INGESTION_GATEWAY_ORACLE_ARCHIVE_LOG_FILES_UNAVAILABLE
Pliki dziennika archiwum Oracle wymagane do replikacji cdC nie są już dostępne w źródłowej bazie danych. Może się tak zdarzyć, gdy dzienniki archiwum przekraczają okres przechowywania lub są usuwane ręcznie. Wykonaj pełne odświeżanie we wszystkich tabelach docelowych zamapowanych na wykaz "<catalogName>". Jeśli ten problem będzie się powtarzać, rozważ zwiększenie okresu przechowywania dziennika archiwum w źródłowej bazie danych, aby upewnić się, że dzienniki pozostaną dostępne podczas ich przetwarzania.
Komunikat o błędzie: <errorMessage>
INGESTION_GATEWAY_ORACLE_MISSING_CONFIGURATION
Konfiguracja połączenia Oracle jest niekompletna.
Aby uzyskać więcej informacji, zobacz INGESTION_GATEWAY_ORACLE_MISSING_CONFIGURATION
INGESTION_GATEWAY_ZMIANA_PUBLIKACJI_PG_NIEPOWODZENIE
Nie udało się zmienić publikacji replikacji dla <entityType> "<entityName>"
Komunikat o błędzie: <errorMessage>
Aby uzyskać więcej informacji, zobacz INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED
UTWORZENIE_PUBLIKACJI_BRAMY_PRZYJMOWANIA_PG_NIEPOWODZENIE
Nie można utworzyć publikacji replikacji dla <entityType> "<entityName>"
Komunikat o błędzie: <errorMessage>
Aby uzyskać więcej informacji, zobacz INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED
INGESTION_GATEWAY_BŁĄD_USUNIĘCIA_PUBLIKACJI_PG
Nie można usunąć publikacji replikacji dla <entityType> elementu "<entityName>"
Komunikat o błędzie: <errorMessage>
Aby uzyskać więcej informacji, zobacz INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED
INGESTION_GATEWAY_PG_SLOT_CONFIG_IS_INVALIDATED
Konfiguracja miejsca replikacji dla <entityType> <entityName> programu nie jest w dobrej kondycji. Aby rozwiązać ten problem, wyzwól pełne odświeżanie we wszystkich tabelach docelowych zamapowanych na wykaz <catalogName>.
Komunikat o błędzie: <errorMessage>
BRAMA_PRZETWARZANIA_SLOT_PG_ZUŻYWANY_PRZEZ_INNY_PROCES
Nie można utworzyć miejsca replikacji dla <entityType> "<entityName>", ponieważ miejsce replikacji jest używane przez inny identyfikator PID.
Komunikat o błędzie: <errorMessage>
Niepowodzenie tworzenia slotu PG bramy ingestii
Nie można utworzyć gniazda replikacji dla <entityType> '<entityName>'
Komunikat o błędzie: <errorMessage>
Aby uzyskać więcej informacji, zobacz INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED
INGESTION_GATEWAY_PG_SLOT_DROP_FAILED
Nie można usunąć miejsca replikacji dla <entityType> elementu "<entityName>"
Komunikat o błędzie: <errorMessage>
Aby uzyskać więcej informacji, zobacz INGESTION_GATEWAY_PG_SLOT_DROP_FAILED
INGESTION_GATEWAY_PG_SLOT_HAS_BEEN_DELETED
Miejsce replikacji dla <entityType> elementu "<entityName>" zostało usunięte. Wyzwól pełne odświeżanie we wszystkich tabelach docelowych zamapowanych na wykaz "<catalogName>".
Komunikat o błędzie: <errorMessage>
INGESTION_GATEWAY_PG_SLOT_IS_INVALIDATED
Miejsce replikacji dla <entityType> elementu "<entityName>" nie jest w dobrej kondycji. Usuń miejsce i wyzwól pełne odświeżenie we wszystkich tabelach docelowych zamapowanych na wykaz "<catalogName>".
Komunikat o błędzie: <errorMessage>
BRAMA_PRZYJMOWANIA_ZRÓDŁO_NIEWYSTARCZAJĄCE_UPRAWNIENIA_BŁĄD
Użytkownik nie ma wymaganych uprawnień dostępu do tego obiektu ani wykonywania procedury składowanej. Upewnij się, że udzielono wszystkich niezbędnych uprawnień. Zapoznaj się z następującą dokumentacją: https://docs.databricks.com/aws/en/ingestion/lakeflow-connect/sql-server/database-user-requirements.
INGESTION_GATEWAY_SOURCE_SCHEMA_MISSING_ENTITY
Żadne tabele nie są dostępne do replikacji ze źródła.
Sprawdź, czy tabele są poprawnie zaznaczone i zdefiniowane w potoku pozyskiwania
użytkownik ma niezbędny dostęp do katalogu i schematu.
INGESTION_GATEWAY_SQL_SERVER_CT_DISABLED
Śledzenie zmian dla tabeli <entityName> zostało wyłączone w źródle.
Wyzwól pełne odświeżanie po włączeniu usługi CDC lub CT w tabeli.
INGESTION_GATEWAY_TABLE_DROPPED
Tabela źródłowa "<entityName>" została porzucona w źródle. Komunikat o błędzie: <errorMessage>
INGESTION_GATEWAY_TABLE_RENAMED
Nazwa tabeli źródłowej "<entityName>" została zmieniona na źródło. Komunikat o błędzie: <errorMessage>
INGESTION_GATEWAY_TABLE_SKIPPED_DUE_TO_UNSUPPORTED_COLUMN_DATA_TYPE
Tabela "<entityName>" została pominięta z powodu nieobsługiwanych kolumn typu danych. Rozwiąż problem i dokonaj pełnego odświeżenia tabeli w potoku zarządzania pozyskiwaniem. Komunikat o błędzie: "<errorMessage>".
INGESTION_GATEWAY_UNEXPECTED_COLUMN_UOID
Tabela "<entityName>" została pominięta z powodu nieoczekiwanego identyfikatora UOID przypisanego do kolumn. Aby rozwiązać ten problem, wykonaj pełne odświeżanie w tabeli. Błąd: <errorMessage>.
INGESTION_GATEWAY_UNEXPECTED_TABLE_UOID
Tabela "<entityName>" została pominięta z powodu nieoczekiwanego identyfikatora UOID przypisanego do tabeli. Aby rozwiązać ten problem, wykonaj pełne odświeżanie w tabeli. Błąd: <errorMessage>.
INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE (Brama wprowadzania danych: Nieosiągalny host lub port)
Połączenie nie powiodło się z powodu nieprawidłowej nazwy <host> hosta i/lub portu <port> źródłowej bazy danych.
Aby uzyskać więcej informacji, zapoznaj się z INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE
INGESTION_GATEWAY_UNSUPPORTED_CHARS_IN_OBJECT_NAME
Nieobsługiwane znaki znalezione w obiektach tabeli <entityName>, przyczyna: <errorMessage>. Tabela zostanie pominięta. Skontaktuj się z pomocą techniczną, aby włączyć pozyskiwanie znaków specjalnych.
INGESTION_GATEWAY_UNSUPPORTED_OBJECT_TYPE
Obiekt "<entityName>" jest nieobsługiwany i został pominięty. Aby rozwiązać ten problem, usuń ten obiekt z potoku pozyskiwania. Komunikat o błędzie: "<errorMessage>".
INGESTION_GATEWAY_UNTRACEABLE_TABLE_MODIFICATION
Niemożliwa do śledzenia modyfikacja tabeli wykryta dla tabeli <entityName>, przyczyna: <errorMessage>.
Może to być spowodowane obcięciem tabeli, przerzucanie dziennika cdc lub inną niemożliwą operacją.
Tabela zostanie pominięta z przetwarzania. Aby ponownie włączyć przetwarzanie, należy ponownie odświeżyć tabelę.
INGESTION_GATEWAY_XA_TRANSACTION_NOT_SUPPORTED
Nie można zreplikować <entityType> elementu "<entityName>", ponieważ jest częścią transakcji XA.
Komunikat o błędzie: <errorMessage>
NIEPRAWIDŁOWA_KOMENDA_APLIKACJI_ZMIAN
AUTO CDC polecenie jest nieprawidłowe.
<reason>.
NIEPRAWIDŁOWY_TYP_ARGUMENTU
SQLSTATE: brak przypisania
Wartość nieprawidłowego typu przekazanego do parametru "<paramName>". Oczekiwano <expectedType>.
<additionalMsg>.
NIEPRAWIDŁOWE_OPCJE_KOMPATYBILNOŚCI
Opcje tabeli określone dla tabeli <table> są nieprawidłowe, ponieważ
Aby uzyskać więcej informacji, zobacz INVALID_COMPATIBILITY_OPTIONS
INVALID_CONFIG_FOR_UC_PIPELINE
Potoki UC nie obsługują ustawienia "<configKey>" na "<configValue>". Usuń tę konfigurację z ustawień potoku.
NIEPRAWIDŁOWE_UŻYCIE_DEKORATORA
SQLSTATE: brak przypisania
Pierwszy argument pozycyjny przekazany do @<decoratorName> musi być możliwy do wywołania. Dodaj znak @<decoratorName> bez parametrów do funkcji lub przekaż opcje do @<decoratorName> przy użyciu argumentów słów kluczowych (na przykład <exampleUsage>).
INVALID_DESTINATION_PIPELINE_ID
Nieprawidłowy identyfikator potoku docelowego: "<pipelineId>". Identyfikatory potoków muszą być prawidłowymi identyfikatorami UUID.
Sprawdź, czy używasz poprawnego identyfikatora potoku, a nie nazwy potoku.
NIEPRAWIDŁOWA_KONFIGURACJA_DZIENNIKA_ZDARZEŃ
Znaleziono nieprawidłową konfigurację dziennika zdarzeń w specyfikacji strumienia: <message>
NIEPRAWIDŁOWA_NAZWA_W_UŻYCIU_POLECENIE
Nieprawidłowa nazwa "<name>" w <command> poleceniu. Przyczyna: <reason>
NIEPRAWIDŁOWY_PARAMETR_DLA_DBSQL_PIPELINE
Można określić tylko 'pipeline_id' i 'pipeline_type' podczas wywoływania 'dry_run' dla potoku DBSQL.
NIEPRAWIDŁOWY_WYBÓR_ODŚWIEŻANIA
Aby uzyskać więcej informacji, zobacz INVALID_REFRESH_SELECTION
NIEPRAWIDŁOWE ZAPYTANIE O ODŚWIEŻENIE WYBORU DLA CIĄGŁEGO POTOKU
Wybór odświeżania nie jest obsługiwany w trybie ciągłym.
NIEPRAWIDŁOWE ŻĄDANIE ODŚWIEŻENIA WYBORU Z PEŁNYM ODŚWIEŻENIEM
full_refresh nie powinno być ustawione na true dla żądania dotyczącego wyboru odświeżania.
INVALID_REWIND_SPECIFICATION
Specyfikacja przewijania jest nieprawidłowa
Aby uzyskać więcej informacji, zobacz INVALID_REWIND_SPECIFICATION
Nieprawidłowa_Ścieżka_Korzenia
Nieprawidłowa root_path "<rootPath>": obecnie obsługiwane są tylko ścieżki katalogów bezwzględnych. Ścieżki katalogów muszą zaczynać się od "/" i nie kończyć się "/".
NIEPRAWIDŁOWA_NAZWA_SCHEMATU
Nieprawidłowy schemat "<schemaName>" określony w ustawieniach potoku. Powód: <reason>.
NIEPRAWIDŁOWY_TYP_SNAPSHOT_I_WERSJI
SQLSTATE: brak przypisania
snapshot_and_version dla przepływu z celem '<target>' zwrócił nieobsługiwany typ.
<additionalMsg>.
NIEPRAWIDŁOWY_FORMAT_INTERWAŁU_WYZWALACZA
Konfiguracja interwału wyzwalacza określona w <configurationType> jest nieprawidłowa
JIRA_ACCESS_FORBIDDEN
Użytkownik łączący nie ma dostępu. Ponownie sprawdź uprawnienia użytkownika i spróbuj ponownie.
JIRA_ADMIN_PERMISSION_MISSING
Wystąpił błąd podczas wywoływania interfejsów API jira. Pamiętaj, aby dać
użytkownik łączący uprawnienia administratora programu Jira dla wystąpienia usługi Jira.
JIRA_AUTHORIZATION_FAILED
Autoryzacja nie powiodła się podczas wywoływania interfejsów API usługi Jira. Ponawianie ponownego uwierzytelniania
połączenie UC zostało utworzone i spróbuj ponownie.
JIRA_CONNECTOR_ENTITY_MAPPING_PARSING_FAILED
Wystąpił błąd w łączniku Jira.
Wystąpił problem podczas próby przeanalizowana mapowania jednostki dla typu jednostki: <entityType>. Sprawdź, czy jednostka jest częścią obsługiwanych typów.
Jeśli błąd będzie się powtarzać, zgłoś zgłoszenie.
JIRA_MISSING_REQUIRED_FIELD
Brak wymaganego pola "<fieldName>" w odpowiedzi interfejsu API jira.
JSON Węzła: <jsonNode>
JIRA_SITE_MISSING
Nie można odnaleźć identyfikatora cloudId odpowiadającego podanej domenie <domain>jira .
Upewnij się, że łączący się użytkownik może uzyskać dostęp do tej witryny.
SZCZEGÓŁY_STANOWISKA_NIE_ZGADZAJĄ_SIĘ
Jeśli podane są obie wartości "update_cause_details.job_details" i "job_task", musi zachodzić zgodność, ale są <details> i <jobTask>
SZCZEGÓŁY_ZADANIA_BRAKUJĄ
Jeśli "przyczyna" ma wartość JOB_TASK, to należy podać albo "job_task", albo "update_cause_details.job_details".
LEGACY_PIPELINE_CREATION_DISABLED
Tworzenie potoków w starszym trybie publikowania jest domyślnie wyłączone w obszarach roboczych. Jeśli wymagany jest wyjątek, skontaktuj się z pomocą techniczną usługi Databricks.
LIBRARY_FILE_FETCH_PERMISSION_DENIED
Nie można uzyskać dostępu do pliku biblioteki w folderze "<path>". Upewnij się, że użytkownik ma wymagane uprawnienia do odczytu tego pliku.
Przyczyna: <reason>
LIBRARY_FILE_NOT_FOUND
Nie można odnaleźć pliku "<path>" lub użytkownik run_as nie ma uprawnień dostępu do niego.
Odwołanie na żywo poza definicją zapytania w trybie klasycznym
Odwoływanie się do zestawów danych przy użyciu schematu wirtualnego LIVE poza definicją zapytania zestawu danych (tj. adnotacją @dlt.table) nie jest obsługiwane.
ŻYWA_REFERENCJA_POZA_DEFINICJĄ_ZAPYTANIA_DPM
Odwoływanie się do zestawów danych przy użyciu LIVE schematu wirtualnego <identifier> poza definicją zapytania zestawu danych (tj. adnotacją @dlt.table) nie jest obsługiwane.
Odwołanie_na_żywo_poza_definicją_zapytania_SPARK_SQL
Odwoływanie się do zestawów danych przy użyciu schematu wirtualnego LIVE w API spark.sql(...) nie może być wywoływane poza definicją zapytania zestawu danych (tj. adnotacją @dlt.table). Może być wywoływana tylko w ramach definicji zapytania zestawu danych.
MANAGED_INGESTION_PIPELINE_SPEC_VALIDATION_ERROR
Aby uzyskać więcej informacji, zobacz MANAGED_INGESTION_PIPELINE_SPEC_VALIDATION_ERROR
MATERIALIZED_VIEW_RETURNED_STREAMING_DATAFRAME
SQLSTATE: brak przypisania
Funkcja query dla zmaterializowanego widoku "<datasetName>" zwróciła przesyłania strumieniowego ramki danych.
Musi zwrócić nieprzesyłania strumieniowego ramki danych.
OSIĄGNIĘTO_MAX_LICZBA_PONOWNYCH_PRÓB_PRZED_PRZELICZENIEM_ENZYMU
Osiągnięto maksymalną liczbę ponownych prób. Liczba ponownych prób:<flowRetryCount>. próg maksymalnej liczby prób ponownych po niepowodzeniu przepływu:<maxFlowRetryAttempts>. <message>
MESA_PIPELINE_INVALID_DEFINITION_TYPE (Niewłaściwy typ definicji potoku)
Uruchamianie potoku <definitionType> z definicji UC jest niedozwolone.
NIEDOPASOWANIE PRZEWODÓW W PRZEWODACH MESA
Zapisana i zaktualizowana definicja musi być tego samego typu potoku, jednak otrzymano <stored> i <updated>.
DEFINICJA_MESA_PIPELINE_BRAKUJĄCA
Potok nie ma prawidłowej definicji w UC, ale wymagane jest jego odświeżenie.
MESA_RUROCIĄG_BRAK_DEFINICJI_NIESPODZIEWANE
Nieoczekiwanie brakuje definicji pipeline'u z UC.
Operacja w MetaStore przekroczyła limit czasu
Operacje związane z aktualizowaniem informacji magazynu metadanych dla <tableName> trwały dłużej niż <timeout>.
Ten problem może być przejściowy lub może wskazywać na błędy w skonfigurowanym kliencie magazynu metadanych. Spróbuj ponownie uruchomić pipeline i zgłosić problem, jeśli będzie się powtarzać.
META_ADS_PARAMETERS_CHANGED
Wystąpił błąd w łączniku meta marketingu. Parametry wejściowe tabeli ad_insights zostały zmodyfikowane.
Wykonaj pełne odświeżanie w dotkniętych tabelach.
META_ADS_SOURCE_API_ERROR
Wystąpił błąd w wywołaniu interfejsu API meta marketingu. Identyfikator śledzenia serwisu Facebook do śledzenia z obsługą meta: <trace_id>.
Jeśli błąd będzie się powtarzać, zgłoś zgłoszenie.
META_MARKETING_INSIGHTS_LEVEL_INVALID
Wystąpił błąd w łączniku meta marketingu podczas próby pobrania szczegółowych informacji dla tabeli ad_insights.
Podany parametr <level> poziomu jest nieprawidłowy. Przekaż jedną z (ad, adset, campaign, account).
META_MARKETING_INSIGHTS_PARAM_BREAKDOWNS_INVALID
Wystąpił błąd w łączniku meta marketingu podczas próby pobrania szczegółowych informacji dla tabeli ad_insights.
Podany parametr <breakdowns> podziału jest nieprawidłowy. Zapoznaj się z dokumentacją meta interfejsu API, aby uzyskać prawidłową listę podziałów.
Jeśli błąd będzie się powtarzać, zgłoś zgłoszenie.
META_MARKETING_INSIGHTS_PARAM_TIME_INCREMENT_INVALID
Wystąpił błąd w łączniku meta marketingu podczas próby pobrania szczegółowych informacji dla tabeli ad_insights.
Nie można przeanalizować podanego parametru <timeInc> inkrementacji czasu. Wprowadź prawidłową liczbę całkowitą.
META_MARKETING_INSIGHTS_START_DATE_INVALID
Wystąpił błąd w łączniku meta marketingu podczas próby pobrania szczegółowych informacji dla tabeli ad_insights.
Nie można przeanalizować podanego parametru <startDate> daty rozpoczęcia. Sprawdź i zmodyfikuj go w poprawnym formacie RRRR-MM-DD.
META_MARKETING_INSIGHTS_START_DATE_TOO_OLD
Wystąpił błąd w łączniku meta marketingu podczas próby pobrania szczegółowych informacji dla tabeli ad_insights.
Podana data rozpoczęcia nie może przekraczać 37 miesięcy od bieżącej daty synchronizacji. Sprawdź i zmodyfikuj go w podanych parametrach.
Jeśli błąd będzie się powtarzać, zgłoś zgłoszenie.
META_MARKETING_RATE_LIMIT_EXCEEDED
Limit szybkości interfejsu API meta dla tego konta reklamowego został wyczerpany. Ponów próbę aktualizacji potoku po pewnym czasie. Zaleca się równoległe pozyskiwanie mniejszej liczby tabel, aby uniknąć ponownego osiągnięcia limitów.
Jeśli często występują błędy limitu szybkości, rozważ uaktualnienie do dostępu zaawansowanego, jeśli nie zostało to jeszcze zrobione, zgodnie z dokumentacją meta: https://developers.facebook.com/docs/marketing-api/get-started/authorization
META_MARKETING_REQUESTED_DATA_LIMIT_EXCEEDED
Meta API nie powiodło się, ponieważ ilość żądanych danych przekracza limit, który może przetwarzać serwery Meta.
Spróbuj zmniejszyć liczbę pól do pozyskiwania w tej tabeli przy użyciu logiki wyboru kolumny. Jeśli błąd będzie się powtarzać, zgłoś zgłoszenie.
MIGRATION_TO_UNITY_CATALOG
Aby uzyskać więcej informacji, zobacz MIGRATION_TO_UNITY_CATALOG
MISSING_CATALOG_OR_SCHEMA_PERMISSION
Użytkownik "<userName>" nie ma uprawnień do "<schemaName>". Szczegóły: <reason>
BRAK_UPRAWNIEŃ_DO_TWORZENIA_SCHEMATU
Użytkownik "<userName>" nie ma uprawnień do tworzenia schematu w katalogu <catalogName>
BRAK_UPRAWNIEŃ_DO_TWORZENIA_TABEL
Użytkownik "<userName>" nie ma uprawnień do tworzenia tabeli w schemacie <schemaName>
BRAKUJE_URUCHOM_JAKO_UŻYTKOWNIK
Nie określono użytkownika do uruchomienia aktualizacji.
MULTI_QUERY_SNAPSHOT_TARGET_NOT_SUPPORTED
Element "<tableName>" zawiera AUTO CDC FROM SNAPSHOT już zapytanie "<flowName>". Obecnie ten interfejs API obsługuje tylko jeden przepływ na miejsce docelowe.
Opcje_wzajemnie_wykluczające
Wzajemnie wykluczające się opcje <options>. Usuń jedną z tych opcji.
WARTOŚĆ_UJEMNA
SQLSTATE: brak przypisania
Wartość dla <arg_name> musi być większa lub równa 0, otrzymano '<arg_value>'.
TABELA_NON_UC_JEST_JUŻ_ZARZĄDZANA_PRZEZ_INNY_POTOK
Tabela "<tableName>" jest już zarządzana przez potok <otherPipelineId>.
Jeśli chcesz, aby tabela "<tableName>" była zarządzana przez ten potok —
Usuń tabelę z potoku '
<otherPipelineId>'.Uruchom pełną aktualizację odświeżania dla tego pipeline'u.
Jeśli chcesz kontynuować zarządzanie tabelą z wielu potoków, wyłącz tę kontrolę, ustawiając konfigurację pipelines.tableManagedByMultiplePipelinesCheck.enabled na false w ustawieniach swojej potokowej konfiguracji.
Nie jest to zalecane, ponieważ operacje współbieżne na tabeli mogą konfliktować ze sobą i prowadzić do nieoczekiwanych wyników.
Osiągnięto limit nazw notatników
Nieprawidłowa ścieżka notatnika: '<nameStart>...<nameEnd>'. Jest on dłuższy niż <maxNotebookPathLength> znaki.
Notatnik nie znaleziony
Nie można uzyskać dostępu do notesu "<notebookPath>". Nie istnieje lub tożsamość używana do uruchamiania tego potoku <identity>, nie ma wymaganych uprawnień.
NOTEBOOK_PIP_INSTALL_ERROR
Nie można uruchomić polecenia "<pipInstallCommand>" z notesu: <notebookPath>. Aby uzyskać więcej informacji, sprawdź dzienniki stdout sterownika w klastrze.
NOTEBOOK_TOO_LARGE
Rozwiązana zawartość notesu w folderze "<notebookPath>" jest zbyt duża, zmniejsz rozmiar notesu.
POWIADOMIENIA_DUPLIKATY_ALARMÓW
Zdublowane alerty "<alertsDuplicates>" wskazane w [<alerts>]
POWIADOMIENIA_DUPLIKAT_ADRESÓW_EMAIL
Zduplikowane adresy e-mail "<emailRecipientsDuplicates>" określone w [<emailRecipients>]
POWIADOMIENIA_NIEPOPRAWNE_ALARMY
Określono nieprawidłowe alerty w celu otrzymywania powiadomień: <invalidAlerts>
POWIADOMIENIA_NIEPRAWIDŁOWY_ADRES_EMAIL
Określono nieprawidłowy adres e-mail do odbierania powiadomień: <invalidEmailAddresses>
POWIADOMIENIA_BRAK_PARAMETRÓW
Określ co najmniej jednego adresata i jeden alert w <setting>
NIE PODANO ARGUMENTU DLA ŹRÓDŁA LUB MIGAWKI I WERSJI
SQLSTATE: brak przypisania
Albo source musi być ustawiona dla apply_changes_from_snapshot z wartością docelową "<target>".snapshot_version
BRAK_TABEL_W_POTOKU
Oczekuje się, że potoki będą mieć co najmniej jedną zdefiniowaną tabelę, ale w Twoim potoku nie znaleziono żadnych tabel.
Sprawdź, czy zostały dołączone i udostępnione w przypadku skonfigurowania uruchom jako, oczekiwanych plików źródłowych i/lub katalogów oraz czy kod źródłowy zawiera definicje tabeli (na przykład CREATE MATERIALIZED VIEW w kodzie SQL w kodzie @dlt.table języka Python).
Należy pamiętać, że tylko tabele są uwzględniane w tym sprawdzeniu. Ten błąd może również wystąpić, jeśli uwzględnisz w potoku tylko widoki lub przepływy.
OUTPUT_MODE_NOT_SUPPORTED_FOR_TABLE_FLOW
Tryb danych wyjściowych "<outputMode>" nie jest obsługiwany w przypadku tabeli docelowej "" przepływu<flowName> tabeli "<target>". Tylko tryb "dołączania" jest obsługiwany w przypadku przepływów tabeli.
BRAK_WŁAŚCICIELA
Właściciel nie istnieje.
ŻĄDANIE_PAGINACJI_MA_NAZWĘ_I_PAGINACJĘ
Możesz podać element <name> lub stronicowanie, ale nie obie.
NIEOBSŁUGIWANE_POLE_DEFINICJI_KONFIGURACJI_PIPELINE
Funkcja PatchPipelineDefinition obsługuje tylko pole schedule, ale w podanej definicji były inne wypełnione pola: "<updatedDefinition>".
ODCZYTY_USTALONEGO_WIDOKU_Z_ŹRÓDŁA_STRUMIENIOWEGO
Utrwalone widoki nie obsługują odczytu ze źródeł przesyłania strumieniowego.
UTRWALONE_WIDOKI_ODCZYTY_Z_TYMCZASOWYCH_WIDOKÓW
Widok utrwalony <persistedViewName> nie może odwoływać się do widoku tymczasowego <temporaryViewName>, który nie będzie dostępny poza zakresem potoku. Utwórz trwały widok tymczasowy lub utrwał widok tymczasowy.
Klonowanie rurociągu jest już w toku
Potok jest już klonowany do potoku o identyfikatorze "<pipelineId>".
PIPELINE_CLONING_BOTH_TARGET_AND_SCHEMA_SPECIFIED
Nie można określić zarówno elementu docelowego, jak i schematu podczas klonowania potoku. Określ tylko jeden.
PIPELINE_CLONING_CANNOT_CHANGE_SCHEMA_TO_TARGET
Nie można sklonować potoku ze schematem do potoku z elementem docelowym. Sklonowany potok musi również używać "schematu" lub pomijać oba te elementy, aby dziedziczyć oryginalną wartość.
Klonowanie_potoku_nieważne_podczas_aktywnej_aktualizacji
Nie można sklonować potoku o identyfikatorze "<pipelineId>" podczas aktywnej aktualizacji.
NIEPRAWIDŁOWE_POLA_KLONOWANIA_PIPELINE
Żądanie zawiera specyfikację potoku z nieprawidłowymi polami do klonowania. Dozwolone pola obejmują: nazwę, katalog, element docelowy, konfigurację.
PIPELINE_KLONOWANIE_NIEPRAWIDŁOWE_Z_POWODU_BRAKUJĄCEGO_CELU
Potok o identyfikatorze "<pipelineId>" nie publikuje do schematu docelowego. Potok źródłowy musi opublikować dane w schemacie docelowym, który ma być sklonowany. Ponów próbę po określeniu pola "target" w specyfikacji potoku i uruchomieniu nowej aktualizacji w celu opublikowania w schemacie docelowym.
NIEPRAWIDŁOWE_KLONOWANIE_PIPELINE_DLA_PIPELINE_UC
Rurociąg o identyfikatorze "<pipelineId>" jest już rurociągiem UC. Nie można sklonować potoków UC.
PIPELINE_CLONING_NO_CATALOG_SPECIFIED
Nie określono wykazu do klonowania.
BRAK_OKREŚLENIA_MODU_PIPELINE_CLONING
Nie określono trybu klonowania.
NIE OKREŚLONO CELU KLONOWANIA PRZEWODU
Nie określono wykazu docelowego do klonowania.
Tworzenie potoków jest wyłączone dla przestrzeni roboczej.
Tworzenie pipeline'u nie jest aktywowane dla tego obszaru roboczego.
PIPELINE_NIE_ISTNIEJE
Pipeline o identyfikatorze "<pipelineId>" nie istnieje.
Aby uzyskać więcej informacji, zobacz PIPELINE_DOES_NOT_EXIST
ŚRODOWISKO_PIPELINOWE_WYŁĄCZONE
Używanie środowiska w potokach deklaratywnych spark lakeflow nie jest włączone.
Niedozwolona wersja środowiska potoku
Środowisko pipeline'u obecnie nie obsługuje wersji środowisk.
NIEUDANA AKTUALIZACJA TABELI UC Z POWODU RÓWNOLEGŁEJ AKTUALIZACJI
Potok nie może zaktualizować tabeli UC (<tableName>) z powodu współbieżnych zmian po <attempts> próbach.
Sprawdź, czy nie ma procesów zewnętrznych modyfikujących tabelę, ponów próbę aktualizacji i skontaktuj się z pomocą techniczną usługi Databricks, jeśli ten problem będzie się powtarzać.
PIPELINE_FAILED_TO_UPDATE_UC_TABLE_DUE_TO_EXTERNAL_DELETE
Tabela <tableName> została usunięta przez operację zewnętrzną podczas aktualizowania potoku.
Upewnij się, że żadne procesy zewnętrzne nie modyfikują tabeli, a następnie ponów próbę aktualizacji.
Jeśli problem będzie się powtarzać, skontaktuj się z pomocą techniczną usługi Databricks.
Potrzebne odświeżenie potoku dla tabeli
Tabela <tableName> nie jest w stanie wymaganym. Tabela nie została ostatnio zaktualizowana. Potok o identyfikatorze "<pipelineId>" musi zostać uruchomiony jeszcze raz, a następnie operacja musi zostać ponowiona.
PRZEWÓD_NIE_ZNALEZIONO_DLA_TABELI
Potoku o identyfikatorze "<pipelineId>", który zarządza tabelą <tableName>, nie można odnaleźć. Upewnij się, że jesteś w tym samym obszarze roboczym co potok danych, jesteś właścicielem potoku danych, a potok danych był uruchamiany co najmniej raz.
Konflikty włączeń PIPELINE_GLOB
Pole glob lub notebook/plik w sekcji bibliotek w ustawieniach potoku powinno być ustawione. Zmień ustawienia pipeline'u.
Włączenia wzorców glob nie są obsługiwane
Dołączanie plików źródłowych przy użyciu pola glob jest funkcją w wersji zapoznawczej i jest wyłączone.
Wybierz ponownie każdy plik źródłowy, aby dodać go do potoku i naprawić ten błąd.
Skontaktuj się z pomocą techniczną usługi Databricks, aby dowiedzieć się więcej na temat tej funkcji i zarejestrować się w wersji zapoznawczej.
NIEWSPÓŁPRACUJĄCY_ZNAK_SPECJALNY_W_CIĄGU_PIPELINY
Znaki specjalne <specialChar> są zarezerwowane i nie powinny być używane w ścieżce '<path>' w ustawieniach potoku. Usuń te znaki, aby naprawić błąd
Limit Nazwy Potoku Osiągnięty
Nazwa nie może być dłuższa niż <maxPipelineNameLength> znaki.
PIPELINE_NON_RETRYABLE_ANALYSIS_CLIENT_ERROR
Przetwarzanie potokowe nie powiodło się w analizie tabel źródłowych (<tables>) z powodu błędów, których nie można ponowić, po częściowym przetwarzaniu.
Nie zostanie utworzona nowa aktualizacja przepływu.
<flowErrors>
Sprawdź dziennik zdarzeń i odpowiednio rozwiąż problemy.
PIPELINE_NOT_ELIGIBLE_FOR_RESTORATION
Potok "<pipelineId>" jest przeszłością okna przywracania.
PIPELINE_NIE_W_BEZPOŚREDNIM_TYPIE_PUBLIKOWANIA
Potok o identyfikatorze '<pipelineId>', zarządzający tabelą <tableName>, nie używa trybu bezpośredniego publikowania.
POTOK_NIEGOTOWY_DO_ZAPLANOWANEJ_AKTUALIZACJI
Tabela nie jest jeszcze gotowa do odświeżenia
Aby uzyskać więcej informacji, zobacz PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE
BRAK_UPRAWNIEŃ_DO_RUROCIĄGU_NIE_JESTEŚ_WŁAŚCICIELEM
Nie można wykonać tej operacji. Nie jesteś właścicielem potoku o identyfikatorze '<pipelineId>', zarządzającym tabelą <tableName>.
PIPELINE_RETRYABLE_ANALYSIS
Potok nie może przeanalizować tabel źródłowych (<tables>) z powodu błędów możliwych do ponawiania po częściowym wykonaniu.
Zostanie utworzona nowa aktualizacja potoku w celu ponawiania próby przetworzenia. Jeśli błąd będzie się powtarzać, sprawdź dziennik zdarzeń i odpowiednio rozwiąż problemy.
Pole ustawień potoku nie może być edytowane
"<uneditableFieldName>" nie może być modyfikowany przez użytkowników. Jeśli użytkownicy chcą dodać lub zmodyfikować pole <settingName>, użyj pola "<editableFieldName>".
USTAWIENIA_PIPELINE_ZMODYFIKOWANO_JEDNOCZEŚNIE
Ustawienia potoku zostały zmodyfikowane jednocześnie.
NIEOBSŁUGIWANE_KONFIGURACJE_USTAWIEŃ_RUROCIĄGU
Konfiguracje <configurations> nie są obsługiwane przez potoki deklaratywne platformy Spark w usłudze Lakeflow. Usuń te konfiguracje.
USTAWIENIE_PIPELINE_NIE_POWINNO_OKREŚLAĆ_ROZWOJU
Uruchamianie aktualizacji z ustawieniem "programowanie" nie jest obsługiwane.
Potok nie powinien mieć wielu tabel.
Rurociąg musi zawierać dokładnie jedną tabelę, ale znaleziono <tablesSize> tabeli: <tables>
LICZBA PLIKÓW ŹRÓDŁOWYCH W POTOKU PRZEKROCZONA
Liczba plików źródłowych, w tym plików zadeklarowanych w folderach, przekracza limit .<limit>
W razie potrzeby usuń lub scal zbędne pliki i zmień odpowiednią specyfikację potoku.
lub skontaktuj się z pomocą techniczną usługi Databricks, aby poprosić o zwiększenie limitu.
PRZEKROCZONO_GŁĘBOKOŚĆ_FOLDERU_ŹRÓDŁA_PIPELINE
Folder "<folder_path>" przekracza maksymalny dozwolony poziom zagnieżdżania katalogów <limit>. Zmniejsz poziom zagnieżdżania folderów lub skontaktuj się z pomocą techniczną usługi Databricks, aby zażądać zwiększenia limitu.
PARAMETR_SPECYFIKACJI_RUROCIĄGU_NIE_MOŻE_BYĆ_ZMIENIONY
Modyfikowanie następującego parametru <param> w ustawieniach potoku danych jest niedozwolone
Typ potoku danych nieobsługiwany
Typ potoku "<pipelineType>" nie jest obsługiwany.
Typ_rur_nie_typ_rur_przestrzeni_roboczej
Potok o identyfikatorze "<pipelineId>", zarządzający tabelą <tableName>, nie jest potokiem ETL.
LIMIT_TYP_RUROCIĄGU_PRZEKROCZONY
Nie można uruchomić aktualizacji "<updateId>", ponieważ osiągnięto limit dla aktywnych potoków typu "<pipelineType>".
Aktualizacja potoku dla tabeli jest w toku
Potok o identyfikatorze "<pipelineId>", zarządzający tabelą <tableName>, działa. Zatrzymaj rurociąg przed uruchomieniem operacji.
LIMIT PRZESTRZENI ROBOCZEJ POTOKU OSIĄGNIĘTY
Tworzenie potoku typu "<pipelineType>" zostało zablokowane, ponieważ obszar roboczy "<orgId>" ma już potoki "<countLimit>". Usuń nieużywane potoki.
pip install nie znajduje się na górze notebooka
Odnaleziono komórki zawierające %pip instalacji, które nie znajdują się w górnej części notesu dla elementu "<notebookPath>"
Przenieś wszystkie komórki instalacyjne %pip na początek zeszytu.
PY4J_BLOCKED_API (Zablokowane API PY4J)
SQLSTATE: brak przypisania
Używasz interfejsu API języka Python, który nie jest obsługiwany w bieżącym środowisku.
Aby uzyskać alternatywy, zapoznaj się z dokumentacją usługi Databricks.
<additionalInfo>
QUERY_BASED_CONNECTOR_SOURCE_API_ERROR
Wystąpił błąd w wywołaniu interfejsu API <sourceName>. Typ źródłowego interfejsu API: <qbcSourceApiType>.
Spróbuj odświeżyć tabelę docelową. Jeśli problem będzie się powtarzać, utwórz zgłoszenie.
QUERY_BASED_INGESTION_CONNECTOR_ERROR
Wystąpił błąd w łączniku pozyskiwania opartym na zapytaniach dla elementu <sourceName>.
Aby uzyskać więcej informacji, zobacz QUERY_BASED_INGESTION_CONNECTOR_ERROR
REFERENCE_DLT_ZBIÓR_DANYCH_POZA_DEFINICJĄ_ZAPYTANIA
Odwoływanie się do zestawu danych <identifier> Potoki deklaratywne platformy Spark w usłudze Lakeflow poza definicją zapytania zestawu danych (tj @dlt.table . adnotacją) nie jest obsługiwane. Przeczytaj go zamiast tego wewnątrz definicji zapytania zestawu danych.
Odświeżanie zainicjowane z nieprawidłowego obszaru roboczego
Odświeżanie musi zostać zainicjowane w obszarze roboczym <homeWorkspaceId>, w którym został utworzony zasób.
Podjęto próbę odświeżenia w obszarze roboczym <userWorkspaceId>.
TRYB ODŚWIEŻANIA JUŻ ISTNIEJE
Nie można dodać <type> do tabeli, która ma już <existingType>. Upuść istniejący harmonogram lub użyj ... ALTER TABLE...ALTER <type> aby go zmienić.
WYMAGANY_PARAMETR_NIE_ZNALEZIONY
Nie można odnaleźć wymaganego parametru <param> .
ZAREZERWOWANE_SŁOWO_KLUCZOWE_W_UŻYCIU_KATALOG
UŻYJ CATALOG "" jest niedozwolone, ponieważ "<reservedKeyword><reservedKeyword>" jest zastrzeżonym słowem kluczowym w potokach deklaratywnych spark lakeflow.
ZAREZERWOWANE_SŁOWO_KLUCZOWE_W_SCHEMACIE
UŻYJ SCHEMA "" jest niedozwolone, ponieważ "<reservedKeyword><reservedKeyword>" jest zastrzeżonym słowem kluczowym w potokach deklaratywnych spark lakeflow.
RESOURCES_ARE_BEING_PROVISIONED
Zasoby potoku są aprowizowane dla potoku "<pipelineId>".
RESOURCE_READ_ONLY_IN_WORKSPACE
<resourceType> Element "<resourceName>" został wyznaczony jako tylko do odczytu w bieżącym obszarze roboczym.
RESTORE_NON_DELETED_PIPELINE
Potok "<pipelineId>" nie jest usuwany. Przywracanie dotyczy tylko usuniętych potoków.
RESTORE_PIPELINE_DISABLED
Funkcja RestorePipeline nie jest włączona dla typu potoku <pipelineType>
Skontaktuj się z pomocą techniczną usługi Databricks, aby uzyskać pomoc dotyczącą przywracania potoku "<pipelineId>".
ŚCIEŻKA_KORZENIOWA_NIE_ZNALEZIONA
Nie można uzyskać dostępu do ścieżki głównej "<rootPath>". Upewnij się, że masz wymagane uprawnienia dostępu.
UŻYTKOWNIK_DO_URUCHOMIENIA_NIE_ZNALEZIONY
Określone uruchomienie jako użytkownik "<runAsUserId>" dla aktualizacji nie istnieje w przestrzeni roboczej.
Błąd połączenia SAAS
Nie można nawiązać połączenia ze źródłem <sourceName>. Kod błędu: <saasConnectionErrorCode>.
Aby uzyskać więcej informacji, zobacz SAAS_CONNECTION_ERROR
SAAS_CONNECTOR_DUPLICATE_DATA
Znaleziono zduplikowane dane w tabeli <tableName>. Typ źródła: <sourceName>.
Aby uzyskać więcej informacji, zobacz SAAS_CONNECTOR_DUPLICATE_DATA
SAAS_CONNECTOR_INVALID_INCLUDE_COLUMNS
Nieprawidłowa include_columns określona dla tabeli <qualifiedTableName>. Przyczyna: <reason>
SAAS_CONNECTOR_INVALID_PRIMARY_KEY_CONFIGURATION
Nieprawidłowa konfiguracja klucza podstawowego dla tabeli <qualifiedTableName>. Przyczyna: <reason>
SAAS_CONNECTOR_MUTUAL_AUTHENTICATION_FAILED
Nie można wzajemnie uwierzytelnić tej sesji do użytku z <sourceName>programem . Typ źródłowego interfejsu API: <saasSourceApiType>. Kod błędu: <saasSourceApiErrorCode>.
Sprawdź, czy certyfikat klienta i klucz prywatny są prawidłową parą i zaufane przez <sourceName>usługę .
TOKEN_ODŚWIEŻANIA_SAAS_CONNECTOR_WYGAŚNIĘTY
Token odświeżania połączenia <connectionName> wygasł. Zaktualizuj połączenie, ponownie uwierzytelnij się i uruchom ponownie pipeline.
BŁĄD_ZMIANY_SCHEMATU_SAAS_CONNECTOR
W tabeli <tableName> źródła <sourceName> wystąpiła zmiana schematu.
Aby uzyskać więcej informacji, zobacz SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR
BŁĄD_API_ŹRÓDŁA_KONEKTORA_SAAS
Wystąpił błąd w wywołaniu interfejsu API <sourceName>. Typ źródłowego interfejsu API: <saasSourceApiType>. Kod błędu: <saasSourceApiErrorCode>.
Spróbuj odświeżyć tabelę docelową. Jeśli problem będzie się powtarzać, utwórz zgłoszenie.
SAAS_CONNECTOR_UC_CONNECTION_OAUTH_EXCHANGE_FAILED
Wymiana tokenu OAuth nie powiodła się dla połączenia UC: <connectionName>.
Może to być spowodowane problemami z poświadczeniami UC. Sprawdź ślad błędu, zmodyfikuj połączenie UC, ponownie uwierzytelnij i ponownie uruchom potok. Jeśli błąd będzie się powtarzać, zgłoś zgłoszenie.
SAAS_CONNECTOR_UNSUPPORTED_ERROR (Niewspierany błąd łącznika SAAS)
Wystąpił nieobsługiwany błąd w źródle danych <sourceName>.
Aby uzyskać więcej szczegółów, zobacz SAAS_CONNECTOR_UNSUPPORTED_ERROR
Niezgodne zmiany schematu podczas inicjalizacji SAAS
Wykryliśmy niezgodne zmiany schematu podczas inicjowania potoku danych.
<details>
Wykonaj pełne odświeżanie w dotkniętych tabelach.
Błąd tworzenia danych wejściowych dla częściowej analizy SAAS
Wystąpił błąd podczas tworzenia danych wejściowych na potrzeby analizy częściowej. Nie zostanie utworzona nowa aktualizacja przepływu.
Sprawdź dziennik zdarzeń i odpowiednio rozwiąż problemy.
Schemat SaaS zmienił się podczas analizy
Przeanalizowany schemat tabeli źródłowej (<table>) różnił się od oczekiwanego schematu.
Spróbuj ponownie zaktualizować potok i sprawdź, czy problem został rozwiązany.
Jeśli ten problem będzie się powtarzać, wykonaj pełne odświeżanie w tabelach wymienionych powyżej
Oczekiwany schemat:
<expectedSchema>
Schemat rzeczywisty:
<actualSchema>
SAAS_UC_POŁĄCZENIE_NIEDOSTĘPNE
Podane połączenie <connectionName> jest niedostępne. Sprawdź połączenie i spróbuj ponownie.
Aby uzyskać więcej informacji, zobacz SAAS_UC_CONNECTION_INACCESSIBLE
Specyfikacja Schemy: Pusty Katalog
Element SchemaSpec zawiera pusty ciąg w polu wykazu.
Usuń pusty ciąg lub dodaj nazwę wykazu. (Jeśli ten schemat nie należy do wykazu w źródle, nie ustawiaj pola).
Szczegóły specyfikacji schematu:
<schemaSpec>
Specyfikacja schematu - pusty schemat
SchemaSpec ma pusty ciąg w polu schematu.
Usuń pusty ciąg lub dodaj nazwę schematu. (Jeśli ta tabela nie należy do schematu w źródle, nie ustawiaj pola).
Szczegóły specyfikacji schematu:
<schemaSpec>
WYMAGANE_JEDNO_Z_SCHEMA_KATALOGU
Musi istnieć co najmniej jedno z następujących: katalog źródłowy lub schemat źródłowy. Ale oba są puste.
Szczegóły specyfikacji schematu:
<schemaSpec>
SEQUENCE_BY_COLUMN_NOT_FOUND
Definicja potoku zawiera kolumny sequence_by (<columnNames>), które nie istnieją w tabeli <qualifiedTableName> źródła <sourceType>. Usuń te kolumny z pola sequence_by.
SERVERLESS_BUDGET_POLICY_AND_USAGE_POLICY_BOTH_SET
Nie można ustawić parametrów budget_policy_id i usage_policy_id. Usuń plik budget_policy_id.
SERVERLESS_BUDGET_POLICY_NIEPOPRAWNE_ŻĄDANIE
Podana polityka budżetowa o identyfikatorze "<budgetPolicyId>" nie może być używana w tym obszarze roboczym z powodu ograniczeń związanych z powiązaniami polityki do obszaru roboczego.
Polityka budżetu dla serwerless jest nieprawidłowa
Polityka budżetu bezserwerowego o identyfikatorze "<budgetPolicyId>" jest nieprawidłowa.
POLITYKA_BUDŻETOWA_BEZSERWEROWA_BRAKUJĄCA
Bezserwerowa polityka budżetowa z identyfikatorem "<budgetPolicyId>" nie istnieje.
POLITYKA BUDŻETOWA SERVERLESS NIE JEST AKTYWOWANA
Zasady budżetu bezserwerowego nie są włączone. Skontaktuj się z pomocą techniczną usługi Databricks.
POLITYKA_BUDŻETOWA_BEZSERWEROWA_NIEAKTYWOWANA_DLA_KONTA
Zasady budżetu bezserwerowego nie są włączone dla tego konta. Użytkownik nie może określić polityki budżetowej dla tego potoku danych. Administrator konta powinien spróbować zarejestrować się za pośrednictwem portalu w wersji zapoznawczej funkcji. Jeśli problem będzie się powtarzać, skontaktuj się z pomocą techniczną usługi Databricks.
POLITYKA_BUDŻETOWA_BEZSERWEROWA_NIEOBSŁUGIWANA_DLA_NIEBEZSERWEROWEGO_RUROCIĄGU
Nie można przypisać zasad budżetu bezserwerowego do potoku bezserwerowego.
Polityka budżetowa bezserwerowa nie jest wspierana dla typu potoku
Zasady budżetu bezserwerowego nie są obsługiwane dla typu potoku <pipelineType>.
Odmowa dostępu do polityki budżetu bezserwerowego
Użytkownik nie ma zezwolenia na korzystanie z polityki budżetowej bez serwera o identyfikatorze "<budgetPolicyId>".
Serverless nie jest dostępny
Zasoby obliczeniowe bezserwerowe nie są dostępne. Aby uzyskać więcej informacji, skontaktuj się z usługą Databricks.
SERVERLESS_NIE_SKONFIGUROWANY
Nie można używać bezserwerowych obliczeń za pomocą potoków deklaratywnych spark lakeflow. Skontaktuj się z usługą Databricks, aby włączyć tę funkcję dla obszaru roboczego.
Serwerless nie jest włączony dla użytkownika
Bezserwerowe obliczenia nie są włączone dla wywołującego. Skontaktuj się z administratorem obszaru roboczego, aby włączyć tę funkcję.
SERVERLESS NIE JEST WŁĄCZONY DLA PRZESTRZENI ROBOCZEJ
Przetwarzanie bezserwerowe nie jest dostępne dla tego obszaru roboczego i/lub regionu. Aby uzyskać więcej informacji, skontaktuj się z usługą Databricks.
WYMAGANY_BEZSERWEROWY
W tym obszarze roboczym należy używać bezserwerowych zasobów obliczeniowych.
SERVICENOW_CONNECTION_ERROR
Wystąpił błąd w usłudze ServiceNow. Typ źródłowego interfejsu API: <saasSourceApiType>.
Aby uzyskać więcej informacji, zobacz SERVICENOW_CONNECTION_ERROR
BŁĄD_SERWIS_NOWO_KONEKTOR_PUSTY_KLUCZ_KURSORU
Wystąpił błąd w usłudze ServiceNow. Typ źródłowego interfejsu API: <saasSourceApiType>.
Obecnie rura przetwarzania nie może przetworzyć tabeli "<tableName>", ponieważ klucz kursora w wierszu zawiera pusty element.
Aby kontynuować uruchamianie potoku, usuń tę tabelę. Jeśli błąd będzie się powtarzać, zgłoś zgłoszenie.
BŁĄD_HIBERNACJI_INSTANCJI_CONNECTOR_SERVICENOW
Wystąpił błąd w usłudze ServiceNow. Typ źródłowego interfejsu API: <saasSourceApiType>.
Nie można nawiązać połączenia z instancją usługi ServiceNow. Instancja wydaje się hibernować lub być nieaktywna.
Zaloguj się do portalu administracyjnego ServiceNow i poczekaj chwilę, aż instancja się w pełni uruchomi.
Jeśli błąd będzie się powtarzać, zgłoś zgłoszenie.
Błąd: Serwer ServiceNow Connector jest offline (SERVICENOW_CONNECTOR_INSTANCE_OFFLINE_ERROR)
Wystąpił błąd w usłudze ServiceNow. Typ źródłowego interfejsu API: <saasSourceApiType>.
Nie można nawiązać połączenia z instancją usługi ServiceNow. Wystąpienie jest w trybie offline.
Zaloguj się do portalu administracyjnego usługi ServiceNow i poczekaj trochę, do czasu aż wystąpienie zostanie przywrócone.
Jeśli błąd będzie się powtarzać, zgłoś zgłoszenie.
SERVICENOW_KONEKTOR_NIEPRAWIDŁOWA_TABELA_BŁĄD
Wystąpił błąd w usłudze ServiceNow. Typ źródłowego interfejsu API: <saasSourceApiType>.
Nie udało się zapytać o schemat tabeli "<tableName>". Tabela nie istnieje na koncie usługi ServiceNow dla tego użytkownika.
Sprawdź nazwę tabeli pod kątem literówek i upewnij się, że użytkownik ma niezbędne uprawnienia do tabeli.
Jeśli błąd będzie się powtarzać, zgłoś zgłoszenie.
Error: Adres IP konektora ServiceNow ograniczony
Wystąpił błąd w usłudze ServiceNow. Typ źródłowego interfejsu API: <saasSourceApiType>.
Nie można nawiązać połączenia z instancją usługi ServiceNow. Wystąpienie ma ograniczenia kontroli dostępu do adresów IP.
Aby rozwiązać ten problem, wyłącz ograniczenia adresów IP, przechodząc do usługi ServiceNow >> All >> System Security >> IP Access Control lub użyj bezserwerowych stabilnych adresów IP
Jeśli błąd będzie się powtarzać, zgłoś zgłoszenie.
SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR - Błąd: Nieprawidłowy URL punktu końcowego w ServiceNow Connector
Wystąpił błąd w usłudze ServiceNow. Typ źródłowego interfejsu API: <saasSourceApiType>.
Wykryto nieprawidłowy adres URL punktu końcowego interfejsu API usługi ServiceNow. Struktura adresu URL nie jest zgodna z oczekiwanym formatem usługi ServiceNow.
Sprawdź konfigurację instancji ServiceNow w poświadczeniach połączenia UC.
Aby uzyskać więcej informacji, zobacz SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR
OSIĄGNIĘTO MAKSYMALNĄ LICZBĘ NIEUDANYCH PRÓB DLA CONNECTORA SERVICENOW
Wystąpił błąd w usłudze ServiceNow. Typ źródłowego interfejsu API: <saasSourceApiType>.
Dzieje się tak często, gdy pobieranie danych dla tabeli trwa zbyt długo. W pierwszym kroku skontaktuj się z administratorem usługi ServiceNow, aby włączyć indeksowanie w kolumnie kursora.
Kolumna kursora jest wybierana z poniższej listy w kolejności dostępności i preferencji: sys_updated_on (pierwszy wybór), sys_created_on (drugi wybór), sys_archived (trzeci wybór)
Aby uzyskać instrukcje dotyczące włączania indeksowania w usłudze ServiceNow, zobacz tutaj: https://docs.databricks.com/ingestion/lakeflow-connect/servicenow-overview#why-is-my-servicenow-ingestion-performance-slow.
Zalecamy również zwiększenie limitu czasu zapytania interfejsu API REST do ponad 60 sekund, aby umożliwić więcej czasu na pobieranie rekordów.
Następnie ponownie uruchom przetwarzanie danych. Jeśli problem będzie się powtarzać, utwórz zgłoszenie.
SERVICENOW_CONNECTOR_SCHEMA_FIELD_TYPE_INACCESSIBLE
Wystąpił błąd w usłudze ServiceNow. Typ źródłowego interfejsu API: <saasSourceApiType>.
Podczas pobierania schematu tabeli z uprawnieniami innych niż administrator internal_type kolumn schematu nie jest dostępny.
Aby rozwiązać ten problem, nadaj uprawnienia do odczytu w tabeli "sys_glide_object" bieżącemu użytkownikowi.
Jeśli błąd będzie się powtarzać, zgłoś zgłoszenie.
Niedopasowanie typu pola w schemacie łącznika ServiceNow
Wystąpił błąd w usłudze ServiceNow podczas pobierania schematu tabeli.
Znaleziono dwa powodujące konflikty typy danych dla pól "<fieldName>": "<firstDataType>" i "<secondDataType>".
Aby kontynuować uruchamianie potoku, usuń tę tabelę. Jeśli błąd będzie się powtarzać, zgłoś zgłoszenie.
BŁĄD_NIEAUTORYZOWANEGO_DOSTĘPU_KONNEKTORA_SERVICENOW
Wystąpił błąd w usłudze ServiceNow. Typ źródłowego interfejsu API: <saasSourceApiType>.
Aby uzyskać więcej informacji, zobacz SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
Not applicable, as keeping the original in this context may be the best approach unless further context suggests otherwise.
ALTER <commandTableType>
...
SET TBLPROPERTIES nie jest obsługiwana. Aby zmodyfikować właściwości tabeli, zmień oryginalną definicję i uruchom aktualizację.
Nieukończone_zadanie_zapytania_zbiorczego_SFDC_CONNECTOR
Pobieranie obiektu <objName> jest niekompletne, ponieważ zadanie zapytania interfejsu API Salesforce trwało zbyt długo, nie powiodło się lub zostało anulowane ręcznie.
Aby uzyskać więcej szczegółów, zobacz SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE
SFDC_CONNECTOR_ZAPYTANIE_HURTOWE_NIE_ZNALEZIONO
Pozyskiwanie obiektu <objName> nie powiodło się, ponieważ nie można odnaleźć zadania zapytania interfejsu API zbiorczego usługi Salesforce.
Jest to prawdopodobne, ponieważ zadanie zostało usunięte w interfejsie użytkownika usługi Salesforce lub ponieważ minęło ponad 7 dni od ostatniej aktualizacji potoku, po której usługa Salesforce automatycznie usuwa zadanie
Aby wyzwolić nowe zadanie zbiorcze, wykonaj element FULL REFRESH w określonej tabeli docelowej.
SFDC_CONNECTOR_PRZEKROCZONY_LIMIT_API_DLA_ZAPYTANIA_BULK
Wystąpił błąd w wywołaniu interfejsu API usługi Salesforce: przekroczono limit interfejsu API
Poczekaj na zresetowanie limitów interfejsu API. Następnie spróbuj odświeżyć tabelę docelową.
Jeśli błąd będzie się powtarzać, zgłoś zgłoszenie.
SFDC_KONEKTOR_NIEPOWODZENIE_TWORZENIA_ZADANIA_ZBIORCZEGO_ZAPYTANIA
Przetwarzanie obiektu <objName> nie zostało zakończone, ponieważ utworzenie zadania zapytania Bulk API usługi Salesforce nie udało się. Kod błędu: <saasSourceApiErrorCode>.
<actionText>.
SFDC_CONNECTOR_MALFORMED_RECORDS
Pozyskiwanie obiektu salesforce "<objName>" nie powiodło się, ponieważ usługa Salesforce <saasSourceApiType> zwróciła źle sformułowane rekordy.
Aby uzyskać więcej informacji, sprawdź stostrace.
Sprawdź dane w usłudze Salesforce i uruchom ponownie potok.
ZLEWY_NIEOBSŁUGIWANE_W_SEG
Potoki deklaratywne platformy Lakeflow w potoku nie są obsługiwane w obszarach roboczych z włączoną kontrolą ruchu wychodzącego bezserwerowego. Obsługiwane ujścia potoków deklaratywnych platformy Spark w usłudze Lakeflow to Kafka i delta.
Znaleziono następujące nieobsługiwane zlewy: <sinkNames>, ich odpowiadające formaty to: <sinkFormats>.
ŹRÓDŁOWA_TABELA_NIE_ZMATERIALIZOWANA
Nie można odczytać zależnego zestawu danych "<sourceTableName>", ponieważ nie jest zmaterializowany. Uruchom cały proces, aby utworzyć wszystkie zależne zestawy danych.
SPARK_CONNECT_DEFINITION_PATH_NOT_FOUND
Nie można odnaleźć ścieżki definicji elementu grafu "<graphElementName>". Skontaktuj się z pomocą techniczną usługi Databricks.
SPARK_CONNECT_DEFINITION_PATH_NOT_FOUND_SPARK_SQL
Żadna ścieżka definicji potoku nie jest dostępna w bieżącym kontekście wykonywania spark SQL. Skontaktuj się z pomocą techniczną usługi Databricks.
SPARK_CONNECT_UNSUPPORTED_FLOW_DEFINITION_ERROR
Definicja przepływu nie jest obsługiwana. Skontaktuj się z pomocą techniczną usługi Databricks. Polecenie: <defineFlowCommand>
SPARK_CONNECT_UNSUPPORTED_OUTPUT_TYPE
Typ danych wyjściowych "<outputType>" nie jest obsługiwany w programie Spark Connect. Skontaktuj się z pomocą techniczną usługi Databricks.
Tryb samodzielnego prywatnego MVST nie jest obsługiwany
Tworzenie samodzielnego PRIVATE MV/ST nie jest obsługiwane. Usuń PRIVATE modyfikator
START_PYTHON_REPL_TIMED_OUT
Limit czasu podczas oczekiwania na uruchomienie środowiska REPL języka Python. Trwało to dłużej niż <timeoutSeconds> sekundy.
CEL_STREAMINGU_NIEZDEFINIOWANY
Nie można odnaleźć tabeli <target> docelowej dla <command> polecenia . Tabela docelowa <target> nie jest zdefiniowana w potoku.
Błąd użytkownika w tabeli zsynchronizowanej (SYNCED_TABLE_USER_ERROR)
Błąd użytkownika podczas synchronizacji tabel.
Aby uzyskać więcej informacji, zobacz SYNCED_TABLE_USER_ERROR
TABELA_ZMIENIONA_W_TRAKCIE_OPERACJI
Tabela <tableName> została zmodyfikowana poza tą transakcją, a ta transakcja została wycofana. Spróbuj ponownie wykonać operację.
MATERALIZACJA_TABELI_CYKLICZNE_ZALEŻNOŚCI_KLUCZA_OBCEGO
Aktualizacja dla potoku: <pipelineId> wykryto cykliczny łańcuch ograniczeń klucza obcego: <tables>.
WYMAGANE_ZARÓWNO_KATALOG_JAK_I_SCHEMAT_TABELI
W TableSpec brakuje jednego z katalogu źródłowego i/lub schematu źródłowego.
Szczegóły specyfikacji stołu:
<tableSpec>
SPECYFIKACJA_TABLICY_PUSTY_KATALOG
TabelaSpec ma pusty ciąg w polu wykazu.
Usuń pusty ciąg lub dodaj nazwę wykazu. (Jeśli ta tabela nie należy do wykazu w źródle, nie ustawiaj pola).
Szczegóły specyfikacji stołu:
<tableSpec>
Specyfikacja tabeli: pusty schemat
TabelaSpec ma pusty ciąg w polu schematu.
Usuń pusty ciąg lub dodaj nazwę schematu. (Jeśli ta tabela nie należy do schematu w źródle, nie ustawiaj pola).
Szczegóły specyfikacji stołu:
<tableSpec>
Specyfikacja Tabeli: Pusta Tabela
Nazwa tabeli jest pusta. Podaj nazwę tabeli.
Szczegóły specyfikacji stołu:
<tableSpec>
TOKEN_TABELI_NIE_ISTNIEJE_DLA_SCHEMA_EVOLUCJI_TABELI_LEGACY
Nie można włączyć ewolucji schematu z powodu brakujących metadanych. Wyzwól pełne odświeżanie.
Przyczyna: Token tabeli migawkowej musi być zdefiniowany po włączeniu ewolucji schematu.
TRASHED_PIPELINE_IN_WORKSPACE
Nie można uruchomić potoku, ponieważ potok jest kosz lub usunięty.
NIEPRAWIDŁOWA_WARTOŚĆ_PRZEDZIAŁU_WYZWALANIA
Interwał wyzwalacza musi być dodatnim czasem trwania, a maksymalna akceptowalna wartość to 2 147 483 647 sekund. Odebrano: <actual> sekundy.
TRIGGER_NOT_ENABLED
Wyzwalacze nie są włączone dla tego obszaru roboczego. Włącz wyzwalacze tabeli na stronie Podglądy.
WYZWALACZ_NA_WIDOKU_ODCZYT_Z_PLIKU_NIEOBSŁUGIWANY
Źródło <source> to widok odczytujący z lokalizacji pliku, która nie jest obecnie obsługiwana przez wyzwalacze.
TRIGGER_REQUEST_SERIALIZATION_ERROR
Wystąpił problem podczas przetwarzania żądania. Skontaktuj się z pomocą techniczną usługi Databricks.
TRIGGER_SECURABLE_KIND_NOT_SUPPORTED
Instalacja wyzwalacza nie powiodła się: nieobsługiwany typ tabeli. Zapoznaj się z dokumentacją obsługiwanych typów.
TYP_ŹRÓDŁA_TRIGGERA_NIEOBSŁUGIWANY
<source> źródło typu <type> nie jest obecnie obsługiwane przez wyzwalacz.
TRIGGER_STATE_SERIALIZATION_ERROR
Wystąpił problem podczas przetwarzania żądania. Skontaktuj się z pomocą techniczną usługi Databricks.
TRIGGER_TABLE_LIMIT_EXCEEDED
Instalacja wyzwalacza nie powiodła się: wyzwalacz zawiera więcej tabel niż dozwolony limit. Zapoznaj się z dokumentacją, aby uzyskać szczegółowe informacje na temat limitów tabel i sposobu rozwiązywania tego problemu.
TRIGGER_TABLE_TYPE_NOT_SUPPORTED
Instalacja wyzwalacza nie powiodła się: nieobsługiwany typ tabeli. Zapoznaj się z dokumentacją obsługiwanych typów.
UC_CLEARING_SCHEMAT_CELU_NIEDOZWOLONY
Wyczyszczenie pola schematu docelowego nie jest dozwolone dla potoków UC. Powód: <reason>.
ROLA_BEZ_AUTOMATYCZNEGO_NADANIA_UPRAWNIEŃ
Rola zarządzanie dostępem i tożsamościami dla poświadczeń magazynu została uznana za nieprzychytną.
Sprawdź zaufanie roli i zasady zarządzania dostępem i tożsamościami, aby upewnić się, że rola zarządzania dostępem i tożsamościami może przyjąć się zgodnie z dokumentacją poświadczeń magazynu wykazu aparatu Unity.
UC_NIE_AKTYWOWANE
Używanie wykazu UC w potokach deklaratywnych spark lakeflow nie jest włączone.
UC_PIPELINE_NIE_MOŻE_OPUBLIKOWAĆ_W_HMS
Potoki z obsługą UC nie mogą publikować w Hive Metastore. Wybierz inny katalog docelowy.
SCHEMAT_DOCELOWY_WYMAGANY
Pole schematu docelowego jest wymagane dla potoków UC. Powód: <reason>.
Nie można wywnioskować schematu tabeli (UNABLE_TO_INFER_TABLE_SCHEMA)
Nie można wywnioskować schematu tabeli <tableName> z przepływów nadrzędnych.
Zmodyfikuj przepływy zapisywane w tej tabeli, aby ich schematy były zgodne.
Schemat wywnioskowany do tej pory
<inferredDataSchema>
Niezgodny schemat:
<incompatibleDataSchema>
NIEOCZEKIWANY_BŁĄD_UPRAWNIEŃ_SCHEMATU_RUROCIĄGU
Nieoczekiwany błąd podczas sprawdzania uprawnień schematu dla potoku <pipelineId>. Skontaktuj się z pomocą techniczną usługi Databricks.
NIE MOŻNA USTAWIĆ ZGODNOŚCI UNIFORM Z ROW_FILTERS LUB COLUMN_MASKS
Nie można ustawić jednolitej zgodności na zmaterializowanych widokach lub tabelach przesyłania strumieniowego, które mają zastosowany filtr wierszy lub maski kolumn.
BŁĄD_INICJALIZACJI_KATALOGU_JEDNOŚCI
Wystąpił błąd z Unity Catalogiem przy konfigurowaniu potoku w klastrze <clusterId>.
Upewnij się, że konfiguracja wykazu aparatu Unity jest poprawna, a wymagane zasoby (na przykład wykaz, schemat) istnieją i są dostępne.
Sprawdź również, czy klaster ma odpowiednie uprawnienia do dostępu do Unity Catalogu.
Szczegóły: <ucErrorMessage>
NIEOZNACZONA_ŚCIEŻKA_DOCELOWA
Nie można ustalić ścieżki przechowywania dla ujścia <identifier>. Skontaktuj się z pomocą techniczną usługi Databricks.
NIEZIDENTYFIKOWANE_TABELI_DO_KONSERWACJI
W poniższej definicji potoku znaleziono następujące tabele, ale nie udało się ich rozwiązać podczas konserwacji. Proszę wykonać aktualizację potoku z najnowszą definicją potoku, aby zmaterializować wszystkie tabele w definicji potoku i odblokować konserwację, lub skontaktować się z pomocą techniczną Databricks, jeśli problem będzie się utrzymywał.
<unresolvedTableIdentifiersSet>
Nierozpoznana_Ścieżka_Tabeli
Nie można odnaleźć ścieżki przechowywania dla tabeli <identifier>. Skontaktuj się z pomocą techniczną usługi Databricks.
NIEOBSŁUGIWANE_POLECENIE_ALTER
ALTER <commandTableType>
...
<command> nie jest obsługiwana.
NIEOBSŁUGIWANY_KANAŁ_DLA_DPM
Nieobsługiwany kanał dla trybu publikowania bezpośredniego. Oczekiwano kanału "CURRENT" lub "PREVIEW", ale otrzymano "PREVIOUS".
NIEOBSŁUGIWANE_POLECENIE_W_NIE_DPM_KANALE
<command> obsługiwane tylko w trybie publikowania bezpośredniego włączonego potoku deklaratywnego spark
NIEOBSŁUGIWANA_KOMENDA_W_DEFINICJI_ZAPYTANIA
Element "<command>" nie jest obsługiwany w definicji zapytania. Przenieś polecenie poza definicję zapytania. Jeśli jest to potok deklaratywny spark w języku Python, przenieś element "<command>" poza @dlt.table()/@dlt.view() dekoratorem. Jeśli jest to potok deklaratywny spark w języku Scala, przenieś metodę "<command>" poza metodą "query".
NIEOBSŁUGIWANA_WERSJA_DBR_NA_ZAMÓWIENIE
Niestandardowa wersja DBR "<v>" nie jest obsługiwana w obszarach roboczych SHIELD i HIPAA. Oczekiwano jednego z [<supportedDbrVersions>]
UNSUPPORTED_CUSTOM_SCHEMA_PREVIEW
Niestandardowa prywatna wersja zapoznawcza schematu jest wyłączona.
Utwórz nowy potok z domyślnym trybem publikowania przy użyciu pola "schema"
w specyfikacji potoku i przenieś zestawy danych z tego potoku do nowego potoku.
UNSUPPORTED_CUSTOM_SCHEMA_PREVIEW_ENABLEMENT
Prywatna wersja zapoznawcza schematu niestandardowego jest wyłączona i nie można dodać podglądu do potoku.
Usuń <sparkConfKeys> z konfiguracji potoku.
NIEOBSŁUGIWANA_WERSJA_DBR
Wersja DBR "<v>" nie jest obsługiwana. Oczekiwano jednego z [<supportedDbrVersions>]
NIEOBSŁUGIWANA_FUNCKJA_DLA_PRZESTRZENI_ROBOCZEJ
<featureName> nie jest obsługiwane w twoim obszarze roboczym. Skontaktuj się z pomocą techniczną usługi Databricks, aby włączyć tę funkcję dla obszaru roboczego.
NIEOBSŁUGIWANY_JĘZYK
Nie udało się załadować <language> notebooka '<notebookPath>'. Obecnie obsługiwane są tylko notesy <supportedLanguages>.
NIEOBSŁUGIWANY_TYP_PLIKU_BIBLIOTEKI
Plik w folderze <path> nie ma sufiksu .py ani .sql. Tylko pliki Python i SQL są obsługiwane w potokach.
NIEOBSŁUGIWANY_JĘZYK_NOTESU_BIBLIOTEKI
Nieobsługiwany język <language> notatnika <path>. Tylko języki Python i SQL są obsługiwane w potokach
NIEOBSŁUGIWANY_TYP_OBIEKTU_BIBLIOTEKI
Element znajdujący się na ścieżce <path> jest typu <objectType>, który nie jest obsługiwany. Obecnie jako biblioteki mogą być używane tylko notesy i pliki. Aby rozwiązać ten problem, usuń nieobsługiwany obiekt lub zaktualizuj biblioteki skonfigurowane dla tego pipeline’u, aby uwzględniały tylko obsługiwane typy obiektów.
NIEOBSŁUGIWANY_ZARZĄDZANY_TYP_ŹRÓDŁA_INGESTII
Nieprawidłowa definicja zarządzanego potoku przetwarzania danych, nieobsługiwany typ źródła: <sourceType>.
UNSUPPORTED_MULTIPLE_UPDATE_TYPE
Weryfikowanie tylko, eksplorowanie i ponowne przewijanie aktualizacji wzajemnie się wyklucza. Należy ustawić co najwyżej jeden.
UNSUPPORTED_REWIND
Operacje przewijania nie są jeszcze włączone dla tego obszaru roboczego.
NIEOBSŁUGIWANY_TYP_PRZETWARZANIA_SAAS
Podany typ importu <ingestionType> nie jest obsługiwany.
Jeśli ten problem będzie się powtarzać, skontaktuj się z pomocą techniczną usługi Databricks.
NIEOBSŁUGIWANA_KOMENDA_SPARK_SQL
Element "<command>" nie jest obsługiwany w interfejsie API spark.sql("...") w języku Python w usłudze Lakeflow Spark Deklaratywne potoki. Obsługiwane polecenie: <supportedCommands>.
NIEOBSŁUGIWANE_ZAPYTANIE_SQL
Nieobsługiwana instrukcja SQL dla <datasetType> elementu "<datasetName>": <operation> nie jest obsługiwana.
ODNOWIONY_ZESTAW_DEFINICJI_DLA_NIE_DBSQL_POTOK_DANYCH
Tylko pipeline'y DBSQL mogą mieć „updated_definition”.
UŻYJ_KATALOGU_W_HMS
UŻYWANIE CATALOG obsługiwane tylko w potoku deklaratywnym spark z obsługą interfejsu użytkownika
TEKST_NIEZAPISANY_W_UC
Nie można odświeżyć tabeli <tableName>, ponieważ nie ma zapisanej kwerendy w Unity Catalog. Skontaktuj się z pomocą techniczną usługi Databricks.
WORKDAY_HCM_CONNECTOR_FETCH_BATCH_FAILED
Wystąpił błąd w rozwiązaniu Workday HCM. Typ źródłowego interfejsu API: <saasSourceApiType>.
Nie można pobrać partii z przesunięciem "<offset>".
Spróbuj odświeżyć tabelę docelową. Jeśli problem będzie się powtarzać, utwórz zgłoszenie.
WORKDAY_REPORTS_CONNECTOR_INSUFFICIENT_OAUTH_SCOPE_ERROR
Wystąpił błąd w raportach Workday. Typ źródłowego interfejsu API: <saasSourceApiType>.
Nie można pobrać danych dla raportu "<reportUrl>". Klient OAuth nie ma wystarczającego dostępu do zakresu, aby pobrać raport.
Aby rozwiązać ten problem, upewnij się, że klient OAuth ma wymagane zakresy skonfigurowane w usłudze Workday.
Jeśli błąd będzie się powtarzać, zgłoś zgłoszenie.
WORKDAY_REPORTS_CONNECTOR_MISSING_REQUIRED_PARAMS_ERROR
Wystąpił błąd w raportach Workday. Typ źródłowego interfejsu API: <saasSourceApiType>.
Raport produktu Workday "<reportUrl>" oczekuje parametru "<missingParam>".
Upewnij się, że wszystkie parametry raportu są uwzględnione w adresie URL; Możesz sprawdzić konfigurację raportu produktu Workday, aby określić, które parametry są obowiązkowe.
Jeśli problem będzie się powtarzać, utwórz zgłoszenie.
BŁĄD_WORKDAY_REPORTS_CONNECTOR_RAPORT_NIE_ZNALEZIONY
Wystąpił błąd w raportach Workday. Typ źródłowego interfejsu API: <saasSourceApiType>.
Adres URL raportu "<reportUrl>" jest niepoprawny. Sprawdź, czy w podstawowym adresie URL lub nazwie raportu nie ma żadnych literówek, aby rozwiązać ten problem.
Jeśli problem będzie się powtarzać, utwórz zgłoszenie.
WORKDAY_REPORTS_CONNECTOR_REPORT_SIZE_EXCEEDED_ERROR
Wystąpił błąd w raportach Workday. Typ źródłowego interfejsu API: <saasSourceApiType>.
Rozmiar raportu o adresie URL "<reportUrl>" jest większy niż 2 GB. Upewnij się, że rozmiar raportu nie przekracza tego limitu.
Jeśli problem będzie się powtarzać, utwórz zgłoszenie.
BŁĄD_NIEAUTORYZOWANEGO_DOSTĘPU_DO_WORKDAY_REPORTS_CONNECTOR
Wystąpił błąd w raportach Workday. Typ źródłowego interfejsu API: <saasSourceApiType>.
Aby uzyskać więcej informacji, zobacz WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
ADRES_URL_RAPORTU_DNI_ROBOCZYCH_PUSTY
Adres URL raportu Workday jest pusty. Należy podać co najmniej jeden raport.
PRZEKROCZONO_KWOTĘ_PRZESTRZENI_ROBOCZEJ
Nie można uruchomić aktualizacji "<updateId>", ponieważ w tym obszarze roboczym działają już <maxActiveUpdates> aktywne potoki.
Instalacja
ERROR_BASE_ENVIRONMENT_FILE_NOT_FOUND
SQLSTATE: brak przypisania
Brak pliku YAML środowiska podstawowego. Upewnij się, że plik istnieje w określonej ścieżce.
Opis: występuje, gdy nie można odnaleźć wymaganego pliku YAML środowiska podstawowego w oczekiwanej lokalizacji.
Sugerowana akcja: upewnij się, że plik YAML środowiska podstawowego istnieje w określonej ścieżce i ponów próbę instalacji.
ERROR_BASE_ENVIRONMENT_FILE_READ
SQLSTATE: brak przypisania
Nie można odczytać pliku środowiska podstawowego z powodu nieprawidłowej składni lub formatu pliku YAML. Przejrzyj zawartość pliku.
Opis: występuje, gdy plik YAML środowiska podstawowego zawiera błędy składni lub formatu.
Sugerowana akcja: zweryfikuj i napraw składnię YAML w pliku środowiska, a następnie ponów próbę instalacji.
ERROR_CONNECTION_REFUSED
SQLSTATE: brak przypisania
Nie można nawiązać połączenia z repozytorium pakietów. Sprawdź łączność sieciową, ustawienia zapory lub dostępność repozytorium.
Opis: występuje, gdy narzędzie nie może nawiązać połączenia z repozytorium pakietów zdalnych z powodu problemów z siecią, ograniczeń zapory lub przestoju repozytorium.
Sugerowana akcja: Sprawdź łączność sieciową, sprawdź ustawienia zapory lub serwera proxy, upewnij się, że adres URL repozytorium jest dostępny i spróbuj ponownie później, jeśli repozytorium może być tymczasowo niedostępne.
ERROR_CORE_PACKAGE_VERSION_CHANGE
SQLSTATE: brak przypisania
Zainstalowany pakiet jest niezgodny z pakietami podstawowymi usługi Databricks. Dostosuj wersje pakietów do wstępnie zainstalowanych wersji biblioteki i ponów próbę instalacji.
Opis: występuje, gdy zmienia się wersja podstawowego zależności usługi Databricks (na przykład pyspark).
Sugerowana akcja: wyrównaj zainstalowane wersje pakietu do wstępnie zainstalowanych bibliotek i ponów próbę instalacji.
ERROR_CRAN_PACKAGE_NOT_AVAILABLE
SQLSTATE: brak przypisania
Pakiet CRAN nie jest dostępny dla wstępnie zainstalowanej wersji języka R dla tego obliczenia.
Opis: występuje, gdy pakiet języka R nie jest publikowany dla zainstalowanej wersji języka R na obliczeniach.
Sugerowana akcja: przełącz się do obliczeń z zgodną wersją języka R lub wybierz inną wersję pakietu.
ERROR_DBFS_DISABLED
SQLSTATE: brak przypisania
Publiczny dostęp główny systemu DBFS jest wyłączony. Użyj alternatywnego magazynu.
Opis: występuje podczas próby zainstalowania bibliotek z systemu plików DBFS, ale publiczny katalog główny SYSTEMU plików DBFS jest wyłączony w obszarze roboczym.
Sugerowana akcja: użyj alternatywnych lokalizacji magazynu, takich jak woluminy UC, pliki obszaru roboczego lub magazyn zdalny.
ERROR_DIRECTORY_NOT_INSTALLABLE
SQLSTATE: brak przypisania
Katalog jest niemożliwy do zainstalowania ze względu na nieprawidłową strukturę pakietu języka Python. Sprawdź, czy katalog jest poprawnie skonfigurowany.
Opis: występuje, gdy instalacja jest uruchamiana względem katalogu bez prawidłowej struktury pakietu języka Python.
Sugerowana akcja: upewnij się, że katalog zawiera setup.py lub pyproject.toml i ponów próbę albo spakuj go jako koło.
ERROR_DUPLICATE_INSTALLATION
SQLSTATE: brak przypisania
Wykryto zduplikowaną instalację pakietu. Spróbuj usunąć zduplikowany wpis pakietu dla pakietu i ponownie uruchomić klaster.
Opis: występuje, gdy ten sam pakiet jest już zainstalowany w klastrze i podjęto próbę zduplikowanej instalacji.
Sugerowana akcja: usuń zduplikowane wpisy pakietu i uruchom ponownie klaster.
ERROR_FEATURE_DISABLED
SQLSTATE: brak przypisania
Woluminy wykazu aparatu Unity są wyłączone w obszarze roboczym. Skontaktuj się z administratorem obszaru roboczego, aby włączyć tę funkcję.
Opis: występuje, gdy woluminy wykazu aparatu Unity są wyłączone w obszarze roboczym, uniemożliwiając instalację z woluminów UC.
Sugerowana akcja: skontaktuj się z administratorem obszaru roboczego, aby włączyć woluminy wykazu aparatu Unity lub użyć magazynu alternatywnego.
ERROR_HASH_MISMATCH
SQLSTATE: brak przypisania
Wykryto niezgodność skrótów pakietów. Skrót pobranego pakietu nie jest zgodny z oczekiwanym skrótem.
Opis: występuje, gdy skrót pobranego pakietu nie jest zgodny z oczekiwanym skrótem.
Sugerowana akcja: Ponów próbę instalacji, uruchom ponownie klaster i/lub przenieś duże instalacje pakietów do plików obszaru roboczego, woluminów UC lub prywatnego repozytorium PyPI.
ERROR_INVALID_FILE
SQLSTATE: brak przypisania
Nie można zainstalować określonego pliku z powodu nieprawidłowego typu pliku. Sprawdź, czy używasz prawidłowego i obsługiwanego typu pliku.
Opis: występuje, gdy nie można zainstalować określonego pliku biblioteki z powodu nieprawidłowego typu lub formatu pliku.
Sugerowana akcja: użyj obsługiwanego typu pliku biblioteki (na przykład wheel, jar) i sprawdź poprawność ścieżki.
ERROR_INVALID_REQUIREMENT
SQLSTATE: brak przypisania
Niepoprawna składnia lub źle sformułowane wpisy w pliku wymagań lub zależności pakietu. Sprawdź i popraw zawartość plików wymagań i zależności pakietu.
Opis: Nieprawidłowy lub źle sformułowany format wymagań wykryty w pliku wymagań lub specyfikacji zależności pakietu.
Sugerowana akcja: użyj poprawnego formatu (na przykład "nazwa biblioteki==wersja") w plikach wymagań, sprawdź, czy formaty zależności pakietu są prawidłowe, i sprawdź, czy są specyfikatory literówek lub nieobsługiwanej wersji.
ERROR_INVALID_SCRIPT_ENTRY_POINT
SQLSTATE: brak przypisania
Nieprawidłowy punkt wejścia skryptu. Sprawdź punkty wejścia pakietu lub plik setup.py.
Opis: występuje, gdy określony punkt wejścia skryptu konsoli nie istnieje w metadanych pakietu.
Sugerowana akcja: sprawdź nazwę punktu wejścia w pliku setup.py lub pyproject.toml lub skontaktuj się z konserwatorem pakietów.
ERROR_INVALID_STORAGE_CONFIGURATION
SQLSTATE: brak przypisania
Wykryto nieprawidłową wartość konfiguracji magazynu dla konta magazynu w chmurze. Sprawdź konfigurację magazynu, ustawienia konta i poświadczenia.
Opis: występuje, gdy konfiguracja konta magazynu w chmurze jest nieprawidłowo sformułowana lub niepoprawna.
Sugerowana akcja: popraw konfigurację magazynu dla konta i ponów próbę instalacji.
ERROR_INVALID_USER_INPUT
SQLSTATE: brak przypisania
Podano nieprawidłową składnię pakietu lub argumenty. Sprawdź, czy dane wejściowe i opcje instalacji biblioteki są prawidłowe.
Opis: występuje, gdy jest wywoływany z nieprawidłowymi opcjami lub argumentami.
Sugerowana akcja: Sprawdź opcje i składnię poleceń, popraw dane wejściowe i ponów próbę instalacji.
ERROR_INVALID_WHEEL
SQLSTATE: brak przypisania
Wykryto uszkodzony, źle sformułowany lub nieprawidłowy plik koła. Sprawdź plik wheel lub ponów próbę instalacji.
Opis: występuje w przypadku napotkania uszkodzonego, niekompletnego lub źle sformułowanego pliku koła podczas instalacji.
Sugerowana akcja: Wyczyść pamięć podręczną, ponownie pobierz lub ponownie skompiluj koło, żywicę i zweryfikuj jego integralność przed ponowną próbą.
ERROR_JAR_EVICTED
SQLSTATE: brak przypisania
Pakiet JAR został wykluczony przez program rozpoznawania z powodu konfliktów wersji. Rozwiąż konflikty wersji zależności.
Opis: występuje, gdy rozwiązanie zależności maven eksmituje plik jar z powodu konfliktów wersji z innymi zależnościami.
Sugerowana akcja: rozwiąż konflikty w konfiguracji zależności lub użyj jawnych przesłonięć wersji.
ERROR_MAVEN_LIBRARY_RESOLUTION
SQLSTATE: brak przypisania
Nie można rozpoznać współrzędnych biblioteki Maven. Sprawdź szczegóły biblioteki, dostęp do repozytorium lub dostępność repozytorium Maven.
Opis: występuje, gdy narzędzie Maven nie może znaleźć ani rozwiązać określonej biblioteki z powodu nieprawidłowych współrzędnych, problemów z siecią lub przestoju repozytorium.
Sugerowana akcja: sprawdź format groupId:artifactId:version, sprawdź adresy URL i poświadczenia repozytorium, spróbuj ponownie repozytoria lub spróbuj ponownie później, jeśli repozytorium może być tymczasowo niedostępne.
ERROR_NO_MATCHING_DISTRIBUTION
SQLSTATE: brak przypisania
Nie można pobrać lub uzyskać dostępu do określonych zasobów magazynu w chmurze, zazwyczaj ze względu na błędy konfiguracji, brakujące zależności lub problemy z łącznością. Przejrzyj konfigurację magazynu w chmurze.
Opis: występuje, gdy klaster nie może pobrać ani zainstalować plików biblioteki z magazynu w chmurze, zazwyczaj z powodu błędów konfiguracji, brak zależności lub problemów z siecią.
Sugerowana akcja: Upewnij się, że identyfikatory URI magazynu w chmurze są poprawne, poświadczenia są prawidłowe, a wszystkie wymagane serwery proxy sieci lub biblioteki są prawidłowo skonfigurowane, a następnie ponów próbę instalacji.
ERROR_NO_SUCH_FILE_OR_DIRECTORY
SQLSTATE: brak przypisania
Plik biblioteki nie istnieje lub użytkownik nie ma uprawnień do odczytu pliku biblioteki. Sprawdź, czy plik biblioteki istnieje, a użytkownik ma odpowiednie uprawnienia dostępu do pliku.
Opis: występuje, gdy brakuje określonego pliku lub jest on niedostępny w danej ścieżce podczas instalacji biblioteki.
Sugerowana akcja: sprawdź, czy plik istnieje w określonej ścieżce, popraw ścieżkę lub przekaż brakujący plik i upewnij się, że masz odpowiednie uprawnienia.
ERROR_OPERATION_NOT_SUPPORTED
SQLSTATE: brak przypisania
Instalacja biblioteki nie jest obsługiwana dla tego typu pliku z żądanego systemu plików. Sprawdź typ biblioteki i zapoznaj się z przewodnikiem użytkownika dotyczącym obsługiwanej biblioteki w bieżącym obliczeniach.
Opis: występuje, gdy docelowy system plików, typ pliku lub typ obliczeniowy nie obsługuje żądanej operacji podczas instalacji.
Sugerowana akcja: użyj obsługiwanego systemu plików, typu pliku lub typu obliczeniowego albo dostosuj docelowy obiekt docelowy instalacji do obsługiwanej lokalizacji.
ERROR_PERMISSION_DENIED
SQLSTATE: brak przypisania
Użytkownik nie ma wystarczających uprawnień do zainstalowania pakietu. Sprawdź prawa dostępu do pliku i katalogu dla użytkownika.
Opis: występuje, gdy podczas instalacji użytkownik nie ma uprawnień do odczytu lub zapisu pliku lub katalogu podczas instalacji.
Sugerowana akcja: Sprawdź i przyznaj odpowiednie uprawnienia w katalogu docelowym lub skontaktuj się z administratorem systemu.
ERROR_PIP_CONFIG
SQLSTATE: brak przypisania
Użytkownik próbował zainstalować bibliotekę języka Python, ale plik konfiguracji na poziomie obszaru roboczego lub klastra ma błędy składni lub jest źle sformułowany. Sprawdź i napraw plik konfiguracji.
Opis: występuje, gdy plik konfiguracji narzędzia zawiera błędy składniowe lub jest źle sformułowany.
Sugerowana akcja: Napraw błędy składni w pliku konfiguracji, usuń plik konfiguracji, aby użyć ustawień domyślnych, ponownie uruchom klaster i ponów próbę instalacji.
ERROR_PYTHON_REPL_RESTORE_FAILURE
SQLSTATE: brak przypisania
Przywracanie REPL języka Python nie powiodło się po zainstalowaniu pakietu.
Opis: zwykle występuje, gdy podstawowe pakiety języka Python są aktualizowane w sposób, który przerywa środowisko uruchomieniowe podczas przywracania.
Sugerowana akcja: Przejrzyj ostatnio zainstalowane pakiety i zainstaluj pakiety zgodne z domyślnymi ustawieniami środowiska usługi Databricks Environment, takimi jak numpy, pandas, pyspark i inne biblioteki standardowe. Upewnij się, że wersje są zgodne z wersją środowiska Databricks Runtime. Jeśli nadal kończy się to niepowodzeniem, skontaktuj się z pomocą techniczną usługi Databricks.
ERROR_REQUIREMENTS_FILE_INSTALLATION
SQLSTATE: brak przypisania
requirements.txt pliki zawierające odwołanie do woluminu lub pliku obszaru roboczego wykazu aparatu Unity nie są obsługiwane w klastrach z włączoną obsługą interfejsu użytkownika. Użyj klastra z włączoną obsługą interfejsu użytkownika, aby zainstalować requirements.txt odwołującą się do woluminu lub pliku obszaru roboczego interfejsu użytkownika.
Opis: występuje, gdy requirements.txt zawiera woluminy interfejsu użytkownika lub odwołania do plików obszaru roboczego w klastrze, który nie jest włączony przez użytkownika.
Sugerowana akcja: użyj klastra z włączoną obsługą interfejsu użytkownika dla requirements.txt, który odwołuje się do plików obszaru roboczego lub UC, lub usuń te odwołania.
ERROR_REQUIRE_HASHES
SQLSTATE: brak przypisania
Brakujące skróty, gdy narzędzie jest uruchamiane w trybie --require-hashes i wymaganie nie ma skrótu. Rozwiąż wymagania dotyczące skrótu lub wyłącz sprawdzanie skrótu.
Opis: występuje, gdy narzędzie jest uruchamiane w trybie --require-hashes i wymaganie nie ma skrótu.
Sugerowana akcja: dodaj skróty dla wszystkich pakietów w requirements.txt lub usuń flagę --require-hashes.
ERROR_RESTART_PYTHON
SQLSTATE: brak przypisania
Nie można ponownie uruchomić procesu języka Python. Może to być spowodowane aktualizowaniem wersji pakietu, który powoduje konflikt z wstępnie zainstalowanymi bibliotekami środowiska uruchomieniowego. Sprawdź i wyrównaj zależności pakietu i ich wersje.
Opis: występuje, gdy środowisko języka Python nie może zostać uruchomione ponownie po zainstalowaniu biblioteki, często z powodu konfliktów między zainstalowanymi pakietami a wstępnie zainstalowanymi bibliotekami środowiska Uruchomieniowego usługi Databricks.
Sugerowana akcja: Wyrównaj zainstalowane wersje pakietów do wstępnie zainstalowanych bibliotek środowiska Databricks Runtime, aby uniknąć konfliktów i błędów ponownego uruchamiania języka Python.
ERROR_RESTART_SCALA
SQLSTATE: brak przypisania
Nie można ponownie uruchomić procesu Scala. Może to być spowodowane niezgodnością wersji Scala w scala JARs (na przykład uruchomienie pliku jar 2.12 w jądrze 2.13). Sprawdź i wyrównaj wersje języka Scala.
Opis: występuje, gdy nie można ponownie uruchomić środowiska Scala, często z powodu konfliktów niezgodności wersji Scala w scala JARs.
Sugerowana akcja: wyrównywanie wersji scala JAR z wersją scala jądra, aby uniknąć konfliktów i błędów ponownego uruchamiania języka Scala.
ERROR_S3_FORBIDDEN
SQLSTATE: brak przypisania
Odmowa dostępu do zasobu S3. Sprawdź uprawnienia i zasady zasobnika IAM.
Opis: Poświadczenia platformy AWS klastra nie mają wystarczających uprawnień dostępu do określonego zasobu S3.
Sugerowana akcja: sprawdź i zaktualizuj zasady zasobnika S3 lub role zarządzania dostępem i tożsamościami, aby udzielić niezbędnego dostępu do odczytu do klastra.
ERROR_SCALA_INSTALLATION
SQLSTATE: brak przypisania
Nie można zainstalować zależności języka Java z powodu problemów z uprawnieniami lub brakujących plików.
Opis: występuje, gdy nie można zainstalować zależności języka Java, często ze względu na nieprawidłowe ścieżki, adresy URL lub niewystarczające uprawnienia do plików.
Sugerowana akcja: Sprawdź ścieżki i adresy URL plików, upewnij się, że masz odpowiednie uprawnienia i ponów próbę instalacji.
ERROR_SETUP_PY_FAILURE
SQLSTATE: brak przypisania
Setup.py pakietu języka Python nie zostały pomyślnie uruchomione z powodu problemów ze zgodnością, braku zależności lub błędów konfiguracji. Sprawdź plik instalacyjny zależności.
Opis: występuje, gdy skrypt setup.py pakietu kończy się niepowodzeniem z powodu problemów ze zgodnością, braku zależności lub błędów konfiguracji.
Sugerowana akcja: Aktualizowanie wersji pakietów, instalowanie brakujących zależności, zastępowanie przestarzałych pakietów i weryfikowanie skryptu setup.py.
ERROR_SSL_VIOLATION
SQLSTATE: brak przypisania
Narzędzie napotkało problemy z uzgadnianie protokołu SSL lub weryfikacją certyfikatu. Przejrzyj konfiguracje i certyfikaty PROTOKOŁU SSL w środowisku obliczeniowym lub obszarze roboczym.
Opis: występuje, gdy podczas nawiązywania połączenia z repozytoriami pakietów występują problemy z uzgadnianiem protokołu SSL lub weryfikacją certyfikatu.
Sugerowana akcja: Sprawdź, czy certyfikaty SSL są prawidłowe, skonfiguruj zaufane hosty w narzędziu lub sprawdź ustawienie protokołu SSL sieci.
ERROR_UC_ASSET_NOT_FOUND
SQLSTATE: brak przypisania
Nie można odnaleźć obiektu wykazu aparatu Unity. Sprawdź, czy istnieje wykaz, schemat i wolumin.
Opis: występuje, gdy określony wolumin, wykaz lub schemat wykazu aparatu Unity nie istnieje lub jest niedostępny
Sugerowana akcja: Sprawdź, czy ścieżka obiektu wykazu aparatu Unity jest poprawna, a obiekt istnieje na Twoim koncie.
ERROR_UNSUPPORTED_LIBRARY_TYPE
SQLSTATE: brak przypisania
Typ biblioteki jest nieobsługiwany w przypadku tego obliczenia. Sprawdź obsługiwane biblioteki dla typu obliczeniowego.
Opis: występuje podczas próby zainstalowania typu biblioteki, który nie jest zgodny z wybranymi obliczeniami.
Sugerowana akcja: użyj obsługiwanego typu biblioteki dla tego obliczenia lub przełącz się do zasobów obliczeniowych obsługujących ten typ biblioteki.
ERROR_UNSUPPORTED_PYTHON_VERSION
SQLSTATE: brak przypisania
Biblioteka języka Python jest niezgodna z wersją języka Python dla tego środowiska obliczeniowego. Użyj obliczeń z zgodną wersją języka Python.
Opis: występuje, gdy ograniczenie pakietu python_requires nie jest zgodne z wersją języka Python uruchomioną na obliczeniach.
Sugerowana akcja: zainstaluj wersję pakietu, która obsługuje bieżącą wersję języka Python lub zmień wersję obliczeniową.
ERROR_UNSUPPORTED_SSL_ENABLED
SQLSTATE: brak przypisania
Instalacja kończy się niepowodzeniem, gdy konfiguracja spark.ssl.enabled jest włączona, co nie jest obsługiwane w przypadku instalacji biblioteki. Wyłącz konfigurację protokołu SSL i uruchom ponownie klaster.
Opis: występuje, gdy konfiguracja spark.ssl.enabled jest włączona, co nie jest obsługiwane w przypadku instalacji biblioteki.
Sugerowana akcja: Wyłącz konfigurację protokołu SSL (na przykład ustaw wartość spark.ssl.enabled=false lub ustaw spark.databricks.libraries.ignoreSSL=true) i uruchom ponownie klaster.
ERROR_USER_NOT_FOUND_IN_WORKSPACE
SQLSTATE: brak przypisania
Instalacja biblioteki nie powiodła się, ponieważ użytkownik nie został znaleziony w obszarze roboczym. Zwykle dzieje się tak, gdy użytkownik został usunięty z obszaru roboczego, ale jego token jest nadal używany.
Opis: występuje, gdy token dostępu użytkownika jest używany, ale użytkownik nie istnieje już w określonym obszarze roboczym.
Sugerowana akcja: upewnij się, że użytkownik ma dostęp do obszaru roboczego lub zaktualizuj konfigurację klastra, aby używać prawidłowych poświadczeń użytkownika.
ERROR_VOLUME_PERMISSION_DENIED
SQLSTATE: brak przypisania
Niewystarczające uprawnienia w woluminie wykazu aparatu Unity. Sprawdź uprawnienia dostępu do woluminu UC lub zażądaj dostępu do właściciela woluminu UC.
Opis: występuje, gdy użytkownik nie ma uprawnień do określonego woluminu UC.
Sugerowana akcja: zażądaj uprawnień do odczytu w woluminie wykazu aparatu Unity od właściciela woluminu lub administratora.
ERROR_WHEEL_BUILD
SQLSTATE: brak przypisania
Narzędzie nie może pomyślnie skompilować koła z powodu brakujących zależności kompilacji lub błędów. Sprawdź zawartość pakietu wheel i zależności.
Opis: występuje, gdy narzędzie nie może skompilować koła dla pakietu z powodu brakujących zależności kompilacji lub błędów.
Sugerowana akcja: Upewnij się, że są zainstalowane narzędzia kompilacji i nagłówki, lub zainstaluj wstępnie utworzone koło z użyciem --no-binary.
ERROR_WHEEL_INSTALLATION
SQLSTATE: brak przypisania
Koło jest niezgodne z bieżącymi obliczeniami z powodu niezgodności tagów platformy lub nieprawidłowego pliku koła. Sprawdź zawartość pakietu wheel, zależności i ich zgodność z obliczeniami.
Opis: występuje, gdy plik koła jest nieprawidłowy lub tagi platformy nie są zgodne.
Sugerowana akcja: użyj koła utworzonego dla bieżącej platformy lub ponownie skompiluj koło z odpowiednimi tagami.
FAULT_CLOUD_STORAGE_INSTALLATION
SQLSTATE: brak przypisania
Nie można pobrać lub uzyskać dostępu do określonych zasobów magazynu w chmurze, zazwyczaj ze względu na błędy konfiguracji lub problemy z łącznością. Zapoznaj się z konfiguracją magazynu w chmurze.
Opis: występuje, gdy środowisko obliczeniowe nie może pobrać ani zainstalować plików biblioteki z magazynu w chmurze, zazwyczaj ze względu na błędy konfiguracji lub problemy z siecią.
Sugerowana akcja: Upewnij się, że identyfikatory URI magazynu w chmurze są poprawne, poświadczenia są prawidłowe, a wszystkie wymagane serwery proxy sieci lub biblioteki są prawidłowo skonfigurowane, a następnie ponów próbę instalacji.
FAULT_DBR_VERSION_EOS
SQLSTATE: brak przypisania
Wersja środowiska Databricks Runtime w środowisku obliczeniowym osiągnęła koniec wsparcia i nie jest już obsługiwana. Użyj obsługiwanej wersji środowiska uruchomieniowego usługi Databricks.
Opis: występuje, gdy biblioteka jest zainstalowana w wersji środowiska Databricks Runtime, która nie otrzymuje już aktualizacji ani obsługi.
Sugerowana akcja: uaktualnij klaster do obsługiwanej wersji środowiska Databricks Runtime i ponów próbę instalacji.
FAULT_POLLER_ALLOWLIST_VALIDATION
SQLSTATE: brak przypisania
Instalacja biblioteki jest zablokowana z powodu braku z listy dozwolonych. Może się tak zdarzyć, jeśli biblioteka zostanie usunięta z listy dozwolonych po dodaniu jej do klastra. Sprawdź listę dozwolonych bibliotek, poproś administratora o dodanie bibliotek do listy dozwolonych lub usunięcie nieautoryzowanych pakietów z klastra.
Opis: występuje, gdy co najmniej jedna żądana biblioteka nie zostanie zatwierdzona na liście dozwolonych magazynu metadanych i nie zostanie zablokowana instalacja. Może się to również zdarzyć, jeśli biblioteka była wcześniej dozwolona, ale później usunięta z listy dozwolonych.
Sugerowana akcja: Sprawdź listę dozwolonych magazynu metadanych, poproś administratora o dodanie brakujących bibliotek do listy dozwolonych lub usunięcie nieautoryzowanych bibliotek z klastra.
FAULT_POLLER_DBR_UNSUPPORTED
SQLSTATE: brak przypisania
Wersja środowiska Databricks Runtime w klastrze osiągnęła koniec wsparcia i nie jest już obsługiwana. Użyj obsługiwanej wersji środowiska uruchomieniowego usługi Databricks.
Opis: występuje, gdy biblioteka jest zainstalowana w wersji środowiska Databricks Runtime, która nie otrzymuje już aktualizacji ani obsługi.
Sugerowana akcja: zmień klaster, aby używał obsługiwanej wersji środowiska Databricks Runtime i ponów próbę instalacji.
FAULT_POLLER_LIBRARY_STORAGE_FORMAT_UNSUPPORTED
SQLSTATE: brak przypisania
Wybrana wersja środowiska Databricks Runtime może nie obsługiwać niektórych formatów magazynu biblioteki, takich jak gs:// lub ścieżki abfss://. Uaktualnij środowisko Databricks Runtime lub zapoznaj się z przewodnikiem użytkownika dotyczącym możliwości różnych wersji środowiska Databricks Runtime.
Opis: występuje, gdy wersja środowiska Databricks Runtime nie obsługuje określonego formatu magazynu biblioteki ani protokołu.
Sugerowana akcja: użyj obsługiwanego schematu magazynu lub uaktualnij go do wersji środowiska Databricks Runtime obsługującej żądany format magazynu.
FAULT_POLLER_UNITY_CATALOG_NOT_AVAILABLE_ERROR
SQLSTATE: brak przypisania
Instalacja biblioteki wymaga wykazu aparatu Unity, ale wykaz aparatu Unity jest niedostępny w klastrze lub obszarze roboczym. Skontaktuj się z administratorem obszaru roboczego, aby włączyć tę funkcję.
Opis: występuje, gdy instalacja biblioteki wymaga wykazu aparatu Unity, ale wykaz aparatu Unity jest niedostępny w obszarze roboczym.
Sugerowana akcja: zażądaj administracji, aby włączyć wykaz aparatu Unity w obszarze roboczym lub użyć klastra obsługującego wykaz aparatu Unity.
FAULT_STORAGE_ACCESS_FAILURE
SQLSTATE: brak przypisania
Nie można uzyskać dostępu do zasobów magazynu w chmurze z powodu problemów z poświadczeniami, siecią lub uprawnieniami. Sprawdź konfigurację dostępu do magazynu w chmurze.
Opis: występuje, gdy środowisko obliczeniowe nie może uzyskać dostępu do zasobów magazynu w chmurze z powodu problemów z poświadczeniami, siecią lub uprawnieniami.
Sugerowana akcja: Sprawdź poświadczenia magazynu, łączność sieciową i uprawnienia dostępu, a następnie ponów próbę instalacji.
Różne
Zasady ABAC nie są obsługiwane dla wersji runtime
SQLSTATE: brak przypisania
Wersja <abacDBRMajorVersion>DBR .
<abacDBRMinorVersion> lub nowszy jest wymagany do wykonywania zapytań dotyczących tabeli <tableFullName>, ponieważ jest on chroniony przez zasady ABAC.
BRAK_POŚWIADCZEŃ_AZURE_ENTRA
SQLSTATE: brak przypisania
Brak poświadczeń usługi Azure Entra (znane także jako Azure Active Directory).
Upewnij się, że jesteś zalogowany na swoim koncie Entra
lub skonfigurowałeś osobisty token dostępu (PAT) usługi Azure DevOps w ustawieniach użytkownika związanych z integracją z usługą Git >.
Jeśli nie używasz PAT i używasz usługi Azure DevOps z API Repos,
Należy użyć tokenu dostępu usługi Azure Entra.
Zobacz https://docs.microsoft.com/azure/databricks/dev-tools/api/latest/aad/app-aad-token kroki uzyskiwania tokenu dostępu usługi Azure Entra.
<pickOrCreateNewCredential>
WYSTĄPIŁ BŁĄD PARSOWANIA AZURE_ENTRA_CREDENTIALS
SQLSTATE: brak przypisania
Wystąpił błąd z poświadczeniami usługi Azure Entra (Azure Active Directory). Spróbuj wylogować się z
Entra (https://portal.azure.com) i zaloguj się ponownie.
Alternatywnie możesz również odwiedzić stronę Ustawienia użytkownika > integracja Git, aby ustawić
konfigurowanie osobistego tokenu dostępu usługi Azure DevOps.
<pickOrCreateNewCredential>
Błąd logowania AZURE_ENTRA
SQLSTATE: brak przypisania
Wystąpił błąd z poświadczeniami usługi Azure Active Directory. Spróbuj wylogować się z
Usługa Azure Active Directory (https://portal.azure.com) i logowanie się ponownie.
<pickOrCreateNewCredential>
AZURE_ENTRA_BŁĄD_TOŻSAMOŚCI_OBCIĄŻENIA
SQLSTATE: brak przypisania
Napotkano błąd dotyczący tożsamości obciążenia dla platformy Azure z wyjątkiem Azure: <azureWorkloadIdentityExceptionMessage>
Nieautoryzowany podmiot udostępniania Delta w czystym pomieszczeniu
SQLSTATE: brak przypisania
Nie można zażądać generowania poświadczeń do zabezpieczania wymiany danych w chronionej przestrzeni.
Odmowa uprawnień do ukrytego zabezpieczonego elementu w czystym pomieszczeniu
SQLSTATE: brak przypisania
Zabezpieczone <securableName> o typie <securableType> i rodzaju <securableKind> jest systemem czystego pomieszczenia zarządzanym, do którego użytkownik nie ma dostępu.
OGRANICZENIE_JUŻ_ISTNIEJE
SQLSTATE: brak przypisania
Ograniczenie o nazwie <constraintName> już istnieje, wybierz inną nazwę.
OGRANICZENIE_NIE_ISTNIEJE
SQLSTATE: brak przypisania
Ograniczenie <constraintName> nie istnieje.
COULD_NOT_READ_REMOTE_REPOSITORY (Nie można odczytać zdalnego repozytorium)
SQLSTATE: brak przypisania
Nie można odczytać repozytorium zdalnego (<repoUrl>).
Użyto<because> poświadczeń<credentialName> (<credentialId>).
Ten dostawca poświadczeń usługi Git to <gitCredentialProvider> adres e-mail/nazwa użytkownika.<gitCredentialUsername>
Przejdź do zdalnego dostawcy usługi Git, aby upewnić się, że:
Zdalny adres URL repozytorium Git jest prawidłowy.
Osobisty token dostępu lub hasło aplikacji mają prawidłowy dostęp do repozytorium.
<pickOrCreateNewCredential>
NIE_MOŻNA_ROZWIĄZAĆ_HOSTA_REPOZYTORIUM
SQLSTATE: brak przypisania
Nie można rozpoznać hosta dla <repoUrl>.
Użyto<because> poświadczeń<credentialName> (<credentialId>).
Ten dostawca poświadczeń usługi Git to <gitCredentialProvider> adres e-mail/nazwa użytkownika.<gitCredentialUsername>
CSMS_NIEOBSŁUGIWANE_POCZĄTEK_CZASU
SQLSTATE: brak przypisania
Parametr beginning_of_time nie może być prawdziwy.
TOKEN_KONTYNUACJI_CSMS_WYGASŁ
SQLSTATE: brak przypisania
Token kontynuacji wygasł. Przyczyna: <msg>
CSMS_CREDENTIAL_NAME_MISSING
SQLSTATE: brak przypisania
Brak nazwy poświadczeń w żądaniu
CSMS_FILE_EVENTS_VALIDATION_USER_ERROR
SQLSTATE: brak przypisania
Walidacja zdarzeń pliku nie powiodła się dla operacji <operation>: <message>
CSMS_NIEWAŻNY_TOKEN_KONTYNUACJI
SQLSTATE: brak przypisania
Token kontynuacji jest nieprawidłowy. Przyczyna: <msg>
CSMS_INVALID_FILE_EVENTS_QUEUE
SQLSTATE: brak przypisania
<missingField> brak w <queueType> żądaniu
CSMS_NIEPRAWIDŁOWA_MAKSYMALNA_LICZBA_OBIEKTÓW
SQLSTATE: brak przypisania
Nieprawidłowa wartość <value> parametru max_objects, oczekiwana wartość w [<minValue>, <maxValue>]
CSMS_INVALID_SUBSCRIPTION_ID (Nieprawidłowy identyfikator subskrypcji)
SQLSTATE: brak przypisania
Nieprawidłowy identyfikator subskrypcji. Przyczyna: <msg>
CSMS_BŁĘDNY_FORMAT_URI
SQLSTATE: brak przypisania
Nieprawidłowy format identyfikatora URI. Oczekiwano woluminu (na przykład "/Volumes/catalog/schema/volume") lub ścieżki magazynu w chmurze (na przykład "s3://some-uri")
Brak tematu Kafka: CSMS_KAFKA_TOPIC_MISSING
SQLSTATE: brak przypisania
Musi podać temat platformy Kafka
Błąd lokalizacji CSMS
SQLSTATE: brak przypisania
Nie można wyświetlić listy obiektów. Istnieją problemy z lokalizacją, którą należy rozwiązać. Szczegóły: <msg>
LOKALIZACJA CSMS NIEZNANA
SQLSTATE: brak przypisania
Nie odnaleziono lokalizacji dla identyfikatora URI <path>
Brak identyfikatora Metastore w CSMS
SQLSTATE: brak przypisania
Musi podać identyfikator UUID magazynu metadanych
CSMS_NIEPOWODZENIE_ROZWIĄZYWANIA_METASKLEPU
SQLSTATE: brak przypisania
Nie można określić magazynu metadanych dla żądania.
CSMS_RESOLVE_CREDENTIAL_ID_FAILED
SQLSTATE: brak przypisania
Nie można rozpoznać identyfikatora poświadczeń dla poświadczeń: <credentialName>
CSMS_RESOLVE_LOCAL_SHARD_NAME_FAILED
SQLSTATE: brak przypisania
CsMS nie może rozpoznać lokalnej nazwy fragmentu
CSMS_SERVICE_DISABLED (Usługa CSMS wyłączona)
SQLSTATE: brak przypisania
Usługa jest wyłączona
CSMS_NAZWA_FRAGMENTU_BRAKUJE_W_ŻĄDANIU
SQLSTATE: brak przypisania
Brak nazwy sharda w żądaniu RPC do CSMS
CSMS_STORAGE_CREDENTIAL_DOES_NOT_EXIST
SQLSTATE: brak przypisania
Poświadczenia magazynu nie istnieją.
CSMS_SUBSCRIPTION_ID_MISSING_IN_REQUEST
SQLSTATE: brak przypisania
Brak identyfikatora subskrypcji w żądaniu.
CSMS_SUBSCRIPTION_NOT_FOUND
SQLSTATE: brak przypisania
Nie można odnaleźć subskrypcji o identyfikatorze <id> .
CSMS_UNITY_CATALOG_DISABLED
SQLSTATE: brak przypisania
Wykaz aparatu Unity jest wyłączony dla tego obszaru roboczego
Nie znaleziono jednostki w katalogu Unity
SQLSTATE: brak przypisania
Nie znaleziono encji Unity Catalog. Upewnij się, że istnieje katalog, schemat, wolumin i/lub lokalizacja zewnętrzna.
LOKALIZACJA_ZEWNETRZNA_KATALOGU_UNITY_CSMS_NIE_ISTNIEJE
SQLSTATE: brak przypisania
Lokalizacja zewnętrzna Unity Catalog nie istnieje.
CSMS_JEDNOLITY_KATALOG_ŹRÓDŁÓW_DANYCH_ZEWNETRZNYCH_NAKŁADANIE_SIĘ
SQLSTATE: brak przypisania
URI nakłada się na inne woluminy
Katalog metadanych CSMS_UNITY_CATALOG nie istnieje
SQLSTATE: brak przypisania
Nie można określić magazynu metadanych dla żądania. Magazyn metadanych nie istnieje
CSMS_UNITY_CATALOG_PATH_BASED_ACCESS_TO_TABLE_WITH_FILTER_NOT_ALLOWED
SQLSTATE: brak przypisania
Identyfikator URI wskazuje tabelę z filtrem na poziomie wiersza lub maską kolumny. Dostęp oparty na ścieżkach do tej tabeli jest niedozwolony.
CSMS_UNITY_CATALOG_PERMISSION_DENIED (Odmowa dostępu z powodu braku uprawnień do katalogu Unity)
SQLSTATE: brak przypisania
Odmowa uprawnień
CSMS_UNITY_CATALOG_RATE_LIMITED
SQLSTATE: brak przypisania
Przekroczono limit liczby żądań. Spróbuj ponownie po pewnym czasie.
CSMS_UNITY_CATALOG_TABLE_NIE_ISTNIEJE
SQLSTATE: brak przypisania
Tabela katalogu Unity nie istnieje.
CSMS_UNITY_CATALOG_WOLUMEN_NIE_ISTNIEJE
SQLSTATE: brak przypisania
Wolumin katalogu Unity nie istnieje.
CSMS_UNSUPPORTED_FILE_EVENTS_QUEUE
SQLSTATE: brak przypisania
Nieznana kolejka zdarzeń pliku w żądaniu
CSMS_UNSUPPORTED_MANAGED_RESOURCE_TYPE
SQLSTATE: brak przypisania
Typ <resourceType> zasobu zarządzanego nie jest obsługiwany
CSMS_NIEOBSŁUGIWANY_SEKURABLE
SQLSTATE: brak przypisania
Nieobsługiwany element zabezpieczany
"Brakuje URI w systemie CSMS"
SQLSTATE: brak przypisania
Musi podać identyfikator URI
CSMS_URI_ZBYT_DŁUGI
SQLSTATE: brak przypisania
Podany identyfikator URI jest za długi. Maksymalna dozwolona długość to <maxLength>.
CSMS_USER_CONTEXT_MISSING_IN_REQUEST
SQLSTATE: brak przypisania
Brak kontekstu użytkownika w żądaniu rpc do CSMS
Katalogi DMK niedozwolone w klasycznym obliczeniu
SQLSTATE: brak przypisania
Nie można uzyskać dostępu do magazynu domyślnego usługi Databricks przy użyciu klasycznego środowiska obliczeniowego. Użyj bezserwerowych zasobów obliczeniowych, aby uzyskać dostęp do danych w magazynie domyślnym
APLIKACJA_GITHUB_NIE_MOŻE_ODŚWIEŻYĆ_CREDENCJALI
SQLSTATE: brak przypisania
Operacja nie powiodła się, ponieważ nie można odświeżyć połączonych poświadczeń aplikacji GitHub.
Spróbuj ponownie lub przejdź do Ustawień użytkownika integracji Git > i spróbuj ponownie połączyć konto dostawcy Git.
Jeśli problem będzie się powtarzać, utwórz bilet pomocy technicznej.
<pickOrCreateNewCredential>
Kredencje aplikacji GitHub - brak dostępu
SQLSTATE: brak przypisania
Link do Twojego konta GitHub nie jest dostępny. Aby naprawić ten błąd:
- Administrator repozytorium musi przejść do https://github.com/apps/databricks/installations/new i zainstalować aplikację Databricks GitHub w repozytorium.
Alternatywnie właściciel konta usługi GitHub może zainstalować aplikację na koncie w celu udzielenia dostępu do repozytoriów konta.
- Jeśli aplikacja jest już zainstalowana, administrator powinien upewnić się, że jeśli korzysta z dostępu o określonym zakresie z opcją "Tylko wybierz repozytoria", zapewnił dostęp do tego repozytorium, wybierając je.
Aby uzyskać więcej informacji, zapoznaj się z https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app.
<pickOrCreateNewCredential>
Wygasłe poświadczenia aplikacji GitHub
SQLSTATE: brak przypisania
Połączone poświadczenia aplikacji GitHub wygasły po upływie 6 miesięcy braku aktywności.
Przejdź do Ustawień użytkownika > Git Integration i spróbuj ponownie połączyć swoje poświadczenia.
Jeśli problem będzie się powtarzać, utwórz bilet pomocy technicznej.
<pickOrCreateNewCredential>
INSTALACJA_APLIKACJI_GITHUB_U_INNEGO_UŻYTKOWNIKA
SQLSTATE: brak przypisania
Link do Twojego konta GitHub nie jest dostępny. Aby naprawić ten błąd:
Użytkownik usługi GitHub
<gitCredentialUsername>powinien przejść na stronę https://github.com/apps/databricks/installations/new i zainstalować aplikację na koncie<gitCredentialUsername>, aby zezwolić na dostęp.Jeśli użytkownik
<gitCredentialUsername>zainstalował już aplikację i korzysta z dostępu ograniczonego zakresem z opcją "Tylko wybrane repozytoria", powinien upewnić się, że ma dostęp do tego repozytorium poprzez jego wybranie.
Aby uzyskać więcej informacji, zapoznaj się z https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app.
<pickOrCreateNewCredential>
Instalacja_aplikacji_GitHub_w_organizacji
SQLSTATE: brak przypisania
Link do Twojego konta GitHub nie jest dostępny. Aby naprawić ten błąd:
Właściciel organizacji
<organizationName>GitHub powinien przejść na https://github.com/apps/databricks/installations/new i zainstalować aplikację w organizacji<organizationName>w celu zezwolenia na dostęp.Jeśli aplikacja jest już zainstalowana w organizacji
<organizationName>w usłudze GitHub, właściciel tej organizacji powinien upewnić się, że podczas korzystania z dostępu o określonym zakresie z opcją "Tylko wybierz repozytoria," dostęp do tego repozytorium został uwzględniony przez jego zaznaczenie.
Aby uzyskać więcej informacji, zapoznaj się z https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app.
<pickOrCreateNewCredential>
INSTALACJA_APLIKACJI_GITHUB_NA_TWOIM_KONCIE
SQLSTATE: brak przypisania
Link do Twojego konta GitHub nie jest dostępny. Aby naprawić ten błąd:
Przejdź do https://github.com/apps/databricks/installations/new i zainstaluj aplikację na swoim koncie
<gitCredentialUsername>, aby zezwolić na dostęp.Jeśli aplikacja jest już zainstalowana i korzystasz z określonego dostępu przy użyciu opcji "Tylko wybrane repozytoria", upewnij się, że dodałeś dostęp do tego repozytorium, zaznaczając je.
Aby uzyskać więcej informacji, zapoznaj się z https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app.
<pickOrCreateNewCredential>
GIT_KLASTER_NIEGOTOWY
SQLSTATE: brak przypisania
Klaster Git nie jest gotowy.
GIT_POŚWIADCZENIE_OGÓLNE_NIEPRAWIDŁOWE
SQLSTATE: brak przypisania
Nieprawidłowe poświadczenia dostawcy Git dla adresu URL repozytorium <repoUrl>.
Użyto<because> poświadczeń<credentialName> (<credentialId>).
Ten dostawca poświadczeń usługi Git to <gitCredentialProvider> adres e-mail/nazwa użytkownika.<gitCredentialUsername>
Przejdź do zdalnego dostawcy usługi Git, aby upewnić się, że:
Wprowadzono poprawny adres e-mail użytkownika lub nazwę użytkownika usługi Git przy użyciu poświadczeń dostawcy usługi Git.
Token ma prawidłowy dostęp do repozytorium.
Token nie wygasł.
Jeśli masz włączone SSO u dostawcy Git, pamiętaj, aby autoryzować token.
<pickOrCreateNewCredential>
GIT_CREDENTIAL_INVALID_PAT (Nieprawidłowy Osobisty Token Dostępu)
SQLSTATE: brak przypisania
Nieprawidłowe dane uwierzytelniające tokenu dostępu osobistego dostawcy Git dla adresu URL repozytorium <repoUrl>.
Użyto<because> poświadczeń<credentialName> (<credentialId>).
Ten dostawca poświadczeń usługi Git to <gitCredentialProvider> adres e-mail/nazwa użytkownika.<gitCredentialUsername>
Przejdź do zdalnego dostawcy usługi Git, aby upewnić się, że:
Wprowadzono poprawny adres e-mail użytkownika lub nazwę użytkownika usługi Git przy użyciu poświadczeń dostawcy usługi Git.
Token ma prawidłowy dostęp do repozytorium.
Token nie wygasł.
Jeśli masz włączone SSO u dostawcy Git, pamiętaj, aby autoryzować token.
<pickOrCreateNewCredential>
.
BRAK_WIARYGODNOŚCI_GIT
SQLSTATE: brak przypisania
Nie skonfigurowano poświadczenia Git, jednak poświadczenie jest wymagane dla tego repozytorium (<repoUrl>).
Przejdź do Ustawienia użytkownika > Git Integration, aby skonfigurować poświadczenia Git.
BRAK_UPRAWNIEŃ_DO_ZAPISU_GIT
SQLSTATE: brak przypisania
Odmówiono dostępu do zapisu w repozytorium <gitCredentialProvider> (<repoUrl>).
Użyto<because> poświadczeń<credentialName> (<credentialId>).
Ten dostawca poświadczeń usługi Git to <gitCredentialProvider> adres e-mail/nazwa użytkownika.<gitCredentialUsername>
Upewnij się (<gitCredentialUsername>), że masz dostęp do zapisu do tego zdalnego repozytorium.
Niezgodność dostawcy poświadczeń GIT
SQLSTATE: brak przypisania
Niepoprawny dostawca poświadczeń usługi Git dla repozytorium.
Nie masz poświadczeń usługi Git z dostawcą Git (<repositoryGitProvider>), który jest zgodny z dostawcą <repoUrl>Git repozytorium .
Przejdź do pozycji Ustawienia > użytkownika Integracja z usługą Git, aby utworzyć nowe poświadczenia dla dostawcy <repositoryGitProvider>usługi Git.
GIT_FILE_NAME_TOO_LONG
SQLSTATE: brak przypisania
Nazwy plików lub folderów w ścieżce <path> przekraczają maksymalną <maxComponentBytes>liczbę bajtów na składnik.
Systemy oparte na systemie Unix obsługują tylko maksymalnie <maxComponentBytes> bajty na nazwę pliku lub folderu.
Naruszenia regulaminu: <violations>
Skróć składniki, które mają być kontynuowane.
GIT_PROVIDER_INFO_MISSING
SQLSTATE: brak przypisania
Brak informacji o dostawcy usługi Git lub jest on pusty.
Dodaj informacje o poświadczeniu git i spróbuj ponownie.
Jeśli problem będzie się powtarzać, utwórz bilet pomocy technicznej.
Klaster proxy GIT nie jest gotowy
SQLSTATE: brak przypisania
Klaster serwera proxy Git nie jest gotowy.
GIT_PROXY_CONNECTION_FAILED
SQLSTATE: brak przypisania
Nie można nawiązać połączenia z serwerem proxy usługi Git. Sprawdź, czy serwer proxy usługi Git jest uruchomiony.
Błąd: <error>
Sekret_git_w_kodzie
SQLSTATE: brak przypisania
Sekrety znalezione w komicie. Szczegóły: <secretDetail>. Aby naprawić ten błąd:
Usuń sekret i spróbuj ponownie zatwierdzić.
Jeśli problem będzie się powtarzać, utwórz bilet pomocy technicznej.
GIT_STALE_REMOTE_REFS
SQLSTATE: brak przypisania
Pobieranie usługi Git zostało ukończone, ale nie można zaktualizować nieaktualnych odwołań zdalnych z powodu konfliktów ścieżki systemu plików (na przykład usuniętych gałęzi lub "feature" vs "feature/sub").
Błąd usługi Git: <gitErrorMessage>
HIERARCHICZNA_PRZESTRZEŃ_NAZW_NIE_WŁĄCZONA
SQLSTATE: brak przypisania
Konto usługi Azure Storage nie ma włączonej hierarchicznej przestrzeni nazw.
BŁĘDNE_DŁUGOŚĆ_POLA
<rpcName> <fieldName> za długo. Maksymalna długość to <maxLength> znaków.
INVALID_PARAMETER_VALUE
<msg>
Aby uzyskać więcej informacji, zobacz INVALID_PARAMETER_VALUE
RAMA_ZADANIA_PRACY_WYNIK_URUCHOMIENIA_ZADANIA_NIEODNALEZIONY
SQLSTATE: brak przypisania
Struktura zadań: Nie można odnaleźć wyniku działania zadania dla zadania z identyfikatorem runId <runId> oraz identyfikatorem orgId <orgId>.
Stan_zadania_w_ramach_systemu_zadań_nie_znaleziono
SQLSTATE: brak przypisania
Struktura zadań: nie można odnaleźć stanu uruchomienia zadania z identyfikatorem runId <runId> i identyfikatorem orgId <orgId>.
REJESTRACJA_ZADANIA_ZADANIA_REJESTRACJA_KONFIGURACJI_KLIENTA_NIE_ISTNIEJE
SQLSTATE: brak przypisania
Konfiguracja klienta RPC dla zadania o identyfikatorze <taskId> nie istnieje.
ZADANIE_REJESTRU_ZADAŃ_NIE_ISTNIEJE
SQLSTATE: brak przypisania
Zadanie o identyfikatorze <taskId> nie istnieje.
Rejestracja_zadań_pracy_nieobsługiwanego_zadania_zatrudnienia
SQLSTATE: brak przypisania
Rejestr zadań: Nieobsługiwane lub nieznane zadanie z klasą <taskClassName>.
Dostęp oparty na ścieżce nie jest obsługiwany dla zewnętrznego płytkiego klonu
SQLSTATE: brak przypisania
Dostęp na podstawie ścieżki do zewnętrznej tabeli płytkiego klonowania <tableFullName> nie jest obsługiwany. Proszę używać nazw tabel, aby uzyskać dostęp do płytkiego klonu zamiast tego.
DOSTĘP OPARTY NA ŚCIEŻCE NIEOBSŁUGIWANY DLA FABRYKI
SQLSTATE: brak przypisania
Nie można odnaleźć tabeli Fabric znajdującej się pod adresem URL "<url>". Użyj polecenia REFRESH FOREIGN CATALOG, aby wypełnić tabele Fabric.
DOSTĘP OPARTY NA ŚCIEŻCE NIE JEST OBSŁUGIWANY DLA TABEL Z POLITYKAMI DOSTĘPU DO WIERSZY I KOLUMN
SQLSTATE: brak przypisania
Dostęp oparty na ścieżkach do tabeli <tableFullName> z filtrem wierszy lub maską kolumny nie jest obsługiwany.
Odmowa dostępu
SQLSTATE: brak przypisania
<principalName> nie ma <msg> na <resourceType> '<resourceName>'.
Since this is a technical identifier, no alterations were made to the text as translating it could lead to potential functional issues in a technical or software context. However, a note could be added elsewhere for user guidance if needed. Thus, no improved translation is necessary.
SQLSTATE: brak przypisania
Nie można przeanalizować żądania obiektu usuwania: <invalidInputMsg>
REDASH_USUŃ_OBIEKT_NIE_W_KOSZU
SQLSTATE: brak przypisania
Nie można usunąć obiektu <resourceName>, ponieważ nie znajduje się w koszu.
REDASH_UPRAWNIENIA_ODRZUCONE
SQLSTATE: brak przypisania
Nie można odnaleźć lub uzyskać uprawnień do zasobu <resourceId>
ZAPYTANIE_REDASH_NIE_ZNALEZIONE
SQLSTATE: brak przypisania
Nie można odnaleźć zasobu z identyfikatora zapytania <queryId>
TWORZENIE_FRAGMENTU_ZAPYTANIA_REDASH_NIEUDANE
SQLSTATE: brak przypisania
Nie można utworzyć nowego fragmentu kodu zapytania
(If contextual explanation is needed) Limit zapytań Redash został przekroczony
SQLSTATE: brak przypisania
Osiągnięto limit liczby fragmentów zapytania. Bieżący limit przydziału jest <quota>.
WYZWALACZ_FRAGMENTU_ZAPYTANIA_REDASH_JEST_JUŻ_WYKORZYSTYWANY
SQLSTATE: brak przypisania
Określony wyzwalacz <trigger> jest już używany przez inny fragment zapytania w tym obszarze roboczym.
NIE ZNALEZIONO ZASOBU REDASH
SQLSTATE: brak przypisania
Żądany zasób <resourceName> nie istnieje
REDASH_PRZYWRÓĆ_OBIEKT_HANDLER_NIEPRAWIDŁOWE_WEJŚCIE
SQLSTATE: brak przypisania
Nie można przeanalizować żądania obiektu usuwania: <invalidInputMsg>
REDASH_PRZYWRÓĆ_OBIEKT_NIE_W_KOSZU
SQLSTATE: brak przypisania
Nie można przywrócić obiektu <resourceName>, który nie znajduje się w koszu
REDASH_ŚMIECI_OBIEKT_JUŻ_W_KOSZU
SQLSTATE: brak przypisania
Nie można przenieść do kosza już usuniętego obiektu <resourceName>
NIE MOŻNA WYGENEROWAĆ NAZWY ZASOBU REDASH
SQLSTATE: brak przypisania
Nie można wygenerować nazwy zasobu z identyfikatora <id>
NIE POWIODŁO SIĘ TWORZENIE WIZUALIZACJI W REDASH
SQLSTATE: brak przypisania
Nie można utworzyć nowej wizualizacji
Nie znaleziono wizualizacji w Redash.
SQLSTATE: brak przypisania
Nie można odnaleźć wizualizacji <visualizationId>
Przekroczono limit wizualizacji w Redash
SQLSTATE: brak przypisania
Osiągnięto limit liczby wizualizacji w zapytaniu <query_id>. Bieżący limit przydziału jest <quota>.
NIE ZNALEZIONO_URL_REPOZYTORIUM
SQLSTATE: brak przypisania
Nie można odnaleźć repozytorium zdalnego (<repoUrl>).
Użyto<because> poświadczeń<credentialName> (<credentialId>).
Ten dostawca poświadczeń usługi Git to <gitCredentialProvider> adres e-mail/nazwa użytkownika.<gitCredentialUsername>
Przejdź do zdalnego dostawcy usługi Git, aby upewnić się, że:
Zdalny adres URL repozytorium Git jest prawidłowy.
Osobisty token dostępu lub hasło aplikacji mają prawidłowy dostęp do repozytorium.
<pickOrCreateNewCredential>
ZASÓB_JUŻ_ISTNIEJE
<resourceType> '<resourceIdentifier>' już istnieje
ZASÓB_NIE_ISTNIEJE
<resourceType> '<resourceIdentifier>' nie istnieje.
POLITYKI_DOSTĘPU_DO_WIERSZY_KOLUMN_NIEOBSŁUGIWANE_NA_PRZYDZIELONYCH_KLASTRACH
SQLSTATE: brak przypisania
Zapytanie dotyczące tabeli <tableFullName> z filtrem wierszy lub maską kolumn nieobsługiwaną w przypisanych klastrach.
Ochrona wierszy i kolumn nie jest obsługiwana z tabelą w Delta Sharing.
SQLSTATE: brak przypisania
Tabela <tableFullName> jest współużytkowana z funkcją Udostępniania Delta i nie może używać zabezpieczeń wierszy/kolumn.
USŁUGA_TYMCZASOWO_NIEDOSTĘPNA
SQLSTATE: brak przypisania
Usługa <serviceName> jest tymczasowo w ramach konserwacji. Spróbuj ponownie później.
TABELA_Z_BEZPIECZEŃSTWEM_WIERSZY_KOLUMN_NIEOBSŁUGIWANA_W_TRYBIE_ONLINE
SQLSTATE: brak przypisania
Tabela <tableFullName> nie może jednocześnie mieć zabezpieczeń wierszy/kolumn i zmaterializowanych widoków online.
Zbyt wiele wierszy do zaktualizowania
SQLSTATE: brak przypisania
Zbyt wiele wierszy do zaktualizowania, przerywam aktualizację.
UC_ABAC_UNSUPPORTED_TABLE_TYPE
SQLSTATE: brak przypisania
Zasady ABAC nie są obsługiwane dla typu <tableType>tabeli .