Klasy błędów w usłudze Azure Databricks
Dotyczy: Databricks SQL Databricks Runtime 12.2 i nowsze
Klasy błędów to opisowe, czytelne dla człowieka ciągi unikatowe dla warunku błędu.
Klasy błędów umożliwiają programowe obsługiwanie błędów w aplikacji bez konieczności analizowania komunikatu o błędzie.
Jest to lista typowych, nazwanych warunków błędów zwracanych przez usługę Azure Databricks.
Databricks Runtime i Databricks SQL
AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION
Wyrażenie <sqlExpr>
nie deterministyczne nie powinno być wyświetlane w argumentach funkcji agregującej.
AI_FUNCTION_HTTP_PARSE_CAST_ERROR
Nie można przeanalizować danych wyjściowych modelu podczas rzutowania do określonego returnType: "<dataType>
", odpowiedź JSON: "<responseString>
". Zaktualizuj element returnType, aby był zgodny z zawartością typu reprezentowanego przez kod JSON odpowiedzi, a następnie ponów próbę zapytania.
AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR
Rzeczywiste dane wyjściowe modelu mają więcej niż jedną kolumnę "<responseString>
". Jednak określony typ zwracany[""<dataType>
] ma tylko jedną kolumnę. Zaktualizuj wartość returnType tak, aby zawierała taką samą liczbę kolumn jak dane wyjściowe modelu, a następnie ponów próbę zapytania.
AI_FUNCTION_HTTP_REQUEST_ERROR
Wystąpił błąd podczas tworzenia żądania HTTP dla funkcji <funcName>
: <errorMessage>
AI_FUNCTION_INVALID_HTTP_RESPONSE
Nieprawidłowa odpowiedź HTTP dla funkcji <funcName>
: <errorMessage>
AI_FUNCTION_INVALID_MAX_WORDS
Maksymalna liczba wyrazów musi być nieujemną liczbą całkowitą, ale ma wartość <maxWords>
.
AI_FUNCTION_INVALID_MODEL_PARAMETERS
Podane parametry modelu (<modelParameters>
) są nieprawidłowe w funkcji AI_QUERY do obsługi punktu końcowego "<endpointName>
".
Aby uzyskać więcej informacji, zobacz AI_FUNCTION_INVALID_MODEL_PARAMETERS
AI_FUNCTION_JSON_PARSE_ERROR
Wystąpił błąd podczas analizowania odpowiedzi JSON dla funkcji <funcName>
: <errorMessage>
AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR
Nie można przeanalizować schematu dla punktu końcowego obsługującego "<endpointName>
": <errorMessage>
, odpowiedź JSON: "<responseJson>
".
returnType
Ustaw parametr ręcznie w funkcji AI_QUERY, aby zastąpić rozpoznawanie schematu.
AI_FUNCTION_UNSUPPORTED_ERROR
Funkcja <funcName>
nie jest obsługiwana w bieżącym środowisku. Jest ona dostępna tylko w usłudze Databricks SQL Pro i bezserwerowej.
AI_FUNCTION_UNSUPPORTED_REQUEST
Nie można ocenić funkcji SQL "<functionName>
", ponieważ podany argument <invalidValue>
ma wartość "<invalidDataType>
", ale obsługiwane są tylko następujące typy: <supportedDataTypes>
. Zaktualizuj wywołanie funkcji, aby podać argument typu ciągu i ponowić próbę zapytania.
AI_FUNCTION_UNSUPPORTED_RETURN_TYPE
Funkcja sztucznej inteligencji: "<functionName>
" nie obsługuje następującego typu jako typu zwracanego: "<typeName>
". Zwracany typ musi być prawidłowym typem SQL zrozumiałym dla katalizatora i obsługiwanym przez funkcję sztucznej inteligencji. Bieżące obsługiwane typy obejmują: <supportedValues>
AI_INVALID_ARGUMENT_VALUE_ERROR
Podana wartość "<argValue>
" nie jest obsługiwana przez argument "<argName>
". Obsługiwane wartości to: <supportedValues>
AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH
Podana wartość "<sqlExpr>
" nie jest obsługiwana przez argument returnType.
AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR
Wyszukiwanie wektorowe z typem <embeddingColumnType>
kolumny osadzania nie jest obsługiwane.
AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR
Wyszukiwanie wektorowe z typem <indexType>
indeksu nie jest obsługiwane.
AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR
Błąd materializowania zapytania wyszukiwania wektorowego z typu <dataType>
spark do obiektów scala-native podczas kodowania żądań z błędem: <errorMessage>
.
AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR
Wyszukiwanie wektorowe z num_results większym niż <maxLimit>
nie jest obsługiwane. Określony limit to <requestedLimit>
. Pleaase spróbuj ponownie za pomocą num_results <= <maxLimit>
ALL_PARAMETERS_MUST_BE_NAMED
Użycie zapytań sparametryzowanych nazw wymaga nazwy wszystkich parametrów. Brak parametrów: <exprs>
.
ALL_PARTITION_COLUMNS_NOT_ALLOWED
Nie można użyć wszystkich kolumn dla kolumn partycji.
ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
Kolumna <columnName>
ALTER TABLE <type>
określa deskryptor "<optionName>
" więcej niż raz, co jest nieprawidłowe.
AMBIGUOUS_ALIAS_IN_NESTED_CTE
Nazwa <name>
jest niejednoznaczna w zagnieżdżonym CTE.
Ustaw wartość <config>
"CORRECTED", aby nazwa zdefiniowana w wewnętrznej usłudze CTE mieć pierwszeństwo. W przypadku ustawienia wartości "LEGACY" zewnętrzne definicje CTE będą miały pierwszeństwo.
Zobacz https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine" .
AMBIGUOUS_COLUMN_OR_FIELD
Kolumna lub pole <name>
jest niejednoznaczne i ma <n>
dopasowania.
AMBIGUOUS_COLUMN_REFERENCE
Kolumna <name>
jest niejednoznaczna. Jest to spowodowane tym, że połączono kilka ramek danych, a niektóre z tych ramek danych są takie same.
Ta kolumna wskazuje jedną z ramek danych, ale platforma Spark nie może ustalić, która z nich.
Przed dołączeniem do nich aliasuj ramki danych o różnych nazwach DataFrame.alias
,
i określ kolumnę przy użyciu kwalifikowanej nazwy, np. df.alias("a").join(df.alias("b"), col("a.id") > col("b.id"))
.
AMBIGUOUS_CONSTRAINT
Niejednoznaczne odwołanie do ograniczenia <constraint>
.
AMBIGUOUS_LATERAL_COLUMN_ALIAS
Alias <name>
kolumny bocznej jest niejednoznaczny i ma <n>
dopasowania.
AMBIGUOUS_REFERENCE
Odwołanie <name>
jest niejednoznaczne, może to być: <referenceNames>
.
AMBIGUOUS_REFERENCE_TO_FIELDS
Niejednoznaczne odwołanie do pola <field>
. <count>
Jest wyświetlany czas w schemacie.
ANALYZE_CONSTRAINTS_NOT_SUPPORTED
OGRANICZENIA ANALIZY nie są obsługiwane.
ANSI_CONFIG_CANNOT_BE_DISABLED
Nie można wyłączyć konfiguracji <config>
ANSI SQL w tym produkcie.
AQE_THREAD_INTERRUPTED
Wątek AQE jest przerywany, prawdopodobnie z powodu anulowania zapytania przez użytkownika.
ARGUMENT_NOT_CONSTANT
Funkcja <functionName>
zawiera parametr <parameterName>
w pozycji <pos>
, która wymaga argumentu stałej. Oblicz argument <sqlExpr>
oddzielnie i przekaż wynik jako stałą.
ARITHMETIC_OVERFLOW
<message>
.<alternative>
W razie potrzeby ustaw <config>
wartość "false", aby pominąć ten błąd.
Aby uzyskać więcej informacji, zobacz ARITHMETIC_OVERFLOW
ASSIGNMENT_ARITY_MISMATCH
Liczba kolumn lub zmiennych przypisanych lub aliasów: <numTarget>
nie jest zgodna z liczbą wyrażeń źródłowych: <numExpr>
.
AS_OF_JOIN
Nieprawidłowe sprzężenia jako.
Aby uzyskać więcej informacji, zobacz AS_OF_JOIN
AVRO_DEFAULT_VALUES_UNSUPPORTED
Użycie wartości domyślnych nie jest obsługiwane w przypadkurescuedDataColumn
włączenia. Możesz usunąć to sprawdzenie, ustawiając spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue
wartość false, ale wartości domyślne nie będą stosowane, a wartości null będą nadal używane.
AVRO_INCOMPATIBLE_READ_TYPE
Nie można przekonwertować pliku Avro <avroPath>
na język SQL <sqlPath>
, ponieważ oryginalny zakodowany typ danych to <avroType>
, jednak próbujesz odczytać pole jako <sqlType>
, co doprowadziłoby do nieprawidłowej odpowiedzi.
Aby zezwolić na odczytywanie tego pola, włącz konfigurację SQL: "spark.sql.legacy.avro.allowIncompatibleSchema".
AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED
Użycie dopasowywania pól pozycyjnych nie jest obsługiwane w przypadku rescuedDataColumn
włączenia lub failOnUnknownFields
włączenia. Usuń te opcje, aby kontynuować.
BATCH_METADATA_NOT_FOUND
Nie można odnaleźć partii <batchMetadataFile>
.
BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE
Poświadczenia połączenia BigQuery muszą być określone z parametrem "GoogleServiceAccountKeyJson" lub wszystkimi parametrami "projectId", "OAuthServiceAcctEmail", "OAuthPvtKey"
BINARY_ARITHMETIC_OVERFLOW
<value1>
<symbol>
<value2>
spowodowane przepełnieniem.
BOOLEAN_STATEMENT_WITH_EMPTY_ROW
Instrukcja <invalidStatement>
logiczna jest nieprawidłowa. Oczekiwano pojedynczego BOOLEAN
wiersza z wartością typu, ale otrzymał pusty wiersz.
BUILT_IN_CATALOG
<operation>
nie obsługuje wbudowanych wykazów.
CALL_ON_STREAMING_DATASET_UNSUPPORTED
Nie można wywołać metody <methodName>
w zestawie danych/ramce danych przesyłania strumieniowego.
CANNOT_ALTER_COLLATION_BUCKET_COLUMN
ALTER TABLE (ALTER|CHANGE) KOLUMNA nie może zmienić sortowania typów/podtypów kolumn zasobnika, ale znalazła kolumnę <columnName>
zasobnika w tabeli <tableName>
.
CANNOT_ALTER_PARTITION_COLUMN
ALTER TABLE (ALTER|ZMIANA) KOLUMNA nie jest obsługiwana w przypadku kolumn partycji, ale znajduje kolumnę <columnName>
partycji w tabeli <tableName>
.
CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK
Aby ponownie przypisać kolumnę czasu zdarzenia, należy zdefiniować znak wodny. Nie można odnaleźć definicji limitu w zapytaniu przesyłanym strumieniowo.
CANNOT_CAST_DATATYPE
Nie można rzutować <sourceType>
na <targetType>
.
CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE
Nie można przekonwertować narzędzia Protobuf <protobufColumn>
na sql <sqlColumn>
, ponieważ schemat jest niezgodny (protobufType = <protobufType>
, sqlType = <sqlType>
).
CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE
Nie można przekonwertować <protobufType>
pliku Protobuf na typ <toType>
SQL .
CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE
Nie można przekonwertować programu SQL <sqlColumn>
na Protobuf <protobufColumn>
, ponieważ schemat jest niezgodny (protobufType = <protobufType>
, sqlType = <sqlType>
).
CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE
Nie można przekonwertować programu SQL <sqlColumn>
na protobuf <protobufColumn>
, ponieważ <data>
nie ma zdefiniowanych wartości dla wyliczenia: <enumString>
.
CANNOT_COPY_STATE
Nie można skopiować stanu wykazu, takiego jak bieżąca baza danych i widoki tymczasowe z wykazu aparatu Unity do starszego katalogu.
CANNOT_CREATE_DATA_SOURCE_TABLE
Nie można utworzyć tabeli <tableName>
źródła danych:
Aby uzyskać więcej informacji, zobacz CANNOT_CREATE_DATA_SOURCE_TABLE
CANNOT_DECODE_URL
Nie można zdekodować podanego adresu URL: <url>
. Upewnij się, że adres URL jest poprawnie sformatowany i spróbuj ponownie.
CANNOT_DELETE_SYSTEM_OWNED
Nie można usunąć należącego do <resourceType>
systemu.
CANNOT_DROP_AMBIGUOUS_CONSTRAINT
Nie można usunąć ograniczenia o nazwie <constraintName>
udostępnionej przez ograniczenie CHECK
i ograniczenie KLUCZ PODSTAWOWY lub KLUCZ OBCY. Możesz usunąć KLUCZ PODSTAWOWY lub
Ograniczenie KLUCZA OBCEgo przez zapytania:
- ALTER TABLE .. UPUŚĆ KLUCZ PODSTAWOWY LUB
- ALTER TABLE .. UPUŚĆ KLUCZ OBCY ..
CANNOT_ESTABLISH_CONNECTION
Nie można nawiązać połączenia z zdalną bazą <jdbcDialectName>
danych. Sprawdź informacje o połączeniu i poświadczenia, np. host, port, użytkownik, hasło i opcje bazy danych. ** Jeśli uważasz, że informacje są poprawne, sprawdź konfigurację sieci obszaru roboczego i upewnij się, że nie ma ograniczeń ruchu wychodzącego do hosta. Sprawdź również, czy host nie blokuje połączeń przychodzących z sieci, w której wdrożono klastry Spark obszaru roboczego. ** Szczegółowy komunikat o błędzie: <causeErrorMessage>
.
CANNOT_ESTABLISH_CONNECTION_SERVERLESS
Nie można nawiązać połączenia z zdalną bazą <jdbcDialectName>
danych. Sprawdź informacje o połączeniu i poświadczenia, np. host, port, użytkownik, hasło i opcje bazy danych. ** Jeśli uważasz, że informacje są poprawne, zezwól na ruch przychodzący z Internetu do hosta, ponieważ używasz bezserwerowych obliczeń. Jeśli zasady sieciowe nie zezwalają na przychodzący ruch internetowy, użyj bezserwerowych obliczeń lub skontaktuj się z przedstawicielem usługi Databricks, aby dowiedzieć się więcej o bezserwerowej sieci prywatnej. ** Szczegółowy komunikat o błędzie: <causeErrorMessage>
.
CANNOT_INVOKE_IN_TRANSFORMATIONS
Przekształcenia i akcje zestawu danych mogą być wywoływane tylko przez sterownik, a nie wewnątrz innych przekształceń zestawu danych; na przykład element dataset1.map(x => dataset2.values.count() * x) jest nieprawidłowy, ponieważ nie można wykonać akcji przekształcania wartości i liczby w ramach przekształcenia dataset1.map. Aby uzyskać więcej informacji, zobacz SPARK-28702.
CANNOT_LOAD_FUNCTION_CLASS
Nie można załadować klasy <className>
podczas rejestrowania funkcji <functionName>
, upewnij się, że znajduje się ona na ścieżce klasy.
CANNOT_LOAD_PROTOBUF_CLASS
Nie można załadować klasy Protobuf o nazwie <protobufClassName>
. <explanation>
.
CANNOT_LOAD_STATE_STORE
Wystąpił błąd podczas ładowania.
Aby uzyskać więcej informacji, zobacz CANNOT_LOAD_STATE_STORE
CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE
Nie można scalić niezgodnych typów <left>
danych i <right>
. Sprawdź typy danych scalonych kolumn i upewnij się, że są one zgodne. W razie potrzeby rozważ rzutowanie kolumn do zgodnych typów danych przed podjęciem próby scalenia.
CANNOT_MERGE_SCHEMAS
Schematy scalania nie powiodły się:
Schemat początkowy:
<left>
Schemat, którego nie można scalić ze schematem początkowym:
<right>
.
CANNOT_MODIFY_CONFIG
Nie można zmodyfikować wartości konfiguracji platformy Spark: <key>
.
Zobacz też https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements" .
CANNOT_PARSE_DECIMAL
Nie można przeanalizować liczby dziesiętnej. Upewnij się, że dane wejściowe są prawidłową liczbą z opcjonalnymi separatorami dziesiętnymi lub przecinkami.
CANNOT_PARSE_INTERVAL
Nie można przeanalizować <intervalString>
. Upewnij się, że podana wartość jest w prawidłowym formacie definiowania interwału. Możesz odwołać się do dokumentacji dotyczącej poprawnego formatu. Jeśli problem będzie się powtarzać, sprawdź dokładnie, czy wartość wejściowa nie ma wartości null lub jest pusta i spróbuj ponownie.
CANNOT_PARSE_JSON_FIELD
Nie można przeanalizować nazwy <fieldName>
pola i wartości <fieldValue>
typu <jsonType>
tokenu JSON do docelowego typu <dataType>
danych platformy Spark.
CANNOT_PARSE_PROTOBUF_DESCRIPTOR
Błąd podczas analizowania bajtów deskryptora w pliku Protobuf FileDescriptorSet.
CANNOT_PARSE_TIMESTAMP
<message>
. W razie potrzeby ustaw <ansiConfig>
wartość "false", aby pominąć ten błąd.
CANNOT_QUERY_TABLE_DURING_INITIALIZATION
Podczas inicjowania nie można wykonywać zapytań dotyczących wzorca MV/ST.
Aby uzyskać więcej informacji, zobacz CANNOT_QUERY_TABLE_DURING_INITIALIZATION
CANNOT_READ_ARCHIVED_FILE
Nie można odczytać pliku w ścieżce <path>
, ponieważ został zarchiwizowany. Dostosuj filtry zapytań, aby wykluczyć zarchiwizowane pliki.
CANNOT_READ_FILE
Nie można odczytać <format>
pliku w ścieżce: <path>
.
Aby uzyskać więcej informacji, zobacz CANNOT_READ_FILE
CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER
Nie można odczytać klucza poufnego "<key>
" od bezpiecznego dostawcy.
CANNOT_RECOGNIZE_HIVE_TYPE
Nie można rozpoznać ciągu typu hive: <fieldType>
, kolumna: <fieldName>
. Określony typ danych dla pola nie może zostać rozpoznany przez usługę Spark SQL. Sprawdź typ danych określonego pola i upewnij się, że jest to prawidłowy typ danych Spark SQL. Zapoznaj się z dokumentacją platformy Spark SQL, aby uzyskać listę prawidłowych typów danych i ich format. Jeśli typ danych jest poprawny, upewnij się, że używasz obsługiwanej wersji usługi Spark SQL.
CANNOT_REFERENCE_UC_IN_HMS
Nie można odwołać się do wykazu <objType>
aparatu Unity w obiektach magazynu metadanych Hive.
CANNOT_RENAME_ACROSS_CATALOG
Zmiana nazwy <type>
między wykazami jest niedozwolona.
CANNOT_RENAME_ACROSS_SCHEMA
Zmiana nazwy <type>
między schematami jest niedozwolona.
CANNOT_RESOLVE_DATAFRAME_COLUMN
Nie można rozpoznać kolumny <name>
ramki danych . Prawdopodobnie wynika to z nielegalnych odwołań, takich jak df1.select(df2.col("a"))
.
CANNOT_RESOLVE_STAR_EXPAND
Nie można rozpoznać <targetString>
elementu .* podanej kolumny <columns>
wejściowej . Sprawdź, czy określona tabela lub struktura istnieje i jest dostępna w kolumnach wejściowych.
CANNOT_RESTORE_PERMISSIONS_FOR_PATH
Nie można ustawić uprawnień dla utworzonej ścieżki <path>
z powrotem do <permission>
.
CANNOT_SAVE_VARIANT
Nie można zapisać typu danych wariantu w magazynie zewnętrznym.
CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS
Nie można płytkich klonować tabel w wykazie aparatu Unity i magazynie metadanych Hive.
CANNOT_SHALLOW_CLONE_NESTED
Nie można płytkie klonowanie tabeli <table>
, która jest już płytkim klonem.
CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET
Płytkie klonowanie jest obsługiwane tylko dla typu tabeli MANAGED. Tabela <table>
nie jest tabelą ZARZĄDZANĄ.
CANNOT_UPDATE_FIELD
Nie można zaktualizować <table>
typu pola <fieldName>
:
Aby uzyskać więcej informacji, zobacz CANNOT_UPDATE_FIELD
CANNOT_UP_CAST_DATATYPE
Nie można rzutować <expression>
z <sourceType>
do <targetType>
.
<details>
CANNOT_VALIDATE_CONNECTION
Walidacja połączenia nie jest obsługiwana <jdbcDialectName>
. Skontaktuj się z pomocą techniczną usługi Databricks w przypadku alternatywnych rozwiązań lub ustaw wartość "spark.databricks.testConnectionBeforeCreation" na wartość "false", aby pominąć testowanie połączeń przed utworzeniem obiektu połączenia.
CANNOT_WRITE_STATE_STORE
Błąd podczas zapisywania plików magazynu stanów dla dostawcy <providerClass>
.
Aby uzyskać więcej informacji, zobacz CANNOT_WRITE_STATE_STORE
CAST_INVALID_INPUT
Nie można rzutować wartości <expression>
typu <sourceType>
na <targetType>
wartość , ponieważ jest źle sformułowana. Popraw wartość zgodnie ze składnią lub zmień jej typ docelowy. Użyj try_cast
polecenia , aby tolerować źle sformułowane dane wejściowe i zamiast tego zwracać wartość NULL.
Aby uzyskać więcej informacji, zobacz CAST_INVALID_INPUT
CAST_OVERFLOW
Nie można rzutować <targetType>
wartości <value>
typu <sourceType>
z powodu przepełnienia. Zamiast tego użyj polecenia try_cast
, aby tolerować przepełnienie i zwracać wartość NULL.
CAST_OVERFLOW_IN_TABLE_INSERT
Nie można przypisać wartości <sourceType>
typu do <targetType>
kolumny lub zmiennej <columnName>
typu z powodu przepełnienia. Użyj try_cast
wartości wejściowej, aby tolerować przepełnienie i zwracać wartość NULL.
CATALOG_NOT_FOUND
Nie można odnaleźć wykazu <catalogName>
. Rozważ ustawienie konfiguracji <config>
SQL na wtyczkę wykazu.
CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND
Nie można odnaleźć bloku <rddBlockId>
punktu kontrolnego!
Albo funkcja wykonawcza, która pierwotnie wskazuje tę partycję, nie jest już aktywna, albo oryginalny RDD jest niepersistowany.
Jeśli ten problem będzie się powtarzać, możesz rozważyć użycie zamiast rdd.checkpoint()
tego, co jest wolniejsze niż lokalne punkty kontrolne, ale bardziej odporne na błędy.
CLASS_NOT_OVERRIDE_EXPECTED_METHOD
<className>
musi zastąpić <method1>
wartość lub <method2>
.
CLASS_UNSUPPORTED_BY_MAP_OBJECTS
MapObjects
nie obsługuje klasy <cls>
jako wynikowej kolekcji.
CLEANROOM_COMMANDS_NOT_SUPPORTED
Polecenia clean room nie są obsługiwane
CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME
Nieprawidłowa <type>
nazwa odwołania do wewnątrz pokoju. <type>
Użyj nazwy 's wewnątrz czystego pokoju zgodnie z formatem [catalog].[ schema]. [<type>
].
Jeśli nie masz pewności, jakiej nazwy użyć, możesz uruchomić polecenie "SHOW ALL IN CLEANROOM [clean_room]" i użyć wartości w kolumnie "name".
CLOUD_FILE_SOURCE_FILE_NOT_FOUND
Odebrano powiadomienie o pliku: <filePath>
ale już nie istnieje. Upewnij się, że pliki nie są usuwane przed ich przetworzeniem. Aby kontynuować strumień, możesz ustawić konfigurację <config>
spark SQL na wartość true.
CLOUD_PROVIDER_ERROR
Błąd dostawcy usług w chmurze: <message>
CLUSTERING_COLUMNS_MISMATCH
Określone klastrowanie nie jest zgodne z istniejącą tabelą <tableName>
.
Określone kolumny klastrowania: [<specifiedClusteringString>
].
Istniejące kolumny klastrowania: [<existingClusteringString>
].
CLUSTERING_NOT_SUPPORTED
"<operation>
" nie obsługuje klastrowania.
CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED
Skontaktuj się z przedstawicielem usługi Databricks, aby włączyć funkcję cluster-by-auto.
CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED
Włącz klasteringTable.enableClusteringTableFeature, aby użyć funkcji CLUSTER BY AUTO.
CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION
FUNKCJA CLUSTER BY AUTO wymaga włączenia optymalizacji predykcyjnej.
CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR
FUNKCJA CLUSTER BY AUTO jest obsługiwana tylko w tabelach zarządzanych przez użytkownika.
CODEC_NOT_AVAILABLE
Koder koderowy <codecName>
jest niedostępny.
Aby uzyskać więcej informacji, zobacz CODEC_NOT_AVAILABLE
CODEC_SHORT_NAME_NOT_FOUND
Nie można odnaleźć krótkiej nazwy kodera.<codecName>
COLLATION_INVALID_NAME
Wartość <collationName>
nie reprezentuje poprawnej nazwy sortowania. Sugerowane prawidłowe nazwy sortowania: [<proposals>
].
COLLATION_INVALID_PROVIDER
Wartość <provider>
nie reprezentuje poprawnego dostawcy sortowania. Obsługiwani dostawcy to: [<supportedProviders>
].
COLLATION_MISMATCH
Nie można określić, które sortowanie ma być używane dla funkcji ciągów i operatorów.
Aby uzyskać więcej informacji, zobacz COLLATION_MISMATCH
COLLECTION_SIZE_LIMIT_EXCEEDED
Nie można utworzyć tablicy z elementami <numberOfElements>
przekraczającymi limit <maxRoundedArrayLength>
rozmiaru tablicy ,
Aby uzyskać więcej informacji, zobacz COLLECTION_SIZE_LIMIT_EXCEEDED
COLUMN_ALIASES_NOT_ALLOWED
Aliasy kolumn nie są dozwolone w pliku <op>
.
COLUMN_ALREADY_EXISTS
Kolumna <columnName>
już istnieje. Wybierz inną nazwę lub zmień nazwę istniejącej kolumny.
COLUMN_MASKS_CHECK_CONSTRAINT_UNSUPPORTED
Tworzenie ograniczenia CHECK w tabeli <tableName>
z zasadami maski kolumn nie jest obsługiwane.
COLUMN_MASKS_DUPLICATE_USING_COLUMN_NAME
Instrukcja <statementType>
próbowała przypisać zasady maski kolumn do kolumny zawierającej co najmniej dwie inne przywoływane kolumny na liście USING COLUMNS o tej samej nazwie <columnName>
, która jest nieprawidłowa.
COLUMN_MASKS_FEATURE_NOT_SUPPORTED
Zasady maskowania kolumn nie <tableName>
są obsługiwane:
Aby uzyskać więcej informacji, zobacz COLUMN_MASKS_FEATURE_NOT_SUPPORTED
COLUMN_MASKS_INCOMPATIBLE_SCHEMA_CHANGE
Nie można nawiązać z <statementType>
<columnName>
tabeli <tableName>
, ponieważ odwołuje się do niej zasady maski kolumn dla kolumny <maskedColumn>
. Właściciel tabeli musi usunąć lub zmienić te zasady przed kontynuowaniem.
COLUMN_MASKS_MERGE_UNSUPPORTED_SOURCE
Operacje MERGE INTO nie obsługują zasad maski kolumn w tabeli źródłowej <tableName>
.
COLUMN_MASKS_MERGE_UNSUPPORTED_TARGET
Operacje MERGE INTO nie obsługują zapisywania w tabeli <tableName>
z zasadami maski kolumn.
COLUMN_MASKS_MULTI_PART_TARGET_COLUMN_NAME
Ta instrukcja próbowała przypisać zasady maski kolumn do kolumny <columnName>
z wieloma częściami nazw, co jest nieprawidłowe.
COLUMN_MASKS_MULTI_PART_USING_COLUMN_NAME
Ta instrukcja próbowała przypisać zasady maski kolumn do kolumny, a lista USING COLUMNS zawierała nazwę <columnName>
z wieloma częściami nazw, co jest nieprawidłowe.
COLUMN_MASKS_NOT_ENABLED
Obsługa definiowania masek kolumn nie jest włączona
COLUMN_MASKS_REQUIRE_UNITY_CATALOG
Zasady maski kolumn są obsługiwane tylko w wykazie aparatu Unity.
COLUMN_MASKS_TABLE_CLONE_SOURCE_NOT_SUPPORTED
<mode>
klonowanie z tabeli <tableName>
z zasadami maski kolumn nie jest obsługiwane.
COLUMN_MASKS_TABLE_CLONE_TARGET_NOT_SUPPORTED
<mode>
klonowanie do tabeli <tableName>
z zasadami maski kolumn nie jest obsługiwane.
COLUMN_MASKS_UNSUPPORTED_CONSTANT_AS_PARAMETER
Używanie stałej jako parametru w zasadach maski kolumn nie jest obsługiwane. Zaktualizuj polecenie SQL, aby usunąć stałą z definicji maski kolumny, a następnie ponów próbę polecenia.
COLUMN_MASKS_UNSUPPORTED_PROVIDER
Nie można wykonać <statementType>
polecenia, ponieważ przypisywanie zasad maski kolumn nie jest obsługiwane dla docelowego źródła danych z dostawcą tabel: "<provider>
".
COLUMN_MASKS_UNSUPPORTED_SUBQUERY
Nie można wykonać operacji <operation>
dla tabeli <tableName>
, ponieważ zawiera co najmniej jedną zasady maski kolumn z wyrażeniami podzapytania, które nie są jeszcze obsługiwane. Aby kontynuować, skontaktuj się z właścicielem tabeli, aby zaktualizować zasady maski kolumn.
COLUMN_MASKS_USING_COLUMN_NAME_SAME_AS_TARGET_COLUMN
Kolumna miała taką samą nazwę jak kolumna <columnName>
docelowa, która jest nieprawidłowa. Usuń kolumnę z listy USING COLUMNS i spróbuj ponownie wykonać polecenie.
COLUMN_NOT_DEFINED_IN_TABLE
<colType>
kolumna <colName>
nie jest zdefiniowana w tabeli <tableName>
, zdefiniowane kolumny tabeli to: <tableCols>
.
COLUMN_NOT_FOUND
Nie można odnaleźć kolumny <colName>
. Sprawdź pisownię i poprawność nazwy kolumny zgodnie z konfiguracją <caseSensitiveConfig>
SQL .
COMMA_PRECEDING_CONSTRAINT_ERROR
Nieoczekiwana definicja "", przed ograniczeniem. Upewnij się, że klauzula ograniczenia nie rozpoczyna się od przecinka, gdy kolumny (i oczekiwania) nie są zdefiniowane.
COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET
Polecenie KOMENTARZ NA TEMAT POŁĄCZENIA nie zostało jeszcze zaimplementowane
COMPARATOR_RETURNS_NULL
Komparator zwrócił wartość NULL dla porównania między wartościami <firstValue>
i <secondValue>
.
Powinna zwracać dodatnią liczbę całkowitą dla wartości "większe niż", 0 dla wartości "equal" i ujemną liczbę całkowitą dla wartości "less than".
Aby przywrócić przestarzałe zachowanie, w którym wartość NULL jest traktowana jako 0 (równa), należy ustawić wartość "spark.sql.legacy.allowNullComparisonResultInArraySort" na wartość "true".
COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
Nie można przetworzyć typów danych wejściowych dla wyrażenia: <expression>
.
Aby uzyskać więcej informacji, zobacz COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
CONCURRENT_QUERY
Inne wystąpienie tego zapytania [id: <queryId>
] zostało właśnie uruchomione przez sesję współbieżną [istniejący identyfikator runId: <existingQueryRunId>
nowy identyfikator runId: <newQueryRunId>
].
CONCURRENT_STREAM_LOG_UPDATE
Równoczesna aktualizacja dziennika. Wykryto wiele zadań przesyłania strumieniowego dla programu <batchId>
.
Upewnij się, że tylko jedno zadanie przesyłania strumieniowego jest uruchamiane w określonej lokalizacji punktu kontrolnego w danym momencie.
CONFIG_NOT_AVAILABLE
Konfiguracja <config>
jest niedostępna.
CONFLICTING_PARTITION_COLUMN_NAMES
Wykryto nazwy kolumn partycji powodujące konflikt:
<distinctPartColLists>
W przypadku katalogów tabel podzielonych na partycje pliki danych powinny być przechowywane tylko w katalogach liści.
Katalogi na tym samym poziomie powinny mieć taką samą nazwę kolumny partycji.
Sprawdź następujące katalogi pod kątem nieoczekiwanych plików lub niespójnych nazw kolumn partycji:
<suspiciousPaths>
CONFLICTING_PROVIDER
Określony dostawca <provider>
jest niespójny z istniejącym dostawcą <expectedProvider>
wykazu . Użyj polecenia "USING <expectedProvider>
" i spróbuj ponownie wykonać polecenie.
POŁĄCZYĆ
Ogólny błąd programu Spark Connect.
Aby uzyskać więcej informacji, zobacz CONNECT
CONNECTION_ALREADY_EXISTS
Nie można utworzyć połączenia <connectionName>
, ponieważ już istnieje.
Wybierz inną nazwę, upuść lub zastąp istniejące połączenie albo dodaj klauzulę IF NOT EXISTS, aby tolerować istniejące połączenia.
CONNECTION_NAME_CANNOT_BE_EMPTY
Nie można wykonać tego polecenia, ponieważ nazwa połączenia musi być niepusta.
CONNECTION_NOT_FOUND
Nie można wykonać tego polecenia, ponieważ nie można odnaleźć nazwy <connectionName>
połączenia.
CONNECTION_OPTION_NOT_SUPPORTED
Połączenia typu "<connectionType>
" nie obsługują następujących opcji: <optionsNotSupported>
. Obsługiwane opcje: <allowedOptions>
.
CONNECTION_TYPE_NOT_SUPPORTED
Nie można utworzyć połączenia typu "<connectionType>
. Obsługiwane typy połączeń: <allowedTypes>
.
CONSTRAINTS_REQUIRE_UNITY_CATALOG
Ograniczenia tabel są obsługiwane tylko w wykazie aparatu Unity.
CONVERSION_INVALID_INPUT
Nie można przekonwertować wartości <str>
(<fmt>
) na <targetType>
, ponieważ jest ona źle sformułowana. Popraw wartość zgodnie ze składnią lub zmień jej format. Użyj <suggestion>
polecenia , aby tolerować źle sformułowane dane wejściowe i zamiast tego zwracać wartość NULL.
COPY_INTO_COLUMN_ARITY_MISMATCH
Nie można zapisać w pliku <tableName>
, przyczyną jest
Aby uzyskać więcej informacji, zobacz COPY_INTO_COLUMN_ARITY_MISMATCH
COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON
Nieprawidłowy schemat <scheme>
. Funkcja COPY INTO poświadczeń źródłowych obecnie obsługuje tylko s3/s3n/s3a/wasbs/abfss.
COPY_INTO_CREDENTIALS_REQUIRED
SKOPIUJ DO poświadczeń źródłowych musi określać wartość <keyList>
.
COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED
Zduplikowane pliki zostały zatwierdzone w równoczesnej operacji COPY INTO. Spróbuj ponownie później.
COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON
Nieprawidłowy schemat <scheme>
. Szyfrowanie COPY INTO źródła obsługuje obecnie tylko s3/s3n/s3a/abfss.
COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE
Szyfrowanie COPY INTO obsługuje tylko usługę ADLS Gen2 lub schemat plików abfss://
COPY_INTO_ENCRYPTION_REQUIRED
SKOPIUJ DO szyfrowania źródłowego musi określać wartość "<key>
".
COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED
Nieprawidłowa opcja <requiredKey>
szyfrowania . FUNKCJA COPY INTO source encryption musi określać '<requiredKey>
' = '<keyValue>
'.
COPY_INTO_FEATURE_INCOMPATIBLE_SETTING
Funkcja COPY INTO "<feature>
" nie jest zgodna z elementem "<incompatibleSetting>
".
COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED
FUNKCJA COPY INTO inna niż dołączanie danych nie może być uruchamiana współbieżnie z innymi transakcjami. Spróbuj ponownie później.
COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED
Nie można załadować stanu FUNKCJI COPY INTO, przekroczono maksymalną liczbę ponownych prób.
COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE
Podczas kopiowania do tabeli delty wykryto niezgodność schematu (Tabela: <table>
).
Może to wskazywać na problem z danymi przychodzącymi lub schemat tabeli delty może być automatycznie ewoluowany zgodnie z przychodzącymi danymi przez ustawienie:
COPY_OPTIONS ('mergeSchema' = 'true')
Różnica schematu:
<schemaDiff>
COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED
Format plików źródłowych musi być jednym z plików CSV, JSON, AVRO, ORC, PARQUET, TEXT lub BINARYFILE. Używanie funkcji COPY INTO w tabelach delty, ponieważ źródło nie jest obsługiwane, ponieważ zduplikowane dane mogą być pozyskiwane po operacjach OPTIMIZE. Tę kontrolę można wyłączyć, uruchamiając polecenie set spark.databricks.delta.copyInto.formatCheck.enabled = false
SQL .
COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED
Katalog źródłowy nie zawiera żadnych plików możliwych do przeanalizowaności typu <format>
. Sprawdź zawartość elementu "<source>
".
Błąd można wyciszyć, ustawiając wartość "<config>
" na "false".
COPY_INTO_STATE_INTERNAL_ERROR
Wystąpił błąd wewnętrzny podczas przetwarzania stanu COPY INTO.
Aby uzyskać więcej informacji, zobacz COPY_INTO_STATE_INTERNAL_ERROR
COPY_INTO_SYNTAX_ERROR
Nie można przeanalizować polecenia COPY INTO.
Aby uzyskać więcej informacji, zobacz COPY_INTO_SYNTAX_ERROR
COPY_INTO_UNSUPPORTED_FEATURE
Funkcja COPY INTO "<feature>
" nie jest obsługiwana.
COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED
Nie można zwolnić danych w formacie "<formatType>
". Obsługiwane formaty to <connectionType>
: <allowedFormats>
.
CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET
Polecenie CREATE FOREIGN SCHEMA nie zostało jeszcze zaimplementowane
CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET
Polecenie CREATE FOREIGN TABLE nie zostało jeszcze zaimplementowane
CREATE_OR_REFRESH_MV_ST_ASYNC
Nie można utworzyć ani odświeżyć zmaterializowanych widoków ani tabel przesyłania strumieniowego z określoną funkcją ASYNC. Usuń ASYNC z instrukcji CREATE LUB REFRESH lub użyj polecenia REFRESH ASYNC, aby odświeżyć istniejące zmaterializowane widoki lub tabele przesyłania strumieniowego asynchronicznie.
CREATE_PERMANENT_VIEW_WITHOUT_ALIAS
Nie można utworzyć widoku <name>
trwałego bez jawnego przypisania aliasu dla wyrażenia <attr>
.
CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
Kolumna <columnName>
CREATE TABLE określa deskryptor "<optionName>
" więcej niż raz, co jest nieprawidłowe.
CREATE_VIEW_COLUMN_ARITY_MISMATCH
Nie można utworzyć widoku <viewName>
, przyczyną jest
Aby uzyskać więcej informacji, zobacz CREATE_VIEW_COLUMN_ARITY_MISMATCH
CREDENTIAL_MISSING
Podaj poświadczenia podczas tworzenia lub aktualizowania lokalizacji zewnętrznych.
CSV_ENFORCE_SCHEMA_NOT_SUPPORTED
Nie można ustawić opcji enforceSchema
CSV w przypadku używania lub rescuedDataColumn
failOnUnknownFields
, ponieważ kolumny są odczytywane według nazwy, a nie porządkowe.
CYCLIC_FUNCTION_REFERENCE
Wykryto odwołanie do funkcji cyklicznej: <path>
.
DATABRICKS_DELTA_NOT_ENABLED
Funkcja delta usługi Databricks nie jest włączona na Twoim koncie.<hints>
DATATYPE_MISMATCH
Nie można rozpoznać <sqlExpr>
z powodu niezgodności typów danych:
Aby uzyskać więcej informacji, zobacz DATATYPE_MISMATCH
DATATYPE_MISSING_SIZE
<type>
Typ danych wymaga parametru długości, na przykład <type>
(10). Określ długość.
DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION
Niepowodzenie zapisu pochodzenia: brakuje odpowiedniej relacji z zasadami dla zabezpieczeń CLM/RLS.
DATA_SOURCE_ALREADY_EXISTS
Źródło danych "<provider>
" już istnieje. Wybierz inną nazwę nowego źródła danych.
DATA_SOURCE_EXTERNAL_ERROR
Napotkano błąd podczas zapisywania w zewnętrznym źródle danych.
DATA_SOURCE_NOT_EXIST
Nie można odnaleźć źródła danych "<provider>
". Upewnij się, że źródło danych jest zarejestrowane.
DATA_SOURCE_NOT_FOUND
Nie można odnaleźć źródła danych: <provider>
. Upewnij się, że nazwa dostawcy jest poprawna, a pakiet jest poprawnie zarejestrowany i zgodny z wersją platformy Spark.
DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS
Opcja <option>
nie może być pusta i nie powinna zawierać nieprawidłowych znaków, ciągów zapytania ani parametrów.
DATA_SOURCE_OPTION_IS_REQUIRED
Wymagana jest opcja <option>
.
DATA_SOURCE_TABLE_SCHEMA_MISMATCH
Schemat tabeli źródła danych nie jest zgodny z oczekiwanym schematem. Jeśli używasz interfejsu API DataFrameReader.schema lub tworzenia tabeli, unikaj określania schematu.
Schemat źródła danych: <dsSchema>
Oczekiwany schemat: <expectedSchema>
DATA_SOURCE_URL_NOT_ALLOWED
Adres URL JDBC nie jest dozwolony w opcjach źródła danych, określ opcje "host", "port" i "baza danych".
DATETIME_OVERFLOW
Przepełnienie operacji daty/godziny: <operation>
.
DC_API_QUOTA_EXCEEDED
Przekroczono limit przydziału interfejsu API dla źródła <sourceName>
danych .
Aby uzyskać więcej informacji, zobacz DC_API_QUOTA_EXCEEDED
DC_CONNECTION_ERROR
Nie można nawiązać połączenia ze <sourceName>
źródłem. Kod błędu: <errorCode>
.
Aby uzyskać więcej informacji, zobacz DC_CONNECTION_ERROR
DC_DYNAMICS_API_ERROR
Wystąpił błąd w wywołaniach interfejsu API usługi Dynamics, errorCode: <errorCode>
.
Aby uzyskać więcej informacji, zobacz DC_DYNAMICS_API_ERROR
DC_NETSUITE_ERROR
Wystąpił błąd w wywołaniach JDBC netsuite, errorCode: <errorCode>
.
Aby uzyskać więcej informacji, zobacz DC_NETSUITE_ERROR
DC_SCHEMA_CHANGE_ERROR
SQLSTATE: brak przypisanej
W tabeli <tableName>
źródła wystąpiła zmiana schematu <sourceName>
.
Aby uzyskać więcej informacji, zobacz DC_SCHEMA_CHANGE_ERROR
DC_SERVICENOW_API_ERROR
Wystąpił błąd w wywołaniach interfejsu API usługi ServiceNow, errorCode: <errorCode>
.
Aby uzyskać więcej informacji, zobacz DC_SERVICENOW_API_ERROR
DC_SFDC_BULK_QUERY_JOB_INCOMPLETE
Pozyskiwanie obiektu <objName>
jest niekompletne, ponieważ zadanie zapytania interfejsu API usługi Salesforce trwało zbyt długo, nie powiodło się lub zostało anulowane ręcznie.
Aby ponowić próbę, możesz ponownie uruchomić cały potok lub odświeżyć tę konkretną tabelę docelową. Jeśli błąd będzie się powtarzać, utwórz bilet. Identyfikator zadania: <jobId>
. Stan zadania: <jobStatus>
.
DC_SHAREPOINT_API_ERROR
Wystąpił błąd w wywołaniach interfejsu API programu SharePoint, errorCode: <errorCode>
.
Aby uzyskać więcej informacji, zobacz DC_SHAREPOINT_API_ERROR
DC_SOURCE_API_ERROR
Wystąpił błąd w wywołaniu interfejsu <sourceName>
API. Typ źródłowego interfejsu API: <apiType>
. Kod błędu: <errorCode>
.
Czasami może się to zdarzyć, gdy osiągnięto limit interfejsu <sourceName>
API. Jeśli limit interfejsu API nie został przekroczony, spróbuj ponownie uruchomić łącznik. Jeśli problem będzie się powtarzać, utwórz bilet.
DC_UNSUPPORTED_ERROR
W źródle <sourceName>
danych wystąpił nieobsługiwany błąd .
Aby uzyskać więcej informacji, zobacz DC_UNSUPPORTED_ERROR
DC_WORKDAY_RAAS_API_ERROR
Wystąpił błąd w wywołaniach interfejsu API RAAS produktu Workday, errorCode: <errorCode>
.
Aby uzyskać więcej informacji, zobacz DC_WORKDAY_RAAS_API_ERROR
DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION
Precyzja <precision>
dziesiętna przekracza maksymalną precyzję <maxPrecision>
.
DEFAULT_DATABASE_NOT_EXISTS
Domyślna baza danych <defaultDatabase>
nie istnieje. Utwórz ją najpierw lub zmień domyślną bazę danych na <defaultDatabase>
.
DEFAULT_FILE_NOT_FOUND
Możliwe, że pliki bazowe zostały zaktualizowane. Możesz jawnie unieważnić pamięć podręczną na platformie Spark, uruchamiając polecenie "REFRESH TABLE tableName" w języku SQL lub ponownie tworząc zaangażowany zestaw danych/ramkę danych. Jeśli pamięć podręczna dysku jest nieaktualna lub pliki bazowe zostały usunięte, możesz ręcznie unieważnić pamięć podręczną dysku, uruchamiając ponownie klaster.
DEFAULT_PLACEMENT_INVALID
Nie można bezpośrednio przypisać słowa kluczowego DEFAULT w poleceniu MERGE, INSERT, UPDATE lub SET VARIABLE do kolumny docelowej, ponieważ była częścią wyrażenia.
Na przykład: UPDATE SET c1 = DEFAULT
jest dozwolona, ale UPDATE T SET c1 = DEFAULT + 1
nie jest dozwolona.
DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE
Zapytanie przesyłane strumieniowo odczytywało nieoczekiwaną tabelę delty (id = '<newTableId>
').
Użyto go do odczytu z innej tabeli delty (id = '<oldTableId>
') zgodnie z punktem kontrolnym.
Może się tak zdarzyć, gdy zmieniono kod w celu odczytu z nowej tabeli lub usunięto polecenie i
ponownie utworzono tabelę. Przywróć zmianę lub usuń punkt kontrolny zapytania przesyłania strumieniowego
aby ponownie uruchomić od podstaw.
DISTINCT_WINDOW_FUNCTION_UNSUPPORTED
Różne funkcje okien nie są obsługiwane: <windowExpr>
.
DIVIDE_BY_ZERO
Dzielenie przez zero. Użyj try_divide
polecenia , aby tolerować dzielność 0 i zwracać wartość NULL zamiast tego. W razie potrzeby ustaw <config>
wartość "false", aby pominąć ten błąd.
Aby uzyskać więcej informacji, zobacz DIVIDE_BY_ZERO
DLT_EXPECTATIONS_NOT_SUPPORTED
Oczekiwania są obsługiwane tylko w potoku tabel na żywo delty.
DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED
MATERIALIZED VIEWs with a CLUSTER BY clause are supported only in a Delta Live Tables pipeline (ZMATERIALIZOWANE VIEWs z klauzulą CLUSTER BY) są obsługiwane tylko w potoku Delta Live Tables.
DLT_VIEW_LOCATION_NOT_SUPPORTED
ZMATERIALIZOWANE lokalizacje WIDOKU są obsługiwane tylko w potoku Tabele na żywo delty.
DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED
Zmaterializowane schematy WIDOKU z określonym typem są obsługiwane tylko w potoku delta live tables.
DLT_VIEW_TABLE_CONSTRAINTS_NOT_SUPPORTED
Klauzule CONSTRAINT w widoku są obsługiwane tylko w potoku delta live tables.
DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT
Zduplikowane nazwy pól w struktury strzałki są niedozwolone, ale .<fieldNames>
DUPLICATED_MAP_KEY
Znaleziono zduplikowany klucz <key>
mapy. Sprawdź dane wejściowe.
Jeśli chcesz usunąć zduplikowane klucze, możesz ustawić wartość <mapKeyDedupPolicy>
"LAST_WIN", aby klucz wstawiony w końcu był pierwszeństwem.
DUPLICATED_METRICS_NAME
Nazwa metryki nie jest unikatowa: <metricName>
. Nie można używać tej samej nazwy dla metryk z różnymi wynikami.
Jednak wiele wystąpień metryk z tym samym wynikiem i nazwą jest dozwolonych (np. samosprzężeń).
DUPLICATE_ASSIGNMENTS
Kolumny lub zmienne <nameList>
są wyświetlane więcej niż raz jako obiekty docelowe przypisania.
DUPLICATE_CLAUSES
Znaleziono zduplikowane klauzule: <clauseName>
. Usuń jeden z nich.
DUPLICATE_KEY
Znaleziono zduplikowane klucze <keyColumn>
.
DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
Wywołanie procedury <functionName>
jest nieprawidłowe, ponieważ zawiera wiele przypisań argumentów do tej samej nazwy <parameterName>
parametru .
Aby uzyskać więcej informacji, zobacz DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
DUPLICATE_ROUTINE_PARAMETER_NAMES
Znaleziono zduplikowane nazwy na liście parametrów procedury <routineName>
zdefiniowanej przez użytkownika: <names>
.
DUPLICATE_ROUTINE_RETURNS_COLUMNS
Znaleziono zduplikowane kolumny na liście kolumn klauzuli RETURNS procedury zdefiniowanej przez <routineName>
użytkownika: <columns>
.
EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED
Poprzedni węzeł emitował wiersz z zdarzeniemTime=<emittedRowEventTime>
starszym niż current_watermark_value=<currentWatermark>
Może to prowadzić do problemów z poprawnością w operatorach stanowych podrzędnych w potoku wykonywania.
Popraw logikę operatora, aby emitować wiersze po bieżącej globalnej wartości limitu.
EMPTY_JSON_FIELD_VALUE
Nie można przeanalizować pustego ciągu dla typu <dataType>
danych .
EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY
Pusty plik lokalny w zapytaniu przejściowym <operation>
ENCODER_NOT_FOUND
Nie znaleziono kodera typu <typeName>
do wewnętrznej reprezentacji spark SQL.
Rozważ zmianę typu danych wejściowych na jeden z obsługiwanych pod adresem "<docroot>
/sql-ref-datatypes.html".
END_LABEL_WITHOUT_BEGIN_LABEL
Etykieta <endLabel>
końcowa nie może istnieć bez etykiety rozpoczęcia.
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW
Niektóre partycje w raporcie platformy Kafka dostępne przesunięcie, które jest mniejsze niż przesunięcie końcowe podczas uruchamiania zapytania z wyzwalaczem Trigger.AvailableNow. Błąd może być przejściowy — uruchom ponownie zapytanie i zgłoś, jeśli nadal widzisz ten sam problem.
najnowsze przesunięcie: <latestOffset>
, przesunięcie końcowe: <endOffset>
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED
W przypadku źródła danych platformy Kafka z elementem Trigger.AvailableNow przesunięcie końcowe powinno mieć mniejsze lub równe przesunięcie na każdą partycję tematu niż wstępnie pobrane przesunięcie. Błąd może być przejściowy — uruchom ponownie zapytanie i zgłoś, jeśli nadal widzisz ten sam problem.
przesunięcie wstępne: <prefetchedOffset>
, przesunięcie końcowe: <endOffset>
.
ERROR_READING_AVRO_UNKNOWN_FINGERPRINT
Błąd podczas odczytywania danych avro — napotkano nieznany odcisk palca: <fingerprint>
, nie ma pewności, jakiego schematu użyć.
Może się tak zdarzyć, jeśli po uruchomieniu kontekstu platformy Spark zarejestrowano dodatkowe schematy.
EVENT_LOG_REQUIRES_SHARED_COMPUTE
Nie można wysyłać zapytań dotyczących dzienników zdarzeń z klastra przypisanego lub bez udostępnionej izolacji. Zamiast tego użyj udostępnionego klastra lub magazynu SQL usługi Databricks.
EVENT_LOG_UNAVAILABLE
Brak dzienników zdarzeń dostępnych dla programu <tableOrPipeline>
. Spróbuj ponownie później po wygenerowaniu zdarzeń
EVENT_LOG_UNSUPPORTED_TABLE_TYPE
Typ <tableIdentifier>
tabeli to <tableType>
.
Wykonywanie zapytań dotyczących dzienników zdarzeń obsługuje tylko zmaterializowane widoki, tabele przesyłania strumieniowego lub potoki tabel delta Live Tables
EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE
Czas <eventName>
zdarzenia ma nieprawidłowy typ <eventType>
, ale oczekiwano "TIMESTAMP
".
EXCEED_LIMIT_LENGTH
Przekracza ograniczenie długości typu char/varchar: <limit>
.
EXCEPT_NESTED_COLUMN_INVALID_TYPE
Z wyjątkiem kolumny <columnName>
została rozwiązana i oczekiwano, że ma być StructType, ale znaleziono typ <dataType>
.
EXCEPT_OVERLAPPING_COLUMNS
Kolumny na liście z wyjątkiem muszą być odrębne i nienakładające się, ale mają wartość (<columns>
).
EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH
Usunięto kolumny z wyjątkiem [<exceptColumns>
], ale nie są zgodne z żadną kolumną [<expandedColumns>
] z rozszerzenia gwiazdki.
EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION
Nie można rozpoznać nazwy <objectName>
kolumny/pola w klauzuli EXCEPT. Czy chodziło o jedną z następujących czynności: [<objectList>
]?
Uwaga: kolumny zagnieżdżone w klauzuli EXCEPT mogą nie zawierać kwalifikatorów (nazwa tabeli, nazwa kolumny struktury nadrzędnej itp.) podczas rozszerzania struktury; spróbuj usunąć kwalifikatory, jeśli są używane z kolumnami zagnieżdżonym.
EXECUTOR_BROADCAST_JOIN_OOM
Za mało pamięci, aby skompilować relację emisji <relationClassName>
. Rozmiar relacji = <relationSize>
. Całkowita ilość pamięci używanej przez to zadanie = <taskMemoryUsage>
. Metryki menedżera pamięci funkcji wykonawczej: onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>
, offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>
, onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>
, offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>
. [sparkPlanId: <sparkPlanId>
]
EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES
Klauzula USING tego polecenia EXECUTE IMMEDIATE zawierała wiele argumentów z tym samym aliasem (<aliases>
), który jest nieprawidłowy. Zaktualizuj polecenie, aby określić unikatowe aliasy, a następnie spróbuj ponownie.
EXPECT_PERMANENT_VIEW_NOT_TEMP
Element "<operation>
" oczekuje stałego widoku, ale <viewName>
jest widokiem tymczasowym.
EXPECT_TABLE_NOT_VIEW
Element "<operation>
" oczekuje tabeli, ale <viewName>
jest widokiem.
Aby uzyskać więcej informacji, zobacz EXPECT_TABLE_NOT_VIEW
EXPECT_VIEW_NOT_TABLE
Tabela <tableName>
nie obsługuje <operation>
.
Aby uzyskać więcej informacji, zobacz EXPECT_VIEW_NOT_TABLE
EXPRESSION_DECODING_FAILED
Nie można zdekodować wiersza do wartości wyrażeń: <expressions>
.
EXPRESSION_ENCODING_FAILED
Nie można zakodować wartości wyrażeń: <expressions>
do wiersza.
EXPRESSION_TYPE_IS_NOT_ORDERABLE
Nie można sortować wyrażenia <expr>
kolumny, ponieważ jego typ <exprType>
nie jest uporządkowany.
EXTERNAL_TABLE_INVALID_SCHEME
Tabele zewnętrzne nie obsługują schematu <scheme>
.
FABRIC_REFRESH_INVALID_SCOPE
Błąd podczas uruchamiania polecenia "REFRESH FOREIGN <scope>
<name>
". Nie można bezpośrednio odświeżyć sieci szkieletowej <scope>
, użyj polecenia "ODŚWIEŻ KATALOG <catalogName>
OBCY", aby odświeżyć katalog sieci szkieletowej.
FAILED_EXECUTE_UDF
Funkcja zdefiniowana przez użytkownika (: (<functionName>
<signature>
) =><result>
) nie powiodła się z powodu: <reason>
.
FAILED_FUNCTION_CALL
Nie można przygotować funkcji <funcName>
do wywołania. Sprawdź dokładnie argumenty funkcji.
FAILED_JDBC
Niepowodzenie JDBC <url>
w operacji:
Aby uzyskać więcej informacji, zobacz FAILED_JDBC
FAILED_PARSE_STRUCT_TYPE
Nie można przeanalizować struktury: <raw>
.
FAILED_READ_FILE
Błąd podczas odczytywania pliku <path>
.
Aby uzyskać więcej informacji, zobacz FAILED_READ_FILE
FAILED_REGISTER_CLASS_WITH_KRYO
Nie można zarejestrować klas w kryo.
FAILED_RENAME_PATH
Nie można zmienić nazwy <sourcePath>
na jako <targetPath>
miejsce docelowe już istnieje.
FAILED_RENAME_TEMP_FILE
Nie można zmienić nazwy pliku <srcPath>
tymczasowego na <dstPath>
, ponieważ nazwa FileSystem.rename zwróciła wartość false.
FAILED_ROW_TO_JSON
Nie można przekonwertować wartości <value>
wiersza klasy <class>
na docelowy typ <sqlType>
SQL w formacie JSON.
FAILED_TO_PARSE_TOO_COMPLEX
Instrukcja, w tym potencjalne funkcje SQL i przywoływały widoki, była zbyt złożona, aby przeanalizować.
Aby wyeliminować ten błąd, podziel instrukcję na wiele, mniej złożonych fragmentów.
FEATURE_NOT_ENABLED
Funkcja <featureName>
nie jest włączona. Rozważ ustawienie konfiguracji <configKey>
, aby <configValue>
włączyć tę funkcję.
FEATURE_NOT_ON_CLASSIC_WAREHOUSE
<feature>
nie jest obsługiwany w klasycznych magazynach SQL. Aby użyć tej funkcji, użyj usługi SQL Warehouse pro lub bezserwerowej. Aby dowiedzieć się więcej o typach magazynu, zobacz <docLink>
FEATURE_REQUIRES_UC
<feature>
nie jest obsługiwany bez wykazu aparatu Unity. Aby użyć tej funkcji, włącz katalog aparatu Unity. Aby dowiedzieć się więcej o wykazie aparatu Unity, zobacz <docLink>
FEATURE_UNAVAILABLE
<feature>
program nie jest obsługiwany w danym środowisku. Aby użyć tej funkcji, skontaktuj się z pomocą techniczną usługi Databricks.
FIELD_ALREADY_EXISTS
Nie można <op>
w kolumnie, ponieważ <fieldNames>
już istnieje w pliku <struct>
.
FIELD_NOT_FOUND
Nie ma takiego pola struktury w elemecie <fieldName>
<fields>
.
FILE_IN_STAGING_PATH_ALREADY_EXISTS
Plik w ścieżce <path>
przejściowej już istnieje, ale funkcja OVERWRITE nie jest ustawiona
FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR
Wystąpił błąd w funkcji udostępnionej przez użytkownika w flatMapGroupsWithState. Powód: <reason>
FORBIDDEN_OPERATION
Operacja <statement>
nie jest dozwolona w pliku <objectType>
: <objectName>
.
FOREACH_BATCH_USER_FUNCTION_ERROR
Wystąpił błąd w funkcji podanej przez użytkownika w ujściu partii foreach. Powód: <reason>
FOREACH_USER_FUNCTION_ERROR
Wystąpił błąd w funkcji podanej przez użytkownika w ujściu foreach. Powód: <reason>
FOREIGN_KEY_MISMATCH
Kolumny nadrzędne <parentColumns>
klucza obcego nie są zgodne z kolumnami <childColumns>
podrzędnymi klucza podstawowego.
FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY
Nie można wykonać tego polecenia, ponieważ nazwa obca <objectType>
musi być niepusta.
FOUND_MULTIPLE_DATA_SOURCES
Wykryto wiele źródeł danych o nazwie "<provider>
". Sprawdź, czy źródło danych nie jest jednocześnie zarejestrowane i znajduje się w ścieżce klasy.
FROM_JSON_CONFLICTING_SCHEMA_UPDATES
from_json wnioskowanie napotkało sprzeczne aktualizacje schematu w: <location>
FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA
from_json znaleziona kolumnaNameOfCorruptRecord (<columnNameOfCorruptRecord>
)
w obiekcie JSON i nie można już kontynuować. Skonfiguruj inną wartość dla
opcja "columnNameOfCorruptRecord".
FROM_JSON_CORRUPT_SCHEMA
from_json wnioskowanie nie może odczytać schematu przechowywanego w: <location>
FROM_JSON_INFERENCE_FAILED
from_json nie można wywnioskować schematu. Podaj zamiast tego jeden.
FROM_JSON_INFERENCE_NOT_SUPPORTED
wnioskowanie from_json jest obsługiwane tylko podczas definiowania tabel przesyłania strumieniowego
FROM_JSON_INVALID_CONFIGURATION
konfiguracja from_json jest nieprawidłowa:
Aby uzyskać więcej informacji, zobacz FROM_JSON_INVALID_CONFIGURATION
FROM_JSON_SCHEMA_EVOLUTION_FAILED
from_json nie może ewoluować z <old>
<new>
FUNCTION_PARAMETERS_MUST_BE_NAMED
Funkcja <function>
wymaga nazwanych parametrów. Brak parametrów: <exprs>
. Zaktualizuj wywołanie funkcji, aby dodać nazwy wszystkich parametrów, np <function>
. (param_name => ...).
GENERATED_COLUMN_WITH_DEFAULT_VALUE
Kolumna nie może mieć zarówno wartości domyślnej, jak i wyrażenia generacji, ale kolumna <colName>
ma wartość domyślną: (<defaultValue>
) i wyrażenie generacji: (<genExpr>
).
GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION
Wersje Hive 2.2 i starsze nie obsługują funkcji getTablesByType. Użyj programu Hive w wersji 2.3 lub nowszej.
GET_WARMUP_TRACING_FAILED
Nie można pobrać śledzenia rozgrzewki. Przyczyna: <cause>
.
GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED
Niedozwolona funkcja get_warmup_tracing().
GRAPHITE_SINK_INVALID_PROTOCOL
Nieprawidłowy protokół Graphite: <protocol>
.
GRAPHITE_SINK_PROPERTY_MISSING
Ujście grafity wymaga właściwości "<property>
".
GROUPING_COLUMN_MISMATCH
Nie można odnaleźć kolumny grupowania (<grouping>
) w kolumnach <groupingColumns>
grupowania.
GROUPING_ID_COLUMN_MISMATCH
Kolumny grouping_id (<groupingIdColumn>
) nie są zgodne z kolumnami grupowania (<groupByColumns>
).
GROUPING_SIZE_LIMIT_EXCEEDED
Rozmiar zestawów grupowania nie może być większy niż <maxSize>
.
GROUP_BY_AGGREGATE
Funkcje agregujące nie są dozwolone w usłudze GROUP BY, ale znaleziono <sqlExpr>
.
Aby uzyskać więcej informacji, zobacz GROUP_BY_AGGREGATE
GROUP_BY_POS_AGGREGATE
FUNKCJA GROUP BY <index>
odwołuje się do wyrażenia <aggExpr>
, które zawiera funkcję agregacji. Funkcje agregujące nie są dozwolone w usłudze GROUP BY.
GROUP_BY_POS_OUT_OF_RANGE
Pozycja <index>
GROUP BY nie znajduje się na liście zaznaczeń (prawidłowy zakres to [1, <size>
]).
GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE
Nie można użyć wyrażenia <sqlExpr>
jako wyrażenia grupowania, ponieważ jego typ <dataType>
danych nie jest uporządkowanym typem danych.
HDFS_HTTP_ERROR
Podczas próby odczytu z systemu plików HDFS żądanie HTTP nie powiodło się.
Aby uzyskać więcej informacji, zobacz HDFS_HTTP_ERROR
HLL_INVALID_INPUT_SKETCH_BUFFER
Nieprawidłowe wywołanie metody <function>
; tylko prawidłowe szkicu HLL są obsługiwane jako dane wejściowe (takie jak te generowane przez hll_sketch_agg
funkcję).
HLL_INVALID_LG_K
Nieprawidłowe wywołanie metody <function>
; lgConfigK
wartość musi zawierać się między <min>
i <max>
, włącznie: <value>
.
HLL_UNION_DIFFERENT_LG_K
Szkice mają różne lgConfigK
wartości: <left>
i <right>
. Ustaw parametr na wartość true, allowDifferentLgConfigK
aby wywołać <function>
z różnymi lgConfigK
wartościami.
IDENTIFIER_TOO_MANY_NAME_PARTS
<identifier>
nie jest prawidłowym identyfikatorem, ponieważ zawiera więcej niż 2 części nazw.
ILLEGAL_STATE_STORE_VALUE
Niedozwolona wartość dostarczona do magazynu stanów
Aby uzyskać więcej informacji, zobacz ILLEGAL_STATE_STORE_VALUE
INCOMPARABLE_PIVOT_COLUMN
Nieprawidłowa kolumna <columnName>
przestawna . Kolumny przestawne muszą być porównywalne.
INCOMPATIBLE_COLUMN_TYPE
<operator>
można wykonywać tylko w tabelach z zgodnymi typami kolumn. Kolumna <columnOrdinalNumber>
<tableOrdinalNumber>
tabeli jest <dataType1>
typem, który nie jest zgodny z tą samą kolumną <dataType2>
pierwszej tabeli.<hint>
INCOMPATIBLE_DATASOURCE_REGISTER
Wykryto niezgodną usługę DataSourceRegister. Usuń niezgodną bibliotekę ze ścieżki klasy lub uaktualnij ją. Błąd: <message>
INCOMPATIBLE_DATA_FOR_TABLE
Nie można zapisać niezgodnych danych dla tabeli <tableName>
:
Aby uzyskać więcej informacji, zobacz INCOMPATIBLE_DATA_FOR_TABLE
INCOMPATIBLE_JOIN_TYPES
Typy <joinType1>
sprzężenia i <joinType2>
są niezgodne.
INCOMPATIBLE_VIEW_SCHEMA_CHANGE
Zapytanie SQL widoku <viewName>
ma niezgodną zmianę schematu i nie można rozpoznać kolumny <colName>
. Oczekiwane <expectedNum>
kolumny o nazwie <colName>
, ale dostały <actualCols>
wartość .
Spróbuj ponownie utworzyć widok, uruchamiając polecenie: <suggestion>
.
INCOMPLETE_TYPE_DEFINITION
Niekompletny typ złożony:
Aby uzyskać więcej informacji, zobacz INCOMPLETE_TYPE_DEFINITION
INCONSISTENT_BEHAVIOR_CROSS_VERSION
Może zostać wyświetlony inny wynik z powodu uaktualnienia do
Aby uzyskać więcej informacji, zobacz INCONSISTENT_BEHAVIOR_CROSS_VERSION
INCORRECT_NUMBER_OF_ARGUMENTS
<failure>
, <functionName>
wymaga co najmniej <minArgs>
argumentów i co najwyżej <maxArgs>
argumentów.
INCORRECT_RAMP_UP_RATE
Maksymalne przesunięcie <rowsPerSecond>
wierszyPerSecond to <maxSeconds>
, ale wartość "rampUpTimeSeconds" to <rampUpTimeSeconds>
.
INDETERMINATE_COLLATION
Wywołana funkcja wymaga znajomości sortowania, które należy zastosować, ale nieokreślone sortowanie zostało znalezione. Użyj funkcji COLLATE, aby jawnie ustawić sortowanie.
INDEX_ALREADY_EXISTS
Nie można utworzyć indeksu <indexName>
w tabeli <tableName>
, ponieważ już istnieje.
INDEX_NOT_FOUND
Nie można odnaleźć indeksu <indexName>
w tabeli <tableName>
.
INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED
Typ <trigger>
wyzwalacza nie jest obsługiwany dla tego typu klastra.
Użyj innego typu wyzwalacza, np. AvailableNow, Once.
INSERT_COLUMN_ARITY_MISMATCH
Nie można zapisać w pliku <tableName>
, przyczyną jest
Aby uzyskać więcej informacji, zobacz INSERT_COLUMN_ARITY_MISMATCH
INSERT_PARTITION_COLUMN_ARITY_MISMATCH
Nie można zapisać w '<tableName>
', <reason>
:
Kolumny tabeli: <tableColumns>
.
Partycjonuj kolumny z wartościami statycznymi: <staticPartCols>
.
Kolumny danych: <dataColumns>
.
INSUFFICIENT_PERMISSIONS
Niewystarczające uprawnienia:
<report>
INSUFFICIENT_PERMISSIONS_EXT_LOC
Użytkownik <user>
ma niewystarczające uprawnienia do lokalizacji <location>
zewnętrznej .
INSUFFICIENT_PERMISSIONS_NO_OWNER
Nie ma właściciela dla elementu <securableName>
. Poproś administratora o ustawienie właściciela.
INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE
Użytkownik nie jest właścicielem <securableName>
.
INSUFFICIENT_PERMISSIONS_SECURABLE
Użytkownik nie ma uprawnień <action>
do <securableName>
usługi .
INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER
Właściciel <securableName>
obiektu różni się od właściciela <parentSecurableName>
obiektu .
INSUFFICIENT_PERMISSIONS_STORAGE_CRED
Poświadczenia <credentialName>
magazynu mają niewystarczające uprawnienia.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES
Użytkownik nie może <action>
włączyć <securableName>
z powodu uprawnień do podstawowych zabezpieczania.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE
Użytkownik nie może <action>
włączyć <securableName>
z powodu uprawnień do podstawowych zabezpieczanych elementów:
<underlyingReport>
INTERVAL_ARITHMETIC_OVERFLOW
<message>
.<alternative>
INTERVAL_DIVIDED_BY_ZERO
Dzielenie przez zero. Użyj try_divide
polecenia , aby tolerować dzielność 0 i zwracać wartość NULL zamiast tego.
INVALID_AGGREGATE_FILTER
Wyrażenie <filterExpr>
FILTER w funkcji agregującej jest nieprawidłowe.
Aby uzyskać więcej informacji, zobacz INVALID_AGGREGATE_FILTER
INVALID_ARRAY_INDEX
Indeks <indexValue>
jest poza granicami. Tablica zawiera <arraySize>
elementy. Użyj funkcji get()
SQL, aby tolerować dostęp do elementu w nieprawidłowym indeksie i zwracać wartość NULL. W razie potrzeby ustaw <ansiConfig>
wartość "false", aby pominąć ten błąd.
Aby uzyskać więcej informacji, zobacz INVALID_ARRAY_INDEX
INVALID_ARRAY_INDEX_IN_ELEMENT_AT
Indeks <indexValue>
jest poza granicami. Tablica zawiera <arraySize>
elementy. Użyj try_element_at
polecenia , aby tolerować dostęp do elementu w nieprawidłowym indeksie i zamiast tego zwracać wartość NULL. W razie potrzeby ustaw <ansiConfig>
wartość "false", aby pominąć ten błąd.
Aby uzyskać więcej informacji, zobacz INVALID_ARRAY_INDEX_IN_ELEMENT_AT
INVALID_BITMAP_POSITION
Położenie <bitPosition>
mapy bitowej indeksowanej 0 jest poza granicami. Mapa bitowa ma <bitmapNumBits>
bity (<bitmapNumBytes>
bajty).
INVALID_BOOLEAN_STATEMENT
Instrukcja logiczna jest oczekiwana w warunku, ale <invalidStatement>
została znaleziona.
INVALID_BOUNDARY
Granica <boundary>
jest nieprawidłowa: <invalidValue>
.
Aby uzyskać więcej informacji, zobacz INVALID_BOUNDARY
INVALID_BUCKET_COLUMN_DATA_TYPE
Nie można użyć <type>
polecenia dla kolumny zasobnika. Sortowanie typów danych nie jest obsługiwane w przypadku zasobnika.
INVALID_BUCKET_FILE
Nieprawidłowy plik zasobnika: <path>
.
INVALID_BYTE_STRING
Oczekiwany format to ByteString, ale był <unsupported>
(<class>
).
INVALID_COLUMN_NAME_AS_PATH
Źródło <datasource>
danych nie może zapisać kolumny <columnName>
, ponieważ jej nazwa zawiera pewne znaki, które nie są dozwolone w ścieżkach plików. Użyj aliasu, aby zmienić jego nazwę.
INVALID_COLUMN_OR_FIELD_DATA_TYPE
Kolumna lub pole <name>
jest typu <type>
, gdy musi być <expectedType>
.
INVALID_CONF_VALUE
Wartość "<confValue>
" w konfiguracji "<confName>
" jest nieprawidłowa.
Aby uzyskać więcej informacji, zobacz INVALID_CONF_VALUE
INVALID_CURRENT_RECIPIENT_USAGE
current_recipient
funkcji można używać tylko w instrukcji lub ALTER VIEW
instrukcji CREATE VIEW
w celu zdefiniowania widoku udziału tylko w wykazie aparatu Unity.
INVALID_CURSOR
Kursor jest nieprawidłowy.
Aby uzyskać więcej informacji, zobacz INVALID_CURSOR
INVALID_DATETIME_PATTERN
Nierozpoznany wzorzec daty/godziny: <pattern>
.
Aby uzyskać więcej informacji, zobacz INVALID_DATETIME_PATTERN
INVALID_DEFAULT_VALUE
Nie można wykonać <statement>
polecenia, ponieważ kolumna lub zmienna <colName>
docelowa ma wartość <defaultValue>
DOMYŚLNą ,
Aby uzyskać więcej informacji, zobacz INVALID_DEFAULT_VALUE
INVALID_DELIMITER_VALUE
Nieprawidłowa wartość ogranicznika.
Aby uzyskać więcej informacji, zobacz INVALID_DELIMITER_VALUE
INVALID_DEST_CATALOG
Katalog docelowy polecenia SYNC musi znajdować się w katalogu aparatu Unity. Znaleziono <catalog>
plik .
INVALID_DRIVER_MEMORY
Pamięć systemowa <systemMemory>
musi mieć co najmniej <minSystemMemory>
wartość .
Zwiększ rozmiar sterty przy użyciu opcji –driver-memory lub "<config>
" w konfiguracji platformy Spark.
INVALID_DYNAMIC_OPTIONS
Opcje przekazane <option_list są zabronione dla table_name obcych tabel<>.>
INVALID_EMPTY_LOCATION
Nazwa lokalizacji nie może być pusta, ale <location>
została podana.
INVALID_ESC
Znaleziono nieprawidłowy ciąg ucieczki: <invalidEscape>
. Ciąg ucieczki musi zawierać tylko jeden znak.
INVALID_ESCAPE_CHAR
EscapeChar
powinien być literałem ciągu o długości jednej, ale ma wartość <sqlExpr>
.
INVALID_EXECUTOR_MEMORY
Pamięć <executorMemory>
funkcji wykonawczej musi mieć co najmniej <minSystemMemory>
wartość .
Zwiększ pamięć funkcji wykonawczej przy użyciu opcji –executor-memory lub "<config>
" w konfiguracji platformy Spark.
INVALID_EXPRESSION_ENCODER
Znaleziono nieprawidłowy koder wyrażeń. Oczekuje wystąpienia obiektu ExpressionEncoder, ale ma element <encoderType>
. Aby uzyskać więcej informacji, zobacz "<docroot>
/api/java/index.html?org/apache/spark/sql/Encoder.html".
INVALID_EXTRACT_BASE_FIELD_TYPE
Nie można wyodrębnić wartości z <base>
klasy . Potrzebujesz typu złożonego [STRUCT
, ARRAY
, ], MAP
ale ma wartość <other>
.
INVALID_EXTRACT_FIELD
Nie można wyodrębnić <field>
z pliku <expr>
.
INVALID_EXTRACT_FIELD_TYPE
Nazwa pola powinna być literałem ciągu innego niż null, ale jest to <extraction>
.
INVALID_FIELD_NAME
Nazwa <fieldName>
pola jest nieprawidłowa: <path>
nie jest strukturą.
INVALID_FORMAT
Format jest nieprawidłowy: <format>
.
Aby uzyskać więcej informacji, zobacz INVALID_FORMAT
INVALID_FRACTION_OF_SECOND
Ułamek sekundy musi być zerowy. Prawidłowy zakres to [0, 60]. W razie potrzeby ustaw <ansiConfig>
wartość "false", aby pominąć ten błąd.
INVALID_HANDLE
<handle>
Uchwyt jest nieprawidłowy.
Aby uzyskać więcej informacji, zobacz INVALID_HANDLE
INVALID_IDENTIFIER
Identyfikator bez cudzysłów <ident>
jest nieprawidłowy i musi być z powrotem cytowany jako: <ident>
.
Identyfikatory bez cudzysłów mogą zawierać tylko litery ASCII ('a' — 'z', 'A' — 'Z'), cyfry ('0' - '9') i podbar ('_') .
Identyfikatory bez cudzysłów nie mogą również rozpoczynać się od cyfry.
Różne źródła danych i magazyny metadanych mogą nakładać dodatkowe ograniczenia dotyczące prawidłowych identyfikatorów.
INVALID_INDEX_OF_ZERO
Indeks 0 jest nieprawidłowy. Indeks musi mieć < wartość 0 lub > 0 (pierwszy element ma indeks 1).
INVALID_INLINE_TABLE
Nieprawidłowa tabela śródliniowa.
Aby uzyskać więcej informacji, zobacz INVALID_INLINE_TABLE
INVALID_INTERVAL_FORMAT
Błąd podczas analizowania parametru "<input>
" do interwału. Upewnij się, że podana wartość jest w prawidłowym formacie definiowania interwału. Możesz odwołać się do dokumentacji dotyczącej poprawnego formatu.
Aby uzyskać więcej informacji, zobacz INVALID_INTERVAL_FORMAT
INVALID_INVERSE_DISTRIBUTION_FUNCTION
Nieprawidłowa funkcja <funcName>
dystrybucji odwrotnej .
Aby uzyskać więcej informacji, zobacz INVALID_INVERSE_DISTRIBUTION_FUNCTION
INVALID_JOIN_TYPE_FOR_JOINWITH
Nieprawidłowy typ sprzężenia w joinWith: <joinType>
.
INVALID_JSON_DATA_TYPE
Nie można przekonwertować ciągu JSON "<invalidType>
" na typ danych. Wprowadź prawidłowy typ danych.
INVALID_JSON_DATA_TYPE_FOR_COLLATIONS
Sortowania można stosować tylko do typów ciągów, ale typ danych JSON to <jsonType>
.
INVALID_JSON_ROOT_FIELD
Nie można przekonwertować pola głównego JSON na docelowy typ platformy Spark.
INVALID_JSON_SCHEMA_MAP_TYPE
Schemat <jsonSchema>
wejściowy może zawierać STRING
tylko jako typ klucza dla elementu MAP
.
INVALID_KRYO_SERIALIZER_BUFFER_SIZE
Wartość konfiguracji "<bufferSizeConfKey>
" musi być mniejsza niż 2048 MiB, ale ma <bufferSizeConfValue>
miB.
INVALID_LABEL_USAGE
Użycie etykiety <labelName>
jest nieprawidłowe.
Aby uzyskać więcej informacji, zobacz INVALID_LABEL_USAGE
INVALID_LAMBDA_FUNCTION_CALL
Nieprawidłowe wywołanie funkcji lambda.
Aby uzyskać więcej informacji, zobacz INVALID_LAMBDA_FUNCTION_CALL
INVALID_LATERAL_JOIN_TYPE
Korelacja <joinType>
join with LATERAL jest niedozwolona, ponieważ podzapytywanie OUTER nie może skorelować z partnerem dołączania. Usuń korelację LATERAL lub użyj SPRZĘŻENIA WEWNĘTRZNEgo lub LEWE SPRZĘŻENIE ZEWNĘTRZNE.
INVALID_LIMIT_LIKE_EXPRESSION
Wyrażenie podobne <expr>
do limitu jest nieprawidłowe.
Aby uzyskać więcej informacji, zobacz INVALID_LIMIT_LIKE_EXPRESSION
INVALID_LOCATION
Nazwa lokalizacji nie może być nieprawidłowym identyfikatorem URI, ale <location>
została podana.
INVALID_NON_ABSOLUTE_PATH
Nie można zakwalifikować podanej ścieżki <path>
nie bezwzględnej. Zaktualizuj ścieżkę tak, aby była prawidłową lokalizacją instalacji systemu dbfs.
INVALID_NON_DETERMINISTIC_EXPRESSIONS
Operator oczekuje wyrażenia deterministycznego, ale rzeczywiste wyrażenie to <sqlExprs>
.
INVALID_NUMERIC_LITERAL_RANGE
Literał <rawStrippedQualifier>
liczbowy znajduje się poza prawidłowym zakresem dla <typeName>
wartości minimalnej <minValue>
i wartości maksymalnej <maxValue>
. Dostosuj odpowiednio wartość.
INVALID_OBSERVED_METRICS
Nieprawidłowe zaobserwowane metryki.
Aby uzyskać więcej informacji, zobacz INVALID_OBSERVED_METRICS
INVALID_OPTIONS
Nieprawidłowe opcje:
Aby uzyskać więcej informacji, zobacz INVALID_OPTIONS
INVALID_PANDAS_UDF_PLACEMENT
Nie można wywołać funkcji zdefiniowanej przez użytkownika biblioteki pandas <functionList>
grupy jako innych funkcji agregujących nienależących do biblioteki pandas.
INVALID_PARAMETER_MARKER_VALUE
Podano nieprawidłowe mapowanie parametrów:
Aby uzyskać więcej informacji, zobacz INVALID_PARAMETER_MARKER_VALUE
INVALID_PARAMETER_VALUE
Wartość parametrów <parameter>
w pliku <functionName>
jest nieprawidłowa:
Aby uzyskać więcej informacji, zobacz INVALID_PARAMETER_VALUE
INVALID_PARTITION_COLUMN_DATA_TYPE
Nie można użyć <type>
dla kolumny partycji.
INVALID_PARTITION_OPERATION
Polecenie partycji jest nieprawidłowe.
Aby uzyskać więcej informacji, zobacz INVALID_PARTITION_OPERATION
INVALID_PIPELINE_ID
Identyfikator <pipelineId>
potoku jest nieprawidłowy.
Identyfikator potoku powinien być identyfikatorem UUID w formacie "xxxxxxxx-xxxx-xxxx-xxxxxxxxxxxx"
INVALID_PRIVILEGE
Uprawnienie <privilege>
jest nieprawidłowe dla elementu <securable>
.
INVALID_PROPERTY_KEY
<key>
jest nieprawidłowym kluczem właściwości, użyj cudzysłowów, np. SET <key>
=<value>
.
INVALID_PROPERTY_VALUE
<value>
jest nieprawidłową wartością właściwości, użyj cudzysłowów, np. SET <key>
=<value>
INVALID_QUERY_MIXED_QUERY_PARAMETERS
Zapytanie sparametryzowane musi używać parametrów pozycyjnych lub nazwanych, ale nie obu tych parametrów.
INVALID_S3_COPY_CREDENTIALS
Poświadczenia COPY INTO muszą zawierać AWS_ACCESS_KEY, AWS_SECRET_KEY i AWS_SESSION_TOKEN.
INVALID_SAVE_MODE
Określony tryb <mode>
zapisywania jest nieprawidłowy. Prawidłowe tryby zapisywania obejmują "append", "overwrite", "ignore", "error", "errorifexists" i "default".
INVALID_SCHEMA
Schemat <inputSchema>
wejściowy nie jest prawidłowym ciągiem schematu.
Aby uzyskać więcej informacji, zobacz INVALID_SCHEMA
INVALID_SCHEMA_OR_RELATION_NAME
<name>
nie jest prawidłową nazwą tabel/schematów. Prawidłowe nazwy zawierają tylko znaki alfabetu, cyfry i _.
INVALID_SCHEME
Wykaz aparatu Unity nie obsługuje <name>
domyślnego schematu plików.
INVALID_SECRET_LOOKUP
Nieprawidłowe wyszukiwanie wpisów tajnych:
Aby uzyskać więcej informacji, zobacz INVALID_SECRET_LOOKUP
INVALID_SET_SYNTAX
Oczekiwany format to "SET", "SET key" lub "SET key=value". Jeśli chcesz uwzględnić znaki specjalne w kluczu lub uwzględnić średnik w wartości, użyj backquotes, np. SET key
=value
.
INVALID_SHARED_ALIAS_NAME
Nazwa <sharedObjectType>
aliasu musi mieć postać "schema.name".
INVALID_SINGLE_VARIANT_COLUMN
Nie singleVariantColumn
można użyć opcji, jeśli istnieje również określony schemat użytkownika.
INVALID_SOURCE_CATALOG
Wykaz źródłowy nie może znajdować się w katalogu aparatu Unity dla polecenia SYNC. Znaleziono <catalog>
plik .
INVALID_SQL_ARG
Argument <name>
metody sql()
jest nieprawidłowy. Rozważ zastąpienie go literałem SQL lub funkcjami konstruktora kolekcji, takimi jak map()
, , struct()
array()
.
INVALID_SQL_SYNTAX
Nieprawidłowa składnia SQL:
Aby uzyskać więcej informacji, zobacz INVALID_SQL_SYNTAX
INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY
Nieprawidłowa ścieżka przejściowa w zapytaniu przejściowym <operation>
: <path>
INVALID_STATEMENT_FOR_EXECUTE_INTO
Klauzula INTO funkcji EXECUTE IMMEDIATE jest prawidłowa tylko dla zapytań, ale podana instrukcja nie jest zapytaniem: <sqlString>
.
INVALID_STATEMENT_OR_CLAUSE
Instrukcja lub klauzula: <operation>
jest nieprawidłowa.
INVALID_SUBQUERY_EXPRESSION
Nieprawidłowa podzapytywanie:
Aby uzyskać więcej informacji, zobacz INVALID_SUBQUERY_EXPRESSION
INVALID_TEMP_OBJ_REFERENCE
Nie można utworzyć trwałego obiektu <objName>
typu <obj>
, ponieważ odwołuje się do tymczasowego obiektu <tempObjName>
typu <tempObj>
. Należy ustawić obiekt <tempObjName>
tymczasowy jako trwały lub ustawić obiekt <objName>
trwały jako tymczasowy.
INVALID_TIMESTAMP_FORMAT
Podany znacznik <timestamp>
czasu nie jest zgodny z oczekiwaną składnią <format>
.
INVALID_TIME_TRAVEL_SPEC
Nie można określić zarówno wersji, jak i znacznika czasu podczas podróży do tabeli.
INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
Wyrażenie <expr>
znacznika czasu podróży jest nieprawidłowe.
Aby uzyskać więcej informacji, zobacz INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
INVALID_TYPED_LITERAL
Wartość literału <valueType>
wpisanego jest nieprawidłowa: <value>
.
INVALID_UDF_IMPLEMENTATION
Funkcja <funcName>
nie implementuje funkcji ScalarFunction ani AggregateFunction.
INVALID_UPGRADE_SYNTAX
<command>
<supportedOrNot>
tabela źródłowa znajduje się w magazynie metadanych Hive, a tabela docelowa znajduje się w katalogu aparatu Unity.
INVALID_URL
Adres URL jest nieprawidłowy: <url>
. W razie potrzeby ustaw <ansiConfig>
wartość "false", aby pominąć ten błąd.
INVALID_USAGE_OF_STAR_OR_REGEX
Nieprawidłowe użycie elementu <elem>
w pliku <prettyName>
.
INVALID_UTF8_STRING
Znaleziono nieprawidłową sekwencję bajtów UTF8 w ciągu: <str>
.
INVALID_UUID
Dane wejściowe <uuidInput>
nie są prawidłowym identyfikatorem UUID.
Identyfikator UUID powinien mieć format "xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxx"
Sprawdź format identyfikatora UUID.
INVALID_VARIABLE_DECLARATION
Nieprawidłowa deklaracja zmiennej.
Aby uzyskać więcej informacji, zobacz INVALID_VARIABLE_DECLARATION
INVALID_VARIABLE_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE
Typ zmiennej musi być typem ciągu, ale ma wartość <varType>
.
INVALID_VARIANT_CAST
Nie można rzutować wartości <value>
wariantu na <dataType>
. Zamiast tego użyj polecenia try_variant_get
.
INVALID_VARIANT_FROM_PARQUET
Nieprawidłowy wariant.
Aby uzyskać więcej informacji, zobacz INVALID_VARIANT_FROM_PARQUET
INVALID_VARIANT_GET_PATH
Ścieżka <path>
nie jest prawidłową ścieżką wyodrębniania wariantów w pliku <functionName>
.
Prawidłowa ścieżka powinna zaczynać się od $
i następuje zero lub więcej segmentów, takich jak [123]
, .name
, ['name']
lub ["name"]
.
INVALID_WHERE_CONDITION
Warunek <condition>
WHERE zawiera nieprawidłowe wyrażenia: <expressionList>
.
Zapisz ponownie zapytanie, aby uniknąć funkcji okien, funkcji agregacji i funkcji generatora w klauzuli WHERE.
INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC
Nie można określić elementu ORDER BY lub ramki okna dla <aggFunc>
elementu .
INVALID_WRITER_COMMIT_MESSAGE
Składnik zapisywania źródła danych wygenerował nieprawidłową liczbę komunikatów zatwierdzenia. Oczekiwano dokładnie jednego komunikatu zatwierdzenia składnika zapisywania z każdego zadania, ale odebrano <detail>
polecenie .
INVALID_WRITE_DISTRIBUTION
Żądana dystrybucja zapisu jest nieprawidłowa.
Aby uzyskać więcej informacji, zobacz INVALID_WRITE_DISTRIBUTION
JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE
Warunek <joinCondition>
sprzężenia ma nieprawidłowy typ <conditionType>
, oczekiwany "BOOLEAN
".
KAFKA_DATA_LOSS
Niektóre dane mogły zostać utracone, ponieważ nie są one już dostępne na platformie Kafka;
dane zostały przestarzałe przez platformę Kafka lub temat mógł zostać usunięty przed wszystkimi danymi w
temat został przetworzony.
Jeśli nie chcesz, aby zapytanie przesyłania strumieniowego nie powiodło się w takich przypadkach, ustaw opcję źródłową failOnDataLoss na false.
Przyczyna:
Aby uzyskać więcej informacji, zobacz KAFKA_DATA_LOSS
KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET
Nie można odczytać, dopóki żądany numer <endSeqNum>
sekwencji dla fragmentu <shardId>
w
strumień <stream>
kinezy z trybem <consumerMode>
konsumenta . Zapytanie zakończy się niepowodzeniem z powodu
potencjalna utrata danych. Ostatni rekord odczytu był numerem sekwencji <lastSeqNum>
.
Może się tak zdarzyć, jeśli dane z parametrem endSeqNum zostały już przestarzałe lub strumień Kinesis był
usunięty i zrekonstruowany o tej samej nazwie. Zachowanie błędu może zostać zastąpione
przez ustawienie wartości spark.databricks.kinesis.failOnDataLoss na wartość false w konfiguracji platformy Spark.
KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD
Minimalny pobrany identyfikator fragmentu z Kinesis (<fetchedShardId>
)
jest mniejsza niż minimalna śledzona wartość shardId (<trackedShardId>
).
Jest to nieoczekiwane i występuje, gdy strumień Kinesis zostanie usunięty i utworzony ponownie o tej samej nazwie,
i zapytanie przesyłane strumieniowo przy użyciu tego strumienia Kinesis jest ponownie uruchamiane przy użyciu istniejącej lokalizacji punktu kontrolnego.
Uruchom ponownie zapytanie przesyłane strumieniowo z nową lokalizacją punktu kontrolnego lub utwórz strumień o nowej nazwie.
KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION
W przypadku fragmentu <shard>
ostatni rekord odczytany z kinesis w poprzednich pobieraniach ma numer <lastSeqNum>
sekwencji ,
który jest większy niż rekord odczytany w bieżącym pobieraniu z numerem <recordSeqNum>
sekwencji .
Jest to nieoczekiwane i może wystąpić, gdy pozycja początkowa ponawiania próby lub następnego pobierania jest niepoprawnie zainicjowana i może spowodować zduplikowanie rekordów podrzędnych.
KRYO_BUFFER_OVERFLOW
Serializacji Kryo nie powiodła się: <exceptionMsg>
. Aby tego uniknąć, zwiększ wartość "<bufferSizeConfKey>
".
LABELS_MISMATCH
Etykieta <beginLabel>
begin nie jest zgodna z etykietą <endLabel>
końcową .
LOAD_DATA_PATH_NOT_EXISTS
Ścieżka wejściowa LOAD DATA nie istnieje: <path>
.
LOCAL_MUST_WITH_SCHEMA_FILE
Lokalne musi być używane razem ze schematem file
, ale dostał: <actualSchema>
.
LOCATION_ALREADY_EXISTS
Nie można nazwać tabeli zarządzanej jako <identifier>
, ponieważ jej skojarzona lokalizacja <location>
już istnieje. Wybierz inną nazwę tabeli lub usuń istniejącą lokalizację jako pierwszą.
LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW
Niektóre partycje w tematach platformy Kafka zostały utracone podczas uruchamiania zapytania z wyzwalaczem Trigger.AvailableNow. Błąd może być przejściowy — uruchom ponownie zapytanie i zgłoś, jeśli nadal widzisz ten sam problem.
topic-partitions for latest offset: , topic-partitions for end offset: <tpsForLatestOffset>
<tpsForEndOffset>
MALFORMED_AVRO_MESSAGE
Źle sformułowane komunikaty Avro są wykrywane w deserializacji komunikatów. Tryb analizowania: <mode>
. Aby przetworzyć źle sformułowany komunikat Avro jako wynik null, spróbuj ustawić opcję "mode" jako "PERMISSIVE".
MALFORMED_CHARACTER_CODING
Znaleziono nieprawidłową wartość podczas wykonywania za pomocą polecenia <function>
<charset>
MALFORMED_CSV_RECORD
Źle sformułowany rekord CSV: <badRecord>
MALFORMED_RECORD_IN_PARSING
Źle sformułowane rekordy są wykrywane w analizowaniu rekordów: <badRecord>
.
Tryb analizowania: <failFastMode>
. Aby przetworzyć źle sformułowane rekordy jako wynik null, spróbuj ustawić opcję "mode" jako "PERMISSIVE".
Aby uzyskać więcej informacji, zobacz MALFORMED_RECORD_IN_PARSING
MALFORMED_VARIANT
Wariant binarny jest źle sformułowany. Sprawdź, czy źródło danych jest prawidłowe.
MANAGED_TABLE_WITH_CRED
Tworzenie tabeli zarządzanej przy użyciu poświadczeń magazynu nie jest obsługiwane.
MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID
Nie można <refreshType>
zmaterializować widoku, ponieważ jest on wstępnie aktualizowany o identyfikator pipelineId. Aby włączyć <refreshType>
, upuść i ponownie utworzyć zmaterializowany widok.
MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
Zmaterializowana operacja <operation>
widoku jest niedozwolona:
Aby uzyskać więcej informacji, zobacz MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS
Wyrażenie <expression>
wyjściowe w zmaterializowanym widoku musi być jawnie aliasowane.
MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID
Nie można utworzyć zmaterializowanego widoku <name>
za pomocą zapytania przesyłania strumieniowego. Użyj polecenia CREATE [OR REFRESH] STREAMING TABLE lub usuń słowo kluczowe STREAM do klauzuli FROM, aby przekształcić tę relację w kwerendę wsadową.
MATERIALIZED_VIEW_UNSUPPORTED_OPERATION
Operacja nie jest obsługiwana <operation>
w zmaterializowanych widokach dla tej wersji.
MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED
Nie można utworzyć nowej zmiennej <variableName>
, ponieważ liczba zmiennych w sesji przekracza maksymalną dozwoloną liczbę (<maxNumVariables>
).
MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE
wartość maxRecordsPerFetch musi być dodatnią liczbą całkowitą mniejszą lub równą <kinesisRecordLimit>
MERGE_CARDINALITY_VIOLATION
Warunek wyszukiwania ON instrukcji MERGE był zgodny z pojedynczym wierszem z tabeli docelowej z wieloma wierszami tabeli źródłowej.
Może to spowodować, że wiersz docelowy jest uruchamiany więcej niż raz z operacją aktualizacji lub usuwania i nie jest dozwolony.
METRIC_CONSTRAINT_NOT_SUPPORTED
Ograniczenie METRYKI nie jest włączone.
METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
Podana wartość "<argValue>
" nie jest obsługiwana przez argument "<argName>
" dla funkcji tabeli METRIC_STORE.
Aby uzyskać więcej informacji, zobacz METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
METRIC_STORE_UNSUPPORTED_ERROR
Funkcja <functionName>
magazynu metryk jest obecnie wyłączona w tym środowisku.
MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED
Źródło danych platformy Kafka w pliku Trigger.AvailableNow powinno zapewnić te same partycje tematu we wstępnie pobranym przesunięciu na koniec dla każdego mikrobajta. Błąd może być przejściowy — uruchom ponownie zapytanie i zgłoś, jeśli nadal widzisz ten sam problem.
topic-partitions for pre-fetched offset: <tpsForPrefetched>
, topic-partitions for end offset: <tpsForEndOffset>
.
MISSING_AGGREGATION
Wyrażenie <expression>
nie agregujące jest oparte na kolumnach, które nie uczestniczą w klauzuli GROUP BY.
Dodaj kolumny lub wyrażenie do grupy WEDŁUG, zagreguj wyrażenie lub użyj <expressionAnyValue>
, jeśli nie obchodzisz, które wartości w grupie są zwracane.
Aby uzyskać więcej informacji, zobacz MISSING_AGGREGATION
MISSING_CONNECTION_OPTION
Połączenia typu "<connectionType>
" muszą zawierać następujące opcje: <requiredOptions>
.
MISSING_GROUP_BY
Zapytanie nie zawiera klauzuli GROUP BY. Dodaj grupę BY lub zmień ją w funkcje okna przy użyciu klauzul OVER.
MISSING_NAME_FOR_CHECK_CONSTRAINT
Ograniczenie CHECK musi mieć nazwę.
MISSING_PARAMETER_FOR_KAFKA
Parametr jest wymagany dla platformy <parameterName>
Kafka, ale nie jest określony w pliku <functionName>
.
MISSING_PARAMETER_FOR_ROUTINE
Parametr <parameterName>
jest wymagany, ale nie został określony w pliku <functionName>
.
MISSING_WINDOW_SPECIFICATION
Specyfikacja okna nie jest zdefiniowana w klauzuli WINDOW dla <windowName>
elementu . Aby uzyskać więcej informacji na temat klauzul WINDOW, zapoznaj się z artykułem "<docroot>
/sql-ref-syntax-qry-select-window.html".
MODIFY_BUILTIN_CATALOG
Modyfikowanie wbudowanego wykazu <catalogName>
nie jest obsługiwane.
MULTIPLE_LOAD_PATH
Funkcja delta usługi Databricks nie obsługuje wielu ścieżek wejściowych w interfejsie API load().
ścieżki: <pathList>
. Aby utworzyć jedną ramkę danych przez załadowanie
wiele ścieżek z tej samej tabeli delty, załaduj ścieżkę główną
tabela delta z odpowiednimi filtrami partycji. Jeśli wiele ścieżek
znajdują się w różnych tabelach delty. Użyj interfejsów API union()/unionByName() zestawu danych
aby połączyć ramki danych generowane przez oddzielne wywołania interfejsu API load().
MULTIPLE_MATCHING_CONSTRAINTS
Znaleziono co najmniej dwa zgodne ograniczenia z danym warunkiem.
MULTIPLE_TIME_TRAVEL_SPEC
Nie można określić podróży czasowej zarówno w klauzuli podróży czasowej, jak i w opcjach.
MULTIPLE_XML_DATA_SOURCE
Wykryto wiele źródeł danych o nazwie <provider>
(<sourceNames>
). Określ w pełni kwalifikowaną nazwę klasy lub usuń <externalSource>
z ścieżki klasy.
MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION
Wyrażenie <expr>
nie obsługuje więcej niż jednego źródła.
MULTI_UDF_INTERFACE_ERROR
Nie wolno implementować wielu interfejsów UDF, klasa <className>
UDF .
MUTUALLY_EXCLUSIVE_CLAUSES
Wzajemnie wykluczające się klauzule lub opcje <clauses>
. Usuń jedną z tych klauzul.
MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE
Zapytanie wejściowe oczekuje <expectedType>
wartości , ale podstawowa <givenType>
tabela to .
NAMED_PARAMETERS_NOT_SUPPORTED
Nazwane parametry nie są obsługiwane dla funkcji <functionName>
. Spróbuj ponownie wykonać zapytanie z argumentami pozycyjnymi do wywołania funkcji.
NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS
Nie można wywołać funkcji <functionName>
, ponieważ nazwane odwołania argumentów nie są obsługiwane. W tym przypadku nazwane odwołanie do argumentu to <argument>
.
NAMED_PARAMETER_SUPPORT_DISABLED
Nie można wywołać funkcji <functionName>
, ponieważ nazwane odwołania argumentów nie są tutaj włączone.
W tym przypadku nazwane odwołanie do argumentu to <argument>
.
Ustaw wartość "spark.sql.allowNamedFunctionArguments" na wartość "true", aby włączyć funkcję.
NAMESPACE_ALREADY_EXISTS
Nie można utworzyć przestrzeni nazw <nameSpaceName>
, ponieważ już istnieje.
Wybierz inną nazwę, upuść istniejącą przestrzeń nazw lub dodaj klauzulę IF NOT EXISTS, aby tolerować wcześniej istniejącą przestrzeń nazw.
NAMESPACE_NOT_EMPTY
Nie można usunąć przestrzeni nazw <nameSpaceNameName>
, ponieważ zawiera ona obiekty.
Użyj DROP NAMESPACE ... CASCADE, aby usunąć przestrzeń nazw i wszystkie jej obiekty.
NAMESPACE_NOT_FOUND
Nie można odnaleźć przestrzeni nazw <nameSpaceName>
. Sprawdź pisownię i poprawność przestrzeni nazw.
Jeśli nazwa nie została zakwalifikowana, sprawdź dane wyjściowe current_schema() lub zakwalifikuj nazwę poprawnie.
Aby tolerować błąd podczas upuszczania, użyj DROP NAMESPACE IF EXISTS.
NATIVE_IO_ERROR
Żądanie natywne nie powiodło się. requestId: <requestId>
, chmura: <cloud>
, operacja: <operation>
request: [https: <https>
, method = <method>
, path = <path>
, params = , host = <host>
<params>
, headers = <headers>
, bodyLen = <bodyLen>
],
błąd: <error>
NATIVE_XML_DATA_SOURCE_NOT_ENABLED
W tym klastrze nie włączono natywnego źródła danych XML.
NESTED_AGGREGATE_FUNCTION
Nie można używać funkcji agregującej w argumencie innej funkcji agregującej. Użyj wewnętrznej funkcji agregacji w podzadycie.
NESTED_EXECUTE_IMMEDIATE
Zagnieżdżone polecenia EXECUTE IMMEDIATE nie są dozwolone. Upewnij się, że podane zapytanie SQL (<sqlString>
) nie zawiera innego polecenia EXECUTE IMMEDIATE.
NONEXISTENT_FIELD_NAME_IN_LIST
<nonExistFields>
Pola nie istnieją. Dostępne pola: <fieldNames>
NON_FOLDABLE_ARGUMENT
Funkcja <funcName>
wymaga, aby parametr <paramName>
był składanym wyrażeniem typu <paramType>
, ale rzeczywisty argument jest niezginalny.
NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Jeśli w instrukcji MERGE istnieje więcej niż jedna klauzula MATCHED, tylko ostatnia klauzula MATCHED może pominąć warunek.
NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Jeśli w instrukcji MERGE istnieje więcej niż jedna klauzula NIE PASUJE WEDŁUG ŹRÓDŁA, tylko ostatnia klauzula NIE PASUJE WEDŁUG ŹRÓDŁA może pominąć warunek.
NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION
Jeśli w instrukcji MERGE istnieje więcej niż jedna klauzula NIE PASUJE [BY TARGET], tylko ostatnia klauzula NIE PASUJE [BY TARGET] może pominąć warunek.
NON_LITERAL_PIVOT_VALUES
Znaleziono <expression>
wyrażenia literału wymagane dla wartości przestawnych.
NON_PARTITION_COLUMN
Klauzula PARTITION nie może zawierać kolumny innej niż partycja: <columnName>
.
NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING
Funkcja Window nie jest obsługiwana w <windowFunc>
kolumnie (jako kolumna <columnName>
) w przypadku przesyłania strumieniowego ramek danych/zestawów danych.
Przesyłanie strumieniowe ze strukturą obsługuje tylko agregację okien czasowych przy użyciu funkcji WINDOW. (specyfikacja okna: <windowSpec>
)
NOT_ALLOWED_IN_FROM
Niedozwolone w klauzuli FROM:
Aby uzyskać więcej informacji, zobacz NOT_ALLOWED_IN_FROM
NOT_A_CONSTANT_STRING
Wyrażenie <expr>
używane dla procedury lub klauzuli <name>
musi być stałą STRING
, która nie ma wartości NULL.
Aby uzyskać więcej informacji, zobacz NOT_A_CONSTANT_STRING
NOT_A_PARTITIONED_TABLE
Operacja <operation>
jest niedozwolona, <tableIdentWithDB>
ponieważ nie jest to tabela partycjonowana.
NOT_A_SCALAR_FUNCTION
<functionName>
pojawia się tutaj jako wyrażenie skalarne, ale funkcja została zdefiniowana jako funkcja tabeli. Zaktualizuj zapytanie, aby przenieść wywołanie funkcji do klauzuli FROM lub ponownie zdefiniować <functionName>
jako funkcję skalarną.
NOT_A_TABLE_FUNCTION
<functionName>
pojawia się w tym miejscu jako funkcja tabeli, ale funkcja została zdefiniowana jako funkcja skalarna. Zaktualizuj zapytanie, aby przenieść wywołanie funkcji poza klauzulę FROM lub ponownie zdefiniować <functionName>
jako funkcję tabeli.
NOT_NULL_ASSERT_VIOLATION
Wartość NULL jest wyświetlana w polu bez wartości null: <walkedTypePath>
jeśli schemat jest wywnioskowany z klasy krotki/wielkości liter scala lub fasoli Java, spróbuj użyć języka scala. Option[_] lub inne typy dopuszczane do wartości null (takie jak java.lang.Integer zamiast int/scala. Int).
NOT_NULL_CONSTRAINT_VIOLATION
Przypisywanie wartości NULL nie jest dozwolone w tym miejscu.
Aby uzyskać więcej informacji, zobacz NOT_NULL_CONSTRAINT_VIOLATION
NOT_SUPPORTED_CHANGE_COLUMN
FUNKCJA ALTER TABLE ALTER/CHANGE COLUMN nie jest obsługiwana w przypadku zmiany <table>
kolumny <originName>
z typem <newType>
<originType>
na <newName>
.
NOT_SUPPORTED_COMMAND_FOR_V2_TABLE
<cmd>
nie jest obsługiwany w przypadku tabel w wersji 2.
NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT
<cmd>
program nie jest obsługiwany, jeśli chcesz go włączyć, ustaw wartość "spark.sql.catalogImplementation" na wartość "hive".
NOT_SUPPORTED_IN_JDBC_CATALOG
Nieobsługiwane polecenie w katalogu JDBC:
Aby uzyskać więcej informacji, zobacz NOT_SUPPORTED_IN_JDBC_CATALOG
NOT_SUPPORTED_WITH_DB_SQL
<operation>
program nie jest obsługiwany w programie SQL <endpoint>
.
NOT_SUPPORTED_WITH_SERVERLESS
<operation>
nie jest obsługiwany w przypadku obliczeń bezserwerowych.
NOT_UNRESOLVED_ENCODER
Oczekiwano nierozwiązanego kodera, ale <attr>
został znaleziony.
NO_DEFAULT_COLUMN_VALUE_AVAILABLE
Nie można określić wartości domyślnej, <colName>
ponieważ nie jest ona dopuszczana do wartości null i nie ma wartości domyślnej.
NO_HANDLER_FOR_UDAF
Brak obsługi dla udaF '<functionName>
'. Zamiast tego użyj pliku sparkSession.udf.register(...).
NO_MERGE_ACTION_SPECIFIED
po df.mergeInto należy wykonać co najmniej jedną z instrukcji whenMatched/whenNotMatched/whenNotMatchedBySource.
NO_PARENT_EXTERNAL_LOCATION_FOR_PATH
SQLSTATE: brak przypisanej
Nie odnaleziono lokalizacji zewnętrznej nadrzędnej dla ścieżki "<path>
". Utwórz lokalizację zewnętrzną w jednej ze ścieżek nadrzędnych, a następnie spróbuj ponownie wykonać zapytanie lub polecenie.
NO_SQL_TYPE_IN_PROTOBUF_SCHEMA
Nie można odnaleźć <catalystFieldPath>
w schemacie Protobuf.
NO_STORAGE_LOCATION_FOR_TABLE
SQLSTATE: brak przypisanej
Nie znaleziono lokalizacji przechowywania tabeli "<tableId>
" podczas generowania poświadczeń tabeli. Sprawdź typ tabeli i adres URL lokalizacji tabeli, a następnie spróbuj ponownie wykonać zapytanie lub polecenie.
NO_SUCH_CATALOG_EXCEPTION
SQLSTATE: brak przypisanej
Nie można odnaleźć wykazu "<catalog>
". Sprawdź nazwę wykazu, a następnie ponów próbę ponownego uruchomienia zapytania lub polecenia.
NO_SUCH_CLEANROOM_EXCEPTION
SQLSTATE: brak przypisanej
Czysty pokój "<cleanroom>
" nie istnieje. Sprawdź, czy nazwa czystego pokoju jest poprawna i pasuje do nazwy prawidłowego istniejącego pomieszczenia, a następnie ponów próbę ponownego uruchomienia zapytania lub polecenia.
NO_SUCH_EXTERNAL_LOCATION_EXCEPTION
SQLSTATE: brak przypisanej
Lokalizacja zewnętrzna "<externalLocation>
" nie istnieje. Sprawdź, czy nazwa lokalizacji zewnętrznej jest poprawna, a następnie spróbuj ponownie wykonać zapytanie lub polecenie.
NO_SUCH_METASTORE_EXCEPTION
SQLSTATE: brak przypisanej
Nie można odnaleźć magazynu metadanych. Poproś administratora konta o przypisanie magazynu metadanych do bieżącego obszaru roboczego, a następnie spróbuj ponownie wykonać zapytanie lub polecenie.
NO_SUCH_PROVIDER_EXCEPTION
SQLSTATE: brak przypisanej
Dostawca udziału "<providerName>
" nie istnieje. Sprawdź, czy nazwa dostawcy udziału jest poprawna i pasuje do nazwy prawidłowej istniejącej nazwy dostawcy, a następnie spróbuj ponownie wykonać zapytanie lub polecenie.
NO_SUCH_RECIPIENT_EXCEPTION
SQLSTATE: brak przypisanej
Odbiorca "<recipient>
" nie istnieje. Sprawdź, czy nazwa adresata jest poprawnie wpisana i pasuje do nazwy prawidłowego istniejącego adresata, a następnie ponów próbę kwerendy lub polecenia ponownie.
NO_SUCH_SHARE_EXCEPTION
SQLSTATE: brak przypisanej
Udział "<share>
" nie istnieje. Sprawdź, czy nazwa udziału jest poprawnie wpisana i pasuje do nazwy prawidłowego istniejącego udziału, a następnie ponów próbę kwerendy lub polecenia ponownie.
NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION
SQLSTATE: brak przypisanej
Poświadczenie magazynu "<storageCredential>
" nie istnieje. Sprawdź, czy nazwa poświadczeń magazynu jest poprawnie wpisana i pasuje do nazwy prawidłowego istniejącego poświadczenia magazynu, a następnie ponów próbę kwerendy lub polecenia ponownie.
NO_SUCH_USER_EXCEPTION
SQLSTATE: brak przypisanej
Użytkownik "<userName>
" nie istnieje. Sprawdź, czy użytkownik, któremu udzielono uprawnień lub zmiany własności, jest poprawnie wpisany i pasuje do nazwy prawidłowego istniejącego użytkownika, a następnie ponów próbę ponownego uruchomienia zapytania lub polecenia.
NO_UDF_INTERFACE
Klasa <className>
UDF nie implementuje żadnego interfejsu UDF.
NULLABLE_COLUMN_OR_FIELD
Kolumna lub pole <name>
jest dopuszczane do wartości null, gdy jest wymagane, aby nie można było jej stosować.
NULLABLE_ROW_ID_ATTRIBUTES
Atrybuty identyfikatora wiersza nie mogą mieć wartości null: <nullableRowIdAttrs>
.
NULL_DATA_SOURCE_OPTION
Opcja <option>
odczytu/zapisu źródła danych nie może mieć wartości null.
NULL_MAP_KEY
Nie można użyć wartości null jako klucza mapy.
NULL_QUERY_STRING_EXECUTE_IMMEDIATE
Wykonanie natychmiastowe wymaga zmiennej innej niż null jako ciągu zapytania, ale podana zmienna <varName>
ma wartość null.
NUMERIC_OUT_OF_SUPPORTED_RANGE
Nie można interpretować wartości <value>
jako liczbowej, ponieważ ma więcej niż 38 cyfr.
NUMERIC_VALUE_OUT_OF_RANGE
Aby uzyskać więcej informacji, zobacz NUMERIC_VALUE_OUT_OF_RANGE
NUM_COLUMNS_MISMATCH
<operator>
Można wykonywać tylko na danych wejściowych o tej samej liczbie kolumn, ale pierwsze dane wejściowe mają <firstNumColumns>
kolumny, a <invalidOrdinalNum>
dane wejściowe mają <invalidNumColumns>
kolumny.
NUM_TABLE_VALUE_ALIASES_MISMATCH
Liczba podanych aliasów nie jest zgodna z liczbą kolumn wyjściowych.
Nazwa funkcji: <funcName>
; liczba aliasów: <aliasesNum>
; liczba kolumn wyjściowych: <outColsNum>
.
OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED
Nie podano oświadczenia tożsamości niestandardowej.
ONLY_SECRET_FUNCTION_SUPPORTED_HERE
Funkcja <functionName>
wywołująca nie jest obsługiwana w tym <location>
miejscu ; <supportedFunctions>
obsługiwana tutaj.
ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR
Operacja <operation>
SQL jest obsługiwana tylko w przypadku łączników SQL usługi Databricks z obsługą wykazu aparatu Unity.
OPERATION_CANCELED
Operacja została anulowana.
OPERATION_REQUIRES_UNITY_CATALOG
Operacja <operation>
wymaga włączenia wykazu aparatu Unity.
OP_NOT_SUPPORTED_READ_ONLY
<plan>
nie jest obsługiwany w trybie sesji tylko do odczytu.
ORDER_BY_POS_OUT_OF_RANGE
Pozycja <index>
ORDER BY nie znajduje się na liście zaznaczeń (prawidłowy zakres to [1, <size>
]).
PARQUET_CONVERSION_FAILURE
Nie można utworzyć konwertera Parquet dla typu <dataType>
danych, którego typem Parquet jest <parquetType>
.
Aby uzyskać więcej informacji, zobacz PARQUET_CONVERSION_FAILURE
PARSE_EMPTY_STATEMENT
Błąd składniowy, nieoczekiwana pusta instrukcja.
PARSE_SYNTAX_ERROR
Błąd składniowy w pobliżu lub w pobliżu <error>
<hint>
.
PARTITIONS_ALREADY_EXIST
Nie można dodać lub zmienić nazwy partycji <partitionList>
w tabeli <tableName>
, ponieważ już istnieją.
Wybierz inną nazwę, upuść istniejącą partycję lub dodaj klauzulę IF NOT EXISTS, aby tolerować istniejącą partycję.
PARTITIONS_NOT_FOUND
Nie można odnaleźć partycji <partitionList>
w tabeli <tableName>
.
Sprawdź specyfikację partycji i nazwę tabeli.
Aby tolerować błąd podczas upuszczania, użyj ALTER TABLE ... UPUŚĆ, JEŚLI ISTNIEJE PARTYCJA.
PARTITION_LOCATION_ALREADY_EXISTS
Lokalizacja <locationPath>
partycji już istnieje w tabeli <tableName>
.
PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY
Nie można wykonać instrukcji ALTER TABLE SET PARTITION LOCATION, ponieważ
lokalizacja <location>
partycji nie znajduje się w katalogu <table>
tabeli .
Aby rozwiązać ten problem, ustaw lokalizację partycji na podkatalog .<table>
PARTITION_METADATA
<action>
nie jest dozwolone w tabeli <tableName>
, ponieważ przechowywanie metadanych partycji nie jest obsługiwane w wykazie aparatu Unity.
PATH_ALREADY_EXISTS
Ścieżka <outputPath>
już istnieje. Ustaw tryb jako "zastąp", aby zastąpić istniejącą ścieżkę.
PATH_NOT_FOUND
Ścieżka nie istnieje: <path>
.
PIPE_OPERATOR_SELECT_CONTAINS_AGGREGATE_FUNCTION
Funkcja <expr>
agregacji nie jest dozwolona w przypadku korzystania z operatora potoku |> KLAUZULA SELECT; Użyj operatora potoku |> Zamiast tego klauzula AGGREGATE
PIVOT_VALUE_DATA_TYPE_MISMATCH
Nieprawidłowa wartość przestawna '<value>
': typ <valueType>
danych wartości nie jest zgodny z typem <pivotType>
danych kolumny przestawnej.
PROCEDURE_ARGUMENT_NUMBER_MISMATCH
Procedura <procedureName>
oczekuje <expected>
argumentów, ale <actual>
zostały podane.
PROCEDURE_CREATION_EMPTY_ROUTINE
Tworzenie PROCEDURY z pustą definicją procedury jest niedozwolone.
PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT
Parametr <parameterName>
jest definiowany z trybem parametru <parameterMode>
. Parametr OUT i INOUT nie można pominąć podczas wywoływania procedury i dlatego nie obsługują wyrażenia DOMYŚLNEgo. Aby kontynuować, usuń klauzulę DEFAULT lub zmień tryb parametru na IN.
PROCEDURE_NOT_SUPPORTED
Procedura składowana nie jest obsługiwana
PROCEDURE_NOT_SUPPORTED_WITH_HMS
Procedura składowana nie jest obsługiwana w przypadku magazynu metadanych Hive. Zamiast tego użyj wykazu aparatu Unity.
PROTOBUF_DEPENDENCY_NOT_FOUND
Nie można odnaleźć zależności: <dependencyName>
.
PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND
Błąd podczas odczytywania pliku deskryptora Protobuf w ścieżce: <filePath>
.
PROTOBUF_FIELD_MISSING
<field>
Wyszukiwanie w schemacie Protobuf pod <protobufSchema>
adresem nadanych <matchSize>
dopasowań. Kandydaci: <matches>
.
PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA
Znaleziono <field>
w schemacie Protobuf, ale w schemacie SQL nie ma dopasowania.
PROTOBUF_FIELD_TYPE_MISMATCH
Napotkano niezgodność typów dla pola: <field>
.
PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED
Klasy języka Java nie są obsługiwane dla programu <protobufFunction>
. Skontaktuj się z pomocą techniczną usługi Databricks, aby uzyskać informacje o opcjach alternatywnych.
PROTOBUF_MESSAGE_NOT_FOUND
Nie można zlokalizować komunikatu <messageName>
w deskryptorze.
PROTOBUF_TYPE_NOT_SUPPORT
Typ protobuf nie jest jeszcze obsługiwany: <protobufType>
.
PS_FETCH_RETRY_EXCEPTION
Nie można ponowić zadania w etapie pobierania pubsub. Partycja <partitionInfo>
na etapie <stageInfo>
, TID <taskId>
.
PS_INVALID_EMPTY_OPTION
<key>
nie może być pustym ciągiem.
PS_INVALID_KEY_TYPE
Nieprawidłowy typ klucza dla deduplikacji PubSub: <key>
.
PS_INVALID_OPTION
Opcja <key>
nie jest obsługiwana przez usługę PubSub. Można go używać tylko podczas testowania.
PS_INVALID_OPTION_TYPE
Nieprawidłowy typ dla elementu <key>
. Oczekiwany typ ma być typem <key>
<type>
.
PS_INVALID_READ_LIMIT
Nieprawidłowy limit odczytu strumienia PubSub: <limit>
.
PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO
Nieprawidłowy element UnsafeRow do dekodowania do pubSubMessageMetadata, żądany schemat proto to: <protoSchema>
. Dane wejściowe NiebezpieczneRow mogą być uszkodzone: <unsafeRow>
.
PS_MISSING_AUTH_INFO
Nie można odnaleźć pełnych informacji o uwierzytelnianiu PubSub.
PS_MISSING_REQUIRED_OPTION
Nie można odnaleźć wymaganej opcji: <key>
.
PS_MOVING_CHECKPOINT_FAILURE
Nie można przenieść nieprzetworzonych plików punktu kontrolnego danych z <src>
katalogu docelowego: <dest>
.
PS_MULTIPLE_FAILED_EPOCHS
Nie można uruchomić strumienia PubSub, ponieważ pobieranie nie powiodło się więcej niż jedno: <failedEpochs>
.
PS_OPTION_NOT_IN_BOUNDS
<key>
musi należeć do następujących granic (<min>
, <max>
) z wyłączności obu granic.
PS_PROVIDE_CREDENTIALS_WITH_OPTION
Udostępnione klastry nie obsługują uwierzytelniania z profilami wystąpień. Podaj poświadczenia do strumienia bezpośrednio przy użyciu funkcji .option().
PS_SPARK_SPECULATION_NOT_SUPPORTED
Łącznik źródłowy PubSub jest dostępny tylko w klastrze z wyłączonym spark.speculation
.
PS_UNABLE_TO_CREATE_SUBSCRIPTION
Wystąpił błąd podczas próby utworzenia subskrypcji <subId>
w temacie <topicId>
. Sprawdź, czy istnieją wystarczające uprawnienia do utworzenia subskrypcji i spróbuj ponownie.
PS_UNABLE_TO_PARSE_PROTO
Nie można przeanalizować serializacji bajtów w celu wygenerowania proto.
PS_UNSUPPORTED_GET_OFFSET_CALL
getOffset nie jest obsługiwany bez podawania limitu.
PYTHON_DATA_SOURCE_ERROR
Nie można uruchomić <action>
źródła <type>
danych języka Python: <msg>
PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR
Nie powiodło się, gdy źródło danych przesyłania strumieniowego języka Python wykonuje następujące czynności <action>
: <msg>
QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
Nie można uzyskać dostępu do tabeli, do której odwołuje się odwołanie, ponieważ wcześniej przypisana maska kolumn jest obecnie niezgodna ze schematem tabeli; aby kontynuować, skontaktuj się z właścicielem tabeli, aby zaktualizować zasady:
Aby uzyskać więcej informacji, zobacz QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
Nie można uzyskać dostępu do tabeli, do której odwołuje się odwołanie, ponieważ wcześniej przypisane zasady zabezpieczeń na poziomie wiersza są obecnie niezgodne ze schematem tabeli; aby kontynuować, skontaktuj się z właścicielem tabeli, aby zaktualizować zasady:
Aby uzyskać więcej informacji, zobacz QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
READ_CURRENT_FILE_NOT_FOUND
<message>
Możliwe, że pliki bazowe zostały zaktualizowane. Możesz jawnie unieważnić pamięć podręczną na platformie Spark, uruchamiając polecenie "REFRESH TABLE tableName" w języku SQL lub ponownie tworząc zaangażowany zestaw danych/ramkę danych.
READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS
Wywołanie funkcji <functionName>
ma <parameterName>
i <alternativeName>
ustawiono, które są aliasami siebie nawzajem. Ustaw tylko jeden z nich.
READ_TVF_UNEXPECTED_REQUIRED_PARAMETER
Wymagany parametr <parameterName>
funkcji <functionName>
musi być przypisany na pozycji <expectedPos>
bez nazwy.
RECIPIENT_EXPIRATION_NOT_SUPPORTED
Tylko TIMESTAMP
/TIMESTAMP_LTZ/TIMESTAMP_NTZ typy są obsługiwane dla znacznika czasu wygaśnięcia adresata.
RECURSIVE_PROTOBUF_SCHEMA
Znaleziono odwołanie cykliczne w schemacie Protobuf, którego nie można przetworzyć przez platformę Spark domyślnie: <fieldDescriptor>
. Spróbuj ustawić opcję recursive.fields.max.depth
1 na 10. Przechodzenie poza 10 poziomów rekursji nie jest dozwolone.
RECURSIVE_VIEW
Wykryto widok <viewIdent>
cyklisywny (cykl: <newPath>
).
REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION
Odwołania do wartości kolumn DOMYŚLNYch nie są dozwolone w klauzuli PARTITION.
RELATION_LARGER_THAN_8G
Nie można utworzyć rozmiaru większego <relationName>
niż 8G.
REMOTE_FUNCTION_HTTP_FAILED_ERROR
Zdalne żądanie HTTP nie powiodło się z kodem <errorCode>
i komunikatem o błędzie <errorMessage>
REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR
Nie można ocenić <functionName>
funkcji SQL z powodu niezdolności do analizowania wyniku JSON z zdalnej odpowiedzi HTTP; komunikat o błędzie to <errorMessage>
. Zapoznaj się z dokumentacją interfejsu API: <docUrl>
. Rozwiąż problem wskazany w komunikacie o błędzie i spróbuj ponownie wykonać zapytanie.
REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR
Nie można ocenić <functionName>
funkcji SQL z powodu braku możliwości przetworzenia nieoczekiwanej zdalnej odpowiedzi HTTP. Komunikat o błędzie to <errorMessage>
. Zapoznaj się z dokumentacją interfejsu API: <docUrl>
. Rozwiąż problem wskazany w komunikacie o błędzie i spróbuj ponownie wykonać zapytanie.
REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT
Żądanie zdalne nie powiodło się po ponowieniu <N>
próby; ostatni kod błędu HTTP: <errorCode>
i komunikat był <errorMessage>
REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR
Nie można ocenić <functionName>
funkcji SQL, ponieważ <errorMessage>
. Sprawdź wymagania w pliku <docUrl>
. Rozwiąż problem wskazany w komunikacie o błędzie i spróbuj ponownie wykonać zapytanie.
RENAME_SRC_PATH_NOT_FOUND
Nie można zmienić nazwy jako <sourcePath>
nie znaleziono.
REPEATED_CLAUSE
Klauzula <clause>
może być używana co najwyżej raz na <operation>
operację.
REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY
Wymagany parametr <parameterName>
funkcji <functionName>
został przypisany na pozycji <positionalIndex>
bez nazwy.
Zaktualizuj wywołanie funkcji, aby usunąć nazwany argument dla <parameterName>
tego parametru lub usunąć pozycyjny
argument w poleceniu <positionalIndex>
, a następnie spróbuj ponownie wykonać zapytanie.
REQUIRED_PARAMETER_NOT_FOUND
Nie można wywołać funkcji <functionName>
, ponieważ parametr o nazwie <parameterName>
jest wymagany, ale wywołanie funkcji nie podało wartości. Zaktualizuj wywołanie funkcji, aby podać wartość argumentu (pozycjonalnie w indeksie <index>
lub według nazwy) i ponów próbę zapytania.
REQUIRES_SINGLE_PART_NAMESPACE
<sessionCatalog>
wymaga jednoczęściowej przestrzeni nazw, ale ma wartość <namespace>
.
RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT
Opcja czytnika interfejsu API ramki danych "rescuedDataColumn" wzajemnie wyklucza się z opcją interfejsu API ramki danych "singleVariantColumn".
Usuń jedną z nich, a następnie ponów próbę wykonania operacji ramki danych.
RESERVED_CDC_COLUMNS_ON_WRITE
Zapis zawiera kolumny <columnList>
zarezerwowane, które są używane
wewnętrznie jako metadane zestawienia zmian danych. Aby zapisać w tabeli dowolną nazwę/upuść
te kolumny lub wyłącz zestawienie danych zmian w tabeli przez ustawienie
<config>
na wartość false.
RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
Opcja <option>
ma ograniczone wartości w klastrach udostępnionych dla <source>
źródła.
Aby uzyskać więcej informacji, zobacz RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
ROUTINE_ALREADY_EXISTS
Nie można utworzyć elementu <newRoutineType>
<routineName>
, ponieważ <existingRoutineType>
nazwa już istnieje.
Wybierz inną nazwę, upuść lub zastąp istniejącą <existingRoutineType>
klauzulę lub dodaj klauzulę IF NOT EXISTS, aby tolerować istniejącą wcześniej wartość <newRoutineType>
.
ROUTINE_NOT_FOUND
Nie można odnaleźć procedury <routineName>
. Sprawdź pisownię i poprawność schematu i wykazu.
Jeśli nazwa nie została zakwalifikowana do schematu i katalogu, sprawdź dane wyjściowe current_schema() lub zakwalifikuj nazwę z poprawnym schematem i wykazem.
Aby tolerować błąd podczas upuszczania, użyj funkcji DROP ... JEŚLI ISTNIEJE.
ROUTINE_PARAMETER_NOT_FOUND
Funkcja <functionName>
nie obsługuje parametru <parameterName>
określonego w pozycji <pos>
.<suggestion>
ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME
Nie można utworzyć funkcji <routineName>
, ponieważ określona nazwa klasy "<className>
" jest zarezerwowana do użycia systemu. Zmień nazwę klasy i spróbuj ponownie.
ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED
Tworzenie ograniczenia CHECK w tabeli <tableName>
z zasadami zabezpieczeń na poziomie wiersza nie jest obsługiwane.
ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME
Instrukcja <statementType>
próbowała przypisać zasady zabezpieczeń na poziomie wiersza do tabeli, ale co najmniej dwie przywoływane kolumny miały taką samą nazwę <columnName>
, która jest nieprawidłowa.
ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
Zasady zabezpieczeń na poziomie wiersza nie <tableName>
są obsługiwane:
Aby uzyskać więcej informacji, zobacz ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE
Nie można nawiązać z <statementType>
<columnName>
tabeli <tableName>
, ponieważ odwołuje się do niej zasady zabezpieczeń na poziomie wiersza. Właściciel tabeli musi usunąć lub zmienić te zasady przed kontynuowaniem.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE
Operacje MERGE INTO nie obsługują zasad zabezpieczeń na poziomie wiersza w tabeli źródłowej <tableName>
.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET
Operacje MERGE INTO nie obsługują zapisywania w tabeli <tableName>
z zasadami zabezpieczeń na poziomie wiersza.
ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME
Ta instrukcja próbowała przypisać zasady zabezpieczeń na poziomie wiersza do tabeli, ale przywoływane kolumny <columnName>
miały wiele części nazw, co jest nieprawidłowe.
ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG
Zasady zabezpieczeń na poziomie wiersza są obsługiwane tylko w wykazie aparatu Unity.
ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED
<mode>
klonowanie z tabeli <tableName>
z zasadami zabezpieczeń na poziomie wiersza nie jest obsługiwane.
ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED
<mode>
klonowanie do tabeli <tableName>
z zasadami zabezpieczeń na poziomie wiersza nie jest obsługiwane.
ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER
Używanie stałej jako parametru w zasadach zabezpieczeń na poziomie wiersza nie jest obsługiwane. Zaktualizuj polecenie SQL, aby usunąć stałą z definicji filtru wierszy, a następnie ponów próbę polecenia.
ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER
Nie można wykonać <statementType>
polecenia, ponieważ przypisywanie zasad zabezpieczeń na poziomie wiersza nie jest obsługiwane dla docelowego źródła danych z dostawcą tabel: "<provider>
".
ROW_SUBQUERY_TOO_MANY_ROWS
Więcej niż jeden wiersz zwracany przez podzapytywanie używane jako wiersz.
ROW_VALUE_IS_NULL
Znaleziono wartość NULL w wierszu w indeksie <index>
, oczekiwano wartości innej niż NULL.
RULE_ID_NOT_FOUND
Nie znaleziono identyfikatora nazwy reguły "<ruleName>
". Zmodyfikuj regułę RuleIdCollection.scala, jeśli dodajesz nową regułę.
SAMPLE_TABLE_PERMISSIONS
Uprawnienia nieobsługiwane w przykładowych bazach danych/tabelach.
SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION
Skorelowany podzapytywanie skalarne "<sqlExpr>
" nie istnieje ani w funkcji GROUP BY, ani w funkcji agregującej.
Dodaj ją do pozycji GRUPUj według przy użyciu pozycji porządkowej lub zawijaj ją w first()
(lub first_value
), jeśli nie interesuje Cię wartość uzyskana.
SCALAR_SUBQUERY_TOO_MANY_ROWS
Więcej niż jeden wiersz zwracany przez podzapytywanie używane jako wyrażenie.
SCHEDULE_PERIOD_INVALID
Okres <timeUnit>
harmonogramu musi być liczbą całkowitą z zakresu od 1 do <upperBound>
(włącznie). Odebrano: <actual>
.
SCHEMA_ALREADY_EXISTS
Nie można utworzyć schematu <schemaName>
, ponieważ już istnieje.
Wybierz inną nazwę, upuść istniejący schemat lub dodaj klauzulę IF NOT EXISTS, aby tolerować istniejący schemat.
SCHEMA_NOT_EMPTY
Nie można usunąć schematu <schemaName>
, ponieważ zawiera on obiekty.
Użyj schematu DROP ... CASCADE, aby usunąć schemat i wszystkie jego obiekty.
SCHEMA_NOT_FOUND
Nie można odnaleźć schematu <schemaName>
. Sprawdź pisownię i poprawność schematu i wykazu.
Jeśli nazwa nie została zakwalifikowana do katalogu, sprawdź dane wyjściowe current_schema() lub zakwalifikuj nazwę z poprawnym wykazem.
Aby tolerować błąd podczas upuszczania, użyj SCHEMATU DROP, JEŚLI ISTNIEJE.
SCHEMA_REGISTRY_CONFIGURATION_ERROR
Nie można zainicjować schematu z rejestru schematów. <reason>
.
SECOND_FUNCTION_ARGUMENT_NOT_INTEGER
Drugi argument <functionName>
funkcji musi być liczbą całkowitą.
SECRET_FUNCTION_INVALID_LOCATION
Nie można wykonać <commandType>
polecenia z co najmniej jednym nieszyfrowanym odwołaniem do funkcji SECRET. Zaszyfruj wynik każdego takiego wywołania funkcji za pomocą AES_ENCRYPT i spróbuj ponownie wykonać polecenie
SEED_EXPRESSION_IS_UNFOLDABLE
Wyrażenie <seedExpr>
inicjacyjne wyrażenia <exprWithSeed>
musi być składane.
SERVER_IS_BUSY
Serwer jest zajęty i nie może obsłużyć żądania. Zaczekaj chwilę i spróbuj ponownie.
SORT_BY_WITHOUT_BUCKETING
Funkcji sortBy należy używać razem z zasobnikiemBy.
SPARK_JOB_CANCELLED
Anulowano zadanie <jobId>
<reason>
SPECIFY_BUCKETING_IS_NOT_ALLOWED
Tabela CREATE bez jawnej listy kolumn nie może określać informacji dotyczących zasobnika.
Użyj formularza z jawną listą kolumn i określ informacje dotyczące zasobnika.
Alternatywnie zezwól na wnioskowanie informacji dotyczących zasobników przez pominięcie klauzuli .
SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED
Nie można określić zarówno KLASTRA WEDŁUG, jak i KLASTROWANEGO WEDŁUG DO ZASOBNIKÓW.
SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED
Nie można określić wartości CLUSTER BY i PARTITIONED BY.
SPECIFY_PARTITION_IS_NOT_ALLOWED
Tabela CREATE bez jawnej listy kolumn nie może określać partycjonowanej wartości BY.
Użyj formularza z jawną listą kolumn i określ element PARTITIONED BY.
Alternatywnie zezwalaj na wnioskowanie partycjonowania przez pominięcie klauzuli PARTITION BY.
SQL_CONF_NOT_FOUND
Nie można odnaleźć konfiguracji <sqlConf>
SQL. Sprawdź, czy konfiguracja istnieje.
STAGING_PATH_CURRENTLY_INACCESSIBLE
Błąd przejściowy podczas uzyskiwania dostępu do docelowej ścieżki <path>
przejściowej , spróbuj w ciągu kilku minut
STAR_GROUP_BY_POS
Gwiazdka (*) nie jest dozwolona na liście wyboru, gdy jest używana pozycja porządkowa GROUP BY.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE
Nie można wykonać stanowej operacji procesora =<operationType>
z nieprawidłowym stanem uchwytu=<handleState>
.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE
Nie można wykonać operacji procesora stanowego =<operationType>
z nieprawidłowym trybem timeMode=<timeMode>
STATEFUL_PROCESSOR_CANNOT_REINITIALIZE_STATE_ON_KEY
Nie można ponownie zainicjować stanu na tym samym kluczu grupowania podczas początkowej obsługi stanu dla procesora stanowego. Nieprawidłowy klucz grupowania =<groupingKey>
. Sprawdź stan początkowy, usuń zduplikowane wiersze i uruchom ponownie zapytanie.
STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED
Zmienna stanu o nazwie <stateVarName>
została już zdefiniowana w obiekcie StatefulProcessor.
STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL
Nie można użyć czasu wygaśnięcia dla parametru state=<stateName>
in timeMode=<timeMode>
, zamiast tego użyj funkcji TimeMode.ProcessingTime().
STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE
Czas trwania czasu wygaśnięcia musi być większy niż zero dla operacji magazynu stanu =<operationType>
na state=<stateName>
.
STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE
Nieznany tryb <timeMode>
czasu. Zaakceptowane tryby timeMode to "none", "processingTime", "eventTime"
STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS
Nie można utworzyć rodziny kolumn z nieobsługiwanym znakiem początkowym i nazwą=<colFamilyName>
.
STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME
Nie można wykonać operacji rodziny kolumn =<operationName>
z nieprawidłową nazwą=<colFamilyName>
. Nazwa rodziny kolumn nie może być pusta ani zawierać spacji wiodących/końcowych ani używać zastrzeżonego słowa kluczowego=default
STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE
Niezgodna transformacja schematu z rodziną kolumn=<colFamilyName>
, oldSchema=<oldSchema>
, newSchema=<newSchema>
.
STATE_STORE_HANDLE_NOT_INITIALIZED
Dojście nie zostało zainicjowane dla tego statefulProcessor.
Użyj tylko statefulProcessor w ramach operatora transformWithState.
STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN
Nieprawidłowa liczba porządkowania =<numOrderingCols>
dla kodera skanowania zakresu. Liczba porządkowania zwykle nie może być równa zero lub większa niż liczba kolumn schematu.
STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN
Nieprawidłowa liczba kolumn prefiksu =<numPrefixCols>
dla kodera skanowania prefiksu. Kolumny prefiksu nie mogą być zerowe lub większe lub równe num kolumn schematu.
STATE_STORE_INVALID_CONFIG_AFTER_RESTART
Nie można zmienić <configName>
z <oldConfig>
na <newConfig>
między ponownymi uruchomieniami. Ustaw wartość <configName>
<oldConfig>
, lub uruchom ponownie przy użyciu nowego katalogu punktu kontrolnego.
STATE_STORE_INVALID_PROVIDER
Dany dostawca <inputClass>
magazynu stanów nie rozszerza org.apache.spark.sql.execution.streaming.state.StateStoreProvider.
STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE
Nie można zmienić <stateVarName>
parametru na <newType>
między ponownymi uruchomieniami zapytania. Ustaw wartość <stateVarName>
<oldType>
, lub uruchom ponownie przy użyciu nowego katalogu punktu kontrolnego.
STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED
Kolumna porządkowania typu null o nazwie=<fieldName>
at index=<index>
nie jest obsługiwana w przypadku kodera skanowania zakresu.
STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY
Dany dostawca <inputClass>
magazynu stanów nie rozszerza org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay.
W związku z tym nie obsługuje opcji snapshotStartBatchId lub readChangeFeed w źródle danych stanu.
STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY
Operacja magazynu stanów =<operationType>
nieobsługiwana w przypadku brakującej rodziny kolumn=<colFamilyName>
.
STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED
Kolumna porządkowania o zmiennym rozmiarze o nazwie=<fieldName>
at index=<index>
nie jest obsługiwana w przypadku kodera skanowania zakresu.
STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST
Kolumna <staticName>
partycji statycznej jest również określona na liście kolumn.
STDS_COMMITTED_BATCH_UNAVAILABLE
Nie znaleziono zatwierdzonej partii, lokalizacja punktu kontrolnego: <checkpointLocation>
. Upewnij się, że zapytanie zostało uruchomione i zatwierdzone przed zatrzymaniem dowolnego mikrobajta.
STDS_CONFLICT_OPTIONS
Nie można określić opcji <options>
razem. Określ ten.
STDS_FAILED_TO_READ_OPERATOR_METADATA
Nie można odczytać metadanych operatora dla checkpointLocation=<checkpointLocation>
i batchId=<batchId>
.
Plik nie istnieje lub plik jest uszkodzony.
Uruchom ponownie zapytanie przesyłania strumieniowego, aby skonstruować metadane operatora i zgłosić je odpowiednim społecznościom lub dostawcom, jeśli błąd będzie się powtarzać.
STDS_FAILED_TO_READ_STATE_SCHEMA
Nie można odczytać schematu stanu. Plik nie istnieje lub plik jest uszkodzony. opcje: <sourceOptions>
.
Uruchom ponownie zapytanie przesyłania strumieniowego, aby skonstruować schemat stanu i zgłosić je odpowiednim społecznościom lub dostawcom, jeśli błąd będzie się powtarzać.
STDS_INVALID_OPTION_VALUE
Nieprawidłowa wartość opcji źródłowej "<optionName>
":
Aby uzyskać więcej informacji, zobacz STDS_INVALID_OPTION_VALUE
STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE
Stan nie ma żadnej partycji. Sprawdź dokładnie, czy zapytanie wskazuje prawidłowy stan. Opcje: <sourceOptions>
STDS_OFFSET_LOG_UNAVAILABLE
Dziennik przesunięcia dla <batchId>
elementu nie istnieje, lokalizacja punktu kontrolnego: <checkpointLocation>
.
Określ identyfikator partii, który jest dostępny do wykonywania zapytań — możesz wykonać zapytanie dotyczące dostępnych identyfikatorów wsadowych przy użyciu źródła danych metadanych stanu.
STDS_OFFSET_METADATA_LOG_UNAVAILABLE
Metadane nie są dostępne dla dziennika przesunięcia dla <batchId>
lokalizacji punktu kontrolnego: <checkpointLocation>
.
Wydaje się, że punkt kontrolny działa tylko ze starszymi wersjami platformy Spark. Uruchom zapytanie przesyłania strumieniowego z najnowszą wersją platformy Spark, aby platforma Spark tworzyła metadane stanu.
STDS_REQUIRED_OPTION_UNSPECIFIED
Należy określić wartość "<optionName>
".
STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS
Wykonywanie zapytań adaptacyjnych nie jest obsługiwane w przypadku operatorów stanowych w strumieniu ustrukturyzowanym.
STREAMING_FROM_MATERIALIZED_VIEW
Nie można przesyłać strumieniowo z zmaterializowanego widoku <viewName>
. Przesyłanie strumieniowe z zmaterializowanych widoków nie jest obsługiwane.
STREAMING_OUTPUT_MODE
Nieprawidłowy tryb danych wyjściowych przesyłania strumieniowego: <outputMode>
.
Aby uzyskać więcej informacji, zobacz STREAMING_OUTPUT_MODE
STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA
Nazwa operatora stanowego przesyłania strumieniowego nie jest zgodna z operatorem w metadanych stanu. Może się tak zdarzyć, gdy użytkownik dodaje/usuwa/zmienia stanowy operator istniejącego zapytania przesyłania strumieniowego.
Operatory stanowe w metadanych: [<OpsInMetadataSeq>
]; Operatory stanowe w bieżącej partii: [<OpsInCurBatchSeq>
].
STREAMING_TABLE_NEEDS_REFRESH
Aby można było wykonać <operation>
tabelę przesyłania strumieniowego, należy odświeżyć tabelę <tableName>
. Uruchom polecenie CREATE OR REFRESH STREAMING TABLE <tableName>
AS, aby zaktualizować tabelę.
STREAMING_TABLE_NOT_SUPPORTED
Tabele przesyłania strumieniowego można tworzyć i odświeżać tylko w tabelach delta live i usłudze Databricks SQL Warehouse.
STREAMING_TABLE_OPERATION_NOT_ALLOWED
Operacja <operation>
jest niedozwolona:
Aby uzyskać więcej informacji, zobacz STREAMING_TABLE_OPERATION_NOT_ALLOWED
STREAMING_TABLE_QUERY_INVALID
Tabelę <tableName>
przesyłania strumieniowego można utworzyć tylko na podstawie zapytania przesyłania strumieniowego. Dodaj słowo kluczowe STREAM do klauzuli FROM, aby przekształcić tę relację w zapytanie przesyłane strumieniowo.
STREAM_NOT_FOUND_FOR_KINESIS_SOURCE
Nie można odnaleźć strumienia <streamName>
<region>
kinezy.
Uruchom nowe zapytanie wskazujące poprawną nazwę strumienia.
STRUCT_ARRAY_LENGTH_MISMATCH
Wiersz wejściowy nie ma oczekiwanej liczby wartości wymaganych przez schemat. <expected>
pola są wymagane, gdy <actual>
są udostępniane wartości.
SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT
Suma klauzuli LIMIT i klauzuli OFFSET nie może być większa niż maksymalna 32-bitowa wartość całkowita (2,147,483,647), ale znaleziono limit = <limit>
, przesunięcie = <offset>
.
SYNC_METADATA_DELTA_ONLY
Polecenie naprawy metadanych synchronizacji tabel jest obsługiwane tylko w przypadku tabeli różnicowej.
SYNC_METADATA_NOT_SUPPORTED
Polecenie naprawy metadanych synchronizacji tabel jest obsługiwane tylko w przypadku tabel wykazu aparatu Unity.
SYNC_SRC_TARGET_TBL_NOT_SAME
Nazwa <srcTable>
tabeli źródłowej musi być taka sama jak nazwa tabeli <destTable>
docelowej .
SYNTAX_DISCONTINUED
Obsługa klauzuli lub słowa kluczowego: <clause>
została przerwana w tym kontekście.
Aby uzyskać więcej informacji, zobacz SYNTAX_DISCONTINUED
TABLE_OR_VIEW_ALREADY_EXISTS
Nie można utworzyć tabeli lub widoku <relationName>
, ponieważ już istnieje.
Wybierz inną nazwę, upuść istniejący obiekt, dodaj klauzulę IF NOT EXISTS, aby tolerować istniejące obiekty, dodać klauzulę OR REPLACE, aby zastąpić istniejący zmaterializowany widok lub dodać klauzulę OR REFRESH, aby odświeżyć istniejącą tabelę przesyłania strumieniowego.
TABLE_OR_VIEW_NOT_FOUND
Nie można odnaleźć tabeli lub widoku <relationName>
. Sprawdź pisownię i poprawność schematu i wykazu.
Jeśli nazwa nie została zakwalifikowana za pomocą schematu, sprawdź dane wyjściowe current_schema() lub zakwalifikuj nazwę z poprawnym schematem i wykazem.
Aby tolerować błąd podczas upuszczania, użyj WIDOKU DROP, JEŚLI ISTNIEJE lub DROP TABLE, JEŚLI ISTNIEJE.
Aby uzyskać więcej informacji, zobacz TABLE_OR_VIEW_NOT_FOUND
TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS
Nie można wykonać <action>
funkcji <functionName>
zdefiniowanej przez użytkownika SQL z argumentami TABLE, ponieważ ta funkcja nie jest jeszcze zaimplementowana.
TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON
Nie można przeanalizować funkcji tabeli zdefiniowanej przez użytkownika języka Python: <msg>
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL
Nie można ocenić funkcji <functionName>
tabeli, ponieważ jej metadane <requestedMetadata>
tabeli , ale wywołanie <invalidFunctionCallProperty>
funkcji .
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID
Nie można ocenić funkcji <functionName>
tabeli, ponieważ jej metadane tabeli były nieprawidłowe; <reason>
.
TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS
Istnieje zbyt wiele argumentów tabeli dla funkcji wartości tabeli.
Umożliwia on jeden argument tabeli, ale ma: <num>
.
Jeśli chcesz zezwolić na to, ustaw wartość "spark.sql.allowMultipleTableArguments.enabled" na wartość "true"
TABLE_WITH_ID_NOT_FOUND
Nie można odnaleźć tabeli o identyfikatorze <tableId>
. Sprawdź poprawność identyfikatora UUID.
TASK_WRITE_FAILED
Zadanie nie powiodło się podczas zapisywania wierszy w pliku <path>
.
TEMP_TABLE_OR_VIEW_ALREADY_EXISTS
Nie można utworzyć widoku <relationName>
tymczasowego, ponieważ już istnieje.
Wybierz inną nazwę, upuść lub zastąp istniejący widok albo dodaj klauzulę IF NOT EXISTS, aby tolerować istniejące widoki.
TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS
UTWÓRZ WIDOK TYMCZASOWY lub odpowiednie interfejsy API zestawu danych akceptują tylko nazwy widoków z jedną częścią, ale są dostępne: <actualName>
.
UC_BUCKETED_TABLES
Tabele zasobnikowe nie są obsługiwane w wykazie aparatu Unity.
UC_CATALOG_NAME_NOT_PROVIDED
W przypadku wykazu aparatu Unity określ jawną nazwę wykazu. Np. SHOW GRANT ON CATALOG main (POKAŻ PRZYZNANIE your.address@email.com
W KATALOGU głównym).
UC_COMMAND_NOT_SUPPORTED
Polecenia nie <commandName>
są obsługiwane w wykazie aparatu Unity.
Aby uzyskać więcej informacji, zobacz UC_COMMAND_NOT_SUPPORTED
UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE
Polecenia nie <commandName>
są obsługiwane w przypadku klastrów wykazu aparatu Unity w trybie dostępu współdzielonego. Zamiast tego należy użyć trybu dostępu pojedynczego użytkownika.
UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED
Określony rodzaj poświadczeń nie jest obsługiwany.
UC_DATASOURCE_NOT_SUPPORTED
Format <dataSourceFormatName>
źródła danych nie jest obsługiwany w wykazie aparatu Unity.
UC_DATASOURCE_OPTIONS_NOT_SUPPORTED
Opcje źródła danych nie są obsługiwane w wykazie aparatu Unity.
UC_EXTERNAL_VOLUME_MISSING_LOCATION
Klauzula LOCATION musi być obecna dla woluminu zewnętrznego. Sprawdź składnię "CREATE EXTERNAL VOLUME ... LOKALIZACJA ... do tworzenia woluminu zewnętrznego.
UC_FAILED_PROVISIONING_STATE
Kwerenda nie powiodła się, ponieważ próbowała odwołać się do tabeli <tableName>
, ale nie mogła tego zrobić: <failureReason>
. Zaktualizuj tabelę <tableName>
, aby upewnić się, że jest ona w stanie aktywnej aprowizacji, a następnie ponów próbę zapytania.
UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED
Tworzenie tabeli w wykazie aparatu Unity ze schematem <schemeName>
plików nie jest obsługiwane.
Zamiast tego utwórz połączenie federacyjnego źródła danych przy użyciu polecenia CREATE CONNECTION dla tego samego dostawcy tabel, a następnie utwórz katalog na podstawie połączenia z poleceniem CREATE FOREIGN CATALOG, aby odwołać się do tabel w tym miejscu.
UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED
Widok federacji magazynu metadanych Hive nie obsługuje zależności w wielu katalogach. Widok <view>
w katalogu federacyjnym magazynu metadanych Hive musi używać zależności z katalogu hive_metastore lub spark_catalog, ale jego zależność <dependency>
znajduje się w innym wykazie <referencedCatalog>
. Zaktualizuj zależności, aby spełnić to ograniczenie, a następnie ponów próbę ponownego uruchomienia zapytania lub polecenia.
UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED
Federacja magazynu metadanych Hive nie jest włączona w tym klastrze.
Uzyskiwanie dostępu do wykazu <catalogName>
nie jest obsługiwane w tym klastrze
UC_INVALID_DEPENDENCIES
<viewName>
Zależności są rejestrowane jako <storedDeps>
podczas analizowania jako <parsedDeps>
. Prawdopodobnie wystąpiło to przez niewłaściwe użycie interfejsu API innego niż SQL. Zależności w środowisku Databricks Runtime można naprawić, uruchamiając polecenie ALTER VIEW <viewName>
AS <viewText>
.
UC_INVALID_NAMESPACE
Zagnieżdżone lub puste przestrzenie nazw nie są obsługiwane w katalogu aparatu Unity.
UC_INVALID_REFERENCE
Nie można odwołać się do obiektu <name>
wykazu nienależących do aparatu Unity w obiektach wykazu aparatu Unity.
UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED
Obsługa zapisu federacyjnego usługi Unity Lakehouse nie jest włączona dla dostawcy <provider>
w tym klastrze.
UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED
Wolumin zarządzany nie akceptuje klauzuli LOCATION. Sprawdź składnię "CREATE VOLUME..." do tworzenia woluminu zarządzanego.
UC_NOT_ENABLED
Wykaz aparatu Unity nie jest włączony w tym klastrze.
UC_QUERY_FEDERATION_NOT_ENABLED
Federacja zapytań wykazu aparatu Unity nie jest włączona w tym klastrze.
UC_SERVICE_CREDENTIALS_NOT_ENABLED
Poświadczenia usługi nie są włączone w tym klastrze.
UC_VOLUMES_NOT_ENABLED
Obsługa woluminów wykazu aparatu Unity nie jest włączona w tym wystąpieniu.
UC_VOLUMES_SHARING_NOT_ENABLED
Obsługa udostępniania woluminów nie jest włączona w tym wystąpieniu.
UC_VOLUME_NOT_FOUND
Wolumin <name>
nie istnieje. Użyj polecenia "SHOW VOLUMES", aby wyświetlić listę dostępnych woluminów.
UDF_ERROR
SQLSTATE: brak przypisanej
Wykonanie funkcji <fn>
nie powiodło się
Aby uzyskać więcej informacji, zobacz UDF_ERROR
UDF_LIMITS
Naruszono co najmniej jeden limit funkcji zdefiniowanej przez użytkownika.
Aby uzyskać więcej informacji, zobacz UDF_LIMITS
UDF_MAX_COUNT_EXCEEDED
Przekroczono limit funkcji zdefiniowanej przez użytkownika dla całej kwerendy <maxNumUdfs>
(ograniczony w publicznej wersji zapoznawczej). Znaleziono <numUdfs>
plik . Funkcje zdefiniowane przez użytkownika to: <udfNames>
.
UDF_PYSPARK_ERROR
Proces roboczy języka Python nieoczekiwanie zakończył się
Aby uzyskać więcej informacji, zobacz UDF_PYSPARK_ERROR
UDF_PYSPARK_UNSUPPORTED_TYPE
Funkcja UDF <udf>
PySpark (<eval-type>
) nie jest obsługiwana w klastrach w trybie dostępu współdzielonego.
UDF_PYSPARK_USER_CODE_ERROR
Wykonanie nie powiodło się.
Aby uzyskać więcej informacji, zobacz UDF_PYSPARK_USER_CODE_ERROR
UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE
Wartość domyślna parametru nie jest obsługiwana dla funkcji zdefiniowanej przez <functionType>
użytkownika.
UDF_USER_CODE_ERROR
Wykonanie funkcji <fn>
nie powiodło się.
Aby uzyskać więcej informacji, zobacz UDF_USER_CODE_ERROR
UDTF_ALIAS_NUMBER_MISMATCH
Liczba aliasów podanych w klauzuli AS nie jest zgodna z liczbą kolumn wyjściowych przez udTF.
Oczekiwano <aliasesSize>
aliasów, ale otrzymano <aliasesNames>
polecenie .
Upewnij się, że podana liczba aliasów jest zgodna z liczbą kolumn wyjściowych przez udTF.
UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD
Nie można ocenić funkcji tabeli zdefiniowanej przez użytkownika, ponieważ jej metoda "analyze" zwróciła żądaną kolumnę OrderingColumn, której wyrażenie nazwy kolumny zawiera niepotrzebny alias <aliasName>
; usuń ten alias, a następnie spróbuj ponownie wykonać zapytanie.
UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS
Nie można ocenić funkcji tabeli zdefiniowanej przez użytkownika, ponieważ jej metoda "analyze" zwróciła żądane wyrażenie "select" (<expression>
), które nie zawiera odpowiedniego aliasu. Zaktualizuj funkcję UDTF, aby określić tam alias, a następnie spróbuj ponownie wykonać zapytanie.
UNABLE_TO_ACQUIRE_MEMORY
Nie można uzyskać <requestedBytes>
bajtów pamięci, ale .<receivedBytes>
UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE
Nie można przekonwertować typu <toType>
SQL na typ <protobufType>
Protobuf.
UNABLE_TO_FETCH_HIVE_TABLES
Nie można pobrać tabel bazy danych Hive: <dbName>
. Nazwa klasy błędu: <className>
.
UNABLE_TO_INFER_SCHEMA
Nie można wywnioskować schematu dla elementu <format>
. Należy go określić ręcznie.
UNAUTHORIZED_ACCESS
Nieautoryzowany dostęp:
<report>
UNBOUND_SQL_PARAMETER
Znaleziono parametr unbound: <name>
. Popraw i args
podaj mapowanie parametru na funkcje literału SQL lub konstruktora kolekcji, takie jak map()
, , array()
struct()
.
UNCLOSED_BRACKETED_COMMENT
Znaleziono nieujawiony komentarz w nawiasie kwadratowym. Dołącz */ na końcu komentarza.
UNEXPECTED_INPUT_TYPE
Parametr <paramIndex>
funkcji <functionName>
wymaga <requiredType>
jednak typu <inputSql>
<inputType>
.
UNEXPECTED_OPERATOR_IN_STREAMING_VIEW
Nieoczekiwany operator <op>
w instrukcji CREATE VIEW jako źródło przesyłania strumieniowego.
Zapytanie widoku przesyłania strumieniowego musi składać się tylko z operacji SELECT, WHERE i UNION ALL.
UNEXPECTED_POSITIONAL_ARGUMENT
Nie można wywołać funkcji <functionName>
, ponieważ zawiera argumenty pozycyjne po nazwanym argumencie przypisanym do <parameterName>
; zmień ich kolejność, aby argumenty pozycyjne były najpierw, a następnie ponów próbę ponownego uruchomienia zapytania.
UNEXPECTED_SERIALIZER_FOR_CLASS
Klasa <className>
ma nieoczekiwany serializator wyrażeń. Oczekuje wartości "STRUCT
" lub "IF", która zwraca wartość "STRUCT
", ale została znaleziona <expr>
.
UNKNOWN_FIELD_EXCEPTION
Napotkano nieznane pola podczas analizowania: <unknownFieldBlob>
, co można naprawić za pomocą automatycznego ponawiania: <isRetryable>
Aby uzyskać więcej informacji, zobacz UNKNOWN_FIELD_EXCEPTION
UNKNOWN_POSITIONAL_ARGUMENT
Wywołanie funkcji <functionName>
zawiera nieznany argument <sqlExpr>
pozycyjny w pozycji <pos>
. Jest to nieprawidłowe.
UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT
W wartości wariantu znaleziono nieznany typ pierwotny o identyfikatorze <id>
.
UNKNOWN_PROTOBUF_MESSAGE_TYPE
Próba traktowania <descriptorName>
jako komunikatu, ale to było <containingType>
.
UNPIVOT_REQUIRES_ATTRIBUTES
Funkcja UNPIVOT wymaga, aby wszystkie podane <given>
wyrażenia są kolumnami, gdy nie <empty>
podano żadnych wyrażeń. Nie są to kolumny: [<expressions>
].
UNPIVOT_REQUIRES_VALUE_COLUMNS
Co najmniej jedną kolumnę wartości należy określić dla funkcji UNPIVOT, wszystkie kolumny określone jako identyfikatory.
UNPIVOT_VALUE_DATA_TYPE_MISMATCH
Kolumny wartości przestawnej muszą współużytkować najmniej typowy typ, a niektóre typy nie: [<types>
].
UNPIVOT_VALUE_SIZE_MISMATCH
Wszystkie kolumny wartości przestawnej muszą mieć taki sam rozmiar, jak nazwy kolumn wartości (<names>
).
UNRECOGNIZED_PARAMETER_NAME
Nie można wywołać funkcji <functionName>
, ponieważ wywołanie funkcji zawiera nazwane odwołanie argumentu dla argumentu o nazwie <argumentName>
, ale ta funkcja nie zawiera żadnego podpisu zawierającego argument o tej nazwie. Czy masz na myśli jedną z następujących czynności? [<proposal>
].
UNRECOGNIZED_SQL_TYPE
Nierozpoznany typ SQL — nazwa: <typeName>
, identyfikator: <jdbcType>
.
UNRESOLVABLE_TABLE_VALUED_FUNCTION
Nie można rozpoznać <name>
funkcji wartości tabeli.
Upewnij się, że <name>
jest ona zdefiniowana jako funkcja z wartością tabeli i że wszystkie wymagane parametry są poprawnie dostarczane.
Jeśli <name>
nie jest zdefiniowana, utwórz funkcję o wartości tabeli przed jej użyciem.
Aby uzyskać więcej informacji na temat definiowania funkcji wartości tabeli, zapoznaj się z dokumentacją platformy Apache Spark.
UNRESOLVED_ALL_IN_GROUP_BY
Nie można wywnioskowyć kolumn grupowania dla opcji GROUP BY ALL na podstawie klauzuli select. Jawnie określ kolumny grupowania.
UNRESOLVED_COLUMN
Nie można rozpoznać parametru kolumny, zmiennej lub funkcji o nazwie <objectName>
.
Aby uzyskać więcej informacji, zobacz UNRESOLVED_COLUMN
UNRESOLVED_FIELD
Nie można rozpoznać pola o nazwie <fieldName>
z kolumną <columnPath>
typu struktury .
Aby uzyskać więcej informacji, zobacz UNRESOLVED_FIELD
UNRESOLVED_MAP_KEY
Nie można rozpoznać kolumny <objectName>
jako klucza mapy. Jeśli klucz jest literałem ciągu, dodaj wokół niego pojedyncze cudzysłowy "".
Aby uzyskać więcej informacji, zobacz UNRESOLVED_MAP_KEY
UNRESOLVED_ROUTINE
Nie można rozpoznać procedury <routineName>
w ścieżce <searchPath>
wyszukiwania .
Aby uzyskać więcej informacji, zobacz UNRESOLVED_ROUTINE
UNRESOLVED_USING_COLUMN_FOR_JOIN
Nie można rozpoznać kolumny <colName>
USING po <side>
stronie sprzężenia. Kolumny <side>
-side: [<suggestion>
].
UNRESOLVED_VARIABLE
Nie można rozpoznać zmiennej <variableName>
w ścieżce <searchPath>
wyszukiwania .
UNSUPPORTED_ADD_FILE
Nie obsługuje dodawania pliku.
Aby uzyskać więcej informacji, zobacz UNSUPPORTED_ADD_FILE
UNSUPPORTED_ARROWTYPE
Nieobsługiwany typ <typeName>
strzałki .
UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION
Funkcja <funcName>
nie obsługuje zapytań wsadowych.
UNSUPPORTED_CALL
Nie można wywołać metody "<methodName>
" klasy "<className>
".
Aby uzyskać więcej informacji, zobacz UNSUPPORTED_CALL
UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING
Nie można użyć typu char/varchar w schemacie tabeli.
Jeśli chcesz, aby platforma Spark traktować je jako typ ciągu co platforma Spark 3.0 i starsze, ustaw wartość "spark.sql.legacy.charVarcharAsString" na wartość "true".
UNSUPPORTED_CLAUSE_FOR_OPERATION
Element <clause>
nie jest obsługiwany w przypadku programu <operation>
.
UNSUPPORTED_COLLATION
Sortowanie <collationName>
nie jest obsługiwane w następujących celach:
Aby uzyskać więcej informacji, zobacz UNSUPPORTED_COLLATION
UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE
Wspólny element nadrzędny ścieżki źródłowej i sourceArchiveDir powinien być zarejestrowany w interfejsie użytkownika.
Jeśli zostanie wyświetlony ten komunikat o błędzie, prawdopodobnie zarejestrujesz ścieżkę źródłową i element sourceArchiveDir w różnych lokalizacjach zewnętrznych.
Umieść je w jednej lokalizacji zewnętrznej.
UNSUPPORTED_CONSTRAINT_CLAUSES
Klauzule ograniczeń <clauses>
nie są obsługiwane.
UNSUPPORTED_CONSTRAINT_TYPE
Nieobsługiwany typ ograniczenia. Obsługiwane są tylko <supportedConstraintTypes>
UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY
Nieobsługiwany typ źródła danych dla zapytania bezpośredniego w plikach: <dataSourceType>
UNSUPPORTED_DATATYPE
Nieobsługiwany typ <typeName>
danych .
UNSUPPORTED_DATA_SOURCE_SAVE_MODE
Nie można zapisać źródła danych "<source>
" w trybie <createMode>
. Zamiast tego użyj trybu "Dołącz" lub "Zastąp".
UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE
Źródło <format>
danych nie obsługuje kolumny <columnName>
typu <columnType>
.
UNSUPPORTED_DATA_TYPE_FOR_ENCODER
Nie można utworzyć kodera dla elementu <dataType>
. Użyj innego typu danych wyjściowych dla ramki danych UDF lub DataFrame.
UNSUPPORTED_DEFAULT_VALUE
Wartości kolumn DOMYŚLNYch nie są obsługiwane.
Aby uzyskać więcej informacji, zobacz UNSUPPORTED_DEFAULT_VALUE
UNSUPPORTED_DESERIALIZER
Deserializator nie jest obsługiwany:
Aby uzyskać więcej informacji, zobacz UNSUPPORTED_DESERIALIZER
UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
Nie można utworzyć wygenerowanej kolumny <fieldName>
z wyrażeniem <expressionStr>
generowania, ponieważ <reason>
.
UNSUPPORTED_EXPR_FOR_OPERATOR
Operator zapytania zawiera jedno lub więcej nieobsługiwanych wyrażeń.
Rozważ ponowne przepisanie go, aby uniknąć funkcji okien, funkcji agregacji i funkcji generatora w klauzuli WHERE.
Nieprawidłowe wyrażenia: [<invalidExprSqls>
]
UNSUPPORTED_EXPR_FOR_PARAMETER
Parametr zapytania zawiera nieobsługiwane wyrażenie.
Parametry mogą być zmiennymi lub literałami.
Nieprawidłowe wyrażenie: [<invalidExprSql>
]
UNSUPPORTED_EXPR_FOR_WINDOW
Wyrażenie <sqlExpr>
nie jest obsługiwane w funkcji okna.
UNSUPPORTED_FEATURE
Ta funkcja nie jest obsługiwana:
Aby uzyskać więcej informacji, zobacz UNSUPPORTED_FEATURE
UNSUPPORTED_FN_TYPE
Nieobsługiwany typ funkcji zdefiniowanej przez użytkownika: <language>
UNSUPPORTED_GENERATOR
Generator nie jest obsługiwany:
Aby uzyskać więcej informacji, zobacz UNSUPPORTED_GENERATOR
UNSUPPORTED_GROUPING_EXPRESSION
grupowanie()/grouping_id() może być używane tylko z grupowaniemSets/Cube/Rollup.
UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE
<trigger>
pozycja początkowa <initialPosition>
nie jest obsługiwana w źródle Kinesis
UNSUPPORTED_INSERT
Nie można wstawić do obiektu docelowego.
Aby uzyskać więcej informacji, zobacz UNSUPPORTED_INSERT
UNSUPPORTED_JOIN_TYPE
Nieobsługiwany typ sprzężenia "<typ>
". Obsługiwane typy sprzężenia obejmują: <supported>
.
UNSUPPORTED_MANAGED_TABLE_CREATION
Tworzenie tabeli <tableName>
zarządzanej przy użyciu źródła <dataSource>
danych nie jest obsługiwane. Musisz użyć funkcji DELTA źródła danych lub utworzyć tabelę zewnętrzną przy użyciu polecenia CREATE EXTERNAL TABLE <tableName>
... USING <dataSource>
...
UNSUPPORTED_MERGE_CONDITION
Operacja MERGE zawiera nieobsługiwany <condName>
warunek.
Aby uzyskać więcej informacji, zobacz UNSUPPORTED_MERGE_CONDITION
UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY
Tabela <tableName>
ma zasady zabezpieczeń na poziomie wiersza lub maskę kolumny, która pośrednio odwołuje się do innej tabeli z zasadami zabezpieczeń na poziomie wiersza lub maską kolumn; nie jest to obsługiwane. Sekwencja wywołań: <callSequence>
UNSUPPORTED_OVERWRITE
Nie można zastąpić obiektu docelowego, z którego jest również odczytywany.
Aby uzyskać więcej informacji, zobacz UNSUPPORTED_OVERWRITE
UNSUPPORTED_SAVE_MODE
Tryb <saveMode>
zapisywania nie jest obsługiwany w następujących celach:
Aby uzyskać więcej informacji, zobacz UNSUPPORTED_SAVE_MODE
UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK
<outputMode>
Tryb danych wyjściowych nie jest obsługiwany w <statefulOperator>
przypadku przesyłania strumieniowego ramek danych/zestawów danych bez znaku wodnego.
UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
Nieobsługiwane do przesyłania strumieniowego widoku. Przyczyna:
Aby uzyskać więcej informacji, zobacz UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED
Opcje <options>
przesyłania strumieniowego nie są obsługiwane w przypadku źródła <source>
danych w udostępnionym klastrze. Upewnij się, że opcje są określone i pisownia poprawne, i sprawdźhttps://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode ograniczenia.
UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED
Źródło <sink>
danych nie jest obsługiwane jako ujście przesyłania strumieniowego w udostępnionym klastrze.
UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED
Źródło <source>
danych nie jest obsługiwane jako źródło przesyłania strumieniowego w klastrze udostępnionym.
UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION
Funkcja <funcName>
nie obsługuje przesyłania strumieniowego. Usuń słowo kluczowe STREAM
UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE
<streamReadLimit>
nie jest obsługiwana w źródle Kinesis
UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
Nieobsługiwane wyrażenie podzapytania:
Aby uzyskać więcej informacji, zobacz UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
UNSUPPORTED_TIMESERIES_COLUMNS
Tworzenie klucza podstawowego z kolumnami timeseries nie jest obsługiwane
UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN
Tworzenie klucza podstawowego z więcej niż jedną kolumną <colSeq>
czasowników nie jest obsługiwane
UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE
<trigger>
nie jest obsługiwana w źródle Kinesis
UNSUPPORTED_TYPED_LITERAL
Literały typu <unsupportedType>
nie są obsługiwane. Obsługiwane typy to <supportedTypes>
.
UNTYPED_SCALA_UDF
Używasz nietypowej funkcji UDF języka Scala, która nie ma informacji o typie wejściowym.
Platforma Spark może ślepo przekazać wartość null do zamknięcia języka Scala z argumentem typu pierwotnego, a zamknięcie zobaczy domyślną wartość typu Języka Java dla argumentu o wartości null, np. udf((x: Int) => x, IntegerType)
, wynik wynosi 0 dla danych wejściowych o wartości null. Aby pozbyć się tego błędu, możesz:
- użyj typowych interfejsów API funkcji UDF Scala (bez parametru typu zwrotnego), np.
udf((x: Int) => x)
. - użyj interfejsów API funkcji UDF języka Java, np.
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)
, jeśli typy danych wejściowych są inne niż pierwotne. - ustaw wartość "spark.sql.legacy.allowUntypedScalaUDF" na wartość "true" i użyj tego interfejsu API z ostrożnością.
UPGRADE_NOT_SUPPORTED
Tabela nie kwalifikuje się do uaktualnienia z magazynu metadanych Hive do wykazu aparatu Unity. Przyczyna:
Aby uzyskać więcej informacji, zobacz UPGRADE_NOT_SUPPORTED
USER_DEFINED_FUNCTIONS
Funkcja zdefiniowana przez użytkownika jest nieprawidłowa:
Aby uzyskać więcej informacji, zobacz USER_DEFINED_FUNCTIONS
USER_RAISED_EXCEPTION
<errorMessage>
USER_RAISED_EXCEPTION_PARAMETER_MISMATCH
Funkcja została użyta raise_error()
do wywołania klasy błędów: <errorClass>
która oczekuje parametrów: <expectedParms>
.
Podane parametry <providedParms>
nie są zgodne z oczekiwanymi parametrami.
Upewnij się, że wszystkie oczekiwane parametry są podane.
USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS
Funkcja została użyta raise_error()
do wywołania nieznanej klasy błędu: <errorClass>
VARIABLE_ALREADY_EXISTS
Nie można utworzyć zmiennej <variableName>
, ponieważ już istnieje.
Wybierz inną nazwę lub upuść lub zastąp istniejącą zmienną.
VARIABLE_NOT_FOUND
Nie można odnaleźć zmiennej <variableName>
. Sprawdź pisownię i poprawność schematu i wykazu.
Jeśli nazwa nie została zakwalifikowana do schematu i katalogu, sprawdź dane wyjściowe current_schema() lub zakwalifikuj nazwę z poprawnym schematem i wykazem.
Aby tolerować błąd podczas upuszczania, użyj ZMIENNEJ DROP, JEŚLI ISTNIEJE.
VARIANT_CONSTRUCTOR_SIZE_LIMIT
Nie można skonstruować wariantu większego niż 16 MiB. Maksymalny dozwolony rozmiar wartości wariantu to 16 MiB.
VARIANT_DUPLICATE_KEY
Nie można skompilować wariantu z powodu zduplikowanego klucza <key>
obiektu .
VARIANT_SIZE_LIMIT
Nie można skompilować wariantu większego niż <sizeLimit>
w elem.<functionName>
Unikaj dużych ciągów wejściowych w tym wyrażeniu (na przykład dodaj wywołania funkcji w celu sprawdzenia rozmiaru wyrażenia i przekonwertuj go na wartość NULL, jeśli jest zbyt duży).
VIEW_ALREADY_EXISTS
Nie można utworzyć widoku <relationName>
, ponieważ już istnieje.
Wybierz inną nazwę, upuść lub zastąp istniejący obiekt albo dodaj klauzulę IF NOT EXISTS, aby tolerować istniejące obiekty.
VIEW_EXCEED_MAX_NESTED_DEPTH
Głębokość widoku <viewName>
przekracza maksymalną głębokość rozdzielczości widoku (<maxNestedDepth>
).
Analiza została przerwana, aby uniknąć błędów. Jeśli chcesz obejść ten cel, spróbuj zwiększyć wartość "spark.sql.view.maxNestedViewDepth".
VIEW_NOT_FOUND
Nie można odnaleźć widoku <relationName>
. Sprawdź pisownię i poprawność schematu i wykazu.
Jeśli nazwa nie została zakwalifikowana za pomocą schematu, sprawdź dane wyjściowe current_schema() lub zakwalifikuj nazwę z poprawnym schematem i wykazem.
Aby tolerować błąd podczas upuszczania, użyj WIDOKU DROP, JEŚLI ISTNIEJE.
VOLUME_ALREADY_EXISTS
Nie można utworzyć woluminu <relationName>
, ponieważ już istnieje.
Wybierz inną nazwę, upuść lub zastąp istniejący obiekt albo dodaj klauzulę IF NOT EXISTS, aby tolerować istniejące obiekty.
WINDOW_FUNCTION_AND_FRAME_MISMATCH
<funcName>
funkcję można ocenić tylko w uporządkowanej ramce okna opartej na wierszach z pojedynczym przesunięciem: <windowExpr>
.
WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE
Funkcja <funcName>
Window wymaga klauzuli OVER.
WITH_CREDENTIAL
Składnia WITH CREDENTIAL nie jest obsługiwana w przypadku programu <type>
.
WRITE_STREAM_NOT_ALLOWED
writeStream
może być wywoływany tylko w przypadku przesyłania strumieniowego zestawu danych/ramki danych.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED
Nie można wykonać polecenia, ponieważ wartości DOMYŚLNE nie są obsługiwane podczas dodawania nowego
kolumny do poprzednio istniejących tabel delty; Dodaj kolumnę bez wartości domyślnej
najpierw uruchom drugie polecenie ALTER TABLE ALTER COLUMN SET DEFAULT, aby zastosować
w przypadku wstawiania wierszy w przyszłości.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED
Nie można wykonać <commandType>
polecenia, ponieważ przypisano mu wartość DEFAULT kolumny,
ale odpowiednia funkcja tabeli nie została włączona. Ponów próbę ponownego polecenia
po wykonaniu polecenia ALTER TABLE tableName SET
TBLPROPERTIES('delta.feature.allowColumnDefaults' = 'supported').
WRONG_COMMAND_FOR_OBJECT_TYPE
Operacja <operation>
wymaga .<requiredType>
Ale <objectName>
jest .<foundType>
Użycie w zamian parametru <alternative>
.
WRONG_NUM_ARGS
Parametr <functionName>
wymaga <expectedNum>
, ale rzeczywista liczba to <actualNum>
.
Aby uzyskać więcej informacji, zobacz WRONG_NUM_ARGS
XML_ROW_TAG_MISSING
<rowTag>
opcja jest wymagana do odczytywania plików w formacie XML.
XML_UNSUPPORTED_NESTED_TYPES
Kod XML nie obsługuje <innerDataType>
typu wewnętrznego <dataType>
. Opakuj <innerDataType>
element w polu StructType podczas korzystania z niego wewnątrz <dataType>
elementu .
XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR
Nie można jednocześnie włączyć uratowanych danych i kolumn wieloznacznych. Usuń opcję Symbol wieloznacznyColumnName.
ZORDERBY_COLUMN_DOES_NOT_EXIST
Kolumna <columnName>
ZOrderBy nie istnieje.
Delta Lake
DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND
Nie można odnaleźć aktywnej platformy SparkSession
DELTA_ACTIVE_TRANSACTION_ALREADY_SET
Nie można ustawić nowego txn jako aktywnego, gdy jest już aktywny
DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED
Nie można dodać kolumny <colName>
, ponieważ nazwa jest zarezerwowana.
DELTA_ADDING_DELETION_VECTORS_DISALLOWED
Bieżąca operacja próbowała dodać wektor usuwania do tabeli, która nie zezwala na tworzenie nowych wektorów usuwania. Zgłoś raport o usterce.
DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED
Wszystkie operacje, które dodają wektory usuwania, powinny ustawić kolumnę tightBounds w statystykach na wartość false. Zgłoś raport o usterce.
DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO
Indeks <columnIndex>
dodawania kolumny <columnName>
jest niższy niż 0
DELTA_ADD_COLUMN_PARENT_NOT_STRUCT
Nie można dodać <columnName>
, ponieważ jego element nadrzędny nie jest obiektem StructType. Założyć <other>
DELTA_ADD_COLUMN_STRUCT_NOT_FOUND
Nie można odnaleźć struktury w pozycji <position>
DELTA_ADD_CONSTRAINTS
Użyj polecenia ALTER TABLE ADD CONSTRAINT, aby dodać ograniczenia CHECK.
DELTA_AGGREGATE_IN_GENERATED_COLUMN
Znaleziono <sqlExpr>
plik . Wygenerowana kolumna nie może używać wyrażenia agregowanego
DELTA_AGGREGATION_NOT_SUPPORTED
Funkcje agregujące nie są obsługiwane w systemie <operation>
<predicate>
.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER
Nie można zmienić sortowania kolumny <column>
, ponieważ ma indeks filtru blooma. Zachowaj istniejące sortowanie lub usuń indeks filtru blooma, a następnie ponów próbę ponownego polecenia, aby zmienić sortowanie.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY
Nie można zmienić sortowania kolumny <column>
, ponieważ jest to kolumna klastrowania. Zachowaj istniejące sortowanie lub zmień kolumnę na kolumnę bez klastrowania za pomocą polecenia ALTER TABLE, a następnie spróbuj ponownie wykonać polecenie, aby zmienić sortowanie.
DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED
ZMIANA KOLUMNY ALTER TABLE NIE jest obsługiwana w przypadku zmiany kolumny <currentType>
na <newType>
DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED
Funkcja ALTER TABLE CLUSTER BY jest obsługiwana tylko w przypadku tabeli delta z klastrowaniem Liquid.
DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED
Alter TABLE CLUSTER BY nie można zastosować do tabeli partycjonowanej.
DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED
Niedozwolona operacja: ZMIANA NAZWY TABELI NA nie jest dozwolona dla zarządzanych tabel różnicowych w usłudze S3, ponieważ spójność ostateczna w usłudze S3 może uszkodzić dziennik transakcji różnicowych. Jeśli nalegasz na to i upewnij się, że wcześniej nie było tabeli delty o nowej nazwie <newName>
, możesz włączyć tę opcję, ustawiając <key>
wartość true.
DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
Nie można włączyć <tableFeature>
funkcji tabeli przy użyciu funkcji ALTER TABLE SET TBLPROPERTIES. Użyj polecenia CREATE OR REPLACE TABLE CLUSTER BY, aby utworzyć tabelę różnicową z klastrowaniem.
DELTA_AMBIGUOUS_DATA_TYPE_CHANGE
Nie można zmienić typu danych z <column>
<from>
na <to>
. Ta zmiana zawiera usunięcia kolumn i dodatki, dlatego są niejednoznaczne. Wprowadź te zmiany indywidualnie przy użyciu polecenia ALTER TABLE [ADD | DROP | ZMIEŃ NAZWĘ] KOLUMNA.
DELTA_AMBIGUOUS_PARTITION_COLUMN
Niejednoznaczna kolumna <column>
partycji może mieć wartość <colMatches>
.
DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE
FUNKCJA CREATE TABLE zawiera dwie różne lokalizacje: <identifier>
i <location>
.
Klauzulę LOCATION można usunąć z instrukcji CREATE TABLE lub ustawić
<config>
wartość true, aby pominąć tę kontrolę.
DELTA_ARCHIVED_FILES_IN_LIMIT
Tabela <table>
nie zawiera wystarczającej liczby rekordów w plikach niezarchiwizowanych, aby spełnić określony limit rekordów <limit>
.
DELTA_ARCHIVED_FILES_IN_SCAN
Znaleziono <numArchivedFiles>
potencjalnie zarchiwizowane pliki w tabeli <table>
, które należy zeskanować w ramach tego zapytania.
Nie można uzyskać dostępu do zarchiwizowanych plików. Bieżący czas do momentu skonfigurowania archiwizacji jako <archivalTime>
.
Dostosuj filtry zapytań, aby wykluczyć wszystkie zarchiwizowane pliki.
DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION
Operacja "<opName>
" nie jest dozwolona, gdy tabela włączyła zestawienie zmian danych (CDF) i przeszła zmiany schematu przy użyciu funkcji DROP COLUMN lub RENAME COLUMN.
DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS
Nie można usunąć indeksów filtru bloom dla następujących nieistniejących kolumn: <unknownColumns>
DELTA_BLOOM_FILTER_OOM_ON_WRITE
Błąd OutOfMemoryError wystąpił podczas pisania indeksów filtrów bloom dla następujących kolumn: <columnsWithBloomFilterIndices>
.
Możesz zmniejszyć ilość pamięci indeksów filtru blooma, wybierając mniejszą wartość opcji "numItems", większą wartość opcji "fpp" lub indeksując mniej kolumn.
DELTA_CANNOT_CHANGE_DATA_TYPE
Nie można zmienić typu danych: <dataType>
DELTA_CANNOT_CHANGE_LOCATION
Nie można zmienić lokalizacji tabeli delty przy użyciu funkcji SET TBLPROPERTIES. Zamiast tego użyj POLECENIA ALTER TABLE SET LOCATION.
DELTA_CANNOT_CHANGE_PROVIDER
"provider" to właściwość tabeli zarezerwowanej i nie można jej zmienić.
DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL
Nie można utworzyć indeksów filtru bloom dla następujących nieistniejących kolumn: <unknownCols>
DELTA_CANNOT_CREATE_LOG_PATH
Nie można utworzyć <path>
DELTA_CANNOT_DESCRIBE_VIEW_HISTORY
Nie można opisać historii widoku.
DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN
Nie można usunąć indeksu filtru blooma w kolumnie nieindeksowanej: <columnName>
DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE
Nie można usunąć funkcji tabeli ograniczeń CHECK.
Najpierw należy porzucić następujące ograniczenia: <constraints>
.
DELTA_CANNOT_EVALUATE_EXPRESSION
Nie można ocenić wyrażenia: <expression>
DELTA_CANNOT_FIND_BUCKET_SPEC
Oczekiwano tabeli delty zasobnika, ale nie można odnaleźć specyfikacji zasobnika w tabeli
DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION
Nie można wygenerować kodu dla wyrażenia: <expression>
DELTA_CANNOT_MODIFY_APPEND_ONLY
Ta tabela jest skonfigurowana tak, aby zezwalała tylko na dołączanie. Jeśli chcesz zezwolić na aktualizacje lub usunięcia, użyj polecenia "ALTER TABLE <table_name> SET TBLPROPERTIES (<config>
=false)".
DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES
<Command>
Nie można zastąpić lub usunąć ustawienia właściwości tabeli sygnatury czasowej zatwierdzania, ponieważ skoordynowane zatwierdzenia są włączone w tej tabeli i zależą od nich. Usuń je ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") z klauzuli TBLPROPERTIES, a następnie ponów próbę polecenia ponownie.
DELTA_CANNOT_MODIFY_TABLE_PROPERTY
Nie można określić konfiguracji <prop>
tabeli delty przez użytkownika
DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS
<Command>
Program nie może zastąpić konfiguracji zatwierdzeń skoordynowanych dla istniejącej tabeli docelowej. Usuń je ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview", "delta.coordinatedCommits.tableConf-preview") z klauzuli TBLPROPERTIES, a następnie ponów próbę polecenia ponownie.
DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI
Identyfikator URI (<uri>
), którego nie można przekształcić w ścieżkę względną, został znaleziony w dzienniku transakcji.
DELTA_CANNOT_RELATIVIZE_PATH
Ścieżka (<path>
), której nie można powiązać z bieżącymi danymi wejściowymi znajdującymi się w elemencie
dziennik transakcji. Uruchom ponownie następujące polecenie:
%%scala com.databricks.delta.delta.fixAbsolutePathsInLog("<userPath>
,true)
a następnie uruchom następujące polecenie:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<path>
")
DELTA_CANNOT_RENAME_PATH
Nie można zmienić nazwy <currentPath>
na <newPath>
DELTA_CANNOT_REPLACE_MISSING_TABLE
Nie można zastąpić tabeli <tableName>
, ponieważ nie istnieje. Użyj polecenia CREATE OR REPLACE TABLE, aby utworzyć tabelę.
DELTA_CANNOT_RESOLVE_COLUMN
Nie można rozpoznać kolumny <columnName>
w <schema>
DELTA_CANNOT_RESTORE_TABLE_VERSION
Nie można przywrócić tabeli do wersji <version>
. Dostępne wersje: [<startVersion>
, <endVersion>
].
DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER
Nie można przywrócić tabeli do sygnatury czasowej (<requestedTimestamp>
), tak jak przed najwcześniejszą dostępną wersją. Użyj znacznika czasu po (<earliestTimestamp>
).
DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER
Nie można przywrócić tabeli do sygnatury czasowej (<requestedTimestamp>
), ponieważ jest ona dostępna po najnowszej dostępnej wersji. Użyj znacznika czasu przed (<latestTimestamp>
)
DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES
<Command>
Program nie może ustawić właściwości tabeli sygnatury czasowej zatwierdzenia w zatwierdzeniu razem z zatwierdzonymi zatwierdzeniami, ponieważ ten ostatni zależy od poprzedniego i ustawia pierwszy wewnętrznie. Usuń je ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") z klauzuli TBLPROPERTIES, a następnie ponów próbę polecenia ponownie.
DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER
Nie można zmienić lokalizacji tabeli opartej na ścieżkach.
DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY
Nie można ustawić obiektu delta.managedDataSkippingStatsColumns w tabeli innej niż DLT
DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS
Alter nie może nie konfigurować konfiguracji zatwierdzeń skoordynowanych. Aby obniżyć dół tabeli z skoordynowanych zatwierdzeń, spróbuj ponownie przy użyciu polecenia ALTER TABLE [table-name] DROP FEATURE 'coordinatedCommits-preview'
.
DELTA_CANNOT_UPDATE_ARRAY_FIELD
Nie można zaktualizować pola %1$s %2$s: zaktualizuj element, aktualizując element %2$s.,
DELTA_CANNOT_UPDATE_MAP_FIELD
Nie można zaktualizować pola %1$s %2$s: zaktualizuj mapę, aktualizując %2$s.key lub %2$s..
DELTA_CANNOT_UPDATE_OTHER_FIELD
Nie można zaktualizować <tableName>
pola typu <typeName>
DELTA_CANNOT_UPDATE_STRUCT_FIELD
Nie można zaktualizować <tableName>
typu pola <fieldName>
: aktualizacja struktury przez dodanie, usunięcie lub zaktualizowanie pól
DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION
Nie można użyć wszystkich kolumn dla kolumn partycji
DELTA_CANNOT_WRITE_INTO_VIEW
<table>
to widok. Zapisy w widoku nie są obsługiwane.
DELTA_CAST_OVERFLOW_IN_TABLE_WRITE
Nie można zapisać wartości <sourceType>
typu w <targetType>
kolumnie <columnName>
typu z powodu przepełnienia.
Użyj try_cast
wartości wejściowej, aby tolerować przepełnienie i zwracać wartość NULL.
W razie potrzeby ustaw <storeAssignmentPolicyFlag>
wartość "LEGACY", aby pominąć ten błąd lub ustawić <updateAndMergeCastingFollowsAnsiEnabledFlag>
wartość true, aby przywrócić stare zachowanie i postępować zgodnie z instrukcjami <ansiEnabledFlag>
UPDATE i MERGE.
DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION
Nie można ustawić właściwości delta.enableChangeDataFeed. Zmiana źródła danych z funkcji Delta nie jest jeszcze dostępna.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA
Pobieranie zmian tabeli między wersją <start>
a <end>
niepowodzeniem z powodu niezgodnego schematu danych.
Schemat odczytu jest <readSchema>
w wersji <readVersion>
, ale znaleźliśmy niezgodny schemat danych w wersji <incompatibleVersion>
.
Jeśli to możliwe, pobierz zmiany tabeli przy użyciu schematu wersji końcowej, ustawiając wartość <config>
endVersion
, lub skontaktuj się z pomocą techniczną.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE
Pobieranie zmian tabeli między wersją <start>
a <end>
niepowodzeniem z powodu niezgodnej zmiany schematu.
Schemat odczytu jest <readSchema>
w wersji <readVersion>
, ale znaleźliśmy niezgodną zmianę schematu w wersji <incompatibleVersion>
.
Jeśli to możliwe, kwerenda tabeli zmienia się oddzielnie od wersji <start>
do <incompatibleVersion>
- 1 i z wersji <incompatibleVersion>
na <end>
.
DELTA_CHANGE_DATA_FILE_NOT_FOUND
Nie można odnaleźć pliku <filePath>
, do którego odwołuje się dziennik transakcji. Taka sytuacja może wystąpić, gdy dane zostały ręcznie usunięte z systemu plików, a nie przy użyciu instrukcji table DELETE
. To żądanie wydaje się być przeznaczone dla zestawienia zmian danych, jeśli tak jest, ten błąd może wystąpić, gdy plik zmian danych jest poza okresem przechowywania i został usunięty przez instrukcję VACUUM
. Aby uzyskać więcej informacji, zobacz <faqPath>
.
DELTA_CHANGE_TABLE_FEED_DISABLED
Nie można zapisać w tabeli z zestawem delta.enableChangeDataFeed. Zmiana źródła danych z funkcji Delta jest niedostępna.
DELTA_CHECKPOINT_NON_EXIST_TABLE
Nie można wskazać punktu kontrolnego nieistnienej tabeli <path>
. Czy ręcznie usunięto pliki w katalogu _delta_log?
DELTA_CLONE_AMBIGUOUS_TARGET
Dwie ścieżki zostały podane jako obiekt docelowy CLONE, więc jest niejednoznaczne, którego należy użyć. Zewnętrzne
lokalizacja klonowania została podana w <externalLocation>
tym samym czasie co ścieżka
<targetIdentifier>
.
DELTA_CLONE_INCOMPLETE_FILE_COPY
Plik (<fileName>
) nie został całkowicie skopiowany. Oczekiwany rozmiar pliku: <expectedSize>
, znaleziony: <actualSize>
. Aby kontynuować operację, ignorując sprawdzanie rozmiaru pliku ustawione <config>
na wartość false.
DELTA_CLONE_UNSUPPORTED_SOURCE
Nieobsługiwane <mode>
źródło klonowania '<name>
', którego format to <format>
.
Obsługiwane formaty to "delta", "góra lodowa" i "parquet".
DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED
Funkcja CLONE nie jest obsługiwana w przypadku tabeli delty z klastrowaniem Liquid dla DBR w wersji < 14.0.
DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED
Funkcja CLUSTER BY nie jest obsługiwana, ponieważ następujące kolumny: <columnsWithDataTypes>
nie obsługują pomijania danych.
DELTA_CLUSTERING_COLUMNS_MISMATCH
Podane kolumny klastrowania nie są zgodne z istniejącymi tabelami.
- Dostarczane:
<providedClusteringColumns>
- Istniejących:
<existingClusteringColumns>
DELTA_CLUSTERING_COLUMN_MISSING_STATS
Klastrowanie liquid wymaga, aby kolumny klastrowania miały statystyki. Nie można odnaleźć kolumn klastrowania "<columns>
" w schemacie statystyk:
<schema>
DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE
Tworzenie tabeli zewnętrznej bez płynnego klastrowania z katalogu tabeli z klastrowaniem płynnym jest niedozwolone; path: <path>
.
DELTA_CLUSTERING_NOT_SUPPORTED
"<operation>
" nie obsługuje klastrowania.
DELTA_CLUSTERING_PHASE_OUT_FAILED
Nie można zakończyć <phaseOutType>
tabeli za pomocą <tableFeatureToAdd>
funkcji tabeli (przyczyna: <reason>
). Spróbuj ponownie użyć polecenia OPTIMIZE.
== Błąd ==
<error>
DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE
Zamień tabelę delty na klaster Liquid z tabelą partycjonowaną nie jest dozwolona.
DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS
Funkcja SHOW CREATE TABLE nie jest obsługiwana w przypadku tabeli delty z klastrowaniem Liquid bez żadnych kolumn klastrowania.
DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS
Przenoszenie tabeli delty z płynnym klastrowaniem do tabeli partycjonowanej nie jest dozwolone dla operacji: <operation>
, jeśli istniejąca tabela ma niepuste kolumny klastrowania.
Uruchom polecenie ALTER TABLE CLUSTER BY NONE, aby najpierw usunąć kolumny klastrowania.
DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE
Tryb zastępowania partycji dynamicznej nie jest dozwolony dla tabeli delta z klastrowaniem Liquid.
DELTA_CLUSTERING_WITH_PARTITION_PREDICATE
Polecenie OPTIMIZE dla tabeli delta z klastrowaniem Liquid nie obsługuje predykatów partycji. Usuń predykaty: <predicates>
.
DELTA_CLUSTERING_WITH_ZORDER_BY
Polecenie OPTIMIZE dla tabeli delta z klastrowaniem Liquid nie może określić ZORDER BY. Usuń element ZORDER BY (<zOrderBy>
).
DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS
KLASTER BY dla klastrowania Liquid obsługuje maksymalnie <numColumnsLimit>
kolumny klastrowania, ale tabela zawiera <actualNumColumns>
kolumny klastrowania. Usuń dodatkowe kolumny klastrowania.
DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED
Nie można określić parametru CLUSTER BY, jeśli schemat nie jest zdefiniowany. Zdefiniuj schemat dla tabeli <tableName>
.
DELTA_CLUSTER_BY_WITH_BUCKETING
Nie można określić klastrowania i zasobnika. Usuń klasterED BY INTO BUCKETS / bucketBy, jeśli chcesz utworzyć tabelę różnicową z klastrowaniem.
DELTA_CLUSTER_BY_WITH_PARTITIONED_BY
Nie można określić klastrowania i partycjonowania. Jeśli chcesz utworzyć tabelę różnicową z klastrowaniem, usuń element PARTITIONED BY/partitionedBy.
DELTA_COLLATIONS_NOT_SUPPORTED
Sortowania nie są obsługiwane w usłudze Delta Lake.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN
Pomijanie danych nie jest obsługiwane w przypadku kolumny partycji "<column>
".
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE
Pomijanie danych nie jest obsługiwane dla kolumny "<column>
" typu <type>
.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET
Właściwość maksymalnego identyfikatora kolumny (<prop>
) nie jest ustawiana w tabeli z włączoną obsługą mapowania kolumn.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY
Maksymalna właściwość identyfikatora kolumny (<prop>
) w tabeli z włączoną mapowaniem kolumny to <tableMax>
, która nie może być mniejsza niż maksymalny identyfikator kolumny dla wszystkich pól (<fieldMax>
).
DELTA_COLUMN_MISSING_DATA_TYPE
Nie podano typu danych kolumny <colName>
.
DELTA_COLUMN_NOT_FOUND
Nie można odnaleźć kolumny <columnName>
podanej [<columnList>
]
DELTA_COLUMN_NOT_FOUND_IN_MERGE
Nie można odnaleźć kolumny "<targetCol>
" tabeli docelowej z kolumn INSERT: <colNames>
. Klauzula INSERT musi określać wartość dla wszystkich kolumn tabeli docelowej.
DELTA_COLUMN_NOT_FOUND_IN_SCHEMA
Nie można odnaleźć kolumny <columnName>
w:
<tableSchema>
DELTA_COLUMN_PATH_NOT_NESTED
Oczekiwano <columnPath>
typu danych zagnieżdżonych, ale znaleziono <other>
element . Szukał
indeks w <column>
zagnieżdżonym polu.
Schemat:
<schema>
DELTA_COLUMN_STRUCT_TYPE_MISMATCH
Nie można wstawić kolumny <source>
struktury do <targetType>
pola <targetField>
w pliku <targetTable>
.
DELTA_COMPACTION_VALIDATION_FAILED
Walidacja kompaktowania ścieżki <compactedPath>
nie powiodła się <newPath>
: Zgłoś raport o błędach.
DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE
Odnaleziono zagnieżdżony typ NullType w kolumnie <columName>
, która ma wartość <dataType>
. Funkcja Delta nie obsługuje zapisywania wartości NullType w typach złożonych.
DELTA_CONCURRENT_APPEND
ConcurrentAppendException: Pliki zostały dodane <partition>
przez współbieżną aktualizację. <retryMsg>
<conflictingCommit>
Aby uzyskać więcej informacji, zapoznaj się z <docLink>
tematem .
DELTA_CONCURRENT_DELETE_DELETE
ConcurrentDeleteDeleteException: ta transakcja próbowała usunąć co najmniej jeden plik, który został usunięty (na przykład <file>
) przez współbieżną aktualizację. Spróbuj ponownie wykonać operację.<conflictingCommit>
Aby uzyskać więcej informacji, zapoznaj się z <docLink>
tematem .
DELTA_CONCURRENT_DELETE_READ
ConcurrentDeleteReadException: ta transakcja próbowała odczytać co najmniej jeden plik, który został usunięty (na przykład <file>
) przez współbieżną aktualizację. Spróbuj ponownie wykonać operację.<conflictingCommit>
Aby uzyskać więcej informacji, zapoznaj się z <docLink>
tematem .
DELTA_CONCURRENT_TRANSACTION
ConcurrentTransactionException: ten błąd występuje, gdy wiele zapytań przesyłanych strumieniowo używa tego samego punktu kontrolnego do zapisania w tej tabeli. Czy uruchomiono wiele wystąpień tego samego zapytania przesyłania strumieniowego w tym samym czasie?<conflictingCommit>
Aby uzyskać więcej informacji, zapoznaj się z <docLink>
tematem .
DELTA_CONCURRENT_WRITE
ConcurrentWriteException: Współbieżna transakcja zapisywała nowe dane od czasu odczytania tabeli przez bieżącą transakcję. Spróbuj ponownie wykonać operację.<conflictingCommit>
Aby uzyskać więcej informacji, zapoznaj się z <docLink>
tematem .
DELTA_CONFLICT_SET_COLUMN
Występuje konflikt z tych kolumn SET: <columnList>
.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND
Podczas <command>
polecenia nie można ustawić konfiguracji "<configuration>
". Usuń go z klauzuli TBLPROPERTIES, a następnie ponów próbę ponownego uruchomienia polecenia.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION
Podczas <command>
konfiguracji "<configuration>
" nie można ustawić konfiguracji platformy SparkSession. Usuń jego ustawienia, uruchamiając spark.conf.unset("<configuration>")
polecenie, a następnie ponów próbę ponownego uruchomienia polecenia.
DELTA_CONSTRAINT_ALREADY_EXISTS
Ograniczenie "<constraintName>
" już istnieje. Najpierw usuń stare ograniczenie.
Stare ograniczenie:
<oldConstraint>
DELTA_CONSTRAINT_DATA_TYPE_MISMATCH
Kolumna <columnName>
zawiera typ danych i nie można jej zmienić na typ <dataType>
<columnType>
danych, ponieważ ta kolumna jest przywoływane przez następujące ograniczenia sprawdzania:
<constraints>
DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE
Nie można zmienić kolumny <columnName>
, ponieważ ta kolumna jest przywoływane przez następujące ograniczenia sprawdzania:
<constraints>
DELTA_CONSTRAINT_DOES_NOT_EXIST
Nie można usunąć nieistniejących ograniczeń <constraintName>
z tabeli <tableName>
. Aby uniknąć zgłaszania błędu, podaj parametr IF EXISTS lub ustaw konfigurację <config>
sesji SQL na <confValue>
wartość .
DELTA_CONVERSION_NO_PARTITION_FOUND
Nie znaleziono informacji o partycji w wykazie dla tabeli <tableName>
. Czy w tabeli uruchomiono polecenie "MSCK REPAIR TABLE", aby odnaleźć partycje?
DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN
Nie można przekonwertować tabeli Parquet z kolumną partycji <colName>
sortowania na różnicę.
DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING
Nie można ustawić konfiguracji "<config>
" na <mode>
w przypadku używania funkcji KONWERTUJ NA RÓŻNICĘ.
DELTA_CONVERT_NON_PARQUET_TABLE
Funkcja KONWERTUJ NA FUNKCJĘ DELTA obsługuje tylko tabele parquet, ale próbujesz przekonwertować <sourceName>
źródło: <tableId>
DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS
Nie można włączyć śledzenia wierszy bez zbierania statystyk.
Jeśli chcesz włączyć śledzenie wierszy, wykonaj następujące czynności:
Włącz zbieranie statystyk, uruchamiając polecenie
SET
<statisticsCollectionPropertyKey>
= true- Uruchom polecenie KONWERTUJ NA DELTA bez opcji BEZ STATYSTYK.
Jeśli nie chcesz zbierać statystyk, wyłącz śledzenie wierszy:
Dezaktywowanie włączania funkcji tabeli domyślnie przez uruchomienie polecenia :
RESETOWAĆ
<rowTrackingTableFeatureDefaultKey>
Dezaktywuj właściwość tabeli domyślnie, uruchamiając polecenie:
SET
<rowTrackingDefaultPropertyKey>
= false
DELTA_COPY_INTO_TARGET_FORMAT
Element docelowy COPY INTO musi być tabelą delty.
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA
Próbujesz utworzyć tabelę zewnętrzną <tableName>
z <path>
używania funkcji Delta, ale schemat nie jest określony, gdy parametr
ścieżka wejściowa jest pusta.
Aby dowiedzieć się więcej o funkcji Delta, zobacz <docLink>
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG
Próbujesz utworzyć tabelę zewnętrzną <tableName>
z używania %2$s
funkcji Delta, ale nie ma dziennika transakcji w
%2$s/_delta_log
. Sprawdź zadanie nadrzędne, aby upewnić się, że jest ono zapisywane przy użyciu polecenia
format("delta") i że ścieżka jest katalogem głównym tabeli.
Aby dowiedzieć się więcej o funkcji Delta, zobacz <docLink>
DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH
Tworzenie tabeli delty opartej na ścieżkach z inną lokalizacją nie jest obsługiwane. Identyfikator: <identifier>
, Lokalizacja: <location>
DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION
Należy określić nazwę tabeli lub lokalizację.
DELTA_CREATE_TABLE_SCHEME_MISMATCH
Określony schemat nie jest zgodny z istniejącym schematem pod adresem <path>
.
== Określony ==
<specifiedSchema>
== Istniejące ==
<existingSchema>
== Różnice ==
<schemaDifferences>
Jeśli twoim zamiarem jest zachowanie istniejącego schematu, możesz pominąć
schema z polecenia create table. W przeciwnym razie upewnij się, że
schemat jest zgodny.
DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
Nie można włączyć <tableFeature>
funkcji tabeli przy użyciu funkcji TBLPROPERTIES. Użyj polecenia CREATE OR REPLACE TABLE CLUSTER BY, aby utworzyć tabelę różnicową z klastrowaniem.
DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING
Określone kolumny klastrowania nie są zgodne z istniejącymi kolumnami klastrowania pod adresem <path>
.
== Określony ==
<specifiedColumns>
== Istniejące ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING
Określone partycjonowanie nie jest zgodne z istniejącym partycjonowaniem na stronie <path>
.
== Określony ==
<specifiedColumns>
== Istniejące ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY
Określone właściwości nie są zgodne z istniejącymi właściwościami na <path>
stronie .
== Określony ==
<specifiedProperties>
== Istniejące ==
<existingProperties>
DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION
Nie można utworzyć tabeli ('<tableId>
'). Skojarzona lokalizacja ('<tableLocation>
') nie jest pusta, a także nie tabela delty.
DELTA_DATA_CHANGE_FALSE
Nie można zmienić metadanych tabeli, ponieważ opcja "dataChange" jest ustawiona na wartość false. Podjęto próbę wykonania operacji: "<op>
".
DELTA_DELETED_PARQUET_FILE_NOT_FOUND
Nie można odnaleźć pliku <filePath>
, do którego odwołuje się dziennik transakcji. Ten plik parquet może zostać usunięty w zasadach przechowywania danych delty.
Domyślny czas przechowywania danych różnicy: <logRetentionPeriod>
. Czas modyfikacji pliku parquet: <modificationTime>
. Czas usunięcia pliku parquet: <deletionTime>
. Usunięto wersję funkcji Delta: <deletionVersion>
.
DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS
Nie można zatwierdzić plików z wektorami usuwania, które nie mają statystyki numRecords.
DELTA_DOMAIN_METADATA_NOT_SUPPORTED
Wykryto akcję DomainMetadata dla domen <domainNames>
, ale domenaMetadataTableFeature nie jest włączona.
DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO
Indeks <columnIndex>
do upuszczania kolumny jest niższy niż 0
DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA
Nie można usunąć kolumny ze schematu z jedną kolumną. Schemat:
<schema>
DELTA_DUPLICATE_ACTIONS_FOUND
Operacja pliku "<actionType>
" dla ścieżki <path>
została określona kilka razy.
Powoduje konflikt z <conflictingPath>
.
Nie jest prawidłowa w przypadku wielu operacji na plikach z tą samą ścieżką do istnienia w jednym zatwierdzeniu.
DELTA_DUPLICATE_COLUMNS_FOUND
Znaleziono zduplikowane kolumny <coltype>
: <duplicateCols>
DELTA_DUPLICATE_COLUMNS_ON_INSERT
Zduplikowane nazwy kolumn w klauzuli INSERT
DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE
<message>
Przed zaktualizowaniem tabeli usuń zduplikowane kolumny.
DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS
Odnaleziono zduplikowane dane pomijając kolumny: <columns>
.
DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR
Błąd wewnętrzny: dwie akcje DomainMetadata w ramach tej samej transakcji mają tę samą domenę <domainName>
DELTA_DV_HISTOGRAM_DESERIALIZATON
Nie można wykonać deserializacji usuniętych rekordów histogramu podczas weryfikacji integralności tabeli.
DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED
Tryb zastępowania partycji dynamicznej jest określany przez opcje konfiguracji sesji lub zapisu, ale jest on wyłączony przez spark.databricks.delta.dynamicPartitionOverwrite.enabled=false
program .
DELTA_EMPTY_DATA
Dane używane podczas tworzenia tabeli delty nie mają żadnych kolumn.
DELTA_EMPTY_DIRECTORY
W katalogu nie znaleziono pliku: <directory>
.
DELTA_EXCEED_CHAR_VARCHAR_LIMIT
Wartość "<value>
" przekracza ograniczenie długości typu char/varchar. Sprawdzanie nie powiodło się: <expr>
.
DELTA_FAILED_CAST_PARTITION_VALUE
Nie można rzutować wartości <value>
partycji na <dataType>
DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS
Nie można odnaleźć <newAttributeName>
wśród istniejących danych wyjściowych docelowych <targetOutputColumns>
DELTA_FAILED_INFER_SCHEMA
Nie można wywnioskować schematu z podanej listy plików.
DELTA_FAILED_MERGE_SCHEMA_FILE
Nie można scalić schematu pliku <file>
:
<schema>
DELTA_FAILED_READ_FILE_FOOTER
Nie można odczytać stopki dla pliku: <currentFile>
DELTA_FAILED_RECOGNIZE_PREDICATE
Nie można rozpoznać predykatu "<predicate>
"
DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION
Oczekiwano pełnego skanowania najnowszej wersji źródła delta, ale odnaleziono historyczne skanowanie wersji <historicalVersion>
DELTA_FAILED_TO_MERGE_FIELDS
Nie można scalić pól "<currentField>
" i "<updateField>
"
DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH
Nie można wykonać operacji w tej tabeli, ponieważ następujące funkcje tabeli są włączone w metadanych, ale nie są wymienione w protokole: <features>
.
DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT
Schemat tabeli wymaga ręcznego włączenia następujących funkcji tabeli: <unsupportedFeatures>
.
W tym celu uruchom następujące polecenie dla każdej z funkcji wymienionych powyżej:
ALTER TABLE table_name SET TBLPROPERTIES ('delta.feature.feature_name' = 'supported')
Zastąp wartości "table_name" i "feature_name".
Bieżące obsługiwane funkcje: <supportedFeatures>
.
DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL
Nie można usunąć funkcji, ponieważ współbieżna transakcja zmodyfikowała tabelę.
Spróbuj ponownie wykonać operację.
<concurrentCommit>
DELTA_FEATURE_DROP_DEPENDENT_FEATURE
Nie można usunąć funkcji <feature>
tabeli, ponieważ niektóre inne funkcje (<dependentFeatures>
) w tej tabeli zależą od <feature>
.
Rozważ usunięcie ich najpierw przed usunięciem tej funkcji.
DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT
Nie można usunąć <feature>
z tej tabeli, ponieważ nie jest on obecnie obecny w protokole tabeli.
DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST
Nie można usunąć <feature>
, ponieważ dziennik delty zawiera wersje historyczne korzystające z tej funkcji.
Zaczekaj na okres przechowywania historii (<logRetentionPeriodKey>
=<logRetentionPeriod>
)
funkcja została przekazana od czasu ostatniego aktywnego działania funkcji.
Możesz też poczekać na wygaśnięcie okresu przechowywania HISTORII TRUNCATE (<truncateHistoryLogRetentionPeriod>
)
a następnie uruchom polecenie:
ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY
DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED
Określona funkcja nie wymaga obcinania historii.
DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE
Nie można usunąć <feature>
, ponieważ usunięcie tej funkcji nie jest obsługiwane.
Skontaktuj się z pomocą techniczną usługi Databricks.
DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE
Nie można usunąć <feature>
, ponieważ nie jest obsługiwana przez tę wersję usługi Databricks.
Rozważ użycie usługi Databricks z wyższą wersją.
DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD
Upuszczanie <feature>
zakończyło się częściowo pomyślnie.
Funkcja nie jest już używana w bieżącej wersji tabeli. Jednak funkcja
jest nadal obecny w historycznych wersjach tabeli. Nie można usunąć funkcji tabeli
z protokołu tabeli do momentu wygaśnięcia tych wersji historycznych.
Aby usunąć funkcję tabeli z protokołu, poczekaj na ukończenie wersji historycznych
wygaśnie, a następnie powtórz to polecenie. Okres przechowywania dla wersji historycznych to
obecnie skonfigurowany jako <logRetentionPeriodKey>
=<logRetentionPeriod>
.
Możesz też poczekać na wygaśnięcie okresu przechowywania HISTORII TRUNCATE (<truncateHistoryLogRetentionPeriod>
)
a następnie uruchom polecenie:
ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY
DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION
Nie można włączyć funkcji <feature>
tabeli, ponieważ wymaga nowszej wersji protokołu czytnika (current <current>
). Rozważ uaktualnienie wersji protokołu czytnika tabeli do <required>
wersji lub do wersji, która obsługuje funkcje tabel czytników. Aby uzyskać więcej informacji na temat wersji protokołu tabeli, zapoznaj się z <docLink>
artykułem.
DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION
Nie można włączyć funkcji <feature>
tabeli, ponieważ wymaga wyższej wersji protokołu zapisywania (current <current>
). Rozważ uaktualnienie wersji protokołu zapisywania tabeli do <required>
programu lub do wersji obsługującej funkcje tabeli składników zapisywania. Aby uzyskać więcej informacji na temat wersji protokołu tabeli, zapoznaj się z <docLink>
artykułem.
DELTA_FILE_ALREADY_EXISTS
Istniejąca ścieżka pliku <path>
DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT
Nie można określić zarówno listy plików, jak i ciągu wzorca.
DELTA_FILE_NOT_FOUND
Ścieżka pliku <path>
DELTA_FILE_NOT_FOUND_DETAILED
Nie można odnaleźć pliku <filePath>
, do którego odwołuje się dziennik transakcji. Dzieje się tak, gdy dane zostały ręcznie usunięte z systemu plików, a nie przy użyciu instrukcji table DELETE
. Aby uzyskać więcej informacji, zobacz <faqPath>
.
DELTA_FILE_OR_DIR_NOT_FOUND
Nie ma takiego pliku lub katalogu: <path>
DELTA_FILE_TO_OVERWRITE_NOT_FOUND
Plik (<path>
) do ponownego zapisania nie można odnaleźć wśród plików kandydatów:
<pathList>
DELTA_FOUND_MAP_TYPE_COLUMN
Znaleziono element MapType. Aby uzyskać dostęp do klucza lub wartości typu MapType, określ jeden
z:
<key>
lub
<value>
następnie nazwę kolumny (tylko wtedy, gdy ta kolumna jest typem struktury).
np. mymap.key.mykey
Jeśli kolumna jest typem podstawowym, mymap.key lub mymap.value jest wystarczająca.
Schemat:
<schema>
DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH
Kolumna <columnName>
zawiera typ danych i nie można jej zmienić na typ <dataType>
<columnType>
danych, ponieważ ta kolumna jest przywoływane przez następujące wygenerowane kolumny:
<generatedColumns>
DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE
Nie można zmienić kolumny <columnName>
, ponieważ odwołuje się do tej kolumny następujące wygenerowane kolumny:
<generatedColumns>
DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH
Typ wyrażenia wygenerowanej kolumny <columnName>
to <expressionType>
, ale typ kolumny to <columnType>
DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH
Kolumna <currentName>
to wygenerowana kolumna lub kolumna używana przez wygenerowaną kolumnę. Typ danych jest <currentDataType>
i nie można go przekonwertować na typ danych <updateDataType>
DELTA_ICEBERG_COMPAT_VIOLATION
Walidacja IcebergCompatV<version>
nie powiodła się.
Aby uzyskać więcej informacji, zobacz DELTA_ICEBERG_COMPAT_VIOLATION
DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED
FUNKCJA ALTER TABLE ALTER COLUMN nie jest obsługiwana w przypadku kolumn IDENTITY.
DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT
FUNKCJA ALTER TABLE ALTER COLUMN SYNC IDENTITY jest obsługiwana tylko przez funkcję Delta.
DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN
NIE można wywołać FUNKCJI ALTER TABLE ALTER COLUMN SYNC IDENTITY w kolumnach innych niż IDENTITY.
DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED
Podawanie wartości dla kolumny <colName>
GENERATED ALWAYS AS IDENTITY nie jest obsługiwane.
DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP
Krok kolumny IDENTITY nie może być 0.
DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT
Kolumny IDENTITY są obsługiwane tylko przez funkcję Delta.
DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED
Kolumna <colName>
PARTITIONED BY IDENTITY nie jest obsługiwana.
DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED
FUNKCJA ALTER TABLE REPLACE COLUMNS nie jest obsługiwana w przypadku tabeli z kolumnami IDENTITY.
DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
<dataType>
Typ danych nie jest obsługiwany w przypadku kolumn IDENTITY.
DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED
AKTUALIZACJA w kolumnie <colName>
IDENTITY nie jest obsługiwana.
DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION
Nie można określić kolumny IDENTITY z wygenerowanym wyrażeniem kolumny.
DELTA_ILLEGAL_OPTION
Nieprawidłowa wartość "<input>
" dla opcji "<name>
", <explain>
DELTA_ILLEGAL_USAGE
Użycie elementu <option>
nie jest dozwolone, gdy <operation>
tabela delty.
DELTA_INCONSISTENT_BUCKET_SPEC
Tabela zasobnika BucketSpec w tabeli zasobnikowej delty nie jest zgodna z zasobnikiem BucketSpec z metadanych. Oczekiwano: <expected>
. Wartość rzeczywista: <actual>
.
DELTA_INCONSISTENT_LOGSTORE_CONFS
(<setKeys>
) nie można ustawić na różne wartości. Ustaw tylko jedną z nich lub ustaw dla nich tę samą wartość.
DELTA_INCORRECT_ARRAY_ACCESS
Niepoprawny dostęp do obiektu ArrayType. Użyj pozycji arrayname.element.elementname do
dodaj do tablicy.
DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME
Znaleziono typ tablicy. Aby uzyskać dostęp do elementów arrayType, określ
<rightName>
<wrongName>
zamiast .
Schemat:
<schema>
DELTA_INCORRECT_GET_CONF
Użyj getConf()
zamiast polecenia "conf.getConf()
DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION
Błąd zwykle występuje, gdy domyślna implementacja logStore, że
is, HDFSLogStore, służy do zapisywania w tabeli delta w systemie magazynowania innego niż HDFS.
Aby uzyskać transakcyjne gwarancje ACID dotyczące aktualizacji tabeli, należy użyć
poprawna implementacja usługi LogStore, która jest odpowiednia dla systemu magazynu.
Zobacz <docLink>
, aby uzyskać szczegółowe informacje.
DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT
Indeks <position>
, aby usunąć kolumnę równą lub jest większa niż długość struktury: <length>
DELTA_INDEX_LARGER_THAN_STRUCT
Indeks <index>
dodawania kolumny <columnName>
jest większy niż długość struktury: <length>
DELTA_INSERT_COLUMN_ARITY_MISMATCH
Nie można zapisać w<tableName>
'', ; tabela docelowa zawiera <numColumns>
kolumny, <columnName>
ale wstawione dane mają <insertColumns>
kolumny
DELTA_INSERT_COLUMN_MISMATCH
Kolumna nie jest określona <columnName>
w funkcji INSERT
DELTA_INVALID_AUTO_COMPACT_TYPE
Nieprawidłowy typ autokompaktu: <value>
. Dozwolone wartości to: <allowed>
.
DELTA_INVALID_BUCKET_COUNT
Nieprawidłowa liczba zasobników: <invalidBucketCount>
. Liczba zasobników powinna być liczbą dodatnią, która ma wartość 2 i co najmniej 8. Zamiast tego możesz użyć <validBucketCount>
polecenia .
DELTA_INVALID_BUCKET_INDEX
Nie można odnaleźć kolumny zasobnika w kolumnach partycji
DELTA_INVALID_CALENDAR_INTERVAL_EMPTY
Interwał nie może być pusty ani pusty.
DELTA_INVALID_CDC_RANGE
Zakres cdC od początku <start>
do końca <end>
był nieprawidłowy. Koniec nie może być przed rozpoczęciem.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME
Nazwa atrybutu "<columnName>
" zawiera nieprawidłowe znaki między znakami " ,;{}()\n\t=". Użyj aliasu, aby zmienić jego nazwę.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES
Znaleziono nieprawidłowe znaki między znakami " , ;{}()nt=" w nazwach kolumn schematu.
Nieprawidłowe nazwy kolumn: <invalidColumnNames>
.
Użyj innych znaków i spróbuj ponownie.
Możesz też włączyć mapowanie kolumn, aby nadal używać tych znaków.
DELTA_INVALID_CLONE_PATH
Lokalizacja docelowa klonu musi być bezwzględną ścieżką lub nazwą tabeli. Używanie elementu
ścieżka bezwzględna <path>
zamiast .
DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING
Znaleziono nieprawidłowe znaki między znakami " , ;{}()nt=" w nazwach kolumn schematu.
Nieprawidłowe nazwy kolumn: <invalidColumnNames>
.
Nie można usunąć mapowania kolumn, jeśli w nazwach kolumn znajdują się nieprawidłowe znaki.
Zmień nazwy kolumn, aby usunąć nieprawidłowe znaki i ponownie wykonać to polecenie.
DELTA_INVALID_FORMAT
Wykryto niezgodny format.
Znaleziono dziennik transakcji dla funkcji Delta pod adresem <deltaRootPath>
/_delta_log',
ale próbujesz <operation>
<path>
użyć formatu("<format>
"). Musisz użyć polecenia
"format("delta")" podczas odczytywania i zapisywania w tabeli różnicowej.
Aby dowiedzieć się więcej o funkcji Delta, zobacz <docLink>
DELTA_INVALID_GENERATED_COLUMN_REFERENCES
Wygenerowana kolumna nie może używać kolumny nieistniejącej ani innej wygenerowanej kolumny
DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS
Nieprawidłowe opcje zapisu idempotentnych ramek danych: <reason>
DELTA_INVALID_INTERVAL
<interval>
nie jest prawidłowym interwałem.
DELTA_INVALID_INVENTORY_SCHEMA
Schemat dla określonego spisu nie zawiera wszystkich wymaganych pól. Wymagane pola to: <expectedSchema>
DELTA_INVALID_ISOLATION_LEVEL
nieprawidłowy poziom izolacji "<isolationLevel>
"
DELTA_INVALID_LOGSTORE_CONF
(<classConfig>
) i (<schemeConfig>
) nie można ustawić w tym samym czasie. Ustaw tylko jedną grupę.
DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA
Próbujesz utworzyć zarządzaną tabelę <tableName>
przy użyciu funkcji Delta, ale schemat nie jest określony.
Aby dowiedzieć się więcej o funkcji Delta, zobacz <docLink>
DELTA_INVALID_PARTITION_COLUMN
<columnName>
nie jest prawidłową kolumną partycji w tabeli <tableName>
.
DELTA_INVALID_PARTITION_COLUMN_NAME
Znaleziono kolumny partycji o nieprawidłowych znakach między znakami " ,;{}()nt=". Zmień nazwę na kolumny partycji. Tę kontrolę można wyłączyć, ustawiając wartość spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", ale nie jest to zalecane, ponieważ inne funkcje funkcji funkcji delta mogą nie działać prawidłowo.
DELTA_INVALID_PARTITION_COLUMN_TYPE
Używanie kolumny typu <dataType>
jako kolumny <name>
partycji nie jest obsługiwane.
DELTA_INVALID_PARTITION_PATH
Fragment ścieżki partycji powinien być formularzem, na przykład part1=foo/part2=bar
. Ścieżka partycji: <path>
DELTA_INVALID_PROTOCOL_DOWNGRADE
Nie można obniżyć wersji protokołu z <oldProtocol>
do <newProtocol>
DELTA_INVALID_PROTOCOL_VERSION
Nieobsługiwana wersja protokołu delta: tabela "<tableNameOrPath>
" wymaga wersji <readerRequired>
czytnika i składnika <writerRequired>
zapisywania, ale ta wersja usługi Databricks obsługuje wersje czytnika i wersje <supportedReaders>
składników <supportedWriters>
zapisywania. Uaktualnij do nowszej wersji.
DELTA_INVALID_TABLE_VALUE_FUNCTION
Funkcja <function>
jest nieobsługiwaną funkcją tabeli o wartości dla operacji odczytu CDC.
DELTA_INVALID_TIMESTAMP_FORMAT
Podany znacznik <timestamp>
czasu jest niezgodny z oczekiwaną składnią <format>
.
DELTA_LOG_ALREADY_EXISTS
Dziennik różnicowy już istnieje w <path>
DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE
Jeśli nigdy go nie usunięto, prawdopodobnie zapytanie pozostaje opóźnione. Usuń punkt kontrolny, aby ponownie uruchomić od podstaw. Aby uniknąć ponownego wystąpienia tego problemu, możesz zaktualizować zasady przechowywania tabeli delty
DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING
Brak zmaterializowanej <rowTrackingColumn>
nazwy kolumny dla elementu <tableName>
.
DELTA_MAX_ARRAY_SIZE_EXCEEDED
Użyj limitu mniejszego niż Int.MaxValue — 8.
DELTA_MAX_COMMIT_RETRIES_EXCEEDED
To zatwierdzenie nie powiodło się, ponieważ próbowano wykonać próbę <numAttempts>
, ale nie powiodło się.
Może to być spowodowane ciągłym zatwierdzaniem tabeli delty przez wiele współbieżnych
Zatwierdza.
Zatwierdzenie rozpoczęte w wersji: <startVersion>
Zatwierdzenie nie powiodło się w wersji: <failVersion>
Liczba akcji, które próbowano zatwierdzić: <numActions>
Łączny czas spędzony na próbie tego zatwierdzenia: <timeSpent>
ms
DELTA_MAX_LIST_FILE_EXCEEDED
Lista plików musi zawierać co najwyżej <maxFileListSize>
wpisy, mieć <numFiles>
wartość .
DELTA_MERGE_ADD_VOID_COLUMN
Nie można dodać kolumny <newColumn>
o typie VOID. Jawnie określ typ niepusty.
DELTA_MERGE_INCOMPATIBLE_DATATYPE
Nie można scalić niezgodnych typów <currentDataType>
danych i <updateDataType>
DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE
Nie można scalić typów dziesiętnych z niezgodnymi <decimalRanges>
DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY
Utrzymywanie źródła zmaterializowanej instrukcji MERGE nie powiodło się wielokrotnie.
DELTA_MERGE_MISSING_WHEN
W instrukcji MERGE musi istnieć co najmniej jedna klauzula WHEN.
DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT
Nie rozpoznano atrybutów <missingAttributes>
brakujących w <input>
operatorze in <merge>
DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY
Nieoczekiwany klucz przypisania: <unexpectedKeyClass>
- <unexpectedKeyObject>
DELTA_MERGE_UNRESOLVED_EXPRESSION
Nie można rozpoznać <sqlExpr>
w <clause>
podanym <cols>
pliku .
DELTA_METADATA_CHANGED
MetadataChangedException: metadane tabeli delty zostały zmienione przez współbieżną aktualizację. Spróbuj ponownie wykonać operację.<conflictingCommit>
Aby uzyskać więcej informacji, zapoznaj się z <docLink>
tematem .
DELTA_MISSING_CHANGE_DATA
Błąd podczas pobierania danych zmiany dla zakresu [<startVersion>
, <endVersion>
] ponieważ dane zmiany nie były
zarejestrowana dla wersji [<version>
]. Jeśli włączono zmianę źródła danych w tej tabeli,
użyj DESCRIBE HISTORY
polecenia , aby zobaczyć, kiedy został on włączony po raz pierwszy.
W przeciwnym razie, aby rozpocząć rejestrowanie danych zmiany, użyj polecenia "ALTER TABLE table_name SET TBLPROPERTIES
(<key>
=true)'.
DELTA_MISSING_COLUMN
Nie można odnaleźć <columnName>
w kolumnach tabeli: <columnList>
DELTA_MISSING_COMMIT_INFO
Ta tabela ma włączoną funkcję <featureName>
, która wymaga obecności akcji CommitInfo w każdym zatwierdzeniu. Jednak w wersji <version>
zatwierdzenia brakuje akcji CommitInfo .
DELTA_MISSING_COMMIT_TIMESTAMP
Ta tabela ma włączoną funkcję <featureName>
, która wymaga obecności commitTimestamp w akcji CommitInfo. Jednak to pole nie zostało ustawione w wersji <version>
zatwierdzenia .
DELTA_MISSING_DELTA_TABLE
<tableName>
nie jest tabelą delty.
DELTA_MISSING_DELTA_TABLE_COPY_INTO
Tabela nie istnieje. Najpierw utwórz pustą tabelę delty przy użyciu polecenia CREATE TABLE <tableName>
.
DELTA_MISSING_ICEBERG_CLASS
Nie można odnaleźć klasy góry lodowej. Upewnij się, że jest zainstalowana obsługa platformy Delta Iceberg.
Aby uzyskać więcej informacji, zapoznaj się z <docLink>
tematem .
DELTA_MISSING_NOT_NULL_COLUMN_VALUE
W kolumnie <columnName>
, która ma ograniczenie NOT NULL, brakuje danych zapisywanych w tabeli.
DELTA_MISSING_PARTITION_COLUMN
Nie można odnaleźć kolumny <columnName>
partycji w schemacie <columnList>
DELTA_MISSING_PART_FILES
Nie można odnaleźć wszystkich części plików wersji punktu kontrolnego: <version>
DELTA_MISSING_PROVIDER_FOR_CONVERT
Funkcja KONWERTUJ NA FUNKCJĘ DELTA obsługuje tylko tabele parquet. Zapisz ponownie obiekt docelowy jako parquet.<path>
jeśli jest to katalog parquet.
DELTA_MISSING_SET_COLUMN
Nie można odnaleźć kolumny <columnName>
ZESTAWU podanych kolumn: <columnList>
.
DELTA_MISSING_TRANSACTION_LOG
Wykryto niezgodny format.
Próbujesz <operation>
<path>
użyć funkcji Delta, ale nie ma
obecny dziennik transakcji. Sprawdź zadanie nadrzędne, aby upewnić się, że jest ono zapisywane
przy użyciu formatu("delta") i próbujesz %1$s ścieżki podstawowej tabeli.
Aby dowiedzieć się więcej o funkcji Delta, zobacz <docLink>
DELTA_MODE_NOT_SUPPORTED
Określony tryb "<mode>
" nie jest obsługiwany. Obsługiwane tryby to: <supportedModes>
DELTA_MULTIPLE_CDC_BOUNDARY
Wiele <startingOrEnding>
argumentów dostępnych dla odczytu cdc. Podaj jeden z <startingOrEnding>
sygnatur czasowych lub <startingOrEnding>
wersji.
DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER
Wiele konfiguracji indeksu filtru bloom przekazane do polecenia dla kolumny: <columnName>
DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE
Nie można wykonać scalania, ponieważ wiele wierszy źródłowych jest dopasowanych i podjęto próbę zmodyfikowania tego samego
docelowy wiersz w tabeli delty w prawdopodobnie powodujący konflikty sposób. Według semantyki SQL scalania,
gdy wiele wierszy źródłowych pasuje do tego samego wiersza docelowego, wynik może być niejednoznaczny
ponieważ nie jest jasne, którego wiersza źródłowego należy użyć do zaktualizowania lub usunięcia pasującego wiersza
docelowy wiersz. Możesz wstępnie przetworzyć tabelę źródłową, aby wyeliminować możliwość
wiele dopasowań. Zobacz sekcję
<usageReference>
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND
W przypadku <command>
obu konfiguracji zatwierdzeń koordynowanych ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview") są ustawione w poleceniu lub w żadnym z nich. Brak: "<configuration>
". Określ tę konfigurację w klauzuli TBLPROPERTIES lub usuń inną konfigurację, a następnie spróbuj ponownie wykonać polecenie.
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION
Podczas <command>
obu konfiguracji zatwierdzeń koordynowanych ("coordinatedCommits.commitCoordinator-preview", "coordinatedCommits.commitCoordinatorConf-preview") są ustawione w konfiguracjach platformy SparkSession lub żadnej z nich. Brak: "<configuration>
". Ustaw tę konfigurację w usłudze SparkSession lub usuń konfigurację inną, a następnie ponów próbę ponownego uruchomienia polecenia.
DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE
Następujące nazwy kolumn są zarezerwowane tylko w przypadku użycia wewnętrznego tabeli zasobnikowej delty: <names>
DELTA_NESTED_FIELDS_NEED_RENAME
Schemat wejściowy zawiera zagnieżdżone pola, które są kapitalizowane inaczej niż tabela docelowa.
Należy zmienić ich nazwy, aby uniknąć utraty danych w tych polach podczas zapisywania w funkcji Delta.
Pola:
<fields>
.
Oryginalny schemat:
<schema>
DELTA_NESTED_NOT_NULL_CONSTRAINT
<nestType>
Typ pola <parent>
zawiera ograniczenie NOT NULL. Funkcja Delta nie obsługuje ograniczeń NOT NULL zagnieżdżonych w tablicach ani mapach. Aby pominąć ten błąd i dyskretnie zignorować określone ograniczenia, ustaw wartość <configKey>
= true.
Typ analizowany <nestType>
:
<nestedPrettyJson>
DELTA_NESTED_SUBQUERY_NOT_SUPPORTED
Zagnieżdżone podzapytanie nie jest obsługiwane w <operation>
warunku.
DELTA_NEW_CHECK_CONSTRAINT_VIOLATION
<numRows>
wiersze w <tableName>
nowym ograniczeniu CHECK (<checkConstraint>
)
DELTA_NEW_NOT_NULL_VIOLATION
<numRows>
wiersze, które <tableName>
naruszają nowe ograniczenie NOT NULL <colName>
DELTA_NON_BOOLEAN_CHECK_CONSTRAINT
Ograniczenie CHECK "<name>
" (<expr>
) powinno być wyrażeniem logicznym.
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN
Znaleziono <expr>
plik . Wygenerowana kolumna nie może używać wyrażenia niedeterministycznego.
DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED
Funkcje niedeterministyczne nie są obsługiwane w <operation>
<expression>
DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Jeśli w instrukcji MERGE istnieje więcej niż jedna klauzula MATCHED, tylko ostatnia klauzula MATCHED może pominąć warunek.
DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Jeśli w instrukcji MERGE istnieje więcej niż jedna klauzula NIE PASUJE WEDŁUG ŹRÓDŁA, tylko ostatnia klauzula NIE PASUJE WEDŁUG ŹRÓDŁA może pominąć warunek.
DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION
Jeśli w instrukcji MERGE istnieje więcej niż jedna klauzula NOT MATCHED, tylko ostatnia klauzula NOT MATCHED może pominąć warunek
DELTA_NON_PARSABLE_TAG
Nie można przeanalizować tagu <tag>
.
Tagi plików to: <tagList>
DELTA_NON_PARTITION_COLUMN_ABSENT
Dane zapisane w funkcji Delta muszą zawierać co najmniej jedną kolumnę bez partycjonowania.<details>
DELTA_NON_PARTITION_COLUMN_REFERENCE
Predykat odwołuje się do kolumny innej niż partycja "<columnName>
". Do kolumn partycji można odwoływać się tylko: [<columnList>
]
DELTA_NON_PARTITION_COLUMN_SPECIFIED
Kolumny <columnList>
bez partycjonowania są określane, gdzie oczekiwane są tylko kolumny partycjonowania: <fragment>
.
DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG
Wykaz delty wymaga jednoczęściowej przestrzeni nazw, ale <identifier>
jest wieloczęściowy.
DELTA_NOT_A_DATABRICKS_DELTA_TABLE
<table>
nie jest tabelą delty. Najpierw upuść tę tabelę, jeśli chcesz ją utworzyć za pomocą funkcji delta usługi Databricks.
DELTA_NOT_A_DELTA_TABLE
<tableName>
nie jest tabelą delty. Najpierw upuść tę tabelę, jeśli chcesz ją ponownie utworzyć za pomocą usługi Delta Lake.
DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT
Nie można odnaleźć kolumny dopuszczanej do wartości null w strukturach: <struct>
DELTA_NOT_NULL_CONSTRAINT_VIOLATED
Ograniczenie NOT NULL naruszone dla kolumny: <columnName>
.
DELTA_NOT_NULL_NESTED_FIELD
Nie można dodać pola zagnieżdżonego bez wartości null do elementu nadrzędnego dopuszczanego do wartości null. Ustaw odpowiednio wartość null kolumny nadrzędnej.
DELTA_NO_COMMITS_FOUND
Nie znaleziono zatwierdzeń pod adresem <logPath>
DELTA_NO_RECREATABLE_HISTORY_FOUND
Nie znaleziono żadnych zatwierdzeń do ponownego utworzenia pod adresem <logPath>
DELTA_NO_RELATION_TABLE
Nie można odnaleźć tabeli <tableIdent>
DELTA_NO_START_FOR_CDC_READ
Brak parametru startingVersion lub startingTimestamp dla odczytu cdc.
DELTA_NULL_SCHEMA_IN_STREAMING_WRITE
Funkcja Delta nie akceptuje wartości NullTypes w schemacie dla zapisów przesyłanych strumieniowo.
DELTA_ONEOF_IN_TIMETRAVEL
Podaj wartość "timestampAsOf" lub "versionAsOf" na potrzeby podróży w czasie.
DELTA_ONLY_OPERATION
<operation>
jest obsługiwana tylko w przypadku tabel delty.
DELTA_OPERATION_MISSING_PATH
Podaj ścieżkę lub identyfikator tabeli dla elementu <operation>
.
DELTA_OPERATION_NOT_ALLOWED
Niedozwolona operacja: <operation>
nie jest obsługiwana w przypadku tabel delty
DELTA_OPERATION_NOT_ALLOWED_DETAIL
Niedozwolona operacja: <operation>
nie jest obsługiwana w przypadku tabel delty: <tableName>
DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION
<operation>
nie jest obsługiwana w przypadku kolumn <colName>
z sortowaniem <collation>
innych niż domyślne .
DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION
<operation>
nie jest obsługiwany w przypadku wyrażenia <exprText>
, ponieważ używa sortowania innego niż domyślne.
DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED
<operation>
polecenie w widoku tymczasowym odwołujące się do tabeli delty zawierającej wygenerowane kolumny nie jest obsługiwane. Uruchom <operation>
polecenie bezpośrednio w tabeli delty
DELTA_OPERATION_ON_VIEW_NOT_ALLOWED
Niedozwolona operacja: <operation>
nie można wykonać operacji w widoku.
DELTA_OPTIMIZE_FULL_NOT_SUPPORTED
FUNKCJA OPTIMIZE FULL jest obsługiwana tylko w przypadku tabel klastrowanych z niepustymi kolumnami klastrowania.
DELTA_OVERWRITE_MUST_BE_TRUE
Nie można określić opcji kopiowaniaSchema bez ustawienia OVERWRITE = 'true'.
DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE
Polecenia "overwriteSchema" nie mogą być używane w trybie zastępowania partycji dynamicznej.
DELTA_PARTITION_COLUMN_CAST_FAILED
Nie można rzutować wartości <value>
<dataType>
dla kolumny partycji <columnName>
DELTA_PARTITION_COLUMN_NOT_FOUND
Nie można odnaleźć kolumny <columnName>
partycji w schemacie [<schemaMap>
]
DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES
Nie można określić schematu partycji podczas konwertowania tabel góry lodowej. Jest on automatycznie wnioskowany.
DELTA_PATH_DOES_NOT_EXIST
<path>
nie istnieje lub nie jest tabelą delty.
DELTA_PATH_EXISTS
Nie można zapisać w istniejącej ścieżce <path>
bez ustawienia OVERWRITE = 'true'.
DELTA_POST_COMMIT_HOOK_FAILED
Zatwierdzanie wersji <version>
tabeli delty powiodło się, ale wystąpił błąd podczas wykonywania przypinania <name>
po zatwierdzeniu <message>
DELTA_PROTOCOL_CHANGED
ProtocolChangedException: wersja protokołu tabeli delty została zmieniona przez współbieżną aktualizację. <additionalInfo>
<conflictingCommit>
Aby uzyskać więcej informacji, zapoznaj się z <docLink>
tematem .
DELTA_PROTOCOL_PROPERTY_NOT_INT
Właściwość <key>
protokołu musi być liczbą całkowitą. Założyć <value>
DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE
Nie można uaktualnić tylko wersji protokołu czytnika do korzystania z funkcji tabeli. Wersja protokołu zapisywania musi być przynajmniej <writerVersion>
kontynuowana. Aby uzyskać więcej informacji na temat wersji protokołu tabeli, zapoznaj się z <docLink>
artykułem.
DELTA_READ_TABLE_WITHOUT_COLUMNS
Próbujesz odczytać tabelę <tableName>
delty, która nie zawiera żadnych kolumn.
Zapisz nowe dane z opcją mergeSchema = true
, aby móc odczytać tabelę.
DELTA_REGEX_OPT_SYNTAX_ERROR
Sprawdź ponownie składnię "<regExpOption>
"
DELTA_REPLACE_WHERE_IN_OVERWRITE
Nie można użyć funkcji replaceWhere w połączeniu z zastępowaniem według filtru
DELTA_REPLACE_WHERE_MISMATCH
Zapisane dane nie są zgodne z częściowym warunkiem zastąpienia tabeli lub ograniczeniem "<replaceWhere>
".
<message>
DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE
Wyrażenie "replaceWhere" i "partitionOverwriteMode"="dynamic" nie może być ustawione w opcjach elementu DataFrameWriter.
DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET
Polecenia "replaceWhere" nie mogą być używane z filtrami danych, gdy właściwość "dataChange" jest ustawiona na wartość false. Filtry: <dataFilters>
DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS
Nie można przypisać identyfikatorów wierszy bez statystyk liczby wierszy.
Zbierz statystyki dla tabeli, uruchamiając następujący kod w notesie Scala i ponów próbę:
import com.databricks.sql.transaction.tahoe.DeltaLog
import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection
import org.apache.spark.sql.catalyst.TableIdentifier
val log = DeltaLog.forTable(spark, TableIdentifier(table_name))
StatisticsCollection.recompute(spark, log)
DELTA_SCHEMA_CHANGED
Wykryta zmiana schematu:
schemat źródła przesyłania strumieniowego: <readSchema>
schemat pliku danych: <dataSchema>
Spróbuj ponownie uruchomić zapytanie. Jeśli ten problem powtarza się po ponownym uruchomieniu zapytania bez
podejmowania postępów, wprowadzono niezgodną zmianę schematu i musisz uruchomić
odpytywanie od podstaw przy użyciu nowego katalogu punktów kontrolnych.
DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS
Wykryto zmianę schematu w wersji <version>
:
schemat źródła przesyłania strumieniowego: <readSchema>
schemat pliku danych: <dataSchema>
Spróbuj ponownie uruchomić zapytanie. Jeśli ten problem powtarza się po ponownym uruchomieniu zapytania bez
podejmowania postępów, wprowadzono niezgodną zmianę schematu i musisz uruchomić
odpytywanie od podstaw przy użyciu nowego katalogu punktów kontrolnych. Jeśli problem będzie się powtarzać po
Zmiana na nowy katalog punktu kontrolnego może być konieczna zmiana istniejącego
Opcja "startingVersion" lub "startingTimestamp", aby rozpocząć od nowszej wersji niż
<version>
z nowym katalogiem punktu kontrolnego.
DELTA_SCHEMA_CHANGED_WITH_VERSION
Wykryto zmianę schematu w wersji <version>
:
schemat źródła przesyłania strumieniowego: <readSchema>
schemat pliku danych: <dataSchema>
Spróbuj ponownie uruchomić zapytanie. Jeśli ten problem powtarza się po ponownym uruchomieniu zapytania bez
podejmowania postępów, wprowadzono niezgodną zmianę schematu i musisz uruchomić
odpytywanie od podstaw przy użyciu nowego katalogu punktów kontrolnych.
DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS
Schemat tabeli delta został zmieniony w niezgodny sposób od ramki danych
lub obiekt DeltaTable został utworzony. Ponownie zdefiniuj obiekt DataFrame lub DeltaTable.
Zmiany:
<schemaDiff>
<legacyFlagMessage>
DELTA_SCHEMA_NOT_PROVIDED
Nie podano schematu tabeli. Podaj schemat (definicję kolumny) tabeli, jeśli nie podano tabeli REPLACE i zapytania AS SELECT.
DELTA_SCHEMA_NOT_SET
Schemat tabeli nie jest ustawiony. Zapisz dane w nim lub użyj polecenia CREATE TABLE, aby ustawić schemat.
DELTA_SET_LOCATION_SCHEMA_MISMATCH
Schemat nowej lokalizacji delty różni się od bieżącego schematu tabeli.
oryginalny schemat:
<original>
schemat docelowy:
<destination>
Jeśli jest to planowana zmiana, możesz wyłączyć to sprawdzanie, uruchamiając polecenie:
%%sql set <config>
= true
DELTA_SHALLOW_CLONE_FILE_NOT_FOUND
Nie można odnaleźć pliku <filePath>
, do którego odwołuje się dziennik transakcji. Taka sytuacja może wystąpić, gdy dane zostały ręcznie usunięte z systemu plików, a nie przy użyciu instrukcji table DELETE
. Ta tabela wydaje się być płytkim klonem, jeśli tak jest, ten błąd może wystąpić, gdy oryginalna tabela, z której sklonowano tę tabelę, usunęła plik, którego klon nadal używa. Jeśli chcesz, aby jakiekolwiek klony niezależnie od oryginalnej tabeli, zamiast tego użyj klonu DEEP.
DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY
Nie można modyfikować wstępnie zdefiniowanych właściwości rozpoczynających się <prefix>
od.
DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
Dane są ograniczone przez właściwość <property>
adresata, która nie ma zastosowania do bieżącego adresata w sesji.
Aby uzyskać więcej informacji, zobacz DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW
<operation>
Nie można używać w widokach udostępniania różnicowego, które są współużytkowane między kontami.
DELTA_SHARING_INVALID_PROVIDER_AUTH
Niedozwolony typ <authenticationType>
uwierzytelniania dla dostawcy <provider>
.
DELTA_SHARING_INVALID_RECIPIENT_AUTH
Niedozwolony typ <authenticationType>
uwierzytelniania dla adresata <recipient>
.
DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME
Nieprawidłowa nazwa odwołująca się do udziału <type>
. Możesz użyć nazwy "wewnątrz udziału w formacie [schema].[<type>
] lub możesz również użyć <type>
oryginalnej pełnej nazwy tabeli w formacie [catalog].[ schema]. [>typ>].
Jeśli nie masz pewności, jakiej nazwy użyć, możesz uruchomić polecenie "SHOW ALL IN SHARE [share]" (POKAŻ WSZYSTKO W UDZIALE [share]) i znaleźć nazwę <type>
kolumny do usunięcia: kolumna "name" jest <type>
nazwą "name" wewnątrz udziału i kolumną "shared_object" jest <type>
oryginalną pełną nazwą.
DELTA_SHARING_MAXIMUM_RECIPIENT_TOKENS_EXCEEDED
Dla adresata <recipient>
istnieje więcej niż dwa tokeny.
DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND
Właściwość <property>
adresata nie istnieje.
DELTA_SHARING_RECIPIENT_TOKENS_NOT_FOUND
Brak tokenów adresata dla adresata <recipient>
.
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN
Kolumny <badCols>
bez partycjonowania są określone dla funkcji SHOW PARTITIONS
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE
FUNKCJA SHOW PARTITIONS nie jest dozwolona w tabeli, która nie jest podzielona na partycje: <tableName>
DELTA_SOURCE_IGNORE_DELETE
Wykryto usunięte dane (na przykład <removedFile>
) ze źródła przesyłania strumieniowego w wersji <version>
. Nie jest to obecnie obsługiwane. Jeśli chcesz zignorować usunięcia, ustaw opcję "ignoreDeletes" na wartość "true". Tabelę źródłową można znaleźć w ścieżce <dataPath>
.
DELTA_SOURCE_TABLE_IGNORE_CHANGES
Wykryto aktualizację danych (na przykład <file>
) w tabeli źródłowej w wersji <version>
. Nie jest to obecnie obsługiwane. Jeśli dzieje się to regularnie i możesz pominąć zmiany, ustaw opcję "skipChangeCommits" na wartość "true". Jeśli chcesz, aby aktualizacja danych została odzwierciedlona, uruchom ponownie to zapytanie przy użyciu nowego katalogu punktu kontrolnego lub wykonaj pełne odświeżanie, jeśli używasz biblioteki DLT. Jeśli chcesz obsłużyć te zmiany, przełącz się na telewizory. Tabelę źródłową można znaleźć w ścieżce <dataPath>
.
DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET
Podaj wartość "<version>
" lub "<timestamp>
"
DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND
<statsType>
Nie można odnaleźć statystyk dla kolumny w metadanych Parquet: <columnPath>
.
DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION
Wykryliśmy co najmniej jedną nie addytywne zmiany schematu (<opType>
) między wersją delty <previousSchemaChangeVersion>
i <currentSchemaChangeVersion>
źródłem przesyłania strumieniowego delta.
Sprawdź, czy chcesz ręcznie propagować zmiany schematu do tabeli ujścia, zanim przejdziemy do przetwarzania strumienia przy użyciu finalizowanego schematu pod adresem <currentSchemaChangeVersion>
.
Po naprawieniu schematu tabeli ujścia lub podjęciu decyzji, że nie ma potrzeby naprawiania, można ustawić (jedną z) następujących konfiguracji SQL w celu odblokowania zmian schematu nie addytywnego i kontynuowania przetwarzania strumienia.
Aby odblokować ten konkretny strumień tylko dla tej serii zmian schematu: ustaw wartość <allowCkptVerKey>` = `<allowCkptVerValue>
.
Aby odblokować dla tego konkretnego strumienia: ustaw <allowCkptKey>` = `<allowCkptValue>
Aby odblokować wszystkie strumienie: ustaw wartość <allowAllKey>` = `<allowAllValue>
.
Alternatywnie, jeśli ma to zastosowanie, możesz zamienić element na <allowAllMode>
<opSpecificMode>
w konficie SQL, aby odblokować strumień tylko dla tego typu zmiany schematu.
DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT
Nie można uzyskać migawki dziennika delty dla wersji początkowej podczas sprawdzania zmian schematu mapowania kolumn. Wybierz inną wersję początkową lub wymuś włączenie odczytu strumieniowego na własne ryzyko, ustawiając wartość "<config>
" na "true".
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE
Odczyt strumieniowy nie jest obsługiwany w tabelach ze zmianami schematu niezgodnymi z odczytem (np. zmiana nazwy lub upuszczanie lub zmiana typu danych).
Aby uzyskać więcej informacji i możliwe następne kroki rozwiązywania tego problemu, zapoznaj się z dokumentacją pod adresem <docLink>
Odczyt schematu: <readSchema>
. Niezgodny schemat danych: <incompatibleSchema>
.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG
Odczyt strumieniowy nie jest obsługiwany w tabelach ze zmianami schematu niezgodnymi z odczytem (np. zmiana nazwy lub upuszczanie lub zmiana typu danych).
Podaj element "schemaTrackingLocation", aby umożliwić ewolucję schematu nie addytywnego na potrzeby przetwarzania strumienia różnicowego.
Zobacz <docLink>
, aby uzyskać więcej szczegółów.
Odczyt schematu: <readSchema>
. Niezgodny schemat danych: <incompatibleSchema>
.
DELTA_STREAMING_METADATA_EVOLUTION
Schemat, konfiguracja tabeli lub protokół tabeli delty zmienił się podczas przesyłania strumieniowego.
Zaktualizowano dziennik śledzenia schematu lub metadanych.
Uruchom ponownie strumień, aby kontynuować przetwarzanie przy użyciu zaktualizowanych metadanych.
Zaktualizowany schemat: <schema>
.
Zaktualizowano konfiguracje tabel: <config>
.
Zaktualizowany protokół tabeli: <protocol>
DELTA_STREAMING_SCHEMA_EVOLUTION_UNSUPPORTED_ROW_FILTER_COLUMN_MASKS
Przesyłanie strumieniowe z tabeli <tableId>
źródłowej ze śledzeniem schematu nie obsługuje filtrów wierszy ani masek kolumn.
Usuń filtry wierszy lub maski kolumn lub wyłącz śledzenie schematu.
DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT
Wykryto konflikt lokalizacji schematu "<loc>
" podczas przesyłania strumieniowego z tabeli lub tabeli znajdującej się w lokalizacji "<table>
".
Inny strumień może ponownie używać tej samej lokalizacji schematu, która nie jest dozwolona.
Podaj nową unikatową schemaTrackingLocation
ścieżkę lub streamingSourceTrackingId
jako opcję czytelnika dla jednego ze strumieni z tej tabeli.
DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT
Lokalizacja schematu "<schemaTrackingLocation>
" musi być umieszczona w lokalizacji punktu kontrolnego "<checkpointLocation>
".
DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED
Niekompletny plik dziennika w dzienniku schematu źródła przesyłania strumieniowego usługi Delta o adresie "<location>
".
Dziennik schematu mógł być uszkodzony. Wybierz nową lokalizację schematu.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID
Wykryto niezgodny identyfikator tabeli delty podczas próby odczytania strumienia różnicowego.
Utrwalone identyfikatory tabeli: <persistedId>
, identyfikator tabeli: <tableId>
Dziennik schematu mógł zostać użyty ponownie. Wybierz nową lokalizację schematu.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA
Wykryto niezgodny schemat partycji podczas próby odczytania strumienia różnicowego.
Utrwalone schematy: <persistedSchema>
, schemat partycji różnicowej: <partitionSchema>
Wybierz nową lokalizację schematu, aby ponownie zainicjować dziennik schematu, jeśli schemat partycji tabeli został ostatnio zmieniony ręcznie.
DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA
Nie można zainicjować dziennika schematu źródła przesyłania strumieniowego delta, ponieważ
Wykryliśmy niezgodną zmianę schematu lub protokołu podczas obsługi partii przesyłania strumieniowego z wersji <a>
tabeli na <b>
.
DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED
Nie można przeanalizować schematu z dziennika schematu źródła przesyłania strumieniowego usługi Delta.
Dziennik schematu mógł być uszkodzony. Wybierz nową lokalizację schematu.
DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS
Nie można włączyć przechwytywania zmian danych w tabeli. Tabela już zawiera
kolumny <columnList>
zarezerwowane, które będą
być używane wewnętrznie jako metadane dla zestawienia zmian danych tabeli. Aby włączyć samoobsługowe resetowanie haseł dla użytkownika
Zmień źródło danych w tabeli, zmień nazwę/upuść te kolumny.
DELTA_TABLE_ALREADY_EXISTS
Tabela <tableName>
już istnieje.
DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF
Obecnie funkcja DeltaTable.forPath obsługuje tylko klucze konfiguracji hadoop rozpoczynające się od <allowedPrefixes>
, ale z <unsupportedOptions>
DELTA_TABLE_ID_MISMATCH
Tabela delta w at <tableLocation>
została zastąpiona, gdy to polecenie używało tabeli.
Identyfikator tabeli był <oldId>
, ale jest teraz <newId>
.
Ponów próbę bieżącego polecenia, aby upewnić się, że odczytuje spójny widok tabeli.
DELTA_TABLE_LOCATION_MISMATCH
Lokalizacja istniejącej tabeli <tableName>
to <existingTableLocation>
. Nie jest zgodna z określoną lokalizacją <tableLocation>
.
DELTA_TABLE_NOT_FOUND
Tabela <tableName>
delty nie istnieje.
DELTA_TABLE_NOT_SUPPORTED_IN_OP
Tabela nie jest obsługiwana w programie <operation>
. Zamiast tego użyj ścieżki.
DELTA_TABLE_ONLY_OPERATION
<tableName>
nie jest tabelą delty. <operation>
jest obsługiwana tylko w przypadku tabel delty.
DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY
Ostateczny schemat tabeli docelowej jest pusty.
DELTA_TIMESTAMP_GREATER_THAN_COMMIT
Podany znacznik czasu (<providedTimestamp>
) jest po najnowszej wersji dostępnej dla tej wersji
table (<tableName>
). Użyj znacznika czasu przed lub w <maximumTimestamp>
.
DELTA_TIMESTAMP_INVALID
Nie można przekonwertować podanej sygnatury czasowej (<expr>
) na prawidłowy znacznik czasu.
DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE
<timeTravelKey>
musi być prawidłową wartością rozpoczęcia.
DELTA_TRUNCATED_TRANSACTION_LOG
<path>
: Nie można odtworzyć stanu w wersji<version>
, ponieważ dziennik transakcji został obcięty z powodu ręcznego usunięcia lub zasad przechowywania dziennika () i zasad przechowywania punktów kontrolnych (<checkpointRetentionKey>
<logRetentionKey>
<checkpointRetention>
=<logRetention>
=)
DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED
Niedozwolona operacja: TABELA TRUNCATE w tabelach delty nie obsługuje predykatów partycji; użyj polecenia DELETE, aby usunąć określone partycje lub wiersze.
DELTA_UDF_IN_GENERATED_COLUMN
Znaleziono <udfExpr>
plik . Wygenerowana kolumna nie może używać funkcji zdefiniowanej przez użytkownika
DELTA_UNEXPECTED_ACTION_EXPRESSION
Nieoczekiwane wyrażenie <expression>
akcji .
DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME
<expectedColsSize>
Oczekiwano kolumn partycji: <expectedCols>
, ale odnaleziono <parsedColsSize>
kolumny partycji: <parsedCols>
z analizowania nazwy pliku:<path>
DELTA_UNEXPECTED_PARTIAL_SCAN
Spodziewaj się pełnego skanowania źródeł delty, ale znaleziono częściowe skanowanie. ścieżka:<path>
DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME
Oczekiwano kolumny <expectedCol>
partycji , ale znaleziono kolumnę <parsedCol>
partycji z analizowania nazwy pliku: <path>
DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER
Funkcja KONWERTUJ NA RÓŻNICĘ została wywołana przy użyciu schematu partycji innego niż schemat partycji wywnioskowany z wykazu. Unikaj podawania schematu, aby można było wybrać schemat partycji z wykazu.
schemat partycji katalogu:
<catalogPartitionSchema>
udostępniony schemat partycji:
<userPartitionSchema>
DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
Odczyt góry lodowej z Delta Uniform nie powiódł się.
Aby uzyskać więcej informacji, zobacz DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED
Tworzenie lub odświeżanie tabeli ruchu przychodzącego uniform nie jest obsługiwane.
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT
Format <fileFormat>
nie jest obsługiwany. Obsługiwane są tylko góry lodowe jako oryginalny format pliku.
DELTA_UNIFORM_NOT_SUPPORTED
Format uniwersalny jest obsługiwany tylko w tabelach wykazu aparatu Unity.
DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED
Nie można przekonwertować wersji <version>
tabeli na format <format>
uniwersalny . <message>
DELTA_UNIVERSAL_FORMAT_VIOLATION
Walidacja formatu uniwersalnego (<format>
) nie powiodła się: <violation>
DELTA_UNKNOWN_CONFIGURATION
Określono nieznaną konfigurację: <config>
DELTA_UNKNOWN_PRIVILEGE
Nieznane uprawnienia: <privilege>
DELTA_UNKNOWN_READ_LIMIT
Nieznany odczyt: <limit>
DELTA_UNRECOGNIZED_COLUMN_CHANGE
Nierozpoznana zmiana <otherClass>
kolumny. Być może jest uruchomiona nieaktualna wersja usługi Delta Lake.
DELTA_UNRECOGNIZED_INVARIANT
Nierozpoznane niezmienne. Uaktualnij wersję platformy Spark.
DELTA_UNRECOGNIZED_LOGFILE
Nierozpoznany plik dziennika <fileName>
DELTA_UNSET_NON_EXISTENT_PROPERTY
Podjęto próbę ustawienia właściwości nieistniejącej "<property>
" w tabeli <tableName>
DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE
<path>
nie obsługuje dodawania plików ze ścieżką bezwzględną
DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP
ZMIANA KOLUMNY ALTER TABLE NIE jest obsługiwana w przypadku zmiany kolumny <fieldPath>
z <oldField>
na <newField>
DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP
Nieobsługiwana operacja ALTER TABLE REPLACE COLUMNS. Powód: <details>
Nie można zmienić schematu z:
<oldSchema>
na:
<newSchema>
DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE
Próbowano zastąpić istniejącą tabelę (<tableName>
) klonem. Ta operacja jest następująca:
Nieobsługiwane. Spróbuj użyć innego elementu docelowego dla polecenia CLONE lub usuń tabelę w bieżącym obiekcie docelowym.
DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE
Zmiana trybu mapowania kolumn z "<oldMode>
" na "<newMode>
" nie jest obsługiwana.
DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL
Bieżąca wersja protokołu tabeli nie obsługuje zmieniania trybów mapowania kolumn
przy użyciu polecenia <config>
.
Wymagana wersja protokołu różnicowego do mapowania kolumn:
<requiredVersion>
Bieżąca wersja protokołu delta tabeli:
<currentVersion>
<advice>
DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE
Wykryto zmianę schematu:
stary schemat:
<oldTableSchema>
nowy schemat:
<newTableSchema>
Zmiany schematu nie są dozwolone podczas zmiany trybu mapowania kolumn.
DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE
Zapisywanie danych w trybie mapowania kolumn nie jest obsługiwane.
DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER
Tworzenie indeksu filtru blooma w kolumnie z typem <dataType>
jest nieobsługiwane: <columnName>
DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY
Nie można dodać komentarza do <fieldPath>
elementu . Dodawanie komentarza do klucza/wartości mapy lub elementu tablicy nie jest obsługiwane.
DELTA_UNSUPPORTED_DATA_TYPES
Odnaleziono kolumny używające nieobsługiwanych typów danych: <dataTypeList>
. Możesz ustawić wartość "<config>
" na wartość "false", aby wyłączyć sprawdzanie typu. Wyłączenie tego sprawdzania typów może umożliwić użytkownikom tworzenie nieobsługiwanych tabel różnicowych i powinno być używane tylko podczas próby odczytu/zapisu starszych tabel.
DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN
<dataType>
nie może być wynikiem wygenerowanej kolumny
DELTA_UNSUPPORTED_DEEP_CLONE
Głębokie klonowanie nie jest obsługiwane w przypadku tej wersji różnicowej.
DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW
<view>
to widok. FUNKCJA DESCRIBE DETAIL jest obsługiwana tylko w przypadku tabel.
DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN
Usuwanie kolumn klastrowania (<columnList>
) jest niedozwolone.
DELTA_UNSUPPORTED_DROP_COLUMN
Funkcja DROP COLUMN nie jest obsługiwana w przypadku tabeli delty. <advice>
DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE
Może usuwać tylko zagnieżdżone kolumny z klasy StructType. Założyć <struct>
DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN
Usuwanie kolumn partycji (<columnList>
) jest niedozwolone.
DELTA_UNSUPPORTED_EXPRESSION
Nieobsługiwany typ wyrażenia(<expType>
) dla elementu <causedBy>
. Obsługiwane typy to [<supportedTypes>
].
DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
<expression>
nie można używać w wygenerowanej kolumnie
DELTA_UNSUPPORTED_FEATURES_FOR_READ
Nieobsługiwana funkcja odczytu różnicowego: tabela "<tableNameOrPath>
" wymaga funkcji tabel czytnika, które nie są obsługiwane przez tę wersję usługi Databricks: <unsupported>
. Aby uzyskać więcej informacji na temat zgodności funkcji usługi Delta Lake, zapoznaj się <link>
z artykułem.
DELTA_UNSUPPORTED_FEATURES_FOR_WRITE
Nieobsługiwana funkcja zapisu różnicowego: tabela "<tableNameOrPath>
" wymaga funkcji tabeli składników zapisywania, które nie są obsługiwane przez tę wersję usługi Databricks: <unsupported>
. Aby uzyskać więcej informacji na temat zgodności funkcji usługi Delta Lake, zapoznaj się <link>
z artykułem.
DELTA_UNSUPPORTED_FEATURES_IN_CONFIG
Funkcje tabel skonfigurowane w następujących konfiguracjach platformy Spark lub właściwościach tabeli delta nie są rozpoznawane przez tę wersję usługi Databricks: <configs>
.
DELTA_UNSUPPORTED_FEATURE_STATUS
Oczekiwanie, że stan funkcji <feature>
tabeli będzie "obsługiwany", ale ma wartość "<status>
".
DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT
Aktualizowanie zagnieżdżonych pól jest obsługiwane tylko dla typu StructType, ale próbujesz zaktualizować pole typu <columnName>
. <dataType>
DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS
Polecenie "FSCK REPAIR TABLE" nie jest obsługiwane w wersjach tabeli z brakującymi plikami wektorów usuwania.
Skontaktuj się z pomocą techniczną.
DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS
Polecenie "GENERATE symlink_format_manifest" nie jest obsługiwane w wersjach tabeli z wektorami usuwania.
Aby utworzyć wersję tabeli bez wektorów usuwania, uruchom polecenie "REORG TABLE table APPLY (PURGE)". Następnie uruchom ponownie polecenie "GENERATE".
Upewnij się, że żadne współbieżne transakcje nie dodają ponownie wektorów usuwania między funkcją REORG i GENERATE.
Jeśli musisz regularnie generować manifesty lub nie można zapobiec równoczesnych transakcji, rozważ wyłączenie wektorów usuwania w tej tabeli przy użyciu polecenia "ALTER TABLE table SET TBLPROPERTIES (delta.enableDeletionVectors = false)".
DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT
Różnice w zagnieżdżonych polach innych niż StructTypes nie są obsługiwane.
DELTA_UNSUPPORTED_IN_SUBQUERY
W podzapytaniu <operation>
nie jest obsługiwane w warunku.
DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX
listKeywithPrefix nie jest dostępny
DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING
Generowanie manifestu nie jest obsługiwane w przypadku tabel korzystających z mapowania kolumn, ponieważ czytelnicy zewnętrzni nie mogą odczytać tych tabel różnicowych. Aby uzyskać więcej informacji, zobacz dokumentację usługi Delta.
DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC
Operacje MERGE INTO z ewolucją schematu nie obsługują obecnie zapisywania danych wyjściowych cdC.
DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE
W predykacie wielokolumny nie są obsługiwane w <operation>
warunku.
DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER
Tworzenie indeksu pliku blooma w zagnieżdżonej kolumnie jest obecnie nieobsługiwane: <columnName>
DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION
Zagnieżdżone pole nie jest obsługiwane w polu <operation>
(pole = <fieldName>
).
DELTA_UNSUPPORTED_NON_EMPTY_CLONE
Tabela docelowa klonowania nie jest pusta. Przed uruchomieniem polecenia CLONE wykonaj polecenie TRUNCATE lub DELETE Z tabeli.
DELTA_UNSUPPORTED_OUTPUT_MODE
Źródło <dataSource>
danych nie obsługuje <mode>
trybu danych wyjściowych
DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER
Tworzenie indeksu filtru blooma w kolumnie partycjonowania jest nieobsługiwane: <columnName>
DELTA_UNSUPPORTED_RENAME_COLUMN
Zmiana nazwy kolumn nie jest obsługiwana dla tabeli delty. <advice>
DELTA_UNSUPPORTED_SCHEMA_DURING_READ
Funkcja Delta nie obsługuje określania schematu w czasie odczytu.
DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES
Funkcja SORTED BY nie jest obsługiwana w przypadku tabel zasobnikowych delty
DELTA_UNSUPPORTED_SOURCE
<operation>
lokalizacja docelowa obsługuje tylko źródła różnicowe.
<plan>
DELTA_UNSUPPORTED_STATIC_PARTITIONS
Określanie partycji statycznych w specyfikacji partycji nie jest obecnie obsługiwane podczas wstawiania
DELTA_UNSUPPORTED_STRATEGY_NAME
Nieobsługiwana nazwa strategii: <strategy>
DELTA_UNSUPPORTED_SUBQUERY
Podzapytania nie są obsługiwane w obiekcie <operation>
(warunek = <cond>
).
DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES
Podzapytywanie nie jest obsługiwane w predykatach partycji.
DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS
Nie można określić podróży czasowej w wielu formatach.
DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS
Nie można wyświetlać widoków podróży, podzapytania, strumieni ani zmieniać zapytań dotyczących źródła danych.
DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES
Obcinanie przykładowych tabel nie jest obsługiwane
DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA
Nie można wykonać operacji na tej tabeli, ponieważ zastosowano nieobsługiwaną zmianę typu. Pole <fieldName>
zostało zmienione z <fromType>
na <toType>
.
DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION
Podaj ścieżkę podstawową (<baseDeltaPath>
) podczas opróżniania tabel delty. Opróżnianie określonych partycji nie jest obecnie obsługiwane.
DELTA_UNSUPPORTED_WRITES_STAGED_TABLE
Implementacja tabeli nie obsługuje operacji zapisu: <tableName>
DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR
Próbujesz wykonać operacje zapisu w tabeli, która została zarejestrowana przy użyciu koordynatora <coordinatorName>
zatwierdzeń . Jednak żadna implementacja tego koordynatora nie jest dostępna w bieżącym środowisku i zapisy bez koordynatorów nie są dozwolone.
DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES
Zapisywanie w przykładowych tabelach nie jest obsługiwane
DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION
Nie można rzutować <fromCatalog>
na <toCatalog>
. Wszystkie zagnieżdżone kolumny muszą być zgodne.
DELTA_VACUUM_COPY_INTO_STATE_FAILED
Opróżnianie plików danych zakończyło się pomyślnie, ale odzyskiwanie pamięci w stanie COPY INTO nie powiodło się.
DELTA_VERSIONS_NOT_CONTIGUOUS
Wersje (<versionList>
) nie są ciągłe.
Aby uzyskać więcej informacji, zobacz DELTA_VERSIONS_NOT_CONTIGUOUS
DELTA_VIOLATE_CONSTRAINT_WITH_VALUES
Ograniczenie <constraintName>
<expression>
CHECK naruszone przez wiersz z wartościami:
<values>
DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
Weryfikacja właściwości tabeli <table>
została naruszona:
Aby uzyskać więcej informacji, zobacz DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED
<viewIdentifier>
to widok. Dane mogą nie być zapisywane w widoku.
DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST
Kolumna <columnName>
porządkowania Z nie istnieje w schemacie danych.
DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS
Kolejność Z będzie mieć <cols>
wartość
nieskuteczne, ponieważ obecnie nie zbieramy statystyk dla tych kolumn. Zobacz sekcję
<link>
aby uzyskać więcej informacji na temat pomijania danych i porządkowania z. Możesz wyłączyć
to sprawdzenie przez ustawienie
"%%sql set <zorderColStatKey>
= false"
DELTA_ZORDERING_ON_PARTITION_COLUMN
<colName>
to kolumna partycji. Kolejność Z może być wykonywana tylko na kolumnach danych
Autoloader
CF_ADD_NEW_NOT_SUPPORTED
Tryb <addNewColumnsMode>
ewolucji schematu nie jest obsługiwany w przypadku określenia schematu. Aby użyć tego trybu, możesz zamiast tego podać schemat cloudFiles.schemaHints
.
CF_AMBIGUOUS_AUTH_OPTIONS_ERROR
Znaleziono opcje uwierzytelniania ustawień powiadomień dla katalogu (domyślnego)
tryb wyświetlania listy:
<options>
Jeśli chcesz użyć trybu powiadamiania o pliku, ustaw jawnie:
.option("cloudFiles.<useNotificationsKey>
", "true")
Alternatywnie, jeśli chcesz pominąć walidację opcji i zignorować te opcje
opcje uwierzytelniania, które można ustawić:
.option("cloudFiles.ValidateOptionsKey>", "false")
CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR
Tryb list przyrostowych (cloudFiles).<useIncrementalListingKey>
i powiadomienia o plikach (cloudFiles).<useNotificationsKey>
zostały włączone w tym samym czasie.
Upewnij się, że wybrano tylko jeden.
CF_AZURE_STORAGE_SUFFIXES_REQUIRED
Wymagaj plików adlsBlobSuffix i adlsDfsSuffix dla platformy Azure
CF_BUCKET_MISMATCH
Zdarzenie <storeType>
w pliku <fileEvent>
różni się od oczekiwanego przez źródło: <source>
.
CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY
Nie można rozwinąć schematu, gdy dziennik schematu jest pusty. Lokalizacja dziennika schematu: <logPath>
CF_CANNOT_PARSE_QUEUE_MESSAGE
Nie można przeanalizować następującego komunikatu kolejki: <message>
CF_CANNOT_RESOLVE_CONTAINER_NAME
Nie można rozpoznać nazwy kontenera ze ścieżki: <path>
, rozpoznany identyfikator URI: <uri>
CF_CANNOT_RUN_DIRECTORY_LISTING
Nie można uruchomić listy katalogów, gdy jest uruchomiony wątek asynchronicznego wypełniania
CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON
Nie można jednocześnie włączyć plików cloudFiles.cleanSource i cloudFiles.allowOverwrites.
CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
Moduł automatycznego ładowania nie może usunąć przetworzonych plików, ponieważ nie ma uprawnień do zapisu w katalogu źródłowym.
<reason>
Aby rozwiązać ten problem, możesz wykonać następujące czynności:
- Udzielanie uprawnień do zapisu w katalogu źródłowym LUB
- Ustaw wartość cleanSource na wartość "OFF"
Możesz również odblokować strumień, ustawiając parametr SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors na wartość "true".
CF_DUPLICATE_COLUMN_IN_DATA
Wystąpił błąd podczas próby wywnioskowania schematu partycji tabeli. Masz tę samą kolumnę zduplikowaną w ścieżkach danych i partycji. Aby zignorować wartość partycji, podaj kolumny partycji jawnie przy użyciu: .option("cloudFiles.<partitionColumnsKey>
", "{comma-separated-list}")
CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE
Nie można wnioskować schematu, gdy ścieżka <path>
wejściowa jest pusta. Spróbuj uruchomić strumień, gdy w ścieżce wejściowej znajdują się pliki lub określ schemat.
CF_EVENT_GRID_AUTH_ERROR
Nie można utworzyć subskrypcji usługi Event Grid. Upewnij się, że twoja usługa
Podmiot zabezpieczeń ma <permissionType>
subskrypcje usługi Event Grid. Zobacz więcej szczegółów na stronie:
<docLink>
CF_EVENT_GRID_CREATION_FAILED
Nie można utworzyć subskrypcji usługi Event Grid. Upewnij się, że element Microsoft.EventGrid jest
zarejestrowana jako dostawca zasobów w ramach subskrypcji. Zobacz więcej szczegółów na stronie:
<docLink>
CF_EVENT_GRID_NOT_FOUND_ERROR
Nie można utworzyć subskrypcji usługi Event Grid. Upewnij się, że magazyn
konto (<storageAccount>
) znajduje się w grupie zasobów (<resourceGroup>
) i
konto magazynu jest kontem "StorageV2 (ogólnego przeznaczenia w wersji 2)". Zobacz więcej szczegółów na stronie:
<docLink>
CF_EVENT_NOTIFICATION_NOT_SUPPORTED
Tryb powiadamiania o zdarzeniu automatycznego modułu ładującego nie jest obsługiwany w przypadku programu <cloudStore>
.
CF_FAILED_TO_CHECK_STREAM_NEW
Nie można sprawdzić, czy strumień jest nowy
CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION
Nie można utworzyć subskrypcji: <subscriptionName>
. Subskrypcja o tej samej nazwie już istnieje i jest skojarzona z innym tematem: <otherTopicName>
. Żądany temat to <proposedTopicName>
. Usuń istniejącą subskrypcję lub utwórz subskrypcję z nowym sufiksem zasobu.
CF_FAILED_TO_CREATED_PUBSUB_TOPIC
Nie można utworzyć tematu: <topicName>
. Temat o tej samej nazwie już istnieje.<reason>
Usuń istniejący temat lub spróbuj ponownie za pomocą innego sufiksu zasobu
CF_FAILED_TO_DELETE_GCP_NOTIFICATION
Nie można usunąć powiadomienia o identyfikatorze <notificationId>
w zasobniku <bucketName>
dla tematu <topicName>
. Spróbuj ponownie lub ręcznie usuń powiadomienie za pośrednictwem konsoli GCP.
CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA
Nie można wykonać deserializacji utrwalonego schematu z ciągu: "<jsonSchema>
"
CF_FAILED_TO_EVOLVE_SCHEMA
Nie można rozwijać schematu bez dziennika schematu.
CF_FAILED_TO_FIND_PROVIDER
Nie można odnaleźć dostawcy dla <fileFormatInput>
CF_FAILED_TO_INFER_SCHEMA
Nie można wywnioskować schematu dla formatu <fileFormatInput>
z istniejących plików w ścieżce wejściowej <path>
.
Aby uzyskać więcej informacji, zobacz CF_FAILED_TO_INFER_SCHEMA
CF_FAILED_TO_WRITE_TO_SCHEMA_LOG
Nie można zapisać w dzienniku schematu w lokalizacji <path>
.
CF_FILE_FORMAT_REQUIRED
Nie można odnaleźć wymaganej opcji: cloudFiles.format.
CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS
Znaleziono wiele subskrypcji (<num>
) z prefiksem automatycznego modułu ładującego dla tematu <topicName>
:
<subscriptionList>
W każdym temacie powinna istnieć tylko jedna subskrypcja. Ręcznie upewnij się, że temat nie ma wielu subskrypcji.
CF_GCP_AUTHENTICATION
Podaj wszystkie następujące elementy: <clientEmail>
, , <client>
<privateKey>
i <privateKeyId>
ani nie podaj żadnego z nich, aby użyć wartości domyślnej
Łańcuch dostawców poświadczeń GCP do uwierzytelniania za pomocą zasobów GCP.
CF_GCP_LABELS_COUNT_EXCEEDED
Odebrano zbyt wiele etykiet (<num>
) dla zasobu GCP. Maksymalna liczba etykiet na zasób to <maxNum>
.
CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED
Odebrano zbyt wiele tagów zasobów (<num>
) dla zasobu GCP. Maksymalna liczba tagów zasobów na zasób to <maxNum>
, ponieważ tagi zasobów są przechowywane jako etykiety GCP dla zasobów, a określone tagi usługi Databricks zużywają niektóre z tych limitów przydziału etykiet.
CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG
Niekompletny plik dziennika w dzienniku schematu w ścieżce <path>
CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT
Niekompletny plik metadanych w punkcie kontrolnym modułu ładującego automatycznego
CF_INCORRECT_SQL_PARAMS
Metoda cloud_files akceptuje dwa wymagane parametry ciągu: ścieżkę do załadowania i format pliku. Opcje czytnika plików muszą być podane w mapie klucz-wartość ciągu. np. cloud_files("path", "json", map("option1", "value1")). Otrzymał: <params>
CF_INTERNAL_ERROR
Błąd wewnętrzny.
Aby uzyskać więcej informacji, zobacz CF_INTERNAL_ERROR
CF_INVALID_ARN
Nieprawidłowa usługa ARN: <arn>
CF_INVALID_AZURE_CERTIFICATE
Nie można przeanalizować klucza prywatnego dostarczonego z opcją cloudFiles.certificate. Podaj prawidłowy klucz publiczny w formacie PEM.
CF_INVALID_AZURE_CERT_PRIVATE_KEY
Nie można przeanalizować klucza prywatnego dostarczonego z opcją cloudFiles.certificatePrivateKey. Podaj prawidłowy klucz prywatny w formacie PEM.
CF_INVALID_CHECKPOINT
Ten punkt kontrolny nie jest prawidłowym źródłem CloudFiles
CF_INVALID_CLEAN_SOURCE_MODE
Nieprawidłowy tryb dla opcji <value>
czystego źródła .
CF_INVALID_GCP_RESOURCE_TAG_KEY
Nieprawidłowy klucz tagu zasobu dla zasobu GCP: <key>
. Klucze muszą zaczynać się od małej litery, mieć długość od 1 do 63 znaków i zawierać tylko małe litery, cyfry, podkreślenia (_) i łączniki (-).
CF_INVALID_GCP_RESOURCE_TAG_VALUE
Nieprawidłowa wartość tagu zasobu dla zasobu GCP: <value>
. Wartości muszą mieć długość od 0 do 63 znaków i muszą zawierać tylko małe litery, cyfry, podkreślenia (_) i łączniki (-).
CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS
Moduł automatycznego ładowania nie obsługuje następujących opcji w przypadku użycia ze zdarzeniami zarządzanych plików:
<optionList>
Zalecamy usunięcie tych opcji, a następnie ponowne uruchomienie strumienia.
CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
Nieprawidłowa odpowiedź z usługi zdarzeń zarządzanych plików. Aby uzyskać pomoc, skontaktuj się z pomocą techniczną usługi Databricks.
Aby uzyskać więcej informacji, zobacz CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
CF_INVALID_SCHEMA_EVOLUTION_MODE
cloudFiles.<schemaEvolutionModeKey>
musi być jednym z {
"<addNewColumns>
"
"<failOnNewColumns>
"
"<rescue>
"
"<noEvolution>
"}
CF_INVALID_SCHEMA_HINTS_OPTION
Wskazówki schematu mogą określać tylko określoną kolumnę raz.
W takim przypadku ponowne zdefiniowanie kolumny: <columnName>
wiele razy w schemaHints:
<schemaHints>
CF_INVALID_SCHEMA_HINT_COLUMN
Wskazówek schematu nie można używać do zastępowania typów zagnieżdżonych map i tablic.
Kolumna powodująca konflikt: <columnName>
CF_LATEST_OFFSET_READ_LIMIT_REQUIRED
element latestOffset powinien być wywoływany przy użyciu elementu ReadLimit w tym źródle.
CF_LOG_FILE_MALFORMED
Plik dziennika został źle sformułowany: nie można odczytać poprawnej wersji dziennika z pliku <fileName>
.
CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS
Zażądano automatycznego modułu ładującego zignorowanie istniejących plików w lokalizacji zewnętrznej przez ustawienie includeExistingFiles na false. Jednak usługa zdarzeń zarządzanych plików nadal odnajduje istniejące pliki w lokalizacji zewnętrznej. Spróbuj ponownie po zakończeniu odnajdywania wszystkich plików w lokalizacji zewnętrznej po zakończeniu zdarzeń zarządzanych plików.
CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND
Używasz automatycznego modułu ładującego z zdarzeniami zarządzanych plików, ale wydaje się, że lokalizacja zewnętrzna ścieżki wejściowej "<path>
" nie ma włączonych zdarzeń plików lub ścieżka wejściowa jest nieprawidłowa. Poproś administratora usługi Databricks o włączenie zdarzeń plików w lokalizacji zewnętrznej dla ścieżki wejściowej.
CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED
Używasz automatycznego modułu ładującego ze zdarzeniami zarządzanych plików, ale nie masz dostępu do lokalizacji zewnętrznej ani woluminu dla ścieżki wejściowej "<path>
" lub ścieżka wejściowa jest nieprawidłowa. Poproś administratora usługi Databricks o udzielenie uprawnień do odczytu dla lokalizacji zewnętrznej lub woluminu lub podaj prawidłową ścieżkę wejściową w istniejącej lokalizacji zewnętrznej lub woluminie.
CF_MANAGED_FILE_EVENTS_ONLY_ON_SERVERLESS
Automatyczne ładowanie z zdarzeniami zarządzanych plików jest dostępne tylko w usłudze Databricks bezserwerowych. Aby kontynuować, przenieś to obciążenie do usługi Databricks bezserwerowego lub wyłącz opcję cloudFiles.useManagedFileEvents.
CF_MAX_MUST_BE_POSITIVE
wartość maksymalna musi być dodatnia
CF_METADATA_FILE_CONCURRENTLY_USED
Wiele zapytań przesyłania strumieniowego jest jednocześnie używanych <metadataFile>
CF_MISSING_METADATA_FILE_ERROR
Brak pliku metadanych w katalogu źródłowego punktu kontrolnego źródła przesyłania strumieniowego. Te metadane
plik zawiera ważne opcje domyślne dla strumienia, więc nie można ponownie uruchomić strumienia
Teraz. Aby uzyskać pomoc, skontaktuj się z pomocą techniczną usługi Databricks.
CF_MISSING_PARTITION_COLUMN_ERROR
Kolumna <columnName>
partycji nie istnieje w podanym schemacie:
<schema>
CF_MISSING_SCHEMA_IN_PATHLESS_MODE
Określ schemat przy użyciu metody .schema(), jeśli ścieżka nie jest dostarczana do źródła CloudFiles podczas korzystania z trybu powiadamiania o pliku. Alternatywnie, aby moduł automatycznego ładowania wywnioskować schemat, podaj ścieżkę podstawową w pliku .load().
CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC
Znaleziono istniejące powiadomienia dotyczące tematu <topicName>
w zasobniku <bucketName>
:
powiadomienie, identyfikator
<notificationList>
Aby uniknąć zanieczyszczania subskrybenta niezamierzonych zdarzeń, usuń powyższe powiadomienia i ponów próbę.
CF_NEW_PARTITION_ERROR
Nowe kolumny partycji zostały wywnioskowane z plików: [<filesList>
]. Podaj wszystkie kolumny partycji w schemacie lub podaj listę kolumn partycji, dla których chcesz wyodrębnić wartości przy użyciu: .option("cloudFiles.partitionColumns", "{rozdzielane przecinkami-list|empty-string}")
CF_PARTITON_INFERENCE_ERROR
Wystąpił błąd podczas próby wywnioskowania schematu partycji bieżącej partii plików. Podaj kolumny partycji jawnie przy użyciu: .option("cloudFiles.<partitionColumnOption>
", "{comma-separated-list}")
CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES
Nie można odczytać plików, gdy ścieżka <path>
wejściowa nie istnieje. Upewnij się, że ścieżka wejściowa istnieje i spróbuj ponownie.
CF_PERIODIC_BACKFILL_NOT_SUPPORTED
Okresowe wypełnianie nie jest obsługiwane, jeśli wypełnianie asynchroniczne jest wyłączone. Możesz włączyć asynchroniczne wypełnianie/wyświetlanie listy katalogów, ustawiając wartość spark.databricks.cloudFiles.asyncDirListing
true
CF_PREFIX_MISMATCH
Znaleziono niezgodne zdarzenie: klucz <key>
nie ma prefiksu: <prefix>
CF_PROTOCOL_MISMATCH
<message>
Jeśli nie musisz wprowadzać żadnych innych zmian w kodzie, ustaw język SQL
konfiguracja: "<sourceProtocolVersionKey>
= <value>
"
aby wznowić strumień. Zobacz:
<docLink>
aby uzyskać więcej informacji.
CF_REGION_NOT_FOUND_ERROR
Nie można pobrać domyślnego regionu platformy AWS. Określ region przy użyciu opcji cloudFiles.region.
CF_RESOURCE_SUFFIX_EMPTY
Nie można utworzyć usług powiadomień: sufiks zasobu nie może być pusty.
CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS
Nie można utworzyć usług powiadomień: sufiks zasobu może zawierać tylko znaki alfanumeryczne, łączniki (-) i podkreślenia (_).
CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE
Nie można utworzyć usług powiadomień: sufiks zasobu może zawierać tylko małe litery, cyfry i kreski (-).
CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP
Nie można utworzyć usług powiadomień: sufiks zasobu może zawierać tylko znaki alfanumeryczne, łączniki (-), podkreślenia (_), kropki (.), tyldy (~) plus znaki (+) i znaki procentowe (<percentSign>
).
CF_RESOURCE_SUFFIX_LIMIT
Nie można utworzyć usług powiadomień: sufiks zasobu nie może zawierać więcej niż <limit>
znaków.
CF_RESOURCE_SUFFIX_LIMIT_GCP
Nie można utworzyć usług powiadomień: sufiks zasobu musi zawierać się między znakami <lowerLimit>
i <upperLimit>
.
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY
Znaleziono ograniczony klucz tagu zasobu GCP (<key>
). Następujące klucze tagów zasobów GCP są ograniczone do automatycznego modułu ładującego: [<restrictedKeys>
]
CF_RETENTION_GREATER_THAN_MAX_FILE_AGE
parametr cloudFiles.cleanSource.retentionDuration nie może być większy niż cloudFiles.maxFileAge.
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
Nie można utworzyć powiadomienia dla tematu: <topic>
z prefiksem: <prefix>
. Istnieje już temat o tej samej nazwie z innym prefiksem: <oldPrefix>
. Spróbuj użyć innego sufiksu zasobu do instalacji lub usuń istniejącą konfigurację.
CF_SOURCE_DIRECTORY_PATH_REQUIRED
Podaj ścieżkę katalogu źródłowego z opcją path
CF_SOURCE_UNSUPPORTED
Źródło plików w chmurze obsługuje tylko ścieżki S3, Azure Blob Storage (wasb/wasbs) i Azure Data Lake Gen1 (adl) i Gen2 (abfs/abfss). path: '<path>
', rozpoznany identyfikator URI: '<uri>
'
CF_STATE_INCORRECT_SQL_PARAMS
Funkcja cloud_files_state akceptuje parametr ciągu reprezentujący katalog punktów kontrolnych strumienia cloudFiles lub wieloczęściową tabelę tableName identyfikującą tabelę przesyłania strumieniowego oraz opcjonalny drugi parametr całkowity reprezentujący wersję punktu kontrolnego do załadowania stanu. Drugi parametr może być również "najnowszy", aby odczytać najnowszy punkt kontrolny. Otrzymał: <params>
CF_STATE_INVALID_CHECKPOINT_PATH
Ścieżka <path>
wejściowego punktu kontrolnego jest nieprawidłowa. Ścieżka nie istnieje lub nie znaleziono cloud_files źródeł.
CF_STATE_INVALID_VERSION
Określona wersja <version>
nie istnieje lub została usunięta podczas analizy.
CF_THREAD_IS_DEAD
<threadName>
wątek jest martwy.
CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION
Nie można uzyskać lokalizacji punktu kontrolnego strumienia z lokalizacji źródłowego punktu kontrolnego: <checkPointLocation>
CF_UNABLE_TO_DETECT_FILE_FORMAT
Nie można wykryć formatu pliku źródłowego z <fileSize>
przykładowych plików, znaleziono <formats>
plik . Określ format.
CF_UNABLE_TO_EXTRACT_BUCKET_INFO
Nie można wyodrębnić informacji o zasobniku. Ścieżka: '<path>
', rozpoznany identyfikator URI: '<uri>
'.
CF_UNABLE_TO_EXTRACT_KEY_INFO
Nie można wyodrębnić kluczowych informacji. Ścieżka: '<path>
', rozpoznany identyfikator URI: '<uri>
'.
CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO
Nie można wyodrębnić informacji o koncie magazynu; path: '<path>
', rozpoznany identyfikator URI: '<uri>
'
CF_UNABLE_TO_LIST_EFFICIENTLY
Odebrano zdarzenie zmiany nazwy katalogu dla ścieżki <path>
, ale nie możemy efektywnie wyświetlić tego katalogu. Aby strumień był kontynuowany, ustaw opcję "cloudFiles.ignoreDirRenames" na true i rozważ włączenie regularnych wypełniania przy użyciu elementu cloudFiles.backfillInterval dla tych danych do przetworzenia.
CF_UNEXPECTED_READ_LIMIT
Nieoczekiwany readLimit: <readLimit>
CF_UNKNOWN_OPTION_KEYS_ERROR
Znaleziono nieznane klucze opcji:
<optionList>
Upewnij się, że wszystkie podane klucze opcji są poprawne. Jeśli chcesz pominąć
Sprawdzanie poprawności opcji i ignorowanie tych nieznanych opcji, można ustawić:
.option("cloudFiles.<validateOptions>
", "false")
CF_UNKNOWN_READ_LIMIT
Nieznany odczyt: <readLimit>
CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION
Funkcja SQL "cloud_files" do utworzenia źródła przesyłania strumieniowego automatycznego modułu ładującego jest obsługiwana tylko w potoku delta live tables. Zobacz więcej szczegółów na stronie:
<docLink>
CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE
Wnioskowanie schematu nie jest obsługiwane w przypadku formatu: <format>
. Określ schemat.
CF_UNSUPPORTED_LOG_VERSION
UnsupportedLogVersion: maksymalna obsługiwana wersja dziennika to v<maxVersion>``, but encountered v``<version>
. Plik dziennika został utworzony przez nowszą wersję DBR i nie można go odczytać w tej wersji. Uaktualnij.
CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE
Tryb <mode>
ewolucji schematu nie jest obsługiwany dla formatu: <format>
. Ustaw tryb ewolucji schematu na wartość "none".
CF_USE_DELTA_FORMAT
Odczytywanie z tabeli delty nie jest obsługiwane w tej składni. Jeśli chcesz korzystać z danych z funkcji Delta, zapoznaj się z dokumentacją: odczytaj tabelę delty (<deltaDocLink>
) lub odczytaj tabelę delty jako źródło strumienia (<streamDeltaDocLink>
). Źródło przesyłania strumieniowego z funkcji Delta jest już zoptymalizowane pod kątem przyrostowego zużycia danych.
Dane geoprzestrzenne
EWKB_PARSE_ERROR
Błąd podczas analizowania EWKB: <parseError>
na pozycji <pos>
GEOJSON_PARSE_ERROR
Błąd podczas analizowania pliku GeoJSON: <parseError>
na pozycji <pos>
Aby uzyskać więcej informacji, zobacz GEOJSON_PARSE_ERROR
H3_INVALID_CELL_ID
<h3Cell>
jest nieprawidłowym identyfikatorem komórki H3
Aby uzyskać więcej informacji, zobacz H3_INVALID_CELL_ID
H3_INVALID_GRID_DISTANCE_VALUE
Odległość <k>
siatki H3 musi być nieujemna
Aby uzyskać więcej informacji, zobacz H3_INVALID_GRID_DISTANCE_VALUE
H3_INVALID_RESOLUTION_VALUE
Rozdzielczość <r>
H3 musi być między <minR>
i <maxR>
, włącznie
Aby uzyskać więcej informacji, zobacz H3_INVALID_RESOLUTION_VALUE
H3_NOT_ENABLED
<h3Expression>
jest wyłączony lub nieobsługiwany. Rozważ włączenie funkcji Photon lub przełączenie do warstwy obsługującej wyrażenia H3
Aby uzyskać więcej informacji, zobacz H3_NOT_ENABLED
H3_PENTAGON_ENCOUNTERED_ERROR
Pentagon został napotkany podczas obliczania pierścienia szesnastkowego <h3Cell>
z odległości siatki <k>
H3_UNDEFINED_GRID_DISTANCE
Odległość siatki H3 między <h3Cell1>
i <h3Cell2>
jest niezdefiniowana
ST_DIFFERENT_SRID_VALUES
Argumenty do "<sqlFunction>
" muszą mieć taką samą wartość SRID. Znaleziono wartości SRID: <srid1>
, <srid2>
ST_INVALID_ARGUMENT
"<sqlFunction>
": <reason>
ST_INVALID_ARGUMENT_TYPE
Argument "<sqlFunction>
" musi być typu <validTypes>
ST_INVALID_CRS_TRANSFORMATION_ERROR
<sqlFunction>
: Nieprawidłowa lub nieobsługiwana transformacja CRS ze SRID <srcSrid>
na SRID <trgSrid>
ST_INVALID_ENDIANNESS_VALUE
Endianness <e>
musi być "NDR" (little-endian) lub "XDR" (big-endian)
ST_INVALID_GEOHASH_VALUE
<sqlFunction>
: Nieprawidłowa wartość powłoki geograficznej: "<geohash>
". Wartości skrótu geograficznego muszą być prawidłowymi małymi literami ciągów base32, zgodnie z opisem w temaciehttps://en.wikipedia.org/wiki/Geohash#Textual_representation
ST_INVALID_PRECISION_VALUE
Precyzja <p>
musi zawierać się między wartościami <minP>
i <maxP>
, włącznie
ST_INVALID_SRID_VALUE
Nieprawidłowy lub nieobsługiwany identyfikator SRID <srid>
ST_NOT_ENABLED
<stExpression>
jest wyłączony lub nieobsługiwany. Rozważ włączenie funkcji Photon lub przełączenie do warstwy obsługującej wyrażenia ST
ST_UNSUPPORTED_RETURN_TYPE
W zapytaniach nie można zwracać typów danych GEOGRAPHY i GEOMETRY. Użyj jednego z następujących wyrażeń SQL, aby przekonwertować je na standardowe formaty wymiany: <projectionExprs>
.
WKB_PARSE_ERROR
Błąd podczas analizowania WKB: <parseError>
na pozycji <pos>
Aby uzyskać więcej informacji, zobacz WKB_PARSE_ERROR
WKT_PARSE_ERROR
Błąd podczas analizowania WKT: <parseError>
w pozycji <pos>
Aby uzyskać więcej informacji, zobacz WKT_PARSE_ERROR