Poznámka:
Přístup k této stránce vyžaduje autorizaci. Můžete se zkusit přihlásit nebo změnit adresáře.
Přístup k této stránce vyžaduje autorizaci. Můžete zkusit změnit adresáře.
platí pro:
Databricks SQL
Databricks Runtime 12.2 a vyšší
Chybové stavy jsou popisné, čitelné řetězce, které jsou jedinečné pro chybu, kterou popisují.
Chybové stavy můžete použít k programovému zpracování chyb v aplikaci bez nutnosti analyzovat chybovou zprávu.
Toto je seznam běžných pojmenovaných chybových podmínek vrácených službou Azure Databricks.
Databricks Runtime a Databricks SQL
ADD_DEFAULT_UNSUPPORTED
Nepodařilo se provést příkaz <statementType>, protože hodnoty DEFAULT nejsou podporovány při přidávání nových sloupců do dříve existujícího cílového zdroje dat s poskytovatelem tabulek: "<dataSource>".
AGGREGATE_FUNCTION_IN_NESTED_REFERENCES_NOT_SUPPORTED (agregační funkce v vnořených odkazech není podporována)
Agregační funkce byly zjištěny v odkazech na vnější obor <expression>, které nejsou podporovány.
AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION
Ne deterministický výraz <sqlExpr> by se neměl zobrazovat v argumentech agregační funkce.
AI_FUNCTION_HTTP_PARSE_CAST_ERROR
Při přetypování na zadaný typ returnType se nepodařilo analyzovat výstup modelu: "<dataType>" odpověď JSON : "<responseString>". Aktualizujte typ returnType tak, aby odpovídal obsahu typu reprezentované odpovědí JSON , a pak dotaz opakujte. Výjimka: <errorMessage>
AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR
Skutečný výstup modelu má více než jeden sloupec "<responseString>". Zadaný návratový typ["<dataType>] má však pouze jeden sloupec. Aktualizujte hodnotu returnType tak, aby obsahovala stejný počet sloupců jako výstup modelu, a pak dotaz opakujte.
AI_FUNCTION_HTTP_REQUEST_ERROR
Při vytváření požadavku HTTP na funkci <funcName>došlo k chybě: <errorMessage>
AI_FUNCTION_INVALID_HTTP_RESPONSE
Neplatná odpověď HTTP pro funkci <funcName>: <errorMessage>
AI_FUNCTION_INVALID_MAX_WORDS
Maximální počet slov musí být nezáporné celé číslo, avšak bylo obdrženo <maxWords>.
AI_FUNCTION_INVALID_MODEL_PARAMETERS
Poskytnuté parametry modelu (<modelParameters>) jsou neplatné ve funkci AI_QUERY pro servisní endpoint "<endpointName>".
Další podrobnosti najdete viz AI_FUNCTION_INVALID_MODEL_PARAMETERS
AI_FUNCTION_INVALID_RESPONSE_FORMAT_TYPE
Funkce AI: "<functionName>" vyžaduje platný <format> řetězec pro responseFormat parametr, ale byl nalezen následující formát odpovědi: "<invalidResponseFormat>". Výjimka: <errorMessage>
AI_FUNCTION_JSON_PARSE_ERROR
Při analýze JSON odpovědi pro funkci <funcName>došlo k chybě: <errorMessage>
AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR
Analýza schématu pro koncový bod obsluhy se<endpointName> nezdařila: <errorMessage>odpověď JSON : "<responseJson>".
Pokud chcete přepsat rozlišení schématu, nastavte parametr returnType ručně ve funkci AI_QUERY.
AI_FUNCTION_REGISTRY_LOOKUP_FAILURE
Nepodařilo se dynamicky přeložit funkci "<functionName>" z registru funkcí AI.
AI_FUNCTION_UNSUPPORTED_ERROR
Funkce <funcName> není v aktuálním prostředí podporovaná. Je k dispozici pouze v Databricks SQL Pro a bezserverové verzi.
AI_FUNCTION_UNSUPPORTED_REQUEST
Vyhodnocení funkce SQL "<functionName>" se nezdařilo, protože zadaný argument <invalidValue> má hodnotu "<invalidDataType>", ale podporují se pouze následující typy: <supportedDataTypes>. Aktualizujte volání funkce tak, aby poskytovalo argument typu řetězce, a zkuste dotaz zopakovat.
AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT
Byl nalezen nepodporovaný formát odpovědi.
Další podrobnosti najdete v AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT
AI_FUNCTION_UNSUPPORTED_RETURN_TYPE
Funkce AI: "<functionName>" nepodporuje následující typ jako návratový typ: "<typeName>". Návratový typ musí být platným typem SQL, kterému rozumí funkce Catalyst a podporuje funkce AI. Mezi aktuální podporované typy patří: <supportedValues>
AI_INVALID_ARGUMENT_VALUE_ERROR
Zadaná hodnota "<argValue>" není podporována argumentem "<argName>". Podporované hodnoty jsou: <supportedValues>
AI_QUERY_ENDPOINT_NOT_SUPPORT_STRUCTURED_OUTPUT
Očekávalo se, že typ úlohy obslužného koncového bodu bude "Chat" kvůli podpoře strukturovaného výstupu, ale pro koncový bod "<taskType>" byl nalezen "<endpointName>".
AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH
Zadaný znak "<sqlExpr>" není podporován argumentem returnType.
AI_SEARCH_CONFLICTING_QUERY_PARAM_SUPPLY_ERROR
Konfliktní parametry zjištěné pro funkci SQL vector_search: <conflictParamNames>.<hint>
AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR
vector_search funkce SQL s vloženým typem sloupce <embeddingColumnType> se nepodporuje.
AI_SEARCH_EMPTY_QUERY_PARAM_ERROR
vector_search funkce SQL chybí vstupní parametr dotazu, zadejte alespoň jeden parametr z: <parameterNames>.
AI_SEARCH_HYBRID_QUERY_PARAM_DEPRECATION_ERROR
Parametr query až vector_search pro SQL funkci není podporován pro hybrid vektorové vyhledávání. Místo toho použijte query_text.
AI_SEARCH_HYBRID_TEXT_NOT_FOUND_ERROR
Text dotazu nebyl nalezen ve funkci vector_search SQL pro hybrid vektorové vyhledávání. Zadejte prosím query_text.
AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR
vector_search funkce SQL s typem indexu <indexType> se nepodporuje.
AI_SEARCH_MISSING_EMBEDDING_INPUT_ERROR
Je nutné zadat query_vector pro index <indexName>, protože není přidružen ke koncovému bodu modelu pro vkládání.
AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR
Nepodařilo se materializovat dotaz vector_search funkce SQL z typu Spark <dataType> na nativní objekty Scala během kódování požadavku s chybou: <errorMessage>.
AI_SEARCH_QUERY_TYPE_UNSUPPORTED_ERROR
vector_search funkce SQL s typem dotazu <unexpectedQueryType> se nepodporuje. Zadejte jednu z: <supportedQueryTypes>.
AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR
vector_search funkce SQL s num_results většími než <maxLimit> není podporována. Zadaný limit byl <requestedLimit>. Zkuste to prosím znovu s num_results <= <maxLimit>
AI_TOP_DRIVERS_PARAM_OUT_OF_RANGE
ai_top_drivers Parametr <param> musí být mezi <lo> a <hi>.
AI_TOP_DRIVERS_UNSUPPORTED_AGGREGATION_TYPE
ai_top_drivers nepodporuje agregaci <aggName> . Zvolte jednu z následujících podporovaných agregací: <allowed>.
AI_TOP_DRIVERS_UNSUPPORTED_DIMENSION_TYPE
ai_top_drivers nepodporuje číselné, mapové nebo strukturní sloupce dimenzí. Sloupec <colName> má typ <dataType>. Odeberte tuto dimenzi nebo ji přetypujte na podporovaný typ.
AI_TOP_DRIVERS_UNSUPPORTED_LABEL_TYPE
ai_top_drivers vyžaduje, aby typ sloupce popisku byl boolean. Sloupec <colName> má typ <dataType>. Změňte sloupec popisku nebo ho přetypujte na podporovaný typ.
AI_TOP_DRIVERS_UNSUPPORTED_METRIC_TYPE
ai_top_drivers vyžaduje, aby typ sloupce metriky byl číselný. Sloupec <colName> má typ <dataType>. Změňte sloupec metriky nebo ho přetypujte na podporovaný typ.
ALL_PARAMETERS_MUST_BE_NAMED
Použití parametrizovaných dotazů s názvem vyžaduje, aby byly pojmenovány všechny parametry. Chybějící názvy parametrů: <exprs>.
ALL_PARTITION_COLUMNS_NOT_ALLOWED
Nelze použít všechny sloupce jako sloupce pro oddíly.
ALTER_SCHEDULE_DOES_NOT_EXIST
Nelze změnit <scheduleType> v tabulce bez existujícího plánu nebo triggeru. Před pokusem o jeho změnu přidejte do tabulky plán nebo trigger.
ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
ALTER TABLE <type> sloupec <columnName> určuje popisovač "<optionName>" více než jednou, což je neplatné.
AMBIGUOUS_ALIAS_IN_NESTED_CTE
Název <name> je ve vnořeném CTE nejednoznačný.
Nastavte <config> na "CORRECTED", aby byl název definovaný v interní CTE upřednostněn. Pokud je nastavená na "LEGACY", budou mít přednost vnější definice CTE.
Viz "https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine".
AMBIGUOUS_COLUMN_OR_FIELD
Sloupec nebo pole <name> je nejednoznačný a má <n> odpovídající položky.
AMBIGUOUS_COLUMN_REFERENCE
Sloupec <name> je nejednoznačný. Je to proto, že jste spojili několik datových rámců dohromady a některé z těchto datových rámců jsou stejné.
Tento sloupec odkazuje na jeden z datových rámců, ale Spark nemůže zjistit, který z nich.
Před jejich připojením vytvořte aliasy pro DataFrames s různými názvy prostřednictvím DataFrame.alias.
a zadejte sloupec pomocí kvalifikovaného názvu, například df.alias("a").join(df.alias("b"), col("a.id") > col("b.id")).
AMBIGUOUS_CONSTRAINT
Nejednoznačný odkaz na omezení <constraint>.
AMBIGUOUS_LATERAL_COLUMN_ALIAS
Alias bočního sloupce <name> je nejednoznačný a má <n> shody.
AMBIGUOUS_REFERENCE
Odkaz <name> je nejednoznačný, může to být: <referenceNames>.
AMBIGUOUS_REFERENCE_TO_FIELDS
Nejednoznačný odkaz na pole <field>. Ve schématu se objeví <count> krát.
ANALYZE_CONSTRAINTS_NOT_SUPPORTED
ANALYZE CONSTRAINTS se nepodporuje.
ANALYZE_TABLE_COMPUTE_STORAGE_METRICS_NOT_SUPPORTED
ANALYZE TABLE COMPUTE STORAGE METRICS se nepodporuje. Spojte se s týmem podpory Databricks a zaregistrujte tento pracovní prostor.
ANSI_CONFIG_CANNOT_BE_DISABLED
V tomto produktu nelze zakázat konfiguraci ANSI SQL <config>.
APPEND_ONCE_FROM_BATCH_QUERY
Použijte operátor stream().
Vytvoření streamované tabulky z dávkového dotazu brání přírůstkové načítání nových dat ze zdroje. Chybná tabulka: '<table>'
Příklad použití:
CREATE STREAMING TABLE <target table name>
...
AS SELECT
...
FROM stream(<source table name>) ...
APPROX_TOP_K_INVALID_NUM_OF_ARGUMENTS
approx_top_k očekává 1 až 3 argumenty, ale má <argNum>.
APPROX_TOP_K_MAX_ITEMS_TRACKED_EXCEEDS_LIMIT
Maximální počet maxItemsTrackedsledovaných approx_top_k položek (<maxItemsTracked>) by měl být menší nebo roven <limit>.
APPROX_TOP_K_MAX_ITEMS_TRACKED_LESS_THAN_K
Maximální počet sledovaných maxItemsTrackedapprox_top_k položek (<maxItemsTracked>) by měl být větší nebo roven k(<k>).
APPROX_TOP_K_NON_POSITIVE_ARG
Hodnota <argName> in approx_top_k musí být kladné celé číslo, ale musí mít <argValue>hodnotu .
APPROX_TOP_K_NULL_ARG
Hodnota <argName> in approx_top_k nemůže být NULL.
APPROX_TOP_K_SKETCH_SIZE_NOT_MATCH
Kombinování approx_top_k skici různých velikostí není povoleno. Našli jsme náčrtky velikosti <size1> a <size2>.
APPROX_TOP_K_SKETCH_TYPE_NOT_MATCH
Kombinování approx_top_k skici různých typů není povoleno. Byly nalezeny náčrty typu <type1> a <type2>.
AQE_THREAD_INTERRUPTED
To vlákno AQE je přerušeno, pravděpodobně kvůli zrušení dotazu uživatele.
ARGUMENT_NOT_CONSTANT
Funkce <functionName> obsahuje parametr <parameterName> na pozici <pos>, která vyžaduje konstantní argument. Výpočet argumentu <sqlExpr> samostatně a předání výsledku jako konstanty.
ARITHMETIC_OVERFLOW
<message>.
<alternative> V případě potřeby nastavte <config> na "false", aby se tato chyba přeskočila.
Další podrobnosti najdete v tématu ARITHMETIC_OVERFLOW
ARROW_TYPE_MISMATCH
Schéma z <operation> je neplatné: očekáváno <outputTypes>, dostali <actualDataTypes>.
ARTIFACT_ALREADY_EXISTS
Artefakt <normalizedRemoteRelativePath> již existuje. Zvolte jiný název nového artefaktu, protože jej nelze přepsat.
ASSIGNMENT_ARITY_MISMATCH
Počet sloupců nebo proměnných přiřazených nebo aliasovaných: <numTarget> neodpovídá počtu zdrojových výrazů: <numExpr>.
AS_OF_JOIN
Neplatné připojení „as-of“.
Další podrobnosti najdete v části AS_OF_JOIN
ATTEMPT_ANALYSIS_IN_PIPELINE_QUERY_FUNCTION
Operace, které aktivují analýzu nebo spouštění datového rámce, nejsou povolené ve funkcích dotazů kanálu. Přesuňte kód mimo funkci dotazu kanálu.
AUTOCOMMIT_BEGIN_TRANSACTION_DURING_AUTOCOMMIT_TRANSACTION
Nelze spustit novou transakci, zatímco implicitní transakce spuštěna SET AUTOCOMMIT=FALSE je aktivní.
COMMIT nebo ROLLBACK první transakce a SET AUTOCOMMIT=PRAVDA před zahájením nové transakce.
AUTOCOMMIT_NOT_SUPPORTED
Funkce AUTOCOMMIT režimu je aktuálně ve vývoji a zatím není v Databricks podporovaná.
AUTOCOMMIT_OLD_SQL_EDITOR_NOT_SUPPORTED
AUTOCOMMIT nelze získat přístup ke starší verzi editoru SQL nebo ho upravit. Přejděte do nového editoru SQL (<docLink>) nebo použijte poznámkový blok připojený ke službě Databricks SQL Warehouse.
AUTOCOMMIT_ONLY_SUPPORTED_IN_DBSQL
AUTOCOMMIT je možné přistupovat nebo upravovat pouze ve službě Databricks SQL Warehouse.
AUTOCOMMIT_SET_DURING_ACTIVE_TRANSACTION
SET AUTOCOMMIT není povolena během aktivní transakce. Nejprve potvrďte nebo vrácení zpět.
AUTOCOMMIT_SET_FALSE_ALREADY_DISABLED
SET AUTOCOMMIT=FALSE není povolen, pokud AUTOCOMMIT je již zakázán. Toto omezení zabraňuje nejasnostem a zachovává hranice transakcí jasně.
AUTOCOMMIT_SET_TRUE_DURING_AUTOCOMMIT_TRANSACTION
SET AUTOCOMMIT=PRAVDA není povolena po provedení příkazů v implicitní transakci spuštěna SET AUTOCOMMIT=FALSE. Je povolena pouze bezprostředně po SET AUTOCOMMIT=FALSE (před libovolnými příkazy) nebo po nebo po nebo po COMMIT .ROLLBACK
AUTO_TTL_COLUMN_NOT_FOUND
Neplatné schéma tabulky pro hodnotu Auto-TTL Sloupec <column> Auto-TTL nebyl nalezen.
AUTO_TTL_COLUMN_TYPE_NOT_SUPPORTED
Sloupec <column> Auto-TTL má typ <type> , který je neplatný. Typ sloupce musí být jeden z TIMESTAMP, TIMESTAMP_NTZ, nebo DATE.
AUTO_TTL_FEATURE_NOT_ENABLED
Pokud chcete povolit funkci Auto-TTL, obraťte se na zástupce Databricks.
AUTO_TTL_INCOMPLETE_SETTING
Pokud chcete nastavit hodnotu Auto-TTL v tabulce, jsou obě vlastnosti autottl.timestampColumn tabulky i autottl.expireInDays povinné, ale <missing> chybí.
AUTO_TTL_INVALID_COLUMN_CHANGE
Sloupec <column> nemůže být <operation> , protože se používá v definici hodnoty Auto-TTL.
AUTO_TTL_NOT_SUPPORT_SHALLOW_CLONES
Hodnota Auto-TTL není podporována u bezklonových klonovacích tabulek.
AUTO_TTL_NOT_SUPPORT_TABLES_HAVING_SHALLOW_CLONES
Hodnota Auto-TTL není podporována u tabulek, které mají mělké klony.
AUTO_TTL_REQUIRES_PREDICTIVE_OPTIMIZATION
Automatická hodnota TTL vyžaduje povolení prediktivní optimalizace.
AUTO_TTL_REQUIRES_UC_MANAGED_TABLE
Hodnota Auto-TTL se podporuje jenom u spravovaných tabulek UC.
AVRO_CANNOT_WRITE_NULL_FIELD
Nelze zapsat hodnotu null pro pole <name> definované jako datový typ Avro nepřijímající null hodnoty <dataType>.
Chcete-li pro toto pole povolit hodnotu null, zadejte jeho schéma avro jako typ sjednocení s hodnotou null pomocí avroSchema možnosti.
AVRO_DEFAULT_VALUES_UNSUPPORTED
Při povolenírescuedDataColumn se použití výchozích hodnot nepodporuje. Tuto kontrolu můžete odebrat nastavením spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue na false, ale výchozí hodnoty se nepoužijí a hodnoty null se budou dál používat.
AVRO_INCOMPATIBLE_READ_TYPE
Avro <avroPath> nelze převést na SQL <sqlPath> , protože původní kódovaný datový typ je <avroType>, ale snažíte se přečíst pole jako <sqlType>, což by vedlo k nesprávné odpovědi.
Pokud chcete povolit čtení tohoto pole, povolte konfiguraci SQL: "spark.sql.legacy.avro.allowIncompatibleSchema".
AVRO_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE
Nelze zavolat SQL funkci <functionName>, protože zdroj dat Avro není načten.
Restartujte úlohu nebo relaci s načteným balíčkem spark-avro, například pomocí argumentu --packages na příkazovém řádku, a pak znovu zkuste dotaz nebo příkaz zopakovat.
AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED
Použití porovnávání pozičních polí není podporováno, pokud je povolená rescuedDataColumn nebo failOnUnknownFields. Pokud chcete pokračovat, odeberte tyto možnosti.
AZURE_INVALID_CREDENTIALS_CONFIGURATION
Zprostředkovatel klíčů Azure nebo přihlašovací údaje jsou nesprávně nakonfigurované. Důvod: <causedBy>.
BATCH_METADATA_NOT_FOUND
Nelze najít dávkové <batchMetadataFile>.
BIGQUERY_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
Ověření zdroje dat BigQuery se nezdařilo.
Další podrobnosti najdete v tématu BIGQUERY_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE
Přihlašovací údaje pro připojení BigQuery musí být zadány buď pomocí parametru GoogleServiceAccountKeyJson, nebo všech hodnot projectId, OAuthServiceAcctEmail, OAuthPvtKey.
BINARY_ARITHMETIC_OVERFLOW
<value1> <symbol> <value2> způsobil přetečení. Pomocí <functionName> můžete ignorovat problém s přetečením a vrátit NULL.
BUILT_IN_CATALOG
<operation> nepodporuje integrované katalogy.
CALL_ON_STREAMING_DATASET_UNSUPPORTED
Metodu <methodName> nelze volat u streamované datové sady nebo datového rámce.
CANNOT_ALTER_COLLATION_BUCKET_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN nelze změnit kolaci typů/podtypů bucket sloupců, ale byl nalezen bucket sloupec <columnName> v tabulce <tableName>.
CANNOT_ALTER_PARTITION_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN není podporován pro sloupce pro oddíly, ale byl nalezen sloupec oddílu <columnName> v tabulce <tableName>.
CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK
Aby bylo možné změnit přiřazení sloupce času události, je potřeba definovat vodoznak. V streamovacím dotazu se nepodařilo najít definici značení.
CANNOT_CAST_DATATYPE
Nelze přetypovat <sourceType> na <targetType>.
CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE
Protobuf <protobufColumn> nelze převést na <sqlColumn> SQL, protože schéma není kompatibilní (protobufType = <protobufType>, sqlType = <sqlType>).
CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE
Nelze převést <protobufType> Protobuf na typ SQL <toType>.
CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE
Sql <sqlColumn> nelze převést na protobuf <protobufColumn>, protože schéma není kompatibilní (protobufType = <protobufType>, sqlType = <sqlType>).
CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE
Nelze převést <sqlColumn> SQL na Protobuf <protobufColumn>, protože <data> není v definovaných hodnotách výčtu: <enumString>.
CANNOT_COPY_STATE
Nejde zkopírovat stav katalogu, jako je aktuální databáze a dočasná zobrazení z katalogu Unity, do staršího katalogu.
CANNOT_CREATE_DATA_SOURCE_TABLE
Vytvoření tabulky zdroje dat <tableName>se nezdařilo:
Další podrobnosti najdete v tématu CANNOT_CREATE_DATA_SOURCE_TABLE
CANNOT_DECODE_URL
Zadaná adresa URL nelze dekódovat: <url>. Ujistěte se, že je adresa URL správně naformátovaná, a zkuste to znovu.
CANNOT_DELETE_SYSTEM_OWNED
Systém vlastněný <resourceType> nelze odstranit.
CANNOT_DROP_AMBIGUOUS_CONSTRAINT
Nelze zrušit omezení s názvem <constraintName>, protože je sdíleno omezením CHECK.
a omezení PRIMARY KEY nebo FOREIGN KEY. Můžete odstranit PRIMARY KEY nebo
FOREIGN KEY omezení podle dotazů:
ALTER TABLE ..
DROP PRIMARY KEY nebo
ALTER TABLE ..
DROP FOREIGN KEY ..
NELZE ODSTRANIT ZÁKLADNÍ TABULKU, NA KTEROU SE ODKAZUJE MĚLKÁ KOPIE
Tabulku <baseTable> nelze odstranit, protože na ni odkazuje jeden nebo více mělkých klonů: <cloneList>.
DROP všechny mělké klony před vyřazením základní tabulky. Pokud to není možné, zvažte použití příkazu 'DROP TABLE...FORCE' k vynucené vyřazení tabulky.
WARNING: Tím se okamžitě přeruší všechny existující mělké klonové odkazy a stanou se nepoužitelnými.
CANNOT_ESTABLISH_CONNECTION
Nelze navázat připojení ke vzdálené <jdbcDialectName> databázi. Zkontrolujte informace o připojení a přihlašovací údaje, například hostitele, port, uživatele, heslo a možnosti databáze. ** Pokud se domníváte, že jsou informace správné, zkontrolujte nastavení sítě vašeho pracovního prostoru a ujistěte se, že hostitel nemá omezení odchozích přenosů. Zkontrolujte také, že hostitel neblokuje příchozí připojení ze sítě, ve které jsou nasazené clustery Spark pracovního prostoru. ** Podrobná chybová zpráva: <causeErrorMessage>.
CANNOT_ESTABLISH_CONNECTION_SERVERLESS
Nelze navázat připojení ke vzdálené <jdbcDialectName> databázi. Zkontrolujte informace o připojení a přihlašovací údaje, například hostitele, port, uživatele, heslo a možnosti databáze. ** Pokud se domníváte, že jsou informace správné, povolte příchozí provoz z internetu na hostitele, protože používáte bezserverové výpočetní prostředky. Pokud vaše zásady sítě nepovolují příchozí internetový provoz, použijte bezserverové výpočetní prostředky nebo se můžete obrátit na zástupce Databricks, abyste se dozvěděli o bezserverových privátních sítích. ** Podrobná chybová zpráva: <causeErrorMessage>.
CANNOT_ESTABLISH_CONNECTION_TO_HOST
Nelze navázat <protocol> připojení k <host>. Zkontrolujte nastavení sítě vašeho pracovního prostoru a ujistěte se, že pro hostitele nemá omezení odchozích přenosů. Zkontrolujte také, že hostitel neblokuje příchozí připojení ze sítě, ve které jsou nasazené clustery pracovního prostoru.
CANNOT_INVOKE_IN_TRANSFORMATIONS
Transformace a akce datových sad můžou vyvolat pouze ovladač, nikoli v jiných transformacích datových sad; Například datová sada1.map(x => dataset2.values.count() * x) je neplatná, protože transformace hodnot a akce počtu nelze provést uvnitř transformace dataset1.map. Další informace najdete v tématu SPARK-28702.
CANNOT_LOAD_CHECKPOINT_FILE_MANAGER
Při načítání správce souborů kontrolních bodů streamingu pro cestu=<path> došlo k chybě.
Další podrobnosti najdete v tématu CANNOT_LOAD_CHECKPOINT_FILE_MANAGER
CANNOT_LOAD_FUNCTION_CLASS
Nelze načíst třídu <className> při pokusu o registraci funkce <functionName>, ujistěte se, že je na classpath.
CANNOT_LOAD_PROTOBUF_CLASS
Nelze načíst třídu Protobuf s názvem <protobufClassName>.
<explanation>.
CANNOT_LOAD_STATE_STORE
Během načítání stavu došlo k chybě.
Další podrobnosti najdete v tématu CANNOT_LOAD_STATE_STORE
CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE
Sloučení nekompatibilních datových typů <left> a <right>se nezdařilo. Zkontrolujte datové typy sloučených sloupců a ujistěte se, že jsou kompatibilní. V případě potřeby zvažte přetypování sloupců na kompatibilní datové typy před pokusem o sloučení.
CANNOT_MERGE_SCHEMAS
Sloučení schémat se nezdařilo:
Počáteční schéma:
<left>
Schéma, které nelze sloučit s počátečním schématem:
<right>.
CANNOT_MODIFY_CONFIG
Nelze upravit hodnotu konfigurace Sparku: <key>.
Viz také "https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements".
CANNOT_MODIFY_STATIC_CONFIG
Nelze změnit hodnotu statické konfigurace Sparku: <key>.
CANNOT_PARSE_DECIMAL
Desetinné číslo nelze analyzovat. Ujistěte se, že je vstup platným číslem s volitelnými oddělovači desetinných míst nebo čárkami.
CANNOT_PARSE_INTERVAL
Nelze analyzovat <intervalString>. Ujistěte se, že zadaná hodnota je v platném formátu pro definování intervalu. Můžete odkazovat na dokumentaci pro správný formát. Pokud problém přetrvává, pečlivě zkontrolujte, jestli vstupní hodnota není null nebo prázdná, a zkuste to znovu.
CANNOT_PARSE_JSON_FIELD
Nelze analyzovat název <fieldName> pole a hodnotu <fieldValue>JSON typu <jsonType> tokenu pro cílový datový typ <dataType>Sparku .
CANNOT_PARSE_PROTOBUF_DESCRIPTOR
Při analýze bajtů popisovače do souboru Protobuf FileDescriptorSet došlo k chybě.
CANNOT_PARSE_TIME
Vstupní řetězec <input> nelze analyzovat na hodnotu TIME, protože neodpovídá formátu <format>datetime .
CANNOT_PARSE_TIMESTAMP
<message>. Pomocí <func> můžete tolerovat neplatný vstupní řetězec a vrátit místo toho NULL.
CANNOT_QUERY_TABLE_DURING_INITIALIZATION
Během inicializace nelze dotazovat MV/ST.
Další podrobnosti najdete na stránce CANNOT_QUERY_TABLE_DURING_INITIALIZATION
CANNOT_READ_ARCHIVED_FILE
Nelze číst soubor v cestě <path>, protože byl archivován. Upravte filtry dotazů tak, aby se vyloučily archivované soubory.
CANNOT_READ_FILE
Nelze otevřít soubor <format> na cestě: <path>.
Další podrobnosti viz CANNOT_READ_FILE
CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER
Nelze přečíst citlivý klíč '<key>' ze zabezpečeného poskytovatele.
CANNOT_RECOGNIZE_HIVE_TYPE
Nelze rozpoznat řetězec typu hive: <fieldType>, sloupec: <fieldName>. Zadaný datový typ pole nelze rozpoznat sparkem SQL. Zkontrolujte datový typ zadaného pole a ujistěte se, že se jedná o platný datový typ Spark SQL. Seznam platných datových typů a jejich formátu najdete v dokumentaci Spark SQL. Pokud je datový typ správný, ujistěte se, že používáte podporovanou verzi Spark SQL.
CANNOT_REFERENCE_UC_IN_HMS
V objektech metastoru Hive nelze odkazovat na katalog Unity <objType>.
CANNOT_REMOVE_RESERVED_PROPERTY
Rezervovanou vlastnost nelze odebrat: <property>.
CANNOT_RENAME_ACROSS_CATALOG
Přejmenování <type> napříč katalogy není povoleno.
CANNOT_RENAME_ACROSS_SCHEMA
Přejmenování <type> napříč schématy není povoleno.
CANNOT_RESOLVE_DATAFRAME_COLUMN
Sloupec datového rámce nelze rozpoznat <name>. Je to pravděpodobně kvůli nelegálním odkazům, jako df1.select(df2.col("a")).
CANNOT_RESOLVE_STAR_EXPAND
Nelze vyřešit <targetString>.* pro zadané vstupní sloupce <columns>. Zkontrolujte, jestli zadaná tabulka nebo struktura existuje a je přístupná ve vstupních sloupcích.
CANNOT_RESTORE_PERMISSIONS_FOR_PATH
Nepodařilo se nastavit oprávnění pro vytvořenou cestu <path> zpět na <permission>.
CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS
Tabulky není možné povrchově klonovat mezi Unity katalogem a Hive metastorem.
CANNOT_SHALLOW_CLONE_AUTO_TTL
Nelze naklonovat tabulku <table> , která má povolenou hodnotu Auto-TTL.
CANNOT_SHALLOW_CLONE_NESTED
Nelze mělkým způsobem naklonovat tabulku <table>, která je již mělkým klonem.
CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET
Mělké klonování je podporováno pouze pro typ tabulky MANAGED. Tabulka <table> není MANAGED tabulka.
CANNOT_UPDATE_FIELD
Nelze aktualizovat <table> pole typu <fieldName>:
Další podrobnosti viz CANNOT_UPDATE_FIELD
CANNOT_UPDATE_PARTITION_COLUMNS
Deklarované dělení <requestedPartitionColumns> koliduje s existujícím dělením <existingPartitionColumns>tabulek .
Odstraňte tabulku nebo změňte deklarované dělení tak, aby odpovídalo jeho oddílům.
CANNOT_UP_CAST_DATATYPE
Nelze změnit typ <expression> z <sourceType> na <targetType>.
<details>
CANNOT_USE_KRYO
Nelze načíst kodek serializace Kryo. Serializace Kryo se nedá použít v klientovi Spark Connect. Použijte serializaci Java, zadejte vlastní kodek nebo místo toho použijte Spark Classic.
CANNOT_USE_MULTI_ALIASES_IN_WATERMARK_CLAUSE
Klauzule vodoznaku nepodporuje více aliasů.
NELZE_POUŽÍT_REZERVOVANÉ_JMÉNO_POSKYTOVATELE_STREAMOVÁNÍ
Nelze použít název zprostředkovatele rezervovaného streamování: <providerName>.
CANNOT_VALIDATE_CONNECTION
Ověření připojení <jdbcDialectName> není podporováno. Obraťte se na podporu Databricks pro alternativní řešení nebo nastavte spark.databricks.testConnectionBeforeCreation na false a před vytvořením objektu připojení přeskočte testování připojení.
CANNOT_WRITE_STATE_STORE
Při zápisu souborů úložiště stavu pro poskytovatele <providerClass>došlo k chybě.
Další podrobnosti viz CANNOT_WRITE_STATE_STORE
CAST_INVALID_INPUT
Hodnotu <expression> typu <sourceType> nelze přetypovat na <targetType>, protože je poškozena. Opravte hodnotu podle syntaxe nebo změňte její cílový typ. Pomocí try_cast místo toho můžete tolerovat poškozený vstup a vrátit NULL.
Další podrobnosti naleznete v CAST_INVALID_INPUT
CAST_OVERFLOW
Hodnotu <value> typu <sourceType> nelze přetypovat na <targetType> kvůli přetečení. Pomocí try_cast tolerujte přetečení a vraťte místo toho NULL.
CAST_OVERFLOW_IN_TABLE_INSERT
Nepodařilo se přiřadit hodnotu typu <sourceType> sloupci nebo proměnné <targetType> typu <columnName> kvůli přetečení. Pomocí try_cast na vstupní hodnotě tolerujte přetečení a místo toho vraťte NULL.
CATALOG_CONVERSION_FOREIGN_ENTITY_PRESENT
Převod katalogu z uc Foreign na UC Standard selhal, protože katalog obsahuje cizí entity (zde je zobrazeno až 10): <entityNames>. Úplný seznam cizích entit v tomto katalogu najdete v dokumentaci ke skriptům v dokumentaci k příkazu "ALTER CATALOG DROP CONNECTION".
CATALOG_CONVERSION_UNSUPPORTED_CATALOG_TYPE
Katalog nelze převést z uc Foreign na UC Standard. Pouze <convertableCatalogTypes> zahraniční katalogy UC lze převést na standard UC.
CATALOG_NOT_FOUND
Katalog <catalogName> nebyl nalezen. Zvažte nastavit konfiguraci SQL <config> na zásuvný modul katalogu.
CATALOG_OWNED_TABLE_CREATION_NOT_ALLOWED
Vytváření tabulek Delta s <feature> funkcí tabulky není povoleno. Kontaktujte prosím podporu Databricks.
CHECKPOINT_DIR_NOT_SET
Adresář kontrolních bodů nebyl v SparkContextu nastavený.
Nastavte ho prosím pomocí SparkContext.setCheckpointDir().
CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND
Blok kontrolního bodu <rddBlockId> nebyl nalezen!
Buď exekutor, který původně checkpointoval tuto část, už není aktivní, nebo původní RDD není již uložena.
Pokud tento problém přetrvává, můžete místo toho zvážit použití rdd.checkpoint(), což je pomalejší než místní kontrolní bod, ale odolnější proti chybám.
PORUŠENÍ_KONTROLY_OHRANIČENÍ
CHECK omezení <constraintName> <expression> porušeno řádkem, který obsahuje hodnoty:
<values>
CIRCULAR_CLASS_REFERENCE
Ve třídě nelze mít cyklický odkaz, ale byl zjištěn cyklický odkaz ve třídě <t>.
CLASS_NOT_OVERRIDE_EXPECTED_METHOD
<className> musí přepsat buď <method1>, nebo <method2>.
CLASS_UNSUPPORTED_BY_MAP_OBJECTS
MapObjects nepodporuje třídu <cls> jako výslednou kolekci.
CLEANROOM_COMMANDS_NOT_SUPPORTED
Příkazy vyčistit místnost nejsou podporovány.
CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME
Neplatný název pro odkazování na <type> uvnitř Clean Room. Použijte název objektu <type> uvnitř čisté místnosti ve formátu [catalog].[schema].[<type>].
Pokud si nejste jisti, jaký název použít, můžete spustit "SHOW ALL IN CLEANROOM [clean_room]" a použít hodnotu ve sloupci "name".
CLONING_WITH_HISTORY_INVALID_OPTION
Klonování s historií je určeno neplatnou možností: <invalidOption>.
Platná syntaxe: CREATE (NEBO REPLACE) TABLE ... HLUBOKÉ CLONE...WITH HISTORY.
CLONING_WITH_HISTORY_UNSUPPORTED
Klonování s historií není podporováno.
CLOUD_FILE_ALREADY_EXISTS
Cloudový soubor již existuje. Důvod: <causedBy>.
CLOUD_FILE_NOT_FOUND
Cloudový soubor nebyl nalezen. Důvod: <causedBy>.
CLOUD_FILE_SOURCE_FILE_NOT_FOUND
Bylo přijato oznámení pro soubor <filePath>, ale ten už neexistuje. Před zpracováním souborů se ujistěte, že se neodstraní. Pokud chcete pokračovat ve streamu, můžete nastavit konfiguraci Spark SQL <config> na true.
CLOUD_PROVIDER_ERROR
Chyba poskytovatele cloudu: <message>
CLUSTERING_COLUMNS_MISMATCH
Zadané clustering neodpovídá existující tabulce <tableName>.
Zadané sloupce pro seskupení: [<specifiedClusteringString>].
Existující sloupce clusteringu: [<existingClusteringString>].
CLUSTERING_NOT_SUPPORTED
'<operation>' nepodporuje clustering.
CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED
Chcete-li povolit funkci cluster-by-auto, obraťte se na svého zástupce společnosti Databricks.
CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED
Povolte clusteringTable.enableClusteringTableFeature, aby bylo možné použít CLUSTER BY AUTO.
CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION
CLUSTER BY AUTO vyžaduje povolení prediktivní optimalizace.
CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR
CLUSTER BY AUTO se podporuje jenom u spravovaných tabulek UC.
CODEC_NOT_AVAILABLE
Kodek <codecName> není k dispozici.
Další podrobnosti najdete v tématu CODEC_NOT_AVAILABLE
CODEC_SHORT_NAME_NOT_FOUND
Nelze najít krátký název kodeku <codecName>.
COLLATION_INVALID_NAME
Hodnota <collationName> nepředstavuje správný název kolace. Navrhované platné názvy kolace: [<proposals>].
COLLATION_INVALID_PROVIDER
Hodnota <provider> nepředstavuje správného zprostředkovatele řazení. Podporovaní poskytovatelé jsou: [<supportedProviders>].
COLLATION_MISMATCH
Nelze určit, která kolace se má použít pro řetězcové funkce a operátory.
Další podrobnosti viz COLLATION_MISMATCH
COLLECTION_SIZE_LIMIT_EXCEEDED
Nelze vytvořit pole s <numberOfElements> prvky, které překračují limit <maxRoundedArrayLength>velikosti pole ,
Více informací naleznete v tématu COLLECTION_SIZE_LIMIT_EXCEEDED
COLUMN_ALIASES_NOT_ALLOWED
Aliasy sloupců nejsou v <op>povoleny .
COLUMN_ALREADY_EXISTS
Sloupec <columnName> již existuje. Zvolte jiný název nebo přejmenujte existující sloupec.
COLUMN_ARRAY_ELEMENT_TYPE_MISMATCH
Některé hodnoty v poli <pos> nejsou kompatibilní s typem pole sloupce. Očekávaný typ <type>.
COLUMN_MASKS_ABAC_MISMATCH
Masky sloupců nelze u <tableName> vyřešit, protože došlo k neshodě mezi maskami sloupců zděděnými ze zásad a explicitně definovanými maskami sloupců. Pokud chcete pokračovat, zakažte řízení přístupu na základě atributů (ABAC) a kontaktujte podporu Databricks.
COLUMN_MASKS_NEPODPOROVANÉ_KONTROLNÍ_OČEKÁVÁNÍ
Vytváření omezení CHECK pro tabulku <tableName> se zásadami masky sloupců se nepodporuje.
COLUMN_MASKS_DUPLICATE_USING_COLUMN_NAME
Příkaz <statementType> se pokusil přiřadit politiku maskování sloupce sloupci, který obsahoval dva nebo více jiných odkazovaných sloupců se stejným názvem USING COLUMNSv seznamu <columnName>, což je neplatné.
COLUMN_MASKS_FUNKCE_NENÍ_PODPOROVÁNA
Zásady masky sloupců pro <tableName> nejsou podporovány.
Podrobnosti najdete v COLUMN_MASKS_FEATURE_NOT_SUPPORTED
COLUMN_MASKS_INCOMPATIBILNÍ_ZMĚNA_SCHÉMATU
Nelze <statementType> <columnName> z tabulky <tableName>, protože je odkazován v zásadách masky sloupce pro sloupec <maskedColumn>. Před pokračováním musí vlastník tabulky tuto zásadu odebrat nebo změnit.
COLUMN_MASKS_SLUČOVÁNÍ_NEPODPOROVANÝ_ZDROJ
MERGE INTO operace nepodporují politiky maskování sloupců ve zdrojové tabulce <tableName>.
COLUMN_MASKS_SLOUČENÍ_NEPODPOROVANÝ_CÍL
MERGE INTO operace nepodporují zápis do tabulky <tableName> pomocí zásad masky sloupců.
COLUMN_MASKS_CÍLOVÝ_NÁZEV_SLOUPCE_S_VÍCE_ČÁSTMI
Tento příkaz se pokusil přiřadit politiku maskování sloupce ke sloupci <columnName> s více částmi názvu, což je neplatné.
COLUMN_MASKS_VÍCEDÍLNÉ_POUŽITÍ_NÁZVU_SLOUPCE
Tento příkaz se pokusil přiřadit politiku maskování sloupce ke sloupci a USING COLUMNS seznam obsahoval název <columnName> s více částmi jména, což je neplatné.
COLUMN_MASKS_NENÍ_AKTIVOVÁNO
Podpora definování masek sloupců není povolená.
COLUMN_MASKS_REQUIRE_UNITY_CATALOG
Zásady masky sloupců jsou podporovány pouze v katalogu Unity.
COLUMN_MASKS_SECONDARY_INDEX_CREATION_UNSUPPORTED
Sekundární index ON TABLE <tableName> nelze vytvořit, protože tabulka obsahuje definované zásady masky sloupců.
COLUMN_MASKS_ZOBRAZENÍ_ODDÍLŮ_NEPODPOROVÁNO
SHOW PARTITIONS příkaz není podporován pro tabulky<format> s maskami sloupců.
COLUMN_MASKS_TABULKA_ZDROJ_KOPÍROVÁNÍ_NENÍ_PODPOROVÁN
<mode> klon z tabulky <tableName> se zásadami maskování sloupců není podporován.
COLUMN_MASKS_TABULKA_KLON_CÍLOVÉ_NEPODPOROVÁNO
Klonování <mode> do tabulky <tableName> se zásadami maskování sloupců není podporováno.
COLUMN_MASKS_NEPODPOROVANÁ_KONSTANTA_JAKO_PARAMETR
Použití konstanty jako parametru v zásadách masky sloupce se nepodporuje. Aktualizujte prosím příkaz SQL, aby se konstanta odebrala z definice masky sloupce, a pak příkaz opakujte.
COLUMN_MASKS_NEPODPOROVANÝ_TYP_DAT
Funkce <functionName> používaná jako zásada masky sloupce obsahuje parametr s nepodporovaným datovým typem <dataType>.
COLUMN_MASKS_NEPODPOROVANÝ_POSKYTOVATEL
Nepodařilo se provést příkaz <statementType>, protože přiřazení politik maskování sloupců není podporováno pro cílový datový zdroj s poskytovatelem tabulky: "<provider>".
COLUMN_MASKS_POUŽITÍ_NÁZVU_SLOUPCE_STEJNÉHO_JAKO_CÍLOVÝ_SLOUPEC
Sloupec <columnName> měl stejný název jako cílový sloupec, což je neplatné; Odeberte sloupec ze seznamu USING COLUMNS a zkuste příkaz zopakovat.
COLUMN_NOT_DEFINED_IN_TABLE
<colType> sloupec <colName> není definován v tabulce <tableName>, definované sloupce tabulky jsou: <tableCols>.
COLUMN_NOT_FOUND
Sloupec <colName> nebyl nalezen. Ověřte pravopis a správnost názvu sloupce podle konfigurace SQL <caseSensitiveConfig>.
COLUMN_NOT_FOUND_IN_TABLE
Sloupec <columnName> nebyl nalezen v tabulce <tableFullName>.
COLUMN_ORDINAL_OUT_OF_BOUNDS
Pořadí sloupce je mimo rozsah. Počet sloupců v tabulce je <attributesLength>, ale pořadové číslo sloupce je <ordinal>.
Atributy jsou následující: <attributes>.
PŘÍKAZ_NENÍ_POVOLEN
<command> příkaz není povolen.
COMMA_PRECEDING_CONSTRAINT_ERROR
Neočekávaná ',' před definicí omezení. Ujistěte se, že klauzule constraint nezačíná čárkou, pokud nejsou definovány sloupce (a očekávání).
COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET
Příkaz COMMENT ON CONNECTION ještě není implementovaný.
COMPARATOR_RETURNS_NULL
Srovnávací program vrátil NULL pro porovnání mezi <firstValue> a <secondValue>.
Měl by vrátit kladné celé číslo pro "větší než", 0 pro "rovná" a záporné celé číslo pro "menší než".
Chcete-li se vrátit k zastaralému chování, kde NULL je považováno za 0 (rovná se), musíte nastavit "spark.sql.legacy.allowNullComparisonResultInArraySort" na hodnotu true.
COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
Nelze zpracovat vstupní datové typy pro výraz: <expression>.
Další podrobnosti najdete v tématu COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
CONCURRENT_QUERY
Další instance tohoto dotazu [id: <queryId>] byla právě spuštěna souběžnou relací [existující id spuštění: <existingQueryRunId> nové id spuštění: <newQueryRunId>].
CONCURRENT_SCHEDULER_INSUFFICIENT_SLOT
Minimální počet volných slotů požadovaných v clusteru je <numTasks>, ale cluster má pouze <numSlots> sloty zdarma. Dotaz zastaví nebo selže. Zvětšete velikost clusteru, abyste mohli pokračovat.
CONCURRENT_STREAM_LOG_UPDATE
Souběžná aktualizace protokolu. Pro <batchId>bylo zjištěno více úloh streamování.
Ujistěte se, že na určitém místě kontrolního bodu najednou běží jenom jedna úloha streamování.
CONFIG_NOT_AVAILABLE
Konfigurace <config> není k dispozici.
CONFLICTING_CLUSTER_CONFIGURATION
Následující konfigurace jsou v konfliktu se spark.databricks.streaming.realTimeMode.enabled: <confNames>. Odeberte tyto konfigurace z konfigurace clusteru a restartujte cluster Spark.
CONFLICTING_DIRECTORY_STRUCTURES
Zjistily se konfliktní adresářové struktury.
Podezřelé cesty:
<discoveredBasePaths>
Pokud jsou zadané cesty adresáři oddílů, nastavte v možnostech zdroje dat parametr "basePath" pro určení kořenového adresáře tabulky.
Pokud existuje více kořenových adresářů, načtěte je samostatně a pak je sjednoťte.
CONFLICTING_PARTITION_COLUMN_NAMES
Byly zjištěny konfliktní názvy sloupců oddílů:
<distinctPartColLists>
U adresářů tabulek rozdělených do oddílů by datové soubory měly být umístěny pouze v konečných adresářích.
Adresáře na stejné úrovni by měly mít stejný název partition column.
Zkontrolujte neočekávané soubory nebo nekonzistentní názvy sloupců oddílů v následujících adresářích:
<suspiciousPaths>
CONFLICTING_PARTITION_COLUMN_NAME_WITH_RESERVED
Název sloupce oddílu '<partitionColumnName>' je v konfliktu s vyhrazeným názvem sloupce.
Schéma <tableName> je nekompatibilní s Hivem, Spark automaticky vygeneruje rezervovaný sloupec '<partitionColumnName>' pro uložení tabulky určitým způsobem.
Pro sloupec oddílu použijte jiný název.
CONFLICTING_PROVIDER
Zadaný zprostředkovatel <provider> je nekonzistentní s existujícím poskytovatelem katalogu <expectedProvider>. Použijte příkaz 'USING <expectedProvider>' a zkuste příkaz zopakovat.
CONFLICTING_SQL_CONFIGURATION
Následující konfigurace jsou v konfliktu se spark.databricks.streaming.realTimeMode.enabled: <confNames>. Odeberte tyto konfigurace z konfigurace SparkSession.
CONNECT
Obecná chyba Spark Connect
Další podrobnosti najdete v CONNECT
CONNECTION_ALREADY_EXISTS
Nelze vytvořit připojení <connectionName>, protože již existuje.
Zvolte jiný název, odstraňte nebo nahraďte stávající připojení, nebo přidejte klauzuli IF NOT EXISTS, která toleruje existující připojení.
CONNECTION_NAME_CANNOT_BE_EMPTY
Tento příkaz nelze spustit, protože název připojení musí být neprázdný.
CONNECTION_NOT_FOUND
Tento příkaz nelze spustit, protože nebyl nalezen název připojení <connectionName>.
CONNECTION_OPTION_NOT_SUPPORTED
Připojení typu '<connectionType>' nepodporují následující možnosti: <optionsNotSupported>. Podporované možnosti: <allowedOptions>.
CONNECTION_TYPE_NOT_SUPPORTED
Nelze vytvořit připojení typu '<connectionType>'. Podporované typy připojení: <allowedTypes>.
TYP_PŘIPOJENÍ_NEPODPOROVÁN_PRO_VLOŽENÍ_MOŽNOSTÍ
V možnostech datového rámce se nepodporuje připojení s názvem <connectionName> a typem <connectionType> .
CONNECTION_TYPE_NOT_SUPPORTED_FOR_REMOTE_QUERY_FUNCTION (Typ připojení není podporován pro funkci vzdáleného dotazu)
Připojení s názvem<connectionName> typu '<connectionType>' není podporováno pro vzdálené spuštění funkce dotazu.
CONNECT_INVALID_PLAN
Plán Spark Connect je neplatný.
Další podrobnosti najdete v tématu CONNECT_INVALID_PLAN
CONNECT_SESSION_MIGRATION
Běžná chyba migrace relace (userId: <userId>, sessionId: <sessionId>, serverSessionId: <serverSessionId>).
Další podrobnosti najdete v CONNECT_SESSION_MIGRATION
CONSTRAINTS_REQUIRE_UNITY_CATALOG
Omezení tabulek jsou podporována pouze v katalogu Unity.
CONSTRAINT_ALREADY_EXISTS
Omezení '<constraintName>' již existuje. Nejprve odstraňte existující omezení.
Existující omezení:
<oldConstraint>
CONSTRAINT_ALREADY_EXISTS_IN_SCHEMA
<constraintName> Omezení již v databázi <schemaName>existuje .
CONSTRAINT_ALREADY_EXISTS_WITH_SERVER_MESSAGE
<serverMessage>
CONSTRAINT_DOES_NOT_EXIST
Nelze odstranit neexistující omezení <constraintName> z tabulky <tableName>.
CONVERSION_INVALID_INPUT
Hodnotu <str> (<fmt>) nelze převést, <targetType> protože je poškozena. Opravte hodnotu podle syntaxe nebo změňte její formát. Pomocí <suggestion> místo toho můžete tolerovat poškozený vstup a vrátit NULL.
COPY_INTO_COLUMN_ARITY_MISMATCH
Nelze zapisovat do <tableName>, důvodem je
Další podrobnosti najdete v tématu COPY_INTO_COLUMN_ARITY_MISMATCH
COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON
Neplatné schéma <scheme>.
COPY INTO Přihlašovací údaje zdroje aktuálně podporují pouze protokoly s3/s3n/s3a/wasbs/abfss.
COPY_INTO_CREDENTIALS_REQUIRED
COPY INTO přihlašovací údaje ke zdroji musí obsahovat <keyList>.
COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED
Zduplikované soubory byly uloženy v souběžné operaci COPY INTO. Zkuste to prosím znovu později.
COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON
Neplatné schéma <scheme>.
COPY INTO zdrojové šifrování aktuálně podporuje pouze s3/s3n/s3a/abfss.
COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE
COPY INTO šifrování podporuje pouze schéma souborů ADLS Gen2 nebo abfss://
COPY_INTO_ENCRYPTION_REQUIRED
COPY INTO zdrojové šifrování musí specifikovat "<key>".
COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED
Neplatná možnost šifrování <requiredKey>.
COPY INTO Zdrojové šifrování musí určovat '<requiredKey>' = '<keyValue>'.
COPY_INTO_FEATURE_INCOMPATIBLE_SETTING
COPY INTO Funkce '<feature>' není kompatibilní s '<incompatibleSetting>'.
COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED
COPY INTO kromě připojování dat není povoleno běžet souběžně s jinými transakcemi. Zkuste to prosím znovu později.
COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED
COPY INTO se nepodařilo načíst jeho stav, došlo k překročení maximálního počtu opakování.
COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE
Při kopírování do tabulky Delta (Tabulka: <table>) byla zjištěna neshoda schématu.
To může znamenat problém s příchozími daty nebo se schéma tabulky Delta může automaticky vyvíjet podle příchozích dat nastavením:
COPY_OPTIONS ('mergeSchema' = 'pravda')
Rozdíl schématu:
<schemaDiff>
COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED
Formát zdrojových souborů musí být jeden ze souborů CSV, JSON, AVRO, ORC, , PARQUETTEXT nebo BINARYFILE. Použití COPY INTO jako zdroje v tabulkách Delta není podporováno, protože během operací OPTIMIZE se mohou nahrát duplicitní data. Tuto kontrolu můžete vypnout spuštěním příkazu SQL set spark.databricks.delta.copyInto.formatCheck.enabled = false.
COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED
Zdrojový adresář neobsahoval žádné parsovatelné soubory typu <format>. Zkontrolujte obsah souboru '<source>'.
Chybu lze umlčet nastavením<config> na false.
COPY_INTO_STATE_INTERNAL_ERROR
Při zpracování COPY INTO stavu došlo k vnitřní chybě.
Další informace najdete v tématu COPY_INTO_STATE_INTERNAL_ERROR
COPY_INTO_SYNTAX_ERROR
Analýza příkazu COPY INTO se nezdařila.
Další podrobnosti najdete v tématu COPY_INTO_SYNTAX_ERROR
COPY_INTO_UNSUPPORTED_FEATURE
Funkce COPY INTO '<feature>' není podporována.
COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED
Nelze uvolnit data ve formátu '<formatType>'. Podporované formáty pro <connectionType> jsou: <allowedFormats>.
CORRUPTED_CATALOG_FUNCTION
Funkci katalogu nelze<identifier> převést na funkci SQL kvůli poškozeným informacím o funkcích v katalogu. Pokud tato funkce není funkcí SQL, ujistěte se, že je název třídy '<className>' načtený.
CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET
Příkaz CREATE FOREIGN SCHEMA ještě není implementovaný.
CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET
Příkaz CREATE FOREIGN TABLE ještě není implementovaný.
CREATE_OR_REFRESH_MV_NOT_SUPPORTED
CREATE NEBO REFRESH MATERIALIZED VIEW není podporováno. Místo toho použijte funkci CREATE OR REPLACE MATERIALIZED VIEW .
CREATE_OR_REFRESH_MV_ST_ASYNC
Nelze vytvořit materializovaná zobrazení nebo streamované tabulky s uvedenými CREATE nebo REFRESH, pokud je zadáno ASYNC. Odeberte ASYNC z příkazu CREATE nebo REFRESH, nebo použijte REFRESH ASYNC k asynchronní aktualizaci stávajících materializovaných zobrazení nebo streamovacích tabulek.
CREATE_PERMANENT_VIEW_WITHOUT_ALIAS
Nelze vytvořit trvalé zobrazení <name> bez explicitního přiřazení aliasu pro výraz <attr>.
CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
CREATE TABLE sloupec <columnName> určuje popisovač "<optionName>" více než jednou, což je neplatné.
CREATE_VIEW_COLUMN_ARITY_MISMATCH
Nelze vytvořit zobrazení <viewName>, důvodem je
Další podrobnosti najdete v CREATE_VIEW_COLUMN_ARITY_MISMATCH
CREDENTIAL_MISSING
Při vytváření nebo aktualizaci externích umístění zadejte přihlašovací údaje.
CREDENTIAL_PURPOSE_MISMATCH
Přihlašovací údaje <credentialName> mají účel <actualPurpose> , ale účel uvedený v příkazu je <expectedPurpose>.
CSV_ENFORCE_SCHEMA_NOT_SUPPORTED
Nastavení CSV enforceSchema nelze provést při použití rescuedDataColumn nebo failOnUnknownFields, protože sloupce se čtou podle názvu, nikoli podle pořadí.
CYCLIC_FUNCTION_REFERENCE
Zjištěn odkaz na cyklickou funkci: <path>.
DATABRICKS_DELTA_NOT_ENABLED
Databricks Delta není ve vašem účtu povolená.<hints>
DATOVÝ TOK_GRAF_NENALEZEN
Graf toku dat s ID <graphId> nebyl nalezen.
DATATYPE_CANNOT_ORDER
Typ <dataType> nepodporuje uspořádané operace.
DATATYPE_MISMATCH
Nejde vyřešit <sqlExpr> kvůli neshodě datových typů:
Další podrobnosti najdete v tématu DATATYPE_MISMATCH
DATATYPE_MISSING_SIZE
DataType <type> vyžaduje parametr délky, například <type>(10). Zadejte délku.
DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION
Zápis rodokmenu neúspěšný: Chybí odpovídající vztah se zásadami pro CLM/RLS.
DATA_SOURCE_ALREADY_EXISTS
Zdroj dat '<provider>' již existuje. Zvolte jiný název nového zdroje dat.
DATA_SOURCE_CONNECTION_MISSING_ALLOW_LIST
Připojení <connectionName> není v tomto kontextu podporováno, protože nemá nakonfigurovaný seznam povolených externích možností. Aktualizujte připojení tak, aby zahrnovalo platné <optionName>.
DATA_SOURCE_EXTERNAL_ERROR
Při ukládání do externího zdroje dat došlo k chybě.
DATA_SOURCE_NOT_EXIST
Zdroj dat '<provider>' nebyl nalezen. Ujistěte se, že je zdroj dat zaregistrovaný.
DATA_SOURCE_NOT_FOUND
Nepodařilo se najít zdroj dat: <provider>. Ujistěte se, že je název zprostředkovatele správný a balíček je správně zaregistrovaný a kompatibilní s vaší verzí Sparku.
DATA_SOURCE_OPTIONS_VALIDATION_FAILED
Ověření možnosti/í <dataSource> zdroje dat se nezdařilo.
Další podrobnosti najdete v tématu DATA_SOURCE_OPTIONS_VALIDATION_FAILED
DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS
Možnost <option> nesmí být prázdná a neměla by obsahovat neplatné znaky, řetězce dotazu nebo parametry.
DATA_SOURCE_OPTION_IS_REQUIRED
Je vyžadována možnost <option>.
DATA_SOURCE_OPTION_NOT_ALLOWED_BY_CONNECTION
Možnost <optionName> není povolena připojením <connectionName> a nelze ji poskytnout externě.
DATA_SOURCE_OPTION_VALUE_NOT_VALID
Zadaná možnost<option> zdroje dat obsahuje neplatnou hodnotu ('<value>).
Další podrobnosti najdete v tématu DATA_SOURCE_OPTION_VALUE_NOT_VALID
DATA_SOURCE_SYNTAX_ERROR_DURING_QUERY_EXECUTION
Modul <dataSourceEngine> externího zdroje dat při provádění dotazu<query> vyvolal chybu syntaxe.
<externalEngineError>.
DATA_SOURCE_TABLE_SCHEMA_MISMATCH
Schéma tabulky zdroje dat neodpovídá očekávanému schématu. Pokud používáte rozhraní DATAFrameReader.schema API nebo vytváříte tabulku, vyhněte se zadávání schématu.
Schéma zdroje dat: <dsSchema>
Očekávané schéma: <expectedSchema>
DATA_SOURCE_URL_NOT_ALLOWED
V možnostech zdroje dat není povolená adresa URL JDBC, zadejte místo toho možnosti hostitel, port a databáze.
DATETIME_FIELD_OUT_OF_BOUNDS
<rangeMessage>.
Další podrobnosti najdete v DATETIME_FIELD_OUT_OF_BOUNDS
DATETIME_OVERFLOW
Přetečení operace s datem a časem: <operation>.
DC_API_QUOTA_EXCEEDED
Překročili jste kvótu rozhraní API pro zdroj dat <sourceName>.
Další podrobnosti najdete v oddílu DC_API_QUOTA_EXCEEDED
DC_CONNECTION_ERROR
Nepodařilo se vytvořit připojení ke zdroji <sourceName>. Kód chyby: <errorCode>.
Další podrobnosti najdete v tématu DC_CONNECTION_ERROR
DC_DYNAMICS_API_ERROR
Při voláních rozhraní Dynamics API došlo k chybě, errorCode: <errorCode>.
Další podrobnosti najdete v tématu DC_DYNAMICS_API_ERROR
DC_NETSUITE_ERROR
Došlo k chybě ve volání Netsuite JDBC, errorCode: <errorCode>.
Další podrobnosti najdete v tématu DC_NETSUITE_ERROR
DC_SCHEMA_CHANGE_ERROR
SQLSTATE: žádný přiřazený
V tabulce <tableName> zdroje <sourceName> došlo ke změně schématu.
Další podrobnosti najdete v tématu DC_SCHEMA_CHANGE_ERROR
DC_SERVICENOW_API_ERROR
Došlo k chybě ve voláních rozhraní API ServiceNow, errorCode: <errorCode>.
Další podrobnosti najdete v tématu DC_SERVICENOW_API_ERROR
DC_SFDC_BULK_QUERY_JOB_INCOMPLETE
Příjem dat pro objekt <objName> není úplný, protože úloha dotazu rozhraní API Salesforce trvala příliš dlouho, selhala nebo byla ručně zrušena.
Pokud to chcete zkusit znovu, můžete buď znovu spustit celý kanál, nebo aktualizovat tuto konkrétní cílovou tabulku. Pokud chyba přetrvává, vytvořte tiket. ID úlohy: <jobId>. Stav úlohy: <jobStatus>.
DC_SHAREPOINT_API_ERROR
Došlo k chybě při volání rozhraní API služby SharePoint, errorCode: <errorCode>.
Další podrobnosti najdete v tématu DC_SHAREPOINT_API_ERROR
DC_SOURCE_API_ERROR
Při volání rozhraní API <sourceName> došlo k chybě. Typ zdrojového rozhraní API: <apiType>. Kód chyby: <errorCode>.
K tomu může někdy dojít, když dosáhnete limitu <sourceName> rozhraní API. Pokud jste limit rozhraní API nepřekročili, zkuste konektor spustit znovu. Pokud problém přetrvává, nahlaste problém.
DC_UNSUPPORTED_ERROR
Ve zdroji dat <sourceName>došlo k nepodporované chybě.
Další podrobnosti najdete v tématu DC_UNSUPPORTED_ERROR
DC_WORKDAY_RAAS_API_ERROR
Při voláních rozhraní API RAAS Workday došlo k chybě, kód chyby: <errorCode>.
Další podrobnosti najdete v tématu DC_WORKDAY_RAAS_API_ERROR
DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION
Desetinná přesnost <precision> překračuje maximální přesnost <maxPrecision>.
DEFAULT_DATABASE_NOT_EXISTS
Výchozí <defaultDatabase> databáze neexistuje, nejprve ji vytvořte nebo změňte výchozí databázi na <defaultDatabase>.
DEFAULT_FILE_NOT_FOUND
Je možné, že se podkladové soubory aktualizovaly. Cache ve Spark můžete explicitně zneplatnit spuštěním příkazu 'REFRESH TABLE tableName' v SQL nebo znovuvytvořením příslušného Datasetu/DataFramu. Pokud je mezipaměť disku zastaralá nebo byly odebrány podkladové soubory, můžete mezipaměť disku ručně zneplatnit restartováním clusteru.
DEFAULT_PLACEMENT_INVALID
Klíčové DEFAULT slovo v objektu MERGE, INSERT, UPDATEnebo SET VARIABLE příkazu nelze přímo přiřadit cílovému sloupci, protože byl součástí výrazu.
Například: UPDATE SET c1 = DEFAULT je povolený, ale UPDATE T SET c1 = DEFAULT + 1 není povolený.
DEFAULT_UNSUPPORTED
Nepodařilo se provést příkaz <statementType>, protože hodnoty DEFAULT nejsou podporovány pro cílový zdroj dat s poskytovatelem tabulky: "<dataSource>".
DEFINE_FLOW_ONCE_OPTION_NOT_SUPPORTED
Definování jednorázového toku <flowName> s možností "jednou" není podporováno.
DESCRIBE_JSON_NOT_EXTENDED
DESCRIBE TABLE
...
AS JSON podporuje se pouze v případech, kdy je zadáno [EXTENDED|FORMATTED].
Například: DESCRIBE EXTENDED <tableName> AS JSON je podporován, ale DESCRIBE <tableName> AS JSON není.
DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE
Dotaz streamování načítal z neočekávané tabulky Delta (ID = '<newTableId>).
Používá se ke čtení z jiné tabulky Delta (ID = '<oldTableId>' ) podle kontrolního bodu.
K tomu může dojít, když jste změnili kód tak, aby se četl z nové tabulky nebo jste ho odstranili a
znovu vytvořili tabulku. Prosím, vraťte změnu nebo odstraňte kontrolní bod dotazu pro streamování.
začít úplně od začátku.
DISTINCT_WINDOW_FUNCTION_UNSUPPORTED
Samostatné funkce oken nejsou podporovány: <windowExpr>.
DIVIDE_BY_ZERO
Dělení nulou. Pomocí try_divide můžete tolerovat, že dělitel je 0, a místo toho vrátit NULL. Pokud je to nutné, nastavte <config> na "false", abyste tuto chybu obešli.
Další podrobnosti viz DIVIDE_BY_ZERO
DLT_EXPECTATIONS_NOT_SUPPORTED
Očekávání jsou podporována pouze v rámci kanálu deklarativních kanálů Sparku Lakeflow.
DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED
MATERIALIZED VIEWs s CLUSTER BY klauzulí jsou podporovány pouze v kanálu deklarativních kanálů Sparku Lakeflow.
DLT_VIEW_LOCATION_NOT_SUPPORTED
MATERIALIZED VIEW Umístění jsou podporována pouze v kanálu deklarativních kanálů Sparku Lakeflow.
DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED
MATERIALIZED VIEW Schémata se zadaným typem jsou podporována pouze v kanálu deklarativních kanálů Sparku Lakeflow.
TABLE_CONSTRAINTSDLT_VIEW__NOT_SUPPORTED
CONSTRAINT Klauzule v zobrazení jsou podporovány pouze v kanálu deklarativních kanálů Sparku Lakeflow.
DML_OPERATIONS_NOT_SUPPORTED_FOR_REMOTE_QUERY_FUNCTION
Funkce vzdáleného dotazu nepodporuje dotazy DML.
DROP_COMMAND_TYPE_MISMATCH
Nelze vypustit s příponou <metadataType>DROP <commandType>.
Místo toho použijte DROP <metadataTypeUpper>.
DROP_SCHEDULE_DOES_NOT_EXIST
Nelze odstranit SCHEDULE z tabulky bez existujícího plánu nebo spouštěče.
DUPLICATED_CTE_NAMES
Definice CTE nemůže mít duplicitní názvy: <duplicateNames>.
DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT
Duplicitní názvy polí v Arrow Struct nejsou povoleny, nalezeno <fieldNames>.
DUPLICATED_MAP_KEY
Byl nalezen duplicitní klíč mapování <key>, zkontrolujte vstupní data.
Pokud chcete duplicitní klíče odebrat, můžete nastavit <mapKeyDedupPolicy> na "LAST_WIN", aby klíč vložený na poslední straně získal přednost.
DUPLICATED_METRICS_NAME
Název metriky není jedinečný: <metricName>. Stejný název nelze použít pro metriky s různými výsledky.
Je však povoleno více instancí metrik se stejným výsledkem a názvem (například samospojení).
DUPLICATE_ASSIGNMENTS
Sloupce nebo proměnné <nameList> se zobrazují více než jednou jako cíle přiřazení.
DUPLICATE_CLAUSES
Nalezeny duplicitní klauzule: <clauseName>. Prosím, odeberte jeden z nich.
DUPLICATE_CONDITION_IN_SCOPE
V rozsahu byla nalezena duplicitní podmínka <condition>. Prosím, odeberte jeden z nich.
DUPLICATE_EXCEPTION_HANDLER
Nalezeny duplicitní obslužné rutiny. Prosím, odeberte jeden z nich.
Další podrobnosti najdete v tématu DUPLICATE_EXCEPTION_HANDLER
DUPLICATE_FLOW_SQL_CONF
Byla nalezena duplicitní konfigurace SQL pro datovou sadu '<datasetName>': '<key>' je definováno jak '<flowName1>', tak '<flowName2>'
DUPLICATE_KEY
Byly nalezeny duplicitní klíče <keyColumn>.
DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
Volání rutiny <routineName> je neplatné, protože obsahuje více přiřazení ke stejnému názvu parametru <parameterName>.
Další informace naleznete v části DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
DUPLICATE_ROUTINE_PARAMETER_NAMES
V seznamu parametrů uživatelem definované rutiny <routineName>byly nalezeny duplicitní názvy: <names>.
DUPLICATE_ROUTINE_RETURNS_COLUMNS
V seznamu sloupců klauzule RETURNS uživatelsky definované rutiny <routineName>byly nalezeny duplicitní sloupce: <columns>.
DUPLICITNÍ_NÁZEV_PROMĚNNÉ_V_DEKLARACI
Byla nalezena duplicitní proměnná <variableName> v seznamu deklarování proměnných. Prosím, odeberte jeden z nich.
EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED
Předchozí uzel vygeneruje řádek s událostí EventTime=<emittedRowEventTime>, která je starší než current_watermark_value=<currentWatermark>
To může vést k problémům se správností stavových operátorů ve výkonnostním řetězci.
Opravte logiku operátoru, aby se řádky emitovaly po aktuální globální hodnotě vodoznaku.
EMPTY_JSON_FIELD_VALUE
Nepodařilo se analyzovat prázdný řetězec pro datový typ <dataType>.
EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY
Prázdný místní soubor v testovacím dotazu <operation>
EMPTY_SCHEMA_NOT_SUPPORTED_FOR_DATASOURCE
Zdroj dat <format> nepodporuje zápis prázdných nebo vnořených prázdných schémat. Ujistěte se, že schéma dat obsahuje alespoň jeden nebo více sloupců.
ENCODER_NOT_FOUND
Nebyl nalezen kodér typu <typeName> pro interní reprezentaci Spark SQL.
Zvažte změnu vstupního typu na jeden z podporovaných na adrese /<docroot>sql-ref-datatypes.html.
END_LABEL_WITHOUT_BEGIN_LABEL
Koncový popisek <endLabel> nemůže existovat bez počátečního popisku.
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW
Některé oddíly v tématech Kafka hlásí dostupný posun, který je menší než koncový posun, během spuštění dotazu s použitím Trigger.AvailableNow. Chyba může být přechodná – restartujte dotaz a nahlaste, pokud se stále zobrazuje stejný problém.
poslední posun: <latestOffset>, konec posunu: <endOffset>
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED
U zdroje dat Kafka s Trigger.AvailableNow by koncový offset měl mít pro každý oddíl tématu nižší nebo stejný offset než předem načtený offset. Chyba může být přechodná – restartujte dotaz a nahlaste, pokud se stále zobrazuje stejný problém.
Předem načtený odstup: <prefetchedOffset>, konečný odstup: <endOffset>.
ERROR_READING_AVRO_UNKNOWN_FINGERPRINT
Při čtení dat avro došlo k chybě– došlo k neznámému otisku prstu: <fingerprint>, nevím, jaké schéma použít.
K tomu může dojít, pokud jste po spuštění kontextu Spark zaregistrovali další schémata.
EVENT_LOG_EMPTY
Událostní protokol <tableOrPipeline> nemá žádné schéma a neobsahuje žádné události. Zkuste to znovu později po vygenerování událostí.
EVENT_LOG_REQUIRES_SHARED_COMPUTE
Nelze dotazovat protokoly událostí z přiřazeného clusteru nebo clusteru bez izolace. Místo toho použijte sdílený cluster nebo službu Databricks SQL Warehouse.
EVENT_LOG_TVF_UNSUPPORTED_FOR_PIPELINE
Funkce EVENT_LOG Table-Valued není podporována pro pipeliny, které využívají pole „schema“ nebo publikují do výchozího úložiště.
Pokud chcete dotazovat protokol událostí, publikujte ho do metastoru zadáním pole event_log v nastavení kanálu.
Další informace najdete v dokumentaci k kanálům deklarativních kanálů Sparku pro Monitorování toku Sparku: https://docs.databricks.com/aws/en/delta-live-tables/observability
EVENT_LOG_UNAVAILABLE
Pro <tableOrPipeline>nejsou k dispozici žádné protokoly událostí . Zkuste to prosím znovu později po vygenerování událostí.
EVENT_LOG_UNSUPPORTED_TABLE_TYPE
Typ tabulky <tableIdentifier> je <tableType>.
Dotazování protokolů událostí podporuje pouze materializovaná zobrazení, streamované tabulky nebo kanály deklarativních kanálů Sparku Lakeflow.
EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE
Čas <eventName> události má neplatný typ <eventType>, ale očekává se "TIMESTAMP".
EXCEED_LIMIT_LENGTH
Překračuje omezení délky typu char/varchar: <limit>.
EXCEL_DATA_SOURCE_NOT_ENABLED
V tomto clusteru není povolený zdroj dat aplikace Excel.
EXCEL_FILE_ERROR
Při zpracování excelových souborů došlo<filePath> k chybě.
Další podrobnosti najdete v tématu EXCEL_FILE_ERROR
EXCEL_INVALID_READ_OPTION_VALUE
Neplatná hodnota možnosti čtení pro zdroj dat aplikace Excel.
Další podrobnosti najdete v tématu EXCEL_INVALID_READ_OPTION_VALUE
EXCEL_INVALID_WRITE_OPTION_VALUE
Zdroj dat aplikace Excel nepodporuje hodnotu '<value>' pro možnost zápisu '<option>'.
Další podrobnosti najdete v tématu EXCEL_INVALID_WRITE_OPTION_VALUE
EXCEL_NEPLATNÉ_SCHEMA_ZAPISOVÁNÍ
Zdroj dat Aplikace Excel nepodporuje schéma<schema> pro zápisy.
<hint>
EXCEL_PARSING_ERROR
Při analýze excelových dat došlo k chybě.
Další podrobnosti najdete v EXCEL_PARSING_ERROR
EXCEL_UNSUPPORTED_WRITE_OPTION
Zdroj dat aplikace Excel nepodporuje možnost zápisu '<option>'.
<hint>
EXCEPT_NESTED_COLUMN_INVALID_TYPE
EXCEPT sloupec <columnName> byl vyřešen a očekává se, že bude typ StructType, ale byl nalezen typ <dataType>.
EXCEPT_OVERLAPPING_COLUMNS
Sloupce v seznamu EXCEPT musí být odlišné a nepřekrývající se, ale musí být (<columns>).
EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH
EXCEPT sloupce [<exceptColumns>] byly vyřešeny, ale neodpovídají žádnému ze sloupců [<expandedColumns>] z rozšíření hvězdy.
EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION
Název sloupce nebo pole <objectName> v klauzuli EXCEPT nelze přeložit. Mysleli jste jednu z následujících věcí: [<objectList>]?
Poznámka: Vnořené sloupce v klauzuli EXCEPT nesmí zahrnovat kvalifikátory (název tabulky, název nadřazeného sloupce struktury atd.) během rozšíření struktury; pokuste se odebrat kvalifikátory, pokud se používají s vnořenými sloupci.
EXECUTOR_DISK_OUT_OF_SPACE
Disk exekutoru je nedostatek místa. Pokud je k dispozici, zvyšte kapacitu disku. Pokud používáte bezserverovou službu, obraťte se na náš tým podpory.
EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES
Klauzule USING tohoto příkazu EXECUTE IMMEDIATE obsahovala více argumentů se stejným aliasem (<aliases>), což je neplatné; Aktualizujte příkaz tak, aby určil jedinečné aliasy a zkuste to znovu.
EXPECT_PERMANENT_TABLE_NOT_TEMP
Výraz '<operation>' očekává trvalou tabulku, ale <tableName> jedná se o dočasnou tabulku. Místo toho zadejte trvalou tabulku.
EXPECT_PERMANENT_VIEW_NOT_TEMP
"<operation>' očekává trvalé zobrazení, ale <viewName> je to dočasné zobrazení.
EXPECT_TABLE_NOT_VIEW
'<operation>' očekává tabulku, ale <viewName> je pohled.
Další podrobnosti viz EXPECT_TABLE_NOT_VIEW
EXPECT_VIEW_NOT_TABLE
Tabulka <tableName> nepodporuje <operation>.
Více podrobností najdete pod EXPECT_VIEW_NOT_TABLE
EXPRESSION_DECODING_FAILED
Dekódování řádku na hodnotu výrazů se nezdařilo: <expressions>.
EXPRESSION_ENCODING_FAILED
Nepodařilo se zakódovat hodnotu výrazu: <expressions> do řádku.
EXPRESSION_TRANSLATION_TO_V2_IS_NOT_SUPPORTED
Výraz <expr> nelze přeložit na výraz v2.
EXPRESSION_TYPE_IS_NOT_ORDERABLE
Výraz sloupce <expr> nelze seřadit, protože jeho typ <exprType> není možné seřadit.
EXTERNAL_METASTORE_CLIENT_ERROR
Operace klienta selhala:
Další podrobnosti najdete v tématu EXTERNAL_METASTORE_CLIENT_ERROR
EXTERNAL_SHALLOW_CLONE_STILL_EXISTS
Operaci ve zdrojové tabulce <sourceTable> se nepovedlo spustit, protože klon mělké <targetTable> hodnoty stále existuje a jeho stav je neplatný. Pokud opravdu chcete pokračovat v této operaci, vyčistěte mělký klon explicitním spuštěním příkazu DROP.
EXTERNAL_TABLE_INVALID_SCHEME
Externí tabulky <scheme> nepodporují schéma.
FABRIC_REFRESH_INVALID_SCOPE
Při spuštění příkazu 'REFRESH FOREIGN <scope> <name>' došlo k chybě. Nelze aktualizovat Fabric <scope> přímo, použijte prosím 'REFRESH FOREIGN CATALOG <catalogName>' pro aktualizaci katalogu Fabric.
FAILED_EXECUTE_UDF
Uživatelem definovaná funkce (: (<functionName><signature>) => <result>se nezdařila kvůli: <reason>.
FAILED_FUNCTION_CALL
Příprava funkce <funcName> na volání se nezdařila. Pečlivě zkontrolujte argumenty funkce.
FAILED_JDBC
Selhání JDBC <url> během operace.
Další podrobnosti najdete v tématu FAILED_JDBC
FAILED_PARSE_STRUCT_TYPE
Nepodařilo se parsování struktury: <raw>.
FAILED_READ_FILE
Při čtení souboru <path>došlo k chybě.
Další podrobnosti naleznete v FAILED_READ_FILE
FAILED_REGISTER_CLASS_WITH_KRYO
Registrace tříd v Kryo se nezdařila.
FAILED_RENAME_PATH
Přejmenování <sourcePath> na <targetPath> se nezdařilo, protože cíl již existuje.
FAILED_RENAME_TEMP_FILE
Nepodařilo se přejmenovat dočasný soubor <srcPath> na <dstPath>, protože FileSystem.rename vrátil hodnotu false.
FAILED_ROW_TO_JSON
Nepodařilo se převést hodnotu <value> řádku třídy <class> na cílový typ <sqlType> SQL ve JSON formátu.
FAILED_TO_CREATE_PLAN_FOR_DIRECT_QUERY
Vytvoření plánu pro přímý dotaz na soubory se nezdařilo: <dataSourceType>
FAILED_TO_LOAD_ROUTINE
Nepodařilo se načíst rutinu <routineName>.
FAILED_TO_PARSE_TOO_COMPLEX
Příkaz, včetně potenciálních funkcí SQL a odkazovaných zobrazení, byl pro analýzu příliš složitý.
Pokud chcete tuto chybu zmírnit, rozdělte příkaz na několik méně složitých bloků dat.
FEATURE_NOT_ENABLED
Funkce <featureName> není povolená. Pokud chcete tuto funkci povolit, zvažte nastavení konfiguračního <configKey> na <configValue>.
FEATURE_NOT_ON_CLASSIC_WAREHOUSE
<feature> se nepodporuje u klasických SQL Warehouse. Pokud chcete tuto funkci použít, využijte Pro nebo Bezserverový sklad SQL.
FEATURE_REQUIRES_UC
<feature> není podporován bez katalogu Unity. Pokud chcete tuto funkci použít, povolte katalog Unity.
FEATURE_UNAVAILABLE
<feature> se ve vašem prostředí nepodporuje. Pokud chcete tuto funkci použít, obraťte se na podporu Databricks.
FETCH_FAILED
Úloha se nezdařila při načítání dat nebo metadat náhodného prohazování: <errorString>.
FGAC_ON_DEDICATED_COMPUTE_FAILED
Podrobné řízení přístupu (FGAC) na vyhrazených výpočetních prostředcích selhalo kvůli následující výjimce: <message>
FIELD_ALREADY_EXISTS
Nelze přidat sloupec <op>, protože <fieldNames> již existuje v <struct>.
FIELD_NOT_FOUND
Žádné takové pole struktury <fieldName> v <fields>.
FILE_IN_STAGING_PATH_ALREADY_EXISTS
Soubor v pracovní cestě <path> již existuje, ale OVERWRITE není nastavený
FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR
Ve funkci poskytnuté uživatelem v flatMapGroupsWithState došlo k chybě. Důvod: <reason>
FORBIDDEN_DATASOURCE_IN_SERVERLESS
Dotazování zdroje dat <source> ve výpočetním prostředí bez serveru není povoleno. Pouze zdroje dat <allowlist> jsou podporovány ve výpočetních prostředcích bez serveru.
FORBIDDEN_KEYWORD_IN_JDBC_QUERY
Možnost <queryOption> dotazu nemůže obsahovat zakázaná klíčová slova. Odeberte z dotazu následující klíčová slova: <keywords>
FORBIDDEN_OPERATION
Operace <statement> není na <objectType>povolena: <objectName>.
FOREACH_BATCH_USER_FUNCTION_ERROR
Ve funkci poskytnuté uživatelem v dávkové jímce foreach došlo k chybě. Důvod: <reason>
FOREACH_USER_FUNCTION_ERROR
Ve funkci poskytnuté uživatelem ve výstupním kanálu foreach došlo k chybě. Důvod: <reason>
FOREIGN_KEY_MISMATCH
Nadřazené sloupce cizího klíče <parentColumns> neodpovídají podřízeným sloupcům primárního klíče <childColumns>.
FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY
Tento příkaz nelze spustit, protože název cizího <objectType> musí být neprázdný.
FOREIGN_TABLE_CONVERSION_UNSUPPORTED
Tabulka nemá nárok na upgrade z UC Foreign na UC External. Reason:
Další podrobnosti najdete v tématu FOREIGN_TABLE_CONVERSION_UNSUPPORTED
FOREIGN_VIEW_CONVERSION_UNSUPPORTED
Objekt <objectName> nemá nárok na převod do spravovaného zobrazení UC. Reason:
Další podrobnosti najdete v tématu FOREIGN_VIEW_CONVERSION_UNSUPPORTED
FROM_JSON_CONFLICTING_SCHEMA_UPDATES
from_json inference zjistila konfliktní aktualizace schématu na adrese: <location>
FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA
Z from_json byl nalezen sloupec NameOfCorruptRecord (<columnNameOfCorruptRecord>) je přítomen
v objektu JSON a již nemůže pokračovat. Nakonfigurujte jinou hodnotu pro
možnost 'columnNameOfCorruptRecord'.
FROM_JSON_CORRUPT_SCHEMA
Funkce from_json nemohla přečíst schéma uložené na adrese: <location>
FROM_JSON_INFERENCE_FAILED
Funkce from_json nemohla schéma odvodit. Zadejte místo toho jednu.
FROM_JSON_INFERENCE_NOT_SUPPORTED
from_json odvozování se podporuje pouze při definování streamovaných tabulek.
FROM_JSON_INVALID_CONFIGURATION
konfigurace from_json je neplatná:
Pro více podrobností viz FROM_JSON_INVALID_CONFIGURATION
FROM_JSON_SCHEMA_EVOLUTION_FAILED
from_json se nemohlo vyvíjet z <old> na <new>
FUNCTION_PARAMETERS_MUST_BE_NAMED
Funkce <function> vyžaduje pojmenované parametry. Chybějící názvy parametrů: <exprs>. Aktualizujte volání funkce a přidejte názvy pro všechny parametry, <function>například (param_name => ...).
GENERATED_COLUMN_WITH_DEFAULT_VALUE
Sloupec nemůže mít výchozí hodnotu i výraz generování, ale sloupec <colName> má výchozí hodnotu: (<defaultValue>) a výraz generování: (<genExpr>).
GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION
Hive 2.2 a nižší verze nepodporují getTablesByType. Použijte Prosím Hive verze 2.3 nebo vyšší.
GET_WARMUP_TRACING_FAILED
Trasování zahřívání se nepodařilo. Příčina: <cause>.
GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED
Funkce get_warmup_tracing() není povolená.
GRAPHITE_SINK_INVALID_PROTOCOL
Neplatný protokol Graphite: <protocol>.
GRAPHITE_SINK_PROPERTY_MISSING
Jímka Graphite vyžaduje vlastnost '<property>'.
GROUPING_COLUMN_MISMATCH
Sloupec seskupování (<grouping>) nelze najít ve sloupcích <groupingColumns>seskupení.
GROUPING_ID_COLUMN_MISMATCH
Sloupce grouping_id (<groupingIdColumn>) neodpovídají sloupcům seskupování (<groupByColumns>).
GROUPING_SIZE_LIMIT_EXCEEDED
Velikost skupinových sad nemůže být větší než <maxSize>.
GROUP_BY_AGGREGATE
Agregační funkce nejsou povoleny v GROUP BY, ale nalezeny <sqlExpr>.
Další podrobnosti najdete v tématu GROUP_BY_AGGREGATE
GROUP_BY_POS_AGGREGATE
GROUP BY <index> odkazuje na výraz <aggExpr>, který obsahuje agregační funkci. Agregační funkce nejsou v GROUP BYpovoleny .
GROUP_BY_POS_OUT_OF_RANGE
GROUP BY poloha <index> není v seznamu výběru (platný rozsah je [1, <size>]).
GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE
Výraz <sqlExpr> nelze použít jako výraz seskupení, protože jeho datový typ <dataType> není seřazený datový typ.
HDFS_HTTP_ERROR
Při pokusu o čtení z HDFS se požadavek HTTP nezdařil.
Další podrobnosti najdete v tématu HDFS_HTTP_ERROR
HINT_UNSUPPORTED_FOR_JDBC_DIALECT
Možnost hint není podporována v JDBC zdroji dat <jdbcDialect>. Podporované dialekty jsou MySQLDialect, OracleDialect a DatabricksDialect.
HIVE_METASTORE_INVALID_PLACEHOLDER_PATH
Dotaz nebo příkaz se nepovedlo spustit, protože konfigurace spark.databricks.hive.metastore.tablePlaceholderPath poskytla neplatnou cestu k tabulce metastoru Hive. Aktualizujte tuto konfiguraci novou hodnotou, abyste zadali platnou cestu, a pak znovu spusťte dotaz nebo příkaz.
HIVE_METASTORE_TABLE_PLACEHOLDER_PATH_NOT_SET
Dotaz nebo příkaz selhal, protože zástupná cesta tabulky Metastore Hive není nastavená, což se vyžaduje, když je umístění schématu v DBFS a umístění tabulky je objekt nebo soubor. Nastavte spark.databricks.hive.metastore.tablePlaceholderPath na cestu, ke které máte přístup, a pak znovu spusťte dotaz nebo příkaz znovu.
HLL_INVALID_INPUT_SKETCH_BUFFER
Neplatné volání <function>; Podporují se pouze platné vyrovnávací paměti skic HLL jako vstupy (například ty, které vytváří funkce hll_sketch_agg).
HLL_INVALID_LG_K
Neplatné volání <function>; hodnota lgConfigK musí být mezi <min> a <max>včetně <value>.
HLL_K_MUST_BE_CONSTANT
Neplatné volání <function>; K hodnota musí být konstantní hodnota, ale má nekontinuární výraz.
HLL_UNION_DIFFERENT_LG_K
Skici mají různé lgConfigK hodnoty: <left> a <right>. Nastavte parametr allowDifferentLgConfigK na true pro volání <function> s různými hodnotami lgConfigK.
HMS_FEDERATION_SHALLOW_CLONE_NOT_FOUND_IN_UC
Cestu mělkého klonu <path> nebylo možné vyřešit pro tabulku v katalogu Unity. Ujistěte se, že tabulka existuje a je federovaná do katalogu Unity.
HYBRID_ANALYZER_EXCEPTION
Při pokusu o vyřešení dotazu nebo příkazu pomocí staršího analyzátoru s pevným bodem i překladače s jedním průchodem došlo k chybě.
Další podrobnosti naleznete v části HYBRID_ANALYZER_EXCEPTION
IDENTIFIER_TOO_MANY_NAME_PARTS
<identifier> není platný identifikátor, protože obsahuje více než <limit> části názvů.
IDENTITY_COLUMNS_DUPLICATED_SEQUENCE_GENERATOR_OPTION
Možnost duplikovaného generování posloupnosti sloupců IDENTITY: <sequenceGeneratorOption>.
IDENTITY_COLUMNS_ILLEGAL_STEP
IDENTITY krok sloupce nemůže být 0.
IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
Datový typ <dataType> není podporován pro sloupce IDENTITY.
ILLEGAL_DAY_OF_WEEK
Neplatný vstup pro den v týdnu: <string>.
ILLEGAL_STATE_STORE_VALUE
Neplatná hodnota zadaná do stavového obchodu
Další podrobnosti najdete v ILLEGAL_STATE_STORE_VALUE
INAPPROPRIATE_URI_SCHEME_OF_CONNECTION_OPTION
Připojení nejde vytvořit kvůli nevhodnému schématu identifikátoru URI <uri> zadanému pro možnost připojení '<option>'.
Povolené schémata: <allowedSchemes>.
Přidejte schéma, pokud není v identifikátoru URI, nebo zadejte schéma z povolených hodnot.
INCOMPARABLE_PIVOT_COLUMN
Neplatný kontingenční sloupec <columnName>. Kontingenční sloupce musí být srovnatelné.
NEKOMPATIBILNÍ_ZOBRAZENÍ_ŠARŽE_ČTENÍ
Zobrazení <datasetIdentifier> je dávkové zobrazení a musí být odkazováno pomocí SparkSession#read. Tuto kontrolu lze zakázat nastavením spark conf pipelines.incompatibleViewCheck.enabled = false.
INCOMPATIBLE_COLUMN_TYPE
<operator> lze provádět pouze u tabulek s kompatibilními typy sloupců. Sloupec <columnOrdinalNumber> tabulky <tableOrdinalNumber> je typu <dataType1>, který není kompatibilní s <dataType2> ve stejném sloupci v první tabulce.<hint>.
INCOMPATIBLE_DATASOURCE_REGISTER
Zjistil nekompatibilní registr datového zdroje. Odeberte nekompatibilní knihovnu z třídy nebo ji aktualizujte. Chyba: <message>
INCOMPATIBLE_DATA_FOR_TABLE
Nelze zapisovat nekompatibilní data pro tabulku <tableName>:
Další podrobnosti najdete v INCOMPATIBLE_DATA_FOR_TABLE
INCOMPATIBLE_JOIN_TYPES
Typy spojení <joinType1> a <joinType2> nejsou kompatibilní.
NEKOMPATIBILNÍ_STREAMING_VIEW_READ (INCOMPATIBLE_STREAMING_VIEW_READ)
Zobrazení <datasetIdentifier> je streamovací pohled a musí být použito pomocí SparkSession#readStream. Tuto kontrolu lze zakázat nastavením spark conf pipelines.incompatibleViewCheck.enabled = false.
INCOMPATIBLE_VIEW_SCHEMA_CHANGE
Dotaz SQL zobrazení <viewName> má nekompatibilní změnu schématu a sloupec <colName> nelze vyřešit. Očekávali se <expectedNum> sloupce nazvané <colName>, ale bylo <actualCols>.
Zkuste zobrazení znovu vytvořit spuštěním příkazu: <suggestion>.
INCOMPLETE_TYPE_DEFINITION
Neúplný komplexní typ:
Další podrobnosti najdete v tématu INCOMPLETE_TYPE_DEFINITION
INCONSISTENT_BEHAVIOR_CROSS_VERSION
Mohou se zobrazit odlišné výsledky kvůli aktualizaci systému.
Další podrobnosti najdete v INCONSISTENT_BEHAVIOR_CROSS_VERSION
INCORRECT_NUMBER_OF_ARGUMENTS
<failure>, <functionName> vyžaduje alespoň <minArgs> argumenty a maximálně <maxArgs> argumenty.
INCORRECT_RAMP_UP_RATE
Maximální posun s <rowsPerSecond> řádky za sekundu je <maxSeconds>, ale 'rampUpTimeSeconds' je <rampUpTimeSeconds>.
INDETERMINATE_COLLATION
Nelze určit, jakou kolaci použít pro operaci s řetězcem. Pro nastavení kolace explicitně použijte klauzuli COLLATE.
INDETERMINATE_COLLATION_IN_EXPRESSION
Datový typ <expr> má neurčitou kolaci. Pro nastavení kolace explicitně použijte klauzuli COLLATE.
INDETERMINATE_COLLATION_IN_SCHEMA
Schéma obsahuje neurčitou kolaci v určeném místě: [<columnPaths>]. Pro nastavení kolace explicitně použijte klauzuli COLLATE.
INDEX_ALREADY_EXISTS
Index <indexName> nelze vytvořit v tabulce <tableName>, protože již existuje.
INDEX_NOT_FOUND
Nelze najít index <indexName> v tabulce <tableName>.
INET_FUNCTIONS_NOT_ENABLED
<functionName> je zakázaná nebo nepodporovaná. Funkce INET zatím nejsou veřejně dostupné.
INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED
Typ triggeru <trigger> pro tento typ clusteru není podporovaný.
Použijte jiný typ triggeru, například AvailableNow, Once.
INSERT_COLUMN_ARITY_MISMATCH
Nelze zapisovat do <tableName>, důvodem je
Další podrobnosti najdete v INSERT_COLUMN_ARITY_MISMATCH
INSERT_PARTITION_COLUMN_ARITY_MISMATCH
Do '<tableName>' nelze zapisovat: <reason>
Sloupce tabulky: <tableColumns>.
Sloupce oddílů se statickými hodnotami: <staticPartCols>.
Datové sloupce: <dataColumns>.
(If needed) INSERT_REPLACE_USING_DISALLOW_NESOULADNÉ_SLOUPCE
Všechny sloupce v USING klauzuli musí být ve stejném umístění jak v cílovém, tak zdrojovém schématu.
USING klauzule obsahující nesprávně zarovnané sloupce se nepodporuje.
Následující sloupce jsou nesprávně zarovnané: <misalignedReplaceUsingCols>
INSERT_REPLACE_USING_INVALID_SET_OF_COLUMNS
Tabulka musí být rozdělená na oddíly a všechny zadané sloupce musí představovat úplnou sadu sloupců oddílů tabulky.
Následující sloupce nejsou oddílové sloupce: <nonPartitionColumns>
Chybí následující sloupce oddílů: <missingPartitionsColumns>
INSERT_REPLACE_USING_NOT_ENABLED
Pokud chcete povolit funkci (...), obraťte se na INSERT INTO...REPLACE USING zástupce Databricks.
INSUFFICIENT_PERMISSIONS
Nedostatečná oprávnění:
<report>
INSUFFICIENT_PERMISSIONS_EXT_LOC
Uživatel <user> nemá dostatečná oprávnění pro externí umístění <location>.
INSUFFICIENT_PERMISSIONS_NO_OWNER
Neexistuje žádný vlastník pro <securableName>. Požádejte správce, aby nastavil vlastníka.
INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE
Uživatel nevlastní <securableName>.
INSUFFICIENT_PERMISSIONS_SECURABLE
Uživatel nemá oprávnění <action> na <securableName>.
INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER
Vlastník <securableName> se liší od vlastníka <parentSecurableName>.
INSUFFICIENT_PERMISSIONS_SPARK_CONNECT_CLIENT_SET_CLOUDFETCH_RETENTION_TIMEOUT
Klient nemá oprávnění k nastavení vlastní doby uchovávání pro výsledky CloudFetch.
INSUFFICIENT_PERMISSIONS_STORAGE_CRED
Přihlašovací údaje úložiště <credentialName> mají nedostatečná oprávnění.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES
Uživatel nemůže <action> na <securableName> kvůli oprávněním k základním zabezpečeným objektům.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE
Uživatel nemůže <action> na <securableName> kvůli oprávněním k základním zabezpečitelným objektům.
<underlyingReport>
INTERVAL_ARITHMETIC_OVERFLOW
Přetečení celého čísla při operacích s intervaly.
Pro více podrobností viz INTERVAL_ARITHMETIC_OVERFLOW
INTERVAL_DIVIDED_BY_ZERO
Dělení nulou. Pomocí try_divide můžete tolerovat, že dělitel je 0, a místo toho vrátit NULL.
INVALID_AGGREGATE_FILTER
Výraz FILTER<filterExpr> v agregační funkci je neplatný.
Další podrobnosti najdete v tématu INVALID_AGGREGATE_FILTER
INVALID_AGNOSTIC_ENCODER
Byl nalezen neplatný agnostický kodér. Očekává instanci AgnosticEncoder, ale místo toho dostal <encoderType>. Další informace najdete v souboru<docroot> /api/java/index.html?org/apache/spark/sql/Encoder.html'.
INVALID_ARRAY_INDEX
Index <indexValue> je mimo povolené hranice. Pole obsahuje <arraySize> elementy. Použijte funkci SQL get(), abyste povolili přístup k elementu na neplatném indexu a místo toho vrátili NULL.
Další podrobnosti najdete v INVALID_ARRAY_INDEX
INVALID_ARRAY_INDEX_IN_ELEMENT_AT
Index <indexValue> je mimo povolené hranice. Pole obsahuje <arraySize> elementy. Pomocí try_element_at můžete tolerovat přístup k prvku v neplatném indexu a vrátit místo toho NULL.
Viz INVALID_ARRAY_INDEX_IN_ELEMENT_AT pro více podrobností
INVALID_ARTIFACT_PATH
Artefakt s názvem <name> je neplatný. Název musí být relativní cesta a nesmí odkazovat na nadřazené adresáře, adresáře na stejné nebo synovce.
INVALID_ATTRIBUTE_NAME_SYNTAX
Syntaktická chyba v názvu atributu: <name>. Zkontrolujte, zda se zpětné apostrofy zobrazují ve dvojicích, zda je uvozovaný řetězec úplnou částí názvu, a používejte zpětné apostrofy pouze uvnitř uvozovaných částí názvu.
INVALID_AUTO_TTL_EXPIRE_IN_DAYS
Počet dní zadaný pro hodnotu Auto-TTL musí být nezáporný.
INVALID_AWS_AUTHENTICATION
Vyberte přesně jednu z následujících metod ověřování:
Zadejte název přihlašovacích údajů služby Databricks (
<serviceCredential>) (jako možnost streamování ve Sparku nebo jako proměnnou prostředí clusteru).Zadejte klíč AWS AccessKey (
<awsAccessKey>) i SecretAccessKey (<awsSecretKey>) pro použití klíčů AWS.Nezadávejte ani klíče AWS, ani přihlašovací údaje služby Databricks, abyste použili výchozí řetězec zprostředkovatele přihlašovacích údajů AWS pro ověřování Kinesis.
INVALID_AWS_AUTHENTICATION_EXPLICIT_OPTIONS
Poskytněte buď název přihlašovacích údajů vaší služby Databricks (<serviceCredential>).
NEBO oba <awsAccessKey> i <awsSecretKey>
INVALID_BITMAP_POSITION
Pozice bitmapy s indexem 0 <bitPosition> je mimo hranice. Rastrový obrázek má <bitmapNumBits> bity (<bitmapNumBytes> bajty).
INVALID_BOOLEAN_STATEMENT
V podmínce se očekává booleovský výraz, ale <invalidStatement> byl nalezen.
INVALID_BOUNDARY
Hranice <boundary> je neplatná: <invalidValue>.
Další podrobnosti najdete v INVALID_BOUNDARY
INVALID_BUCKET_COLUMN_DATA_TYPE
Pro sloupec typu bucket nelze použít <type>. Kolacované datové typy nejsou podporovány pro rozdělení do skupin.
INVALID_BUCKET_COUNT
Počet kbelíků by měl být větší než 0, ale menší než nebo rovno kbelíking.maxBuckets (<bucketingMaxBuckets>). Získal jsem <numBuckets>.
INVALID_BUCKET_FILE
Neplatný soubor kontejneru: <path>.
INVALID_BYTE_STRING
Očekávaný formát je ByteString, ale byl <unsupported> (<class>).
INVALID_CIDR_RANGE
Funkce <functionName> přijala neplatný rozsah CIDR: <value>.
INVALID_CLONE_SESSION_REQUEST
Neplatný požadavek na klonování relace
Další podrobnosti najdete v tématu INVALID_CLONE_SESSION_REQUEST
INVALID_COLUMN_NAME_AS_PATH
Zdroj dat <datasource> nemůže uložit sloupec <columnName>, protože jeho název obsahuje některé znaky, které nejsou povoleny v cestě k souborům. Pomocí aliasu ho přejmenujte.
INVALID_COLUMN_OR_FIELD_DATA_TYPE
Sloupec nebo pole <name> je typu <type> , zatímco je nutné, aby byl <expectedType>.
INVALID_CONF_VALUE
Hodnota '<confValue>' v konfiguraci "<confName>" je neplatná.
Další podrobnosti najdete v tématu INVALID_CONF_VALUE
NEPLATNÉ_VLASTNOSTI_OMEZENÍ
Vlastnosti omezení [<characteristics>] jsou duplikovány nebo vzájemně kolidují.
INVALID_CORRUPT_RECORD_TYPE
Sloupec <columnName> pro poškozené záznamy musí mít typ STRING, který je nulovatelný, ale je <actualType>.
INVALID_CURRENT_RECIPIENT_USAGE
current_recipient funkci lze použít pouze v příkazu CREATE VIEW nebo ALTER VIEW k definování zobrazení jen pro sdílení v katalogu Unity.
INVALID_CURSOR
Kurzor je neplatný.
Další podrobnosti najdete v tématu INVALID_CURSOR
NEPLATNÝ_FORMAT_DATOVÉHO_ZDROJE_PRO_INJECTOVÁNÍ_MOŽNOSTÍ_PŘIPOJENÍ
Spojení s názvem <connectionName> a typem <connectionType> nepodporuje formát <actualFormat>. Podporovaný formát: <expectedFormat>.
Neplatný pokus o přepsání možnosti zdroje dat
Možnost <optionName> již existuje u připojení <connectionName> a nelze ji přepsat.
INVALID_DATETIME_PATTERN
Nerozpoznaný vzorec data a času: <pattern>.
Další podrobnosti najdete v INVALID_DATETIME_PATTERN
INVALID_DBFS_MOUNT
Připojení DBFS není přístupné.
Další podrobnosti najdete v tématu INVALID_DBFS_MOUNT
INVALID_DBSQL_CONFIG
<confValue> pro konfigurační klíč SQL se nepodporuje. <confKey>
INVALID_DEFAULT_VALUE
Spuštění příkazu <statement> se nezdařilo, protože cílový sloupec nebo proměnná <colName> má DEFAULT hodnotu <defaultValue>,
Další podrobnosti najdete v tématu INVALID_DEFAULT_VALUE
INVALID_DELIMITER_VALUE
Neplatná hodnota oddělovače
Další podrobnosti najdete v tématu INVALID_DELIMITER_VALUE
INVALID_DEST_CATALOG
Cílový katalog příkazu SYNC musí být v katalogu Unity. Nalezeno <catalog>.
INVALID_DRIVER_MEMORY
Systémová paměť <systemMemory> musí být alespoň <minSystemMemory>.
Zvyšte velikost haldy pomocí možnosti --driver-memory nebo "<config>" v konfiguraci Sparku.
NEPLATNÉ_MOŽNOSTI_ODSTRANĚNÍ_TABULKY
Nelze zadat obě volby PURGE a FORCE v příkazu DROP TABLE. Použijte buď PURGE nebo FORCE, ale ne obojí.
INVALID_DYNAMIC_OPTIONS
Předané <option_list> možnosti jsou zakázány pro cizí tabulku <table_name>.
INVALID_EMPTY_LOCATION
Název umístění nemůže být prázdný, ale <location> byl zadaný.
NEPLATNÉ_NASTAVENÍ_PROSTŘEDÍ_ZÁVISLOSTI
Parametr závislostí nastavení prostředí chybí nebo ho nelze analyzovat do seznamu řetězců. Očekávaný formát: ["dep1", "dep2"]
INVALID_ENVIRONMENT_SETTINGS_ENVIRONMENT_VERSION
Tato verze modulu runtime nepodporuje verzi prostředí pro zdroje dat. Hodnota: <environmentVersion>.
INVALID_ERROR_CONDITION_DECLARATION
Neplatné zadání podmínky
Další podrobnosti najdete v tématu INVALID_ERROR_CONDITION_DECLARATION
INVALID_ESC
Byl nalezen neplatný escape sekvence: <invalidEscape>. Escape řetězec musí obsahovat pouze jeden znak.
INVALID_ESCAPE_CHAR
EscapeChar by měl být řetězcový literál o délce 1, ale má hodnotu <sqlExpr>.
INVALID_EXECUTOR_MEMORY
Paměť exekutora <executorMemory> musí být alespoň <minSystemMemory>.
Zvyšte paměť exekutoru pomocí možnosti --executor-memory nebo "<config>" v konfiguraci Sparku.
INVALID_EXPRESSION_ENCODER
Nalezen neplatný kodér výrazu. Očekává instanci ExpressionEncoder, ale získal <encoderType>. Další informace najdete v souboru<docroot> /api/java/index.html?org/apache/spark/sql/Encoder.html'.
INVALID_EXPR_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE
Typ výrazu musí být typ řetězce, ale musí mít <exprType>.
INVALID_EXTERNAL_TYPE
Externí typ <externalType> není platný pro typ <type> ve výrazu <expr>.
INVALID_EXTRACT_BASE_FIELD_TYPE
Nelze extrahovat hodnotu z <base>. Potřebujete komplexní typ [STRUCT, ARRAY, MAP] ale dostal <other>.
INVALID_EXTRACT_FIELD
Z <field>nelze extrahovat <expr> .
INVALID_EXTRACT_FIELD_TYPE
Název pole by měl být literál řetězce, který nemá hodnotu null, ale je to <extraction>.
INVALID_FIELD_NAME
Název pole <fieldName> je neplatný: <path> není struktura.
INVALID_FLOW_QUERY_TYPE
Flow <flowIdentifier> vrátí neplatný typ relace.
Další podrobnosti najdete v tématu INVALID_FLOW_QUERY_TYPE
INVALID_FORMAT
Formát je neplatný: <format>.
Další podrobnosti viz INVALID_FORMAT
INVALID_FRACTION_OF_SECOND
Platný rozsah pro sekundy je [0, 60] (včetně), ale zadaná hodnota je <secAndMicros>. Chcete-li se této chybě vyhnout, použijte try_make_timestamp, která vrací NULL při chybě.
Pokud nechcete používat časové razítko podle výchozího nastavení relace pro tuto funkci, použijte try_make_timestamp_ntz nebo try_make_timestamp_ltz.
INVALID_GET_DIAGNOSTICS_USAGE
Neplatné použití GETDIAGNOSTICS příkazu
Další podrobnosti najdete v tématu INVALID_GET_DIAGNOSTICS_USAGE
INVALID_GET_DIAGNOSTICS_USAGE_CONDITION_NUMBER_MUST_BE_ONE
Neplatné použití GETDIAGNOSTICS příkazu Jediná podporovaná hodnota čísla podmínky v GETDIAGNOSTICS příkazu je 1.
INVALID_HANDLE
Popisovač <handle> je neplatný.
Další podrobnosti najdete v části INVALID_HANDLE
INVALID_HANDLER_DECLARATION
Neplatná deklarace obslužné rutiny
Další podrobnosti viz INVALID_HANDLER_DECLARATION
INVALID_HTTP_REQUEST_METHOD
Vstupní parametr: metoda, hodnota: <paramValue> není platným parametrem pro http_request, protože se nejedná o platnou metodu HTTP.
INVALID_HTTP_REQUEST_PATH
Vstupní parametr: cesta, hodnota: <paramValue> není platný parametr pro http_request, protože procházení cesty není povoleno.
INVALID_IDENTIFIER
Necitovaný identifikátor <ident> je neplatný a musí být v uvozovce: <ident>.
Necitované identifikátory můžou obsahovat ASCII pouze písmena ('a' - 'z', 'A' - 'Z'), číslice ('0' - '9') a podbar ('_') .
Necitované identifikátory nesmí začínat číslicí.
Různé zdroje dat a meta úložiště mohou ukládat další omezení platných identifikátorů.
INVALID_INDEX_OF_ZERO
Index 0 je neplatný. Index musí být buď < 0 or > 0 (první prvek má index 1).
INVALID_INLINE_TABLE
Neplatná vložená tabulka
Další podrobnosti najdete v INVALID_INLINE_TABLE
INVALID_INTERVAL_FORMAT
Při analýze intervalu<input> došlo k chybě. Ujistěte se, že zadaná hodnota je v platném formátu pro definování intervalu. Můžete odkazovat na dokumentaci pro správný formát.
Další podrobnosti naleznete pod INVALID_INTERVAL_FORMAT
INVALID_INTERVAL_WITH_MICROSECONDS_ADDITION
K datu nelze přidat interval, protože jeho část mikrosekund není 0. Pokud chcete tento problém vyřešit, přetypujte vstupní datum na časové razítko, které podporuje sčítání intervalů s nenulovými mikrosekundami.
INVALID_IP_ADDRESS
Funkce <functionName> přijala neplatnou IP adresu: <value>.
INVALID_IP_ADDRESS_OR_CIDR_RANGE
Funkce <functionName> přijala neplatnou IP adresu nebo rozsah CIDR: <value>.
INVALID_JAVA_IDENTIFIER_AS_FIELD_NAME
<fieldName> není platný identifikátor Javy a nelze ho použít jako název pole.
<walkedTypePath>.
INVALID_JDBC_CONNECTION_OPTION
Tato možnost <optionKey> není platným parametrem pro toto připojení jdbc.
INVALID_JDBC_CONNECTION_OPTION_VALUE
Možnost <optionKey> s hodnotou <optionValue> není platná možnost pro toto připojení jdbc.
INVALID_JOIN_TYPE_FOR_JOINWITH
Neplatný typ spojení v joinWith: <joinType>.
INVALID_JSON_DATA_TYPE
Převod řetězce '<invalidType>' na datový typ se nezdařilJSON. Zadejte platný datový typ.
INVALID_JSON_DATA_TYPE_FOR_COLLATIONS
Kolace lze použít pouze u typů řetězců, ale JSON datový typ je <jsonType>.
INVALID_JSON_RECORD_TYPE
Zjistil neplatný typ záznamu JSON při odvození běžného schématu v režimu <failFastMode>. Byl očekáván typ STRUCT, ale byl nalezen typ <invalidType>.
INVALID_JSON_ROOT_FIELD
Kořenové pole nelze převést JSON na cílový typ Sparku.
INVALID_JSON_SCHEMA_MAP_TYPE
Vstupní schéma <jsonSchema> může obsahovat pouze STRING jako typ klíče pro MAP.
INVALID_KRYO_SERIALIZER_BUFFER_SIZE
Hodnota konfigurace "<bufferSizeConfKey>" musí být menší než 2048 MiB, ale získala <bufferSizeConfValue> MiB.
INVALID_KRYO_SERIALIZER_NO_DATA
Objekt '<obj>' je neplatný nebo poškozený pro <serdeOp> použití <serdeClass>.
INVALID_LABEL_USAGE
Použití popisku <labelName> je neplatné.
Pro více informací viz INVALID_LABEL_USAGE
INVALID_LAMBDA_FUNCTION_CALL
Neplatné volání funkce lambda
Další podrobnosti najdete v tématu INVALID_LAMBDA_FUNCTION_CALL
INVALID_LATERAL_JOIN_TYPE
<joinType>
JOIN s korelací LATERAL není povoleno, protože poddotaz OUTER nemůže korelovat s partnerem připojení. Odeberte korelaci LATERAL nebo místo toho použijte INNERJOIN, nebo LEVÝ OUTERJOIN.
INVALID_LIMIT_LIKE_EXPRESSION
Limit, jako je výraz <expr>, je neplatný.
Podrobnosti viz INVALID_LIMIT_LIKE_EXPRESSION
INVALID_LOG_VERSION
UnsupportedLogVersion.
Další podrobnosti najdete v tématu INVALID_LOG_VERSION
INVALID_NAME_IN_USE_COMMAND
Neplatný název '<name>' v <command> příkazu. Důvod: <reason>
INVALID_NON_ABSOLUTE_PATH
Zadanou ne absolutní cestu <path> nelze kvalifikovat. Aktualizujte cestu tak, aby byla platným přípojným bodem dbfs.
INVALID_NON_DETERMINISTIC_EXPRESSIONS
Operátor očekává deterministický výraz, ale skutečný výraz je <sqlExprs>.
INVALID_NUMERIC_LITERAL_RANGE
Číselný literál <rawStrippedQualifier> je mimo platný rozsah pro <typeName> s minimální hodnotou <minValue> a maximální hodnotou <maxValue>. Odpovídajícím způsobem upravte hodnotu.
INVALID_OBSERVED_METRICS
Neplatné pozorované metriky
Další podrobnosti viz INVALID_OBSERVED_METRICS
INVALID_OPTIONS
Neplatné možnosti:
Další podrobnosti najdete v INVALID_OPTIONS
INVALID_PANDAS_UDF_PLACEMENT
Agregační funkci skupiny pandas UDF <functionList> nelze vyvolat společně s jinými agregačními funkcemi, které nejsou pandas.
INVALID_PARAMETER_MARKER_VALUE
Bylo poskytnuto neplatné mapování parametrů:
Další podrobnosti najdete v tématu INVALID_PARAMETER_MARKER_VALUE
INVALID_PARAMETER_VALUE
Hodnota parametrů <parameter> v <functionName> je neplatná:
Další podrobnosti najdete v tématu INVALID_PARAMETER_VALUE
INVALID_PARTITION_COLUMN_DATA_TYPE
Pro řádek oddílu nelze použít <type>.
INVALID_PARTITION_OPERATION
Příkaz oddílu je neplatný.
Další podrobnosti najdete v INVALID_PARTITION_OPERATION
INVALID_PARTITION_VALUE
Nepodařilo se přetypovat hodnotu <value> na datový typ <dataType> pro sloupec partice <columnName>. Ujistěte se, že hodnota odpovídá očekávanému datovému typu u tohoto sloupce oddílu.
INVALID_PIPELINE_ID
ID kanálu <pipelineId> není platné.
ID kanálu by mělo být UUID ve formátu xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxx.
INVALID_PRIVILEGE
<privilege> oprávnění není platné pro <securable>.
INVALID_PROPERTY_KEY
<key> je neplatný klíč vlastnosti, použijte uvozovky, například SET <key>=<value>.
INVALID_PROPERTY_VALUE
<value> je neplatná hodnota vlastnosti, použijte například uvozovky. SET <key>=<value>
INVALID_QUALIFIED_COLUMN_NAME
Název sloupce <columnName> je neplatný, protože není kvalifikovaný s názvem tabulky nebo se skládá z více než 4 částí názvu.
INVALID_QUERY_MIXED_QUERY_PARAMETERS
Parametrizovaný dotaz musí používat buď poziční, nebo pojmenované parametry, ale ne obojí.
INVALID_RECURSIVE_CTE
Byla nalezena neplatná rekurzivní definice. Rekurzivní dotazy musí obsahovat UNION příkaz nebo příkaz UNION ALL se 2 podřízenými objekty. První dítě musí být kotvící termín bez rekurzivních odkazů. Vnitřní CTE nejvyšší úrovně nesmí obsahovat odkazy na sebe samotné.
INVALID_RECURSIVE_REFERENCE
Byla nalezena neplatná rekurzivní reference uvnitř klauzule WITH RECURSIVE.
Další podrobnosti najdete v tématu INVALID_RECURSIVE_REFERENCE
INVALID_REGEXP_REPLACE
Nelze provést regexp_replace pro zdroj = "<source>", vzor = "<pattern>", nahrazení = "<replacement>" a pozice = <position>.
Neplatná závislost, kterou lze obnovit
Tabulky <upstreamResettableTables> jsou resetovatelné, ale mají nenulovatelnou podřízenou závislost<downstreamTable> .
reset selže, protože Streamování Sparku nepodporuje odstraněná zdrojová data. Vlastnost =false můžete buď odebrat <resetAllowedKey>z '<downstreamTable>' nebo ji přidat do nadřazených závislostí.
INVALID_RESET_COMMAND_FORMAT
Očekávaný formát je "RESET" nebo "RESET klíč". Pokud chcete do klíče zahrnout speciální znaky, použijte například RESET keyuvozovky.
INVALID_RESIGNAL_USAGE
RESIGNAL pokud obslužná rutina není aktivní.
RESIGNAL Příkaz lze použít pouze v těle obslužné rutiny výjimky.
INVALID_S3_COPY_CREDENTIALS
COPY INTO přihlašovací údaje musí obsahovat AWS_ACCESS_KEY, AWS_SECRET_KEYa AWS_SESSION_TOKEN.
INVALID_SAVE_MODE
Zadaný režim ukládání <mode> je neplatný. Mezi platné režimy ukládání patří "append", "overwrite", "ignore", "error", "errorifexists" a "default".
INVALID_SCHEMA
Vstupní schéma <inputSchema> není platný řetězec schématu.
Další podrobnosti viz INVALID_SCHEMA
INVALID_SCHEMA_OR_RELATION_NAME
<name> není platný název pro tabulky nebo schémata. Platné názvy obsahují pouze znaky abecedy, čísla a _.
INVALID_SCHEMA_TYPE_NON_STRUCT
Neplatný typ schématu Očekávejte typ struktury, ale získali <dataType>.
INVALID_SCHEME
Katalog Unity nepodporuje <name> jako výchozí schéma souborů.
INVALID_SECRET_LOOKUP
Neplatné vyhledávání tajných kódů:
Další podrobnosti najdete v tématu INVALID_SECRET_LOOKUP
INVALID_SET_SYNTAX
Očekávaný formát je 'SET', 'SET key' nebo 'SET key=value'. Pokud chcete do klíče zahrnout speciální znaky nebo do hodnoty zahrnout středník, použijte například SET key=valuezpětné citace .
INVALID_SHARED_ALIAS_NAME
Název <sharedObjectType> aliasu musí být ve formátu "schema.name".
INVALID_SINGLE_VARIANT_COLUMN
Schéma zadané <schema> uživatelem je neplatné, pokud singleVariantColumn je tato možnost povolená. Schéma musí být buď variantní pole, nebo variantní pole plus poškozené pole sloupce.
INVALID_SOURCE_CATALOG
Zdrojový katalog nesmí být v katalogu Unity pro příkaz SYNC. Nalezeno <catalog>.
INVALID_SOURCE_FOR_FILTERING_SERVICE_MERGE_COMMAND
Zdroj operace služby MERGE filtrování může obsahovat pouze projekce a filtry.
Upravte příkaz MERGE nebo jako zdroj použijte pracovní tabulku.
<stmt>
INVALID_SPARK_CONFIG
Neplatná konfigurace Sparku:
Další podrobnosti najdete v tématu INVALID_SPARK_CONFIG
INVALID_SQLSTATE
Neplatná SQLSTATE hodnota: '<sqlState>'.
SQLSTATE musí být přesně 5 znaků a musí obsahovat pouze A-Z a 0-9.
SQLSTATE nesmí začínat na 00, 01 nebo XX.
INVALID_SQL_ARG
Argument <name> z sql() je neplatný. Zvažte nahrazení buď literálem SQL, nebo funkcemi konstruktoru kolekce, například map(), array(), struct().
INVALID_SQL_FUNCTION_DATA_ACCESS
Nelze vytvořit funkci SQL s CONTAINS SQL, která přistupuje k tabulce nebo zobrazení nebo funkci SQL, která čte data SQL. Místo toho použijte READS SQL DATA.
INVALID_SQL_SYNTAX
Neplatná syntaxe SQL:
Další podrobnosti najdete v tématu INVALID_SQL_SYNTAX
INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY
Neplatná cesta určení v dotazu fáze <operation>: <path>
INVALID_STATEMENT_FOR_EXECUTE_INTO
Klauzule INTO z EXECUTE IMMEDIATE je platná pouze pro dotazy, ale daný příkaz není dotaz: <sqlString>.
INVALID_STATEMENT_OR_CLAUSE
Výraz nebo klauzule: <operation> není platná.
NEPLATNÝ_STREAMOVACÍ_RYCHLOST_ZDROJ_VERZE
Neplatná verze zdroje sazeb: <version>. Verze musí být buď 1, nebo 2.
INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_INTERVAL
Interval aktivační události v reálném čase je nastavený na <interval> ms. Toto je menší než minimální <minBatchDuration> ms trvání specifikované spark.databricks.streaming.realTimeMode.minBatchDuration.
INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_OVERRIDE_INTERVAL
Interval kontrolního <interval> bodu triggeru v reálném čase nelze analyzovat. Ověřte, že jste předali kladné celé číslo.
INVALID_SUBQUERY_EXPRESSION
Neplatný poddotaz:
Další podrobnosti naleznete viz INVALID_SUBQUERY_EXPRESSION
INVALID_TARGET_FOR_ALTER_COMMAND
ALTER <commandTableType>
...
<command> nepodporuje <tableName>. Místo toho použijte ALTER <targetTableType>...<command> .
INVALID_TARGET_FOR_SET_TBLPROPERTIES_COMMAND
ALTER <commandTableType>
...
SET TBLPROPERTIES nepodporuje <tableName>. Místo toho použijte ALTER <targetTableType>...SET TBLPROPERTIES .
INVALID_TEMP_OBJ_REFERENCE
Nelze vytvořit trvalý objekt <objName> typu <obj>, protože odkazuje na dočasný objekt <tempObjName> typu <tempObj>. Vytvořte dočasný objekt <tempObjName> trvalý nebo nastavte trvalý objekt <objName> dočasný.
INVALID_TIMESTAMP_FORMAT
Zadané časové razítko <timestamp> neodpovídá očekávané syntaxi <format>.
INVALID_TIMEZONE
Časové pásmo: <timeZone> je neplatné. Časové pásmo musí být buď ID zóny založené na regionu, nebo posun zóny. ID oblastí musí mít tvar "area/city", například "America/Los_Angeles". Posuny zóny musí být ve formátu (+|-)HH, (+|-)HH:mm nebo (+|-)HH:mm:ss, např. -08, +01:00 nebo -13:33:33 a musí být v rozsahu od -18:00 do +18:00. Slova Z a UTC se přijímají jako synonyma pro +00:00.
INVALID_TIME_TRAVEL_SPEC
Nelze určit jak verzi, tak časové razítko při cestování časem v tabulce.
INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
Výraz časového razítka časového cestování <expr> je neplatný.
Další podrobnosti naleznete pod INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
INVALID_TYPED_LITERAL
Hodnota zadaného literálu <valueType> je neplatná: <value>.
INVALID_UDF_IMPLEMENTATION
Funkce <funcName> neimplementuje ScalarFunction ani AggregateFunction.
INVALID_UPGRADE_SYNTAX
<command> <supportedOrNot> zdrojová tabulka je v metastoru Hive a cílová tabulka je v katalogu Unity.
INVALID_URL
Adresa URL je neplatná: <url>. Pomocí try_parse_url můžete tolerovat neplatnou adresu URL a místo toho vrátit NULL.
INVALID_USAGE_OF_STAR_OR_REGEX
Neplatné použití <elem> v <prettyName>.
INVALID_UTF8_STRING
Neplatná sekvence bajtů UTF8 nalezená v řetězci: <str>.
INVALID_UUID
Vstup <uuidInput> není platné UUID.
UUID by měl být ve formátu xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxx.
Zkontrolujte formát UUID.
INVALID_VARIABLE_DECLARATION
Neplatná deklarace proměnné
Další podrobnosti najdete v INVALID_VARIABLE_DECLARATION
INVALID_VARIANT_CAST
Hodnotu varianty <value> nelze přetypovat do <dataType>. Místo toho použijte try_variant_get.
INVALID_VARIANT_FROM_PARQUET
Neplatná varianta
Další podrobnosti najdete v části INVALID_VARIANT_FROM_PARQUET
INVALID_VARIANT_GET_PATH
Cesta <path> není platnou cestou extrakce variant v <functionName>.
Platná cesta by měla začínat $ a za ní následuje nula nebo více segmentů, jako je [123], .name, ['name'], nebo ["name"].
INVALID_VARIANT_SHREDDING_SCHEMA
Schéma <schema> není platným schématem pro variantní rozkládání.
INVALID_WHERE_CONDITION
Podmínka WHERE<condition> obsahuje neplatné výrazy: <expressionList>.
Přepište dotaz, aby se zabránilo funkcím oken, agregačním funkcím a funkcím generátoru v klauzuli WHERE.
INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC
Nelze zadat ORDER BY nebo rámeček okna pro <aggFunc>.
INVALID_WITHIN_GROUP_EXPRESSION
Neplatná funkce <funcName> s WITHIN GROUP.
Další podrobnosti najdete v tématu INVALID_WITHIN_GROUP_EXPRESSION
INVALID_WRITER_COMMIT_MESSAGE
Zapisovač zdroje dat vygeneroval neplatný počet commit zpráv. Očekávala se přesně jedna zpráva potvrzení od každého úkolu, ale obdrželi jsme <detail>.
INVALID_WRITE_DISTRIBUTION
Požadovaná distribuce zápisu je neplatná.
Další podrobnosti najdete na INVALID_WRITE_DISTRIBUTION
IRC_CREDENTIAL_VENDING_ERROR
Při připojování k hostiteli IRC došlo k chybě, která nemůže odeslat přihlašovací údaje pro tabulku <tableIdentifier>.
Další podrobnosti najdete v tématu IRC_CREDENTIAL_VENDING_ERROR
ISOLATED_COMMAND_FAILURE
Nepodařilo se spustit <command>. Výstup příkazu:
<output>
ISOLATED_COMMAND_UNKNOWN_FAILURE
Nepodařilo se spustit <command>.
ISOLATION_ENVIRONMENT_ERROR
Nepodařilo se nainstalovat závislosti prostředí kvůli <name> systémové chybě.
Další podrobnosti najdete v tématu ISOLATION_ENVIRONMENT_ERROR
ISOLATION_ENVIRONMENT_USER_ERROR
Nepodařilo se nainstalovat závislosti prostředí pro <name>.
Další podrobnosti najdete v tématu ISOLATION_ENVIRONMENT_USER_ERROR
JDBC_EXTERNAL_ENGINE_SYNTAX_ERROR
Chyba syntaxe externího modulu JDBC Příčinou chyby byl dotaz <jdbcQuery>.
<externalEngineError>.
Další podrobnosti najdete v tématu JDBC_EXTERNAL_ENGINE_SYNTAX_ERROR
JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE
Podmínka spojení <joinCondition> má neplatný typ <conditionType>, očekáván byl "BOOLEAN".
KAFKA_DATA_LOSS
Některá data můžou být ztracena, protože už nejsou k dispozici v systému Kafka;
Buď byla data vypršela platností u platformy Kafka, nebo mohlo být téma smazáno dříve, než byla všechna data v něm.
téma bylo zpracováno.
Pokud nechcete, aby dotaz streamování v takových případech selhal, nastavte možnost zdroje failOnDataLoss na false.
Reason:
Další podrobnosti najdete v KAFKA_DATA_LOSS
KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET
Nelze číst, dokud nebude dosaženo požadovaného pořadového čísla <endSeqNum> pro fragment <shardId>.
proud Kinesis <stream> v režimu pro spotřebitele <consumerMode>. Dotaz selže kvůli
potenciální ztrátu dat. Poslední čtený záznam byl na pořadovém čísle <lastSeqNum>.
K tomu může dojít v případě, že data s endSeqNum se již vysloužila, nebo že datový tok Kinesis byl přerušen.
odstraněny a znovuvytvořeny se stejným názvem. Chování v případě selhání lze přepsat.
nastavením spark.databricks.kinesis.failOnDataLoss na false v konfiguraci Sparku.
KINESIS_EFO_CONSUMER_NOT_FOUND
U kinesis streamu <streamId> byl odstraněn dříve registrovaný spotřebitel EFO <consumerId>.
Restartujte dotaz, aby se zaregistroval nový příjemce.
KINESIS_EFO_SUBSCRIBE_LIMIT_EXCEEDED
U shardu <shard>bylo předchozí volání API subscribeToShard do 5 sekund před dalším voláním.
Restartujte dotaz po 5 sekundách nebo déle.
KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD
Minimální načtený shardId z Kinesis (<fetchedShardId>)
je menší než minimální sledovaný identifikátor shardu (<trackedShardId>).
K tomu dochází neočekávaně, když je datový proud Kinesis odstraněn a znovu vytvořen se stejným názvem.
streamovací dotaz využívající tento Kinesis stream se restartuje z existujícího kontrolního bodu.
Restartujte streamovací dotaz s novým umístěním kontrolního bodu nebo vytvořte datový proud s novým názvem.
KINESIS_POLLING_MODE_UNSUPPORTED
Režim dotazování kinesis není podporován.
KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION
U segmentu <shard>má poslední záznam, který byl přečten z Kinesis v předchozích načteních, pořadové číslo <lastSeqNum>.
který je větší než záznam přečtený při aktuálním načítání s pořadovým číslem <recordSeqNum>.
K tomu dochází neočekávaně a může dojít, když je počáteční pozice opakování nebo dalšího načtení nesprávně inicializována a může vést k duplicitním záznamům v podřízené oblasti.
KINESIS_SOURCE_MUST_BE_IN_EFO_MODE_TO_CONFIGURE_CONSUMERS
Aby bylo možné číst z Kinesis Streamů s konfiguracemi příjemců (consumerName, consumerNamePrefixnebo registeredConsumerId), consumerMode musí být efo.
KINESIS_SOURCE_MUST_SPECIFY_REGISTERED_CONSUMER_ID_AND_TYPE
Pokud chcete číst ze streamů Kinesis s registrovanými příjemci, musíte zadat registeredConsumerId i registeredConsumerIdType možnosti.
KINESIS_SOURCE_MUST_SPECIFY_STREAM_NAMES_OR_ARNS
Pokud chcete číst ze streamů Kinesis, musíte nakonfigurovat buď možnost streamName, nebo streamARN jako seznam názvů datových proudů/ARN oddělených čárkami.
KINESIS_SOURCE_NO_CONSUMER_OPTIONS_WITH_REGISTERED_CONSUMERS
Pokud chcete číst ze streamů Kinesis s registrovanými příjemci, nenakonfigurujte možnosti consumerName ani consumerNamePrefix, protože se neprojeví.
KINESIS_SOURCE_REGISTERED_CONSUMER_ID_COUNT_MISMATCH
Počet registrovaných identifikátorů spotřebitelů by se měl rovnat počtu datových proudů Kinesis, ale bylo zjištěno <numConsumerIds> identifikátorů spotřebitelů a <numStreams> datových proudů.
KINESIS_SOURCE_REGISTERED_CONSUMER_NOT_FOUND
Registrovaný příjemce <consumerId> nebyl nalezen pro streamARN <streamARN>. Ověřte, že jste zaregistrovali zákazníka, nebo nezadávejte možnost registeredConsumerId.
KINESIS_SOURCE_REGISTERED_CONSUMER_TYPE_INVALID
Registrovaný typ příjemce <consumerType> je neplatný. Musí to být buď name, nebo ARN.
KLL_SKETCH_INCOMPATIBLE_MERGE
Pro funkci <functionName>nelze sloučit skici KLL: <reason>
KLL_SKETCH_INVALID_INPUT
Pro funkci <functionName>, neplatná binární data skice KLL: <reason>
KLL_SKETCH_INVALID_QUANTILE_RANGE
Pro funkci <functionName>musí být kvantová hodnota v rozmezí od 0,0 do 1,0 (včetně), ale musí mít <quantile>hodnotu .
KLL_SKETCH_K_MUST_BE_CONSTANT
Pro funkci <functionName>musí být parametr k konstantní hodnotou, ale získal nekontinuární výraz.
KLL_SKETCH_K_OUT_OF_RANGE
Pro funkci <functionName>musí být parametr k mezi 8 a 65535 (včetně), ale musí mít <k>hodnotu .
KRYO_BUFFER_OVERFLOW
Serializace Kryo se nezdařila: <exceptionMsg>. Chcete-li tomu zabránit, zvyšte hodnotu "<bufferSizeConfKey>".
LABELS_MISMATCH
Počáteční popisek <beginLabel> neodpovídá koncovému popisku <endLabel>.
Štítek nebo proměnná již existuje
Label nebo FOR proměnná <label> již existuje. Zvolte jiný název nebo existující název přejmenujte.
LABEL_OR_FOR_VARIABLE_NAME_FORBIDDEN
Název popisku nebo FOR proměnné <label> je zakázaný.
LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION
Datový zdroj federačních dat Lakehouse „<provider>“ vyžaduje novější verzi Databricks Runtime.
Další podrobnosti najdete v LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION
LATERAL_JOIN_WITH_ARROW_UDTF_UNSUPPORTED
LATERAL
JOIN uživatelsky definované tabulkové funkce optimalizované pomocí Arrow (UDTFs) nejsou podporovány. Arrow UDTF nelze použít na pravé straně laterálního spojení.
Místo toho použijte běžný UDTF nebo změňte strukturu dotazu, abyste se vyhnuli laterálnímu spojení.
LEGACY_CREATE_TEMP_TABLE_WITHOUT_PROVIDER_NOT_SUPPORTED
CREATE TEMPORARY TABLE bez poskytovatele není povoleno.
LOAD_DATA_PATH_NOT_EXISTS
LOAD DATA vstupní cesta neexistuje: <path>.
LOCAL_MUST_WITH_SCHEMA_FILE
LOCAL musí být použito společně se schématem file, ale bylo použito: <actualSchema>.
LOCATION_ALREADY_EXISTS
Spravovanou tabulku nelze pojmenovat jako <identifier>, protože její přidružené umístění <location> již existuje. Nejdřív vyberte jiný název tabulky nebo odeberte existující umístění.
LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW
Během spuštění dotazu s Trigger.AvailableNow došlo ke ztrátě některých oddílů v Kafka tématech. Chyba může být přechodná – restartujte dotaz a nahlaste, pokud se stále zobrazuje stejný problém.
témata-partice pro nejnovější offset: <tpsForLatestOffset>, témata-partice pro koncový offset: <tpsForEndOffset>
MALFORMED_AVRO_MESSAGE
Chybně formátované zprávy Avro se detekují v deserializaci zpráv. Režim analýzy: <mode>. Pokud chcete zpracovat špatně formátovanou zprávu Avro jako výsledek null, zkuste nastavit možnost mode jako "PERMISSIVE".
MALFORMED_CHARACTER_CODING
Při provádění <function> s <charset> byla nalezena neplatná hodnota
MALFORMED_CSV_RECORD
Poškozený záznam CSV: <badRecord>
MALFORMED_LOG_FILE
Soubor protokolu byl poškozený: Nepodařilo se přečíst správnou verzi protokolu z <text>.
MALFORMED_PROTOBUF_MESSAGE
Chybně formátované zprávy Protobuf jsou zjištěny v deserializaci zpráv. Režim analýzy: <failFastMode>. Zkuste nastavit režim 'PERMISSIVE', pokud chcete špatně formátovanou zprávu protobuf zpracovat jako prázdný výsledek.
MALFORMED_RECORD_IN_PARSING
V analýze záznamů jsou zjištěny poškozené záznamy: <badRecord>.
Režim analýzy: <failFastMode>. Pokud chcete zpracovat poškozené záznamy jako nulový výsledek, zkuste nastavit možnost „mode“ jako "PERMISSIVE".
Další podrobnosti najdete v tématu MALFORMED_RECORD_IN_PARSING
MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE
Poškozený stav ve zdroji RatePerMicroBatch.
Další podrobnosti najdete v tématu MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE
MALFORMED_VARIANT
Binární formát varianty je poškozený. Zkontrolujte, jestli je zdroj dat platný.
MANAGED_ICEBERG_ATTEMPTED_TO_ENABLE_CLUSTERING_WITHOUT_DISABLING_DVS_OR_ROW_TRACKING
Pokusil se povolit clustering Liquid ve spravované tabulce Apache Iceberg bez zakázání vektorů odstranění i sledování řádků. Vektory odstranění a sledování řádků nejsou podporovány pro spravované tabulky Apache Iceberg, ale vyžadují se pro souběžnost na úrovni řádků s tabulkami Liquid. Chcete-li povolit clustering Liquid ve spravované tabulce Apache Iceberg s omezenou kontrolou souběžnosti, musí být pro tuto tabulku zakázané vektory odstranění a sledování řádků.
MANAGED_ICEBERG_OPERATION_NOT_SUPPORTED
Spravované tabulky Apache Iceberg nepodporují <operation>.
MANAGED_TABLE_WITH_CRED
Vytvoření spravované tabulky s přihlašovacími údaji úložiště se nepodporuje.
MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID
Nelze <refreshType> materializované zobrazení, protože vzniklo před existencí pipelineId. Chcete-li povolit <refreshType>, odstraňte a znovu vytvořte materializované zobrazení.
MATERIALIZED_VIEW_NOT_INCREMENTALIZABLE
Nelze vytvořit materializované zobrazení se <refreshPolicy> zásadami aktualizace, protože není podporováno pro přírůstkovou aktualizaci. Reason:
Další podrobnosti najdete v tématu MATERIALIZED_VIEW_NOT_INCREMENTALIZABLE
MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
Operace materializovaného zobrazení <operation> není povolená:
Další podrobnosti najdete v MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS
Výstupní výraz <expression> v materializovaném zobrazení musí být explicitně aliasovaný.
MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID
Materializované zobrazení <name> nelze vytvořit pomocí streamovaného dotazu. Pokud chcete tento vztah převést na dávkový dotaz, použijte CREATE [NEBO REFRESH] STREAMING TABLE nebo odeberte STREAM klíčové slovo do klauzule FROM .
MATERIALIZED_VIEW_UNSUPPORTED_OPERATION
V současné době se operace <operation> v materializovaných zobrazeních nepodporuje.
MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED
Novou proměnnou nelze vytvořit <variableName>, protože počet proměnných v relaci překračuje maximální povolený počet (<maxNumVariables>).
MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE
maxRecordsPerFetch musí být kladné celé číslo menší nebo rovno <kinesisRecordLimit>
MCV_INVALID_INPUT_SKETCH_BUFFER
Neplatné volání <function>; jsou podporovány pouze platné vyrovnávací paměti MCV skic jako vstupy (například ty, které vytvořila mcv_collect_internal funkce).
MERGE_CARDINALITY_VIOLATION
ON hledací podmínka příkazu MERGE odpovídala jednomu řádku z cílové tabulky oproti více řádkům zdrojové tabulky.
To může vést k tomu, že cílový řádek je zpracováván vícekrát operací aktualizace nebo odstranění, což není povoleno.
MERGE_WITHOUT_WHEN
V příkazu WHEN musí existovat alespoň jedna klauzule MERGE.
METRIC_CONSTRAINT_NOT_SUPPORTED
METRIC CONSTRAINT není povolená.
METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
Zadaná hodnota "<argValue>" není podporována argumentem "<argName>" pro METRIC_STORE funkci tabulky.
Další podrobnosti najdete v tématu METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
METRIC_STORE_UNSUPPORTED_ERROR
<routineName> Rutina úložiště metrik je v tomto prostředí nyní deaktivována.
METRIC_VIEW_AMBIGUOUS_JOIN_CRITERIA
Definice zobrazení metriky obsahuje spojení s nejednoznačnými kritérii: <expr>. [Použijte using kritéria pro spojení nebo explicitně specifikujte sloupce pomocí aliasu <sourceAlias>.]
METRIC_VIEW_CACHE_TABLE_NOT_SUPPORTED
Zobrazení metriky nesmí používat tabulky mezipaměti.
METRIC_VIEW_FEATURE_DISABLED
Funkce zobrazení metrik je zakázaná. Ujistěte se, že je hodnota spark.databricks.sql.metricView.enabled nastavená na hodnotu true.
METRIC_VIEW_INVALID_MEASURE_FUNCTION_INPUT
Funkce MEASURE() přebírá jako vstup pouze atribut, ale získal <expr>
METRIC_VIEW_INVALID_VIEW_DEFINITION
Definice zobrazení metriky je neplatná. Důvod: <reason>.
METRIC_VIEW_IN_CTE_NOT_SUPPORTED
Zobrazení metrik není v definicích CTE povolené. plán: <plan>
METRIC_VIEW_JOIN_NOT_SUPPORTED
Zobrazení metriky nesmí používat propojování. plán: <plan>
METRIC_VIEW_MATERIALIZATIONS_DISABLED
Zakázána je materializace zobrazení metrik. Ujistěte se, že je hodnota spark.databricks.sql.metricView.materializations.enabled nastavená na hodnotu true.
METRIC_VIEW_MATERIALIZATIONS_UNAGGREGATED_WITH_METRIC_VIEW
Neagregovaná materializace není podporována, pokud zobrazení metrik odkazuje na jiná zobrazení metrik.
METRIC_VIEW_MATERIALIZATION_ON_TEMPORARY_VIEW_NOT_SUPPORTED
Materializace není podporována v dočasných zobrazeních metrik.
METRIC_VIEW_MATERIALIZATION_WITH_INVOKER_DEPENDENT_EXPRESSIONS_NOT_SUPPORTED
Materializace není podporována pro zobrazení metrik obsahující výrazy závislé na invokeru. Tyto výrazy brání opětovnému použití materializace.
METRIC_VIEW_MEASURE_IN_GROUP_BY
<measureColumns> Sloupce míry nelze použít v GROUP BY klauzuli nebo jako kategorické hodnoty. Doporučujeme je zabalit pomocí agregační funkce, například SUMA() pro očekávané chování.
METRIC_VIEW_MISSING_MEASURE_FUNCTION
Použití sloupce měřicího <column> v rámci metrikového zobrazení vyžaduje funkci MEASURE() k vytvoření výsledků.
METRIC_VIEW_NOT_MATERIALIZED
Volal se příkaz materializovaného zobrazení v zobrazení metrik bez definovaných materializací
Další podrobnosti najdete v tématu METRIC_VIEW_NOT_MATERIALIZED
METRIC_VIEW_NOT_SUPPORTED_IN_HMS
V HMS nejsou zobrazení metrik podporována.
METRIC_VIEW_RENAME_DIFFERENT_CATALOG_AND_SCHEMA
Metrické zobrazení <oldName> není povoleno přejmenovat na jiný katalog nebo schéma: <newName>.
METRIC_VIEW_SNOWFLAKE_JOIN_FEATURE_DISABLED
Funkce snowflake join v zobrazení metrik je zakázaná. Ujistěte se, že je hodnota spark.databricks.sql.metricView.snowflake.join.enable nastavená na hodnotu true.
METRIC_VIEW_UNSUPPORTED_USAGE
Využití zobrazení metrik není podporováno. plán: <plan>
METRIC_VIEW_WINDOW_FUNCTION_NOT_SUPPORTED
Zobrazení metriky nesmí používat funkci okna <expr>.
METRIC_VIEW_YAML_V11_DISABLED
Zobrazení metrik YAML verze 1.1 je zakázané. Ujistěte se, že je hodnota spark.databricks.sql.metricView.yaml.v11.enabled nastavená na hodnotu true.
MIGRATION_NOT_SUPPORTED
<table> není podporováno pro migraci na spravovanou tabulku UC, protože není tabulkou typu <tableKind>.
Ujistěte se, že migrovaná tabulka je tabulka UC externí delta a
Odkazuje se na něj podle názvu namísto cesty.
MIGRATION_ROLLBACK_NOT_SUPPORTED
<table> nepodporuje vrácení zpět do spravované externí tabulky, protože se nejedná o <tableKind> tabulku.
MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED
Zdroj dat Kafka v Trigger.AvailableNow by měl poskytovat stejné oddíly témat od předem načtených posunů až do koncových posunů pro každou mikrodávku. Chyba může být přechodná – restartujte dotaz a nahlaste, pokud se stále zobrazuje stejný problém.
oddíly témat pro předem načtený přírůstek: <tpsForPrefetched>, oddíly témat pro koncový přírůstek: <tpsForEndOffset>.
MISSING_AGGREGATION
Neagregační výraz <expression> je založený na sloupcích, které se neúčastní v klauzuli GROUP BY.
Přidejte sloupce nebo výraz do GROUP BY, agregujte výraz nebo použijte <expressionAnyValue>, pokud nezajímáte, které hodnoty v rámci skupiny se vrátí.
Další podrobnosti najdete v tématu MISSING_AGGREGATION
MISSING_CATALOG_ABILITY
Katalog <plugin> nepodporuje
Další podrobnosti najdete v MISSING_CATALOG_ABILITY
MISSING_CLAUSES_FOR_OPERATION
Chybějící klauzule <clauses> pro operaci <operation>. Přidejte požadované klauzule.
MISSING_CONNECTION_OPTION
Připojení typu '<connectionType>' musí obsahovat následující možnosti: <requiredOptions>.
MISSING_DATABASE_FOR_V1_SESSION_CATALOG
V katalogu relací v1 není specifikován název databáze. Při interakci s katalogem v1 nezapomeňte zadat platný název databáze.
MISSING_GROUP_BY
Dotaz neobsahuje klauzuli GROUP BY. Přidejte GROUP BY nebo ho pomocí klauzulí OVER přepněte do funkcí okna.
MISSING_NAME_FOR_CHECK_CONSTRAINT
CHECK omezení musí mít název.
MISSING_PARAMETER_FOR_KAFKA
Parametr <parameterName> se vyžaduje pro Kafka, ale není zadaný v <functionName>.
MISSING_PARAMETER_FOR_ROUTINE
Parametr <parameterName> je povinný, ale není zadán v <functionName>.
MISSING_SCHEDULE_DEFINITION
Je nutné zadat definici plánu podle SCHEDULE.
MISSING_TIMEOUT_CONFIGURATION
Vypršel časový limit operace, ale není nakonfigurována doba časového limitu. Pokud chcete nastavit časový limit zpracování, použijte groupState.setTimeoutDuration() v operaci mapGroupsWithState nebo flatMapGroupsWithState. V případě časového limitu založeného na událostech použijte GroupState.setTimeoutTimestamp() a definujte vodoznak pomocí dataset.withWatermark().
MISSING_WINDOW_SPECIFICATION
Specifikace okna není definována v klauzuli WINDOW pro <windowName>. Další informace o WINDOW klauzulích najdete v tématu<docroot> /sql-ref-syntax-qry-select-window.html.
MODIFY_BUILTIN_CATALOG
Úpravy vestavěného katalogu <catalogName> se nepodporují.
MULTIPART_FLOW_NAME_NOT_SUPPORTED
Tok s vícedílným názvem '<flowName>' není podporován.
MULTIPLE_EXCEL_DATA_SOURCE
Zjistilo se více zdrojů dat Aplikace Excel s názvem <provider> (<sourceNames>). Zadejte plně kvalifikovaný název třídy nebo odeberte <externalSource> z classpathu.
MULTIPLE_LOAD_PATH
Databricks Delta nepodporuje více vstupních cest v rozhraní API load().
cesty: <pathList>. Vytvoření jediného datového rámce načtením
existuje několik cest z jedné tabulky Delta, prosím načtěte její kořenovou cestu.
tabulka Delta s odpovídajícími filtry pro dělení. Pokud je více cest
jsou z odlišných tabulek Delta, použijte API union()/unionByName() datové sady.
pro kombinování datových rámců vygenerovaných samostatnými voláními rozhraní API load().
MULTIPLE_MATCHING_CONSTRAINTS
Našli jsme aspoň dvě odpovídající omezení s danou podmínkou.
MULTIPLE_QUERY_RESULT_CLAUSES_WITH_PIPE_OPERATORS
<clause1> a <clause2> nemohou být použity ve stejném SQL operátoru kanálu s '|>'. Oddělte více klauzulí výsledku do samostatných operátorů kanálu a pak dotaz opakujte.
MULTIPLE_TIME_TRAVEL_SPEC
Nelze specifikovat cestování v čase současně v klauzuli cestování v čase a možnostech.
MULTIPLE_XML_DATA_SOURCE
Zjistilo se více zdrojů dat s názvem <provider> (<sourceNames>). Zadejte plně kvalifikovaný název třídy nebo odeberte <externalSource> z classpathu.
MULTI_ALIAS_WITHOUT_GENERATOR
Aliasing s více částmi (<names>) není u <expr> podporován, protože se nejedná o funkci generátoru.
MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION
Výraz <expr> nepodporuje více než jeden zdroj.
MULTI_SOURCE_METRIC_VIEW_MEASURE_REFERENCING_DIMENSION
Sloupec <measureColumn> míry v zobrazení metriky nemůže odkazovat na sloupce dimenzí (<dimensionColumn>).
MULTI_SOURCE_METRIC_VIEW_UNQUALIFIED_MEASURE_REF
Odkaz na sloupec <measureColumn> nekvalifikované míry v zobrazení metrik s více zdroji není povolený. Opravněte sloupec míry pomocí zdrojového aliasu.
MULTI_SOURCE_METRIC_VIEW_UNSUPPORTED_EXPRESSION
Agregační výraz nad více zdroji v zobrazení metriky není podporován: <expr>.
MULTI_UDF_INTERFACE_ERROR
Není povoleno implementovat více rozhraní UDF, UDF třídy <className>.
MUTUALLY_EXCLUSIVE_CLAUSES
Vzájemně se vylučující klauzule nebo možnosti <clauses>. Odeberte jedno z těchto ustanovení.
MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE
Vstupní dotaz očekává <expectedType>, ale podkladová tabulka je <givenType>.
NAMED_PARAMETERS_NOT_SUPPORTED
Pojmenované parametry nejsou podporovány pro funkci <functionName>; Zkuste dotaz zopakovat s pozičními argumenty volání funkce.
NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS
Nelze volat funkci <functionName>, protože odkazy na pojmenované argumenty nejsou podporovány. V tomto případě byl pojmenovaný odkaz na argument <argument>.
NAMED_PARAMETER_SUPPORT_DISABLED
Nelze volat funkci <functionName>, protože zde nejsou podporovány odkazy na pojmenované argumenty.
V tomto případě byl pojmenovaný odkaz na argument <argument>.
Pokud chcete zapnout funkci, nastavte "spark.sql.allowNamedFunctionArguments" na hodnotu true.
NAMESPACE_ALREADY_EXISTS
Nelze vytvořit obor názvů <nameSpaceName>, protože již existuje.
Zvolte jiný název, zrušte existující obor názvů nebo přidejte klauzuli IF NOT EXISTS pro tolerování již existujícího oboru názvů.
NAMESPACE_NOT_EMPTY
Jmenný prostor nelze odstranit, protože obsahuje objekty. (<nameSpaceNameName>)
Slouží DROP NAMESPACE...CASCADE k vyřazení oboru názvů a všech jeho objektů.
NAMESPACE_NOT_FOUND
Obor názvů <nameSpaceName> nebyl nalezen. Ověřte pravopis a správnost jmenného prostoru.
Pokud jste název nepříslušně specifikovali, ověřte výstup current_schema() nebo proveďte správné specifikování názvu.
Chcete-li tolerovat chybu při poklesu, použijte DROP NAMESPACE IF EXISTS.
NATIVE_IO_ERROR
Původní požadavek se nezdařil. requestId: <requestId>, cloud: <cloud>, operation: <operation>
požadavek: [https: <https>, method = <method>, path = <path>, params = <params>, host = <host>, headers = <headers>, bodyLen = <bodyLen>],
chyba: <error>
NATIVE_XML_DATA_SOURCE_NOT_ENABLED
Nativní zdroj dat XML není v tomto clusteru povolený.
NEGATIVE_SCALE_DISALLOWED
Záporné měřítko není povoleno: '<scale>'. Nastavte konfiguraci <sqlConf> na true a povolte ji.
NEGATIVE_VALUES_IN_FREQUENCY_EXPRESSION
Byla nalezena záporná hodnota v <frequencyExpression>: <negativeValue>, ale byla očekávána kladná celočíselná hodnota.
NESTED_AGGREGATE_FUNCTION
Není povoleno používat agregační funkci v argumentu jiné agregační funkce. V dílčím dotazu použijte vnitřní agregační funkci.
NESTED_EXECUTE_IMMEDIATE
Vnořené příkazy EXECUTE IMMEDIATE nejsou povolené. Ujistěte se, že zadaný dotaz SQL (<sqlString>) neobsahuje jiný příkaz EXECUTE IMMEDIATE.
NESTED_REFERENCES_IN_LATERAL_SUBQUERY_NOT_SUPPORTED
Zjistily se odkazy <expression> na vnější obor v laterálním poddotazu, který není podporován. Ujistěte se, že laterální poddotaz neobsahuje poddotazy, které odkazují na atributy z vnořených vnějších oborů.
To improve faithfulness and fluency while considering context-sensitivity: ponechání výrazu jako konstantu nebo prohlášení k chybové hlášce by mohlo být nezbytné.
Byly zjištěny odkazy <expression> na vnější rozsah v poddotazu, což není podporováno.
NOVÉ_PORUŠENÍ_KONTROLY_OHRANIČENÍ
Nové omezení kontroly (<expression>) nelze přidat, protože by bylo porušeno existujícími daty v tabulce <tableName>. Před přidáním ověřte, že všechny existující řádky splňují omezení.
NONEXISTENT_FIELD_NAME_IN_LIST
Pole <nonExistFields> neexistují. Dostupná pole: <fieldNames>
NON_DETERMINISTIC_CHECK_CONSTRAINT
Omezení <checkCondition> kontroly není deterministické. Omezení kontroly musí obsahovat pouze deterministické výrazy.
NON_FOLDABLE_ARGUMENT
Funkce <funcName> vyžaduje, aby parametr <paramName> byl skládací výraz typu <paramType>, ale skutečný argument je nepřeložitelný.
NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Pokud je v příkazu MATCHED více než jedna klauzule MERGE, může podmínku vynechat pouze poslední klauzule MATCHED.
NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Pokud je v příkazu NOT MATCHED BY SOURCE více než jedna klauzule MERGE, může podmínku vynechat pouze poslední klauzule NOT MATCHED BY SOURCE.
NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION
Pokud je v příkazu NOT MATCHED [BY TARGET] více než jedna klauzule MERGE, může podmínku vynechat pouze poslední klauzule NOT MATCHED [BY TARGET].
NON_LITERAL_PIVOT_VALUES
Požadované literální výrazy pro hodnoty kontingenčního bodu, nalezeny <expression>.
NON_PARTITION_COLUMN
PARTITION klauzule nemůže obsahovat nepartiční sloupec: <columnName>.
NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING
Funkce okna není v <windowFunc> (jako sloupec <columnName>) u streamovaných datových rámců a datových sad podporována.
Strukturované streamování podporuje pouze agregaci časových intervalů pomocí funkce WINDOW. (specifikace okna: <windowSpec>)
NOT_ALLOWED_IN_FROM
V klauzuli FROM není povoleno:
Pro podrobnější informace se podívejte na NOT_ALLOWED_IN_FROM
NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE
V klauzuli WHERE potrubí není povoleno:
Další podrobnosti naleznete v NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE
NOT_A_CONSTANT_STRING
Výraz <expr> použitý pro rutinu nebo klauzuli <name> musí být konstantou STRING, která je NOT NULL.
Další podrobnosti najdete v tématu NOT_A_CONSTANT_STRING
NOT_A_PARTITIONED_TABLE
Operace <operation> není pro <tableIdentWithDB> povolená, protože se nejedná o dělenou tabulku.
NOT_A_SCALAR_FUNCTION
<functionName> se zde zobrazuje jako skalární výraz, ale funkce byla definována jako tabulková funkce. Aktualizujte dotaz, aby se volání funkce přesunulo do klauzule FROM nebo místo toho předefinujte <functionName> jako skalární funkci.
NOT_A_TABLE_FUNCTION
<functionName> se zde zobrazuje jako tabulková funkce, ale funkce byla definována jako skalární funkce. Aktualizujte dotaz, aby se volání funkce přesunulo mimo klauzuli FROM nebo místo toho předefinujte <functionName> jako funkci tabulky.
NOT_ENOUGH_ARGS
Funkce <functionName> očekává alespoň <minNum> parametry, ale přijímá <actualNum> (<actualArgs>).
NOT_NULL_ASSERT_VIOLATION
NULL hodnota se objevila v nepovolitelném poli: <walkedTypePath>Pokud je schéma odvozeno z tuple/případové třídy Scala, nebo z Java Bean, zkuste použít scala.Option[_] nebo jiné typy s možnou hodnotou null (například java.lang.Integer místo int/scala.Int).
NOT_NULL_CONSTRAINT_VIOLATION
Přiřazení NULL zde není dovoleno.
Další podrobnosti najdete v tématu NOT_NULL_CONSTRAINT_VIOLATION
NOT_SUPPORTED_CHANGE_COLUMN
ALTER TABLE ALTER
/
CHANGE COLUMN není podporováno pro změnu <table>sloupce <originName> typu <originType> na <newName> typ <newType>.
NOT_SUPPORTED_CHANGE_SAME_COLUMN
ALTER TABLE ALTER
/
CHANGE COLUMN nepodporuje změnu <table>sloupce <fieldName> včetně vnořených polí vícekrát ve stejném příkazu.
NOT_SUPPORTED_COMMAND_FOR_V2_TABLE
<cmd> se nepodporuje pro tabulky v2.
NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT
<cmd> není podporováno, pokud ho chcete povolit, nastavte "spark.sql.catalogImplementation" na "hive".
NOT_SUPPORTED_IN_JDBC_CATALOG
Nepodporovaný příkaz v katalogu JDBC:
Další podrobnosti najdete v tématu NOT_SUPPORTED_IN_JDBC_CATALOG
NOT_SUPPORTED_WITH_DB_SQL
<operation> není podporován na SQL <endpoint>.
NOT_SUPPORTED_WITH_SERVERLESS
<operation> se nepodporuje na výpočetních prostředcích bez serveru.
NOT_UNRESOLVED_ENCODER
Nedořešený enkodér se očekával, ale <attr> byl zjištěn.
NO_ACTIVE_TRANSACTION
Neexistuje žádná aktivní transakce na <action>.
NO_DEFAULT_COLUMN_VALUE_AVAILABLE
Nelze určit výchozí hodnotu <colName> , protože nemá hodnotu null a nemá výchozí hodnotu.
NO_HANDLER_FOR_UDAF
Žádná obslužná rutina pro UDAF<functionName> . Místo toho použijte sparkSession.udf.register(...).
NO_MERGE_ACTION_SPECIFIED
Funkci df.mergeInto musí následovat alespoň jedna z možností: whenMatched, whenNotMatched nebo whenNotMatchedBySource.
NO_PARENT_EXTERNAL_LOCATION_FOR_PATH
Pro cestu '<path>' nebylo nalezeno žádné nadřazené externí umístění. Vytvořte externí umístění na jednom z nadřazených adresářů a poté zkuste dotaz nebo příkaz znovu.
NO_PRIMARY_KEY_CONSTRAINT_EXCEPTION
TABLE <table> nemá omezení primárního klíče.
NO_SQL_TYPE_IN_PROTOBUF_SCHEMA
Ve schématu Protobuf nelze najít <catalystFieldPath>.
NO_STORAGE_LOCATION_FOR_TABLE
SQLSTATE: žádný přiřazený
Při generování přihlašovacích údajů tabulky se pro tabulku<tableId> nenašlo žádné umístění úložiště. Ověřte typ tabulky a adresu URL umístění tabulky a pak zkuste dotaz nebo příkaz zopakovat.
NO_SUCH_CATALOG_EXCEPTION
Katalog '<catalog>' nebyl nalezen. Ověřte název katalogu a pak zkuste dotaz nebo příkaz zopakovat.
NO_SUCH_CLEANROOM_EXCEPTION
SQLSTATE: žádný přiřazený
Čistý pokoj '<cleanroom>' neexistuje. Ověřte, že je název čisté místnosti správně napsaný a odpovídá názvu platné existující čisté místnosti, a pak zkuste dotaz nebo příkaz zopakovat.
NO_SUCH_CONSTRAINT_EXCEPTION
<constraint> Omezení nebylo nalezeno v <identifier>souboru .
NO_SUCH_CREDENTIAL_EXCEPTION
Přihlašovací údaje<credential> neexistují. Ověřte, že je název přihlašovacích údajů správně napsaný a odpovídá názvu platného existujícího přihlašovacího údaje, a pak zkuste dotaz nebo příkaz zopakovat.
NO_SUCH_EXTERNAL_LOCATION_EXCEPTION
SQLSTATE: žádný přiřazený
Externí umístění '<externalLocation>' neexistuje. Ověřte, že je název externího umístění správný, a pak zkuste dotaz nebo příkaz zopakovat.
NO_SUCH_METASTORE_EXCEPTION
SQLSTATE: žádný přiřazený
Metastore nebyl nalezen. Požádejte správce účtu, aby přiřadil metastor k aktuálnímu pracovnímu prostoru a zkuste dotaz nebo příkaz zopakovat.
NO_SUCH_PROVIDER_EXCEPTION
SQLSTATE: žádný přiřazený
Zprostředkovatel sdílení '<providerName>' neexistuje. Ověřte, že je název zprostředkovatele sdílené složky správně napsaný a odpovídá názvu platného existujícího názvu zprostředkovatele, a pak zkuste dotaz nebo příkaz zopakovat.
NO_SUCH_RECIPIENT_EXCEPTION
SQLSTATE: žádný přiřazený
Příjemce '<recipient>' neexistuje. Ověřte, že je jméno příjemce zadáno správně a odpovídá jménu platného existujícího příjemce, a pak zkuste dotaz nebo příkaz zopakovat.
NO_SUCH_SHARE_EXCEPTION
SQLSTATE: žádný přiřazený
Sdílená složka<share> neexistuje. Ověřte, že je název sdílené složky správně napsaný a odpovídá názvu platné existující sdílené složky, a pak zkuste dotaz nebo příkaz zopakovat.
NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION
SQLSTATE: žádný přiřazený
Přihlašovací údaj úložiště '<storageCredential>' neexistuje. Ověřte, že je název přihlašovacích údajů úložiště správně napsaný a odpovídá názvu platného existujícího přihlašovacích údajů úložiště, a pak zkuste dotaz nebo příkaz zopakovat.
NO_SUCH_USER_EXCEPTION
SQLSTATE: žádný přiřazený
Uživatel<userName> '' neexistuje. Ověřte, že je uživatel, kterému udělíte oprávnění nebo změníte vlastnictví, zadán správně, a odpovídá názvu platného existujícího uživatele, a potom zkuste dotaz nebo příkaz zopakovat.
NO_UDF_INTERFACE
Třída UDF <className> neimplementuje žádné rozhraní UDF.
NULLABLE_COLUMN_OR_FIELD
Sloupec nebo pole <name> má hodnotu null, zatímco musí být nenulová.
NULLABLE_ROW_ID_ATTRIBUTES
Atributy ID řádku nemohou mít hodnotu null: <nullableRowIdAttrs>.
NULL_DATA_SOURCE_OPTION
Možnost čtení a zápisu zdroje dat <option> nemůže mít hodnotu null.
NULL_MAP_KEY
Jako klíč mapy nelze použít hodnotu null.
NULL_QUERY_STRING_EXECUTE_IMMEDIATE
Okamžité spuštění vyžaduje proměnnou, která není null, jako řetězec dotazu, ale zadaná proměnná <varName> má hodnotu null.
NULL_VALUE_SIGNAL_STATEMENT
Argumenty příkazu Signal vyžadují hodnoty, které nejsou null, ale <argument> obdržely hodnotu null.
NUMERIC_OUT_OF_SUPPORTED_RANGE
Hodnotu <value> nelze interpretovat jako číselnou hodnotu, protože má více než 38 číslic.
NUMERIC_VALUE_OUT_OF_RANGE
Další podrobnosti najdete v tématu NUMERIC_VALUE_OUT_OF_RANGE
NUM_COLUMNS_MISMATCH
<operator> lze provádět pouze u vstupů se stejným počtem sloupců, ale první vstup má <firstNumColumns> sloupce a vstup <invalidOrdinalNum> má <invalidNumColumns> sloupce.
NUM_TABLE_VALUE_ALIASES_MISMATCH
Počet zadaných aliasů neodpovídá počtu výstupních sloupců.
Název funkce: <funcName>; počet aliasů: <aliasesNum>; počet výstupních sloupců: <outColsNum>.
OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED
Nebylo poskytnuto žádné vlastní tvrzení identity.
ONLY_SECRET_FUNCTION_SUPPORTED_HERE
Volání funkce <functionName> není v tomto <location>podporováno. <supportedFunctions> je zde podporováno.
ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR
Operace SQL <operation> se podporuje jenom v konektorech SQL Databricks s podporou katalogu Unity.
OPERATION_CANCELED
Operace byla zrušena.
OPERATION_REQUIRES_UNITY_CATALOG
Operace <operation> vyžaduje povolení katalogu Unity.
OP_NOT_SUPPORTED_READ_ONLY
<plan> se v režimu relace jen pro čtení nepodporuje.
ORDER_BY_POS_OUT_OF_RANGE
ORDER BY poloha <index> není v seznamu výběru (platný rozsah je [1, <size>]).
PARQUET_CONVERSION_FAILURE
Nelze vytvořit převaděč formátu Parquet pro datový typ <dataType>, jehož formát Parquet je <parquetType>.
Další podrobnosti najdete v tématu PARQUET_CONVERSION_FAILURE
PARQUET_TYPE_ILLEGAL
Neplatný typ Parquet: <parquetType>.
PARQUET_TYPE_NOT_RECOGNIZED
Nerozpoznaný typ Parquet: <field>.
PARQUET_TYPE_NOT_SUPPORTED
Typ Parquet ještě není podporován: <parquetType>.
PARSE_EMPTY_STATEMENT
Syntaktická chyba, neočekávaný prázdný příkaz
PARSE_MODE_UNSUPPORTED
Funkce <funcName> nepodporuje režim <mode>. Přijatelné režimy jsou PERMISSIVE a FAILFAST.
PARSE_SYNTAX_ERROR
Syntaktická chyba v <error> <hint>nebo poblíž .
PARTITIONS_ALREADY_EXIST
Nelze přidat nebo použít RENAME na oddíly <partitionList> v tabulce <tableName>, protože již existují.
Zvolte jiný název, odstraňte existující oddíl nebo přidejte klauzuli IF NOT EXISTS pro tolerování již existujícího oddílu.
PARTITIONS_NOT_FOUND
Oddíly <partitionList> nelze najít v tabulce <tableName>.
Ověřte nastavení oddílu a název tabulky.
Chcete-li tolerovat chybu při poklesu, použijte ALTER TABLE ...
DROP IF EXISTS PARTITION.
PARTITION_COLUMN_NOT_FOUND_IN_SCHEMA
Sloupec oddílu <column> nebyl nalezen ve schématu <schema>. Zadejte existující sloupec pro particionování.
PARTITION_LOCATION_ALREADY_EXISTS
Umístění oddílu <locationPath> již v tabulce <tableName>existuje.
PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY
Spuštění příkazu ALTER TABLE SET PARTITION LOCATION se nezdařilo, protože
umístění oddílu <location> se nenachází v adresáři tabulky <table>.
Pokud chcete tento problém vyřešit, nastavte umístění přihrádky na podadresář <table>.
PARTITION_METADATA
<action> v tabulce není povolená, <tableName> protože ukládání metadat oddílů není v katalogu Unity podporováno.
PARTITION_NUMBER_MISMATCH
Počet hodnot (<partitionNumber>) neodpovídá velikosti schématu (<partitionSchemaSize>): hodnoty jsou <partitionValues>, schéma je <partitionSchema>, cesta k souboru je <urlEncodedPath>.
Znovu materializujte tabulku nebo se obraťte na vlastníka.
PARTITION_TRANSFORM_EXPRESSION_NOT_IN_PARTITIONED_BY
Výraz <expression> musí být uvnitř partitionedBy.
PATH_ALREADY_EXISTS
Cesta <outputPath> již existuje. Pokud chcete přepsat existující cestu, nastavte režim jako "přepsání".
PATH_NOT_FOUND
Cesta neexistuje: <path>.
PATH_RESOLUTION_ERROR
Nelze přeložit cestu <path>. Způsobené: <causedBy>
PHOTON_DESERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED
Deserializace plánu Photon protobuf vyžaduje alespoň <size> bajtů, což překračuje limit.
limit <limit> bajtů. Může to být způsobeno velmi velkým plánem nebo přítomností velmi
široké schéma. Zkuste dotaz zjednodušit, odebrat nepotřebné sloupce nebo zakázat Photon.
PHOTON_SERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED
Serializovaný Foton protobuf plán má velikost <size> bajtů, což překračuje limit
<limit> bajt. Serializovaná velikost datových typů v plánu je <dataTypeSize> bajty.
Důvodem může být velmi velký plán nebo přítomnost velmi širokého schématu.
Zvažte přepsání dotazu, abyste odebrali nežádoucí operace a sloupce nebo zakázali Photon.
Datová sada pipeline bez toku
Datová sada <identifier> kanálu neobsahuje žádné definované toky. Připojte dotaz s definicí datové sady nebo explicitně definujte alespoň jeden tok, který do datové sady zapisuje.
PIPELINE_DOES_NOT_EXIST
Kanál '<pipelineId>' neexistuje.
Další podrobnosti najdete v tématu PIPELINE_DOES_NOT_EXIST
PIPELINE_DUPLICATE_IDENTIFIERS
Byl nalezen duplicitní identifikátor pro prvky zaregistrované v grafu toku dat kanálu.
Další podrobnosti najdete v tématu PIPELINE_DUPLICATE_IDENTIFIERS
PIPELINE_SQL_GRAPH_ELEMENT_REGISTRATION_ERROR
<message>
<offendingQuery>
<codeLocation>
PIPELINE_STORAGE_ROOT_INVALID
Kořen úložiště kanálu musí být absolutní cestou se schématem identifikátoru URI (například file://, s3a://, hdfs://). Mám: <storage_root>.
PIPE_OPERATOR_AGGREGATE_EXPRESSION_CONTAINS_NO_AGGREGATE_FUNCTION
Výraz <expr> bez seskupení je uveden jako argument operátoru |>AGGREGATE kanálu, ale neobsahuje žádnou agregační funkci. Upravte jej tak, aby zahrnoval agregační funkci, a dotaz opakujte.
PIPE_OPERATOR_CONTAINS_AGGREGATE_FUNCTION
Agregační funkce <expr> není povolena při použití operátoru kanálu |><clause> klauzule; místo toho použijte operátor kanálu |>AGGREGATE klauzule.
PIVOT_VALUE_DATA_TYPE_MISMATCH
Neplatná hodnota kontingenční proměnné '<value>': Datový typ hodnoty <valueType> neodpovídá datovému typu <pivotType>kontingenčního sloupce.
POLICY_ALREADY_EXISTS
Nelze vytvořit zásadu <policyName> , protože již existuje.
Zvolte jiný název nebo zrušte existující zásadu pro toleranci stávajících připojení.
POLICY_NOT_FOUND
Nelze spustit příkaz <commandType>, protože zásadu <policyName> na <securableFullname> nelze najít.
Ověřte pravopis a správnost.
POLICY_ON_SECURABLE_TYPE_NOT_SUPPORTED
Nelze vytvořit zásadu pro zabezpečitelný typ <securableType>. Podporované zabezpečené typy: <allowedTypes>.
PREVIEW_FEATURE_NOT_ENABLED
Funkce <featureName> Preview není povolená. Požádejte správce pracovního prostoru, aby tuto funkci povolil prostřednictvím portálu Preview.
PROCEDURE_ARGUMENT_NUMBER_MISMATCH
Procedura <procedureName> očekává <expected> argumenty, ale <actual> byly poskytnuty.
PROCEDURE_CREATION_EMPTY_ROUTINE
CREATE PROCEDURE s prázdnou definicí rutiny není povolená.
PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT
Parametr <parameterName> je definován pomocí <parameterMode>režimu parametrů . Při vyvolání rutiny nelze vynechat out a INOUT parametr, a proto výraz nepodporuje DEFAULT . Chcete-li pokračovat, odeberte klauzuli DEFAULT nebo změňte režim parametru na IN.
PROCEDURE_NOT_SUPPORTED
Uložená procedura není podporována.
PROCEDURE_NOT_SUPPORTED_WITH_HMS
U Hive Metastore se uložené procedury nepodporují. Místo toho prosím použijte katalog Unity.
PROTOBUF_DEPENDENCY_NOT_FOUND
Závislost nebyla nalezena: <dependencyName>.
PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND
Při čtení souboru popisovače Protobuf na cestě došlo k chybě: <filePath>.
PROTOBUF_FIELD_MISSING
Hledání <field> ve schématu Protobuf na <protobufSchema> našlo <matchSize> shod. Kandidáti: <matches>.
PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA
Nalezeno <field> ve schématu Protobuf, ale ve schématu SQL neexistuje žádná shoda.
PROTOBUF_FIELD_TYPE_MISMATCH
Došlo k neshodě typů pro pole: <field>.
PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED
Třídy Java nejsou podporovány pro <protobufFunction>. Obraťte se na podporu Databricks o alternativních možnostech.
PROTOBUF_MESSAGE_NOT_FOUND
Nelze najít zprávu <messageName> v popisovači.
PROTOBUF_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE
Nelze volat funkci <functionName> SQL, protože zdroj dat Protobuf není načten.
Restartujte úlohu nebo relaci s načteným balíčkem spark-protobuf, například pomocí argumentu --packages na příkazovém řádku, a opakujte dotaz nebo příkaz znovu.
PROTOBUF_TYPE_NOT_SUPPORT
Typ Protobuf ještě není podporován: <protobufType>.
PS_FETCH_RETRY_EXCEPTION
Úlohu ve fázi načítání služby pubsub nelze znovu spustit. Oddíl <partitionInfo> ve fázi <stageInfo>, TID <taskId>.
PS_INVALID_EMPTY_OPTION
<key> nemůže být prázdný řetězec.
PS_INVALID_KEY_TYPE
Neplatný typ klíče pro deduplikaci PubSub: <key>.
PS_INVALID_OPTION
PubSub nepodporuje možnost <key>. Dá se použít jenom při testování.
PS_INVALID_OPTION_TYPE
Neplatný typ pro <key>. Očekávaný typ <key> má být typu <type>.
PS_INVALID_READ_LIMIT
Neplatný limit čtení u streamu PubSub: <limit>.
PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO
Neplatný Nezabezpečený řádek pro dekódování na PubSubMessageMetadata, požadované schéma protokolu je: <protoSchema>. Vstup UnsafeRow může být poškozen: <unsafeRow>.
PS_INVALID_WORKLOAD_IDENTITY_FEDERATION_AUDIENCE_OPTION
Dotaz nebo příkaz selhal z důvodu neplatné možnosti čtení: ve spark.readStream.format("pubsub").option("workloadIdentityFederation.audience"; <audience>). Aktualizujte <audience> tak, aby odpovídaly následujícímu formátu: //iam.googleapis.com/projects/{PROJECT_NUMBER}/locations/global/workloadIdentityPools/{POOL_ID}/providers/{PROVIDER_ID} a opakujte dotaz nebo příkaz.
PS_MISSING_AUTH_INFO
Nepodařilo se najít úplné ověřovací informace PubSub.
PS_MISSING_REQUIRED_OPTION
Nelze najít požadovanou možnost: <key>.
PS_MOVING_CHECKPOINT_FAILURE
Nepovede se přesunout nezpracované soubory kontrolních bodů dat z <src> do cílového adresáře: <dest>.
PS_MULTIPLE_AUTH_OPTIONS
Zadejte přihlašovací údaje ke službě Databricks nebo přihlašovací údaje účtu služby GCP.
PS_MULTIPLE_FAILED_EPOCHS
Stream PubSub nelze spustit, protože selhal více než jeden pokus o načtení: <failedEpochs>.
PS_OPTION_NOT_IN_BOUNDS
<key> musí být v následujících mezích (<min>, <max>) s výhradním přístupem k oběma hranicím.
PS_PROVIDE_CREDENTIALS_WITH_OPTION
Sdílené clustery nepodporují ověřování pomocí profilů instancí. Zadejte přihlašovací údaje ke streamu přímo pomocí .option().
PS_SPARK_SPECULATION_NOT_SUPPORTED
Zdrojový konektor PubSub je k dispozici pouze v clusteru s spark.speculation zakázaným.
PS_UNABLE_TO_CREATE_SUBSCRIPTION
Při pokusu o vytvoření předplatného <subId> tématu <topicId>došlo k chybě. Zkontrolujte, jestli máte dostatečná oprávnění k vytvoření předplatného, a zkuste to znovu.
PS_UNABLE_TO_PARSE_PROTO
Nelze analyzovat serializované bajty pro generování proto.
PS_UNSUPPORTED_GET_OFFSET_CALL
getOffset není podporován bez zadání limitu.
PYTHON_DATA_SOURCE_ERROR
Nepodařilo se načíst Python zdroj dat <action>: <type>, <msg>
PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR
K selhání došlo, když Python prováděl <action>pro streamovaný zdroj dat: <msg>
QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
Nelze získat přístup k odkazované tabulce, protože dříve přiřazená maska sloupce není aktuálně kompatibilní se schématem tabulky; pokud chcete pokračovat, obraťte se na vlastníka tabulky a aktualizujte zásady:
Další podrobnosti najdete v tématu QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
Nelze získat přístup k odkazované tabulce, protože dříve přiřazené zásady zabezpečení na úrovni řádků nejsou aktuálně kompatibilní se schématem tabulky; pokud chcete pokračovat, obraťte se na vlastníka tabulky a aktualizujte zásady:
Další podrobnosti najdete v tématu QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
QUERY_EXECUTION_TIMEOUT_EXCEEDED
Provádění dotazu bylo zrušeno kvůli překročení časového limitu (<timeoutSec>s). Limit můžete zvýšit v sekundách nastavením <config>.
QUERY_INCOMPATIBLE_WITH_RLSCM_POLICY
Viz go/rowcolumncontrols-allowlist. Logický plán <unknownLogicalPlan> není kompatibilní se zásadami RLS/CM.
QUERY_REJECTED
Spuštění dotazu bylo odmítnuto.
QUERY_RESULT_WRITE_TO_CLOUD_STORE_PERMISSION_ERROR
Konfigurace interního úložiště pracovního prostoru brání Databricks v přístupu ke cloudovému úložišti.
QUERY_TAGS_NOT_IMPLEMENTED_ERROR
Značky dotazů se zatím v SQL nepodporují.
QUERY_TAGS_SYNTAX_INVALID
Neplatný formát příkazu SET QUERY_TAGS
QUERY_TAG_KEY_INVALID
Ověření klíče<key> značky dotazu se nezdařilo.
QUERY_TAG_KEY_MAY_NOT_BE_EMPTY
Klíč značky dotazu nemusí být null nebo prázdný. Počáteční a koncové prázdné znaky jsou oříznuté u klíčů a hodnot.
QUERY_TAG_MAX_COUNT_EXCEEDED
Počet značek dotazů překročil limit počtu značek pro každou relaci maximálního <tagLimit> počtu značek.
QUERY_TAG_VALUE_INVALID
Ověření hodnoty<value> značky dotazu selhalo.
QUERY_WATCHDOG_CHECK_FAILED
Kontrola sledovacího zařízení dotazu se nezdařila.
Další podrobnosti najdete v tématu QUERY_WATCHDOG_CHECK_FAILED
READ_CURRENT_FILE_NOT_FOUND
<message>
Je možné, že se podkladové soubory aktualizovaly. Cache ve Spark můžete explicitně zneplatnit spuštěním příkazu 'REFRESH TABLE tableName' v SQL nebo znovuvytvořením příslušného Datasetu/DataFramu.
READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS
Vyvolání funkce <functionName> má nastavené <parameterName> a <alternativeName>, které jsou vzájemnými aliasy. Nastavte jenom jeden z nich.
READ_FILES_CREDENTIALS_PARSE_ERROR
Došlo k chybě při zpracování dočasných přihlašovacích údajů funkce read_files().
Další podrobnosti najdete v tématu READ_FILES_CREDENTIALS_PARSE_ERROR
READ_TVF_UNEXPECTED_REQUIRED_PARAMETER
Funkce <functionName> požadovaný parametr <parameterName> musí být přiřazen na pozici <expectedPos> bez názvu.
RECIPIENT_EXPIRATION_NOT_SUPPORTED
Časová razítka vypršení platnosti příjemce jsou podporována pouze pro typy TIMESTAMP/TIMESTAMP_LTZ/TIMESTAMP_NTZ.
RECURSION_LEVEL_LIMIT_EXCEEDED
Došlo k dosažení limitu <levelLimit> na rekurzní úrovni, ale dotaz nebyl vyčerpán, zkuste zvýšit tento limit, jako například 'WITH RECURSIVE t(col) MAX RECURSION LEVEL 200'.
RECURSION_ROW_LIMIT_EXCEEDED
Bylo dosaženo limitu <rowLimit> počtu řádků rekurze, ale dotaz se nevyčerpal, zkuste při dotazování relace CTE nastavit větší LIMIT hodnotu.
RECURSIVE_CTE_IN_LEGACY_MODE
Rekurzivní definice nelze použít ve starším režimu priority CTE (spark.sql.legacy.ctePrecedencePolicy=LEGACY).
RECURSIVE_CTE_WITH_LEGACY_INLINE_FLAG
Rekurzivní definice nelze použít, pokud je příznak inline v SQL nastaven na true (spark.sql.legacy.inlineCTEInCommands=true).
RECURSIVE_PROTOBUF_SCHEMA
Byl nalezen rekurzivní odkaz ve schématu Protobuf, který nelze zpracovat Sparkem ve výchozím nastavení: <fieldDescriptor>. zkuste nastavit možnost recursive.fields.max.depth 1 na 10. Přechod nad 10 úrovní rekurze není povolen.
RECURSIVE_VIEW
Rekurzivní zobrazení <viewIdent> zjištěno (cyklus: <newPath>).
REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION
Odkazy na hodnoty DEFAULT sloupců nejsou v klauzuli PARTITION povoleny.
RELATION_LARGER_THAN_8G
Nelze vytvořit <relationName>, která je větší než 8 GB.
REMAINDER_BY_ZERO
Zbytek po nule. Pomocí try_mod můžete tolerovat, že dělitel je 0, a místo toho vrátit NULL. Pokud je to nutné, nastavte <config> na "false", abyste tuto chybu obešli.
REMOTE_FUNCTION_HTTP_FAILED_ERROR
Vzdálený požadavek HTTP selhal s kódem <errorCode>a chybovou zprávou <errorMessage>
REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR
Nepodařilo se vyhodnotit <functionName> funkci SQL z důvodu nemožnosti parsovat JSON výsledek ze vzdálené odpovědi HTTP; chybová zpráva je <errorMessage>. Projděte si dokumentaci k rozhraní API: <docUrl>. Opravte problém uvedený v chybové zprávě a zkuste dotaz zopakovat.
REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR
Nepodařilo se vyhodnotit funkci <functionName> SQL kvůli nemožnosti zpracovat neočekávanou vzdálenou odpověď HTTP; chybová zpráva je <errorMessage>. Projděte si dokumentaci k rozhraní API: <docUrl>. Opravte problém uvedený v chybové zprávě a zkuste dotaz zopakovat.
REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT
Vzdálený požadavek se nezdařil po <N> opakováních; poslední HTTP kód chyby byl <errorCode> a zpráva byla <errorMessage>
REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR
Nepodařilo se vyhodnotit funkci <functionName> SQL, protože <errorMessage>. Zkontrolujte požadavky v <docUrl>. Opravte problém uvedený v chybové zprávě a zkuste dotaz zopakovat.
REMOTE_QUERY_FUNCTION_UNSUPPORTED_CONNECTOR_PARAMETERS
Parametry <parameterNames> nejsou podporovány pro funkci remote_query, která se dotazuje na připojení<connectionName> typu "<connectionType>".
Další podrobnosti najdete v REMOTE_QUERY_FUNCTION_UNSUPPORTED_CONNECTOR_PARAMETERS
RENAME_SRC_PATH_NOT_FOUND
Nepodařilo se přejmenovat, protože <sourcePath> nebylo nalezeno.
REPEATED_CLAUSE
Klauzule <clause> může být použita maximálně jednou za operaci <operation>.
REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY
Rutina <routineName> požadovaný parametr <parameterName> byl přiřazen na pozici <positionalIndex> bez uvedení názvu.
Aktualizujte volání funkce tak, aby buď odstranilo pojmenovaný argument s <parameterName> pro tento parametr, nebo odstranilo poziční argument.
Argument v <positionalIndex> a potom zkuste dotaz zopakovat.
REQUIRED_PARAMETER_NOT_FOUND
Rutinní <routineName> nelze vyvolat, protože je požadován parametr s názvem <parameterName>, ale rutinní volání nezadalo hodnotu. Aktualizujte rutinní volání a zadejte hodnotu argumentu (buď na pozici v indexu <index> nebo podle názvu), a zkuste dotaz zopakovat.
REQUIRES_EXPLICIT_NAME_IN_WATERMARK_CLAUSE
Klauzule vodoznaku vyžaduje explicitní název, pokud je zadaný výraz, ale má <sqlExpr>.
REQUIRES_SINGLE_PART_NAMESPACE
<sessionCatalog> vyžaduje jednodílný obor názvů, ale získal <namespace>.
RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT
Možnost čtečky rozhraní API datového rámce rescuedDataColumn se vzájemně vylučují s možností rozhraní API datového rámce singleVariantColumn.
Odeberte jeden z nich a poté znovu zkuste operaci s datovým rámcem.
RESERVED_CDC_COLUMNS_ON_WRITE
Zápis obsahuje vyhrazené sloupce <columnList>, které jsou používány.
interně jako metadata pro změnu datového kanálu. Chcete-li zapsat do tabulky, přejmenujte ji nebo ji smažte.
zablokovat tyto sloupce nebo deaktivovat funkci Change Data Feed na tabulce jejím nastavením
<config> nastavte na false.
RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
Možnost <option> omezila hodnoty ve sdílených clusterech pro <source> zdroj.
Další podrobnosti najdete v tématu RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
ROUTINE_ALREADY_EXISTS
Nelze vytvořit <newRoutineType> <routineName>, protože již existuje <existingRoutineType> tohoto názvu.
Zvolte jiný název, přetáhněte nebo nahraďte existující <existingRoutineType>nebo přidejte klauzuli IF NOT EXISTS, která bude tolerovat existující <newRoutineType>.
ROUTINE_NOT_FOUND
Routina <routineName> nelze najít. Ověřte pravopis a správnost schématu a katalogu.
Pokud jste nekvalifikovali název schématem a katalogem, ověřte výstup current_schema(), nebo opravte název se správným schématem a katalogem.
Chcete-li tolerovat chybu při přetažení použít DROP...IF EXISTS.
ROUTINE_PARAMETER_NOT_FOUND
Rutinní <routineName> nepodporuje parametr <parameterName> zadaný na pozici <pos>.<suggestion>
ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME
Funkci <routineName> nelze vytvořit, protože zadaný název třídy '<className>' je vyhrazen pro použití systému. Přejmenujte prosím třídu a zkuste to znovu.
ROW_LEVEL_SECURITY_ABAC_MISMATCH
Filtry řádků nelze v <tableName> vyřešit, protože došlo k neshodě mezi filtry řádků zděděnými ze zásad a explicitně definovanými filtry řádků. Pokud chcete pokračovat, zakažte řízení přístupu na základě atributů (ABAC) a kontaktujte podporu Databricks.
ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED
Vytváření omezení CHECK pro tabulku <tableName> se zásadami zabezpečení na úrovni řádků se nepodporuje.
ROW_LEVEL_SECURITY_COLUMN_MASK_UNRESOLVED_REFERENCE_COLUMN (Neřešený odkaz sloupce)
Sloupec s názvem <objectName> uvedený v parametru filtru řádků nebo masky sloupců nelze vyřešit.
K tomu může dojít v případě, že se změnilo schéma podkladové tabulky a odkazovaný sloupec již neexistuje.
K tomu může dojít například v případě, že byl sloupec odebrán v externím systému (například federovaná tabulka), nebo pokud REPLACE operace v tabulce sloupec zahodila.
Pokud chcete tento problém vyřešit, můžou uživatelé s oprávněními pro správu v tabulce zkontrolovat aktuální filtry řádků a masky sloupců pomocí DESCRIBE TABLE EXTENDEDa odstranit nebo znovu vytvořit všechny odkazy na neexistující sloupce pomocíSET.../ALTER TABLEDROP řádku FILTER nebo masky.
Poznámka: Databricks implementovala bezpečnostní vylepšení pro zachování masky sloupců u operací REPLACE, když nové schéma obsahuje stejný sloupec, i když maska není specifikována. To brání neúmyslné ztrátě zásad v tabulkách.
ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME
Příkaz <statementType> se pokusil přiřadit k tabulce zásady zabezpečení na úrovni řádků, ale dva nebo více odkazovaných sloupců měly stejný název <columnName>, což je neplatné.
ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
Zásady zabezpečení na úrovni řádků pro <tableName> nejsou podporovány:
Další podrobnosti najdete v tématu ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE
Nelze <statementType> <columnName> z tabulky <tableName> kvůli tomu, že je referencována v politice zabezpečení na úrovni řádků. Před pokračováním musí vlastník tabulky tuto zásadu odebrat nebo změnit.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE
Operace MERGE INTO nepodporují zásady zabezpečení na úrovni řádku ve zdrojové tabulce <tableName>.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET
MERGE INTO operace nepodporují zápis do tabulky <tableName> se zásadami zabezpečení na úrovni řádků.
ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME
Tento příkaz se pokusil přiřadit k tabulce zásady zabezpečení na úrovni řádků, ale odkazovaný sloupec <columnName> měl více částí názvů, což je neplatné.
ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG
Zásady zabezpečení na úrovni řádků jsou podporovány pouze v katalogu Unity.
ROW_LEVEL_SECURITY_SECONDARY_INDEX_CREATION_UNSUPPORTED
Sekundární index ON TABLE <tableName> nelze vytvořit, protože tabulka má definované zásady zabezpečení na úrovni řádků.
ROW_LEVEL_SECURITY_SHOW_PARTITIONS_UNSUPPORTED
SHOW PARTITIONS příkaz není podporován pro tabulky<format> se zásadami zabezpečení na úrovni řádků.
ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED
<mode> klonování z tabulky <tableName> se zásadami zabezpečení na úrovni řádků se nepodporuje.
ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED
Klonování <mode> do tabulky <tableName> s politikou zabezpečení na úrovni řádků není podporováno.
ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER
Použití konstanty jako parametru v zásadách zabezpečení na úrovni řádků se nepodporuje. Aktualizujte příkaz SQL, aby se konstanta odebrala z definice filtru řádků a pak příkaz opakujte.
ROW_LEVEL_SECURITY_UNSUPPORTED_DATA_TYPE
Funkce <functionName> používaná pro zásady zabezpečení na úrovni řádků má parametr s nepodporovaným datovým typem <dataType>.
ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER
Nepodařilo se spustit příkaz <statementType>, protože nastavení zásad zabezpečení na úrovni řádků není podporováno pro cílový zdroj dat s poskytovatelem tabulky: "<provider>".
ROW_SUBQUERY_TOO_MANY_ROWS
Více než jeden řádek vrácený poddotazem použitým jako řádek.
ROW_VALUE_IS_NULL
Našel NULL v řádku na indexu <index>, očekávala se hodnota, která neníNULL.
RULE_ID_NOT_FOUND
Nenašlo se ID názvu pravidla "<ruleName>". Pokud přidáváte nové pravidlo, upravte RuleIdCollection.scala.
RUN_EMPTY_PIPELINE
Očekává se, že kanály budou mít alespoň jednu neurčitou datovou sadu definovanou (tabulky, trvalá zobrazení), ale ve vašem kanálu nebyly nalezeny žádné dočasné datové sady.
Ověřte, že jste zahrnuli očekávané zdrojové soubory a že zdrojový kód obsahuje definice tabulek (například CREATE MATERIALIZED VIEW v kódu @dp.table SQL v kódu Pythonu).
SALESFORCE_DATA_SHARE_API_UNAUTHORIZED
Autorizace rozhraní API služby Salesforce pro sdílenou datu se nezdařila. Ověřte, zda jsou podrobnosti o připojení k Databricks poskytnuty příslušnému cíli sdílení dat v Salesforce.
SAMPLE_TABLE_PERMISSIONS
Oprávnění nejsou podporována u ukázkových databází nebo tabulek.
SCALAR_FUNCTION_NOT_COMPATIBLE
ScalarFunction <scalarFunc> nepřepíše metodu produceResult(InternalRow) vlastní implementací.
SCALAR_FUNCTION_NOT_FULLY_IMPLEMENTED
ScalarFunction <scalarFunc> neimplementuje nebo nepřepisuje metodu 'produceResult(InternalRow)'.
SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION
Korelovaný skalární poddotaz '<sqlExpr>' není přítomen ani v GROUP BY, ani v žádné agregační funkci.
Přidejte ji k GROUP BY použitím pořadové pozice nebo ji zabalte do first() (nebo first_value), pokud vám nezáleží na tom, jakou hodnotu získáte.
SCALAR_SUBQUERY_TOO_MANY_ROWS
Více než jeden řádek vrácený poddotazem použitým jako výraz.
SCDS_COMMIT_LOG_UNAVAILABLE
Protokol potvrzení neexistuje s umístěním kontrolního bodu=<checkpointLocation>.
SCDS_INVALID_OPTION_VALUE
Neplatná hodnota možnosti zdroje=<optionName> s chybouMsg=<message>.
SCDS_OFFSET_LOG_UNAVAILABLE
Protokol posunu neexistuje s umístěním kontrolního bodu=<checkpointLocation>.
SCDS_REQUIRED_OPTION_UNSPECIFIED
Nepovedlo se zadat požadovanou možnost=<optionName>.
SCHEDULE_ALREADY_EXISTS
Do tabulky, která již má <scheduleType>, nelze přidat <existingScheduleType> . Odstraňte existující plán nebo použijte ALTER TABLE...ALTER <scheduleType> ... a změnit ho.
SCHEDULE_PERIOD_INVALID
Časové období pro <timeUnit> musí být celočíselná hodnota mezi 1 a <upperBound> (včetně). Přijato: <actual>.
SCHEMA_ALREADY_EXISTS
Nelze vytvořit <schemaName> schématu, protože již existuje.
Zvolte jiný název, odstraňte existující schéma nebo přidejte klauzuli IF NOT EXISTS pro umožnění již existujícího schématu.
SCHEMA_NOT_EMPTY
Nelze odstranit schéma <schemaName>, protože obsahuje objekty.
Slouží DROP SCHEMA...CASCADE k vyřazení schématu a všech jeho objektů.
SCHEMA_NOT_FOUND
Schéma <schemaName> nelze najít. Ověřte pravopis a správnost schématu a katalogu.
Pokud jste název nekvalifikovali pomocí katalogu, ověřte výstup current_schema() nebo určete název se správným katalogem.
Chcete-li tolerovat chybu při poklesu, použijte DROP SCHEMA IF EXISTS.
SCHEMA_REGISTRY_CONFIGURATION_ERROR
Schéma z registru schématu nelze inicializovat.
<reason>.
SEARCH_INDEX_CATALOG_SCHEMA_MISMATCH
Index <indexName> vyhledávání nelze vytvořit v katalogu <indexCatalog> a schématu <indexSchema>. Index musí být vytvořen ve stejném katalogu a schématu jako základní tabulka <tableName> (<tableCatalog>.<tableSchema>).
SEARCH_INDEX_INVALID_PARAMETERS
Index vyhledávání nelze vytvořit, je zadaný neplatný parametr:
Další podrobnosti najdete v tématu SEARCH_INDEX_INVALID_PARAMETERS
SEARCH_INDEX_NAME_CONFLICTS_WITH_TABLE
Tabulka s názvem <indexName> indexu již existuje. Zadejte vlastní název indexu, který není v konfliktu s existujícími tabulkami.
SEARCH_INDEX_OUTDATED_SCHEMA
Index <indexName> vyhledávání má zastaralé schéma. Znovu vytvořte index pomocí:
DROP SEARCH INDEX <indexName>;
CREATE SEARCH INDEX <indexName> ON <tableName>(<columnsList>);
SEARCH_REQUIRES_SEARCHABLE_COLUMNS
<context> vyžaduje sloupce s prohledávatelnými typy (STRING COLLATE UTF8_BINARY, VARIANTnebo ARRAY).
Další podrobnosti najdete v tématu SEARCH_REQUIRES_SEARCHABLE_COLUMNS
SEARCH_REQUIRES_STRING_LITERALS_ARGUMENTS
SEARCH vyžaduje <argument> argument jako řetězcové literály, ale <actualExpr> byl udělen. <possibleOptionsMessage>
SECONDARY_INDEX_REQUIRES_MANAGED_TABLE
Nelze <operation> ON TABLE <tableName>. Operaci je možné provádět pouze u spravovaných tabulek.
Pokud chcete převést tabulku na spravovanou tabulku, použijte ALTER TABLE <tableName> SET MANAGED příkaz.
Další informace najdete v tématu https://docs.databricks.com/aws/en/tables/convert-external-managed
SECONDARY_INDEX_UNSUPPORTED_TABLE_FORMAT
Nemůže <operation> ON TABLE <tableName>
Operace lze provádět pouze u tabulek s následujícími formáty: <supportedFormats>.
Ověřte formát tabulky pomocí DESCRIBE DETAIL <tableName>příkazu .
Pokud je aktuální formát Parquet nebo Apache Iceberg, můžete jej trvale převést pomocí CONVERT TO DELTA <tableName>; viz https://docs.databricks.com/aws/en/sql/language-manual/delta-convert-to-delta
V opačném případě znovu vytvořte tabulku v jednom z podporovaných formátů.
SECOND_FUNCTION_ARGUMENT_NOT_INTEGER
Druhý argument <functionName> funkce musí být celé číslo.
SECRET_FUNCTION_INVALID_LOCATION
Nelze spustit příkaz <commandType> s jedním nebo více nešifrovanými odkazy na funkci SECRET; Zašifrujte výsledek každého takového volání funkce pomocí AES_ENCRYPT a zkuste příkaz znovu.
NEZABEZPEČENÉ_NEEXISTUJE
<securable> neexistuje.
SEED_EXPRESSION_IS_UNFOLDABLE
Počáteční výraz <seedExpr> výrazu <exprWithSeed> musí být skládací.
SERVER_IS_BUSY
Server je zaneprázdněný a nemůže zpracovat požadavek. Počkejte prosím chvilku a zkuste to znovu.
SET_QUERY_TAGS_SYNTAX_INVALID
Spuštění příkazu se SET nezdařilo, protože syntaxe byla neplatná. Očekávaná syntaxe tohoto příkazu je SET QUERY_TAGS nebo SET QUERY_TAGS['key'] = 'value'. Opravte příkaz, aby odpovídal této syntaxi, a pak ho znovu spusťte.
SFTP_DEPRECATED_SSH_RSA_KEY_ALGORITHM
Server <host>SFTP :<port> používá zastaralý algoritmus SSH RSA pro výměnu klíčů.
Zvažte upgrade serveru SFTP tak, aby používal bezpečnější algoritmus, jako ECDSA je nebo ED25519.
Alternativně můžete tuto chybu obejít nastavením <escapeHatchConf> na true.
SFTP_UNABLE_TO_CONNECT
Připojení k serveru <host> SFTP na portu <port> s uživatelským jménem <user>se nezdařilo.
<error>
SFTP_UNKNOWN_HOST_KEY
Klíč hostitele serveru <host> SFTP je neznámý nebo se změnil.
Ověřte chybovou zprávu níže a pak do pole zadejte otisk prstu Key fingerprint .
Pokud například zpráva uvádí, žeECDSA "otisk prstu klíče je SHA256:XXX/YYY", odešlete "SHA256:XXX/YYY" jako otisk klíče.
Chybová zpráva připojení:
<error>
SFTP_USER_DOES_NOT_MATCH
Uživatel načtený z přihlašovacích údajů <credentialUser> neodpovídá tomu, který je uveden v cestě SFTP <path>.
SHOW_COLUMNS_WITH_CONFLICT_NAMESPACE
SHOW COLUMNS konfliktních jmen prostorů: <namespaceA> != <namespaceB>.
NEÚSPĚŠNÁ VALIDACE MOŽNOSTÍ DATOVÉHO ZDROJE SNOWFLAKE
Ověření možnosti/možností zdroje dat Snowflake se nezdařilo.
Další podrobnosti najdete v tématu SNOWFLAKE_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
SORT_BY_WITHOUT_BUCKETING
Funkce sortBy musí být použita společně s bucketBy.
SPARK_JOB_CANCELLED
Úloha <jobId> zrušena <reason>
SPECIFY_BUCKETING_IS_NOT_ALLOWED
CREATE TABLE bez explicitního seznamu sloupců nemůže určit informace o kontejnerech.
Použijte formulář s explicitním seznamem sloupců a zadejte informace o kontejnerech.
Případně můžete odvozovat informace o segmentaci vynecháním klauzule.
SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED
Nelze zadat CLUSTER BY i CLUSTERED BY INTO BUCKETS.
SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED
Nelze zadat CLUSTER BY i PARTITIONED BY.
SPECIFY_PARTITION_IS_NOT_ALLOWED
CREATE TABLE bez explicitního seznamu sloupců nemůže určit PARTITIONED BY.
Použijte formulář s explicitním seznamem sloupců a zadejte PARTITIONED BY.
Případně můžete povolit, aby dělení bylo odvozeno vynecháním klauzule PARTITION BY.
SQL_CONF_NOT_FOUND
SQL konfiguraci <sqlConf> nelze najít. Ověřte, že konfigurace existuje.
SQL_SCRIPT_IN_EXECUTE_IMMEDIATE
Skripty SQL v EXECUTE IMMEDIATE příkazech nejsou povoleny. Ujistěte se, že zadaný dotaz SQL (<sqlString>) není skript SQL. Ujistěte se, že sql_string je příkaz SQL ve správném formátu a neobsahuje BEGIN a END.
SQL_SCRIPT_MAX_NUMBER_OF_CHARACTERS_EXCEEDED
Byl překročen maximální počet znaků ve skriptu SQL (ID: <scriptId>). Maximální povolený počet znaků je <maxChars>a skript měl <chars> znaky.
SQL_SCRIPT_MAX_NUMBER_OF_LINES_EXCEEDED
Byl překročen maximální počet řádků ve skriptu SQL (ID: <scriptId>). Maximální povolený počet řádků je <maxLines>a skript měl <lines> řádky.
SQL_SCRIPT_MAX_NUMBER_OF_LOCAL_VARIABLE_DECLARATIONS_EXCEEDED
Byl překročen maximální počet deklarací místních proměnných ve skriptu SQL (ID: <scriptId>). Maximální povolený počet deklarací je <maxDeclarations>a skript měl <declarations>.
SQL_STORED_PROCEDURES_NESTED_CALLS_LIMIT_EXCEEDED
Byl překročen maximální počet vnořených volání procedur s procedurou (název: <procedureName>, callId: <procedureCallId>). Maximální povolený počet vnořených volání procedur je <limit>.
STAGING_PATH_CURRENTLY_INACCESSIBLE
Přechodná chyba při přístupu ke stanovené cílové cestě <path>, zkuste to prosím za několik minut.
STAR_GROUP_BY_POS
Hvězdička (*) není povolena v seznamu výběru, pokud je použita pořadová pozice GROUP BY.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE
Nepodařilo se provést stavovou operaci procesoru <operationType> kvůli neplatnému stavu popisovače <handleState>.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE
Nepodařilo se provést stavovou operaci procesoru=<operationType> s neplatným časovým módem=<timeMode>
STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED
Proměnná stavu s názvem <stateVarName> již byla definována v StatefulProcessoru.
STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL
TTL nelze použít pro state=<stateName> v timeMode=<timeMode>, místo toho použijte TimeMode.ProcessingTime().
STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE
Hodnota TTL musí být větší než nula pro operaci stavového úložiště <operationType> na stavu <stateName>.
STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE
Neznámý časový režim <timeMode>. Akceptované režimy timeMode jsou none, processingTime, eventTime.
STATE_REPARTITION_INVALID_CHECKPOINT
Zadané umístění kontrolního bodu je<checkpointLocation> v neplatném stavu.
Další podrobnosti najdete v tématu STATE_REPARTITION_INVALID_CHECKPOINT
STATE_REPARTITION_INVALID_PARAMETER
Parametr <parameter> repartition je neplatný:
Další podrobnosti najdete v tématu STATE_REPARTITION_INVALID_PARAMETER
STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS
Nelze vytvořit rodinu sloupců s nepodporovaným počátečním znakem a názvem=<colFamilyName>.
STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME
Nepodařilo se provést operaci sloupcové rodiny =<operationName> s neplatným názvem =<colFamilyName>. Název rodiny sloupců nemůže být prázdný nebo nesmí obsahovat úvodní nebo koncové mezery nebo použít vyhrazené klíčové slovo=default.
STATE_STORE_CHECKPOINT_IDS_NOT_SUPPORTED
<msg>
STATE_STORE_CHECKPOINT_LOCATION_NOT_EMPTY
Umístění <checkpointLocation> kontrolního bodu by mělo být prázdné v dávce 0.
Použijte nové umístění kontrolního bodu nebo odstraňte existující data v umístění kontrolního bodu.
STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE
Nekompatibilní transformace schématu s rodinou sloupců=<colFamilyName>, oldSchema=<oldSchema>, newSchema=<newSchema>.
STATE_STORE_DOES_NOT_SUPPORT_REUSABLE_ITERATOR
StateStore <inputClass> nepodporuje opakovaně použitelný iterátor.
STATE_STORE_HANDLE_NOT_INITIALIZED
Deskriptor nebyl inicializován pro tento StatefulProcessor.
Použijte pouze StatefulProcessor v operátoru transformWithState.
STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN
Nesprávný počet pořadových ordinalit=<numOrderingCols> pro kodér rozsahového skenování. Počet pořadových řad nesmí být nula nebo větší než počet sloupců schématu.
STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN
Nesprávný počet sloupců pro předponu =<numPrefixCols> pro skenování předpon kodérem. Sloupce s předponou nemohou mít hodnotu nula ani být rovny nebo větší než počet sloupců ve schématu.
STATE_STORE_INVALID_AVRO_SCHEMA
Zjistilo se neplatné schéma pro kódování Avro.
Další podrobnosti najdete v tématu STATE_STORE_INVALID_AVRO_SCHEMA
STATE_STORE_INVALID_CONFIG_AFTER_RESTART
Mezi restartováními nelze změnit <configName> z <oldConfig> na <newConfig>. Nastavte <configName> na <oldConfig>nebo restartujte pomocí nového adresáře kontrolních bodů.
STATE_STORE_INVALID_PROVIDER
Daný zprostředkovatel úložiště stavů <inputClass> nerozšířuje org.apache.spark.sql.execution.streaming.state.StateStoreProvider.
STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE
Mezi restartováním dotazu nelze změnit <stateVarName> na <newType>. Nastavte <stateVarName> na <oldType>nebo restartujte pomocí nového adresáře kontrolních bodů.
SCHÉMA KLÍČE ÚLOŽIŠTĚ STAVU NENÍ KOMPATIBILNÍ
Zadané schéma klíče neodpovídá existujícímu schématu ve stavu operátoru.
Existující schéma=<storedKeySchema>; zadané schéma=<newKeySchema>.
Pokud chcete spustit dotaz bez ověření schématu, nastavte spark.sql.streaming.stateStore.stateSchemaCheck na hodnotu false.
Mějte na paměti, že spuštění bez ověření schématu může mít ne deterministické chování.
STATE_STORE_NATIVE_ROCKSDB_TIMEOUT
Při přístupu k úložišti stavů RocksDB pro stavové operace streamování vypršel časový limit volání nativní funkce <funcName> RocksDB po čekání na vypršení časového limitu =<timeoutMs> ms. Pokud chyba přetrvává, zkuste to znovu a restartujte cluster.
STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED
Sloupec řazení typu null s názvem=<fieldName> v index=<index> není podporován pro kodér kontroly rozsahu.
STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY
Daný poskytovatel úložiště stavů <inputClass> nerozšiřuje org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay.
Proto tato možnost nepodporuje snapshotStartBatchId ani readChangeFeed ve zdroji stavových dat.
STATE_STORE_ROCKSDB_ZIP_ALREADY_EXISTS
Soubor <zipFilePath> ZIP snímku RocksDB již existuje. To znamená, že snímek je již nahraný do systému souborů DFS.
(allowVersionOverwrite=<allowVersionOverwrite>, shouldUseCommitService=<shouldUseCommitService>)
STATE_STORE_STATE_SCHEMA_FILES_THRESHOLD_EXCEEDED
Počet souborů schématu stavu <numStateSchemaFiles> překračuje maximální počet souborů schématu stavu pro tento dotaz: <maxStateSchemaFiles>.
Přidáno: <addedColumnFamilies>, Odebrané: <removedColumnFamilies>
Nastavte 'spark.sql.streaming.stateStore.stateSchemaFilesThreshold' na vyšší číslo nebo vraťte zpět změny ve schématu stavu.
STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY
Operace stavového úložiště=<operationType> není podporována pro chybějící rodinu sloupců=<colFamilyName>.
STATE_STORE_VALUE_SCHEMA_EVOLUTION_THRESHOLD_EXCEEDED
Počet vývojových schémat stavů <numSchemaEvolutions> překračuje maximální počet vývojových schémat stavů, <maxSchemaEvolutions>, povolený pro tuto rodinu sloupců.
Problemová rodina sloupců: <colFamilyName>
Nastavte hodnotu spark.sql.streaming.stateStore.valueStateSchemaEvolutionThreshold na vyšší číslo nebo vraťte zpět úpravy schématu stavu.
STATE_STORE_VALUE_SCHEMA_NOT_COMPATIBLE
Zadané schéma hodnot neodpovídá existujícímu schématu ve stavu operátoru.
Existující schéma=<storedValueSchema>; zadané schéma=<newValueSchema>.
Pokud chcete spustit dotaz bez ověření schématu, nastavte spark.sql.streaming.stateStore.stateSchemaCheck na hodnotu false.
Mějte na paměti, že spuštění bez ověření schématu může mít ne deterministické chování.
STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED
Sloupec s proměnlivou velikostí s názvem=<fieldName> v indexu=<index> není podporován pro kodér rozsahového skenování.
STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST
Sloupec <staticName> pro statický oddíl je také uveden v seznamu sloupců.
STDS_COMMITTED_BATCH_UNAVAILABLE
Nebyla nalezena žádná potvrzená dávka, umístění kontrolního bodu: <checkpointLocation>. Před zastavením se ujistěte, že se dotaz spustil a potvrdil každý microbatch.
STDS_CONFLICT_OPTIONS
Možnosti <options> nelze zadat společně. Prosím, upřesněte který.
STDS_FAILED_TO_READ_OPERATOR_METADATA
Nepodařilo se přečíst metadata operátoru pro checkpointLocation=<checkpointLocation> a batchId=<batchId>.
Buď soubor neexistuje, nebo je poškozený.
Znovu spusťte streamingový dotaz, abyste vytvořili metadata operátora, a pokud chyba přetrvává, nahlaste to příslušným komunitám nebo dodavatelům.
STDS_FAILED_TO_READ_STATE_SCHEMA
Čtení schématu stavu se nezdařilo. Buď soubor neexistuje, nebo je poškozený. možnosti: <sourceOptions>.
Znovu spusťte streamovací dotaz, abyste vytvořili schéma stavu, a pokud chyba přetrvává, nahlaste příslušné komunity nebo dodavatele.
STDS_INVALID_OPTION_VALUE
Neplatná hodnota pro volbu zdroje '<optionName>':
Další podrobnosti najdete v části STDS_INVALID_OPTION_VALUE
STDS_MIXED_CHECKPOINT_FORMAT_VERSIONS_NOT_SUPPORTED
Stav čtení v různých verzích formátu kontrolních bodů se nepodporuje.
startBatchId=<startBatchId>, endBatchId=<endBatchId>.
startFormatVersion=<startFormatVersion>, endFormatVersion=<endFormatVersion>.
STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE
Stát nemá žádné rozdělení. Pečlivě zkontrolujte, jestli dotaz odkazuje na platný stav. možnosti: <sourceOptions>
STDS_OFFSET_LOG_UNAVAILABLE
Posunový protokol pro <batchId> neexistuje, umístění kontrolního bodu: <checkpointLocation>.
Zadejte ID dávky, které je k dispozici pro dotazování – pomocí zdroje dat metadat stavu můžete dotazovat dostupná dávková ID.
STDS_OFFSET_METADATA_LOG_UNAVAILABLE
Metadata nejsou k dispozici pro protokol posunu pro <batchId>, umístění kontrolního bodu: <checkpointLocation>.
Zdá se, že kontrolní bod běží jenom se staršími verzemi Sparku. Spusťte dotaz streamování s poslední verzí Sparku, aby Spark vytvořil metadata stavu.
STDS_REQUIRED_OPTION_UNSPECIFIED
'<optionName>' musí být specifikován.
STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS
Adaptivní spouštění dotazů není podporováno pro stavové operátory ve strukturovaném streamování.
STREAMING_CHECKPOINT_METADATA_ERROR (Chyba metadata kontrolního bodu streamování)
Chyba s metadaty kontrolního bodu streamování
Další podrobnosti najdete v tématu STREAMING_CHECKPOINT_METADATA_ERROR
STREAMING_CHECKPOINT_PIN_BATCH_ERROR
Operaci připnutí dotazu streamování s umístěním kontrolního bodu=<checkpointLocation> ve službě batchId=<batchId>se nezdařilo.
Další podrobnosti najdete v tématu STREAMING_CHECKPOINT_PIN_BATCH_ERROR
STREAMING_CHECKPOINT_REWIND_ERROR
Nepodařilo se provést operaci převinutí pro dotaz streamování s umístěním kontrolního bodu=<checkpointLocation>.
Další podrobnosti najdete v tématu STREAMING_CHECKPOINT_REWIND_ERROR
STREAMING_CHECKPOINT_REWIND_OPTIONS_ERROR
Při operaci převinutí kontrolního bodu streamování došlo k chybě.
Další podrobnosti najdete v STREAMING_CHECKPOINT_REWIND_OPTIONS_ERROR
STREAMING_FROM_MATERIALIZED_VIEW
Nelze streamovat z materializovaného zobrazení <viewName>. Streamování z materializovaných zobrazení není podporováno.
STREAMING_OUTPUT_MODE
Neplatný režim výstupu streamingu: <outputMode>.
Další podrobnosti najdete v STREAMING_OUTPUT_MODE
STREAMING_QUERY_EVOLUTION_ERROR
Chyba vývoje dotazů streamování:
Další podrobnosti najdete v tématu STREAMING_QUERY_EVOLUTION_ERROR
STREAMING_RATE_SOURCE_OFFSET_VERSION_MISMATCH
Očekává se verze posunutí rychlosti zdroje <expectedVersion>, ale byla verze <actualVersion>. Pokud chcete pokračovat, nastavte v možnostech zdroje rychlosti parametr "version" na <expectedVersion>. Například spark.readStream.format("rate").option("version"; "<expectedVersion>").
STREAMING_RATE_SOURCE_V2_PARTITION_NUM_CHANGE_UNSUPPORTED
Počet oddílů (<prevNum>) použitých v předchozím mikrobatchu se liší od aktuálního počtu oddílů (<currNum>). Můžou existovat dva možné důvody:
Možnost "numPartitions" zdroje rychlosti se během restartování dotazu změní.
Velikost clusteru se může během restartování dotazu změnit.
Explicitně nastavte možnost "numPartitions" zdroje typu rate na <prevNum> pro opravu tohoto problému.
STREAMING_RATE_SOURCE_V2_DOBA_ZVYŠOVÁNÍ_NEPODPOROVÁNO
Možnost rampUpTime není podporována sazbou verze 2. Pokud chcete tuto možnost použít, nastavte možnost "version" na 1. Například spark.readStream.format("rate").option("version"; "1").
STREAMING_REAL_TIME_MODE
Režim streamování v reálném čase má následující omezení:
Další podrobnosti viz STREAMING_REAL_TIME_MODE
STREAMING_REAL_TIME_WATERMARK_PROPAGATION
Šíření vodoznaku streamování v reálném čase má následující omezení:
Další podrobnosti najdete v tématu STREAMING_REAL_TIME_WATERMARK_PROPAGATION
Streamovací způsob doručení cílového zařízení
Neplatný režim doručování koncového bodu streamování: <deliveryMode>.
Další podrobnosti najdete v tématu STREAMING_SINK_DELIVERY_MODE
STREAMING_SKIP_OFFSETS_INVALID_RANGE
Neplatný rozsah posunu přeskočení: konec posunu <endOffset> je menší než počáteční posun <startOffset>. Opravte tento rozsah posunu a zkuste to znovu.
STREAMING_STATEFUL_OPERATOR_MISSING_STATE_DIRECTORY
Dotaz streamování nelze restartovat s stavovými operátory, protože adresář stavu je prázdný nebo chybí.
K tomu obvykle dochází v případě, že byly odstraněny stavové soubory nebo se dříve spustil dotaz streamování bez stavových operátorů, ale restartoval se stavovými operátory.
Odeberte stavové operátory, použijte nové umístění kontrolního bodu nebo obnovte chybějící soubory stavu.
STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA
Název streamovaného stavového operátoru neodpovídá operátoru v metadatech stavu. K tomu pravděpodobně dojde, když uživatel přidá, odebere nebo změní stavový operátor existujícího streamovacího dotazu.
Stavové operátory v metadatech: [<OpsInMetadataSeq>]; Stavové operátory v aktuální dávce: [<OpsInCurBatchSeq>].
STREAMING_TABLE_NEEDS_REFRESH
Streamovací tabulka <tableName> je potřeba aktualizovat, aby bylo možné spustit <operation>.
Pokud je tabulka vytvořená z DBSQL, spusťte REFRESH STREAMING TABLE.
Pokud je tabulka vytvořená kanálem v deklarativních kanálech Sparku Lakeflow, spusťte aktualizaci kanálu.
STREAMING_TABLE_NOT_SUPPORTED
Streamované tabulky je možné vytvářet a aktualizovat pouze v deklarativních kanálech Sparku Lakeflow a databricks SQL Warehouse.
STREAMING_TABLE_OPERATION_NOT_ALLOWED
Operace <operation> není povolená:
Další podrobnosti najdete v části STREAMING_TABLE_OPERATION_NOT_ALLOWED
STREAMING_TABLE_QUERY_INVALID
streamovací tabulku <tableName> lze vytvořit pouze z dotazu streamování. Přidejte do klauzule STREAM klíčové slovo FROM, aby se tento vztah převedl na streamovací dotaz.
STREAM_NOT_FOUND_FOR_KINESIS_SOURCE
Kinesis stream <streamName> v <region> nebyl nalezen.
Spusťte nový dotaz odkazující na správný název datového proudu.
STRUCT_ARRAY_LENGTH_MISMATCH
Vstupní řádek nemá očekávaný počet hodnot požadovaných schématem. Pole <expected> jsou vyžadována, zatímco hodnoty <actual> jsou poskytnuty.
ST_INVALID_ALGORITHM_VALUE
Neplatná nebo nepodporovaná hodnota algoritmu interpolace hraničních zařízení: '<alg>'.
ST_INVALID_CRS_VALUE
Neplatná nebo nepodporovaná hodnota CRS (referenční systém souřadnic): '<crs>'.
ST_INVALID_SRID_VALUE
Neplatná nebo nepodporovaná hodnota SRID (identifikátor prostorového odkazu): <srid>.
SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT
Součet klauzule LIMIT a klauzule OFFSET nesmí být větší než maximální 32bitová celočíselná hodnota (2 147 483 647), ale nalezen limit = <limit>, posun = <offset>.
SYNC_METADATA_DELTA_ONLY
Příkaz opravit metadata synchronizace tabulek je podporován pouze pro delta tabulku.
SYNC_SRC_TARGET_TBL_NOT_SAME
Název zdrojové tabulky <srcTable> musí být stejný jako název cílové tabulky <destTable>.
SYNTAX_DISCONTINUED
Podpora klauzule nebo klíčového slova: <clause> byla v tomto kontextu ukončena.
Další podrobnosti najdete v tématu SYNTAX_DISCONTINUED
Argumenty tabulky nejsou povoleny
TABLE parametry nejsou podporovány v <routineType>.
TABLE_NOT_VALID_SECONDARY_INDEX
Spuštění příkazu se DESCRIBE SEARCH INDEX nezdařilo, protože tabulka <tableName> není platný <indexType> index. Aktualizujte příkaz tak, aby používal platný index, a zkuste ho znovu.
TABLE_OR_VIEW_ALREADY_EXISTS
Nelze vytvořit tabulku nebo zobrazit <relationName>, protože již existuje.
Zvolte jiný název, přetáhněte existující objekt, přidejte klauzuli IF NOT EXISTS pro tolerování existujících objektů, přidejte klauzuli OR REPLACE, která nahradí existující materializované zobrazení, nebo přidejte klauzuli OR REFRESH pro aktualizaci existující streamovací tabulky.
TABLE_OR_VIEW_NOT_FOUND
Tabulku nebo zobrazení <relationName> nelze najít. Ověřte pravopis a správnost schématu a katalogu.
Pokud jste název nespecifikovali pomocí schématu, zkontrolujte výstup current_schema(), anebo specifikujte název se správným schématem a katalogem.
Chcete-li tolerovat chybu při pádu, použijte DROP VIEW IF EXISTS nebo DROP TABLE IF EXISTS.
Více informací najdete v TABLE_OR_VIEW_NOT_FOUND
TABLE_TYPE_INCOMPATIBLE_WITH_ABAC_POLICY
Typ <tableName>, <tableType>tabulky nepodporuje zásady ABAC.
Odstraňte politiky a zkuste to znovu.
TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS
Nelze <action> uživatelem definovanou funkci SQL <functionName> s TABLE argumenty použít, protože tato funkcionalita ještě není implementována.
TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON
Nepovedlo se analyzovat uživatelem definovanou funkci tabulky Pythonu: <msg>
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL
Nepodařilo se vyhodnotit funkci tabulky <functionName>, protože její metadata tabulky <requestedMetadata>nebyla správná, ale volání funkce bylo <invalidFunctionCallProperty>.
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID
Nepodařilo se vyhodnotit funkci tabulky <functionName>, protože její metadata tabulky byla neplatná; <reason>.
TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS
Pro funkci s hodnotou tabulky existuje příliš mnoho argumentů tabulky.
Umožňuje jeden argument tabulky, ale obdržel: <num>.
Pokud ho chcete povolit, nastavte spark.sql.allowMultipleTableArguments.enabled na hodnotu true.
TABLE_WITH_ID_NOT_FOUND
Tabulku s ID <tableId> nelze najít. Ověřte správnost UUID.
TASK_WRITE_FAILED
Úloha se nezdařila při zápisu řádků do <path>.
TEMP_CHECKPOINT_LOCATION_NOT_SUPPORTED
Implicitní dočasná umístění kontrolních bodů streamování nejsou v aktuálním pracovním prostoru podporována, zadejte umístění kontrolního bodu explicitně.
Pro display() nastavte umístění kontrolního bodu pomocí:
display(df; checkpointLocation = "your_path")
Pro všechny ostatní dotazy streamování použijte:
.option("checkpointLocation"; "your_path").
TEMP_TABLE_CREATION_LEGACY_WITH_QUERY
CREATE TEMPORARY TABLE
...
AS ... zde není podporováno, použijte CREATE TEMPORARY VIEW místo toho
TEMP_TABLE_CREATION_MUTUAL_EXCLUSIVE_SPECS
CREATE TEMPORARY TABLE nepodporuje zadávání <unsupportedSpec>.
Další podrobnosti najdete v tématu TEMP_TABLE_CREATION_MUTUAL_EXCLUSIVE_SPECS
TEMP_TABLE_CREATION_NAME_RESERVED
Nelze vytvořit dočasnou tabulku <tableName> , protože začíná vyhrazenou předponou <reservedPrefix>názvu . Zvolte jiný název a zkuste to znovu.
TEMP_TABLE_CREATION_NOT_SUPPORTED_IN_COMPUTE
CREATE TEMPORARY TABLE [AS ... ] není podporováno s aktuálním typem výpočetních prostředků. Místo toho použijte Databricks SQL (DBSQL) k vytvoření dočasných tabulek místních relací.
TEMP_TABLE_CREATION_REQUIRES_SINGLE_PART_NAME
Vytvoření dočasné tabulky, která je lokální pro relaci, vyžaduje jednodílný název tabulky, ale byl poskytnut <tableName>. Aktualizujte příkaz tak, aby používal název tabulky s jednou částí a zkuste to znovu.
TEMP_TABLE_CREATION_UNSUPPORTED_LEGACY_SYNTAX_WITH_HINTS
CREATE TEMPORARY TABLE
...
USING
...
AS ... není podporováno. Pokud chcete vytvořit dočasnou tabulku, odeberte USING klauzuli a zkuste to znovu.
TEMP_TABLE_DELETION_MUTUAL_EXCLUSIVE_SPECS
DROP TEMPORARY TABLE nepodporuje zadávání <unsupportedSpec>, odeberte prosím tuto specifikaci nebo místo příkazu DROP TABLE odstraňte trvalou tabulku.
TEMP_TABLE_DELETION_REQUIRES_SINGLE_PART_NAME
Vyřazení relace-lokální dočasné tabulky vyžaduje název tabulky s jednou částí, ale bylo získáno <tableName>. Aktualizujte příkaz DROP TEMPORARY TABLE, aby používal jednočlenný název tabulky k odstranění dočasné tabulky, nebo místo toho použijte příkaz DROP TABLE k odstranění trvalé tabulky.
TEMP_TABLE_NOT_FOUND
V aktuální relaci nelze nalézt dočasnou tabulku <tableName>. Ověřte pravopis a správnost názvu tabulky a zkuste dotaz nebo příkaz zopakovat.
Chcete-li tolerovat chybu při poklesu, použijte DROP temp TABLE IF EXISTS.
Dočasné tabulky nejsou podporovány v úlohách Databricks
Dočasné tabulky nejsou v rámci úloh Databricks zatím podporovány. Místo toho použijte poznámkové bloky Databricks a požádejte o další informace podporu Databricks.
TEMP_TABLE_NOT_SUPPORTED_WITH_HMS
Dočasná operace <operation> tabulky není v metastoru Hive podporovaná.
TEMP_TABLE_OPERATION_NOT_SUPPORTED
Operace na relaci s místní dočasnou tabulkou <tableName> nejsou podporovány.
Další podrobnosti najdete v TEMP_TABLE_OPERATION_NOT_SUPPORTED
TEMP_TABLE_OPERATION_NOT_SUPPORTED_IN_V1_COMMAND
<operation> příkazy V1 nepodporují dočasné tabulky. Nastavte spark.sql.legacy.useV1Command na false a zkuste to znovu.
TEMP_TABLE_OR_VIEW_ALREADY_EXISTS
Dočasnou tabulku nebo zobrazení <relationName> nelze vytvořit, protože již existuje.
Zvolte jiný název, přetáhněte nebo nahraďte existující objekt.
TEMP_TABLE_REPLACE_NOT_SUPPORTED
[CREATE NEBO] REPLACE TEMPORARY TABLE není podporován. Chcete-li nahradit existující dočasnou tabulku, odstraňte ji pomocí DROP TEMPORARY TABLE ... [IF EXISTS] a znovu ho vytvořte pomocí CREATE TEMPORARY TABLE ... .
TEMP_TABLE_REQUIRES_DATABRICKS_ENV
Operace s místními dočasnými tabulkami relace vyžadují prostředí Databricks.
TEMP_TABLE_REQUIRES_DELTA
Operace s dočasnými tabulkami relace vyžadují povolení katalogu Delta. Zapněte katalog Delta a zkuste to znovu.
TEMP_TABLE_REQUIRES_UC
Operace s dočasnými tabulkami místní relace vyžadují katalog Unity. Povolte katalog Unity ve svém spuštěném prostředí a zkuste to znovu.
TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS
CREATE TEMPORARY VIEW nebo odpovídající rozhraní API datové sady přijímají pouze jednodílné názvy zobrazení, ale obdržel: <actualName>.
THETA_INVALID_INPUT_SKETCH_BUFFER
Neplatné volání <function>; jsou podporovány pouze platné vyrovnávací paměti skica Theta jsou podporovány jako vstupy (například ty, které vytvořila theta_sketch_agg funkce).
THETA_INVALID_LG_NOM_ENTRIES
Neplatné volání <function>; hodnota lgNomEntries musí být mezi <min> a <max>včetně <value>.
THETA_LG_NOM_ENTRIES_MUST_BE_CONSTANT
Neplatné volání <function>; lgNomEntries hodnota musí být konstantní hodnota, ale má nekontinuární výraz.
TRAILING_COMMA_IN_SELECT
Koncová čárka byla zjištěna v klauzuli SELECT Odeberte koncovou čárku před klauzulí FROM.
TRANSACTION_CDF_SCHEMA_WITH_RESERVED_COLUMN_NAME
Změnit datový kanál nelze v transakci povolit, protože tabulka obsahuje název vyhrazeného sloupce (<column_name>).
Pokud chcete pokračovat, ujistěte se, že tabulka používá pouze názvy sloupců, které nejsou rezervované.
TRANSACTION_CDF_SETTING_HIGH_WATERMARK_NOT_ALLOWED
Ruční nastavení mezní hodnoty identit CDC není povoleno.
TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE
U objektu <table>byla zjištěna souběžná změna metadat . Spusťte ROLLBACK a opakujte tuto transakci. Details:
Další podrobnosti najdete v tématu TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE
TRANSACTION_CONTEXT_MISMATCH
Mezi aktuálním vláknem a relací Sparku byla zjištěna nekonzistence kontextu transakce. K tomu obvykle dochází v případě, že se relace Sparku sdílí napříč více vlákny. Použijte vyhrazenou relaci a vlákno pro každou transakci a před opětovným použitím relace a vlákna pro novou transakci potvrďte nebo vraťte transakci v jejím vlákně. Details:
Další podrobnosti najdete v tématu TRANSACTION_CONTEXT_MISMATCH
TRANSACTION_MAX_COMMIT_TIMESTAMP_EXCEEDED
Transakce se nemůže potvrdit při překročení maximálního časového razítka potvrzení. maxCommitTimestamp: commitTimestamp:<maxCommitTimestampMs><commitTimestampMs>
TRANSACTION_NOT_SUPPORTED
Nepodařilo se provést příkaz.
Další podrobnosti najdete v tématu TRANSACTION_NOT_SUPPORTED
TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT
Aktuální transakce byla přerušena. Než budete pokračovat, spusťte ROLLBACK TRANSACTION. Důvod přerušení:
Další podrobnosti najdete v tématu TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT
TRANSFORM_WITH_STATE_USER_FUNCTION_ERROR
V uživatelem definované funkci <function> StatefulProcessor došlo k chybě. Důvod: <reason>.
TRANSPOSE_EXCEED_ROW_LIMIT
Počet řádků překračuje povolený limit <maxValues> pro TRANSPOSE. Pokud to bylo zamýšleno, nastavte <config> alespoň aktuální počet řádků.
TRANSPOSE_INVALID_INDEX_COLUMN
Neplatný indexový sloupec pro TRANSPOSE:<reason>
TRANSPOSE_NO_LEAST_COMMON_TYPE
Transponování vyžaduje, aby sloupce bez indexu sdílely nejbližší společný typ, ale <dt1> a <dt2> nikoliv.
TRIGGER_INTERVAL_INVALID
Interval spouštění musí být kladný čas, který lze převést na celé sekundy. Přijato: <actual> sekund.
TUPLE_IS_EMPTY
Vzhledem k omezené podpoře n-tic v jazyce Scala není podporována prázdná n-tice.
TUPLE_SIZE_EXCEEDS_LIMIT
Vzhledem k omezené podpoře n-tic v Scala se n-tice s více než 22 prvků nepodporují.
UC_BUCKETED_TABLES
Kontejnerové tabulky nejsou v katalogu Unity podporované.
UC_CATALOG_NAME_NOT_PROVIDED
V případě katalogu Unity zadejte explicitně název katalogu. Např. SHOW GRANT your.address@email.com ON CATALOG hlavní.
UC_COMMAND_NOT_SUPPORTED
Příkazy: <commandName> nejsou v katalogu Unity podporované.
Další podrobnosti najdete v tématu UC_COMMAND_NOT_SUPPORTED
UC_COMMAND_NOT_SUPPORTED_IN_SERVERLESS
Příkazy: <commandName> nejsou podporovány pro clustery katalogu Unity v bezserverové verzi. Místo toho použijte jeden uživatel nebo sdílené clustery.
UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE
Příkazy: <commandName> nejsou podporovány pro clustery katalogu Unity v režimu sdíleného přístupu. Místo toho použijte režim přístupu jednoho uživatele.
UC_CONNECTION_NOT_FOUND_FOR_FILE_SYSTEM_SOURCE_ACCESS
Nelze najít platné připojení UC pro přístup <path> po vyhodnocení <connectionNames>.
Ujistěte se, že pro přístup k cílové cestě je k dispozici aspoň jedno platné připojení UC.
Podrobné chyby pro vyhodnocená připojení:
<connectionErrors>
UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED
Zadaný druh přihlašovacích údajů není podporován.
UC_DATASOURCE_NOT_SUPPORTED
Formát zdroje dat <dataSourceFormatName> není v katalogu Unity podporován.
UC_DATASOURCE_OPTIONS_NOT_SUPPORTED
Možnosti zdroje dat nejsou v katalogu Unity podporované.
UC_DEPENDENCY_DOES_NOT_EXIST
Závislost v katalogu Unity neexistuje:
<errorMessage>
UC_EXTERNAL_VOLUME_MISSING_LOCATION
LOCATION podmínka musí být přítomna pro externí svazek. Zkontrolujte syntaxi ...CREATE EXTERNAL VOLUME...LOCATION pro vytvoření externího svazku.
UC_FAILED_PROVISIONING_STATE
Dotaz selhal, protože se pokusil odkazovat na tabulku <tableName>, ale nemohl to provést: <failureReason>. Aktualizujte tabulku <tableName>, abyste měli jistotu, že je ve stavu aktivního zřizování, a opakujte dotaz.
UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED
Vytvoření tabulky v katalogu Unity se schématem souborů <schemeName> se nepodporuje.
Místo toho vytvořte federované připojení ke zdroji dat pomocí příkazu CREATE CONNECTION pro stejného poskytovatele tabulky a pak vytvořte katalog založený na připojení s příkazem CREATE FOREIGN CATALOG, který odkazuje na tabulky v nich.
UC_HIVE_METASTORE_DISABLED_EXCEPTION
Operace se pokusila použít metastor<identifier> Hive, který je zakázaný kvůli vypnutí starší verze přístupu ve vašem účtu nebo pracovním prostoru. Pečlivě zkontrolujte výchozí katalog v aktuální relaci a výchozí nastavení oboru názvů. Pokud potřebujete získat přístup k metastoru Hive, požádejte správce, aby prostřednictvím katalogu Unity nastavil federaci metastoru Hive.
UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED
Pohled federace metastoru Hive nepodporuje závislosti v rámci více katalogů. Zobrazení <view> v katalogu Federace Hive Metastore musí používat závislost z katalogu hive_metastore nebo spark_catalog, ale jeho závislost <dependency> je v jiném katalogu <referencedCatalog>. Aktualizujte závislosti tak, aby vyhovovaly tomuto omezení, a opakujte dotaz nebo příkaz znovu.
UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED
Federace metastoru Hive není v tomto clusteru povolená.
Přístup ke <catalogName> katalogu není v tomto clusteru podporovaný.
UC_INVALID_DEPENDENCIES
Závislosti <securable> se zaznamenávají jako <storedDeps> při zpracování jako <parsedDeps>. K tomu pravděpodobně došlo prostřednictvím nesprávného použití rozhraní API jiného než SQL.
Další podrobnosti najdete v tématu UC_INVALID_DEPENDENCIES
UC_INVALID_NAMESPACE
V katalogu Unity nejsou podporované vnořené nebo prázdné obory názvů.
UC_INVALID_REFERENCE
Objekt, který neníUnity-Catalog <name> , nelze odkazovat v objektech katalogu Unity.
UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED
Podpora zápisu služby Unity Catalog Lakehouse Federation není pro poskytovatele <provider> v tomto clusteru povolená.
UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED
Řízený svazek nepřijímá klauzuli LOCATION. Zkontrolujte syntaxi 'CREATE VOLUME ...' pro vytvoření spravovaného svazku.
UC_NOT_ENABLED
V tomto clusteru není povolený katalog Unity.
UC_QUERY_FEDERATION_NOT_ENABLED
Federace dotazů katalogu Unity není v tomto clusteru povolená.
UC_RESOLVED_DBFS_PATH_MISMATCH
Dotaz se nepovedl, protože se pokusil odkázat na <objectType> <name>, ale nebylo to možné provést: Vyřešená cesta do DBFS <resolvedHmsPath> neodpovídá umístění úložiště katalogu Unity <ucStorageLocation>.
UC_SECRETS_NOT_ENABLED
Podpora tajných kódů katalogu Unity není povolená.
Tajný kód UC již existuje
Tajný klíč <name> nelze vytvořit, protože již existuje.
Zvolte jiný název, odstraňte nebo nahraďte existující objekt, nebo přidejte klauzuli IF NOT EXISTS, aby tolerovaly před-ú existující objekty.
UC_SECRET_NOT_FOUND
Tajný kód <name> neexistuje. K výpisu dostupných tajných kódů použijte 'SHOW SECRETS'.
UC_SERVICE_CREDENTIALS_NOT_ENABLED
V tomto clusteru nejsou povoleny přihlašovací údaje služby.
UC_TABLE_METADATA_OUT_OF_SYNC
Tabulku nelze dotazovat, protože metadata tabulky <tableName> nejsou synchronizovaná v katalogu. Opravte tabulku tak, že nejprve spustíte MSK REPAIR TABLE <tableName> SYNC METADATA, aby se synchronizovala metadata.
UC_UNCAUGHT_CLIENT_EXCEPTION
Při komunikaci s back-endem katalogu Databricks Unity došlo k neočekávané chybě HTTP. Kód chyby: <errCode>. Zpráva: <message>
UC_VOLUMES_NOT_ENABLED
Podpora pro Unity Catalog Volumes není v této instance povolena.
UC_VOLUMES_NOT_SUPPORTED
Svazky nejsou pro tuto operaci podporovány. Zadaná cesta byla "<path>".
UC_VOLUMES_SHARING_NOT_ENABLED
Podpora sdílení svazků není v tomto případě povolena.
UC_VOLUME_NOT_FOUND
Svazek <name> neexistuje. K výpisu dostupných svazků použijte "SHOW VOLUMES".
UDF_ENVIRONMENT_ERROR
Nepodařilo se nainstalovat závislosti UDF pro <udfName> kvůli systémové chybě.
Další podrobnosti najdete v tématu UDF_ENVIRONMENT_ERROR
UDF_ENVIRONMENT_USER_ERROR
Nepodařilo se nainstalovat závislosti UDF pro <udfName>.
Další podrobnosti najdete v tématu UDF_ENVIRONMENT_USER_ERROR
UDF_ERROR
SQLSTATE: žádný přiřazený
Spuštění funkce <fn> selhalo
Další podrobnosti najdete v tématu UDF_ERROR
UDF_LIMITS
Došlo k překročení jednoho nebo více uživatelsky definovaných limitů (UDF).
Další podrobnosti najdete v tématu UDF_LIMITS
UDF_MAX_COUNT_EXCEEDED
Překročeno limit uživatelsky definovaných funkcí (UDF) pro dotaz ve výši <maxNumUdfs> UDF (omezeno během Public Preview). Nalezeno <numUdfs>. UDF byly: <udfNames>.
UDF_PYSPARK_ERROR
Pracovní proces Pythonu se neočekávaně ukončil
Podrobnosti naleznete v části UDF_PYSPARK_ERROR
UDF_PYSPARK_UNSUPPORTED_TYPE
Funkce PySpark UDF <udf> (<eval-type>) není podporována v clusterech v režimu sdíleného přístupu.
UDF_PYSPARK_USER_CODE_ERROR
Spuštění se nezdařilo.
Další podrobnosti najdete v UDF_PYSPARK_USER_CODE_ERROR
UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE
Výchozí hodnota parametru není podporována pro uživatelem definovanou funkci <functionType>.
UDF_USER_CODE_ERROR
Spuštění funkce <fn> selhalo.
Další podrobnosti viz UDF_USER_CODE_ERROR
UDTF_ALIAS_NUMBER_MISMATCH
Počet aliasů zadaných v AS klauzuli neodpovídá počtu sloupců výstupu UDTF.
Očekávali jsme <aliasesSize> aliasů, ale dostali jsme <aliasesNames>.
Ujistěte se, že počet zadaných aliasů odpovídá počtu sloupců, které vrací UDTF.
UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD
Nepovedlo se vyhodnotit uživatelem definovanou funkci tabulky, protože její metoda Analyze vrátila požadovanou hodnotu OrderingColumn, jejíž výraz názvu sloupce obsahoval nepotřebný alias <aliasName>. Odeberte tento alias a potom zkuste dotaz zopakovat.
UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS
Nepovedlo se vyhodnotit uživatelem definovanou funkci tabulky, protože její metoda analyze vrátila požadovaný výraz select (<expression>), který neobsahuje odpovídající alias. Aktualizujte UDTF tak, aby tam zadal alias, a pak dotaz opakujte.
UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE
Nelze převést typ SQL <toType> na typ Protobuf <protobufType>.
UNABLE_TO_FETCH_HIVE_TABLES
Nelze načíst tabulky databáze Hive: <dbName>. Název třídy chyby: <className>.
Neschopnost odvodit schéma tabulky v rámci pipeliny (UNABLE_TO_INFER_PIPELINE_TABLE_SCHEMA)
Nepodařilo se odvodit schéma tabulky <tableName> z nadřazených toků.
Upravte toky, které do této tabulky zapisují, aby byly jejich schémata kompatibilní.
Dosud odvozené schéma:
<inferredDataSchema>
Nekompatibilní schéma:
<incompatibleDataSchema>
UNABLE_TO_INFER_SCHEMA
Nelze odvodit schéma pro <format>. Musí být zadán ručně.
NEOVĚŘENÝ
Požadavek nemá pro operaci platné ověřovací přihlašovací údaje.
UNAUTHORIZED_ACCESS
Neoprávněný přístup:
<report>
UNBOUND_SQL_PARAMETER
Byl nalezen nevázaný parametr: <name>. Opravte args a zadejte mapování parametru na funkce literálu SQL nebo konstruktoru kolekce, například map(), array(), struct().
UNCLOSED_BRACKETED_COMMENT
Nalezen neuzavřený komentář v hranatých závorkách. Připojte */ na konec komentáře.
UNEXPECTED_INPUT_TYPE
Parametr <paramIndex><functionName> funkce vyžaduje typ <requiredType>, ale <inputSql> má typ <inputType>.
UNEXPECTED_INPUT_TYPE_OF_NAMED_PARAMETER
Parametr <namedParamKey> funkce <functionName> vyžaduje typ <requiredType>, ale <inputSql> má typ <inputType>.<hint>
UNEXPECTED_OPERATOR_IN_STREAMING_VIEW
Neočekávaný operátor <op> v příkazu CREATE VIEW jako zdroj streamování.
Dotaz zobrazení streamování musí obsahovat pouze SELECT, WHEREoperace a UNION ALL operace.
UNEXPECTED_POSITIONAL_ARGUMENT
Nelze vyvolat rutinní <routineName>, protože obsahuje poziční argumenty za pojmenovaným argumentem přiřazeným <parameterName>; změňte jejich uspořádání tak, aby argumenty pozice přišly jako první a pak dotaz opakujte.
UNEXPECTED_SERIALIZER_FOR_CLASS
Třída <className> má neočekávaný serializátor výrazů. Očekává "STRUCT" nebo "IF", které vrací "STRUCT", ale nalezen <expr>.
UNION_NOT_SUPPORTED_IN_RECURSIVE_CTE
Operátor UNION se zatím nepodporuje v běžných tabulkových výrazech s rekurzí (WITH klauzule, které se odkazují samy na sebe, přímo nebo nepřímo). Místo toho použijte UNION ALL.
UNIKÁTNÍ_Omezení_DEAKTIVOVÁNO
Funkce jedinečného omezení je zakázaná. Pokud ho chcete povolit, nastavte hodnotu "spark.databricks.sql.dsv2.unique.enabled" na hodnotu true.
UNKNOWN_FIELD_EXCEPTION
Během zpracování se vyskytl <changeType>: <unknownFieldBlob>, který může být opraven automatickým pokusem o opakování: <isRetryable>
Další podrobnosti najdete v tématu UNKNOWN_FIELD_EXCEPTION
UNKNOWN_POSITIONAL_ARGUMENT
Vyvolání rutinního <routineName> obsahuje neznámý poziční argument <sqlExpr> na pozici <pos>. Toto je neplatné.
UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT
Neznámý primitivní typ s ID <id> byl nalezen v hodnotě varianty.
UNKNOWN_PROTOBUF_MESSAGE_TYPE
Pokus o považování <descriptorName> za zprávu, ale byl <containingType>.
UNPIVOT_REQUIRES_ATTRIBUTES
UNPIVOT vyžaduje, aby všechny zadané výrazy <given> byly sloupce, pokud nejsou zadané žádné výrazy <empty>. Nejsou to sloupce: [<expressions>].
UNPIVOT_REQUIRES_VALUE_COLUMNS
Pro UNPIVOTje nutné zadat alespoň jeden sloupec s hodnotou, všechny sloupce musí být zadány jako ID.
UNPIVOT_VALUE_DATA_TYPE_MISMATCH
Sloupce hodnot musí sdílet nejběžnější společný typ, některé typy takový typ nemají: [<types>].
UNPIVOT_VALUE_SIZE_MISMATCH
Všechny sloupce hodnot pro nerozbalení musí mít stejnou velikost jako počet názvů sloupců hodnot (<names>).
UNRECOGNIZED_PARAMETER_NAME
Nelze vyvolat rutinu <routineName>, protože volání rutiny zahrnovalo pojmenovaný odkaz na argument s názvem <argumentName>, ale tato rutina neobsahuje žádnou deklaraci obsahující argument s tímto názvem. Mysleli jste jednu z následujících věcí? [<proposal>].
UNRECOGNIZED_SQL_TYPE
Nerozpoznaný typ SQL – název: <typeName>, ID: <jdbcType>.
UNRECOGNIZED_STATISTIC
Statistika <stats> není rozpoznána. Platné statistiky zahrnují count, count_distinct, approx_count_distinct, mean, stddev, min, maxa percentilové hodnoty. Percentil musí být číselná hodnota následovaná "%" v rozsahu 0% až 100%.
UNRESOLVABLE_TABLE_VALUED_FUNCTION
Nelze přeložit <name> na funkci s hodnotou tabulky.
Ujistěte se, že je <name> definována jako funkce s hodnotou tabulky a že jsou správně zadané všechny požadované parametry.
Pokud <name> není definována, vytvořte před jejím použitím tabulkovou funkci.
Další informace o definování funkcí s hodnotami tabulky najdete v dokumentaci k Apache Sparku.
UNRESOLVED_ALL_IN_GROUP_BY
Nelze odvodit seskupení sloupců pro GROUP BY ALL na základě klauzule select. Výslovně uveďte, které sloupce slouží k seskupení.
UNRESOLVED_COLUMN
Sloupec, proměnná nebo parametr funkce s názvem <objectName> nelze vyřešit.
Další podrobnosti najdete v části UNRESOLVED_COLUMN
UNRESOLVED_COLUMN_AMONG_FIELD_NAMES
Nelze přeložit název sloupce "<colName>" mezi (<fieldNames>).
UNRESOLVED_FIELD
Pole s názvem <fieldName> nelze vyřešit pomocí sloupce typu struktury <columnPath>.
Další podrobnosti najdete v UNRESOLVED_FIELD
UNRESOLVED_INSERT_REPLACE_USING_COLUMN
REPLACE USING sloupec <colName> nelze vyřešit v <relationType>.
Mysleli jste jeden z následujících sloupců? [<suggestion>].
UNRESOLVED_MAP_KEY
Nelze vyřešit sloupec <objectName> jako klíč k mapě. Pokud je klíč textovým literálem, přidejte kolem něj jednoduché uvozovky ''.
Další podrobnosti najdete na UNRESOLVED_MAP_KEY
UNRESOLVED_ROUTINE
Nelze vyřešit proceduru <routineName> v cestě hledání <searchPath>.
Ověřte pravopis <routineName>, zkontrolujte, jestli tato rutina existuje, a ověřte, že máte oprávnění USE pro katalog a schéma a EXECUTE v rutině.
Další podrobnosti najdete v UNRESOLVED_ROUTINE
UNRESOLVED_TABLE_PATH
Cestu k úložišti pro tabulku <identifier> nelze vyřešit.
UNRESOLVED_USING_COLUMN_FOR_JOIN
USING sloupec <colName> nelze vyřešit na straně <side> při spojení. Sloupce na straně <side>: [<suggestion>].
UNRESOLVED_VARIABLE
Nelze vyřešit proměnnou <variableName> v hledací cestě <searchPath>.
UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_FILE_FORMAT
Formát nestrukturovaného souboru <format> není podporován. Podporované formáty souborů jsou <supportedFormats>.
Aktualizujte format z výrazu <expr> na některý z podporovaných formátů a pak dotaz opakujte.
UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_MODEL_OPTION
Není podporována možnost nestrukturovaného modelu ('<option>' -> '<value>'). Podporované hodnoty jsou: <supportedValues>.
Přepněte na jednu z podporovaných hodnot a opakujte dotaz.
UNSTRUCTURED_OCR_COLUMN_NOT_ALLOWED_WITH_METADATA_MODEL_OPTION
Parametr funkce ocrText musí být NULL nebo vynechán, pokud je zadána možnost metadataModel. Zadaná možnost metadataModel aktivuje extrakci metadat, kde je zadaná hodnota ocrText zakázaná.
UNSUPPORTED_ADD_FILE
Nepodporuje přidání souboru.
Další podrobnosti viz UNSUPPORTED_ADD_FILE
UNSUPPORTED_ALTER_COLUMN_PARAMETER
Nelze zadat <parameter> spolu s ALTER <commandTableType>.
UNSUPPORTED_ARROWTYPE
Nepodporovaný typ šipky <typeName>.
UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION
Funkce <funcName> nepodporuje dávkové dotazy.
UNSUPPORTED_CALL
Nelze zavolat metodu "<methodName>" třídy "<className>".
Další podrobnosti najdete v UNSUPPORTED_CALL
UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING
Typ char/varchar nelze použít ve schématu tabulky.
Pokud chcete, aby Spark s nimi zachází jako s typem řetězce stejně jako se Sparkem 3.0 a starším, nastavte "spark.sql.legacy.charVarcharAsString" na hodnotu true.
Nepodporovaná kolace pro CHAR nebo VARCHAR
Typ char/varchar <type> nemůže mít zadanou kolaci.
UNSUPPORTED_CLAUSE_FOR_OPERATION
<clause> se pro <operation>nepodporuje.
UNSUPPORTED_COLLATION
Třídění <collationName> není podporováno pro:
Další podrobnosti najdete v UNSUPPORTED_COLLATION
UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE
Společný nadřazený mezi zdrojovou cestou a sourceArchiveDir by měl být zaregistrován v UC.
Pokud se zobrazí tato chybová zpráva, pravděpodobně zaregistrujete zdrojovou cestu a sourceArchiveDir v různých externích umístěních.
Umístěte je na jedno externí místo.
UNSUPPORTED_CONNECT_FEATURE
Funkce se v připojení Sparku nepodporuje:
Další podrobnosti najdete v tématu UNSUPPORTED_CONNECT_FEATURE
NEPODPOROVANÁ_CHARAKTERISTIKA_OMEZENÍ
Vlastnost omezení '<characteristic>' není podporována pro typ omezení '<constraintType>'.
UNSUPPORTED_CONSTRAINT_CLAUSES
Klauzule constraint <clauses> nejsou podporovány.
UNSUPPORTED_CONSTRAINT_TYPE
Nepodporovaný typ omezení Jsou podporovány jenom <supportedConstraintTypes>
UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY
Nepodporovaný typ zdroje dat pro přímý dotaz na soubory: <dataSourceType>
UNSUPPORTED_DATATYPE
Nepodporovaný datový typ <typeName>.
UNSUPPORTED_DATA_SOURCE_SAVE_MODE
Zdroj dat "<source>" nelze zapsat v <createMode> režimu. Místo toho použijte režim "Připojit" nebo "Přepsat".
UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE
Zdroj <format> dat nepodporuje sloupec <columnName> typu <columnType>.
UNSUPPORTED_DATA_TYPE_FOR_ENCODER
Nelze vytvořit kodér pro <dataType>. Pro UDF nebo Datový rámec použijte jiný výstupní datový typ.
UNSUPPORTED_DEFAULT_VALUE
Hodnota sloupce DEFAULT není podporována.
Další podrobnosti viz UNSUPPORTED_DEFAULT_VALUE
UNSUPPORTED_DESERIALIZER
Deserializátor není podporován.
Další podrobnosti viz UNSUPPORTED_DESERIALIZER
UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
Nelze vytvořit vygenerovaný sloupec <fieldName> s generačním výrazem <expressionStr>, protože <reason>.
UNSUPPORTED_EXPR_FOR_OPERATOR
Operátor dotazu obsahuje jeden nebo více nepodporovaných výrazů.
Zvažte jeho přepsání, aby se zabránilo funkcím oken, agregačním funkcím a funkcím generátoru v klauzuli WHERE.
Neplatné výrazy: [<invalidExprSqls>]
UNSUPPORTED_EXPR_FOR_PARAMETER
Parametr dotazu obsahuje nepodporovaný výraz.
Parametry můžou být proměnné nebo literály.
Neplatný výraz: [<invalidExprSql>]
UNSUPPORTED_EXPR_FOR_WINDOW
Výraz <sqlExpr> není podporován v rámci funkce okna.
UNSUPPORTED_FEATURE
Tato funkce není podporovaná:
Další informace naleznete v tématu UNSUPPORTED_FEATURE
UNSUPPORTED_FN_TYPE
Nepodporovaný typ uživatelem definované funkce: <language>
UNSUPPORTED_GENERATOR
Generátor není podporován:
Další podrobnosti najdete v tématu UNSUPPORTED_GENERATOR
UNSUPPORTED_GROUPING_EXPRESSION
grouping()/grouping_id() lze použít pouze s groupingSets/Cube/Rollup.
UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE
<trigger> s počáteční pozicí <initialPosition> není podporováno u zdroje Kinesis
UNSUPPORTED_INSERT
Nelze vložit do cíle.
Další podrobnosti najdete v UNSUPPORTED_INSERT
UNSUPPORTED_JOIN_TYPE
Nepodporovaný typ spojení '<typ>'. Mezi podporované typy spojení patří: <supported>.
UNSUPPORTED_MANAGED_TABLE_CREATION
Vytvoření spravované tabulky <tableName> pomocí <dataSource> zdroje dat se nepodporuje. Potřebujete použít zdroj DELTA dat nebo vytvořit externí tabulku pomocí...CREATE EXTERNAL TABLE <tableName>USING <dataSource> ...
UNSUPPORTED_MERGE_CONDITION
Operace MERGE obsahuje nepodporovanou podmínku <condName>.
Další podrobnosti najdete v tématu UNSUPPORTED_MERGE_CONDITION
UNSUPPORTED_METADATA_KEY
Nepodporovaný klíč metadat: <key>. Podporované klíče: <supportedKeys>.
UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY
Tabulka <tableName> má zásady zabezpečení na úrovni řádků nebo masku sloupců, které nepřímo odkazují na jinou tabulku se zásadami zabezpečení na úrovni řádků nebo maskou sloupce; to není podporováno. Posloupnost volání: <callSequence>
NEPODPOROVANÁ_OPERACE_PRO_NEKONTINUÁLNÍ_PAMĚŤOVÝ_ZDROJ
Operace <operation> není podporována pro jímku průběžné paměti. Pokud píšete test pro režim streamování Real-Time, zvažte použití CheckAnswerWithTimeout v jiných kontrolách.
UNSUPPORTED_OVERWRITE
Nelze přepsat cíl, ze kterého se také čte.
Další podrobnosti najdete v části UNSUPPORTED_OVERWRITE
UNSUPPORTED_PARTITION_TRANSFORM
Nepodporovaná přeměna oddílu: <transform>. Podporované transformace jsou identity, bucketa clusterBy. Ujistěte se, že váš transformační výraz používá některý z těchto výrazů.
UNSUPPORTED_PIPELINE_SPARK_SQL_COMMAND
Rozhraní<command> API spark.sql("...") v deklarativním kanálu Sparku se nepodporuje.
NEROZPOZNANÁ_KOLACE_PROCEDURY
Procedura <procedureName> musí určovat nebo dědit DEFAULT COLLATION UTF8_BINARY. Použijte CREATE PROCEDURE <procedureName> (...) DEFAULT COLLATION UTF_BINARY ....
UNSUPPORTED_SAVE_MODE
Režim ukládání <saveMode> se nepodporuje pro:
Další podrobnosti najdete v tématu UNSUPPORTED_SAVE_MODE
UNSUPPORTED_SHOW_CREATE_TABLE
Nepodporovaný příkaz SHOW CREATE TABLE
Další podrobnosti viz UNSUPPORTED_SHOW_CREATE_TABLE
UNSUPPORTED_SINGLE_PASS_ANALYZER_FEATURE
Analyzátor s jedním průchodem nemůže zpracovat tento dotaz nebo příkaz, protože zatím nepodporuje <feature>.
UNSUPPORTED_SQL_UDF_USAGE
Použití SQL funkce <functionName> v <nodeName> není podporováno.
UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK
<outputMode> režim výstupu není podporován pro <statefulOperator> ve streamovaných datových rámcích nebo datových sadách bez vodoznaku.
UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
Streamování pohledu není podporováno. Reason:
Další podrobnosti najdete pod tématem UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED
Možnosti streamování <options> nejsou podporované pro zdroj dat <source> ve sdíleném clusteru. Ověřte, že jsou zadané a napsané možnosti správně<prefixHint>, a zkontrolujte https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode omezení.
UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED
Zdroj dat <sink> není podporován jako jímka streamování ve sdíleném clusteru.
UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED
Zdroj dat <source> není podporován jako zdroj streamování ve sdíleném clusteru.
UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION
Funkce <funcName> nepodporuje streamování. Odeberte klíčové slovo STREAM.
UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE
<streamReadLimit> není u zdroje Kinesis podporováno
UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
Nepodporovaný výraz poddotazů:
Další podrobnosti najdete v UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
UNSUPPORTED_TABLE_CHANGE_IN_AUTO_SCHEMA_EVOLUTION
Katalog v tabulce nepodporuje změny <changes> tabulky <tableName>.
UNSUPPORTED_TABLE_CHANGE_IN_JDBC_CATALOG
Změna tabulky <change> není podporována pro katalog JDBC v tabulce <tableName>. Mezi podporované změny patří: AddColumn, RenameColumn, DeleteColumn, UpdateColumnType, UpdateColumnNullability.
UNSUPPORTED_TIMESERIES_COLUMNS
Vytvoření primárního klíče se sloupci timeseries se nepodporuje.
UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN
Vytvoření primárního klíče s více než jedním sloupcem timeseries <colSeq> se nepodporuje.
UNSUPPORTED_TIME_PRECISION
Přesnost <precision> sekund datového typu TIME je mimo podporovaný rozsah [0, 6].
UNSUPPORTED_TIME_TYPE
Datový typ TIME není podporován.
UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE
<trigger> není u zdroje Kinesis podporováno
UNSUPPORTED_TYPED_LITERAL
Literály typu <unsupportedType> nejsou podporovány. Podporované typy jsou <supportedTypes>.
UNSUPPORTED_UDF_FEATURE
Funkce <function> používá následující funkce, které vyžadují novější verzi modulu runtime Databricks: <features>. Podrobnosti najdete v <docLink>.
UNSUPPORTED_UDF_TYPES_IN_SAME_PLACE
Typy UDF nelze použít společně: <types>
UNTYPED_SCALA_UDF
Používáte netypové uživatelské rozhraní Scala, které neobsahuje informace o vstupním typu.
Spark může slepě předat hodnotu null do uzávěru v Scalu s argumentem základního typu a uzávěr uvidí výchozí hodnotu typu Java pro argument null, udf((x: Int) => x, IntegerType), například, výsledek je 0 pro vstup null. Pokud se chcete této chyby zbavit, můžete:
použijte rozhraní API Scala UDF (bez parametru návratu), například
udf((x: Int) => x).Pokud jsou všechny vstupní typy neprimitivní, použijte například
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType), Java UDF API.nastavte "spark.sql.legacy.allowUntypedScalaUDF" na hodnotu true a toto rozhraní API používejte opatrně.
UPGRADE_NOT_SUPPORTED
Tabulka nemá nárok na upgrade z metastoru Hive na katalog Unity. Reason:
Další podrobnosti najdete v tématu UPGRADE_NOT_SUPPORTED
USER_DEFINED_FUNCTIONS
Uživatelem definovaná funkce je neplatná:
Další podrobnosti najdete v tématu USER_DEFINED_FUNCTIONS
USER_RAISED_EXCEPTION
<errorMessage>
USER_RAISED_EXCEPTION_PARAMETER_MISMATCH
Funkce raise_error() byla použita k vyvolání třídy chyb: <errorClass>, která očekává parametry: <expectedParms>.
Zadané parametry <providedParms> neodpovídají očekávaným parametrům.
Nezapomeňte zadat všechny očekávané parametry.
USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS
Funkce raise_error() byla použita k vyvolání neznámé třídy chyb: <errorClass>
USER_SPECIFIED_AND_ACTUAL_SCHEMA_MISMATCH
Schéma zadané uživatelem neodpovídá skutečnému schématu:
zadaný uživatelem: <schema>, skutečná hodnota: <actualSchema>. Pokud používáte
Rozhraní DATAFrameReader.schema API nebo vytvoření tabulky nezadávejte schéma.
Nebo pokud prohledáváte existující tabulku, zahoďte ji a znovu ji vytvořte.
UŽIVATELEM URČENÉ A ODVOZENÉ SCHÉMA NEKOMPATIBILNÍ
Tabulka '<tableName>' má uživatelem zadané schéma, které není kompatibilní se schématem.
odvozeno z jeho dotazu.
<streamingTableHint>
Deklarované schéma:
<specifiedSchema>
Odvozené schéma:
<inferredDataSchema>
USE_CATALOG_SCHEMA_IN_DEFINER_STORED_PROCEDURE_NOT_SUPPORTED
Nastavení katalogu nebo schématu v rámci uložené procedury SQL SECURITY DEFINER se nepodporuje.
VARIABLE_ALREADY_EXISTS
Proměnnou nelze vytvořit <variableName>, protože již existuje.
Zvolte jiný název nebo přetáhněte nebo nahraďte existující proměnnou.
VARIABLE_NOT_FOUND
Proměnná <variableName> nebyla nalezena. Ověřte pravopis a správnost schématu a katalogu.
Pokud jste nekvalifikovali název schématem a katalogem, ověřte výstup current_schema(), nebo opravte název se správným schématem a katalogem.
Chcete-li tolerovat chybu při poklesu, použijte DROP VARIABLE IF EXISTS.
VARIANT_CONSTRUCTOR_SIZE_LIMIT
Nelze vytvořit variantu větší než 16 MiB. Maximální povolená velikost hodnoty Variant je 16 MiB.
VARIANT_DUPLICATE_KEY
Sestavení varianty se nezdařilo kvůli duplicitnímu klíči objektu <key>.
VARIANT_SIZE_LIMIT
V <sizeLimit>nelze sestavit variantu větší než <functionName> .
Vyhněte se velkým vstupním řetězcům tohoto výrazu (například přidejte volání funkcí, abyste zkontrolovali velikost výrazu a nejprve ho převedli na NULL pokud je příliš velký).
VERSIONED_CLONE_UNSUPPORTED_TABLE_FEATURE
Historie zdrojových tabulek obsahuje funkce tabulek, které nejsou podporovány klonem verzí v této verzi DBR: <unsupportedFeatureNames>.
Upgradujte na novější verzi DBR.
VIEW_ALREADY_EXISTS
Nelze vytvořit zobrazení <relationName>, protože již existuje.
Zvolte jiný název, odstraňte nebo nahraďte existující objekt, nebo přidejte klauzuli IF NOT EXISTS, aby tolerovaly před-ú existující objekty.
VIEW_EXCEED_MAX_NESTED_DEPTH
Hloubka zobrazení <viewName> překračuje maximální hloubku rozlišení zobrazení (<maxNestedDepth>).
Analýza je přerušena, aby nedocházelo k chybám. Pokud chcete tento problém obejít, zkuste zvýšit hodnotu "spark.sql.view.maxNestedViewDepth".
VIEW_NOT_FOUND
Nelze nalézt zobrazení <relationName>. Ověřte pravopis a správnost schématu a katalogu.
Pokud jste název nespecifikovali pomocí schématu, zkontrolujte výstup current_schema(), anebo specifikujte název se správným schématem a katalogem.
Chcete-li tolerovat chybu při poklesu, použijte DROP VIEW IF EXISTS.
VOLUME_ALREADY_EXISTS
Svazek <relationName> nelze vytvořit, protože již existuje.
Zvolte jiný název, odstraňte nebo nahraďte existující objekt, nebo přidejte klauzuli IF NOT EXISTS, aby tolerovaly před-ú existující objekty.
WATERMARK_ADVANCEMENT_STRATEGY
Strategie zdokonalení vodoznaku při streamování má následující omezení:
Další podrobnosti najdete v tématu WATERMARK_ADVANCEMENT_STRATEGY
WINDOW_FUNCTION_AND_FRAME_MISMATCH
<funcName> funkci lze vyhodnotit pouze v uspořádaném rámci okna založeném na řádcích s jediným posunem: <windowExpr>.
WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE
Funkce Window <funcName> vyžaduje klauzuli OVER.
WITH_CREDENTIAL
WITH CREDENTIAL syntaxe není podporována pro <type>.
WRITE_STREAM_NOT_ALLOWED
writeStream lze volat pouze u streamované datové sady nebo datového rámce.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED
Spuštění příkazu se nezdařilo, protože DEFAULT hodnoty se při přidávání nových hodnot nepodporují.
sloupce do již existujících tabulek Delta; přidejte sloupec bez výchozí hodnoty.
Nejprve nastavte hodnotu, poté spusťte druhý příkaz ALTER TABLE ALTER COLUMN SET DEFAULT, který se má použít.
pro budoucí vložené řádky místo toho.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED
Nepodařilo se vykonat příkaz <commandType>, protože přiřadil hodnotu do sloupce DEFAULT.
ale odpovídající funkce tabulky nebyla povolena. Zkuste příkaz znovu.
po spuštění ALTER TABLE tableName SET
TBLPROPERTIES('delta.feature.allowColumnDefaults' = 'supported').
WRONG_COMMAND_FOR_OBJECT_TYPE
Operace <operation> vyžaduje <requiredType>. Ale <objectName> je <foundType>. Místo toho použijte <alternative>.
WRONG_NUM_ARGS
<functionName> vyžaduje parametry <expectedNum>, ale skutečné číslo je <actualNum>.
Další podrobnosti naleznete v WRONG_NUM_ARGS
XML_ROW_TAG_MISSING
<rowTag> pro čtení a zápis souborů ve formátu XML je vyžadována možnost čtení a zápisu.
XML_UNSUPPORTED_NESTED_TYPES
XML nepodporuje <innerDataType> jako vnitřní typ <dataType>. Prosím, zabalejte <innerDataType> do pole StructType, když jej používáte uvnitř <dataType>.
XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR
Zachráněná data a sloupec se zástupným znakem nelze povolit současně. Odeberte možnost wildcardColumnName.
ZORDERBY_COLUMN_DOES_NOT_EXIST
Sloupec <columnName> ZOrderBy neexistuje.
Delta Lake
DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND
Nelze najít aktivní SparkSession.
DELTA_ACTIVE_TRANSACTION_ALREADY_SET
Nelze nastavit nový txn jako aktivní, pokud je již aktivní.
DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED
Přidání sloupce <colName> se nezdařilo, protože název je rezervovaný.
DELTA_ADDING_DELETION_VECTORS_DISALLOWED
Aktuální operace se pokusila přidat vektor odstranění do tabulky, která nepovoluje vytvoření nových vektorů odstranění. Vytvořte zprávu o chybě.
DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED
Všechny operace, které přidávají vektory odstranění, by měly ve statistikách nastavit sloupec tightBounds na false. Vytvořte zprávu o chybě.
DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO
Index <columnIndex> pro přidání sloupce <columnName> je nižší než 0.
DELTA_ADD_COLUMN_PARENT_NOT_STRUCT
Nelze přidat <columnName>, protože jeho nadřazený objekt není typu StructType. Nalezeno <other>.
DELTA_ADD_COLUMN_STRUCT_NOT_FOUND
Struktura nebyla nalezena na pozici <position>.
DELTA_ADD_CONSTRAINTS
Použijte ALTER TABLE PŘIDAT CONSTRAINT pro přidání omezení CHECK.
DELTA_AGGREGATE_IN_CHECK_CONSTRAINT
Nachází <sqlExpr> se CHECK v omezení. Agregační výrazy nejsou povoleny v CHECK omezeních.
DELTA_AGGREGATE_IN_GENERATED_COLUMN
Nalezeno <sqlExpr>. Vygenerovaný sloupec nemůže použít agregační výraz.
DELTA_AGGREGATION_NOT_SUPPORTED
Agregační funkce nejsou v <operation> <predicate>podporovány .
DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER
Změnu kolace sloupce <column> se nepodařilo provést, protože má bloom filtr index. Ponechte stávající kolaci nebo smažte bloom filtr indexu a pak příkaz opakujte, abyste změnili kolaci.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY
Kolaci sloupce <column> se nepodařilo změnit, protože se jedná o skupinový sloupec. Zachovejte existující kolaci nebo jinak změňte sloupec na sloupec, který není clusteringový, pomocí příkazu ALTER TABLE a pak příkaz opakujte a změňte kolaci znovu.
DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED
ALTER TABLE CHANGE COLUMN není podporováno pro změnu sloupce <currentType> na <newType>.
DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED
ALTER TABLE CLUSTER BY se podporuje jenom pro tabulku Delta s clusteringem Liquid.
DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED
ALTER TABLE CLUSTER BY nelze použít u dělené tabulky.
DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED
Operace není povolena: ALTER TABLE RENAME TO není povoleno pro spravované tabulky Delta v S3, protože konečná konzistence v S3 může poškodit protokol transakcí Delta. Pokud trváte na tom a jste si jistí, že tabulka Delta s novým názvem <newName> ještě nebyla, můžete to povolit nastavením <key> na hodnotu true.
DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
Nelze povolit funkci tabulky <tableFeature> pomocí ALTER TABLE SET TBLPROPERTIES. K vytvoření tabulky Delta s clusteringem použijte CREATE NEBO REPLACE TABLE CLUSTER BY.
DELTA_ALTER_TABLE_SET_MANAGED_COPY_OR_MOVE_REQUIRED
ALTER TABLE ... SET MANAGED vyžaduje COPY nebo PŘESUNOUT, aby byly zadány pro cizí tabulku <table>.
DELTA_ALTER_TABLE_SET_MANAGED_DOES_NOT_SUPPORT_UNIFORM_ICEBERG
ALTER TABLE ... SET MANAGED nepodporuje tabulku Uniform Apache Iceberg. Deaktivujte jednotné nastavení nebo použijte SET MANAGED TRUNCATE UNIFORM HISTORY.
DELTA_ALTER_TABLE_SET_MANAGED_FAILED
ALTER TABLE <table> SET MANAGED neúspěšný.
Další podrobnosti najdete v tématu DELTA_ALTER_TABLE_SET_MANAGED_FAILED
DELTA_ALTER_TABLE_SET_MANAGED_NOT_ENABLED
ALTER TABLE
...
SET MANAGED příkaz není povolen. Požádejte o pomoc tým podpory Databricks.
DELTA_ALTER_TABLE_SET_MANAGED_TABLE_NOT_MIGRATABLE
ALTER TABLE <table> SET MANAGED aplikace nemůže migrovat danou tabulku.
Ujistěte se, že je tabulka v platném stavu, a zkuste příkaz zopakovat. Pokud problém přetrvává, obraťte se na podporu Databricks.
Další podrobnosti najdete v tématu DELTA_ALTER_TABLE_SET_MANAGED_TABLE_NOT_MIGRATABLE
DELTA_ALTER_TABLE_SET_MANAGED_UNSUPPORTED_COPY_MOVE_SYNTAX
ALTER TABLE ... SET MANAGED [COPY | MOVE] syntaxe není podporována pro tabulku <table>. Místo toho použijte ALTER TABLE ... SET MANAGED.
DELTA_ALTER_TABLE_SET_MANAGED_UNSUPPORTED_FOREIGN_TABLE
Pro migraci na spravovanou tabulku UC není podporována cizí tabulka <table> : <errorMessage>.
DELTA_ALTER_TABLE_UNSET_MANAGED_DOES_NOT_SUPPORT_COMPATIBILITY_MODE
ALTER TABLE ... UNSET MANAGED nepodporuje tabulku s povoleným režimem kompatibility.
Před spuštěním tohoto příkazu v tabulce zakažte režim kompatibility.
DELTA_ALTER_TABLE_UNSET_MANAGED_NEPODPORUJE_UNIFORMNÍ
ALTER TABLE ... UNSET MANAGED nepodporuje uniformu. Deaktivujte jednotné nastavení nebo použijte UNSET MANAGED TRUNCATE UNIFORM HISTORY.
DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED
<table> nelze vrátit zpět z tabulky spravované na tabulku externí.
Další podrobnosti najdete v tématu DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED
DELTA_ALTER_TABLE_UNSET_MANAGED_NOT_ENABLED
ALTER TABLE
...
UNSET MANAGED příkaz není povolen. Požádejte o pomoc tým podpory Databricks.
DELTA_AMBIGUOUS_DATA_TYPE_CHANGE
Datový typ <column> nelze změnit z <from> na <to>. Tato změna obsahuje odebrání a přidání sloupců, neboť jsou nejednoznačné. Tyto změny proveďte jednotlivě pomocí ALTER TABLE [ADD | DROP | RENAME] COLUMN.
DELTA_AMBIGUOUS_PARTITION_COLUMN
Sloupec oddílu <column> je nejednoznačný a může být <colMatches>.
DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE
CREATE TABLE obsahuje dvě různá umístění: <identifier> a <location>.
Klauzuli LOCATION můžete odebrat z příkazu CREATE TABLE nebo nastavit.
Nastavte <config> na hodnotu true, pokud chcete tuto kontrolu přeskočit.
DELTA_ARCHIVED_FILES_IN_LIMIT
Tabulka <table> neobsahuje dostatek záznamů v nearchivovaných souborech pro splnění zadaných LIMIT záznamů <limit>.
DELTA_ARCHIVED_FILES_IN_SCAN
Našli jsme <numArchivedFiles> potenciálně archivovaných souborů v tabulce <table>, které je potřeba zkontrolovat jako součást tohoto dotazu.
Nelze přistupovat k archivovaným souborům. Aktuální čas do archivace je nastaven na <archivalTime>.
Upravte filtry dotazů, abyste vyloučili všechny archivované soubory.
DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION
Operace "<opName>" není povolena, pokud tabulka povolila datový kanál změn (CDF) a prošla změnami schématu pomocí DROP COLUMN nebo RENAME COLUMN.
DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS
Nelze odstranit indexy Bloomova filtru pro následující neexistující sloupce: <unknownColumns>.
DELTA_BLOOM_FILTER_OOM_ON_WRITE
Při psaní indexů filtru bloom pro následující sloupce došlo k chybě OutOfMemoryError: <columnsWithBloomFilterIndices>.
Nároky na paměť indexů Bloom filtru můžete snížit výběrem menší hodnoty pro možnost 'numItems', větší hodnotou pro možnost 'fpp' nebo indexováním menšího počtu sloupců.
DELTA_CANNOT_CHANGE_DATA_TYPE
Datový typ nelze změnit: <dataType>.
DELTA_CANNOT_CHANGE_LOCATION
Umístění tabulky Delta nelze změnit pomocí SET TBLPROPERTIES. Místo toho použijte ALTER TABLE SET LOCATION.
DELTA_CANNOT_CHANGE_PROVIDER
'provider' je rezervovaná vlastnost tabulky a nelze ji změnit.
DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL
Nelze vytvořit indexy bloom filteru u následujících neexistujících sloupců: <unknownCols>.
DELTA_CANNOT_CREATE_LOG_PATH
Nelze vytvořit <path>.
DELTA_CANNOT_DESCRIBE_VIEW_HISTORY
Nelze popsat historii zobrazení.
DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN
Index filtru bloom nelze odstranit u neindexovaného sloupce: <columnName>.
DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE
Nelze odstranit funkci tabulky omezení CHECK.
Nejprve je nutné vynechat následující omezení: <constraints>.
DELTA_CANNOT_DROP_COLLATIONS_FEATURE
Funkci tabulky kolací nelze smazat.
Sloupce, u kterých není výchozí kolace, musí být nejprve změněny na použití UTF8_BINARY: <colNames>.
DELTA_CANNOT_DROP_DOMAIN_METADATA_FEATURE_FROM_MANAGED_ICEBERG_TABLE
Nelze odstranit funkci tabulky domainMetadata. Tabulka <name> je spravovaná tabulka Apache Iceberg. DomainMetadata nelze vynechat ze spravovaných tabulek Apache Iceberg.
DELTA_NELZE_ODSTRANIT_PROSTOROVÝ_PRVEK
Funkci geoprostorové tabulky nelze odstranit. Znovu vytvořte tabulku nebo odstraňte sloupce s typy geometrie/geografie: <colNames> a zkuste to znovu.
DELTA_CANNOT_DROP_VARIANT_FEATURE
DROP FEATURE <feature> nebylo úspěšné. Funkci variantní tabulky nelze odstranit. Nejprve je nutné vynechat variantní sloupce: <colNames>.
DELTA_CANNOT_EVALUATE_EXPRESSION
Výraz nelze vyhodnotit: <expression>.
DELTA_CANNOT_FIND_BUCKET_SPEC
Očekává se, že tabulka Delta bude rozdělena podle kbelíků, ale nelze najít specifikaci kbelíku v tabulce.
DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION
Nelze vygenerovat kód pro výraz: <expression>.
DELTA_CANNOT_MODIFY_APPEND_ONLY
Tato tabulka je nakonfigurovaná tak, aby povolovala pouze doplnění. Pokud chcete povolit aktualizace nebo odstranění, použijte =ALTER TABLE <table_name> SET TBLPROPERTIES (<config>false).
DELTA_CANNOT_MODIFY_CATALOG_OWNED_DEPENDENCIES
Vlastnosti tabulky časového razítka v potvrzení nelze přepsat ani zrušit, protože tato tabulka je vlastněná katalogem. Odeberte "delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion" a "delta.inCommitTimestampEnablementTimestamp" z klauzule TBLPROPERTIES a poté příkaz opakujte.
DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES
<Command> nelze přepsat ani zrušit vlastnosti tabulky časového razítka v potvrzení, protože jsou v této tabulce povolena koordinovaná potvrzení a závisí na nich. Odeberte je ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") z TBLPROPERTIES klauzule a pak příkaz opakujte.
DELTA_CANNOT_MODIFY_TABLE_PROPERTY
Konfiguraci <prop> tabulky Delta nemůže uživatel zadat.
DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS
<Command> nemůže upravit konfigurace koordinovaných potvrzení pro existující cílovou tabulku. Odeberte je ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview", "delta.coordinatedCommits.tableConf-preview") z TBLPROPERTIES klauzule a pak zkuste příkaz znovu.
DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI
Identifikátor URI (<uri>), který nelze převést na relativní cestu, byl nalezen v transakčním protokolu.
DELTA_CANNOT_RELATIVIZE_PATH
Cesta (<path>), která se nedá relativizovat s aktuálním vstupem nalezeným v
transakční protokol. Spusťte to znovu takto:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<userPath>; true)
a pak také spusťte:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<path>")
DELTA_CANNOT_RENAME_PATH
Nelze přejmenovat <currentPath> na <newPath>.
DELTA_CANNOT_REPLACE_MISSING_TABLE
Tabulku <tableName> nelze nahradit, protože neexistuje. K vytvoření tabulky použijte CREATE NEBO REPLACE TABLE.
DELTA_CANNOT_RESOLVE_CLUSTERING_COLUMN
Sloupec <columnName><schema> clusteringu nelze vyřešit kvůli neočekávané chybě. Spustit ALTER TABLE...CLUSTER BY ... opravit metadata clusteringu Delta.
DELTA_CANNOT_RESOLVE_COLUMN
Nelze zjistit sloupec <columnName> v <schema>
DELTA_CANNOT_RESTORE_TABLE_VERSION
Tabulku nelze obnovit do verze <version>. Dostupné verze: [<startVersion>, <endVersion>].
DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER
Tabulku nelze obnovit do časového razítka (<requestedTimestamp>), protože je před nejstarší dostupnou verzí. Použijte časové razítko po (<earliestTimestamp>).
DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER
Nelze obnovit tabulku do časového razítka (<requestedTimestamp>), protože je po nejnovější dostupné verzi. Použijte časovou značku před (<latestTimestamp>).
DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES
<Command> nelze nastavit vlastnosti tabulky časového razítka v průběhu potvrzení společně s koordinovanými potvrzeními, protože druhá závisí na první a nastaví první interně. Odeberte je ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") z TBLPROPERTIES klauzule a pak příkaz opakujte.
DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER
Umístění tabulky založené na cestě nelze změnit.
DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY
Nelze nastavit delta.managedDataSkippingStatsColumns v tabulce deklarativních kanálů Sparku mimo Lakeflow.
DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_COMMAND
Pokud jako koordinátor potvrzení povolíte unity-catalog, nelze z příkazu nastavit konfiguraci "<configuration>". Odeberte ho z klauzule TBLPROPERTIES a opakujte příkaz.
DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_SESSION
Pokud povolíte 'unity-catalog' jako koordinátora potvrzení, konfiguraci "<configuration>" nelze nastavit z konfigurací SparkSession. Zrušte jeho nastavení spuštěním spark.conf.unset("<configuration>") a pak příkaz opakujte.
DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS
ALTER nemůže zrušit konfiguraci koordinovaných potvrzení. Pokud chcete tabulku downgradovat z koordinovaných potvrzení, zkuste to prosím znovu pomocí ALTER TABLE [table-name] DROP FEATURE 'coordinatedCommits-preview'.
DELTA_CANNOT_UPDATE_ARRAY_FIELD
Nelze aktualizovat <tableName> typ pole <fieldName> : aktualizujte prvek aktualizací <fieldName>.element.
DELTA_CANNOT_UPDATE_MAP_FIELD
Typ pole <fieldName> nelze aktualizovat<tableName>: aktualizujte mapu aktualizací <fieldName>.key nebo <fieldName>.value.
DELTA_CANNOT_UPDATE_OTHER_FIELD
Pole typu <tableName>nelze aktualizovat<typeName>.
DELTA_CANNOT_UPDATE_STRUCT_FIELD
Nelze aktualizovat <tableName> pole <fieldName>: aktualizujte strukturu přidáním, odstraněním nebo aktualizací jejích polí.
DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION
Nelze použít všechny sloupce jako sloupce pro oddíly.
DELTA_CANNOT_VACUUM_LITE
VACUUM LITE nemůže odstranit všechny oprávněné soubory, protože na některé soubory neodkazuje protokol Delta. Spusťte prosím VACUUM FULL.
DELTA_CANNOT_WRITE_INTO_VIEW
<table> je zobrazení. Zápisy do zobrazení nejsou podporovány.
DELTA_CAST_OVERFLOW_IN_TABLE_WRITE
Nepodařilo se napsat hodnotu typu <sourceType> do sloupce typu <targetType><columnName> kvůli přetečení.
Pomocí try_cast na vstupní hodnotě tolerujte přetečení a místo toho vraťte NULL.
Pokud je to nutné, nastavte <storeAssignmentPolicyFlag> na "LEGACY" pro obejití této chyby, nebo nastavte <updateAndMergeCastingFollowsAnsiEnabledFlag> na true pro návrat ke starému chování a sledujte <ansiEnabledFlag> v UPDATE a MERGE.
DELTA_CATALOG_MANAGED_TABLE_UPGRADE_OR_DOWNGRADE_NOT_SUPPORTED
Upgrade nebo downgradování tabulky spravované katalogem se nepodporuje. Místo toho vytvořte novou tabulku s požadovanými funkcemi tabulky.
DELTA_CATALOG_MANAGED_TABLE_UPGRADE_WITH_OTHER_PROPERTIES
Nelze kombinovat upgrade tabulky <tableName> na tabulku spravovanou katalogem s jinými změnami vlastností.
Zadané vlastnosti: <properties>.
DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION
Konfiguraci delta.enableChangeDataFeed nelze nastavit. Datový kanál změn z Delta ještě není k dispozici.
DELTA_CDC_READ_NULL_RANGE_BOUNDARY
Parametry start/end pro čtení CDC nesmí být null. Zadejte platnou verzi nebo časové razítko.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA
Načítání změn tabulky mezi verzí <start> a <end> selhalo kvůli nekompatibilnímu schématu dat.
Vaše schéma čtení je <readSchema> ve verzi <readVersion>, ale ve verzi <incompatibleVersion>jsme našli nekompatibilní schéma dat .
Pokud je to možné, načtěte změny tabulky pomocí schématu koncové verze nastavením <config> na endVersionpodporu nebo se obraťte na podporu.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE
Načítání změn v tabulce mezi verzí <start> a <end> selhalo kvůli nekompatibilní změně schématu.
Vaše schéma čtení je <readSchema> ve verzi <readVersion>, ale zjistili jsme nekompatibilní změnu schématu ve verzi <incompatibleVersion>.
Pokud je to možné, prosím dotazujte změny v tabulce odděleně od verze <start> do verze <incompatibleVersion> – 1 a od verze <incompatibleVersion> do verze <end>.
DELTA_CHANGE_DATA_FILE_NOT_FOUND
Soubor <filePath> odkazovaný v transakčním protokolu nebyl nalezen. K tomu může dojít v případě, že data byla ručně odstraněna ze systému souborů místo použití příkazu table DELETE. Zdá se, že cílem tohoto požadavku je změnit datový kanál, pokud tomu tak je, může k této chybě dojít, když je datový soubor změn mimo dobu uchovávání a byl odstraněn příkazem VACUUM. Další informace najdete v tématu <faqPath>
DELTA_CHANGE_TABLE_FEED_DISABLED
Nelze zapisovat do tabulky se sadou delta.enableChangeDataFeed. Kanál změn dat z Delta není k dispozici.
DELTA_CHECKPOINT_NON_EXIST_TABLE
Nelze provést kontrolní bod pro neexistující tabulku <path>. Odstranili jste ručně soubory v adresáři _delta_log?
DELTA_CLONE_AMBIGUOUS_TARGET
Jako cíl CLONE byly zadány dvě cesty, takže je nejednoznačné, které se mají použít. Externí
umístění pro CLONE bylo k dispozici v <externalLocation> zároveň s určením cesty
<targetIdentifier>.
DELTA_CLONE_INCOMPATIBLE_SOURCE
Zdroj klonu má platný formát, ale má nepodporovanou funkci s Deltou.
Další podrobnosti najdete v tématu DELTA_CLONE_INCOMPATIBLE_SOURCE
DELTA_CLONE_INCOMPLETE_FILE_COPY
Soubor (<fileName>) nebyl zcela zkopírován. Očekávaná velikost souboru: <expectedSize>, nalezeno: <actualSize>. Chcete-li pokračovat v operaci ignorováním kontroly velikosti souboru, nastavte <config> na false.
DELTA_CLONE_UNSUPPORTED_SOURCE
Nepodporovaný <mode> zdroj klonu '<name>', jehož formát je <format>.
Podporované formáty jsou delta, Apache Iceberg a parquet.
DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE
Nepodporovaná zdrojová tabulka:
Další podrobnosti najdete v DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE
DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET
Nepodporovaná cílová tabulka:
Další podrobnosti najdete v tématu DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET
DELTA_KLON_SE_SLEDOVÁNÍM_ŘÁDKŮ_BEZ_STATISTIK
Nelze provést povrchní klonování tabulky bez statistik a s povoleným sledováním řádků.
Pokud chcete povolit sledování řádků, musíte nejprve shromáždit statistiky zdrojové tabulky spuštěním následujícího příkazu:
ANALYZE TABLE název_tabulky COMPUTE DELTA STATISTICS
DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED
CLONE pro tabulku Delta s clusteringem Liquid pro DBR verze < 14.0 se nepodporuje.
DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED
CLUSTER BY není podporováno kvůli následujícím sloupcům: <columnsWithDataTypes> nepodporují přeskakování dat.
DELTA_CLUSTERING_COLUMNS_MISMATCH
Zadané sloupce clusteringu neodpovídají existující tabulce.
k dispozici:
<providedClusteringColumns>stávající:
<existingClusteringColumns>
DELTA_CLUSTERING_COLUMN_MISSING_STATS
Shlukování kapalin vyžaduje, aby sloupce clusteringu měly statistiky. Ve schématu statistik se nepodařilo najít sloupce<columns> clusteringu:
<schema>
DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE
Vytvoření externí tabulky bez liquid clusteringu z tabulkového adresáře s liquid clusteringem není povoleno; cesta: <path>.
DELTA_CLUSTERING_NOT_SUPPORTED
'<operation>' nepodporuje clustering.
DELTA_CLUSTERING_PHASE_OUT_FAILED
Nelze dokončit položku <phaseOutType> tabulky pomocí funkce <tableFeatureToAdd> tabulky (důvod: <reason>). Zkuste příkaz OPTIMIZE znovu.
== Chyba ==
<error>
DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE
REPLACE Delta tabulka s Liquid clusterováním s rozdělenou tabulkou není povolená.
DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS
SHOW CREATE TABLE se nepodporuje pro tabulku Delta s clusteringem Liquid bez jakýchkoli sloupců clusteringu.
DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS
Převod tabulky Delta s clusteringem Liquid na dělenou tabulku není povolen pro operaci: <operation>, pokud má existující tabulka neprázdné sloupce clusteringu.
Nejprve spusťte ALTER TABLE CLUSTER BY NONE pro odstranění seskupovacích sloupců.
DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE
Režim přepsání dynamického oddílu není povolený pro tabulku Delta s clusteringem Liquid.
DELTA_CLUSTERING_WITH_PARTITION_PREDICATE
OPTIMIZE Příkaz pro tabulku Delta s Liquid clusteringem nepodporuje možnosti rozdělení. Odstraňte predikáty: <predicates>.
DELTA_CLUSTERING_WITH_ZORDER_BY
Příkaz OPTIMIZE pro tabulku Delta s Liquid clusteringem nesmí specifikovat ZORDER BY. Prosím, odeberte ZORDER BY (<zOrderBy>).
DELTA_CLUSTER_BY_AUTO_MISMATCH
Zadaná hodnota clusterByAuto neodpovídá hodnotě existující tabulky.
DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS
Liquid clustering CLUSTER BY podporuje až <numColumnsLimit> seskupovacích sloupců, ale tabulka obsahuje <actualNumColumns> seskupovacích sloupců. Odeberte nadbytečné sloupce shlukování.
DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED
Není povoleno zadávat CLUSTER BY, pokud schéma není definováno. Definujte schéma pro tabulku <tableName>.
DELTA_CLUSTER_BY_WITH_BUCKETING
Clustering i rozdělení do skupin nelze zadat. Pokud chcete vytvořit tabulku Delta s clusteringem, odeberte CLUSTERED BY INTO BUCKETS / bucketBy.
DELTA_CLUSTER_BY_WITH_PARTITIONED_BY
Clustering a dělení nelze zadat současně. Pokud chcete vytvořit tabulku Delta s clusteringem, odeberte PARTITIONED BY / partitionBy / partitionedBy.
DELTA_COLLATIONS_NOT_SUPPORTED
Kolace nejsou v Delta Lake podporované.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN
Pro sloupec oddílu '<column>' není podporováno přeskočení dat.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE
Vynechání dat není podporováno pro sloupec <column> typu <type>.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET
Vlastnost max id sloupce (<prop>) není nastavena u tabulky s povoleným mapováním sloupců.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY
Vlastnost max id sloupce (<prop>) v tabulce s povoleným mapováním sloupců je <tableMax>, která nemůže být menší než maximální ID sloupce pro všechna pole (<fieldMax>).
DELTA_COLUMN_MISSING_DATA_TYPE
Datový typ sloupce <colName> nebyl zadán.
DELTA_COLUMN_NOT_FOUND
Nepodařilo se najít sloupec <columnName> uvedený [<columnList>].
DELTA_COLUMN_NOT_FOUND_IN_MERGE
Nelze najít sloupec "<targetCol>" cílové tabulky ze INSERT sloupců: <colNames>.
INSERT klauzule musí určovat hodnotu pro všechny sloupce cílové tabulky.
DELTA_COLUMN_NOT_FOUND_IN_SCHEMA
Nepodařilo se najít sloupec <columnName> v:
<tableSchema>
DELTA_COLUMN_PATH_NOT_NESTED
Očekávalo se, že <columnPath> bude vnořeným datovým typem, ale bylo nalezeno <other>. Hledal jsem
index <column> v vnořeném poli.
Schema:
<schema>
DELTA_COLUMN_STRUCT_TYPE_MISMATCH
Sloupec struktury <source> nelze vložit do pole <targetType><targetField> v <targetTable>.
DELTA_COMMIT_INTERMEDIATE_REDIRECT_STATE
Nelze zpracovat potvrzení tabulky ve stavu tabulky přesměrování '<state>'.
DELTA_COMPACTION_VALIDATION_FAILED
Ověření komprimace cesty <compactedPath> k <newPath> se nezdařilo: Vytvořte zprávu o chybě.
DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE
Byl nalezen vnořený typ NullType ve sloupci <columName>, který má hodnotu <dataType>. Delta nepodporuje zápis NullType ve složitých typech.
DELTA_CONCURRENT_APPEND
ConcurrentAppendException: Soubory byly přidány do <partition> souběžnou aktualizací. <retryMsg> <conflictingCommit>
Další podrobnosti najdete v <docLink>.
DELTA_CONCURRENT_DELETE_DELETE
ConcurrentDeleteDeleteException: Tato transakce se pokusila odstranit jeden nebo více souborů, které byly odstraněny (například <file>) souběžnou aktualizací. Zkuste operaci zopakovat.<conflictingCommit>
Další podrobnosti najdete v <docLink>.
DELTA_CONCURRENT_DELETE_READ
ConcurrentDeleteReadException: Tato transakce se pokusila přečíst jeden nebo více souborů, které byly odstraněny (například <file>) souběžnou aktualizací. Zkuste operaci zopakovat.<conflictingCommit>
Další podrobnosti najdete v <docLink>.
DELTA_CONCURRENT_TRANSACTION
ConcurrentTransactionException: K této chybě dochází v případě, že více streamovaných dotazů používá ke zápisu do této tabulky stejný kontrolní bod. Spustili jste současně více instancí stejného streamovacího dotazu?<conflictingCommit>
Další podrobnosti najdete v <docLink>.
DELTA_CONCURRENT_WRITE
ConcurrentWriteException: Souběžná transakce zapisuje nová data od aktuální transakce čtení tabulky. Zkuste operaci zopakovat.<conflictingCommit>
Další podrobnosti najdete v <docLink>.
DELTA_CONFLICT_SET_COLUMN
Ke konfliktu došlo ze sloupců SET: <columnList>.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND
Během <command> nelze konfiguraci "<configuration>" nastavit z příkazu. Odeberte ho z klauzule TBLPROPERTIES a opakujte příkaz.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION
Během <command>konfigurace nelze v konfiguracích SparkSession nastavit konfiguraci "<configuration>". Zrušte jeho nastavení spuštěním spark.conf.unset("<configuration>") a pak příkaz opakujte.
DELTA_CONSTRAINT_ALREADY_EXISTS
Omezení '<constraintName>' již existuje. Nejprve odstraňte původní omezení.
Původní omezení:
<oldConstraint>
DELTA_CONSTRAINT_DATA_TYPE_MISMATCH
Sloupec <columnName> má datový typ <columnType> a nelze ho změnit na datový typ <dataType>, protože na tento sloupec odkazuje následující omezení kontroly:
<constraints>
DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE
Nelze změnit sloupec <columnName>, protože na něj odkazuje následující omezení kontroly:
<constraints>
DELTA_CONSTRAINT_DOES_NOT_EXIST
Nelze odstranit neexistující omezení <constraintName> z tabulky <tableName>. Pokud se chcete vyhnout vyvolání chyby, zadejte parametr IF EXISTS nebo nastavte konfiguraci relace SQL <config> na <confValue>.
DELTA_CONVERSION_MERGE_ON_READ_NOT_SUPPORTED
Převod tabulky Merge-On-Read <format> není podporován: <path>, <hint>
DELTA_CONVERSION_NO_PARTITION_FOUND
V katalogu pro tabulku <tableName>nebyly nalezeny žádné informace o oddílu. Spustili jste ve své tabulce příkaz MSCK REPAIR TABLE, abyste zjistili oddíly?
DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN
Tabulku Parquet se seřazeným sloupcem oddílu <colName> nelze převést na Delta.
DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING
Konfiguraci '<config>' nelze nastavit na <mode>, pokud používáte CONVERT až DELTA.
DELTA_CONVERSION_UNSUPPORTED_SCHEMA_CHANGE
Pro tabulku byly nalezeny <format> nepodporované změny schématu: <path>, <hint>
DELTA_CONVERT_NON_PARQUET_TABLE
CONVERT TO DELTA podporuje pouze tabulky ve formátu parquet, ale vy se snažíte konvertovat <sourceName> zdroj: <tableId>.
DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS
Nelze povolit sledování řádků bez shromažďování statistik.
Pokud chcete povolit sledování řádků, postupujte takto:
- Spuštěním příkazu povolte shromažďování statistik.
SET <statisticsCollectionPropertyKey> = pravda
- Spusťte
CONVERTTODELTAbez možnosti NOSTATISTICS.
Pokud nechcete shromažďovat statistiky, zakažte sledování řádků:
- Ve výchozím nastavení deaktivujte povolení funkce tabulky spuštěním příkazu:
RESET <rowTrackingTableFeatureDefaultKey>
- Ve výchozím nastavení deaktivujte vlastnost tabulky spuštěním příkazu:
SET <rowTrackingDefaultPropertyKey> = nepravda
DELTA_COPY_INTO_TARGET_FORMAT
COPY INTO cíl musí být tabulka Delta.
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA
Pokoušíte se vytvořit externí tabulku <tableName>
z <path> pomocí Delta, ale schéma není zadáno
vstupní cesta je prázdná.
Další informace o funkci Delta najdete v tématu <docLink>
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG
Pokoušíte se vytvořit externí tabulku <tableName> z <path> pomocí Delta, ale neexistuje žádný transakční protokol na <logPath>. Zkontrolujte upstreamovou úlohu a ujistěte se, že se zapisuje pomocí formátu("delta") a že cesta je kořenem tabulky.
Další informace o funkci Delta najdete v tématu <docLink>
DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH
Vytvoření tabulky Delta založené na cestě s jiným umístěním se nepodporuje. Identifikátor: <identifier>, Umístění: <location>.
DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION
Je nutné zadat název tabulky nebo umístění.
DELTA_CREATE_TABLE_SCHEME_MISMATCH
Zadané schéma neodpovídá existujícímu schématu v <path>.
== Zadané ==
<specifiedSchema>
== Existující ==
<existingSchema>
== Rozdíly ==
<schemaDifferences>
Pokud máte v úmyslu zachovat stávající schéma, můžete vynechat
schéma z příkazu create table. V opačném případě se ujistěte, že
schéma odpovídá.
DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
Nelze povolit funkci tabulky <tableFeature> pomocí TBLPROPERTIES. K vytvoření tabulky Delta s clusteringem použijte CREATE NEBO REPLACE TABLE CLUSTER BY.
DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING
Zadané sloupce clusteringu neodpovídají existujícím sloupcům clusteringu v <path>.
== Zadané ==
<specifiedColumns>
== Existující ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING
Zadané dělení neodpovídá existujícímu dělení v <path>.
== Zadané ==
<specifiedColumns>
== Existující ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY
Zadané vlastnosti neodpovídají existujícím vlastnostem v <path>.
== Zadané ==
<specifiedProperties>
== Existující ==
<existingProperties>
DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION
Nelze vytvořit tabulku ('<tableId>). Přidružené umístění ('<tableLocation>) není prázdné a také není tabulka Delta.
DELTA_DATA_CHANGE_FALSE
Metadata tabulky nelze změnit, protože možnost DataChange je nastavená na hodnotu false. Pokus o operaci: '<op>'.
DELTA_DELETED_PARQUET_FILE_NOT_FOUND
Soubor <filePath> odkazovaný v transakčním protokolu nebyl nalezen. Tento soubor parquet může být odstraněn podle zásad uchovávání dat Delta.
Výchozí doba uchovávání dat Delta: <logRetentionPeriod>. Čas poslední změny parquetového souboru: <modificationTime>. Čas odstranění parquetového souboru: <deletionTime>. Odstraněno ve verzi Delta: <deletionVersion>.
DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS
Zápis souborů s vektory odstranění, které postrádají statistiku numRecords, je neplatný.
DELTA_DISABLE_SOURCE_MATERIALIZATION_IN_INSERT_REPLACE_ON_OR_USING_NOT_ALLOWED
Zakázání materializace zdroje INSERT REPLACE ON/USING nastavením 'spark.databricks.delta.insertReplaceOnOrUsing.materializeSource' na 'none' není povoleno.
DELTA_DISABLE_SOURCE_MATERIALIZATION_IN_MERGE_NOT_ALLOWED
Zakázání materializace zdroje v MERGE nastavením 'spark.databricks.delta.merge.materializeSource' na 'none' není povoleno.
DELTA_DOMAIN_METADATA_NOT_SUPPORTED
Zjištěné akce DomainMetadata pro domény <domainNames>, ale DomainMetadataTableFeature není povolená.
DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO
Index <columnIndex> pro odstranění sloupce je nižší než 0.
DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA
Nelze odstranit sloupec ze schématu s jedním sloupcem. Schema:
<schema>
DELTA_DUPLICATE_ACTIONS_FOUND
Operace souboru '<actionType>' pro cestu <path> byla zadána několikrát.
Je v konfliktu s <conflictingPath>.
Není povoleno provádět více operací se soubory na stejné cestě v jednom commitu.
DELTA_DUPLICATE_COLUMNS_FOUND
Byly nalezeny <coltype>duplicitní sloupce: <duplicateCols>.
DELTA_DUPLICATE_COLUMNS_ON_INSERT
Duplicitní názvy sloupců v INSERT klauzuli
DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE
<message>
Před aktualizací tabulky odeberte duplicitní sloupce.
DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS
Duplicovaná data nalezena, přeskočené sloupce: <columns>.
DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR
Vnitřní chyba: dvě akce DomainMetadata v rámci stejné transakce mají stejnou doménu <domainName>.
DELTA_DUPLICATE_LOG_ENTRIES_FOUND
Protokol Delta je v neplatném stavu: <numDuplicates> cesty mají duplicitní položky ve verzi <version>.
RESTORE na verzi před změnou, která zavedla duplikaci, nebo se obraťte na podporu pro pomoc.
DELTA_DV_HISTOGRAM_DESERIALIZATON
Nelze deserializovat histogram počtu odstraněných záznamů během ověřování integrity tabulky.
DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED
Režim přepsání dynamického oddílu je určen nastavením relace nebo možnostmi zápisu, ale je zakázán nastavením spark.databricks.delta.dynamicPartitionOverwrite.enabled=false.
DELTA_EMPTY_DATA
Data použitá při vytváření tabulky Delta neobsahují žádné sloupce.
DELTA_EMPTY_DIRECTORY
V adresáři nebyl nalezen žádný soubor: <directory>.
DELTA_EXCEED_CHAR_VARCHAR_LIMIT
Hodnota "<value>" překračuje omezení délky typu char/varchar. Kontrola se nezdařila: <expr>.
DELTA_EXTERNAL_METADATA_UNRESOLVED_PROJECTION (Nezpracovaná projekce externích metadat)
Dotaz projekce '<query>' nelze vyřešit ve schématu: <schemaTreeString>
DELTA_EXTERNAL_METADATA_UNSUPPORTED_SOURCE
Externí metadata nepodporují zdroj:
Další podrobnosti najdete v tématu DELTA_EXTERNAL_METADATA_UNSUPPORTED_SOURCE
DELTA_FAILED_CAST_PARTITION_VALUE
Nepodařilo se převést hodnotu <value> oddílu na hodnotu <dataType>.
DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS
Nepodařilo se najít <newAttributeName> mezi existujícím cílovým výstupem <targetOutputColumns>.
DELTA_FAILED_INFER_SCHEMA
Nepodařilo se odvodit schéma z daného seznamu souborů.
DELTA_FAILED_MERGE_SCHEMA_FILE
Sloučení schématu souboru <file>se nezdařilo:
<schema>
DELTA_FAILED_OPERATION_ON_SHALLOW_CLONE
Operaci ve zdrojové tabulce <sourceTable> se nepovedlo spustit, protože klon mělké kopie stále existuje a v mělkém <targetTable> klonu došlo k následující chybě: <message>
DELTA_FAILED_READ_FILE_FOOTER
Nelze načíst zápatí souboru: <currentFile>.
DELTA_FAILED_RECOGNIZE_PREDICATE
Predikát<predicate> nelze rozpoznat.
DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION
Byla očekávána úplná kontrola nejnovější verze zdroje Delta, ale místo toho byla nalezena historická kontrola verze <historicalVersion>.
DELTA_FAILED_TO_MERGE_FIELDS
Sloučení polí '<currentField>' a '<updateField>' se nezdařilo.
DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH
Nelze pracovat s touto tabulkou, protože následující funkce tabulky jsou povoleny v metadatech, ale nejsou uvedeny v protokolu: <features>.
DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT
Schéma tabulky vyžaduje ruční povolení následujících funkcí tabulky: <unsupportedFeatures>.
Provedete to spuštěním následujícího příkazu pro každou z výše uvedených funkcí:
ALTER TABLE
SET TBLPROPERTIES table_name ('delta.feature.feature_name' = 'supported')
Nahraďte "table_name" a "feature_name" skutečnými hodnotami.
Aktuální podporované funkce: <supportedFeatures>.
DELTA_FEATURE_CAN_ONLY_DROP_CHECKPOINT_PROTECTION_WITH_HISTORY_TRUNCATION
Nelze odstranit funkci Ochrana kontrolního bodu.
Tuto funkci lze vynechat pouze zkrácením historie.
Zkuste to prosím znovu s možností TRUNCATE HISTORY:
ALTER TABLE
DROP FEATURE table_name checkpointProtectionTRUNCATE HISTORY
DELTA_FEATURE_DROP_CHECKPOINT_FAILED
Vyřazení <featureName> selhalo kvůli chybě při vytváření kontrolního bodu.
Zkuste to prosím znovu později. Problém přetrvává, obraťte se na podporu Databricks.
DELTA_FEATURE_DROP_CHECKPOINT_PROTECTION_WAIT_FOR_RETENTION_PERIOD
Operace nebyla úspěšná, protože stále existují stopy odstraněných funkcí.
v historii tabulek. CheckpointProtection nelze odstranit, dokud tyto historické
Verze vypršely.
Pokud chcete odstranit CheckpointProtection, prosím počkejte na dokončení historických verzí.
Počkejte, až vyprší platnost, a pak tento příkaz opakujte. Doba uchovávání pro historické verze je
aktuálně nakonfigurované na <truncateHistoryLogRetentionPeriod>.
DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL
Funkci nelze odstranit, protože souběžná transakce změnila tabulku.
Zkuste operaci zopakovat.
<concurrentCommit>
DELTA_FEATURE_DROP_DEPENDENT_FEATURE
Funkci tabulky nelze odstranit <feature>, protože některé další funkce (<dependentFeatures>) v této tabulce závisí na <feature>.
Před vyřazením této funkce zvažte nejprve jejich vyřazení.
DELTA_FEATURE_DROP_FEATURE_IS_DELTA_PROPERTY
Z této tabulky nelze odstranit <property> , protože se jedná o vlastnost tabulky delta, a ne o funkci tabulky.
DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT
Z této tabulky nelze vypustit <feature> , protože není aktuálně k dispozici v protokolu tabulky.
DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST
Nelze odstranit <feature>, protože protokol Delta obsahuje historické verze, které tuto funkci používají.
Počkejte prosím na dobu uchovávání historie (<logRetentionPeriodKey>=<logRetentionPeriod>).
funkce uplynula od poslední aktivní funkce.
Případně počkejte na vypršení doby uchovávání TRUNCATE HISTORY (<truncateHistoryLogRetentionPeriod>)
a pak spusťte:
ALTER TABLE název_tabulky DROP FEATURE název_funkce TRUNCATE HISTORY
DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED
Konkrétní funkce nevyžaduje zkrácení historie.
DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE
Nelze odstranit <feature>, protože vyřazení této funkce není podporováno.
Kontaktujte prosím podporu Databricks.
DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE
Nelze odstranit <feature>, protože tato verze Databricks ji nepodporuje.
Zvažte použití Databricks s vyšší verzí.
DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD
Odstranění <feature> bylo částečně úspěšné.
Funkce se už nepoužívá v aktuální verzi tabulky. Funkce však
je stále k dispozici v historických verzích tabulky. Funkci tabulky nelze vynechat.
z protokolu tabulky, dokud nevyprší platnost těchto historických verzí.
Pokud chcete odstranit funkci tabulky z protokolu, počkejte, až budou dostupné historické verze.
Počkejte, až vyprší platnost, a pak tento příkaz opakujte. Doba uchovávání pro historické verze je
aktuálně nakonfigurované jako <logRetentionPeriodKey>=<logRetentionPeriod>.
Případně počkejte na vypršení doby uchovávání TRUNCATE HISTORY (<truncateHistoryLogRetentionPeriod>)
a pak spusťte:
ALTER TABLE název_tabulky DROP FEATURE název_funkce TRUNCATE HISTORY
DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION
Funkci tabulky nelze povolit <feature>, protože vyžaduje vyšší verzi protokolu čtečky (aktuální <current>). Zvažte upgrade verze protokolu čtenáře tabulky na <required>verzi nebo na verzi, která podporuje funkce tabulek pro čtení. Další informace o verzích tabulkových protokolů najdete v <docLink>.
DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION
Nelze povolit funkci tabulky <feature>, protože vyžaduje vyšší verzi protokolu zápisu (aktuální <current>). Zvažte upgrade verze protokolu zápisu tabulky na <required>verzi nebo na verzi, která podporuje funkce zápisu tabulek. Další informace o verzích tabulkových protokolů najdete v <docLink>.
DELTA_FILE_ALREADY_EXISTS
Cesta k existujícímu souboru <path>.
DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT
Nelze zadat jak seznam souborů, tak i řetězec vzoru.
DELTA_FILE_NOT_FOUND
Cesta k souboru <path>.
DELTA_FILE_NOT_FOUND_DETAILED
Soubor <filePath> odkazovaný v transakčním protokolu nebyl nalezen. K tomu dochází, když jsou data ručně odstraněna ze systému souborů, namísto použití příkazu tabulky DELETE. Další informace najdete v tématu <faqPath>
DELTA_FILE_OR_DIR_NOT_FOUND
Žádný takový soubor nebo adresář: <path>.
DELTA_FILE_TO_OVERWRITE_NOT_FOUND
Soubor (<path>) pro přepsání nenalezen mezi kandidátními soubory.
<pathList>
DELTA_FOUND_MAP_TYPE_COLUMN
Typ MapType byl nalezen. Pokud chcete získat přístup ke klíči nebo hodnotě MapType, zadejte jednu z nich.
of:
<key> nebo
<value>
za ním název sloupce (pouze pokud je tento sloupec typem struktury).
například mymap.key.mykey
Pokud je sloupec základním typem, mymap.key nebo mymap.value je dostačující.
Schema:
<schema>
DELTA_FSCK_CANNOT_REPAIR_DELTA_LOG
FsCK nemůže tabulku opravit. Tabulka nemá platný kontrolní bod pro spuštění přehrání protokolu a neexistuje dostatek historie protokolů pro přehrání z první verze.
DELTA_FSCK_CONCURRENT_MODIFICATION
Souběžná úprava tabulky zjištěná při spuštění FSCK. Zkuste příkaz FSCK zopakovat a během procesu opravy se ujistěte, že do tabulky nezapisují žádné jiné operace.
DELTA_FSCK_DRY_RUN_CANNOT_PROCEED_WITH_INVALID_CHECKPOINTS
FSCK DRY RUN nemůže pokračovat, protože byly zjištěny neplatné kontrolní body. Nejprve spusťte tabulku FSCK REPAIR TABLEMETADATA a opravte kontrolní body.
DELTA_FSCK_DRY_RUN_CANNOT_PROCEED_WITH_MISSING_OR_INVALID_PARTITION_FILES
FSCK DRY RUN nemůže pokračovat, protože byly zjištěny chybějící soubory nebo soubory s neplatnými hodnotami oddílů. Nejprve spusťte tabulku FSCK REPAIR TABLE a tabulku opravte.
DELTA_FSCK_INVALID_BARRIER_CHECKPOINT
FsCK nemůže tabulku opravit. Některé neplatné kontrolní body jsou chráněné a nelze je odebrat. Kontaktujte prosím podporu Databricks.
DELTA_FSCK_NO_VALID_CHECKPOINT
FsCK nemůže tabulku opravit. Všechny kontrolní body této tabulky jsou neplatné. Kontaktujte prosím podporu Databricks.
DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH
Sloupec <columnName> má datový typ <columnType> a nelze ho změnit na datový typ <dataType>, protože na tento sloupec odkazuje následující vygenerované sloupce:
<generatedColumns>.
DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE
Sloupec nelze změnit <columnName>, protože na tento sloupec odkazuje následující vygenerované sloupce:
<generatedColumns>.
DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH
Typ výrazu vygenerovaného sloupce <columnName> je <expressionType>, ale typ sloupce je <columnType>.
DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH
Sloupec <currentName> je vygenerovaný sloupec nebo sloupec používaný vygenerovaným sloupcem. Datový typ je <currentDataType> a nelze jej převést na datový typ <updateDataType>.
DELTA_GEOSPATIAL_NOT_SUPPORTED
Geoprostorové typy nejsou v této verzi Delta Lake podporované.
DELTA_GEOSPATIAL_SRID_NOT_SUPPORTED
Geoprostorový typ má nepodporovaný srid: <srid>. Tabulky Delta podporují pouze nezáporné hodnoty sridu.
DELTA_ICEBERG_COMPAT_VIOLATION
Ověření IcebergCompatV typu<version> selhalo.
Další podrobnosti viz DELTA_ICEBERG_COMPAT_VIOLATION
DELTA_ICEBERG_WRITER_COMPAT_VIOLATION
Ověření icebergWriterCompatV<version> selhalo.
Další podrobnosti najdete v tématu DELTA_ICEBERG_WRITER_COMPAT_VIOLATION
DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED
ALTER TABLE ALTER COLUMN se nepodporuje pro sloupce IDENTITY.
DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT
ALTER TABLE ALTER COLUMN SYNC IDENTITY podporuje pouze Delta.
DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN
ALTER TABLE ALTER COLUMN SYNC IDENTITY nelze volat na sloupcích, které nejsou IDENTITY.
DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED
Zadání hodnot pro GENERATED ALWAYS AS IDENTITY sloupec <colName> není podporováno.
DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP
IDENTITY krok sloupce nemůže být 0.
DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT
Pouze Delta podporuje sloupce IDENTITY.
DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED
PARTITIONED BY IDENTITY sloupec <colName> se nepodporuje.
DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED
ALTER TABLE REPLACE COLUMNS tabulky se sloupci IDENTITY nepodporuje.
DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
Datový typ <dataType> není podporován pro sloupce IDENTITY.
DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED
UPDATE na sloupci IDENTITY<colName> se nepodporuje.
DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION
Nelze zadat sloupec IDENTITY pomocí vygenerovaného výrazu sloupce.
DELTA_ILLEGAL_OPTION
Neplatná hodnota '<input>' pro možnost '<name>', <explain>
DELTA_ILLEGAL_USAGE
Použití <option> není povoleno, pokud je <operation> tabulka Delta.
DELTA_INCONSISTENT_BUCKET_SPEC
BucketSpec v tabulce Delta bucketed neodpovídá BucketSpec z metadat. Bylo očekáváno: <expected>. Skutečnost: <actual>.
DELTA_INCONSISTENT_LOGSTORE_CONFS
(<setKeys>) nelze nastavit na různé hodnoty. Nastavte pouze jednu z nich nebo je nastavte na stejnou hodnotu.
DELTA_INCORRECT_ARRAY_ACCESS
Nesprávný přístup k poli „ArrayType“. Použijte umístění arrayname.element.elementname pro
přidat do pole.
DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME
Byl nalezen ArrayType. Chcete-li získat přístup k prvkům arrayType, zadejte
<rightName> místo <wrongName>.
Schema:
<schema>
DELTA_INCORRECT_GET_CONF
Místo getConf()použijte conf.getConf() .
DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION
K chybě obvykle dochází, když výchozí implementace LogStore nefunguje správně.
is, HDFSLogStore, slouží k zápisu do tabulky Delta v systému úložiště jiného než HDFS.
Chcete-li získat transakční záruky ACID pro aktualizace tabulek, musíte použít
správná implementace LogStore, která je vhodná pro váš systém úložiště.
Podrobnosti najdete v <docLink>.
DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT
Index <index> pro vynechání sloupce se rovná nebo je větší než délka struktury: <length>.
DELTA_INDEX_LARGER_THAN_STRUCT
Index <index> pro přidání sloupce <columnName> je větší než délka struktury: <length>.
DELTA_INSERT_COLUMN_ARITY_MISMATCH
Nelze zapisovat do '<tableName>', <columnName>; cílová tabulka obsahuje <numColumns> sloupce, ale vložená data mají <insertColumns> sloupce.
DELTA_INSERT_COLUMN_MISMATCH
Sloupec <columnName> není zadán v parametru INSERT.
DELTA_VLOŽENÍ_NAHRAZENÍ_PŘI_NEJASNÝCH_SLOUPCÍCH_V_PODMÍNCE
<columnNames> Sloupce jsou nejednoznačné v podmínce INSERT REPLACE ON. Zvažte zadání aliasu pro tyto sloupce.
DELTA_INSERT_REPLACE_ON_NOT_ENABLED
Obraťte se prosím na svého zástupce Databricks, aby povolil INSERT INTO...REPLACE ON ... Rozhraní API sql a datového rámce
DELTA_INSERT_REPLACE_ON_UNRESOLVED_COLUMNS_IN_CONDITION
<columnNames> Sloupec(-e) nelze vyřešit v podmínce INSERT REPLACE ON.
DELTA_INVALID_AUTO_COMPACT_TYPE
Neplatný typ automatické komprimce: <value>. Povolené hodnoty jsou: <allowed>.
DELTA_INVALID_BUCKET_COUNT
Neplatný počet kbelíků: <invalidBucketCount>. Počet kbelíků by měl být kladné číslo, které je mocninou 2 a je alespoň 8. Místo toho můžete použít <validBucketCount>.
DELTA_INVALID_BUCKET_INDEX
Sloupec kontejneru nelze najít ve sloupcích oddílů.
DELTA_INVALID_CALENDAR_INTERVAL_EMPTY
Interval nemůže být null nebo prázdný.
DELTA_INVALID_CDC_RANGE
Rozsah CDC od začátku <start> do konce <end> byl nesprávný. Konec nemůže být před zahájením.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME
Název atributu "<columnName>" obsahuje neplatné znaky mezi " ;{}()\n\t=". Pomocí aliasu ho přejmenujte.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES
Byly nalezeny neplatné znaky mezi ' , ;{}()\n\t= v názvech sloupců schématu.
Neplatné názvy sloupců: <invalidColumnNames>.
Použijte jiné znaky a zkuste to znovu.
Případně můžete povolit mapování sloupců, aby tyto znaky mohly být nadále používány.
DELTA_INVALID_CHECK_CONSTRAINT_REFERENCES
Bylo nalezeno <colName> v CHECK omezení. Omezení kontroly nemůže použít neexistující sloupec.
DELTA_INVALID_CLONE_PATH
Cílové umístění pro CLONE musí být absolutní cesta nebo název tabulky. Použití funkce
absolutní cesta místo <path>.
DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING
Byly nalezeny neplatné znaky mezi ' , ;{}()\n\t= v názvech sloupců schématu.
Neplatné názvy sloupců: <invalidColumnNames>.
Mapování sloupců nelze odebrat, pokud jsou v názvech sloupců neplatné znaky.
Přejmenujte sloupce, aby se odebraly neplatné znaky, a spusťte tento příkaz znovu.
DELTA_INVALID_FORMAT
Byl zjištěn nekompatibilní formát.
Protokol transakcí pro Delta byl nalezen na adrese <deltaRootPath>/_delta_log,
ale pokoušíte se <operation> <path> použít formát("<format>"). Musíte použít
'format("delta")' při čtení a zápisu do tabulky delta.
Další informace o funkci Delta najdete v tématu <docLink>
DELTA_INVALID_GENERATED_COLUMN_REFERENCES
Vygenerovaný sloupec nemůže použít buď neexistující, nebo jiný generovaný sloupec.
DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS
Neplatné možnosti pro idempotentní zápisy do datového rámce: <reason>
DELTA_INVALID_INTERVAL
<interval> není platný INTERVAL.
DELTA_INVALID_INVENTORY_SCHEMA
Schéma pro zadanou INVENTORY neobsahuje všechna požadovaná pole. Povinná pole jsou: <expectedSchema>
DELTA_INVALID_ISOLATION_LEVEL
neplatná úroveň izolace "<isolationLevel>".
DELTA_INVALID_LOGSTORE_CONF
(<classConfig>) a (<schemeConfig>) nelze nastavit současně. Nastavte pouze jednu skupinu.
DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA
Pokoušíte se vytvořit spravovanou tabulku <tableName>
pomocí funkce Delta, ale schéma není zadané.
Další informace o funkci Delta najdete v tématu <docLink>
DELTA_INVALID_PARTITION_COLUMN
<columnName> není platným sloupcem oddílu v tabulce <tableName>.
DELTA_INVALID_PARTITION_COLUMN_NAME
Zjistilo se, že sloupce oddílů mají neplatné znaky mezi " ;{}()\n\t=". Změňte název na sloupce oddílů. Tuto kontrolu můžete vypnout nastavením spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false), ale nedoporučuje se, protože jiné funkce Delta nemusí správně fungovat.
DELTA_INVALID_PARTITION_COLUMN_TYPE
Použití sloupce <name> typu <dataType> jako sloupce pro oddíly se nepodporuje.
DELTA_INVALID_PARTITION_PATH
Fragment cesty oddílu má být ve formátu jako part1=foo/part2=bar. Cesta k oddílu: <path>.
DELTA_INVALID_PROTOCOL_DOWNGRADE
Verzi protokolu nelze downgradovat z (<oldProtocol>) na (<newProtocol>).
DELTA_INVALID_PROTOCOL_VERSION
Nepodporovaná verze protokolu Delta: tabulka "<tableNameOrPath>" vyžaduje verzi <readerRequired> čtečky a zapisovací verzi <writerRequired>, ale tato verze Databricks podporuje verze <supportedReaders> čtečky a zapisovací verze <supportedWriters>. Upgradujte na novější verzi.
DELTA_INVALID_TABLE_VALUE_FUNCTION
Funkce <function> je nepodporovaná funkce vracející hodnoty tabulky pro čtení CDC.
DELTA_INVALID_TIMESTAMP_FORMAT
Zadané časové razítko <timestamp> neodpovídá očekávané syntaxi <format>.
DELTA_LOG_ALREADY_EXISTS
Delta protokol již existuje na <path>.
DELTA_LOG_FILE_NOT_FOUND (soubor protokolu Delta nebyl nalezen)
Nelze načíst delta log soubory pro vytvoření verze tabulky <version>, počínaje verzí <checkpointVersion> kontrolního bodu na adrese <logPath>.
DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE
Pokud jste ho nikdy neodstranili, je pravděpodobné, že váš dotaz zaostává. Odstraňte kontrolní bod a restartujte ho úplně od začátku. Abyste tomu předešli znovu, můžete aktualizovat zásady uchovávání informací v tabulce Delta.
DELTA_LOG_JSON_FILE_ACCESS_DENIED
Přístup byl odepřen při čtení souboru protokolu JSON Delta: <filePath>. Zkontrolujte, jestli máte oprávnění ke čtení pro umístění tabulky Delta.
DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING
Materializovaný název sloupce <rowTrackingColumn> chybí pro <tableName>.
DELTA_MAX_ARRAY_SIZE_EXCEEDED
Použijte limit menší než Int.MaxValue – 8.
DELTA_MAX_COMMIT_RETRIES_EXCEEDED
Tento commit selhal, protože se o něj pokusilo <numAttempts>krát, ale neuspěl.
Příčinou může být průběžné potvrzení tabulky Delta mnoha souběžnými procesy.
commits.
Commit byl zahájen ve verzi: <startVersion>
Potvrzení se nezdařilo ve verzi: <failVersion>
Počet pokusů o potvrzení: <numActions>
Celková doba strávená pokusem o potvrzení: <timeSpent> ms
DELTA_MAX_LIST_FILE_EXCEEDED
Seznam souborů musí mít maximálně <maxFileListSize> položky, měl <numFiles>.
DELTA_MERGE_ADD_VOID_COLUMN
Nelze přidat sloupec <newColumn> s typem VOID. Explicitně zadejte typ, který není void.
DELTA_MERGE_INCOMPATIBLE_DATATYPE
Sloučení nekompatibilních datových typů <currentDataType> a <updateDataType>se nezdařilo.
DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE
Nepodařilo se sloučit desetinné typy s nekompatibilními <decimalRanges>.
DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY
Opakované materializování zdroje příkazu MERGE selhalo.
DELTA_MERGE_MISSING_WHEN
V příkazu WHEN musí existovat alespoň jedna klauzule MERGE.
DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT
Vyřešené atributy <missingAttributes> chybí v <input> operátoru <merge>.
Zdroj delta spojení uložen do mezipaměti během provádění
Operace MERGE se nezdařila, protože (část) zdrojového plánu byla uložena v mezipaměti, když MERGE byla operace spuštěna.
DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY
Neočekávaný klíč přiřazení: <unexpectedKeyClass> - <unexpectedKeyObject>.
DELTA_MERGE_UNRESOLVED_EXPRESSION
Nelze vyřešit <sqlExpr> v rámci <clause> daných sloupců <cols>.
DELTA_METADATA_CHANGED
MetadataChangedException: Metadata tabulky Delta byla změněna souběžnou aktualizací. Zkuste operaci zopakovat.<conflictingCommit>
Další podrobnosti najdete v <docLink>.
DELTA_MISSING_CHANGE_DATA
Chyba při získávání dat o změnách pro oblast [<startVersion> , <endVersion>] kvůli tomu, že data změn nebyla
zaznamenáno pro verzi [<version>]. Pokud jste v této tabulce povolili změnu datového kanálu,
pomocí DESCRIBE HISTORY zjistěte, kdy byla poprvé povolena.
Pokud chcete začít zaznamenávat data změn, použijte ALTER TABLE table_name SET TBLPROPERTIES
(<key>=true).
DELTA_MISSING_COLUMN
Nelze najít <columnName> ve sloupcích tabulky: <columnList>.
DELTA_MISSING_COMMIT_INFO
Tato tabulka má povolenou funkci <featureName>, která vyžaduje přítomnost akce CommitInfo v každém commitu. Ve verzi commitu <version>však chybí akce CommitInfo.
DELTA_MISSING_COMMIT_TIMESTAMP
Tato tabulka obsahuje funkci <featureName> povolená, která vyžaduje přítomnost commitTimestamp v akci CommitInfo. Toto pole však nebylo nastaveno ve verzi potvrzení <version>.
DELTA_MISSING_DELTA_TABLE
<tableName> není tabulka Delta.
DELTA_MISSING_DELTA_TABLE_COPY_INTO
Tabulka neexistuje. Nejprve vytvořte prázdnou tabulku Delta pomocí CREATE TABLE <tableName>.
DELTA_MISSING_ICEBERG_CLASS
Třída Apache Iceberg nebyla nalezena. Ujistěte se, že je nainstalovaná podpora Delta Apache Iceberg.
Další podrobnosti najdete v <docLink>.
DELTA_MISSING_NOT_NULL_COLUMN_VALUE
Sloupec <columnName>, který má omezení NOT NULL, chybí v datech, která se zapisují do tabulky.
DELTA_MISSING_PARTITION_COLUMN
Sloupec oddílu <columnName> nebyl nalezen ve schématu <columnList>.
DELTA_MISSING_PART_FILES
Nelze najít všechny soubory částí verze kontrolního bodu: <version>.
DELTA_MISSING_PROVIDER_FOR_CONVERT
CONVERT TO DELTA podporuje pouze parquetové tabulky. Přepište svůj cíl na parquet.
<path> pokud se jedná o adresář formátu Parquet.
DELTA_MISSING_ROW_TRACKING_FOR_CDC
Chyba při získávání dat změn pro <tableName> sledování řádků nebyla povolena. Pokud chcete povolit sledování řádků, použijte ALTER TABLE table_name SET TBLPROPERTIES (<key>=true).
DELTA_MISSING_SET_COLUMN
SET sloupec <columnName> nebyl nalezen mezi danými sloupci: <columnList>.
DELTA_MISSING_TRANSACTION_LOG
Byl zjištěn nekompatibilní formát.
Pokoušíte se <operation> <path> pomocí delta, ale neexistuje žádná
transakční protokol je k dispozici. Zkontrolujte nadřazenou úlohu a ujistěte se, že zapisuje.
Pomocí formátování ("delta") a pokoušíte se na základní cestu tabulky zadat %1$s.
Další informace o funkci Delta najdete v tématu <docLink>
DELTA_MODE_NOT_SUPPORTED
Zadaný mód '<mode>' není podporován. Podporované režimy jsou: <supportedModes>.
DELTA_MULTIPLE_CDC_BOUNDARY
Bylo zadáno více argumentů <startingOrEnding> pro čtení CDC. Zadejte buď <startingOrEnding>časové razítko, nebo <startingOrEnding>verzi.
DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER
Konfigurace více Bloomových filtrů indexu předané příkazu pro sloupec: <columnName>.
DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE
Sloučení nelze provést, protože se shodoval více zdrojových řádků a pokusil se změnit stejný
cílový řádek v tabulce Delta může být konfliktní. Podle sémantiky SQL merge,
pokud se více zdrojových řádků shoduje na stejném cílovém řádku, může být výsledek nejednoznačný.
protože není jasné, který zdrojový řádek by se měl použít k aktualizaci nebo odstranění shody.
cílový řádek. Zdrojová tabulka můžete předem zpracovat, aby se vyloučila možnost
více shod. Odkazujte prosím na
<usageReference>
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND
Během <command> musí být buď obě konfigurace koordinovaných potvrzení ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview") nastaveny v příkazu, nebo žádná z nich. Chybí: "<configuration>". Zadejte tuto konfiguraci v klauzuli TBLPROPERTIES nebo odeberte jinou konfiguraci a opakujte příkaz.
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION
Během <command> jsou buď obě koordinované potvrzovací konfigurace ("coordinatedCommits.commitCoordinator-preview", "coordinatedCommits.commitCoordinatorConf-preview") nastaveny v konfiguracích SparkSession, nebo žádná z nich. Chybí: "<configuration>". Nastavte tuto konfiguraci ve SparkSession nebo odstraňte jinou konfiguraci a pak příkaz opakujte.
DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE
Následující názvy sloupců jsou vyhrazeny pouze pro interní použití v tabulce Delta: <names>.
DELTA_NESTED_FIELDS_NEED_RENAME
Vstupní schéma obsahuje vnořená pole, která jsou jinak kapitalizovaná než v cílové tabulce.
Je potřeba je přejmenovat, aby se zabránilo ztrátě dat v těchto polích při zápisu do delta.
Fields:
<fields>.
Původní schéma:
<schema>
DELTA_NESTED_NOT_NULL_CONSTRAINT
Typ <nestType> pole <parent> má omezení NOT NULL. Delta nepodporuje NOT NULL omezení vnořená v polích nebo mapách. Pokud chcete tuto chybu potlačit a bezobslužně ignorovat zadaná omezení, nastavte <configKey> = true.
Parsovaný typ <nestType>:
<nestedPrettyJson>
DELTA_NESTED_SUBQUERY_NOT_SUPPORTED
V podmínce <operation> nejsou podporovány vnořené poddotazy.
DELTA_NEW_CHECK_CONSTRAINT_VIOLATION
<numRows> řádky, které <tableName> porušují nové CHECK omezení (<checkConstraint>).
DELTA_NEW_NOT_NULL_VIOLATION
<numRows> řádky v <tableName> jsou v rozporu s novým omezením NOT NULL na <colName>.
DELTA_NON_BOOLEAN_CHECK_CONSTRAINT
CHECK constraint '<name>' (<expr>) by měl být logický výraz.
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_CHECK_CONSTRAINT
Nachází <expr> se CHECK v omezení.
CHECK Omezení nemůže použít nedeterministický výraz.
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN
Nalezeno <expr>. Generovaný sloupec nemůže použít ne-deterministický výraz.
DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED
Ne deterministické funkce nejsou podporovány v souboru <operation> <expression>.
DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Pokud je v příkazu MATCHED více než jedna klauzule MERGE, může podmínku vynechat pouze poslední klauzule MATCHED.
DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Pokud je v příkazu NOT MATCHED BY SOURCE více než jedna klauzule MERGE, může podmínku vynechat pouze poslední klauzule NOT MATCHED BY SOURCE.
DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION
Pokud je v příkazu NOT MATCHED více než jedna klauzule MERGE, může podmínku vynechat pouze poslední klauzule NOT MATCHED.
DELTA_NON_PARSABLE_TAG
Nelze analyzovat značku <tag>.
Značky souborů jsou: <tagList>.
DELTA_NON_PARTITION_COLUMN_ABSENT
Data zapsaná do Delta musí obsahovat aspoň jeden nepartitionovaný sloupec.<details>
DELTA_NON_PARTITION_COLUMN_REFERENCE
Predikát odkazuje na sloupec bez oddílu '<columnName>'. Odkazovat lze pouze na sloupce oddílů: [<columnList>].
DELTA_NON_PARTITION_COLUMN_SPECIFIED
Jsou zadány neskupinující sloupce <columnList>, kde se očekávají pouze sloupce s dělením: <fragment>.
DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG
Katalog Delta vyžaduje jednodílný obor názvů, ale <identifier> je vícedílný.
DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_COMMAND
Nastavení koordinátoru potvrzení na '<nonUcCoordinatorName>' pomocí příkazu není podporováno, protože tabulky spravované v UC mohou mát jako koordinátora potvrzení pouze Unity-Catalog. Změňte ho v klauzuli TBLPROPERTIES buď na „unity-catalog“, nebo odeberte všechny vlastnosti tabulky Coordinated Commits, a poté příkaz zkuste znovu.
DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_SESSION
Nastavení koordinátoru potvrzení na "<nonUcCoordinatorName>" z konfigurací SparkSession není podporováno, protože tabulky spravované v UC můžou jako koordinátor potvrzení obsahovat pouze unity-catalog. Změňte ho buď na unity-catalog spuštěním spark.conf.set("<coordinatorNameDefaultKey>", "unity-catalog")příkazu , nebo odeberte všechny vlastnosti tabulky Coordinated Commits z konfigurací SparkSession spuštěním spark.conf.unset("<coordinatorNameDefaultKey>"), spark.conf.unset("<coordinatorConfDefaultKey>"), spark.conf.unset("<tableConfDefaultKey>")a pak příkaz opakujte.
DELTA_NON_UC_MANAGED_TABLE_UPGRADE_OR_DOWNGRADE_NOT_SUPPORTED
Tato tabulka <tableName> není spravovaná UC. Upgradovat nebo downgradovat na tabulky spravované katalogem je možné pouze tabulky spravované v UC.
DELTA_NOT_A_DATABRICKS_DELTA_TABLE
<table> není tabulka Delta. Pokud chcete vytvořit tabulku pomocí Databricks Delta, nejprve ji smažte.
DELTA_NOT_A_DELTA_TABLE
<tableName> není tabulka Delta. Pokud chcete tuto tabulku znovu vytvořit pomocí Delta Lake, nejprve ji odstraňte.
DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT
Ve struktuře nebyl nalezen sloupec, který nelze nastavit na null: <struct>.
DELTA_NOT_NULL_CONSTRAINT_VIOLATED
NOT NULL porušení omezení pro sloupec: <columnName>.
DELTA_NOT_NULL_NESTED_FIELD
Do nadřazeného objektu s možnou hodnotou null nelze přidat nenulové vnořené pole. Odpovídajícím způsobem nastavte nulovatelnost nadřazeného sloupce.
DELTA_NO_COMMITS_FOUND
Nebyly nalezeny žádné potvrzení na adrese <logPath>.
DELTA_NO_RECREATABLE_HISTORY_FOUND
Nebyla nalezena žádná znovuvytvořitelné commity na adrese <logPath>.
DELTA_NO_REDIRECT_RULES_VIOLATED
Operace není povolena: <operation> nelze provést u tabulky s funkcí přesměrování.
Pravidla "bez přesměrování" nejsou splněna <noRedirectRules>.
DELTA_NO_RELATION_TABLE
Tabulka <tableIdent> nebyla nalezena.
DELTA_NO_START_FOR_CDC_READ
Pro čtení CDC nejsou k dispozici žádné hodnoty startingVersion či startingTimestamp.
DELTA_NULL_SCHEMA_IN_STREAMING_WRITE
Delta nepřijímá hodnoty NullTypes ve schématu pro zápisy streamování.
DELTA_ONEOF_IN_TIMETRAVEL
Uveďte buď 'timestampAsOf', nebo 'versionAsOf' pro zpětné cestování v čase.
DELTA_ONLY_OPERATION
<operation> se podporuje jenom u tabulek Delta.
DELTA_OPERATION_MISSING_PATH
Zadejte cestu nebo identifikátor tabulky pro <operation>.
DELTA_OPERATION_NOT_ALLOWED
Operace není povolena: <operation> pro tabulky Delta není podporovaná.
DELTA_OPERATION_NOT_ALLOWED_DETAIL
Operace není povolena: <operation> není podporována pro tabulky Delta: <tableName>.
DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION
<operation> není podporován pro sloupec <colName> s jinou než výchozí kolací <collation>.
DELTA_OPERATION_NOT_SUPPORTED_FOR_DATATYPES
<operation> nepodporuje datové typy: <dataTypeList>.
DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION
Výraz <operation> není pro <exprText> podporován, protože používá jinou než výchozí kolaci.
DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED
<operation> příkaz v rámci dočasného zobrazení odkazující na tabulku Delta, která obsahuje vygenerované sloupce, není podporován. Spusťte <operation> příkaz přímo v tabulce Delta.
DELTA_OPERATION_ON_VIEW_NOT_ALLOWED
Operace není povolena: <operation> nelze provést v zobrazení.
DELTA_OPTIMIZE_FULL_NOT_SUPPORTED
OPTIMIZE FULL se podporuje jenom pro clusterované tabulky s neprázdnými sloupci clusteringu.
DELTA_OVERWRITE_MUST_BE_TRUE
Možnost kopírování přepsatSchema nelze zadat bez nastavení OVERWRITE = true.
DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE
Funkci 'overwriteSchema' nelze použít v režimu přepsání dynamického oddílu.
DELTA_PARTITION_COLUMN_CAST_FAILED
Nepodařilo se převést hodnotu <value> na <dataType> pro sloupec oddílu <columnName>.
DELTA_PARTITION_COLUMN_NOT_FOUND
Sloupec <columnName> oddílu nebyl nalezen ve schématu [<schemaMap>].
DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES
Při převodu tabulek Apache Iceberg nelze zadat schéma oddílů. Je to automaticky odvozeno.
DELTA_PATH_BASED_ACCESS_TO_CATALOG_MANAGED_TABLE_BLOCKED
Přístup na základě cesty není pro tabulku Catalog-Managed povolen: <path>. Přejděte k tabulce přes její název a zkuste to znovu.
Přístup k tabulce na základě cesty DELTA zablokován
Tabulka v <path> adresáři byla migrována do spravované tabulky Katalogu Unity a už není přístupná cestou. Aktualizujte klienta tak, aby přistupoval k tabulce podle názvu.
DELTA_PATH_DOES_NOT_EXIST
<path> neexistuje nebo není tabulkou Delta.
DELTA_PATH_EXISTS
Nelze zapisovat do již existující cesty <path> bez nastavení OVERWRITE = true.
DELTA_POST_COMMIT_HOOK_FAILED
Potvrzení verze tabulky Delta <version> bylo úspěšné, ale při provádění post-commit skriptu <name> <message> došlo k chybě.
DELTA_PROTOCOL_CHANGED
ProtocolChangedException: Souběžná aktualizace změnila verzi protokolu tabulky Delta. <additionalInfo> <conflictingCommit>
Další podrobnosti najdete v <docLink>.
DELTA_PROTOCOL_PROPERTY_NOT_INT
Vlastnost protokolu <key> musí být celé číslo. Nalezeno <value>.
DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE
Nejde upgradovat pouze verzi protokolu čtenáře, aby používala funkce tabulek. Verze protokolu Writer musí být alespoň <writerVersion>, aby bylo možné pokračovat. Další informace o verzích tabulkových protokolů najdete v <docLink>.
DELTA_READ_TABLE_WITHOUT_COLUMNS
Pokoušíte se přečíst tabulku Delta <tableName>, která neobsahuje žádné sloupce.
Napište nová data s možností mergeSchema = true, aby bylo možné číst tabulku.
DELTA_READ_TIME_CDC_NOT_SUPPORTED_FOR_TABLES_WITH_ACCESS_POLICIES
Pokoušíte se vypočítat datový kanál změn s <tableName> definovanými zásadami přístupu. Datový kanál změny času čtení je aktuálně ve verzi Preview a nepodporuje CDF v tabulkách se zásadami přístupu. Povolte CDF optimalizované pro čtení nastavením vlastnosti<cdfTableProperty> tabulky na true v tabulce.
DELTA_REDIRECT_TARGET_ROW_FILTER_COLUMN_MASK_UNSUPPORTED
Přesměrování na tabulku s filtrem řádků nebo maskou sloupců se nepodporuje. Aktualizujte kód tak, aby odkazovat přímo na cílovou tabulku <tableIdent> .
DELTA_REGEX_OPT_SYNTAX_ERROR
Zkontrolujte prosím syntaxi výrazu '<regExpOption>'.
DELTA_RELATION_PATH_MISMATCH
Relační cesta '<relation>' se neshoduje s cestou <targetType> '<targetPath>'.
DELTA_REORG_MATERIALIZATION_NOT_SUPPORTED_ON_UNPARTITIONED_TABLE
Převod liquidu pomocí příkazu reorg není podporován v tabulce bez dělení.
DELTA_REORG_PARTITION_MATERIALIZATION_CONFLICT
Sloupce nelze <action> rozdělit na oddíly.
<instruction> materializace sloupce oddílu nastavením vlastnosti<tableProperty> tabulky '' do <value> nebo konfigurace SQL '<sqlConfig>' na <value>.
DELTA_REORG_UNKNOWN_MODE
Neznámý REORG TABLE režim: <mode>.
DELTA_REPLACE_WHERE_IN_OVERWRITE
Funkci replaceWhere nelze použít ve spojení s přepsáním pomocí filtru.
DELTA_REPLACE_WHERE_MISMATCH
Zapsaná data neodpovídají podmínkám nebo omezením částečného přepsání tabulky '<replaceWhere>'.
<message>
DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE
Výraz 'replaceWhere' a 'partitionOverwriteMode'='dynamic' nelze oba nastavit současně v možnostech DataFrameWriter.
DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET
"replaceWhere" nelze použít s filtry dat, pokud je vlastnost dataChange nastavena na hodnotu false. Filtry: <dataFilters>.
DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS
Id řádků nelze přiřadit bez statistik počtu řádků.
Shromážděte statistiky tabulky spuštěním ANALYZE TABLE příkazu:
ANALYZE TABLE tableName COMPUTE DELTA STATISTICS
DELTA_ROW_TRACKING_BACKFILL_RUNNING_CONCURRENTLY_WITH_UNBACKFILL
Byla detekována operace povolení sledování řádků, která probíhala současně se zakázáním sledování řádků. Zrušení operace deaktivace. Jakmile je operace povolení dokončena, zkuste operaci zakázání znovu, pokud je to nutné.
DELTA_ROW_TRACKING_ILLEGAL_PROPERTY_COMBINATION
Byl zjištěn neplatný stav tabulky. Vlastnosti tabulky <property1> a <property2> jsou obě nastaveny na hodnotu true. Problém lze vyřešit zakázáním některé ze dvou vlastností tabulky.
Pokud potřebujete další pomoc, obraťte se na podporu Databricks.
DELTA_SCHEMA_CHANGED
Zjištěná změna schématu:
schéma zdroje streamování: <readSchema>
schéma datového souboru: <dataSchema>
Zkuste dotaz restartovat. Pokud se tento problém opakuje během restartů dotazů, aniž by byl vyřešen
činíte pokrok, provedli jste nekompatibilní změnu schématu a potřebujete zahájit nový proces.
dotaz znovu od začátku pomocí nového adresáře kontrolních bodů.
DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS
Zjištěná změna schématu ve verzi <version>:
schéma zdroje streamování: <readSchema>
schéma datového souboru: <dataSchema>
Zkuste dotaz restartovat. Pokud se tento problém opakuje během restartů dotazů, aniž by byl vyřešen
činíte pokrok, provedli jste nekompatibilní změnu schématu a potřebujete zahájit nový proces.
dotaz znovu od začátku pomocí nového adresáře kontrolních bodů. Pokud problém přetrvává i po
změna na nový adresář kontrolních bodů, možná budete muset změnit stávající adresář.
Možnost startVersion nebo startingTimestamp pro spuštění z novější verze než
<version> s novým adresářem kontrolních bodů.
DELTA_SCHEMA_CHANGED_WITH_VERSION
Zjištěná změna schématu ve verzi <version>:
schéma zdroje streamování: <readSchema>
schéma datového souboru: <dataSchema>
Zkuste dotaz restartovat. Pokud se tento problém opakuje během restartů dotazů, aniž by byl vyřešen
činíte pokrok, provedli jste nekompatibilní změnu schématu a potřebujete zahájit nový proces.
dotaz znovu od začátku pomocí nového adresáře kontrolních bodů.
DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS
Schéma tabulky Delta se od datového rámce změnilo nekompatibilním způsobem.
nebo Objekt DeltaTable byl vytvořen. Předefinujte objekt DataFrame nebo DeltaTable.
Changes:
<schemaDiff> <legacyFlagMessage>
DELTA_SCHEMA_NOT_PROVIDED
Schéma tabulky není k dispozici. Při použití REPLACE tabulky zadejte schéma (definici sloupce) tabulky a AS SELECT dotaz není k dispozici.
DELTA_SCHEMA_NOT_SET
Schéma tabulky není nastaveno. Zapište do něj data nebo použijte CREATE TABLE k nastavení schématu.
DELTA_SET_LOCATION_SCHEMA_MISMATCH
Schéma nového umístění Delta se liší od aktuálního schématu tabulky.
původní schéma:
<original>
cílové schéma:
<destination>
Pokud se jedná o zamýšlenou změnu, můžete tuto kontrolu vypnout spuštěním tohoto příkazu:
%%sql nastav <config> = pravda
DELTA_SHALLOW_CLONE_FILE_NOT_FOUND
Soubor <filePath> odkazovaný v transakčním protokolu nebyl nalezen. K tomu může dojít v případě, že data byla ručně odstraněna ze systému souborů místo použití příkazu table DELETE. Tato tabulka vypadá jako mělký klon, pokud tomu tak je, může k této chybě dojít v případě, že původní tabulka, ze které byla tato tabulka naklonována, odstranila soubor, který klon stále používá. Pokud chcete, aby všechny klony byly nezávislé na původní tabulce, použijte místo toho klon DEEP.
DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY
Předdefinované vlastnosti začínající <prefix> nelze upravit.
DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
Data jsou omezena vlastností příjemce <property>, které se nevztahují na aktuálního příjemce v relaci.
Další podrobnosti najdete v DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW
<operation> nelze použít v zobrazeních Delta Sharing, která jsou sdílena napříč účty.
DELTA_SHARING_INVALID_PROVIDER_AUTH
Neplatný typ ověřování <authenticationType> pro poskytovatele <provider>.
DELTA_SHARING_INVALID_RECIPIENT_AUTH
Neplatný typ ověřování <authenticationType> pro příjemce <recipient>.
DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME
Neplatný název pro odkaz na <type> uvnitř sdílené složky Název sdílené složky můžete použít <type>buď za formátem [schema].[],<type> nebo můžete použít původní úplný název tabulky za formátem [catalog].[ schéma]. [>type>].
Pokud si nejste jisti, jaký název se má použít, můžete spustit [SHOW ALL IN SHARE sdílenou složku] a najít název <type> odebrání sloupce "name" je <type>"název" uvnitř sdílené složky a sloupec "shared_object" je <type>původní celé jméno.
RECIPIENT_TOKENSDELTA_SDÍLENÍ_MAXIMUM_PŘEKROČENO
Pro příjemce <recipient>existuje více než dva tokeny .
DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND
Vlastnost příjemce <property> neexistuje.
RECIPIENT_TOKENSDELTA_SHARING__NOT_FOUND
Chybí tokeny příjemců pro příjemce <recipient>.
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN
Nepartitionované sloupce <badCols> jsou specifikovány pro SHOW PARTITIONS.
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE
SHOW PARTITIONS není povolen na tabulce, která není particionována: <tableName>.
DELTA_SHREDDED_WRITES_DISABLED
Operaci nelze spustit REORG APPLY(SHRED) , protože skartované zápisy jsou zakázány.
DELTA_SHREDDING_TABLE_PROPERTY_DISABLED
Pokusili jste se napsat shreded Varianty, ale tabulka nepodporuje skartované zápisy. Zvažte nastavení vlastnosti tabulky enableVariantShredding na true.
DELTA_SOURCE_IGNORE_DELETE
Zjištěná odstraněná data (například <removedFile>) ze streamovacího zdroje ve verzi <version>. Tato funkce se v současné době nepodporuje. Pokud chcete ignorovat odstranění, nastavte možnost ignoreDeletes na true. Zdrojová tabulka se nachází v cestě <dataPath>.
DELTA_SOURCE_TABLE_IGNORE_CHANGES
Zjistili jsme aktualizaci dat (například <file>) ve zdrojové tabulce ve verzi <version>. Tato funkce se v současné době nepodporuje. Pokud se to stane pravidelně a vy můžete přeskočit změny, nastavte možnost skipChangeCommits na hodnotu true. Pokud chcete, aby se aktualizace dat projevila, restartujte tento dotaz pomocí nového adresáře kontrolního bodu nebo proveďte úplnou aktualizaci, pokud používáte Lakeflow Spark deklarativní kanály. Pokud potřebujete tyto změny zpracovat, přepněte na MVs. Zdrojová tabulka se nachází v cestě <dataPath>.
DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET
Zadejte "<version>" nebo "<timestamp>".
DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND
<statsType> statistiky nebyly nalezeny pro sloupec v metadatech Parquet: <columnPath>.
DELTA_STATS_NOT_FOUND_IN_FILE
Statistiky nebyly nalezeny v souboru: <filePath>. Spusťte příkazANALYZE TABLE [tableName] COMPUTE DELTA STATISTICSpro výpočetní statistiky.
DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION
Zjistili jsme jednu nebo více změn schémat bez sčítání mezi<opType> verzí <previousSchemaChangeVersion> Delta a <currentSchemaChangeVersion> zdrojem streamování Delta.
Changes:
<columnChangeDetails>
Než budeme pokračovat ve zpracování datových proudů pomocí finalizovaného schématu ve verzi <currentSchemaChangeVersion>, zkontrolujte, jestli chcete změny schématu ručně rozšířit do tabulky jímky.
Jakmile opravíte schéma tabulky jímky nebo jste se rozhodli, že není potřeba opravit, můžete nastavit následující konfigurace, které odblokují změny nepřidatného schématu a pokračovat ve zpracování datových proudů.
Použití možností čtečky datových rámců:
Odblokování pro tento konkrétní datový proud pouze pro tuto řadu změn schématu:
<unblockChangeOptions>
Odblokování pro tento konkrétní datový proud:
<unblockStreamOptions>
Použití konfigurací SQL:
Odblokování pro tento konkrétní datový proud pouze pro tuto řadu změn schématu:
<unblockChangeConfs>
Odblokování pro tento konkrétní datový proud:
<unblockStreamConfs>
Odblokování všech datových proudů:
<unblockAllConfs>
DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT
Při kontrole změn schématu mapování sloupců se nepodařilo získat snímek protokolu Delta pro počáteční verzi. Zvolte jinou počáteční verzi, nebo na vlastní nebezpečí nuceně povolte čtení streamu nastavením '<config>' na hodnotu 'true'.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE
Streamování není podporováno u tabulek s při čtení nekompatibilními změnami schématu (například přejmenování nebo odstranění, nebo změny datového typu).
Další informace a možné další kroky k vyřešení tohoto problému najdete v dokumentaci na <docLink>
Čtení schématu: <readSchema>. Nekompatibilní schéma dat: <incompatibleSchema>.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG
Streamování není podporováno u tabulek s při čtení nekompatibilními změnami schématu (například přejmenování nebo odstranění, nebo změny datového typu).
Zadejte "schemaTrackingLocation", abyste umožnili nepřídavný vývoj schématu pro streamování Delta.
Další podrobnosti najdete v <docLink>.
Čtení schématu: <readSchema>. Nekompatibilní schéma dat: <incompatibleSchema>.
DELTA_STREAMING_METADATA_EVOLUTION
Schéma, konfigurace tabulky nebo protokol tabulky Delta se během streamování změnilo.
Protokol sledování schématu či metadata byl aktualizován.
Restartujte stream a pokračujte ve zpracování pomocí aktualizovaných metadat.
Aktualizované schéma: <schema>.
Aktualizované konfigurace tabulek: <config>.
Aktualizovaný protokol tabulky: <protocol>
SCHÉMA_VÝVOJE_DELTA_STREAMING_NE_PODPOROVÁNO_FILTRŘÁDKŮ_COLUMN_MASKS
Streamování ze zdrojové tabulky <tableId> se sledováním schématu nepodporuje filtry řádků ani masky sloupců.
Odstraňte filtry řádků nebo masky sloupců nebo zakažte sledování schématu.
DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT
Zjistili jsme konfliktní umístění schématu '<loc>' při streamování z tabulky nebo z tabulky na adrese '<table>'.
Jiný datový proud může opakovaně použít stejné umístění schématu, které není povoleno.
Zadejte novou jedinečnou cestu schemaTrackingLocation nebo streamingSourceTrackingId jako volbu čtení pro jeden z datových proudů z této tabulky.
DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT
Umístění schématu '<schemaTrackingLocation> musí být umístěné pod umístěním kontrolního bodu '<checkpointLocation>'.
DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED
Neúplný soubor protokolu ve schématu zdroje streamování Delta u '<location>'.
Protokol schématu byl pravděpodobně poškozen. Vyberte nové umístění schématu.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID
Bylo zjištěno nekompatibilní ID tabulky Delta při pokusu o čtení datového proudu Delta.
Trvalé ID tabulky: <persistedId>, ID tabulky: <tableId>
Schéma protokolu bylo pravděpodobně znovu použito. Vyberte nové umístění schématu.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA
Při pokusu o čtení datového proudu Delta se zjistilo nekompatibilní partiční schéma.
Trvalé schéma: <persistedSchema>, schéma oddílu Delta: <partitionSchema>
Pokud jste nedávno ručně změnili schéma dělení tabulky, vyberte nové umístění protokolu, abyste znovu inicializovali protokol schématu.
DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA
Nepodařilo se nám inicializovat protokol schématu zdroje streamování Delta, protože
Zjistili jsme nekompatibilní změnu schématu nebo protokolu při zpracování streamovací dávky z verze tabulky <a> na <b>.
DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED
Nepodařilo se analyzovat schéma z protokolu schématu zdrojového streamování Delta.
Protokol schématu byl pravděpodobně poškozen. Vyberte nové umístění schématu.
DELTA_STREAMING_SINK_TRANSACTION_NOT_FOUND
V posledních <versionLimit> verzích nebyla nalezena žádná transakce pro dávku <batchId> v jímce Delta streamování.
DELTA_STREAMING_SKIP_OFFSETS_INVALID_OFFSET_RANGE
Neplatný rozsah odsazení pro rozdílový zdrojový rozsah=[<startOffset>, <endOffset>). Opravte tento rozsah posunu a zkuste to znovu.
Další podrobnosti najdete v tématu DELTA_STREAMING_SKIP_OFFSETS_INVALID_OFFSET_RANGE
DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS
V tabulce nelze povolit funkci Change Data Capture. Tabulka již obsahuje
rezervované sloupce <columnList>, které budou
může být interně používán jako metadata pro záznam změn dat tabulky. Povolení
Změňte datový kanál v tabulce a přejmenujte nebo odstraňte tyto sloupce.
DELTA_TABLE_ALREADY_EXISTS
Tabulka <tableName> již existuje.
DELTA_TABLE_CONTAINS_RESERVED_CDC_COLUMNS
V tabulce nejde vypočítat datový kanál změn. Tabulka obsahuje vyhrazené názvy <columnList> sloupců, které se používají jako výstupní sloupce pro kanál změn dat tabulky. Pokud chcete vypočítat datový kanál změn v tabulce, přejmenujte nebo zahoďte tyto sloupce.
DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF
V současné době DeltaTable.forPath umožňuje pouze konfigurační klíče hadoop začínající na <allowedPrefixes>, ale byl zadán <unsupportedOptions>.
DELTA_TABLE_ID_MISMATCH
Tabulka Delta v <tableLocation> byla nahrazena, když tento příkaz používal tabulku.
ID tabulky bylo <oldId>, ale teď je <newId>.
Opakujte aktuální příkaz a ujistěte se, že čte konzistentní zobrazení tabulky.
DELTA_TABLE_INVALID_REDIRECT_STATE_TRANSITION
Nelze aktualizovat stav přesměrování tabulky: Došlo k pokusu o neplatný přechod stavu.
Tabulka Delta se<table> nemůže změnit z '<oldState>' na '<newState>'.
DELTA_TABLE_INVALID_SET_UNSET_REDIRECT
Nelze SET ani UNSET přesměrovat vlastnost u <table>: aktuální vlastnost '<currentProperty>' se neshoduje s novou vlastností '<newProperty>'.
DELTA_TABLE_LOCATION_MISMATCH
Umístění existující tabulky <tableName> je <existingTableLocation>. Neodpovídá zadanému umístění <tableLocation>.
DELTA_TABLE_NOT_FOUND
Tabulka <tableName> Delta neexistuje.
DELTA_TABLE_NOT_SUPPORTED_IN_OP
V <operation>není tabulka podporována. Místo toho použijte cestu.
DELTA_TABLE_ONLY_OPERATION
<tableName> není tabulka Delta.
<operation> se podporuje jenom u tabulek Delta.
DELTA_TABLE_UNRECOGNIZED_REDIRECT_SPEC
Protokol Delta obsahuje nerozpoznanou tabulkovou přesměrovávací specifikaci '<spec>'.
DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY
Konečné schéma cílové tabulky je prázdné.
DELTA_TIMESTAMP_EARLIER_THAN_COMMIT_RETENTION
Zadané časové razítko (<userTimestamp>) je před nejstarší dostupnou verzí
tato tabulka (<commitTs>). Použijte časové razítko po <timestampString>.
DELTA_TIMESTAMP_GREATER_THAN_COMMIT
Zadané časové razítko (<providedTimestamp>) je novější než nejaktuálnější dostupná verze.
tabulka (<tableName>). Použijte časové razítko před nebo u <maximumTimestamp>.
DELTA_TIMESTAMP_INVALID
Zadané časové razítko (<expr>) nelze převést na platné časové razítko.
DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE
<timeTravelKey> musí být platná počáteční hodnota.
DELTA_TOO_MUCH_LISTING_MEMORY
V tabulce Delta se nepodařilo vypsat soubory (<numFiles>) kvůli nedostatku paměti. Požadovaná paměť: <estimatedMemory>, dostupná paměť: <maxMemory>.
DELTA_TRUNCATED_TRANSACTION_LOG
<path>: Nelze rekonstruovat stav ve verzi <version> , protože transakční protokol byl zkrácen kvůli ručnímu odstranění nebo zásadám uchovávání protokolů (<logRetentionKey>=<logRetention>) a zásadám uchovávání kontrolních bodů (<checkpointRetentionKey>=<checkpointRetention>).
DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED
Operace není povolena: TRUNCATE TABLE v tabulkách Delta nepodporuje predikáty oddílů; pomocí DELETE odstraňte konkrétní oddíly nebo řádky.
DELTA_UDF_IN_CHECK_CONSTRAINT
Nachází <expr> se CHECK v omezení.
CHECK Omezení nemůže použít uživatelem definovanou funkci.
DELTA_UDF_IN_GENERATED_COLUMN
Nalezeno <udfExpr>. Vygenerovaný sloupec nemůže použít uživatelem definovanou funkci.
DELTA_UNEXPECTED_ACTION_EXPRESSION
Neočekávaný výraz akce <expression>.
DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME
Očekávají se <expectedColsSize> sloupce oddílů: <expectedCols>, ale při analýze názvu souboru byly nalezeny <parsedColsSize> sloupce oddílů: <parsedCols>.
DELTA_UNEXPECTED_PARTIAL_SCAN
Očekávalo se úplné skenování zdrojů Delta, ale bylo nalezeno částečné skenování. Cesta: <path>.
DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME
Očekával se sloupec oddílu <expectedCol>, ale podle názvu souboru byl nalezen sloupec oddílu <parsedCol>: <path>.
DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER
CONVERT až DELTA byly volány se schématem oddílu, které se liší od schématu odvozeného z katalogu, prosím, nepoužívejte schéma, aby bylo možné zvolit schéma oddílů z katalogu.
schéma oddílů katalogu
<catalogPartitionSchema>
poskytnuté schéma oddílu
<userPartitionSchema>
DELTA_UNIFORM_COMPATIBILITY_LOCATION_CANNOT_BE_CHANGED
delta.universalFormat.compatibility.location nelze změnit.
DELTA_UNIFORM_COMPATIBILITY_LOCATION_NOT_REGISTERED
delta.universalFormat.compatibility.location není v katalogu zaregistrované.
DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
Chybí nebo není platné umístění pro formát jednotné kompatibility. Nastavte prázdný adresář pro delta.universalFormat.compatibility.location.
Důvod selhání:
Další podrobnosti najdete v tématu DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
Čtení Apache Icebergu s Delta Uniform se nezdařilo.
Další podrobnosti najdete v DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
DELTA_UNIFORM_INGRESS_AMBIGUOUS_FORMAT
Nalezeno je několik vstupních formátů Delta Uniform (<formats>), z nichž lze nastavit nejvýše jeden.
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED
Vytvoření nebo obnovení tabulky jednotného přístupu není podporováno.
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT
Formát <fileFormat> není podporován. Podporují se pouze Apache Iceberg a hudi jako původní formát souboru.
DELTA_UNIFORM_INGRESS_VIOLATION
Číst Delta Uniform nefunguje:
Další podrobnosti najdete v tématu DELTA_UNIFORM_INGRESS_VIOLATION
DELTA_UNIFORM_NOT_SUPPORTED
Univerzální formát je podporován pouze v tabulkách katalogu Unity.
DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT
REFRESH TABLE s neplatným argumentem:
Další podrobnosti najdete v tématu DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
REFRESH identifikátor SYNC UNIFORM není podporován z důvodu:
Další podrobnosti najdete v tématu DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED_FOR_MANAGED_ICEBERG_TABLE_WITH_METADATA_PATH
REFRESH TABLE s METADATA_PATH u spravovaných tabulek Apache Iceberg se nepodporuje.
DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED
Nepodařilo se převést verzi tabulky <version> na univerzální formát <format>. <message>
DELTA_UNIVERSAL_FORMAT_VIOLATION
Ověření univerzálního formátu (<format>) se nezdařilo: <violation>.
DELTA_UNKNOWN_CONFIGURATION
Byla zadána neznámá konfigurace: <config>.
Pokud chcete tuto kontrolu zakázat, nastavte v konfiguraci relace Sparku <disableCheckConfig>=true.
DELTA_UNKNOWN_PRIVILEGE
Neznámá oprávnění: <privilege>.
DELTA_UNKNOWN_READ_LIMIT
Neznámá hodnota ReadLimit: <limit>.
DELTA_UNRECOGNIZED_COLUMN_CHANGE
Nerozpoznaná změna sloupce <otherClass>. Možná používáte zastaralé verze Delta Lake.
DELTA_UNRECOGNIZED_INVARIANT
Nerozpoznaná invarianta. Upgradujte prosím svou verzi Sparku.
DELTA_UNRECOGNIZED_LOGFILE
Nerozpoznaný soubor protokolu <filename>.
DELTA_UNSET_NON_EXISTENT_PROPERTY
Pokusil(a) se o odstranění neexistující vlastnosti '<property>' v tabulce <tableName>.
DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE
<path> nepodporuje přidávání souborů s absolutní cestou.
DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP
ALTER TABLE CHANGE COLUMN není podporováno pro změnu sloupce <fieldPath> z <oldField> na <newField>.
DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP
Operace ALTER TABLE REPLACE COLUMNS není podporována. Důvod: <details>
Nepodařilo se změnit schéma z:
<oldSchema>
to:
<newSchema>
DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE
Pokusili jste se uplatnit REPLACE na existující tabulku (<tableName>) pomocí CLONE. Tato operace je
unsupported. Zkuste jiný cíl pro CLONE nebo odstraňte tabulku v aktuálním cíli.
DELTA_UNSUPPORTED_CLUSTERING_COLUMN_PREDICATES
OPTIMIZE
...
FULL WHERE příkaz pro tabulky Liquid nepodporuje poskytnuté predikáty:
Další podrobnosti najdete v tématu DELTA_UNSUPPORTED_CLUSTERING_COLUMN_PREDICATES
DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE
Změna režimu mapování sloupců z '<oldMode>' na '<newMode>' není podporována.
DELTA_UNSUPPORTED_COLUMN_MAPPING_OPERATIONS_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX
Nepodařilo se provést operaci mapování sloupců <opName> u sloupců <quotedColumnNames>
Protože tyto sloupce mají Bloomův filtr indexy.
Pokud chcete provést operaci mapování na sloupcích.
s indexy Bloomova filtru
Nejprve odeberte indexy filtru Bloom:
DROP BLOOMFILTER INDEX ON TABLE tableName FOR COLUMNS(<columnNames>)
Pokud chcete místo toho odebrat všechny indexy Bloom Filter v tabulce, použijte:
DROP BLOOMFILTER INDEX ON TABLE názevTabulky
DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL
Vaše aktuální verze protokolu tabulky nepodporuje změnu režimů mapování sloupců.
pomocí <config>.
Požadovaná verze protokolu Delta pro mapování sloupců:
<requiredVersion>
Aktuální verze protokolu Delta vaší tabulky:
<currentVersion>
<advice>
DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE
Zjistí se změna schématu:
staré schéma:
<oldTableSchema>
nové schéma:
<newTableSchema>
Změny schématu nejsou povoleny během změny režimu mapování sloupců.
DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE
Zápis dat s režimem mapování sloupců není podporován.
DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER
Vytvoření Bloomova filtru indexu u sloupce s typem <dataType> není podporováno: <columnName>.
DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY
Nelze přidat komentář k <fieldPath>. Přidání komentáře k mapovému klíči/hodnotě nebo prvku pole není podporováno.
DELTA_UNSUPPORTED_DATA_TYPES
Nalezené sloupce používající nepodporované datové typy: <dataTypeList>. Pokud chcete kontrolu typu zakázat, můžete nastavit<config> na false. Zakázání této kontroly typu může uživatelům umožnit vytvářet nepodporované tabulky Delta a měly by se používat pouze při pokusu o čtení a zápis starších tabulek.
DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN
<dataType> nemůže být výsledkem vygenerovaného sloupce.
DELTA_UNSUPPORTED_DEEP_CLONE
Tato verze Delta nepodporuje hloubkový klon.
DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW
<view> je zobrazení.
DESCRIBE DETAIL se podporuje jenom u tabulek.
DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN
Vyřazení skupinových sloupců (<columnList>) není povoleno.
DELTA_UNSUPPORTED_DROP_COLUMN
DROP COLUMN není pro tabulku Delta podporovaná. <advice>
DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE
Lze odstranit pouze vnořené sloupce ze StructType. Nalezeno <struct>.
DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN
Odstranění sloupců partice (<columnList>) není povoleno.
DELTA_UNSUPPORTED_EXPRESSION
Nepodporovaný typ výrazu(<expType>) pro <causedBy>. Podporované typy jsou [<supportedTypes>].
DELTA_UNSUPPORTED_EXPRESSION_CHECK_CONSTRAINT
Nachází <expression> se CHECK v omezení.
<expression> nelze použít v CHECK omezení.
DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
<expression> nelze použít ve vygenerovaném sloupci.
DELTA_UNSUPPORTED_FEATURES_FOR_READ
Nepodporovaná funkce čtení delta: tabulka "<tableNameOrPath>" vyžaduje funkce tabulek čtečky, které nejsou podporovány touto verzí Databricks: <unsupported>. Další informace o kompatibilitě funkcí Delta Lake najdete v <link>.
DELTA_UNSUPPORTED_FEATURES_FOR_WRITE
Nepodporovaná funkce zápisu delta: tabulka "<tableNameOrPath>" vyžaduje funkce zapisovací tabulky, které nejsou podporovány touto verzí Databricks: <unsupported>. Další informace o kompatibilitě funkcí Delta Lake najdete v <link>.
DELTA_UNSUPPORTED_FEATURES_IN_CONFIG
Funkce tabulek nakonfigurované v následujících konfiguracích Sparku nebo vlastností tabulky Delta nejsou touto verzí Databricks rozpoznány: <configs>.
DELTA_UNSUPPORTED_FEATURE_STATUS
Očekává se, že funkce <feature> tabulky bude podporovaná, ale má hodnotu "<status>".
DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT
Aktualizace vnořených polí je podporována pouze pro StructType, ale pokoušíte se aktualizovat pole <columnName>, což je typ: <dataType>.
DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS
Příkaz FSCK REPAIR TABLEnení podporován ve verzích tabulek s chybějícími soubory vektoru odstranění.
Kontaktujte prosím podporu.
DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS
Příkaz symlink_format_manifestGENERATE není u verzí tabulky s vektory odstranění podporovaný.
Pokud chcete vytvořit verzi tabulky bez vektorů odstranění, spusťteREORG TABLE tabulku APPLY (PURGE)'. Pak znovu spusťte příkaz 'GENERATE'.
Ujistěte se, že mezi REORG a GENERATEžádné souběžné transakce znovu nepřidávají vektorů mazání.
Pokud potřebujete manifesty generovat pravidelně nebo nemůžete zabránit souběžným transakcím, zvažte zakázání vektorů odstranění v této tabulce pomocíALTER TABLE tabulky ( SET TBLPROPERTIES delta.enableDeletionVectors = false).
DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT
Invarianty u vnořených polí jiných než StructTypes nejsou podporovány.
DELTA_UNSUPPORTED_IN_SUBQUERY
Použití poddotazu není v podmínce <operation> podporováno.
DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX
listKeywithPrefix není k dispozici.
DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING
Generování manifestu není podporováno pro tabulky, které využívají mapování sloupců, protože externí čtenáři nemohou tyto tabulky Delta číst. Další podrobnosti najdete v dokumentaci k Delta.
DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC
MERGE INTO operace s evolucí schématu v současnosti nepodporují zápis výstupů CDC.
DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE
V podmínce <operation> nejsou podporovány predikáty s více sloupci.
DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER
Vytvoření indexu bloom filer ve vnořeném sloupci je aktuálně nepodporováno: <columnName>.
DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION
Vnořené pole není v <operation> podporováno (pole = <fieldName>).
DELTA_UNSUPPORTED_NON_EMPTY_CLONE
Cílová tabulka klonování není prázdná. Prosím, TRUNCATE nebo DELETE FROM tabulku před spuštěním CLONE.
DELTA_UNSUPPORTED_OUTPUT_MODE
Zdroj <dataSource> dat nepodporuje <mode> výstupní režim.
DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER
Vytvoření indexu filtru bloom ve sloupci dělení není podporováno: <columnName>.
DELTA_UNSUPPORTED_RENAME_COLUMN
Přejmenování sloupce není pro vaši tabulku Delta podporované. <advice>
DELTA_UNSUPPORTED_SCHEMA_DURING_READ
Delta nepodporuje zadávání schématu v době čtení.
DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES
SORTED BY není podporováno pro tabulky s Delta bucketem.
DELTA_UNSUPPORTED_SOURCE
<operation> cíl podporuje pouze zdroje Delta.
<plan>
DELTA_UNSUPPORTED_STATIC_PARTITIONS
Určení statických partí ve specifikaci partice se v současné době během vkládání nepodporuje.
DELTA_UNSUPPORTED_STRATEGY_NAME
Nepodporovaný název strategie: <strategy>.
DELTA_UNSUPPORTED_SUBQUERY
Poddotazy nejsou podporovány v <operation> (podmínka = <cond>).
DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES
Dílčí dotaz není podporován v predikátech pro rozdělení.
DELTA_NEPODPOROVANÉ_CESTOVÁNÍ_ČASEM_ZA_DOBU_UCHOVÁNÍ_SMAZANÉHO_SOUBORU
Nelze časově cestovat za delta.deletedFileRetentionDuration (<deletedFileRetention> HOURS) nastavený na tabulce.
DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS
Nelze zadat cestování časem ve více formátech.
DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS
Časová zobrazení, poddotazy, datové proudy nebo dotazy datového kanálu nelze změnit.
DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES
Zkrácené ukázkové tabulky se nepodporují.
DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA
V této tabulce nelze pracovat, protože byla použita nepodporovaná změna typu. Pole <fieldName> bylo změněno z <fromType> na <toType>.
DELTA_UNSUPPORTED_TYPE_CHANGE_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX
Nepodařilo se změnit datový typ sloupců. <quotedColumnNames>
vzhledem k tomu, že tyto sloupce mají indexy Bloom Filter.
Pokud chcete změnit datový typ sloupců s indexy Bloomova filtru,
Nejprve odeberte indexy filtru Bloom:
DROP BLOOMFILTER INDEX ON TABLE tableName FOR COLUMNS(<columnNames>)
Pokud chcete místo toho odebrat všechny indexy Bloom Filter v tabulce, použijte:
DROP BLOOMFILTER INDEX ON TABLE názevTabulky
DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION
Při vyčištění tabulek Delta zadejte základní cestu (<baseDeltaPath>). Vakuové konkrétní oddíly se v současné době nepodporují.
DELTA_UNSUPPORTED_WRITES_STAGED_TABLE
Implementace tabulky nepodporuje zápisy: <tableName>.
DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR
Pokoušíte se provádět zápisy v tabulce, která byla zaregistrována u koordinátora potvrzení <coordinatorName>. V aktuálním prostředí ale není k dispozici žádná implementace tohoto koordinátoru a zápisy bez koordinátorů nejsou povoleny.
DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES
Zápis do ukázkových tabulek se nepodporuje.
DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION
Nelze přetypovat <fromCatalog> na <toCatalog>. Všechny vnořené sloupce musí být stejné.
DELTA_V2_CHECKPOINTS_REQUIRED_FOR_OPERATION
CHECKPOINT operace vyžaduje, aby byly v tabulce povoleny kontrolní body V2.
DELTA_VACUUM_COPY_INTO_STATE_FAILED
VACUUM u datových souborů proběhlo úspěšně, ale COPY INTO garbage collection selhal.
DELTA_VERSIONS_NOT_CONTIGUOUS
Verze (<versionList>) nejsou souvislé.
Byla zjištěna mezera v rozdílovém protokolu mezi verzemi <startVersion> a <endVersion> při pokusu o načtení verze <versionToLoad>.
Pro více informací viz DELTA_VERSIONS_NOT_CONTIGUOUS
DELTA_VERSION_INVALID
Zadaná verze (<version>) není platná verze.
DELTA_VERSION_NOT_FOUND
Tabulku Delta nelze časově přesunout do verze <userVersion>. Dostupné verze: [<earliest>, <latest>].
DELTA_VIOLATE_CONSTRAINT_WITH_VALUES
CHECK omezení <constraintName> <expression> porušeno řádkem, který obsahuje hodnoty:
<values>.
DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
Ověření vlastností tabulky <table> bylo porušeno:
Další podrobnosti najdete v tématu DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED
<viewIdentifier> je zobrazení. Nesmíte zapisovat data do zobrazení.
DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST
Sloupec Z-Ordering <columnName> ve schématu dat neexistuje.
DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS
Z-Ordering na <cols> nebude mít efekt, protože nyní neshromažďujeme statistiky pro tyto sloupce. Podívejte se na <link> pro více informací o přeskakování dat a řazení podle z-orderu. Tuto kontrolu můžete zakázat nastavením
SET <zorderColStatKey> = nepravda
DELTA_ZORDERING_ON_PARTITION_COLUMN
<colName> je sloupec oddílu. Řazení Z lze provádět pouze u datových sloupců.
Sdílení Delta
DELTA_SHARING_ACTIVATION_NONCE_DOES_NOT_EXIST
SQLSTATE: žádný přiřazený
Aktivace nebyla nalezena. Použitý aktivační odkaz je neplatný nebo vypršela jeho platnost. Znovu vygenerujte aktivační odkaz a zkuste to znovu.
DELTA_SHARING_CROSS_REGION_SHARE_UNSUPPORTED
SQLSTATE: žádný přiřazený
Sdílení mezi <regionHint> oblastmi a oblastmi mimo ni není podporováno.
DELTA_SHARING_GET_RECIPIENT_PROPERTIES_INVALID_DEPENDENT
SQLSTATE: žádný přiřazený
Zobrazení definované pomocí funkce current_recipient slouží pouze ke sdílení a lze ho dotazovat pouze ze strany příjemce dat. Daný zabezpečitelný objekt s ID <securableId> není Delta Sharing View.
DELTA_SHARING_MUTABLE_SECURABLE_KIND_NOT_SUPPORTED
SQLSTATE: žádný přiřazený
Poskytnutý zabezpečitelný typ <securableKind> nepodporuje změnitelnost v Delta Sharing.
DELTA_SHARING_ROTATE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE
SQLSTATE: žádný přiřazený
Poskytnutý zabezpečitelný druh <securableKind> nepodporuje akci rotace tokenu, kterou inicializovala služba Marketplace.
DS_AUTH_TYPE_NOT_AVAILABLE
SQLSTATE: žádný přiřazený
<dsError>: Typ ověřování není k dispozici v entitě poskytovatele <providerEntity>.
DS_CDF_NOT_ENABLED
SQLSTATE: žádný přiřazený
<dsError>: Nejde získat přístup ke kanálu změn dat pro <tableName>. CdF není v původní tabulce delta pro verzi <version>povolen . Obraťte se na svého poskytovatele dat.
DS_CDF_NOT_SHARED
SQLSTATE: žádný přiřazený
<dsError>: Nejde získat přístup ke kanálu změn dat pro <tableName>. CDF není sdílen v tabulce. Obraťte se na svého poskytovatele dat.
DS_CDF_RPC_INVALID_PARAMETER
SQLSTATE: žádný přiřazený
<dsError>: <message>
DS_CLIENT_AUTH_ERROR_FOR_DB_DS_SERVER
SQLSTATE: žádný přiřazený
<dsError>: <message>
DS_CLIENT_ERROR_FOR_DB_DS_SERVER
SQLSTATE: žádný přiřazený
<dsError>: <message>
DS_CLIENT_OAUTH_TOKEN_EXCHANGE_FAILURE
SQLSTATE: žádný přiřazený
<dsError>: <message>
DS_CLIENT_OAUTH_TOKEN_EXCHANGE_UNAUTHORIZED
SQLSTATE: žádný přiřazený
<dsError>: <message>
DS_CLOUD_VENDOR_UNAVAILABLE
SQLSTATE: žádný přiřazený
<dsError>: Dodavatel cloudu je dočasně nedostupný pro <rpcName>, zkuste to znovu.<traceId>
DS_DATA_MATERIALIZATION_COMMAND_FAILED
SQLSTATE: žádný přiřazený
<dsError>: Úloha materializace dat <runId> z organizace <orgId> selhala při příkazu <command>
DS_DATA_MATERIALIZATION_COMMAND_NOT_SUPPORTED
SQLSTATE: žádný přiřazený
<dsError>: Spuštění úlohy materializace dat <runId> z organizace <orgId> nepodporuje příkaz <command>
DS_DATA_MATERIALIZATION_NOT_SUPPORTED_WITHOUT_SERVERLESS
SQLSTATE: žádný přiřazený
<dsError>: <featureName> nepodporuje se, protože v pracovním prostoru poskytovatele není podporována ani povolená bezserverová služba. Pokud chcete povolit bezserverovou službu, obraťte se na svého poskytovatele dat.
DS_DATA_MATERIALIZATION_NO_VALID_NAMESPACE
SQLSTATE: žádný přiřazený
<dsError>: Nelze najít platný obor názvů pro vytvoření materializace pro <tableName>. Obraťte se na svého poskytovatele dat a požádejte ho o opravu.
DS_DATA_MATERIALIZATION_RECIPIENT_MISSING_WORKSPACE_ID
SQLSTATE: žádný přiřazený
<dsError>: Nebyl nalezen vhodný pracovní prostor pro materializaci sdíleného prostředku. Obraťte se na svého poskytovatele dat a znovu vytvořte příjemce v pracovním prostoru, kde je povolený přístup k zápisu do katalogu sdíleného prostředku.
DS_DATA_MATERIALIZATION_RUN_DOES_NOT_EXIST
SQLSTATE: žádný přiřazený
<dsError>: Úloha materializace dat <runId> z organizace <orgId> neexistuje.
DS_DELTA_ILLEGAL_STATE
SQLSTATE: žádný přiřazený
<dsError>: <message>
DS_DELTA_MISSING_CHECKPOINT_FILES
SQLSTATE: žádný přiřazený
<dsError>: Nepodařilo se najít všechny soubory částí kontrolního bodu ve verzi: <version>. <suggestion>
DS_DELTA_NULL_POINTER
SQLSTATE: žádný přiřazený
<dsError>: <message>
DS_DELTA_RUNTIME_EXCEPTION
SQLSTATE: žádný přiřazený
<dsError>: <message>
DS_EXPIRE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE
SQLSTATE: žádný přiřazený
<dsError>: Poskytnutý typ zabezpečení <securableKind> nepodporuje akci vypršení tokenu zahájenou službou Marketplace.
DS_FAILED_REQUEST_TO_OPEN_DS_SERVER
SQLSTATE: žádný přiřazený
<dsError>: <message>
DS_FAILED_REQUEST_TO_SAP_DS_SERVER
SQLSTATE: žádný přiřazený
<dsError>: <message>
DS_FEATURE_ONLY_FOR_DATABRICKS_TO_DATABRICKS
SQLSTATE: žádný přiřazený
<dsError>: <feature> je povoleno jen pro sdílení Databricks s Databricks Delta.
DS_FILE_LISTING_EXCEPTION
SQLSTATE: žádný přiřazený
<dsError>: : <storage><message>
DS_FILE_SIGNING_EXCEPTION
SQLSTATE: žádný přiřazený
<dsError>: <message>
DS_FOREIGN_TABLE_METADATA_REFRESH_FAILED
SQLSTATE: žádný přiřazený
<dsError>: <message>
DS_GATEKEEPER_DISABLED
SQLSTATE: žádný přiřazený
<dsError>: Tato funkce je pro účet zakázaná. Obraťte se na svého poskytovatele dat.
DS_HADOOP_CONFIG_NOT_SET
SQLSTATE: žádný přiřazený
<dsError>: <key> není nastaveno volajícím.
DS_ILLEGAL_STATE
SQLSTATE: žádný přiřazený
<dsError>: <message>
DS_INTERNAL_ERROR_FROM_DB_DS_SERVER
SQLSTATE: žádný přiřazený
<dsError>: <message>
DS_INVALID_AZURE_PATH
SQLSTATE: žádný přiřazený
<dsError>: Neplatná cesta Azure: <path>.
DS_INVALID_DELTA_ACTION_OPERATION
SQLSTATE: žádný přiřazený
<dsError>: <message>
DS_INVALID_FIELD
SQLSTATE: žádný přiřazený
<dsError>: <message>
DS_INVALID_ITERATOR_OPERATION
SQLSTATE: žádný přiřazený
<dsError>: <message>
DS_INVALID_PARAMETER_VALUE
SQLSTATE: žádný přiřazený
<dsError>: Neplatný parametr pro <rpcName> kvůli <cause>.
DS_INVALID_PARTITION_SPEC
SQLSTATE: žádný přiřazený
<dsError>: <message>
DS_INVALID_RESPONSE_FROM_DS_SERVER
SQLSTATE: žádný přiřazený
<dsError>: <message>
DS_MATERIALIZATION_QUERY_FAILED
SQLSTATE: žádný přiřazený
<dsError>: Dotaz se nezdařil pro <schema>.
<table> z podílu <share>.
DS_MATERIALIZATION_QUERY_TIMEDOUT
SQLSTATE: žádný přiřazený
<dsError>: Časový limit dotazu vypršel pro <schema>.
<table> ze sdílení <share> po <timeoutInSec> sekundách.
DS_MIGRATED_MANAGEMENT_API_CALLED
SQLSTATE: žádný přiřazený
<dsError>: Volání procedur <rpcName> UC se nezdařilo.
DS_MISSING_IDEMPOTENCY_KEY
SQLSTATE: žádný přiřazený
<dsError>: Klíč idempotence je vyžadován, když se provádí dotaz <schema>.
<table> ze služby Share <share> asynchronně.
DS_CHYBÍ_SERVERLESS_ROZPOČTOVÁ_PRAVIDLA
SQLSTATE: žádný přiřazený
<dsError>: Operace používá bezserverovou službu na Databricks poskytovatele, ale ve sdílení chybí zásada rozpočtu pro bezserverové řešení. Obraťte se na poskytovatele dat a přidejte zásady rozpočtu bez serveru, které chcete sdílet.
DS_MORE_THAN_ONE_RPC_PARAMETER_SET
SQLSTATE: žádný přiřazený
<dsError>: Uveďte pouze jednu z těchto možností: <parameters>.
DS_NETWORK_CONNECTION_CLOSED
SQLSTATE: žádný přiřazený
<dsError>: Síťové připojení bylo pro <rpcName> ukončeno kvůli <errorCause>, zkuste to prosím znovu.<traceId>
DS_NETWORK_CONNECTION_TIMEOUT
SQLSTATE: žádný přiřazený
<dsError>: Vypršel časový limit síťového připojení <rpcName> kvůli <errorCause>, zkuste to prosím znovu.<traceId>
DS_NETWORK_ERROR
SQLSTATE: žádný přiřazený
<dsError>: Chyba sítě kvůli <rpcName><errorCause>, zkuste to prosím znovu.<traceId>
DS_NO_METASTORE_ASSIGNED
SQLSTATE: žádný přiřazený
<dsError>: Pro aktuální pracovní prostor není přiřazen žádný metastor (id pracovního prostoru: <workspaceId>).
DS_O2D_OIDC_WORKLOAD_IDENTITY_TOKEN_GENERATION_FAILED
SQLSTATE: žádný přiřazený
<dsError>: Generování identifikačního tokenu úlohy pro zprostředkovatele O2D OIDC se nepodařilo: <message>.
DS_PAGINATION_AND_QUERY_ARGS_MISMATCH
SQLSTATE: žádný přiřazený
<dsError>: Neshoda parametrů stránkování nebo dotazu
DS_PARTITION_COLUMNS_RENAMED
SQLSTATE: žádný přiřazený
<dsError>: Sloupec oddílu [<renamedColumns>] přejmenován ve sdílené tabulce. Obraťte se na svého poskytovatele dat a požádejte ho o opravu.
DS_QUERY_BEFORE_START_VERSION
SQLSTATE: žádný přiřazený
<dsError>: Data tabulky můžete dotazovat pouze od verze <startVersion>.
DS_QUERY_END_VERSION_AFTER_LATEST_VERSION
SQLSTATE: žádný přiřazený
<dsError>: Zadaná koncová verze (<endVersion>) pro čtení dat je neplatná. Koncová verze nemůže být větší než nejnovější verze tabulky(<latestVersion>).
DS_QUERY_START_VERSION_AFTER_LATEST_VERSION
SQLSTATE: žádný přiřazený
<dsError>: Zadaná počáteční verze(<startVersion>) pro čtení dat je neplatná. Počáteční verze nemůže být větší než nejnovější verze tabulky(<latestVersion>).
DS_QUERY_TIMEOUT_ON_SERVER
SQLSTATE: žádný přiřazený
<dsError>: Při zpracování <queryType> na <tableName> po <numActions> aktualizacích v <numIter> iteracích došlo k vypršení časového limitu.<progressUpdate> <suggestion> <traceId>
DS_RATE_LIMIT_ON_DS_SERVER
SQLSTATE: žádný přiřazený
<dsError>: <message>
DS_RECIPIENT_RPC_INVALID_PARAMETER
SQLSTATE: žádný přiřazený
<dsError>: <message>
DS_RECON_FAILED_ON_UC_WRITE_RPC
SQLSTATE: žádný přiřazený
<dsError>: UC RPC <rpcName> se nezdařil, a proto se převádí na INTERNAL_ERROR.
DS_RESOURCE_ALREADY_EXIST_ON_DS_SERVER
SQLSTATE: žádný přiřazený
<dsError>: <message>
DS_RESOURCE_EXHAUSTED
SQLSTATE: žádný přiřazený
<dsError>: <resource> překročil limit: [<limitSize>]<suggestion>.<traceId>
DS_RESOURCE_NOT_FOUND_ON_DS_SERVER
SQLSTATE: žádný přiřazený
<dsError>: <message>
DS_SAP_UNSUPPORTED_DBR_VERSION
SQLSTATE: žádný přiřazený
<dsError>: Konektor SAP pro Delta Sharing není podporován na DBR <dbrVersion>. Minimální podporované verze: <supportedVersions>.
DS_SCHEMA_NAME_CONFLICT_FOUND
SQLSTATE: žádný přiřazený
<dsError>: Katalog <catalogName> již obsahuje názvy schémat, které jsou nalezeny ve sdílené složce <shareName>.
<description> konfliktních názvů schémat: <schemaNamesInCommon>.
DS_SERVER_TIMEOUT
SQLSTATE: žádný přiřazený
<dsError>: Vypršení časového limitu serveru <rpcName> kvůli <errorCause>, zkuste to prosím znovu.<traceId>
DS_SERVICE_DENIED
SQLSTATE: žádný přiřazený
<dsError>: Požadavek byl odepřen, protože služba je příliš zatížená. Zkuste to prosím znovu později po chvíli.
DS_SHARE_ALREADY_MOUNTED_TO_CATALOG
SQLSTATE: žádný přiřazený
<dsError>: Sdílená složka <shareName> od poskytovatele <providerName> je již připojena k katalogu <catalogName>.
DS_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED
SQLSTATE: žádný přiřazený
Nelze udělit oprávnění na <securableType> systémem generované skupině <principal>.
DS_TABLE_METADATA_TEMPORARILY_UNAVAILABLE
SQLSTATE: žádný přiřazený
<dsError>: Metadata tabulky nejsou k dispozici. Zkuste to prosím znovu za chvíli.
DS_TIME_TRAVEL_NOT_PERMITTED
SQLSTATE: žádný přiřazený
<dsError>: Dotaz na cestování časem není povolen, pokud není historie sdílena na <tableName>. Obraťte se na svého poskytovatele dat.
DS_UNAUTHORIZED
SQLSTATE: žádný přiřazený
<dsError>: Neautorizováno.
DS_UNAUTHORIZED_D2O_OIDC_RECIPIENT
SQLSTATE: žádný přiřazený
<dsError>: Neautorizovaný příjemce D2O OIDC: <message>.
DS_UNKNOWN_EXCEPTION
SQLSTATE: žádný přiřazený
<dsError>: <traceId>
DS_UNKNOWN_QUERY_ID
SQLSTATE: žádný přiřazený
<dsError>: Neznámé ID dotazu <queryID> pro <schema>.
<table> z podílu <share>.
DS_UNKNOWN_QUERY_STATUS
SQLSTATE: žádný přiřazený
<dsError>: Neznámý stav dotazu pro ID dotazu <queryID> pro <schema>.
<table> z podílu <share>.
DS_UNKNOWN_RPC
SQLSTATE: žádný přiřazený
<dsError>: Neznámé rpc <rpcName>.
DS_UNSUPPORTED_DELTA_READER_VERSION
SQLSTATE: žádný přiřazený
<dsError>: Verze čtečky protokolu Delta <tableReaderVersion> je vyšší než <supportedReaderVersion> a není podporována na serveru pro sdílení delta.
DS_UNSUPPORTED_DELTA_TABLE_FEATURES
SQLSTATE: žádný přiřazený
<dsError>: Funkce tabulky <tableFeatures> se nacházejí v tabulce<versionStr> <historySharingStatusStr> <optionStr>
DS_UNSUPPORTED_OPERATION
SQLSTATE: žádný přiřazený
<dsError>: <message>
DS_UNSUPPORTED_STORAGE_SCHEME
SQLSTATE: žádný přiřazený
<dsError>: Nepodporované schéma úložiště: <scheme>.
DS_UNSUPPORTED_TABLE_TYPE
SQLSTATE: žádný přiřazený
<dsError>: Nelze načíst <schema>.
<table> Ze sdílené <share> složky, protože tabulka s typem [<tableType>] není v dotazech aktuálně podporována <queryType> .
DS_UNSUPPORTED_TABLE_TYPE_IN_MST
SQLSTATE: žádný přiřazený
<dsError>: Dotazování typu tabulky [<tableType>] není podporováno v dotazu MST (Multi-Statement Transaction).
DS_USER_CONTEXT_ERROR
SQLSTATE: žádný přiřazený
<dsError>: <message>
DS_VIEW_SHARING_FUNCTIONS_NOT_ALLOWED
SQLSTATE: žádný přiřazený
<dsError>: Následující funkce: <functions> nejsou v dotazu pro sdílení zobrazení povoleny.
DS_WORKSPACE_DOMAIN_NOT_SET
SQLSTATE: žádný přiřazený
<dsError>: Doména pracovního prostoru <workspaceId> není nastavena.
DS_WORKSPACE_NOT_FOUND
SQLSTATE: žádný přiřazený
<dsError>: Pracovní prostor <workspaceId> nebyl nalezen.
Autoloader
CF_ADD_NEW_NOT_SUPPORTED
Režim vývoje schématu <addNewColumnsMode> není při zadání schématu podporován. Pokud chcete tento režim použít, můžete schéma zadat prostřednictvím cloudFiles.schemaHints.
CF_AMBIGUOUS_AUTH_OPTIONS_ERROR
Byly nalezeny možnosti ověřování nastavení notifikace pro (výchozí) adresář.
seznamovací režim:
<options>
Pokud chcete použít režim oznámení o souboru, explicitně nastavte:
.option("cloudFiles.<useNotificationsKey>"; "true")
Případně pokud chcete přeskočit ověření možností a tyto možnosti ignorovat
možnosti ověřování, můžete nastavit:
.option("cloudFiles.ValidateOptionsKey>", "false")
CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR
Režim přírůstkového výpisu (cloudFiles.<useIncrementalListingKey>)
a oznámení o souborech (cloudFiles<useNotificationsKey>)
byly aktivovány ve stejnou dobu.
Ujistěte se, že jste vybrali jenom jednu.
CF_AZURE_AUTHENTICATION_MISSING_OPTIONS
Zadejte přihlašovací údaje služby Databricks nebo clientId i clientSecret pro ověřování v Azure.
CF_AZURE_AUTHENTICATION_MULTIPLE_OPTIONS
Při zadání přihlašovacích údajů služby Databricks by neměly být k dispozici žádné další možnosti přihlašovacích údajů (například clientId, clientSecret nebo connectionString).
CF_AZURE_STORAGE_SUFFIXES_REQUIRED
Vyžaduje přípony adlsBlobSuffix a adlsDfsSuffix pro Azure
CF_BUCKET_MISMATCH
<storeType> v události souboru <fileEvent> se liší od očekávané hodnoty: <source>.
CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY
Schéma nelze vyvíjet, pokud je protokol schématu prázdný. Umístění protokolu schématu: <logPath>
CF_CANNOT_PARSE_QUEUE_MESSAGE
Nelze analyzovat následující zprávu fronty: <message>
CF_CANNOT_RESOLVE_CONTAINER_NAME
Nelze rozpoznat název kontejneru z cesty: <path>, URI identifikátor vyřešen: <uri>
CF_CANNOT_RUN_DIRECTORY_LISTING
Nelze spustit výpis adresáře, pokud je spuštěné asynchronní vlákno backfillu.
CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON
Nelze zapnout cloudFiles.cleanSource a cloudFiles.allowOverwrites současně.
CF_CLEAN_SOURCE_CANNOT_MOVE_FILES_INSIDE_SOURCE_PATH
Přesunutí souborů do adresáře v rámci cesty, ze které se ingestuje, se nepodporuje.
CF_CLEAN_SOURCE_NOT_ENABLED
Pro tento pracovní prostor není povolený CleanSource. Požádejte o pomoc podporu Databricks.
CF_CLEAN_SOURCE_NOT_SUPPORTED
CleanSource není podporován pro <op>.
CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
Automatický zavaděč nemůže archivovat zpracovávané soubory, protože nemá oprávnění k zápisu do zdrojového adresáře nebo do cílového adresáře.
Další podrobnosti najdete v tématu CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
CF_DUPLICATE_COLUMN_IN_DATA
Při pokusu o odvození schématu oddílu tabulky došlo k chybě. V datech a cestách oddílů máte stejný sloupec duplicovaný. Pokud chcete hodnotu oddílu ignorovat, zadejte sloupce oddílů explicitně pomocí: .option("cloudFiles.<partitionColumnsKey>"; "{čárka-separated-list}")
CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE
Schéma nelze odvodit, pokud je vstupní cesta <path> prázdná. Zkuste datový proud spustit, pokud jsou ve vstupní cestě soubory, nebo zadejte schéma.
CF_EVENT_GRID_AUTH_ERROR
Vytvoření odběru služby Event Grid se nezdařilo. Ujistěte se, že vaše služba funguje správně.
Hlavní jednotka má <permissionType> odběrů služby Event Grid. Další podrobnosti najdete tady:
<docLink>
CF_EVENT_GRID_CREATION_FAILED
Vytvoření odběru event gridu se nezdařilo. Ujistěte se, že Microsoft.EventGrid je připravený
zaregistrovaný jako poskytovatel prostředků v rámci vašeho předplatného. Další podrobnosti najdete tady:
<docLink>
CF_EVENT_GRID_NOT_FOUND_ERROR
Vytvoření odběru služby Event Grid se nezdařilo. Ujistěte se, že vaše úložiště je připraveno správně.
účet (<storageAccount>) je ve skupině zdrojů (<resourceGroup>) a že
Účet úložiště je typu "StorageV2 (univerzální účely v2)". Další podrobnosti najdete tady:
<docLink>
CF_EVENT_NOTIFICATION_NOT_SUPPORTED
Režim oznámení událostí automatického zavaděče není podporován pro <cloudStore>.
CF_EVENT_NOTIFICATION_SETUP_FAILED
Nepodařilo se nastavit prostředky oznámení souboru pro automatické zavaděče.
Další podrobnosti najdete v tématu CF_EVENT_NOTIFICATION_SETUP_FAILED
CF_FAILED_TO_CHECK_STREAM_NEW
Nepodařilo se zkontrolovat, jestli je stream nový.
CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION
Nepodařilo se vytvořit předplatné: <subscriptionName>. Předplatné se stejným názvem již existuje a je přidruženo k jinému tématu: <otherTopicName>. Požadované téma je <proposedTopicName>. Buď odstraňte existující předplatné, nebo vytvořte předplatné s novým sufixem prostředku.
CF_FAILED_TO_CREATED_PUBSUB_TOPIC
Nepodařilo se vytvořit téma: <topicName>. Téma se stejným názvem již existuje.
<reason> Odstraňte existující téma nebo to zkuste znovu s jinou koncovkou prostředku.
CF_FAILED_TO_DELETE_GCP_NOTIFICATION
Nepodařilo se odstranit oznámení s ID <notificationId> v kontejneru <bucketName> pro téma <topicName>. Opakujte nebo ručně odeberte oznámení prostřednictvím konzoly GCP.
CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA
Nepodařilo se deserializovat trvalé schéma z řetězce: '<jsonSchema>'
CF_FAILED_TO_EVOLVE_SCHEMA
Nelze vyvíjet schéma bez protokolu schématu.
CF_FAILED_TO_FIND_PROVIDER
Nepodařilo se najít poskytovatele pro <fileFormatInput>
CF_FAILED_TO_INFER_SCHEMA
Nepodařilo se odvodit schéma pro formát <fileFormatInput> z existujících souborů ve vstupní cestě <path>.
Další podrobnosti najdete v tématu CF_FAILED_TO_INFER_SCHEMA
CF_FAILED_TO_WRITE_TO_SCHEMA_LOG
Zápis do protokolu schématu v umístění <path>se nezdařil.
CF_FILE_FORMAT_REQUIRED
Nepovedlo se najít požadovanou možnost: cloudFiles.format.
CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS
Bylo nalezeno více předplatných (<num>) s předponou Auto Loader pro téma <topicName>:
<subscriptionList>
Pro každé téma by mělo existovat jenom jedno předplatné. Ručně se ujistěte, že vaše téma nemá více předplatných.
CF_GCP_AUTHENTICATION
Uveďte následující <clientEmail>, <client>: ,
<privateKey>a <privateKeyId> nebo poskytněte <serviceCredential> pro použití přihlašovacích údajů služby Databricks.
Pokud chcete použít výchozí řetězec poskytovatelů přihlašovacích údajů GCP pro ověřování s prostředky GCP, neposkytujte žádné z nich.
CF_GCP_LABELS_COUNT_EXCEEDED
Bylo přijato příliš mnoho štítků (<num>) pro zdroj GCP. Maximální počet štítků na prostředek je <maxNum>.
CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED
Bylo přijato příliš mnoho značek prostředků (<num>) pro prostředek GCP. Maximální počet značek prostředků na prostředek je <maxNum>, protože značky prostředků se ukládají jako popisky GCP u prostředků a konkrétní značky Databricks využívají některé z těchto kvót popisků.
CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG
Neúplný protokolový soubor v cestě <path> v protokolu schématu.
CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT
Neúplný soubor metadat v kontrolním bodu automatického načítače
CF_INCORRECT_BATCH_USAGE
CloudFiles je zdroj streamování. Místo spark.read použijte spark.readStream. Pokud chcete tuto kontrolu zakázat, nastavte <cloudFilesFormatValidationEnabled> na false.
CF_INCORRECT_SQL_PARAMS
Metoda cloud_files přijímá dva povinné parametry typu řetězec: cestu, ze které se má načítat, a formát souboru. Možnosti čtečky souborů musí být poskytnuty v mapě řetězců klíč-hodnota. například cloud_files("path", "json", map("option1", "value1")). Přijato: <params>
CF_INCORRECT_STREAM_USAGE
Pokud chcete jako zdroj streamování použít cloudFiles, zadejte formát souboru s možností cloudFiles.format a k vytvoření datového rámce použijte .load(). Pokud chcete tuto kontrolu zakázat, nastavte <cloudFilesFormatValidationEnabled> na false.
CF_INTERNAL_ERROR
Auto Loader zjistil vnitřní chybu. Požádejte o pomoc podporu Databricks.
Další podrobnosti najdete v tématu CF_INTERNAL_ERROR
CF_INVALID_ARN
Neplatný ARN: <arn>
CF_INVALID_AZURE_CERTIFICATE
Privátní klíč poskytnutý s parametrem cloudFiles.certificate nelze analyzovat. Zadejte platný veřejný klíč ve formátu PEM.
CF_INVALID_AZURE_CERT_PRIVATE_KEY
Privátní klíč poskytnutý s parametrem cloudFiles.certificatePrivateKey nelze analyzovat. Zadejte platný privátní klíč ve formátu PEM.
CF_INVALID_CHECKPOINT
Tento kontrolní bod není platným zdrojem CloudFiles.
CF_INVALID_CLEAN_SOURCE_MODE
Neplatný režim pro volbu čistého zdroje <value>.
CF_INVALID_GCP_RESOURCE_TAG_KEY
Neplatný klíč značky prostředku pro prostředek GCP: <key>. Klíče musí začínat malým písmenem, musí mít délku 1 až 63 znaků a obsahovat jenom malá písmena, číslice, podtržítka (_) a pomlčky (-).
CF_INVALID_GCP_RESOURCE_TAG_VALUE
Neplatná hodnota štítku zdroje GCP: <value>. Hodnoty musí mít délku 0 až 63 znaků a musí obsahovat jenom malá písmena, číslice, podtržítka (_) a pomlčky (-).
CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS
Automatický zavaděč nepodporuje následující možnosti při použití s událostmi spravovaných souborů:
<optionList>
Doporučujeme odebrat tyto možnosti a pak stream restartovat.
CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
Neplatná odpověď ze služby správy událostí souborů. Požádejte o pomoc podporu Databricks.
Další podrobnosti najdete v CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
CF_INVALID_SCHEMA_EVOLUTION_MODE
cloudFiles.
<schemaEvolutionModeKey> musí být jedním z {
<addNewColumnsWithTypeWidening>
<addNewColumns>
<failOnNewColumns>
<rescue>
"<noEvolution>"}
CF_INVALID_SCHEMA_HINTS_OPTION
Nápovědy schématu mohou zadat konkrétní sloupec pouze jednou.
V tomto případě předefinování sloupce: <columnName>
vícekrát ve schématuHints:
<schemaHints>
CF_INVALID_SCHEMA_HINT_COLUMN
Nápovědy schématu nelze použít k přepsání vnořených typů v mapách a polích.
Konfliktní sloupec: <columnName>
CF_LATEST_OFFSET_READ_LIMIT_REQUIRED
latestOffset by měl být volán pomocí ReadLimit na tomto zdroji.
CF_LOG_FILE_MALFORMED
Soubor protokolu byl poškozený: Nepodařilo se přečíst správnou verzi protokolu z <fileName>.
CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS
Požádali jste, aby Auto Loader ignoroval existující soubory ve vašem externím umístění nastavením položky includeExistingFiles na hodnotu false. Služba událostí spravovaných souborů ale stále zjišťuje existující soubory ve vašem externím umístění. Zkuste to prosím znovu, jakmile události spravovaných souborů dokončí zjišťování všech souborů ve vašem externím umístění.
CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND
Používáte automatický zavaděč s událostmi spravovanými soubory, ale zdá se, že externí umístění pro vaši vstupní cestu '<path>' nemá povolené události souborů nebo je vstupní cesta neplatná. Požádejte svého správce Databricks, aby aktivoval události souborů na externím umístění pro vaši vstupní cestu.
CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED
Používáte Auto Loader se spravovanými událostmi souborů, ale nemáte přístup k externímu umístění nebo svazku pro vstupní cestu '<path>' nebo je vstupní cesta neplatná. Požádejte správce Databricks, aby udělil oprávnění ke čtení pro externí umístění nebo svazek nebo zadal platnou vstupní cestu v rámci existujícího externího umístění nebo svazku.
CF_MANAGED_FILE_EVENTS_INVALID_CONTINUATION_TOKEN
Pozice čtení datového proudu v mezipaměti událostí souboru byla neplatná. K tomu může dojít, protože se aktualizovala konfigurace událostí souboru (například se změnila zadaná adresa URL fronty nebo se zakázaly a znovu povolily události souborů). Požádejte o pomoc podporu Databricks.
CF_MANAGED_FILE_EVENTS_IS_PREVIEW
Funkce automatického zavaděče se spravovanými událostmi souborů je ve verzi Preview. Pokud chcete pokračovat, obraťte se na podporu Databricks nebo vypněte možnost cloudFiles.useManagedFileEvents.
CF_MANAGED_FILE_EVENTS_RATE_LIMIT_EXCEEDED
Je spuštěno příliš mnoho souběžných datových proudů automatického zavaděče. Pokud je to možné, omezte souběžnost datových proudů nebo vytvořte samostatné svazky pro každý podadresář při načítání z více podadresářů v externím umístění. Pokud problém přetrvává, obraťte se na zástupce Databricks.
CF_MAX_MUST_BE_POSITIVE
max musí být kladné.
CF_METADATA_FILE_CONCURRENTLY_USED
Více streamovaných dotazů současně používá <metadataFile>
CF_MISSING_METADATA_FILE_ERROR
Chybí soubor metadat v adresáři kontrolního bodu zdroje streamování. Tato metadata
soubor obsahuje důležité výchozí možnosti streamu, takže stream nejde restartovat.
Hned teď. Požádejte o pomoc podporu Databricks.
CF_MISSING_PARTITION_COLUMN_ERROR
Sloupec oddílu <columnName> v zadaném schématu neexistuje:
<schema>
CF_MISSING_SCHEMA_IN_PATHLESS_MODE
Zadejte schéma pomocí .schema(), pokud cesta není zadána ke zdroji CloudFiles při použití režimu oznámení souboru. Případně pokud chcete, aby automatický zavaděč odvodil schéma, zadejte základní cestu v metodě .load().
CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC
Našla se existující oznámení pro téma <topicName> v kontejneru <bucketName>:
notification,id
<notificationList>
Pokud chcete zabránit znečisťování odběratele nezamýšlenými událostmi, odstraňte výše uvedená oznámení a zkuste to znovu.
CF_NEW_PARTITION_ERROR
Nové sloupce v oddílu byly zjištěny z vašich souborů: [<filesList>]. Zadejte všechny sloupce oddílů ve schématu nebo zadejte seznam sloupců oddílů, pro které chcete extrahovat hodnoty pomocí: .option("cloudFiles.partitionColumns", "{comma-separated-list|empty-string}")
CF_PARTITON_INFERENCE_ERROR
Při pokusu o odvození schématu oddílu pro aktuální dávku souborů došlo k chybě. Sloupce oddílů zadejte explicitně pomocí: .option("cloudFiles.<partitionColumnOption>"; "{čárka-separated-list}")
CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES
Nelze číst soubory, pokud vstupní cesta <path> neexistuje. Ujistěte se, že vstupní cesta existuje, a zkuste to znovu.
CF_PERIODIC_BACKFILL_NOT_SUPPORTED
Pravidelné doplňování není podporováno, pokud je zakázáno asynchronní doplňování. Asynchronní vyplňování/adresář můžete povolit nastavením spark.databricks.cloudFiles.asyncDirListing na pravda.
CF_PREFIX_MISMATCH
Došlo k neshodě události: Klíč <key> nemá předponu: <prefix>
CF_PROTOCOL_MISMATCH
<message>
Pokud v kódu nepotřebujete provádět žádné další změny, nastavte SQL.
konfigurace: '<sourceProtocolVersionKey> = <value>'
pro obnovení vašeho streamu Projděte si následující informace:
<docLink>
pro další podrobnosti.
CF_REGION_NOT_FOUND_ERROR
Nelze získat výchozí oblast AWS. Zadejte oblast pomocí možnosti cloudFiles.region.
CF_RESOURCE_SUFFIX_EMPTY
Nepodařilo se vytvořit notifikační služby: Přípona prostředku nemůže být prázdná.
CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS
Vytvoření služeb oznámení se nezdařilo: Přípona prostředku může obsahovat pouze alfanumerické znaky, spojovníky (-) a podtržítka (_).
CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE
Vytvoření služeb oznámení se nezdařilo: Přípona prostředku může obsahovat pouze malá písmena, číslo a pomlčku (-).
CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP
Vytvoření služeb oznámení se nezdařilo: Přípona prostředku může obsahovat pouze alfanumerické znaky, spojovníky (-), podtržítka (_), tečky (.), vlnovky (~), znaménka plus (+) a znak procenta (<percentSign>).
CF_RESOURCE_SUFFIX_LIMIT
Vytvoření služeb oznámení se nezdařilo: Sufix prostředku nemůže obsahovat více než <limit> znaků.
CF_RESOURCE_SUFFIX_LIMIT_GCP
Nepodařilo se vytvořit notifikační služby: Přípona prostředku musí být mezi znaky <lowerLimit> a <upperLimit>.
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY
Byl nalezen omezený klíč značky prostředku GCP (<key>). Následující klíče značek prostředků GCP jsou omezeny pro automatický zavaděč: [<restrictedKeys>]
CF_RETENTION_GREATER_THAN_MAX_FILE_AGE
cloudFiles.cleanSource.retentionDuration nemůže být větší než cloudFiles.maxFileAge.
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
Nepodařilo se vytvořit oznámení pro téma: <topic> s předponou: <prefix>. Již existuje téma se stejným názvem s jinou předponou: <oldPrefix>. Zkuste pro instalaci použít jiný sufix prostředku nebo odstraňte existující instalaci.
CF_SCHEMA_LOG_DEEP_CLONE_FAILED
Nepodařilo se naklonovat a migrovat žádné položky protokolu schématu ze zdrojového protokolu schématu.
CF_SFTP_MISSING_PASSWORD_OR_KEY_FILE
Pro SFTP musí být zadán soubor hesla nebo klíče.
Zadejte heslo ve zdrojovém identifikátoru URI nebo prostřednictvím <passwordOption>nebo zadejte obsah souboru klíče prostřednictvím <keyFileOption>.
CF_SFTP_NOT_ENABLED
Přístup k souborům SFTP není povolený. Požádejte o pomoc podporu Databricks.
CF_SFTP_REQUIRE_FULL_PATH
Zadejte úplné součásti cesty pro zdroj SFTP ve formě sftp://$user@$host:$port/$path, aby se zajistilo přesné vyhledání připojení UC.
CF_SFTP_REQUIRE_UC_CLUSTER
Pro přístup k souborům SFTP se vyžaduje cluster s podporou UC. Požádejte o pomoc podporu Databricks.
CF_SFTP_USERNAME_NOT_FOUND
Pro SFTP musí být zadáno uživatelské jméno.
Zadejte uživatelské jméno ve zdrojovém URI nebo prostřednictvím <option>.
CF_SOURCE_DIRECTORY_PATH_REQUIRED
Zadejte cestu ke zdrojovému adresáři s možností path
CF_SOURCE_UNSUPPORTED
Zdroj cloudových souborů aktuálně podporuje pouze cesty S3, Azure Blob Storage (wasb/wasbs) a Azure Data Lake Gen1 (adl) a Gen2 (abfs/abfss). path: '<path>', resolved URI: '<uri>'
CF_STATE_INCORRECT_SQL_PARAMS
Funkce cloud_files_state přijímá řetězcový parametr představující adresář kontrolních bodů streamu cloudFiles nebo název tabulky s více částmi identifikující streamovanou tabulku a volitelný druhý celočíselnou parametr představující verzi kontrolního bodu, pro který se má načíst stav. Druhý parametr může být také "latest", aby se přečetl nejnovější kontrolní bod. Přijato: <params>
CF_STATE_INVALID_CHECKPOINT_PATH
Cesta vstupního kontrolního bodu <path> je neplatná. Buď cesta neexistuje, nebo nebyly nalezeny žádné zdroje cloud_files.
CF_STATE_INVALID_VERSION
Zadaná verze <version> neexistuje nebo byla během analýzy odebrána.
CF_THREAD_IS_DEAD
<threadName> vlákno je mrtvé.
CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION
Nelze odvodit umístění kontrolního bodu datového proudu z umístění zdrojového kontrolního bodu: <checkPointLocation>
CF_UNABLE_TO_DETECT_FILE_FORMAT
Nelze zjistit formát zdrojového souboru z <fileSize> ukázkových souborů nalezených <formats>. Zadejte formát.
CF_UNABLE_TO_EXTRACT_BUCKET_INFO
Nelze extrahovat informace o kontejneru. Cesta: '<path>', vyřešený identifikátor URI: '<uri>'.
CF_UNABLE_TO_EXTRACT_KEY_INFO
Nelze extrahovat klíčové informace. Cesta: '<path>', vyřešený identifikátor URI: '<uri>'.
CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO
Nejde extrahovat informace o účtu úložiště; path: '<path>', resolved URI: '<uri>'
CF_UNABLE_TO_LIST_EFFICIENTLY
Přijata událost přejmenování adresáře pro cestu <path>, ale nemůžeme efektivně vypsat tento adresář. Aby stream mohl pokračovat, nastavte možnost cloudFiles.ignoreDirRenames na hodnotu true a zvažte povolení pravidelného obnovení cloudFiles.backfillInterval pro zpracování těchto dat.
CF_UNEXPECTED_READ_LIMIT
Neočekávaný limit čtení: <readLimit>
CF_UNKNOWN_OPTION_KEYS_ERROR
Byly nalezeny neznámé klíče možností:
<optionList>
Ujistěte se, že jsou správné všechny zadané klíče možností. Pokud chcete přeskočit něco
Pokud chcete ověřit své možnosti a ignorovat tyto neznámé možnosti, můžete nastavit:
.option("cloudFiles.<validateOptions>"; "false")
CF_UNKNOWN_READ_LIMIT
Neznámý ReadLimit: <readLimit>
CF_UNSUPPORTED_CLEAN_SOURCE_MOVE
konfigurace režimu cleanSource move není podporována.
Další podrobnosti najdete v tématu CF_UNSUPPORTED_CLEAN_SOURCE_MOVE
CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION
Funkce SQL cloud_files pro vytvoření zdroje streamování automatického zavaděče je podporována pouze v kanálu deklarativních kanálů Sparku Lakeflow. Další podrobnosti najdete tady:
<docLink>
CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE
Odvození schématu není podporováno pro formát: <format>. Zadejte schéma.
CF_UNSUPPORTED_LOG_VERSION
Nepodporovaná verze protokolu: Maximální podporovaná verze protokolu je v<maxVersion>, ale nalezena v<version>. Soubor protokolu byl vytvořen novější verzí DBR a nelze ho přečíst v této verzi. Upgradujte prosím.
CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE
Režim vývoje schématu <mode> není podporován pro formát: <format>. Nastavte režim vývoje schématu na hodnotu None.
CF_USE_DELTA_FORMAT
Čtení z tabulky Delta se v této syntaxi nepodporuje. Pokud chcete využívat data z Delta, přečtěte si dokumentaci: přečtěte si tabulku Delta (<deltaDocLink>) nebo si ji přečtěte jako zdroj datového proudu (<streamDeltaDocLink>). Zdroj streamování z Delta je již optimalizovaný pro přírůstkovou spotřebu dat.
Geospatial
EWKB_PARSE_ERROR
Při analýze EWKB došlo k chybě: <parseError> na pozici <pos>
Další podrobnosti najdete v tématu EWKB_PARSE_ERROR
EWKT_PARSE_ERROR
Chyba při analýze EWKT: <parseError> na pozici <pos>
GEOJSON_PARSE_ERROR
Chyba při analýze GeoJSON: <parseError> na pozici <pos>
Další podrobnosti najdete v tématu GEOJSON_PARSE_ERROR
GEO_ENCODER_SRID_MISMATCH_ERROR
Kódování hodnoty <type> se nezdařilo, protože zadaný identifikátor SRID <valueSrid> pro hodnotu kódování není shodný s typem SRID: <typeSrid>.
H3_INVALID_CELL_ID
<h3Cell> není platné ID buňky H3
Další podrobnosti najdete v H3_INVALID_CELL_ID
H3_INVALID_GRID_DISTANCE_VALUE
Vzdálenost mřížky H3 <k> musí být nezáporná
Další podrobnosti viz H3_INVALID_GRID_DISTANCE_VALUE
H3_INVALID_RESOLUTION_VALUE
Rozlišení H3 <r> musí být mezi <minR> a <maxR>, včetně.
Další podrobnosti najdete v tématu H3_INVALID_RESOLUTION_VALUE
H3_NOT_ENABLED
<h3Expression> je zakázaná nebo nepodporovaná. Zvažte přepnutí na úroveň, která podporuje výrazy H3.
Další podrobnosti naleznete v části H3_NOT_ENABLED
H3_PENTAGON_ENCOUNTERED_ERROR
Při výpočtu hexagonálního kruhu <h3Cell> s mřížkovou vzdáleností <k> byl nalezen pětiúhelník.
H3_UNDEFINED_GRID_DISTANCE
Vzdálenost mřížky H3 mezi <h3Cell1> a <h3Cell2> není definována
ST_DIFFERENT_SRID_VALUES
Argumenty pro "<sqlFunction>" musí mít stejnou hodnotu SRID. Nalezeny hodnoty SRID: <srid1>, <srid2>
ST_INVALID_ARGUMENT
<sqlFunction>:
Další podrobnosti najdete v tématu ST_INVALID_ARGUMENT
ST_INVALID_CRS_TRANSFORMATION_ERROR
<sqlFunction>: Neplatná nebo nepodporovaná transformace CRS z <srcSrid> SRID na <trgSrid> SRID
ST_INVALID_PRECISION_VALUE
Přesnost <p> musí být mezi <minP> a <maxP>včetně
ST_NOT_ENABLED
<stExpression> je zakázaná nebo nepodporovaná. Zvažte přepnutí na úroveň, která podporuje výrazy ST.
WKB_PARSE_ERROR
Při analýze WKB došlo k chybě: <parseError> na pozici <pos>
Další podrobnosti viz WKB_PARSE_ERROR
WKT_PARSE_ERROR
Při analýze WKT došlo k chybě: <parseError> na pozici <pos>
Další podrobnosti viz WKT_PARSE_ERROR
Katalog Unity
NELZE_ODSTRANIT_OZNAČENÝ_SLOUPEC
Sloupec nelze vynechat, protože má přiřazenou jednu nebo více řídicích značek. Před vyřazením sloupce odeberte značky. Pokyny najdete v dokumentaci <docLink>.
VYTVOŘENÍ_DÍTĚTE_ZAKÁZÁNO_PRO_CIZÍ_ZABEZPEČITELNÝ
Zabezpečitelný <childSecurableName> typu <childSecurableType> nelze vytvořit v nadřazeném <parentSecurableName> druhu <parentSecurableKind>.
FORMÁT_SLOUPCE_NESLUČITELNÝ_S_TYP_SLOUPCE
Sloupec <columnName> má <formatType> formát, který není kompatibilní s typem <columnType>sloupce .
CONFLICTING_COLUMN_NAMES_ERROR
Sloupec <columnName> je v konfliktu s jiným sloupcem se stejným názvem, ale bez/bez koncových prázdných znaků (například existující sloupec s názvem <columnName> ). Přejmenujte sloupec na jiný název.
CONNECTION_CREDENTIALS_NOT_SUPPORTED_FOR_ONLINE_TABLE_CONNECTION
Neplatný požadavek na získání přihlašovacích údajů na úrovni připojení pro připojení typu <connectionType>. Tyto přihlašovací údaje jsou k dispozici pouze pro spravovaná připojení PostgreSQL.
CONNECTION_TYPE_NOT_ENABLED
Typ připojení '<connectionType>' není povolen. Povolte připojení, aby bylo možné jej použít.
STAV POSKYTOVÁNÍ DELTA_SHARING NENÍ AKTIVNÍ
Sdílená entita '<securableFullName>' není momentálně použitelná, protože ještě nebyla plně synchronizována s odpovídající zdrojovou entitou. Způsobeno: <reason>.
DELTA_SHARING_READ_ONLY_RECIPIENT_EXISTS
Objekt příjemce<existingRecipientName> se stejným identifikátorem<existingMetastoreId> sdílení je již k dispozici.
DELTA_SHARING_READ_ONLY_SECURABLE_KIND
Data typu Delta Sharing zabezpečitelná <securableKindName> jsou jen pro čtení a nelze je vytvářet, upravovat ani odstraňovat.
DISASTER_RECOVERY_READ_ONLY
Data v katalogu <catalogName> replik spravovaném zotavením po havárii jsou jen pro čtení a nelze je vytvářet, upravovat ani odstraňovat.
EXTERNAL_ACCESS_DISABLED_ON_METASTORE
Zpřístupnění přihlašovacích údajů je zamítnuto pro ne Databricks výpočetní prostředí kvůli zakázanému externímu přístupu k datům pro metastore <metastoreName>. Požádejte správce metastoru o povolení konfigurace externího přístupu k datům v metastoru.
EXTERNAL_ACCESS_NOT_ALLOWED_FOR_TABLE
Tabulka s ID <tableId> nemůže být přístupná mimo výpočetní prostředí Databricks kvůli tomu, že je <securableKind>. K externím typům tabulek lze přistupovat pouze 'TABLE_EXTERNAL', 'TABLE_DELTA_EXTERNAL' a 'TABLE_DELTA'.
EXTERNAL_USE_SCHEMA_ASSIGNED_TO_INCORRECT_SECURABLE_TYPE
Oprávnění EXTERNAL USE SCHEMA není pro tuto entitu <assignedSecurableType> použitelné a lze je přiřadit pouze ke schématu nebo katalogu. Odeberte oprávnění z objektu <assignedSecurableType> a přiřaďte ho k schématu nebo katalogu.
EXTERNAL_WRITE_NOT_ALLOWED_FOR_TABLE
Tabulku s ID <tableId> nelze zapsat mimo výpočetní prostředí Databricks, protože její typ je <securableKind>. Externě lze zapisovat pouze typy tabulek 'TABLE_EXTERNAL' a 'TABLE_DELTA_EXTERNAL'.
FOREIGN_CATALOG_STORAGE_ROOT_MUST_SUPPORT_WRITES
Umístění úložiště pro cizí katalog typu <catalogType> bude použito pro vykládání dat a nesmí být pouze pro čtení.
HMS_SECURABLE_OVERLAP_LIMIT_EXCEEDED
Počet <resourceType>pro vstupní cestu <url> překračuje povolený limit (<overlapLimit>) pro překrývající se HMS <resourceType>.
INVALID_DATASOURCE_FORMAT
Formát<datasourceFormat> zdroje dat není podporován<tableTypeSuffix> <catalogKindSuffix>.
INVALID_NAME_FORMAT
<fieldDescription> není platný název. Platné názvy musí obsahovat pouze alfanumerické znaky a podtržítka a nesmí obsahovat mezery, tečky, lomítka nebo řídicí znaky.
INVALID_RESOURCE_NAME_DELTA_SHARING
Požadavky na sdílení Delta nejsou podporovány při použití názvů prostředků.
INVALID_RESOURCE_NAME_ENTITY_TYPE
Zadaný název entity odkazuje na typ entity <provided>, ale očekávaný je <expected>.
INVALID_RESOURCE_NAME_METASTORE_ID
Zadaný název prostředku odkazuje na metastore, který není v rozsahu aktuální žádosti.
INVALID_SECURABLE_NAME
<rpcName> neplatný <securableType> název: '<securableFullName>'
LOCATION_OVERLAP
Adresa URL vstupní cesty '<path>' se překrývá s <overlappingLocation> v rámci volání '<caller>'.
<conflictingSummary>. <permissionErrorSuggestion>
LOCATION_OVERLAP_STORAGE_CONFLICT_WITH_WORKSPACE_STORAGE
Umístění úložiště definované zákazníkem je v konfliktu s výchozím úložištěm<path> pracovního prostoru během operace .<caller> To brání funkcím, které spoléhají na provoz úložiště pracovních prostorů. Shrnutí konfliktů: <conflictingSummary>. Viz https://docs.databricks.com/aws/en/data-governance/unity-catalog/storage-conflicts postup nápravy.
MANAGED_TABLE_FORMAT
U spravovaných tabulek se podporuje jenom Delta. Zadaný formát zdroje dat je <datasourceFormat>.
MONGO_DB_SRV_CONNECTION_STRING_DOES_NOT_ALLOW_PORT
Vytvoření nebo aktualizace připojení MongoDB není povoleno, protože připojovací řetězec MongoDB SRV nevyžaduje port.
Prosím, odeberte port, protože připojovací řetězec SRV port nevyžaduje.
POSKYTOVATEL_NEPOSKYTOVÁN
Nelze najít subjekt s názvem <principalName>.
Podpora pro privilegia není povolena
Podpora oprávnění není pro typ [<typeString>] povolená.
PRIVILEGE_NOT_APPLICABLE_TO_ENTITY
Oprávnění se nevztahuje <privilege> na tuto entitu [<classifier>]. Pokud se to zdá neočekávané, zkontrolujte verzi oprávnění metastoru, která se používá [<privilegeVersion>].
KATALOG_POUZE_PRO_ČTENÍ
Data v katalogu Delta Sharing jsou pouze pro čtení a nelze je vytvářet, měnit ani mazat. Katalog '<catalogName>' je katalog Delta Sharing.
REDSHIFT_FOREIGN_CATALOG_STORAGE_ROOT_MUST_BE_S3
Kořen úložiště pro cizí katalog Redshift musí být AWS S3.
SCHEMA_NOT_EMPTY
Schéma '<fullName>' není prázdné. <extraInfo>
SECURABLE_KIND_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION
Zabezpečitelný objekt s druhem <securableKind> nepodporuje Lakehouse Federation.
SECURABLE_KIND_NOT_ENABLED
Zabezpečitelný druh '<securableKind>' není povolen. Pokud se jedná o ochranitelný typ spojený s funkcí náhledu, zapněte jej v nastavení pracovního prostoru.
SECURABLE_TYPE_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION
Zabezpečitelné s typem <securableType> nepodporuje Lakehouse Federation.
SOURCE_TABLE_COLUMN_COUNT_EXCEEDS_LIMIT
Zdrojová tabulka obsahuje více než <columnCount> sloupců. Snižte počet sloupců na <columnLimitation> nebo méně.
SYSTEM_SERVICE_PRINCIPAL_IS_NOT_REGISTERED
Nelze najít zaregistrovaný instanční objekt systému s názvem prostředku <servicePrincipalResource>.
`TYP_TABULKY_NEpodporuje_METADATA_SLOUPCŮ`
Typ <tableType> tabulky nepodporuje metadata sloupců.
UC_AAD_CLIENT_SECRET_EXPIRED_FOR_SERVICE_PRINCIPAL
Platnost tajných klíčů klienta pro instanční objekt s ID <applicationId> aplikace vypršela. Pokud chcete vytvořit nové klíče pro instanční objekt, přejděte na web Azure Portal.
UC_AAD_CLIENT_SECRET_EXPIRED_FOR_STORAGE_CREDENTIAL
Platnost tajných klíčů klienta pro přihlašovací údaje <storageCredentialName> úložiště vypršela. Pokud chcete aktualizovat přihlašovací údaje úložiště, obraťte se na vlastníka nebo správce účtu.
UC_AAD_CLIENT_SECRET_INVALID_FOR_SERVICE_PRINCIPAL
Tajný klíč klienta pro instanční objekt s ID <applicationId> aplikace není platný.
UC_AAD_SERVICE_PRINCIPAL_CONFIG_INVALID
Konfigurace instančního objektu není platná. Ověřte ID adresáře, ID aplikace a tajný klíč klienta.
UC_AAD_TOKEN_EXCHANGE_GENERIC_FAILURE
Nepodařilo se získat přihlašovací údaje: Přihlašovací údaje <storageCredentialName> úložiště nejsou správně nakonfigurované. Pokud chcete konfiguraci aktualizovat, obraťte se na vlastníka nebo správce účtu.
UC_AAD_TOKEN_LIFETIME_TOO_SHORT
Životnost vyměněného tokenu AAD je <lifetime>, což je nakonfigurováno příliš krátce. Zkontrolujte nastavení Azure AD a ujistěte se, že má dočasný přístupový token alespoň hodinu životnosti. https://learn.microsoft.com/azure/active-directory/develop/active-directory-configurable-token-lifetimes
UC_ABAC_AMBIGUOUS_COLUMN_MATCH
Při vyhodnocování zásad ABAC na '<resource>' došlo k chybě. Zásada '<policyName>' selhala se zprávou: Používání aliasu '<alias>' mělo <size> shody, je povolena přesně jedna shoda.
UC_ABAC_DEPENDENCY_COMPLEXITY_LIMIT_EXCEEDED
<resourceType> '<ref>' má příliš mnoho <resolverType> závislostí nabacu.
UC_ABAC_DEPENDENCY_DIFFERING_RF_CM
Závislost '<dependency>' je odkazována vícekrát, což mělo za výsledek rozdílné filtry řádků ABAC nebo masky sloupců.
UC_ABAC_EVALUATION_USER_ERROR
Při vyhodnocování zásad ABAC na '<resource>' došlo k chybě. Zásada '<policyName>' selhala s hlášením: <message>.
UC_ABAC_INVALID_TAG_POLICY_VALUE
Při vyhodnocování zásad ABAC na '<resource>' došlo k chybě. Selhalo s hlášením: Neplatná hodnota politiky značky <tagValue> pro klíč <tagKey>.
UC_ABAC_MULTIPLE_ROW_FILTERS
Vyhodnocení zásad ABAC na '<resource>' vedlo k více filtrům řádků. Je povolený maximálně jeden filtr řádků.
UC_ABAC_UNKNOWN_TAG_POLICY
Při vyhodnocování zásad ABAC na '<resource>' došlo k chybě. Nezdařilo se s zprávou: Neznámá politika značek: <tagKey>.
UC_ABAC_UNMATCHED_ALIAS_IN_USING_COLUMNS
Při vyhodnocování zásad ABAC na '<resource>' došlo k chybě. Selhalo se zprávou: Alias "<alias>" použit v USING COLUMNS se neshodoval s žádným sloupcem.
UC_ABAC_UNMATCHED_ON_COLUMN_ALIAS
Při vyhodnocování zásad ABAC na '<resource>' došlo k chybě. Zásada '<policyName>' selhala se zprávou: Alias '<alias>' použitý ve ON COLUMN sloupci se neshodoval s žádným sloupcem.
UC_ABAC_UNMATCHED_USING_ALIAS
Při vyhodnocování zásad ABAC na '<resource>' došlo k chybě. Zásada '<policyName>' selhala se zprávou: Použití aliasu '<alias>' nemá odpovídající sloupec.
UC_ABAC_USING_REF_OF_NATIVE_MASKED_COLUMNS
Při vyhodnocování zásad ABAC na '<resource>' došlo k chybě. Zpráva se nezdařila: Sloupec "<usingCol>" byl maskován nativními zásadami RLS/CM a nelze ho použít jako vstup do zásady<policyName> ABAC .
UC_PŘÍSTUP_VYŽADUJE_PRACOVNÍ_PROSTOR
Nelze získat přístup k zabezpečitelnému pracovnímu prostoru, protože uživatel není přiřazen k přidruženému pracovnímu prostoru.
UC_ALTER_DLT_VIEW_OUTSIDE_DEFINING_PIPELINE
Změna zobrazení '<viewFullName>' mimo kanál, který je definoval, není povolená. Místo toho aktualizujte definici zobrazení z kanálu, který ho definoval (ID kanálu: <owningPipelineId>).
UC_ATLAS_NENÍ_POVOLEN_PRO_CALLING_SERVICE
Atlas není povolen pro volající službu <serviceName>.
UC_AUTHZ_ACTION_NOT_SUPPORTED
Autorizace <actionName> není podporována; zkontrolujte, jestli je pro tento typ prostředku implementováno volání RPC.
UC_AWS_ASSUME_ROLE_FAILED
Nepodařilo se získat přihlašovací údaje: Role AWS IAM v přihlašovacích údajích katalogu Unity není správně nakonfigurovaná. Požádejte správce metastoru nebo vlastníka přihlašovacích údajů o aktualizaci konfigurace v AWS.
UC_AWS_EMPTY_STORAGE_LOCATION
Prázdné umístění úložiště.
UC_AWS_INVALID_S3_POLICY_PREFIX
Neplatná cesta s3 pro umístění úložiště: Cesta <providedPath> S3 nezačíná očekávaným předponou: <expectedPrefix>.
UC_AWS_UNSUPPORTED_S3_SCHEME
Neplatná cesta s3 pro umístění úložiště: Bylo nalezeno nepodporované schéma: <providedScheme>. Podporovaná schémata jsou: <supportedS3Schemes>.
UC_AZURE_BLOB_SERVICE_UNAVAILABLE
Služba Azure Blob Service je dočasně nedostupná. Zkuste to znovu později.
UC_AZURE_UDK_UNAUTHORIZED
Požadavek na klíč delegování uživatele není autorizovaný. Podrobnosti: <details>
UC_BUILTIN_HMS_CONNECTION_CREATION_PERMISSION_DENIED
Nelze vytvořit připojení pro integrovaný metastore Hive, protože uživatel: <userId> není správcem pracovního prostoru: <workspaceId>
UC_BUILTIN_HMS_CONNECTION_MODIFY_RESTRICTED_FIELD
Pokus o úpravu omezeného pole v integrovaném připojení HMS '<connectionName>'. Aktualizovat lze pouze warehouse_directory.
UC_CANNOT_RENAME_PARTITION_FILTERING_COLUMN
Přejmenování sloupce <originalLogicalColumn> tabulky se nezdařilo, protože se používá pro filtrování oddílů v <sharedTableName>souboru . Pokud chcete pokračovat, můžete tabulku ze sdílené složky odebrat, přejmenovat sloupec a znovu ji sdílet s požadovanými sloupci filtrování oddílů. To ale může přerušit streamovací dotaz pro vašeho příjemce.
UC_CHILD_CREATION_FORBIDDEN_FOR_NON_UC_CLUSTER
V části <securableType> '<securable>' nelze vytvořit <parentSecurableType> '<parentSecurable>' protože požadavek není z clusteru UC.
UC_CONFLICTING_CONNECTION_ALLOW_LIST_OPTIONS
Nelze vytvořit připojení se seznamem povolených položek, které se překrývají s možností připojení. Hodnota: <conflictingOptions>
UC_CONFLICTING_CONNECTION_OPTIONS
Nelze vytvořit připojení pomocí ověřování uživatelským jménem/heslem i ověřování pomocí oauth současně. Vyberte jednu z nich.
UC_CONNECTION_CREDENTIALS_MAXIMUM_REACHED
Bylo dosaženo maximálního počtu přihlašovacích údajů pro název připojení '<connectionName>'. Před vytvořením nového přihlašovacího údaje odstraňte existující přihlašovací údaje.
UC_CONNECTION_CREDENTIALS_NOT_EXIST_FOR_USER_WITH_LOGIN
Pro připojení '<userIdentity>' nebyly nalezeny přihlašovací údaje pro identitu uživatele ('<connectionName>'). Nejprve se přihlaste k připojení na adrese <connectionPage>
UC_CONNECTION_CREDENTIALS_TYPE_NOT_SUPPORTED
Vytváření přihlašovacích údajů pro zabezpečitelný typ '<securableType>' není podporováno. Podporované zabezpečené typy: <allowedSecurableType>.
UC_CONNECTION_EXISTS_FOR_CREDENTIAL
Přihlašovací údaj '<credentialName>' má jedno nebo více závislých připojení. Můžete použít vynucenou možnost pokračovat v aktualizaci nebo odstranění přihlašovacích údajů, ale připojení používající tyto přihlašovací údaje už nemusí fungovat.
UC_CONNECTION_EXPIRED_ACCESS_TOKEN
Platnost přístupového tokenu přidruženého k připojení vypršela. Aktualizujte připojení a restartujte tok OAuth, aby se získal token.
UC_CONNECTION_EXPIRED_REFRESH_TOKEN
Platnost obnovovacího tokenu přidruženého k připojení vypršela. Aktualizujte připojení, aby se restartoval tok OAuth, který načte nový token.
UC_CONNECTION_IN_FAILED_STATE
Připojení je ve stavu FAILED. Aktualizujte připojení platnými přihlašovacími údaji a znovu ho aktivujte.
UC_CONNECTION_MISSING_OPTION
Připojení zabezpečitelného typu '<securableType>' musí obsahovat následující možnosti: <requiredOptions>.
UC_CONNECTION_MISSING_REFRESH_TOKEN
K připojení není přidružený žádný obnovovací token. Aktualizujte integraci klienta OAuth ve vašem zprostředkovateli identity tak, aby vracela obnovovací tokeny, a aktualizujte nebo znovu vytvořte připojení, aby se restartoval tok OAuth a načetl potřebné tokeny.
UC_CONNECTION_OAUTH_EXCHANGE_FAILED
Výměna tokenu OAuth selhala se stavovým kódem HTTP <httpStatus>. Vrácená odpověď serveru nebo zpráva o výjimce je: <response>
UC_CONNECTION_OPTION_NOT_SUPPORTED
Připojení zabezpečitelného typu '<securableType>' nepodporují následující možnosti: <optionsNotSupported>. Podporované možnosti: <allowedOptions>.
UC_COORDINATED_COMMITS_NOT_ENABLED
Podpory pro koordinované commity nejsou povoleny. Kontaktujte prosím podporu Databricks.
UC_CREATE_FORBIDDEN_UNDER_INACTIVE_SECURABLE
Nelze vytvořit <securableType> '<securableName>' protože je pod <parentSecurableType> '<parentSecurableName>', který není aktivní. Odstraňte nadřazenou zabezpečitelnou položku a znovu vytvořte nadřazenou položku.
UC_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED
Nepodařilo se analyzovat zadané ID přístupového konektoru: <accessConnectorId>. Ověřte jeho formátování a zkuste to znovu.
UC_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN
Získání tokenu AAD pro ověření oprávnění cloudu u přístupového konektoru se nezdařilo. Zkuste akci zopakovat.
UC_CREDENTIAL_INVALID_CLOUD_PERMISSIONS
SQLSTATE: žádný přiřazený
Registrace přihlašovacího údaje vyžaduje roli přispěvatele u odpovídajícího přístupového konektoru s ID <accessConnectorId>. Obraťte se na správce účtu.
UC_CREDENTIAL_INVALID_CREDENTIAL_TYPE_FOR_PURPOSE
Typ přihlašovacích údajů '<credentialType>' není pro účely '<credentialPurpose>' podporován.
UC_CREDENTIAL_PERMISSION_DENIED
SQLSTATE: žádný přiřazený
Přihlašovací údaje typu <storageCredentialType>může vytvořit nebo aktualizovat pouze správce účtu.
UC_CREDENTIAL_TRUST_POLICY_IS_OPEN
Zásady důvěryhodné role IAM, které umožňují účtu Databricks převzít roli, by měly vyžadovat externí ID. Obraťte se na správce účtu, pokud potřebujete přidat podmínku externího ID. Toto chování má chránit před problémem zmateného zástupce (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html).
UC_CREDENTIAL_WORKSPACE_API_PROHIBITED
Vytvoření nebo aktualizace přihlašovacích údajů jako správce bez účtu se v rozhraní API na úrovni účtu nepodporuje. Místo toho použijte rozhraní API na úrovni pracovního prostoru.
UC_DBR_TRUST_VERSION_TOO_OLD
Použitá databricks Runtime už tuto operaci nepodporuje. Použijte prosím nejnovější verzi (možná budete muset restartovat cluster).
UC_DELTA_ILLEGAL_BACKFILLED_VERSION
Neočekávaná nejnovější verzeBackfilledVersion <latestBackfilledVersion> pro potvrzení (<version>, <commitType>).
UC_DELTA_ILLEGAL_CONCURRENT_MIGRATION
Souběžný upgrade nebo downgrade na nebo z tabulky spravované katalogem se nepodporuje. Ujistěte se, že najednou spustí příkaz migrace pouze jedna transakce. Byla zjištěna duplicitní položka <commitType> .
UC_DELTA_ILLEGAL_MIGRATION_STATE_CHANGE
Neplatný přechod stavu ze starého typu <lastCommitType> potvrzení na nový <commitType>.
UC_DELTA_MIGRATION_STATE_CHANGE_VERSION_MISMATCH
Verze se neshodují s přechodem stavu ze starého (<lastVersion>, <lastCommitType>) na nový (<version>, <commitType>).
UC_DELTA_UNIVERSAL_FORMAT_CANNOT_PARSE_ICEBERG_VERSION
Nelze analyzovat verzi tabulky Apache Iceberg z umístění metadat <metadataLocation>.
UC_DELTA_UNIVERSAL_FORMAT_CONCURRENT_WRITE
Byla zjištěna souběžná aktualizace stejné verze metadat Apache Icebergu.
UC_DELTA_UNIVERSAL_FORMAT_INVALID_METADATA_LOCATION
Umístění přidělených metadat <metadataLocation> je neplatné. Nejedná se o podadresář kořenového adresáře <tableRoot>tabulky .
UC_DELTA_UNIVERSAL_FORMAT_MISSING_FIELD_CONSTRAINT
Zadané rozdílové informace o převodu formátu Apache Iceberg chybí požadovaná pole.
UC_DELTA_UNIVERSAL_FORMAT_NON_CREATE_CONSTRAINT
Nastavení rozdílových informací o formátu Apache Iceberg při vytváření není podporováno.
UC_DELTA_UNIVERSAL_FORMAT_TOO_LARGE_CONSTRAINT
Poskytnuté informace o převodu formátu Apache Iceberg jsou příliš velké.
UC_DELTA_UNIVERSAL_FORMAT_UPDATE_INVALID
Lze aktualizovat metadata uniform pouze u tabulek Delta s povolenou funkcí uniformy.
UC_DEPENDENCY_DEPTH_LIMIT_EXCEEDED
<resourceType> "<ref>" hloubka překračuje limit (nebo má cyklickou referenci).
UC_DEPENDENCY_DOES_NOT_EXIST
<resourceType> '<ref>' je neplatný, protože některý z podkladových prostředků neexistuje. <cause>
UC_DEPENDENCY_PERMISSION_DENIED
<resourceType> '<ref>' nemá dostatečná oprávnění ke spuštění, protože vlastník některého z podkladových prostředků selhal při kontrole autorizace. <cause>
UC_DUPLICATE_CONNECTION
Připojení s názvem '<connectionName>' se stejnou adresou URL již existuje. Požádejte vlastníka, aby místo vytvoření duplikátu použil toto připojení.
UC_DUPLICATE_FABRIC_CATALOG_CREATION
Byl učiněn pokus vytvořit katalog Fabric s adresou URL '<storageLocation>', který odpovídá existujícímu katalogu, což není dovoleno.
UC_DUPLICATE_TAG_ASSIGNMENT_CREATION
Přiřazení tagu s klíčem tagu <tagKey> již existuje.
UC_ENTITY_DOES_NOT_HAVE_CORRESPONDING_ONLINE_CLUSTER
Entita <securableType> <entityId> nemá odpovídající online cluster.
UC_ETAG_MISMATCH
Zdroj byl změněn. Načtěte nejnovější jmenovku a zkuste to znovu. Očekávaná hodnota značky etag: <expectedTokenValue> s verzí <expectedTokenVersion>protokolu , přijatou hodnotou etag: <providedTokenValue> s verzí protokolu <providedTokenVersion>
UC_EXCEEDS_MAX_FILE_LIMIT
Existuje více než <maxFileResults> souborů. Zadejte [max_results] a omezte počet vrácených souborů.
UC_EXTERNAL_HMS_SCHEMA_LOCATION_NOT_FEDERATED
Schéma <schemaName> je ve DEGRADED stavu zřizování, které se očekává, protože umístění schématu eHMS / Připevnění není federované.
UC_EXTERNAL_LOCATION_OP_NOT_ALLOWED
Nelze <opName> <extLoc> <reason>.
<suggestion>.
UC_FEATURE_DISABLED
<featureName> je momentálně v UC zakázaná.
UC_FOREIGN_CATALOG_FOR_CONNECTION_TYPE_NOT_SUPPORTED
Vytvoření cizího katalogu pro typ připojení '<connectionType>' není podporováno. Tento typ připojení lze použít pouze k vytvoření spravovaných kanálů příjmu dat. Další informace najdete v dokumentaci k Databricks.
UC_FOREIGN_CREDENTIAL_CHECK_ONLY_FOR_READ_OPERATIONS
Pro cizí tabulky je možné načíst pouze přihlašovací údaje pro čtení.
UC_FOREIGN_ENTITY_CREATION_FORBIDDEN_DURING_CONVERSION
Vytváření FOREIGN <securableType> '<entityName>' v katalogu '<catalogName>' je zakázáno, zatímco katalog je převeden z FOREIGN .STANDARD
UC_FOREIGN_HMS_SHALLOW_CLONE_MISMATCH
Základní tabulka a klonovací tabulka musí být ve stejném katalogu pro mělké klony vytvořené v cizích katalogech Metastore Hive. Základní tabulka '<baseTableName>' je v katalogu '<baseCatalogName>' a klonovací tabulka '<cloneTableName>' je v katalogu '<cloneCatalogName>'.
UC_FOREIGN_KEY_CHILD_COLUMN_LENGTH_MISMATCH
Cizí klíč <constraintName> má podřízené a nadřazené sloupce různých velikostí.
UC_FOREIGN_KEY_COLUMN_MISMATCH
Nadřazené sloupce cizího klíče neodpovídají odkazovaným podřízeným sloupcům primárního klíče. Nadřazené sloupce cizího klíče jsou (<parentColumns>) a podřízené sloupce primárního klíče jsou (<primaryKeyChildColumns>).
UC_FOREIGN_KEY_COLUMN_TYPE_MISMATCH
Typ cizího klíče ve sloupci dítěte neodpovídá typu ve sloupci rodiče. Sloupec cizího klíče potomek <childColumnName> má typ <childColumnType> a sloupec rodiče <parentColumnName> má typ <parentColumnType>.
UC_GCP_INVALID_PRIVATE_KEY
Přístup byl odepřen. Příčina: Privátní klíč účtu služby je neplatný.
UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT
Privátní klíč účtu serveru Google Server OAuth musí být platný JSON objekt s požadovanými poli. Nezapomeňte zadat úplný JSON soubor vygenerovaný v části KLÍČE na stránce s podrobnostmi o účtu služby.
UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT_MISSING_FIELDS
Privátní klíč účtu serveru Google Server OAuth musí být platný JSON objekt s požadovanými poli. Nezapomeňte zadat úplný JSON soubor vygenerovaný v části KLÍČE na stránce s podrobnostmi o účtu služby. Chybějící pole jsou <missingFields>
UC_IAM_ROLE_NON_SELF_ASSUMING
Zjistili jsme, že role IAM pro tyto přihlašovací údaje úložiště není samoobslužná. Zkontrolujte vztah důvěryhodnosti vaší role a zásady IAM a ujistěte se, že se vaše role IAM může převzít sama podle dokumentace k přihlašovacím údajům k úložišti katalogu Unity.
UC_ICEBERG_COMMIT_CONFLICT
Nelze potvrdit <tableName>: umístění metadat <baseMetadataLocation> se změnilo z <catalogMetadataLocation>.
UC_ICEBERG_COMMIT_INVALID_TABLE
Nelze provést potvrzení spravovaného Apache Icebergu do tabulky Apache Iceberg, která není spravovaná: <tableName>.
UC_ICEBERG_COMMIT_MISSING_FIELD_CONSTRAINT
Poskytnuté informace o potvrzení Apache Iceberg spravovaný postrádají požadovaná pole.
UC_ID_MISMATCH
<type> <name> nemá ID <wrongId>. Zkuste operaci zopakovat.
UC_INFORMATION_SCHEMA_PER_METASTORE_DB_RATE_LIMIT_EXCEEDED
Příliš mnoho žádostí o schéma informací pro metastor. Počkejte prosím chvilku a zkuste to znovu. Pokud problém přetrvává, zvažte úpravu selektivity dotazů nebo kontaktování podpory ohledně pomoci.
UC_INVALID_ACCESS_BRICKSTORE_ONLINE_TABLE_DEPRECATION
Online tabulka je zastaralá. Získání přístupu k online tabulce <securableName> se už nepodporuje.
UC_INVALID_ACCESS_BRICKSTORE_PG_CONNECTION
Neplatný přístup k instanci databáze <reason>
UC_INVALID_ACCESS_DBFS_ENTITY
Neplatný přístup <securableType> <securableName> ve federovaném katalogu <catalogName>. <reason>
UC_INVALID_AZURE_PATH
Neplatná cesta Azure: <path>
UC_INVALID_CLOUDFLARE_ACCOUNT_ID
Neplatné ID účtu Cloudflare
UC_INVALID_CREDENTIAL_CLOUD
Neplatný poskytovatel<cloud> cloudu přihlašovacích údajů Povolený poskytovatel<allowedCloud> cloudu.
UC_INVALID_CREDENTIAL_PURPOSE_VALUE
Neplatná hodnota '<value>' pro účel přihlašovacích údajů. Povolené hodnoty '<allowedValues>'.
UC_INVALID_CREDENTIAL_TRANSITION
Nelze aktualizovat připojení z <startingCredentialType> na <endingCredentialType>. Jediným platným přechodem je připojení založené na uživatelském jménu a heslem k připojení založenému na tokenu OAuth.
UC_INVALID_CRON_STRING_FABRIC
Neplatný řetězec cron. Nalezeno: '<cronString>' s výjimkou při analýze: '<message>'
UC_INVALID_DIRECT_ACCESS_MANAGED_TABLE
Neplatná řízená tabulka pro přímý přístup <tableName>. Ujistěte se, že definice pipeline zdrojové tabulky & nejsou definovány.
UC_INVALID_EMPTY_STORAGE_LOCATION
Neočekávané prázdné úložné místo pro <securableType> '<securableName>' v katalogu '<catalogName>'. Pokud chcete tuto chybu opravit, spusťte DESCRIBE SCHEMA <catalogName>.
<securableName> a aktualizujte tuto stránku.
UC_INVALID_OPTIONS_UPDATE
Byly poskytnuty neplatné možnosti pro aktualizaci. Neplatné možnosti: <invalidOptions>. Povolené možnosti: <allowedOptions>.
UC_INVALID_OPTION_VALUE
Neplatná hodnota '<value>' pro '<option>' Povolené hodnoty '<allowedValues>'.
UC_INVALID_OPTION_VALUE_EMPTY
'<option>' nemůže být prázdný. Zadejte neprázdnou hodnotu.
UC_INVALID_POLICY_CONDITION
Neplatná podmínka v zásadě '<policyName>'. Chyba kompilace se zprávou '<message>'.
UC_INVALID_R2_ACCESS_KEY_ID
Neplatné ID přístupového klíče R2
UC_INVALID_R2_SECRET_ACCESS_KEY
Neplatný přístupový klíč R2
UC_INVALID_UPDATE_ON_SYSTEM_WORKSPACE_ADMIN_GROUP_OWNED_SECURABLE
Nelze aktualizovat <securableType> "<securableName>" ve vlastnictví interní skupiny. Další podrobnosti vám poskytne podpora Databricks.
UC_INVALID_WASBS_EXTERNAL_LOCATION_STORAGE_CREDENTIAL
Za předpokladu, že přihlašovací údaje úložiště <storageCredentialName> nejsou přidružené ke kořenovému adresáři DBFS, je zakázáno vytváření externího umístění wasbs.
UC_LOCATION_INVALID_SCHEME
Umístění úložiště má neplatné schéma identifikátorů URI: <scheme>.
UC_MALFORMED_OAUTH_SERVER_RESPONSE
V odpovědi ze serveru tokenů chybělo pole <missingField>. Vrácená odpověď serveru je: <response>
UC_MANAGED_ICEBERG_UNSUPPORTED
V aktuálním koncovém bodu nelze podporovat spravovanou tabulku Apache Iceberg.
UC_METASTORE_ASSIGNMENT_STATUS_INVALID
'<metastoreAssignmentStatus>' nelze přiřadit. Podporují se jenom MANUALLY_ASSIGNABLE a AUTO_ASSIGNMENT_ENABLED.
UC_METASTORE_CERTIFICATION_NOT_ENABLED
Certifikace metastoru není povolená.
UC_METASTORE_HAS_ACTIVE_MANAGED_ONLINE_CATALOGS
SQLSTATE: žádný přiřazený
Metastore <metastoreId> má <numberManagedOnlineCatalogs> spravované online katalogy. Výslovně je odstraňte a pak zkuste odstranění metastoru zopakovat.
UC_METASTORE_QUOTA_EXCEEDED
Tento účet s ID <accountId> dosáhl limitu pro metastory v oblasti <region>.
UC_METASTORE_STORAGE_ROOT_CREDENTIAL_UPDATE_INVALID
Při aktualizaci kořenového umístění metastoru nelze definovat přihlašovací údaje kořenového úložiště metastoru. Ověřovací údaje se načítají z nadřazeného externího umístění úložiště metaúdajů.
UC_METASTORE_STORAGE_ROOT_DELETION_INVALID
Odstranění kořenového adresáře úložiště metadat se nezdařilo. <reason>
UC_METASTORE_STORAGE_ROOT_READ_ONLY_INVALID
Kořenový <securableType> pro metastore nemůže být pouze pro čtení.
UC_METASTORE_STORAGE_ROOT_UPDATE_INVALID
Kořenový adresář úložiště metastoru nelze po nastavení aktualizovat.
UC_MODEL_INVALID_STATE
Nelze vygenerovat dočasné<opName> přihlašovací údaje pro verzi <modelVersion> modelu se stavem <modelVersionStatus>. Přihlašovací údaje '<opName>' lze vygenerovat pouze pro verze modelu se stavem. <validStatus>
UC_NATIVE_USING_REF_OF_ABAC_MASKED_COLUMNS
Při vyhodnocování zásad ABAC na '<resource>' došlo k chybě. Zpráva se nezdařila: Sloupec '<usingCol>' byl maskován zásadami ABAC '<policyName>' a nelze ho použít jako vstup do nativní zásady RLS/CM.
UC_NO_ORG_ID_IN_CONTEXT
Byl učiněn pokus o přístup k ID organizace (nebo ID pracovního prostoru), kontext však žádný neexistuje.
UC_ONELAKE_PATH_BAD_DOMAIN
Cesta<path> Azure OneLake musí mít název<expectedHost> domény.
UC_ONELAKE_PATH_BAD_FORMAT
Cesta<path> Azure OneLake musí mít formát abfss://_WORKSPACE_@<host>/.
UC_ONELAKE_PATH_MISSING_AT
Cesta<path> Azure OneLake neobsahuje znak @.
UC_ONELAKE_PATH_MISSING_WORKSPACE
Cesta<path> Azure OneLake musí obsahovat název pracovního prostoru.
UC_ONLINE_CATALOG_NOT_MUTABLE
SQLSTATE: žádný přiřazený
Požadavek <rpcName> aktualizuje <fieldName>. Použijte kartu pro výpočty v online obchodě ke změně čehokoli jiného než komentáře, vlastníka a izolačního režimu online katalogu.
UC_ONLINE_CATALOG_QUOTA_EXCEEDED
Nelze vytvořit více než <quota> online obchodů v metastoru; již existuje <currentCount>. Možná nemáte přístup k žádným existujícím online obchodům. Požádejte správce metastoru o udělení přístupu nebo další pokyny.
UC_ONLINE_INDEX_CATALOG_INVALID_CRUD
SQLSTATE: žádný přiřazený
online katalogy indexů musí být označeny jako <action> prostřednictvím rozhraní API /vector-search.
UC_ONLINE_INDEX_CATALOG_NOT_MUTABLE
SQLSTATE: žádný přiřazený
Požadavek <rpcName> aktualizuje <fieldName>. Pomocí rozhraní API /vector-search můžete upravit cokoli jiného než komentář, vlastníka a isolationMode online indexového katalogu.
UC_ONLINE_INDEX_CATALOG_QUOTA_EXCEEDED
V metastoru nelze vytvořit více než <quota> online indexových katalogů a již existuje <currentCount>. Možná nemáte přístup k žádným existujícím online katalogům indexů. Požádejte správce metastoru o udělení přístupu nebo další pokyny.
UC_ONLINE_INDEX_INVALID_CRUD
online indexy musí být vytvořeny jako <action> prostřednictvím rozhraní API /vector-search.
UC_ONLINE_STORE_INVALID_CRUD
SQLSTATE: žádný přiřazený
online obchody musí provést <action> prostřednictvím karty výpočtů online obchodu.
UC_ONLINE_TABLE_COLUMN_NAME_TOO_LONG
Název sloupce zdrojové tabulky <columnName> je příliš dlouhý. Maximální délka je <maxLength> znaků.
UC_ONLINE_TABLE_PRIMARY_KEY_COLUMN_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT
Sloupec <columnName> nelze použít jako sloupec primárního klíče online tabulky, protože není součástí existujícího PRIMARY KEY omezení zdrojové tabulky. Podrobnosti najdete v tématu <docLink>
UC_ONLINE_TABLE_TIMESERIES_KEY_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT
Sloupec <columnName> nelze použít jako klíč časového období online tabulky, protože se nejedná o sloupec timeseries existujícího PRIMARY KEY omezení zdrojové tabulky. Podrobnosti najdete v tématu <docLink>
UC_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED
Nelze vytvořit více než <quota> online tabulek pro jednu zdrojovou tabulku.
UC_ONLINE_VIEW_ACCESS_DENIED
Přístup k prostředkům <resourceName> vyžaduje použití bezserverového SQL Warehouse. Ujistěte se, že sklad použitý k provedení dotazu nebo zobrazení katalogu databáze v uživatelském rozhraní je bezserverový. Podrobnosti najdete v tématu <docLink>
UC_ONLINE_VIEW_CONTINUOUS_QUOTA_EXCEEDED
Nelze vytvořit více než <quota> nepřetržitých online zobrazení v online obchodě, a již existuje <currentCount>. Možná nebudete mít přístup k žádným existujícím online zobrazením. Požádejte správce online obchodu o udělení přístupu nebo další pokyny.
UC_ONLINE_VIEW_DOES_NOT_SUPPORT_DMK
SQLSTATE: žádný přiřazený
<tableKind> nelze vytvořit v místě úložiště se spravovanými klíči Databricks. Zvolte jiné schéma nebo katalog v umístění úložiště bez šifrování pomocí spravovaných klíčů od Databricks.
UC_ONLINE_VIEW_INVALID_CATALOG
Neplatný katalog <catalogName> s typem <catalogKind> pro vytvoření <tableKind> uvnitř.
<tableKind> lze vytvořit pouze v katalogu typů: <validCatalogKinds>.
UC_ONLINE_VIEW_INVALID_SCHEMA
Neplatné schéma <schemaName> s druhem <schemaKind> pro vytvoření <tableKind> v rámci.
<tableKind> lze vytvořit pouze ve schématech typů: <validSchemaKinds>.
UC_ONLINE_VIEW_INVALID_TTL_TIME_COLUMN_TYPE
Sloupec <columnName> typu <columnType> nelze použít jako časový sloupec TTL. Povolené typy jsou <supportedTypes>.
UC_OPERATION_NOT_SUPPORTED
Operace není podporována katalogem Unity. <detailedMessage>
UC_OUT_OF_AUTHORIZED_PATHS_SCOPE
Chyba v autorizované cestě. Umístění <securableType><location> není v rámci autorizovaných cest pro katalog <catalogName>definováno. Požádejte vlastníka katalogu, aby přidal cestu do seznamu autorizovaných cest definovaných v katalogu.
UC_OVERLAPPED_AUTHORIZED_PATHS
Možnost authorized_paths obsahuje překrývající se cesty: <overlappingPaths>. Zajistěte, aby každá cesta byla jedinečná a neprotíná s ostatními v seznamu.
UC_PAGINATION_AND_QUERY_ARGS_MISMATCH
Argument dotazu '<arg>' je nastaven na '<received>' což se liší od hodnoty použité v prvním volání stránkování ('<expected>).
UC_PATH_FILTER_ALLOWLIST_VIOLATION
Přihlašovací údaje '<credentialName>' jsou výchozí přihlašovací údaje pracovního prostoru, které mají povolený přístup pouze k datům v následujících cestách: <allowlist>. Ujistěte se, že všechny cesty, ke kterým se přistupuje pomocí těchto přihlašovacích údajů, jsou pod jednou z těchto cest.
UC_PATH_FILTER_SEZNAM_ODMITANI_PORUSENI
Přihlašovací údaje '<credentialName>' jsou výchozí přihlašovací údaje pracovního prostoru, které nemají přístup k datům v následující omezené cestě: '<targetPath>'.
UC_PATH_TOO_LONG
Vstupní cesta je příliš dlouhá. Povolená délka: <maxLength>. Vstupní délka: <inputLength>. Vstup: <path>...
UC_PER_METASTORE_DATABASE_CONCURRENCY_LIMIT_EXCEEDED
Byl překročen limit souběžnosti metastoru <metastoreId>. Zkuste to prosím znovu později. Pokud problém přetrvává, obraťte se prosím na podporu. Kód chyby #UC-<errorCodeArbitraryFiveLettersUpperCase>
UC_POSTGRESQL_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED
Nelze vytvořit více než <quota> synchronizovaných databázových tabulek na zdrojovou tabulku.
UC_PRIMARY_KEY_ON_NULLABLE_COLUMN
Primární klíč nelze vytvořit <constraintName>, protože jeho podřízené sloupce <childColumnNames> mají hodnotu null. Změňte hodnotu null sloupce a zkuste to znovu.
UC_REQUEST_LIMIT_EXCEEDED
Vaše žádost byla odmítnuta, protože vaše organizace překročila limit rychlosti. Zkuste žádost zopakovat později.
UC_REQUEST_TIMEOUT
Tato operace trvala příliš dlouho.
UC_RESOURCE_QUOTA_EXCEEDED
Nelze vytvořit <amount> <resourceType>(s) v <parentResourceType> <parentResourceId> (odhadovaný počet: <currentCount>, limit: <quotaLimit>).
UC_ROOT_STORAGE_S3_BUCKET_NAME_CONTAINS_DOT
Katalog Unity nepodporuje S3 bucket kořenového úložiště, jehož název obsahuje tečky: <uri>
UC_SCHEMA_EMPTY_STORAGE_LOCATION
Neočekávané prázdné umístění úložiště pro schéma '<schemaName>' v katalogu '<catalogName>'. Ujistěte se, že schéma používá schéma cesty <validPathSchemesListStr>.
UC_SERVERLESS_UNTRUSTED_DOMAIN_STORAGE_TOKEN_MINTING
Bezserverové poznámkové bloky Python a Scala nesmí v pracovních prostorech s omezeným přístupem k síti načítat dočasné přihlašovací údaje úložiště z katalogu Unity.
UC_SHALLOW_CLONE_BASE_TABLE_DELETED
Nelze získat přístup k mělkému klonu ''<tableFullName>, protože jeho základní tabulka '<baseTableName>' byla odstraněna.
STORAGE_CREDENTIALSUC__WITH_EXTERNAL_LOCATION_DELETION_DENIED
Přihlašovací údaje úložiště '<credentialName>' mají <extTablesCount> přímo závislé externí tabulky a <extLocationsCount> závislá umístění úložiště. Můžete použít volbu vynucení k odstranění, ale data spravovaná tímto úložným přihlašovacím údajem již nelze odstranit pomocí katalogu Unity.
STORAGE_CREDENTIALSUC__WITH_EXTERNAL_LOCATION_UPDATE_DENIED
Přihlašovací údaje úložiště '<credentialName>' mají <extTablesCount> přímo závislé externí tabulky a <extLocationsCount> závislá úložišťová umístění; použijte proto možnost vynucení k aktualizaci.
UC_STORAGE_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED
Nepodařilo se analyzovat zadané ID přístupového konektoru: <accessConnectorId>. Ověřte jeho formátování a zkuste to znovu.
UC_STORAGE_CREDENTIAL_DBFS_ROOT_CREATION_PERMISSION_DENIED
Nelze vytvořit přihlašovací údaje úložiště pro kořen DBFS, protože uživatel: <userId> není správcem pracovního prostoru: <workspaceId>
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_DBFS_ENABLED
Přihlašovací údaje kořenového úložiště DBFS nejsou dosud podporovány pro pracovní prostory s povoleným firewallem DBFS.
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_NOT_SUPPORTED
Přihlašovací údaje kořenového úložiště DBFS pro aktuální pracovní prostor se zatím nepodporují.
UC_STORAGE_CREDENTIAL_DBFS_ROOT_WORKSPACE_DISABLED
Kořenový adresář DBFS není povolený pro pracovní prostor <workspaceId>
UC_STORAGE_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN
Získání tokenu AAD pro ověření oprávnění cloudu u přístupového konektoru se nezdařilo. Zkuste akci zopakovat.
UC_STORAGE_CREDENTIAL_INVALID_CLOUD_PERMISSIONS
Registrace přihlašovacích údajů úložiště vyžaduje roli přispěvatele u odpovídajícího přístupového konektoru s ID <accessConnectorId>. Obraťte se na správce účtu.
Není povoleno smazání úložišťových přihlašovacích údajů v kořenovém metastore.
Přihlašovací údaje úložiště nelze<credentialName> odstranit, protože jsou nakonfigurované jako kořenové přihlašovací údaje tohoto metastoru. Před pokusem o odstranění aktualizujte kořenové přihlašovací údaje metastoru.
UC_STORAGE_CREDENTIAL_PERMISSION_DENIED
Přihlašovací údaje úložiště může vytvořit nebo aktualizovat pouze správce účtu s typem <storageCredentialType>.
UC_STORAGE_CREDENTIAL_SERVICE_PRINCIPAL_MISSING_VALIDATION_TOKEN
Chybí ověřovací token pro aplikační identitu. V hlavičce požadavku 'X-Databricks-Azure-SP-Management-Token' zadejte platný token Entra ID s rozsahem ARM a zkuste znovu. Podrobnosti viz https://docs.databricks.com/api/workspace/storagecredentials
UC_STORAGE_CREDENTIAL_TRUST_POLICY_IS_OPEN
Zásady důvěryhodné role IAM, které umožňují účtu Databricks převzít roli, by měly vyžadovat externí ID. Obraťte se na správce účtu, pokud potřebujete přidat podmínku externího ID. Toto chování má chránit před problémem zmateného zástupce (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html).
UC_STORAGE_CREDENTIAL_WASBS_NOT_DBFS_ROOT
Umístění <location> není v kořenovém adresáři DBFS, protože nemůžeme vytvořit přihlašovací údaje úložiště. <storageCredentialName>
UC_STORAGE_CREDENTIAL_WORKSPACE_API_PROHIBITED
Vytvoření nebo aktualizace přihlašovacích údajů úložiště jako správce jiného účtu se v rozhraní API na úrovni účtu nepodporuje. Místo toho použijte rozhraní API na úrovni pracovního prostoru.
UC_STORAGE_CREDENTIAL_WS_BUCKET_INVALID_LOCATION
Umístění <requestedLocation> není uvnitř povoleného kontextu. <allowedLocation>
UC_STORAGE_CREDENTIAL_WS_INTERNAL_CATALOG_NOT_SUPPORTED
Přihlašovací údaje k úložišti vnitřního katalogu prostředí pro aktuální pracovní prostor zatím nejsou podporovány.
Systémové schéma UC není dostupné pro aktivaci
Systémové schéma <systemSchema> není aktuálně k dispozici pro povolení. Zkuste to prosím znovu později.
UC_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED
Nelze udělit oprávnění na <securableType> systémem generované skupině <principal>.
UC_TABLE_IS_LOCKED_FOR_CATALOG_MANAGED_TABLE_MIGRATION
Tabulka '<tableId>' je dočasně uzamčena pro migraci tabulek spravovaných katalogem. Transakce v této tabulce se zablokují, dokud se migrace neskonjí. Za chvíli zkuste transakci zopakovat.
UC_TABLE_IS_NOT_CATALOG_OWNED
Požadavek na provedení potvrzení/getCommits pro tabulku '<tableId>' vyžaduje povolení funkce vlastněné katalogem na této tabulce.
UC_TAG_ASSIGNMENT_WITH_KEY_DOES_NOT_EXIST
Přiřazení značky s klíčem značky <tagKey> neexistuje
UC_TEMPORARY_CREDENTIAL_OPERATION_NOT_SUPPORTED
Operace s dočasnými přihlašovacími údaji není podporována.
UC_UNDROP_RESOURCE_ID_ALREADY_EXISTS
Nelze navrátit '<resourceType>', protože '<resourceType>' s ID '<resourceId>' již existuje.
UC_UNDROP_RESOURCE_NAME_ALREADY_EXISTS
Nelze vrátit zpět '<resourceType> protože '<resourceType>' s názvem '<resourceName>' již existuje.
UC_UNDROP_RESOURCE_NOT_READY
Nelze obnovit '<resourceType>', protože '<resourceType>' s ID '<resourceId>' není připraveno k vrácení, zkuste to prosím znovu později.
UC_NÁVRAT_ZDROJE_PO_UPLYNUTÍ_VLASTNÍ_UDRŽENÍ
Nelze obnovit '<resourceType>', protože '<resourceType>' s ID '<resourceId>' je nad rámec vlastního období obnovení.
UC_UNDROP_RESOURCE_PAST_RECOVERABLE_WINDOW
Nelze obnovit '<resourceType>', protože '<resourceType>' s ID '<resourceId>' je nad rámec podporované doby obnovení '<maxRestorationPeriodDay>' dnů.
UC_Unique_Constraint_Dětské_Sloupec_Již_Existují
Nebylo možné vytvořit omezení UNIQUE<newConstraintName>: tabulka <tableName> již obsahuje omezení UNIQUE: <existingConstraintName>, které má stejnou sadu podřízených sloupců.
Omezení uniqueness UC není podporováno
Operace s UNIQUE omezením <constraintName>se nezdařila: UNIQUE omezení není povoleno.
UC_UNSUPPORTED_HTTP_CONNECTION_BASE_PATH
Byla poskytnuta neplatná základní cesta, základní cesta by měla být například /api/resources/v1. Nepodporovaná cesta: <path>
UC_UNSUPPORTED_HTTP_CONNECTION_HOST
Zadaný název hostitele je neplatný; název hostitele by měl být ve formátu jako https://www.databricks.com bez přípony cesty. Nepodporovaný hostitel: <host>
UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH
Ve vnějších umístěních, svazcích nebo tabulkách jsou podporovány pouze základní znaky latiny nebo latiny-1 ASCII. Nepodporovaná cesta: <path>
UC_UPDATE_FORBIDDEN_FOR_PROVISIONING_SECURABLE
Nelze aktualizovat <securableType> '<securableName>' protože je zřízen.
UC_USING_REF_OF_MASKED_COLUMNS
Při vyhodnocování zásad ABAC na '<resource>' došlo k chybě. Zpráva se nezdařila: Sloupec "<usingCol>" byl maskován zásadou ABAC a<existingMaskingPolicy> nelze ho použít v zásadách '<policyName>'.
UC_WRITE_CONFLICT
<type> <name> byl změněn jiným požadavkem. Zkuste operaci zopakovat.
UNDROP_TABLE_NOT_FOUND
Tabulku nelze vrátit zpět, protože žádná tabulka s názvem <tableFullName> není k dispozici pro vrácení zpět. Tato tabulka může být již rozbalena, odstraněna za maximální dobu obnovení nebo nikdy neexistovala.
UNITY_CATALOG_EXTERNAL_COORDINATED_COMMITS_REQUEST_DENIED
Požadavek na provedení operace commit nebo getCommits pro tabulku "<tableId>" mimo toto výpočetní prostředí s povoleným Unity Catalogem Databricks je odepřen z důvodu zabezpečení. Obraťte se na podporu Databricks a požádejte o integraci s katalogem Unity.
UNITY_CATALOG_EXTERNAL_CREATE_STAGING_TABLE_REQUEST_DENIED
Žádost o vytvoření pracovní tabulky mimo<tableFullName> výpočetní prostředí s povolenou službou Databricks Unity Catalog je pro zabezpečení odepřena. Obraťte se na podporu Databricks a požádejte o integraci s katalogem Unity.
COLUMN_MASKSUNITY_CATALOG_EXTERNAL_CREATE_TABLE_FAILED_VALIDATION__DEFINED
Žádost o vytvoření tabulky '<tableFullName>' mimo výpočetní prostředí s povoleným Unity Catalog Databricks je odepřena. Při externím vytváření tabulek se masky sloupců nepodporují.
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_CHYBA_OVĚŘENÍ_ZDROJ_DAT_FORMAT_NENÍ_DELTA
Žádost o vytvoření tabulky '<tableFullName>' mimo výpočetní prostředí s povoleným Unity Catalog Databricks je odepřena. Formát zdroje dat musí být DELTA k externímu vytvoření tabulky, místo toho se jedná o "<dataSourceFormat>".
UNITY_CATALOG_EXTERNAL_VYTVÁŘENÍ_TABULKY_SE_NEPODAŘILO_VALIDACE_TYP_TABULKY_NENÍ_EXTERNÍ
Žádost o vytvoření tabulky '<tableFullName>' mimo výpočetní prostředí s povoleným Unity Catalog Databricks je odepřena. Typ tabulky musí být EXTERNAL k externímu vytvoření tabulky, místo toho je to '<tableType>'.
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_INFO_OBSAHUJE_NEPLATNÁ_POLE
Vytváření externí tabulky umožňuje pouze tato pole: [název, catalog_name, schema_name, table_type, data_source_format, sloupce, storage_location a vlastnosti].
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED
Žádost o vytvoření neexterní tabulky '<tableFullName>' mimo výpočetní prostředí s povoleným katalogem Unity Databricks je z bezpečnostních důvodů zamítnuta. Obraťte se na podporu Databricks a požádejte o integraci s katalogem Unity.
UNITY_CATALOG_EXTERNAL_DELETE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED
Požadavek na odstranění neexterní tabulky '<tableFullName>' z vnějšího prostředí výpočetního systému s povoleným Databricks Unity Catalog není podporován.
UNITY_CATALOG_EXTERNAL_GENERATE_PATH_CREDENTIALS_DENIED
Žádost o vygenerování přihlašovacích údajů pro přístup pro cestu "<path>' mimo výpočetní prostředí s povoleným katalogem Databricks Unity je pro zabezpečení odepřena. Obraťte se na podporu Databricks a požádejte o integraci s katalogem Unity.
UNITY_CATALOG_EXTERNAL_GENERATE_TABLE_CREDENTIALS_DENIED
Žádost o vygenerování přihlašovacích údajů pro tabulku '<tableId>' mimo výpočetní prostředí s povolenou službou Databricks Unity Catalog je pro zabezpečení odepřena. Obraťte se na podporu Databricks a požádejte o integraci s katalogem Unity.
UNITY_CATALOG_EXTERNAL_GENERATE_TEMP_PATH_CRED_FAILED_VALIDATION_CREDENTIAL_ID_DEFINED
Žádost o vygenerování přihlašovacích údajů dočasné cesty mimo výpočetní prostředí s povolenou službou Databricks Unity Catalog je odepřena. ID přihlašovacích údajů nesmí být definováno při externím generování přihlašovacích údajů pro dočasné cesty.
UNITY_CATALOG_EXTERNAL_GENERATE_TEMP_PATH_CRED_FAILED_VALIDATION_MAKE_PATH_ONLY_PARENT_DEFINED
Žádost o vygenerování přihlašovacích údajů dočasné cesty mimo výpočetní prostředí s povolenou službou Databricks Unity Catalog je odepřena. make_path_only_parent nesmí být definován při externím generování dočasných přihlašovacích údajů pro cestu.
UNITY_CATALOG_EXTERNAL_GENERATE_VOLUME_CREDENTIALS_DENIED
Žádost o vygenerování přihlašovacích údajů pro přístup ke svazku "<volumeId>" z prostředí výpočetního prostředí s povoleným katalogem Databricks Unity je pro zabezpečení odepřena. Obraťte se na podporu Databricks a požádejte o integraci s katalogem Unity.
UNITY_CATALOG_EXTERNAL_GENERATE_VOLUME_CREDENTIALS_FOR_SECURABLE_KIND_NOT_SUPPORTED
Žádost o vygenerování přihlašovacích údajů pro přístup pro<volumeSecurableKind> "' z prostředí výpočetního prostředí s povoleným katalogem Databricks Unity je pro zabezpečení odepřena. Obraťte se na podporu Databricks a požádejte o integraci s katalogem Unity.
UNITY_CATALOG_EXTERNAL_GET_FOREIGN_CREDENTIALS_DENIED
Žádost o získání cizích přihlašovacích údajů pro objekty zabezpečení, pocházející mimo výpočetní prostředí s povoleným katalogem Unity Databricks, je z bezpečnostních důvodů zamítnuta.
UNITY_CATALOG_EXTERNAL_UPDATA_METADATA_SNAPSHOT_DENIED
Žádost o aktualizaci snímků metadat mimo výpočetní prostředí s povolenou službou Databricks Unity Catalog je pro zabezpečení odepřena.
Nepodporované schéma umístění
<fieldName> má neplatné schéma <scheme>identifikátoru URI . Platná schémata identifikátorů URI zahrnují <validSchemes>. Neplatná cesta: <path>.
UPDATE_SYSTEM_TABLE
Tabulku vlastněnou systémem nelze upravit. Tabulka '<tableName>' je tabulka vlastněná systémem.
WRITE_CREDENTIALS_NOT_SUPPORTED_FOR_LEGACY_MANAGED_ONLINE_TABLE
Neplatný požadavek na získání přihlašovacích údajů pro zápis pro spravovanou online tabulku v online katalogu
Files API
FILES_API_API_IS_NOT_ENABLED
SQLSTATE: žádný přiřazený
<api_name> Rozhraní API není povolené.
FILES_API_API_IS_NOT_ENABLED_FOR_CLOUD_PATHS
SQLSTATE: žádný přiřazený
Požadovaná metoda rozhraní Files API není pro cloudové cesty podporována.
FILES_API_AWS_ACCESS_DENIED
SQLSTATE: žádný přiřazený
AWS odepře přístup k kontejneru úložiště.
FILES_API_AWS_ALL_ACCESS_DISABLED
SQLSTATE: žádný přiřazený
Veškerý přístup k kontejneru úložiště byl v AWS zakázán.
FILES_API_AWS_BUCKET_DOES_NOT_EXIST
SQLSTATE: žádný přiřazený
Úložný bucket v AWS neexistuje.
FILES_API_AWS_FORBIDDEN
SQLSTATE: žádný přiřazený
AWS zakáže přístup k kontejneru úložiště.
FILES_API_AWS_INVALID_AUTHORIZATION_HEADER
SQLSTATE: žádný přiřazený
Pracovní prostor je chybně nakonfigurovaný: musí být ve stejné oblasti jako kořenový kontejner úložiště pracovního prostoru AWS.
FILES_API_AWS_INVALID_BUCKET_NAME
SQLSTATE: žádný přiřazený
Název kontejneru úložiště je neplatný.
FILES_API_AWS_KMS_KEY_DISABLED
SQLSTATE: žádný přiřazený
Nakonfigurované klíče KMS pro přístup k úložnému kbelíku jsou v AWS zakázané.
FILES_API_AWS_UNAUTHORIZED
SQLSTATE: žádný přiřazený
Přístup k prostředku AWS není oprávněný.
FILES_API_AZURE_ACCOUNT_IS_DISABLED
SQLSTATE: žádný přiřazený
Účet úložiště je v Azure zakázaný.
FILES_API_AZURE_AUTHORIZATION_PERMISSION_MISMATCH
SQLSTATE: žádný přiřazený
Neshoda mezi oprávněním a autorizací.
FILES_API_AZURE_CMK_NOT_FOUND
SQLSTATE: žádný přiřazený
Spravovaný šifrovací klíč nebyl nalezen.
FILES_API_AZURE_CMK_SOFT_DELETED
SQLSTATE: žádný přiřazený
Spravovaný šifrovací klíč byl obnovitelně odstraněn.
FILES_API_AZURE_CONTAINER_DOES_NOT_EXIST
SQLSTATE: žádný přiřazený
Kontejner Azure neexistuje.
FILES_API_AZURE_CREDENTIAL_NOT_FOUND
SQLSTATE: žádný přiřazený
Přihlašovací údaje Azure se nenašly. Přihlašovací údaje Azure můžou chybět nebo jsou nepřístupné.
FILES_API_AZURE_FORBIDDEN
SQLSTATE: žádný přiřazený
Azure zakáže přístup ke kontejneru úložiště.
FILES_API_AZURE_HAS_A_LEASE
SQLSTATE: žádný přiřazený
Azure odpověděla, že aktuálně existuje pronájem u prostředku. Zkuste to znovu později.
FILES_API_AZURE_INSUFFICIENT_ACCOUNT_PERMISSION
SQLSTATE: žádný přiřazený
Účet, ke který se přistupuje, nemá dostatečná oprávnění ke spuštění této operace.
FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_CONFIGURATION
SQLSTATE: žádný přiřazený
Konfigurace přístupového účtu se nepodporuje.
FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_NAME
SQLSTATE: žádný přiřazený
Nejde získat přístup k účtu úložiště v Azure: neplatný název účtu úložiště.
FILES_API_AZURE_KEY_BASED_AUTHENTICATION_NOT_PERMITTED
SQLSTATE: žádný přiřazený
Úložiště klíčů ve službě Azure nebylo nalezeno. Zkontrolujte nastavení klíčů spravovaných zákazníkem.
FILES_API_AZURE_KEY_VAULT_KEY_NOT_FOUND
SQLSTATE: žádný přiřazený
Klíč trezoru klíčů Azure se v Azure nenašel. Zkontrolujte nastavení klíčů spravovaných zákazníkem.
FILES_API_AZURE_KEY_VAULT_VAULT_NOT_FOUND
SQLSTATE: žádný přiřazený
Úložiště klíčů ve službě Azure nebylo nalezeno. Zkontrolujte nastavení klíčů spravovaných zákazníkem.
FILES_API_AZURE_MI_ACCESS_CONNECTOR_NOT_FOUND
SQLSTATE: žádný přiřazený
Nepodařilo se najít přihlašovací údaje spravované identity Azure s konektorem pro přístup. Důvodem může být to, že řízení přístupu ip adres zamítlo vaši žádost.
FILES_API_AZURE_OPERATION_TIMEOUT
SQLSTATE: žádný přiřazený
Operaci nelze dokončit v povoleném čase.
FILES_API_AZURE_PATH_INVALID
SQLSTATE: žádný přiřazený
Požadovaná cesta není pro Azure platná.
FILES_API_AZURE_PATH_IS_IMMUTABLE
SQLSTATE: žádný přiřazený
Požadovaná cesta je neměnná.
FILES_API_AZURE_UNSUPPORTED_HEADER
SQLSTATE: žádný přiřazený
Jedno ze záhlaví zadaných v operaci není podporováno.
FILES_API_CANNOT_PARSE_URL_PARAMETER
SQLSTATE: žádný přiřazený
Parametr adresy URL nelze analyzovat.
FILES_API_CATALOG_NOT_FOUND
SQLSTATE: žádný přiřazený
<unity_catalog_error_message>
FILES_API_CLOUD_RESOURCE_EXHAUSTED
SQLSTATE: žádný přiřazený
<message>
FILES_API_CLOUD_STORAGE_PROVIDER_CONNECTION_ISSUE
SQLSTATE: žádný přiřazený
Vyskytl se problém s připojením k <cloud_storage_provider>. Zkuste to prosím znovu později.
FILES_API_COLON_IS_NOT_SUPPORTED_IN_PATH
SQLSTATE: žádný přiřazený
Znak ":" není v cestách podporován.
FILES_API_CONSUMER_NETWORK_ZONE_NOT_ALLOWED
SQLSTATE: žádný přiřazený
Zóna spotřebitelské sítě "<consumer_network_zone>" není povolena z přístupové zóny sítě žadatele "<requester_network_zone>".
FILES_API_CONTROL_PLANE_NETWORK_ZONE_NOT_ALLOWED
SQLSTATE: žádný přiřazený
Zóna sítě řídicí roviny Databricks není povolená.
SOUČASNÉ_API_UŽIVATELSKÉ_ÚDAJE_NENALEZENO
SQLSTATE: žádný přiřazený
Přihlašovací údaje nebyly nalezeny.
FILES_API_DIRECTORIES_CANNOT_HAVE_BODIES
SQLSTATE: žádný přiřazený
Byl poskytnut obsah, ale adresáře nemohou mít obsah souboru.
FILES_API_DIRECTORY_IS_NOT_EMPTY
SQLSTATE: žádný přiřazený
Adresář není prázdný. Tato operace není podporována u neprázdných adresářů.
FILES_API_DIRECTORY_IS_NOT_FOUND
SQLSTATE: žádný přiřazený
Adresář, ke který se přistupuje, nebyl nalezen.
LIMIT SOUBORŮ PRO STÁHNUTÍ SOUBORŮ ZIP PŘES API VERZI ADRESÁŘE PŘEKROČEN
SQLSTATE: žádný přiřazený
Adresář obsahuje příliš mnoho souborů ke stažení ZIP. Maximální povolený <max_file_count> počet souborů.
FILES_API_DMK_ENCRYPTION_ROOT_KEY_DISABLED
SQLSTATE: žádný přiřazený
Kořenový klíč šifrování spravovaného zákazníkem je zakázaný.
FILES_API_DUPLICATED_HEADER
SQLSTATE: žádný přiřazený
Požadavek obsahoval více kopií hlavičky, která je povolená pouze jednou.
FILES_API_DUPLICATE_QUERY_PARAMETER
SQLSTATE: žádný přiřazený
Parametr dotazu '<parameter_name> musí být uveden přesně jednou, ale byl zadán vícekrát.
FILES_API_EMPTY_BUCKET_NAME
SQLSTATE: žádný přiřazený
Název kontejneru DBFS je prázdný.
FILES_API_ENCRYPTION_KEY_PERMISSION_DENIED
SQLSTATE: žádný přiřazený
Uživatel nemá přístup k šifrovacímu klíči.
FILES_API_ENCRYPTION_KEY_RETRIEVAL_OPERATION_TIMEOUT
SQLSTATE: žádný přiřazený
Operaci načtení šifrovacího klíče nelze dokončit v povoleném čase.
FILES_API_ENTITY_TOO_LARGE
SQLSTATE: žádný přiřazený
Objekt překračuje maximální povolenou velikost objektu.
FILES_API_ERROR_EXPIRED_TTL
SQLSTATE: žádný přiřazený
Platnost hodnoty TTL vypršela.
FILES_API_ERROR_INVALID_TTL
SQLSTATE: žádný přiřazený
Hodnota TTL je neplatná.
FILES_API_ERROR_KEY_FOR_WORKSPACE_IS_NOT_FOUND
SQLSTATE: žádný přiřazený
Klíč pracovního prostoru nebyl nalezen.
FILES_API_ERROR_MISSING_REQUIRED_PARAM
SQLSTATE: žádný přiřazený
V adrese URL chybí požadovaný parametr.
FILES_API_ERROR_TTL_IN_THE_FUTURE
SQLSTATE: žádný přiřazený
TTL je v budoucnu.
FILES_API_ERROR_URL_INVALID_ISSUER_SHARD_NAME
SQLSTATE: žádný přiřazený
Název záložky vystavitele je neplatný.
FILES_API_EXPIRATION_TIME_MUST_BE_PRESENT
SQLSTATE: žádný přiřazený
čas vypršení platnosti musí být uveden.
FILES_API_EXPIRED_TOKEN
SQLSTATE: žádný přiřazený
Platnost poskytnutého tokenu vypršela.
FILES_API_EXPIRE_TIME_MUST_BE_IN_THE_FUTURE
SQLSTATE: žádný přiřazený
Datum vypršení platnosti musí být v budoucnu.
FILES_API_EXPIRE_TIME_TOO_FAR_IN_FUTURE
SQLSTATE: žádný přiřazený
Požadovaná hodnota TTL je delší než podporovaná (1 hodina)
FILES_API_EXTERNAL_LOCATION_PATH_OVERLAP_OTHER_UC_STORAGE_ENTITY
SQLSTATE: žádný přiřazený
<unity_catalog_error_message>
FILES_API_FILE_ALREADY_EXISTS
SQLSTATE: žádný přiřazený
Vytvořený soubor již existuje.
FILES_API_FILE_NOT_FOUND
SQLSTATE: žádný přiřazený
Soubor, ke který se přistupuje, nebyl nalezen.
FILES_API_FILE_OR_DIRECTORY_ENDS_IN_DOT
SQLSTATE: žádný přiřazený
Soubory nebo adresáře končící znakem .nejsou podporovány.
FILES_API_FILE_SIZE_EXCEEDED
SQLSTATE: žádný přiřazený
Velikost souboru by neměla překročit <max_download_size_in_bytes> bajtů, ale bylo nalezeno <size_in_bytes> bajtů.
FILES_API_GCP_ACCOUNT_IS_DISABLED
SQLSTATE: žádný přiřazený
Přístup k kontejneru úložiště byl v GCP zakázán.
FILES_API_GCP_BUCKET_DOES_NOT_EXIST
SQLSTATE: žádný přiřazený
Úložný segment v GCP neexistuje.
FILES_API_GCP_FORBIDDEN
SQLSTATE: žádný přiřazený
GCP zakáže přístup k kontejneru.
FILES_API_GCP_IAM_AUTHENTICATION_FAILURE
SQLSTATE: žádný přiřazený
Ověření pro operaci GCP IAM se nezdařilo.
FILES_API_GCP_IAM_CREDENTIALS_NOT_FOUND
SQLSTATE: žádný přiřazený
Zadané přihlašovací údaje GCP neexistují nebo nejsou přístupné.
FILES_API_GCP_IAM_PERMISSION_DENIED
SQLSTATE: žádný přiřazený
Oprávnění byla odepřena pro operaci GCP IAM.
FILES_API_GCP_KEY_DELETED
SQLSTATE: žádný přiřazený
Šifrovací klíč byl odstraněn nebo už není přístupný.
FILES_API_GCP_KEY_DISABLED_OR_DESTROYED
SQLSTATE: žádný přiřazený
Šifrovací klíč spravovaný zákazníkem nakonfigurovaný pro toto umístění je buď zakázaný, nebo zničený.
FILES_API_GCP_REQUEST_IS_PROHIBITED_BY_POLICY
SQLSTATE: žádný přiřazený
Požadavky GCP na úložiště jsou zakázány zásadami; ověřte nastavení služby VPC.
FILES_API_GCP_USER_PROJECT_ACCOUNT_PROBLEM
SQLSTATE: žádný přiřazený
Došlo k potížím s projektem GCP použitým v požadavku, který brání úspěšnému dokončení operace.
FILES_API_HOST_TEMPORARILY_NOT_AVAILABLE
SQLSTATE: žádný přiřazený
Hostitel poskytovatele cloudu není dočasně dostupný; zkuste to prosím znovu později.
SOUBORY_API_NEPLATNÁ_DÉLKA_OBSAHU
SQLSTATE: žádný přiřazený
Hodnota hlavičky s délkou obsahu musí být celé číslo větší nebo rovno 0.
FILES_API_INVALID_CONTINUATION_TOKEN
SQLSTATE: žádný přiřazený
Zadaný token stránky není platný.
FILES_API_INVALID_HEADER_VALUE
SQLSTATE: žádný přiřazený
Hodnota hlavičky '<header_name>' je neplatná.
FILES_API_INVALID_HOSTNAME
SQLSTATE: žádný přiřazený
Název hostitele je neplatný.
FILES_API_INVALID_HTTP_METHOD
SQLSTATE: žádný přiřazený
Neplatná metoda HTTP. Bylo očekáváno '<expected>', ale dostalo se '<actual>'.
FILES_API_INVALID_METASTORE_ID_HEADER
SQLSTATE: žádný přiřazený
Hlavička ID metastoru je neplatná.
FILES_API_INVALID_PAGE_TOKEN
SQLSTATE: žádný přiřazený
Neplatný token stránky
FILES_API_INVALID_PATH
SQLSTATE: žádný přiřazený
Neplatná cesta: <validation_error>
FILES_API_INVALID_RANGE
SQLSTATE: žádný přiřazený
Záhlaví rozsahu je neplatné.
FILES_API_INVALID_RESOURCE_FULL_NAME
SQLSTATE: žádný přiřazený
<unity_catalog_error_message>
FILES_API_INVALID_SESSION_TOKEN
SQLSTATE: žádný přiřazený
Neplatný autorizační token relace
FILES_API_INVALID_SESSION_TOKEN_TYPE
SQLSTATE: žádný přiřazený
Neplatný typ tokenu relace Bylo očekáváno '<expected>', ale dostalo se '<actual>'.
FILES_API_INVALID_TIMESTAMP
SQLSTATE: žádný přiřazený
Časové razítko je neplatné.
FILES_API_INVALID_UPLOAD_TYPE
SQLSTATE: žádný přiřazený
Neplatný typ nahrávání Bylo očekáváno '<expected>', ale dostalo se '<actual>'.
FILES_API_INVALID_URL
SQLSTATE: žádný přiřazený
Neplatná adresa URL
FILES_API_INVALID_URL_PARAMETER
SQLSTATE: žádný přiřazený
Adresa URL předaná jako parametr je neplatná.
FILES_API_INVALID_VALUE_FOR_OVERWRITE_QUERY_PARAMETER
SQLSTATE: žádný přiřazený
Parametr dotazu "overwrite" musí mít hodnotu: true, false; ale byl: <got_values>
FILES_API_INVALID_VALUE_FOR_QUERY_PARAMETER
SQLSTATE: žádný přiřazený
Parametr dotazu '<parameter_name>' musí být jeden z: <expected> ale byl: <actual>
FILES_API_MALFORMED_REQUEST_BODY
SQLSTATE: žádný přiřazený
Poškozený text požadavku
FILES_API_MANAGED_CATALOG_FEATURE_DISABLED
SQLSTATE: žádný přiřazený
<unity_catalog_error_message>
FILES_API_METASTORE_NOT_FOUND
SQLSTATE: žádný přiřazený
<unity_catalog_error_message>
FILES_API_METHOD_IS_NOT_ENABLED_FOR_JOBS_BACKGROUND_COMPUTE_ARTIFACT_STORAGE
SQLSTATE: žádný přiřazený
Požadovaná metoda rozhraní Files API není podporována pro úložiště výpočetních artefaktů v systému zpracování úloh na pozadí.
FILES_API_MISSING_CONTENT_LENGTH
SQLSTATE: žádný přiřazený
V požadavku je vyžadována hlavička Content-Length.
FILES_API_MISSING_QUERY_PARAMETER
SQLSTATE: žádný přiřazený
Parametr dotazu '<parameter_name>' je povinný, ale v požadavku chybí.
FILES_API_MISSING_REQUIRED_PARAMETER_IN_REQUEST
SQLSTATE: žádný přiřazený
Chybí požadovaný parametr v požadavku.
FILES_API_MLFLOW_PERMISSION_DENIED
SQLSTATE: žádný přiřazený
<mlflow_error_message>
FILES_API_MLFLOW_RESOURCE_EXHAUSTED
SQLSTATE: žádný přiřazený
Limit požadavků byl překročen při komunikaci se službou mlflow.
FILES_API_MODEL_VERSION_IS_NOT_READY
SQLSTATE: žádný přiřazený
Verze modelu ještě není připravená.
FILES_API_MULTIPART_UPLOAD_ABORT_PRESIGNED_URL_NOT_SUPPORTED
SQLSTATE: žádný přiřazený
Předřazené adresy URL pro přerušení nahrávání více částí nejsou podporovány u souborů uložených na <cloud_storage_provider>.
FILES_API_MULTIPART_UPLOAD_ABORT_UPLOAD_NOT_SUPPORTED
SQLSTATE: žádný přiřazený
Přerušení nahrávání s více částmi není podporováno u souborů uložených na <cloud_storage_provider>.
FILES_API_MULTIPART_UPLOAD_EMPTY_PART_LIST
SQLSTATE: žádný přiřazený
Seznam částí musí mít alespoň jeden prvek, ale byl prázdný.
FILES_API_MULTIPART_UPLOAD_INVALID_PART
SQLSTATE: žádný přiřazený
Některé zadané části nebyly nalezeny. Část se možná nenahrála nebo se zadaná značka entity nemusí shodovat se značkou entity dané části.
FILES_API_MULTIPART_UPLOAD_INVALID_PART_NUMBER
SQLSTATE: žádný přiřazený
Čísla dílů musí být větší nebo rovna <min> a menší nebo rovna <max>.
FILES_API_MULTIPART_UPLOAD_MISSING_ETAG
SQLSTATE: žádný přiřazený
Značky ETag musí být k dispozici pro soubory uložené na <cloud_storage_provider>. Nejméně jedna značka ETag nebyla zadaná nebo prázdná.
FILES_API_MULTIPART_UPLOAD_MODIFIED_STORAGE_ENTITY_STATE
SQLSTATE: žádný přiřazený
Od zahájení nahrávání došlo ke změně interního stavu entity úložiště, protože cesta k souboru neodkazuje na stejné základní umístění cloudového úložiště. Pokračujte započetím nové relace nahrávání.
FILES_API_MULTIPART_UPLOAD_NON_TRAILING_PARTS_WITH_DIFFERENT_SIZES
SQLSTATE: žádný přiřazený
Části nahrané jako součást relace nahrávání s více částmi musí mít stejnou velikost pro soubory uložené na <cloud_storage_provider>, s výjimkou poslední části, která může být menší.
FILES_API_MULTIPART_UPLOAD_PART_SIZE_OUT_OF_RANGE
SQLSTATE: žádný přiřazený
Velikost částí nahraných jako součást relace vícenásobného nahrávání musí být větší nebo rovna <min> a menší nebo rovna <max>.
FILES_API_MULTIPART_UPLOAD_SESSION_NOT_FOUND
SQLSTATE: žádný přiřazený
Relace nahrávání nenalezena. Je možné, že došlo k přerušení nebo dokončení.
FILES_API_MULTIPART_UPLOAD_UNORDERED_PART_LIST
SQLSTATE: žádný přiřazený
Seznam části musí být seřazený podle čísla části, ale nebyl seřazen.
FILES_API_NON_ZERO_CONTENT_LENGTH
SQLSTATE: žádný přiřazený
Hlavička content-length musí být pro tento požadavek nulová.
FILES_API_NOT_ENABLED_FOR_PLACE
SQLSTATE: žádný přiřazený
Rozhraní FILES API pro <place> není pro tento pracovní prostor nebo účet povolené.
FILES_API_NOT_SUPPORTED_FOR_INTERNAL_WORKSPACE_STORAGE
SQLSTATE: žádný přiřazený
Požadovaná metoda rozhraní Files API není podporována pro interní úložiště pracovních prostorů.
FILES_API_OPERATION_MUST_BE_PRESENT
SQLSTATE: žádný přiřazený
musí být přítomna operace.
FILES_API_OPERATION_TIMEOUT
SQLSTATE: žádný přiřazený
Vypršel časový limit operace.
FILES_API_PAGE_SIZE_MUST_BE_GREATER_OR_EQUAL_TO_ZERO
SQLSTATE: žádný přiřazený
page_size musí být větší nebo rovna 0.
FILES_API_PATH_BASED_ACCESS_TO_TABLE_WITH_FILTER_NOT_ALLOWED
SQLSTATE: žádný přiřazený
<unity_catalog_error_message>
FILES_API_PATH_END_WITH_A_SLASH
SQLSTATE: žádný přiřazený
Cesty končící znakem /představují adresáře. Toto rozhraní API nepodporuje operace s adresáři.
FILES_API_PATH_IS_A_DIRECTORY
SQLSTATE: žádný přiřazený
Daná cesta odkazuje na existující adresář. Toto rozhraní API nepodporuje operace s adresáři.
FILES_API_PATH_IS_A_FILE
SQLSTATE: žádný přiřazený
Daná cesta odkazuje na existující soubor. Toto rozhraní API nepodporuje operace se soubory.
FILES_API_PATH_IS_NOT_A_VALID_UTF8_ENCODED_URL
SQLSTATE: žádný přiřazený
daná cesta nebyla platná adresa URL s kódováním UTF-8.
FILES_API_PATH_IS_NOT_ENABLED_FOR_DATAPLANE_PROXY
SQLSTATE: žádný přiřazený
Pro proxy roviny dat není daná cesta povolená.
FILES_API_PATH_MUST_BE_PRESENT
SQLSTATE: žádný přiřazený
musí být k dispozici cesta.
FILES_API_PATH_NOT_SUPPORTED
SQLSTATE: žádný přiřazený
<rejection_message>
FILES_API_PATH_TOO_LONG
SQLSTATE: žádný přiřazený
Zadaná cesta k souboru je příliš dlouhá.
FILES_API_PRECONDITION_FAILED
SQLSTATE: žádný přiřazený
Žádost selhala z důvodu předběžné podmínky.
FILES_API_PRESIGNED_URLS_FOR_MODELS_NOT_SUPPORTED
SQLSTATE: žádný přiřazený
Souborové API pro předem podepsané adresy URL pro modely se v tuto chvíli nepodporují.
FILES_API_R2_CREDENTIALS_DISABLED
SQLSTATE: žádný přiřazený
R2 se v tuto chvíli nepodporuje.
FILES_API_RANGE_NOT_SATISFIABLE
SQLSTATE: žádný přiřazený
Požadovaný rozsah není uspokojivý.
FILES_API_RECURSIVE_LIST_IS_NOT_SUPPORTED
SQLSTATE: žádný přiřazený
Rekurzivní výpis souborů není podporován.
FILES_API_REQUESTER_NETWORK_ZONE_UNKNOWN
SQLSTATE: žádný přiřazený
Nelze odvodit zónu sítě žadatele.
FILES_API_REQUEST_GOT_ROUTED_INCORRECTLY
SQLSTATE: žádný přiřazený
Požadavek byl přesměrován chybně.
FILES_API_REQUEST_MUST_INCLUDE_ACCOUNT_INFORMATION
SQLSTATE: žádný přiřazený
Žádost musí obsahovat informace o účtu.
Požadavek FILES_API musí obsahovat informace o příjemci
SQLSTATE: žádný přiřazený
Žádost musí obsahovat informace o příjemci.
FILES_API_REQUEST_MUST_INCLUDE_USER_INFORMATION
SQLSTATE: žádný přiřazený
Požadavek musí obsahovat informace o uživateli.
FILES_API_REQUEST_MUST_INCLUDE_WORKSPACE_INFORMATION
SQLSTATE: žádný přiřazený
Požadavek musí obsahovat informace o pracovním prostoru.
FILES_API_RESOURCE_IS_READONLY
SQLSTATE: žádný přiřazený
Prostředek je pouze pro čtení.
FILES_API_RESOURCE_NOT_FOUND
SQLSTATE: žádný přiřazený
<unity_catalog_error_message>
FILES_API_SCHEMA_NOT_FOUND
SQLSTATE: žádný přiřazený
<unity_catalog_error_message>
FILES_API_SECURE_URL_CANT_BE_ACCESSED
SQLSTATE: žádný přiřazený
Adresa URL není přístupná.
FILES_API_SIGNATURE_VERIFICATION_FAILED
SQLSTATE: žádný přiřazený
Ověření podpisu se nezdařilo.
FILES_API_STORAGE_ACCESS_CONTEXT_INVALID
SQLSTATE: žádný přiřazený
Kontext přístupu k úložišti je neplatný.
FILES_API_STORAGE_CONTEXT_IS_NOT_SET
SQLSTATE: žádný přiřazený
Konfigurace úložiště pro tento pracovní prostor není přístupná.
FILES_API_STORAGE_CREDENTIAL_NOT_FOUND
SQLSTATE: žádný přiřazený
<unity_catalog_error_message>
FILES_API_TABLE_TYPE_NOT_SUPPORTED
SQLSTATE: žádný přiřazený
Rozhraní FILES API není podporováno pro <table_type>
FILES_API_UC_AUTHENTICATION_FAILURE
SQLSTATE: žádný přiřazený
<unity_catalog_error_message>
FILES_API_UC_IAM_ROLE_NON_SELF_ASSUMING
SQLSTATE: žádný přiřazený
<unity_catalog_error_message>
FILES_API_UC_MODEL_INVALID_STATE
SQLSTATE: žádný přiřazený
<unity_catalog_error_message>
FILES_API_UC_PERMISSION_DENIED
SQLSTATE: žádný přiřazený
<unity_catalog_error_message>
FILES_API_UC_RESOURCE_EXHAUSTED
SQLSTATE: žádný přiřazený
<message>
FILES_API_UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH
SQLSTATE: žádný přiřazený
<unity_catalog_error_message>
FILES_API_UC_VOLUME_NAME_CHANGED
SQLSTATE: žádný přiřazený
<unity_catalog_error_message>
FILES_API_NESCHOPEN_OBNOVIT_AZURE_SPRAVOVANÉ_IDENTITY
SQLSTATE: žádný přiřazený
Nejde obnovit spravovanou identitu Azure.
FILES_API_UNEXPECTED_ERROR_WHILE_PARSING_URI
SQLSTATE: žádný přiřazený
Neočekávaná chyba při analýze identifikátoru URI
FILES_API_UNEXPECTED_QUERY_PARAMETERS
SQLSTATE: žádný přiřazený
Neočekávané parametry dotazu: <unexpected_query_parameters>
FILES_API_UNKNOWN_METHOD
SQLSTATE: žádný přiřazený
Neznámá metoda <method>
FILES_API_UNKNOWN_SERVER_ERROR
SQLSTATE: žádný přiřazený
Neznámá chyba serveru
FILES_API_UNKNOWN_URL_HOST
SQLSTATE: žádný přiřazený
Hostitel adresy URL je neznámý.
FILES_API_UNSUPPORTED_AUTHENTICATION_METHOD
SQLSTATE: žádný přiřazený
Požadavek nebyl ověřen správně.
FILES_API_UNSUPPORTED_HTTP_METHOD
SQLSTATE: žádný přiřazený
HttpMethod není podporován.
FILES_API_UNSUPPORTED_PARAMETERS_COMBINATION
SQLSTATE: žádný přiřazený
Kombinace parametrů není podporována.
FILES_API_UNSUPPORTED_PATH
SQLSTATE: žádný přiřazený
Zadanou cestu nepodporuje rozhraní Files API. Ujistěte se, že zadaná cesta neobsahuje výskyty sekvencí '../' nebo './'. Ujistěte se, že zadaná cesta nepoužívá více po sobě jdoucích lomítek (například ///).
FILES_API_UPLOAD_PART_URLS_COUNT_MUST_BE_GREATER_THAN_ZERO
SQLSTATE: žádný přiřazený
Vstupní parametr count musí být větší než 0.
FILES_API_URL_GENERATION_DISABLED
SQLSTATE: žádný přiřazený
Pro <cloud>není povolené generování předem přiřazené adresy URL.
FILES_API_VOLUME_TYPE_NOT_SUPPORTED
SQLSTATE: žádný přiřazený
Rozhraní FILES API není podporováno pro <volume_type>.
FILES_API_WORKSPACE_IS_CANCELED
SQLSTATE: žádný přiřazený
Pracovní prostor byl zrušen.
FILES_API_WORKSPACE_IS_NOT_FOUND
SQLSTATE: žádný přiřazený
Konfigurace úložiště pro tento pracovní prostor není přístupná.
Deklarativní kanály Sparku Lakeflow
Zásady ABAC nejsou podporovány
Zásady ABAC nejsou podporovány u tabulek definovaných v rámci kanálu.
Odeberte zásady nebo se obraťte na podporu Databricks.
Abnormální ukončení ovladače
Ovladač v clusteru <clusterId> se neobvykle ukončil kvůli <terminationCause>. Další podrobnosti najdete v protokolech ovladačů.
ACTIVE_UPDATE_EXISTS_FOR_LINKED_PIPELINE
Již existuje aktivní aktualizace '<updateId>' pro propojený kanál '<linkedPipelineId>'.
ACTIVE_UPDATE_EXISTS_FOR_PIPELINE
Aktivní aktualizace '<updateId>' již existuje pro kanál '<pipelineId>'.
ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE
ALTER není povoleno na tabulkách spravovaných systémem
Další podrobnosti najdete v ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE
ALTER_SCHEDULE_SCHEDULE_DOES_NOT_EXIST
Nelze změnit <type> v tabulce bez existujícího plánu nebo triggeru. Před pokusem o jeho změnu přidejte do tabulky plán nebo trigger.
API_QUOTA_EXCEEDED
Překročili jste kvótu rozhraní API pro zdroj dat <sourceName>.
Další podrobnosti najdete v tématu API_QUOTA_EXCEEDED
APPLY_CHANGES_ERROR
Během operace AUTO CDC došlo k chybě.
Další podrobnosti najdete v tématu APPLY_CHANGES_ERROR
APPLY_CHANGES_FROM_SNAPSHOT_ERROR
Během operace AUTO CDC FROM SNAPSHOT došlo k chybě.
Další podrobnosti najdete v tématu APPLY_CHANGES_FROM_SNAPSHOT_ERROR
APPLY_CHANGES_FROM_SNAPSHOT_EXPECTATIONS_NOT_SUPPORTED
Datová sada <datasetName> má definovaná očekávání, ale očekávání nejsou aktuálně podporována pro datové sady používající AUTO CDC FROM SNAPSHOT.
Zanechte očekávání, abyste chybu vyřešili. Jako alternativu zvažte použití následující struktury k použití očekávání kombinováním AUTO CDC a AUTO CDC FROM SNAPSHOT:
Uplatnit změny ze snímku pomocí SCD typu 1 na zprostředkující tabulku bez předpokladů.
Čtení změn ze zprostředkující tabulky pomocí
spark.readStream.option("readChangeFeed", "true").table.Použijte změny z zprostředkující tabulky na konečnou cílovou tabulku pomocí
dlt.apply_changesnásledujících parametrů kromě aktuálně používanýchdlt.apply_changes_from_snapshotparametrů:
Zpracování změn:
apply_as_deletes = "_change_type == 'delete'"Odebrání sloupců přidaných nástrojem CDF:
except_column_list = ["_change_type", "_commit_version", "_commit_timestamp"]
- Zahrňte aktuální sadu očekávání do konečné cílové tabulky použité pro
dlt.apply_changes.
APPLY_CHANGES_PARTIAL_UPDATES_NOT_ENABLED
Funkce COLUMNS TO UPDATE je ve verzi Preview a není pro váš pracovní prostor povolená. Spojte se se zástupcem Databricks a získejte další informace o této funkci a získejte přístup k privátní verzi Preview.
APLIKUJTE_PROSTŘEDÍ_CLUSTER_NENÍ_DOSTUPNÝ
Výpočetní kapacita kanálu pro <pipelineId> není dostupná. Výpočetní prostředky potrubí se možná zastavily nebo se stále spouští.
Zkuste to prosím znovu později, až bude výpočetní prostředky plně dostupné. Pokud problém přetrvává, obraťte se na podporu Databricks.
PROSTŘEDÍ_CLUSTER_NENALEZENO
Výpočetní výkon kanálu pro <pipelineId> nebyl nalezen. Výpočetní prostředky tohoto pipeline se možná nikdy nespustily nebo už byly zastaveny. Spusťte potrubí.
před aplikováním prostředí.
PROSTŘEDÍ_APLIKACE_NENÍ_PODPOROVÁNO
Koncový bod ApplyEnvironment se nepodporuje.
ARCHITECTURE_MIGRATION_FAILURE
Podrobnosti viz ARCHITECTURE_MIGRATION_FAILURE
ARCLIGHT_REQUIRES_SERVERLESS
Kanály cílené na katalogy používající výchozí úložiště musí používat bezserverové výpočetní prostředky. Pokud nemáte přístup k bezserverovým výpočetním prostředkům, obraťte se na Databricks a povolte tuto funkci pro váš pracovní prostor.
AUTO_FULL_REFRESH_DISABLED
Automatická úplná aktualizace je pro tabulku <tableName>zakázaná .
AUTO_FULL_REFRESH_NOT_ALLOWED
Automatická úplná aktualizace tabulky <tableName> se nezdařila, protože <reason>.
AUTO_FULL_REFRESH_THROTTLED
Automatická úplná aktualizace se nezdařila. Tabulka <tableName> byla automaticky aktualizována a <timestamp> minimální interval před další automatickou úplnou aktualizací: <minInterval> minuty.
AZURE_ACTIVE_DIRECTORY_AUTHENTICATION_FAILED
Ověřování Azure Active Directory se nezdařilo (AADSTS5000224).
ID trasování: <traceId>, ID korelace: <correlationId>.
Ověřte, že je služba Azure Active Directory správně nakonfigurovaná a přístupná. Pokud problém přetrvává, obraťte se na podporu Microsoftu.
AZURE_MANAGED_IDENTITY_CREDENTIAL_NOT_FOUND
Přihlašovací údaje spravované identity Azure s ID <accessConnectorId> přístupového konektoru se pro účet <accountId>nenašly.
Ověřte, že přihlašovací údaje existují a jsou správně nakonfigurované.
AZURE_STORAGE_HOSTNAME_RESOLUTION_FAILED
Nepodařilo se přeložit název hostitele úložiště Azure: <hostname>.
Zkontrolujte, jestli je DNS správně nakonfigurovaný a že je účet úložiště přístupný z vaší sítě.
AZURE_STORAGE_REQUEST_NOT_AUTHORIZED
Požadavek na úložiště Azure neautorizoval hraniční síť zabezpečení sítě.
Ověřte, že je úložiště správně nakonfigurované a přístupné.
BIGQUERY_DATA_CONNECTOR_SOURCE_CATALOG_MISSING
V datovém konektoru BigQuery došlo k chybě.
Ve specifikaci příjmu dat chybí zdrojový katalog (ID projektu GCP).
Pokud chcete tento problém vyřešit, zadejte do specifikace příjmu dat zdrojový katalog (ID projektu).
CANNOT_ADD_COLUMN_TO_INCLUDE_COLUMNS
Nové sloupce (<columnNames>) se přidají do pole include_columns v definici kanálu pro tabulku <qualifiedTableName>. Aktualizujte tabulku, abyste zabránili potenciální ztrátě dat nebo odeberte tyto sloupce z include_columns.
CANNOT_ADD_STORAGE_LOCATION
Umístění úložiště nelze přidat do existujícího kanálu s definovaným katalogem, pokud chcete nastavit umístění úložiště a vytvořit nový kanál.
Existující katalog: '<catalog>'.
Požadované umístění úložiště: <storageLocation>.
CANNOT_COMPOSE_DECORATOR
SQLSTATE: žádný přiřazený
Dekorátor @<decoratorName> nelze skládat s <otherDecorators>.
CANNOT_EXCLUDE_NON_EXISTENT_COLUMN
Definice potrubí vylučuje sloupce (<columnNames>), které neexistují v tabulce <qualifiedTableName> zdroje <sourceType>. Odstraňte z pole exclude_columns tyto sloupce.
CANNOT_FILTER_OUT_REQUIRED_COLUMN
Definice kanálu nezahrnuje požadované sloupce (<columnNames>) v tabulce <qualifiedTableName> zdroje <sourceType> pro ingestování. Přidejte je prosím do include_columns nebo je odeberte z exclude_columns.
CANNOT_INCLUDE_NON_EXISTENT_COLUMN
Definice kanálu obsahuje sloupce (<columnNames>), které neexistují nebo nejsou přístupné v tabulce <qualifiedTableName> zdroje <sourceType>. Odstraňte tyto sloupce z pole include_columns.
CANNOT_INGEST_TABLE_WITHOUT_PRIMARY_KEY
Tabulka <qualifiedTableName> ve zdroji <sourceType> nemá primární klíč.
Zadejte primární klíč v konfiguraci konektoru k importu tabulky, pokud je k dispozici.
CANNOT_MODIFY_PIPELINE_OWNER_FOR_UC_PIPELINES
Změna vlastníka pro kanály mimo UC se zatím nepodporuje.
CANNOT_MODIFY_PIPELINE_OWNER_PERMISSION_DENIED
Vlastníka pipeline mohou změnit jenom správci pracovního prostoru.
CANNOT_MODIFY_PIPELINE_OWNER_WHEN_MISSING
Nový vlastník neexistuje.
CANNOT_MODIFY_PIPELINE_TYPE
pipeline_type nelze aktualizovat.
Aktuální typ kanálu: <currentPipelineType>.
Aktualizován pipeline_type: <requestedPipelineType>.
CANNOT_MODIFY_STORAGE_LOCATION
Nelze změnit umístění úložiště existujícího kanálu.
Existující umístění úložiště: '<existingStorageLocation>'.
Požadované umístění úložiště: <requestedStorageLocation>.
CANNOT_REMOVE_COLUMN_FROM_EXCLUDE_COLUMNS
Sloupce (<columnNames>) se z pole exclude_columns v definici kanálu pro tabulku <qualifiedTableName>odeberou. Prosím, úplně obnovte tabulku, abyste se vyhnuli potenciální ztrátě dat, nebo přidejte tyto sloupce zpět do exclude_columns.
CANNOT_SET_CATALOG_FOR_HMS_PIPELINE
Katalog nelze přidat do existujícího kanálu s definovaným umístěním úložiště, pokud chcete použít uc vytvořit nový kanál a nastavit katalog.
Existující umístění úložiště: '<storageLocation>'
Požadovaný katalog: '<catalog>'
CANNOT_SET_LINKED_PIPELINE_ID
ID kanálu jsou stejná a nastavení ID propojených kanálů způsobí zablokování.
CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE
Zadané pole 'schema' v nastavení pro kanál '<pipelineName>' je neplatné. Reason:
Další podrobnosti najdete v tématu CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE
CANNOT_SET_TOGETHER
SQLSTATE: žádný přiřazený
<argList> se vzájemně vylučují a nelze je použít současně.
CANNOT_SPECIFY_BOTH_INCLUDE_EXCLUDE_COLUMNS
Definice potrubí určuje include_columns i exclude_columns pro <identifier>. Odstraňte jeden z nich.
CANNOT_UPDATE_CLUSTERING_COLUMNS
Nelze aktualizovat sloupce clusteringu pro tabulku <tableName> , protože používá sloupce oddílů. Tabulka může buď používat sloupce oddílů, nebo shlukovací sloupce, ale ne oboje.
Pokud chcete přepnout mezi seskupováním kapalné a rozdělováním, proveďte úplnou aktualizaci této tabulky.
CANNOT_UPDATE_PARTITION_COLUMNS
Nelze aktualizovat sloupce oddílů pro streamovací tabulku <tableName>.
Aktuální: <existingPartitionColumns>,
Požadováno: <requestedPartitionColumns>
Pokud chcete tuto změnu oddílu použít, aktivujte úplnou aktualizaci této tabulky i jiných streamovaných tabulek, které mají aktualizované sloupce oddílu.
Chcete-li pokračovat ve využívání stávajících sloupců oddílů, zrušte tuto změnu.
CANNOT_UPDATE_TABLE_SCHEMA
Sloučení aktuálních a nových schémat pro tabulku <tableName>se nezdařilo.
Pokud chcete pokračovat v této změně schématu, můžete aktivovat úplnou aktualizaci této tabulky.
V závislosti na vašem případu použití a změnách schématu se možná budete moci vyhnout změně schématu – můžete aktualizovat dotazy tak, aby výstupní schéma bylo kompatibilní s existujícím schématem (například explicitním přetypováním sloupců na správný datový typ).
CANNOT_WRITE_TO_INACTIVE_COLUMNS
<details>
Cílové tabulky však již mají neaktivní sloupce s tímto názvem; sloupce jsou neaktivní, protože byly dříve odstraněny ze zdrojových tabulek.
Pokud chcete pokračovat v aktualizaci, spusťte na tabulkách příkaz FULL REFRESH .
CANNOT_WRITE_TO_INACTIVE_TABLES
Následující tabulky v cíli jsou neaktivní a jsou v konfliktu s aktuálními zdrojovými tabulkami: <tables>.
Tyto tabulky zůstávají neaktivní, protože byly dříve odstraněny ze zdroje nebo nebyly vybrány z konektoru.
Pokud chcete pokračovat v aktualizaci, změňte název cílové tabulky nebo proveďte FULL REFRESH akci s těmito tabulkami nebo tyto neaktivní tabulky odstraňte z cíle v Průzkumníku katalogu nebo pomocí DROP TABLE příkazu a zkuste aktualizaci zopakovat.
CANNOT_WRITE_TO_TABLES_PENDING_RESET
Následující tabulky v cíli nejsou v předchozí úplné aktualizaci správně resetované: <tables>.
Prosím, spusťte úplnou aktualizaci, aby se obnovil stav.
CATALOG_MAPPING_NOT_AVAILABLE_IN_UC
Katalog UC nemá mapování pro katalog '<sourceCatalog>'.
Zkontrolujte, jestli je katalog zaregistrovaný v katalogu UC.
CATALOG_SCHEMA_MISMATCH_WITH_DESTINATION_PIPELINE
Katalog <destPipelineCatalog> a schéma <destPipelineSchema> cílového kanálu s ID '<destPipelineId>' neodpovídá katalogu a schématu tabulky <tableName>. Cílový kanál by měl mít stejný katalog a schéma jako tabulka nebo cílový kanál musí používat režim přímého publikování.
CATALOG_SPEC_UNSUPPORTED
Služba CatalogSpecs v současné době nepodporuje databázové konektory. Odeberte specifikaci katalogu.
CDC_APPLIER_AUTO_FULL_REFRESH_POLICY_MUST_BE_SAME_FOR_ALL_DESTINATION_TABLES
Zásady automatické úplné aktualizace všech cílových tabulek připojených ke stejné zdrojové tabulce musí být stejné.
Změňte zásadu pro následující cílové tabulky <destinationTables> připojené ke zdroji <sourceTable>.
CDC_APPLIER_COLUMN_UOID_NOT_SUPPORTED
Sloupce s UOID <columnNames> pro tabulku <tableName> nejsou podporované v kanálech příjmu dat spravovaných CDC.
Zkontrolujte, jestli kanál příjmu dat podporuje UOID sloupce, nebo požádejte o úplnou aktualizaci tabulky.
CDC_APPLIER_FATAL_FAILURE_FROM_GATEWAY
Potrubí Gateway narazilo na kritickou chybu.
<errorMessage>
Projděte si selhání aktualizace procesu: <link>.
CDC_APPLIER_INGESTION_GATEWAY_REMOVED
Kanál brány <pipelineId> příjmu dat propojený s kanálem spravovaného příjmu dat byl odebrán.
Odeberte kanál spravovaného příjmu dat a vytvořte bránu příjmu dat i kanály spravovaného příjmu dat.
CDC_APPLIER_REPLICATED_TABLE_METADATA_NOT_READY
Replikovaná metadata tabulky pro tabulku <tableName> nejsou připravená.
Stávající časové razítko žádosti o úlohu je <existingRequestTs>, ale očekáváme <expectedRequestTs> nebo později.
CDC_APPLIER_REQUIRES_ALL_DESTINATION_TABLES_FULL_REFRESH
Úplná aktualizace jedné cílové tabulky a normální aktualizace jiné cílové tabulky ze stejného zdroje se nepodporuje.
Pokud je to možné, proveďte úplnou aktualizaci obou tabulek.
Kompletní obnova tabulek: <fullRefreshTables>
Cílové tabulky pro zdroj <sourceTable>: <destinationTables>
CDC_APPLIER_SCHEMA_CHANGED_DURING_STREAMING
Verze schématu <dataSchemaVersion> se liší od verze schématu čtení <readSchemaVersion>.
Deklarativní kanály Sparku pro Lakeflow budou aktualizaci opakovat.
CDC_APPLIER_SEQUENCE_BY_COLUMN_NOT_FOUND
Sloupec <columnName> pro tabulku <tableName> zadanou v sequenceBy neexistuje v <columns>.
CDC_APPLIER_SEQUENCE_BY_INVALID_TYPE
Sloupec <columnName> pro tabulku <tableName> zadanou v sequenceBy je typu <typeName> , který není podporován.
Podporované typy sloupců sequenceBy jsou <allowedTypes>.
CDC_APPLIER_SEQUENCE_BY_MULTIPLE_COLUMNS_NOT_SUPPORTED
V komponentě sequenceBy kanálu pro příjem dat spravovaného CDC lze zadat nejvýše jeden sloupec.
Zadané sloupce: <columns> pro tabulku <tableName>.
CDC_INCOMPATIBLE_SCHEMA_CHANGES
Zjistili jsme nekompatibilní změnu schématu (<cause>) z verze schématu <previousSchemaVersion> na <currentSchemaVersion>.
Proto nemůžeme pokračovat v použití změn pro <tableName>. Požádejte prosím o úplnou aktualizaci tabulky.
Předchozí schéma: <previousSchema>
Aktuální schéma: <currentSchema>
CDC_MULTIPLE_SOURCE_TABLES_MAPPED_TO_SAME_DESTINATION_TABLE
Bylo nalezeno více zdrojových tabulek: <source_tables> namapováno na stejnou cílovou tabulku <destination_table>.
Namapujte je na jiný název cílové tabulky nebo na jiné cílové schéma.
CDC_POTENTIAL_DATA_GAPS
Následující tabulky [<needFullRefreshTableList>] nemají úspěšnou aktualizaci po dobu <retention> dnů.
Proveďte úplnou aktualizaci těchto tabulek nebo celého datového toku.
CDC_SAME_TABLE_FROM_MULTIPLE_SOURCES
Našli jsme stejný název tabulky <table> z více zdrojů: <sources>.
Rozdělte je do různých potrubí, abyste se vyvarovali konfliktu.
CDC_SOURCE_VALIDATION_FAILURE
Ověření zdrojové databáze zjistilo <errorCount> chyby. Podrobné výsledky a kroky nápravy najdete v sestavách protokolu událostí.
CDC_TABLE_NOT_FOUND_IN_ALL_TABLES
Tabulka <table> se nenachází v přehledu všech tabulek zdrojové databáze.
Specifikace tabulky:
<tableSpec>
CHANGES_HMS_PIPELINE_TO_UC_NOT_ALLOWED
Změna kanálu HMS na kanál UC není povolená.
CHANGES_UC_PIPELINE_TO_HMS_NOT_ALLOWED
Změna kanálu UC na kanál HMS není povolená.
CHANGING_CATALOG_NOT_ALLOWED
Katalog existujícího pipeline nelze upravit. Existující katalog: '<existingCatalog>'. Požadovaný katalog: '<requestedCatalog>'.
CHANGING_TARGET_SCHEMA_NOT_ALLOWED
Změna cílového schématu není povolená. Důvod: <reason>.
CLUSTER_CREATION_BUDGET_POLICY_LIMIT_EXCEEDED
Vytvoření clusteru se nezdařilo, protože zásady rozpočtu kanálu překročily limit. Použijte prosím jiné zásady nebo se obraťte na svého správce fakturace.
CLUSTER_CREATION_CLIENT_ERROR
Nepodařilo se vytvořit klastr pipeline: <errorMessage>
Tato chyba je pravděpodobně způsobená chybnou konfigurací kanálu.
Zkontrolujte konfiguraci clusteru pipeline a související zásady clusteru.
VYTVOŘENÍ_CLUSTERU_LIMIT_POLITIKY_CLUSTERU_PŘEKROČEN
Vytvoření clusteru se nezdařilo, protože počet spuštěných clusterů na uživatele podle zásady <clusterPolicy> přesáhl limit <clusterLimit>. Použijte prosím jiné zásady nebo se obraťte na správce.
CLUSTER_CREATION_CREDITS_EXHAUSTED
Vytvoření clusteru se nezdařilo, protože jste vyčerpáli dostupné kredity. Pokud chcete upgradovat svůj účet, přidejte prosím způsob platby.
CLUSTER_CREATION_RESOURCE_EXHAUSTED
Vytvoření clusteru se nezdařilo, protože jste překročili limity prostředků: <errorMessage>
CLUSTER_CREATION_SECRETS_FETCH_FAILED
Nelze načíst tajné kódy uvedené v konfiguraci Sparku.
Zkontrolujte, jestli tajné kódy existují a vlastník clusteru má oprávnění ke čtení.
CLUSTER_LAUNCH_CLIENT_ERROR
Nepodařilo se spustit pipeline cluster <clusterId>: <clusterStateMessage>
Tato chyba je pravděpodobně způsobená chybnou konfigurací kanálu.
Zkontrolujte konfiguraci clusteru pipeline a související zásady clusteru.
CLUSTER_LAUNCH_CLOUD_FAILURE
Nepodařilo se spustit pipeline cluster <clusterId>: <clusterStateMessage>
Pokud se stále zobrazuje stejný problém, může být tato chyba přechodná – restartujte svůj pipeline a nahlaste problém.
CLUSTER_LAUNCH_RESOURCE_EXHAUSTED
Spuštění clusteru <clusterId> kanálu se nezdařilo kvůli vyčerpání limitů prostředků: <clusterStateMessage>.
NEDOSTATEK_ZDROJŮ_PŘI_SPUSŤENÍ_CLUSTERU
Nepodařilo se spustit pipeline cluster <clusterId>: <clusterStateMessage>
Požadovaný typ instance nemůže poskytovatel cloudu zadat.
Zkontrolujte prosím předplatné poskytovatele cloudu nebo zkuste to znovu s jiným typem instance.
CLUSTER_SETUP_CLIENT_ERROR
Nelze úspěšně nastavit cluster <clusterId> pro provedení aktualizace pipeline. Reason:
Další podrobnosti najdete v tématu CLUSTER_SETUP_CLIENT_ERROR
CLUSTER_UNREACHABLE
Komunikace se ztratila s řidičem. Cluster <clusterId> nebyl dosažitelný po dobu <timeoutSeconds> sekund.
COLUMN_MASK_WITH_NO_COLUMN
Byla nalezena maska sloupce pro sloupec '<columnName>' která ve schématu MV/ST neexistuje. Je-li příčinou změna schématu základní tabulky,
Odstraňte starou masku s ALTER TABLE [table_name] ALTER COLUMN [sloupec, kde se používá maska] DROP MASK; nebo obnovte sloupec.
COLUMN_TO_UPDATE_NOT_FOUND
Sloupec <column> zadaný v COLUMNS TO UPDATE nebyl nalezen ve zdrojovém datovém rámci.
CONCURRENT_UPGRADE_FAILED_TO_STOP_PREVIOUS_UPDATE
Spustili jsme aktualizaci<upgradedUpdateId> pro upgrade, ale předchozí aktualizaci<oldUpdateId> se nepodařilo zastavit.
Tato chyba je pravděpodobně přechodná. Potrubí se bude automaticky opakovat a problém by se měl vyřešit sám.
Pokud se stále zobrazuje stejný problém, nahlašte tuto chybu databricks.
VYTVOŘENÍ_APPEND_ONCE_TO_PRŮBĚH_Z_BATCH_DOTAZU_NENÍ_POVOLENO
Není možné vytvořit proces jednorázového připojení k streamovací tabulce z dávkového dotazu.
Tím se zabrání přírůstkovém příjmu dat ze zdroje a může dojít k nesprávnému chování.
Chybná tabulka: '<table>'
Pokud chcete tento problém vyřešit, použijte operátor STREAM() nebo readStream pro deklaraci zdroje jako streamovaný vstup.
Příklad: SELECT...FROM STREAM(<source table name>) nebo spark.readStream.table('<source table name>)
DATASET_DECORATOR_APPLIED_TWICE
SQLSTATE: žádný přiřazený
Datová sada <datasetName> již existuje. Ujistěte se, že funkce dotazu byla označena pouze jednou jako zobrazení nebo tabulka.
DATASET_NOT_DEFINED
Načtení datové sady<datasetName> se nezdařilo. Tato datová sada není v pipeline definována.
Pokud je tato tabulka spravovaná jiným pipelinem, nepoužívejte dlt.read / dlt.readStream pro čtení tabulky nebo před název nepřidávejte klíčové slovo LIVE.
DATASET_NOT_FOUND_FOR_EXPECTATIONS
Pokusili jste se definovat očekávání pro datovou sadu<datasetName>, která neexistuje.
DATASET_NOT_REGISTERED_FOR_FLOW
Pokusil se zaregistrovat tok pro datovou sadu<datasetName>, ale datová sada není zaregistrovaná.
DBFS_NOT_ENABLED
DBFS není pro tento pracovní prostor povolený; publikujte do katalogu Unity nebo zadejte jiné umístění úložiště pro pipeline.
DBSQL_INCONSISTENT_SCHEDULE_IN_PIPELINE
Kanál <pipelineId> má několik produkčních tabulek s různými nastaveními plánu: [<tableScheduleInfo>]. Všechny produkční tabulky musí mít stejný plán.
DBSQL_INVALID_CHANNEL_VALUE
Neplatný kanál zadaný vlastností pipelines.channel : <channel>. Platné hodnoty jsou: <validChannels>.
DBSQL_INVALID_SCHEDULE_TYPE
Neplatný typ plánu zadaný vlastností plánu: <scheduleValue>.
DBSQL_MISSING_SCHEDULE_PROPERTY
Ve vlastnostech tabulky chybí požadovaná vlastnost plánu.
DBSQL_PIPELINE_IS_MISSING
Chybí DBSQL kanál. Obnovte materializované zobrazení nebo streamovací tabulku a vytvořte DBSQL pipeline.
DBSQL_PIPELINE_SHOULD_NOT_HAVE_MULTIPLE_TABLES
Potrubí DBSQL musí mít přesně jedno materializované zobrazení nebo streamovací tabulku, ale byly nalezeny <tablesSize> tabulky: <tables>
DELETE_PIPELINE_DISABLED
Potrubí nelze v tuto chvíli odstranit.
Požádejte prosím podporu Databricks o pomoc s odstraněním kanálu '<pipelineId>' .
DESTINATION_PIPELINE_NOT_FOUND
Cílový kanál s ID nelze<pipelineId> najít. Ujistěte se, že jste ve stejném pracovním prostoru jako kanál, jste vlastníkem kanálu a kanál se spustil alespoň jednou.
DESTINATION_PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE
Cílový kanál s ID<pipelineId> nepoužívá režim přímého publikování.
DESTINATION_PIPELINE_PERMISSION_DENIED
Tuto operaci nemůžete provést, nejste vlastníkem cílového kanálu s ID<pipelineId>. Datový tok tabulky můžou změnit jenom vlastníci.
DESTINATION_PIPELINE_TYPE_NOT_WORKSPACE_PIPELINE_TYPE
Cílový kanál s ID<pipelineId> není kanál ETL.
DIRECTORY_PATH_REQUIRES_GLOB
Cesta <path> je adresář. Pokud chcete zahrnout všechny soubory v adresáři, použijte v konfiguraci kanálu vzor globu s příponou **, /<path>**.
Nepovolený požadavek na obnovení pipeline
Požadavek <request> není povolen pro kanál <pipelineId> ve stavu RESTORING.
DO_CREATE_OR_EDIT_INVALID_USER_ACTION
Při zpracování požadavku '<action>' došlo k chybě.
DROP_SCHEDULE_SCHEDULE_DOES_NOT_EXIST
Nelze odstranit SCHEDULE z tabulky bez existujícího plánu nebo spouštěče.
DUPLICATED_FROM_JSON_SCHEMA_LOCATION
Duplikovaný klíč umístění schématu from_json: <schemaLocationKey>.
Pro každý from_json dotaz v kanálu vyberte jedinečné klíče umístění schématu.
DUPLICATED_INGESTION_CONFIG_TABLE_SPECS
Konfigurace kanálu příjmu dat obsahuje duplicitní tabulky. Ujistěte se, že je každá tabulka jedinečná.
EMPTY_INGESTION_CONFIG_OBJECTS
Konfigurační objekty pro příjem dat jsou prázdné.
ENHANCED_AUTOSCALING_REQUIRES_ADVANCED_EDITION
Rozšířené nastavení automatického škálování spare_capacity_fraction je podporováno pouze v rozšířené edici produktu Lakeflow Spark deklarativních kanálů.
Upravte nastavení pipeliny a nastavte "edition": "advanced", aby bylo možné využít "spare_capacity_fraction".
ENVIRONMENT_PIP_INSTALL_ERROR
Instalace závislosti prostředí se nezdařila: '<pipDependency>'. Zkontrolujte prosím protokoly stdout ovladače v clusteru pro další podrobnosti.
EVENT_LOG_PICKER_FEATURE_NOT_SUPPORTED
Publikování protokolu událostí do katalogu Unity se v režimu starší verze publikování nepodporuje. Pokud chcete tuto funkci povolit, proveďte migraci kanálu do výchozího režimu publikování podle kroků v průvodci https://docs.databricks.com/aws/en/dlt/migrate-to-dpmmigrací. Pokud raději používáte starší režim publikování, odeberte konfiguraci event_log ze specifikace kanálu.
EXPECTATION_VIOLATION
Tok '<flowName>' nesplní očekávání.
Další podrobnosti najdete v tématu EXPECTATION_VIOLATION
EXPLORE_ONLY_CANNOT_BE_SET_WITH_VALIDATE_ONLY
explore_only i validate_only nelze nastavit na hodnotu true.
EXPLORE_ONLY_IS_NOT_ENABLED
explore_only aktualizace není povolená. Kontaktujte prosím podporu Databricks.
FAILED_TO_CREATE_EVENT_LOG
Nepodařilo se vytvořit protokol událostí (ID=<pipelineId>) s identifikátorem <eventLogIdentifier>. Další podrobnosti najdete v níže uvedené výjimce.
FAILED_TO_PUBLISH_VIEW_TO_METASTORE
Publikování zobrazení <viewName> do metastoru se nezdařilo, protože <reason>.
FAILED_TO_UPDATE_EVENT_LOG
Nepodařilo se aktualizovat identifikátor kanálu v protokolu událostí (ID=<pipelineId>) na <newEventLogIdentifier>. Další podrobnosti najdete v níže uvedené výjimce.
FLOW_SCHEMA_CHANGED
Tok <flowName> se ukončil, protože během provádění došlo ke změně schématu.
Změna schématu je kompatibilní se stávajícím cílovým schématem a další průběh toku může pokračovat s novým schématem.
FOREACH_BATCH_SINK_ONLY_SUPPORTED_IN_PREVIEW_CHANNEL
Deklarativní kanály Sparku Lakeflow foreachBatch se v současné době nepodporují.
Kanál vyžaduje privátní PREVIEW verzi Preview pro deklarativní kanály Sparku ForeachBatch.
Deklarativní kanály Sparku Lakeflow: <sinkNames>
GATEWAY_PIPELINE_INIT_SCRIPTS_NOT_ALLOWED
Potrubí Gateway neumožňuje inicializační skripty clusteru. Odeberte ho ze <from>.
GATEWAY_PIPELINE_SPARK_CONF_NOT_ALLOWED
Přivaděč Gateway nepovoluje konfiguraci Sparku [<configs>]. Odeberte je prosím z <from>.
GET_ORG_UPDATE_CAPACITY_LIMIT_EXCEEDED
Počet požadovaných ID organizace překračuje maximální povolený limit <limit>
GOOGLE_ANALYTICS_RAW_DATA_CONNECTOR_SOURCE_CATALOG_MISSING
V konektoru surových dat Google Analytics došlo k chybě.
Ve specifikaci příjmu dat chybí zdrojový katalog (ID projektu GCP).
Pokud chcete tento problém vyřešit, zadejte do specifikace příjmu dat zdrojový katalog (ID projektu).
HMS_NOT_ENABLED
Metastore Hive není povolen pro tento pracovní prostor; publikujte prosím do katalogu Unity.
ILLEGAL_COLUMN_TO_UPDATE_DATA_TYPE
Datový typ sloupce zadaného v COLUMNS TO UPDATE musí být pole řetězců, ale byl nalezen <illegalDataType>.
ILLEGAL_ID_PARAM_IN_PIPELINE_SETTINGS
Nastavení nesmí obsahovat '<fieldName>'.
ILLEGAL_SCHEMA_FIELD_IN_PIPELINE_SPEC
Zadané pole schema v nastavení kanálu je nezákonné. Důvod: <reason>.
INCORRECT_ROOT_PATH_TYPE
Kořenová cesta '<rootPath>' musí být adresář, ale nalezeno <objectType>.
INCREMENTAL_REFRESH_UNAVAILABLE_WITH_STRICT_REFRESH_POLICY
materializované zobrazení má zásadu INCREMENTAL_STRICT aktualizace, která ale nemůže být přírůstková.
ÚDRŽBA INFRASTRUKTURY
Ovladač v clusteru <clusterId> byl ukončen kvůli údržbě infrastruktury.
INGESTION_CONFIG_DUPLICATED_SCHEMA
Konfigurace kanálu příjmu dat obsahuje duplicitní schémata. Ujistěte se, že každé schéma je jedinečné.
INGESTION_GATEWAY_AUTHENTICATION_FAILURE
Selhání ověřování
Pro lepší přehled viz INGESTION_GATEWAY_AUTHENTICATION_FAILURE
INGESTION_GATEWAY_BREAKING_SCHEMA_CHANGE_FAILURE
Mezi zdrojovými a cílovými tabulkami byla zjištěna neshoda schématu. K vyřešení tohoto problému se vyžaduje úplná aktualizace tabulky '<entityName>' v kanálu zpracování dat.
INGESTION_GATEWAY_CAPTURE_INSTANCE_UNAVAILABLE
Instance <entityName> zachytávání už není ve zdroji dostupná.
Po povolení CDC nebo CT v tabulce aktivujte úplnou aktualizaci.
INGESTION_GATEWAY_CDC_LOG_TRUNCATED
Protokol CDC byl zkrácen pro tabulku '<entityName>', důvod: <errorMessage>.
Příčinou může být zkrácení protokolů uchovávání protokolů CDC před zpracováním protokolů sledování změn.
Tabulka bude vynechána ze zpracování. Pokud chcete znovu povolit zpracování, aktualizujte tabulku.
INGESTION_GATEWAY_CDC_NOT_ENABLED
CDC není zapnuto pro <entityType> '<entityName>'. Povolte CDC a aktualizujte tabulku v kanálu příjmu dat. Chybová zpráva: '<errorMessage>'
INGESTION_GATEWAY_DB_VERSION_NOT_SUPPORTED
Verze databáze není podporována.
Další podrobnosti najdete v tématu INGESTION_GATEWAY_DB_VERSION_NOT_SUPPORTED
INGESTION_GATEWAY_DDL_OBJECTS_MISSING
Chybí objekty DDL na '<entityType><entityName>'. Spusťte skript objektů DDL a úplně obnovte tabulku v ingestním kanálu. Chybová zpráva: '<errorMessage>'
INGESTION_GATEWAY_HEALTH_CHECKER_VALIDATION_CYCLE_FAILED
Ověřovací cyklus interní kontroly stavu se nezdařil. Pokud problém přetrvává, zkuste to znovu v dalším cyklu. Vytvořte lístek.
Chybová zpráva: <errorMessage>
INGESTION_GATEWAY_MISSING_CONNECTION_REFERENCE
V konfiguraci brány příjmu dat chybí připojení.
Přidejte odkaz na připojení katalogu Unity obsahující vaše přihlašovací údaje.
Podrobnosti o definici pipeline pro bránu příjmu dat:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_CATALOG
Konfigurace brány příjmu dat postrádá katalog interního umístění úložiště.
Přidejte prosím interní katalog umístění úložiště.
Podrobnosti o definici pipeline pro bránu příjmu dat:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_NAME
V konfiguraci brány příjmu dat chybí název interního umístění úložiště.
Přidejte název interního umístění úložiště.
Podrobnosti o definici pipeline pro bránu příjmu dat:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_SCHEMA
V konfiguraci brány příjmu dat chybí schéma interního umístění úložiště.
Přidejte schéma interního umístění úložiště.
Podrobnosti o definici pipeline pro bránu příjmu dat:
<definition>
INGESTION_GATEWAY_MISSING_TABLE_IN_SOURCE
Tabulka '<entityName>' neexistuje ve zdrojové databázi nebo byla zrušena. Vyřešte problém a kompletně aktualizujte tabulku v potrubí řízeného příjmu dat. Chybová zpráva: '<errorMessage>'
INGESTION_GATEWAY_MYSQL_BINLOG_FILE_DELETED
Požadované soubory binlogu MySQL byly odstraněny ve zdrojové databázi. K tomu obvykle dochází v případě, že doba uchovávání binlogu je příliš nízká nebo když se příjem dat restartuje po uplynutí okna uchovávání informací. Pokud chcete zmírnit, spusťte úplnou aktualizaci všech tabulek a zvyšte uchovávání binlogu ve zdroji.
Chybová zpráva: <errorMessage>
INGESTION_GATEWAY_MYSQL_MISSED_BINLOG_FILES_DETECTED
Zmeškané zjištění souborů Binlogu MySQL Proveďte úplnou aktualizaci <entityName>.
Chybová zpráva: <errorMessage>
INGESTION_GATEWAY_ORACLE_ARCHIVE_LOG_FILES_UNAVAILABLE
Soubory protokolu archivu Oracle vyžadované pro replikaci CDC už nejsou ve zdrojové databázi k dispozici. K tomu může dojít, když archivační protokoly překročí dobu uchovávání nebo se odstraní ručně. Proveďte úplnou aktualizaci všech cílových tabulek mapovaných na katalog '<catalogName>' . Pokud tento problém přetrvává, zvažte zvýšení doby uchovávání archivu protokolu ve zdrojové databázi, abyste zajistili, že protokoly zůstanou dostupné během jejich zpracování.
Chybová zpráva: <errorMessage>
INGESTION_GATEWAY_ORACLE_MISSING_CONFIGURATION
Konfigurace připojení Oracle není úplná.
Další podrobnosti najdete v tématu INGESTION_GATEWAY_ORACLE_MISSING_CONFIGURATION
INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED
Nepodařilo se změnit replikační publikaci pro <entityType> '<entityName>'
Chybová zpráva: <errorMessage>
Další podrobnosti najdete v tématu INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED
INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED
Nepodařilo se vytvořit publikaci replikace pro <entityType> '<entityName>'
Chybová zpráva: <errorMessage>
Další podrobnosti najdete v tématu INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED
INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED
Nepodařilo se zrušit publikaci replikace pro <entityType> '<entityName>'
Chybová zpráva: <errorMessage>
Další podrobnosti najdete v INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED
INGESTION_GATEWAY_PG_SLOT_CONFIG_IS_INVALIDATED
Konfigurace <entityType> <entityName> slotu replikace není v pořádku. Chcete-li tento problém vyřešit, aktivujte úplnou aktualizaci ve všech cílových tabulkách mapovaných na katalog <catalogName>.
Chybová zpráva: <errorMessage>
INGESTION_GATEWAY_PG_SLOT_CONSUMED_BY_OTHER_PROCESS
Nepodařilo se vytvořit slot replikace pro <entityType> '<entityName>' kvůli slotu replikace, který používá jiný PID.
Chybová zpráva: <errorMessage>
INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED
Nepodařilo se vytvořit slot replikace pro <entityType> '<entityName>'
Chybová zpráva: <errorMessage>
Pro více informací se podívejte na INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED
INGESTION_GATEWAY_PG_SLOT_DROP_FAILED
Nepodařilo se vynechat slot replikace pro <entityType> '<entityName>'
Chybová zpráva: <errorMessage>
Další podrobnosti najdete v tématu INGESTION_GATEWAY_PG_SLOT_DROP_FAILED
INGESTION_GATEWAY_PG_SLOT_HAS_BEEN_DELETED
Slot replikace pro '<entityType><entityName>' byl odstraněn. Spusťte úplnou aktualizaci všech cílových tabulek namapovaných na katalog .<catalogName>
Chybová zpráva: <errorMessage>
INGESTION_GATEWAY_PG_SLOT_IS_INVALIDATED
Slot replikace pro <entityType> '<entityName>' není v pořádku. Zahoďte slot a aktivujte úplnou aktualizaci všech cílových tabulek mapovaných na katalog .<catalogName>
Chybová zpráva: <errorMessage>
INGESTION_GATEWAY_SOURCE_INSUFFICIENT_PERMISSION_FAILURE
Uživatel nemá požadovaná oprávnění pro přístup k tomuto objektu nebo spustit uloženou proceduru. Ujistěte se, že jsou udělena všechna potřebná oprávnění. Projděte si následující dokumentaci: https://docs.databricks.com/aws/en/ingestion/lakeflow-connect/sql-server/database-user-requirements.
BRÁNA_PŘÍJMU_ZDROJOVÉ_SCHEMA_CHYBĚJÍCÍ_ENTITA
Pro replikaci ze zdroje nejsou k dispozici žádné tabulky.
Ověřte, že jsou tabulky správně vybrané a definované v kanálu příjmu dat.
a uživatel má potřebný přístup ke katalogu a schématu.
INGESTION_GATEWAY_SQL_SERVER_CT_DISABLED
Sledování změn pro tabulku <entityName> bylo ve zdroji zakázáno.
Po povolení CDC nebo CT v tabulce aktivujte úplnou aktualizaci.
TABULKA_BRÁNY_PŘÍSUNU_BYLA_ODSTRANĚNA
Zdrojová tabulka '<entityName>' byla u zdroje vyřazena. Chybová zpráva: <errorMessage>
INGESTION_GATEWAY_TABLE_RENAMED
Zdrojová tabulka '<entityName>' byla ve zdroji přejmenována. Chybová zpráva: <errorMessage>
BRÁNA PRO INGESTI TABELA PŘESKOČENA KVŮLI NEPODPOROVANÉMU TYPU DAT VE SLOUPCI
Tabulka '<entityName>' byla vynechána kvůli nepodporovaným sloupcům datového typu. Vyřešte problém a kompletně aktualizujte tabulku v potrubí řízeného příjmu dat. Chybová zpráva: '<errorMessage>'
INGESTION_GATEWAY_UNEXPECTED_COLUMN_UOID
Tabulka '<entityName>' byla vynechána kvůli neočekávanému identifikátoru uživatele přiřazeného ke sloupcům. Pokud chcete tento problém vyřešit, proveďte úplnou aktualizaci tabulky. Chyba: <errorMessage>.
INGESTION_GATEWAY_UNEXPECTED_TABLE_UOID
Tabulka '<entityName>' byla vynechána kvůli neočekávanému identifikátoru uživatele přiřazeného tabulce. Pokud chcete tento problém vyřešit, proveďte úplnou aktualizaci tabulky. Chyba: <errorMessage>.
INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE
Připojení selhalo kvůli nesprávnému názvu <host> hostitele nebo portu <port> zdrojové databáze.
Další podrobnosti najdete v tématu INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE
INGESTION_GATEWAY_UNSUPPORTED_CHARS_IN_OBJECT_NAME
Nepodporované znaky nalezené v objektech tabulky <entityName>, důvod: <errorMessage>. Tabulka se přeskočí. Pokud chcete povolit příjem speciálních znaků, obraťte se na podporu.
INGESTION_GATEWAY_UNSUPPORTED_OBJECT_TYPE
Objekt '<entityName>' není podporován a byl vynechán. Pokud chcete tento objekt vyřešit, odeberte ho z kanálu příjmu dat. Chybová zpráva: '<errorMessage>'
INGESTION_GATEWAY_UNTRACEABLE_TABLE_MODIFICATION
Byla zjištěna nesledovatelná úprava tabulky <entityName>, důvod: <errorMessage>.
Příčinou může být vyprázdnění tabulky, obnova protokolu CDC nebo jiná nedohledatelná operace.
Tabulka bude vynechána ze zpracování. Pokud chcete znovu povolit zpracování, aktualizujte tabulku.
BRÁNA_PŘÍJMU_XA_TRANSAKCE_NENÍ_PODPOROVÁNA
Replikace <entityType> '<entityName>' se nezdařila, protože je součástí transakce XA.
Chybová zpráva: <errorMessage>
INVALID_APPLY_CHANGES_COMMAND
AUTO CDC příkaz je neplatný.
<reason>.
INVALID_ARGUMENT_TYPE
SQLSTATE: žádný přiřazený
Hodnota neplatného typu předaného parametru '<paramName>'. Očekává se <expectedType>.
<additionalMsg>.
INVALID_COMPATIBILITY_OPTIONS
Možnosti tabulky určené pro tabulku <table> jsou neplatné, protože
Další informace naleznete v INVALID_COMPATIBILITY_OPTIONS
INVALID_CONFIG_FOR_UC_PIPELINE
Kanály UC nepodporují nastavení<configKey> "' na '<configValue>'. Odeberte tuto konfiguraci z nastavení kanálu.
INVALID_DECORATOR_USAGE
SQLSTATE: žádný přiřazený
První poziční argument předaný znaku @<decoratorName> musí být volatelný. Buď přidejte znak @<decoratorName> bez parametrů do své funkce, nebo předejte možnosti do @<decoratorName> pomocí klíčových argumentů (například <exampleUsage>).
INVALID_DESTINATION_PIPELINE_ID
Neplatné ID cílového kanálu: '<pipelineId>'. Identifikátory kanálu musí být platné UUID.
Ověřte, že používáte správné ID kanálu, ne název kanálu.
INVALID_EVENT_LOG_CONFIGURATION
Neplatná konfigurace protokolu událostí nalezená ve specifikaci kanálu: <message>
INVALID_NAME_IN_USE_COMMAND
Neplatný název '<name>' v <command> příkazu. Důvod: <reason>
INVALID_PARAM_FOR_DBSQL_PIPELINE
Parametry 'pipeline_id' a 'pipeline_type' lze specifikovat pouze při volání 'dry_run' pro DBSQL pipeline.
INVALID_REFRESH_SELECTION
Další podrobnosti viz INVALID_REFRESH_SELECTION
INVALID_REFRESH_SELECTION_REQUEST_FOR_CONTINUOUS_PIPELINE
Pro průběžný režim není podporován výběr aktualizace.
INVALID_REFRESH_SELECTION_REQUEST_WITH_FULL_REFRESH
full_refresh by nemělo být nastaveno na hodnotu true pro žádost o aktualizaci výběru.
INVALID_REWIND_SPECIFICATION
Specifikace převinutí zpět je neplatná.
Další podrobnosti najdete v tématu INVALID_REWIND_SPECIFICATION
INVALID_ROOT_PATH
Neplatná root_path '<rootPath>': V současné době se podporují pouze absolutní cesty k adresářům. Cesty k adresáři musí začínat na /a nesmí končit na /.
INVALID_SCHEMA_NAME
Neplatné schéma '<schemaName>' zadané v nastavení kanálu. Důvod: <reason>.
INVALID_SNAPSHOT_AND_VERSION_TYPE
SQLSTATE: žádný přiřazený
snapshot_and_version pro tok s cílovým<target> typem vrátil nepodporovaný typ.
<additionalMsg>.
INVALID_TRIGGER_INTERVAL_FORMAT
Konfigurace intervalu triggeru zadaná v <configurationType> je neplatná.
JIRA_ACCESS_FORBIDDEN
Uživatel, který se připojuje, nemá přístup. Znovu zkontrolujte oprávnění uživatele a zkuste to znovu.
Chybí oprávnění správce JIRA
Při volání rozhraní API Jira došlo k chybě. Ujistěte se, že dáte
uživatel, který se připojuje, má oprávnění správce Jira pro vaši instanci Jira.
Chyba: JIRA_AUTHORIZATION_FAILED
Autorizace se nezdařila při volání rozhraní API Jira. Opětovné ověření typu Kindly
připojení UC se vytvořilo a zkuste to znovu.
JIRA_CONNECTOR_ENTITY_MAPPING_PARSING_FAILED
V konektoru Jira došlo k chybě.
Během analyzování mapování entity pro typ entity došlo k problému: <entityType>. Zkontrolujte, jestli je vaše entita součástí podporovaných typů.
Pokud chyba přetrvává, vytvořte tiket.
JIRA_MISSING_REQUIRED_FIELD
V odpovědi rozhraní API Jira chybí povinné pole '<fieldName> .
JSON Uzel: <jsonNode>
JIRA_SITE_MISSING
Nelze najít cloudId odpovídající zadané doméně <domain>Jira .
Ujistěte se, že k tomuto webu má přístup připojený uživatel.
JOB_DETAILS_DO_NOT_MATCH
Pokud jsou uvedeny "update_cause_details.job_details" i "job_task", musí se shodovat, ale jsou <details> a <jobTask>
JOB_TASK_DETAILS_MISSING
Pokud je 'JOB_TASK' příčinou, je nutné zadat buď "job_task", nebo "update_cause_details.job_details".
VYTVOŘENÍ_ZASTARALÉHO_PŘIPOJENÍ_ZAKÁZÁNO
Vytváření kanálů ve starším režimu publikování je ve výchozím nastavení v pracovních prostorech zakázané. Pokud se vyžaduje výjimka, obraťte se na podporu Databricks.
LIBRARY_FILE_FETCH_PERMISSION_DENIED
Nelze získat přístup k souboru knihovny na adrese '<path>'. Ujistěte se, že má uživatel požadovaná oprávnění ke čtení tohoto souboru.
Důvod: <reason>
LIBRARY_FILE_NOT_FOUND
Soubor '<path>' nebyl nalezen nebo uživatel run_as nemá oprávnění k jeho přístupu.
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_CLASSIC
Odkazování na datové sady pomocí LIVE virtuálního schématu mimo definici dotazu datové sady (tj. @dlt.table poznámky) se nepodporuje.
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_DPM
Odkazování na datové sady pomocí LIVE virtuálních schémat <identifier> mimo definici dotazu datové sady (tj. @dlt.table poznámku) není podporováno.
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_SPARK_SQL
Odkazování na datové sady pomocí LIVE virtuálního schématu v rozhraní API spark.sql(...) nesmí být voláno mimo definici dotazu datové sady (tj. @dlt.table anotaci). Lze ji volat pouze v rámci definice dotazu datové sady.
MANAGED_INGESTION_PIPELINE_SPEC_VALIDATION_ERROR
Další podrobnosti najdete v tématu MANAGED_INGESTION_PIPELINE_SPEC_VALIDATION_ERROR
MATERIALIZED_VIEW_RETURNED_STREAMING_DATAFRAME
SQLSTATE: žádný přiřazený
Funkce dotazu pro materializované zobrazení<datasetName> vrátila streamovaný datový rámec.
Musí vrátit nestreamovaný datový rámec.
MAX_RETRY_REACHED_BEFORE_ENZYME_RECOMPUTE
Bylo dosaženo maximálního počtu opakování. Počet opakování:<flowRetryCount>. maxFlowFailureRetryCountThreshold:<maxFlowRetryAttempts>. <message>
MESA_PIPELINE_INVALID_DEFINITION_TYPE
<definitionType> Spuštění kanálu z definice UC není povoleno.
MESA_PIPELINE_MISMATCH_PIPELINE_TYPES
Uložená a aktualizovaná definice musí být stejného typu kanálu, ale musí mít <stored> a <updated>.
MESA_PIPELINE_MISSING_DEFINITION
Kanál nemá platnou definici v UC, ale vyžaduje se aktualizace.
MESA_PIPELINE_MISSING_DEFINITION_UNEXPECTED
Neočekávaně chybí definice kanálu z UC.
METASTORE_OPERATION_TIMED_OUT
Operace spojené s aktualizací informací o metastoru pro <tableName> trvaly déle než <timeout>.
Tento problém může být přechodný nebo může značit chyby v nakonfigurovaném klientovi metastoru. Zkuste restartovat pipeline a nahlásit tento problém, pokud přetrvává.
META_ADS_PARAMETERS_CHANGED
V konektoru meta marketingu došlo k chybě. Vstupní parametry tabulky ad_insights byly změněny.
Proveďte úplnou aktualizaci ovlivněných tabulek.
META_ADS_SOURCE_API_ERROR
Při volání rozhraní API meta marketingu došlo k chybě. ID trasování na Facebooku pro trasování s podporou Meta: <trace_id>.
Pokud chyba přetrvává, vytvořte tiket.
META_MARKETING_INSIGHTS_LEVEL_INVALID
Při pokusu o načtení přehledů pro tabulku ad_insights došlo v konektoru meta marketingu k chybě.
Zadaný parametr <level> úrovně je neplatný. Předejte jednu z možností (reklamy, adset, kampaň, účet).
META_MARKETING_INSIGHTS_PARAM_BREAKDOWNS_INVALID
Při pokusu o načtení přehledů pro tabulku ad_insights došlo v konektoru meta marketingu k chybě.
Zadaný parametr <breakdowns> rozpisu je neplatný. Platný seznam rozpisů najdete v dokumentaci k meta api.
Pokud chyba přetrvává, vytvořte tiket.
META_MARKETING_INSIGHTS_PARAM_TIME_INCREMENT_INVALID
Při pokusu o načtení přehledů pro tabulku ad_insights došlo v konektoru meta marketingu k chybě.
Zadaný parametr <timeInc> inkrementace času nelze analyzovat. Zadejte platné celé číslo.
META_MARKETING_INSIGHTS_START_DATE_INVALID
Při pokusu o načtení přehledů pro tabulku ad_insights došlo v konektoru meta marketingu k chybě.
Zadaný parametr <startDate> počátečního data nelze analyzovat. Zkontrolujte ho a upravte ve správném formátu RRRR-MM-DD.
META_MARKETING_INSIGHTS_START_DATE_TOO_OLD
Při pokusu o načtení přehledů pro tabulku ad_insights došlo v konektoru meta marketingu k chybě.
Zadané počáteční datum nesmí být delší než 37 měsíců od aktuálního data synchronizace. Zkontrolujte ho a upravte v zadaných parametrech.
Pokud chyba přetrvává, vytvořte tiket.
META_MARKETING_RATE_LIMIT_EXCEEDED
Limit rychlosti meta api pro tento účet reklamy byl vyčerpán. Po nějaké době zkuste aktualizaci kanálu zopakovat. Doporučuje se paralelně ingestovat méně tabulek, aby se zabránilo opětovnému dosažení limitů.
Pokud často dochází k chybám omezení rychlosti, zvažte upgrade na rozšířený přístup, pokud ještě není hotová, jak je uvedeno v dokumentaci k metadatům: https://developers.facebook.com/docs/marketing-api/get-started/authorization
META_MARKETING_REQUESTED_DATA_LIMIT_EXCEEDED
Meta API selhalo, protože požadované množství dat překračuje limit, který můžou meta servery zpracovat.
Zkuste snížit počet polí, která se mají v této tabulce ingestovat, pomocí logiky výběru sloupce. Pokud chyba přetrvává, vytvořte tiket.
MIGRATION_TO_UNITY_CATALOG
Další podrobnosti najdete v tématu MIGRATION_TO_UNITY_CATALOG
MISSING_CATALOG_OR_SCHEMA_PERMISSION
<userName>Uživatel '' nemá oprávnění k '<schemaName>'. Podrobnosti: <reason>
MISSING_CREATE_SCHEMA_PRIVILEGE
Uživatel '<userName>' nemá oprávnění k vytvoření schématu v katalogu <catalogName>
MISSING_CREATE_TABLE_PRIVILEGE
<userName>Uživatel nemá oprávnění k vytvoření tabulky ve schématu.<schemaName>
MISSING_RUN_AS_USER
Pro aktualizaci nebyl specifikován žádný uživatel pro spuštění.
MULTI_QUERY_SNAPSHOT_TARGET_NOT_SUPPORTED
'<tableName>' již obsahuje AUTO CDC FROM SNAPSHOT dotaz '<flowName>'. V současné době toto rozhraní API podporuje pouze jeden tok na cíl.
MUTUALLY_EXCLUSIVE_OPTIONS
Vzájemně se vylučující možnosti <options>. Odeberte jednu z těchto možností.
NEGATIVE_VALUE
SQLSTATE: žádný přiřazený
Hodnota pro <arg_name> musí být větší nebo rovna 0, získáno '<arg_value>'.
NON_UC_TABLE_ALREADY_MANAGED_BY_OTHER_PIPELINE
Tabulka '<tableName>' je již spravována kanálem <otherPipelineId>.
Pokud chcete, aby byla tabulka '<tableName>' spravována tímto kanálem –
Odstraňte tabulku z toku '
<otherPipelineId>'.Zahajte úplnou aktualizaci pro toto potrubí.
Pokud chcete pokračovat ve správě tabulky z více kanálů, zakažte tuto kontrolu nastavením konfiguračního pipelines.tableManagedByMultiplePipelinesCheck.enabled na false v nastavení kanálu.
Nedoporučuje se to, protože souběžné operace v tabulce můžou vzájemně kolidovat a vést k neočekávaným výsledkům.
NOTEBOOK_NAME_LIMIT_REACHED
Neplatná cesta poznámkového bloku: ...<nameStart><nameEnd>. Je delší než <maxNotebookPathLength> znaků.
NOTEBOOK_NOT_FOUND
Nelze získat přístup k poznámkovému bloku<notebookPath> ''. Buď neexistuje, nebo identita použitá ke spuštění tohoto kanálu <identity>nemá požadovaná oprávnění.
NOTEBOOK_PIP_INSTALL_ERROR
Spuštění příkazu '<pipInstallCommand>' z poznámkového bloku se nezdařilo: <notebookPath>. Zkontrolujte prosím protokoly stdout ovladače v clusteru pro další podrobnosti.
NOTEBOOK_TOO_LARGE
Vyřešený obsah poznámkového bloku je<notebookPath> příliš velký, zmenšete velikost poznámkového bloku.
NOTIFICATIONS_DUPLICATE_ALERTS
Duplicitní výstrahy<alertsDuplicates> zadané v [<alerts>]
NOTIFICATIONS_DUPLICATE_EMAIL_ADDRESSES
Duplicitní e-mailové adresy<emailRecipientsDuplicates> zadané v [<emailRecipients>]
NOTIFICATIONS_INVALID_ALERTS
Byla zadána neplatná upozornění pro zasílání oznámení: <invalidAlerts>
NOTIFICATIONS_INVALID_EMAIL_ADDRESS
Zadaná neplatná e-mailová adresa pro příjem oznámení: <invalidEmailAddresses>
NOTIFICATIONS_MISSING_PARAMS
Zadejte alespoň jednoho příjemce a jednu výstrahu v <setting>
NO_SOURCE_OR_SNAPSHOT_AND_VERSION_ARGUMENT_PROVIDED
SQLSTATE: žádný přiřazený
Pro source apply_changes_from_snapshot s cílem '' musí být nastavena nebo snapshot_version musí být nastavena<target>.
NO_TABLES_IN_PIPELINE
Očekává se, že kanály budou mít alespoň jednu tabulku definovanou, ale v kanálu se nenašly žádné tabulky.
Ověřte, že jste zahrnuli a sdíleli v případě konfigurace Spustit jako, očekávaných zdrojových souborů nebo adresářů a ověřte, že zdrojový kód obsahuje definice tabulek (například CREATE MATERIALIZED VIEW v kódu @dlt.table SQL v kódu Pythonu).
Všimněte si, že do této kontroly se započítávají pouze tabulky. K této chybě může dojít také v případě, že v datovém proudu zahrnete jenom zobrazení nebo toky.
OUTPUT_MODE_NOT_SUPPORTED_FOR_TABLE_FLOW
Výstupní režim '<outputMode>' není podporován pro tok tabulky '<flowName>' cílící na tabulku '<target>'. Pro toky tabulek se podporuje pouze režim připojení.
OWNER_IS_MISSING
Vlastník neexistuje.
PAGINATION_REQUEST_HAS_NAME_AND_PAGINATION
Můžete zadat buď <name>, nebo stránkování, ale ne obojí.
PATCH_PIPELINE_DEFINITION_UNSUPPORTED_FIELD
PatchPipelineDefinition podporuje pouze pole schedule, ale poskytnutá definice obsahovala další vyplněná pole: '<updatedDefinition>'.
PERSISTED_VIEW_READS_FROM_STREAMING_SOURCE
Trvalá zobrazení nepodporují čtení ze streamovaných zdrojů.
PERSISTED_VIEW_READS_FROM_TEMPORARY_VIEW
Trvalé zobrazení <persistedViewName> nemůže odkazovat na dočasné zobrazení <temporaryViewName>, které nebude dostupné mimo obor roury. Buď změňte trvalé zobrazení na dočasné, nebo zachovejte dočasné zobrazení trvale.
PIPELINE_CLONING_ALREADY_IN_PROGRESS
Kanál se už klonuje do kanálu s ID '<pipelineId>' .
PIPELINE_CLONING_BOTH_TARGET_AND_SCHEMA_SPECIFIED
Při klonování kanálu nelze zadat "target" i "schema". Zadejte pouze jednu.
PIPELINE_CLONING_CANNOT_CHANGE_SCHEMA_TO_TARGET
Kanál se schématem nelze naklonovat do kanálu s cílem. Klonovaný kanál musí také použít schéma nebo vynechat obě, aby se dědila původní hodnota.
PIPELINE_CLONING_INVALID_DURING_ACTIVE_UPDATE
Potrubí s ID <pipelineId> nelze naklonovat během aktivní aktualizace.
PIPELINE_CLONING_INVALID_FIELDS
Požadavek zahrnoval specifikaci pipeline s neplatnými poli pro klonování. Mezi povolená pole patří: název, katalog, cíl, konfigurace.
PIPELINE_CLONING_INVALID_FOR_MISSING_TARGET
Kanál s ID <pipelineId> nepublikuje do cílového schématu. Zdrojový kanál musí publikovat do cílového schématu, které má být naklonováno. Zkuste to znovu po zadání pole 'cílové' ve specifikaci pracovního procesu a poté spusťte novou aktualizaci k publikování do cílového schématu.
PIPELINE_CLONING_INVALID_FOR_UC_PIPELINE
Potrubí s ID '<pipelineId>' už je potrubím UC. Kanály UC nelze naklonovat.
PIPELINE_CLONING_NO_CATALOG_SPECIFIED
Nebyl zadán žádný zadaný katalog pro klonování.
PIPELINE_CLONING_NO_MODE_SPECIFIED
Žádný zadaný režim klonování.
PIPELINE_CLONING_NO_TARGET_SPECIFIED
Nebyl zadán cílový katalog pro klonování.
PIPELINE_CREATION_NOT_ENABLED_FOR_WORKSPACE
Pro tento pracovní prostor není povoleno vytváření pipeline.
PIPELINE_DOES_NOT_EXIST
Potrubí s ID <pipelineId> neexistuje.
Další podrobnosti najdete v tématu PIPELINE_DOES_NOT_EXIST
PIPELINE_ENVIRONMENT_NOT_ENABLED
Použití prostředí v deklarativních kanálech Sparku Lakeflow není povolené.
PIPELINE_ENVIRONMENT_VERSION_NOT_ALLOWED
Prostředí kanálu v současné době nepodporuje verze prostředí.
PIPELINE_FAILED_TO_UPDATE_UC_TABLE_DUE_TO_CONCURRENT_UPDATE
Pipeline se nepodařilo aktualizovat tabulku UC (<tableName>) kvůli souběžným změnám po <attempts> pokusech.
Ověřte, jestli nedochází k úpravám tabulky externími procesy, zkuste aktualizaci zopakovat a pokud problém přetrvává, obraťte se na podporu Databricks.
PIPELINE_FAILED_TO_UPDATE_UC_TABLE_DUE_TO_EXTERNAL_DELETE
Tabulku <tableName> odstranila externí operace během aktualizace kanálu.
Ujistěte se, že tabulku neupravují žádné externí procesy, a pak zkuste aktualizaci zopakovat.
Pokud problém přetrvává, obraťte se na podporu Databricks.
PIPELINE_FOR_TABLE_NEEDS_REFRESH
Tabulka <tableName> není v požadovaném stavu, tabulka se nedávno neaktualizovala. Kanál s ID<pipelineId> musí být spuštěn ještě jednou a pak operaci opakujte.
PIPELINE_FOR_TABLE_NOT_FOUND
Kanál s ID<pipelineId>, který spravuje tabulku <tableName>, nelze najít. Ujistěte se, že jste ve stejném pracovním prostoru jako kanál, jste vlastníkem kanálu a kanál se spustil alespoň jednou.
PIPELINE_GLOB_INCLUDES_CONFLICTS
V nastavení datového kanálu by mělo být nastaveno buď pole glob, nebo pole poznámkového bloku/souboru v knihovnách. Změňte nastavení potrubí.
PIPELINE_GLOB_INCLUDES_NOT_SUPPORTED
Použití pole globu k zahrnutí zdrojových souborů je funkce Preview a je zakázaná.
Znovu vyberte každý zdrojový soubor, který má kanál zahrnout, aby se tato chyba vyřešila.
Spojte se s podporou Databricks a získejte další informace o této funkci a zaregistrujte se ve verzi Preview.
PIPELINE_GLOB_UNSUPPORTED_SPECIAL_CHARACTER
Speciální znaky <specialChar> jsou rezervované a neměly by se používat v obsažené cestě <path> v rámci nastavení kanálu. Odebráním těchto znaků chybu opravíte.
PIPELINE_NAME_LIMIT_REACHED
Název nemůže být delší než <maxPipelineNameLength> znaky.
PIPELINE_NON_RETRYABLE_ANALYSIS_CLIENT_ERROR
Nepodařilo se analyzovat zdrojové tabulky (<tables>) kvůli nevratným chybám po částečném provedení.
Nová aktualizace kanálu se nevytvořila.
<flowErrors>
Zkontrolujte protokol událostí a opravte problémy odpovídajícím způsobem.
PIPELINE_NOT_ELIGIBLE_FOR_RESTORATION
Kanál '<pipelineId>' je za oknem obnovení.
PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE
Kanál s ID<pipelineId>, který spravuje tabulku <tableName>, nepoužívá režim přímého publikování.
PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE
Tabulka ještě není připravená k aktualizaci.
Další podrobnosti najdete v tématu PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE
PIPELINE_PERMISSION_DENIED_NOT_OWNER
Tuto operaci nelze provést. Nejste vlastníkem kanálu s ID<pipelineId> a nespravujete tabulku <tableName>.
ANALÝZA_OPAKOVATELNÁ_PIPELINU
Nepodařilo se potrubí analyzovat zdrojové tabulky (<tables>) kvůli opakovatelným chybám po částečném spuštění.
Vytvoří se nová aktualizace potrubí pro opakované zpracování. Pokud chyba přetrvává, zkontrolujte protokol událostí a odpovídajícím způsobem vyřešte problémy.
PIPELINE_SETTINGS_FIELD_CANNOT_BE_EDITED
Uživatele <uneditableFieldName> nelze upravovat. Pokud uživatelé chtějí přidat nebo upravit <settingName>pole , použijte místo toho pole '<editableFieldName>' .
PIPELINE_SETTINGS_MODIFIED_CONCURRENTLY
Nastavení pipeline bylo upraveno souběžně.
PIPELINE_SETTINGS_UNSUPPORTED_CONFIGURATIONS
Konfigurace nejsou podporovány deklarativními kanály <configurations> Sparku lakeflow. Odeberte tyto konfigurace.
PIPELINE_SETTING_SHOULD_NOT_SPECIFY_DEVELOPMENT
Spuštění aktualizace s nastavením 'development' se nepodporuje.
PIPELINE_SHOULD_NOT_HAVE_MULTIPLE_TABLES
Potrubí musí mít přesně jednu tabulku, ale nalezeno <tablesSize> tabulek: <tables>
PIPELINE_SOURCE_FILE_NUMBER_EXCEEDED
Počet zdrojových souborů, včetně souborů deklarovaných ve složkách, překračuje limit .<limit>
Odeberte nebo sloučíte nadměrné soubory a v případě potřeby změňte odpovídající specifikaci kanálu.
nebo kontaktujte podporu Databricks a požádejte o navýšení limitu.
PIPELINE_SOURCE_FOLDER_DEPTH_EXCEEDED
Složka '<folder_path>' překračuje maximální povolenou úroveň vnoření adresáře <limit>. Snižte úroveň vnoření složek nebo kontaktujte podporu Databricks a požádejte o navýšení limitu.
PIPELINE_SPEC_PARAM_CANNOT_BE_CHANGED
Změna následujícího parametru <param> v nastavení kanálu není povolená.
PIPELINE_TYPE_NOT_SUPPORTED
Typ kanálu '<pipelineType>' není podporován.
PIPELINE_TYPE_NOT_WORKSPACE_PIPELINE_TYPE
Kanál s ID<pipelineId> ,, který spravuje tabulku <tableName>, není kanál ETL.
PIPELINE_TYPE_QUOTA_EXCEEDED
Aktualizaci nelze<updateId> spustit, protože bylo dosaženo limitu pro aktivní kanály typu '<pipelineType>' .
PIPELINE_UPDATE_FOR_TABLE_IS_RUNNING
Potrubí s ID <pipelineId>, které spravuje tabulku <tableName>, je spuštěné. Před spuštěním operace zastavte potrubí.
PIPELINE_WORKSPACE_LIMIT_REACHED
Vytvoření kanálu typu '<pipelineType>' blokováno, protože pracovní prostor<orgId> '' už má kanály '<countLimit>'. Odstraňte nepoužívané kanály.
PIP_INSTALL_NOT_AT_TOP_OF_NOTEBOOK
Našli jsme buňky obsahující %pip instalaci, které nejsou umístěny v horní části poznámkového bloku pro '<notebookPath>'
Přesuňte všechny instalační buňky %pip na začátek poznámkového bloku.
PY4J_BLOCKED_API
SQLSTATE: žádný přiřazený
Používáte rozhraní PYTHON API, které není v aktuálním prostředí podporované.
Další alternativy najdete v dokumentaci k Databricks.
<additionalInfo>
QUERY_BASED_CONNECTOR_SOURCE_API_ERROR
Při volání rozhraní API <sourceName> došlo k chybě. Typ zdrojového rozhraní API: <qbcSourceApiType>.
Zkuste aktualizovat cílovou tabulku. Pokud problém přetrvává, nahlaste problém.
QUERY_BASED_INGESTION_CONNECTOR_ERROR
V konektoru pro příjem dat založeným na dotazech došlo k chybě pro <sourceName>.
Další podrobnosti najdete v tématu QUERY_BASED_INGESTION_CONNECTOR_ERROR
REFERENCE_DLT_DATASET_OUTSIDE_QUERY_DEFINITION
Odkazování na datovou sadu <identifier> deklarativních kanálů Spark Sparku mimo definici dotazu datové sady (tj @dlt.table . anotaci) se nepodporuje. Prosím, přečtěte si ji uvnitř definice dotazu datové sady.
REFRESH_INITIATED_FROM_INVALID_WORKSPACE
Aktualizace musí být inicializována v pracovním prostoru <homeWorkspaceId>, kde byl prostředek vytvořen.
Pokus o aktualizaci byl proveden v pracovním prostoru <userWorkspaceId>.
REFRESH_MODE_ALREADY_EXISTS
Do tabulky, která již má <type>, nelze přidat <existingType> . Odstraňte existující plán nebo použijte ALTER TABLE...ALTER <type> ... a změnit ho.
REQUIRED_PARAM_NOT_FOUND
Požadovaný parametr <param> nebyl nalezen.
RESERVED_KEYWORD_IN_USE_CATALOG
USE CATALOG '<reservedKeyword>' je neplatné, protože<reservedKeyword> '' je vyhrazené klíčové slovo v deklarativních kanálech Sparku Lakeflow.
RESERVED_KEYWORD_IN_USE_SCHEMA
USE SCHEMA '<reservedKeyword>' je neplatné, protože<reservedKeyword> '' je vyhrazené klíčové slovo v deklarativních kanálech Sparku Lakeflow.
Zdroje jsou poskytovány
Prostředky potrubí se zřizují pro potrubí '<pipelineId>'.
RESOURCE_READ_ONLY_IN_WORKSPACE
<resourceType> V<resourceName> aktuálním pracovním prostoru byla označena jako jen pro čtení.
RESTORE_NON_DELETED_PIPELINE
Potrubí '<pipelineId>' není odstraněno. Obnovení se vztahuje pouze na odstraněné kanály.
RESTORE_PIPELINE_DISABLED
Pro typ kanálu není povolený parametr RestorePipeline. <pipelineType>
Pokud potřebujete pomoc s obnovením kanálu<pipelineId>, obraťte se na podporu Databricks.
ROOT_PATH_NOT_FOUND
Nelze získat přístup ke kořenové cestě '<rootPath>'. Ujistěte se, že máte požadovaná přístupová oprávnění.
RUN_AS_USER_NOT_FOUND
Zadané spuštění jako uživatel<runAsUserId> pro aktualizaci v pracovním prostoru neexistuje.
SAAS_CONNECTION_ERROR
Nepodařilo se vytvořit připojení ke zdroji <sourceName>. Kód chyby: <saasConnectionErrorCode>.
Další podrobnosti najdete v tématu SAAS_CONNECTION_ERROR
SAAS_CONNECTOR_DUPLICATE_DATA
V tabulce <tableName>byla nalezena duplicitní data . Typ zdroje: <sourceName>.
Další podrobnosti najdete v tématu SAAS_CONNECTOR_DUPLICATE_DATA
SAAS_CONNECTOR_INVALID_INCLUDE_COLUMNS
Neplatné include_columns zadané pro tabulku <qualifiedTableName>. Důvod: <reason>
SAAS_CONNECTOR_INVALID_PRIMARY_KEY_CONFIGURATION
Neplatná konfigurace primárního klíče pro tabulku <qualifiedTableName>. Důvod: <reason>
SAAS_CONNECTOR_MUTUAL_AUTHENTICATION_FAILED
Tuto relaci nelze vzájemně ověřit pro použití s <sourceName>. Typ zdrojového rozhraní API: <saasSourceApiType>. Kód chyby: <saasSourceApiErrorCode>.
Ověřte, že klientský certifikát a privátní klíč jsou platným párem a důvěřují ho <sourceName>.
SAAS_CONNECTOR_REFRESH_TOKEN_EXPIRED
Platnost obnovovacího tokenu pro připojení <connectionName> vypršela. Upravte připojení, znovu ověřte a znovu spusťte kanál.
SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR
V tabulce <tableName> zdroje <sourceName> došlo ke změně schématu.
Další podrobnosti naleznete v SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR
SAAS_CONNECTOR_SOURCE_API_ERROR
Při volání rozhraní API <sourceName> došlo k chybě. Typ zdrojového rozhraní API: <saasSourceApiType>. Kód chyby: <saasSourceApiErrorCode>.
Zkuste aktualizovat cílovou tabulku. Pokud problém přetrvává, nahlaste problém.
SAAS_CONNECTOR_UC_CONNECTION_OAUTH_EXCHANGE_FAILED
Výměna tokenu OAuth selhala pro připojení UC: <connectionName>.
Příčinou můžou být problémy s přihlašovacími údaji UC. Zkontrolujte trasování chyb, upravte připojení UC, znovu ověřte a znovu spusťte kanál. Pokud chyba přetrvává, vytvořte tiket.
SAAS_CONNECTOR_UNSUPPORTED_ERROR
Ve zdroji dat <sourceName>došlo k nepodporované chybě.
Další podrobnosti najdete v SAAS_CONNECTOR_UNSUPPORTED_ERROR
SAAS_INCOMPATIBLE_SCHEMA_CHANGES_DURING_INIT
Při inicializaci kanálu jsme zjistili nekompatibilní změny schématu:
<details>
Proveďte úplnou aktualizaci ovlivněných tabulek.
SAAS_PARTIAL_ANALYSIS_INPUT_CREATION_ERROR
Při vytváření vstupu pro částečnou analýzu došlo k chybě. Nová aktualizace kanálu se nevytvořila.
Zkontrolujte protokol událostí a opravte problémy odpovídajícím způsobem.
SAAS_SCHEMA_DIVERGED_DURING_ANALYSIS
Analyzované schéma zdrojové tabulky se<table> liší od očekávaného schématu.
Zkuste aktualizaci pipeline zopakovat a zkontrolujte, jestli je problém vyřešený.
Pokud tento problém přetrvává, proveďte úplnou aktualizaci tabulek uvedených výše.
Očekávané schéma:
<expectedSchema>
Skutečné schéma:
<actualSchema>
SAAS_UC_CONNECTION_INACCESSIBLE
Poskytnuté připojení <connectionName> je nepřístupné. Zkontrolujte připojení a zkuste to znovu.
Další podrobnosti najdete v tématu SAAS_UC_CONNECTION_INACCESSIBLE
SCHEMA_SPEC_EMPTY_CATALOG
SchemaSpec má prázdný řetězec v poli katalogu.
Odstraňte prázdný řetězec nebo přidejte název katalogu. (Pokud toto schéma nepatří do katalogu ve zdroji, nenastavujte pole.)
Podrobnosti specifikace schématu:
<schemaSpec>
SCHEMA_SPEC_EMPTY_SCHEMA
SchemaSpec má prázdný řetězec v poli schématu.
Odstraňte prázdný řetězec nebo přidejte název schématu. (Pokud tato tabulka nepatří do schématu ve zdroji, nenastavujte pole.)
Podrobnosti specifikace schématu:
<schemaSpec>
SCHEMA_SPEC_REQUIRE_ONE_OF_CATALOG_SCHEMA
Musí existovat alespoň jeden zdrojový katalog a zdrojové schéma. Ale oba jsou prázdné.
Podrobnosti specifikace schématu:
<schemaSpec>
SEQUENCE_BY_COLUMN_NOT_FOUND
Definice kanálu zahrnuje sloupce sequence_by (<columnNames>), které neexistují v tabulce <qualifiedTableName> zdroje <sourceType>. Odeberte tento/těchto sloupec/sloupce z pole sequence_by.
SERVERLESS_BUDGET_POLICY_AND_USAGE_POLICY_BOTH_SET
Nelze nastavit obě budget_policy_id a usage_policy_id. Prosím, odeberte budget_policy_id.
SERVERLESS_BUDGET_POLICY_BAD_REQUEST
Zadaná rozpočtová politika s ID <budgetPolicyId> nelze v tomto pracovním prostoru použít kvůli omezením vazeb zásad pracovního prostoru.
SERVERLESS_BUDGET_POLICY_IS_INVALID
Zásady bezserverového rozpočtu s ID '<budgetPolicyId>' jsou neplatné.
SERVERLESS_BUDGET_POLICY_MISSING
Zásady bezserverového rozpočtu s ID <budgetPolicyId> neexistují.
SERVERLESS_BUDGET_POLICY_NOT_ENABLED
Zásady bezserverového rozpočtu nejsou aktivovány, obraťte se na podporu Databricks.
SERVERLESS_BUDGET_POLICY_NOT_ENABLED_FOR_ACCOUNT
Pro tento účet nejsou povolené zásady bezserverového rozpočtu. Uživatel nemůže zadat zásady rozpočtu pro tento kanál. Správce účtu by se měl pokusit zapsat se prostřednictvím portálu s ukázkou funkcí. Pokud problém přetrvává, obraťte se na podporu Databricks.
SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_NON_SERVERLESS_PIPELINE
Zásady bezserverového rozpočtu nelze přiřadit k nebezserverovému kanálu.
SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_PIPELINE_TYPE
Zásady bezserverového rozpočtu nejsou podporovány pro typ kanálu <pipelineType>.
SERVERLESS_BUDGET_POLICY_PERMISSION_DENIED
Uživatel nemá oprávnění používat bezserverové zásady rozpočtu s ID .<budgetPolicyId>
SERVERLESS_NOT_AVAILABLE
Bezserverové výpočetní prostředky nejsou k dispozici. Další informace získáte od společnosti Databricks.
SERVERLESS_NOT_ENABLED
S deklarativními kanály Lakeflow Spark nemůžete používat bezserverové výpočetní prostředky. Pokud chcete tuto funkci pro váš pracovní prostor povolit, obraťte se na Databricks.
SERVERLESS_NOT_ENABLED_FOR_USER
Výpočetní prostředí bez serveru není pro volajícího povolené. Pokud chcete tuto funkci povolit, obraťte se na správce pracovního prostoru.
SERVERLESS_NOT_ENABLED_FOR_WORKSPACE
Bezserverové výpočetní prostředky nejsou pro tento pracovní prostor nebo oblast k dispozici. Další informace získáte od společnosti Databricks.
SERVERLESS_REQUIRED
V tomto pracovním prostoru musíte používat bezserverové výpočetní prostředky.
SERVICENOW_CONNECTION_ERROR
Ve službě ServiceNow došlo k chybě. Typ zdrojového rozhraní API: <saasSourceApiType>.
Další podrobnosti najdete v tématu SERVICENOW_CONNECTION_ERROR
SERVICENOW_CONNECTOR_EMPTY_CURSOR_KEY_ERROR
V ServiceNow došlo k chybě. Typ zdrojového rozhraní API: <saasSourceApiType>.
V tuto chvíli kanál příjmu dat nemůže ingestovat tabulku '<tableName>', protože kurzorový klíč v řádku obsahuje prázdné pole.
Pokud chcete pokračovat ve spouštění kanálu, odeberte tuto tabulku. Pokud chyba přetrvává, vytvořte tiket.
SERVICENOW_CONNECTOR_INSTANCE_HIBERNATION_ERROR
Ve službě ServiceNow došlo k chybě. Typ zdrojového rozhraní API: <saasSourceApiType>.
Připojení k instanci ServiceNow se nezdařilo. Zdá se, že instance hibernuje nebo je neaktivní.
Přihlaste se k portálu pro správu ServiceNow a chvíli počkejte, dokud se instance plně neprobudí.
Pokud chyba přetrvává, vytvořte tiket.
SERVICENOW_CONNECTOR_INSTANCE_OFFLINE_ERROR
Ve službě ServiceNow došlo k chybě. Typ zdrojového rozhraní API: <saasSourceApiType>.
Připojení k instanci ServiceNow se nezdařilo. Instance je offline.
Přihlaste se k portálu pro správu ServiceNow a chvíli počkejte, než se instance obnoví.
Pokud chyba přetrvává, vytvořte tiket.
SERVICENOW_CONNECTOR_INVALID_TABLE_ERROR
Ve službě ServiceNow došlo k chybě. Typ zdrojového rozhraní API: <saasSourceApiType>.
Nepodařilo se dotázat na schéma tabulky '<tableName>'. Tabulka pro tohoto uživatele neexistuje v účtu ServiceNow.
Ověřte název tabulky pro překlepy a ujistěte se, že má uživatel potřebná oprávnění pro přístup k tabulce.
Pokud chyba přetrvává, vytvořte tiket.
SERVICENOW_CONNECTOR_IP_ADDRESS_RESTRICTED_ERROR
Ve službě ServiceNow došlo k chybě. Typ zdrojového rozhraní API: <saasSourceApiType>.
Připojení k instanci ServiceNow se nezdařilo. Instance má omezení řízení přístupu IP adres.
Pokud chcete tento problém vyřešit, zakažte omezení IP adres tak, že přejdete na ServiceNow >> All >> System Security >> IP Address Access Control nebo použijete bezserverové stabilní IP adresy.
Pokud chyba přetrvává, vytvořte tiket.
SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR
Ve službě ServiceNow došlo k chybě. Typ zdrojového rozhraní API: <saasSourceApiType>.
Byla zjištěna neplatná adresa URL koncového bodu rozhraní API ServiceNow. Struktura adresy URL neodpovídá očekávanému formátu ServiceNow.
Zkontrolujte konfiguraci instance ServiceNow v přihlašovacích údajích pro připojení UC.
Další podrobnosti najdete v tématu SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR
SERVICENOW_CONNECTOR_MAX_FAILED_ATTEMPTS_REACHED
Ve službě ServiceNow došlo k chybě. Typ zdrojového rozhraní API: <saasSourceApiType>.
K tomu často dochází v případě, že načtení dat pro tabulku trvá příliš dlouho. Jako první krok ve spolupráci se správcem ServiceNow povolte indexování ve sloupci kurzoru.
Sloupec kurzoru je vybrán z následujícího seznamu v pořadí dostupnosti a předvolby: sys_updated_on (první volba), sys_created_on (druhá volba), sys_archived (třetí volba).
Pokyny k povolení indexování v ServiceNow najdete tady: https://docs.databricks.com/ingestion/lakeflow-connect/servicenow-overview#why-is-my-servicenow-ingestion-performance-slow.
Doporučujeme také zvýšit časový limit dotazu rozhraní REST API na více než 60 sekund, aby bylo možné načíst záznamy více času.
Poté zkuste znovu spustit potrubí pro příjem dat. Pokud problém přetrvává, vytvořte požadavek.
SERVICENOW_KONEKTOR_SCHÉMA_TYPU_POLE_NEPŘÍSTUPNÉ
V ServiceNow došlo k chybě. Typ zdrojového rozhraní API: <saasSourceApiType>.
Při načítání schématu tabulky s neadministrátorskými oprávněními není internal_type sloupců schématu přístupný.
Pokud chcete tento problém vyřešit, udělte aktuálnímu uživateli oprávnění ke čtení v tabulce sys_glide_object.
Pokud chyba přetrvává, vytvořte tiket.
SERVICENOW_CONNECTOR_SCHEMA_FIELD_TYPE_MISMATCH
Při načítání schématu tabulky došlo v ServiceNow k chybě.
Byly nalezeny dva konfliktní datové typy pro pole '<fieldName>': '<firstDataType>' a '<secondDataType>'.
Pokud chcete pokračovat ve spouštění kanálu, odeberte tuto tabulku. Pokud chyba přetrvává, vytvořte tiket.
SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
Ve službě ServiceNow došlo k chybě. Typ zdrojového rozhraní API: <saasSourceApiType>.
Další podrobnosti najdete v tématu SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
SET_TBLPROPERTIES_NOT_ALLOWED_FOR_PIPELINE_TABLE
ALTER <commandTableType>
...
SET TBLPROPERTIES není podporováno. Pokud chcete upravit vlastnosti tabulky, změňte původní definici a spusťte aktualizaci.
SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE
Příjem dat pro objekt <objName> není úplný, protože úloha dotazu rozhraní API Salesforce trvala příliš dlouho, selhala nebo byla ručně zrušena.
Další podrobnosti najdete v SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE
SFDC_CONNECTOR_BULK_QUERY_NOT_FOUND
Příjem dat objektu <objName> selhal, protože se nepodařilo najít úlohu hromadného dotazu rozhraní API Salesforce.
Důvodem je pravděpodobně to, že úloha byla odstraněna v uživatelském rozhraní Salesforce nebo kvůli tomu, že od poslední aktualizace kanálu uplynulo více než 7 dnů, po které Salesforce tuto úlohu automaticky odstraní.
Pokud chcete aktivovat novou hromadnou úlohu, proveďte FULL REFRESH na konkrétní cílové tabulce.
SFDC_CONNECTOR_CREATE_BULK_QUERY_API_LIMIT_EXCEEDED
Při volání rozhraní API Salesforce došlo k chybě: Došlo k překročení limitu rozhraní API.
Počkejte prosím, než se limity rozhraní API resetují. Pak zkuste aktualizovat cílovou tabulku.
Pokud chyba přetrvává, vytvořte tiket.
SFDC_CONNECTOR_CREATE_BULK_QUERY_JOB_FAILED
Příjem dat pro objekt <objName> není úplný, protože vytvoření úlohy hromadného dotazu rozhraní API Salesforce selhalo. Kód chyby: <saasSourceApiErrorCode>.
<actionText>.
SFDC_CONNECTOR_MALFORMED_RECORDS
Příjem dat objektu<objName> Salesforce selhal, protože Salesforce <saasSourceApiType> vrátil poškozené záznamy.
Další podrobnosti najdete v trasování zásobníku.
Ověřte data v Salesforce a znovu spusťte kanál.
SINKS_NOT_SUPPORTED_IN_SEG
Deklarativní kanály Sparku Lakeflow v kanálu nejsou podporovány v pracovních prostorech s povoleným řízením výchozího přenosu dat bez serveru. Podporované jímky deklarativních kanálů Sparku pro Lakeflow jsou Kafka a Delta.
Jsou nalezeny následující nepodporované jímky: <sinkNames>, jejich odpovídající formáty jsou: <sinkFormats>.
SOURCE_TABLE_NOT_MATERIALIZED
Nepodařilo se přečíst závislou datovou sadu '<sourceTableName>', protože není zmaterializována. Spusťte celé datové potrubí pro vytvoření všech propojených datových sad.
SPARK_CONNECT_DEFINITION_PATH_NOT_FOUND
Cesta definice pro prvek grafu '<graphElementName>' nebyla nalezena. Kontaktujte prosím podporu Databricks.
SPARK_CONNECT_DEFINITION_PATH_NOT_FOUND_SPARK_SQL
V aktuálním kontextu spouštění Spark SQL není k dispozici žádná cesta definice kanálu. Kontaktujte prosím podporu Databricks.
SPARK_CONNECT_UNSUPPORTED_FLOW_DEFINITION_ERROR
Definice toku není podporována. Kontaktujte prosím podporu Databricks. Příkaz: <defineFlowCommand>
SPARK_CONNECT_UNSUPPORTED_OUTPUT_TYPE
Typ výstupu '<outputType>' se v připojení Sparku nepodporuje. Kontaktujte prosím podporu Databricks.
STANDALONE_PRIVATE_MVST_NOT_SUPPORTED
Vytvoření samostatného PRIVATE MV/ST se nepodporuje. Prosím, odeberte PRIVATE modifikátor.
SPUSTIT_PYTHON_REPL_VYPRŠEL_ČAS
Časový limit při čekání na spuštění pythonového REPL Trvalo déle než <timeoutSeconds> sekundy.
STREAMING_TARGET_NOT_DEFINED
Cílovou tabulku <target> pro <command> příkaz nelze najít. Cílová tabulka <target> není v datovém toku definována.
SYNCED_TABLE_USER_ERROR
Chyba uživatele v synchronizovaném datovém kanálu tabulky.
Další podrobnosti najdete v tématu SYNCED_TABLE_USER_ERROR
TABLE_CHANGED_DURING_OPERATION
Tabulka <tableName> byla změněna mimo tuto transakci a tato transakce byla vrácena zpět. Zkuste operaci zopakovat.
TABLE_MATERIALIZATION_CYCLIC_FOREIGN_KEY_DEPENDENCY
Aktualizace zásobníku pro potrubí: <pipelineId> zjistila cyklický řetězec omezení cizího klíče: <tables>.
TABLE_SPEC_BOTH_CATALOG_SCHEMA_REQUIRED
TableSpec chybí jeden ze zdrojového katalogu nebo zdrojového schématu.
Specifikace tabulky:
<tableSpec>
TABLE_SPEC_EMPTY_CATALOG
TableSpec má prázdný řetězec v poli katalogu.
Odstraňte prázdný řetězec nebo přidejte název katalogu. (Pokud tato tabulka nepatří do katalogu ve zdroji, nenastavujte pole.)
Specifikace tabulky:
<tableSpec>
TABLE_SPEC_EMPTY_SCHEMA
V poli schématu ve TableSpec je prázdný řetězec.
Odstraňte prázdný řetězec nebo přidejte název schématu. (Pokud tato tabulka nepatří do schématu ve zdroji, nenastavujte pole.)
Specifikace tabulky:
<tableSpec>
TABLE_SPEC_EMPTY_TABLE
Název tabulky je prázdný. Zadejte název tabulky.
Specifikace tabulky:
<tableSpec>
TABLE_TOKEN_NOT_EXIST_FOR_SCHEMA_EVOLUTION_LEGACY_TABLE
Vývoj schématu nelze povolit kvůli chybějícím metadatům. Spusťte úplnou aktualizaci.
Důvod: Token tabulky snímků musí být definován, když je povolen vývoj schématu.
Smazaný_pipeline_v_pracovním_prostoru
Potrubí nelze spustit, protože je vyřazeno nebo odstraněno.
TRIGGER_INTERVAL_VALUE_INVALID
Aktivační interval musí být pozitivní doba trvání, maximální přijatelná hodnota je 2 147 483 647 sekund. Přijato: <actual> sekund.
SPOUŠTĚČ_NENÍ_AKTIVOVÁN
Triggery nejsou pro tento pracovní prostor povolené. Povolte triggery tabulek na stránce Náhledy.
TRIGGER_ON_VIEW_READ_FROM_FILE_NOT_SUPPORTED
Zdrojem <source> je zobrazení, které čte z umístění souboru, které triggerem v současné době není podporováno.
CHYBA_SERIALIZACE_POŽADAVKU_TRIGGERU
Při zpracování vaší žádosti došlo k problému. Kontaktujte prosím podporu Databricks.
TRIGGER_SECURABLE_KIND_NOT_SUPPORTED (typ zabezpečeného objektu není podporován)
Nastavení triggeru se nezdařilo: nepodporovaný typ tabulky. Informace o podporovaných typech najdete v dokumentaci.
TRIGGER_SOURCE_TYPE_NOT_SUPPORTED
Spouštěč v současné době nepodporuje zdroj <source> s typem <type>.
TRIGGER_STATE_SERIALIZATION_ERROR
Při zpracování vaší žádosti došlo k problému. Kontaktujte prosím podporu Databricks.
LIMIT TABULKY SPOUŠTĚČE PŘEKROČEN
Nastavení triggeru se nezdařilo: Trigger obsahuje více tabulek, než je povolený limit. Podrobnosti o omezeních tabulek a jejich řešení najdete v dokumentaci.
TRIGGER_TABLE_TYPE_NOT_SUPPORTED
Nastavení triggeru se nezdařilo: nepodporovaný typ tabulky. Informace o podporovaných typech najdete v dokumentaci.
UC_CLEARING_TARGET_SCHEMA_NOT_ALLOWED
Vymazání pole cílového schématu pro UC pipeline není povoleno. Důvod: <reason>.
UC_IAM_ROLE_NON_SELF_ASSUMING
U přihlašovacích údajů úložiště se zjistilo, že role IAM není samoobslužná.
Zkontrolujte vztah důvěryhodnosti vaší role a zásady IAM a ujistěte se, že se vaše role IAM může převzít sama podle dokumentace k přihlašovacím údajům k úložišti katalogu Unity.
UC_NOT_ENABLED
Použití katalogu UC v deklarativních kanálech Lakeflow Spark není povolené.
UC_PIPELINE_CANNOT_PUBLISH_TO_HMS
Kanály s podporou UC nemůžou publikovat do metastoru Hive. Zvolte jiný cílový katalog.
UC_TARGET_SCHEMA_REQUIRED
Pro UC potrubí je vyžadováno pole cílového schématu. Důvod: <reason>.
UNABLE_TO_INFER_TABLE_SCHEMA
Nepodařilo se odvodit schéma tabulky <tableName> z nadřazených toků.
Upravte toky, které do této tabulky zapisují, aby byly jejich schémata kompatibilní.
Dosud odvozené schéma:
<inferredDataSchema>
Nekompatibilní schéma:
<incompatibleDataSchema>
UNEXPECTED_PIPELINE_SCHEMA_PERMISSION_ERROR
Neočekávaná chyba při kontrole oprávnění schématu pro kanál <pipelineId>. Kontaktujte prosím podporu Databricks.
ROW_FILTERSNELZE_NASTAVIT_KOMPATIBILITU_UNIFORM_NEBO_COLUMN_MASKS
Jednotnou kompatibilitu nelze nastavit u materializovaných zobrazení nebo streamovaných tabulek, které mají použitý filtr řádků nebo masky sloupců.
UNITY_CATALOG_INITIALIZATION_FAILED
Během nastavování kanálu v clusteru <clusterId> došlo k chybě s katalogem Unity.
Ujistěte se, že je konfigurace katalogu Unity správná a že existují požadované prostředky (například katalog, schéma) a jsou přístupné.
Ověřte také, že cluster má příslušná oprávnění pro přístup ke katalogu Unity.
Podrobnosti: <ucErrorMessage>
UNRESOLVED_SINK_PATH
Cestu k úložišti pro <identifier> nelze vyřešit. Kontaktujte prosím podporu Databricks.
UNRESOLVED_TABLES_FOR_MAINTENANCE
V definici kanálu byly nalezeny následující tabulky, ale během údržby nebylo možné je vyřešit. Spusťte spuštění aktualizace kanálu s nejnovější definicí kanálu, která materializuje všechny tabulky v definici kanálu a odblokuje údržbu, nebo pokud potíže potrvají, obraťte se na podporu Databricks.
<unresolvedTableIdentifiersSet>
UNRESOLVED_TABLE_PATH
Cestu k úložišti pro tabulku <identifier> nelze vyřešit. Kontaktujte prosím podporu Databricks.
UNSUPPORTED_ALTER_COMMAND
ALTER <commandTableType>
...
<command> není podporováno.
UNSUPPORTED_CHANNEL_FOR_DPM
Nepodporovaný kanál pro režim přímého publikování Očekávejte kanál 'CURRENT' nebo 'PREVIEW', ale máte 'PREVIOUS'
UNSUPPORTED_COMMAND_IN_NON_DPM_PIPELINE
<command> Podporuje se pouze v režimu přímého publikování s povoleným deklarativním kanálem Sparku.
UNSUPPORTED_COMMAND_IN_QUERY_DEFINITION
V definici dotazu se nepodporuje '<command>' . Přesuňte příkaz mimo definici dotazu. Pokud se jedná o deklarativní kanál Sparku v Pythonu, přesuňte ho<command> mimo @dlt.table()/@dlt.view() dekorátor. Pokud se jedná o deklarativní kanál Sparku v jazyce Scala, přesuňte metodu '<command>' mimo metodu dotazu.
UNSUPPORTED_CUSTOM_DBR_VERSION
Vlastní verze <v> DBR není podporována v pracovních prostorech SHIELD a HIPAA. Bylo očekáváno jedno z [<supportedDbrVersions>]
Nepodporovaný náhled vlastního schématu
Předběžný přístup k vlastnímu schématu je zakázán.
Vytvořte nový kanál s výchozím režimem publikování pomocí pole Schema.
ve specifikaci kanálu a přesuňte datové sady z tohoto kanálu do nového kanálu.
UNSUPPORTED_CUSTOM_SCHEMA_PREVIEW_ENABLEMENT
Privátní verze Preview vlastního schématu je zakázaná a náhled nelze přidat do kanálu.
Odeberte <sparkConfKeys> konfiguraci kanálu.
UNSUPPORTED_DBR_VERSION
Verze DBR '<v>' není podporována. Bylo očekáváno jedno z [<supportedDbrVersions>]
UNSUPPORTED_FEATURE_FOR_WORKSPACE
<featureName> není ve vašem pracovním prostoru podporována. Pokud chcete povolit tuto funkci pro váš pracovní prostor, obraťte se na podporu Databricks.
UNSUPPORTED_LANGUAGE
Nepodařilo se načíst <language> poznámkový blok '<notebookPath>'. V současné době se podporují pouze <supportedLanguages> poznámkové bloky.
UNSUPPORTED_LIBRARY_FILE_TYPE
<path> Soubor nemá příponu .py ani .sql. Podporovány jsou pouze soubory Python a SQL v datových tocích.
UNSUPPORTED_LIBRARY_NOTEBOOK_LANGUAGE
Nepodporovaný jazyk <language> poznámkového bloku <path>. Kanály podporují pouze Python a SQL.
UNSUPPORTED_LIBRARY_OBJECT_TYPE
Zahrnutá v cestě <path> je typu <objectType> , který není podporován. V současné době se jako knihovny dají používat jenom poznámkové bloky a soubory. Pokud chcete tento problém vyřešit, odeberte nepodporovaný objekt nebo aktualizujte knihovny nakonfigurované pro tento kanál, aby byly zahrnuty pouze podporované typy objektů.
UNSUPPORTED_MANAGED_INGESTION_SOURCE_TYPE
Neplatná definice spravovaného kanálu ingestování, nepodporovaný typ zdroje: <sourceType>.
UNSUPPORTED_MULTIPLE_UPDATE_TYPE
Ověřte pouze aktualizace, prozkoumejte je a převiňte zpět se vzájemně vylučují. Měla by být nastavena maximálně jedna.
UNSUPPORTED_REWIND
Pro tento pracovní prostor ještě nejsou povolené operace převinutí zpět.
UNSUPPORTED_SAAS_INGESTION_TYPE
Zadaný typ příjmu dat <ingestionType> se nepodporuje.
Pokud tento problém přetrvává, obraťte se na podporu Databricks.
UNSUPPORTED_SPARK_SQL_COMMAND
V<command> rozhraní API spark.sql("...") v Pythonu deklarativních kanálů Sparku lakeflow se nepodporuje' . Podporovaný příkaz: <supportedCommands>.
UNSUPPORTED_SQL_STATEMENT
Nepodporovaný příkaz SQL pro <datasetType> '<datasetName>': <operation> není podporován.
UPDATED_DEFINITION_SET_FOR_NON_DBSQL_PIPELINE
Updated_definition můžou mít jenom DBSQL kanály.
USE_CATALOG_IN_HMS
Použití CATALOG se podporuje jenom v deklarativním kanálu Sparku s podporou UC.
VIEW_TEXT_NOT_SAVED_IN_UC
Tabulku nelze aktualizovat <tableName>, protože neobsahuje dotaz uložený v katalogu Unity. Kontaktujte prosím podporu Databricks.
WORKDAY_HCM_CONNECTOR_FETCH_BATCH_FAILED
V Workday HCM došlo k chybě. Typ zdrojového rozhraní API: <saasSourceApiType>.
Nepodařilo se načíst dávku při posunu '<offset>'.
Zkuste aktualizovat cílovou tabulku. Pokud problém přetrvává, nahlaste problém.
WORKDAY_REPORTS_CONNECTOR_INSUFFICIENT_OAUTH_SCOPE_ERROR (Chyba nedostatečného rozsahu OAuth pro konektor Workday Reports)
V sestavách Workday došlo k chybě. Typ zdrojového rozhraní API: <saasSourceApiType>.
Načtení dat pro sestavu '<reportUrl>' se nezdařilo. OAuth klient nemá dostatečný rozsah oprávnění pro načtení sestavy.
Pokud chcete tento problém vyřešit, ujistěte se, že klient OAuth má nakonfigurované nezbytné obory v Aplikaci Workday.
Pokud chyba přetrvává, vytvořte tiket.
WORKDAY_REPORTS_CONNECTOR_CHYBĚJÍ_POVINNÉ_PARAMETRY_CHYBA
V sestavách Workday došlo k chybě. Typ zdrojového rozhraní API: <saasSourceApiType>.
Sestava Workday<reportUrl> očekává parametr .<missingParam>
Ujistěte se, že jsou do adresy URL zahrnuty všechny parametry sestavy; Můžete zkontrolovat konfiguraci sestavy Workday a zjistit, které parametry jsou povinné.
Pokud problém přetrvává, vytvořte požadavek.
WORKDAY_REPORTS_CONNECTOR_REPORT_NOT_FOUND_ERROR
V sestavách Workday došlo k chybě. Typ zdrojového rozhraní API: <saasSourceApiType>.
Adresa URL '<reportUrl>' hlášení je nesprávná. Pokud chcete tento problém vyřešit, zkontrolujte případné překlepy v základní adrese URL nebo v názvu sestavy.
Pokud problém přetrvává, vytvořte požadavek.
Chyba: WORKDAY_REPORTS_CONNECTOR_REPORT_SIZE_EXCEEDED_ERROR
V sestavách Workday došlo k chybě. Typ zdrojového rozhraní API: <saasSourceApiType>.
Velikost sestavy s adresou URL <reportUrl> je větší než 2 GB. Ujistěte se, že velikost sestavy nepřekračuje tento limit.
Pokud problém přetrvává, vytvořte požadavek.
WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
V sestavách Workday došlo k chybě. Typ zdrojového rozhraní API: <saasSourceApiType>.
Další podrobnosti najdete v tématu WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
WORKDAY_REPORT_URL_EMPTY
Adresa URL zprávy Workday je prázdná. Musí být poskytnuta alespoň jedna zpráva.
WORKSPACE_QUOTA_EXCEEDED
Aktualizaci nelze<updateId> spustit, protože v tomto pracovním prostoru již<maxActiveUpdates> jsou aktivní kanály spuštěné.
Installation
CHYBA_ZÁKLADNÍ_SOUČAST_ENVIRONMENTU_NENALEZENA
SQLSTATE: žádný přiřazený
Chybí soubor YAML základního prostředí. Ujistěte se, že soubor existuje v zadané cestě.
Popis: Nastane, když požadovaný soubor YAML základního prostředí nelze najít v očekávaném umístění.
Navrhovaná akce: Ujistěte se, že v zadané cestě existuje soubor YAML základního prostředí, a zkuste instalaci zopakovat.
Chyba: ČTENÍ SOUBORU ZÁKLADNÍHO PROSTŘEDÍ (ERROR_BASE_ENVIRONMENT_FILE_READ)
SQLSTATE: žádný přiřazený
Čtení souboru základního prostředí se nezdařilo kvůli nesprávné syntaxi nebo formátu souboru YAML. Zkontrolujte obsah souboru.
Popis: Nastane, když soubor YAML základního prostředí obsahuje chyby syntaxe nebo formátu.
Navrhovaná akce: Ověřte a opravte syntaxi YAML v souboru prostředí a pak zkuste instalaci zopakovat.
CHYBA_PŘIPOJENÍ_ODMÍTNUTO
SQLSTATE: žádný přiřazený
Nelze se připojit k úložišti balíčků. Zkontrolujte dostupnost síťového připojení, nastavení brány firewall nebo úložiště.
Popis: Nastane, když pip nemůže navázat připojení ke vzdálenému úložišti balíčků kvůli problémům se sítí, omezením brány firewall nebo výpadkům úložiště.
Navrhovaná akce: Ověřte připojení k síti, zkontrolujte nastavení brány firewall nebo proxy serveru, ověřte, jestli je adresa URL úložiště přístupná, a zkuste to znovu později, pokud je úložiště dočasně nedostupné.
ERROR_CORE_PACKAGE_VERSION_CHANGE
SQLSTATE: žádný přiřazený
Nainstalovaný balíček není kompatibilní s základními balíčky Databricks. Zarovnejte verze balíčků s předinstalovanými verzemi knihovny a zkuste instalaci zopakovat.
Popis: Nastane, když se změní verze závislosti jádra Databricks (například pyspark).
Navrhovaná akce: Zarovnejte nainstalované verze balíčků s předinstalovanými knihovnami a zkuste instalaci zopakovat.
CHYBA: Balíček CRAN není dostupný
SQLSTATE: žádný přiřazený
Pro předinstalovanou verzi jazyka R na tomto výpočetním prostředí není k dispozici balíček CRAN.
Popis: Nastane, když balíček R není publikován pro nainstalovanou verzi jazyka R na výpočetní prostředky.
Navrhovaná akce: Přepněte na výpočetní prostředky s kompatibilní verzí jazyka R nebo zvolte jinou verzi balíčku.
ERROR_DBFS_DISABLED
SQLSTATE: žádný přiřazený
Veřejný přístup ke kořenovému přístupu DBFS je zakázaný. Použijte alternativní úložiště.
Popis: Nastane při pokusu o instalaci knihoven z DBFS, ale veřejný kořen DBFS je v pracovním prostoru zakázaný.
Navrhovaná akce: Použijte alternativní umístění úložiště, jako jsou svazky UC, soubory pracovního prostoru nebo vzdálené úložiště.
ERROR_DIRECTORY_NOT_INSTALLABLE
SQLSTATE: žádný přiřazený
Adresář není možné nainstalovat kvůli neplatné struktuře balíčků Pythonu. Zkontrolujte, jestli je adresář správně nastavený.
Popis: Nastane, když se instalace pip spustí v adresáři bez platné struktury balíčku Pythonu.
Navrhovaná akce: Ujistěte se, že adresář obsahuje setup.py nebo pyproject.toml, a zkuste to znovu nebo ho zabalte jako kolo.
CHYBA_DUPLIKÁTNÍ_INSTALACE
SQLSTATE: žádný přiřazený
Byla zjištěna duplicitní instalace balíčku. Zkuste odebrat duplicitní položku balíčku a restartovat cluster.
Popis: Nastane, když je stejný balíček již nainstalován v clusteru a pokusí se o duplicitní instalaci.
Navrhovaná akce: Odeberte duplicitní položky balíčku a restartujte cluster.
ERROR_FEATURE_DISABLED
SQLSTATE: žádný přiřazený
Svazky katalogu Unity jsou v pracovním prostoru zakázané. Pokud chcete tuto funkci povolit, obraťte se na správce pracovního prostoru.
Popis: Nastane, když jsou svazky katalogu Unity zakázány v pracovním prostoru, což brání instalaci ze svazků UC.
Navrhovaná akce: Požádejte správce pracovního prostoru o povolení svazků katalogu Unity nebo použijte alternativní úložiště.
ERROR_HASH_MISMATCH
SQLSTATE: žádný přiřazený
Byla zjištěna neshoda hodnot hash balíčku. Hodnota hash staženého balíčku neodpovídá očekávané hodnotě hash.
Popis: Nastane, když hodnota hash staženého balíčku neodpovídá očekávané hodnotě hash.
Navrhovaná akce: Zopakujte instalaci, restartujte cluster nebo přesuňte velké instalace balíčků do souborů pracovních prostorů, svazků UC nebo privátního úložiště PyPI.
ERROR_INVALID_FILE
SQLSTATE: žádný přiřazený
Zadaný soubor nelze nainstalovat z důvodu nesprávného typu souboru. Ověřte, že používáte platný a podporovaný typ souboru.
Popis: Nastane, když zadaný soubor knihovny nelze nainstalovat z důvodu nesprávného typu nebo formátu souboru.
Navrhovaná akce: Použijte podporovaný typ souboru knihovny (například kolo, jar) a ověřte platnost cesty.
ERROR_INVALID_REQUIREMENT
SQLSTATE: žádný přiřazený
Nesprávné syntaxe nebo chybné položky v souborech požadavků nebo závislostech balíčků Zkontrolujte a opravte obsah souborů požadavků a závislostí balíčků.
Popis: Neplatný nebo poškozený formát požadavku zjištěný v souboru požadavků nebo ve specifikacích závislostí balíčku.
Navrhovaná akce: V souborech požadavků použijte správný formát (například library-name==version), ověřte, jestli jsou formáty závislostí balíčku platné, a zkontrolujte překlepy nebo nepodporované specifikátory verze.
CHYBA_NEPLATNÝ_VSTUPNÍ_BOD_SKRIPTU
SQLSTATE: žádný přiřazený
Neplatný vstupní bod skriptu Zkontrolujte vstupní body balíčku nebo soubor setup.py.
Popis: Nastane, když zadaný vstupní bod skriptu konzoly neexistuje v metadatech balíčku.
Navrhovaná akce: Ověřte název vstupního bodu v setup.py nebo pyproject.toml nebo se obraťte na správce balíčku.
CHYBA_NEPLATNÁ_KONFIGURACE_ÚLOŽIŠTĚ
SQLSTATE: žádný přiřazený
Pro účet cloudového úložiště byla zjištěna neplatná hodnota konfigurace úložiště. Zkontrolujte konfiguraci úložiště, nastavení účtu a přihlašovací údaje.
Popis: Nastane, když je konfigurace účtu cloudového úložiště poškozená nebo nesprávná.
Navrhovaná akce: Opravte konfiguraci úložiště pro účet a zkuste instalaci zopakovat.
CHYBA_NEPLATNÝ_VSTUP_UŽIVATELE
SQLSTATE: žádný přiřazený
Neplatná syntaxe balíčku a/nebo zadané argumenty. Ověřte, zda jsou vstupy a možnosti pro instalaci knihovny platné.
Popis: Nastane při vyvolání pip s neplatnými možnostmi nebo argumenty.
Navrhovaná akce: Ověřte možnosti pip a syntaxi příkazů, opravte vstup a zkuste instalaci zopakovat.
ERROR_INVALID_WHEEL (Neplatné kolo)
SQLSTATE: žádný přiřazený
Byl zjištěn poškozený, chybný nebo neplatný soubor wheel. Zkontrolujte prosím soubor kola nebo zkuste instalaci zopakovat.
cs-CZ: Popis: Nastane, když pip během instalace narazí na poškozený, neúplný nebo nesprávně strukturovaný soubor kola.
Navrhovaná akce: Vymažte mezipaměť pip, znovu stáhněte nebo sestavte balíček Wheel, přeinstalujte a před opětovným pokusem ověřte jeho celistvost.
ERROR_JAR_EVICTED
SQLSTATE: žádný přiřazený
Balíček JAR byl vyřazen překladačem kvůli konfliktům verzí. Vyřešte konflikty verzí závislostí.
Popis: Nastane, když řešení závislostí v Mavenu vyřadí soubor JAR kvůli konfliktům verzí s jinými závislostmi.
Navrhovaná akce: Řešte konflikty v konfiguraci závislostí nebo použijte explicitní přepsání verzí.
CHYBA_VYŘEŠENÍ_KNIHOVNY_MAVEN
SQLSTATE: žádný přiřazený
Nelze vyřešit souřadnice knihovny Maven. Ověřte podrobnosti knihovny, přístup k úložišti nebo dostupnost úložiště Maven.
Popis: Nastane, když Maven nemůže najít nebo vyřešit zadanou knihovnu kvůli nesprávným souřadnicům, problémům se sítí nebo výpadkům úložiště.
Navrhovaná akce: Ověřte formát groupId:artifactId:version, zkontrolujte adresy URL a přihlašovací údaje úložiště, zkuste alternativní úložiště nebo akci opakujte později, pokud je úložiště dočasně nedostupné.
ERROR_NO_MATCHING_DISTRIBUTION
SQLSTATE: žádný přiřazený
Nejde stáhnout nebo získat přístup k zadaným prostředkům cloudového úložiště, obvykle kvůli chybným konfiguracím, chybějícím závislostem nebo problémům s připojením. Zkontrolujte nastavení cloudového úložiště.
Popis: Nastane, když cluster nemůže stáhnout nebo nainstalovat soubory knihovny z cloudového úložiště, obvykle kvůli chybným konfiguracím, chybějícím závislostem nebo problémům se sítí.
Navrhovaná akce: Ujistěte se, že jsou identifikátory URI cloudového úložiště správné, přihlašovací údaje jsou platné a všechny požadované síťové proxy servery nebo knihovny jsou správně nakonfigurované, a pak zkuste instalaci zopakovat.
ERROR_SOU_BOR_NEBO_SLOŽKA_NENALEZENA
SQLSTATE: žádný přiřazený
Soubor knihovny neexistuje nebo uživatel nemá oprávnění ke čtení souboru knihovny. Zkontrolujte, jestli soubor knihovny existuje a uživatel má správná oprávnění pro přístup k souboru.
Popis: Nastane, když zadaný soubor chybí nebo je nepřístupný v dané cestě během instalace knihovny.
Navrhovaná akce: Ověřte, že soubor existuje na zadané cestě, opravte cestu nebo nahrajte chybějící soubor a ujistěte se, že jsou správně nastavená oprávnění.
ERROR_OPERATION_NOT_SUPPORTED
SQLSTATE: žádný přiřazený
Instalace knihovny není pro tento typ souboru podporována z požadovaného systému souborů. Zkontrolujte typ knihovny a projděte si uživatelskou příručku o podporované knihovně v aktuálním výpočetním prostředí.
Popis: Nastane, když cílový systém souborů, typ souboru nebo výpočetní typ nepodporuje požadovanou operaci během instalace.
Navrhovaná akce: Použijte podporovaný systém souborů, typ souboru nebo výpočetní typ nebo upravte cíl instalace na podporované umístění.
CHYBA_PŘÍSTUP_ODMÍTNUT
SQLSTATE: žádný přiřazený
Uživatel nemá dostatečná oprávnění k instalaci balíčku. Zkontrolujte přístupová práva k souboru a adresáři pro uživatele.
Popis: K této situaci dojde, když uživatel provádějící instalaci nemá oprávnění ke čtení nebo zápisu souboru či adresáře během instalace.
Navrhovaná akce: Ověřte a udělte v cílovém adresáři správná oprávnění nebo se obraťte na správce systému.
ERROR_PIP_CONFIG
SQLSTATE: žádný přiřazený
Uživatel se pokusil nainstalovat knihovnu Pythonu, ale konfigurační soubor pip na úrovni pracovního prostoru obsahuje chyby syntaxe nebo je poškozený. Zkontrolujte a opravte konfigurační soubor pip.
Popis: Nastane, když konfigurační soubor pip obsahuje chyby syntaxe nebo je poškozený.
Navrhovaná akce: Opravte chyby syntaxe v konfiguračním souboru pip, odeberte konfigurační soubor pro použití výchozího nastavení, restartujte cluster a zkuste instalaci zopakovat.
ERROR_PYTHON_REPL_RESTORE_FAILURE
SQLSTATE: žádný přiřazený
Obnovení pythonu REPL se po instalaci balíčku nezdařilo.
Popis: Obvykle dochází v případě, že se základní balíčky Pythonu aktualizují způsobem, který během obnovení přeruší běhové prostředí.
Navrhovaná akce: Zkontrolujte nedávno nainstalované balíčky a instalační balíčky, které jsou kompatibilní s výchozími nastaveními prostředí Databricks, jako jsou numpy, pandas, pyspark a další standardní knihovny. Ujistěte se, že jsou verze kompatibilní s vaší verzí Databricks Runtime. Pokud stále dochází k selhání, obraťte se na podporu Databricks.
CHYBA_POŽADAVKY_SOUBOR_INSTALACE
SQLSTATE: žádný přiřazený
Soubory requirements.txt, které obsahují svazek katalogu Unity nebo odkaz na soubor pracovního prostoru, nejsou podporovány ve clusterech bez podpory UC. Použijte cluster s podporou UC ke instalaci souboru requirements.txt, který odkazuje na svazek UC nebo soubor pracovního prostoru.
Popis: Nastane, když requirements.txt obsahuje svazky UC nebo odkazy na soubory workspace v clusteru bez povoleného UC.
Navrhovaná akce: Použijte cluster s podporou UC pro requirements.txt, který odkazuje na pracovní prostor nebo soubory UC, nebo tyto odkazy odeberte.
ERROR_REQUIRE_HASHES
SQLSTATE: žádný přiřazený
Chybějící hodnoty hash při spuštění pip v režimu --require-hashes a požadavek neobsahuje žádnou hodnotu hash. Vyřešte požadavky na hodnotu hash nebo zakažte kontrolu hodnot hash.
Popis: Nastane, když se pip spouští v režimu --require-hashes a požadavek nemá hash.
Navrhovaná akce: Přidejte hodnoty hash pro všechny balíčky v requirements.txt nebo odeberte příznak --require-hashes.
ERROR_RESTART_PYTHON
SQLSTATE: žádný přiřazený
Restartování procesu Pythonu se nezdařilo. Příčinou může být aktualizace verze balíčku, která je v konfliktu s předinstalovanými knihovnami modulu runtime. Zkontrolujte a zarovnejte závislosti balíčků a jejich verze.
Popis: Nastane, když se prostředí Pythonu po instalaci knihovny nedá restartovat, často kvůli konfliktům mezi nainstalovanými balíčky a předinstalovanými knihovnami Databricks Runtime.
Navrhovaná akce: Zarovnejte nainstalované verze balíčků s předinstalovanými knihovnami Databricks Runtime, abyste se vyhnuli konfliktům a chybám restartování Pythonu.
ERROR_RESTART_SCALA
SQLSTATE: žádný přiřazený
Restartování procesu Scala se nezdařilo. Příčinou může být neshoda verzí Scala v jar scala (například spuštění souboru JAR 2.12 v jádru 2.13). Zkontrolujte verze Scala a přizpůsobte je.
Popis: Dochází k tomu, když se prostředí Scala nemůže restartovat, často kvůli konfliktům způsobeným neshodou verzí Scala v JAR souborech.
Navrhovaná akce: Zarovnejte verze JAR scala s verzí scala jádra, abyste se vyhnuli konfliktům a chybám restartování Scala.
ERROR_S3_FORBIDDEN - Přístup zakázán
SQLSTATE: žádný přiřazený
Přístup k prostředku S3 byl odepřen. Zkontrolujte oprávnění IAM a zásady kontejnerů.
Popis: Přihlašovací údaje AWS clusteru nemají dostatečná oprávnění pro přístup k zadanému prostředku S3.
Navrhovaná akce: Ověřte a aktualizujte zásady úložiště S3 nebo role IAM, aby clusteru udělily potřebný přístup ke čtení.
ERROR_SCALA_INSTALLATION
SQLSTATE: žádný přiřazený
Instalace závislostí Java se nezdařila kvůli problémům s oprávněními nebo chybějícím souborům.
Popis: Nastane, když závislosti Java nelze nainstalovat, často kvůli neplatným cestám, adresám URL nebo nedostatečným oprávněním k souborům.
Navrhovaná akce: Ověřte cesty k souborům a adresy URL, zajistěte správná oprávnění a zkuste instalaci zopakovat.
ERROR_SETUP_PY_FAILURE
SQLSTATE: žádný přiřazený
Balíček Pythonu setup.py se nepovedlo úspěšně spustit kvůli problémům s kompatibilitou, chybějícím závislostem nebo chybám konfigurace. Zkontrolujte soubor pro nastavení vašich závislostí.
Popis: Nastane, když se skript setup.py balíčku nezdaří kvůli problémům s kompatibilitou, chybějícím závislostem nebo chybám konfigurace.
Navrhovaná akce: Aktualizace verzí balíčků, instalace chybějících závislostí, nahrazení zastaralých balíčků a ověření setup.py skriptu.
ERROR_SSL_VIOLATION
SQLSTATE: žádný přiřazený
Pip narazil na problémy se SSL handshake nebo ověřováním certifikátů. Zkontrolujte konfigurace a certifikáty SSL ve vašem výpočetním prostředí nebo pracovním prostoru.
Popis: Nastane, když pip při připojování k úložištím balíčků narazí na problémy s ověřováním metodou handshake ssl nebo certifikátem.
Navrhovaná akce: Ověřte, jestli jsou certifikáty SSL platné, nakonfigurujte důvěryhodné hostitele v nástroji pip nebo zkontrolujte nastavení protokolu SSL sítě.
ERROR_UC_ASSET_NOT_FOUND
SQLSTATE: žádný přiřazený
Objekt katalogu Unity nebyl nalezen. Ověřte, že katalog, schéma a svazek existují.
Popis: Nastane, když zadaný svazek katalogu Unity, katalog nebo schéma neexistuje nebo je nepřístupný.
Navrhovaná akce: Ověřte správnost cesty k objektu katalogu Unity a objekt existuje ve vašem účtu.
ERROR_UNSUPPORTED_LIBRARY_TYPE
SQLSTATE: žádný přiřazený
Typ knihovny není u tohoto výpočetního prostředí podporován. Zkontrolujte podporované knihovny pro typ výpočetních prostředků.
Popis: Nastane při pokusu o instalaci typu knihovny, který není kompatibilní s vybraným výpočetním objektem.
Navrhovaná akce: Pro tento výpočetní objekt použijte podporovaný typ knihovny nebo přepněte na výpočetní objekt, který podporuje tento typ knihovny.
ERROR_UNSUPPORTED_PYTHON_VERSION: Nepodporovaná verze Pythonu
SQLSTATE: žádný přiřazený
Knihovna Pythonu není kompatibilní s verzí Pythonu na tomto výpočetním prostředí. Použijte výpočetní prostředky s kompatibilní verzí Pythonu.
Popis: Nastane, když omezení balíčku python_requires neodpovídá verzi Pythonu spuštěné na výpočetních prostředcích.
Navrhovaná akce: Nainstalujte verzi balíčku, která podporuje aktuální verzi Pythonu, nebo změňte výpočetní verzi.
ERROR_UNSUPPORTED_SSL_ENABLED (Nepodporovaná verze SSL povolena)
SQLSTATE: žádný přiřazený
Instalace selže, když je zapnutá konfigurace spark.ssl.enabled, což není podporováno pro instalaci knihovny. Zakažte konfiguraci PROTOKOLU SSL a restartujte cluster.
Popis: Nastane, když je zapnutá konfigurace spark.ssl.enabled, což není podporováno pro instalaci knihovny.
Navrhovaná akce: Zakažte konfiguraci PROTOKOLU SSL (například nastavte spark.ssl.enabled=false nebo nastavte spark.databricks.libraries.ignoreSSL=true) a restartujte cluster.
CHYBA_UŽIVATEL_NENALEZEN_V_PRACOVNÍ_PROSTOR
SQLSTATE: žádný přiřazený
Instalace knihovny se nezdařila, protože uživatel nebyl v pracovním prostoru nalezen. K tomu obvykle dochází v případě, že uživatel byl odebrán z pracovního prostoru, ale jeho token se stále používá.
Popis: Nastane, když se používá přístupový token uživatele, ale uživatel již v zadaném pracovním prostoru neexistuje.
Navrhovaná akce: Ujistěte se, že má uživatel přístup k pracovnímu prostoru, nebo aktualizujte konfiguraci clusteru tak, aby používala platné přihlašovací údaje uživatele.
CHYBA_ODMÍTNUTÍ_Oprávnění_Svazku
SQLSTATE: žádný přiřazený
Nedostatečná oprávnění ke svazku katalogu Unity Zkontrolujte přístupová práva svazku UC nebo požádejte o přístup vlastníka svazku UC.
Popis: Nastane, když uživatel nemá oprávnění k zadanému svazku UC.
Navrhovaná akce: Požádejte o oprávnění KE ČTENÍ na svazku katalogu Unity od vlastníka nebo správce svazku.
ERROR_WHEEL_BUILD
SQLSTATE: žádný přiřazený
Pip nemohl úspěšně sestavit kolo kvůli chybějícím závislostem sestavení nebo chybám. Zkontrolujte obsah balíčku kol a závislosti.
Popis: Nastane, když pip nepodaří sestavit kolo balíčku kvůli chybějícím závislostem sestavení nebo chybám.
Navrhovaná akce: Ujistěte se, že jsou nainstalované nástroje sestavení a hlavičky, nebo nainstalujte předem připravené kolo s parametrem --no-binary.
ERROR_WHEEL_INSTALLATION
SQLSTATE: žádný přiřazený
Kolo není kompatibilní s aktuálním výpočetním prostředím kvůli neshodě značek platformy nebo neplatnému souboru kola. Zkontrolujte obsah balíčku kol, závislosti a jejich kompatibilitu s výpočetními prostředky.
Popis: Nastane, když je soubor kola neplatný nebo značky platformy se neshodují.
Navrhovaná akce: Použijte kolečko vytvořené pro aktuální platformu nebo znovu sestavte kolo s odpovídajícími značkami.
Chyba_instalace_cloudoveho_uloziste
SQLSTATE: žádný přiřazený
Nejde stáhnout nebo získat přístup k zadaným prostředkům cloudového úložiště, obvykle kvůli chybným konfiguracím nebo problémům s připojením. Zkontrolujte nastavení cloudového úložiště.
Popis: Nastane, když výpočetní prostředky nemůžou stahovat nebo instalovat soubory knihovny z cloudového úložiště, obvykle kvůli chybným konfiguracím nebo problémům se sítí.
Navrhovaná akce: Ujistěte se, že jsou identifikátory URI cloudového úložiště správné, přihlašovací údaje jsou platné a všechny požadované síťové proxy servery nebo knihovny jsou správně nakonfigurované, a pak zkuste instalaci zopakovat.
FAULT_DBR_VERSION_EOS
SQLSTATE: žádný přiřazený
Verze Databricks Runtime na výpočetních prostředcích dosáhla konce podpory a už se nepodporuje. Použijte podporovanou verzi modulu runtime Databricks.
Popis: Nastane, když je knihovna nainstalovaná ve verzi Databricks Runtime, která už nepřijímá aktualizace nebo podporu.
Navrhovaná akce: Upgradujte cluster na podporovanou verzi databricks Runtime a zkuste instalaci zopakovat.
FAULT_POLLER_ALLOWLIST_VALIDATION
SQLSTATE: žádný přiřazený
Instalace knihovny je zablokovaná kvůli chybějícímu seznamu povolených položek. K tomu může dojít v případě, že se knihovna po přidání do clusteru odebere ze seznamu povolených. Zkontrolujte seznam povolených knihoven a požádejte správce o přidání knihoven do seznamu povolených nebo odebrání neautorizovaných balíčků z clusteru.
Popis: Nastane, když jedna nebo více požadovaných knihoven nejsou schváleny v seznamu povolených metastorů a jsou blokovány z instalace. K tomu může dojít také v případě, že byla knihovna dříve povolená, ale později byla odebrána ze seznamu povolených.
Navrhovaná akce: Zkontrolujte seznam povolených metastorů, požádejte správce o přidání chybějících knihoven do seznamu povolených nebo odebrání neoprávněných knihoven z clusteru.
FAULT_POLLER_DBR_UNSUPPORTED
SQLSTATE: žádný přiřazený
Verze Databricks Runtime v clusteru dosáhla konce podpory a už se nepodporuje. Použijte podporovanou verzi modulu runtime Databricks.
Popis: Nastane, když je knihovna nainstalovaná ve verzi Databricks Runtime, která už nepřijímá aktualizace nebo podporu.
Navrhovaná akce: Změňte cluster tak, aby používal podporovanou verzi Databricks Runtime, a zkuste instalaci zopakovat.
Chyba sondážního modulu, knihovna nepodporuje formát úložiště
SQLSTATE: žádný přiřazený
Vybraná verze Databricks Runtime nemusí podporovat určité formáty úložišť knihoven, jako jsou cesty gs:// nebo abfss://. Upgradujte databricks Runtime nebo si projděte uživatelskou příručku týkající se možností pro jinou verzi Databricks Runtime.
Popis: Nastane, když verze Databricks Runtime nepodporuje zadaný formát nebo protokol úložiště knihovny.
Navrhovaná akce: Použijte podporované schéma úložiště nebo upgradujte na verzi Databricks Runtime, která podporuje požadovaný formát úložiště.
FAULT_POLLER_UNITY_CATALOG_NENÍ_K_DISPOZICI_CHYBA
SQLSTATE: žádný přiřazený
Instalace knihovny vyžaduje katalog Unity, ale katalog Unity není v clusteru nebo pracovním prostoru k dispozici. Pokud chcete tuto funkci povolit, obraťte se na správce pracovního prostoru.
Popis: Nastane, když instalace knihovny vyžaduje Katalog Unity, ale Katalog Unity není v pracovním prostoru k dispozici.
Navržená akce: Požádejte o správu, aby bylo možné povolit katalog Unity ve vašem pracovním prostoru nebo použít cluster, který podporuje katalog Unity.
Chyba: SELHÁNÍ PŘÍSTUPU K ÚLOŽIŠTI
SQLSTATE: žádný přiřazený
Nejde získat přístup k prostředkům cloudového úložiště kvůli problémům s přihlašovacími údaji, sítí nebo oprávněními. Zkontrolujte konfiguraci přístupu ke cloudovému úložišti.
Popis: Nastane, když výpočetní prostředky nemají přístup k prostředkům cloudového úložiště kvůli problémům s přihlašovacími údaji, sítí nebo oprávněními.
Navrhovaná akce: Ověřte přihlašovací údaje úložiště, síťové připojení a přístupová oprávnění a pak zkuste instalaci zopakovat.
Miscellaneous
ABAC_POLICIES_NOT_SUPPORTED_FOR_RUNTIME_VERSION
SQLSTATE: žádný přiřazený
Verze DBR <abacDBRMajorVersion>.
<abacDBRMinorVersion> je vyžadována verze nebo vyšší pro dotazování tabulky <tableFullName>, protože je chráněna zásadami ABAC.
AZURE_ENTRA_CREDENTIALS_MISSING
SQLSTATE: žádný přiřazený
Chybí přihlašovací údaje Azure Entra (neboli Azure Active Directory).
Ujistěte se, že jste buď přihlášeni pomocí svého účtu Entra.
nebo jste nastavili osobní přístupový token (PAT) Azure DevOps v Uživatelském Nastavení > pro integraci Gitu.
Pokud nepoužíváte pat a používáte Azure DevOps s rozhraním API repos,
Musíte použít přístupový token Azure Entra.
Prohlédněte si https://docs.microsoft.com/azure/databricks/dev-tools/api/latest/aad/app-aad-token kroky pro získání přístupového tokenu Azure Entra.
<pickOrCreateNewCredential>
AZURE_ENTRA_CREDENTIALS_PARSE_FAILURE
SQLSTATE: žádný přiřazený
Došlo k chybě s přihlašovacími údaji Azure Entra (Azure Active Directory). Zkuste se prosím odhlásit.
Entra (https://portal.azure.com) a znovu se přihlaste.
Případně můžete navštívit Nastavení uživatele > Integraci Git pro nastavení.
vytvoření osobního přístupového tokenu pro Azure DevOps.
<pickOrCreateNewCredential>
AZURE_ENTRA_LOGIN_ERROR
SQLSTATE: žádný přiřazený
Došlo k chybě s přihlašovacími údaji Azure Active Directory. Zkuste se prosím odhlásit.
Azure Active Directory (https://portal.azure.com) a znovu se přihlaste.
<pickOrCreateNewCredential>
AZURE_ENTRA_WORKLOAD_IDENTITY_ERROR
SQLSTATE: žádný přiřazený
Při práci s identitou úloh Azure došlo k chybě s výjimkou v Azure: <azureWorkloadIdentityExceptionMessage>
CLEAN_ROOM_DELTA_SHARING_ENTITY_NOT_AUTHORIZED
SQLSTATE: žádný přiřazený
Generování přihlašovacích údajů pro zabezpečené delta sdílení ve virtuálním čistém prostředí nelze vyžádat.
CLEAN_ROOM_HIDDEN_SECURABLE_PERMISSION_DENIED
SQLSTATE: žádný přiřazený
Zabezpečený <securableName> s typem <securableType> a druhem <securableKind> je systém čisté místnosti spravovaný, ke kterému uživatel nemá přístup.
CONSTRAINT_ALREADY_EXISTS
SQLSTATE: žádný přiřazený
Omezení s názvem <constraintName> již existuje, zvolte jiný název.
CONSTRAINT_DOES_NOT_EXIST
SQLSTATE: žádný přiřazený
Omezení <constraintName> neexistuje.
COULD_NOT_READ_REMOTE_REPOSITORY
SQLSTATE: žádný přiřazený
Nelze číst vzdálené úložiště (<repoUrl>).
Použili<because> jsme přihlašovací údaje<credentialName> (<credentialId>).
Poskytovatel přihlašovacích údajů Gitu je <gitCredentialProvider> a e-mail / uživatelské jméno je <gitCredentialUsername>.
Přejděte ke svému vzdálenému poskytovateli Gitu a ujistěte se, že:
Vaše vzdálená adresa URL úložiště Git je platná.
Váš osobní přístupový token nebo heslo aplikace má správný přístup k úložišti.
<pickOrCreateNewCredential>
COULD_NOT_RESOLVE_REPOSITORY_HOST
SQLSTATE: žádný přiřazený
Nelze rozpoznat hostitele pro <repoUrl>.
Použili<because> jsme přihlašovací údaje<credentialName> (<credentialId>).
Poskytovatel přihlašovacích údajů Gitu je <gitCredentialProvider> a e-mail / uživatelské jméno je <gitCredentialUsername>.
CSMS_BEGINNING_OF_TIME_NOT_SUPPORTED
SQLSTATE: žádný přiřazený
Parametr beginning_of_time nemůže být pravdivý.
CSMS_CONTINUATION_TOKEN_EXPIRED
SQLSTATE: žádný přiřazený
Platnost tokenu pokračování vypršela. Příčina: <msg>
CSMS_CREDENTIAL_NAME_MISSING
SQLSTATE: žádný přiřazený
V požadavku chybí název přihlašovacích údajů.
CSMS_FILE_EVENTS_VALIDATION_USER_ERROR
SQLSTATE: žádný přiřazený
Ověření událostí souboru selhalo pro operaci <operation>: <message>
CSMS_INVALID_CONTINUATION_TOKEN
SQLSTATE: žádný přiřazený
Token pokračování je neplatný. Příčina: <msg>
CSMS_INVALID_FILE_EVENTS_QUEUE
SQLSTATE: žádný přiřazený
<missingField>V požadavku chybí <queueType>
CSMS_INVALID_MAX_OBJECTS
SQLSTATE: žádný přiřazený
Neplatná hodnota <value> pro max_objects parametru, očekávaná hodnota v [<minValue>, <maxValue>]
CSMS_INVALID_SUBSCRIPTION_ID
SQLSTATE: žádný přiřazený
ID předplatného je neplatné. Příčina: <msg>
CSMS_INVALID_URI_FORMAT
SQLSTATE: žádný přiřazený
Neplatný formát identifikátoru URI Očekáván byl svazek (například "/Volumes/catalog/schema/volume") nebo cesta ke cloudovému úložišti (například "s3://some-uri").
CSMS_KAFKA_TOPIC_MISSING
SQLSTATE: žádný přiřazený
Je nutné zadat téma Kafka.
CSMS_LOCATION_ERROR
SQLSTATE: žádný přiřazený
Zobrazení seznamu objektů se nezdařilo. Na místě jsou problémy, které je třeba vyřešit. Podrobnosti: <msg>
CSMS_LOCATION_NOT_KNOWN
SQLSTATE: žádný přiřazený
Pro identifikátor URI <path> se nenašlo žádné umístění.
CSMS_METASTORE_ID_MISSING
SQLSTATE: žádný přiřazený
Musí být poskytnuto UUID metastoru.
CSMS_METASTORE_RESOLUTION_FAILED
SQLSTATE: žádný přiřazený
Nelze určit metastor pro požadavek.
CSMS_RESOLVE_CREDENTIAL_ID_FAILED
SQLSTATE: žádný přiřazený
Nepodařilo se přeložit ID přihlašovacích údajů pro přihlašovací údaje: <credentialName>
CSMS_RESOLVE_LOCAL_SHARD_NAME_FAILED
SQLSTATE: žádný přiřazený
Službě CSMS se nepodařilo rozpoznat název místního fragmentu.
CSMS_SERVICE_DISABLED
SQLSTATE: žádný přiřazený
Služba je zakázaná.
CSMS_SHARD_NAME_MISSING_IN_REQUEST
SQLSTATE: žádný přiřazený
V požadavku rpc na CSMS chybí název horizontálního oddílu.
CSMS_STORAGE_CREDENTIAL_DOES_NOT_EXIST
SQLSTATE: žádný přiřazený
Přihlašovací údaje úložiště neexistují.
CSMS_SUBSCRIPTION_ID_MISSING_IN_REQUEST
SQLSTATE: žádný přiřazený
V požadavku chybí ID předplatného.
CSMS_SUBSCRIPTION_NOT_FOUND
SQLSTATE: žádný přiřazený
Předplatné s ID <id> se nenašlo.
CSMS_UNITY_CATALOG_DISABLED
SQLSTATE: žádný přiřazený
Katalog Unity je pro tento pracovní prostor zakázaný.
CSMS_UNITY_CATALOG_ENTITY_NOT_FOUND
SQLSTATE: žádný přiřazený
Entita katalogu Unity nebyla nalezena. Ujistěte se, že existuje katalog, schéma, svazek a/nebo externí umístění.
CSMS_UNITY_CATALOG_EXTERNAL_LOCATION_DOES_NOT_EXIST
SQLSTATE: žádný přiřazený
Externí umístění katalogu Unity neexistuje.
CSMS_UNITY_CATALOG_EXTERNAL_STORAGE_OVERLAP
SQLSTATE: žádný přiřazený
Identifikátor URI se překrývá s jinými svazky.
CSMS_UNITY_CATALOG_METASTORE_DOES_NOT_EXIST
SQLSTATE: žádný přiřazený
Nelze určit metastor pro požadavek. Metastor neexistuje.
Přístup na bázi cesty ke katalogu CSMS Unity k tabulce s filtrem není povolen
SQLSTATE: žádný přiřazený
Identifikátor URI odkazuje na tabulku s filtrem na úrovni řádků nebo maskou sloupce. Přístup na základě cesty k této tabulce není povolený.
CSMS_UNITY_CATALOG_PERMISSION_DENIED
SQLSTATE: žádný přiřazený
Oprávnění byla odepřena.
CSMS_UNITY_CATALOG_RATE_LIMITED
SQLSTATE: žádný přiřazený
Došlo k překročení limitu četnosti požadavků. Zkuste to prosím znovu za nějakou dobu.
CSMS_UNITY_CATALOG_TABLE_DOES_NOT_EXIST
SQLSTATE: žádný přiřazený
Tabulka katalogu Unity neexistuje.
CSMS_UNITY_CATALOG_VOLUME_DOES_NOT_EXIST
SQLSTATE: žádný přiřazený
Svazek katalogu Unity neexistuje.
CSMS_UNSUPPORTED_FILE_EVENTS_QUEUE
SQLSTATE: žádný přiřazený
Neznámá fronta událostí souboru v požadavku
CSMS_UNSUPPORTED_MANAGED_RESOURCE_TYPE
SQLSTATE: žádný přiřazený
Typ spravovaného prostředku <resourceType> není podporován.
CSMS_UNSUPPORTED_SECURABLE
SQLSTATE: žádný přiřazený
Nepodporovaný zabezpečitelný prvek
CSMS_URI_MISSING
SQLSTATE: žádný přiřazený
Musí zadat identifikátor URI.
CSMS_URI_TOO_LONG
SQLSTATE: žádný přiřazený
Zadaný identifikátor URI je příliš dlouhý. Maximální povolená délka je <maxLength>.
CSMS_USER_CONTEXT_MISSING_IN_REQUEST
SQLSTATE: žádný přiřazený
V požadavku rpc na CSMS chybí kontext uživatele.
DMK_CATALOGS_DISALLOWED_ON_CLASSIC_COMPUTE
SQLSTATE: žádný přiřazený
K výchozímu úložišti Databricks není možné přistupovat pomocí klasického výpočetního prostředí. Pro přístup k datům ve výchozím úložišti použijte bezserverové výpočetní prostředky.
GITHUB_APP_COULD_NOT_REFRESH_CREDENTIALS
SQLSTATE: žádný přiřazený
Operace selhala, protože se nepodařilo aktualizovat propojené přihlašovací údaje aplikace GitHubu.
Zkuste to prosím znovu nebo přejděte do uživatelského nastavení > integraci Gitu a zkuste znovu propojit účet poskytovatele Gitu.
Pokud problém přetrvává, vytvořte požadavek na podporu.
<pickOrCreateNewCredential>
GITHUB_APP_CREDENTIALS_NO_ACCESS
SQLSTATE: žádný přiřazený
Odkaz na váš účet GitHubu nemá přístup. Oprava této chyby:
- Správce úložiště musí přejít na https://github.com/apps/databricks/installations/new aplikaci Databricks GitHub a nainstalovat ji do úložiště.
Případně může vlastník účtu GitHub nainstalovat aplikaci na účet, aby získal přístup k úložištím účtu.
- Pokud je aplikace už nainstalovaná, požádejte správce, aby zajistil, že pokud používá přístup s vymezeným oborem s možností Jen vybrat úložiště, zahrnul přístup k tomuto úložišti tak, že ho vybere.
Další informace najdete v https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app.
<pickOrCreateNewCredential>
GITHUB_APP_EXPIRED_CREDENTIALS
SQLSTATE: žádný přiřazený
Platnost přihlašovacích údajů propojené aplikace GitHubu vypršela po 6 měsících nečinnosti.
Přejděte na Uživatelská nastavení > integraci Gitu a zkuste znovu propojit svoje přihlašovací údaje.
Pokud problém přetrvává, vytvořte požadavek na podporu.
<pickOrCreateNewCredential>
GITHUB_APP_INSTALL_ON_DIFFERENT_USER_ACCOUNT
SQLSTATE: žádný přiřazený
Odkaz na váš účet GitHubu nemá přístup. Oprava této chyby:
Uživatel
<gitCredentialUsername>GitHubu by měl přejít do https://github.com/apps/databricks/installations/new účtu<gitCredentialUsername>a nainstalovat aplikaci, aby povolil přístup.Pokud uživatel
<gitCredentialUsername>už aplikaci nainstaloval a používá přístup s vymezeným oborem s možností "Pouze vybrat úložiště", měl by zajistit, aby měl přístup k tomuto úložišti tak, že ho vybere.
Další informace najdete v https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app.
<pickOrCreateNewCredential>
GITHUB_APP_INSTALL_ON_ORGANIZATION
SQLSTATE: žádný přiřazený
Odkaz na váš účet GitHubu nemá přístup. Oprava této chyby:
Vlastník organizace
<organizationName>GitHubu by měl přejít na https://github.com/apps/databricks/installations/new aplikaci a nainstalovat ji v organizaci<organizationName>, aby povolil přístup.Pokud už je aplikace nainstalovaná v organizaci GitHubu
<organizationName>, požádejte vlastníka této organizace, aby se ujistil, že při použití přístupu s omezeným dosahem s možností 'Jen vybrat úložiště', zahrnuli přístup k tomuto úložišti jeho výběrem.
Další informace najdete v https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app.
<pickOrCreateNewCredential>
GITHUB_APP_INSTALL_ON_YOUR_ACCOUNT
SQLSTATE: žádný přiřazený
Odkaz na váš účet GitHubu nemá přístup. Oprava této chyby:
Pokud chcete povolit přístup, přejděte na https://github.com/apps/databricks/installations/new aplikaci a nainstalujte ji na svůj účet
<gitCredentialUsername>.Pokud už je aplikace nainstalovaná a používáte přístup s vymezeným oborem s možností Pouze vybrat úložiště, ujistěte se, že jste k tomuto úložišti zahrnuli přístup tak, že ho vyberete.
Další informace najdete v https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app.
<pickOrCreateNewCredential>
GIT_CLUSTER_NOT_READY
SQLSTATE: žádný přiřazený
Cluster Git není připravený.
GIT_CREDENTIAL_GENERIC_INVALID
SQLSTATE: žádný přiřazený
Neplatné přihlašovací údaje zprostředkovatele Git pro adresu URL úložiště <repoUrl>.
Použili<because> jsme přihlašovací údaje<credentialName> (<credentialId>).
Poskytovatel přihlašovacích údajů Gitu je <gitCredentialProvider> a e-mail / uživatelské jméno je <gitCredentialUsername>.
Přejděte ke svému vzdálenému poskytovateli Gitu a ujistěte se, že:
Zadali jste správný e-mail nebo uživatelské jméno uživatele Gitu s přihlašovacími údaji zprostředkovatele Gitu.
Váš token má správný přístup k úložišti.
Platnost vašeho tokenu nevypršela.
Pokud máte povolené jednotné přihlašování u svého poskytovatele Gitu, nezapomeňte váš token autorizovat.
<pickOrCreateNewCredential>
GIT_CREDENTIAL_INVALID_PAT
SQLSTATE: žádný přiřazený
Neplatné přihlašovací údaje osobního přístupového tokenu zprostředkovatele Git pro adresu URL úložiště <repoUrl>.
Použili<because> jsme přihlašovací údaje<credentialName> (<credentialId>).
Poskytovatel přihlašovacích údajů Gitu je <gitCredentialProvider> a e-mail / uživatelské jméno je <gitCredentialUsername>.
Přejděte ke svému vzdálenému poskytovateli Gitu a ujistěte se, že:
Zadali jste správný e-mail nebo uživatelské jméno uživatele Gitu s přihlašovacími údaji zprostředkovatele Gitu.
Váš token má správný přístup k úložišti.
Platnost vašeho tokenu nevypršela.
Pokud máte povolené jednotné přihlašování u svého poskytovatele Gitu, nezapomeňte váš token autorizovat.
<pickOrCreateNewCredential>
.
GIT_CREDENTIAL_MISSING
SQLSTATE: žádný přiřazený
Nejsou nakonfigurované žádné přihlašovací údaje Gitu, ale přihlašovací údaje vyžadované pro toto úložiště (<repoUrl>).
Přejděte na Uživatelská nastavení > integraci Gitu a nastavte přihlašovací údaje Gitu.
GIT_CREDENTIAL_NO_WRITE_PERMISSION
SQLSTATE: žádný přiřazený
Přístup k zápisu do úložiště <gitCredentialProvider> (<repoUrl>) není udělen.
Použili<because> jsme přihlašovací údaje<credentialName> (<credentialId>).
Poskytovatel přihlašovacích údajů Gitu je <gitCredentialProvider> a e-mail / uživatelské jméno je <gitCredentialUsername>.
Ujistěte se, že máte (<gitCredentialUsername>) přístup pro zápis do tohoto vzdáleného úložiště.
GIT_CREDENTIAL_PROVIDER_MISMATCHED
SQLSTATE: žádný přiřazený
Nesprávný poskytovatel přihlašovacích údajů Git pro úložiště.
Nemáte přihlašovací údaje Gitu s poskytovatelem Gitu (<repositoryGitProvider>), který odpovídá zprostředkovateli <repoUrl>Git úložiště.
Přejděte do integrace Gitu s uživatelským nastavením > a vytvořte pro zprostředkovatele <repositoryGitProvider>Git nové přihlašovací údaje.
GIT_FILE_NAME_TOO_LONG
SQLSTATE: žádný přiřazený
Názvy souborů nebo složek v cestě <path> překračují maximální počet <maxComponentBytes> bajtů na komponentu.
Unixové systémy podporují pouze bajty <maxComponentBytes> na název souboru nebo složky.
Porušení: <violations>
Abyste mohli pokračovat, zkraťte urážlivé součásti.
GIT_PROVIDER_INFO_MISSING
SQLSTATE: žádný přiřazený
Informace o poskytovateli Gitu chybí nebo jsou prázdné.
Přidejte prosím informace o přihlašovacích údaji Gitu a zkuste to znovu.
Pokud problém přetrvává, vytvořte požadavek na podporu.
GIT_PROXY_CLUSTER_NOT_READY
SQLSTATE: žádný přiřazený
Proxy cluster Gitu není připravený.
GIT_PROXY_CONNECTION_FAILED
SQLSTATE: žádný přiřazený
Nepovedlo se připojit ke Git Proxy, zkontrolujte, zda Git Proxy běží.
Chyba: <error>
GIT_SECRET_IN_CODE
SQLSTATE: žádný přiřazený
Tajnosti nalezené v commitu Podrobnosti: <secretDetail>. Oprava této chyby:
Odeberte tajný kód a zkuste potvrzení zopakovat.
Pokud problém přetrvává, vytvořte požadavek na podporu.
GIT_STALE_REMOTE_REFS
SQLSTATE: žádný přiřazený
Načtení Gitu se dokončilo, ale kvůli konfliktům cest systému souborů neaktualizuje zastaralé odkazy (například odstraněné větve nebo funkce vs. feature/sub).
Chyba Gitu: <gitErrorMessage>
HIERARCHICAL_NAMESPACE_NOT_ENABLED
SQLSTATE: žádný přiřazený
Účet úložiště Azure nemá povolenou hierarchickou strukturu názvů.
INVALID_FIELD_LENGTH
<rpcName> <fieldName> příliš dlouho. Maximální délka je <maxLength> znaků.
INVALID_PARAMETER_VALUE
<msg>
Další podrobnosti najdete v tématu INVALID_PARAMETER_VALUE
JOBS_TASK_FRAMEWORK_TASK_RUN_OUTPUT_NOT_FOUND
SQLSTATE: žádný přiřazený
Rámec úloh: Výstup spuštění úlohy pro úlohu s runId <runId> a orgId <orgId> nebyl nalezen.
JOBS_TASK_FRAMEWORK_TASK_RUN_STATE_NOT_FOUND
SQLSTATE: žádný přiřazený
Rámec úloh: Stav spuštění úlohy s runId <runId> a orgId <orgId> nemohl být nalezen.
JOBS_TASK_REGISTRY_TASK_CLIENT_CONFIG_DOES_NOT_EXIST
SQLSTATE: žádný přiřazený
RPC ClientConfig pro úlohu s ID <taskId> neexistuje.
JOBS_TASK_REGISTRY_TASK_DOES_NOT_EXIST
SQLSTATE: žádný přiřazený
Úkol s ID <taskId> neexistuje.
JOBS_TASK_REGISTRY_UNSUPPORTED_JOB_TASK
SQLSTATE: žádný přiřazený
Registr úloh: Nepodporovaný nebo neznámý úkol třídy <taskClassName>.
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_EXTERNAL_SHALLOW_CLONE
SQLSTATE: žádný přiřazený
Přístup založený na cestě k externí tabulce mělkého klonu <tableFullName> není podporován. Místo toho použijte názvy tabulek k přístupu k mělkému klonu.
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_FABRIC
SQLSTATE: žádný přiřazený
Tabulka Fabric umístěná na adrese URL '<url>' nebyla nalezena. Chcete-li vyplnit Fabric tabulky, použijte příkaz REFRESH FOREIGN CATALOG.
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_TABLES_WITH_ROW_COLUMN_ACCESS_POLICIES
SQLSTATE: žádný přiřazený
Přístup k tabulce na základě cesty <tableFullName> s filtrem řádků nebo maskou sloupců se nepodporuje.
PERMISSION_DENIED
SQLSTATE: žádný přiřazený
<principalName> nemá <msg> na <resourceType> '<resourceName>'.
REDASH_DELETE_ASSET_HANDLER_INVALID_INPUT
SQLSTATE: žádný přiřazený
Požadavek na odstranění objektu nejde analyzovat: <invalidInputMsg>
REDASH_DELETE_OBJECT_NOT_IN_TRASH
SQLSTATE: žádný přiřazený
Nelze odstranit objekt <resourceName>, který není v koši.
REDASH_PERMISSION_DENIED
SQLSTATE: žádný přiřazený
Nepodařilo se prostředek <resourceId> najít nebo k němu získat oprávnění.
REDASH_QUERY_NOT_FOUND
SQLSTATE: žádný přiřazený
Nelze nalézt prostředek podle identifikátoru dotazu <queryId>
REDASH_QUERY_SNIPPET_CREATION_FAILED
SQLSTATE: žádný přiřazený
Nejde vytvořit nový fragment dotazu
REDASH_QUERY_SNIPPET_QUOTA_EXCEEDED
SQLSTATE: žádný přiřazený
Dosáhli jsme kvóty pro počet fragmentů dotazů. Aktuální kvóta je <quota>.
REDASH_QUERY_SNIPPET_TRIGGER_ALREADY_IN_USE
SQLSTATE: žádný přiřazený
Zadaný trigger <trigger> již používá jiný fragment kódu dotazu v tomto pracovním prostoru.
REDASH_RESOURCE_NOT_FOUND
SQLSTATE: žádný přiřazený
Požadovaný prostředek <resourceName> neexistuje.
REDASH_RESTORE_ASSET_HANDLER_INVALID_INPUT
SQLSTATE: žádný přiřazený
Požadavek na odstranění objektu nejde analyzovat: <invalidInputMsg>
REDASH_RESTORE_OBJECT_NOT_IN_TRASH
SQLSTATE: žádný přiřazený
Nelze obnovit objekt <resourceName>, který není v koši
REDASH_TRASH_OBJECT_ALREADY_IN_TRASH
SQLSTATE: žádný přiřazený
Nelze vyhodit do koše objekt <resourceName>, který je již v koši.
REDASH_UNABLE_TO_GENERATE_RESOURCE_NAME
SQLSTATE: žádný přiřazený
Nelze vygenerovat název prostředku z ID <id>
REDASH_VISUALIZATION_CREATION_FAILED
SQLSTATE: žádný přiřazený
Nejde vytvořit novou vizualizaci
REDASH_VISUALIZATION_NOT_FOUND
SQLSTATE: žádný přiřazený
Nepodařilo se najít vizualizaci <visualizationId>
REDASH_VISUALIZATION_QUOTA_EXCEEDED
SQLSTATE: žádný přiřazený
Dosáhli jsme kvóty pro počet vizualizací v dotazu <query_id> . Aktuální kvóta je <quota>.
REPOSITORY_URL_NOT_FOUND
SQLSTATE: žádný přiřazený
Vzdálené úložiště (<repoUrl>) se nenašlo.
Použili<because> jsme přihlašovací údaje<credentialName> (<credentialId>).
Poskytovatel přihlašovacích údajů Gitu je <gitCredentialProvider> a e-mail / uživatelské jméno je <gitCredentialUsername>.
Přejděte ke svému vzdálenému poskytovateli Gitu a ujistěte se, že:
Vaše vzdálená adresa URL úložiště Git je platná.
Váš osobní přístupový token nebo heslo aplikace má správný přístup k úložišti.
<pickOrCreateNewCredential>
RESOURCE_ALREADY_EXISTS
<resourceType> '<resourceIdentifier>' již existuje
RESOURCE_DOES_NOT_EXIST
<resourceType> '<resourceIdentifier>' neexistuje.
ROW_COLUMN_ACCESS_POLICIES_NOT_SUPPORTED_ON_ASSIGNED_CLUSTERS
SQLSTATE: žádný přiřazený
Dotaz na tabulku <tableFullName> s filtrem řádků nebo maskou sloupců, které nejsou u přiřazených clusterů podporované.
ROW_COLUMN_SECURITY_NOT_SUPPORTED_WITH_TABLE_IN_DELTA_SHARING
SQLSTATE: žádný přiřazený
Tabulka <tableFullName> se sdílí pomocí Delta Sharing a nelze na ni aplikovat zabezpečení řádků a sloupců.
SERVICE_TEMPORARILY_UNAVAILABLE
SQLSTATE: žádný přiřazený
Služba <serviceName> je dočasně pod údržbou. Zkuste to prosím znovu později.
TABLE_WITH_ROW_COLUMN_SECURITY_NOT_SUPPORTED_IN_ONLINE_MODE
SQLSTATE: žádný přiřazený
Tabulka <tableFullName> nemůže mít zároveň zabezpečení řádků a sloupců a online materializovaná zobrazení.
TOO_MANY_ROWS_TO_UPDATE
SQLSTATE: žádný přiřazený
Příliš mnoho řádků k aktualizaci, aktualizace se přerušuje.
UC_ABAC_UNSUPPORTED_TABLE_TYPE
SQLSTATE: žádný přiřazený
Zásady ABAC nejsou podporované pro typ <tableType>tabulky .