Felklasser i Azure Databricks
Gäller för: Databricks SQL Databricks Runtime 12.2 och senare
Felklasser är beskrivande, läsbara för människor, strängar som är unika för felvillkoret.
Du kan använda felklasser för att programmatiskt hantera fel i ditt program utan att behöva parsa felmeddelandet.
Det här är en lista över vanliga namngivna felvillkor som returneras av Azure Databricks.
Databricks Runtime och Databricks SQL
AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION
Icke-deterministiska uttryck <sqlExpr>
bör inte visas i argumenten för en aggregeringsfunktion.
AI_FUNCTION_HTTP_PARSE_CAST_ERROR
Det gick inte att parsa modellutdata vid gjutning till angiven returnType: "<dataType>
", svaret JSON var: "<responseString>
". Uppdatera returnType så att det matchar innehållet i den typ som representeras av svarets JSON och försök sedan igen.
AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR
Den faktiska modellutdatan har mer än en kolumn "<responseString>
". Den angivna returtypen["<dataType>
"] har dock bara en kolumn. Uppdatera returnType så att den innehåller samma antal kolumner som modellutdata och försök sedan igen.
AI_FUNCTION_HTTP_REQUEST_ERROR
Ett fel uppstod när en HTTP-begäran om funktionen skulle utföras <funcName>
: <errorMessage>
AI_FUNCTION_INVALID_HTTP_RESPONSE
Ogiltigt HTTP-svar för funktionen <funcName>
: <errorMessage>
AI_FUNCTION_INVALID_MAX_WORDS
Det maximala antalet ord måste vara ett icke-negativt heltal, men får <maxWords>
.
AI_FUNCTION_INVALID_MODEL_PARAMETERS
De angivna modellparametrarna (<modelParameters>
) är ogiltiga i funktionen AI_QUERY för serverslutpunkten "<endpointName>
".
Mer information finns i AI_FUNCTION_INVALID_MODEL_PARAMETERS
AI_FUNCTION_JSON_PARSE_ERROR
Ett fel uppstod vid parsning av JSON-svaret för funktionen <funcName>
: <errorMessage>
AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR
Det gick inte att parsa schemat för serverdelsslutpunkten "<endpointName>
": <errorMessage>
, svaret JSON var: "<responseJson>
".
Ange parametern returnType
manuellt i funktionen AI_QUERY för att åsidosätta schemamatchning.
AI_FUNCTION_UNSUPPORTED_ERROR
Funktionen <funcName>
stöds inte i den aktuella miljön. Den är endast tillgänglig i Databricks SQL Pro och Serverless.
AI_FUNCTION_UNSUPPORTED_REQUEST
Det gick inte att utvärdera SQL-funktionen eftersom<functionName>
det angivna argumentet <invalidValue>
för har "<invalidDataType>
", men endast följande typer stöds: <supportedDataTypes>
. Uppdatera funktionsanropet för att ange ett argument av strängtyp och försök igen.
AI_FUNCTION_UNSUPPORTED_RETURN_TYPE
AI-funktion: "<functionName>
" stöder inte följande typ som returtyp: "<typeName>
". Returtypen måste vara en giltig SQL-typ som ska tolkas av Catalyst och som stöds av AI-funktionen. Aktuella typer som stöds omfattar: <supportedValues>
AI_INVALID_ARGUMENT_VALUE_ERROR
Angivet värde "<argValue>
" stöds inte av argumentet "<argName>
". Värden som stöds är: <supportedValues>
AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH
Angivet "<sqlExpr>
" stöds inte av argumentet returnType.
AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR
Vektorsökning med kolumntyp <embeddingColumnType>
för inbäddning stöds inte.
AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR
Vektorsökning med indextyp <indexType>
stöds inte.
AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR
Det gick inte att materialisera vektorsökningsfrågan från spark-typ <dataType>
till scala-native-objekt under begärandekodning med fel: <errorMessage>
.
AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR
Vektorsökning med num_results större än <maxLimit>
vad som inte stöds. Den angivna gränsen var <requestedLimit>
. Pleaase försök igen med num_results <= <maxLimit>
ALL_PARAMETERS_MUST_BE_NAMED
Om du använder namnparameteriserade frågor måste alla parametrar namnges. Parametrar som saknar namn: <exprs>
.
ALL_PARTITION_COLUMNS_NOT_ALLOWED
Det går inte att använda alla kolumner för partitionskolumner.
ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
ALTER TABLE-kolumnen <type>
<columnName>
anger beskrivningen "<optionName>
" mer än en gång, vilket är ogiltigt.
AMBIGUOUS_ALIAS_IN_NESTED_CTE
Namnet <name>
är tvetydigt i kapslad CTE.
<config>
Ange till "CORRECTED" så att namnet som definieras i inre CTE har företräde. Om den anges till "LEGACY" prioriteras de yttre CTE-definitionerna.
Se https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine".
AMBIGUOUS_COLUMN_OR_FIELD
Kolumnen eller fältet <name>
är tvetydigt och har <n>
matchningar.
AMBIGUOUS_COLUMN_REFERENCE
Kolumnen <name>
är tvetydig. Det beror på att du har anslutit flera DataFrame tillsammans, och vissa av dessa DataFrames är desamma.
Den här kolumnen pekar på en av dataramarna, men Spark kan inte ta reda på vilken.
Ange ett alias för DataFrames med olika namn via DataFrame.alias
innan du ansluter dem.
och ange kolumnen med hjälp av kvalificerat namn, t.ex. df.alias("a").join(df.alias("b"), col("a.id") > col("b.id"))
.
AMBIGUOUS_CONSTRAINT
Tvetydig referens till villkoret <constraint>
.
AMBIGUOUS_LATERAL_COLUMN_ALIAS
Alias för <name>
lateral kolumn är tvetydigt och har <n>
matchningar.
AMBIGUOUS_REFERENCE
Referensen <name>
är tvetydig, kan vara: <referenceNames>
.
AMBIGUOUS_REFERENCE_TO_FIELDS
Tvetydig referens till fältet <field>
. Det visas <count>
tider i schemat.
ANALYZE_CONSTRAINTS_NOT_SUPPORTED
ANALYSBEGRÄNSNINGAR stöds inte.
ANSI_CONFIG_CANNOT_BE_DISABLED
ANSI SQL-konfigurationen <config>
kan inte inaktiveras i den här produkten.
AQE_THREAD_INTERRUPTED
AQE-tråden avbryts, troligen på grund av att användaren har avbrutit frågor.
ARGUMENT_NOT_CONSTANT
Funktionen <functionName>
innehåller en parameter <parameterName>
vid position <pos>
som kräver ett konstant argument. Beräkna argumentet <sqlExpr>
separat och skicka resultatet som en konstant.
ARITHMETIC_OVERFLOW
<message>
.<alternative>
Om det behövs anger du <config>
"false" för att kringgå det här felet.
Mer information finns i ARITHMETIC_OVERFLOW
ASSIGNMENT_ARITY_MISMATCH
Antalet kolumner eller variabler som tilldelats eller aliasats: <numTarget>
matchar inte antalet källuttryck: <numExpr>
.
AS_OF_JOIN
Ogiltigt från och med anslutning.
Mer information finns i AS_OF_JOIN
AVRO_DEFAULT_VALUES_UNSUPPORTED
Användning av standardvärden stöds inte närrescuedDataColumn
är aktiverat. Du kanske kan ta bort den här kontrollen genom att ange spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue
false, men standardvärdena gäller inte och null-värden används fortfarande.
AVRO_INCOMPATIBLE_READ_TYPE
Det går inte att konvertera Avro <avroPath>
till SQL <sqlPath>
eftersom den ursprungliga kodade datatypen är <avroType>
, men du försöker läsa fältet som <sqlType>
, vilket skulle leda till ett felaktigt svar.
Om du vill tillåta läsning av det här fältet aktiverar du SQL-konfigurationen: "spark.sql.legacy.avro.allowIncompatibleSchema".
AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED
Användning av positionsfältmatchning stöds inte när någon av rescuedDataColumn
dem eller failOnUnknownFields
är aktiverad. Ta bort de här alternativen för att fortsätta.
BATCH_METADATA_NOT_FOUND
Det går inte att hitta batchen <batchMetadataFile>
.
BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE
Autentiseringsuppgifter för BigQuery-anslutning måste anges med parametern "GoogleServiceAccountKeyJson" eller alla "projectId", "OAuthServiceAcctEmail", "OAuthPvtKey"
BINARY_ARITHMETIC_OVERFLOW
<value1>
<symbol>
<value2>
orsakat spill.
BOOLEAN_STATEMENT_WITH_EMPTY_ROW
Boolesk instruktion <invalidStatement>
är ogiltig. Förväntad enskild rad med ett värde av typen BOOLEAN
, men en tom rad.
BUILT_IN_CATALOG
<operation>
stöder inte inbyggda kataloger.
CALL_ON_STREAMING_DATASET_UNSUPPORTED
Metoden <methodName>
kan inte anropas för strömmande datauppsättning/dataram.
CANNOT_ALTER_COLLATION_BUCKET_COLUMN
ALTER TABLE (ALTER|ÄNDRA) KOLUMNEN kan inte ändra sortering av typ/undertyper av bucketkolumner, men hittade bucketkolumnen <columnName>
i tabellen <tableName>
.
CANNOT_ALTER_PARTITION_COLUMN
ALTER TABLE (ALTER|ÄNDRA) KOLUMNEN stöds inte för partitionskolumner, men partitionskolumnen <columnName>
hittades i tabellen <tableName>
.
CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK
Vattenstämpeln måste definieras för att tilldela om händelsetidskolumnen. Det gick inte att hitta vattenstämpeldefinitionen i strömningsfrågan.
CANNOT_CAST_DATATYPE
Det går inte att casta <sourceType>
till <targetType>
.
CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE
Det går inte att konvertera Protobuf <protobufColumn>
till SQL <sqlColumn>
eftersom schemat är inkompatibelt (protobufType = <protobufType>
, sqlType = <sqlType>
).
CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE
Det går inte att konvertera <protobufType>
Protobuf till SQL-typen <toType>
.
CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE
Det går inte att konvertera SQL <sqlColumn>
till Protobuf <protobufColumn>
eftersom schemat är inkompatibelt (protobufType = <protobufType>
, sqlType = <sqlType>
).
CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE
Det går inte att konvertera SQL <sqlColumn>
till Protobuf <protobufColumn>
eftersom <data>
det inte finns i definierade värden för uppräkning: <enumString>
.
CANNOT_COPY_STATE
Det går inte att kopiera katalogtillstånd som aktuell databas och tillfälliga vyer från Unity Catalog till en äldre katalog.
CANNOT_CREATE_DATA_SOURCE_TABLE
Det gick inte att skapa datakällans tabell <tableName>
:
Mer information finns i CANNOT_CREATE_DATA_SOURCE_TABLE
CANNOT_DECODE_URL
Den angivna URL:en kan inte avkodas: <url>
. Kontrollera att URL:en är korrekt formaterad och försök igen.
CANNOT_DELETE_SYSTEM_OWNED
Det går inte att ta bort systemägda <resourceType>
.
CANNOT_DROP_AMBIGUOUS_CONSTRAINT
Det går inte att släppa villkoret med namnet <constraintName>
som delas av en CHECK-begränsning
och villkoret PRIMÄRNYCKEL eller SEKUNDÄRNYCKEL. Du kan släppa primärnyckeln eller
VILLKOR FÖR SEKUNDÄRNYCKEL efter frågor:
- ALTER TABLE .. SLÄPP PRIMÄRNYCKEL eller
- ALTER TABLE .. SLÄPP SEKUNDÄRNYCKEL ..
CANNOT_ESTABLISH_CONNECTION
Det går inte att upprätta en anslutning till fjärrdatabasen <jdbcDialectName>
. Kontrollera anslutningsinformation och autentiseringsuppgifter, t.ex. alternativ för värd, port, användare, lösenord och databas. ** Om du tror att informationen är korrekt kontrollerar du konfigurationen av arbetsytans nätverk och ser till att den inte har utgående begränsningar för värden. Kontrollera också att värden inte blockerar inkommande anslutningar från nätverket där arbetsytans Spark-kluster distribueras. ** Detaljerat felmeddelande: <causeErrorMessage>
.
CANNOT_ESTABLISH_CONNECTION_SERVERLESS
Det går inte att upprätta en anslutning till fjärrdatabasen <jdbcDialectName>
. Kontrollera anslutningsinformation och autentiseringsuppgifter, t.ex. alternativ för värd, port, användare, lösenord och databas. ** Om du tror att informationen är korrekt kan du tillåta inkommande trafik från Internet till din värd, eftersom du använder serverlös beräkning. Om dina nätverksprinciper inte tillåter inkommande Internettrafik kan du använda icke-serverlös beräkning, eller så kan du kontakta din Databricks-representant för att lära dig mer om serverlöst privat nätverk. ** Detaljerat felmeddelande: <causeErrorMessage>
.
CANNOT_INVOKE_IN_TRANSFORMATIONS
Datamängdstransformeringar och åtgärder kan bara anropas av drivrutinen, inte inuti andra datauppsättningstransformeringar. Till exempel är dataset1.map(x => dataset2.values.count() * x) ogiltig eftersom åtgärden transformering och antal värden inte kan utföras i datauppsättningen1.map-transformering. Mer information finns i SPARK-28702.
CANNOT_LOAD_FUNCTION_CLASS
Det går inte att läsa in klassen <className>
när du registrerar funktionen <functionName>
. Kontrollera att den finns på klassökvägen.
CANNOT_LOAD_PROTOBUF_CLASS
Det gick inte att läsa in Protobuf-klassen med namnet <protobufClassName>
. <explanation>
.
CANNOT_LOAD_STATE_STORE
Ett fel uppstod under inläsningstillståndet.
Mer information finns i CANNOT_LOAD_STATE_STORE
CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE
Det gick inte att sammanfoga inkompatibla datatyper <left>
och <right>
. Kontrollera datatyperna för de kolumner som sammanfogas och se till att de är kompatibla. Om det behövs bör du överväga att casta kolumnerna till kompatibla datatyper innan du försöker slå samman.
CANNOT_MERGE_SCHEMAS
Det gick inte att slå samman scheman:
Ursprungligt schema:
<left>
Schema som inte kan sammanfogas med det ursprungliga schemat:
<right>
.
CANNOT_MODIFY_CONFIG
Det går inte att ändra värdet för Spark-konfigurationen: <key>
.
Se även https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements".
CANNOT_PARSE_DECIMAL
Det går inte att parsa decimaltecken. Kontrollera att indata är ett giltigt tal med valfria decimaltecken eller kommaavgränsare.
CANNOT_PARSE_INTERVAL
Det går inte att parsa <intervalString>
. Kontrollera att det angivna värdet är i ett giltigt format för att definiera ett intervall. Du kan referera till dokumentationen för rätt format. Om problemet kvarstår kontrollerar du att indatavärdet inte är null eller tomt och försök igen.
CANNOT_PARSE_JSON_FIELD
Det går inte att parsa fältnamnet <fieldName>
och värdet <fieldValue>
för JSON-tokentypen <jsonType>
som mål för Spark-datatypen <dataType>
.
CANNOT_PARSE_PROTOBUF_DESCRIPTOR
Fel vid parsning av beskrivande byte i Protobuf FileDescriptorSet.
CANNOT_PARSE_TIMESTAMP
<message>
. Om det behövs anger du <ansiConfig>
"false" för att kringgå det här felet.
CANNOT_QUERY_TABLE_DURING_INITIALIZATION
Det går inte att fråga MV/ST under initieringen.
Mer information finns i CANNOT_QUERY_TABLE_DURING_INITIALIZATION
CANNOT_READ_ARCHIVED_FILE
Det går inte att läsa filen på sökvägen <path>
eftersom den har arkiverats. Justera dina frågefilter för att undanta arkiverade filer.
CANNOT_READ_FILE
Det går inte att läsa <format>
filen på sökvägen: <path>
.
Mer information finns i CANNOT_READ_FILE
CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER
Det går inte att läsa känslig nyckel<key>
från en säker provider.
CANNOT_RECOGNIZE_HIVE_TYPE
Det går inte att identifiera hive-typsträngen: <fieldType>
, kolumn: <fieldName>
. Den angivna datatypen för fältet kan inte identifieras av Spark SQL. Kontrollera datatypen för det angivna fältet och kontrollera att det är en giltig Spark SQL-datatyp. I Spark SQL-dokumentationen finns en lista över giltiga datatyper och deras format. Om datatypen är korrekt kontrollerar du att du använder en version av Spark SQL som stöds.
CANNOT_REFERENCE_UC_IN_HMS
Det går inte att referera till en Unity-katalog <objType>
i Hive-metaarkivobjekt.
CANNOT_RENAME_ACROSS_CATALOG
Det är inte tillåtet att byta namn på en <type>
över kataloger.
CANNOT_RENAME_ACROSS_SCHEMA
Det är inte tillåtet att byta namn på flera <type>
scheman.
CANNOT_RESOLVE_DATAFRAME_COLUMN
Det går inte att matcha dataramskolumnen <name>
. Det beror förmodligen på olagliga referenser som df1.select(df2.col("a"))
.
CANNOT_RESOLVE_STAR_EXPAND
Det går inte att matcha <targetString>
.* angivna indatakolumner <columns>
. Kontrollera att den angivna tabellen eller structen finns och är tillgänglig i indatakolumnerna.
CANNOT_RESTORE_PERMISSIONS_FOR_PATH
Det gick inte att ange behörigheter för den skapade sökvägen <path>
tillbaka till <permission>
.
CANNOT_SAVE_VARIANT
Det går inte att spara variantdatatypen i extern lagring.
CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS
Det går inte att grunda kloningstabeller i Unity Catalog och Hive Metastore.
CANNOT_SHALLOW_CLONE_NESTED
Det går inte att grunt klona en tabell <table>
som redan är en ytlig klon.
CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET
Ytlig klon stöds endast för tabelltypen MANAGED. Tabellen <table>
är inte HANTERAd tabell.
CANNOT_UPDATE_FIELD
Det går inte att uppdatera <table>
fälttypen <fieldName>
:
Mer information finns i CANNOT_UPDATE_FIELD
CANNOT_UP_CAST_DATATYPE
Det går inte att gjuta <expression>
från <sourceType>
till <targetType>
.
<details>
CANNOT_VALIDATE_CONNECTION
Verifiering av <jdbcDialectName>
anslutning stöds inte. Kontakta Databricks-supporten för alternativa lösningar eller ange "spark.databricks.testConnectionBeforeCreation" till "false" för att hoppa över anslutningstestning innan du skapar ett anslutningsobjekt.
CANNOT_WRITE_STATE_STORE
Det gick inte att skriva tillståndsarkivfiler för providern <providerClass>
.
Mer information finns i CANNOT_WRITE_STATE_STORE
CAST_INVALID_INPUT
Värdet <expression>
för typen <sourceType>
kan inte gjutas till <targetType>
eftersom det är felaktigt. Korrigera värdet enligt syntaxen eller ändra dess måltyp. Använd try_cast
för att tolerera felaktiga indata och returnera NULL i stället.
Mer information finns i CAST_INVALID_INPUT
CAST_OVERFLOW
Värdet <value>
för typen <sourceType>
kan inte gjutas till <targetType>
på grund av ett spill. Använd try_cast
för att tolerera spill och returnera NULL i stället.
CAST_OVERFLOW_IN_TABLE_INSERT
Det går inte att tilldela ett värde av <sourceType>
typen till typkolumnen <targetType>
eller variabeln <columnName>
på grund av ett spill. Använd try_cast
på indatavärdet för att tolerera spill och returnera NULL i stället.
CATALOG_NOT_FOUND
<catalogName>
Katalogen hittades inte. Överväg att ange SQL-konfigurationen <config>
till ett katalog-plugin-program.
CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND
Kontrollpunktsblocket <rddBlockId>
hittades inte!
Antingen är den köre som ursprungligen kontrollpunktsbegränsade partitionen inte längre aktiv, eller så är den ursprungliga RDD:n opersisterad.
Om det här problemet kvarstår kan du överväga att använda rdd.checkpoint()
i stället, vilket är långsammare än lokal kontrollpunkt men mer feltolerant.
CLASS_NOT_OVERRIDE_EXPECTED_METHOD
<className>
måste åsidosätta antingen <method1>
eller <method2>
.
CLASS_UNSUPPORTED_BY_MAP_OBJECTS
MapObjects
stöder inte klassen <cls>
som den resulterande samlingen.
CLEANROOM_COMMANDS_NOT_SUPPORTED
Kommandon för rent rum stöds inte
CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME
Ogiltigt namn att referera <type>
till i ett rent rum. Använd ett <type>
's-namn i det rena rummet efter formatet [katalog].[ schema]. [<type>
].
Om du är osäker på vilket namn du ska använda kan du köra "VISA ALLA I CLEANROOM [clean_room]" och använda värdet i kolumnen "namn".
CLOUD_FILE_SOURCE_FILE_NOT_FOUND
Ett filmeddelande togs emot för filen, <filePath>
men det finns inte längre. Kontrollera att filerna inte tas bort innan de bearbetas. Om du vill fortsätta dataströmmen kan du ställa in Spark SQL-konfigurationen <config>
på true.
CLOUD_PROVIDER_ERROR
Molnleverantörsfel: <message>
CLUSTERING_COLUMNS_MISMATCH
Angiven klustring matchar inte den i den befintliga tabellen <tableName>
.
Angivna klustringskolumner: [<specifiedClusteringString>
].
Befintliga klustringskolumner: [<existingClusteringString>
].
CLUSTERING_NOT_SUPPORTED
'<operation>
' stöder inte klustring.
CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED
Kontakta din Databricks-representant för att aktivera funktionen cluster-by-auto.
CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED
Aktivera clusteringTable.enableClusteringTableFeature för att använda CLUSTER BY AUTO.
CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION
CLUSTER BY AUTO kräver att förutsägande optimering är aktiverat.
CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR
CLUSTER BY AUTO stöds endast i UC Managed-tabeller.
CODEC_NOT_AVAILABLE
Codec <codecName>
är inte tillgänglig.
Mer information finns i CODEC_NOT_AVAILABLE
CODEC_SHORT_NAME_NOT_FOUND
Det går inte att hitta ett kort namn för codec <codecName>
.
COLLATION_INVALID_NAME
Värdet <collationName>
representerar inte ett korrekt sorteringsnamn. Föreslagna giltiga sorteringsnamn: [<proposals>
].
COLLATION_INVALID_PROVIDER
Värdet <provider>
representerar inte en korrekt sorteringsprovider. Leverantörer som stöds är: [<supportedProviders>
].
COLLATION_MISMATCH
Det gick inte att avgöra vilken sortering som ska användas för strängfunktioner och operatorer.
Mer information finns i COLLATION_MISMATCH
COLLECTION_SIZE_LIMIT_EXCEEDED
Det går inte att skapa matris med <numberOfElements>
element som överskrider matrisstorleksgränsen <maxRoundedArrayLength>
,
Mer information finns i COLLECTION_SIZE_LIMIT_EXCEEDED
COLUMN_ALIASES_NOT_ALLOWED
Kolumnalias tillåts inte i <op>
.
COLUMN_ALREADY_EXISTS
Kolumnen <columnName>
finns redan. Välj ett annat namn eller byt namn på den befintliga kolumnen.
COLUMN_MASKS_CHECK_CONSTRAINT_UNSUPPORTED
Det går inte att skapa CHECK-villkor för tabellen <tableName>
med kolumnmaskprinciper.
COLUMN_MASKS_DUPLICATE_USING_COLUMN_NAME
En <statementType>
instruktion försökte tilldela en kolumnmaskprincip till en kolumn som innehöll två eller flera andra refererade kolumner i listan USING COLUMNS med samma namn <columnName>
, vilket är ogiltigt.
COLUMN_MASKS_FEATURE_NOT_SUPPORTED
Kolumnmaskprinciper för <tableName>
stöds inte:
Mer information finns i COLUMN_MASKS_FEATURE_NOT_SUPPORTED
COLUMN_MASKS_INCOMPATIBLE_SCHEMA_CHANGE
Det går inte att <statementType>
<columnName>
komma från tabellen <tableName>
eftersom den refereras till i en kolumnmaskprincip för kolumnen <maskedColumn>
. Tabellägaren måste ta bort eller ändra den här principen innan du fortsätter.
COLUMN_MASKS_MERGE_UNSUPPORTED_SOURCE
MERGE INTO-åtgärder stöder inte kolumnmaskprinciper i källtabellen <tableName>
.
COLUMN_MASKS_MERGE_UNSUPPORTED_TARGET
MERGE INTO-åtgärder har inte stöd för att skriva till tabell <tableName>
med kolumnmaskprinciper.
COLUMN_MASKS_MULTI_PART_TARGET_COLUMN_NAME
Den här instruktionen försökte tilldela en kolumnmaskprincip till en kolumn <columnName>
med flera namndelar, vilket är ogiltigt.
COLUMN_MASKS_MULTI_PART_USING_COLUMN_NAME
Den här instruktionen försökte tilldela en kolumnmaskprincip till en kolumn och listan USING COLUMNS innehöll namnet <columnName>
med flera namndelar, vilket är ogiltigt.
COLUMN_MASKS_NOT_ENABLED
Stöd för att definiera kolumnmasker är inte aktiverat
COLUMN_MASKS_REQUIRE_UNITY_CATALOG
Kolumnmaskprinciper stöds endast i Unity Catalog.
COLUMN_MASKS_TABLE_CLONE_SOURCE_NOT_SUPPORTED
<mode>
klona från tabellen <tableName>
med kolumnmaskprinciper stöds inte.
COLUMN_MASKS_TABLE_CLONE_TARGET_NOT_SUPPORTED
<mode>
klona till tabell <tableName>
med kolumnmaskprinciper stöds inte.
COLUMN_MASKS_UNSUPPORTED_CONSTANT_AS_PARAMETER
Det går inte att använda en konstant som en parameter i en kolumnmaskprincip. Uppdatera SQL-kommandot för att ta bort konstanten från kolumnmaskdefinitionen och försök sedan igen.
COLUMN_MASKS_UNSUPPORTED_PROVIDER
Det gick inte att köra <statementType>
kommandot eftersom tilldelning av kolumnmaskprinciper inte stöds för måldatakällan med tabellprovidern: "<provider>
".
COLUMN_MASKS_UNSUPPORTED_SUBQUERY
Det går inte att utföra <operation>
för tabellen <tableName>
eftersom den innehåller en eller flera kolumnmaskprinciper med subquery-uttryck som ännu inte stöds. Kontakta tabellens ägare för att uppdatera kolumnmaskprinciperna för att fortsätta.
COLUMN_MASKS_USING_COLUMN_NAME_SAME_AS_TARGET_COLUMN
Kolumnen <columnName>
hade samma namn som målkolumnen, vilket är ogiltigt. Ta bort kolumnen från listan ANVÄNDA KOLUMNER och försök igen.
COLUMN_NOT_DEFINED_IN_TABLE
<colType>
kolumnen <colName>
definieras inte i tabellen <tableName>
, definierade tabellkolumner är: <tableCols>
.
COLUMN_NOT_FOUND
Det går inte att hitta kolumnen <colName>
. Kontrollera stavning och korrekthet för kolumnnamnet enligt SQL-konfigurationen <caseSensitiveConfig>
.
COMMA_PRECEDING_CONSTRAINT_ERROR
Oväntad före begränsningsdefinition. Se till att villkorssatsen inte börjar med kommatecken när kolumner (och förväntningar) inte har definierats.
COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET
KOMMANDOT COMMENT ON CONNECTION har inte implementerats ännu
COMPARATOR_RETURNS_NULL
Jämförelsen har returnerat en NULL för en jämförelse mellan <firstValue>
och <secondValue>
.
Det bör returnera ett positivt heltal för "större än", 0 för "lika" och ett negativt heltal för "mindre än".
Om du vill återgå till inaktuellt beteende där NULL behandlas som 0 (lika) måste du ange "spark.sql.legacy.allowNullComparisonResultInArraySort" till "true".
COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
Det går inte att bearbeta indatatyper för uttrycket: <expression>
.
Mer information finns i COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
CONCURRENT_QUERY
En annan instans av den här frågan [id: <queryId>
] startades just av en samtidig session [befintligt runId: <existingQueryRunId>
nytt runId: <newQueryRunId>
].
CONCURRENT_STREAM_LOG_UPDATE
Samtidig uppdatering av loggen. Flera direktuppspelningsjobb har identifierats för <batchId>
.
Kontrollera att endast ett direktuppspelningsjobb körs på en specifik kontrollpunktsplats i taget.
CONFIG_NOT_AVAILABLE
Konfigurationen <config>
är inte tillgänglig.
CONFLICTING_PARTITION_COLUMN_NAMES
Motstridiga partitionskolumnnamn har identifierats:
<distinctPartColLists>
För partitionerade tabellkataloger bör datafiler endast finnas i lövkataloger.
Och kataloger på samma nivå bör ha samma partitionskolumnnamn.
Kontrollera följande kataloger för oväntade filer eller inkonsekventa kolumnnamn för partitioner:
<suspiciousPaths>
CONFLICTING_PROVIDER
Den angivna providern <provider>
är inkonsekvent med den befintliga katalogprovidern <expectedProvider>
. Använd "USING <expectedProvider>
" och försök igen.
ANSLUTA
Allmänt Spark Connect-fel.
Mer information finns i CONNECT
CONNECTION_ALREADY_EXISTS
Det går inte att skapa anslutningen <connectionName>
eftersom den redan finns.
Välj ett annat namn, släpp eller ersätt den befintliga anslutningen eller lägg till IF NOT EXISTS-satsen för att tolerera befintliga anslutningar.
CONNECTION_NAME_CANNOT_BE_EMPTY
Det går inte att köra det här kommandot eftersom anslutningsnamnet måste vara tomt.
CONNECTION_NOT_FOUND
Det går inte att köra det här kommandot eftersom anslutningsnamnet <connectionName>
inte hittades.
CONNECTION_OPTION_NOT_SUPPORTED
Anslutningar av typen "<connectionType>
" stöder inte följande alternativ: <optionsNotSupported>
. Alternativ som stöds: <allowedOptions>
.
CONNECTION_TYPE_NOT_SUPPORTED
Det går inte att skapa en anslutning av typen .<connectionType>
Anslutningstyper som stöds: <allowedTypes>
.
CONSTRAINTS_REQUIRE_UNITY_CATALOG
Tabellbegränsningar stöds endast i Unity Catalog.
CONVERSION_INVALID_INPUT
Det går inte att konvertera värdet <str>
(<fmt>
) till <targetType>
eftersom det är felaktigt. Korrigera värdet enligt syntaxen eller ändra dess format. Använd <suggestion>
för att tolerera felaktiga indata och returnera NULL i stället.
COPY_INTO_COLUMN_ARITY_MISMATCH
Det går inte att skriva till <tableName>
, orsaken är
Mer information finns i COPY_INTO_COLUMN_ARITY_MISMATCH
COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON
Ogiltigt schema <scheme>
. KOPIERA TILL källautentiseringsuppgifter stöder för närvarande endast s3/s3n/s3a/wasbs/abfss.
COPY_INTO_CREDENTIALS_REQUIRED
KOPIERA TILL källautentiseringsuppgifter måste ange <keyList>
.
COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED
Duplicerade filer har checkats in i en samtidig COPY INTO-åtgärd. Försök igen senare.
COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON
Ogiltigt schema <scheme>
. COPY INTO-källkryptering stöder för närvarande endast s3/s3n/s3a/abfss.
COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE
KOPIERA TILL kryptering stöder endast ADLS Gen2 eller abfss:// filschema
COPY_INTO_ENCRYPTION_REQUIRED
KOPIERA TILL källkryptering måste ange .<key>
COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED
Ogiltigt krypteringsalternativ <requiredKey>
. KOPIERA TILL källkryptering måste ange '<requiredKey>
' = '<keyValue>
'.
COPY_INTO_FEATURE_INCOMPATIBLE_SETTING
Funktionen COPY INTO är<feature>
inte kompatibel med .<incompatibleSetting>
COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED
KOPIERA TILL annat än att lägga till data tillåts inte köras samtidigt med andra transaktioner. Försök igen senare.
COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED
COPY INTO kunde inte läsa in dess tillstånd, maximala återförsök överskreds.
COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE
Ett schemamatchningsfel upptäcktes vid kopiering till Delta-tabellen (tabell: <table>
).
Detta kan tyda på ett problem med inkommande data, eller så kan deltatabellschemat utvecklas automatiskt enligt inkommande data genom att ställa in:
COPY_OPTIONS ("mergeSchema" = "true")
Schemaskillnad:
<schemaDiff>
COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED
Formatet för källfilerna måste vara en av CSV, JSON, AVRO, ORC, PARQUET, TEXT eller BINARYFILE. Det går inte att använda COPY INTO i Delta-tabeller som källa eftersom dubblettdata kan matas in efter OPTIMIZE-åtgärder. Den här kontrollen kan inaktiveras genom att köra SQL-kommandot set spark.databricks.delta.copyInto.formatCheck.enabled = false
.
COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED
Källkatalogen innehöll inga parsbara filer av typen <format>
. Kontrollera innehållet i '<source>
'.
Felet kan tystas genom att ställa in "<config>
" på "false".
COPY_INTO_STATE_INTERNAL_ERROR
Ett internt fel uppstod vid bearbetning av TILLSTÅNDET KOPIERA TILL.
Mer information finns i COPY_INTO_STATE_INTERNAL_ERROR
COPY_INTO_SYNTAX_ERROR
Det gick inte att parsa kommandot COPY INTO.
Mer information finns i COPY_INTO_SYNTAX_ERROR
COPY_INTO_UNSUPPORTED_FEATURE
Funktionen<feature>
KOPIERA TILL stöds inte.
COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED
Det går inte att ta bort data i formatet '<formatType>
'. Format som stöds för <connectionType>
är: <allowedFormats>
.
CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET
KOMMANDOT CREATE FOREIGN SCHEMA har inte implementerats ännu
CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET
KOMMANDOT CREATE FOREIGN TABLE har inte implementerats ännu
CREATE_OR_REFRESH_MV_ST_ASYNC
Det går inte att skapa eller uppdatera materialiserade vyer eller strömmande tabeller med ASYNC angivet. Ta bort ASYNC från instruktionen CREATE OR REFRESH eller använd UPPDATERA ASYNC för att uppdatera befintliga materialiserade vyer eller strömmande tabeller asynkront.
CREATE_PERMANENT_VIEW_WITHOUT_ALIAS
Det går inte att skapa den permanenta vyn <name>
utan att uttryckligen tilldela ett alias för uttrycket <attr>
.
CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
KOLUMNEN <columnName>
CREATE TABLE anger beskrivningen "<optionName>
" mer än en gång, vilket är ogiltigt.
CREATE_VIEW_COLUMN_ARITY_MISMATCH
Det går inte att skapa vyn <viewName>
, orsaken är
Mer information finns i CREATE_VIEW_COLUMN_ARITY_MISMATCH
CREDENTIAL_MISSING
Ange autentiseringsuppgifter när du skapar eller uppdaterar externa platser.
CSV_ENFORCE_SCHEMA_NOT_SUPPORTED
CSV-alternativet enforceSchema
kan inte anges när du använder rescuedDataColumn
eller failOnUnknownFields
, eftersom kolumner läse efter namn i stället för ordningstal.
CYCLIC_FUNCTION_REFERENCE
Cyklisk funktionsreferens har identifierats: <path>
.
DATABRICKS_DELTA_NOT_ENABLED
Databricks Delta är inte aktiverat i ditt konto.<hints>
DATATYPE_MISMATCH
Det går inte att lösa <sqlExpr>
på grund av matchningsfel av datatyp:
Mer information finns i DATATYPE_MISMATCH
DATATYPE_MISSING_SIZE
DataType <type>
kräver en längdparameter, till exempel <type>
(10). Ange längden.
DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION
Det går inte att skriva ursprung: motsvarande relation med principer för CLM/RLS saknas.
DATA_SOURCE_ALREADY_EXISTS
Datakällan finns<provider>
redan. Välj ett annat namn för den nya datakällan.
DATA_SOURCE_EXTERNAL_ERROR
Det uppstod ett fel när den sparades till en extern datakälla.
DATA_SOURCE_NOT_EXIST
Det går inte att hitta datakällan<provider>
. Kontrollera att datakällan är registrerad.
DATA_SOURCE_NOT_FOUND
Det gick inte att hitta datakällan: <provider>
. Kontrollera att providernamnet är korrekt och att paketet är korrekt registrerat och kompatibelt med din Spark-version.
DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS
Alternativet <option>
får inte vara tomt och får inte innehålla ogiltiga tecken, frågesträngar eller parametrar.
DATA_SOURCE_OPTION_IS_REQUIRED
Alternativet <option>
krävs.
DATA_SOURCE_TABLE_SCHEMA_MISMATCH
Schemat för datakällans tabell matchar inte det förväntade schemat. Om du använder API:et DataFrameReader.schema eller skapar en tabell bör du undvika att ange schemat.
Schema för datakälla: <dsSchema>
Förväntat schema: <expectedSchema>
DATA_SOURCE_URL_NOT_ALLOWED
JDBC-URL:en tillåts inte i alternativen för datakällor. Ange i stället alternativen "värd", "port" och "databas".
DATETIME_OVERFLOW
Datetime-åtgärdsspill: <operation>
.
DC_API_QUOTA_EXCEEDED
Du har överskridit API-kvoten för datakällan <sourceName>
.
Mer information finns i DC_API_QUOTA_EXCEEDED
DC_CONNECTION_ERROR
Det gick inte att upprätta en anslutning till <sourceName>
källan. Felkod: <errorCode>
.
Mer information finns i DC_CONNECTION_ERROR
DC_DYNAMICS_API_ERROR
Fel inträffade i Dynamics API-anrop, errorCode: <errorCode>
.
Mer information finns i DC_DYNAMICS_API_ERROR
DC_NETSUITE_ERROR
Felet inträffade i Netsuite JDBC-anrop, errorCode: <errorCode>
.
Mer information finns i DC_NETSUITE_ERROR
DC_SCHEMA_CHANGE_ERROR
SQLSTATE: ingen tilldelad
En schemaändring har inträffat i källans <sourceName>
tabell<tableName>
.
Mer information finns i DC_SCHEMA_CHANGE_ERROR
DC_SERVICENOW_API_ERROR
Fel inträffade i ServiceNow API-anrop, errorCode: <errorCode>
.
Mer information finns i DC_SERVICENOW_API_ERROR
DC_SFDC_BULK_QUERY_JOB_INCOMPLETE
Inmatningen för objektet <objName>
är ofullständig eftersom Salesforce API-frågejobbet tog för lång tid, misslyckades eller avbröts manuellt.
Om du vill försöka igen kan du antingen köra hela pipelinen igen eller uppdatera den här specifika måltabellen. Om felet kvarstår kan du skicka ett ärende. Jobb-ID: <jobId>
. Jobbstatus: <jobStatus>
.
DC_SHAREPOINT_API_ERROR
Fel inträffade i Sharepoint API-anrop, errorCode: <errorCode>
.
Mer information finns i DC_SHAREPOINT_API_ERROR
DC_SOURCE_API_ERROR
Ett fel uppstod i API-anropet <sourceName>
. Typ av käll-API: <apiType>
. Felkod: <errorCode>
.
Detta kan ibland inträffa när du har nått en <sourceName>
API-gräns. Om du inte har överskridit API-gränsen kan du prova att köra anslutningsappen igen. Om problemet kvarstår kan du skicka ett ärende.
DC_UNSUPPORTED_ERROR
Fel som inte stöds inträffade i datakällan <sourceName>
.
Mer information finns i DC_UNSUPPORTED_ERROR
DC_WORKDAY_RAAS_API_ERROR
Felet inträffade i Workday RAAS API-anrop, errorCode: <errorCode>
.
Mer information finns i DC_WORKDAY_RAAS_API_ERROR
DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION
Decimalprecisionen <precision>
överskrider maxprecisionen <maxPrecision>
.
DEFAULT_DATABASE_NOT_EXISTS
Standarddatabasen <defaultDatabase>
finns inte, skapa den först eller ändra standarddatabasen till <defaultDatabase>
.
DEFAULT_FILE_NOT_FOUND
Det är möjligt att de underliggande filerna har uppdaterats. Du kan uttryckligen ogiltigförklara cachen i Spark genom att köra kommandot REFRESH TABLE tableName i SQL eller genom att återskapa datauppsättningen/dataramen. Om diskcachen är inaktuell eller om de underliggande filerna har tagits bort kan du ogiltigförklara diskcachen manuellt genom att starta om klustret.
DEFAULT_PLACEMENT_INVALID
Det gick inte att tilldela ett STANDARDnyckelord i kommandot MERGE, INSERT, UPDATE eller SET VARIABLE direkt till en målkolumn eftersom det var en del av ett uttryck.
Till exempel: UPDATE SET c1 = DEFAULT
tillåts, men UPDATE T SET c1 = DEFAULT + 1
tillåts inte.
DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE
Strömningsfrågan läste från en oväntad Delta-tabell (id = '<newTableId>
').
Den brukade läsa från en annan Delta-tabell (id = '<oldTableId>
') enligt kontrollpunkten.
Detta kan inträffa när du har ändrat koden så att den läss från en ny tabell eller om du har tagit bort och
återskapat en tabell. Återställ ändringen eller ta bort kontrollpunkten för strömmande frågor
för att starta om från början.
DISTINCT_WINDOW_FUNCTION_UNSUPPORTED
Distinkta fönsterfunktioner stöds inte: <windowExpr>
.
DIVIDE_BY_ZERO
Delning med noll. Använd try_divide
för att tolerera att divisor-värdet är 0 och returnera NULL i stället. Om det behövs anger du <config>
"false" för att kringgå det här felet.
Mer information finns i DIVIDE_BY_ZERO
DLT_EXPECTATIONS_NOT_SUPPORTED
Förväntningar stöds endast i en Delta Live Tables-pipeline.
DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED
MATERIALISERADE VIEW:er med en CLUSTER BY-sats stöds endast i en Delta Live Tables-pipeline.
DLT_VIEW_LOCATION_NOT_SUPPORTED
MATERIALISERADE VISNINGsplatser stöds endast i en Delta Live Tables-pipeline.
DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED
MATERIALISERADE VIEW-scheman med en angiven typ stöds endast i en Delta Live Tables-pipeline.
DLT_VIEW_TABLE_CONSTRAINTS_NOT_SUPPORTED
BEGRÄNSNINGssatser i en vy stöds endast i en Delta Live Tables-pipeline.
DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT
Duplicerade fältnamn i Arrow Struct tillåts inte, fick <fieldNames>
.
DUPLICATED_MAP_KEY
Dubbletter av kartnyckeln <key>
hittades. Kontrollera indata.
Om du vill ta bort de duplicerade nycklarna kan du ange <mapKeyDedupPolicy>
"LAST_WIN" så att nyckeln som infogas äntligen har företräde.
DUPLICATED_METRICS_NAME
Måttnamnet är inte unikt: <metricName>
. Samma namn kan inte användas för mått med olika resultat.
Flera instanser av mått med samma resultat och namn tillåts dock (t.ex. självkopplingar).
DUPLICATE_ASSIGNMENTS
Kolumnerna eller variablerna <nameList>
visas mer än en gång som tilldelningsmål.
DUPLICATE_CLAUSES
Dubblettsatser hittades: <clauseName>
. Ta bort en av dem.
DUPLICATE_KEY
Dubblettnycklar <keyColumn>
hittades .
DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
Anrop till rutin <functionName>
är ogiltigt eftersom det innehåller flera argumenttilldelningar till samma parameternamn <parameterName>
.
Mer information finns i DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
DUPLICATE_ROUTINE_PARAMETER_NAMES
Hittade dubblettnamn i parameterlistan för den användardefinierade rutinen <routineName>
: <names>
.
DUPLICATE_ROUTINE_RETURNS_COLUMNS
Hittade dubblettkolumner i kolumnen RETURNS-sats i den användardefinierade rutinen <routineName>
: <columns>
.
EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED
Föregående nod har genererat en rad med eventTime=<emittedRowEventTime>
som är äldre än current_watermark_value=<currentWatermark>
Detta kan leda till problem med korrekthet i tillståndskänsliga operatorer nedströms i körningspipelinen.
Korrigera operatorlogik för att generera rader efter aktuellt globalt vattenstämpelvärde.
EMPTY_JSON_FIELD_VALUE
Det gick inte att parsa en tom sträng för datatypen <dataType>
.
EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY
Tom lokal fil i mellanlagringsfråga <operation>
ENCODER_NOT_FOUND
Det går inte att hitta en kodare av typen <typeName>
till en intern Spark SQL-representation.
Överväg att ändra indatatypen till en av de som stöds i "<docroot>
/sql-ref-datatypes.html".
END_LABEL_WITHOUT_BEGIN_LABEL
Slutetiketten <endLabel>
kan inte finnas utan startetikett.
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW
Vissa partitioner i Kafka-ämnesrapporten är tillgängliga förskjutningar som är mindre än slutförskjutningen under körning av frågan med Trigger.AvailableNow. Felet kan vara tillfälligt – starta om frågan och rapportera om du fortfarande ser samma problem.
senaste förskjutning: <latestOffset>
, slutförskjutning: <endOffset>
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED
För Kafka-datakälla med Trigger.AvailableNow bör slutförskjutningen ha lägre eller lika förskjutning per ämnespartition än förhämtad förskjutning. Felet kan vara tillfälligt – starta om frågan och rapportera om du fortfarande ser samma problem.
förhämtningsförskjutning: <prefetchedOffset>
, slutförskjutning: <endOffset>
.
ERROR_READING_AVRO_UNKNOWN_FINGERPRINT
Fel vid läsning av avro-data – påträffade ett okänt fingeravtryck: <fingerprint>
, inte säker på vilket schema som ska användas.
Detta kan inträffa om du har registrerat ytterligare scheman när du har startat spark-kontexten.
EVENT_LOG_REQUIRES_SHARED_COMPUTE
Det går inte att köra frågor mot händelseloggar från ett tilldelat eller delat kluster utan isolering. Använd ett delat kluster eller ett Databricks SQL-lager i stället.
EVENT_LOG_UNAVAILABLE
Det finns inga tillgängliga händelseloggar för <tableOrPipeline>
. Försök igen senare när händelser har genererats
EVENT_LOG_UNSUPPORTED_TABLE_TYPE
Tabelltypen <tableIdentifier>
är <tableType>
.
Frågor mot händelseloggar stöder endast materialiserade vyer, strömmande tabeller eller Delta Live Tables-pipelines
EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE
Händelsetiden <eventName>
har den ogiltiga typen <eventType>
, men förväntades "TIMESTAMP
".
EXCEED_LIMIT_LENGTH
Överskrider längdbegränsningen för tecken/varchar-typ: <limit>
.
EXCEPT_NESTED_COLUMN_INVALID_TYPE
EXCEPT-kolumnen <columnName>
löstes och förväntades vara StructType, men hittade typen <dataType>
.
EXCEPT_OVERLAPPING_COLUMNS
Kolumner i en EXCEPT-lista måste vara distinkta och icke-överlappande, men de får (<columns>
).
EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH
EXCEPT-kolumner [<exceptColumns>
] löstes, men matchar inte någon av kolumnerna [<expandedColumns>
] från stjärnexpansionen.
EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION
Det går inte att matcha kolumn-/fältnamnet <objectName>
i EXCEPT-satsen. Menade du något av följande: [<objectList>
]?
Obs! Kapslade kolumner i EXCEPT-satsen kanske inte innehåller kvalificerare (tabellnamn, överordnat struct-kolumnnamn osv.) under en struct-expansion; prova att ta bort kvalificerare om de används med kapslade kolumner.
EXECUTOR_BROADCAST_JOIN_OOM
Det finns inte tillräckligt med minne för att skapa sändningsrelationen <relationClassName>
. Relationsstorlek = <relationSize>
. Totalt minne som används av den här uppgiften = <taskMemoryUsage>
. Mått för Executor Memory Manager: onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>
, offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>
, onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>
, offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>
. [sparkPlanId: <sparkPlanId>
]
EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES
USING-satsen i det här EXECUTE IMMEDIATE-kommandot innehöll flera argument med samma alias (<aliases>
), vilket är ogiltigt. Uppdatera kommandot för att ange unika alias och försök sedan igen.
EXPECT_PERMANENT_VIEW_NOT_TEMP
'<operation>
' förväntar sig en permanent vy men <viewName>
är en temporär vy.
EXPECT_TABLE_NOT_VIEW
'<operation>
' förväntar sig en tabell men <viewName>
är en vy.
Mer information finns i EXPECT_TABLE_NOT_VIEW
EXPECT_VIEW_NOT_TABLE
Tabellen <tableName>
stöder <operation>
inte .
Mer information finns i EXPECT_VIEW_NOT_TABLE
EXPRESSION_DECODING_FAILED
Det gick inte att avkoda en rad till ett värde för uttrycken: <expressions>
.
EXPRESSION_ENCODING_FAILED
Det gick inte att koda ett värde för uttrycken: <expressions>
till en rad.
EXPRESSION_TYPE_IS_NOT_ORDERABLE
Det går inte att sortera kolumnuttrycket <expr>
eftersom dess typ <exprType>
inte kan ordnas.
EXTERNAL_TABLE_INVALID_SCHEME
Externa tabeller stöder inte schemat <scheme>
.
FABRIC_REFRESH_INVALID_SCOPE
Ett fel uppstod när "REFRESH FOREIGN <scope>
<name>
" skulle köras. Det går inte att uppdatera en infrastrukturresurs <scope>
direkt. Använd UPPDATERA EXTERN KATALOG <catalogName>
för att uppdatera infrastrukturkatalogen i stället.
FAILED_EXECUTE_UDF
Användardefinierad funktion (: (<signature>
) =><result>
) misslyckades på grund av: <reason>
.<functionName>
FAILED_FUNCTION_CALL
Det gick inte att förbereda funktionen <funcName>
för anrop. Dubbelkolla funktionens argument.
FAILED_JDBC
JDBC <url>
misslyckades för åtgärden:
Mer information finns i FAILED_JDBC
FAILED_PARSE_STRUCT_TYPE
Det gick inte att parsa struct: <raw>
.
FAILED_READ_FILE
Fel vid läsning av filen <path>
.
Mer information finns i FAILED_READ_FILE
FAILED_REGISTER_CLASS_WITH_KRYO
Det gick inte att registrera klasser med Kryo.
FAILED_RENAME_PATH
Det gick inte att byta <sourcePath>
namn på till <targetPath>
eftersom målet redan finns.
FAILED_RENAME_TEMP_FILE
Det gick inte att byta namn på temp-filen <srcPath>
till <dstPath>
som FileSystem.rename returnerade false.
FAILED_ROW_TO_JSON
Det gick inte att konvertera radvärdet <value>
för klassen <class>
till sql-måltypen <sqlType>
i JSON-format.
FAILED_TO_PARSE_TOO_COMPLEX
-instruktionen, inklusive potentiella SQL-funktioner och refererade vyer, var för komplex för att parsa.
För att minimera det här felet delar du in -instruktionen i flera, mindre komplexa segment.
FEATURE_NOT_ENABLED
Funktionen <featureName>
är inte aktiverad. Överväg att ställa in konfigurationen <configKey>
för <configValue>
att aktivera den här funktionen.
FEATURE_NOT_ON_CLASSIC_WAREHOUSE
<feature>
stöds inte på klassiska SQL-lager. Om du vill använda den här funktionen använder du ett Pro- eller Serverlöst SQL-lager. Mer information om lagertyper finns i <docLink>
FEATURE_REQUIRES_UC
<feature>
stöds inte utan Unity Catalog. Aktivera Unity Catalog om du vill använda den här funktionen. Mer information om Unity Catalog finns i <docLink>
FEATURE_UNAVAILABLE
<feature>
stöds inte i din miljö. Om du vill använda den här funktionen kontaktar du Databricks-supporten.
FIELD_ALREADY_EXISTS
Det går inte <op>
att kolumn eftersom <fieldNames>
det redan finns i <struct>
.
FIELD_NOT_FOUND
Inget sådant structfält <fieldName>
i <fields>
.
FILE_IN_STAGING_PATH_ALREADY_EXISTS
Filen i mellanlagringssökvägen <path>
finns redan men OVERWRITE har inte angetts
FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR
Ett fel uppstod i den användaringivna funktionen i flatMapGroupsWithState. Förnuft: <reason>
FORBIDDEN_OPERATION
Åtgärden <statement>
tillåts inte för <objectType>
: <objectName>
.
FOREACH_BATCH_USER_FUNCTION_ERROR
Ett fel uppstod i den användaringivna funktionen i batchmottagaren foreach. Förnuft: <reason>
FOREACH_USER_FUNCTION_ERROR
Ett fel uppstod i den angivna funktionen i foreach-mottagaren. Förnuft: <reason>
FOREIGN_KEY_MISMATCH
Överordnade sekundärnyckelkolumner <parentColumns>
matchar inte underordnade primärnyckelkolumner <childColumns>
.
FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY
Det går inte att köra det här kommandot eftersom det externa <objectType>
namnet måste vara tomt.
FOUND_MULTIPLE_DATA_SOURCES
Flera datakällor med namnet har<provider>
identifierats. Kontrollera att datakällan inte är registrerad samtidigt och finns i klassökvägen.
FROM_JSON_CONFLICTING_SCHEMA_UPDATES
from_json slutsatsdragning påträffade motstridiga schemauppdateringar på: <location>
FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA
from_json hittade columnNameOfCorruptRecord (<columnNameOfCorruptRecord>
) närvarande
i ett JSON-objekt och kan inte längre fortsätta. Konfigurera ett annat värde för
alternativet "columnNameOfCorruptRecord".
FROM_JSON_CORRUPT_SCHEMA
from_json slutsats kunde inte läsa schemat som lagras på: <location>
FROM_JSON_INFERENCE_FAILED
from_json kunde inte härleda schemat. Ange en i stället.
FROM_JSON_INFERENCE_NOT_SUPPORTED
from_json slutsatsdragning stöds endast när du definierar strömmande tabeller
FROM_JSON_INVALID_CONFIGURATION
from_json konfigurationen är ogiltig:
Mer information finns i FROM_JSON_INVALID_CONFIGURATION
FROM_JSON_SCHEMA_EVOLUTION_FAILED
from_json kunde inte utvecklas från <old>
till <new>
FUNCTION_PARAMETERS_MUST_BE_NAMED
Funktionen <function>
kräver namngivna parametrar. Parametrar som saknar namn: <exprs>
. Uppdatera funktionsanropet för att lägga till namn för alla parametrar, t.ex. <function>
(param_name => ...).
GENERATED_COLUMN_WITH_DEFAULT_VALUE
En kolumn kan inte ha både ett standardvärde och ett generationsuttryck, men kolumnen <colName>
har standardvärdet: (<defaultValue>
) och generationsuttrycket: (<genExpr>
).
GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION
Hive 2.2- och lägre versioner stöder inte getTablesByType. Använd Hive 2.3 eller senare.
GET_WARMUP_TRACING_FAILED
Det gick inte att hämta spårning av uppvärmning. Orsak: <cause>
.
GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED
Funktionen get_warmup_tracing() tillåts inte.
GRAPHITE_SINK_INVALID_PROTOCOL
Ogiltigt Graphite-protokoll: <protocol>
.
GRAPHITE_SINK_PROPERTY_MISSING
Graphite-mottagare kräver egenskapen "<property>
".
GROUPING_COLUMN_MISMATCH
Det går inte att hitta kolumnen för gruppering (<grouping>
) i grupperingskolumner <groupingColumns>
.
GROUPING_ID_COLUMN_MISMATCH
Kolumner i grouping_id (<groupingIdColumn>
) matchar inte grupperingskolumner (<groupByColumns>
).
GROUPING_SIZE_LIMIT_EXCEEDED
Grupperingsuppsättningar får inte vara större än <maxSize>
.
GROUP_BY_AGGREGATE
Aggregeringsfunktioner tillåts inte i GROUP BY, men hittade <sqlExpr>
.
Mer information finns i GROUP_BY_AGGREGATE
GROUP_BY_POS_AGGREGATE
GROUP BY <index>
refererar till ett uttryck <aggExpr>
som innehåller en mängdfunktion. Mängdfunktioner tillåts inte i GROUP BY.
GROUP_BY_POS_OUT_OF_RANGE
GROUP BY-position <index>
finns inte i urvalslistan (giltigt intervall är [1, <size>
]).
GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE
<sqlExpr>
Uttrycket kan inte användas som ett grupperingsuttryck eftersom dess datatyp <dataType>
inte är en ordnad datatyp.
HDFS_HTTP_ERROR
När du försökte läsa från HDFS misslyckades HTTP-begäran.
Mer information finns i HDFS_HTTP_ERROR
HLL_INVALID_INPUT_SKETCH_BUFFER
Ogiltigt anrop till <function>
; endast giltiga HLL-skissbuffertar stöds som indata (till exempel de som genereras av hll_sketch_agg
funktionen).
HLL_INVALID_LG_K
Ogiltigt anrop till <function>
; lgConfigK
värdet måste vara mellan <min>
och <max>
, inklusive: <value>
.
HLL_UNION_DIFFERENT_LG_K
Skisser har olika lgConfigK
värden: <left>
och <right>
. Ange parametern allowDifferentLgConfigK
till true för att anropa <function>
med olika lgConfigK
värden.
IDENTIFIER_TOO_MANY_NAME_PARTS
<identifier>
är inte en giltig identifierare eftersom den har fler än 2 namndelar.
ILLEGAL_STATE_STORE_VALUE
Ogiltigt värde som angetts i tillståndsarkivet
Mer information finns i ILLEGAL_STATE_STORE_VALUE
INCOMPARABLE_PIVOT_COLUMN
Ogiltig pivotkolumn <columnName>
. Pivotkolumner måste vara jämförbara.
INCOMPATIBLE_COLUMN_TYPE
<operator>
kan endast utföras på tabeller med kompatibla kolumntyper. Kolumnen <columnOrdinalNumber>
i tabellen är <dataType1>
typ som inte är kompatibel med <dataType2>
i samma kolumn i den första tabellen.<hint>
<tableOrdinalNumber>
.
INCOMPATIBLE_DATASOURCE_REGISTER
Identifierade en inkompatibel DataSourceRegister. Ta bort det inkompatibla biblioteket från classpath eller uppgradera det. Fel: <message>
INCOMPATIBLE_DATA_FOR_TABLE
Det går inte att skriva inkompatibla data för tabellen <tableName>
:
Mer information finns i INCOMPATIBLE_DATA_FOR_TABLE
INCOMPATIBLE_JOIN_TYPES
Kopplingstyperna <joinType1>
och <joinType2>
är inkompatibla.
INCOMPATIBLE_VIEW_SCHEMA_CHANGE
SQL-frågan i vyn <viewName>
har en inkompatibel schemaändring och kolumnen <colName>
kan inte matchas. Förväntade <expectedNum>
kolumner med namnet <colName>
men fick <actualCols>
.
Försök att återskapa vyn genom att köra: <suggestion>
.
INCOMPLETE_TYPE_DEFINITION
Ofullständig komplex typ:
Mer information finns i INCOMPLETE_TYPE_DEFINITION
INCONSISTENT_BEHAVIOR_CROSS_VERSION
Du kan få ett annat resultat på grund av uppgraderingen till
Mer information finns i INCONSISTENT_BEHAVIOR_CROSS_VERSION
INCORRECT_NUMBER_OF_ARGUMENTS
<failure>
, <functionName>
kräver minst <minArgs>
argument och högst <maxArgs>
argument.
INCORRECT_RAMP_UP_RATE
Maximal förskjutning med <rowsPerSecond>
raderPerSecond är <maxSeconds>
, men "rampUpTimeSeconds" är <rampUpTimeSeconds>
.
INDETERMINATE_COLLATION
Funktionen som anropas kräver kunskap om den sortering som ska tillämpas, men obestämd sortering hittades. Använd funktionen COLLATE för att ange sorteringen explicit.
INDEX_ALREADY_EXISTS
Det går inte att skapa indexet <indexName>
i tabellen <tableName>
eftersom det redan finns.
INDEX_NOT_FOUND
Det går inte att hitta indexet <indexName>
i tabellen <tableName>
.
INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED
Utlösartyp <trigger>
stöds inte för den här klustertypen.
Använd en annan utlösartyp, t.ex. AvailableNow, Once.
INSERT_COLUMN_ARITY_MISMATCH
Det går inte att skriva till <tableName>
, orsaken är
Mer information finns i INSERT_COLUMN_ARITY_MISMATCH
INSERT_PARTITION_COLUMN_ARITY_MISMATCH
Det går inte att skriva till ,<tableName>
<reason>
:
Tabellkolumner: <tableColumns>
.
Partitionskolumner med statiska värden: <staticPartCols>
.
Datakolumner: <dataColumns>
.
INSUFFICIENT_PERMISSIONS
Otillräcklig behörighet:
<report>
INSUFFICIENT_PERMISSIONS_EXT_LOC
Användaren <user>
har inte tillräcklig behörighet för den externa platsen <location>
.
INSUFFICIENT_PERMISSIONS_NO_OWNER
Det finns ingen ägare för <securableName>
. Be administratören att ange en ägare.
INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE
Användaren äger <securableName>
inte .
INSUFFICIENT_PERMISSIONS_SECURABLE
Användaren har inte behörighet <action>
för <securableName>
.
INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER
Ägaren till <securableName>
skiljer sig från ägaren till <parentSecurableName>
.
INSUFFICIENT_PERMISSIONS_STORAGE_CRED
Lagringsautentiseringsuppgifterna <credentialName>
har inte tillräcklig behörighet.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES
Användaren kan inte <action>
aktivera på <securableName>
grund av behörigheter för underliggande skyddsbara objekt.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE
Användaren kan inte <action>
aktivera på <securableName>
grund av behörigheter för underliggande skyddsbara objekt:
<underlyingReport>
INTERVAL_ARITHMETIC_OVERFLOW
<message>
.<alternative>
INTERVAL_DIVIDED_BY_ZERO
Delning med noll. Använd try_divide
för att tolerera att divisor-värdet är 0 och returnera NULL i stället.
INVALID_AGGREGATE_FILTER
FILTER-uttrycket <filterExpr>
i en mängdfunktion är ogiltigt.
Mer information finns i INVALID_AGGREGATE_FILTER
INVALID_ARRAY_INDEX
Indexet <indexValue>
ligger utanför gränserna. Matrisen har <arraySize>
element. Använd SQL-funktionen get()
för att tolerera åtkomst till element vid ogiltigt index och returnera NULL i stället. Om det behövs anger du <ansiConfig>
"false" för att kringgå det här felet.
Mer information finns i INVALID_ARRAY_INDEX
INVALID_ARRAY_INDEX_IN_ELEMENT_AT
Indexet <indexValue>
ligger utanför gränserna. Matrisen har <arraySize>
element. Använd try_element_at
för att tolerera åtkomst av element vid ogiltigt index och returnera NULL i stället. Om det behövs anger du <ansiConfig>
"false" för att kringgå det här felet.
Mer information finns i INVALID_ARRAY_INDEX_IN_ELEMENT_AT
INVALID_BITMAP_POSITION
Den 0-indexerade bitmappspositionen <bitPosition>
ligger utanför gränserna. Bitmappen har <bitmapNumBits>
bitar (<bitmapNumBytes>
byte).
INVALID_BOOLEAN_STATEMENT
Boolesk instruktion förväntas i villkoret, men <invalidStatement>
hittades.
INVALID_BOUNDARY
<boundary>
Gränsen är ogiltig: <invalidValue>
.
Mer information finns i INVALID_BOUNDARY
INVALID_BUCKET_COLUMN_DATA_TYPE
Det går inte att använda <type>
för bucketkolumn. Sorterade datatyper stöds inte för bucketing.
INVALID_BUCKET_FILE
Ogiltig bucketfil: <path>
.
INVALID_BYTE_STRING
Det förväntade formatet är ByteString, men var <unsupported>
(<class>
).
INVALID_COLUMN_NAME_AS_PATH
Datakällan <datasource>
kan inte spara kolumnen <columnName>
eftersom dess namn innehåller vissa tecken som inte tillåts i filsökvägar. Använd ett alias för att byta namn på det.
INVALID_COLUMN_OR_FIELD_DATA_TYPE
Kolumn eller fält <name>
är av typen <type>
medan den måste vara <expectedType>
.
INVALID_CONF_VALUE
Värdet '<confValue>
' i konfigurationen "<confName>
" är ogiltigt.
Mer information finns i INVALID_CONF_VALUE
INVALID_CURRENT_RECIPIENT_USAGE
current_recipient
funktionen kan endast användas i -instruktionen CREATE VIEW
eller -instruktionen ALTER VIEW
för att definiera en resursvy i Unity Catalog.
INVALID_CURSOR
Markören är ogiltig.
Mer information finns i INVALID_CURSOR
INVALID_DATETIME_PATTERN
Okänt datetime-mönster: <pattern>
.
Mer information finns i INVALID_DATETIME_PATTERN
INVALID_DEFAULT_VALUE
Det gick inte att köra <statement>
kommandot eftersom målkolumnen eller variabeln <colName>
har standardvärdet <defaultValue>
,
Mer information finns i INVALID_DEFAULT_VALUE
INVALID_DELIMITER_VALUE
Ogiltigt värde för avgränsare.
Mer information finns i INVALID_DELIMITER_VALUE
INVALID_DEST_CATALOG
Målkatalogen för SYNC-kommandot måste finnas i Unity Catalog. Hittade <catalog>
.
INVALID_DRIVER_MEMORY
Systemminnet <systemMemory>
måste vara minst <minSystemMemory>
.
Öka heapstorleken med alternativet –driver-memory eller "<config>
" i Spark-konfigurationen.
INVALID_DYNAMIC_OPTIONS
Alternativ som skickas <option_list> är förbjudna för sekundärtabell <table_name>.
INVALID_EMPTY_LOCATION
Platsnamnet får inte vara en tom sträng, men <location>
angavs.
INVALID_ESC
En ogiltig escape-sträng hittades: <invalidEscape>
. Escape-strängen får bara innehålla ett tecken.
INVALID_ESCAPE_CHAR
EscapeChar
bör vara en strängliteral av längd ett, men fick <sqlExpr>
.
INVALID_EXECUTOR_MEMORY
Körminnet <executorMemory>
måste vara minst <minSystemMemory>
.
Öka körminnet med alternativet –executor-memory eller "<config>
" i Spark-konfigurationen.
INVALID_EXPRESSION_ENCODER
Hittade en ogiltig uttryckskodare. Förväntar sig en instans av ExpressionEncoder men fick <encoderType>
. Mer information finns i "<docroot>
/api/java/index.html?org/apache/spark/sql/Encoder.html".
INVALID_EXTRACT_BASE_FIELD_TYPE
Det går inte att extrahera ett värde från <base>
. Behöver en komplex typ [STRUCT
, ARRAY
, MAP
] men fick <other>
.
INVALID_EXTRACT_FIELD
Det går inte att extrahera <field>
från <expr>
.
INVALID_EXTRACT_FIELD_TYPE
Fältnamnet ska vara en strängliteral som inte är null, men det är <extraction>
.
INVALID_FIELD_NAME
Fältnamnet <fieldName>
är ogiltigt: <path>
är inte en struct.
INVALID_FORMAT
Formatet är ogiltigt: <format>
.
Mer information finns i INVALID_FORMAT
INVALID_FRACTION_OF_SECOND
Bråkdelen av sek måste vara noll. Giltigt intervall är [0, 60]. Om det behövs anger du <ansiConfig>
"false" för att kringgå det här felet.
INVALID_HANDLE
Handtaget <handle>
är ogiltigt.
Mer information finns i INVALID_HANDLE
INVALID_IDENTIFIER
Den ociterade identifieraren <ident>
är ogiltig och måste anges igen som: <ident>
.
Ociterade identifierare kan bara innehålla ASCII-bokstäver ('a' - 'z', 'A' - 'Z'), siffror ('0' - '9') och underbar ('_') .
Ociterade identifierare får inte heller börja med en siffra.
Olika datakällor och metalager kan införa ytterligare begränsningar för giltiga identifierare.
INVALID_INDEX_OF_ZERO
Index 0 är ogiltigt. Ett index ska vara antingen < 0 eller > 0 (det första elementet har index 1).
INVALID_INLINE_TABLE
Ogiltig infogad tabell.
Mer information finns i INVALID_INLINE_TABLE
INVALID_INTERVAL_FORMAT
Det gick inte att parsa till<input>
intervall. Kontrollera att det angivna värdet är i ett giltigt format för att definiera ett intervall. Du kan referera till dokumentationen för rätt format.
Mer information finns i INVALID_INTERVAL_FORMAT
INVALID_INVERSE_DISTRIBUTION_FUNCTION
Ogiltig inverteringsdistributionsfunktion <funcName>
.
Mer information finns i INVALID_INVERSE_DISTRIBUTION_FUNCTION
INVALID_JOIN_TYPE_FOR_JOINWITH
Ogiltig kopplingstyp i joinWith: <joinType>
.
INVALID_JSON_DATA_TYPE
Det gick inte att konvertera JSON-strängen<invalidType>
till en datatyp. Ange en giltig datatyp.
INVALID_JSON_DATA_TYPE_FOR_COLLATIONS
Sortering kan endast tillämpas på strängtyper, men JSON-datatypen är <jsonType>
.
INVALID_JSON_ROOT_FIELD
Det går inte att konvertera JSON-rotfältet till måltypen Spark.
INVALID_JSON_SCHEMA_MAP_TYPE
Indataschemat <jsonSchema>
kan bara innehålla STRING
som en nyckeltyp för en MAP
.
INVALID_KRYO_SERIALIZER_BUFFER_SIZE
Värdet för konfigurationen "<bufferSizeConfKey>
" måste vara mindre än 2048 MiB, men fick <bufferSizeConfValue>
MiB.
INVALID_LABEL_USAGE
Etikettens <labelName>
användning är ogiltig.
Mer information finns i INVALID_LABEL_USAGE
INVALID_LAMBDA_FUNCTION_CALL
Ogiltigt lambda-funktionsanrop.
Mer information finns i INVALID_LAMBDA_FUNCTION_CALL
INVALID_LATERAL_JOIN_TYPE
Kopplingen <joinType>
med LATERAL korrelation tillåts inte eftersom en YTTRE underfråga inte kan korrelera med dess kopplingspartner. Ta bort LATERAL korrelationen eller använd en INRE KOPPLING eller VÄNSTER YTTRE KOPPLING i stället.
INVALID_LIMIT_LIKE_EXPRESSION
Gränsen som uttrycket <expr>
är ogiltig.
Mer information finns i INVALID_LIMIT_LIKE_EXPRESSION
INVALID_LOCATION
Platsnamnet kan inte vara en ogiltig URI, men <location>
angavs.
INVALID_NON_ABSOLUTE_PATH
Den angivna icke-absoluta sökvägen <path>
kan inte kvalificeras. Uppdatera sökvägen så att den är en giltig dbfs-monteringsplats.
INVALID_NON_DETERMINISTIC_EXPRESSIONS
Operatorn förväntar sig ett deterministiskt uttryck, men det faktiska uttrycket är <sqlExprs>
.
INVALID_NUMERIC_LITERAL_RANGE
Numerisk literal <rawStrippedQualifier>
ligger utanför det giltiga intervallet för <typeName>
med det minsta värdet <minValue>
och det maximala värdet för <maxValue>
. Justera värdet i enlighet med detta.
INVALID_OBSERVED_METRICS
Ogiltiga observerade mått.
Mer information finns i INVALID_OBSERVED_METRICS
INVALID_OPTIONS
Ogiltiga alternativ:
Mer information finns i INVALID_OPTIONS
INVALID_PANDAS_UDF_PLACEMENT
Gruppaggregatet pandas UDF <functionList>
kan inte anropas tillsammans med andra, icke-pandas-aggregeringsfunktioner.
INVALID_PARAMETER_MARKER_VALUE
En ogiltig parametermappning angavs:
Mer information finns i INVALID_PARAMETER_MARKER_VALUE
INVALID_PARAMETER_VALUE
Värdet för parametrar <parameter>
i <functionName>
är ogiltigt:
Mer information finns i INVALID_PARAMETER_VALUE
INVALID_PARTITION_COLUMN_DATA_TYPE
Det går inte att använda <type>
för partitionskolumnen.
INVALID_PARTITION_OPERATION
Partitionskommandot är ogiltigt.
Mer information finns i INVALID_PARTITION_OPERATION
INVALID_PIPELINE_ID
Pipeline-ID <pipelineId>
är inte giltigt.
Ett pipeline-ID ska vara ett UUID i formatet "xxxxxxxx-xxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxxxx"
INVALID_PRIVILEGE
Behörigheten <privilege>
är inte giltig för <securable>
.
INVALID_PROPERTY_KEY
<key>
är en ogiltig egenskapsnyckel, använd citattecken, t.ex. SET <key>
=<value>
.
INVALID_PROPERTY_VALUE
<value>
är ett ogiltigt egenskapsvärde, använd citattecken, t.ex. SET <key>
=<value>
INVALID_QUERY_MIXED_QUERY_PARAMETERS
Parameteriserad fråga måste antingen använda positionella eller namngivna parametrar, men inte båda.
INVALID_S3_COPY_CREDENTIALS
KOPIERA TILL autentiseringsuppgifter måste innehålla AWS_ACCESS_KEY, AWS_SECRET_KEY och AWS_SESSION_TOKEN.
INVALID_SAVE_MODE
Det angivna spara-läget <mode>
är ogiltigt. Giltiga sparlägen inkluderar "append", "overwrite", "ignore", "error", "errorifexists" och "default".
INVALID_SCHEMA
Indataschemat <inputSchema>
är inte en giltig schemasträng.
Mer information finns i INVALID_SCHEMA
INVALID_SCHEMA_OR_RELATION_NAME
<name>
är inte ett giltigt namn för tabeller/scheman. Giltiga namn innehåller bara alfabettecken, siffror och _.
INVALID_SCHEME
Unity-katalogen stöder <name>
inte standardfilschemat.
INVALID_SECRET_LOOKUP
Ogiltig hemlig sökning:
Mer information finns i INVALID_SECRET_LOOKUP
INVALID_SET_SYNTAX
Det förväntade formatet är "SET", "SET key" eller "SET key=value". Om du vill inkludera specialtecken i nyckeln eller inkludera semikolon i värde använder du backquotes, t.ex. SET key
=value
.
INVALID_SHARED_ALIAS_NAME
Aliasnamnet <sharedObjectType>
måste vara av formatet "schema.name".
INVALID_SINGLE_VARIANT_COLUMN
Det singleVariantColumn
går inte att använda alternativet om det också finns ett användardefinieringsschema.
INVALID_SOURCE_CATALOG
Källkatalogen får inte finnas i Unity Catalog för SYNC-kommandot. Hittade <catalog>
.
INVALID_SQL_ARG
Argumentet <name>
sql()
för är ogiltigt. Överväg att ersätta den med en SQL-literal eller med samlingskonstruktorfunktioner som map()
, array()
, struct()
.
INVALID_SQL_SYNTAX
Ogiltig SQL-syntax:
Mer information finns i INVALID_SQL_SYNTAX
INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY
Ogiltig mellanlagringssökväg i mellanlagringsfrågan <operation>
: <path>
INVALID_STATEMENT_FOR_EXECUTE_INTO
INTO-satsen i EXECUTE IMMEDIATE är endast giltig för frågor, men den angivna instruktionen är inte en fråga: <sqlString>
.
INVALID_STATEMENT_OR_CLAUSE
Instruktionen eller -satsen: <operation>
är inte giltig.
INVALID_SUBQUERY_EXPRESSION
Ogiltig underfråga:
Mer information finns i INVALID_SUBQUERY_EXPRESSION
INVALID_TEMP_OBJ_REFERENCE
Det går inte att skapa det beständiga objektet <objName>
av typen <obj>
eftersom det refererar till det tillfälliga objektet <tempObjName>
av typen <tempObj>
. Gör det tillfälliga objektet <tempObjName>
beständigt eller gör det beständiga objektet <objName>
tillfälligt.
INVALID_TIMESTAMP_FORMAT
Den angivna tidsstämpeln <timestamp>
matchar inte den förväntade syntaxen <format>
.
INVALID_TIME_TRAVEL_SPEC
Det går inte att ange både version och tidsstämpel när du reser tabellen.
INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
Tidsstämpeluttrycket <expr>
för tidsresor är ogiltigt.
Mer information finns i INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
INVALID_TYPED_LITERAL
Värdet för den typerade literalen <valueType>
är ogiltigt: <value>
.
INVALID_UDF_IMPLEMENTATION
Funktionen <funcName>
implementerar inte en ScalarFunction eller AggregateFunction.
INVALID_UPGRADE_SYNTAX
<command>
<supportedOrNot>
källtabellen finns i Hive-metaarkivet och måltabellen finns i Unity Catalog.
INVALID_URL
Url:en är ogiltig: <url>
. Om det behövs anger du <ansiConfig>
"false" för att kringgå det här felet.
INVALID_USAGE_OF_STAR_OR_REGEX
Ogiltig användning av <elem>
i <prettyName>
.
INVALID_UTF8_STRING
Ogiltig UTF8-bytesekvens hittades i strängen: <str>
.
INVALID_UUID
Indata <uuidInput>
är inte ett giltigt UUID.
UUID ska vara i formatet "xxxxxxxx-xxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx"
Kontrollera formatet för UUID.
INVALID_VARIABLE_DECLARATION
Ogiltig variabeldeklaration.
Mer information finns i INVALID_VARIABLE_DECLARATION
INVALID_VARIABLE_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE
Variabeltyp måste vara strängtyp men fick <varType>
.
INVALID_VARIANT_CAST
Variantvärdet <value>
kan inte omvandlas till <dataType>
. Använd try_variant_get
i stället.
INVALID_VARIANT_FROM_PARQUET
Ogiltig variant.
Mer information finns i INVALID_VARIANT_FROM_PARQUET
INVALID_VARIANT_GET_PATH
Sökvägen <path>
är inte en giltig variantextraheringssökväg i <functionName>
.
En giltig sökväg bör börja med $
och följs av noll eller fler segment som [123]
, .name
, ['name']
eller ["name"]
.
INVALID_WHERE_CONDITION
WHERE-villkoret <condition>
innehåller ogiltiga uttryck: <expressionList>
.
Skriv om frågan för att undvika fönsterfunktioner, aggregeringsfunktioner och generatorfunktioner i WHERE-satsen.
INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC
Det går inte att ange ORDER BY eller en fönsterram för <aggFunc>
.
INVALID_WRITER_COMMIT_MESSAGE
Datakällans skrivare har genererat ett ogiltigt antal incheckningsmeddelanden. Förväntade exakt ett meddelande om skrivincheckning från varje uppgift, men tog emot <detail>
.
INVALID_WRITE_DISTRIBUTION
Den begärda skrivdistributionen är ogiltig.
Mer information finns i INVALID_WRITE_DISTRIBUTION
JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE
Kopplingsvillkoret <joinCondition>
har den ogiltiga typen <conditionType>
, förväntat "BOOLEAN
".
KAFKA_DATA_LOSS
Vissa data kan ha gått förlorade eftersom de inte längre är tillgängliga i Kafka.
antingen har data föråldrades ut av Kafka eller så kan ämnet ha tagits bort innan alla data i
ämnet har bearbetats.
Om du inte vill att strömningsfrågan ska misslyckas i sådana fall anger du källalternativet failOnDataLoss till false.
Orsak:
Mer information finns i KAFKA_DATA_LOSS
KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET
Det gick inte att läsa förrän önskat sekvensnummer <endSeqNum>
för shard <shardId>
i
kinesis stream <stream>
med konsumentläge <consumerMode>
. Frågan misslyckas på grund av
potentiell dataförlust. Den senast lästa posten var vid sekvensnummer <lastSeqNum>
.
Detta kan inträffa om data med endSeqNum redan har åldrats eller om Kinesis-strömmen var
tas bort och rekonstrueras med samma namn. Felbeteendet kan åsidosättas
genom att ange spark.databricks.kinesis.failOnDataLoss till false i Spark-konfigurationen.
KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD
Minsta hämtade shardId från Kinesis (<fetchedShardId>
)
är mindre än det minsta spårade shardId (<trackedShardId>
).
Detta är oväntat och inträffar när en Kinesis-ström tas bort och återskapas med samma namn.
och en direktuppspelningsfråga med den här Kinesis-strömmen startas om med hjälp av en befintlig kontrollpunktsplats.
Starta om strömningsfrågan med en ny kontrollpunktsplats eller skapa en ström med ett nytt namn.
KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION
För shard <shard>
har den senaste posten som lästes från Kinesis i tidigare hämtningar sekvensnummer <lastSeqNum>
,
som är större än posten som lästs i aktuell hämtning med sekvensnummer <recordSeqNum>
.
Detta är oväntat och kan inträffa när startpositionen för återförsök eller nästa hämtning är felaktigt initierad och kan resultera i duplicerade poster nedströms.
KRYO_BUFFER_OVERFLOW
Kryo-serialiseringen misslyckades: <exceptionMsg>
. Undvik detta genom att öka värdet för "<bufferSizeConfKey>
".
LABELS_MISMATCH
Startetiketten <beginLabel>
matchar inte slutetiketten <endLabel>
.
LOAD_DATA_PATH_NOT_EXISTS
Indatasökvägen LOAD DATA finns inte: <path>
.
LOCAL_MUST_WITH_SCHEMA_FILE
LOCAL måste användas tillsammans med schemat file
för , men fick: <actualSchema>
.
LOCATION_ALREADY_EXISTS
Det går inte att namnge den hanterade tabellen som <identifier>
, eftersom dess associerade plats <location>
redan finns. Välj ett annat tabellnamn eller ta bort den befintliga platsen först.
LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW
Vissa partitioner i Kafka-ämnen har gått förlorade under körningen av frågan med Trigger.AvailableNow. Felet kan vara tillfälligt – starta om frågan och rapportera om du fortfarande ser samma problem.
topic-partitioner för senaste förskjutning: <tpsForLatestOffset>
, topic-partitioner för slutförskjutning: <tpsForEndOffset>
MALFORMED_AVRO_MESSAGE
Felaktiga Avro-meddelanden identifieras i meddelandedeserialisering. Parsningsläge: <mode>
. Om du vill bearbeta felaktigt Avro-meddelande som null-resultat kan du prova att ange alternativet "läge" som "PERMISSIVE".
MALFORMED_CHARACTER_CODING
Ogiltigt värde hittades när du utförde <function>
med <charset>
MALFORMED_CSV_RECORD
Felaktig CSV-post: <badRecord>
MALFORMED_RECORD_IN_PARSING
Felaktiga poster identifieras i postparsing: <badRecord>
.
Parsningsläge: <failFastMode>
. Om du vill bearbeta felaktiga poster som null-resultat kan du prova att ange alternativet "läge" som "PERMISSIVE".
Mer information finns i MALFORMED_RECORD_IN_PARSING
MALFORMED_VARIANT
Variant binär är felaktigt. Kontrollera att datakällan är giltig.
MANAGED_TABLE_WITH_CRED
Det går inte att skapa en hanterad tabell med lagringsautentiseringsuppgifter.
MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID
Det går inte <refreshType>
att materialisera vyn eftersom den föregår att ha ett pipelineId. Om du vill aktivera <refreshType>
kan du släppa och återskapa den materialiserade vyn.
MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
Den materialiserade vyåtgärden <operation>
tillåts inte:
Mer information finns i MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS
Utdatauttrycket <expression>
i en materialiserad vy måste vara explicit alias.
MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID
Det gick inte att skapa en materialiserad vy <name>
med strömningsfråga. Använd SKAPA [ELLER UPPDATERA] STRÖMMANDE TABELL eller ta bort STREAM-nyckelordet till FROM-satsen för att omvandla den här relationen till en batchfråga i stället.
MATERIALIZED_VIEW_UNSUPPORTED_OPERATION
Åtgärden <operation>
stöds inte i materialiserade vyer för den här versionen.
MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED
Det går inte att skapa den nya variabeln <variableName>
eftersom antalet variabler i sessionen överskrider det maximala tillåtna antalet (<maxNumVariables>
).
MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE
maxRecordsPerFetch måste vara ett positivt heltal som är mindre än eller lika med <kinesisRecordLimit>
MERGE_CARDINALITY_VIOLATION
VILLKORET PÅ-sökning för MERGE-instruktionen matchade en enskild rad från måltabellen med flera rader i källtabellen.
Detta kan leda till att målraden körs mer än en gång med en uppdaterings- eller borttagningsåtgärd och inte tillåts.
METRIC_CONSTRAINT_NOT_SUPPORTED
MÅTTBEGRÄNSNING är inte aktiverat.
METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
Det angivna värdet "<argValue>
" stöds inte av argumentet "<argName>
" för METRIC_STORE tabellfunktionen.
Mer information finns i METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
METRIC_STORE_UNSUPPORTED_ERROR
Funktionen <functionName>
Metric Store är för närvarande inaktiverad i den här miljön.
MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED
Kafka-datakällan i Trigger.AvailableNow bör ange samma ämnespartitioner i förhäckad förskjutning till slutförskjutning för varje mikrobatch. Felet kan vara tillfälligt – starta om frågan och rapportera om du fortfarande ser samma problem.
topic-partitions for pre-fetched offset: <tpsForPrefetched>
, topic-partitions for end offset: <tpsForEndOffset>
.
MISSING_AGGREGATION
Uttrycket som inte är aggregeringsuttryck <expression>
baseras på kolumner som inte deltar i GROUP BY-satsen.
Lägg till kolumnerna eller uttrycket i GROUP BY, aggregera uttrycket eller använd <expressionAnyValue>
om du inte bryr dig om vilka av värdena i en grupp som returneras.
Mer information finns i MISSING_AGGREGATION
MISSING_CONNECTION_OPTION
Anslutningar av typen måste<connectionType>
innehålla följande alternativ: <requiredOptions>
.
MISSING_GROUP_BY
Frågan innehåller inte någon GROUP BY-sats. Lägg till GROUP BY eller omvandla den till fönsterfunktionerna med hjälp av OVER-satser.
MISSING_NAME_FOR_CHECK_CONSTRAINT
CHECK-villkoret måste ha ett namn.
MISSING_PARAMETER_FOR_KAFKA
Parameter <parameterName>
krävs för Kafka, men anges inte i <functionName>
.
MISSING_PARAMETER_FOR_ROUTINE
Parameter <parameterName>
krävs, men anges inte i <functionName>
.
MISSING_WINDOW_SPECIFICATION
Fönsterspecifikationen definieras inte i WINDOW-satsen för <windowName>
. Mer information om WINDOW-satser finns i "<docroot>
/sql-ref-syntax-qry-select-window.html".
MODIFY_BUILTIN_CATALOG
Det går inte att ändra den inbyggda katalogen <catalogName>
.
MULTIPLE_LOAD_PATH
Databricks Delta stöder inte flera indatasökvägar i API:et load().
paths: <pathList>
. Så här skapar du en enda DataFrame genom att läsa in
flera sökvägar från samma Delta-tabell läser du in rotsökvägen för
Delta-tabellen med motsvarande partitionsfilter. Om flera sökvägar
är från olika Delta-tabeller använder du API:er för Dataset union()/unionByName()
för att kombinera DataFrames som genereras av separata API-anrop för load().
MULTIPLE_MATCHING_CONSTRAINTS
Minst två matchande villkor hittades med det angivna villkoret.
MULTIPLE_TIME_TRAVEL_SPEC
Det går inte att ange tidsresor i både tidsresesatsen och alternativen.
MULTIPLE_XML_DATA_SOURCE
Flera datakällor har identifierats med namnet <provider>
(<sourceNames>
). Ange det fullständigt kvalificerade klassnamnet eller ta bort <externalSource>
från klassökvägen.
MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION
Uttrycket <expr>
stöder inte mer än en källa.
MULTI_UDF_INTERFACE_ERROR
Det går inte att implementera flera UDF-gränssnitt, UDF-klass <className>
.
MUTUALLY_EXCLUSIVE_CLAUSES
Ömsesidigt uteslutande satser eller alternativ <clauses>
. Ta bort någon av dessa satser.
MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE
Indatafrågan förväntar sig en <expectedType>
, men den underliggande tabellen är en <givenType>
.
NAMED_PARAMETERS_NOT_SUPPORTED
Namngivna parametrar stöds inte för funktionen <functionName>
. Försök igen med positionella argument till funktionsanropet i stället.
NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS
Det går inte att anropa funktionen <functionName>
eftersom namngivna argumentreferenser inte stöds. I det här fallet var <argument>
den namngivna argumentreferensen .
NAMED_PARAMETER_SUPPORT_DISABLED
Det går inte att anropa funktionen <functionName>
eftersom namngivna argumentreferenser inte är aktiverade här.
I det här fallet var <argument>
den namngivna argumentreferensen .
Ange "spark.sql.allowNamedFunctionArguments" till "true" för att aktivera funktionen.
NAMESPACE_ALREADY_EXISTS
Det går inte att skapa namnområdet <nameSpaceName>
eftersom det redan finns.
Välj ett annat namn, släpp det befintliga namnområdet eller lägg till IF NOT EXISTS-satsen för att tolerera befintligt namnområde.
NAMESPACE_NOT_EMPTY
Det går inte att släppa ett namnområde <nameSpaceNameName>
eftersom det innehåller objekt.
Använd DROP NAMESPACE ... CASCADE för att släppa namnområdet och alla dess objekt.
NAMESPACE_NOT_FOUND
Det går inte att hitta namnområdet <nameSpaceName>
. Kontrollera stavning och korrekthet för namnområdet.
Om du inte kvalificerar namnet med kontrollerar du current_schema() utdata eller kvalificerar namnet med rätt.
Om du vill tolerera felet vid släpp använder du DROP NAMESPACE IF EXISTS.
NATIVE_IO_ERROR
Den interna begäran misslyckades. requestId: <requestId>
, cloud: <cloud>
, operation: <operation>
request: [https: <https>
, method = <method>
, path = <path>
, params = <params>
, host = <host>
, headers = <headers>
, bodyLen = <bodyLen>
],
fel: <error>
NATIVE_XML_DATA_SOURCE_NOT_ENABLED
Intern XML-datakälla är inte aktiverad i det här klustret.
NESTED_AGGREGATE_FUNCTION
Det är inte tillåtet att använda en aggregeringsfunktion i argumentet för en annan mängdfunktion. Använd den inre mängdfunktionen i en underfråga.
NESTED_EXECUTE_IMMEDIATE
Kapslade EXECUTE IMMEDIATE-kommandon tillåts inte. Kontrollera att SQL-frågan som tillhandahålls (<sqlString>
) inte innehåller något annat EXECUTE IMMEDIATE-kommando.
NONEXISTENT_FIELD_NAME_IN_LIST
Fält(er) <nonExistFields>
do(es) finns inte. Tillgängliga fält: <fieldNames>
NON_FOLDABLE_ARGUMENT
Funktionen <funcName>
kräver att parametern <paramName>
är ett vikbart uttryck av typen <paramType>
, men det faktiska argumentet är inte vikbart.
NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Om det finns fler än en MATCHED-satser i en MERGE-instruktion kan endast den sista MATCHED-satsen utelämna villkoret.
NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Om det finns fler än en SOM INTE MATCHAS AV KÄLL-satser i en MERGE-instruktion kan endast den sista INTE MATCHADE AV SOURCE-satsen utelämna villkoret.
NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION
Om det finns fler än en INTE MATCHAD [BY TARGET]-satser i en MERGE-instruktion kan endast den sista INTE MATCHADE [BY TARGET]-satsen utelämna villkoret.
NON_LITERAL_PIVOT_VALUES
Literaluttryck som krävs för pivotvärden hittades <expression>
.
NON_PARTITION_COLUMN
PARTITION-satsen får inte innehålla kolumnen som inte är partitionerad: <columnName>
.
NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING
Funktionen Window stöds inte i <windowFunc>
(som kolumn <columnName>
) på strömmande DataFrames/Datauppsättningar.
Strukturerad direktuppspelning stöder endast aggregering av tidsfönster med funktionen WINDOW. (fönsterspecifikation: <windowSpec>
)
NOT_ALLOWED_IN_FROM
Tillåts inte i FROM-satsen:
Mer information finns i NOT_ALLOWED_IN_FROM
NOT_A_CONSTANT_STRING
<expr>
Uttrycket som används för rutinen eller -satsen <name>
måste vara en konstant STRING
som INTE är NULL.
Mer information finns i NOT_A_CONSTANT_STRING
NOT_A_PARTITIONED_TABLE
Åtgärden <operation>
är inte tillåten för <tableIdentWithDB>
eftersom den inte är en partitionerad tabell.
NOT_A_SCALAR_FUNCTION
<functionName>
visas som ett skalärt uttryck här, men funktionen definierades som en tabellfunktion. Uppdatera frågan för att flytta funktionsanropet till FROM-satsen eller omdefiniera <functionName>
som en skalär funktion i stället.
NOT_A_TABLE_FUNCTION
<functionName>
visas som en tabellfunktion här, men funktionen definierades som en skalär funktion. Uppdatera frågan för att flytta funktionsanropet utanför FROM-satsen eller omdefiniera <functionName>
som en tabellfunktion i stället.
NOT_NULL_ASSERT_VIOLATION
NULL-värdet visas i fält som inte kan nulleras: <walkedTypePath>
Om schemat härleds från en Scala-tupplar/skiftlägesklass eller en Java-böna kan du försöka använda scala. Alternativ[_] eller andra nullbara typer (till exempel java.lang.Integer i stället för int/scala. Int).
NOT_NULL_CONSTRAINT_VIOLATION
Det är inte tillåtet att tilldela en NULL här.
Mer information finns i NOT_NULL_CONSTRAINT_VIOLATION
NOT_SUPPORTED_CHANGE_COLUMN
ALTER TABLE ALTER/CHANGE COLUMN stöds inte för att ändra <table>
kolumnen <originName>
med typen <originType>
till <newName>
med typen <newType>
.
NOT_SUPPORTED_COMMAND_FOR_V2_TABLE
<cmd>
stöds inte för v2-tabeller.
NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT
<cmd>
stöds inte, om du vill aktivera det anger du "spark.sql.catalogImplementation" till "hive".
NOT_SUPPORTED_IN_JDBC_CATALOG
Kommandot stöds inte i JDBC-katalogen:
Mer information finns i NOT_SUPPORTED_IN_JDBC_CATALOG
NOT_SUPPORTED_WITH_DB_SQL
<operation>
stöds inte på en SQL <endpoint>
.
NOT_SUPPORTED_WITH_SERVERLESS
<operation>
stöds inte på serverlös beräkning.
NOT_UNRESOLVED_ENCODER
Den olösta kodaren förväntades, men <attr>
hittades.
NO_DEFAULT_COLUMN_VALUE_AVAILABLE
Det går inte att fastställa standardvärdet för <colName>
eftersom det inte är null och inte har något standardvärde.
NO_HANDLER_FOR_UDAF
Ingen hanterare för UDAF<functionName>
. Använd sparkSession.udf.register(...) i stället.
NO_MERGE_ACTION_SPECIFIED
df.mergeInto måste följas av minst en av whenMatched/whenNotMatched/whenNotMatchedBySource.
NO_PARENT_EXTERNAL_LOCATION_FOR_PATH
SQLSTATE: ingen tilldelad
Det gick inte att hitta någon överordnad extern plats för sökvägen .<path>
Skapa en extern plats på en av de överordnade sökvägarna och försök sedan köra frågan eller kommandot igen.
NO_SQL_TYPE_IN_PROTOBUF_SCHEMA
Det går inte att hitta <catalystFieldPath>
i Protobuf-schemat.
NO_STORAGE_LOCATION_FOR_TABLE
SQLSTATE: ingen tilldelad
Det gick inte att hitta någon lagringsplats för tabellen när<tableId>
autentiseringsuppgifterna för tabellen genererades. Kontrollera tabelltypen och url:en för tabellplatsen och försök sedan köra frågan eller kommandot igen.
NO_SUCH_CATALOG_EXCEPTION
SQLSTATE: ingen tilldelad
<catalog>
Det gick inte att hitta katalogen . Kontrollera katalognamnet och försök sedan köra frågan eller kommandot igen.
NO_SUCH_CLEANROOM_EXCEPTION
SQLSTATE: ingen tilldelad
Det rena rummet "<cleanroom>
" finns inte. Kontrollera att namnet på det rena rummet är korrekt stavat och matchar namnet på ett giltigt befintligt rent rum och försök sedan köra frågan eller kommandot igen.
NO_SUCH_EXTERNAL_LOCATION_EXCEPTION
SQLSTATE: ingen tilldelad
Den externa platsen finns<externalLocation>
inte. Kontrollera att namnet på den externa platsen är korrekt och försök sedan köra frågan eller kommandot igen.
NO_SUCH_METASTORE_EXCEPTION
SQLSTATE: ingen tilldelad
Metaarkivet hittades inte. Be kontoadministratören att tilldela ett metaarkiv till den aktuella arbetsytan och försök sedan köra frågan eller kommandot igen.
NO_SUCH_PROVIDER_EXCEPTION
SQLSTATE: ingen tilldelad
Resursprovidern<providerName>
finns inte. Kontrollera att namnet på resursprovidern är korrekt stavat och matchar namnet på ett giltigt befintligt providernamn och försök sedan köra frågan eller kommandot igen.
NO_SUCH_RECIPIENT_EXCEPTION
SQLSTATE: ingen tilldelad
Mottagaren finns<recipient>
inte. Kontrollera att mottagarnamnet är korrekt stavat och matchar namnet på en giltig befintlig mottagare och försök sedan köra frågan eller kommandot igen.
NO_SUCH_SHARE_EXCEPTION
SQLSTATE: ingen tilldelad
Resursen<share>
finns inte. Kontrollera att resursnamnet är korrekt stavat och matchar namnet på en giltig befintlig resurs och försök sedan köra frågan eller kommandot igen.
NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION
SQLSTATE: ingen tilldelad
Lagringsautentiseringsuppgifterna<storageCredential>
finns inte. Kontrollera att namnet på lagringsautentiseringsuppgifterna är korrekt stavat och matchar namnet på en giltig befintlig lagringsautentiseringsuppgift och försök sedan köra frågan eller kommandot igen.
NO_SUCH_USER_EXCEPTION
SQLSTATE: ingen tilldelad
Användaren finns<userName>
inte. Kontrollera att den användare som du beviljar behörighet eller ändra ägarskap till är korrekt stavad och matchar namnet på en giltig befintlig användare och försök sedan köra frågan eller kommandot igen.
NO_UDF_INTERFACE
UDF-klassen <className>
implementerar inget UDF-gränssnitt.
NULLABLE_COLUMN_OR_FIELD
Kolumnen eller fältet <name>
kan inte vara null medan den måste vara icke-nullbar.
NULLABLE_ROW_ID_ATTRIBUTES
Rad-ID-attribut kan inte vara nullbara: <nullableRowIdAttrs>
.
NULL_DATA_SOURCE_OPTION
Datakällans läs-/skrivalternativ <option>
får inte ha null-värde.
NULL_MAP_KEY
Det går inte att använda null som kartnyckel.
NULL_QUERY_STRING_EXECUTE_IMMEDIATE
Kör omedelbart kräver en variabel som inte är null som frågesträng, men den angivna variabeln <varName>
är null.
NUMERIC_OUT_OF_SUPPORTED_RANGE
<value>
Värdet kan inte tolkas som ett numeriskt värde eftersom det har fler än 38 siffror.
NUMERIC_VALUE_OUT_OF_RANGE
Mer information finns i NUMERIC_VALUE_OUT_OF_RANGE
NUM_COLUMNS_MISMATCH
<operator>
kan bara utföras på indata med samma antal kolumner, men den första indatan har <firstNumColumns>
kolumner och <invalidOrdinalNum>
indata har <invalidNumColumns>
kolumner.
NUM_TABLE_VALUE_ALIASES_MISMATCH
Antalet angivna alias matchar inte antalet utdatakolumner.
Funktionsnamn: <funcName>
; antal alias: <aliasesNum>
; antal utdatakolumner: <outColsNum>
.
OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED
Inget anpassat identitetsanspråk har angetts.
ONLY_SECRET_FUNCTION_SUPPORTED_HERE
Anropsfunktionen <functionName>
stöds inte i detta <location>
; <supportedFunctions>
stöds här.
ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR
SQL-åtgärden <operation>
stöds endast på Databricks SQL-anslutningsappar med stöd för Unity Catalog.
OPERATION_CANCELED
Åtgärden har avbrutits.
OPERATION_REQUIRES_UNITY_CATALOG
Åtgärden <operation>
kräver att Unity Catalog är aktiverat.
OP_NOT_SUPPORTED_READ_ONLY
<plan>
stöds inte i skrivskyddat sessionsläge.
ORDER_BY_POS_OUT_OF_RANGE
ORDER BY-position <index>
finns inte i urvalslistan (giltigt intervall är [1, <size>
]).
PARQUET_CONVERSION_FAILURE
Det går inte att skapa en Parquet-konverterare för datatypen <dataType>
vars Parquet-typ är <parquetType>
.
Mer information finns i PARQUET_CONVERSION_FAILURE
PARSE_EMPTY_STATEMENT
Syntaxfel, oväntad tom instruktion.
PARSE_SYNTAX_ERROR
Syntaxfel vid eller nära <error>
<hint>
.
PARTITIONS_ALREADY_EXIST
Det går inte att lägga till eller byta namn på partitioner <partitionList>
i tabellen <tableName>
eftersom de redan finns.
Välj ett annat namn, släpp den befintliga partitionen eller lägg till IF NOT EXISTS-satsen för att tolerera en befintlig partition.
PARTITIONS_NOT_FOUND
Det går inte att hitta partitionerna <partitionList>
i tabellen <tableName>
.
Kontrollera partitionsspecifikationen och tabellnamnet.
Om du vill tolerera felet vid släpp använder du ALTER TABLE ... SLÄPP OM DET FINNS EN PARTITION.
PARTITION_LOCATION_ALREADY_EXISTS
Partitionsplatsen <locationPath>
finns redan i tabellen <tableName>
.
PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY
Det gick inte att köra instruktionen ALTER TABLE SET PARTITION LOCATION eftersom
partitionsplatsen <location>
finns inte under tabellkatalogen <table>
.
Du kan åtgärda det genom att ange platsen för partitionen till en underkatalog <table>
till .
PARTITION_METADATA
<action>
tillåts inte i tabellen <tableName>
eftersom lagring av partitionsmetadata inte stöds i Unity Catalog.
PATH_ALREADY_EXISTS
Sökvägen <outputPath>
finns redan. Ange läget som "skriv över" för att skriva över den befintliga sökvägen.
PATH_NOT_FOUND
Sökvägen finns inte: <path>
.
PIPE_OPERATOR_SELECT_CONTAINS_AGGREGATE_FUNCTION
Mängdfunktionen <expr>
tillåts inte när du använder röroperatorn |> SELECT-sats; använd röroperatorn |> AGGREGATE-sats i stället
PIVOT_VALUE_DATA_TYPE_MISMATCH
Ogiltigt pivotvärde<value>
: värdedatatypen <valueType>
matchar inte datatypen <pivotType>
pivottabellkolumn .
PROCEDURE_ARGUMENT_NUMBER_MISMATCH
Proceduren <procedureName>
förväntar sig <expected>
argument, men <actual>
angavs.
PROCEDURE_CREATION_EMPTY_ROUTINE
SKAPA PROCEDUR med en tom rutindefinition tillåts inte.
PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT
Parametern <parameterName>
definieras med parameterläget <parameterMode>
. OUT- och INOUT-parametern kan inte utelämnas när du anropar en rutin och stöder därför inte ett DEFAULT-uttryck. Om du vill fortsätta tar du bort STANDARD-satsen eller ändrar parameterläget till IN.
PROCEDURE_NOT_SUPPORTED
Lagrad procedur stöds inte
PROCEDURE_NOT_SUPPORTED_WITH_HMS
Lagrad procedur stöds inte med Hive Metastore. Använd Unity Catalog i stället.
PROTOBUF_DEPENDENCY_NOT_FOUND
Det gick inte att hitta beroendet: <dependencyName>
.
PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND
Det gick inte att läsa Protobuf-beskrivningsfilen vid sökvägen: <filePath>
.
PROTOBUF_FIELD_MISSING
<field>
Söker efter i Protobuf-schemat på <protobufSchema>
gav <matchSize>
matchningar. Kandidater: <matches>
.
PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA
Finns <field>
i Protobuf-schemat men det finns ingen matchning i SQL-schemat.
PROTOBUF_FIELD_TYPE_MISMATCH
Typmatchningsfel påträffades för fältet: <field>
.
PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED
Java-klasser stöds inte för <protobufFunction>
. Kontakta Databricks Support om alternativa alternativ.
PROTOBUF_MESSAGE_NOT_FOUND
Det går inte att hitta meddelandet <messageName>
i beskrivningen.
PROTOBUF_TYPE_NOT_SUPPORT
Protobuf-typen stöds inte ännu: <protobufType>
.
PS_FETCH_RETRY_EXCEPTION
Det går inte att göra ett nytt försök med uppgiften i pubsub-hämtningssteget. Partition <partitionInfo>
i steg <stageInfo>
, TID <taskId>
.
PS_INVALID_EMPTY_OPTION
<key>
får inte vara en tom sträng.
PS_INVALID_KEY_TYPE
Ogiltig nyckeltyp för PubSub-deduplicering: <key>
.
PS_INVALID_OPTION
Alternativet <key>
stöds inte av PubSub. Det kan bara användas vid testning.
PS_INVALID_OPTION_TYPE
Ogiltig typ för <key>
. Den förväntade typen av <key>
ska vara typ <type>
.
PS_INVALID_READ_LIMIT
Ogiltig läsgräns för PubSub-dataström: <limit>
.
PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO
Invalid UnsafeRow to decode to PubSubMessageMetadata, the desired proto schema is: <protoSchema>
. Indatan UnsafeRow kan vara skadad: <unsafeRow>
.
PS_MISSING_AUTH_INFO
Det gick inte att hitta fullständig PubSub-autentiseringsinformation.
PS_MISSING_REQUIRED_OPTION
Det gick inte att hitta det obligatoriska alternativet: <key>
.
PS_MOVING_CHECKPOINT_FAILURE
Det gick inte att flytta rådatakontrollpunktsfiler från <src>
till målkatalogen: <dest>
.
PS_MULTIPLE_FAILED_EPOCHS
PubSub-strömmen kan inte startas eftersom det finns fler än en misslyckad hämtning: <failedEpochs>
.
PS_OPTION_NOT_IN_BOUNDS
<key>
måste ligga inom följande gränser (<min>
, <max>
) exklusive båda gränserna.
PS_PROVIDE_CREDENTIALS_WITH_OPTION
Delade kluster stöder inte autentisering med instansprofiler. Ange autentiseringsuppgifter till strömmen direkt med hjälp av .option().
PS_SPARK_SPECULATION_NOT_SUPPORTED
PubSub-källanslutningsappen är endast tillgänglig i kluster med spark.speculation
inaktiverad.
PS_UNABLE_TO_CREATE_SUBSCRIPTION
Ett fel uppstod när du försökte skapa en prenumeration <subId>
i ämnet <topicId>
. Kontrollera att det finns tillräckliga behörigheter för att skapa en prenumeration och försök igen.
PS_UNABLE_TO_PARSE_PROTO
Det går inte att parsa serialiserade byte för att generera proto.
PS_UNSUPPORTED_GET_OFFSET_CALL
getOffset stöds inte utan att ange en gräns.
PYTHON_DATA_SOURCE_ERROR
Det gick inte att komma åt <action>
Python-datakällan <type>
: <msg>
PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR
Det gick inte när Python-strömmande datakälla utför <action>
: <msg>
QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
Det går inte att komma åt den refererade tabellen eftersom en tidigare tilldelad kolumnmask för närvarande inte är kompatibel med tabellschemat. om du vill fortsätta kontaktar du tabellens ägare för att uppdatera principen:
Mer information finns i QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
Det går inte att komma åt den refererade tabellen eftersom en tidigare tilldelad säkerhetsprincip på radnivå för närvarande inte är kompatibel med tabellschemat. om du vill fortsätta kontaktar du tabellens ägare för att uppdatera principen:
Mer information finns i QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
READ_CURRENT_FILE_NOT_FOUND
<message>
Det är möjligt att de underliggande filerna har uppdaterats. Du kan uttryckligen ogiltigförklara cachen i Spark genom att köra kommandot REFRESH TABLE tableName i SQL eller genom att återskapa datauppsättningen/dataramen.
READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS
Funktionens <functionName>
anrop har <parameterName>
och <alternativeName>
anges, vilket är alias för varandra. Ange bara en av dem.
READ_TVF_UNEXPECTED_REQUIRED_PARAMETER
Den funktion <functionName>
som krävs-parametern <parameterName>
måste tilldelas på plats <expectedPos>
utan namnet.
RECIPIENT_EXPIRATION_NOT_SUPPORTED
Endast TIMESTAMP
typer av /TIMESTAMP_LTZ/TIMESTAMP_NTZ stöds för mottagarens förfallotidsstämpel.
RECURSIVE_PROTOBUF_SCHEMA
Hittade rekursiv referens i Protobuf-schema, som inte kan bearbetas av Spark som standard: <fieldDescriptor>
. Prova att ange alternativ recursive.fields.max.depth
1 till 10. Att gå längre än 10 nivåer av rekursion är inte tillåtet.
RECURSIVE_VIEW
Rekursiv vy <viewIdent>
har identifierats (cykel: <newPath>
).
REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION
Referenser till standardkolumnvärden tillåts inte i PARTITION-satsen.
RELATION_LARGER_THAN_8G
Det går inte att skapa en <relationName>
som är större än 8G.
REMOTE_FUNCTION_HTTP_FAILED_ERROR
Http-fjärrbegäran misslyckades med kod <errorCode>
och felmeddelande <errorMessage>
REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR
Det gick inte att utvärdera <functionName>
SQL-funktionen på grund av att det inte gick att parsa JSON-resultatet från http-fjärrsvaret. Felmeddelandet är <errorMessage>
. Kontrollera API-dokumentationen: <docUrl>
. Åtgärda problemet som anges i felmeddelandet och försök igen.
REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR
Det gick inte att utvärdera <functionName>
SQL-funktionen på grund av att det inte gick att bearbeta det oväntade HTTP-fjärrsvaret. Felmeddelandet är <errorMessage>
. Kontrollera API-dokumentationen: <docUrl>
. Åtgärda problemet som anges i felmeddelandet och försök igen.
REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT
Fjärrbegäran misslyckades efter återförsök <N>
. Den senaste misslyckade HTTP-felkoden var <errorCode>
och meddelandet var <errorMessage>
REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR
Det gick inte att utvärdera <functionName>
SQL-funktionen eftersom <errorMessage>
. Kontrollera kraven i <docUrl>
. Åtgärda problemet som anges i felmeddelandet och försök igen.
RENAME_SRC_PATH_NOT_FOUND
Det gick inte att byta namn på eftersom <sourcePath>
det inte gick att hitta det.
REPEATED_CLAUSE
<clause>
Satsen kan användas högst en gång per <operation>
åtgärd.
REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY
Den funktion <functionName>
som krävs-parametern <parameterName>
har tilldelats vid position <positionalIndex>
utan namnet.
Uppdatera funktionsanropet för att antingen ta bort det namngivna argumentet med <parameterName>
för den här parametern eller ta bort positionella
argument vid <positionalIndex>
och försök sedan frågan igen.
REQUIRED_PARAMETER_NOT_FOUND
Det går inte att anropa funktionen <functionName>
eftersom parametern med namnet <parameterName>
krävs, men funktionsanropet angav inget värde. Uppdatera funktionsanropet för att ange ett argumentvärde (antingen positionellt vid index <index>
eller efter namn) och försök igen.
REQUIRES_SINGLE_PART_NAMESPACE
<sessionCatalog>
kräver ett namnområde med en enda del, men fick <namespace>
.
RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT
Alternativet "rescuedDataColumn" DataFrame API-läsare är ömsesidigt uteslutande med alternativet "singleVariantColumn" DataFrame API.
Ta bort en av dem och försök sedan utföra DataFrame-åtgärden igen.
RESERVED_CDC_COLUMNS_ON_WRITE
Skrivningen innehåller reserverade kolumner <columnList>
som används
internt som metadata för Ändringsdataflöde. Så här skriver du till tabellen genom att antingen byta namn på/släppa
dessa kolumner eller inaktivera Ändra dataflöde i tabellen genom att ange
<config>
till false.
RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
Alternativet <option>
har begränsade värden för delade kluster för <source>
källan.
Mer information finns i RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
ROUTINE_ALREADY_EXISTS
Det går inte att <newRoutineType>
<routineName>
skapa eftersom det redan finns ett <existingRoutineType>
namn.
Välj ett annat namn, släpp eller ersätt den befintliga <existingRoutineType>
, eller lägg till IF NOT EXISTS-satsen för att tolerera en befintlig <newRoutineType>
.
ROUTINE_NOT_FOUND
Det går inte att hitta rutinen <routineName>
. Kontrollera stavningen och korrektheten i schemat och katalogen.
Om du inte kvalificerar namnet med ett schema och en katalog kontrollerar du utdata för current_schema() eller kvalificerar namnet med rätt schema och katalog.
För att tolerera felet vid släpp användning DROP ... OM FINNS.
ROUTINE_PARAMETER_NOT_FOUND
Funktionen <functionName>
stöder inte parametern <parameterName>
som anges vid position <pos>
.<suggestion>
ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME
Det går inte att skapa funktionen <routineName>
eftersom det angivna klassnamnet är<className>
reserverat för systemanvändning. Byt namn på klassen och försök igen.
ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED
Det går inte att skapa CHECK-villkor i tabellen <tableName>
med säkerhetsprinciper på radnivå.
ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME
En <statementType>
instruktion försökte tilldela en säkerhetsprincip på radnivå till en tabell, men två eller flera refererade kolumner hade samma namn <columnName>
, vilket är ogiltigt.
ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
Säkerhetsprinciper på radnivå för <tableName>
stöds inte:
Mer information finns i ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE
Det går inte att <statementType>
<columnName>
komma från tabellen <tableName>
eftersom den refereras till i en säkerhetsprincip på radnivå. Tabellägaren måste ta bort eller ändra den här principen innan du fortsätter.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE
MERGE INTO-åtgärder stöder inte säkerhetsprinciper på radnivå i källtabellen <tableName>
.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET
MERGE INTO-åtgärder har inte stöd för att skriva till tabellen <tableName>
med säkerhetsprinciper på radnivå.
ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME
Den här instruktionen försökte tilldela en säkerhetsprincip på radnivå till en tabell, men den refererade kolumnen <columnName>
hade flera namndelar, vilket är ogiltigt.
ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG
Säkerhetsprinciper på radnivå stöds endast i Unity Catalog.
ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED
<mode>
klona från en tabell <tableName>
med en säkerhetsprincip på radnivå stöds inte.
ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED
<mode>
klona till tabell <tableName>
med säkerhetsprincip på radnivå stöds inte.
ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER
Det går inte att använda en konstant som en parameter i en säkerhetsprincip på radnivå. Uppdatera SQL-kommandot för att ta bort konstanten från radfilterdefinitionen och försök sedan kommandot igen.
ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER
Det gick inte att köra <statementType>
kommandot eftersom det inte går att tilldela en säkerhetsprincip på radnivå för måldatakällan med tabellprovidern : "<provider>
".
ROW_SUBQUERY_TOO_MANY_ROWS
Mer än en rad som returneras av en underfråga som används som en rad.
ROW_VALUE_IS_NULL
Null hittades på en rad i indexet <index>
, förväntade sig ett icke-NULL-värde.
RULE_ID_NOT_FOUND
Det går inte att hitta ett ID för regelnamnet .<ruleName>
Ändra RuleIdCollection.scala om du lägger till en ny regel.
SAMPLE_TABLE_PERMISSIONS
Behörigheter som inte stöds för exempeldatabaser/tabeller.
SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION
Den korrelerade skalära underfrågan "<sqlExpr>
" finns varken i GROUP BY eller i en aggregerad funktion.
Lägg till den i GRUPP MED hjälp av ordningstal eller omslut den i first()
(eller first_value
) om du inte bryr dig om vilket värde du får.
SCALAR_SUBQUERY_TOO_MANY_ROWS
Mer än en rad som returneras av en underfråga som används som ett uttryck.
SCHEDULE_PERIOD_INVALID
Schemaperioden för <timeUnit>
måste vara ett heltalsvärde mellan 1 och <upperBound>
(inklusive). Mottagen: <actual>
.
SCHEMA_ALREADY_EXISTS
Det går inte att skapa schemat <schemaName>
eftersom det redan finns.
Välj ett annat namn, släpp det befintliga schemat eller lägg till IF NOT EXISTS-satsen för att tolerera befintligt schema.
SCHEMA_NOT_EMPTY
Det går inte att släppa ett schema <schemaName>
eftersom det innehåller objekt.
Använd DROP-SCHEMA ... CASCADE för att släppa schemat och alla dess objekt.
SCHEMA_NOT_FOUND
Det går inte att hitta schemat <schemaName>
. Kontrollera stavningen och korrektheten i schemat och katalogen.
Om du inte kvalificerar namnet med en katalog kontrollerar du current_schema() utdata eller kvalificerar namnet med rätt katalog.
Om du vill tolerera felet vid släpp använder du DROP SCHEMA IF EXISTS.
SCHEMA_REGISTRY_CONFIGURATION_ERROR
Det gick inte att initiera schemat från schemaregistret. <reason>
.
SECOND_FUNCTION_ARGUMENT_NOT_INTEGER
Det andra argumentet för <functionName>
funktionen måste vara ett heltal.
SECRET_FUNCTION_INVALID_LOCATION
Det går inte att köra <commandType>
kommandot med en eller flera icke-krypterade referenser till funktionen SECRET. Kryptera resultatet av varje sådant funktionsanrop med AES_ENCRYPT och försök igen
SEED_EXPRESSION_IS_UNFOLDABLE
Uttryckets <exprWithSeed>
seed-uttryck <seedExpr>
måste vara vikbart.
SERVER_IS_BUSY
Servern är upptagen och kunde inte hantera begäran. Vänta ett ögonblick och försök igen.
SORT_BY_WITHOUT_BUCKETING
sortBy måste användas tillsammans med bucketBy.
SPARK_JOB_CANCELLED
Jobbet <jobId>
avbröts <reason>
SPECIFY_BUCKETING_IS_NOT_ALLOWED
En CREATE TABLE utan explicit kolumnlista kan inte ange bucketinginformation.
Använd formuläret med explicit kolumnlista och ange bucketinginformation.
Du kan också tillåta att bucketinginformation härleds genom att utelämna -satsen.
SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED
Det går inte att ange både CLUSTER BY och CLUSTERED BY INTO BUCKETS.
SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED
Det går inte att ange både CLUSTER BY och PARTITIONED BY.
SPECIFY_PARTITION_IS_NOT_ALLOWED
En CREATE-TABELL utan explicit kolumnlista kan inte ange PARTITIONERAD AV.
Använd formuläret med explicit kolumnlista och ange PARTITIONERAD AV.
Du kan också tillåta att partitionering härleds genom att utelämna PARTITION BY-satsen.
SQL_CONF_NOT_FOUND
Det går inte att hitta SQL-konfigurationen <sqlConf>
. Kontrollera att konfigurationen finns.
STAGING_PATH_CURRENTLY_INACCESSIBLE
Tillfälligt fel vid åtkomst till mål mellanlagringssökväg <path>
, försök om några minuter
STAR_GROUP_BY_POS
Star (*) tillåts inte i en urvalslista när EN ordningstalsposition används för GROUP BY.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE
Det gick inte att utföra tillståndskänslig processoråtgärd=<operationType>
med ogiltigt referenstillstånd=<handleState>
.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE
Det gick inte att utföra tillståndskänslig processoråtgärd=<operationType>
med ogiltig timeMode=<timeMode>
STATEFUL_PROCESSOR_CANNOT_REINITIALIZE_STATE_ON_KEY
Det går inte att initiera tillståndet på samma grupperingsnyckel vid inledande tillståndshantering för tillståndskänslig processor. Ogiltig grupperingsnyckel=<groupingKey>
. Kontrollera ditt ursprungliga tillstånd, ta bort dubbletter av rader och starta om frågan.
STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED
Tillståndsvariabel med namn <stateVarName>
har redan definierats i StatefulProcessor.
STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL
Det går inte att använda TTL för state=<stateName>
i timeMode=<timeMode>
, använd TimeMode.ProcessingTime() i stället.
STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE
TTL-varaktigheten måste vara större än noll för state store-åtgärden=<operationType>
på state=<stateName>
.
STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE
Okänt tidsläge <timeMode>
. Godkända timeMode-lägen är "none", "processingTime", "eventTime"
STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS
Det gick inte att skapa kolumnfamiljen med starttecken och namn som inte stöds=<colFamilyName>
.
STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME
Det gick inte att utföra kolumnfamiljeåtgärden=<operationName>
med ogiltigt namn=<colFamilyName>
. Kolumnfamiljenamnet får inte vara tomt eller innehålla inledande/avslutande blanksteg eller använda det reserverade nyckelordet=standard
STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE
Inkompatibel schematransformering med kolumnfamilj=<colFamilyName>
, oldSchema=<oldSchema>
, newSchema=<newSchema>
.
STATE_STORE_HANDLE_NOT_INITIALIZED
Handtaget har inte initierats för den här StatefulProcessor.
Använd endast StatefulProcessor i transformWithState-operatorn.
STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN
Felaktigt antal ordningstal=<numOrderingCols>
för intervallgenomsökningskodare. Antalet ordningsföljder för ordningsföljder får inte vara noll eller större än antalet schemakolumner.
STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN
Felaktigt antal prefixkolumner=<numPrefixCols>
för prefixgenomsökningskodare. Prefixkolumner får inte vara noll eller större än eller lika med ett antal schemakolumner.
STATE_STORE_INVALID_CONFIG_AFTER_RESTART
Det går inte att ändra <configName>
från <oldConfig>
till <newConfig>
mellan omstarter. <configName>
Ange till <oldConfig>
eller starta om med en ny kontrollpunktskatalog.
STATE_STORE_INVALID_PROVIDER
Den angivna state store-providern <inputClass>
utökar inte org.apache.spark.sql.execution.streaming.state.StateStoreProvider.
STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE
Det går inte att ändra <stateVarName>
till <newType>
mellan omstarter av frågor. <stateVarName>
Ange till <oldType>
eller starta om med en ny kontrollpunktskatalog.
STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED
Kolumn för null-typordning med name=<fieldName>
at index=<index>
stöds inte för intervallgenomsökningskodare.
STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY
Den angivna state store-providern <inputClass>
utökar inte org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay.
Därför stöder den inte alternativet snapshotStartBatchId eller readChangeFeed i tillståndsdatakällan.
STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY
Tillståndslagringsåtgärd=<operationType>
stöds inte för kolumnfamiljen som saknas=<colFamilyName>
.
STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED
Variabelstorleksordningskolumn med namn=<fieldName>
vid index=<index>
stöds inte för intervallgenomsökningskodare.
STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST
Statisk partitionskolumn <staticName>
anges också i kolumnlistan.
STDS_COMMITTED_BATCH_UNAVAILABLE
Ingen bekräftad batch hittades, kontrollpunktsplats: <checkpointLocation>
. Kontrollera att frågan har körts och checkat in alla mikrobatch innan du stoppar den.
STDS_CONFLICT_OPTIONS
Det går inte att ange alternativen <options>
tillsammans. Ange den.
STDS_FAILED_TO_READ_OPERATOR_METADATA
Det gick inte att läsa operatormetadata för checkpointLocation=<checkpointLocation>
och batchId=<batchId>
.
Antingen finns inte filen eller så är filen skadad.
Kör direktuppspelningsfrågan igen för att konstruera operatormetadata och rapportera till motsvarande communities eller leverantörer om felet kvarstår.
STDS_FAILED_TO_READ_STATE_SCHEMA
Det gick inte att läsa tillståndsschemat. Antingen finns inte filen eller så är filen skadad. alternativ: <sourceOptions>
.
Kör direktuppspelningsfrågan igen för att konstruera tillståndsschemat och rapportera till motsvarande communities eller leverantörer om felet kvarstår.
STDS_INVALID_OPTION_VALUE
Ogiltigt värde för källalternativet :<optionName>
:
Mer information finns i STDS_INVALID_OPTION_VALUE
STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE
Tillståndet har ingen partition. Kontrollera att frågan pekar på ett giltigt tillstånd. Alternativ: <sourceOptions>
STDS_OFFSET_LOG_UNAVAILABLE
Förskjutningsloggen för <batchId>
finns inte, kontrollpunktsplats: <checkpointLocation>
.
Ange det batch-ID som är tillgängligt för frågor – du kan fråga de tillgängliga batch-ID:erna via datakällan för tillståndsmetadata.
STDS_OFFSET_METADATA_LOG_UNAVAILABLE
Metadata är inte tillgängliga för förskjutningsloggen för <batchId>
, kontrollpunktsplats: <checkpointLocation>
.
Kontrollpunkten verkar bara köras med äldre Spark-versioner. Kör strömningsfrågan med den senaste Spark-versionen, så att Spark skapar tillståndsmetadata.
STDS_REQUIRED_OPTION_UNSPECIFIED
'<optionName>
' måste anges.
STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS
Adaptiv frågekörning stöds inte för tillståndskänsliga operatorer i Strukturerad direktuppspelning.
STREAMING_FROM_MATERIALIZED_VIEW
Det går inte att strömma från den materialiserade vyn <viewName>
. Direktuppspelning från materialiserade vyer stöds inte.
STREAMING_OUTPUT_MODE
Ogiltigt utdataläge för direktuppspelning: <outputMode>
.
Mer information finns i STREAMING_OUTPUT_MODE
STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA
Statuskänsligt strömningsoperatornamn matchar inte operatorn i tillståndsmetadata. Detta kan inträffa när användaren lägger till/tar bort/ändrar tillståndskänslig operator för befintlig strömmande fråga.
Tillståndskänsliga operatorer i metadata: [<OpsInMetadataSeq>
]; Tillståndskänsliga operatorer i aktuell batch: [<OpsInCurBatchSeq>
].
STREAMING_TABLE_NEEDS_REFRESH
Strömningstabellen <tableName>
måste uppdateras för att köra <operation>
. Kör CREATE OR REFRESH STREAMING TABLE <tableName>
AS för att uppdatera tabellen.
STREAMING_TABLE_NOT_SUPPORTED
Strömmande tabeller kan bara skapas och uppdateras i Delta Live Tables och Databricks SQL Warehouses.
STREAMING_TABLE_OPERATION_NOT_ALLOWED
Åtgärden <operation>
är inte tillåten:
Mer information finns i STREAMING_TABLE_OPERATION_NOT_ALLOWED
STREAMING_TABLE_QUERY_INVALID
Direktuppspelningstabellen <tableName>
kan bara skapas från en direktuppspelningsfråga. Lägg till stream-nyckelordet i FROM-satsen för att omvandla den här relationen till en direktuppspelningsfråga.
STREAM_NOT_FOUND_FOR_KINESIS_SOURCE
Kinesis-strömmen <streamName>
<region>
hittades inte.
Starta en ny fråga som pekar på rätt strömnamn.
STRUCT_ARRAY_LENGTH_MISMATCH
Indataraden har inte förväntat antal värden som krävs av schemat. <expected>
fält krävs medan <actual>
värden anges.
SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT
Summan av LIMIT-satsen och OFFSET-satsen får inte vara större än det maximala 32-bitars heltalsvärdet (2 147 483 647), men den hittade gränsen = <limit>
, offset = <offset>
.
SYNC_METADATA_DELTA_ONLY
Kommandot Reparera metadata för tabellsynkronisering stöds endast för deltatabellen.
SYNC_METADATA_NOT_SUPPORTED
Kommandot Reparera metadata för tabellsynkronisering stöds endast för Unity Catalog-tabeller.
SYNC_SRC_TARGET_TBL_NOT_SAME
Källtabellens namn <srcTable>
måste vara samma som måltabellnamnet <destTable>
.
SYNTAX_DISCONTINUED
Stöd för satsen eller nyckelordet: <clause>
har upphört i den här kontexten.
Mer information finns i SYNTAX_DISCONTINUED
TABLE_OR_VIEW_ALREADY_EXISTS
Det går inte att skapa en tabell eller vy <relationName>
eftersom den redan finns.
Välj ett annat namn, släpp det befintliga objektet, lägg till IF NOT EXISTS-satsen för att tolerera befintliga objekt, lägg till OR REPLACE-satsen för att ersätta den befintliga materialiserade vyn eller lägg till OR REFRESH-satsen för att uppdatera den befintliga strömningstabellen.
TABLE_OR_VIEW_NOT_FOUND
Det går inte att hitta tabellen eller vyn <relationName>
. Kontrollera stavningen och korrektheten i schemat och katalogen.
Om du inte kvalificerar namnet med ett schema kontrollerar du current_schema() utdata eller kvalificerar namnet med rätt schema och katalog.
Om du vill tolerera felet vid släpp använder du DROP VIEW IF EXISTS eller DROP TABLE IF EXISTS.
Mer information finns i TABLE_OR_VIEW_NOT_FOUND
TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS
Det går inte <action>
att använda sql-användardefinierad funktion <functionName>
med TABLE-argument eftersom den här funktionen ännu inte har implementerats.
TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON
Det gick inte att analysera den användardefinierade tabellfunktionen i Python: <msg>
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL
Det gick inte att utvärdera tabellfunktionen <functionName>
eftersom dess tabellmetadata <requestedMetadata>
, men funktionen anropar <invalidFunctionCallProperty>
.
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID
Det gick inte att utvärdera tabellfunktionen <functionName>
eftersom dess tabellmetadata var ogiltiga. <reason>
.
TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS
Det finns för många tabellargument för tabellvärdesfunktionen.
Det tillåter ett tabellargument, men fick: <num>
.
Om du vill tillåta det anger du "spark.sql.allowMultipleTableArguments.enabled" till "true"
TABLE_WITH_ID_NOT_FOUND
Det går inte att hitta tabellen med ID <tableId>
. Kontrollera att UUID är korrekt.
TASK_WRITE_FAILED
Uppgiften misslyckades när rader skrevs till <path>
.
TEMP_TABLE_OR_VIEW_ALREADY_EXISTS
Det går inte att skapa den tillfälliga vyn <relationName>
eftersom den redan finns.
Välj ett annat namn, släpp eller ersätt den befintliga vyn eller lägg till IF NOT EXISTS-satsen för att tolerera befintliga vyer.
TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS
SKAPA TILLFÄLLIG VY eller motsvarande API:er för datauppsättningar accepterar bara visningsnamn i en del, men fick: <actualName>
.
UC_BUCKETED_TABLES
Bucketade tabeller stöds inte i Unity Catalog.
UC_CATALOG_NAME_NOT_PROVIDED
För Unity Catalog anger du katalognamnet explicit. T.ex. VISA GRANT your.address@email.com
ON CATALOG main.
UC_COMMAND_NOT_SUPPORTED
Kommandona: <commandName>
stöds inte i Unity Catalog.
Mer information finns i UC_COMMAND_NOT_SUPPORTED
UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE
Kommandona: <commandName>
stöds inte för Unity Catalog-kluster i läget för delad åtkomst. Använd åtkomstläge för en användare i stället.
UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED
Den angivna typen av autentiseringsuppgifter stöds inte.
UC_DATASOURCE_NOT_SUPPORTED
Datakällans format <dataSourceFormatName>
stöds inte i Unity Catalog.
UC_DATASOURCE_OPTIONS_NOT_SUPPORTED
Alternativ för datakällor stöds inte i Unity Catalog.
UC_EXTERNAL_VOLUME_MISSING_LOCATION
LOCATION-satsen måste finnas för den externa volymen. Kontrollera syntaxen "SKAPA EXTERN VOLYM ... PLATS ...' för att skapa en extern volym.
UC_FAILED_PROVISIONING_STATE
Frågan misslyckades eftersom den försökte referera till tabellen <tableName>
men kunde inte göra det: <failureReason>
. Uppdatera tabellen <tableName>
så att den är i ett aktivt etableringstillstånd och försök sedan igen.
UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED
Det går inte att skapa tabellen i Unity Catalog med filschemat <schemeName>
.
Skapa i stället en federerad datakällanslutning med kommandot CREATE CONNECTION för samma tabellprovider och skapa sedan en katalog baserat på anslutningen med kommandot CREATE FOREIGN CATALOG för att referera till tabellerna där.
UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED
Vyn Hive Metastore Federation stöder inte beroenden i flera kataloger. Vyn <view>
i Hive Metastore Federation-katalogen måste använda beroende från hive_metastore eller spark_catalog katalog men dess beroende <dependency>
finns i en annan katalog <referencedCatalog>
. Uppdatera beroendena för att uppfylla den här begränsningen och försök sedan köra frågan eller kommandot igen.
UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED
Hive Metastore-federationen är inte aktiverad i det här klustret.
Åtkomst till katalogen <catalogName>
stöds inte i det här klustret
UC_INVALID_DEPENDENCIES
Beroenden för <viewName>
registreras som <storedDeps>
när de parsas som <parsedDeps>
. Detta inträffade troligen genom felaktig användning av ett icke-SQL-API. Du kan reparera beroenden i Databricks Runtime genom att köra ALTER VIEW <viewName>
AS <viewText>
.
UC_INVALID_NAMESPACE
Kapslade eller tomma namnområden stöds inte i Unity Catalog.
UC_INVALID_REFERENCE
Objekt som inte är unity-catalog-objekt <name>
kan inte refereras till i Unity Catalog-objekt.
UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED
Skrivstöd för Unity Catalog Lakehouse Federation är inte aktiverat för providern <provider>
i det här klustret.
UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED
Hanterad volym accepterar inte LOCATION-satsen. Kontrollera syntaxen "CREATE VOLUME ..." för att skapa en hanterad volym.
UC_NOT_ENABLED
Unity Catalog är inte aktiverat i det här klustret.
UC_QUERY_FEDERATION_NOT_ENABLED
Unity Catalog Query Federation är inte aktiverat i det här klustret.
UC_SERVICE_CREDENTIALS_NOT_ENABLED
Tjänstens autentiseringsuppgifter är inte aktiverade i det här klustret.
UC_VOLUMES_NOT_ENABLED
Stöd för Unity-katalogvolymer är inte aktiverat på den här instansen.
UC_VOLUMES_SHARING_NOT_ENABLED
Stöd för volymdelning är inte aktiverat på den här instansen.
UC_VOLUME_NOT_FOUND
Volymen <name>
finns inte. Använd VISA VOLYMER för att visa tillgängliga volymer.
UDF_ERROR
SQLSTATE: ingen tilldelad
Körningen av funktionen <fn>
misslyckades
Mer information finns i UDF_ERROR
UDF_LIMITS
En eller flera UDF-gränser överträddes.
Mer information finns i UDF_LIMITS
UDF_MAX_COUNT_EXCEEDED
Överskred den frågeomfattande UDF-gränsen för <maxNumUdfs>
UDF-filer (begränsad under offentlig förhandsversion). Hittade <numUdfs>
. UDF:erna var: <udfNames>
.
UDF_PYSPARK_ERROR
Python-arbetaren avslutades oväntat
Mer information finns i UDF_PYSPARK_ERROR
UDF_PYSPARK_UNSUPPORTED_TYPE
PySpark UDF <udf>
(<eval-type>
) stöds inte i kluster i läget Delad åtkomst.
UDF_PYSPARK_USER_CODE_ERROR
Körningen misslyckades.
Mer information finns i UDF_PYSPARK_USER_CODE_ERROR
UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE
Parameterstandardvärdet stöds inte för användardefinierad <functionType>
funktion.
UDF_USER_CODE_ERROR
Det gick inte att köra funktionen <fn>
.
Mer information finns i UDF_USER_CODE_ERROR
UDTF_ALIAS_NUMBER_MISMATCH
Antalet alias som anges i AS-satsen matchar inte antalet kolumner som utdata från UDTF.
Förväntade <aliasesSize>
alias, men fick <aliasesNames>
.
Kontrollera att antalet angivna alias matchar antalet kolumner som utdata från UDTF.
UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD
Det gick inte att utvärdera den användardefinierade tabellfunktionen eftersom dess "analysera"-metod returnerade en begärd OrderingColumn vars kolumnnamnuttryck innehöll ett onödigt alias <aliasName>
. Ta bort det här aliaset och försök sedan köra frågan igen.
UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS
Det gick inte att utvärdera den användardefinierade tabellfunktionen eftersom dess "analysera"-metod returnerade ett begärt "select"-uttryck (<expression>
) som inte innehåller ett motsvarande alias. Uppdatera UDTF för att ange ett alias där och försök sedan köra frågan igen.
UNABLE_TO_ACQUIRE_MEMORY
Det gick inte att hämta <requestedBytes>
byte minne, fick <receivedBytes>
.
UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE
Det går inte att konvertera SQL-typen <toType>
till Protobuf-typen <protobufType>
.
UNABLE_TO_FETCH_HIVE_TABLES
Det går inte att hämta tabeller i Hive-databasen: <dbName>
. Felklassnamn: <className>
.
UNABLE_TO_INFER_SCHEMA
Det går inte att härleda schemat för <format>
. Den måste anges manuellt.
UNAUTHORIZED_ACCESS
Obehörig åtkomst:
<report>
UNBOUND_SQL_PARAMETER
Hittade den obundna parametern: <name>
. args
Åtgärda och ange en mappning av parametern till antingen en SQL-literal- eller samlingskonstruktorfunktioner som map()
, array()
, struct()
.
UNCLOSED_BRACKETED_COMMENT
Hittade en kommentar inom parentes. Lägg till */ i slutet av kommentaren.
UNEXPECTED_INPUT_TYPE
Parametern <paramIndex>
för funktionen <functionName>
kräver <requiredType>
typen, men <inputSql>
har typen <inputType>
.
UNEXPECTED_OPERATOR_IN_STREAMING_VIEW
Oväntad operator <op>
i CREATE VIEW-instruktionen som en strömmande källa.
En strömningsvyfråga får endast bestå av SELECT-, WHERE- och UNION ALL-åtgärder.
UNEXPECTED_POSITIONAL_ARGUMENT
Det går inte att anropa funktionen <functionName>
eftersom den innehåller positionella argument efter det namngivna argumentet som tilldelats till <parameterName>
. Ordna om dem så att positionsargumenten kommer först och sedan försöker frågan igen.
UNEXPECTED_SERIALIZER_FOR_CLASS
Klassen <className>
har ett oväntat uttrycks serialiserare. Förväntar sig "STRUCT
" eller "IF" som returnerar "STRUCT
" men hittade <expr>
.
UNKNOWN_FIELD_EXCEPTION
Okända fält påträffades under parsningen: <unknownFieldBlob>
, som kan åtgärdas genom ett automatiskt nytt försök: <isRetryable>
Mer information finns i UNKNOWN_FIELD_EXCEPTION
UNKNOWN_POSITIONAL_ARGUMENT
Funktionens anrop <functionName>
innehåller ett okänt positionsargument <sqlExpr>
vid position <pos>
. Detta är ogiltigt.
UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT
Okänd primitiv typ med ID <id>
hittades i ett variantvärde.
UNKNOWN_PROTOBUF_MESSAGE_TYPE
Försöker behandla <descriptorName>
som ett meddelande, men det var <containingType>
.
UNPIVOT_REQUIRES_ATTRIBUTES
UNPIVOT kräver att alla givna <given>
uttryck är kolumner när inga <empty>
uttryck anges. Det här är inte kolumner: [<expressions>
].
UNPIVOT_REQUIRES_VALUE_COLUMNS
Minst en värdekolumn måste anges för UNPIVOT, alla kolumner som anges som ID:er.
UNPIVOT_VALUE_DATA_TYPE_MISMATCH
Kolumner med icke-anropsvärde måste dela en minst vanlig typ, men vissa typer gör det inte: [<types>
].
UNPIVOT_VALUE_SIZE_MISMATCH
Alla kolumner med opivotvärde måste ha samma storlek som det finns värdekolumnnamn (<names>
).
UNRECOGNIZED_PARAMETER_NAME
Det går inte att anropa funktionen <functionName>
eftersom funktionsanropet innehöll en namngiven argumentreferens för argumentet med namnet <argumentName>
, men den här funktionen innehåller inte någon signatur som innehåller ett argument med det här namnet. Menade du något av följande? [<proposal>
].
UNRECOGNIZED_SQL_TYPE
Okänd SQL-typ – namn: <typeName>
, id: <jdbcType>
.
UNRESOLVABLE_TABLE_VALUED_FUNCTION
Det gick inte att matcha <name>
till en tabellvärdesfunktion.
Kontrollera att <name>
är definierad som en tabellvärdesfunktion och att alla obligatoriska parametrar har angetts korrekt.
Om <name>
inte har definierats skapar du funktionen table-valued innan du använder den.
Mer information om hur du definierar tabellvärdesfunktioner finns i Apache Spark-dokumentationen.
UNRESOLVED_ALL_IN_GROUP_BY
Det går inte att härleda grupperingskolumner för GROUP BY ALL baserat på select-satsen. Ange uttryckligen grupperingskolumnerna.
UNRESOLVED_COLUMN
Det går inte att matcha en kolumn, variabel eller funktionsparameter med namn <objectName>
.
Mer information finns i UNRESOLVED_COLUMN
UNRESOLVED_FIELD
Det går inte att matcha ett fält med namnet <fieldName>
med kolumnen <columnPath>
struct-type .
Mer information finns i UNRESOLVED_FIELD
UNRESOLVED_MAP_KEY
Det går inte att matcha kolumnen <objectName>
som en kartnyckel. Om nyckeln är en strängliteral lägger du till enkla citattecken runt den.
Mer information finns i UNRESOLVED_MAP_KEY
UNRESOLVED_ROUTINE
Det går inte att lösa rutinen <routineName>
för sökvägen <searchPath>
.
Mer information finns i UNRESOLVED_ROUTINE
UNRESOLVED_USING_COLUMN_FOR_JOIN
DET går inte att matcha USING-kolumnen <colName>
på <side>
sidan av kopplingen. Kolumnerna <side>
på -sidan: [<suggestion>
].
UNRESOLVED_VARIABLE
Det går inte att matcha variabeln <variableName>
på sökvägen <searchPath>
.
UNSUPPORTED_ADD_FILE
Stöd inte för att lägga till fil.
Mer information finns i UNSUPPORTED_ADD_FILE
UNSUPPORTED_ARROWTYPE
Piltypen <typeName>
stöds inte .
UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION
Funktionen <funcName>
stöder inte batchfrågor.
UNSUPPORTED_CALL
Det går inte att anropa metoden "<methodName>
" för klassen "<className>
".
Mer information finns i UNSUPPORTED_CALL
UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING
Typ av tecken/varchar kan inte användas i tabellschemat.
Om du vill att Spark ska behandla dem som strängtyper som samma som Spark 3.0 och tidigare anger du "spark.sql.legacy.charVarcharAsString" till "true".
UNSUPPORTED_CLAUSE_FOR_OPERATION
<clause>
Stöds inte för <operation>
.
UNSUPPORTED_COLLATION
Sortering <collationName>
stöds inte för:
Mer information finns i UNSUPPORTED_COLLATION
UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE
Den gemensamma överordnade källsökvägen och källanArchiveDir bör registreras med UC.
Om du ser det här felmeddelandet är det troligt att du registrerar källsökvägen och sourceArchiveDir på olika externa platser.
Placera dem på en enda extern plats.
UNSUPPORTED_CONSTRAINT_CLAUSES
Villkorssatser <clauses>
stöds inte.
UNSUPPORTED_CONSTRAINT_TYPE
Villkorstyp som inte stöds. Endast <supportedConstraintTypes>
stöds
UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY
Datakälltypen stöds inte för direkt fråga om filer: <dataSourceType>
UNSUPPORTED_DATATYPE
Datatypen <typeName>
stöds inte .
UNSUPPORTED_DATA_SOURCE_SAVE_MODE
Det går inte att skriva datakällan<source>
i <createMode>
läget . Använd antingen läget "Lägg till" eller "Skriv över" i stället.
UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE
Datakällan <format>
stöder inte kolumnen <columnName>
av typen <columnType>
.
UNSUPPORTED_DATA_TYPE_FOR_ENCODER
Det går inte att skapa kodare för <dataType>
. Använd en annan utdatatyp för din UDF eller DataFrame.
UNSUPPORTED_DEFAULT_VALUE
STANDARDkolumnvärden stöds inte.
Mer information finns i UNSUPPORTED_DEFAULT_VALUE
UNSUPPORTED_DESERIALIZER
Deserialiseraren stöds inte:
Mer information finns i UNSUPPORTED_DESERIALIZER
UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
Det går inte att skapa en genererad kolumn <fieldName>
med ett generationsuttryck <expressionStr>
eftersom <reason>
.
UNSUPPORTED_EXPR_FOR_OPERATOR
En frågeoperator innehåller ett eller flera uttryck som inte stöds.
Överväg att skriva om den för att undvika fönsterfunktioner, aggregeringsfunktioner och generatorfunktioner i WHERE-satsen.
Ogiltiga uttryck: [<invalidExprSqls>
]
UNSUPPORTED_EXPR_FOR_PARAMETER
En frågeparameter innehåller uttryck som inte stöds.
Parametrar kan antingen vara variabler eller literaler.
Ogiltigt uttryck: [<invalidExprSql>
]
UNSUPPORTED_EXPR_FOR_WINDOW
Uttrycket <sqlExpr>
stöds inte i en fönsterfunktion.
UNSUPPORTED_FEATURE
Funktionen stöds inte:
Mer information finns i UNSUPPORTED_FEATURE
UNSUPPORTED_FN_TYPE
Användardefinierad funktionstyp som inte stöds: <language>
UNSUPPORTED_GENERATOR
Generatorn stöds inte:
Mer information finns i UNSUPPORTED_GENERATOR
UNSUPPORTED_GROUPING_EXPRESSION
grouping()/grouping_id() kan endast användas med GroupingSets/Cube/Rollup.
UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE
<trigger>
med inledande position <initialPosition>
stöds inte med Kinesis-källan
UNSUPPORTED_INSERT
Det går inte att infoga i målet.
Mer information finns i UNSUPPORTED_INSERT
UNSUPPORTED_JOIN_TYPE
Kopplingstypen stöds<typ>
inte. Kopplingstyper som stöds är: <supported>
.
UNSUPPORTED_MANAGED_TABLE_CREATION
Det går inte att skapa en hanterad tabell <tableName>
med hjälp av datakällan <dataSource>
. Du måste använda datakällan DELTA eller skapa en extern tabell med hjälp av CREATE EXTERNAL TABLE <tableName>
... ANVÄNDER <dataSource>
...
UNSUPPORTED_MERGE_CONDITION
MERGE-åtgärden innehåller villkor som inte stöds <condName>
.
Mer information finns i UNSUPPORTED_MERGE_CONDITION
UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY
Tabellen <tableName>
har en säkerhetsprincip på radnivå eller kolumnmask som indirekt refererar till en annan tabell med en säkerhetsprincip på radnivå eller kolumnmask. Detta stöds inte. Anropssekvens: <callSequence>
UNSUPPORTED_OVERWRITE
Det går inte att skriva över det mål som också läss från.
Mer information finns i UNSUPPORTED_OVERWRITE
UNSUPPORTED_SAVE_MODE
Spara-läget <saveMode>
stöds inte för:
Mer information finns i UNSUPPORTED_SAVE_MODE
UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK
<outputMode>
utdataläge stöds inte för <statefulOperator>
strömmande DataFrames/DataSets utan vattenstämpel.
UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
Stöds inte för att strömma en vy. Orsak:
Mer information finns i UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED
Strömningsalternativ <options>
stöds inte för datakällor <source>
i ett delat kluster. Kontrollera att alternativen har angetts och stavats korrekt och kontrollerahttps://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode om det finns begränsningar.
UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED
Datakällan <sink>
stöds inte som en direktuppspelningsmottagare i ett delat kluster.
UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED
Datakällan <source>
stöds inte som en strömmande källa i ett delat kluster.
UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION
Funktionen <funcName>
stöder inte direktuppspelning. Ta bort nyckelordet STREAM
UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE
<streamReadLimit>
stöds inte med Kinesis-källan
UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
Underkry-uttryck som inte stöds:
Mer information finns i UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
UNSUPPORTED_TIMESERIES_COLUMNS
Det går inte att skapa primärnyckel med timeseriekolumner
UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN
Det går inte att skapa en primärnyckel med mer än en tidseriekolumn <colSeq>
UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE
<trigger>
stöds inte med Kinesis-källan
UNSUPPORTED_TYPED_LITERAL
Literaler av typen <unsupportedType>
stöds inte. Typer som stöds är <supportedTypes>
.
UNTYPED_SCALA_UDF
Du använder otypad Scala UDF, som inte har information om indatatypen.
Spark kan blint skicka null till Scala-stängningen med argumentet primitiv typ, och stängningen ser standardvärdet för Java-typen för null-argumentet, t.ex. udf((x: Int) => x, IntegerType)
, resultatet är 0 för null-indata. Om du vill bli av med det här felet kan du:
- använd inskrivna Scala UDF-API:er (utan returtypsparameter), t.ex.
udf((x: Int) => x)
. - använd Java UDF-API:er, t.ex.
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)
, om indatatyper inte är primitiva. - ange "spark.sql.legacy.allowUntypedScalaUDF" till "true" och använd detta API med försiktighet.
UPGRADE_NOT_SUPPORTED
Tabellen är inte berättigad till uppgradering från Hive Metastore till Unity Catalog. Orsak:
Mer information finns i UPGRADE_NOT_SUPPORTED
USER_DEFINED_FUNCTIONS
Användardefinierad funktion är ogiltig:
Mer information finns i USER_DEFINED_FUNCTIONS
USER_RAISED_EXCEPTION
<errorMessage>
USER_RAISED_EXCEPTION_PARAMETER_MISMATCH
Funktionen raise_error()
användes för att generera felklass: <errorClass>
som förväntar sig parametrar: <expectedParms>
.
De angivna parametrarna <providedParms>
matchar inte de förväntade parametrarna.
Ange alla förväntade parametrar.
USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS
Funktionen raise_error()
användes för att skapa en okänd felklass: <errorClass>
VARIABLE_ALREADY_EXISTS
Det går inte att skapa variabeln <variableName>
eftersom den redan finns.
Välj ett annat namn eller släpp eller ersätt den befintliga variabeln.
VARIABLE_NOT_FOUND
Det går inte att hitta variabeln <variableName>
. Kontrollera stavningen och korrektheten i schemat och katalogen.
Om du inte kvalificerar namnet med ett schema och en katalog kontrollerar du utdata för current_schema() eller kvalificerar namnet med rätt schema och katalog.
Om du vill tolerera felet vid släpp använder du DROP VARIABLE IF EXISTS.
VARIANT_CONSTRUCTOR_SIZE_LIMIT
Det går inte att konstruera en variant som är större än 16 MiB. Den maximala tillåtna storleken för ett Variant-värde är 16 MiB.
VARIANT_DUPLICATE_KEY
Det gick inte att skapa varianten på grund av en duplicerad objektnyckel <key>
.
VARIANT_SIZE_LIMIT
Det går inte att skapa en variant som är större än <sizeLimit>
i <functionName>
.
Undvik stora indatasträngar i det här uttrycket (till exempel lägga till funktionsanrop för att kontrollera uttrycksstorleken och konvertera den till NULL först om den är för stor).
VIEW_ALREADY_EXISTS
Det går inte att skapa vyn <relationName>
eftersom den redan finns.
Välj ett annat namn, släpp eller ersätt det befintliga objektet eller lägg till IF NOT EXISTS-satsen för att tolerera befintliga objekt.
VIEW_EXCEED_MAX_NESTED_DEPTH
Vyns <viewName>
djup överskrider det maximala visningsupplösningsdjupet (<maxNestedDepth>
).
Analysen avbryts för att undvika fel. Om du vill kringgå detta kan du försöka öka värdet för "spark.sql.view.maxNestedViewDepth".
VIEW_NOT_FOUND
Det går inte att hitta vyn <relationName>
. Kontrollera stavningen och korrektheten i schemat och katalogen.
Om du inte kvalificerar namnet med ett schema kontrollerar du current_schema() utdata eller kvalificerar namnet med rätt schema och katalog.
Om du vill tolerera felet vid släpp använder du DROP VIEW IF EXISTS.
VOLUME_ALREADY_EXISTS
Det går inte att skapa volymen <relationName>
eftersom den redan finns.
Välj ett annat namn, släpp eller ersätt det befintliga objektet eller lägg till IF NOT EXISTS-satsen för att tolerera befintliga objekt.
WINDOW_FUNCTION_AND_FRAME_MISMATCH
<funcName>
funktionen kan bara utvärderas i en ordnad radbaserad fönsterram med en enda förskjutning: <windowExpr>
.
WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE
Windows-funktionen <funcName>
kräver en OVER-sats.
WITH_CREDENTIAL
MED CREDENTIAL-syntax stöds inte för <type>
.
WRITE_STREAM_NOT_ALLOWED
writeStream
kan bara anropas på strömmande datauppsättning/dataram.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED
Det gick inte att köra kommandot eftersom STANDARDvärden inte stöds när du lägger till nya
kolumner till tidigare befintliga Delta-tabeller. lägg till kolumnen utan standard
först kör du ett andra ALTER TABLE ALTER COLUMN SET DEFAULT-kommando för att tillämpa
för framtida infogade rader i stället.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED
Det gick inte att köra <commandType>
kommandot eftersom det tilldelade en kolumn standardvärde,
men motsvarande tabellfunktion har inte aktiverats. Försök igen med kommandot
efter att ha kört ALTER TABLE tableName SET
TBLPROPERTIES('delta.feature.allowColumnDefaults' = 'supported').
WRONG_COMMAND_FOR_OBJECT_TYPE
Åtgärden <operation>
kräver en <requiredType>
. Men <objectName>
är en <foundType>
. Använd <alternative>
i stället.
WRONG_NUM_ARGS
Kräver <functionName>
<expectedNum>
parametrar men det faktiska talet är <actualNum>
.
Mer information finns i WRONG_NUM_ARGS
XML_ROW_TAG_MISSING
<rowTag>
krävs för att läsa filer i XML-format.
XML_UNSUPPORTED_NESTED_TYPES
XML stöder <innerDataType>
inte som inre typ av <dataType>
. Omslut inom <innerDataType>
ett StructType-fält när du använder det i <dataType>
.
XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR
Räddade data och jokerteckenkolumner kan inte aktiveras samtidigt. Ta bort alternativet wildcardColumnName.
ZORDERBY_COLUMN_DOES_NOT_EXIST
ZOrderBy-kolumnen <columnName>
finns inte.
Data Lake
DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND
Det gick inte att hitta aktiv SparkSession
DELTA_ACTIVE_TRANSACTION_ALREADY_SET
Det går inte att ange en ny txn som aktiv när en redan är aktiv
DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED
Det gick inte att lägga till kolumnen <colName>
eftersom namnet är reserverat.
DELTA_ADDING_DELETION_VECTORS_DISALLOWED
Den aktuella åtgärden försökte lägga till en borttagningsvektor i en tabell som inte tillåter att nya borttagningsvektorer skapas. Skicka in en felrapport.
DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED
Alla åtgärder som lägger till borttagningsvektorer bör ange kolumnen tightBounds i statistiken till false. Skicka in en felrapport.
DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO
Index för <columnIndex>
att lägga till kolumn <columnName>
är lägre än 0
DELTA_ADD_COLUMN_PARENT_NOT_STRUCT
Det går inte att lägga till <columnName>
eftersom dess överordnade objekt inte är en StructType. Grunda <other>
DELTA_ADD_COLUMN_STRUCT_NOT_FOUND
Struct hittades inte vid position <position>
DELTA_ADD_CONSTRAINTS
Använd ÄNDRA TABELL LÄGG TILL VILLKOR för att lägga till CHECK-begränsningar.
DELTA_AGGREGATE_IN_GENERATED_COLUMN
Hittade <sqlExpr>
. En genererad kolumn kan inte använda ett aggregeringsuttryck
DELTA_AGGREGATION_NOT_SUPPORTED
Mängdfunktioner stöds inte i <operation>
<predicate>
.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER
Det gick inte att ändra sortering av kolumnen <column>
eftersom den har ett bloom-filterindex. Behåll antingen den befintliga sorteringen eller ta bort bloom-filterindexet och försök sedan att ändra sorteringen igen.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY
Det gick inte att ändra sortering av kolumnen <column>
eftersom det är en klustringskolumn. Behåll antingen den befintliga sorteringen eller ändra kolumnen till en kolumn som inte är klustrad med ett ALTER TABLE-kommando och försök sedan att ändra sorteringen igen.
DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED
ALTER TABLE CHANGE COLUMN stöds inte för att ändra kolumn <currentType>
till <newType>
DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED
ALTER TABLE CLUSTER BY stöds endast för Delta-tabell med Liquid-klustring.
DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED
ALTER TABLE CLUSTER BY kan inte tillämpas på en partitionerad tabell.
DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED
Åtgärden är inte tillåten: ALTER TABLE RENAME TO tillåts inte för hanterade Delta-tabeller på S3, eftersom eventuell konsekvens på S3 kan skada Delta-transaktionsloggen. Om du insisterar på att göra det och är säker på att det aldrig har funnits en Delta-tabell med det nya namnet <newName>
tidigare kan du aktivera detta genom att ange <key>
sant.
DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
Det går inte att aktivera <tableFeature>
tabellfunktionen med hjälp av ALTER TABLE SET TBLPROPERTIES. Använd CREATE OR REPLACE TABLE CLUSTER BY för att skapa en Delta-tabell med klustring.
DELTA_AMBIGUOUS_DATA_TYPE_CHANGE
Det går inte att ändra datatypen <column>
från <from>
till <to>
. Den här ändringen innehåller kolumnborttagningar och tillägg, och därför är de tvetydiga. Gör dessa ändringar individuellt med alter table [ADD | DROP | BYT NAMN PÅ] KOLUMN.
DELTA_AMBIGUOUS_PARTITION_COLUMN
Tvetydig partitionskolumn <column>
kan vara <colMatches>
.
DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE
CREATE TABLE innehåller två olika platser: <identifier>
och <location>
.
Du kan ta bort LOCATION-satsen från CREATE TABLE-instruktionen eller ange
<config>
till true för att hoppa över den här kontrollen.
DELTA_ARCHIVED_FILES_IN_LIMIT
Tabellen <table>
innehåller inte tillräckligt med poster i icke-arkiverade filer för att uppfylla angiven gräns för <limit>
poster.
DELTA_ARCHIVED_FILES_IN_SCAN
Hittade <numArchivedFiles>
potentiellt arkiverade filer i en tabell <table>
som måste genomsökas som en del av den här frågan.
Det går inte att komma åt arkiverade filer. Den aktuella tiden tills arkivering har konfigurerats som <archivalTime>
.
Justera frågefiltren för att exkludera arkiverade filer.
DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION
Åtgärden "<opName>
" tillåts inte när tabellen har aktiverat ändringsdataflöde (CDF) och har genomgått schemaändringar med DROP COLUMN eller RENAME COLUMN.
DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS
Det går inte att släppa bloom-filterindex för följande icke-existerande kolumner: <unknownColumns>
DELTA_BLOOM_FILTER_OOM_ON_WRITE
OutOfMemoryError inträffade när bloom-filterindex skrevs för följande kolumner: <columnsWithBloomFilterIndices>
.
Du kan minska minnesfotavtrycket för bloom-filterindex genom att välja ett mindre värde för alternativet "numItems", ett större värde för alternativet "fpp" eller genom att indexera färre kolumner.
DELTA_CANNOT_CHANGE_DATA_TYPE
Det går inte att ändra datatypen: <dataType>
DELTA_CANNOT_CHANGE_LOCATION
Det går inte att ändra platsen för Delta-tabellen med SET TBLPROPERTIES. Använd ALTER TABLE SET LOCATION i stället.
DELTA_CANNOT_CHANGE_PROVIDER
provider är en reserverad tabellegenskap och kan inte ändras.
DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL
Det går inte att skapa bloom-filterindex för följande icke-existerande kolumner: <unknownCols>
DELTA_CANNOT_CREATE_LOG_PATH
Det går inte att skapa <path>
DELTA_CANNOT_DESCRIBE_VIEW_HISTORY
Det går inte att beskriva historiken för en vy.
DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN
Det går inte att släppa bloom-filterindex på en icke-indexerad kolumn: <columnName>
DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE
Det går inte att släppa tabellfunktionen CHECK-begränsningar.
Följande begränsningar måste tas bort först: <constraints>
.
DELTA_CANNOT_EVALUATE_EXPRESSION
Det går inte att utvärdera uttrycket: <expression>
DELTA_CANNOT_FIND_BUCKET_SPEC
Förväntar sig en bucketing Delta-tabell men kan inte hitta bucketspecifikationen i tabellen
DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION
Det går inte att generera kod för uttryck: <expression>
DELTA_CANNOT_MODIFY_APPEND_ONLY
Den här tabellen är konfigurerad för att endast tillåta tillägg. Om du vill tillåta uppdateringar eller borttagningar använder du "ALTER TABLE <table_name> SET TBLPROPERTIES (<config>
=false)".
DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES
<Command>
kan inte åsidosätta eller ta bort tidsstämpeltabellegenskaper för incheckning eftersom samordnade incheckningar är aktiverade i den här tabellen och är beroende av dem. Ta bort dem ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") från TBLPROPERTIES-satsen och försök sedan kommandot igen.
DELTA_CANNOT_MODIFY_TABLE_PROPERTY
Det går inte att ange deltatabellkonfigurationen <prop>
av användaren
DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS
<Command>
kan inte åsidosätta konfigurationer för koordinerade incheckningar för en befintlig måltabell. Ta bort dem ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview", "delta.coordinatedCommits.tableConf-preview") från TBLPROPERTIES-satsen och försök sedan kommandot igen.
DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI
En uri (<uri>
) som inte kan omvandlas till en relativ sökväg hittades i transaktionsloggen.
DELTA_CANNOT_RELATIVIZE_PATH
En sökväg (<path>
) som inte kan relativiseras med de aktuella indata som finns i
Transaktionsloggen. Kör detta på nytt som:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<userPath>
", true)
och kör sedan även:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<path>
")
DELTA_CANNOT_RENAME_PATH
Det går inte att byta <currentPath>
namn till <newPath>
DELTA_CANNOT_REPLACE_MISSING_TABLE
Det går inte att ersätta tabellen <tableName>
eftersom den inte finns. Använd SKAPA ELLER ERSÄTT TABELL för att skapa tabellen.
DELTA_CANNOT_RESOLVE_COLUMN
Det går inte att matcha kolumnen <columnName>
i <schema>
DELTA_CANNOT_RESTORE_TABLE_VERSION
Det går inte att återställa tabellen till version <version>
. Tillgängliga versioner: [<startVersion>
, <endVersion>
].
DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER
Det går inte att återställa tabellen till tidsstämpeln (<requestedTimestamp>
) som den är före den tidigaste tillgängliga versionen. Använd en tidsstämpel efter (<earliestTimestamp>
).
DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER
Det går inte att återställa tabellen till tidsstämpeln (<requestedTimestamp>
) som den är efter den senaste tillgängliga versionen. Använd en tidsstämpel före (<latestTimestamp>
)
DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES
<Command>
kan inte ange tabellegenskaper för tidsstämpeln i incheckningen tillsammans med samordnade incheckningar, eftersom den senare är beroende av den förra och anger den tidigare internt. Ta bort dem ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") från TBLPROPERTIES-satsen och försök sedan kommandot igen.
DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER
Det går inte att ändra platsen för en sökvägsbaserad tabell.
DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY
Det går inte att ange delta.managedDataSkippingStatsColumns i en tabell som inte är DLT
DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS
ALTER kan inte ta bort konfigurationer för koordinerade incheckningar. Om du vill nedgradera en tabell från samordnade incheckningar kan du försöka igen med hjälp av ALTER TABLE [table-name] DROP FEATURE 'coordinatedCommits-preview'
.
DELTA_CANNOT_UPDATE_ARRAY_FIELD
Det går inte att uppdatera fältet %1$s %2$s: uppdatera elementet genom att uppdatera %2$s.element
DELTA_CANNOT_UPDATE_MAP_FIELD
Det går inte att uppdatera fältet %1$s %2$s: uppdatera en karta genom att uppdatera %2$s.key eller %2$s.value
DELTA_CANNOT_UPDATE_OTHER_FIELD
Det går inte att uppdatera <tableName>
fältet av typen <typeName>
DELTA_CANNOT_UPDATE_STRUCT_FIELD
Det går inte att uppdatera <tableName>
fälttypen <fieldName>
: uppdatera struct genom att lägga till, ta bort eller uppdatera fälten
DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION
Det går inte att använda alla kolumner för partitionskolumner
DELTA_CANNOT_WRITE_INTO_VIEW
<table>
är en vy. Skrivningar till en vy stöds inte.
DELTA_CAST_OVERFLOW_IN_TABLE_WRITE
Det gick inte att skriva ett värde av <sourceType>
typen i typkolumnen <targetType>
<columnName>
på grund av ett spill.
Använd try_cast
på indatavärdet för att tolerera spill och returnera NULL i stället.
Om det behövs anger du <storeAssignmentPolicyFlag>
till "LEGACY" för att kringgå det här felet eller inställt <updateAndMergeCastingFollowsAnsiEnabledFlag>
på true för att återgå till det gamla beteendet och följa <ansiEnabledFlag>
i UPDATE och MERGE.
DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION
Det går inte att ange Configuration delta.enableChangeDataFeed. Det är ännu inte tillgängligt att ändra dataflöde från Delta.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA
Det gick inte att hämta tabelländringar mellan version <start>
och <end>
misslyckades på grund av ett inkompatibelt dataschema.
Lässchemat är <readSchema>
i version <readVersion>
, men vi hittade ett inkompatibelt dataschema i version <incompatibleVersion>
.
Om möjligt hämtar du tabelländringarna med hjälp av slutversionens schema genom att ange <config>
till endVersion
eller kontakta supporten.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE
Det gick inte att hämta tabelländringar mellan version <start>
och <end>
misslyckades på grund av en inkompatibel schemaändring.
Lässchemat är <readSchema>
i version <readVersion>
, men vi hittade en inkompatibel schemaändring i version <incompatibleVersion>
.
Om möjligt frågar du tabelländringar separat från version <start>
till <incompatibleVersion>
- 1 och från version <incompatibleVersion>
till <end>
.
DELTA_CHANGE_DATA_FILE_NOT_FOUND
Det går inte att hitta filen <filePath>
som refereras i transaktionsloggen. Detta kan inträffa när data har tagits bort manuellt från filsystemet i stället för att använda tabellsatsen DELETE
. Den här begäran verkar vara inriktad på Ändringsdataflöde, om så är fallet kan det här felet inträffa när ändringsdatafilen är ute från kvarhållningsperioden och har tagits bort av -instruktionen VACUUM
. Mer information finns i <faqPath>
DELTA_CHANGE_TABLE_FEED_DISABLED
Det går inte att skriva till tabellen med delta.enableChangeDataFeed-uppsättningen. Ändring av dataflöde från Delta är inte tillgängligt.
DELTA_CHECKPOINT_NON_EXIST_TABLE
Det går inte att kontrollera en icke-befintlig tabell <path>
. Tog du bort filer i katalogen _delta_log manuellt?
DELTA_CLONE_AMBIGUOUS_TARGET
Två sökvägar angavs som CLONE-mål så det är tvetydigt vilken du ska använda. En extern
platsen för CLONE tillhandahölls samtidigt <externalLocation>
som sökvägen
<targetIdentifier>
.
DELTA_CLONE_INCOMPLETE_FILE_COPY
Filen (<fileName>
) kopieras inte helt. Förväntad filstorlek: <expectedSize>
, hittades: <actualSize>
. Om du vill fortsätta med åtgärden genom att ignorera filstorlekskontrollen inställd <config>
på false.
DELTA_CLONE_UNSUPPORTED_SOURCE
<mode>
Klonkällan stöds<name>
inte , vars format är <format>
.
De format som stöds är "delta", "isberg" och "parquet".
DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED
CLONE stöds inte för Delta-tabellen med Liquid-klustring för DBR version < 14.0.
DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED
CLUSTER BY stöds inte eftersom följande kolumner: <columnsWithDataTypes>
inte stöder överhoppning av data.
DELTA_CLUSTERING_COLUMNS_MISMATCH
De angivna klustringskolumnerna matchar inte den befintliga tabellens.
- förutsatt:
<providedClusteringColumns>
- existerande:
<existingClusteringColumns>
DELTA_CLUSTERING_COLUMN_MISSING_STATS
Flytande klustring kräver att klustringskolumner har statistik. Det gick inte att hitta klustringskolumner<columns>
i statistikschemat:
<schema>
DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE
Det är inte tillåtet att skapa en extern tabell utan flytande klustring från en tabellkatalog med flytande klustring. path: <path>
.
DELTA_CLUSTERING_NOT_SUPPORTED
'<operation>
' stöder inte klustring.
DELTA_CLUSTERING_PHASE_OUT_FAILED
Det går inte att <phaseOutType>
slutföra tabellen med <tableFeatureToAdd>
tabellfunktionen (orsak: <reason>
). Försök med kommandot OPTIMIZE igen.
== Fel ==
<error>
DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE
ERSÄTT en Delta-tabell med Liquid-klustring med en partitionerad tabell tillåts inte.
DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS
SHOW CREATE TABLE stöds inte för Delta-tabellen med Liquid-klustring utan några klustringskolumner.
DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS
Övergång av en Delta-tabell med flytande klustring till en partitionerad tabell är inte tillåten för åtgärd: <operation>
, när den befintliga tabellen har icke-tomma klustringskolumner.
Kör ALTER TABLE CLUSTER BY NONE för att ta bort klustringskolumnerna först.
DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE
Dynamisk partitionsöverskrivningsläge tillåts inte för Delta-tabellen med Liquid-klustring.
DELTA_CLUSTERING_WITH_PARTITION_PREDICATE
OPTIMIZE-kommandot för Delta-tabellen med Liquid-klustring stöder inte partitionspredikat. Ta bort predikaten: <predicates>
.
DELTA_CLUSTERING_WITH_ZORDER_BY
OPTIMIZE-kommandot för Delta-tabellen med Liquid-klustring kan inte ange ZORDER BY. Ta bort ZORDER BY (<zOrderBy>
).
DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS
CLUSTER BY for Liquid-klustring stöder upp till <numColumnsLimit>
klustringskolumner, men tabellen har <actualNumColumns>
klustringskolumner. Ta bort de extra klustringskolumnerna.
DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED
Det är inte tillåtet att ange CLUSTER BY när schemat inte har definierats. Definiera schemat för tabellen <tableName>
.
DELTA_CLUSTER_BY_WITH_BUCKETING
Det går inte att ange klustring och bucketing. Ta bort CLUSTERED BY INTO BUCKETS/bucketBy om du vill skapa en Delta-tabell med klustring.
DELTA_CLUSTER_BY_WITH_PARTITIONED_BY
Det går inte att ange klustring och partitionering. Ta bort PARTITIONED BY/partitionBy/partitionedBy om du vill skapa en Delta-tabell med klustring.
DELTA_COLLATIONS_NOT_SUPPORTED
Sortering stöds inte i Delta Lake.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN
Datahoppning stöds inte för partitionskolumnen .<column>
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE
Datahoppning stöds inte för kolumnen av<column>
typen <type>
.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET
Den maximala kolumn-ID-egenskapen (<prop>
) har inte angetts för en kolumnmappningsaktiverad tabell.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY
Den maximala kolumn-ID-egenskapen (<prop>
) i en kolumnmappningsaktiverad tabell är <tableMax>
, som inte kan vara mindre än det maximala kolumn-ID:t för alla fält (<fieldMax>
).
DELTA_COLUMN_MISSING_DATA_TYPE
Datatypen för kolumnen <colName>
angavs inte.
DELTA_COLUMN_NOT_FOUND
Det går inte att hitta den angivna kolumnen <columnName>
[<columnList>
]
DELTA_COLUMN_NOT_FOUND_IN_MERGE
Det går inte att hitta kolumnen i<targetCol>
måltabellen från INSERT-kolumnerna: <colNames>
. INSERT-satsen måste ange värde för alla kolumner i måltabellen.
DELTA_COLUMN_NOT_FOUND_IN_SCHEMA
Det gick inte att hitta kolumnen <columnName>
i:
<tableSchema>
DELTA_COLUMN_PATH_NOT_NESTED
Förväntas <columnPath>
vara en kapslad datatyp, men hittades <other>
. Letade efter
index för <column>
i ett kapslat fält.
Schema:
<schema>
DELTA_COLUMN_STRUCT_TYPE_MISMATCH
Det går inte att infoga structkolumnen <source>
i ett <targetType>
fält <targetField>
i <targetTable>
.
DELTA_COMPACTION_VALIDATION_FAILED
Verifieringen av komprimering av sökvägen <compactedPath>
till <newPath>
misslyckades: Ange en felrapport.
DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE
Hittade kapslad NullType i kolumnen <columName>
som är av <dataType>
. Delta stöder inte skrivning av NullType i komplexa typer.
DELTA_CONCURRENT_APPEND
ConcurrentAppendException: Filer lades till <partition>
av en samtidig uppdatering. <retryMsg>
<conflictingCommit>
<docLink>
Mer information finns i.
DELTA_CONCURRENT_DELETE_DELETE
ConcurrentDeleteDeleteException: Den här transaktionen försökte ta bort en eller flera filer som togs bort (till exempel <file>
) av en samtidig uppdatering. Försök igen.<conflictingCommit>
<docLink>
Mer information finns i.
DELTA_CONCURRENT_DELETE_READ
ConcurrentDeleteReadException: Den här transaktionen försökte läsa en eller flera filer som togs bort (till exempel <file>
) av en samtidig uppdatering. Försök igen.<conflictingCommit>
<docLink>
Mer information finns i.
DELTA_CONCURRENT_TRANSACTION
ConcurrentTransactionException: Det här felet uppstår när flera strömmande frågor använder samma kontrollpunkt för att skriva till den här tabellen. Körde du flera instanser av samma strömmande fråga samtidigt?<conflictingCommit>
<docLink>
Mer information finns i.
DELTA_CONCURRENT_WRITE
ConcurrentWriteException: En samtidig transaktion har skrivit nya data sedan den aktuella transaktionen läste tabellen. Försök igen.<conflictingCommit>
<docLink>
Mer information finns i.
DELTA_CONFLICT_SET_COLUMN
Det finns en konflikt från dessa SET-kolumner: <columnList>
.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND
Under <command>
kan inte konfigurationen "<configuration>
" anges från kommandot. Ta bort den från TBLPROPERTIES-satsen och försök sedan igen.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION
Under <command>
kan inte konfigurationen "<configuration>
" anges från SparkSession-konfigurationerna. Ta bort den genom att köra spark.conf.unset("<configuration>")
och försök sedan igen.
DELTA_CONSTRAINT_ALREADY_EXISTS
Villkoret finns<constraintName>
redan. Ta först bort den gamla begränsningen.
Gammal begränsning:
<oldConstraint>
DELTA_CONSTRAINT_DATA_TYPE_MISMATCH
Kolumnen <columnName>
har datatyp <columnType>
och kan inte ändras till datatyp <dataType>
eftersom den här kolumnen refereras till av följande kontrollbegränsningar:
<constraints>
DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE
Det går inte att ändra kolumnen <columnName>
eftersom den här kolumnen refereras till av följande kontrollbegränsningar:
<constraints>
DELTA_CONSTRAINT_DOES_NOT_EXIST
Det går inte att ta bort obefintlig begränsning <constraintName>
från tabellen <tableName>
. Om du vill undvika att utlösa ett fel anger du parametern IF EXISTS eller anger SQL-sessionskonfigurationen <config>
till <confValue>
.
DELTA_CONVERSION_NO_PARTITION_FOUND
Ingen partitionsinformation hittades i katalogen för tabellen <tableName>
. Har du kört "MSCK REPAIR TABLE" på tabellen för att identifiera partitioner?
DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN
Det går inte att konvertera Parquet-tabellen med en sorterad partitionskolumn <colName>
till Delta.
DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING
Konfigurationen kan<config>
inte anges till <mode>
när du använder KONVERTERA TILL DELTA.
DELTA_CONVERT_NON_PARQUET_TABLE
KONVERTERA TILL DELTA stöder bara parquet-tabeller, men du försöker konvertera en <sourceName>
källa: <tableId>
DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS
Det går inte att aktivera radspårning utan att samla in statistik.
Om du vill aktivera radspårning gör du följande:
Aktivera statistikinsamling genom att köra kommandot
SET
<statisticsCollectionPropertyKey>
= true- Kör KONVERTERA TILL DELTA utan alternativet INGEN STATISTIK.
Om du inte vill samla in statistik inaktiverar du radspårning:
Inaktivera aktivering av tabellfunktionen som standard genom att köra kommandot:
NOLLSTÄLLA
<rowTrackingTableFeatureDefaultKey>
Inaktivera tabellegenskapen som standard genom att köra:
SET
<rowTrackingDefaultPropertyKey>
= false
DELTA_COPY_INTO_TARGET_FORMAT
COPY INTO-målet måste vara en Delta-tabell.
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA
Du försöker skapa en extern tabell <tableName>
från <path>
att använda Delta, men schemat anges inte när
indatasökvägen är tom.
Mer information om Delta finns i <docLink>
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG
Du försöker skapa en extern tabell <tableName>
från %2$s
att använda Delta, men det finns ingen transaktionslogg på
%2$s/_delta_log
. Kontrollera det överordnade jobbet för att se till att det skrivs med hjälp av
format("delta") och att sökvägen är tabellens rot.
Mer information om Delta finns i <docLink>
DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH
Det går inte att skapa en sökvägsbaserad Delta-tabell med en annan plats. Identifierare: <identifier>
, plats: <location>
DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION
Tabellnamn eller plats måste anges.
DELTA_CREATE_TABLE_SCHEME_MISMATCH
Det angivna schemat matchar inte det befintliga schemat på <path>
.
== Angiven ==
<specifiedSchema>
== Befintlig ==
<existingSchema>
== Skillnader ==
<schemaDifferences>
Om din avsikt är att behålla det befintliga schemat kan du utelämna
schema från kommandot skapa tabell. Annars ska du se till att
schemat matchar.
DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
Det går inte att aktivera <tableFeature>
tabellfunktionen med TBLPROPERTIES. Använd CREATE OR REPLACE TABLE CLUSTER BY för att skapa en Delta-tabell med klustring.
DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING
De angivna klustringskolumnerna matchar inte de befintliga klustringskolumnerna på <path>
.
== Angiven ==
<specifiedColumns>
== Befintlig ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING
Den angivna partitioneringen matchar inte den befintliga partitioneringen på <path>
.
== Angiven ==
<specifiedColumns>
== Befintlig ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY
De angivna egenskaperna matchar inte de befintliga egenskaperna på <path>
.
== Angiven ==
<specifiedProperties>
== Befintlig ==
<existingProperties>
DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION
Det går inte att skapa tabellen (''<tableId>
). Den associerade platsen (''<tableLocation>
) är inte tom och inte heller en Delta-tabell.
DELTA_DATA_CHANGE_FALSE
Det går inte att ändra tabellmetadata eftersom alternativet "dataChange" är inställt på false. Försök till åtgärd: '<op>
'.
DELTA_DELETED_PARQUET_FILE_NOT_FOUND
Det går inte att hitta filen <filePath>
som refereras i transaktionsloggen. Den här parquet-filen kan tas bort under Deltas datakvarhållningsprincip.
Standardvaraktighet för deltadatakvarhållning: <logRetentionPeriod>
. Ändringstid för parquet-filen: <modificationTime>
. Borttagningstid för parquet-filen: <deletionTime>
. Borttagen i Delta-versionen: <deletionVersion>
.
DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS
Det är ogiltigt att checka in filer med borttagningsvektorer som saknar statistik för numRecords.
DELTA_DOMAIN_METADATA_NOT_SUPPORTED
DomainMetadata-åtgärder har identifierats för domäner <domainNames>
, men DomainMetadataTableFeature är inte aktiverat.
DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO
Index <columnIndex>
för att släppa kolumnen är lägre än 0
DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA
Det går inte att ta bort kolumnen från ett schema med en enda kolumn. Schema:
<schema>
DELTA_DUPLICATE_ACTIONS_FOUND
Filåtgärden för<actionType>
sökvägen <path>
har angetts flera gånger.
Den står i konflikt med <conflictingPath>
.
Det är inte giltigt för flera filåtgärder med samma sökväg som finns i en enda incheckning.
DELTA_DUPLICATE_COLUMNS_FOUND
Hittade dubblettkolumner <coltype>
: <duplicateCols>
DELTA_DUPLICATE_COLUMNS_ON_INSERT
Duplicera kolumnnamn i INSERT-sats
DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE
<message>
Ta bort dubblettkolumner innan du uppdaterar tabellen.
DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS
Dubblerade data som hoppar över kolumner hittades: <columns>
.
DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR
Internt fel: två DomainMetadata-åtgärder inom samma transaktion har samma domän <domainName>
DELTA_DV_HISTOGRAM_DESERIALIZATON
Det gick inte att deserialisera histogrammet för antal borttagna poster under verifieringen av tabellintegritet.
DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED
Dynamisk partitionsöverskrivningsläge anges av sessionskonfigurations- eller skrivalternativ, men det inaktiveras av spark.databricks.delta.dynamicPartitionOverwrite.enabled=false
.
DELTA_EMPTY_DATA
Data som används för att skapa Delta-tabellen har inga kolumner.
DELTA_EMPTY_DIRECTORY
Ingen fil hittades i katalogen: <directory>
.
DELTA_EXCEED_CHAR_VARCHAR_LIMIT
Värdet "<value>
" överskrider längdbegränsningen för tecken/varchar-typ. Det gick inte att kontrollera: <expr>
.
DELTA_FAILED_CAST_PARTITION_VALUE
Det gick inte att omvandla partitionsvärdet <value>
till <dataType>
DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS
Det gick inte att hitta <newAttributeName>
bland de befintliga målutdata <targetOutputColumns>
DELTA_FAILED_INFER_SCHEMA
Det gick inte att härleda schemat från den angivna listan med filer.
DELTA_FAILED_MERGE_SCHEMA_FILE
Det gick inte att slå samman schemat för filen <file>
:
<schema>
DELTA_FAILED_READ_FILE_FOOTER
Det gick inte att läsa sidfoten för filen: <currentFile>
DELTA_FAILED_RECOGNIZE_PREDICATE
Det går inte att identifiera predikatet<predicate>
DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION
Förvänta dig en fullständig genomsökning av den senaste versionen av Delta-källan, men hittade en historisk genomsökning av versionen <historicalVersion>
DELTA_FAILED_TO_MERGE_FIELDS
Det gick inte att sammanfoga fälten '<currentField>
' och '<updateField>
'
DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH
Det går inte att använda den här tabellen eftersom följande tabellfunktioner är aktiverade i metadata men inte i protokollet: <features>
.
DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT
Tabellschemat kräver manuellt aktivering av följande tabellfunktioner: <unsupportedFeatures>
.
Det gör du genom att köra följande kommando för var och en av de funktioner som anges ovan:
ALTER TABLE table_name SET TBLPROPERTIES ('delta.feature.feature_name' = 'supported')
Ersätt "table_name" och "feature_name" med verkliga värden.
Aktuella funktioner som stöds: <supportedFeatures>
.
DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL
Det går inte att släppa funktionen eftersom en samtidig transaktion ändrade tabellen.
Försök igen.
<concurrentCommit>
DELTA_FEATURE_DROP_DEPENDENT_FEATURE
Det går inte att ta bort tabellfunktionen <feature>
eftersom vissa andra funktioner (<dependentFeatures>
) i den här tabellen är beroende av <feature>
.
Överväg att ta bort dem först innan du släpper den här funktionen.
DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT
Det går inte att ta bort <feature>
den här tabellen eftersom den för närvarande inte finns i tabellens protokoll.
DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST
Det går inte att släppa <feature>
eftersom Delta-loggen innehåller historiska versioner som använder funktionen.
Vänta tills kvarhållningsperioden för historiken (<logRetentionPeriodKey>
=<logRetentionPeriod>
)
har passerat sedan funktionen senast var aktiv.
Alternativt kan du vänta tills kvarhållningsperioden FÖR TRUNKERINGSHISTORIK upphör att gälla (<truncateHistoryLogRetentionPeriod>
)
och kör sedan:
ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY
DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED
Den specifika funktionen kräver inte historiktrunkering.
DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE
Det går inte att släppa <feature>
eftersom det inte går att ta bort den här funktionen.
Kontakta Databricks-supporten.
DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE
Det går inte att släppa <feature>
eftersom den inte stöds av den här Databricks-versionen.
Överväg att använda Databricks med en högre version.
DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD
Att släppa <feature>
lyckades delvis.
Funktionen används nu inte längre i den aktuella versionen av tabellen. Men funktionen
finns fortfarande i historiska versioner av tabellen. Det går inte att ta bort tabellfunktionen
från tabellprotokollet tills dessa historiska versioner har upphört att gälla.
Om du vill ta bort tabellfunktionen från protokollet väntar du på att de historiska versionerna ska
upphör att gälla och upprepa sedan det här kommandot. Kvarhållningsperioden för historiska versioner är
för närvarande konfigurerad som <logRetentionPeriodKey>
=<logRetentionPeriod>
.
Alternativt kan du vänta tills kvarhållningsperioden FÖR TRUNKERINGSHISTORIK upphör att gälla (<truncateHistoryLogRetentionPeriod>
)
och kör sedan:
ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY
DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION
Det går inte att aktivera tabellfunktionen <feature>
eftersom den kräver en högre version av läsarprotokollet (aktuell <current>
). Överväg att uppgradera tabellens läsarprotokollversion till <required>
eller till en version som stöder läsartabellfunktioner. <docLink>
Mer information om tabellprotokollversioner finns i.
DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION
Det går inte att aktivera tabellfunktionen <feature>
eftersom den kräver en högre version av skrivprotokollet (aktuell <current>
). Överväg att uppgradera tabellens skrivprotokollversion till <required>
, eller till en version som stöder skrivartabellfunktioner. <docLink>
Mer information om tabellprotokollversioner finns i.
DELTA_FILE_ALREADY_EXISTS
Befintlig filsökväg <path>
DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT
Det går inte att ange både fillista och mönstersträng.
DELTA_FILE_NOT_FOUND
Filsökväg <path>
DELTA_FILE_NOT_FOUND_DETAILED
Det går inte att hitta filen <filePath>
som refereras i transaktionsloggen. Detta inträffar när data har tagits bort manuellt från filsystemet i stället för att använda tabellsatsen DELETE
. Mer information finns i <faqPath>
DELTA_FILE_OR_DIR_NOT_FOUND
Ingen sådan fil eller katalog: <path>
DELTA_FILE_TO_OVERWRITE_NOT_FOUND
Filen (<path>
) som ska skrivas om hittades inte bland kandidatfilerna:
<pathList>
DELTA_FOUND_MAP_TYPE_COLUMN
En MapType hittades. För att få åtkomst till nyckeln eller värdet för en MapType anger du en
av:
<key>
eller
<value>
följt av namnet på kolumnen (endast om den kolumnen är en structtyp).
t.ex. mymap.key.mykey
Om kolumnen är en grundläggande typ räcker det med mymap.key eller mymap.value.
Schema:
<schema>
DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH
Kolumnen <columnName>
har datatyp <columnType>
och kan inte ändras till datatyp <dataType>
eftersom den här kolumnen refereras till av följande genererade kolumner:
<generatedColumns>
DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE
Det går inte att ändra kolumnen <columnName>
eftersom den här kolumnen refereras till av följande genererade kolumner:
<generatedColumns>
DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH
Uttryckstypen för den genererade kolumnen <columnName>
är <expressionType>
, men kolumntypen är <columnType>
DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH
Kolumn <currentName>
är en genererad kolumn eller en kolumn som används av en genererad kolumn. Datatypen är <currentDataType>
och kan inte konverteras till datatyp <updateDataType>
DELTA_ICEBERG_COMPAT_VIOLATION
Valideringen av IcebergCompatV<version>
misslyckades.
Mer information finns i DELTA_ICEBERG_COMPAT_VIOLATION
DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED
ALTER TABLE ALTER COLUMN stöds inte för IDENTITY-kolumner.
DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT
ALTER TABLE ALTER COLUMN SYNC IDENTITY stöds endast av Delta.
DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN
ALTER TABLE ALTER COLUMN SYNC IDENTITY kan inte anropas på icke-IDENTITETskolumner.
DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED
Det går inte att ange värden för kolumnen <colName>
GENERERAD ALWAYS AS IDENTITY.
DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP
Kolumnsteget IDENTITY får inte vara 0.
DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT
Identitetskolumner stöds endast av Delta.
DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED
KOLUMNEN <colName>
PARTITIONED BY IDENTITY stöds inte.
DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED
ALTER TABLE REPLACE COLUMNS stöds inte för tabell med IDENTITY-kolumner.
DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
DataType <dataType>
stöds inte för IDENTITY-kolumner.
DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED
UPDATE på kolumnen <colName>
IDENTITY stöds inte.
DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION
Det går inte att ange IDENTITY-kolumnen med ett genererat kolumnuttryck.
DELTA_ILLEGAL_OPTION
Ogiltigt värde för<input>
alternativet ,<name>
<explain>
DELTA_ILLEGAL_USAGE
Användning av <option>
tillåts inte när <operation>
en Delta-tabell.
DELTA_INCONSISTENT_BUCKET_SPEC
BucketSpec i den bucketade deltatabellen matchar inte BucketSpec från metadata. Förväntade: <expected>
. Faktisk: <actual>
.
DELTA_INCONSISTENT_LOGSTORE_CONFS
(<setKeys>
) kan inte anges till olika värden. Ange bara en av dem eller ange samma värde.
DELTA_INCORRECT_ARRAY_ACCESS
Felaktigt åtkomst till en ArrayType. Använd arrayname.element.elementname-position för att
lägg till i en matris.
DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME
En ArrayType hittades. För att få åtkomst till element i en ArrayType anger du
<rightName>
<wrongName>
i stället för .
Schema:
<schema>
DELTA_INCORRECT_GET_CONF
Använd getConf()
i stället för 'conf.getConf()
DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION
Felet uppstår vanligtvis när standardimplementeringen av LogStore, som
är, HDFSLogStore, används för att skriva till en Delta-tabell på ett icke-HDFS-lagringssystem.
För att få transaktionsgarantierna för ACID på tabelluppdateringar måste du använda
korrekt implementering av LogStore som är lämplig för ditt lagringssystem.
Mer <docLink>
information finns i.
DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT
Index <position>
för att släppa kolumnen är lika med eller är större än structlängden: <length>
DELTA_INDEX_LARGER_THAN_STRUCT
Index <index>
för att lägga till kolumnen <columnName>
är större än structlängden: <length>
DELTA_INSERT_COLUMN_ARITY_MISMATCH
Det går inte att skriva till måltabellen<tableName>
<columnName>
har <numColumns>
kolumner, men de infogade data har <insertColumns>
kolumner
DELTA_INSERT_COLUMN_MISMATCH
Kolumnen <columnName>
har inte angetts i INSERT
DELTA_INVALID_AUTO_COMPACT_TYPE
Ogiltig autokomprimeringstyp: <value>
. Tillåtna värden är: <allowed>
.
DELTA_INVALID_BUCKET_COUNT
Ogiltigt antal bucketar: <invalidBucketCount>
. Antalet bucketar ska vara ett positivt tal som är 2 och minst 8. Du kan använda <validBucketCount>
i stället.
DELTA_INVALID_BUCKET_INDEX
Det går inte att hitta bucketkolumnen i partitionskolumnerna
DELTA_INVALID_CALENDAR_INTERVAL_EMPTY
Intervallet får inte vara null eller tomt.
DELTA_INVALID_CDC_RANGE
CDC-intervallet från början <start>
till slut <end>
var ogiltigt. Slutet får inte vara före start.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME
Attributnamnet "<columnName>
" innehåller ogiltiga tecken bland " ,;{}()\n\t=". Använd alias för att byta namn på det.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES
Ogiltiga tecken hittades bland ' ,;{}()nt=' i kolumnnamnen för schemat.
Ogiltiga kolumnnamn: <invalidColumnNames>
.
Använd andra tecken och försök igen.
Du kan också aktivera kolumnmappning för att fortsätta använda dessa tecken.
DELTA_INVALID_CLONE_PATH
Målplatsen för CLONE måste vara en absolut sökväg eller ett tabellnamn. Använda en
absolut sökväg i stället <path>
för .
DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING
Ogiltiga tecken hittades bland ' ,;{}()nt=' i kolumnnamnen för schemat.
Ogiltiga kolumnnamn: <invalidColumnNames>
.
Det går inte att ta bort kolumnmappning när det finns ogiltiga tecken i kolumnnamnen.
Byt namn på kolumnerna för att ta bort de ogiltiga tecknen och kör det här kommandot igen.
DELTA_INVALID_FORMAT
Inkompatibelt format har identifierats.
En transaktionslogg för Delta hittades på <deltaRootPath>
/_delta_log''
men du försöker <operation>
<path>
använda format("<format>
"). Du måste använda
"format("delta")" när du läser och skriver till en deltatabell.
Mer information om Delta finns i <docLink>
DELTA_INVALID_GENERATED_COLUMN_REFERENCES
En genererad kolumn kan inte använda en obefintlig kolumn eller en annan genererad kolumn
DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS
Ogiltiga alternativ för idempotent Dataframe-skrivningar: <reason>
DELTA_INVALID_INTERVAL
<interval>
är inte ett giltigt INTERVALL.
DELTA_INVALID_INVENTORY_SCHEMA
Schemat för den angivna INVENTORY innehåller inte alla obligatoriska fält. Obligatoriska fält är: <expectedSchema>
DELTA_INVALID_ISOLATION_LEVEL
ogiltig isoleringsnivå<isolationLevel>
DELTA_INVALID_LOGSTORE_CONF
(<classConfig>
) och (<schemeConfig>
) kan inte anges samtidigt. Ange endast en grupp av dem.
DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA
Du försöker skapa en hanterad tabell <tableName>
med Delta, men schemat har inte angetts.
Mer information om Delta finns i <docLink>
DELTA_INVALID_PARTITION_COLUMN
<columnName>
är inte en giltig partitionskolumn i tabellen <tableName>
.
DELTA_INVALID_PARTITION_COLUMN_NAME
Hittade partitionskolumner med ogiltiga tecken bland " ,;{}()nt=". Ändra namnet till partitionskolumnerna. Den här kontrollen kan inaktiveras genom att ställa in spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false), men detta rekommenderas inte eftersom andra funktioner i Delta kanske inte fungerar korrekt.
DELTA_INVALID_PARTITION_COLUMN_TYPE
Det går inte att använda en kolumn <name>
av typen <dataType>
som en partitionskolumn.
DELTA_INVALID_PARTITION_PATH
Ett partitionssökvägsfragment ska vara formuläret som part1=foo/part2=bar
. Partitionssökvägen: <path>
DELTA_INVALID_PROTOCOL_DOWNGRADE
Protokollversionen kan inte nedgraderas från <oldProtocol>
till <newProtocol>
DELTA_INVALID_PROTOCOL_VERSION
Delta-protokollversion som inte stöds: tabellen "<tableNameOrPath>
" kräver läsarversion <readerRequired>
och skrivarversion <writerRequired>
, men den här versionen av Databricks stöder läsarversioner <supportedReaders>
och skrivarversioner <supportedWriters>
. Uppgradera till en nyare version.
DELTA_INVALID_TABLE_VALUE_FUNCTION
Funktionen <function>
är en tabellvärdesfunktion som inte stöds för CDC-läsningar.
DELTA_INVALID_TIMESTAMP_FORMAT
Den angivna tidsstämpeln <timestamp>
matchar inte den förväntade syntaxen <format>
.
DELTA_LOG_ALREADY_EXISTS
Det finns redan en Delta-logg på <path>
DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE
Om du aldrig har tagit bort den är det troligt att frågan släpar efter. Ta bort kontrollpunkten för att starta om från början. För att undvika att detta händer igen kan du uppdatera kvarhållningsprincipen för deltatabellen
DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING
Materialiserat <rowTrackingColumn>
kolumnnamn saknas för <tableName>
.
DELTA_MAX_ARRAY_SIZE_EXCEEDED
Använd en gräns som är mindre än Int.MaxValue – 8.
DELTA_MAX_COMMIT_RETRIES_EXCEEDED
Den här incheckningen misslyckades eftersom den har provats <numAttempts>
men lyckades inte.
Detta kan orsakas av att Delta-tabellen checkas in kontinuerligt av många samtidiga
Begår.
Incheckningen startades vid version: <startVersion>
Incheckningen misslyckades vid version: <failVersion>
Antal åtgärder som har försökt genomföras: <numActions>
Total tid som ägnas åt att utföra den här incheckningen: <timeSpent>
ms
DELTA_MAX_LIST_FILE_EXCEEDED
Fillistan måste ha högst <maxFileListSize>
poster, hade <numFiles>
.
DELTA_MERGE_ADD_VOID_COLUMN
Det går inte att lägga till kolumnen <newColumn>
med typen VOID. Ange uttryckligen en icke-void-typ.
DELTA_MERGE_INCOMPATIBLE_DATATYPE
Det gick inte att slå samman inkompatibla datatyper <currentDataType>
och <updateDataType>
DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE
Det gick inte att sammanfoga decimaltyper med inkompatibla <decimalRanges>
DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY
Det gick inte att hålla källan till MERGE-instruktionen materialiserad upprepade gånger.
DELTA_MERGE_MISSING_WHEN
Det måste finnas minst en WHEN-sats i en MERGE-instruktion.
DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT
Lösta attribut <missingAttributes>
som saknas i <input>
operatorn <merge>
DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY
Oväntad tilldelningsnyckel: <unexpectedKeyClass>
- <unexpectedKeyObject>
DELTA_MERGE_UNRESOLVED_EXPRESSION
Det går inte att matcha <sqlExpr>
i <clause>
angiven <cols>
.
DELTA_METADATA_CHANGED
MetadataChangedException: Metadata för Delta-tabellen har ändrats av en samtidig uppdatering. Försök igen.<conflictingCommit>
<docLink>
Mer information finns i.
DELTA_MISSING_CHANGE_DATA
Det gick inte att hämta ändringsdata för intervallet [<startVersion>
, <endVersion>
] eftersom ändringsdata inte var
inspelad för version [<version>
]. Om du har aktiverat ändringsdataflöde i den här tabellen,
använd DESCRIBE HISTORY
för att se när den först aktiverades.
Om du vill börja registrera ändringsdata använder du annars ALTER TABLE table_name SET TBLPROPERTIES
(<key>
=true)'.
DELTA_MISSING_COLUMN
Det går inte att hitta <columnName>
i tabellkolumner: <columnList>
DELTA_MISSING_COMMIT_INFO
Den här tabellen har funktionen <featureName>
aktiverad, vilket kräver närvaro av CommitInfo-åtgärden i varje incheckning. CommitInfo-åtgärden saknas dock i incheckningsversionen <version>
.
DELTA_MISSING_COMMIT_TIMESTAMP
Den här tabellen har funktionen <featureName>
aktiverad, vilket kräver närvaro av commitTimestamp i CommitInfo-åtgärden. Det här fältet har dock inte angetts i incheckningsversionen <version>
.
DELTA_MISSING_DELTA_TABLE
<tableName>
är inte en Delta-tabell.
DELTA_MISSING_DELTA_TABLE_COPY_INTO
Tabellen finns inte. Skapa en tom Delta-tabell först med CREATE TABLE <tableName>
.
DELTA_MISSING_ICEBERG_CLASS
Det gick inte att hitta isbergsklassen. Se till att Delta Iceberg-supporten är installerad.
Mer information finns i <docLink>
.
DELTA_MISSING_NOT_NULL_COLUMN_VALUE
Kolumnen <columnName>
, som har en NOT NULL-begränsning, saknas i de data som skrivs till tabellen.
DELTA_MISSING_PARTITION_COLUMN
Partitionskolumnen <columnName>
hittades inte i schemat <columnList>
DELTA_MISSING_PART_FILES
Det gick inte att hitta alla delfiler i kontrollpunktsversionen: <version>
DELTA_MISSING_PROVIDER_FOR_CONVERT
KONVERTERA TILL DELTA stöder endast parquet-tabeller. Skriv om målet som parquet.<path>
om det är en parquet-katalog.
DELTA_MISSING_SET_COLUMN
Det går inte att hitta angivna kolumner i SET-kolumnen <columnName>
: <columnList>
.
DELTA_MISSING_TRANSACTION_LOG
Inkompatibelt format har identifierats.
Du försöker <operation>
<path>
använda Delta, men det finns ingen
transaktionsloggen finns. Kontrollera det överordnade jobbet för att se till att det skrivs
med format("delta") och att du försöker %1$s tabellens bassökväg.
Mer information om Delta finns i <docLink>
DELTA_MODE_NOT_SUPPORTED
Angivet läge stöds<mode>
inte. Lägen som stöds är: <supportedModes>
DELTA_MULTIPLE_CDC_BOUNDARY
Flera <startingOrEnding>
argument som tillhandahålls för CDC-läsning. Ange en av antingen <startingOrEnding>
Tidsstämpel eller <startingOrEnding>
Version.
DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER
Flera bloom-filterindexkonfigurationer skickades till kommandot för kolumnen: <columnName>
DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE
Det går inte att utföra Sammanfogning eftersom flera källrader matchade och försökte ändra samma
målraden i Delta-tabellen på sätt som kan vara i konflikt. Efter SQL-semantik för sammanslagning,
när flera källrader matchar på samma målrad kan resultatet vara tvetydigt
eftersom det är oklart vilken källrad som ska användas för att uppdatera eller ta bort matchningen
målrad. Du kan förbearbeta källtabellen för att eliminera risken för
flera matchningar. I avsnittet
<usageReference>
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND
Under <command>
anges båda konfigurationerna för koordinerade incheckningar ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview") i kommandot eller någon av dem. Saknas: "<configuration>
". Ange den här konfigurationen i TBLPROPERTIES-satsen eller ta bort den andra konfigurationen och försök sedan igen.
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION
Under <command>
anges båda konfigurationerna för koordinerade incheckningar ("coordinatedCommits.commitCoordinator-preview", "coordinatedCommits.commitCoordinatorConf-preview") i SparkSession-konfigurationerna eller ingen av dem. Saknas: "<configuration>
". Ange den här konfigurationen i SparkSession eller ta bort den andra konfigurationen och försök sedan igen.
DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE
Följande kolumnnamn är endast reserverade för intern användning av delta bucketed table: <names>
DELTA_NESTED_FIELDS_NEED_RENAME
Indataschemat innehåller kapslade fält som är versaler som skiljer sig från måltabellen.
De måste byta namn för att undvika dataförlust i dessa fält när de skrivs till Delta.
Fält:
<fields>
.
Ursprungligt schema:
<schema>
DELTA_NESTED_NOT_NULL_CONSTRAINT
Typen <nestType>
av fält <parent>
innehåller en NOT NULL-begränsning. Delta stöder inte NULL-begränsningar kapslade i matriser eller kartor. Om du vill ignorera det här felet och tyst ignorera de angivna begränsningarna anger du <configKey>
= true.
Parsad <nestType>
typ:
<nestedPrettyJson>
DELTA_NESTED_SUBQUERY_NOT_SUPPORTED
Kapslad underfråga stöds inte i villkoret <operation>
.
DELTA_NEW_CHECK_CONSTRAINT_VIOLATION
<numRows>
raderna i <tableName>
bryter mot den nya CHECK-begränsningen (<checkConstraint>
)
DELTA_NEW_NOT_NULL_VIOLATION
<numRows>
raderna i <tableName>
bryter mot den nya NOT NULL-begränsningen för <colName>
DELTA_NON_BOOLEAN_CHECK_CONSTRAINT
CHECK-villkoret (<name>
<expr>
) ska vara ett booleskt uttryck.
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN
Hittade <expr>
. En genererad kolumn kan inte använda ett icke-deterministiskt uttryck.
DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED
Icke-deterministiska funktioner stöds inte i <operation>
<expression>
DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Om det finns fler än en MATCHED-satser i en MERGE-instruktion kan endast den sista MATCHED-satsen utelämna villkoret.
DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Om det finns fler än en SOM INTE MATCHAS AV KÄLL-satser i en MERGE-instruktion kan endast den sista INTE MATCHADE AV SOURCE-satsen utelämna villkoret.
DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION
Om det finns fler än en NOT MATCHED-satser i en MERGE-instruktion kan endast den sista NOT MATCHED-satsen utelämna villkoret
DELTA_NON_PARSABLE_TAG
Det gick inte att parsa taggen <tag>
.
Filtaggar är: <tagList>
DELTA_NON_PARTITION_COLUMN_ABSENT
Data som skrivs till Delta måste innehålla minst en icke-partitionerad kolumn.<details>
DELTA_NON_PARTITION_COLUMN_REFERENCE
Predikat refererar till kolumnen icke-partition<columnName>
. Endast partitionskolumnerna kan refereras: [<columnList>
]
DELTA_NON_PARTITION_COLUMN_SPECIFIED
Kolumner som inte partitioneras anges där endast partitioneringskolumner <columnList>
förväntas: <fragment>
.
DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG
Deltakatalogen kräver ett namnområde i en enda del, men <identifier>
det är flera delar.
DELTA_NOT_A_DATABRICKS_DELTA_TABLE
<table>
är inte en Delta-tabell. Släpp den här tabellen först om du vill skapa den med Databricks Delta.
DELTA_NOT_A_DELTA_TABLE
<tableName>
är inte en Delta-tabell. Släpp tabellen först om du vill återskapa den med Delta Lake.
DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT
Det gick inte att hitta en nullbar kolumn i struct: <struct>
DELTA_NOT_NULL_CONSTRAINT_VIOLATED
NOT NULL-begränsningen har brutits för kolumnen: <columnName>
.
DELTA_NOT_NULL_NESTED_FIELD
Ett icke-null-kapslat fält kan inte läggas till i en överordnad null. Ange nullbarheten för den överordnade kolumnen i enlighet med detta.
DELTA_NO_COMMITS_FOUND
Inga incheckningar hittades på <logPath>
DELTA_NO_RECREATABLE_HISTORY_FOUND
Inga återskapningsbara incheckningar hittades på <logPath>
DELTA_NO_RELATION_TABLE
Det går inte att hitta tabellen <tableIdent>
DELTA_NO_START_FOR_CDC_READ
Ingen startingVersion eller startingTimestamp har angetts för CDC.No startingVersion or startingTimestamp provided for CDC read.
DELTA_NULL_SCHEMA_IN_STREAMING_WRITE
Delta accepterar inte NullTypes i schemat för strömningsskrivningar.
DELTA_ONEOF_IN_TIMETRAVEL
Ange antingen "timestampAsOf" eller "versionAsOf" för tidsresor.
DELTA_ONLY_OPERATION
<operation>
stöds endast för Delta-tabeller.
DELTA_OPERATION_MISSING_PATH
Ange sökvägen eller tabellidentifieraren för <operation>
.
DELTA_OPERATION_NOT_ALLOWED
Åtgärden är inte tillåten: <operation>
stöds inte för Delta-tabeller
DELTA_OPERATION_NOT_ALLOWED_DETAIL
Åtgärden är inte tillåten: <operation>
stöds inte för Delta-tabeller: <tableName>
DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION
<operation>
stöds inte för kolumnen <colName>
med icke-standardsortering <collation>
.
DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION
<operation>
stöds inte för uttryck <exprText>
eftersom det använder icke-standardsortering.
DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED
<operation>
kommandot i en temporär vy som refererar till en Delta-tabell som innehåller genererade kolumner stöds inte. Kör <operation>
kommandot i Delta-tabellen direkt
DELTA_OPERATION_ON_VIEW_NOT_ALLOWED
Åtgärden är inte tillåten: <operation>
kan inte utföras i en vy.
DELTA_OPTIMIZE_FULL_NOT_SUPPORTED
OPTIMIZE FULL stöds endast för klustrade tabeller med icke-tomma klustringskolumner.
DELTA_OVERWRITE_MUST_BE_TRUE
Kopieringsalternativet overwriteSchema kan inte anges utan att ange OVERWRITE = "true".
DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE
"overwriteSchema" kan inte användas i dynamisk partitionsöverskrivningsläge.
DELTA_PARTITION_COLUMN_CAST_FAILED
Det gick inte att omvandla värdet <value>
till <dataType>
för partitionskolumnen <columnName>
DELTA_PARTITION_COLUMN_NOT_FOUND
Partitionskolumnen <columnName>
hittades inte i schemat [<schemaMap>
]
DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES
Partitionsschemat kan inte anges vid konvertering av isbergstabeller. Den härleds automatiskt.
DELTA_PATH_DOES_NOT_EXIST
<path>
finns inte eller är inte en Delta-tabell.
DELTA_PATH_EXISTS
Det går inte att skriva till den sökväg <path>
som redan finns utan att ange OVERWRITE = "true".
DELTA_POST_COMMIT_HOOK_FAILED
Incheckningen till Delta-tabellversionen <version>
lyckades men felet uppstod vid körning av hooken <name>
efter incheckningen <message>
DELTA_PROTOCOL_CHANGED
ProtocolChangedException: Protokollversionen av Delta-tabellen har ändrats av en samtidig uppdatering. <additionalInfo>
<conflictingCommit>
<docLink>
Mer information finns i.
DELTA_PROTOCOL_PROPERTY_NOT_INT
Protokollegenskapen <key>
måste vara ett heltal. Grunda <value>
DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE
Det går inte att uppgradera endast läsarprotokollversionen för att använda tabellfunktioner. Skrivarens protokollversion måste vara minst <writerVersion>
för att kunna fortsätta. <docLink>
Mer information om tabellprotokollversioner finns i.
DELTA_READ_TABLE_WITHOUT_COLUMNS
Du försöker läsa en Delta-tabell <tableName>
som inte har några kolumner.
Skriv några nya data med alternativet mergeSchema = true
för att kunna läsa tabellen.
DELTA_REGEX_OPT_SYNTAX_ERROR
Kontrollera syntaxen för "<regExpOption>
" igen
DELTA_REPLACE_WHERE_IN_OVERWRITE
Du kan inte använda replaceWhere tillsammans med en överskrivning efter filter
DELTA_REPLACE_WHERE_MISMATCH
Skrivna data överensstämmer inte med villkoret för partiell överskrivning av tabeller eller villkor .<replaceWhere>
<message>
DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE
Ett "replaceWhere"-uttryck och "partitionOverwriteMode"='dynamic' kan inte båda anges i alternativen DataFrameWriter.
DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET
"replaceWhere" kan inte användas med datafilter när "dataChange" är inställt på false. Filter: <dataFilters>
DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS
Det går inte att tilldela rad-ID utan statistik över antal rader.
Samla in statistik för tabellen genom att köra följande kod i en Scala-anteckningsbok och försöka igen:
import com.databricks.sql.transaction.tahoe.DeltaLog
import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection
import org.apache.spark.sql.catalyst.TableIdentifier
val log = DeltaLog.forTable(spark, TableIdentifier(table_name))
StatisticsCollection.recompute(spark, log)
DELTA_SCHEMA_CHANGED
Schemaändring har identifierats:
källschema för direktuppspelning: <readSchema>
datafilschema: <dataSchema>
Försök att starta om frågan. Om det här problemet upprepas mellan frågeomstarter utan
har du gjort en inkompatibel schemaändring och behöver starta din
fråga från grunden med hjälp av en ny kontrollpunktskatalog.
DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS
Identifierade schemaändring i version <version>
:
källschema för direktuppspelning: <readSchema>
datafilschema: <dataSchema>
Försök att starta om frågan. Om det här problemet upprepas mellan frågeomstarter utan
har du gjort en inkompatibel schemaändring och behöver starta din
fråga från grunden med hjälp av en ny kontrollpunktskatalog. Om problemet kvarstår efter
om du ändrar till en ny kontrollpunktskatalog kan du behöva ändra den befintliga
"startingVersion" eller "startingTimestamp"-alternativet för att starta från en version som är nyare än
<version>
med en ny kontrollpunktskatalog.
DELTA_SCHEMA_CHANGED_WITH_VERSION
Identifierade schemaändring i version <version>
:
källschema för direktuppspelning: <readSchema>
datafilschema: <dataSchema>
Försök att starta om frågan. Om det här problemet upprepas mellan frågeomstarter utan
har du gjort en inkompatibel schemaändring och behöver starta din
fråga från grunden med hjälp av en ny kontrollpunktskatalog.
DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS
Schemat för deltatabellen har ändrats på ett inkompatibelt sätt sedan dataramen
eller DeltaTable-objektet skapades. Omdefiniera ditt DataFrame- eller DeltaTable-objekt.
Ändringar:
<schemaDiff>
<legacyFlagMessage>
DELTA_SCHEMA_NOT_PROVIDED
Tabellschema har inte angetts. Ange schemat (kolumndefinitionen) för tabellen när du använder REPLACE-tabellen och en AS SELECT-fråga har inte angetts.
DELTA_SCHEMA_NOT_SET
Tabellschemat har inte angetts. Skriv data till den eller använd CREATE TABLE för att ange schemat.
DELTA_SET_LOCATION_SCHEMA_MISMATCH
Schemat för den nya Delta-platsen skiljer sig från det aktuella tabellschemat.
ursprungligt schema:
<original>
målschema:
<destination>
Om detta är en avsedd ändring kan du inaktivera den här kontrollen genom att köra:
%%sql set <config>
= true
DELTA_SHALLOW_CLONE_FILE_NOT_FOUND
Det går inte att hitta filen <filePath>
som refereras i transaktionsloggen. Detta kan inträffa när data har tagits bort manuellt från filsystemet i stället för att använda tabellsatsen DELETE
. Den här tabellen verkar vara en ytlig klon, om så är fallet kan det här felet inträffa när den ursprungliga tabellen som tabellen klonades från har tagit bort en fil som klonen fortfarande använder. Om du vill att kloner ska vara oberoende av den ursprungliga tabellen använder du en DEEP-klon i stället.
DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY
Fördefinierade egenskaper som börjar med <prefix>
kan inte ändras.
DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
Data begränsas av mottagaregenskapen <property>
som inte gäller för den aktuella mottagaren i sessionen.
Mer information finns i DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW
<operation>
kan inte användas i deltadelningsvyer som delas mellan konton.
DELTA_SHARING_INVALID_PROVIDER_AUTH
Ogiltig autentiseringstyp <authenticationType>
för providern <provider>
.
DELTA_SHARING_INVALID_RECIPIENT_AUTH
Ogiltig autentiseringstyp <authenticationType>
för mottagaren <recipient>
.
DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME
Ogiltigt namn för att referera till en <type>
i en resurs. Du kan antingen använda <type>
namnet i resursen enligt formatet [schema].[<type>
], eller så kan du också använda tabellens ursprungliga fullständiga namn efter formatet [katalog].[ schema]. [>typ>].
Om du är osäker på vilket namn du ska använda kan du köra "VISA ALLA I RESURS [resurs]" och hitta namnet på <type>
den som ska tas bort: kolumnen "name" är <type>
namnet i resursen och kolumnen "shared_object" är <type>
det ursprungliga fullständiga namnet.
DELTA_SHARING_MAXIMUM_RECIPIENT_TOKENS_EXCEEDED
Det finns fler än två token för mottagaren <recipient>
.
DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND
Mottagaregenskapen <property>
finns inte.
DELTA_SHARING_RECIPIENT_TOKENS_NOT_FOUND
Mottagartoken saknas för mottagaren <recipient>
.
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN
Kolumner som inte <badCols>
partitioneras anges för SHOW PARTITIONS
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE
VISA PARTITIONER tillåts inte i en tabell som inte är partitionerad: <tableName>
DELTA_SOURCE_IGNORE_DELETE
Identifierade borttagna data (till exempel <removedFile>
) från strömmande källa vid version <version>
. Detta stöds inte för närvarande. Om du vill ignorera borttagningar anger du alternativet "ignoreDeletes" till "true". Källtabellen finns på sökvägen <dataPath>
.
DELTA_SOURCE_TABLE_IGNORE_CHANGES
Identifierade en datauppdatering (till exempel <file>
) i källtabellen vid version <version>
. Detta stöds inte för närvarande. Om detta kommer att ske regelbundet och du är okej att hoppa över ändringar anger du alternativet "skipChangeCommits" till "true". Om du vill att datauppdateringen ska återspeglas startar du om den här frågan med en ny kontrollpunktskatalog eller gör en fullständig uppdatering om du använder DLT. Om du behöver hantera dessa ändringar växlar du till MV:er. Källtabellen finns på sökvägen <dataPath>
.
DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET
Ange antingen "<version>
" eller "<timestamp>
"
DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND
<statsType>
statistik hittades inte för kolumnen i Parquet-metadata: <columnPath>
.
DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION
Vi har identifierat en eller flera icke-additiva schemaändringar (<opType>
) mellan Delta-versionen <previousSchemaChangeVersion>
och <currentSchemaChangeVersion>
i Delta-strömningskällan.
Kontrollera om du vill sprida schemaändringarna manuellt till mottagartabellen innan vi fortsätter med dataströmbearbetningen med det slutfört schemat på <currentSchemaChangeVersion>
.
När du har korrigerat schemat för mottagartabellen eller har bestämt att det inte finns något behov av att åtgärda det kan du ange (en av) följande SQL-konfigurationer för att avblockera icke-additiva schemaändringar och fortsätta dataströmbearbetningen.
Om du vill avblockera för den här dataströmmen bara för den här serien med schemaändringar: ange <allowCkptVerKey>` = `<allowCkptVerValue>
.
Så här avblockar du för den här dataströmmen: ange <allowCkptKey>` = `<allowCkptValue>
Om du vill avblockera för alla strömmar: ange <allowAllKey>` = `<allowAllValue>
.
Alternativt kan du, om tillämpligt, ersätta <allowAllMode>
med <opSpecificMode>
i SQL-konfigurationen för att avblockera strömmen för just den här schemaändringstypen.
DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT
Det gick inte att hämta deltaloggögonblicksbilden för startversionen vid kontroll av schemaändringar för kolumnmappning. Välj en annan startversion eller framtvinga aktivering av direktuppspelning på egen risk genom att ställa in "<config>
" på "sant".
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE
Direktuppspelningsläsning stöds inte i tabeller med läskompatibla schemaändringar (t.ex. byta namn på eller släppa eller ändra datatyp).
Mer information och möjliga nästa steg för att lösa problemet finns i dokumentationen på <docLink>
Lässchema: <readSchema>
. Inkompatibelt dataschema: <incompatibleSchema>
.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG
Direktuppspelningsläsning stöds inte i tabeller med läskompatibla schemaändringar (t.ex. byta namn på eller släppa eller ändra datatyp).
Ange ett schemaTrackingLocation för att aktivera icke-additiv schemautveckling för deltaströmbearbetning.
Mer <docLink>
information finns i.
Lässchema: <readSchema>
. Inkompatibelt dataschema: <incompatibleSchema>
.
DELTA_STREAMING_METADATA_EVOLUTION
Schemat, tabellkonfigurationen eller protokollet för deltatabellen har ändrats under strömning.
Loggen för schema- eller metadataspårning har uppdaterats.
Starta om strömmen för att fortsätta bearbetningen med hjälp av uppdaterade metadata.
Uppdaterat schema: <schema>
.
Uppdaterade tabellkonfigurationer: <config>
.
Tabellprotokollet har uppdaterats: <protocol>
DELTA_STREAMING_SCHEMA_EVOLUTION_UNSUPPORTED_ROW_FILTER_COLUMN_MASKS
Direktuppspelning från källtabellen <tableId>
med schemaspårning stöder inte radfilter eller kolumnmasker.
Ta bort radfilter eller kolumnmasker eller inaktivera schemaspårning.
DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT
En motstridig schemaplats har<loc>
identifierats vid direktuppspelning från tabell eller tabell som finns på .<table>
En annan ström kan återanvända samma schemaplats, vilket inte är tillåtet.
Ange en ny unik schemaTrackingLocation
sökväg eller streamingSourceTrackingId
som ett läsaralternativ för någon av strömmarna från den här tabellen.
DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT
Schemaplatsen måste<schemaTrackingLocation>
placeras under kontrollpunktsplatsen<checkpointLocation>
.
DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED
Ofullständig loggfil i deltaströmningskällans schemalogg på '<location>
'.
Schemaloggen kan ha skadats. Välj en ny schemaplats.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID
Det identifierade inkompatibla Delta-tabell-ID:t när deltaströmmen skulle läsas.
Beständiga tabell-ID: <persistedId>
, Tabell-ID: <tableId>
Schemaloggen kan ha återanvändits. Välj en ny schemaplats.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA
Ett inkompatibelt partitionsschema upptäcktes när deltaströmmen skulle läsas.
Bevarat schema: <persistedSchema>
, Delta-partitionsschema: <partitionSchema>
Välj en ny schemaplats för att initiera schemaloggen igen om du nyligen har ändrat tabellens partitionsschema manuellt.
DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA
Det gick inte att initiera schemaloggen för Delta-strömningskällan eftersom
Vi har upptäckt en inkompatibel schema- eller protokolländring när vi serverade en strömningsbatch från tabellversion <a>
till <b>
.
DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED
Det gick inte att parsa schemat från schemaloggen för deltaströmningskällan.
Schemaloggen kan ha skadats. Välj en ny schemaplats.
DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS
Det går inte att aktivera Ändringsdatainsamling i tabellen. Tabellen innehåller redan
reserverade kolumner <columnList>
som ska
användas internt som metadata för tabellens ändringsdataflöde. Om du vill aktivera
Ändra dataflöde i tabellen byt namn på/släpp dessa kolumner.
DELTA_TABLE_ALREADY_EXISTS
Tabellen <tableName>
finns redan.
DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF
För närvarande stöder DeltaTable.forPath endast hadoop-konfigurationsnycklar som börjar med <allowedPrefixes>
men fick <unsupportedOptions>
DELTA_TABLE_ID_MISMATCH
Delta-tabellen på <tableLocation>
har ersatts medan det här kommandot använde tabellen.
Tabell-ID var <oldId>
men är nu <newId>
.
Försök igen med det aktuella kommandot för att se till att det läser en konsekvent vy av tabellen.
DELTA_TABLE_LOCATION_MISMATCH
Platsen för den befintliga tabellen <tableName>
är <existingTableLocation>
. Den matchar inte den angivna platsen <tableLocation>
.
DELTA_TABLE_NOT_FOUND
Deltatabellen <tableName>
finns inte.
DELTA_TABLE_NOT_SUPPORTED_IN_OP
Tabellen stöds inte i <operation>
. Använd en sökväg i stället.
DELTA_TABLE_ONLY_OPERATION
<tableName>
är inte en Delta-tabell. <operation>
stöds endast för Delta-tabeller.
DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY
Slutschemat för måltabellen är tomt.
DELTA_TIMESTAMP_GREATER_THAN_COMMIT
Den angivna tidsstämpeln (<providedTimestamp>
) är efter den senaste versionen som är tillgänglig för detta
tabell (<tableName>
). Använd en tidsstämpel före eller vid <maximumTimestamp>
.
DELTA_TIMESTAMP_INVALID
Den angivna tidsstämpeln (<expr>
) kan inte konverteras till en giltig tidsstämpel.
DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE
<timeTravelKey>
måste vara ett giltigt startvärde.
DELTA_TRUNCATED_TRANSACTION_LOG
<path>
: Det går inte att rekonstruera tillståndet vid version <version>
eftersom transaktionsloggen har trunkerats på grund av manuell borttagning eller kvarhållningsprincipen för loggen (<logRetention>
=<logRetentionKey>
) och kvarhållningsprincipen för kontrollpunkter ()<checkpointRetentionKey>
=<checkpointRetention>
DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED
Åtgärden är inte tillåten: TRUNCATE TABLE i Delta-tabeller stöder inte partitionspredikat. använd DELETE för att ta bort specifika partitioner eller rader.
DELTA_UDF_IN_GENERATED_COLUMN
Hittade <udfExpr>
. En genererad kolumn kan inte använda en användardefinierad funktion
DELTA_UNEXPECTED_ACTION_EXPRESSION
Oväntat åtgärdsuttryck <expression>
.
DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME
Förväntade partitionskolumner <expectedColsSize>
: <expectedCols>
, men hittade <parsedColsSize>
partitionskolumner: <parsedCols>
från parsning av filnamnet: <path>
DELTA_UNEXPECTED_PARTIAL_SCAN
Förvänta dig en fullständig genomsökning av Delta-källor, men hittade en partiell genomsökning. stig:<path>
DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME
Förväntade partitionskolumnen <expectedCol>
, men hittade partitionskolumnen <parsedCol>
från att parsa filnamnet: <path>
DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER
KONVERTERA TILL DELTA anropades med ett partitionsschema som skiljer sig från partitionsschemat som härleddes från katalogen. Undvik att ange schemat så att partitionsschemat kan väljas från katalogen.
katalogpartitionsschema:
<catalogPartitionSchema>
angivet partitionsschema:
<userPartitionSchema>
DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
Läs Iceberg med Delta Uniform har misslyckats.
Mer information finns i DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED
Det går inte att skapa eller uppdatera en enhetlig ingresstabell.
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT
Format <fileFormat>
stöds inte. Endast isberg som ursprungligt filformat stöds.
DELTA_UNIFORM_NOT_SUPPORTED
Universellt format stöds endast i Unity Catalog-tabeller.
DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED
Det gick inte att konvertera tabellversionen <version>
till det universella formatet <format>
. <message>
DELTA_UNIVERSAL_FORMAT_VIOLATION
Valideringen av universellt format (<format>
) misslyckades: <violation>
DELTA_UNKNOWN_CONFIGURATION
Okänd konfiguration angavs: <config>
DELTA_UNKNOWN_PRIVILEGE
Okänd behörighet: <privilege>
DELTA_UNKNOWN_READ_LIMIT
Okänd ReadLimit: <limit>
DELTA_UNRECOGNIZED_COLUMN_CHANGE
Okänd kolumnändring <otherClass>
. Du kanske kör en inaktuell Delta Lake-version.
DELTA_UNRECOGNIZED_INVARIANT
Okänd invariant. Uppgradera Spark-versionen.
DELTA_UNRECOGNIZED_LOGFILE
Okänd loggfil <fileName>
DELTA_UNSET_NON_EXISTENT_PROPERTY
Försökte ta bort den obefintliga egenskapen "<property>
" i tabellen <tableName>
DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE
<path>
stöder inte att filer läggs till med en absolut sökväg
DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP
ALTER TABLE CHANGE COLUMN stöds inte för att ändra kolumn <fieldPath>
från <oldField>
till <newField>
DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP
ALTER TABLE REPLACE COLUMNS-åtgärden stöds inte. Förnuft: <details>
Det gick inte att ändra schemat från:
<oldSchema>
till:
<newSchema>
DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE
Du försökte ersätta en befintlig tabell (<tableName>
) med CLONE. Den här åtgärden är
Unsupported. Prova ett annat mål för CLONE eller ta bort tabellen vid det aktuella målet.
DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE
Det går inte att ändra kolumnmappningsläget från "<oldMode>
" till "<newMode>
".
DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL
Den aktuella tabellprotokollversionen stöder inte ändring av kolumnmappningslägen
med hjälp av <config>
.
Nödvändig deltaprotokollversion för kolumnmappning:
<requiredVersion>
Tabellens aktuella Delta-protokollversion:
<currentVersion>
<advice>
DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE
Schemaändring identifieras:
gammalt schema:
<oldTableSchema>
nytt schema:
<newTableSchema>
Schemaändringar tillåts inte vid ändring av kolumnmappningsläge.
DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE
Det går inte att skriva data med kolumnmappningsläget.
DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER
Det går inte att skapa ett bloom-filterindex för en kolumn med typen <dataType>
: <columnName>
DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY
Det går inte att lägga till en kommentar i <fieldPath>
. Det går inte att lägga till en kommentar till en kartnyckel/ett värde eller matriselement.
DELTA_UNSUPPORTED_DATA_TYPES
Hittade kolumner med datatyper som inte stöds: <dataTypeList>
. Du kan ange "<config>
" till "false" för att inaktivera typkontrollen. Om du inaktiverar den här typkontrollen kan användarna skapa deltatabeller som inte stöds och bör endast användas när de försöker läsa/skriva äldre tabeller.
DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN
<dataType>
kan inte vara resultatet av en genererad kolumn
DELTA_UNSUPPORTED_DEEP_CLONE
Djupkloning stöds inte för den här Delta-versionen.
DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW
<view>
är en vy. DESCRIBE DETAIL stöds endast för tabeller.
DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN
Det är inte tillåtet att ta bort klustringskolumner (<columnList>
).
DELTA_UNSUPPORTED_DROP_COLUMN
DROP COLUMN stöds inte för deltatabellen. <advice>
DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE
Det går bara att släppa kapslade kolumner från StructType. Grunda <struct>
DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN
Det är inte tillåtet att ta bort partitionskolumner (<columnList>
).
DELTA_UNSUPPORTED_EXPRESSION
Uttryckstyp(<expType>
) som inte stöds för <causedBy>
. De typer som stöds är [<supportedTypes>
].
DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
<expression>
kan inte användas i en genererad kolumn
DELTA_UNSUPPORTED_FEATURES_FOR_READ
Delta-läsfunktion som inte stöds: tabellen "<tableNameOrPath>
" kräver läsarens tabellfunktioner som inte stöds av den här versionen av Databricks: <unsupported>
. <link>
Mer information om Delta Lake-funktionskompatibilitet finns i.
DELTA_UNSUPPORTED_FEATURES_FOR_WRITE
Delta-skrivfunktion som inte stöds: tabellen "<tableNameOrPath>
" kräver skrivartabellfunktioner som inte stöds av den här versionen av Databricks: <unsupported>
. <link>
Mer information om Delta Lake-funktionskompatibilitet finns i.
DELTA_UNSUPPORTED_FEATURES_IN_CONFIG
Tabellfunktioner som konfigurerats i följande Spark-konfigurationer eller Delta-tabellegenskaper identifieras inte av den här versionen av Databricks: <configs>
.
DELTA_UNSUPPORTED_FEATURE_STATUS
Förväntar sig att statusen för tabellfunktionen <feature>
ska "stödjas", men fick "<status>
".
DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT
Uppdatering av kapslade fält stöds bara för StructType, men du försöker uppdatera ett fält av <columnName>
, som är av typen : <dataType>
.
DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS
Kommandot "FSCK REPAIR TABLE" stöds inte i tabellversioner med saknade borttagningsvektorfiler.
Kontakta supporten.
DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS
Kommandot "GENERATE symlink_format_manifest" stöds inte i tabellversioner med borttagningsvektorer.
Kör REORG TABLE TABLE APPLY (PURGE) för att skapa en version av tabellen utan borttagningsvektorer. Kör sedan kommandot "GENERATE" igen.
Kontrollera att inga samtidiga transaktioner lägger till borttagningsvektorer igen mellan REORG och GENERATE.
Om du behöver generera manifest regelbundet, eller om du inte kan förhindra samtidiga transaktioner, kan du inaktivera borttagningsvektorer i den här tabellen med hjälp av "ALTER TABLE SET TBLPROPERTIES (delta.enableDeletionVectors = false)".
DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT
Invarianter på andra kapslade fält än StructTypes stöds inte.
DELTA_UNSUPPORTED_IN_SUBQUERY
I underfrågor stöds inte i villkoret <operation>
.
DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX
listKeywithPrefix är inte tillgängligt
DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING
Manifestgenerering stöds inte för tabeller som använder kolumnmappning, eftersom externa läsare inte kan läsa deltatabellerna. Mer information finns i Delta-dokumentationen.
DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC
MERGE INTO-åtgärder med schemautveckling stöder för närvarande inte att skriva CDC-utdata.
DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE
Flera kolumner i predikat stöds inte i villkoret <operation>
.
DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER
Det går för närvarande inte att skapa ett bloom filer-index i en kapslad kolumn: <columnName>
DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION
Kapslat fält stöds inte i <operation>
(fältet = <fieldName>
).
DELTA_UNSUPPORTED_NON_EMPTY_CLONE
Klonmåltabellen är inte tom. Trunkera eller ta bort från tabellen innan du kör CLONE.
DELTA_UNSUPPORTED_OUTPUT_MODE
Datakällan <dataSource>
stöder <mode>
inte utdataläge
DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER
Det går inte att skapa ett bloom-filterindex i en partitioneringskolumn: <columnName>
DELTA_UNSUPPORTED_RENAME_COLUMN
Kolumnbyte stöds inte för deltatabellen. <advice>
DELTA_UNSUPPORTED_SCHEMA_DURING_READ
Delta har inte stöd för att ange schemat vid lästid.
DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES
SORTED BY stöds inte för Delta-bucketade tabeller
DELTA_UNSUPPORTED_SOURCE
<operation>
destination stöder endast Delta-källor.
<plan>
DELTA_UNSUPPORTED_STATIC_PARTITIONS
Det går för närvarande inte att ange statiska partitioner i partitionsspecifikationen under infogningar
DELTA_UNSUPPORTED_STRATEGY_NAME
Strateginamn som inte stöds: <strategy>
DELTA_UNSUPPORTED_SUBQUERY
Underfrågor stöds inte i <operation>
(villkoret = <cond>
).
DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES
Underfrågor stöds inte i partitionspredikat.
DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS
Det går inte att ange tidsresor i flera format.
DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS
Det går inte att tidsföra resevyer, underfrågor, strömmar eller ändra dataflödesfrågor.
DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES
Trunkera exempeltabeller stöds inte
DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA
Det gick inte att använda den här tabellen eftersom en typändring som inte stöds tillämpades. Fältet <fieldName>
ändrades från <fromType>
till <toType>
.
DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION
Ange bassökvägen (<baseDeltaPath>
) när du dammsuger Delta-tabeller. Det finns för närvarande inte stöd för att dammsuga specifika partitioner.
DELTA_UNSUPPORTED_WRITES_STAGED_TABLE
Tabellimplementering stöder inte skrivningar: <tableName>
DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR
Du försöker utföra skrivningar i en tabell som har registrerats med incheckningskoordinatorn <coordinatorName>
. Ingen implementering av den här koordinatorn är dock tillgänglig i den aktuella miljön och skrivningar utan koordinatorer tillåts inte.
DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES
Skriv till exempeltabeller stöds inte
DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION
Det går inte att casta <fromCatalog>
till <toCatalog>
. Alla kapslade kolumner måste matcha.
DELTA_VACUUM_COPY_INTO_STATE_FAILED
VACUUM på datafiler lyckades, men COPY INTO state garbage collection misslyckades.
DELTA_VERSIONS_NOT_CONTIGUOUS
Versioner (<versionList>
) är inte sammanhängande.
Mer information finns i DELTA_VERSIONS_NOT_CONTIGUOUS
DELTA_VIOLATE_CONSTRAINT_WITH_VALUES
CHECK-begränsningen <constraintName>
<expression>
överträds av rad med värden:
<values>
DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
Verifieringen av tabellens <table>
egenskaper har brutits:
Mer information finns i DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED
<viewIdentifier>
är en vy. Du kanske inte skriver data i en vy.
DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST
Kolumnen <columnName>
Z-Ordering finns inte i dataschemat.
DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS
Z-beställning på <cols>
kommer att
ineffektivt eftersom vi för närvarande inte samlar in statistik för dessa kolumner. I avsnittet
<link>
för mer information om datahopp och z-beställning. Du kan inaktivera
den här kontrollen genom att ange
%%sql set <zorderColStatKey>
= false
DELTA_ZORDERING_ON_PARTITION_COLUMN
<colName>
är en partitionskolumn. Z-beställning kan endast utföras på datakolumner
Autoloader
CF_ADD_NEW_NOT_SUPPORTED
Schemautvecklingsläget <addNewColumnsMode>
stöds inte när schemat har angetts. Om du vill använda det här läget kan du ange schemat i cloudFiles.schemaHints
stället.
CF_AMBIGUOUS_AUTH_OPTIONS_ERROR
Hittade autentiseringsalternativ för meddelandeinstallation för katalogen (standard)
listningsläge:
<options>
Om du vill använda filmeddelandeläget anger du uttryckligen:
.option("cloudFiles.<useNotificationsKey>
", "true")
Alternativt, om du vill hoppa över valideringen av dina alternativ och ignorera dessa
autentiseringsalternativ kan du ange:
.option("cloudFiles.ValidateOptionsKey>", "false")
CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR
Inkrementellt listningsläge (cloudFiles.<useIncrementalListingKey>
)
och filavisering (cloudFiles.<useNotificationsKey>
)
har aktiverats samtidigt.
Kontrollera att du bara väljer en.
CF_AZURE_STORAGE_SUFFIXES_REQUIRED
Kräv adlsBlobSuffix och adlsDfsSuffix för Azure
CF_BUCKET_MISMATCH
I <storeType>
filhändelsen <fileEvent>
skiljer sig från källans förväntade: <source>
.
CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY
Det går inte att utveckla schemat när schemaloggen är tom. Plats för schemalogg: <logPath>
CF_CANNOT_PARSE_QUEUE_MESSAGE
Det går inte att parsa följande kömeddelande: <message>
CF_CANNOT_RESOLVE_CONTAINER_NAME
Det går inte att matcha containernamnet från sökvägen: <path>
, Löst URI: <uri>
CF_CANNOT_RUN_DIRECTORY_LISTING
Det går inte att köra kataloglistan när det finns en asynkron återfyllnadstråd som körs
CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON
Det går inte att aktivera cloudFiles.cleanSource och cloudFiles.allowOverwrites på samma gång.
CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
Autoinläsaren kan inte ta bort bearbetade filer eftersom den inte har skrivbehörighet till källkatalogen.
<reason>
För att åtgärda kan du antingen:
- Bevilja skrivbehörighet till källkatalogen ELLER
- Ställ in cleanSource på "OFF"
Du kan också avblockera strömmen genom att ställa in SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors till "true".
CF_DUPLICATE_COLUMN_IN_DATA
Det uppstod ett fel när du försökte härleda partitionsschemat för tabellen. Du har samma kolumn duplicerad i dina data- och partitionssökvägar. Om du vill ignorera partitionsvärdet anger du partitionskolumnerna explicit med hjälp av: .option("cloudFiles.<partitionColumnsKey>
", "{comma-separated-list}")
CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE
Det går inte att härleda schemat när indatasökvägen <path>
är tom. Försök att starta strömmen när det finns filer i indatasökvägen eller ange schemat.
CF_EVENT_GRID_AUTH_ERROR
Det gick inte att skapa en Event Grid-prenumeration. Kontrollera att din tjänst
principal har <permissionType>
Event Grid-prenumerationer. Mer information finns på:
<docLink>
CF_EVENT_GRID_CREATION_FAILED
Det gick inte att skapa en event grid-prenumeration. Kontrollera att Microsoft.EventGrid är
registrerad som resursprovider i din prenumeration. Mer information finns på:
<docLink>
CF_EVENT_GRID_NOT_FOUND_ERROR
Det gick inte att skapa en Event Grid-prenumeration. Kontrollera att lagringen
konto (<storageAccount>
) finns under resursgruppen (<resourceGroup>
) och att
lagringskontot är ett "StorageV2(generell användning v2)"-konto. Mer information finns på:
<docLink>
CF_EVENT_NOTIFICATION_NOT_SUPPORTED
Händelsemeddelandeläget för automatisk inläsning stöds inte för <cloudStore>
.
CF_FAILED_TO_CHECK_STREAM_NEW
Det gick inte att kontrollera om strömmen är ny
CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION
Det gick inte att skapa prenumerationen: <subscriptionName>
. Det finns redan en prenumeration med samma namn och är associerad med ett annat ämne: <otherTopicName>
. Det önskade ämnet är <proposedTopicName>
. Ta antingen bort den befintliga prenumerationen eller skapa en prenumeration med ett nytt resurssuffix.
CF_FAILED_TO_CREATED_PUBSUB_TOPIC
Det gick inte att skapa ämnet: <topicName>
. Det finns redan ett ämne med samma namn.<reason>
Ta bort det befintliga ämnet eller försök igen med ett annat resurssuffix
CF_FAILED_TO_DELETE_GCP_NOTIFICATION
Det gick inte att ta bort meddelandet med ID <notificationId>
i bucketen <bucketName>
för ämnet <topicName>
. Försök igen eller ta bort meddelandet manuellt via GCP-konsolen.
CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA
Det gick inte att deserialisera kvarstående schema från strängen: '<jsonSchema>
'
CF_FAILED_TO_EVOLVE_SCHEMA
Det går inte att utveckla schemat utan en schemalogg.
CF_FAILED_TO_FIND_PROVIDER
Det gick inte att hitta providern för <fileFormatInput>
CF_FAILED_TO_INFER_SCHEMA
Det gick inte att härleda schema för format <fileFormatInput>
från befintliga filer i indatasökvägen <path>
.
Mer information finns i CF_FAILED_TO_INFER_SCHEMA
CF_FAILED_TO_WRITE_TO_SCHEMA_LOG
Det gick inte att skriva till schemaloggen på platsen <path>
.
CF_FILE_FORMAT_REQUIRED
Det gick inte att hitta det alternativ som krävs: cloudFiles.format.
CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS
Hittade flera (<num>
) prenumerationer med prefixet Auto Loader för ämnet <topicName>
:
<subscriptionList>
Det bör bara finnas en prenumeration per ämne. Kontrollera manuellt att ämnet inte har flera prenumerationer.
CF_GCP_AUTHENTICATION
Ange antingen följande: <clientEmail>
, <client>
,
<privateKey>
, och <privateKeyId>
eller ange ingen av dem för att använda standardinställningen
Leverantörskedjan för GCP-autentiseringsuppgifter för autentisering med GCP-resurser.
CF_GCP_LABELS_COUNT_EXCEEDED
Tog emot för många etiketter (<num>
) för GCP-resursen. Det maximala antalet etiketter per resurs är <maxNum>
.
CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED
Tog emot för många resurstaggar (<num>
) för GCP-resursen. Det maximala antalet resurstaggar per resurs är <maxNum>
, eftersom resurstaggar lagras som GCP-etiketter på resurser, och Databricks-specifika taggar använder en del av den här etikettkvoten.
CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG
Ofullständig loggfil i schemaloggen vid sökvägen <path>
CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT
Ofullständig metadatafil i kontrollpunkten för automatisk inläsning
CF_INCORRECT_SQL_PARAMS
Metoden cloud_files accepterar två obligatoriska strängparametrar: sökvägen som ska läsas in från och filformatet. Filläsaralternativ måste anges i en strängnyckel/värde-karta. t.ex. cloud_files("path", "json", map("option1", "value1")). Mottaget: <params>
CF_INTERNAL_ERROR
Internt fel.
Mer information finns i CF_INTERNAL_ERROR
CF_INVALID_ARN
Ogiltig ARN: <arn>
CF_INVALID_AZURE_CERTIFICATE
Den privata nyckel som tillhandahålls med alternativet cloudFiles.certificate kan inte parsas. Ange en giltig offentlig nyckel i PEM-format.
CF_INVALID_AZURE_CERT_PRIVATE_KEY
Den privata nyckeln som medföljer alternativet cloudFiles.certificatePrivateKey kan inte parsas. Ange en giltig privat nyckel i PEM-format.
CF_INVALID_CHECKPOINT
Den här kontrollpunkten är inte en giltig CloudFiles-källa
CF_INVALID_CLEAN_SOURCE_MODE
Ogiltigt läge för alternativet <value>
Ren källa .
CF_INVALID_GCP_RESOURCE_TAG_KEY
Ogiltig resurstaggnyckel för GCP-resurs: <key>
. Nycklarna måste börja med en gemen bokstav, vara mellan 1 och 63 tecken långa och innehålla endast gemener, siffror, understreck (_) och bindestreck (-).
CF_INVALID_GCP_RESOURCE_TAG_VALUE
Ogiltigt resurstaggsvärde för GCP-resurs: <value>
. Värdena måste vara mellan 0 och 63 tecken långa och får endast innehålla gemener, siffror, understreck (_) och bindestreck (-).
CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS
Automatisk inläsning stöder inte följande alternativ när det används med hanterade filhändelser:
<optionList>
Vi rekommenderar att du tar bort de här alternativen och sedan startar om strömmen.
CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
Ogiltigt svar från tjänsten för hanterade filhändelser. Kontakta Databricks-supporten om du vill ha hjälp.
Mer information finns i CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
CF_INVALID_SCHEMA_EVOLUTION_MODE
cloudFiles.<schemaEvolutionModeKey>
måste vara en av {
"<addNewColumns>
"
"<failOnNewColumns>
"
"<rescue>
"
"<noEvolution>
"}
CF_INVALID_SCHEMA_HINTS_OPTION
Schematips kan bara ange en viss kolumn en gång.
I det här fallet omdefinierar du kolumnen: <columnName>
flera gånger i schemaHints:
<schemaHints>
CF_INVALID_SCHEMA_HINT_COLUMN
Schematips kan inte användas för att åsidosätta kartors och matrisernas kapslade typer.
Kolumn i konflikt: <columnName>
CF_LATEST_OFFSET_READ_LIMIT_REQUIRED
latestOffset ska anropas med en ReadLimit på den här källan.
CF_LOG_FILE_MALFORMED
Loggfilen var felaktigt formaterad: det gick inte att läsa rätt loggversion från <fileName>
.
CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS
Du har begärt att autoinläsaren ska ignorera befintliga filer på din externa plats genom att ange inkluderaExistingFiles till false. Tjänsten för hanterade filhändelser identifierar dock fortfarande befintliga filer på din externa plats. Försök igen när hanterade filhändelser har slutfört identifieringen av alla filer på den externa platsen.
CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND
Du använder Auto Loader med hanterade filhändelser, men det verkar som om den externa platsen för din indatasökväg<path>
inte har filhändelser aktiverade eller att indatasökvägen är ogiltig. Be Databricks-administratören att aktivera filhändelser på den externa platsen för din indatasökväg.
CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED
Du använder automatisk inläsning med hanterade filhändelser, men du har inte åtkomst till den externa platsen eller volymen för indatasökvägen eller<path>
indatasökvägen är ogiltig. Be Databricks-administratören att bevilja läsbehörighet för den externa platsen eller volymen eller ange en giltig indatasökväg på en befintlig extern plats eller volym.
CF_MANAGED_FILE_EVENTS_ONLY_ON_SERVERLESS
Automatisk inläsning med hanterade filhändelser är endast tillgängligt på Databricks serverlös. Om du vill fortsätta flyttar du den här arbetsbelastningen till Databricks serverlös eller inaktiverar alternativet cloudFiles.useManagedFileEvents.
CF_MAX_MUST_BE_POSITIVE
max måste vara positivt
CF_METADATA_FILE_CONCURRENTLY_USED
Flera direktuppspelningsfrågor använder samtidigt <metadataFile>
CF_MISSING_METADATA_FILE_ERROR
Metadatafilen i kontrollpunktskatalogen för strömmande källa saknas. Dessa metadata
filen innehåller viktiga standardalternativ för strömmen, så att strömmen inte kan startas om
Nu. Kontakta Databricks-supporten om du vill ha hjälp.
CF_MISSING_PARTITION_COLUMN_ERROR
Partitionskolumnen <columnName>
finns inte i det angivna schemat:
<schema>
CF_MISSING_SCHEMA_IN_PATHLESS_MODE
Ange ett schema med .schema() om en sökväg inte tillhandahålls till CloudFiles-källan när du använder filmeddelandeläget. Du kan också ange en bassökväg i .load() om du vill att autoinläsaren ska kunna härleda schemat.
CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC
Hittade befintliga meddelanden för ämnet <topicName>
i bucket <bucketName>
:
notification,id
<notificationList>
Om du vill undvika att förorena prenumeranten med oavsiktliga händelser tar du bort ovanstående meddelanden och försöker igen.
CF_NEW_PARTITION_ERROR
Nya partitionskolumner härleddes från dina filer: [<filesList>
]. Ange alla partitionskolumner i schemat eller ange en lista över partitionskolumner som du vill extrahera värden för med hjälp av: .option("cloudFiles.partitionColumns", "{comma-separated-list|empty-string}")
CF_PARTITON_INFERENCE_ERROR
Det uppstod ett fel när partitionsschemat skulle härledas för den aktuella filbatchen. Ange partitionskolumnerna explicit med hjälp av: .option("cloudFiles.<partitionColumnOption>
", "{comma-separated-list}")
CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES
Det går inte att läsa filer när indatasökvägen <path>
inte finns. Kontrollera att indatasökvägen finns och försök igen.
CF_PERIODIC_BACKFILL_NOT_SUPPORTED
Periodisk återfyllnad stöds inte om asynkron återfyllnad är inaktiverad. Du kan aktivera asynkron återfyllnad/kataloglista genom att ange spark.databricks.cloudFiles.asyncDirListing
true
CF_PREFIX_MISMATCH
Hittade en felaktig händelse: nyckeln <key>
har inte prefixet: <prefix>
CF_PROTOCOL_MISMATCH
<message>
Om du inte behöver göra några andra ändringar i koden anger du SQL
configuration: '<sourceProtocolVersionKey>
= <value>
'
för att återuppta strömmen. Se:
<docLink>
för mer information.
CF_REGION_NOT_FOUND_ERROR
Det gick inte att hämta standard-AWS-regionen. Ange en region med alternativet cloudFiles.region.
CF_RESOURCE_SUFFIX_EMPTY
Det gick inte att skapa meddelandetjänster: resurssuffixet får inte vara tomt.
CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS
Det gick inte att skapa meddelandetjänster: resurssuffixet kan bara innehålla alfanumeriska tecken, bindestreck (-) och understreck (_).
CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE
Det gick inte att skapa meddelandetjänster: resurssuffixet kan bara ha gemener, siffror och bindestreck (-).
CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP
Det gick inte att skapa meddelandetjänster: resurssuffixet kan bara innehålla alfanumeriska tecken, bindestreck (-), understreck (_), punkter (.), tildes (~) plus tecken (+) och procenttecken (<percentSign>
).
CF_RESOURCE_SUFFIX_LIMIT
Det gick inte att skapa meddelandetjänster: resurssuffixet får inte innehålla fler än <limit>
tecken.
CF_RESOURCE_SUFFIX_LIMIT_GCP
Det gick inte att skapa meddelandetjänster: resurssuffixet måste vara mellan <lowerLimit>
och <upperLimit>
tecken.
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY
Hittade begränsad GCP-resurstaggnyckel (<key>
). Följande GCP-resurstaggnycklar är begränsade för automatisk inläsning: [<restrictedKeys>
]
CF_RETENTION_GREATER_THAN_MAX_FILE_AGE
cloudFiles.cleanSource.retentionDuration får inte vara större än cloudFiles.maxFileAge.
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
Det gick inte att skapa ett meddelande för ämnet: <topic>
med prefixet : <prefix>
. Det finns redan ett ämne med samma namn med ett annat prefix: <oldPrefix>
. Prova att använda ett annat resurssuffix för att konfigurera eller ta bort den befintliga installationen.
CF_SOURCE_DIRECTORY_PATH_REQUIRED
Ange källkatalogsökvägen med alternativet path
CF_SOURCE_UNSUPPORTED
Molnfilernas källa stöder endast sökvägarna S3, Azure Blob Storage (wasb/wasbs) och Azure Data Lake Gen1 (adl) och Gen2 (abfs/abfss) just nu. path: '<path>
', löst uri: '<uri>
'
CF_STATE_INCORRECT_SQL_PARAMS
Funktionen cloud_files_state accepterar en strängparameter som representerar kontrollpunktskatalogen för en cloudFiles-dataström eller en tabell med flera delarName som identifierar en strömmande tabell och en valfri andra heltalsparameter som representerar kontrollpunktsversionen att läsa in tillstånd för. Den andra parametern kan också vara "senaste" för att läsa den senaste kontrollpunkten. Mottaget: <params>
CF_STATE_INVALID_CHECKPOINT_PATH
Sökvägen <path>
till kontrollpunkten för indata är ogiltig. Sökvägen finns inte eller så finns det inga cloud_files källor hittades.
CF_STATE_INVALID_VERSION
Den angivna versionen <version>
finns inte eller togs bort under analysen.
CF_THREAD_IS_DEAD
<threadName>
tråden är död.
CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION
Det går inte att härleda dataströmkontrollpunktens plats från källans kontrollpunktsplats: <checkPointLocation>
CF_UNABLE_TO_DETECT_FILE_FORMAT
Det gick inte att identifiera källfilformatet från <fileSize>
exempelfilerna och hittade <formats>
. Ange formatet.
CF_UNABLE_TO_EXTRACT_BUCKET_INFO
Det går inte att extrahera bucketinformation. Sökväg: '<path>
', löst uri: '<uri>
'.
CF_UNABLE_TO_EXTRACT_KEY_INFO
Det går inte att extrahera nyckelinformation. Sökväg: '<path>
', löst uri: '<uri>
'.
CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO
Det går inte att extrahera information om lagringskontot. path: '<path>
', löst uri: '<uri>
'
CF_UNABLE_TO_LIST_EFFICIENTLY
Tog emot en katalogbyteshändelse för sökvägen <path>
, men vi kan inte lista den här katalogen effektivt. För att strömmen ska fortsätta ställer du in alternativet "cloudFiles.ignoreDirRenames" på true och överväger att aktivera regelbundna återfyllnad med cloudFiles.backfillInterval för att dessa data ska bearbetas.
CF_UNEXPECTED_READ_LIMIT
Oväntad ReadLimit: <readLimit>
CF_UNKNOWN_OPTION_KEYS_ERROR
Okända alternativnycklar hittades:
<optionList>
Kontrollera att alla angivna alternativnycklar är korrekta. Om du vill hoppa över
validering av dina alternativ och ignorera dessa okända alternativ kan du ange:
.option("cloudFiles.<validateOptions>
", "false")
CF_UNKNOWN_READ_LIMIT
Okänd ReadLimit: <readLimit>
CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION
SQL-funktionen "cloud_files" för att skapa en direktuppspelningskälla för automatisk inläsning stöds endast i en Delta Live Tables-pipeline. Mer information finns på:
<docLink>
CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE
Schemainferens stöds inte för format: <format>
. Ange schemat.
CF_UNSUPPORTED_LOG_VERSION
LogVersion stöds inte: den maximala loggversionen som stöds är v<maxVersion>``, but encountered v``<version>
. Loggfilen producerades av en nyare version av DBR och kan inte läsas av den här versionen. Uppgradera.
CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE
Schemautvecklingsläge <mode>
stöds inte för format: <format>
. Ange schemats utvecklingsläge till "none".
CF_USE_DELTA_FORMAT
Läsning från en Delta-tabell stöds inte med den här syntaxen. Om du vill använda data från Delta kan du läsa dokumenten: läsa en Delta-tabell (<deltaDocLink>
) eller läsa en Delta-tabell som en dataströmkälla (<streamDeltaDocLink>
). Strömningskällan från Delta är redan optimerad för inkrementell dataförbrukning.
Geospatial
EWKB_PARSE_ERROR
Fel vid parsning av EWKB: <parseError>
vid position <pos>
GEOJSON_PARSE_ERROR
Fel vid parsning av GeoJSON: <parseError>
vid position <pos>
Mer information finns i GEOJSON_PARSE_ERROR
H3_INVALID_CELL_ID
<h3Cell>
är inte ett giltigt H3-cell-ID
Mer information finns i H3_INVALID_CELL_ID
H3_INVALID_GRID_DISTANCE_VALUE
H3-rutnätsavståndet <k>
måste vara icke-negativt
Mer information finns i H3_INVALID_GRID_DISTANCE_VALUE
H3_INVALID_RESOLUTION_VALUE
H3-upplösningen <r>
måste vara mellan <minR>
och <maxR>
, inkluderande
Mer information finns i H3_INVALID_RESOLUTION_VALUE
H3_NOT_ENABLED
<h3Expression>
är inaktiverad eller stöds inte. Överväg att aktivera Photon eller växla till en nivå som stöder H3-uttryck
Mer information finns i H3_NOT_ENABLED
H3_PENTAGON_ENCOUNTERED_ERROR
En pentagon påträffades vid beräkning av hexringen med <h3Cell>
rutnätsavstånd <k>
H3_UNDEFINED_GRID_DISTANCE
H3-rutnätsavståndet mellan <h3Cell1>
och <h3Cell2>
är odefinierat
ST_DIFFERENT_SRID_VALUES
Argument till måste<sqlFunction>
ha samma SRID-värde. SRID-värden hittades: <srid1>
, <srid2>
ST_INVALID_ARGUMENT
"<sqlFunction>
": <reason>
ST_INVALID_ARGUMENT_TYPE
Argumentet till måste<sqlFunction>
vara av typen <validTypes>
ST_INVALID_CRS_TRANSFORMATION_ERROR
<sqlFunction>
: Ogiltig eller crs-transformering som inte stöds från SRID <srcSrid>
till SRID <trgSrid>
ST_INVALID_ENDIANNESS_VALUE
Endianness <e>
måste vara "NDR" (little-endian) eller "XDR" (big-endian)
ST_INVALID_GEOHASH_VALUE
<sqlFunction>
: Ogiltigt geohashvärde: '<geohash>
'. Geohash-värden måste vara giltiga base32-strängar med gemener enligt beskrivningen ihttps://en.wikipedia.org/wiki/Geohash#Textual_representation
ST_INVALID_PRECISION_VALUE
Precisionen <p>
måste vara mellan <minP>
och <maxP>
, inkluderande
ST_INVALID_SRID_VALUE
Ogiltigt eller SRID som inte stöds <srid>
ST_NOT_ENABLED
<stExpression>
är inaktiverad eller stöds inte. Överväg att aktivera Photon eller växla till en nivå som stöder ST-uttryck
ST_UNSUPPORTED_RETURN_TYPE
Datatyperna GEOGRAPHY och GEOMETRY kan inte returneras i frågor. Använd något av följande SQL-uttryck för att konvertera dem till standardformat för utbyte: <projectionExprs>
.
WKB_PARSE_ERROR
Fel vid parsning av WKB: <parseError>
vid position <pos>
Mer information finns i WKB_PARSE_ERROR
WKT_PARSE_ERROR
Fel vid parsning av WKT: <parseError>
vid position <pos>
Mer information finns i WKT_PARSE_ERROR