Foutklassen in Azure Databricks
Van toepassing op: Databricks SQL Databricks Runtime 12.2 en hoger
Foutklassen zijn beschrijvende, door mensen leesbare tekenreeksen die uniek zijn voor de foutvoorwaarde.
U kunt foutklassen gebruiken om fouten in uw toepassing programmatisch te verwerken zonder dat u het foutbericht hoeft te parseren.
Dit is een lijst met veelvoorkomende, benoemde foutvoorwaarden die worden geretourneerd door Azure Databricks.
Databricks Runtime en Databricks SQL
AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION
Niet-deterministische expressie <sqlExpr>
mag niet worden weergegeven in de argumenten van een statistische functie.
AI_FUNCTION_HTTP_PARSE_CAST_ERROR
Kan modeluitvoer niet parseren bij het casten naar het opgegeven returnType: "<dataType>
", antwoord JSON was: "<responseString>
". Werk het returnType bij zodat deze overeenkomt met de inhoud van het type dat wordt vertegenwoordigd door de antwoord-JSON en voer de query opnieuw uit.
AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR
De werkelijke modeluitvoer heeft meer dan één kolom '<responseString>
'. Het opgegeven retourtype[""<dataType>
] heeft echter slechts één kolom. Werk het returnType bij met hetzelfde aantal kolommen als de modeluitvoer en voer de query opnieuw uit.
AI_FUNCTION_HTTP_REQUEST_ERROR
Er is een fout opgetreden bij het maken van een HTTP-aanvraag voor de functie <funcName>
: <errorMessage>
AI_FUNCTION_INVALID_HTTP_RESPONSE
Ongeldig HTTP-antwoord voor functie <funcName>
: <errorMessage>
AI_FUNCTION_INVALID_MAX_WORDS
Het maximum aantal woorden moet een niet-negatief geheel getal zijn, maar wel .<maxWords>
AI_FUNCTION_INVALID_MODEL_PARAMETERS
De opgegeven modelparameters (<modelParameters>
) zijn ongeldig in de AI_QUERY-functie voor het leveren van eindpunt '<endpointName>
'.
Zie AI_FUNCTION_INVALID_MODEL_PARAMETERS voor meer informatie
AI_FUNCTION_JSON_PARSE_ERROR
Er is een fout opgetreden tijdens het parseren van het JSON-antwoord voor de functie <funcName>
: <errorMessage>
AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR
Kan het schema voor het servereindpunt niet parseren :<endpointName>
", <errorMessage>
antwoord-JSON was: "<responseJson>
".
Stel de returnType
parameter handmatig in de AI_QUERY-functie in om schemaresolutie te overschrijven.
AI_FUNCTION_UNSUPPORTED_ERROR
De functie <funcName>
wordt niet ondersteund in de huidige omgeving. Het is alleen beschikbaar in Databricks SQL Pro en serverloos.
AI_FUNCTION_UNSUPPORTED_REQUEST
Kan de SQL-functie '<functionName>
' niet evalueren omdat het opgegeven argument <invalidValue>
'<invalidDataType>
' heeft, maar alleen de volgende typen worden ondersteund: <supportedDataTypes>
Werk de functieaanroep bij om een argument van het tekenreekstype op te geven en voer de query opnieuw uit.
AI_FUNCTION_UNSUPPORTED_RETURN_TYPE
AI-functie: '<functionName>
' biedt geen ondersteuning voor het volgende type als retourtype: '<typeName>
'. Het retourtype moet een geldig SQL-type zijn dat wordt begrepen door Catalyst en wordt ondersteund door de AI-functie. De huidige ondersteunde typen omvatten: <supportedValues>
AI_INVALID_ARGUMENT_VALUE_ERROR
De opgegeven waarde '<argValue>
' wordt niet ondersteund door het argument '<argName>
'. Ondersteunde waarden zijn: <supportedValues>
AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH
Opgegeven '<sqlExpr>
' wordt niet ondersteund door het argument returnType.
AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR
Vector Search met het insluiten van kolomtype <embeddingColumnType>
wordt niet ondersteund.
AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR
Vector Search met indextype <indexType>
wordt niet ondersteund.
AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR
Fout bij het materialiseren van vectorzoekquery van spark-type <dataType>
naar scalaeigen objecten tijdens het coderen van aanvragen met de volgende fout: <errorMessage>
AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR
Vector Search met num_results groter dan <maxLimit>
wordt niet ondersteund. De opgegeven limiet was <requestedLimit>
. Probeer het opnieuw met num_results <= <maxLimit>
ALL_PARAMETERS_MUST_BE_NAMED
Voor het gebruik van naamparameterquery's moeten alle parameters worden benoemd. Parameters ontbrekende namen: <exprs>
.
ALL_PARTITION_COLUMNS_NOT_ALLOWED
Kan niet alle kolommen gebruiken voor partitiekolommen.
ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
De kolom <columnName>
ALTER TABLE <type>
geeft descriptor '<optionName>
' meer dan één keer op, wat ongeldig is.
AMBIGUOUS_ALIAS_IN_NESTED_CTE
De naam <name>
is dubbelzinnig in geneste CTE.
Stel deze optie in <config>
op 'CORRECTED', zodat de naam die is gedefinieerd in de binnenste CTE voorrang krijgt. Als deze is ingesteld op 'VEROUDERD', hebben buitenste CTE-definities voorrang.
Zie https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine'.
AMBIGUOUS_COLUMN_OR_FIELD
Kolom of veld <name>
is dubbelzinnig en heeft <n>
overeenkomsten.
AMBIGUOUS_COLUMN_REFERENCE
Kolom <name>
is dubbelzinnig. Dit komt doordat u meerdere DataFrames hebt samengevoegd en sommige van deze DataFrames hetzelfde zijn.
Deze kolom verwijst naar een van de DataFrames, maar Spark kan niet achterhalen welke.
Alias de DataFrames met verschillende namen via DataFrame.alias
voordat u ze koppelt,
en geef de kolom op met gekwalificeerde naam, bijvoorbeeld df.alias("a").join(df.alias("b"), col("a.id") > col("b.id"))
.
AMBIGUOUS_CONSTRAINT
Dubbelzinnige verwijzing naar beperking <constraint>
.
AMBIGUOUS_LATERAL_COLUMN_ALIAS
Laterale kolomalias <name>
is dubbelzinnig en heeft <n>
overeenkomsten.
AMBIGUOUS_REFERENCE
Verwijzing <name>
is dubbelzinnig, kan zijn: <referenceNames>
.
AMBIGUOUS_REFERENCE_TO_FIELDS
Dubbelzinnige verwijzing naar het veld <field>
. Het wordt tijden weergegeven <count>
in het schema.
ANALYZE_CONSTRAINTS_NOT_SUPPORTED
ANALYZE CONSTRAINTS wordt niet ondersteund.
ANSI_CONFIG_CANNOT_BE_DISABLED
De ANSI SQL-configuratie <config>
kan niet worden uitgeschakeld in dit product.
AQE_THREAD_INTERRUPTED
AQE-thread wordt onderbroken, waarschijnlijk vanwege annulering van query's door de gebruiker.
ARGUMENT_NOT_CONSTANT
De functie <functionName>
bevat een parameter <parameterName>
op positie <pos>
waarvoor een constant argument is vereist. Bereken het argument <sqlExpr>
afzonderlijk en geef het resultaat door als een constante.
ARITHMETIC_OVERFLOW
<message>
.<alternative>
Stel indien nodig in <config>
op 'false' om deze fout te omzeilen.
Zie ARITHMETIC_OVERFLOW voor meer informatie
ASSIGNMENT_ARITY_MISMATCH
Het aantal kolommen of variabelen dat is toegewezen of een alias heeft: <numTarget>
komt niet overeen met het aantal bronexpressies: <numExpr>
.
AS_OF_JOIN
Ongeldige as-of-join.
Zie AS_OF_JOIN voor meer informatie
AVRO_DEFAULT_VALUES_UNSUPPORTED
Het gebruik van standaardwaarden wordt niet ondersteund wanneerrescuedDataColumn
deze is ingeschakeld. U kunt deze controle mogelijk verwijderen door deze instelling in te stellen spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue
op false, maar de standaardwaarden zijn niet van toepassing en null-waarden worden nog steeds gebruikt.
AVRO_INCOMPATIBLE_READ_TYPE
Kan Avro <avroPath>
niet converteren naar SQL <sqlPath>
omdat het oorspronkelijke gecodeerde gegevenstype is <avroType>
, maar u probeert het veld te lezen als <sqlType>
, wat zou leiden tot een onjuist antwoord.
Als u dit veld wilt lezen, schakelt u de SQL-configuratie in: 'spark.sql.legacy.avro.allowIncompatibleSchema'.
AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED
Het gebruik van positionele veldkoppeling wordt niet ondersteund wanneer of rescuedDataColumn
failOnUnknownFields
is ingeschakeld. Verwijder deze opties om door te gaan.
BATCH_METADATA_NOT_FOUND
Kan batch <batchMetadataFile>
niet vinden.
BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE
Referenties voor bigQuery-verbindingen moeten worden opgegeven met de parameter 'GoogleServiceAccountKeyJson' of alle 'projectId', 'OAuthServiceAcctEmail', 'OAuthPvtKey'
BINARY_ARITHMETIC_OVERFLOW
<value1>
<symbol>
<value2>
overloop veroorzaakt.
BOOLEAN_STATEMENT_WITH_EMPTY_ROW
Booleaanse instructie <invalidStatement>
is ongeldig. Er wordt één rij met een waarde van het BOOLEAN
type verwacht, maar er is een lege rij.
BUILT_IN_CATALOG
<operation>
biedt geen ondersteuning voor ingebouwde catalogi.
CALL_ON_STREAMING_DATASET_UNSUPPORTED
De methode <methodName>
kan niet worden aangeroepen voor streaminggegevensset/DataFrame.
CANNOT_ALTER_COLLATION_BUCKET_COLUMN
ALTER TABLE (ALTER|CHANGE) KOLOM kan de sortering van het type/subtypen van bucketkolommen niet wijzigen, maar de bucketkolom <columnName>
in de tabel <tableName>
is gevonden.
CANNOT_ALTER_PARTITION_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN wordt niet ondersteund voor partitiekolommen, maar de partitiekolom <columnName>
in de tabel <tableName>
is gevonden.
CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK
Watermerk moet worden gedefinieerd om de kolom gebeurtenistijd opnieuw toe te voegen. Kan de definitie van het watermerk niet vinden in de streamingquery.
CANNOT_CAST_DATATYPE
Kan niet casten <sourceType>
naar <targetType>
.
CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE
Kan Protobuf <protobufColumn>
niet converteren naar SQL <sqlColumn>
omdat het schema niet compatibel is (protobufType = <protobufType>
, sqlType = <sqlType>
).
CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE
Kan protobuf niet converteren <protobufType>
naar sql-type <toType>
.
CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE
Kan SQL <sqlColumn>
niet converteren naar Protobuf <protobufColumn>
omdat het schema niet compatibel is (protobufType = <protobufType>
, sqlType = <sqlType>
).
CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE
Kan SQL <sqlColumn>
niet converteren naar Protobuf <protobufColumn>
omdat <data>
deze zich niet in gedefinieerde waarden bevindt voor enum: <enumString>
.
CANNOT_COPY_STATE
Kan de catalogusstatus, zoals de huidige database en tijdelijke weergaven van Unity Catalog, niet kopiëren naar een verouderde catalogus.
CANNOT_CREATE_DATA_SOURCE_TABLE
Kan de gegevensbrontabel <tableName>
niet maken:
Zie CANNOT_CREATE_DATA_SOURCE_TABLE voor meer informatie
CANNOT_DECODE_URL
De opgegeven URL kan niet worden gedecodeerd: <url>
. Zorg ervoor dat de URL correct is opgemaakt en probeer het opnieuw.
CANNOT_DELETE_SYSTEM_OWNED
Systeemeigendom <resourceType>
kan niet worden verwijderd.
CANNOT_DROP_AMBIGUOUS_CONSTRAINT
Kan de beperking niet verwijderen met de naam <constraintName>
die wordt gedeeld door een CHECK-beperking
en een BEPERKING VOOR PRIMAIRE SLEUTEL of REFERERENDE SLEUTEL. U kunt de PRIMAIRE SLEUTEL verwijderen of
BEPERKING VAN REFERERENDE SLEUTEL op query's:
- ALTER TABLE .. PRIMAIRE SLEUTEL VERWIJDEREN OF
- ALTER TABLE .. DROP FOREIGN KEY ..
CANNOT_ESTABLISH_CONNECTION
Kan geen verbinding maken met externe <jdbcDialectName>
database. Controleer de verbindingsgegevens en referenties, zoals host, poort, gebruiker, wachtwoord en database. ** Als u denkt dat de informatie juist is, controleert u de netwerkconfiguratie van uw werkruimte en zorgt u ervoor dat deze geen uitgaande beperkingen heeft voor de host. Controleer ook of de host binnenkomende verbindingen vanuit het netwerk waar de Spark-clusters van de werkruimte zijn geïmplementeerd, niet blokkeert. ** Gedetailleerd foutbericht: <causeErrorMessage>
.
CANNOT_ESTABLISH_CONNECTION_SERVERLESS
Kan geen verbinding maken met externe <jdbcDialectName>
database. Controleer de verbindingsgegevens en referenties, zoals host, poort, gebruiker, wachtwoord en database. ** Als u denkt dat de informatie juist is, staat u binnenkomend verkeer van internet naar uw host toe, omdat u serverloze compute gebruikt. Als uw netwerkbeleid geen inkomend internetverkeer toestaat, gebruikt u niet Serverless Compute of neemt u contact op met uw Databricks-vertegenwoordiger voor meer informatie over serverloze privénetwerken. ** Gedetailleerd foutbericht: <causeErrorMessage>
.
CANNOT_INVOKE_IN_TRANSFORMATIONS
Gegevenssettransformaties en -acties kunnen alleen worden aangeroepen door het stuurprogramma, niet binnen andere gegevenssettransformaties; Dataset1.map(x => dataset2.values.count() * x) is bijvoorbeeld ongeldig omdat de transformatie van waarden en de actie Aantal niet kunnen worden uitgevoerd binnen de transformatie van de gegevensset1.map. Zie SPARK-28702 voor meer informatie.
CANNOT_LOAD_FUNCTION_CLASS
Kan klasse <className>
niet laden bij het registreren van de functie <functionName>
. Controleer of deze zich in het klassepad bevindt.
CANNOT_LOAD_PROTOBUF_CLASS
Kan protobuf-klasse met naam <protobufClassName>
niet laden. <explanation>
.
CANNOT_LOAD_STATE_STORE
Er is een fout opgetreden tijdens het laden.
Zie CANNOT_LOAD_STATE_STORE voor meer informatie
CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE
Het samenvoegen van niet-compatibele gegevenstypen <left>
en <right>
. Controleer de gegevenstypen van de kolommen die worden samengevoegd en zorg ervoor dat ze compatibel zijn. Overweeg indien nodig de kolommen naar compatibele gegevenstypen te casten voordat u de samenvoegbewerking probeert uit te voeren.
CANNOT_MERGE_SCHEMAS
Het samenvoegen van schema's is mislukt:
Eerste schema:
<left>
Schema dat niet kan worden samengevoegd met het oorspronkelijke schema:
<right>
.
CANNOT_MODIFY_CONFIG
Kan de waarde van de Spark-configuratie niet wijzigen: <key>
.
Zie ook https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements'.
CANNOT_PARSE_DECIMAL
Kan decimaal niet parseren. Zorg ervoor dat de invoer een geldig getal is met optionele decimaaltekens of kommascheidingstekens.
CANNOT_PARSE_INTERVAL
Kan niet parseren <intervalString>
. Zorg ervoor dat de opgegeven waarde een geldige indeling heeft voor het definiëren van een interval. U kunt naar de documentatie verwijzen voor de juiste indeling. Als het probleem zich blijft voordoen, controleert u of de invoerwaarde niet null of leeg is en probeert u het opnieuw.
CANNOT_PARSE_JSON_FIELD
Kan de veldnaam <fieldName>
en de waarde <fieldValue>
van het JSON-tokentype <jsonType>
niet parseren naar het Spark-gegevenstype <dataType>
.
CANNOT_PARSE_PROTOBUF_DESCRIPTOR
Fout bij het parseren van descriptorbytes in Protobuf FileDescriptorSet.
CANNOT_PARSE_TIMESTAMP
<message>
. Stel indien nodig in <ansiConfig>
op 'false' om deze fout te omzeilen.
CANNOT_QUERY_TABLE_DURING_INITIALIZATION
Kan tijdens de initialisatie geen query uitvoeren op MV/ST.
Zie CANNOT_QUERY_TABLE_DURING_INITIALIZATION voor meer informatie
CANNOT_READ_ARCHIVED_FILE
Kan het bestand niet lezen bij het pad <path>
omdat het is gearchiveerd. Pas uw queryfilters aan om gearchiveerde bestanden uit te sluiten.
CANNOT_READ_FILE
Kan bestand niet lezen <format>
op pad: <path>
.
Zie CANNOT_READ_FILE voor meer informatie
CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER
Kan gevoelige sleutel '<key>
' niet lezen van beveiligde provider.
CANNOT_RECOGNIZE_HIVE_TYPE
Kan tekenreeks van hive-type niet herkennen: <fieldType>
, kolom: <fieldName>
. Het opgegeven gegevenstype voor het veld kan niet worden herkend door Spark SQL. Controleer het gegevenstype van het opgegeven veld en controleer of het een geldig Spark SQL-gegevenstype is. Raadpleeg de Spark SQL-documentatie voor een lijst met geldige gegevenstypen en de bijbehorende indeling. Als het gegevenstype juist is, moet u ervoor zorgen dat u een ondersteunde versie van Spark SQL gebruikt.
CANNOT_REFERENCE_UC_IN_HMS
Kan niet verwijzen naar een Unity-catalogus <objType>
in Hive Metastore-objecten.
CANNOT_RENAME_ACROSS_CATALOG
Het wijzigen van de naam van een <type>
catalogus is niet toegestaan.
CANNOT_RENAME_ACROSS_SCHEMA
Het wijzigen van de naam van een <type>
ander schema is niet toegestaan.
CANNOT_RESOLVE_DATAFRAME_COLUMN
Kan de gegevensframekolom <name>
niet oplossen. Het komt waarschijnlijk door illegale verwijzingen zoals df1.select(df2.col("a"))
.
CANNOT_RESOLVE_STAR_EXPAND
Kan .* opgegeven invoerkolommen <columns>
niet oplossen<targetString>
. Controleer of de opgegeven tabel of struct bestaat en toegankelijk is in de invoerkolommen.
CANNOT_RESTORE_PERMISSIONS_FOR_PATH
Kan geen machtigingen instellen voor het gemaakte pad <path>
terug naar <permission>
.
CANNOT_SAVE_VARIANT
Kan het variantgegevenstype niet opslaan in externe opslag.
CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS
Kan tabellen niet ondiep klonen in Unity Catalog en Hive Metastore.
CANNOT_SHALLOW_CLONE_NESTED
Kan een tabel <table>
die al een ondiepe kloon is, niet ondiep klonen.
CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET
Ondiepe kloon wordt alleen ondersteund voor het type BEHEERDE tabel. De tabel <table>
is geen BEHEERDE tabel.
CANNOT_UPDATE_FIELD
Kan veldtype <fieldName>
niet bijwerken<table>
:
Zie CANNOT_UPDATE_FIELD voor meer informatie
CANNOT_UP_CAST_DATATYPE
Kan niet casten <expression>
van <sourceType>
naar <targetType>
.
<details>
CANNOT_VALIDATE_CONNECTION
Validatie van <jdbcDialectName>
verbinding wordt niet ondersteund. Neem contact op met databricks-ondersteuning voor alternatieve oplossingen of stel spark.databricks.testConnectionBeforeCreation in op false om verbindingstests over te slaan voordat u een verbindingsobject maakt.
CANNOT_WRITE_STATE_STORE
Fout bij het schrijven van statusopslagbestanden voor provider <providerClass>
.
Zie CANNOT_WRITE_STATE_STORE voor meer informatie
CAST_INVALID_INPUT
De waarde <expression>
van het type <sourceType>
kan niet worden omgezet <targetType>
omdat het ongeldig is. Corrigeer de waarde volgens de syntaxis of wijzig het doeltype. Gebruik try_cast
dit om ongeldige invoer te tolereren en in plaats daarvan NULL te retourneren.
Zie CAST_INVALID_INPUT voor meer informatie
CAST_OVERFLOW
De waarde <value>
van het type <sourceType>
kan niet worden omgezet <targetType>
vanwege een overloop. Gebruik try_cast
in plaats daarvan om overloop te tolereren en NULL te retourneren.
CAST_OVERFLOW_IN_TABLE_INSERT
Kan geen waarde van het <sourceType>
type toewijzen aan de <targetType>
typekolom of variabele <columnName>
vanwege een overloop. Gebruik try_cast
in plaats daarvan voor de invoerwaarde om overloop te tolereren en NULL te retourneren.
CATALOG_NOT_FOUND
De catalogus <catalogName>
is niet gevonden. Overweeg om de SQL-configuratie <config>
in te stellen op een catalogusinvoegtoepassing.
CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND
Controlepuntblok <rddBlockId>
niet gevonden!
De uitvoerder die deze partitie oorspronkelijk heeft gecontroleerd, is niet meer actief of de oorspronkelijke RDD is onbeheerd.
Als dit probleem zich blijft voordoen, kunt u overwegen in plaats daarvan te gebruiken rdd.checkpoint()
, wat langzamer is dan lokale controlepunten, maar meer fouttolerant.
CLASS_NOT_OVERRIDE_EXPECTED_METHOD
<className>
moet overschrijven <method1>
of <method2>
.
CLASS_UNSUPPORTED_BY_MAP_OBJECTS
MapObjects
biedt geen ondersteuning voor de klasse <cls>
als resulterende verzameling.
CLEANROOM_COMMANDS_NOT_SUPPORTED
Clean Room-opdrachten worden niet ondersteund
CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME
Ongeldige naam om naar een <type>
clean room te verwijzen. Gebruik een <type>
naam in de schone ruimte volgens de indeling [catalogus].[ schema]. [<type>
].
Als u niet zeker weet welke naam u moet gebruiken, kunt u 'ALLES WEERGEVEN IN CLEANROOM [clean_room]' uitvoeren en de waarde in de kolom 'naam' gebruiken.
CLOUD_FILE_SOURCE_FILE_NOT_FOUND
Er is een bestandsmelding ontvangen voor het bestand, <filePath>
maar deze bestaat niet meer. Zorg ervoor dat bestanden niet worden verwijderd voordat ze worden verwerkt. Als u uw stream wilt voortzetten, kunt u de Spark SQL-configuratie <config>
instellen op waar.
CLOUD_PROVIDER_ERROR
Fout in de cloudprovider: <message>
CLUSTERING_COLUMNS_MISMATCH
Opgegeven clustering komt niet overeen met die van de bestaande tabel <tableName>
.
Opgegeven clusteringkolommen: [<specifiedClusteringString>
].
Bestaande clusteringkolommen: [<existingClusteringString>
].
CLUSTERING_NOT_SUPPORTED
'<operation>
' biedt geen ondersteuning voor clustering.
CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED
Neem contact op met uw Databricks-vertegenwoordiger om de functie cluster-by-auto in te schakelen.
CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED
Schakel clusteringTable.enableClusteringTableFeature in om CLUSTER BY AUTO te gebruiken.
CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION
CLUSTER BY AUTO vereist dat Predictive Optimization is ingeschakeld.
CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR
CLUSTER BY AUTO wordt alleen ondersteund in DOOR UC beheerde tabellen.
CODEC_NOT_AVAILABLE
De codec <codecName>
is niet beschikbaar.
Zie CODEC_NOT_AVAILABLE voor meer informatie
CODEC_SHORT_NAME_NOT_FOUND
Kan geen korte naam voor de codec <codecName>
vinden.
COLLATION_INVALID_NAME
De waarde <collationName>
vertegenwoordigt geen juiste sorteringsnaam. Voorgestelde geldige sorteringsnamen: [<proposals>
].
COLLATION_INVALID_PROVIDER
De waarde <provider>
vertegenwoordigt geen juiste sorteringsprovider. Ondersteunde providers zijn: [<supportedProviders>
].
COLLATION_MISMATCH
Kan niet bepalen welke sortering moet worden gebruikt voor tekenreeksfuncties en operatoren.
Zie COLLATION_MISMATCH voor meer informatie
COLLECTION_SIZE_LIMIT_EXCEEDED
Kan geen matrix maken met <numberOfElements>
elementen die de limiet <maxRoundedArrayLength>
voor de matrixgrootte overschrijden,
Zie COLLECTION_SIZE_LIMIT_EXCEEDED voor meer informatie
COLUMN_ALIASES_NOT_ALLOWED
Kolomaliassen zijn niet toegestaan in <op>
.
COLUMN_ALREADY_EXISTS
De kolom <columnName>
bestaat al. Kies een andere naam of wijzig de naam van de bestaande kolom.
COLUMN_MASKS_CHECK_CONSTRAINT_UNSUPPORTED
Het maken van een CHECK-beperking voor een tabel <tableName>
met beleid voor kolommaskers wordt niet ondersteund.
COLUMN_MASKS_DUPLICATE_USING_COLUMN_NAME
Een <statementType>
instructie heeft geprobeerd een kolommaskerbeleid toe te wijzen aan een kolom met twee of meer andere kolommen waarnaar wordt verwezen in de lijst USING COLUMNS met dezelfde naam <columnName>
, die ongeldig is.
COLUMN_MASKS_FEATURE_NOT_SUPPORTED
Beleid voor kolommaskers <tableName>
wordt niet ondersteund:
Zie COLUMN_MASKS_FEATURE_NOT_SUPPORTED voor meer informatie
COLUMN_MASKS_INCOMPATIBLE_SCHEMA_CHANGE
Kan niet <statementType>
<columnName>
uit de tabel <tableName>
komen omdat er naar wordt verwezen in een kolommaskerbeleid voor kolom <maskedColumn>
. De eigenaar van de tabel moet dit beleid verwijderen of wijzigen voordat u doorgaat.
COLUMN_MASKS_MERGE_UNSUPPORTED_SOURCE
MERGE INTO-bewerkingen bieden geen ondersteuning voor beleid voor kolommaskers in de brontabel <tableName>
.
COLUMN_MASKS_MERGE_UNSUPPORTED_TARGET
MERGE INTO-bewerkingen bieden geen ondersteuning voor het schrijven naar een tabel <tableName>
met beleid voor kolommaskers.
COLUMN_MASKS_MULTI_PART_TARGET_COLUMN_NAME
Deze instructie heeft geprobeerd om een beleid voor kolommaskers toe te wijzen aan een kolom <columnName>
met meerdere naamonderdelen, wat ongeldig is.
COLUMN_MASKS_MULTI_PART_USING_COLUMN_NAME
Deze instructie heeft geprobeerd een beleid voor kolommaskers toe te wijzen aan een kolom en de lijst USING COLUMNS bevat de naam <columnName>
met meerdere naamonderdelen, wat ongeldig is.
COLUMN_MASKS_NOT_ENABLED
Ondersteuning voor het definiëren van kolommaskers is niet ingeschakeld
COLUMN_MASKS_REQUIRE_UNITY_CATALOG
Beleid voor kolommaskers wordt alleen ondersteund in Unity Catalog.
COLUMN_MASKS_TABLE_CLONE_SOURCE_NOT_SUPPORTED
<mode>
klonen van tabel <tableName>
met beleid voor kolommaskers wordt niet ondersteund.
COLUMN_MASKS_TABLE_CLONE_TARGET_NOT_SUPPORTED
<mode>
klonen naar tabel <tableName>
met beleid voor kolommaskers wordt niet ondersteund.
COLUMN_MASKS_UNSUPPORTED_CONSTANT_AS_PARAMETER
Het gebruik van een constante als parameter in een kolommaskerbeleid wordt niet ondersteund. Werk de SQL-opdracht bij om de constante uit de definitie van het kolommasker te verwijderen en voer de opdracht opnieuw uit.
COLUMN_MASKS_UNSUPPORTED_PROVIDER
Kan de opdracht niet uitvoeren <statementType>
omdat het toewijzen van beleid voor kolommaskers niet wordt ondersteund voor de doelgegevensbron met de tabelprovider: '<provider>
'.
COLUMN_MASKS_UNSUPPORTED_SUBQUERY
Kan niet uitvoeren <operation>
voor een tabel <tableName>
omdat deze een of meer beleidsregels voor kolommaskers bevat met subquery-expressies, die nog niet worden ondersteund. Neem contact op met de eigenaar van de tabel om het beleid voor kolommaskers bij te werken om door te gaan.
COLUMN_MASKS_USING_COLUMN_NAME_SAME_AS_TARGET_COLUMN
De kolom <columnName>
heeft dezelfde naam als de doelkolom, die ongeldig is. Verwijder de kolom uit de lijst USING COLUMNS en voer de opdracht opnieuw uit.
COLUMN_NOT_DEFINED_IN_TABLE
<colType>
kolom <colName>
is niet gedefinieerd in tabel <tableName>
, gedefinieerde tabelkolommen zijn: <tableCols>
.
COLUMN_NOT_FOUND
Kan de kolom <colName>
niet vinden. Controleer de spelling en juistheid van de kolomnaam volgens de SQL-configuratie <caseSensitiveConfig>
.
COMMA_PRECEDING_CONSTRAINT_ERROR
Onverwachte ',' vóór de definitie van een of meer beperkingen. Zorg ervoor dat de beperkingscomponent niet begint met een komma wanneer kolommen (en verwachtingen) niet zijn gedefinieerd.
COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET
De opdracht COMMENT ON CONNECTION is nog niet geïmplementeerd
COMPARATOR_RETURNS_NULL
De vergelijkingsfunctie heeft een NULL geretourneerd voor een vergelijking tussen <firstValue>
en <secondValue>
.
Het moet een positief geheel getal retourneren voor 'groter dan', 0 voor 'gelijk' en een negatief geheel getal voor 'kleiner dan'.
Als u wilt terugkeren naar afgeschaft gedrag waarbij NULL wordt behandeld als 0 (gelijk), moet u 'spark.sql.legacy.allowNullComparisonResultInArraySort' instellen op 'true'.
COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
Kan invoergegevenstypen voor de expressie niet verwerken: <expression>
.
Zie COMPLEX_EXPRESSION_UNSUPPORTED_INPUT voor meer informatie
CONCURRENT_QUERY
Een ander exemplaar van deze query [id: <queryId>
] is net gestart door een gelijktijdige sessie [bestaande runId: <existingQueryRunId>
nieuwe runId: <newQueryRunId>
].
CONCURRENT_STREAM_LOG_UPDATE
Gelijktijdige update naar het logboek. Er zijn meerdere streamingtaken gedetecteerd voor <batchId>
.
Zorg ervoor dat slechts één streamingtaak tegelijk wordt uitgevoerd op een specifieke controlepuntlocatie.
CONFIG_NOT_AVAILABLE
Configuratie <config>
is niet beschikbaar.
CONFLICTING_PARTITION_COLUMN_NAMES
Conflicterende namen van partitiekolommen gedetecteerd:
<distinctPartColLists>
Voor gepartitioneerde tabelmappen mogen gegevensbestanden alleen live zijn in leaf-mappen.
En mappen op hetzelfde niveau moeten dezelfde partitiekolomnaam hebben.
Controleer de volgende mappen op onverwachte bestanden of inconsistente partitiekolomnamen:
<suspiciousPaths>
CONFLICTING_PROVIDER
De opgegeven provider <provider>
is inconsistent met de bestaande catalogusprovider <expectedProvider>
. Gebruik USING <expectedProvider>
en voer de opdracht opnieuw uit.
VERBINDEN
Algemene Spark Connect-fout.
Zie CONNECT voor meer informatie
CONNECTION_ALREADY_EXISTS
Kan geen verbinding <connectionName>
maken omdat deze al bestaat.
Kies een andere naam, zet of vervang de bestaande verbinding of voeg de component IF NOT EXISTS toe om bestaande verbindingen te tolereren.
CONNECTION_NAME_CANNOT_BE_EMPTY
Kan deze opdracht niet uitvoeren omdat de verbindingsnaam niet leeg moet zijn.
CONNECTION_NOT_FOUND
Kan deze opdracht niet uitvoeren omdat de verbindingsnaam <connectionName>
niet is gevonden.
CONNECTION_OPTION_NOT_SUPPORTED
Verbindingen van het type '<connectionType>
' bieden geen ondersteuning voor de volgende opties: <optionsNotSupported>
. Ondersteunde opties: <allowedOptions>
.
CONNECTION_TYPE_NOT_SUPPORTED
Kan geen verbinding maken van het type '<connectionType>
. Ondersteunde verbindingstypen: <allowedTypes>
.
CONSTRAINTS_REQUIRE_UNITY_CATALOG
Tabelbeperkingen worden alleen ondersteund in Unity Catalog.
CONVERSION_INVALID_INPUT
De waarde <str>
(<fmt>
) kan niet worden geconverteerd naar <targetType>
omdat deze ongeldig is. Corrigeer de waarde volgens de syntaxis of wijzig de indeling. Gebruik <suggestion>
dit om ongeldige invoer te tolereren en in plaats daarvan NULL te retourneren.
COPY_INTO_COLUMN_ARITY_MISMATCH
Kan niet schrijven naar <tableName>
, de reden is
Zie COPY_INTO_COLUMN_ARITY_MISMATCH voor meer informatie
COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON
Ongeldig schema <scheme>
. COPY INTO-bronreferenties ondersteunen momenteel alleen s3/s3n/s3a/wasbs/abfss.
COPY_INTO_CREDENTIALS_REQUIRED
COPY INTO-bronreferenties moeten worden opgegeven <keyList>
.
COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED
Gedupliceerde bestanden zijn doorgevoerd in een gelijktijdige COPY INTO-bewerking. Probeert u het later nog eens.
COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON
Ongeldig schema <scheme>
. COPY INTO-bronversleuteling ondersteunt momenteel alleen s3/s3n/s3a/abfss.
COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE
COPY INTO-versleuteling ondersteunt alleen ADLS Gen2 of abfss:// bestandsschema
COPY_INTO_ENCRYPTION_REQUIRED
COPY INTO-bronversleuteling moet '<key>
' opgeven.
COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED
Ongeldige versleutelingsoptie <requiredKey>
. COPY INTO-bronversleuteling moet '<requiredKey>
' = '<keyValue>
' opgeven.
COPY_INTO_FEATURE_INCOMPATIBLE_SETTING
De functie COPY INTO is<feature>
niet compatibel met '<incompatibleSetting>
'.
COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED
COPY INTO other than appending data is not allowed to run gelijktijdig with other transactions. Probeert u het later nog eens.
COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED
COPY INTO kan de status niet laden, de maximale nieuwe pogingen zijn overschreden.
COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE
Er is een niet-overeenkomend schema gedetecteerd tijdens het kopiëren naar de Delta-tabel (tabel: <table>
).
Dit kan duiden op een probleem met de binnenkomende gegevens, of het Delta-tabelschema kan automatisch worden ontwikkeld op basis van de binnenkomende gegevens door de instelling in te stellen:
COPY_OPTIONS ('mergeSchema' = 'true')
Schemaverschil:
<schemaDiff>
COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED
De indeling van de bronbestanden moet een van CSV-, JSON-, AVRO-, ORC-, PARQUET-, TEKST- of BINARYFILE zijn. COPY INTO gebruiken in Delta-tabellen omdat de bron niet wordt ondersteund omdat dubbele gegevens mogelijk worden opgenomen na OPTIMALISATIEbewerkingen. Deze controle kan worden uitgeschakeld door de SQL-opdracht set spark.databricks.delta.copyInto.formatCheck.enabled = false
uit te voeren.
COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED
De bronmap bevat geen parseerbare bestanden van het type <format>
. Controleer de inhoud van '<source>
'.
De fout kan worden stilgelaten door '<config>
' in te stellen op 'false'.
COPY_INTO_STATE_INTERNAL_ERROR
Er is een interne fout opgetreden tijdens het verwerken van de STATUS COPY INTO.
Zie COPY_INTO_STATE_INTERNAL_ERROR voor meer informatie
COPY_INTO_SYNTAX_ERROR
Kan de opdracht COPY INTO niet parseren.
Zie COPY_INTO_SYNTAX_ERROR voor meer informatie
COPY_INTO_UNSUPPORTED_FEATURE
De functie COPY INTO '<feature>
' wordt niet ondersteund.
COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED
Kan geen gegevens in de indeling '<formatType>
' ontladen. Ondersteunde indelingen zijn <connectionType>
: <allowedFormats>
.
CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET
De opdracht CREATE FOREIGN SCHEMA is nog niet geïmplementeerd
CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET
De opdracht CREATE FOREIGN TABLE is nog niet geïmplementeerd
CREATE_OR_REFRESH_MV_ST_ASYNC
Kan geen gerealiseerde weergaven of streamingtabellen maken of vernieuwen waarvoor ASYNC is opgegeven. Verwijder ASYNC uit de instructie CREATE OF REFRESH of gebruik REFRESH ASYNC om bestaande gerealiseerde weergaven of streamingtabellen asynchroon te vernieuwen.
CREATE_PERMANENT_VIEW_WITHOUT_ALIAS
Het is niet toegestaan om de permanente weergave <name>
te maken zonder expliciet een alias voor de expressie <attr>
toe te wijzen.
CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
De kolom <columnName>
CREATE TABLE geeft descriptor '<optionName>
' meer dan één keer op, wat ongeldig is.
CREATE_VIEW_COLUMN_ARITY_MISMATCH
Kan weergave <viewName>
niet maken, de reden is
Zie CREATE_VIEW_COLUMN_ARITY_MISMATCH voor meer informatie
CREDENTIAL_MISSING
Geef referenties op bij het maken of bijwerken van externe locaties.
CSV_ENFORCE_SCHEMA_NOT_SUPPORTED
De CSV-optie enforceSchema
kan niet worden ingesteld wanneer u kolommen gebruikt rescuedDataColumn
of failOnUnknownFields
als kolommen worden gelezen op naam in plaats van rangschikkelijk.
CYCLIC_FUNCTION_REFERENCE
Verwijzing naar cyclische functies gedetecteerd: <path>
.
DATABRICKS_DELTA_NOT_ENABLED
Databricks Delta is niet ingeschakeld in uw account.<hints>
DATATYPE_MISMATCH
Kan het probleem niet oplossen <sqlExpr>
omdat het gegevenstype niet overeenkomt:
Zie DATATYPE_MISMATCH voor meer informatie
DATATYPE_MISSING_SIZE
DataType <type>
vereist een lengteparameter, bijvoorbeeld <type>
(10). Geef de lengte op.
DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION
Schrijfherkomst mislukt: ontbrekende corresponderende relatie met beleid voor CLM/RLS.
DATA_SOURCE_ALREADY_EXISTS
De gegevensbron '<provider>
' bestaat al. Kies een andere naam voor de nieuwe gegevensbron.
DATA_SOURCE_EXTERNAL_ERROR
Er is een fout opgetreden bij het opslaan naar een externe gegevensbron.
DATA_SOURCE_NOT_EXIST
De gegevensbron '<provider>
' is niet gevonden. Zorg ervoor dat de gegevensbron is geregistreerd.
DATA_SOURCE_NOT_FOUND
Kan de gegevensbron niet vinden: <provider>
. Zorg ervoor dat de providernaam juist is en dat het pakket correct is geregistreerd en compatibel is met uw Spark-versie.
DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS
De optie <option>
mag niet leeg zijn en mag geen ongeldige tekens, queryreeksen of parameters bevatten.
DATA_SOURCE_OPTION_IS_REQUIRED
Optie <option>
is vereist.
DATA_SOURCE_TABLE_SCHEMA_MISMATCH
Het schema van de gegevensbrontabel komt niet overeen met het verwachte schema. Als u de DataFrameReader.schema-API gebruikt of een tabel maakt, moet u het schema niet opgeven.
Gegevensbronschema: <dsSchema>
Verwacht schema: <expectedSchema>
DATA_SOURCE_URL_NOT_ALLOWED
JDBC-URL is niet toegestaan in opties voor gegevensbronnen. Geef in plaats daarvan de opties host, poort en database op.
DATETIME_OVERFLOW
Overloop van datum/tijdbewerking: <operation>
.
DC_API_QUOTA_EXCEEDED
U hebt het API-quotum voor de gegevensbron <sourceName>
overschreden.
Zie DC_API_QUOTA_EXCEEDED voor meer informatie
DC_CONNECTION_ERROR
Kan geen verbinding maken met de <sourceName>
bron. Foutcode: <errorCode>
.
Zie DC_CONNECTION_ERROR voor meer informatie
DC_DYNAMICS_API_ERROR
Er is een fout opgetreden in Dynamics API-aanroepen, errorCode: <errorCode>
.
Zie DC_DYNAMICS_API_ERROR voor meer informatie
DC_NETSUITE_ERROR
Er is een fout opgetreden in Netsuite JDBC-aanroepen, errorCode: <errorCode>
.
Zie DC_NETSUITE_ERROR voor meer informatie
DC_SCHEMA_CHANGE_ERROR
SQLSTATE: geen toegewezen
Er is een schemawijziging opgetreden in de tabel <tableName>
van de <sourceName>
bron.
Zie DC_SCHEMA_CHANGE_ERROR voor meer informatie
DC_SERVICENOW_API_ERROR
Er is een fout opgetreden in ServiceNow-API-aanroepen, errorCode: <errorCode>
.
Zie DC_SERVICENOW_API_ERROR voor meer informatie
DC_SFDC_BULK_QUERY_JOB_INCOMPLETE
Opname voor object <objName>
is onvolledig omdat de Salesforce API-querytaak te lang duurde, is mislukt of handmatig is geannuleerd.
Als u het opnieuw wilt proberen, kunt u de hele pijplijn opnieuw uitvoeren of deze specifieke doeltabel vernieuwen. Als de fout zich blijft voordoen, dient u een ticket in. Taak-id: <jobId>
. Taakstatus: <jobStatus>
.
DC_SHAREPOINT_API_ERROR
Er is een fout opgetreden in Sharepoint-API-aanroepen, errorCode: <errorCode>
.
Zie DC_SHAREPOINT_API_ERROR voor meer informatie
DC_SOURCE_API_ERROR
Er is een fout opgetreden in de <sourceName>
API-aanroep. Bron-API-type: <apiType>
. Foutcode: <errorCode>
.
Dit kan soms gebeuren wanneer u een <sourceName>
API-limiet hebt bereikt. Als u de API-limiet niet hebt overschreden, probeert u de connector opnieuw uit te voeren. Als het probleem zich blijft voordoen, dient u een ticket in.
DC_UNSUPPORTED_ERROR
Er is een niet-ondersteunde fout opgetreden in de gegevensbron <sourceName>
.
Zie DC_UNSUPPORTED_ERROR voor meer informatie
DC_WORKDAY_RAAS_API_ERROR
Er is een fout opgetreden in raas-API-aanroepen van Workday, errorCode: <errorCode>
.
Zie DC_WORKDAY_RAAS_API_ERROR voor meer informatie
DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION
Decimaalprecimaal precisie <precision>
overschrijdt de maximale precisie <maxPrecision>
.
DEFAULT_DATABASE_NOT_EXISTS
Standaarddatabase <defaultDatabase>
bestaat niet, maak deze eerst of wijzig de standaarddatabase in <defaultDatabase>
.
DEFAULT_FILE_NOT_FOUND
Het is mogelijk dat de onderliggende bestanden zijn bijgewerkt. U kunt de cache in Spark expliciet ongeldig maken door de opdracht 'REFRESH TABLE tableName' uit te voeren in SQL of door de betrokken gegevensset/dataframe opnieuw te maken. Als de schijfcache verouderd is of de onderliggende bestanden zijn verwijderd, kunt u de schijfcache handmatig ongeldig maken door het cluster opnieuw op te starten.
DEFAULT_PLACEMENT_INVALID
Een STANDAARDwoord in een opdracht MERGE, INSERT, UPDATE of SET VARIABLE kan niet rechtstreeks worden toegewezen aan een doelkolom omdat het onderdeel was van een expressie.
Bijvoorbeeld: UPDATE SET c1 = DEFAULT
is toegestaan, maar UPDATE T SET c1 = DEFAULT + 1
is niet toegestaan.
DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE
De streamingquery heeft gelezen uit een onverwachte Delta-tabel (id = '<newTableId>
').
Het gebruikte om te lezen uit een andere Delta-tabel (id = '<oldTableId>
') volgens controlepunt.
Dit kan gebeuren wanneer u de code hebt gewijzigd om te lezen uit een nieuwe tabel of u hebt verwijderd en
een tabel opnieuw gemaakt. Wijzig uw wijziging of verwijder het controlepunt voor streamingquery's
om helemaal opnieuw op te starten.
DISTINCT_WINDOW_FUNCTION_UNSUPPORTED
Afzonderlijke vensterfuncties worden niet ondersteund: <windowExpr>
.
DIVIDE_BY_ZERO
Delen door nul. Gebruik try_divide
dit om te tolereren dat deler 0 is en in plaats daarvan NULL retourneert. Stel indien nodig in <config>
op 'false' om deze fout te omzeilen.
Zie DIVIDE_BY_ZERO voor meer informatie
DLT_EXPECTATIONS_NOT_SUPPORTED
Verwachtingen worden alleen ondersteund in een Delta Live Tables-pijplijn.
DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED
GEREALISEERDE VIEW's met een CLUSTER BY-component worden alleen ondersteund in een Delta Live Tables-pijplijn.
DLT_VIEW_LOCATION_NOT_SUPPORTED
GEREALISEERDE WEERGAVElocaties worden alleen ondersteund in een Delta Live Tables-pijplijn.
DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED
GEREALISEERDE WEERGAVEschema's met een opgegeven type worden alleen ondersteund in een Delta Live Tables-pijplijn.
DLT_VIEW_TABLE_CONSTRAINTS_NOT_SUPPORTED
CONSTRAINT-componenten in een weergave worden alleen ondersteund in een Delta Live Tables-pijplijn.
DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT
Dubbele veldnamen in Pijl-Struct zijn niet toegestaan.<fieldNames>
DUPLICATED_MAP_KEY
Er is een dubbele kaartsleutel <key>
gevonden. Controleer de invoergegevens.
Als u de gedupliceerde sleutels wilt verwijderen, kunt u instellen <mapKeyDedupPolicy>
op 'LAST_WIN' zodat de sleutel die voor het laatst is ingevoegd voorrang krijgt.
DUPLICATED_METRICS_NAME
De metrische naam is niet uniek: <metricName>
. Dezelfde naam kan niet worden gebruikt voor metrische gegevens met verschillende resultaten.
Meerdere exemplaren van metrische gegevens met hetzelfde resultaat en dezelfde naam zijn echter toegestaan (bijvoorbeeld zelf-joins).
DUPLICATE_ASSIGNMENTS
De kolommen of variabelen worden meerdere keren weergegeven als toewijzingsdoelen <nameList>
.
DUPLICATE_CLAUSES
Er zijn dubbele componenten gevonden: <clauseName>
. Verwijder een van deze.
DUPLICATE_KEY
Dubbele sleutels <keyColumn>
gevonden.
DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
De aanroep van routine <functionName>
is ongeldig omdat deze meerdere argumenttoewijzingen bevat voor dezelfde parameternaam <parameterName>
.
Zie DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT voor meer informatie
DUPLICATE_ROUTINE_PARAMETER_NAMES
Er zijn dubbele naam(en) gevonden in de parameterlijst van de door de gebruiker gedefinieerde routine <routineName>
: <names>
.
DUPLICATE_ROUTINE_RETURNS_COLUMNS
Er zijn dubbele kolommen gevonden in de kolomlijst RETURNS-componenten van de door de gebruiker gedefinieerde routine <routineName>
: <columns>
.
EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED
Vorig knooppunt heeft een rij gegenereerd met eventTime=<emittedRowEventTime>
die ouder is dan current_watermark_value=<currentWatermark>
Dit kan leiden tot corrigerende problemen in de stateful operators downstream in de uitvoeringspijplijn.
Corrigeer de operatorlogica om rijen te verzenden na de huidige globale grenswaarde.
EMPTY_JSON_FIELD_VALUE
Kan een lege tekenreeks voor het gegevenstype <dataType>
niet parseren.
EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY
Leeg lokaal bestand in faseringsquery <operation>
ENCODER_NOT_FOUND
Er is geen encoder van het type <typeName>
gevonden voor interne Spark SQL-weergave.
Overweeg om het invoertype te wijzigen in een van de ondersteunde invoertypen op '<docroot>
/sql-ref-datatypes.html'.
END_LABEL_WITHOUT_BEGIN_LABEL
Het eindlabel kan niet bestaan zonder beginlabel <endLabel>
.
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW
Sommige partities in kafka-onderwerp(en) rapport beschikbare offset die kleiner is dan eindverschil tijdens het uitvoeren van query met Trigger.AvailableNow. De fout kan tijdelijk zijn: start uw query opnieuw op en rapporteert als u hetzelfde probleem nog steeds ziet.
laatste offset: <latestOffset>
, eindverschil: <endOffset>
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED
Voor de Kafka-gegevensbron met Trigger.AvailableNow moet de eind offset lager of gelijk zijn aan elke onderwerppartitie dan de vooraf opgehaalde offset. De fout kan tijdelijk zijn: start uw query opnieuw op en rapporteert als u hetzelfde probleem nog steeds ziet.
vooraf opgehaalde offset: <prefetchedOffset>
, eindverschil: <endOffset>
.
ERROR_READING_AVRO_UNKNOWN_FINGERPRINT
Fout bij het lezen van avro-gegevens: er is een onbekende vingerafdruk opgetreden: <fingerprint>
, niet zeker welk schema moet worden gebruikt.
Dit kan gebeuren als u extra schema's hebt geregistreerd nadat u de Spark-context hebt gestart.
EVENT_LOG_REQUIRES_SHARED_COMPUTE
Kan geen query's uitvoeren op gebeurtenislogboeken van een toegewezen of Geen isolatie gedeeld cluster. Gebruik in plaats daarvan een gedeeld cluster of een Databricks SQL-warehouse.
EVENT_LOG_UNAVAILABLE
Er zijn geen gebeurtenislogboeken beschikbaar voor <tableOrPipeline>
. Probeer het later opnieuw nadat gebeurtenissen zijn gegenereerd
EVENT_LOG_UNSUPPORTED_TABLE_TYPE
Het tabeltype <tableIdentifier>
is <tableType>
.
Het uitvoeren van query's op gebeurtenislogboeken ondersteunt alleen gerealiseerde weergaven, streamingtabellen of Delta Live Tables-pijplijnen
EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE
De gebeurtenistijd <eventName>
heeft het ongeldige type <eventType>
, maar verwacht 'TIMESTAMP
'.
EXCEED_LIMIT_LENGTH
Overschrijdt de lengtebeperking voor tekens/varchartypen: <limit>
.
EXCEPT_NESTED_COLUMN_INVALID_TYPE
BEHALVE de kolom <columnName>
is opgelost en verwacht StructType te zijn, maar gevonden type <dataType>
.
EXCEPT_OVERLAPPING_COLUMNS
Kolommen in een EXCEPT-lijst moeten uniek en niet-overlappend zijn, maar wel (<columns>
) zijn.
EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH
BEHALVE kolommen [<exceptColumns>
] zijn opgelost, maar komen niet overeen met een van de kolommen [<expandedColumns>
] uit de steruitbreiding.
EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION
De kolom-/veldnaam <objectName>
in de component EXCEPT kan niet worden omgezet. Bedoelde u een van de volgende: [<objectList>
]?
Opmerking: geneste kolommen in de EXCEPT-component bevatten mogelijk geen kwalificaties (tabelnaam, bovenliggende kolomnaam, enzovoort) tijdens een struct-uitbreiding; probeer kwalificaties te verwijderen als ze worden gebruikt met geneste kolommen.
EXECUTOR_BROADCAST_JOIN_OOM
Er is onvoldoende geheugen om de broadcast-relatie <relationClassName>
te bouwen. Relationele grootte = <relationSize>
. Totaal geheugen dat door deze taak wordt gebruikt = <taskMemoryUsage>
. Metrische gegevens van executor Memory Manager: onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>
, offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>
, onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>
, offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>
. [sparkPlanId: <sparkPlanId>
]
EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES
De USING-component van deze OPDRACHT EXECUTE IMMEDIATE bevat meerdere argumenten met dezelfde alias (<aliases>
), wat ongeldig is. Werk de opdracht bij om unieke aliassen op te geven en probeer het opnieuw.
EXPECT_PERMANENT_VIEW_NOT_TEMP
'<operation>
' verwacht een permanente weergave, maar <viewName>
is een tijdelijke weergave.
EXPECT_TABLE_NOT_VIEW
'<operation>
' verwacht een tabel, maar <viewName>
is een weergave.
Zie EXPECT_TABLE_NOT_VIEW voor meer informatie
EXPECT_VIEW_NOT_TABLE
De tabel <tableName>
biedt geen ondersteuning voor <operation>
.
Zie EXPECT_VIEW_NOT_TABLE voor meer informatie
EXPRESSION_DECODING_FAILED
Kan een rij niet decoderen naar een waarde van de expressies: <expressions>
.
EXPRESSION_ENCODING_FAILED
Kan een waarde van de expressies niet coderen: <expressions>
naar een rij.
EXPRESSION_TYPE_IS_NOT_ORDERABLE
Kolomexpressie <expr>
kan niet worden gesorteerd omdat het type <exprType>
niet kan worden gesorteerd.
EXTERNAL_TABLE_INVALID_SCHEME
Externe tabellen ondersteunen het <scheme>
schema niet.
FABRIC_REFRESH_INVALID_SCOPE
Fout bij het uitvoeren van VERNIEUWEN VAN REFEREND <scope>
<name>
. Kan een infrastructuur <scope>
niet rechtstreeks vernieuwen. Gebruik 'REFRESH FOREIGN CATALOG <catalogName>
' om in plaats daarvan de infrastructuurcatalogus te vernieuwen.
FAILED_EXECUTE_UDF
Door de gebruiker gedefinieerde functie (: (<functionName>
<signature>
) =><result>
) is mislukt vanwege: <reason>
.
FAILED_FUNCTION_CALL
Het voorbereiden van de functie <funcName>
voor aanroep is mislukt. Controleer de argumenten van de functie.
FAILED_JDBC
Mislukte JDBC <url>
voor de bewerking:
Zie FAILED_JDBC voor meer informatie
FAILED_PARSE_STRUCT_TYPE
Kan de struct niet parseren: <raw>
.
FAILED_READ_FILE
Fout tijdens het lezen van bestand <path>
.
Zie FAILED_READ_FILE voor meer informatie
FAILED_REGISTER_CLASS_WITH_KRYO
Het registreren van klassen bij Kryo is mislukt.
FAILED_RENAME_PATH
Kan de naam niet wijzigen <sourcePath>
naar <targetPath>
het doel dat al bestaat.
FAILED_RENAME_TEMP_FILE
Kan de naam van het tijdelijke bestand <srcPath>
niet wijzigen omdat <dstPath>
FileSystem.rename false heeft geretourneerd.
FAILED_ROW_TO_JSON
Kan de rijwaarde <value>
van de klasse <class>
niet converteren naar het doel-SQL-type <sqlType>
in de JSON-indeling.
FAILED_TO_PARSE_TOO_COMPLEX
De instructie, inclusief potentiële SQL-functies en weergaven waarnaar wordt verwezen, was te complex om te parseren.
Als u deze fout wilt beperken, verdeelt u de instructie in meerdere, minder complexe segmenten.
FEATURE_NOT_ENABLED
De functie <featureName>
is niet ingeschakeld. Overweeg om de configuratie in <configKey>
te stellen om <configValue>
deze mogelijkheid in te schakelen.
FEATURE_NOT_ON_CLASSIC_WAREHOUSE
<feature>
wordt niet ondersteund in klassieke SQL-warehouses. Als u deze functie wilt gebruiken, gebruikt u een Pro- of Serverless SQL Warehouse. Zie voor meer informatie over magazijntypen <docLink>
FEATURE_REQUIRES_UC
<feature>
wordt niet ondersteund zonder Unity Catalog. Als u deze functie wilt gebruiken, schakelt u Unity Catalog in. Zie voor meer informatie over Unity Catalog <docLink>
FEATURE_UNAVAILABLE
<feature>
wordt niet ondersteund in uw omgeving. Als u deze functie wilt gebruiken, neemt u contact op met databricks-ondersteuning.
FIELD_ALREADY_EXISTS
Kan geen <op>
kolom maken, omdat <fieldNames>
deze al bestaat in <struct>
.
FIELD_NOT_FOUND
Geen dergelijk structveld <fieldName>
in <fields>
.
FILE_IN_STAGING_PATH_ALREADY_EXISTS
Bestand in faseringspad <path>
bestaat al, maar OVERWRITE is niet ingesteld
FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR
Er is een fout opgetreden in de door de gebruiker opgegeven functie in flatMapGroupsWithState. Reden: <reason>
FORBIDDEN_OPERATION
De bewerking <statement>
is niet toegestaan op de <objectType>
: <objectName>
.
FOREACH_BATCH_USER_FUNCTION_ERROR
Er is een fout opgetreden in de door de gebruiker opgegeven functie in foreach batch sink. Reden: <reason>
FOREACH_USER_FUNCTION_ERROR
Er is een fout opgetreden in de door de gebruiker opgegeven functie in foreach sink. Reden: <reason>
FOREIGN_KEY_MISMATCH
Bovenliggende kolommen met refererende sleutels komen niet overeen met onderliggende primaire-sleutelkolommen <parentColumns>
<childColumns>
.
FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY
Kan deze opdracht niet uitvoeren omdat de refererende <objectType>
naam niet leeg moet zijn.
FOUND_MULTIPLE_DATA_SOURCES
Er zijn meerdere gegevensbronnen gedetecteerd met de naam '<provider>
'. Controleer of de gegevensbron niet tegelijkertijd is geregistreerd en zich in het klassepad bevindt.
FROM_JSON_CONFLICTING_SCHEMA_UPDATES
from_json deductie conflicterende schema-updates heeft aangetroffen op: <location>
FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA
from_json columnNameOfCorruptRecord (<columnNameOfCorruptRecord>
) gevonden
in een JSON-object en kan niet meer doorgaan. Configureer een andere waarde voor
de optie 'columnNameOfCorruptRecord'.
FROM_JSON_CORRUPT_SCHEMA
from_json deductie kan het schema dat is opgeslagen op: <location>
FROM_JSON_INFERENCE_FAILED
from_json kan het schema niet afleiden. Geef er in plaats daarvan een op.
FROM_JSON_INFERENCE_NOT_SUPPORTED
from_json deductie wordt alleen ondersteund bij het definiëren van streamingtabellen
FROM_JSON_INVALID_CONFIGURATION
from_json configuratie is ongeldig:
Zie FROM_JSON_INVALID_CONFIGURATION voor meer informatie
FROM_JSON_SCHEMA_EVOLUTION_FAILED
from_json kan zich niet ontwikkelen van <old>
naar <new>
FUNCTION_PARAMETERS_MUST_BE_NAMED
Voor de functie <function>
zijn benoemde parameters vereist. Parameters ontbrekende namen: <exprs>
. Werk de functieoproep bij om namen toe te voegen voor alle parameters, bijvoorbeeld <function>
(param_name => ...).
GENERATED_COLUMN_WITH_DEFAULT_VALUE
Een kolom kan niet zowel een standaardwaarde als een generatieexpressie hebben, maar de kolom <colName>
heeft de standaardwaarde: (<defaultValue>
) en generatieexpressie: (<genExpr>
).
GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION
Hive 2.2 en lagere versies bieden geen ondersteuning voor getTablesByType. Gebruik Hive 2.3 of hoger.
GET_WARMUP_TRACING_FAILED
Kan geen opwarmtracering ophalen. Oorzaak: <cause>
.
GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED
Functie get_warmup_tracing() is niet toegestaan.
GRAPHITE_SINK_INVALID_PROTOCOL
Ongeldig Graphite-protocol: <protocol>
.
GRAPHITE_SINK_PROPERTY_MISSING
Voor graphite-sink is de eigenschap '<property>
' vereist.
GROUPING_COLUMN_MISMATCH
De kolom van groeperen (<grouping>
) kan niet worden gevonden in het groeperen van kolommen <groupingColumns>
.
GROUPING_ID_COLUMN_MISMATCH
Kolommen van grouping_id (<groupingIdColumn>
) komen niet overeen met het groeperen van kolommen (<groupByColumns>
).
GROUPING_SIZE_LIMIT_EXCEEDED
Groepeersets mogen niet groter zijn dan <maxSize>
.
GROUP_BY_AGGREGATE
Statistische functies zijn niet toegestaan in GROUP BY, maar gevonden <sqlExpr>
.
Zie GROUP_BY_AGGREGATE voor meer informatie
GROUP_BY_POS_AGGREGATE
GROUP BY <index>
verwijst naar een expressie <aggExpr>
die een statistische functie bevat. Statistische functies zijn niet toegestaan in GROUP BY.
GROUP_BY_POS_OUT_OF_RANGE
DE positie <index>
GROUP BY bevindt zich niet in de geselecteerde lijst (geldig bereik is [1, <size>
]).
GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE
De expressie <sqlExpr>
kan niet worden gebruikt als groeperingsexpressie omdat het gegevenstype geen bestelbaar gegevenstype <dataType>
is.
HDFS_HTTP_ERROR
Wanneer u probeert te lezen vanuit HDFS, is de HTTP-aanvraag mislukt.
Zie HDFS_HTTP_ERROR voor meer informatie
HLL_INVALID_INPUT_SKETCH_BUFFER
Ongeldige aanroep naar <function>
; alleen geldige HLL-schetsbuffers worden ondersteund als invoer (zoals de buffers die door de hll_sketch_agg
functie worden geproduceerd).
HLL_INVALID_LG_K
Ongeldige aanroep naar <function>
; de lgConfigK
waarde moet liggen tussen <min>
en <max>
, inclusief: <value>
.
HLL_UNION_DIFFERENT_LG_K
Schetsen hebben verschillende lgConfigK
waarden: <left>
en <right>
. Stel de allowDifferentLgConfigK
parameter in op true om aan te roepen <function>
met verschillende lgConfigK
waarden.
IDENTIFIER_TOO_MANY_NAME_PARTS
<identifier>
is geen geldige id omdat deze meer dan 2 naamonderdelen heeft.
ILLEGAL_STATE_STORE_VALUE
Ongeldige waarde verstrekt aan het staatsarchief
Zie ILLEGAL_STATE_STORE_VALUE voor meer informatie
INCOMPARABLE_PIVOT_COLUMN
Ongeldige draaikolom <columnName>
. Draaikolommen moeten vergelijkbaar zijn.
INCOMPATIBLE_COLUMN_TYPE
<operator>
kan alleen worden uitgevoerd op tabellen met compatibele kolomtypen. De <columnOrdinalNumber>
kolom van de <tableOrdinalNumber>
tabel is <dataType1>
type dat niet compatibel is met <dataType2>
dezelfde kolom van de eerste tabel.<hint>
.
INCOMPATIBLE_DATASOURCE_REGISTER
Er is een incompatibele DataSourceRegister gedetecteerd. Verwijder de niet-compatibele bibliotheek uit het klassepad of werk deze bij. Fout: <message>
INCOMPATIBLE_DATA_FOR_TABLE
Kan geen incompatibele gegevens schrijven voor de tabel <tableName>
:
Zie INCOMPATIBLE_DATA_FOR_TABLE voor meer informatie
INCOMPATIBLE_JOIN_TYPES
De jointypen <joinType1>
en <joinType2>
zijn niet compatibel.
INCOMPATIBLE_VIEW_SCHEMA_CHANGE
De SQL-query van de weergave <viewName>
heeft een incompatibele schemawijziging en de kolom <colName>
kan niet worden opgelost. Verwachte <expectedNum>
kolommen met de naam <colName>
, maar wel <actualCols>
.
Probeer de weergave opnieuw te maken door het volgende uit te voeren: <suggestion>
INCOMPLETE_TYPE_DEFINITION
Onvolledig complex type:
Zie INCOMPLETE_TYPE_DEFINITION voor meer informatie
INCONSISTENT_BEHAVIOR_CROSS_VERSION
Mogelijk krijgt u een ander resultaat vanwege de upgrade naar
Zie INCONSISTENT_BEHAVIOR_CROSS_VERSION voor meer informatie
INCORRECT_NUMBER_OF_ARGUMENTS
<failure>
, <functionName>
vereist ten minste <minArgs>
argumenten en ten hoogste <maxArgs>
argumenten.
INCORRECT_RAMP_UP_RATE
Maximale verschuiving met <rowsPerSecond>
rowsPerSecond is <maxSeconds>
, maar 'rampUpTimeSeconds' is <rampUpTimeSeconds>
.
INDETERMINATE_COLLATION
Voor de functie die wordt aangeroepen, is kennis vereist van de sortering die moet worden toegepast, maar er is een onbepaalde sortering gevonden. Gebruik de functie COLLATE om de sortering expliciet in te stellen.
INDEX_ALREADY_EXISTS
Kan de index <indexName>
in de tabel <tableName>
niet maken omdat deze al bestaat.
INDEX_NOT_FOUND
Kan de index <indexName>
in de tabel <tableName>
niet vinden.
INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED
Triggertype <trigger>
wordt niet ondersteund voor dit clustertype.
Gebruik een ander triggertype, bijvoorbeeld AvailableNow, Once.
INSERT_COLUMN_ARITY_MISMATCH
Kan niet schrijven naar <tableName>
, de reden is
Zie INSERT_COLUMN_ARITY_MISMATCH voor meer informatie
INSERT_PARTITION_COLUMN_ARITY_MISMATCH
Kan niet schrijven naar '<tableName>
', <reason>
:
Tabelkolommen: <tableColumns>
.
Kolommen partitioneren met statische waarden: <staticPartCols>
.
Gegevenskolommen: <dataColumns>
.
INSUFFICIENT_PERMISSIONS
Onvoldoende bevoegdheden:
<report>
INSUFFICIENT_PERMISSIONS_EXT_LOC
Gebruiker <user>
heeft onvoldoende bevoegdheden voor externe locatie <location>
.
INSUFFICIENT_PERMISSIONS_NO_OWNER
Er is geen eigenaar voor <securableName>
. Vraag de beheerder om een eigenaar in te stellen.
INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE
Gebruiker is niet eigenaar <securableName>
van .
INSUFFICIENT_PERMISSIONS_SECURABLE
Gebruiker heeft geen machtiging <action>
voor <securableName>
.
INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER
De eigenaar is <securableName>
anders dan de eigenaar van <parentSecurableName>
.
INSUFFICIENT_PERMISSIONS_STORAGE_CRED
Opslagreferenties <credentialName>
hebben onvoldoende bevoegdheden.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES
Gebruiker kan niet <action>
worden ingeschakeld <securableName>
vanwege machtigingen voor onderliggende beveiligbare items.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE
Gebruiker kan niet <action>
worden ingeschakeld <securableName>
vanwege machtigingen voor onderliggende beveiligbare objecten:
<underlyingReport>
INTERVAL_ARITHMETIC_OVERFLOW
<message>
.<alternative>
INTERVAL_DIVIDED_BY_ZERO
Delen door nul. Gebruik try_divide
dit om te tolereren dat deler 0 is en in plaats daarvan NULL retourneert.
INVALID_AGGREGATE_FILTER
De FILTER-expressie <filterExpr>
in een statistische functie is ongeldig.
Zie INVALID_AGGREGATE_FILTER voor meer informatie
INVALID_ARRAY_INDEX
De index <indexValue>
valt buiten de grenzen. De matrix bevat <arraySize>
elementen. Gebruik de SQL-functie get()
om het toegangselement bij een ongeldige index te tolereren en in plaats daarvan NULL te retourneren. Stel indien nodig in <ansiConfig>
op 'false' om deze fout te omzeilen.
Zie INVALID_ARRAY_INDEX voor meer informatie
INVALID_ARRAY_INDEX_IN_ELEMENT_AT
De index <indexValue>
valt buiten de grenzen. De matrix bevat <arraySize>
elementen. Gebruik try_element_at
dit om het toegangselement op een ongeldige index te tolereren en in plaats daarvan NULL te retourneren. Stel indien nodig in <ansiConfig>
op 'false' om deze fout te omzeilen.
Zie INVALID_ARRAY_INDEX_IN_ELEMENT_AT voor meer informatie
INVALID_BITMAP_POSITION
De 0-geïndexeerde bitmappositie <bitPosition>
valt buiten de grenzen. De bitmap heeft <bitmapNumBits>
bits (<bitmapNumBytes>
bytes).
INVALID_BOOLEAN_STATEMENT
Booleaanse instructie wordt verwacht in de voorwaarde, maar <invalidStatement>
is gevonden.
INVALID_BOUNDARY
De grens <boundary>
is ongeldig: <invalidValue>
.
Zie INVALID_BOUNDARY voor meer informatie
INVALID_BUCKET_COLUMN_DATA_TYPE
Kan niet gebruiken <type>
voor bucketkolom. Gesorteerde gegevenstypen worden niet ondersteund voor bucketing.
INVALID_BUCKET_FILE
Ongeldig bucketbestand: <path>
.
INVALID_BYTE_STRING
De verwachte indeling is ByteString, maar was <unsupported>
(<class>
).
INVALID_COLUMN_NAME_AS_PATH
De gegevensbron <datasource>
kan de kolom <columnName>
niet opslaan omdat de naam enkele tekens bevat die niet zijn toegestaan in bestandspaden. Gebruik een alias om de naam ervan te wijzigen.
INVALID_COLUMN_OR_FIELD_DATA_TYPE
Kolom of veld <name>
is van het type <type>
terwijl dit vereist <expectedType>
is.
INVALID_CONF_VALUE
De waarde '<confValue>
' in de configuratie '<confName>
' is ongeldig.
Zie INVALID_CONF_VALUE voor meer informatie
INVALID_CURRENT_RECIPIENT_USAGE
current_recipient
de functie kan alleen worden gebruikt in de CREATE VIEW
instructie of de ALTER VIEW
instructie om een share-weergave alleen in Unity Catalog te definiëren.
INVALID_CURSOR
De cursor is ongeldig.
Zie INVALID_CURSOR voor meer informatie
INVALID_DATETIME_PATTERN
Niet-herkend datum/tijd-patroon: <pattern>
.
Zie INVALID_DATETIME_PATTERN voor meer informatie
INVALID_DEFAULT_VALUE
Kan de opdracht niet uitvoeren <statement>
omdat de doelkolom of variabele <colName>
een STANDAARDwaarde <defaultValue>
heeft,
Zie INVALID_DEFAULT_VALUE voor meer informatie
INVALID_DELIMITER_VALUE
Ongeldige waarde voor scheidingsteken.
Zie INVALID_DELIMITER_VALUE voor meer informatie
INVALID_DEST_CATALOG
De doelcatalogus van de SYNC-opdracht moet zich in Unity Catalog bevindt. Gevonden <catalog>
.
INVALID_DRIVER_MEMORY
Systeemgeheugen <systemMemory>
moet ten minste <minSystemMemory>
zijn.
Verhoog de heapgrootte met behulp van de optie -driver-memory of '<config>
' in de Spark-configuratie.
INVALID_DYNAMIC_OPTIONS
Opties die option_list> zijn doorgegeven<, zijn verboden voor externe tabel <table_name>.
INVALID_EMPTY_LOCATION
De locatienaam mag geen lege tekenreeks zijn, maar <location>
is opgegeven.
INVALID_ESC
Er is een ongeldige escape-tekenreeks gevonden: <invalidEscape>
. De escapetekenreeks mag slechts één teken bevatten.
INVALID_ESCAPE_CHAR
EscapeChar
moet een letterlijke tekenreeks van lengte één zijn, maar wel <sqlExpr>
.
INVALID_EXECUTOR_MEMORY
Uitvoerprogrammageheugen <executorMemory>
moet ten minste <minSystemMemory>
zijn.
Verhoog het geheugen van de uitvoerder met behulp van de optie -executor-memory of '<config>
' in de Spark-configuratie.
INVALID_EXPRESSION_ENCODER
Er is een ongeldig expressie-coderingsprogramma gevonden. Verwacht een exemplaar van ExpressionEncoder, maar heeft gekregen <encoderType>
. Raadpleeg '<docroot>
/api/java/index.html?org/apache/spark/sql/Encoder.html' voor meer informatie.
INVALID_EXTRACT_BASE_FIELD_TYPE
Een waarde kan niet worden geëxtraheerd uit <base>
. Heb een complex type [STRUCT
, ARRAY
, ] nodig, MAP
maar kreeg <other>
.
INVALID_EXTRACT_FIELD
Kan niet extraheren <field>
uit <expr>
.
INVALID_EXTRACT_FIELD_TYPE
Veldnaam moet een letterlijke tekenreeks zonder null zijn, maar dat is <extraction>
wel het geval.
INVALID_FIELD_NAME
Veldnaam <fieldName>
is ongeldig: <path>
is geen struct.
INVALID_FORMAT
De indeling is ongeldig: <format>
.
Zie INVALID_FORMAT voor meer informatie
INVALID_FRACTION_OF_SECOND
De fractie van sec moet nul zijn. Geldig bereik is [0, 60]. Stel indien nodig in <ansiConfig>
op 'false' om deze fout te omzeilen.
INVALID_HANDLE
De ingang <handle>
is ongeldig.
Zie INVALID_HANDLE voor meer informatie
INVALID_IDENTIFIER
De niet-aanhalingeerde id <ident>
is ongeldig en moet worden terug geciteerd als: <ident>
.
Niet-aanhalingstekens mogen alleen ASCII-letters ('a' - 'z', 'A' - 'Z'), cijfers ('0' - '9') en onderbalk ('_') bevatten.
Niet-aanhalingstekens mogen ook niet beginnen met een cijfer.
Verschillende gegevensbronnen en metaarchieven kunnen aanvullende beperkingen opleggen voor geldige id's.
INVALID_INDEX_OF_ZERO
De index 0 is ongeldig. Een index moet 0 of > 0 zijn < (het eerste element heeft index 1).
INVALID_INLINE_TABLE
Ongeldige inlinetabel.
Zie INVALID_INLINE_TABLE voor meer informatie
INVALID_INTERVAL_FORMAT
Fout bij het parseren van '<input>
' tot interval. Zorg ervoor dat de opgegeven waarde een geldige indeling heeft voor het definiëren van een interval. U kunt naar de documentatie verwijzen voor de juiste indeling.
Zie INVALID_INTERVAL_FORMAT voor meer informatie
INVALID_INVERSE_DISTRIBUTION_FUNCTION
Ongeldige inverse verdelingsfunctie <funcName>
.
Zie INVALID_INVERSE_DISTRIBUTION_FUNCTION voor meer informatie
INVALID_JOIN_TYPE_FOR_JOINWITH
Ongeldig jointype in joinWith: <joinType>
.
INVALID_JSON_DATA_TYPE
Kan de JSON-tekenreeks niet<invalidType>
converteren naar een gegevenstype. Voer een geldig gegevenstype in.
INVALID_JSON_DATA_TYPE_FOR_COLLATIONS
Sorteringen kunnen alleen worden toegepast op tekenreekstypen, maar het JSON-gegevenstype is <jsonType>
.
INVALID_JSON_ROOT_FIELD
Kan het JSON-hoofdveld niet converteren naar het Spark-doeltype.
INVALID_JSON_SCHEMA_MAP_TYPE
Invoerschema <jsonSchema>
kan alleen als STRING
sleuteltype voor een MAP
.
INVALID_KRYO_SERIALIZER_BUFFER_SIZE
De waarde van de configuratie '<bufferSizeConfKey>
' moet kleiner zijn dan 2048 MiB, maar miB hebben <bufferSizeConfValue>
.
INVALID_LABEL_USAGE
Het gebruik van het label <labelName>
is ongeldig.
Zie INVALID_LABEL_USAGE voor meer informatie
INVALID_LAMBDA_FUNCTION_CALL
Ongeldige lambda-functie-aanroep.
Zie INVALID_LAMBDA_FUNCTION_CALL voor meer informatie
INVALID_LATERAL_JOIN_TYPE
De <joinType>
JOIN met LATERAL-correlatie is niet toegestaan omdat een OUTER-subquery niet kan correleren met de joinpartner. Verwijder de LATERALE correlatie of gebruik in plaats daarvan een INNER JOIN of LEFT OUTER JOIN.
INVALID_LIMIT_LIKE_EXPRESSION
De limiet zoals expressie <expr>
is ongeldig.
Zie INVALID_LIMIT_LIKE_EXPRESSION voor meer informatie
INVALID_LOCATION
De locatienaam kan geen ongeldige URI zijn, maar <location>
is opgegeven.
INVALID_NON_ABSOLUTE_PATH
Het opgegeven niet-absolute pad <path>
kan niet worden gekwalificeerd. Werk het pad bij om een geldige dbfs-koppellocatie te zijn.
INVALID_NON_DETERMINISTIC_EXPRESSIONS
De operator verwacht een deterministische expressie, maar de werkelijke expressie is <sqlExprs>
.
INVALID_NUMERIC_LITERAL_RANGE
Numerieke letterlijke waarde <rawStrippedQualifier>
valt buiten het geldige bereik voor <typeName>
met minimale waarde en <minValue>
maximumwaarde van <maxValue>
. Pas de waarde dienovereenkomstig aan.
INVALID_OBSERVED_METRICS
Ongeldige waargenomen metrische gegevens.
Zie INVALID_OBSERVED_METRICS voor meer informatie
INVALID_OPTIONS
Ongeldige opties:
Zie INVALID_OPTIONS voor meer informatie
INVALID_PANDAS_UDF_PLACEMENT
De groepsaggregaties pandas UDF <functionList>
kan niet samen met andere, niet-pandas statistische functies worden aangeroepen.
INVALID_PARAMETER_MARKER_VALUE
Er is een ongeldige parametertoewijzing opgegeven:
Zie INVALID_PARAMETER_MARKER_VALUE voor meer informatie
INVALID_PARAMETER_VALUE
De waarde van parameter(s) <parameter>
in <functionName>
is ongeldig:
Zie INVALID_PARAMETER_VALUE voor meer informatie
INVALID_PARTITION_COLUMN_DATA_TYPE
Kan niet gebruiken <type>
voor partitiekolom.
INVALID_PARTITION_OPERATION
De partitieopdracht is ongeldig.
Zie INVALID_PARTITION_OPERATION voor meer informatie
INVALID_PIPELINE_ID
De pijplijn-id <pipelineId>
is ongeldig.
Een pijplijn-id moet een UUID zijn in de indeling 'xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx'
INVALID_PRIVILEGE
Bevoegdheid <privilege>
is niet geldig voor <securable>
.
INVALID_PROPERTY_KEY
<key>
is een ongeldige eigenschapssleutel, gebruik aanhalingstekens, bijvoorbeeld SET <key>
=<value>
.
INVALID_PROPERTY_VALUE
<value>
is een ongeldige eigenschapswaarde, gebruik aanhalingstekens, bijvoorbeeld SET <key>
=<value>
INVALID_QUERY_MIXED_QUERY_PARAMETERS
Een geparameteriseerde query moet positionele of benoemde parameters gebruiken, maar niet beide.
INVALID_S3_COPY_CREDENTIALS
COPY INTO-referenties moeten AWS_ACCESS_KEY, AWS_SECRET_KEY en AWS_SESSION_TOKEN bevatten.
INVALID_SAVE_MODE
De opgegeven opslagmodus <mode>
is ongeldig. Geldige opslagmodi zijn 'append', 'overwrite', 'ignore', 'errorifexists' en 'default'.
INVALID_SCHEMA
Het invoerschema <inputSchema>
is geen geldige schematekenreeks.
Zie INVALID_SCHEMA voor meer informatie
INVALID_SCHEMA_OR_RELATION_NAME
<name>
is geen geldige naam voor tabellen/schema's. Geldige namen bevatten alleen alfabetische tekens, cijfers en _.
INVALID_SCHEME
Unity-catalogus biedt geen ondersteuning <name>
voor het standaardbestandsschema.
INVALID_SECRET_LOOKUP
Ongeldige geheime zoekactie:
Zie INVALID_SECRET_LOOKUP voor meer informatie
INVALID_SET_SYNTAX
De verwachte indeling is 'SET', 'SET-sleutel' of 'SET key=value'. Als u speciale tekens in de sleutel wilt opnemen of puntkomma's in waarde wilt opnemen, gebruikt u backquotes, bijvoorbeeld SET key
=value
.
INVALID_SHARED_ALIAS_NAME
De <sharedObjectType>
aliasnaam moet van het formulier 'schema.name' zijn.
INVALID_SINGLE_VARIANT_COLUMN
De singleVariantColumn
optie kan niet worden gebruikt als er ook een door de gebruiker opgegeven schema is.
INVALID_SOURCE_CATALOG
De broncatalogus mag zich niet in Unity Catalog voor de sync-opdracht bevindt. Gevonden <catalog>
.
INVALID_SQL_ARG
Het argument <name>
is sql()
ongeldig. Overweeg deze te vervangen door een letterlijke SQL-functie of door constructorfuncties voor verzamelingen, zoals map()
, array()
struct()
.
INVALID_SQL_SYNTAX
Ongeldige SQL-syntaxis:
Zie INVALID_SQL_SYNTAX voor meer informatie
INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY
Ongeldig faseringspad in faseringsquery <operation>
: <path>
INVALID_STATEMENT_FOR_EXECUTE_INTO
De INTO-component van EXECUTE IMMEDIATE is alleen geldig voor query's, maar de opgegeven instructie is geen query: <sqlString>
.
INVALID_STATEMENT_OR_CLAUSE
De instructie of component: <operation>
is ongeldig.
INVALID_SUBQUERY_EXPRESSION
Ongeldige subquery:
Zie INVALID_SUBQUERY_EXPRESSION voor meer informatie
INVALID_TEMP_OBJ_REFERENCE
Kan het permanente object <objName>
van het type <obj>
niet maken omdat het verwijst naar het tijdelijke object <tempObjName>
van het type <tempObj>
. Maak het tijdelijke object <tempObjName>
permanent of maak het permanente object <objName>
tijdelijk.
INVALID_TIMESTAMP_FORMAT
De opgegeven tijdstempel <timestamp>
komt niet overeen met de verwachte syntaxis <format>
.
INVALID_TIME_TRAVEL_SPEC
Kan niet zowel de versie als het tijdstempel opgeven wanneer de tabel wordt gereisd.
INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
De tijdstempelexpressie <expr>
voor tijdreizen is ongeldig.
Zie INVALID_TIME_TRAVEL_TIMESTAMP_EXPR voor meer informatie
INVALID_TYPED_LITERAL
De waarde van de getypte letterlijke waarde <valueType>
is ongeldig: <value>
.
INVALID_UDF_IMPLEMENTATION
De functie <funcName>
implementeert geen ScalarFunction of AggregateFunction.
INVALID_UPGRADE_SYNTAX
<command>
<supportedOrNot>
de brontabel bevindt zich in Hive Metastore en de doeltabel bevindt zich in Unity Catalog.
INVALID_URL
De URL is ongeldig: <url>
. Stel indien nodig in <ansiConfig>
op 'false' om deze fout te omzeilen.
INVALID_USAGE_OF_STAR_OR_REGEX
Ongeldig gebruik van <elem>
in <prettyName>
.
INVALID_UTF8_STRING
Ongeldige UTF8-bytereeks gevonden in tekenreeks: <str>
.
INVALID_UUID
Invoer <uuidInput>
is geen geldige UUID.
De UUID moet de notatie xxxxxxxx-xxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx hebben.
Controleer de indeling van de UUID.
INVALID_VARIABLE_DECLARATION
Ongeldige variabeledeclaratie.
Zie INVALID_VARIABLE_DECLARATION voor meer informatie
INVALID_VARIABLE_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE
Het variabeletype moet een tekenreekstype zijn, maar wel <varType>
.
INVALID_VARIANT_CAST
De variantwaarde <value>
kan niet worden omgezet in <dataType>
. try_variant_get
Gebruik in plaats daarvan.
INVALID_VARIANT_FROM_PARQUET
Ongeldige variant.
Zie INVALID_VARIANT_FROM_PARQUET voor meer informatie
INVALID_VARIANT_GET_PATH
Het pad <path>
is geen geldig pad voor variantextractie in <functionName>
.
Een geldig pad moet beginnen met $
en wordt gevolgd door nul of meer segmenten zoals [123]
, .name
, ['name']
of ["name"]
.
INVALID_WHERE_CONDITION
De WHERE-voorwaarde <condition>
bevat ongeldige expressies: <expressionList>
.
Herschrijf de query om vensterfuncties, statistische functies en generatorfuncties in de WHERE-component te voorkomen.
INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC
Kan ORDER BY of een vensterkader niet opgeven voor <aggFunc>
.
INVALID_WRITER_COMMIT_MESSAGE
De gegevensbronschrijver heeft een ongeldig aantal doorvoerberichten gegenereerd. Verwacht precies één schrijfdoorvoeringsbericht van elke taak, maar ontvangen <detail>
.
INVALID_WRITE_DISTRIBUTION
De aangevraagde schrijfdistributie is ongeldig.
Zie INVALID_WRITE_DISTRIBUTION voor meer informatie
JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE
De joinvoorwaarde <joinCondition>
heeft het ongeldige type <conditionType>
, verwacht 'BOOLEAN
'.
KAFKA_DATA_LOSS
Sommige gegevens zijn mogelijk verloren gegaan omdat ze niet meer beschikbaar zijn in Kafka;
de gegevens zijn verouderd door Kafka of het onderwerp is mogelijk verwijderd voordat alle gegevens in de
onderwerp is verwerkt.
Als u niet wilt dat uw streamingquery mislukt in dergelijke gevallen, stelt u de bronoptie failOnDataLoss in op false.
Reden:
Zie KAFKA_DATA_LOSS voor meer informatie
KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET
Kan pas lezen als het gewenste volgnummer <endSeqNum>
voor shard <shardId>
in
kinesis stream <stream>
met consumentenmodus <consumerMode>
. De query mislukt vanwege
mogelijk gegevensverlies. De laatste leesrecord stond op het volgnummer <lastSeqNum>
.
Dit kan gebeuren als de gegevens met endSeqNum al verouderd zijn of als de Kinesis-stroom was
verwijderd en gereconstrueerd met dezelfde naam. Het foutgedrag kan worden overschreven
door spark.databricks.kinesis.failOnDataLoss in te stellen op false in spark-configuratie.
KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD
De minimaal opgehaalde shardId van Kinesis (<fetchedShardId>
)
is kleiner dan de minimaal bijgehouden shardId (<trackedShardId>
).
Dit is onverwacht en treedt op wanneer een Kinesis-stream wordt verwijderd en opnieuw wordt gemaakt met dezelfde naam,
en een streamingquery die deze Kinesis-stream gebruikt, wordt opnieuw gestart met behulp van een bestaande controlepuntlocatie.
Start de streamingquery opnieuw op met een nieuwe controlepuntlocatie of maak een stream met een nieuwe naam.
KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION
Voor shard <shard>
heeft de laatste record die is gelezen uit Kinesis in eerdere fetches het volgnummer <lastSeqNum>
,
die groter is dan de record die in de huidige ophaalbewerking is gelezen met een volgnummer <recordSeqNum>
.
Dit is onverwacht en kan optreden wanneer de beginpositie van opnieuw proberen of volgende ophalen onjuist is geïnitialiseerd en kan leiden tot dubbele records downstream.
KRYO_BUFFER_OVERFLOW
Kryo serialisatie is mislukt: <exceptionMsg>
. U kunt dit voorkomen door de waarde '<bufferSizeConfKey>
' te verhogen.
LABELS_MISMATCH
Beginlabel <beginLabel>
komt niet overeen met het eindlabel <endLabel>
.
LOAD_DATA_PATH_NOT_EXISTS
HET INVOERpad LOAD DATA bestaat niet: <path>
.
LOCAL_MUST_WITH_SCHEMA_FILE
LOCAL moet worden gebruikt samen met het schema van file
, maar heeft: <actualSchema>
.
LOCATION_ALREADY_EXISTS
Kan de beheerde tabel niet een naam opgeven, omdat <identifier>
de bijbehorende locatie <location>
al bestaat. Kies een andere tabelnaam of verwijder eerst de bestaande locatie.
LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW
Sommige partities in Kafka-onderwerp(en) zijn verloren gegaan tijdens het uitvoeren van query's met Trigger.AvailableNow. De fout kan tijdelijk zijn: start uw query opnieuw op en rapporteert als u hetzelfde probleem nog steeds ziet.
topic-partitions for latest offset: <tpsForLatestOffset>
, topic-partitions for end offset: <tpsForEndOffset>
MALFORMED_AVRO_MESSAGE
Ongeldige Avro-berichten worden gedetecteerd in berichtdeserialisatie. Parseringsmodus: <mode>
. Als u een onjuist opgemaakt Avro-bericht wilt verwerken als null-resultaat, kunt u de optie 'modus' instellen als 'PERMISSIVE'.
MALFORMED_CHARACTER_CODING
Ongeldige waarde gevonden bij uitvoering <function>
met <charset>
MALFORMED_CSV_RECORD
Ongeldige CSV-record: <badRecord>
MALFORMED_RECORD_IN_PARSING
Ongeldige records worden gedetecteerd bij het parseren van records: <badRecord>
.
Parseringsmodus: <failFastMode>
. Als u onjuiste records wilt verwerken als null-resultaat, kunt u de optie 'modus' instellen als 'PERMISSIVE'.
Zie MALFORMED_RECORD_IN_PARSING voor meer informatie
MALFORMED_VARIANT
Variant binair is ongeldig. Controleer of de gegevensbron geldig is.
MANAGED_TABLE_WITH_CRED
Beheerde tabel maken met opslagreferenties wordt niet ondersteund.
MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID
Kan de gerealiseerde weergave niet <refreshType>
gebruiken omdat deze vooraf een pipelineId heeft. Als u de gerealiseerde weergave wilt inschakelen <refreshType>
, kunt u de gerealiseerde weergave verwijderen en opnieuw maken.
MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
De gerealiseerde weergavebewerking <operation>
is niet toegestaan:
Zie MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED voor meer informatie
MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS
Uitvoerexpressie <expression>
in een gerealiseerde weergave moet expliciet een alias hebben.
MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID
Gerealiseerde weergave <name>
kan niet worden gemaakt met streamingquery. Gebruik CREATE [OR REFRESH] STREAMING TABLE of verwijder het STREAM-trefwoord naar uw FROM-component om deze relatie om te zetten in een batchquery.
MATERIALIZED_VIEW_UNSUPPORTED_OPERATION
Bewerking <operation>
wordt niet ondersteund voor gerealiseerde weergaven voor deze versie.
MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED
Kan de nieuwe variabele <variableName>
niet maken omdat het aantal variabelen in de sessie het maximaal toegestane aantal (<maxNumVariables>
) overschrijdt.
MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE
maxRecordsPerFetch moet een positief geheel getal zijn dat kleiner is dan of gelijk is aan <kinesisRecordLimit>
MERGE_CARDINALITY_VIOLATION
De on-zoekvoorwaarde van de merge-instructie komt overeen met één rij uit de doeltabel met meerdere rijen van de brontabel.
Dit kan ertoe leiden dat de doelrij meer dan één keer wordt uitgevoerd met een update- of verwijderbewerking en niet is toegestaan.
METRIC_CONSTRAINT_NOT_SUPPORTED
METRIC CONSTRAINT is niet ingeschakeld.
METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
De opgegeven waarde '<argValue>
' wordt niet ondersteund door het argument '<argName>
' voor de METRIC_STORE tabelfunctie.
Zie METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR voor meer informatie
METRIC_STORE_UNSUPPORTED_ERROR
De functie <functionName>
Metric Store is momenteel uitgeschakeld in deze omgeving.
MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED
Kafka-gegevensbron in Trigger.AvailableNow moet dezelfde onderwerppartities opgeven in vooraf opgehaalde offset naar eind-offset voor elke microbatch. De fout kan tijdelijk zijn: start uw query opnieuw op en rapporteert als u hetzelfde probleem nog steeds ziet.
topic-partitions for pre-fetched offset: <tpsForPrefetched>
, topic-partitions for end offset: <tpsForEndOffset>
.
MISSING_AGGREGATION
De expressie <expression>
die niet wordt samengevoegd, is gebaseerd op kolommen die niet deelnemen aan de GROUP BY-component.
Voeg de kolommen of de expressie toe aan GROUP BY, aggregeren de expressie of gebruik <expressionAnyValue>
als u niet schelt welke van de waarden in een groep worden geretourneerd.
Zie MISSING_AGGREGATION voor meer informatie
MISSING_CONNECTION_OPTION
Verbindingen van het type '<connectionType>
' moeten de volgende opties bevatten: <requiredOptions>
.
MISSING_GROUP_BY
De query bevat geen GROUP BY-component. Voeg GROUP BY toe of zet deze om in de vensterfuncties met behulp van OVER-componenten.
MISSING_NAME_FOR_CHECK_CONSTRAINT
CHECK-beperking moet een naam hebben.
MISSING_PARAMETER_FOR_KAFKA
De parameter <parameterName>
is vereist voor Kafka, maar is niet opgegeven in <functionName>
.
MISSING_PARAMETER_FOR_ROUTINE
De parameter <parameterName>
is vereist, maar is niet opgegeven in <functionName>
.
MISSING_WINDOW_SPECIFICATION
Vensterspecificatie is niet gedefinieerd in de WINDOW-component voor <windowName>
. Raadpleeg '<docroot>
/sql-ref-syntax-qry-select-window.html' voor meer informatie over WINDOW-componenten.
MODIFY_BUILTIN_CATALOG
Het wijzigen van de ingebouwde catalogus <catalogName>
wordt niet ondersteund.
MULTIPLE_LOAD_PATH
Databricks Delta biedt geen ondersteuning voor meerdere invoerpaden in de load() API.
paden: <pathList>
. Eén DataFrame bouwen door te laden
meerdere paden uit dezelfde Delta-tabel laden, laad het hoofdpad van
de Delta-tabel met de bijbehorende partitiefilters. Als de meerdere paden
zijn afkomstig uit verschillende Delta-tabellen. Gebruik de union()/unionByName() API's van de gegevensset
om de DataFrames te combineren die worden gegenereerd door afzonderlijke load() API-aanroepen.
MULTIPLE_MATCHING_CONSTRAINTS
Er zijn ten minste twee overeenkomende beperkingen gevonden met de opgegeven voorwaarde.
MULTIPLE_TIME_TRAVEL_SPEC
Kan geen tijdreizen opgeven in zowel het tijdreizen als de opties.
MULTIPLE_XML_DATA_SOURCE
Meerdere gegevensbronnen met de naam <provider>
(<sourceNames>
) gedetecteerd. Geef de volledig gekwalificeerde klassenaam op of verwijder deze <externalSource>
uit het klassepad.
MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION
De expressie <expr>
biedt geen ondersteuning voor meer dan één bron.
MULTI_UDF_INTERFACE_ERROR
Niet toegestaan om meerdere UDF-interfaces, UDF-klasse <className>
te implementeren.
MUTUALLY_EXCLUSIVE_CLAUSES
Wederzijds exclusieve componenten of opties <clauses>
. Verwijder een van deze componenten.
MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE
De invoerquery verwacht een <expectedType>
, maar de onderliggende tabel is een <givenType>
.
NAMED_PARAMETERS_NOT_SUPPORTED
Benoemde parameters worden niet ondersteund voor de functie <functionName>
. Probeer in plaats daarvan de query opnieuw met positionele argumenten naar de functieaanroep.
NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS
Kan de functie <functionName>
niet aanroepen omdat benoemde argumentverwijzingen niet worden ondersteund. In dit geval was <argument>
de verwijzing naar het benoemde argument .
NAMED_PARAMETER_SUPPORT_DISABLED
Kan de functie <functionName>
niet aanroepen omdat verwijzingen naar benoemde argumenten hier niet zijn ingeschakeld.
In dit geval was <argument>
de verwijzing naar het benoemde argument .
Stel 'spark.sql.allowNamedFunctionArguments' in op 'true' om de functie in te schakelen.
NAMESPACE_ALREADY_EXISTS
Kan geen naamruimte <nameSpaceName>
maken omdat deze al bestaat.
Kies een andere naam, zet de bestaande naamruimte neer of voeg de component IF NOT EXISTS toe om bestaande naamruimte te tolereren.
NAMESPACE_NOT_EMPTY
Kan een naamruimte <nameSpaceNameName>
niet verwijderen omdat deze objecten bevat.
DROP NAMESPACE gebruiken... TRAPSGEWIJS om de naamruimte en alle bijbehorende objecten te verwijderen.
NAMESPACE_NOT_FOUND
De naamruimte <nameSpaceName>
kan niet worden gevonden. Controleer de spelling en juistheid van de naamruimte.
Als u de naam niet hebt gekwalificeerd, controleert u de uitvoer van de current_schema() of komt u de naam in aanmerking met de juiste naam.
Als u de fout bij neerzetten wilt tolereren, gebruikt u DROP NAMESPACE IF EXISTS.
NATIVE_IO_ERROR
Systeemeigen aanvraag is mislukt. requestId: <requestId>
, cloud: <cloud>
, bewerking: <operation>
aanvraag: [https: <https>
, method = , path = <path>
<method>
, params = <params>
, host = <host>
, headers = <headers>
, bodyLen = <bodyLen>
],
fout: <error>
NATIVE_XML_DATA_SOURCE_NOT_ENABLED
Systeemeigen XML-gegevensbron is niet ingeschakeld in dit cluster.
NESTED_AGGREGATE_FUNCTION
Het is niet toegestaan om een statistische functie te gebruiken in het argument van een andere statistische functie. Gebruik de interne statistische functie in een subquery.
NESTED_EXECUTE_IMMEDIATE
Geneste EXECUTE IMMEDIATE-opdrachten zijn niet toegestaan. Zorg ervoor dat de opgegeven SQL-query (<sqlString>
) geen andere OPDRACHT EXECUTE IMMEDIATE bevat.
NONEXISTENT_FIELD_NAME_IN_LIST
<nonExistFields>
Er bestaan geen velden. Beschikbare velden: <fieldNames>
NON_FOLDABLE_ARGUMENT
De functie <funcName>
vereist dat de parameter <paramName>
een vouwbare expressie van het type <paramType>
is, maar het werkelijke argument is een niet-vouwbaar argument.
NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Wanneer er meer dan één MATCHED-component in een MERGE-instructie staat, kan alleen de laatste MATCHED-component de voorwaarde weglaten.
NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Als er meer dan één NIET OVEREENKOMENDE BY SOURCE-component in een MERGE-instructie staan, kan alleen de laatste COMPONENT NIET OVEREENKOMEN MET SOURCE de voorwaarde weglaten.
NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION
Als er meer dan één COMPONENT NIET OVEREENKOMEND [BY TARGET] in een MERGE-instructie staat, kan alleen de laatste COMPONENT NIET OVEREENKOMEND [BY TARGET] de voorwaarde weglaten.
NON_LITERAL_PIVOT_VALUES
Letterlijke expressies die vereist zijn voor draaiwaarden, gevonden <expression>
.
NON_PARTITION_COLUMN
PARTITION-component mag niet de kolom met niet-partities bevatten: <columnName>
.
NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING
De functie Window wordt niet ondersteund in <windowFunc>
(als kolom <columnName>
) voor het streamen van DataFrames/Datasets.
Structured Streaming biedt alleen ondersteuning voor tijdvensteraggregatie met behulp van de functie WINDOW. (vensterspecificatie: <windowSpec>
)
NOT_ALLOWED_IN_FROM
Niet toegestaan in de FROM-component:
Zie NOT_ALLOWED_IN_FROM voor meer informatie
NOT_A_CONSTANT_STRING
De expressie <expr>
die wordt gebruikt voor de routine of component <name>
moet een constante STRING
zijn die NIET NULL is.
Zie NOT_A_CONSTANT_STRING voor meer informatie
NOT_A_PARTITIONED_TABLE
Bewerking <operation>
is niet toegestaan <tableIdentWithDB>
omdat het geen gepartitioneerde tabel is.
NOT_A_SCALAR_FUNCTION
<functionName>
wordt hier weergegeven als een scalaire expressie, maar de functie is gedefinieerd als een tabelfunctie. Werk de query bij om de functie-aanroep naar de FROM-component te verplaatsen of opnieuw te definiëren <functionName>
als een scalaire functie.
NOT_A_TABLE_FUNCTION
<functionName>
wordt hier weergegeven als een tabelfunctie, maar de functie is gedefinieerd als een scalaire functie. Werk de query bij om de functie-aanroep buiten de FROM-component te verplaatsen of opnieuw te definiëren <functionName>
als een tabelfunctie.
NOT_NULL_ASSERT_VIOLATION
Null-waarde wordt weergegeven in een niet-null-veld: <walkedTypePath>
als het schema wordt afgeleid van een Scala-tuple-/caseklasse of een Java-bean, probeert u scala te gebruiken. Option[_] of andere typen nullable (zoals java.lang.Integer in plaats van int/scala. Int).
NOT_NULL_CONSTRAINT_VIOLATION
Het toewijzen van een NULL is hier niet toegestaan.
Zie NOT_NULL_CONSTRAINT_VIOLATION voor meer informatie
NOT_SUPPORTED_CHANGE_COLUMN
ALTER TABLE ALTER/CHANGE COLUMN wordt niet ondersteund voor het wijzigen <table>
van de kolom <originName>
met het type <originType>
<newName>
in .<newType>
NOT_SUPPORTED_COMMAND_FOR_V2_TABLE
<cmd>
wordt niet ondersteund voor v2-tabellen.
NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT
<cmd>
wordt niet ondersteund als u deze wilt inschakelen, stelt u 'spark.sql.catalogImplementation' in op 'hive'.
NOT_SUPPORTED_IN_JDBC_CATALOG
Opdracht in JDBC-catalogus wordt niet ondersteund:
Zie NOT_SUPPORTED_IN_JDBC_CATALOG voor meer informatie
NOT_SUPPORTED_WITH_DB_SQL
<operation>
wordt niet ondersteund in een SQL <endpoint>
.
NOT_SUPPORTED_WITH_SERVERLESS
<operation>
wordt niet ondersteund op serverloze berekeningen.
NOT_UNRESOLVED_ENCODER
Niet-opgeloste encoder verwacht, maar <attr>
is gevonden.
NO_DEFAULT_COLUMN_VALUE_AVAILABLE
Kan de standaardwaarde <colName>
niet bepalen omdat deze niet nullable is en er geen standaardwaarde is.
NO_HANDLER_FOR_UDAF
Geen handler voor UDAF '<functionName>
'. Gebruik in plaats daarvan sparkSession.udf.register(...) .
NO_MERGE_ACTION_SPECIFIED
df.mergeInto moet worden gevolgd door ten minste één van whenMatched/whenNotMatched/whenNotMatchedBySource.
NO_PARENT_EXTERNAL_LOCATION_FOR_PATH
SQLSTATE: geen toegewezen
Er is geen bovenliggende externe locatie gevonden voor pad '<path>
'. Maak een externe locatie op een van de bovenliggende paden en voer de query of opdracht opnieuw uit.
NO_SQL_TYPE_IN_PROTOBUF_SCHEMA
Kan niet vinden <catalystFieldPath>
in Protobuf-schema.
NO_STORAGE_LOCATION_FOR_TABLE
SQLSTATE: geen toegewezen
Er is geen opslaglocatie gevonden voor tabel '<tableId>
' bij het genereren van tabelreferenties. Controleer het tabeltype en de URL van de tabellocatie en voer de query of opdracht opnieuw uit.
NO_SUCH_CATALOG_EXCEPTION
SQLSTATE: geen toegewezen
Catalogus '<catalog>
' is niet gevonden. Controleer de naam van de catalogus en voer de query of opdracht opnieuw uit.
NO_SUCH_CLEANROOM_EXCEPTION
SQLSTATE: geen toegewezen
De schone kamer '<cleanroom>
' bestaat niet. Controleer of de naam van de schone ruimte juist is gespeld en overeenkomt met de naam van een geldige bestaande clean room en voer de query of opdracht opnieuw uit.
NO_SUCH_EXTERNAL_LOCATION_EXCEPTION
SQLSTATE: geen toegewezen
De externe locatie '<externalLocation>
' bestaat niet. Controleer of de naam van de externe locatie juist is en voer de query of opdracht opnieuw uit.
NO_SUCH_METASTORE_EXCEPTION
SQLSTATE: geen toegewezen
De metastore is niet gevonden. Vraag uw accountbeheerder om een metastore toe te wijzen aan de huidige werkruimte en voer de query of opdracht opnieuw uit.
NO_SUCH_PROVIDER_EXCEPTION
SQLSTATE: geen toegewezen
De shareprovider '<providerName>
' bestaat niet. Controleer of de naam van de shareprovider juist is gespeld en overeenkomt met de naam van een geldige bestaande providernaam en voer de query of opdracht opnieuw uit.
NO_SUCH_RECIPIENT_EXCEPTION
SQLSTATE: geen toegewezen
De ontvanger '<recipient>
' bestaat niet. Controleer of de naam van de geadresseerde juist is gespeld en overeenkomt met de naam van een geldige bestaande geadresseerde en voer de query of opdracht opnieuw uit.
NO_SUCH_SHARE_EXCEPTION
SQLSTATE: geen toegewezen
De share '<share>
' bestaat niet. Controleer of de naam van de share juist is gespeld en overeenkomt met de naam van een geldige bestaande share en voer de query of opdracht opnieuw uit.
NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION
SQLSTATE: geen toegewezen
De opslagreferentie '<storageCredential>
' bestaat niet. Controleer of de naam van de opslagreferentie juist is gespeld en overeenkomt met de naam van een geldige bestaande opslagreferentie en voer de query of opdracht opnieuw uit.
NO_SUCH_USER_EXCEPTION
SQLSTATE: geen toegewezen
De gebruiker '<userName>
' bestaat niet. Controleer of de gebruiker aan wie u toestemming verleent of het eigendom wijzigt correct is gespeld en overeenkomt met de naam van een geldige bestaande gebruiker en voer de query of opdracht opnieuw uit.
NO_UDF_INTERFACE
UDF-klasse <className>
implementeert geen UDF-interface.
NULLABLE_COLUMN_OR_FIELD
Kolom of veld <name>
is null-baar, terwijl het verplicht is om niet-nullable te zijn.
NULLABLE_ROW_ID_ATTRIBUTES
Rij-id-kenmerken kunnen niet nullable zijn: <nullableRowIdAttrs>
.
NULL_DATA_SOURCE_OPTION
De optie <option>
Lezen/schrijven van gegevensbron kan geen null-waarde hebben.
NULL_MAP_KEY
Kan null niet gebruiken als kaartsleutel.
NULL_QUERY_STRING_EXECUTE_IMMEDIATE
Direct uitvoeren vereist een niet-null-variabele als de querytekenreeks, maar de opgegeven variabele <varName>
is null.
NUMERIC_OUT_OF_SUPPORTED_RANGE
De waarde <value>
kan niet worden geïnterpreteerd als numeriek omdat deze meer dan 38 cijfers heeft.
NUMERIC_VALUE_OUT_OF_RANGE
Zie NUMERIC_VALUE_OUT_OF_RANGE voor meer informatie
NUM_COLUMNS_MISMATCH
<operator>
kan alleen worden uitgevoerd op invoer met hetzelfde aantal kolommen, maar de eerste invoer heeft <firstNumColumns>
kolommen en de <invalidOrdinalNum>
invoer heeft <invalidNumColumns>
kolommen.
NUM_TABLE_VALUE_ALIASES_MISMATCH
Het aantal opgegeven aliassen komt niet overeen met het aantal uitvoerkolommen.
Functienaam: <funcName>
; aantal aliassen: <aliasesNum>
; aantal uitvoerkolommen: <outColsNum>
.
OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED
Er is geen aangepaste identiteitsclaim opgegeven.
ONLY_SECRET_FUNCTION_SUPPORTED_HERE
De aanroepende functie wordt hier niet ondersteund<location>
. <supportedFunctions>
Deze functie <functionName>
wordt hier ondersteund.
ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR
SQL-bewerking <operation>
wordt alleen ondersteund op Databricks SQL-connectors met ondersteuning voor Unity Catalog.
OPERATION_CANCELED
De bewerking is geannuleerd.
OPERATION_REQUIRES_UNITY_CATALOG
Voor bewerking <operation>
is Unity Catalog ingeschakeld.
OP_NOT_SUPPORTED_READ_ONLY
<plan>
wordt niet ondersteund in de sessiemodus alleen-lezen.
ORDER_BY_POS_OUT_OF_RANGE
ORDER BY-positie <index>
bevindt zich niet in de selectielijst (geldig bereik is [1, <size>
]).
PARQUET_CONVERSION_FAILURE
Kan geen Parquet-conversieprogramma maken voor het gegevenstype <dataType>
waarvan het Parquet-type is <parquetType>
.
Zie PARQUET_CONVERSION_FAILURE voor meer informatie
PARSE_EMPTY_STATEMENT
Syntaxisfout, onverwachte lege instructie.
PARSE_SYNTAX_ERROR
Syntaxisfout bij of in de buurt <error>
<hint>
.
PARTITIONS_ALREADY_EXIST
Kan de partitie(s) <partitionList>
NIET TOEVOEGEN of HERNOEMEN in de tabel <tableName>
omdat deze al bestaan.
Kies een andere naam, zet de bestaande partitie neer of voeg de component IF NOT EXISTS toe om een vooraf bestaande partitie te tolereren.
PARTITIONS_NOT_FOUND
De partitie(s) <partitionList>
kunnen niet worden gevonden in de tabel <tableName>
.
Controleer de partitiespecificatie en tabelnaam.
Gebruik ALTER TABLE om de fout bij neerzetten te tolereren... DROP IF EXISTS PARTITION.
PARTITION_LOCATION_ALREADY_EXISTS
De partitielocatie <locationPath>
bestaat al in de tabel <tableName>
.
PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY
Kan de INSTRUCTIE ALTER TABLE SET PARTITION LOCATION niet uitvoeren, omdat de
partitielocatie <location>
bevindt zich niet onder de tabelmap <table>
.
U kunt dit oplossen door de locatie van de partitie in te stellen op een submap van <table>
.
PARTITION_METADATA
<action>
is niet toegestaan voor tabellen <tableName>
omdat het opslaan van partitiemetagegevens niet wordt ondersteund in Unity Catalog.
PATH_ALREADY_EXISTS
Het pad <outputPath>
bestaat al. Stel de modus in als 'overschrijven' om het bestaande pad te overschrijven.
PATH_NOT_FOUND
Het pad bestaat niet: <path>
.
PIPE_OPERATOR_SELECT_CONTAINS_AGGREGATE_FUNCTION
De statistische functie <expr>
is niet toegestaan bij het gebruik van de pijpoperator |> SELECT-component; gebruik de pijpoperator |> AGGREGATE-component in plaats daarvan
PIVOT_VALUE_DATA_TYPE_MISMATCH
Ongeldige draaiwaarde '<value>
': waardegegevenstype <valueType>
komt niet overeen met het gegevenstype <pivotType>
van de draaikolom.
PROCEDURE_ARGUMENT_NUMBER_MISMATCH
In de procedure <procedureName>
worden argumenten verwacht <expected>
, maar <actual>
zijn opgegeven.
PROCEDURE_CREATION_EMPTY_ROUTINE
CREATE PROCEDURE met een lege routinedefinitie is niet toegestaan.
PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT
De parameter <parameterName>
wordt gedefinieerd met de parametermodus <parameterMode>
. DE PARAMETER OUT en INOUT kunnen niet worden weggelaten bij het aanroepen van een routine en bieden daarom geen ondersteuning voor een STANDAARDexpressie. Als u wilt doorgaan, verwijdert u de STANDAARDcomponent of wijzigt u de parametermodus in IN.
PROCEDURE_NOT_SUPPORTED
Opgeslagen procedure wordt niet ondersteund
PROCEDURE_NOT_SUPPORTED_WITH_HMS
Opgeslagen procedure wordt niet ondersteund met Hive Metastore. Gebruik in plaats daarvan Unity Catalog.
PROTOBUF_DEPENDENCY_NOT_FOUND
Kan afhankelijkheid niet vinden: <dependencyName>
.
PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND
Fout bij het lezen van protobuf descriptorbestand bij pad: <filePath>
.
PROTOBUF_FIELD_MISSING
<field>
Zoeken naar in Protobuf-schema bij <protobufSchema>
gegeven <matchSize>
overeenkomsten. Kandidaten: <matches>
.
PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA
Gevonden <field>
in Protobuf-schema, maar er is geen overeenkomst in het SQL-schema.
PROTOBUF_FIELD_TYPE_MISMATCH
Type komt niet overeen voor veld: <field>
.
PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED
Java-klassen worden niet ondersteund voor <protobufFunction>
. Neem contact op met databricks-ondersteuning over alternatieve opties.
PROTOBUF_MESSAGE_NOT_FOUND
Kan bericht <messageName>
niet vinden in Descriptor.
PROTOBUF_TYPE_NOT_SUPPORT
Protobuf-type wordt nog niet ondersteund: <protobufType>
.
PS_FETCH_RETRY_EXCEPTION
Taak in pubsub-ophaalfase kan niet opnieuw worden geprobeerd. Partitie <partitionInfo>
in fase <stageInfo>
, TID <taskId>
.
PS_INVALID_EMPTY_OPTION
<key>
mag geen lege tekenreeks zijn.
PS_INVALID_KEY_TYPE
Ongeldig sleuteltype voor PubSub-ontdubbeling: <key>
.
PS_INVALID_OPTION
De optie <key>
wordt niet ondersteund door PubSub. Het kan alleen worden gebruikt bij het testen.
PS_INVALID_OPTION_TYPE
Ongeldig type voor <key>
. Verwacht type <key>
moet worden getypt <type>
.
PS_INVALID_READ_LIMIT
Ongeldige leeslimiet voor PubSub-stream: <limit>
.
PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO
Ongeldige UnsafeRow om te decoderen naar PubSubMessageMetadata, het gewenste protoschema is: <protoSchema>
. De invoer UnsafeRow is mogelijk beschadigd: <unsafeRow>
.
PS_MISSING_AUTH_INFO
Kan de volledige PubSub-verificatiegegevens niet vinden.
PS_MISSING_REQUIRED_OPTION
Kan de vereiste optie niet vinden: <key>
.
PS_MOVING_CHECKPOINT_FAILURE
Verplaats geen onbewerkte gegevenscontrolepuntbestanden van <src>
naar de doelmap: <dest>
.
PS_MULTIPLE_FAILED_EPOCHS
PubSub-stream kan niet worden gestart omdat er meer dan één mislukte ophaalfunctie is: <failedEpochs>
.
PS_OPTION_NOT_IN_BOUNDS
<key>
moet binnen de volgende grenzen (<min>
, <max>
) vallen, exclusief beide grenzen.
PS_PROVIDE_CREDENTIALS_WITH_OPTION
Gedeelde clusters bieden geen ondersteuning voor verificatie met exemplaarprofielen. Geef rechtstreeks referenties op voor de stream met behulp van .option().
PS_SPARK_SPECULATION_NOT_SUPPORTED
PubSub-bronconnector is alleen beschikbaar in het cluster met spark.speculation
uitgeschakeld.
PS_UNABLE_TO_CREATE_SUBSCRIPTION
Er is een fout opgetreden tijdens het maken van een abonnement <subId>
op onderwerp <topicId>
. Controleer of er voldoende machtigingen zijn om een abonnement te maken en probeer het opnieuw.
PS_UNABLE_TO_PARSE_PROTO
Kan geserialiseerde bytes niet parseren om proto te genereren.
PS_UNSUPPORTED_GET_OFFSET_CALL
getOffset wordt niet ondersteund zonder een limiet op te geven.
PYTHON_DATA_SOURCE_ERROR
Kan python-gegevensbron <action>
niet gebruiken <type>
: <msg>
PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR
Mislukt wanneer de Python-streaminggegevensbron wordt uitgevoerd <action>
: <msg>
QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
Kan geen toegang krijgen tot de tabel waarnaar wordt verwezen omdat een eerder toegewezen kolommasker momenteel niet compatibel is met het tabelschema; als u wilt doorgaan, neemt u contact op met de eigenaar van de tabel om het beleid bij te werken:
Zie QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY voor meer informatie
QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
Kan geen toegang krijgen tot de tabel waarnaar wordt verwezen omdat een eerder toegewezen beveiligingsbeleid op rijniveau momenteel niet compatibel is met het tabelschema; als u wilt doorgaan, neemt u contact op met de eigenaar van de tabel om het beleid bij te werken:
Zie QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY voor meer informatie
READ_CURRENT_FILE_NOT_FOUND
<message>
Het is mogelijk dat de onderliggende bestanden zijn bijgewerkt. U kunt de cache in Spark expliciet ongeldig maken door de opdracht 'REFRESH TABLE tableName' uit te voeren in SQL of door de betrokken gegevensset/dataframe opnieuw te maken.
READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS
De aanroep van de functie <functionName>
heeft <parameterName>
en <alternativeName>
stelt deze in. Dit zijn aliassen van elkaar. Stel slechts één van hen in.
READ_TVF_UNEXPECTED_REQUIRED_PARAMETER
De vereiste parameter <parameterName>
voor de functie <functionName>
moet worden toegewezen op positie <expectedPos>
zonder de naam.
RECIPIENT_EXPIRATION_NOT_SUPPORTED
Alleen TIMESTAMP
typen /TIMESTAMP_LTZ/TIMESTAMP_NTZ worden ondersteund voor de vervaltijdstempel van geadresseerden.
RECURSIVE_PROTOBUF_SCHEMA
Er is recursieve verwijzing gevonden in het Protobuf-schema, dat standaard niet kan worden verwerkt door Spark: <fieldDescriptor>
. Stel de optie recursive.fields.max.depth
1 in op 10. Het is niet toegestaan om meer dan 10 niveaus van recursie te overschrijden.
RECURSIVE_VIEW
Recursieve weergave <viewIdent>
gedetecteerd (cyclus: <newPath>
).
REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION
Verwijzingen naar standaardkolomwaarden zijn niet toegestaan binnen de PARTITION-component.
RELATION_LARGER_THAN_8G
Kan geen groter <relationName>
dan 8G bouwen.
REMOTE_FUNCTION_HTTP_FAILED_ERROR
De externe HTTP-aanvraag is mislukt met code <errorCode>
en foutbericht <errorMessage>
REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR
Kan de <functionName>
SQL-functie niet evalueren omdat het JSON-resultaat niet kan worden geparseerd vanuit het externe HTTP-antwoord. Het foutbericht is <errorMessage>
. Raadpleeg de API-documentatie: <docUrl>
. Los het probleem op dat wordt aangegeven in het foutbericht en voer de query opnieuw uit.
REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR
Kan de <functionName>
SQL-functie niet evalueren omdat het onverwachte externe HTTP-antwoord niet kan worden verwerkt. Het foutbericht is <errorMessage>
. Raadpleeg de API-documentatie: <docUrl>
. Los het probleem op dat wordt aangegeven in het foutbericht en voer de query opnieuw uit.
REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT
De externe aanvraag is mislukt na het opnieuw proberen <N>
; de laatste mislukte HTTP-foutcode was <errorCode>
en het bericht was <errorMessage>
REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR
Kan de <functionName>
SQL-functie niet evalueren omdat <errorMessage>
. Controleer de vereisten in <docUrl>
. Los het probleem op dat wordt aangegeven in het foutbericht en voer de query opnieuw uit.
RENAME_SRC_PATH_NOT_FOUND
Kan de naam niet wijzigen omdat <sourcePath>
deze niet is gevonden.
REPEATED_CLAUSE
De <clause>
component kan maximaal één keer per <operation>
bewerking worden gebruikt.
REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY
De vereiste parameter <parameterName>
voor de functie <functionName>
is toegewezen op positie <positionalIndex>
zonder de naam.
Werk de functieaanroep bij om het benoemde argument voor <parameterName>
deze parameter te verwijderen of de positionele
argument op <positionalIndex>
en probeer de query opnieuw.
REQUIRED_PARAMETER_NOT_FOUND
Kan de functie <functionName>
niet aanroepen omdat de parameter met de naam <parameterName>
vereist is, maar de functieaanroep heeft geen waarde opgegeven. Werk de functieaanroep bij om een argumentwaarde op te geven (positioneel bij index <index>
of op naam) en voer de query opnieuw uit.
REQUIRES_SINGLE_PART_NAMESPACE
<sessionCatalog>
vereist een naamruimte met één onderdeel, maar wel <namespace>
.
RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT
De optie 'rescuedDataColumn' dataframe-API-lezer is wederzijds exclusief met de dataframe-API-optie 'singleVariantColumn'.
Verwijder een van deze en probeer de DataFrame-bewerking opnieuw uit te voeren.
RESERVED_CDC_COLUMNS_ON_WRITE
De schrijfbewerking bevat gereserveerde kolommen <columnList>
die worden gebruikt
intern als metagegevens voor Wijzigingengegevensfeed. Als u naar de tabel wilt schrijven, wijzigt u de naam of zet u neer
deze kolommen of schakel Gegevensfeed voor de tabel wijzigen uit door de instelling in te stellen
<config>
naar onwaar.
RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
De optie <option>
heeft beperkte waarden voor gedeelde clusters voor de <source>
bron.
Zie RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED voor meer informatie
ROUTINE_ALREADY_EXISTS
Kan de <newRoutineType>
<routineName>
naam niet maken omdat er al een <existingRoutineType>
naam bestaat.
Kies een andere naam, zet of vervang de bestaande <existingRoutineType>
naam of vervang de component IF NOT EXISTS om een bestaande <newRoutineType>
te tolereren.
ROUTINE_NOT_FOUND
De routine <routineName>
kan niet worden gevonden. Controleer de spelling en juistheid van het schema en de catalogus.
Als u de naam niet hebt gekwalificeerd met een schema en catalogus, controleert u de current_schema() uitvoer of kwalificeren u de naam met het juiste schema en de juiste catalogus.
Om de fout bij drop use DROP te tolereren... INDIEN AANWEZIG.
ROUTINE_PARAMETER_NOT_FOUND
De functie <functionName>
biedt geen ondersteuning voor de parameter <parameterName>
die op positie <pos>
is opgegeven.<suggestion>
ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME
De functie <routineName>
kan niet worden gemaakt omdat de opgegeven klassenaam '<className>
' is gereserveerd voor systeemgebruik. Wijzig de naam van de klasse en probeer het opnieuw.
ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED
Het maken van een CHECK-beperking voor een tabel <tableName>
met beveiligingsbeleid op rijniveau wordt niet ondersteund.
ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME
Een <statementType>
instructie heeft geprobeerd een beveiligingsbeleid op rijniveau toe te wijzen aan een tabel, maar twee of meer kolommen waarnaar wordt verwezen, hebben dezelfde naam <columnName>
, wat ongeldig is.
ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
Beveiligingsbeleid op rijniveau wordt <tableName>
niet ondersteund:
Zie ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED voor meer informatie
ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE
Kan niet <statementType>
<columnName>
uit de tabel <tableName>
komen omdat er naar wordt verwezen in een beveiligingsbeleid op rijniveau. De eigenaar van de tabel moet dit beleid verwijderen of wijzigen voordat u doorgaat.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE
MERGE INTO-bewerkingen bieden geen ondersteuning voor beveiligingsbeleid op rijniveau in de brontabel <tableName>
.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET
MERGE INTO-bewerkingen bieden geen ondersteuning voor het schrijven naar tabellen <tableName>
met beveiligingsbeleid op rijniveau.
ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME
Met deze instructie is geprobeerd een beveiligingsbeleid op rijniveau toe te wijzen aan een tabel, maar de kolom <columnName>
waarnaar wordt verwezen, heeft meerdere naamonderdelen, wat ongeldig is.
ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG
Beveiligingsbeleid op rijniveau wordt alleen ondersteund in Unity Catalog.
ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED
<mode>
klonen van tabel <tableName>
met beveiligingsbeleid op rijniveau wordt niet ondersteund.
ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED
<mode>
klonen naar tabel <tableName>
met beveiligingsbeleid op rijniveau wordt niet ondersteund.
ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER
Het gebruik van een constante als parameter in een beveiligingsbeleid op rijniveau wordt niet ondersteund. Werk de SQL-opdracht bij om de constante uit de rijfilterdefinitie te verwijderen en voer de opdracht opnieuw uit.
ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER
Kan de opdracht niet uitvoeren <statementType>
omdat het toewijzen van beveiligingsbeleid op rijniveau niet wordt ondersteund voor de doelgegevensbron met de tabelprovider: '<provider>
'.
ROW_SUBQUERY_TOO_MANY_ROWS
Meer dan één rij die wordt geretourneerd door een subquery die wordt gebruikt als een rij.
ROW_VALUE_IS_NULL
Null gevonden in een rij in de index <index>
, verwacht een niet-NULL-waarde.
RULE_ID_NOT_FOUND
Er is geen id gevonden voor de regelnaam '<ruleName>
'. Wijzig RuleIdCollection.scala als u een nieuwe regel toevoegt.
SAMPLE_TABLE_PERMISSIONS
Machtigingen worden niet ondersteund voor voorbeelddatabases/tabellen.
SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION
De gecorreleerde scalaire subquery '<sqlExpr>
' is niet aanwezig in GROUP BY, noch in een statistische functie.
Voeg deze toe aan GROUP BY met behulp van rangschikking of verpakt deze in first()
(of first_value
) als u niet belangrijk vindt welke waarde u krijgt.
SCALAR_SUBQUERY_TOO_MANY_ROWS
Meer dan één rij die wordt geretourneerd door een subquery die wordt gebruikt als een expressie.
SCHEDULE_PERIOD_INVALID
De planningsperiode moet <timeUnit>
een geheel getal tussen 1 en <upperBound>
(inclusief) zijn. Ontvangen: <actual>
.
SCHEMA_ALREADY_EXISTS
Kan geen schema <schemaName>
maken omdat het al bestaat.
Kies een andere naam, zet het bestaande schema neer of voeg de component IF NOT EXISTS toe om een bestaand schema te tolereren.
SCHEMA_NOT_EMPTY
Kan een schema <schemaName>
niet verwijderen omdat het objecten bevat.
DROP SCHEMA gebruiken... TRAPSGEWIJS om het schema en alle bijbehorende objecten te verwijderen.
SCHEMA_NOT_FOUND
Kan het schema <schemaName>
niet vinden. Controleer de spelling en juistheid van het schema en de catalogus.
Als u de naam niet met een catalogus hebt gekwalificeerd, controleert u de uitvoer current_schema() of komt u de naam in aanmerking met de juiste catalogus.
Als u de fout bij neerzetten wilt tolereren, gebruikt u DROP SCHEMA IF EXISTS.
SCHEMA_REGISTRY_CONFIGURATION_ERROR
Het schema uit het schemaregister kan niet worden geïnitialiseerd. <reason>
.
SECOND_FUNCTION_ARGUMENT_NOT_INTEGER
Het tweede argument van <functionName>
de functie moet een geheel getal zijn.
SECRET_FUNCTION_INVALID_LOCATION
Kan de opdracht niet uitvoeren <commandType>
met een of meer niet-versleutelde verwijzingen naar de functie SECRET. Versleutel het resultaat van elke dergelijke functie-aanroep met AES_ENCRYPT en probeer de opdracht opnieuw
SEED_EXPRESSION_IS_UNFOLDABLE
De seed-expressie van de expressie <seedExpr>
<exprWithSeed>
moet vouwbaar zijn.
SERVER_IS_BUSY
De server is bezet en kan de aanvraag niet verwerken. Wacht even en probeer het vervolgens opnieuw.
SORT_BY_WITHOUT_BUCKETING
sortBy moet samen met bucketBy worden gebruikt.
SPARK_JOB_CANCELLED
Taak <jobId>
geannuleerd <reason>
SPECIFY_BUCKETING_IS_NOT_ALLOWED
Een CREATE TABLE zonder expliciete kolomlijst kan geen bucketgegevens opgeven.
Gebruik het formulier met expliciete kolomlijst en geef bucketgegevens op.
U kunt ook bucketinformatie toestaan om te worden afgeleid door de component weg te laten.
SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED
Kan niet zowel CLUSTER BY als CLUSTERED BY opgeven IN BUCKETS.
SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED
Kan niet zowel CLUSTER BY als PARTITIONED BY opgeven.
SPECIFY_PARTITION_IS_NOT_ALLOWED
Een CREATE TABLE zonder expliciete kolomlijst kan niet PARTITIONED BY opgeven.
Gebruik het formulier met expliciete kolomlijst en geef PARTITIONED BY op.
U kunt partitioneren ook toestaan door de PARTITION BY-component weg te laten.
SQL_CONF_NOT_FOUND
Kan de SQL-configuratie <sqlConf>
niet vinden. Controleer of de configuratie bestaat.
STAGING_PATH_CURRENTLY_INACCESSIBLE
Tijdelijke fout tijdens het openen van het doelfasepad <path>
, probeer het over een paar minuten
STAR_GROUP_BY_POS
Ster (*) is niet toegestaan in een selectielijst wanneer GROUP BY een rangtelpositie wordt gebruikt.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE
Kan de stateful processorbewerking niet uitvoeren=<operationType>
met een ongeldige ingangsstatus=<handleState>
.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE
Kan stateful processorbewerking niet uitvoeren=<operationType>
met ongeldige timeMode=<timeMode>
STATEFUL_PROCESSOR_CANNOT_REINITIALIZE_STATE_ON_KEY
Kan de status van dezelfde groeperingssleutel niet opnieuw initialiseren tijdens de verwerking van de initiële status voor stateful processor. Ongeldige groeperingssleutel=<groupingKey>
. Controleer de initiële status, verwijder dubbele rijen en start de query opnieuw.
STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED
Statusvariabele met de naam <stateVarName>
is al gedefinieerd in de StatefulProcessor.
STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL
Kan TTL niet gebruiken voor status=<stateName>
in timeMode=<timeMode>
, gebruik in plaats daarvan TimeMode.ProcessingTime() .
STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE
De TTL-duur moet groter zijn dan nul voor de statusopslagbewerking=<operationType>
op status=<stateName>
.
STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE
Onbekende tijdmodus <timeMode>
. Geaccepteerde timeMode-modi zijn 'none', 'processingTime', 'eventTime'
STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS
Kan geen kolomfamilie maken met niet-ondersteund beginteken en naam=<colFamilyName>
.
STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME
Kan de bewerking kolomfamilie=<operationName>
met ongeldige naam=<colFamilyName>
niet uitvoeren. Kolomfamilienaam mag niet leeg zijn of voorloop-/volgspaties bevatten of het gereserveerde trefwoord =standaard gebruiken
STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE
Incompatibele schematransformatie met kolomfamilie=<colFamilyName>
, oldSchema=<oldSchema>
, newSchema=<newSchema>
.
STATE_STORE_HANDLE_NOT_INITIALIZED
De ingang is niet geïnitialiseerd voor deze StatefulProcessor.
Gebruik alleen de StatefulProcessor binnen de transformWithState-operator.
STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN
Onjuist aantal rangschikwoorden=<numOrderingCols>
voor bereikscancoderingsprogramma. Het aantal rangschikwoorden mag niet nul of groter zijn dan het aantal schemakolommen.
STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN
Onjuist aantal kolommen voor voorvoegsel=<numPrefixCols>
voor het scanprogramma voor voorvoegsels. Voorvoegselkolommen mogen niet nul of groter zijn dan of gelijk zijn aan het aantal schemakolommen.
STATE_STORE_INVALID_CONFIG_AFTER_RESTART
Kan niet schakelen <configName>
tussen <newConfig>
<oldConfig>
opnieuw opstarten. Stel deze optie in <configName>
<oldConfig>
of start opnieuw op met een nieuwe controlepuntmap.
STATE_STORE_INVALID_PROVIDER
De opgegeven state store-provider <inputClass>
wordt niet uitgebreid org.apache.spark.sql.execution.streaming.state.StateStoreProvider.
STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE
Kan niet wijzigen <stateVarName>
tussen <newType>
opnieuw opstarten van query's. Stel deze optie in <stateVarName>
<oldType>
of start opnieuw op met een nieuwe controlepuntmap.
STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED
De kolom Null-typevolgorde met de naam=<fieldName>
bij index=<index>
wordt niet ondersteund voor het encoder voor bereikscans.
STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY
De opgegeven State Store-provider <inputClass>
breidt org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay niet uit.
Daarom biedt het geen ondersteuning voor optie snapshotStartBatchId of readChangeFeed in de statusgegevensbron.
STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY
Bewerking voor statusopslag=<operationType>
niet ondersteund voor ontbrekende kolomfamilie=<colFamilyName>
.
STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED
Kolom met volgorde van variabele grootte met naam=<fieldName>
bij index=<index>
wordt niet ondersteund voor het encoder voor bereikscans.
STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST
Statische partitiekolom <staticName>
wordt ook opgegeven in de kolomlijst.
STDS_COMMITTED_BATCH_UNAVAILABLE
Geen vastgelegde batch gevonden, controlepuntlocatie: <checkpointLocation>
. Zorg ervoor dat de query een microbatch heeft uitgevoerd en doorgevoerd voordat u stopt.
STDS_CONFLICT_OPTIONS
De opties <options>
kunnen niet samen worden opgegeven. Geef het op.
STDS_FAILED_TO_READ_OPERATOR_METADATA
Kan de metagegevens van de operator voor checkpointLocation=<checkpointLocation>
en batchId=<batchId>
niet lezen.
Het bestand bestaat niet of het bestand is beschadigd.
Voer de streamingquery opnieuw uit om de metagegevens van de operator samen te stellen en rapporteer aan de bijbehorende community's of leveranciers als de fout zich blijft voordoen.
STDS_FAILED_TO_READ_STATE_SCHEMA
Kan het statusschema niet lezen. Het bestand bestaat niet of het bestand is beschadigd. opties: <sourceOptions>
.
Voer de streamingquery opnieuw uit om het statusschema samen te stellen en rapporteer aan de bijbehorende community's of leveranciers als de fout zich blijft voordoen.
STDS_INVALID_OPTION_VALUE
Ongeldige waarde voor bronoptie '<optionName>
':
Zie STDS_INVALID_OPTION_VALUE voor meer informatie
STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE
De status heeft geen partitie. Controleer of de query verwijst naar de geldige status. Opties: <sourceOptions>
STDS_OFFSET_LOG_UNAVAILABLE
Het offsetlogboek voor <batchId>
bestaat niet, controlepuntlocatie: <checkpointLocation>
.
Geef de batch-id op die beschikbaar is voor het uitvoeren van query's. U kunt query's uitvoeren op de beschikbare batch-id's via de gegevensbron voor metagegevens van de status.
STDS_OFFSET_METADATA_LOG_UNAVAILABLE
Metagegevens zijn niet beschikbaar voor offsetlogboek voor <batchId>
, controlepuntlocatie: <checkpointLocation>
.
Het controlepunt lijkt alleen te worden uitgevoerd met oudere Spark-versies. Voer de streamingquery uit met de recente Spark-versie, zodat Spark de metagegevens van de status maakt.
STDS_REQUIRED_OPTION_UNSPECIFIED
'<optionName>
' moet worden opgegeven.
STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS
Uitvoering van adaptieve query's wordt niet ondersteund voor stateful operators in Structured Streaming.
STREAMING_FROM_MATERIALIZED_VIEW
Kan niet streamen vanuit de gerealiseerde weergave <viewName>
. Streaming vanuit gerealiseerde weergaven wordt niet ondersteund.
STREAMING_OUTPUT_MODE
Ongeldige streaming-uitvoermodus: <outputMode>
.
Zie STREAMING_OUTPUT_MODE voor meer informatie
STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA
De naam van de streaming stateful operator komt niet overeen met de operator in metagegevens van de status. Dit gebeurt waarschijnlijk wanneer de gebruiker stateful operator voor bestaande streamingquery toevoegt/verwijdert/wijzigt.
Stateful operators in de metagegevens: [<OpsInMetadataSeq>
]; Stateful operators in de huidige batch: [<OpsInCurBatchSeq>
].
STREAMING_TABLE_NEEDS_REFRESH
Streamingtabel <tableName>
moet worden vernieuwd om uit te voeren <operation>
. Voer CREATE OR REFRESH STREAMING TABLE <tableName>
AS uit om de tabel bij te werken.
STREAMING_TABLE_NOT_SUPPORTED
Streamingtabellen kunnen alleen worden gemaakt en vernieuwd in Delta Live Tables en Databricks SQL Warehouses.
STREAMING_TABLE_OPERATION_NOT_ALLOWED
De bewerking <operation>
is niet toegestaan:
Zie STREAMING_TABLE_OPERATION_NOT_ALLOWED voor meer informatie
STREAMING_TABLE_QUERY_INVALID
Streamingtabel <tableName>
kan alleen worden gemaakt op basis van een streamingquery. Voeg het trefwoord STREAM toe aan uw FROM-component om deze relatie om te zetten in een streamingquery.
STREAM_NOT_FOUND_FOR_KINESIS_SOURCE
Kinesis stream <streamName>
is <region>
niet gevonden.
Start een nieuwe query die verwijst naar de juiste stroomnaam.
STRUCT_ARRAY_LENGTH_MISMATCH
Invoerrij beschikt niet over het verwachte aantal waarden dat vereist is voor het schema. <expected>
velden zijn vereist terwijl <actual>
waarden worden opgegeven.
SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT
De som van de COMPONENT LIMIT en de OFFSET-component mag niet groter zijn dan de maximumwaarde van het 32-bits gehele getal (2.147.483.647), maar de gevonden limiet = <limit>
, offset = <offset>
.
SYNC_METADATA_DELTA_ONLY
Opdracht voor het herstellen van metagegevens voor tabelsynchronisatie wordt alleen ondersteund voor deltatabel.
SYNC_METADATA_NOT_SUPPORTED
Opdracht voor het herstellen van metagegevens voor tabelsynchronisatie wordt alleen ondersteund voor Unity Catalog-tabellen.
SYNC_SRC_TARGET_TBL_NOT_SAME
De naam <srcTable>
van de brontabel moet gelijk zijn aan de naam <destTable>
van de doeltabel.
SYNTAX_DISCONTINUED
Ondersteuning van de component of het trefwoord: <clause>
is in deze context stopgezet.
Zie SYNTAX_DISCONTINUED voor meer informatie
TABLE_OR_VIEW_ALREADY_EXISTS
Kan geen tabel of weergave <relationName>
maken omdat deze al bestaat.
Kies een andere naam, zet het bestaande object neer, voeg de component IF NOT EXISTS toe om bestaande objecten te tolereren, voeg de OR REPLACE-component toe om de bestaande gerealiseerde weergave te vervangen of voeg de COMPONENT OR REFRESH toe om de bestaande streamingtabel te vernieuwen.
TABLE_OR_VIEW_NOT_FOUND
Kan de tabel of weergave <relationName>
niet vinden. Controleer de spelling en juistheid van het schema en de catalogus.
Als u de naam niet hebt gekwalificeerd met een schema, controleert u de current_schema() uitvoer of kwalificeren u de naam met het juiste schema en de juiste catalogus.
Gebruik DROP VIEW IF EXISTS of DROP TABLE ALS ER BESTAAT om de fout bij neerzetten te tolereren.
Zie TABLE_OR_VIEW_NOT_FOUND voor meer informatie
TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS
Kan de door de gebruiker gedefinieerde SQL-functie <functionName>
met TABLE-argumenten niet <action>
gebruiken omdat deze functionaliteit nog niet is geïmplementeerd.
TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON
Kan de door de gebruiker gedefinieerde Python-tabelfunctie niet analyseren: <msg>
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL
Kan de tabelfunctie <functionName>
niet evalueren omdat de metagegevens <requestedMetadata>
van de tabel zijn, maar de functie-aanroep <invalidFunctionCallProperty>
.
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID
Kan de tabelfunctie <functionName>
niet evalueren omdat de metagegevens van de tabel ongeldig zijn. <reason>
TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS
Er zijn te veel tabelargumenten voor een tabelwaardefunctie.
Er is één tabelargument toegestaan, maar wel: <num>
.
Als u dit wilt toestaan, stelt u 'spark.sql.allowMultipleTableArguments.enabled' in op 'true'
TABLE_WITH_ID_NOT_FOUND
Tabel met id <tableId>
kan niet worden gevonden. Controleer de juistheid van de UUID.
TASK_WRITE_FAILED
Taak is mislukt tijdens het schrijven van rijen naar <path>
.
TEMP_TABLE_OR_VIEW_ALREADY_EXISTS
Kan de tijdelijke weergave <relationName>
niet maken omdat deze al bestaat.
Kies een andere naam, zet of vervang de bestaande weergave of voeg de component IF NOT EXISTS toe om bestaande weergaven te tolereren.
TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS
TIJDELIJKE WEERGAVE MAKEN of de bijbehorende gegevensset-API's accepteren alleen namen van weergaven met één onderdeel, maar wel: <actualName>
.
UC_BUCKETED_TABLES
Bucketed tabellen worden niet ondersteund in Unity Catalog.
UC_CATALOG_NAME_NOT_PROVIDED
Geef voor Unity Catalog expliciet de naam van de catalogus op. BIJVOORBEELD SHOW GRANT your.address@email.com
ON CATALOG main.
UC_COMMAND_NOT_SUPPORTED
De opdrachten: <commandName>
worden niet ondersteund in Unity Catalog.
Zie UC_COMMAND_NOT_SUPPORTED voor meer informatie
UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE
De opdrachten: <commandName>
worden niet ondersteund voor Unity Catalog-clusters in de modus voor gedeelde toegang. Gebruik in plaats daarvan de modus voor toegang tot één gebruiker.
UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED
Het opgegeven referentietype wordt niet ondersteund.
UC_DATASOURCE_NOT_SUPPORTED
De gegevensbronindeling <dataSourceFormatName>
wordt niet ondersteund in Unity Catalog.
UC_DATASOURCE_OPTIONS_NOT_SUPPORTED
Opties voor gegevensbronnen worden niet ondersteund in Unity Catalog.
UC_EXTERNAL_VOLUME_MISSING_LOCATION
DE LOCATIE-component moet aanwezig zijn voor extern volume. Controleer de syntaxis CREATE EXTERNAL VOLUME ... LOCATIE ...' voor het maken van een extern volume.
UC_FAILED_PROVISIONING_STATE
De query is mislukt omdat deze heeft geprobeerd naar de tabel <tableName>
te verwijzen, maar dit niet kan doen: <failureReason>
. Werk de tabel <tableName>
bij om ervoor te zorgen dat deze zich in een actieve inrichtingsstatus bevindt en voer de query opnieuw uit.
UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED
Het maken van een tabel in Unity Catalog met een bestandsschema <schemeName>
wordt niet ondersteund.
Maak in plaats daarvan een federatieve gegevensbronverbinding met behulp van de opdracht CREATE CONNECTION voor dezelfde tabelprovider en maak vervolgens een catalogus op basis van de verbinding met de opdracht CREATE FOREIGN CATALOG om te verwijzen naar de tabellen daarin.
UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED
De Federatieweergave van Hive Metastore biedt geen ondersteuning voor afhankelijkheden in meerdere catalogi. In <view>
de Hive Metastore Federation-catalogus moet afhankelijkheid van hive_metastore of spark_catalog catalogus worden gebruikt, maar de afhankelijkheid <dependency>
ervan bevindt zich in een andere catalogus <referencedCatalog>
. Werk de afhankelijkheden bij om aan deze beperking te voldoen en voer de query of opdracht opnieuw uit.
UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED
Hive Metastore-federatie is niet ingeschakeld op dit cluster.
Toegang tot de catalogus <catalogName>
wordt niet ondersteund in dit cluster
UC_INVALID_DEPENDENCIES
Afhankelijkheden van <viewName>
worden vastgelegd als <storedDeps>
terwijl ze worden geparseerd als <parsedDeps>
. Dit is waarschijnlijk opgetreden door onjuist gebruik van een niet-SQL-API. U kunt afhankelijkheden in Databricks Runtime herstellen door ALTER VIEW <viewName>
AS <viewText>
uit te voeren.
UC_INVALID_NAMESPACE
Geneste of lege naamruimten worden niet ondersteund in Unity Catalog.
UC_INVALID_REFERENCE
Niet-Unity-Catalog-object <name>
kan niet worden verwezen in Unity Catalog-objecten.
UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED
Ondersteuning voor schrijven van Unity Catalog Lakehouse Federation is niet ingeschakeld voor provider <provider>
in dit cluster.
UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED
Het beheerde volume accepteert geen LOCATION-component. Controleer de syntaxis CREATE VOLUME ...' voor het maken van een beheerd volume.
UC_NOT_ENABLED
Unity Catalog is niet ingeschakeld voor dit cluster.
UC_QUERY_FEDERATION_NOT_ENABLED
Unity Catalog Query Federation is niet ingeschakeld voor dit cluster.
UC_SERVICE_CREDENTIALS_NOT_ENABLED
Servicereferenties zijn niet ingeschakeld voor dit cluster.
UC_VOLUMES_NOT_ENABLED
Ondersteuning voor Unity Catalog Volumes is niet ingeschakeld voor dit exemplaar.
UC_VOLUMES_SHARING_NOT_ENABLED
Ondersteuning voor volumedeling is niet ingeschakeld voor dit exemplaar.
UC_VOLUME_NOT_FOUND
Volume <name>
bestaat niet. Gebruik SHOW VOLUMES om beschikbare volumes weer te geven.
UDF_ERROR
SQLSTATE: geen toegewezen
Uitvoering van de functie <fn>
is mislukt
Zie UDF_ERROR voor meer informatie
UDF_LIMITS
Een of meer UDF-limieten zijn overschreden.
Zie UDF_LIMITS voor meer informatie
UDF_MAX_COUNT_EXCEEDED
De UDF-limiet voor de gehele query is overschreden voor <maxNumUdfs>
UDF's (beperkt tijdens openbare preview). Gevonden <numUdfs>
. De UDF's waren: <udfNames>
.
UDF_PYSPARK_ERROR
Python-werkrol is onverwacht afgesloten
Zie UDF_PYSPARK_ERROR voor meer informatie
UDF_PYSPARK_UNSUPPORTED_TYPE
PySpark UDF <udf>
(<eval-type>
) wordt niet ondersteund op clusters in de modus Gedeelde toegang.
UDF_PYSPARK_USER_CODE_ERROR
Uitvoering is mislukt.
Zie UDF_PYSPARK_USER_CODE_ERROR voor meer informatie
UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE
De standaardwaarde van de parameter wordt niet ondersteund voor de door de gebruiker gedefinieerde <functionType>
functie.
UDF_USER_CODE_ERROR
Uitvoering van de functie <fn>
is mislukt.
Zie UDF_USER_CODE_ERROR voor meer informatie
UDTF_ALIAS_NUMBER_MISMATCH
Het aantal aliassen dat is opgegeven in de AS-component komt niet overeen met het aantal kolommen dat door de UDTF wordt uitgevoerd.
Verwachte <aliasesSize>
aliassen, maar wel <aliasesNames>
.
Zorg ervoor dat het aantal opgegeven aliassen overeenkomt met het aantal kolommen dat door de UDTF wordt uitgevoerd.
UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD
Kan de door de gebruiker gedefinieerde tabelfunctie niet evalueren omdat de analysemethode een aangevraagde OrderingColumn heeft geretourneerd waarvan de kolomnaamexpressie een onnodige alias bevat. Verwijder deze alias <aliasName>
en probeer de query opnieuw.
UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS
Kan de door de gebruiker gedefinieerde tabelfunctie niet evalueren omdat de methode 'analyze' een aangevraagde select-expressie (<expression>
) heeft geretourneerd die geen bijbehorende alias bevat. Werk de UDTF bij om daar een alias op te geven en probeer de query opnieuw.
UNABLE_TO_ACQUIRE_MEMORY
Kan geen bytes aan geheugen verkrijgen <requestedBytes>
, ontvangen <receivedBytes>
.
UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE
Kan sql-type <toType>
niet converteren naar Protobuf-type <protobufType>
.
UNABLE_TO_FETCH_HIVE_TABLES
Kan tabellen van hive-database niet ophalen: <dbName>
. Foutklassenaam: <className>
.
UNABLE_TO_INFER_SCHEMA
Kan schema niet afleiden voor <format>
. Deze moet handmatig worden opgegeven.
UNAUTHORIZED_ACCESS
Onbevoegde toegang:
<report>
UNBOUND_SQL_PARAMETER
De niet-afhankelijke parameter gevonden: <name>
. Corrigeleer args
en geef een toewijzing van de parameter aan een letterlijke SQL- of verzamelingsconstructorfuncties zoals map()
, array()
. struct()
UNCLOSED_BRACKETED_COMMENT
Er is een niet-tussen haakje geplaatste opmerking gevonden. Voeg */ toe aan het einde van de opmerking.
UNEXPECTED_INPUT_TYPE
De parameter <paramIndex>
van de functie <functionName>
vereist het <requiredType>
type, maar <inputSql>
heeft het type <inputType>
.
UNEXPECTED_OPERATOR_IN_STREAMING_VIEW
Onverwachte operator <op>
in de INSTRUCTIE CREATE VIEW als streamingbron.
Een streamingweergavequery mag alleen bestaan uit SELECT-, WHERE- en UNION ALL-bewerkingen.
UNEXPECTED_POSITIONAL_ARGUMENT
Kan de functie <functionName>
niet aanroepen omdat deze positionele argumenten bevat die volgen op het benoemde argument dat is <parameterName>
toegewezen; rangschik ze opnieuw, zodat de positionele argumenten eerst komen en vervolgens de query opnieuw proberen.
UNEXPECTED_SERIALIZER_FOR_CLASS
De klasse <className>
heeft een onverwachte expressieserialisatie. Verwacht 'STRUCT
' of 'ALS' die '' retourneert maarSTRUCT
gevonden <expr>
.
UNKNOWN_FIELD_EXCEPTION
Er zijn onbekende velden aangetroffen tijdens het parseren: <unknownFieldBlob>
, die kunnen worden opgelost door een automatische nieuwe poging: <isRetryable>
Zie UNKNOWN_FIELD_EXCEPTION voor meer informatie
UNKNOWN_POSITIONAL_ARGUMENT
De aanroep van de functie <functionName>
bevat een onbekend positioneel argument <sqlExpr>
op positie <pos>
. Dit is ongeldig.
UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT
Onbekend primitief type met id <id>
is gevonden in een variantwaarde.
UNKNOWN_PROTOBUF_MESSAGE_TYPE
Een poging om te behandelen <descriptorName>
als een bericht, maar het was <containingType>
.
UNPIVOT_REQUIRES_ATTRIBUTES
UNPIVOT vereist dat alle opgegeven <given>
expressies kolommen zijn wanneer er geen <empty>
expressies worden gegeven. Dit zijn geen kolommen: [<expressions>
].
UNPIVOT_REQUIRES_VALUE_COLUMNS
Er moet ten minste één waardekolom worden opgegeven voor UNPIVOT, alle kolommen die zijn opgegeven als id's.
UNPIVOT_VALUE_DATA_TYPE_MISMATCH
Draaitabelkolommen moeten een minst gangbaar type delen, sommige typen niet: [<types>
].
UNPIVOT_VALUE_SIZE_MISMATCH
Alle kolommen met draaitabelwaarden moeten dezelfde grootte hebben als de kolomnamen van waarden (<names>
).
UNRECOGNIZED_PARAMETER_NAME
Kan de functie <functionName>
niet aanroepen omdat de functieaanroep een verwijzing naar een benoemd argument bevat voor het argument met de naam <argumentName>
, maar deze functie bevat geen handtekening met een argument met deze naam. Bedoelde u een van de volgende? [<proposal>
].
UNRECOGNIZED_SQL_TYPE
Niet-herkend SQL-type - naam: <typeName>
, id: <jdbcType>
.
UNRESOLVABLE_TABLE_VALUED_FUNCTION
Kan niet worden omgezet <name>
in een tabelwaardefunctie.
Zorg ervoor dat deze <name>
is gedefinieerd als een tabelwaardefunctie en dat alle vereiste parameters correct zijn opgegeven.
Als <name>
dit niet is gedefinieerd, maakt u de tabelwaardefunctie voordat u deze gebruikt.
Raadpleeg de Apache Spark-documentatie voor meer informatie over het definiëren van tabelwaardefuncties.
UNRESOLVED_ALL_IN_GROUP_BY
Het groeperen van kolommen voor GROUP BY ALL kan niet worden afgeleid op basis van de select-component. Geef expliciet de groeperingskolommen op.
UNRESOLVED_COLUMN
Een kolom-, variabele- of functieparameter met de naam <objectName>
kan niet worden omgezet.
Zie UNRESOLVED_COLUMN voor meer informatie
UNRESOLVED_FIELD
Een veld met de naam <fieldName>
kan niet worden omgezet met de kolom <columnPath>
struct-type.
Zie UNRESOLVED_FIELD voor meer informatie
UNRESOLVED_MAP_KEY
Kan kolom <objectName>
niet oplossen als een kaartsleutel. Als de sleutel een letterlijke tekenreeks is, voegt u de enkele aanhalingstekens eromheen toe.
Zie UNRESOLVED_MAP_KEY voor meer informatie
UNRESOLVED_ROUTINE
Kan routine <routineName>
op zoekpad <searchPath>
niet oplossen.
Zie UNRESOLVED_ROUTINE voor meer informatie
UNRESOLVED_USING_COLUMN_FOR_JOIN
DE KOLOM <colName>
USING kan niet worden omgezet aan de <side>
zijkant van de join. De <side>
kolommen aan de zijkant: [<suggestion>
].
UNRESOLVED_VARIABLE
Kan de variabele <variableName>
niet oplossen in het zoekpad <searchPath>
.
UNSUPPORTED_ADD_FILE
Geen ondersteuning voor het toevoegen van een bestand.
Zie UNSUPPORTED_ADD_FILE voor meer informatie
UNSUPPORTED_ARROWTYPE
Niet-ondersteund pijltype <typeName>
.
UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION
De functie <funcName>
biedt geen ondersteuning voor batchquery's.
UNSUPPORTED_CALL
Kan de methode '<methodName>
' van de klasse '<className>
' niet aanroepen.
Zie UNSUPPORTED_CALL voor meer informatie
UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING
Het type teken/varchar kan niet worden gebruikt in het tabelschema.
Als u wilt dat Spark deze als tekenreekstype behandelt als hetzelfde als Spark 3.0 en eerder, stelt u 'spark.sql.legacy.charVarcharAsString' in op 'true'.
UNSUPPORTED_CLAUSE_FOR_OPERATION
De <clause>
wordt niet ondersteund voor <operation>
.
UNSUPPORTED_COLLATION
Sortering <collationName>
wordt niet ondersteund voor:
Zie UNSUPPORTED_COLLATION voor meer informatie
UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE
De gemeenschappelijke voorouder van bronpad en sourceArchiveDir moet worden geregistreerd bij UC.
Als u dit foutbericht ziet, registreert u waarschijnlijk het bronpad en sourceArchiveDir op verschillende externe locaties.
Plaats ze op één externe locatie.
UNSUPPORTED_CONSTRAINT_CLAUSES
Beperkingsclausules <clauses>
worden niet ondersteund.
UNSUPPORTED_CONSTRAINT_TYPE
Niet-ondersteund beperkingstype. Alleen <supportedConstraintTypes>
worden ondersteund
UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY
Niet-ondersteund gegevensbrontype voor directe query op bestanden: <dataSourceType>
UNSUPPORTED_DATATYPE
Niet-ondersteund gegevenstype <typeName>
.
UNSUPPORTED_DATA_SOURCE_SAVE_MODE
De gegevensbron '<source>
' kan niet worden geschreven in de <createMode>
modus. Gebruik in plaats daarvan de modus Toevoegen of Overschrijven.
UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE
De <format>
gegevensbron biedt geen ondersteuning voor de kolom <columnName>
van het type <columnType>
.
UNSUPPORTED_DATA_TYPE_FOR_ENCODER
Kan geen encoder maken voor <dataType>
. Gebruik een ander uitvoergegevenstype voor uw UDF of DataFrame.
UNSUPPORTED_DEFAULT_VALUE
STANDAARDkolomwaarden worden niet ondersteund.
Zie UNSUPPORTED_DEFAULT_VALUE voor meer informatie
UNSUPPORTED_DESERIALIZER
De deserializer wordt niet ondersteund:
Zie UNSUPPORTED_DESERIALIZER voor meer informatie
UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
Kan geen gegenereerde kolom <fieldName>
maken met generatie-expressie <expressionStr>
omdat <reason>
.
UNSUPPORTED_EXPR_FOR_OPERATOR
Een queryoperator bevat een of meer niet-ondersteunde expressies.
Overweeg deze te herschrijven om vensterfuncties, statistische functies en generatorfuncties in de WHERE-component te voorkomen.
Ongeldige expressies: [<invalidExprSqls>
]
UNSUPPORTED_EXPR_FOR_PARAMETER
Een queryparameter bevat een niet-ondersteunde expressie.
Parameters kunnen variabelen of letterlijke waarden zijn.
Ongeldige expressie: [<invalidExprSql>
]
UNSUPPORTED_EXPR_FOR_WINDOW
Expressie <sqlExpr>
wordt niet ondersteund binnen een vensterfunctie.
UNSUPPORTED_FEATURE
De functie wordt niet ondersteund:
Zie UNSUPPORTED_FEATURE voor meer informatie
UNSUPPORTED_FN_TYPE
Niet-ondersteund door de gebruiker gedefinieerd functietype: <language>
UNSUPPORTED_GENERATOR
De generator wordt niet ondersteund:
Zie UNSUPPORTED_GENERATOR voor meer informatie
UNSUPPORTED_GROUPING_EXPRESSION
grouping()/grouping_id() kan alleen worden gebruikt met GroupingSets/Cube/Rollup.
UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE
<trigger>
met initiële positie <initialPosition>
wordt niet ondersteund met de Kinesis-bron
UNSUPPORTED_INSERT
Kan niet invoegen in het doel.
Zie UNSUPPORTED_INSERT voor meer informatie
UNSUPPORTED_JOIN_TYPE
Niet-ondersteund jointype '<typ>
'. Ondersteunde jointypen zijn onder andere: <supported>
.
UNSUPPORTED_MANAGED_TABLE_CREATION
Het maken van een beheerde tabel <tableName>
met behulp van gegevensbron <dataSource>
wordt niet ondersteund. U moet datasource DELTA gebruiken of een externe tabel maken met CREATE EXTERNAL TABLE <tableName>
... MET BEHULP VAN <dataSource>
...
UNSUPPORTED_MERGE_CONDITION
De bewerking MERGE bevat een niet-ondersteunde <condName>
voorwaarde.
Zie UNSUPPORTED_MERGE_CONDITION voor meer informatie
UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY
Tabel <tableName>
heeft een beveiligingsbeleid op rijniveau of kolommasker dat indirect verwijst naar een andere tabel met een beveiligingsbeleid op rijniveau of kolommasker. Dit wordt niet ondersteund. Oproepvolgorde: <callSequence>
UNSUPPORTED_OVERWRITE
Het doel waarvan ook wordt gelezen, kan niet worden overschreven.
Zie UNSUPPORTED_OVERWRITE voor meer informatie
UNSUPPORTED_SAVE_MODE
De opslagmodus <saveMode>
wordt niet ondersteund voor:
Zie UNSUPPORTED_SAVE_MODE voor meer informatie
UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK
<outputMode>
uitvoermodus wordt niet ondersteund voor <statefulOperator>
het streamen van DataFrames/DataSets zonder watermerk.
UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
Niet ondersteund voor het streamen van een weergave. Reden:
Zie UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW voor meer informatie
UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED
Streamingopties <options>
worden niet ondersteund voor gegevensbronnen <source>
in een gedeeld cluster. Controleer of de opties juist zijn opgegeven en gespeld en controleer ophttps://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode beperkingen.
UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED
Gegevensbron <sink>
wordt niet ondersteund als een streaming-sink op een gedeeld cluster.
UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED
Gegevensbron <source>
wordt niet ondersteund als streamingbron in een gedeeld cluster.
UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION
De functie <funcName>
biedt geen ondersteuning voor streaming. Verwijder het trefwoord STREAM
UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE
<streamReadLimit>
wordt niet ondersteund met de Kinesis-bron
UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
Niet-ondersteunde subquery-expressie:
Zie UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY voor meer informatie
UNSUPPORTED_TIMESERIES_COLUMNS
Het maken van een primaire sleutel met tijdreekskolommen wordt niet ondersteund
UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN
Het maken van een primaire sleutel met meer dan één tijdreekskolom <colSeq>
wordt niet ondersteund
UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE
<trigger>
wordt niet ondersteund met de Kinesis-bron
UNSUPPORTED_TYPED_LITERAL
Letterlijke gegevens van het type <unsupportedType>
worden niet ondersteund. Ondersteunde typen zijn <supportedTypes>
.
UNTYPED_SCALA_UDF
U gebruikt niet-getypte Scala UDF, die niet beschikt over de invoertypegegevens.
Spark kan blind null doorgeven aan de Scala-sluiting met primitief-type argument, en de sluiting ziet de standaardwaarde van het Java-type voor het null-argument, bijvoorbeeld udf((x: Int) => x, IntegerType)
, het resultaat is 0 voor null-invoer. Als u deze fout wilt verwijderen, kunt u het volgende doen:
- gebruik van getypte Scala UDF-API's (zonder parameter voor retourtype), bijvoorbeeld
udf((x: Int) => x)
. - Java UDF API's gebruiken, bijvoorbeeld
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)
als invoertypen allemaal niet-primitief zijn. - stel 'spark.sql.legacy.allowUntypedScalaUDF' in op 'true' en gebruik deze API met voorzichtigheid.
UPGRADE_NOT_SUPPORTED
Tabel komt niet in aanmerking voor een upgrade van Hive Metastore naar Unity Catalog. Reden:
Zie UPGRADE_NOT_SUPPORTED voor meer informatie
USER_DEFINED_FUNCTIONS
Door de gebruiker gedefinieerde functie is ongeldig:
Zie USER_DEFINED_FUNCTIONS voor meer informatie
USER_RAISED_EXCEPTION
<errorMessage>
USER_RAISED_EXCEPTION_PARAMETER_MISMATCH
De raise_error()
functie is gebruikt om foutklasse te genereren: <errorClass>
die parameters verwacht: <expectedParms>
.
De opgegeven parameters <providedParms>
komen niet overeen met de verwachte parameters.
Zorg ervoor dat u alle verwachte parameters opgeeft.
USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS
De raise_error()
functie is gebruikt om een onbekende foutklasse te genereren: <errorClass>
VARIABLE_ALREADY_EXISTS
Kan de variabele <variableName>
niet maken omdat deze al bestaat.
Kies een andere naam of verwijder of vervang de bestaande variabele.
VARIABLE_NOT_FOUND
De variabele <variableName>
kan niet worden gevonden. Controleer de spelling en juistheid van het schema en de catalogus.
Als u de naam niet hebt gekwalificeerd met een schema en catalogus, controleert u de current_schema() uitvoer of kwalificeren u de naam met het juiste schema en de juiste catalogus.
Als u de fout bij neerzetten wilt tolereren, gebruikt u DROP VARIABLE IF EXISTS.
VARIANT_CONSTRUCTOR_SIZE_LIMIT
Kan geen variant maken die groter is dan 16 MiB. De maximaal toegestane grootte van een variantwaarde is 16 MiB.
VARIANT_DUPLICATE_KEY
Kan een variant niet maken vanwege een dubbele objectsleutel <key>
.
VARIANT_SIZE_LIMIT
Kan geen variant bouwen die groter is dan <sizeLimit>
in <functionName>
.
Vermijd grote invoertekenreeksen voor deze expressie (voeg bijvoorbeeld functie-aanroepen toe om de expressiegrootte te controleren en converteer deze eerst naar NULL als deze te groot is).
VIEW_ALREADY_EXISTS
Kan de weergave <relationName>
niet maken omdat deze al bestaat.
Kies een andere naam, zet of vervang het bestaande object of voeg de component IF NOT EXISTS toe om bestaande objecten te tolereren.
VIEW_EXCEED_MAX_NESTED_DEPTH
De diepte van de weergave <viewName>
overschrijdt de maximale resolutiediepte (<maxNestedDepth>
).
Analyse wordt afgebroken om fouten te voorkomen. Als u dit wilt omzeilen, probeert u de waarde van 'spark.sql.view.maxNestedViewDepth' te verhogen.
VIEW_NOT_FOUND
Kan de weergave <relationName>
niet vinden. Controleer de spelling en juistheid van het schema en de catalogus.
Als u de naam niet hebt gekwalificeerd met een schema, controleert u de current_schema() uitvoer of kwalificeren u de naam met het juiste schema en de juiste catalogus.
Als u de fout bij neerzetten wilt tolereren, gebruikt u DROP VIEW IF EXISTS.
VOLUME_ALREADY_EXISTS
Kan geen volume <relationName>
maken omdat het al bestaat.
Kies een andere naam, zet of vervang het bestaande object of voeg de component IF NOT EXISTS toe om bestaande objecten te tolereren.
WINDOW_FUNCTION_AND_FRAME_MISMATCH
<funcName>
de functie kan alleen worden geëvalueerd in een geordende vensterkader op basis van rijen met één offset: <windowExpr>
.
WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE
Voor de functie <funcName>
Window is een OVER-component vereist.
WITH_CREDENTIAL
DE SYNTAXIS VAN REFERENTIES wordt niet ondersteund voor <type>
.
WRITE_STREAM_NOT_ALLOWED
writeStream
kan alleen worden aangeroepen voor streaminggegevensset/DataFrame.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED
Kan de opdracht niet uitvoeren omdat STANDAARDwaarden niet worden ondersteund bij het toevoegen van nieuwe waarden
kolommen naar eerder bestaande Delta-tabellen; voeg de kolom toe zonder een standaardwaarde
waarde eerst en voer vervolgens een tweede ALTER TABLE ALTER COLUMN SET DEFAULT-opdracht uit om toe te passen
voor toekomstige ingevoegde rijen.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED
Kan de opdracht niet uitvoeren <commandType>
omdat er een kolom DEFAULT-waarde is toegewezen,
maar de bijbehorende tabelfunctie is niet ingeschakeld. Probeer de opdracht opnieuw
na het uitvoeren van ALTER TABLEName SET
TBLPROPERTIES('delta.feature.allowColumnDefaults' = 'supported').
WRONG_COMMAND_FOR_OBJECT_TYPE
Voor de bewerking <operation>
is een <requiredType>
. Maar <objectName>
is een <foundType>
. Gebruik in plaats daarvan <alternative>
.
WRONG_NUM_ARGS
Hiervoor <functionName>
zijn parameters vereist <expectedNum>
, maar het werkelijke getal is <actualNum>
.
Zie WRONG_NUM_ARGS voor meer informatie
XML_ROW_TAG_MISSING
<rowTag>
optie is vereist voor het lezen van bestanden in XML-indeling.
XML_UNSUPPORTED_NESTED_TYPES
XML biedt geen ondersteuning <innerDataType>
voor het binnenste type <dataType>
. Laat het <innerDataType>
binnen een StructType-veld inpakken wanneer u het binnen gebruikt <dataType>
.
XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR
Geredde gegevens en jokertekenkolom kunnen niet tegelijkertijd worden ingeschakeld. Verwijder de optie jokertekenColumnName.
ZORDERBY_COLUMN_DOES_NOT_EXIST
ZOrderBy-kolom <columnName>
bestaat niet.
Delta Lake
DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND
Kan actieve SparkSession niet vinden
DELTA_ACTIVE_TRANSACTION_ALREADY_SET
Kan een nieuwe txn niet instellen als actief wanneer er al een actief is
DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED
Kan kolom <colName>
niet toevoegen omdat de naam is gereserveerd.
DELTA_ADDING_DELETION_VECTORS_DISALLOWED
De huidige bewerking heeft geprobeerd een verwijderingsvector toe te voegen aan een tabel die het maken van nieuwe verwijderingsvectoren niet toestaat. Dien een foutenrapport in.
DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED
Alle bewerkingen die verwijderingsvectoren toevoegen, moeten de kolom TightBounds in statistieken instellen op false. Dien een foutenrapport in.
DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO
Index <columnIndex>
om een kolom <columnName>
toe te voegen is lager dan 0
DELTA_ADD_COLUMN_PARENT_NOT_STRUCT
Kan niet toevoegen <columnName>
omdat het bovenliggende element geen StructType is. Stichten <other>
DELTA_ADD_COLUMN_STRUCT_NOT_FOUND
Struct niet gevonden op positie <position>
DELTA_ADD_CONSTRAINTS
Gebruik ALTER TABLE ADD CONSTRAINT om CHECK-beperkingen toe te voegen.
DELTA_AGGREGATE_IN_GENERATED_COLUMN
Gevonden <sqlExpr>
. Een gegenereerde kolom kan geen statistische expressie gebruiken
DELTA_AGGREGATION_NOT_SUPPORTED
Statistische functies worden niet ondersteund in de <operation>
<predicate>
.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER
Kan de sortering van de kolom <column>
niet wijzigen omdat deze een bloeifilterindex heeft. Behoud de bestaande sortering of verwijder anders de bloeifilterindex en voer de opdracht opnieuw uit om de sortering te wijzigen.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY
Kan de sortering van de kolom <column>
niet wijzigen omdat het een clusterkolom is. Behoud de bestaande sortering of wijzig de kolom in een niet-clusteringkolom met de opdracht ALTER TABLE en voer de opdracht opnieuw uit om de sortering te wijzigen.
DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED
ALTER TABLE CHANGE COLUMN wordt niet ondersteund voor het wijzigen van de kolom <currentType>
in <newType>
DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED
ALTER TABLE CLUSTER BY wordt alleen ondersteund voor Delta-tabellen met Liquid-clustering.
DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED
ALTER TABLE CLUSTER BY kan niet worden toegepast op een gepartitioneerde tabel.
DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED
Bewerking niet toegestaan: ALTER TABLE RENAME TO is not allowed for managed Delta tables on S3, as eventual consistency on S3 may corrupt the Delta transaction log. Als u dit wilt doen en er zeker van bent dat er nog nooit een Delta-tabel met de nieuwe naam <newName>
is geweest, kunt u dit inschakelen door de instelling <key>
waar te maken.
DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
Kan de tabelfunctie niet inschakelen <tableFeature>
met ALTER TABLE SET TBLPROPERTIES. Gebruik CREATE OR REPLACE TABLE CLUSTER BY om een Delta-tabel te maken met clustering.
DELTA_AMBIGUOUS_DATA_TYPE_CHANGE
Kan het gegevenstype niet wijzigen van <column>
<from>
in <to>
. Deze wijziging bevat kolomverwijderingen en toevoegingen, daarom zijn ze dubbelzinnig. Breng deze wijzigingen afzonderlijk aan met ALTER TABLE [ADD | DROP | NAAM WIJZIGEN] KOLOM.
DELTA_AMBIGUOUS_PARTITION_COLUMN
Dubbelzinnige partitiekolom <column>
kan zijn <colMatches>
.
DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE
CREATE TABLE bevat twee verschillende locaties: <identifier>
en <location>
.
U kunt de LOCATION-component verwijderen uit de instructie CREATE TABLE of instellen
<config>
om deze controle over te slaan.
DELTA_ARCHIVED_FILES_IN_LIMIT
Tabel <table>
bevat niet voldoende records in niet-gearchiveerde bestanden om te voldoen aan de opgegeven LIMIET van <limit>
records.
DELTA_ARCHIVED_FILES_IN_SCAN
Er <numArchivedFiles>
zijn mogelijk gearchiveerde bestanden gevonden in een of meer tabellen <table>
die moeten worden gescand als onderdeel van deze query.
Gearchiveerde bestanden kunnen niet worden geopend. De huidige tijd totdat archivering is geconfigureerd als <archivalTime>
.
Pas uw queryfilters aan om gearchiveerde bestanden uit te sluiten.
DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION
Bewerking '<opName>
' is niet toegestaan wanneer de tabel wijzigingsgegevensfeed (CDF) heeft ingeschakeld en schemawijzigingen heeft ondergaan met DROP COLUMN of RENAME COLUMN.
DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS
Kan de bloeifilterindexen voor de volgende niet-bestaande kolommen niet verwijderen: <unknownColumns>
DELTA_BLOOM_FILTER_OOM_ON_WRITE
OutOfMemoryError is opgetreden tijdens het schrijven van bloeifilterindexen voor de volgende kolom(en): <columnsWithBloomFilterIndices>
.
U kunt de geheugenvoetafdruk van bloeifilterindexen verminderen door een kleinere waarde te kiezen voor de optie numItems, een grotere waarde voor de optie FPP of door minder kolommen te indexeren.
DELTA_CANNOT_CHANGE_DATA_TYPE
Kan het gegevenstype niet wijzigen: <dataType>
DELTA_CANNOT_CHANGE_LOCATION
Kan de 'locatie' van de Delta-tabel niet wijzigen met SET TBLPROPERTIES. Gebruik in plaats daarvan ALTER TABLE SET LOCATION.
DELTA_CANNOT_CHANGE_PROVIDER
Provider is een gereserveerde tabeleigenschap en kan niet worden gewijzigd.
DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL
Kan geen bloeifilterindexen maken voor de volgende niet-bestaande kolommen: <unknownCols>
DELTA_CANNOT_CREATE_LOG_PATH
Kan niet maken <path>
DELTA_CANNOT_DESCRIBE_VIEW_HISTORY
Kan de geschiedenis van een weergave niet beschrijven.
DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN
Kan de bloeifilterindex niet verwijderen voor een niet-geïndexeerde kolom: <columnName>
DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE
Kan de tabelfunctie CHECK-beperkingen niet verwijderen.
De volgende beperkingen moeten eerst worden verwijderd: <constraints>
.
DELTA_CANNOT_EVALUATE_EXPRESSION
Kan de expressie niet evalueren: <expression>
DELTA_CANNOT_FIND_BUCKET_SPEC
Een Bucketing Delta-tabel verwachten, maar kan de bucketspecificatie niet vinden in de tabel
DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION
Kan geen code genereren voor expressie: <expression>
DELTA_CANNOT_MODIFY_APPEND_ONLY
Deze tabel is zo geconfigureerd dat alleen toevoeggegevens zijn toegestaan. Gebruik ALTER TABLE <table_name> SET TBLPROPERTIES (<config>
=false) als u updates of verwijderingen wilt toestaan.
DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES
<Command>
kan de eigenschappen van de tijdstempeltabel voor doorvoeren niet overschrijven of ongedaan maken omdat gecoördineerde doorvoeringen zijn ingeschakeld in deze tabel en hiervan afhankelijk zijn. Verwijder ze ('delta.enableInCommitTimestamps', 'delta.inCommitTimestampEnablementVersion', 'delta.inCommitTimestampEnablementTimestamp') uit de TBLPROPERTIES-component en voer de opdracht opnieuw uit.
DELTA_CANNOT_MODIFY_TABLE_PROPERTY
De Delta-tabelconfiguratie <prop>
kan niet worden opgegeven door de gebruiker
DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS
<Command>
kan de configuraties van gecoördineerde doorvoeringen voor een bestaande doeltabel niet overschrijven. Verwijder deze ('delta.coordinatedCommits.commitCoordinator-preview', 'delta.coordinatedCommits.commitCoordinatorConf-preview', 'delta.coordinatedCommits.tableConf-preview') uit de TBLPROPERTIES-component en voer de opdracht opnieuw uit.
DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI
Er is een URI (<uri>
) gevonden die niet kan worden omgezet in een relatief pad in het transactielogboek.
DELTA_CANNOT_RELATIVIZE_PATH
Een pad (<path>
) dat niet kan worden gerelativeerd met de huidige invoer in de
transactielogboek. Voer dit opnieuw uit als:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<userPath>
", true)
en voer vervolgens ook het volgende uit:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<path>
")
DELTA_CANNOT_RENAME_PATH
Kan de naam niet wijzigen <currentPath>
in <newPath>
DELTA_CANNOT_REPLACE_MISSING_TABLE
Tabel <tableName>
kan niet worden vervangen omdat deze niet bestaat. Gebruik CREATE OR REPLACE TABLE om de tabel te maken.
DELTA_CANNOT_RESOLVE_COLUMN
Kan kolom <columnName>
niet oplossen in <schema>
DELTA_CANNOT_RESTORE_TABLE_VERSION
Kan de tabel niet herstellen naar versie <version>
. Beschikbare versies: [<startVersion>
, <endVersion>
].
DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER
Kan tabel niet herstellen naar tijdstempel (<requestedTimestamp>
) zoals deze is vóór de vroegste beschikbare versie. Gebruik een tijdstempel na (<earliestTimestamp>
).
DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER
Kan tabel niet herstellen naar tijdstempel (<requestedTimestamp>
) zoals deze is na de meest recente versie die beschikbaar is. Gebruik een tijdstempel voor (<latestTimestamp>
)
DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES
<Command>
kan geen tijdstempeltabeleigenschappen voor doorvoeren instellen in combinatie met gecoördineerde doorvoeringen, omdat deze laatste afhankelijk is van de vroegere en de voormalige intern instelt. Verwijder ze ('delta.enableInCommitTimestamps', 'delta.inCommitTimestampEnablementVersion', 'delta.inCommitTimestampEnablementTimestamp') uit de TBLPROPERTIES-component en voer de opdracht opnieuw uit.
DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER
Kan de locatie van een op pad gebaseerde tabel niet wijzigen.
DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY
Kan delta.managedDataSkippingStatsColumns niet instellen op een niet-DLT-tabel
DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS
ALTER kan configuraties voor gecoördineerde doorvoeringen niet ongedaan maken. Als u een tabel wilt downgraden van gecoördineerde doorvoeringen, probeert u het opnieuw met behulp van ALTER TABLE [table-name] DROP FEATURE 'coordinatedCommits-preview'
.
DELTA_CANNOT_UPDATE_ARRAY_FIELD
Kan het veld %1$s van het type %2$s niet bijwerken: het element bijwerken door %2$s.element bij te werken
DELTA_CANNOT_UPDATE_MAP_FIELD
Kan het veld %1$s van het type %2$s niet bijwerken: een kaart bijwerken door %2$s.key of %2$s.value bij te werken
DELTA_CANNOT_UPDATE_OTHER_FIELD
Kan het veld van het type niet bijwerken <tableName>
<typeName>
DELTA_CANNOT_UPDATE_STRUCT_FIELD
Kan veldtype <fieldName>
niet bijwerken<tableName>
: updatestruct door de velden toe te voegen, te verwijderen of bij te werken
DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION
Kan niet alle kolommen gebruiken voor partitiekolommen
DELTA_CANNOT_WRITE_INTO_VIEW
<table>
is een weergave. Schrijfbewerkingen naar een weergave worden niet ondersteund.
DELTA_CAST_OVERFLOW_IN_TABLE_WRITE
Kan geen waarde van het <sourceType>
type in de <targetType>
typekolom <columnName>
schrijven vanwege een overloop.
Gebruik try_cast
in plaats daarvan voor de invoerwaarde om overloop te tolereren en NULL te retourneren.
Stel indien nodig <storeAssignmentPolicyFlag>
in op 'VEROUDERD' om deze fout te omzeilen of stel <updateAndMergeCastingFollowsAnsiEnabledFlag>
deze in op true om terug te keren naar het oude gedrag en volg <ansiEnabledFlag>
bij UPDATE en MERGE.
DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION
Configuratie delta.enableChangeDataFeed kan niet worden ingesteld. Wijzigingsgegevensfeed van Delta is nog niet beschikbaar.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA
Het ophalen van tabelwijzigingen tussen de versie <start>
en <end>
mislukt vanwege een incompatibel gegevensschema.
Uw leesschema is <readSchema>
versie <readVersion>
, maar er is een incompatibel gegevensschema op versie <incompatibleVersion>
gevonden.
Haal indien mogelijk de tabelwijzigingen op met behulp van het schema van de eindversie door deze in te endVersion
stellen <config>
of neem contact op met de ondersteuning.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE
Het ophalen van tabelwijzigingen tussen de versie <start>
en <end>
mislukt vanwege een incompatibele schemawijziging.
Uw leesschema is <readSchema>
versie <readVersion>
, maar er is een incompatibele schemawijziging op versie <incompatibleVersion>
gevonden.
Voer, indien mogelijk, een query uit op tabelwijzigingen afzonderlijk van versie <start>
naar <incompatibleVersion>
- 1 en van versie <incompatibleVersion>
naar <end>
.
DELTA_CHANGE_DATA_FILE_NOT_FOUND
Kan het bestand <filePath>
waarnaar wordt verwezen in het transactielogboek niet vinden. Dit kan gebeuren wanneer gegevens handmatig uit het bestandssysteem zijn verwijderd in plaats van de tabelinstructie DELETE
te gebruiken. Deze aanvraag lijkt gericht te zijn op Wijzigingengegevensfeed, als dat het geval is, kan deze fout optreden wanneer het wijzigingsgegevensbestand buiten de bewaarperiode valt en is verwijderd door de VACUUM
instructie. Zie <faqPath>
voor meer informatie
DELTA_CHANGE_TABLE_FEED_DISABLED
Kan niet schrijven naar tabel met delta.enableChangeDataFeed-set. Wijzigingsgegevensfeed van Delta is niet beschikbaar.
DELTA_CHECKPOINT_NON_EXIST_TABLE
Kan geen controlepunt maken voor een niet-bestaande tabel <path>
. Hebt u bestanden in de _delta_log map handmatig verwijderd?
DELTA_CLONE_AMBIGUOUS_TARGET
Er zijn twee paden opgegeven als het CLONE-doel, zodat het dubbelzinnig is dat moet worden gebruikt. Een extern
locatie voor CLONE is opgegeven op <externalLocation>
hetzelfde moment als het pad
<targetIdentifier>
.
DELTA_CLONE_INCOMPLETE_FILE_COPY
Bestand (<fileName>
) niet volledig gekopieerd. Verwachte bestandsgrootte: <expectedSize>
, gevonden: <actualSize>
. Als u wilt doorgaan met de bewerking door de bestandsgroottecontrole te negeren die is ingesteld op <config>
false.
DELTA_CLONE_UNSUPPORTED_SOURCE
Niet-ondersteunde <mode>
kloonbron '<name>
', waarvan de indeling is <format>
.
De ondersteunde indelingen zijn 'delta', 'iceberg' en 'parquet'.
DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED
CLONE wordt niet ondersteund voor Delta-tabel met Liquid-clustering voor DBR-versie < 14.0.
DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED
CLUSTER BY wordt niet ondersteund omdat de volgende kolommen geen <columnsWithDataTypes>
ondersteuning bieden voor het overslaan van gegevens.
DELTA_CLUSTERING_COLUMNS_MISMATCH
De opgegeven clusterkolommen komen niet overeen met de bestaande tabel.
- mits:
<providedClusteringColumns>
- bestaand:
<existingClusteringColumns>
DELTA_CLUSTERING_COLUMN_MISSING_STATS
Voor liquide clustering moeten clusteringkolommen statistieken hebben. Kan clusteringkolom(s)<columns>
'' niet vinden in het statistiekenschema:
<schema>
DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE
Het maken van een externe tabel zonder vloeistofclustering vanuit een tabelmap met liquide clustering is niet toegestaan; pad: <path>
.
DELTA_CLUSTERING_NOT_SUPPORTED
'<operation>
' biedt geen ondersteuning voor clustering.
DELTA_CLUSTERING_PHASE_OUT_FAILED
Kan de <phaseOutType>
tabel niet voltooien met <tableFeatureToAdd>
de tabelfunctie (reden: <reason>
). Probeer de opdracht OPTIMIZE opnieuw.
== Fout ==
<error>
DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE
VERVANG een Delta-tabel door Liquid-clustering door een gepartitioneerde tabel niet.
DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS
SHOW CREATE TABLE wordt niet ondersteund voor Delta-tabel met Liquid-clustering zonder clusteringkolommen.
DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS
De overgang van een Delta-tabel met liquide clustering naar een gepartitioneerde tabel is niet toegestaan voor bewerkingen: <operation>
wanneer de bestaande tabel niet-lege clusteringkolommen bevat.
Voer ALTER TABLE CLUSTER BY NONE uit om eerst de clusteringkolommen te verwijderen.
DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE
De overschrijfmodus voor dynamische partities is niet toegestaan voor Delta-tabellen met Liquid-clustering.
DELTA_CLUSTERING_WITH_PARTITION_PREDICATE
De opdracht OPTIMIZE voor Delta-tabel met Liquid-clustering biedt geen ondersteuning voor partitiepredicaten. Verwijder de predicaten: <predicates>
.
DELTA_CLUSTERING_WITH_ZORDER_BY
De opdracht OPTIMIZE voor Delta-tabel met Liquid-clustering kan ZORDER BY niet opgeven. Verwijder ZORDER BY (<zOrderBy>
).
DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS
CLUSTER BY voor Liquid-clustering ondersteunt maximaal <numColumnsLimit>
clusteringkolommen, maar de tabel bevat <actualNumColumns>
clusterkolommen. Verwijder de extra clusteringkolommen.
DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED
Het is niet toegestaan OM CLUSTER BY op te geven wanneer het schema niet is gedefinieerd. Definieer het schema voor de tabel <tableName>
.
DELTA_CLUSTER_BY_WITH_BUCKETING
Clustering en bucketing kunnen niet beide worden opgegeven. Verwijder CLUSTERED BY IN BUCKETS/bucketBy als u een Delta-tabel wilt maken met clustering.
DELTA_CLUSTER_BY_WITH_PARTITIONED_BY
Clustering en partitionering kunnen niet beide worden opgegeven. Verwijder PARTITIONED BY/partitionBy/partitionedBy als u een Delta-tabel met clustering wilt maken.
DELTA_COLLATIONS_NOT_SUPPORTED
Sorteringen worden niet ondersteund in Delta Lake.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN
Het overslaan van gegevens wordt niet ondersteund voor de partitiekolom '<column>
'.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE
Het overslaan van gegevens wordt niet ondersteund voor kolom '<column>
' van het type <type>
.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET
De eigenschap max. kolom-id (<prop>
) is niet ingesteld op een tabel waarvoor kolomtoewijzing is ingeschakeld.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY
De eigenschap max column id (<prop>
) voor een tabel waarvoor kolomtoewijzing is ingeschakeld, is <tableMax>
, die niet kleiner kan zijn dan de maximale kolom-id voor alle velden (<fieldMax>
).
DELTA_COLUMN_MISSING_DATA_TYPE
Het gegevenstype van de kolom <colName>
is niet opgegeven.
DELTA_COLUMN_NOT_FOUND
Kan de kolom <columnName>
niet vinden die is opgegeven [<columnList>
]
DELTA_COLUMN_NOT_FOUND_IN_MERGE
Kan de kolom '<targetCol>
' van de doeltabel niet vinden vanuit de INSERT-kolommen: <colNames>
INSERT-component moet waarde opgeven voor alle kolommen van de doeltabel.
DELTA_COLUMN_NOT_FOUND_IN_SCHEMA
Kan kolom <columnName>
niet vinden in:
<tableSchema>
DELTA_COLUMN_PATH_NOT_NESTED
Verwacht <columnPath>
wordt dat het een genest gegevenstype is, maar gevonden <other>
. Was op zoek naar de
index van <column>
in een genest veld.
Schema:
<schema>
DELTA_COLUMN_STRUCT_TYPE_MISMATCH
De kolom <source>
Struct kan niet worden ingevoegd in een <targetType>
veld <targetField>
in <targetTable>
.
DELTA_COMPACTION_VALIDATION_FAILED
De validatie van de compressie van het pad <compactedPath>
is <newPath>
mislukt: dien een foutenrapport in.
DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE
Geneste NullType gevonden in kolom <columName>
van <dataType>
. Delta biedt geen ondersteuning voor het schrijven van NullType in complexe typen.
DELTA_CONCURRENT_APPEND
ConcurrentAppendException: Bestanden zijn toegevoegd door <partition>
een gelijktijdige update. <retryMsg>
<conflictingCommit>
Raadpleeg voor <docLink>
meer informatie.
DELTA_CONCURRENT_DELETE_DELETE
ConcurrentDeleteDeleteException: deze transactie heeft geprobeerd een of meer bestanden te verwijderen die zijn verwijderd (bijvoorbeeld <file>
) door een gelijktijdige update. Probeer de bewerking opnieuw.<conflictingCommit>
Raadpleeg voor <docLink>
meer informatie.
DELTA_CONCURRENT_DELETE_READ
ConcurrentDeleteReadException: deze transactie heeft geprobeerd een of meer bestanden te lezen die zijn verwijderd (bijvoorbeeld <file>
) door een gelijktijdige update. Probeer de bewerking opnieuw.<conflictingCommit>
Raadpleeg voor <docLink>
meer informatie.
DELTA_CONCURRENT_TRANSACTION
ConcurrentTransactionException: deze fout treedt op wanneer meerdere streamingquery's hetzelfde controlepunt gebruiken om naar deze tabel te schrijven. Hebt u meerdere exemplaren van dezelfde streamingquery tegelijkertijd uitgevoerd?<conflictingCommit>
Raadpleeg voor <docLink>
meer informatie.
DELTA_CONCURRENT_WRITE
ConcurrentWriteException: Een gelijktijdige transactie heeft nieuwe gegevens geschreven sinds de huidige transactie de tabel leest. Probeer de bewerking opnieuw.<conflictingCommit>
Raadpleeg voor <docLink>
meer informatie.
DELTA_CONFLICT_SET_COLUMN
Er is een conflict van deze SET-kolommen: <columnList>
.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND
Tijdens <command>
de opdracht kan configuratie '<configuration>
' niet worden ingesteld. Verwijder deze uit de TBLPROPERTIES-component en voer de opdracht opnieuw uit.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION
Tijdens <command>
kan de configuratie '<configuration>
' niet worden ingesteld vanuit de SparkSession-configuraties. Maak de installatie ongedaan door de opdracht uit te voeren spark.conf.unset("<configuration>")
en voer de opdracht opnieuw uit.
DELTA_CONSTRAINT_ALREADY_EXISTS
De beperking '<constraintName>
' bestaat al. Verwijder eerst de oude beperking.
Oude beperking:
<oldConstraint>
DELTA_CONSTRAINT_DATA_TYPE_MISMATCH
Kolom <columnName>
heeft een gegevenstype <columnType>
en kan niet worden gewijzigd in het gegevenstype <dataType>
omdat naar deze kolom wordt verwezen door de volgende controlebeperking(en):
<constraints>
DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE
Kan de kolom <columnName>
niet wijzigen omdat naar deze kolom wordt verwezen door de volgende controlebeperking(en):
<constraints>
DELTA_CONSTRAINT_DOES_NOT_EXIST
Kan de niet-bestaande beperking <constraintName>
niet uit de tabel <tableName>
verwijderen. Als u een fout wilt voorkomen, geeft u de parameter ALS BESTAAT op of stelt u de CONFIGURATIE van de SQL-sessie in <config>
op <confValue>
.
DELTA_CONVERSION_NO_PARTITION_FOUND
Er zijn geen partitiegegevens gevonden in de catalogus voor tabel <tableName>
. Hebt u MSCK REPAIR TABLE op uw tabel uitgevoerd om partities te detecteren?
DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN
Kan de Parquet-tabel met een gesorteerde partitiekolom <colName>
niet converteren naar Delta.
DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING
De configuratie '<config>
' kan niet worden ingesteld <mode>
wanneer u CONVERTEREN NAAR DELTA gebruikt.
DELTA_CONVERT_NON_PARQUET_TABLE
CONVERTEREN NAAR DELTA ondersteunt alleen parquet-tabellen, maar u probeert een <sourceName>
bron te converteren: <tableId>
DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS
Het bijhouden van rijen kan niet worden ingeschakeld zonder statistieken te verzamelen.
Ga als volgt te werk als u rijtracking wilt inschakelen:
Verzameling statistieken inschakelen door de opdracht uit te voeren
SET
<statisticsCollectionPropertyKey>
= true- Voer CONVERT TO DELTA uit zonder de optie GEEN STATISTIEKEN.
Als u geen statistieken wilt verzamelen, schakelt u het bijhouden van rijen uit:
Schakel het inschakelen van de tabelfunctie standaard uit door de opdracht uit te voeren:
TERUGSTELLEN
<rowTrackingTableFeatureDefaultKey>
De tabeleigenschap standaard deactiveren door het volgende uit te voeren:
SET
<rowTrackingDefaultPropertyKey>
= false
DELTA_COPY_INTO_TARGET_FORMAT
COPY INTO-doel moet een Delta-tabel zijn.
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA
U probeert een externe tabel te maken <tableName>
van het gebruik van <path>
Delta, maar het schema wordt niet opgegeven wanneer de
invoerpad is leeg.
Zie voor meer informatie over Delta <docLink>
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG
U probeert een externe tabel te maken <tableName>
van het gebruik van %2$s
Delta, maar er is geen transactielogboek aanwezig op
%2$s/_delta_log
. Controleer de upstream-taak om ervoor te zorgen dat deze wordt geschreven met behulp van
format("delta") en dat het pad de hoofdmap van de tabel is.
Zie voor meer informatie over Delta <docLink>
DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH
Het maken van een deltatabel op basis van een pad met een andere locatie wordt niet ondersteund. Id: <identifier>
, Locatie: <location>
DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION
De tabelnaam of -locatie moet worden opgegeven.
DELTA_CREATE_TABLE_SCHEME_MISMATCH
Het opgegeven schema komt niet overeen met het bestaande schema op <path>
.
== Opgegeven ==
<specifiedSchema>
== Bestaand ==
<existingSchema>
== Verschillen ==
<schemaDifferences>
Als u het bestaande schema wilt behouden, kunt u het volgende weglaten
schema van de opdracht Tabel maken. Zorg er anders voor dat
het schema komt overeen.
DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
Kan de tabelfunctie niet inschakelen <tableFeature>
met TBLPROPERTIES. Gebruik CREATE OR REPLACE TABLE CLUSTER BY om een Delta-tabel te maken met clustering.
DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING
De opgegeven clusteringkolommen komen niet overeen met de bestaande clusterkolommen op <path>
.
== Opgegeven ==
<specifiedColumns>
== Bestaand ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING
De opgegeven partitionering komt niet overeen met de bestaande partitionering op <path>
.
== Opgegeven ==
<specifiedColumns>
== Bestaand ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY
De opgegeven eigenschappen komen niet overeen met de bestaande eigenschappen op <path>
.
== Opgegeven ==
<specifiedProperties>
== Bestaand ==
<existingProperties>
DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION
Kan tabel ('<tableId>
') niet maken. De bijbehorende locatie ('<tableLocation>
') is niet leeg en is ook geen Delta-tabel.
DELTA_DATA_CHANGE_FALSE
Kan de metagegevens van de tabel niet wijzigen omdat de optie 'dataChange' is ingesteld op false. Poging tot bewerking: '<op>
'.
DELTA_DELETED_PARQUET_FILE_NOT_FOUND
Kan het bestand <filePath>
waarnaar wordt verwezen in het transactielogboek niet vinden. Dit Parquet-bestand kan worden verwijderd onder het bewaarbeleid voor gegevens van Delta.
Standaardretentieduur voor Delta-gegevens: <logRetentionPeriod>
. Wijzigingstijd van het parquet-bestand: <modificationTime>
. Verwijderingstijd van het parquet-bestand: <deletionTime>
. Verwijderd op Delta-versie: <deletionVersion>
.
DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS
Het is ongeldig om bestanden door te voeren met verwijderingsvectoren die de statistiek numRecords ontbreken.
DELTA_DOMAIN_METADATA_NOT_SUPPORTED
Gedetecteerde domainMetadata-actie(s) voor domeinen <domainNames>
, maar DomainMetadataTableFeature is niet ingeschakeld.
DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO
De index <columnIndex>
die moet worden verwijderd, is lager dan 0
DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA
Kan de kolom niet verwijderen uit een schema met één kolom. Schema:
<schema>
DELTA_DUPLICATE_ACTIONS_FOUND
Bestandsbewerking '<actionType>
' voor pad <path>
is meerdere keren opgegeven.
Het conflicteert met <conflictingPath>
.
Het is niet geldig voor meerdere bestandsbewerkingen met hetzelfde pad dat in één doorvoering moet bestaan.
DELTA_DUPLICATE_COLUMNS_FOUND
Dubbele kolom(en) <coltype>
gevonden: <duplicateCols>
DELTA_DUPLICATE_COLUMNS_ON_INSERT
Dubbele kolomnamen in INSERT-component
DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE
<message>
Verwijder dubbele kolommen voordat u de tabel bijwerkt.
DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS
Dubbele gegevens die kolommen overslaan, gevonden: <columns>
.
DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR
Interne fout: twee DomainMetadata-acties binnen dezelfde transactie hebben hetzelfde domein <domainName>
DELTA_DV_HISTOGRAM_DESERIALIZATON
Kan het verwijderde record niet deserialiseren tijdens de verificatie van de tabelintegriteit.
DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED
De overschrijfmodus voor dynamische partities wordt opgegeven door sessieconfiguratie- of schrijfopties, maar is uitgeschakeld door spark.databricks.delta.dynamicPartitionOverwrite.enabled=false
.
DELTA_EMPTY_DATA
Gegevens die worden gebruikt bij het maken van de Delta-tabel, hebben geen kolommen.
DELTA_EMPTY_DIRECTORY
Er is geen bestand gevonden in de map: <directory>
.
DELTA_EXCEED_CHAR_VARCHAR_LIMIT
De waarde '<value>
' overschrijdt de lengtelimiet voor tekens/varchartypen. Mislukte controle: <expr>
.
DELTA_FAILED_CAST_PARTITION_VALUE
Kan partitiewaarde <value>
niet casten naar <dataType>
DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS
Kan de bestaande doeluitvoer niet vinden <newAttributeName>
<targetOutputColumns>
DELTA_FAILED_INFER_SCHEMA
Kan het schema niet afleiden uit de opgegeven lijst met bestanden.
DELTA_FAILED_MERGE_SCHEMA_FILE
Kan het schema van het bestand <file>
niet samenvoegen:
<schema>
DELTA_FAILED_READ_FILE_FOOTER
Kan voettekst voor bestand niet lezen: <currentFile>
DELTA_FAILED_RECOGNIZE_PREDICATE
Kan het predicaat '<predicate>
' niet herkennen
DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION
Verwacht een volledige scan van de nieuwste versie van de Delta-bron, maar er is een historische scan van de versie gevonden <historicalVersion>
DELTA_FAILED_TO_MERGE_FIELDS
Kan de velden '<currentField>
' en '<updateField>
' niet samenvoegen
DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH
Kan niet werken op deze tabel omdat de volgende tabelfuncties zijn ingeschakeld in metagegevens, maar niet worden vermeld in protocol: <features>
.
DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT
Uw tabelschema vereist handmatig inschakelen van de volgende tabelfuncties: <unsupportedFeatures>
.
Voer hiervoor de volgende opdracht uit voor elk van de hierboven genoemde functies:
ALTER TABLE table_name SET TBLPROPERTIES ('delta.feature.feature_name' = 'supported')
Vervang 'table_name' en 'feature_name' door echte waarden.
Huidige ondersteunde functies: <supportedFeatures>
.
DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL
Kan de functie niet verwijderen omdat een gelijktijdige transactie de tabel heeft gewijzigd.
Probeer de bewerking opnieuw.
<concurrentCommit>
DELTA_FEATURE_DROP_DEPENDENT_FEATURE
Kan de tabelfunctie <feature>
niet verwijderen omdat sommige andere functies (<dependentFeatures>
) in deze tabel afhankelijk <feature>
zijn van.
Overweeg ze eerst te verwijderen voordat u deze functie neerbrengt.
DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT
Deze tabel kan niet worden verwijderd <feature>
omdat deze momenteel niet aanwezig is in het protocol van de tabel.
DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST
Kan niet verwijderen <feature>
omdat het Delta-logboek historische versies bevat die gebruikmaken van de functie.
Een ogenblik geduld tot de bewaarperiode van de geschiedenis (<logRetentionPeriodKey>
=<logRetentionPeriod>
)
is verstreken sinds de functie voor het laatst actief was.
U kunt ook wachten tot de bewaarperiode VOOR TRUNCATE HISTORY verloopt (<truncateHistoryLogRetentionPeriod>
)
en voer vervolgens het volgende uit:
ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY
DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED
Voor de specifieke functie is geen afkapping van de geschiedenis vereist.
DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE
Kan niet verwijderen <feature>
omdat het verwijderen van deze functie niet wordt ondersteund.
Neem contact op met de ondersteuning van Databricks.
DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE
Kan niet verwijderen <feature>
omdat deze niet wordt ondersteund door deze Databricks-versie.
Overweeg om Databricks met een hogere versie te gebruiken.
DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD
Het neerzetten <feature>
was gedeeltelijk gelukt.
De functie wordt nu niet meer gebruikt in de huidige versie van de tabel. De functie
is nog steeds aanwezig in historische versies van de tabel. De tabelfunctie kan niet worden verwijderd
van het tabelprotocol totdat deze historische versies zijn verlopen.
Als u de tabelfunctie uit het protocol wilt verwijderen, wacht u tot de historische versies zijn
verloopt en herhaal deze opdracht. De bewaarperiode voor historische versies is
momenteel geconfigureerd als <logRetentionPeriodKey>
=<logRetentionPeriod>
.
U kunt ook wachten tot de bewaarperiode VOOR TRUNCATE HISTORY verloopt (<truncateHistoryLogRetentionPeriod>
)
en voer vervolgens het volgende uit:
ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY
DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION
Kan de tabelfunctie <feature>
niet inschakelen omdat hiervoor een hogere protocolversie van de lezer (huidige <current>
) is vereist. Overweeg om de protocolversie van de lezer van de tabel te upgraden naar <required>
of naar een versie die ondersteuning biedt voor de tabelfuncties van de lezer. Raadpleeg voor <docLink>
meer informatie over tabelprotocolversies.
DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION
Kan de tabelfunctie <feature>
niet inschakelen omdat hiervoor een hogere writer-protocolversie (huidige <current>
) is vereist. Overweeg om de writer-protocolversie van de tabel te upgraden naar <required>
of naar een versie die ondersteuning biedt voor schrijftabelfuncties. Raadpleeg voor <docLink>
meer informatie over tabelprotocolversies.
DELTA_FILE_ALREADY_EXISTS
Bestaand bestandspad <path>
DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT
Kan de lijst met bestanden en de patroontekenreeks niet opgeven.
DELTA_FILE_NOT_FOUND
Bestandspad <path>
DELTA_FILE_NOT_FOUND_DETAILED
Kan het bestand <filePath>
waarnaar wordt verwezen in het transactielogboek niet vinden. Dit gebeurt wanneer gegevens handmatig uit het bestandssysteem zijn verwijderd in plaats van de tabelinstructie DELETE
te gebruiken. Zie <faqPath>
voor meer informatie
DELTA_FILE_OR_DIR_NOT_FOUND
Dit bestand of dergelijke map bestaat niet: <path>
DELTA_FILE_TO_OVERWRITE_NOT_FOUND
Bestand (<path>
) dat moet worden herschreven, kan niet worden gevonden tussen kandidaatbestanden:
<pathList>
DELTA_FOUND_MAP_TYPE_COLUMN
Er is een MapType gevonden. Als u toegang wilt krijgen tot de sleutel of waarde van een MapType, geeft u er een op
van:
<key>
of
<value>
gevolgd door de naam van de kolom (alleen als die kolom een structtype is).
bijvoorbeeld mymap.key.mykey
Als de kolom een basistype is, is mymap.key of mymap.value voldoende.
Schema:
<schema>
DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH
Kolom <columnName>
heeft een gegevenstype <columnType>
en kan niet worden gewijzigd in het gegevenstype <dataType>
omdat naar deze kolom wordt verwezen door de volgende gegenereerde kolommen:
<generatedColumns>
DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE
Kan de kolom <columnName>
niet wijzigen omdat naar deze kolom wordt verwezen door de volgende gegenereerde kolommen:
<generatedColumns>
DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH
Het expressietype van de gegenereerde kolom <columnName>
is <expressionType>
, maar het kolomtype is <columnType>
DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH
Kolom <currentName>
is een gegenereerde kolom of een kolom die wordt gebruikt door een gegenereerde kolom. Het gegevenstype is <currentDataType>
en kan niet worden geconverteerd naar het gegevenstype <updateDataType>
DELTA_ICEBERG_COMPAT_VIOLATION
De validatie van IcebergCompatV<version>
is mislukt.
Zie DELTA_ICEBERG_COMPAT_VIOLATION voor meer informatie
DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED
ALTER TABLE ALTER COLUMN wordt niet ondersteund voor IDENTITEITSkolommen.
DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT
ALTER TABLE ALTER COLUMN SYNC IDENTITY wordt alleen ondersteund door Delta.
DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN
ALTER TABLE ALTER COLUMN SYNC IDENTITY kan niet worden aangeroepen voor niet-IDENTITY-kolommen.
DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED
Het leveren van waarden voor de kolom <colName>
GENERATED ALWAYS AS IDENTITY wordt niet ondersteund.
DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP
De stap IDENTITEITSkolom mag niet 0 zijn.
DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT
IDENTITEITSkolommen worden alleen ondersteund door Delta.
DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED
DE KOLOM <colName>
PARTITIONED BY IDENTITY wordt niet ondersteund.
DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED
ALTER TABLE REPLACE COLUMNS wordt niet ondersteund voor tabellen met IDENTITEITSkolommen.
DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
DataType <dataType>
wordt niet ondersteund voor IDENTITY-kolommen.
DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED
UPDATE op de kolom <colName>
IDENTITY wordt niet ondersteund.
DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION
DE IDENTITEITSkolom kan niet worden opgegeven met een gegenereerde kolomexpressie.
DELTA_ILLEGAL_OPTION
Ongeldige waarde '<input>
' voor optie '<name>
', <explain>
DELTA_ILLEGAL_USAGE
Het gebruik van <option>
is niet toegestaan wanneer <operation>
een Delta-tabel.
DELTA_INCONSISTENT_BUCKET_SPEC
BucketSpec in de tabel met Delta-buckets komt niet overeen met BucketSpec uit metagegevens. Verwacht: <expected>
. Werkelijk: <actual>
.
DELTA_INCONSISTENT_LOGSTORE_CONFS
(<setKeys>
) kan niet worden ingesteld op verschillende waarden. Stel slechts één van deze waarden in of stel ze in op dezelfde waarde.
DELTA_INCORRECT_ARRAY_ACCESS
Onjuiste toegang tot een ArrayType. De positie arrayname.element.element gebruiken om
toevoegen aan een matrix.
DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME
Er is een ArrayType gevonden. Als u toegang wilt krijgen tot elementen van een ArrayType, geeft u
<rightName>
in plaats van <wrongName>
.
Schema:
<schema>
DELTA_INCORRECT_GET_CONF
Gebruiken getConf()
in plaats van 'conf.getConf()
DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION
De fout treedt meestal op wanneer de standaard LogStore-implementatie, die
is, HDFSLogStore, wordt gebruikt om te schrijven naar een Delta-tabel op een niet-HDFS-opslagsysteem.
Om de transactionele ACID-garanties voor tabelupdates op te halen, moet u de
juiste implementatie van LogStore die geschikt is voor uw opslagsysteem.
Zie <docLink>
voor meer informatie.
DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT
Index <position>
to drop column is equals to or is larger than struct length: <length>
DELTA_INDEX_LARGER_THAN_STRUCT
Index <index>
voor het toevoegen van een kolom <columnName>
is groter dan de structlengte: <length>
DELTA_INSERT_COLUMN_ARITY_MISMATCH
Kan niet schrijven naar '<tableName>
', de doeltabel heeft <numColumns>
een of meer kolommen, <columnName>
maar de ingevoegde gegevens bevatten <insertColumns>
kolom(en)
DELTA_INSERT_COLUMN_MISMATCH
Kolom <columnName>
is niet opgegeven in INSERT
DELTA_INVALID_AUTO_COMPACT_TYPE
Ongeldig type automatisch comprimeren: <value>
. Toegestane waarden zijn: <allowed>
.
DELTA_INVALID_BUCKET_COUNT
Ongeldig aantal buckets: <invalidBucketCount>
. Het aantal buckets moet een positief getal zijn dat de macht 2 en ten minste 8 is. U kunt in plaats daarvan gebruiken <validBucketCount>
.
DELTA_INVALID_BUCKET_INDEX
Kan de bucketkolom in de partitiekolommen niet vinden
DELTA_INVALID_CALENDAR_INTERVAL_EMPTY
Het interval mag niet null of leeg zijn.
DELTA_INVALID_CDC_RANGE
CDC-bereik van begin <start>
tot eind <end>
is ongeldig. Einde kan niet vóór het begin zijn.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME
Kenmerknaam "<columnName>
" bevat ongeldige tekens onder " ,;{}()\n\t=". Gebruik een alias om de naam ervan te wijzigen.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES
Ongeldige tekens gevonden onder ' ,;{}()nt=' in de kolomnamen van uw schema.
Ongeldige kolomnamen: <invalidColumnNames>
.
Gebruik andere tekens en probeer het opnieuw.
U kunt kolomtoewijzing ook inschakelen om deze tekens te blijven gebruiken.
DELTA_INVALID_CLONE_PATH
De doellocatie voor CLONE moet een absoluut pad of tabelnaam zijn. Een
absoluut pad in plaats van <path>
.
DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING
Ongeldige tekens gevonden onder ' ,;{}()nt=' in de kolomnamen van uw schema.
Ongeldige kolomnamen: <invalidColumnNames>
.
Kolomtoewijzing kan niet worden verwijderd wanneer de kolomnamen ongeldige tekens bevatten.
Wijzig de naam van de kolommen om de ongeldige tekens te verwijderen en voer deze opdracht opnieuw uit.
DELTA_INVALID_FORMAT
Niet-compatibele indeling gedetecteerd.
Er is een transactielogboek voor Delta gevonden op <deltaRootPath>
/_delta_log',
maar u probeert format("<format>
") te <operation>
<path>
gebruiken. U moet
'format("delta")' bij het lezen en schrijven naar een deltatabel.
Zie voor meer informatie over Delta <docLink>
DELTA_INVALID_GENERATED_COLUMN_REFERENCES
Een gegenereerde kolom kan geen niet-bestaande kolom of een andere gegenereerde kolom gebruiken
DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS
Ongeldige opties voor idempotent Dataframe-schrijfbewerkingen: <reason>
DELTA_INVALID_INTERVAL
<interval>
is geen geldig INTERVAL.
DELTA_INVALID_INVENTORY_SCHEMA
Het schema voor de opgegeven INVENTARIS bevat niet alle vereiste velden. Vereiste velden zijn: <expectedSchema>
DELTA_INVALID_ISOLATION_LEVEL
ongeldig isolatieniveau '<isolationLevel>
'
DELTA_INVALID_LOGSTORE_CONF
() en (<classConfig>
<schemeConfig>
) kunnen niet tegelijkertijd worden ingesteld. Stel slechts één groep van deze groepen in.
DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA
U probeert een beheerde tabel te maken <tableName>
met Delta, maar het schema is niet opgegeven.
Zie voor meer informatie over Delta <docLink>
DELTA_INVALID_PARTITION_COLUMN
<columnName>
is geen geldige partitiekolom in de tabel <tableName>
.
DELTA_INVALID_PARTITION_COLUMN_NAME
Partitiekolommen met ongeldige tekens gevonden onder " ;;{}()nt=". Wijzig de naam in de partitiekolommen. Deze controle kan worden uitgeschakeld door spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false) in te stellen, maar dit wordt niet aanbevolen omdat andere functies van Delta mogelijk niet goed werken.
DELTA_INVALID_PARTITION_COLUMN_TYPE
Het gebruik van een kolom <name>
van het type <dataType>
als partitiekolom wordt niet ondersteund.
DELTA_INVALID_PARTITION_PATH
Een partitiepadfragment moet het formulier zijn zoals part1=foo/part2=bar
. Het partitiepad: <path>
DELTA_INVALID_PROTOCOL_DOWNGRADE
Protocolversie kan niet worden gedowngraded van <oldProtocol>
naar <newProtocol>
DELTA_INVALID_PROTOCOL_VERSION
Niet-ondersteunde Delta-protocolversie: tabel '<tableNameOrPath>
' vereist lezerversie en schrijverversie<writerRequired>
<readerRequired>
, maar deze versie van Databricks ondersteunt lezerversies <supportedReaders>
en schrijfversies<supportedWriters>
. Voer een upgrade uit naar een nieuwere versie.
DELTA_INVALID_TABLE_VALUE_FUNCTION
Functie <function>
is een niet-ondersteunde tabelwaardefunctie voor CDC-leesbewerkingen.
DELTA_INVALID_TIMESTAMP_FORMAT
De opgegeven tijdstempel <timestamp>
komt niet overeen met de verwachte syntaxis <format>
.
DELTA_LOG_ALREADY_EXISTS
Er bestaat al een Delta-logboek op <path>
DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE
Als u deze nooit hebt verwijderd, loopt uw query waarschijnlijk achter. Verwijder het controlepunt om opnieuw op te starten. U kunt dit voorkomen door het bewaarbeleid van uw Delta-tabel bij te werken
DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING
Gerealiseerde <rowTrackingColumn>
kolomnaam ontbreekt voor <tableName>
.
DELTA_MAX_ARRAY_SIZE_EXCEEDED
Gebruik een limiet die kleiner is dan Int.MaxValue - 8.
DELTA_MAX_COMMIT_RETRIES_EXCEEDED
Deze doorvoering is mislukt omdat het geprobeerde tijden heeft geprobeerd <numAttempts>
, maar niet is geslaagd.
Dit kan worden veroorzaakt doordat de Delta-tabel continu wordt doorgevoerd door veel gelijktijdige
Commits.
Doorvoer gestart bij versie: <startVersion>
Doorvoeren is mislukt op versie: <failVersion>
Aantal acties dat is geprobeerd door te voeren: <numActions>
Totale tijd die is besteed aan het uitvoeren van deze doorvoering: <timeSpent>
ms
DELTA_MAX_LIST_FILE_EXCEEDED
De bestandslijst moet maximaal <maxFileListSize>
vermeldingen bevatten, had <numFiles>
.
DELTA_MERGE_ADD_VOID_COLUMN
Kan geen kolom <newColumn>
toevoegen met het type VOID. Geef expliciet een niet-ongeldig type op.
DELTA_MERGE_INCOMPATIBLE_DATATYPE
Het samenvoegen van niet-compatibele gegevenstypen <currentDataType>
is mislukt en <updateDataType>
DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE
Kan decimale typen niet samenvoegen met incompatibel <decimalRanges>
DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY
Het behouden van de bron van de MERGE-instructie is herhaaldelijk mislukt.
DELTA_MERGE_MISSING_WHEN
Er moet ten minste één WHEN-component in een MERGE-instructie staan.
DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT
Opgeloste kenmerken <missingAttributes>
die ontbreken <input>
in de operator <merge>
DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY
Onverwachte toewijzingssleutel: <unexpectedKeyClass>
- <unexpectedKeyObject>
DELTA_MERGE_UNRESOLVED_EXPRESSION
Kan niet oplossen <sqlExpr>
in <clause>
de opgegeven <cols>
.
DELTA_METADATA_CHANGED
MetadataChangedException: de metagegevens van de Delta-tabel zijn gewijzigd door een gelijktijdige update. Probeer de bewerking opnieuw.<conflictingCommit>
Raadpleeg voor <docLink>
meer informatie.
DELTA_MISSING_CHANGE_DATA
Fout bij het ophalen van wijzigingsgegevens voor bereik [<startVersion>
, <endVersion>
] omdat wijzigingsgegevens niet waren
opgenomen voor versie [<version>
]. Als u wijzigingenfeed voor deze tabel hebt ingeschakeld,
om DESCRIBE HISTORY
te zien wanneer deze voor het eerst is ingeschakeld.
Als u anders wijzigingengegevens wilt opnemen, gebruikt u ALTER TABLE table_name SET TBLPROPERTIES
(<key>
=true)'.
DELTA_MISSING_COLUMN
Kan niet vinden <columnName>
in tabelkolommen: <columnList>
DELTA_MISSING_COMMIT_INFO
Voor deze tabel is de functie <featureName>
ingeschakeld. Hiervoor is de aanwezigheid van de actie CommitInfo in elke doorvoering vereist. De actie CommitInfo ontbreekt echter in de doorvoeringsversie <version>
.
DELTA_MISSING_COMMIT_TIMESTAMP
In deze tabel is de functie <featureName>
ingeschakeld waarvoor de aanwezigheid van commitTimestamp in de actie CommitInfo is vereist. Dit veld is echter niet ingesteld in doorvoerversie <version>
.
DELTA_MISSING_DELTA_TABLE
<tableName>
is geen Delta-tabel.
DELTA_MISSING_DELTA_TABLE_COPY_INTO
De tabel bestaat niet. Maak eerst een lege Delta-tabel met CREATE TABLE <tableName>
.
DELTA_MISSING_ICEBERG_CLASS
Icebergklasse is niet gevonden. Zorg ervoor dat Delta Iceberg-ondersteuning is geïnstalleerd.
Raadpleeg voor <docLink>
meer informatie.
DELTA_MISSING_NOT_NULL_COLUMN_VALUE
Kolom <columnName>
, die een NOT NULL-beperking heeft, ontbreekt in de gegevens die in de tabel worden geschreven.
DELTA_MISSING_PARTITION_COLUMN
Partitiekolom <columnName>
niet gevonden in schema <columnList>
DELTA_MISSING_PART_FILES
Kan niet alle deelbestanden van de controlepuntversie vinden: <version>
DELTA_MISSING_PROVIDER_FOR_CONVERT
CONVERTEREN NAAR DELTA ondersteunt alleen parquet-tabellen. Herschrijf uw doel als parquet.<path>
als het een parquet-map is.
DELTA_MISSING_SET_COLUMN
SET-kolom <columnName>
is niet gevonden opgegeven kolommen: <columnList>
.
DELTA_MISSING_TRANSACTION_LOG
Niet-compatibele indeling gedetecteerd.
U probeert Delta te <operation>
<path>
gebruiken, maar er is geen
transactielogboek aanwezig. Controleer de upstream-taak om er zeker van te zijn dat deze wordt geschreven
met behulp van format("delta") en dat u probeert %1$s het basispad van de tabel te gebruiken.
Zie voor meer informatie over Delta <docLink>
DELTA_MODE_NOT_SUPPORTED
De opgegeven modus '<mode>
' wordt niet ondersteund. Ondersteunde modi zijn: <supportedModes>
DELTA_MULTIPLE_CDC_BOUNDARY
Er zijn meerdere <startingOrEnding>
argumenten opgegeven voor CDC-leesbewerkingen. Geef een van de <startingOrEnding>
tijdstempel of <startingOrEnding>
versie op.
DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER
Er zijn meerdere bloeifilterindexconfiguraties doorgegeven aan de opdracht voor kolom: <columnName>
DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE
Samenvoegen kan niet worden uitgevoerd als meerdere bronrijen overeenkomen en geprobeerd hetzelfde te wijzigen
doelrij in de Delta-tabel op mogelijk conflicterende manieren. Door SQL-semantiek van samenvoegen,
wanneer meerdere bronrijen overeenkomen met dezelfde doelrij, kan het resultaat dubbelzinnig zijn
omdat het onduidelijk is welke bronrij moet worden gebruikt om de overeenkomende rij bij te werken of te verwijderen
doelrij. U kunt de brontabel vooraf verwerken om de mogelijkheid van
meerdere overeenkomsten. Raadpleeg
<usageReference>
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND
Tijdens <command>
beide gecoördineerde doorvoerconfiguraties ('delta.coordinatedCommits.commitCoordinator-preview', 'delta.coordinatedCommits.commitCoordinatorConf-preview') worden ingesteld in de opdracht of geen van beide. Ontbreekt: "<configuration>
". Geef deze configuratie op in de TBLPROPERTIES-component of verwijder de andere configuratie en voer de opdracht opnieuw uit.
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION
Tijdens <command>
beide gecoördineerde doorvoerconfiguraties ('coordinatedCommits.commitCoordinator-preview', 'coordinatedCommits.commitCoordinatorConf-preview') worden ingesteld in de SparkSession-configuraties of geen van beide. Ontbreekt: "<configuration>
". Stel deze configuratie in de SparkSession in of maak de andere configuratie ongedaan en voer de opdracht opnieuw uit.
DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE
De volgende kolomnamen zijn alleen gereserveerd voor intern gebruik van deltatabellen: <names>
DELTA_NESTED_FIELDS_NEED_RENAME
Het invoerschema bevat geneste velden die anders zijn gekapitaliseerd dan de doeltabel.
Ze moeten worden hernoemd om het verlies van gegevens in deze velden te voorkomen tijdens het schrijven naar Delta.
Velden:
<fields>
.
Oorspronkelijk schema:
<schema>
DELTA_NESTED_NOT_NULL_CONSTRAINT
Het <nestType>
type van het veld <parent>
bevat een NOT NULL-beperking. Delta biedt geen ondersteuning voor NOT NULL-beperkingen die zijn genest in matrices of kaarten. Als u deze fout wilt onderdrukken en de opgegeven beperkingen op de achtergrond wilt negeren, stelt u <configKey>
in op true.
Geparseerd <nestType>
type:
<nestedPrettyJson>
DELTA_NESTED_SUBQUERY_NOT_SUPPORTED
Geneste subquery wordt niet ondersteund in de <operation>
voorwaarde.
DELTA_NEW_CHECK_CONSTRAINT_VIOLATION
<numRows>
rijen in <tableName>
strijd met de nieuwe CHECK-beperking (<checkConstraint>
)
DELTA_NEW_NOT_NULL_VIOLATION
<numRows>
rijen in <tableName>
strijd met de nieuwe NOT NULL-beperking op <colName>
DELTA_NON_BOOLEAN_CHECK_CONSTRAINT
CHECK-beperking '<name>
' (<expr>
) moet een booleaanse expressie zijn.
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN
Gevonden <expr>
. Een gegenereerde kolom kan geen niet-deterministische expressie gebruiken.
DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED
Niet-deterministische functies worden niet ondersteund in de <operation>
<expression>
DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Wanneer er meer dan één MATCHED-component in een MERGE-instructie staat, kan alleen de laatste MATCHED-component de voorwaarde weglaten.
DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Als er meer dan één NIET OVEREENKOMENDE BY SOURCE-component in een MERGE-instructie staan, kan alleen de laatste COMPONENT NIET OVEREENKOMEN MET SOURCE de voorwaarde weglaten.
DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION
Als er meer dan één NOT MATCHED-component in een MERGE-instructie staan, kan alleen de laatste COMPONENT NOT MATCHED de voorwaarde weglaten
DELTA_NON_PARSABLE_TAG
Kan tag <tag>
niet parseren.
Bestandstags zijn: <tagList>
DELTA_NON_PARTITION_COLUMN_ABSENT
Gegevens die in Delta zijn geschreven, moeten ten minste één niet-gepartitioneerde kolom bevatten.<details>
DELTA_NON_PARTITION_COLUMN_REFERENCE
Predicaat verwijst naar niet-partitiekolom '<columnName>
'. Alleen naar de partitiekolommen kan worden verwezen: [<columnList>
]
DELTA_NON_PARTITION_COLUMN_SPECIFIED
Niet-partitionerende kolommen <columnList>
worden opgegeven waarbij alleen partitioneringskolommen worden verwacht: <fragment>
.
DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG
Delta-catalogus vereist een naamruimte met één onderdeel, maar <identifier>
is meerdere delen.
DELTA_NOT_A_DATABRICKS_DELTA_TABLE
<table>
is geen Delta-tabel. Verwijder deze tabel eerst als u deze wilt maken met Databricks Delta.
DELTA_NOT_A_DELTA_TABLE
<tableName>
is geen Delta-tabel. Verwijder deze tabel eerst als u deze opnieuw wilt maken met Delta Lake.
DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT
Er is geen null-kolom gevonden in de struct: <struct>
DELTA_NOT_NULL_CONSTRAINT_VIOLATED
NOT NULL constraint geschonden voor kolom: <columnName>
.
DELTA_NOT_NULL_NESTED_FIELD
Een niet-null-geneste veld kan niet worden toegevoegd aan een bovenliggend item dat null kan worden toegevoegd. Stel de null-waarde van de bovenliggende kolom dienovereenkomstig in.
DELTA_NO_COMMITS_FOUND
Er zijn geen doorvoeringen gevonden op <logPath>
DELTA_NO_RECREATABLE_HISTORY_FOUND
Er zijn geen herstelbare doorvoeringen gevonden op <logPath>
DELTA_NO_RELATION_TABLE
Tabel <tableIdent>
is niet gevonden
DELTA_NO_START_FOR_CDC_READ
No startingVersion or startingTimestamp provided for CDC read.
DELTA_NULL_SCHEMA_IN_STREAMING_WRITE
Delta accepteert geen NullTypes in het schema voor het streamen van schrijfbewerkingen.
DELTA_ONEOF_IN_TIMETRAVEL
Geef 'timestampAsOf' of 'versionAsOf' op voor tijdreizen.
DELTA_ONLY_OPERATION
<operation>
wordt alleen ondersteund voor Delta-tabellen.
DELTA_OPERATION_MISSING_PATH
Geef het pad of de tabel-id op voor <operation>
.
DELTA_OPERATION_NOT_ALLOWED
Bewerking is niet toegestaan: <operation>
wordt niet ondersteund voor Delta-tabellen
DELTA_OPERATION_NOT_ALLOWED_DETAIL
Bewerking is niet toegestaan: <operation>
wordt niet ondersteund voor Delta-tabellen: <tableName>
DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION
<operation>
wordt niet ondersteund voor kolommen <colName>
met niet-standaardsortering <collation>
.
DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION
<operation>
wordt niet ondersteund voor expressies <exprText>
omdat deze gebruikmaakt van niet-standaardsortering.
DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED
<operation>
opdracht in een tijdelijke weergave die verwijst naar een Delta-tabel die gegenereerde kolommen bevat, wordt niet ondersteund. Voer de <operation>
opdracht rechtstreeks uit in de Delta-tabel
DELTA_OPERATION_ON_VIEW_NOT_ALLOWED
Bewerking is niet toegestaan: <operation>
kan niet worden uitgevoerd in een weergave.
DELTA_OPTIMIZE_FULL_NOT_SUPPORTED
OPTIMIZE FULL wordt alleen ondersteund voor geclusterde tabellen met niet-lege clusteringkolommen.
DELTA_OVERWRITE_MUST_BE_TRUE
Kopieeroptie overwriteSchema kan niet worden opgegeven zonder overWRITE = 'true' in te stellen.
DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE
'overwriteSchema' kan niet worden gebruikt in de modus dynamische partitieoverschrijven.
DELTA_PARTITION_COLUMN_CAST_FAILED
Kan geen waarde <value>
casten naar <dataType>
voor partitiekolom <columnName>
DELTA_PARTITION_COLUMN_NOT_FOUND
Partitiekolom <columnName>
is niet gevonden in schema [<schemaMap>
]
DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES
Partitieschema kan niet worden opgegeven bij het converteren van Iceberg-tabellen. Het wordt automatisch afgeleid.
DELTA_PATH_DOES_NOT_EXIST
<path>
bestaat niet of is geen Delta-tabel.
DELTA_PATH_EXISTS
Kan niet schrijven naar bestaand pad <path>
zonder OVERWRITE = 'true' in te stellen.
DELTA_POST_COMMIT_HOOK_FAILED
Doorvoeren naar de Delta-tabelversie <version>
is geslaagd, maar fout bij het uitvoeren van een hook na doorvoer <name>
<message>
DELTA_PROTOCOL_CHANGED
ProtocolChangedException: de protocolversie van de Delta-tabel is gewijzigd door een gelijktijdige update. <additionalInfo>
<conflictingCommit>
Raadpleeg voor <docLink>
meer informatie.
DELTA_PROTOCOL_PROPERTY_NOT_INT
Protocoleigenschap <key>
moet een geheel getal zijn. Stichten <value>
DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE
Kan alleen de protocolversie van de lezer bijwerken om tabelfuncties te gebruiken. De writer-protocolversie moet ten minste <writerVersion>
zijn om door te gaan. Raadpleeg voor <docLink>
meer informatie over tabelprotocolversies.
DELTA_READ_TABLE_WITHOUT_COLUMNS
U probeert een Delta-tabel <tableName>
te lezen die geen kolommen bevat.
Schrijf nieuwe gegevens met de optie mergeSchema = true
om de tabel te kunnen lezen.
DELTA_REGEX_OPT_SYNTAX_ERROR
Controleer de syntaxis voor '<regExpOption>
' opnieuw
DELTA_REPLACE_WHERE_IN_OVERWRITE
U kunt replaceWhere niet gebruiken in combinatie met een overschrijven door filter
DELTA_REPLACE_WHERE_MISMATCH
Geschreven gegevens voldoen niet aan gedeeltelijke overschrijfvoorwaarde of beperking '<replaceWhere>
'.
<message>
DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE
Een 'replaceWhere'-expressie en 'partitionOverwriteMode'='dynamic' kunnen niet beide worden ingesteld in de DataFrameWriter-opties.
DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET
'replaceWhere' kan niet worden gebruikt met gegevensfilters wanneer 'dataChange' is ingesteld op false. Filters: <dataFilters>
DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS
Kan geen rij-id's toewijzen zonder statistieken voor het tellen van rijen.
Verzamel statistieken voor de tabel door de volgende code uit te voeren in een Scala-notebook en probeer het opnieuw:
import com.databricks.sql.transaction.tahoe.DeltaLog
import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection
import org.apache.spark.sql.catalyst.TableIdentifier
val log = DeltaLog.forTable(spark, TableIdentifier(table_name))
StatisticsCollection.recompute(spark, log)
DELTA_SCHEMA_CHANGED
Schemawijziging gedetecteerd:
streamingbronschema: <readSchema>
gegevensbestandsschema: <dataSchema>
Start de query opnieuw. Als dit probleem wordt herhaald bij opnieuw opstarten van query's zonder
voortgang maken, u hebt een incompatibele schemawijziging aangebracht en u moet uw
query helemaal opnieuw uitvoeren met behulp van een nieuwe controlepuntmap.
DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS
Schemawijziging gedetecteerd in versie <version>
:
streamingbronschema: <readSchema>
gegevensbestandsschema: <dataSchema>
Start de query opnieuw. Als dit probleem wordt herhaald bij opnieuw opstarten van query's zonder
voortgang maken, u hebt een incompatibele schemawijziging aangebracht en u moet uw
query helemaal opnieuw uitvoeren met behulp van een nieuwe controlepuntmap. Als het probleem zich blijft voordoen na
wijzigen in een nieuwe controlepuntmap, moet u mogelijk de bestaande map wijzigen
Optie 'startingVersion' of 'startingTimestamp' om te beginnen vanaf een nieuwere versie dan
<version>
met een nieuwe controlepuntmap.
DELTA_SCHEMA_CHANGED_WITH_VERSION
Schemawijziging gedetecteerd in versie <version>
:
streamingbronschema: <readSchema>
gegevensbestandsschema: <dataSchema>
Start de query opnieuw. Als dit probleem wordt herhaald bij opnieuw opstarten van query's zonder
voortgang maken, u hebt een incompatibele schemawijziging aangebracht en u moet uw
query helemaal opnieuw uitvoeren met behulp van een nieuwe controlepuntmap.
DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS
Het schema van uw Delta-tabel is op een niet-compatibele manier gewijzigd sinds uw DataFrame
of DeltaTable-object is gemaakt. Definieer uw DataFrame- of DeltaTable-object opnieuw.
Wijzigingen:
<schemaDiff>
<legacyFlagMessage>
DELTA_SCHEMA_NOT_PROVIDED
Er is geen tabelschema opgegeven. Geef het schema (kolomdefinitie) van de tabel op wanneer u de tabel REPLACE gebruikt en er geen AS SELECT-query is opgegeven.
DELTA_SCHEMA_NOT_SET
Tabelschema is niet ingesteld. Schrijf gegevens erin of gebruik CREATE TABLE om het schema in te stellen.
DELTA_SET_LOCATION_SCHEMA_MISMATCH
Het schema van de nieuwe Delta-locatie wijkt af van het huidige tabelschema.
oorspronkelijk schema:
<original>
doelschema:
<destination>
Als dit een beoogde wijziging is, kunt u deze controle uitschakelen door het volgende uit te voeren:
%%sql set <config>
= true
DELTA_SHALLOW_CLONE_FILE_NOT_FOUND
Kan het bestand <filePath>
waarnaar wordt verwezen in het transactielogboek niet vinden. Dit kan gebeuren wanneer gegevens handmatig uit het bestandssysteem zijn verwijderd in plaats van de tabelinstructie DELETE
te gebruiken. Deze tabel lijkt een ondiepe kloon te zijn. Als dat het geval is, kan deze fout optreden wanneer de oorspronkelijke tabel waaruit deze tabel is gekloond, een bestand heeft verwijderd dat de kloon nog steeds gebruikt. Als u wilt dat klonen onafhankelijk zijn van de oorspronkelijke tabel, gebruikt u in plaats daarvan een DEEP-kloon.
DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY
Vooraf gedefinieerde eigenschappen die beginnen met <prefix>
kunnen niet worden gewijzigd.
DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
De gegevens worden beperkt door de eigenschap <property>
ontvanger die niet van toepassing is op de huidige ontvanger in de sessie.
Zie DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED voor meer informatie
DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW
<operation>
kan niet worden gebruikt in Delta Sharing-weergaven die gedeelde accounts zijn.
DELTA_SHARING_INVALID_PROVIDER_AUTH
Ongeldig verificatietype <authenticationType>
voor provider <provider>
.
DELTA_SHARING_INVALID_RECIPIENT_AUTH
Ongeldig verificatietype <authenticationType>
voor geadresseerde <recipient>
.
DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME
Ongeldige naam om naar een <type>
share te verwijzen. U kunt de naam in de share gebruiken <type>
volgens de indeling van [schema].[<type>
], of u kunt ook de oorspronkelijke volledige naam van de tabel gebruiken volgens de indeling [catalogus].[ schema]. [>type>].
Als u niet zeker weet welke naam moet worden gebruikt, kunt u 'ALLES WEERGEVEN IN SHARE [share]' uitvoeren en de naam van de <type>
te verwijderen kolom 'naam' is de naam van de <type>
share en kolom 'shared_object' de <type>
oorspronkelijke volledige naam.
DELTA_SHARING_MAXIMUM_RECIPIENT_TOKENS_EXCEEDED
Er zijn meer dan twee tokens voor geadresseerde <recipient>
.
DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND
De eigenschap <property>
Geadresseerde bestaat niet.
DELTA_SHARING_RECIPIENT_TOKENS_NOT_FOUND
Tokens voor geadresseerden ontbreken voor de geadresseerde <recipient>
.
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN
Niet-partitionerende kolom(en) <badCols>
worden opgegeven voor SHOW PARTITIONS
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE
SHOW PARTITIONS is niet toegestaan voor een tabel die niet is gepartitioneerd: <tableName>
DELTA_SOURCE_IGNORE_DELETE
Verwijderde gegevens (bijvoorbeeld <removedFile>
) gedetecteerd uit streamingbron op versie <version>
. Dit wordt momenteel niet ondersteund. Als u verwijderingen wilt negeren, stelt u de optie ignoreDeletes in op 'true'. De brontabel vindt u op het pad <dataPath>
.
DELTA_SOURCE_TABLE_IGNORE_CHANGES
Er is een gegevensupdate (bijvoorbeeld <file>
) gedetecteerd in de brontabel op versie <version>
. Dit wordt momenteel niet ondersteund. Als dit regelmatig gebeurt en u geen wijzigingen wilt overslaan, stelt u de optie skipChangeCommits in op 'true'. Als u wilt dat de gegevensupdate wordt doorgevoerd, start u deze query opnieuw met een nieuwe controlepuntmap of voert u een volledige vernieuwing uit als u DLT gebruikt. Als u deze wijzigingen wilt afhandelen, schakelt u over naar MVs. De brontabel vindt u op het pad <dataPath>
.
DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET
Geef '<version>
' of '<timestamp>
' op
DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND
<statsType>
statistieken niet gevonden voor kolom in Parquet-metagegevens: <columnPath>
.
DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION
We hebben een of meer niet-additieve schemawijziging(<opType>
en) tussen Delta-versie <previousSchemaChangeVersion>
en <currentSchemaChangeVersion>
in de Delta-streamingbron gedetecteerd.
Controleer of u de schemawijziging(en) handmatig wilt doorgeven aan de sinktabel voordat we doorgaan met het verwerken van stromen met behulp van het voltooide schema op <currentSchemaChangeVersion>
.
Zodra u het schema van de sinktabel hebt opgelost of hebt besloten dat er geen oplossing nodig is, kunt u (een van) de volgende SQL-configuraties instellen om de blokkering van de niet-additieve schemawijziging(en) op te heffen en stroomverwerking voort te zetten.
Als u de blokkering voor deze specifieke stroom wilt opheffen, alleen voor deze reeks schemawijziging(en): ingesteld <allowCkptVerKey>` = `<allowCkptVerValue>
.
Blokkering opheffen voor deze specifieke stream: instellen <allowCkptKey>` = `<allowCkptValue>
Blokkering opheffen voor alle streams: instellen <allowAllKey>` = `<allowAllValue>
.
U kunt ook, indien van toepassing, de <allowAllMode>
<opSpecificMode>
stroom in de SQL-conf vervangen om alleen dit type schemawijziging op te heffen.
DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT
Kan geen momentopname van Delta-logboek ophalen voor de beginversie bij het controleren van wijzigingen in het schema voor kolomtoewijzing. Kies een andere beginversie of forceer streaming-leesbewerkingen op eigen risico door '<config>
' in te stellen op 'true'.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE
Streaming-leesbewerking wordt niet ondersteund voor tabellen met wijzigingen in het schema die niet compatibel zijn met lezen (bijvoorbeeld wijzigingen in naam wijzigen of verwijderen of gegevenstype wijzigen).
Voor meer informatie en mogelijke volgende stappen om dit probleem op te lossen, raadpleegt u de documentatie op <docLink>
Schema lezen: <readSchema>
. Incompatibel gegevensschema: <incompatibleSchema>
.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG
Streaming-leesbewerking wordt niet ondersteund voor tabellen met wijzigingen in het schema die niet compatibel zijn met lezen (bijvoorbeeld wijzigingen in naam wijzigen of verwijderen of gegevenstype wijzigen).
Geef een schemaTrackingLocation op om niet-additieve schemaontwikkeling in te schakelen voor deltastroomverwerking.
Zie <docLink>
voor meer informatie.
Schema lezen: <readSchema>
. Incompatibel gegevensschema: <incompatibleSchema>
.
DELTA_STREAMING_METADATA_EVOLUTION
Het schema, de tabelconfiguratie of het protocol van uw Delta-tabel is gewijzigd tijdens het streamen.
Het schema of het logboek voor het bijhouden van metagegevens is bijgewerkt.
Start de stream opnieuw om door te gaan met de verwerking met behulp van de bijgewerkte metagegevens.
Bijgewerkt schema: <schema>
.
Bijgewerkte tabelconfiguraties: <config>
.
Bijgewerkt tabelprotocol: <protocol>
DELTA_STREAMING_SCHEMA_EVOLUTION_UNSUPPORTED_ROW_FILTER_COLUMN_MASKS
Streaming vanuit de brontabel <tableId>
met schematracking biedt geen ondersteuning voor rijfilters of kolommaskers.
Verwijder de rijfilters of kolommaskers of schakel schematracering uit.
DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT
Er is een conflicterende schemalocatie gedetecteerd tijdens<loc>
het streamen vanuit een tabel of tabel op '<table>
'.
Een andere stream kan dezelfde schemalocatie hergebruiken, wat niet is toegestaan.
Geef een nieuw uniek schemaTrackingLocation
pad op of streamingSourceTrackingId
als lezeroptie voor een van de streams uit deze tabel.
DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT
Schemalocatie '<schemaTrackingLocation>
' moet worden geplaatst onder controlepuntlocatie '<checkpointLocation>
'.
DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED
Onvolledig logboekbestand in het schemalogboek van de Delta-streamingbron op '<location>
'.
Het schemalogboek is mogelijk beschadigd. Kies een nieuwe schemalocatie.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID
Er is een incompatibele Delta-tabel-id gedetecteerd bij het lezen van deltastreams.
Persistente tabel-id: <persistedId>
, Tabel-id: <tableId>
Het schemalogboek is mogelijk opnieuw gebruikt. Kies een nieuwe schemalocatie.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA
Er is een niet-compatibel partitieschema gedetecteerd bij het lezen van Delta-stream.
Persistent schema: <persistedSchema>
, Delta-partitieschema: <partitionSchema>
Kies een nieuwe schemalocatie om het schemalogboek opnieuw te initialiseren als u het partitieschema van de tabel onlangs handmatig hebt gewijzigd.
DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA
Het schemalogboek van de Delta-streamingbron kan niet worden geïnitialiseerd omdat
er is een incompatibele schema- of protocolwijziging gedetecteerd tijdens het verwerken van een streamingbatch van tabelversie <a>
naar <b>
.
DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED
Kan het schema niet parseren vanuit het schemalogboek van de Delta-streamingbron.
Het schemalogboek is mogelijk beschadigd. Kies een nieuwe schemalocatie.
DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS
Kan Change Data Capture niet inschakelen in de tabel. De tabel bevat al
gereserveerde kolommen <columnList>
die
intern worden gebruikt als metagegevens voor de wijzigingengegevensfeed van de tabel. Als u
Wijzig de gegevensfeed in de tabelnaam of zet deze kolommen neer.
DELTA_TABLE_ALREADY_EXISTS
De tabel <tableName>
bestaat al.
DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF
Momenteel ondersteunt DeltaTable.forPath alleen hadoop-configuratiesleutels die beginnen met <allowedPrefixes>
maar zijn verkregen <unsupportedOptions>
DELTA_TABLE_ID_MISMATCH
De Delta-tabel op <tableLocation>
is vervangen terwijl deze opdracht de tabel gebruikte.
Tabel-id was <oldId>
maar is nu <newId>
.
Voer de huidige opdracht opnieuw uit om ervoor te zorgen dat deze een consistente weergave van de tabel leest.
DELTA_TABLE_LOCATION_MISMATCH
De locatie van de bestaande tabel <tableName>
is <existingTableLocation>
. Deze komt niet overeen met de opgegeven locatie <tableLocation>
.
DELTA_TABLE_NOT_FOUND
Delta-tabel <tableName>
bestaat niet.
DELTA_TABLE_NOT_SUPPORTED_IN_OP
Tabel wordt niet ondersteund in <operation>
. Gebruik in plaats daarvan een pad.
DELTA_TABLE_ONLY_OPERATION
<tableName>
is geen Delta-tabel. <operation>
wordt alleen ondersteund voor Delta-tabellen.
DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY
Het uiteindelijke schema van de doeltabel is leeg.
DELTA_TIMESTAMP_GREATER_THAN_COMMIT
De opgegeven tijdstempel (<providedTimestamp>
) is na de nieuwste versie die beschikbaar is voor dit
tabel (<tableName>
). Gebruik een tijdstempel voor of op <maximumTimestamp>
.
DELTA_TIMESTAMP_INVALID
De opgegeven tijdstempel (<expr>
) kan niet worden geconverteerd naar een geldig tijdstempel.
DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE
<timeTravelKey>
moet een geldige beginwaarde zijn.
DELTA_TRUNCATED_TRANSACTION_LOG
<path>
: Kan de status niet herstellen op versie <version>
omdat het transactielogboek is afgekapt vanwege handmatige verwijdering of het bewaarbeleid voor logboeken (<logRetention>
=<logRetentionKey>
) en bewaarbeleid voor controlepunten ()<checkpointRetentionKey>
=<checkpointRetention>
DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED
Bewerking niet toegestaan: TRUNCATE TABLE in Delta-tabellen biedt geen ondersteuning voor partitiepredicaten; gebruik DELETE om specifieke partities of rijen te verwijderen.
DELTA_UDF_IN_GENERATED_COLUMN
Gevonden <udfExpr>
. Een gegenereerde kolom kan geen door de gebruiker gedefinieerde functie gebruiken
DELTA_UNEXPECTED_ACTION_EXPRESSION
Onverwachte actie-expressie <expression>
.
DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME
<expectedColsSize>
Partitiekolom(s): , maar partitiekolom(s) <expectedCols>
worden gevonden<parsedColsSize>
: <parsedCols>
van het parseren van de bestandsnaam:<path>
DELTA_UNEXPECTED_PARTIAL_SCAN
Verwacht een volledige scan van Delta-bronnen, maar er is een gedeeltelijke scan gevonden. pad:<path>
DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME
Er wordt een partitiekolom verwacht, maar er is een partitiekolom <expectedCol>
<parsedCol>
gevonden van het parseren van de bestandsnaam:<path>
DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER
CONVERTEREN NAAR DELTA is aangeroepen met een partitieschema dat verschilt van het partitieschema dat is afgeleid uit de catalogus. Geef het schema niet op, zodat het partitieschema uit de catalogus kan worden gekozen.
cataloguspartitieschema:
<catalogPartitionSchema>
opgegeven partitieschema:
<userPartitionSchema>
DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
Lees Iceberg met Delta Uniform is mislukt.
Zie DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION voor meer informatie
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED
De tabel Uniform inkomend inkomend verkeer maken of vernieuwen wordt niet ondersteund.
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT
Indeling <fileFormat>
wordt niet ondersteund. Alleen iceberg als oorspronkelijke bestandsindeling wordt ondersteund.
DELTA_UNIFORM_NOT_SUPPORTED
Universal Format wordt alleen ondersteund in Unity Catalog-tabellen.
DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED
Kan de tabelversie <version>
niet converteren naar de universele indeling <format>
. <message>
DELTA_UNIVERSAL_FORMAT_VIOLATION
De validatie van universal format (<format>
) is mislukt: <violation>
DELTA_UNKNOWN_CONFIGURATION
Er is een onbekende configuratie opgegeven: <config>
DELTA_UNKNOWN_PRIVILEGE
Onbekende bevoegdheid: <privilege>
DELTA_UNKNOWN_READ_LIMIT
Onbekend ReadLimit: <limit>
DELTA_UNRECOGNIZED_COLUMN_CHANGE
Niet-herkende kolomwijziging <otherClass>
. Mogelijk hebt u een verouderde Delta Lake-versie.
DELTA_UNRECOGNIZED_INVARIANT
Niet-herkende invariant. Voer een upgrade uit van uw Spark-versie.
DELTA_UNRECOGNIZED_LOGFILE
Niet-herkend logboekbestand <fileName>
DELTA_UNSET_NON_EXISTENT_PROPERTY
Er is geprobeerd om de niet-bestaande eigenschap '<property>
' in de tabel op te heffen <tableName>
DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE
<path>
biedt geen ondersteuning voor het toevoegen van bestanden met een absoluut pad
DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP
ALTER TABLE CHANGE COLUMN wordt niet ondersteund voor het wijzigen van de kolom <fieldPath>
van <oldField>
in <newField>
DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP
De bewerking ALTER TABLE REPLACE COLUMNS wordt niet ondersteund. Reden: <details>
Kan het schema niet wijzigen van:
<oldSchema>
in:
<newSchema>
DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE
U hebt geprobeerd een bestaande tabel (<tableName>
) te vervangen door CLONE. Deze bewerking is
Unsupported. Probeer een ander doel voor CLONE of verwijder de tabel op het huidige doel.
DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE
Het wijzigen van de kolomtoewijzingsmodus van '<oldMode>
' naar '<newMode>
' wordt niet ondersteund.
DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL
De huidige tabelprotocolversie biedt geen ondersteuning voor het wijzigen van kolomtoewijzingsmodi
met .<config>
Vereiste Delta-protocolversie voor kolomtoewijzing:
<requiredVersion>
De huidige deltaprotocolversie van uw tabel:
<currentVersion>
<advice>
DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE
Schemawijziging wordt gedetecteerd:
oud schema:
<oldTableSchema>
nieuw schema:
<newTableSchema>
Schemawijzigingen zijn niet toegestaan tijdens de wijziging van de kolomtoewijzingsmodus.
DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE
Het schrijven van gegevens met de kolomtoewijzingsmodus wordt niet ondersteund.
DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER
Het maken van een bloeifilterindex voor een kolom met type <dataType>
wordt niet ondersteund: <columnName>
DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY
Kan geen opmerking toevoegen aan <fieldPath>
. Het toevoegen van een opmerking aan een kaartsleutel/-waarde of matrixelement wordt niet ondersteund.
DELTA_UNSUPPORTED_DATA_TYPES
Kolommen gevonden met niet-ondersteunde gegevenstypen: <dataTypeList>
. U kunt '<config>
' instellen op 'false' om de typecontrole uit te schakelen. Als u deze typecontrole uitschakelt, kunnen gebruikers mogelijk niet-ondersteunde Delta-tabellen maken en mogen ze alleen worden gebruikt bij het lezen/schrijven van verouderde tabellen.
DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN
<dataType>
kan niet het resultaat zijn van een gegenereerde kolom
DELTA_UNSUPPORTED_DEEP_CLONE
Diepe kloon wordt niet ondersteund voor deze Delta-versie.
DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW
<view>
is een weergave. DESCRIBE DETAIL wordt alleen ondersteund voor tabellen.
DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN
Het verwijderen van clusterkolommen (<columnList>
) is niet toegestaan.
DELTA_UNSUPPORTED_DROP_COLUMN
DROP COLUMN wordt niet ondersteund voor uw Delta-tabel. <advice>
DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE
Kan geneste kolommen alleen verwijderen uit StructType. Stichten <struct>
DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN
Het verwijderen van partitiekolommen (<columnList>
) is niet toegestaan.
DELTA_UNSUPPORTED_EXPRESSION
Niet-ondersteund expressietype(<expType>
) voor <causedBy>
. De ondersteunde typen zijn [<supportedTypes>
].
DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
<expression>
kan niet worden gebruikt in een gegenereerde kolom
DELTA_UNSUPPORTED_FEATURES_FOR_READ
Niet-ondersteunde Delta-leesfunctie: tabel '<tableNameOrPath>
' vereist een of meer leestabelfuncties die niet worden ondersteund door deze versie van Databricks: <unsupported>
. Raadpleeg voor <link>
meer informatie over de compatibiliteit van Delta Lake-functies.
DELTA_UNSUPPORTED_FEATURES_FOR_WRITE
Niet-ondersteunde Delta-schrijffunctie: tabel '<tableNameOrPath>
' vereist schrijftabelfuncties die niet worden ondersteund door deze versie van Databricks: <unsupported>
. Raadpleeg voor <link>
meer informatie over de compatibiliteit van Delta Lake-functies.
DELTA_UNSUPPORTED_FEATURES_IN_CONFIG
Tabelfuncties die zijn geconfigureerd in de volgende Spark-configuraties of Delta-tabeleigenschappen, worden niet herkend door deze versie van Databricks: <configs>
.
DELTA_UNSUPPORTED_FEATURE_STATUS
Als u verwacht dat de status van de tabelfunctie <feature>
wordt 'ondersteund', maar wel '<status>
'.
DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT
Het bijwerken van geneste velden wordt alleen ondersteund voor StructType, maar u probeert een veld bij te werken waarvan <columnName>
het type is: <dataType>
DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS
De opdracht FSCK REPAIR TABLE wordt niet ondersteund in tabelversies met ontbrekende verwijderingsvectorbestanden.
Neem contact op met de ondersteuning.
DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS
De opdracht GENERATE symlink_format_manifest wordt niet ondersteund in tabelversies met verwijderingsvectoren.
Als u een versie van de tabel zonder verwijderingsvectoren wilt produceren, voert u REORG TABLE APPLY (PURGE) uit. Voer vervolgens de opdracht GENERATE opnieuw uit.
Zorg ervoor dat er geen gelijktijdige transacties opnieuw verwijderingsvectoren toevoegen tussen REORG en GENERATE.
Als u regelmatig manifesten moet genereren of als u gelijktijdige transacties niet kunt voorkomen, kunt u overwegen om verwijderingsvectoren voor deze tabel uit te schakelen met 'ALTER TABLE SET TBLPROPERTIES (delta.enableDeletionVectors = false)'.
DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT
Invarianten voor geneste velden dan StructTypes worden niet ondersteund.
DELTA_UNSUPPORTED_IN_SUBQUERY
In subquery wordt niet ondersteund in de <operation>
voorwaarde.
DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX
listKeywithPrefix niet beschikbaar
DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING
Het genereren van manifesten wordt niet ondersteund voor tabellen die gebruikmaken van kolomtoewijzing, omdat externe lezers deze Delta-tabellen niet kunnen lezen. Zie de Delta-documentatie voor meer informatie.
DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC
MERGE INTO-bewerkingen met schemaontwikkeling bieden momenteel geen ondersteuning voor het schrijven van CDC-uitvoer.
DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE
Predicaten met meerdere kolommen worden niet ondersteund in de <operation>
voorwaarde.
DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER
Het maken van een bloom filer-index voor een geneste kolom wordt momenteel niet ondersteund: <columnName>
DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION
Genest veld wordt niet ondersteund in het <operation>
(veld = <fieldName>
).
DELTA_UNSUPPORTED_NON_EMPTY_CLONE
De kloonbestemmingstabel is niet leeg. TRUNCATE of DELETE FROM the table before running CLONE.
DELTA_UNSUPPORTED_OUTPUT_MODE
De gegevensbron <dataSource>
biedt geen ondersteuning voor <mode>
de uitvoermodus
DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER
Het maken van een bloeifilterindex voor een partitioneringskolom wordt niet ondersteund: <columnName>
DELTA_UNSUPPORTED_RENAME_COLUMN
De naam van de kolom wordt niet ondersteund voor uw Delta-tabel. <advice>
DELTA_UNSUPPORTED_SCHEMA_DURING_READ
Delta biedt geen ondersteuning voor het opgeven van het schema tijdens het lezen.
DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES
SORTEREN OP wordt niet ondersteund voor Tabellen in een Delta-bucket
DELTA_UNSUPPORTED_SOURCE
<operation>
doel ondersteunt alleen Delta-bronnen.
<plan>
DELTA_UNSUPPORTED_STATIC_PARTITIONS
Het opgeven van statische partities in de partitiespecificatie wordt momenteel niet ondersteund tijdens het invoegen
DELTA_UNSUPPORTED_STRATEGY_NAME
Niet-ondersteunde strategienaam: <strategy>
DELTA_UNSUPPORTED_SUBQUERY
Subquery's worden niet ondersteund in de <operation>
(condition = <cond>
).
DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES
Subquery wordt niet ondersteund in partitiepredicaten.
DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS
Kan geen tijdreizen opgeven in meerdere indelingen.
DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS
Kan geen tijdreizenweergaven, subquery's, streams of gegevensfeedquery's wijzigen.
DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES
Voorbeeldtabellen afkappen wordt niet ondersteund
DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA
Kan niet worden uitgevoerd op deze tabel omdat er een niet-ondersteunde typewijziging is toegepast. Veld <fieldName>
is gewijzigd van <fromType>
in <toType>
.
DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION
Geef het basispad (<baseDeltaPath>
) op bij het leegmaken van Delta-tabellen. Het leegmaken van specifieke partities wordt momenteel niet ondersteund.
DELTA_UNSUPPORTED_WRITES_STAGED_TABLE
Tabel-implementatie biedt geen ondersteuning voor schrijfbewerkingen: <tableName>
DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR
U probeert schrijfbewerkingen uit te voeren op een tabel die is geregistreerd bij de doorvoercoördinator <coordinatorName>
. Er is echter geen implementatie van deze coördinator beschikbaar in de huidige omgeving en schrijfbewerkingen zonder coördinatoren zijn niet toegestaan.
DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES
Schrijven naar voorbeeldtabellen wordt niet ondersteund
DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION
Kan niet casten <fromCatalog>
naar <toCatalog>
. Alle geneste kolommen moeten overeenkomen.
DELTA_VACUUM_COPY_INTO_STATE_FAILED
VACUUM voor gegevensbestanden is geslaagd, maar COPY INTO state garbagecollection is mislukt.
DELTA_VERSIONS_NOT_CONTIGUOUS
Versies (<versionList>
) zijn niet aaneengesloten.
Zie DELTA_VERSIONS_NOT_CONTIGUOUS voor meer informatie
DELTA_VIOLATE_CONSTRAINT_WITH_VALUES
CHECK-beperking <constraintName>
<expression>
is geschonden door rij met waarden:
<values>
DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
De validatie van de eigenschappen van de tabel <table>
is geschonden:
Zie DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED voor meer informatie
DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED
<viewIdentifier>
is een weergave. U mag geen gegevens naar een weergave schrijven.
DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST
De kolom <columnName>
Z-Ordering bestaat niet in het gegevensschema.
DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS
Z-Ordering is <cols>
ingeschakeld
ineffectief, omdat we momenteel geen statistieken verzamelen voor deze kolommen. Raadpleeg
<link>
voor meer informatie over gegevens overslaan en z-bestellen. U kunt uitschakelen
deze controle door instelling
'%%sql set <zorderColStatKey>
= false'
DELTA_ZORDERING_ON_PARTITION_COLUMN
<colName>
is een partitiekolom. Z-Ordering kan alleen worden uitgevoerd op gegevenskolommen
Autoloader
CF_ADD_NEW_NOT_SUPPORTED
De modus <addNewColumnsMode>
Schemaontwikkeling wordt niet ondersteund wanneer het schema is opgegeven. Als u deze modus wilt gebruiken, kunt u in plaats daarvan het schema cloudFiles.schemaHints
opgeven.
CF_AMBIGUOUS_AUTH_OPTIONS_ERROR
Verificatieopties voor meldingen gevonden voor de (standaard) directory
vermeldingsmodus:
<options>
Als u de bestandsmeldingsmodus wilt gebruiken, moet u het volgende expliciet instellen:
.option("cloudFiles.<useNotificationsKey>
", "true")
Als u de validatie van uw opties wilt overslaan en deze wilt negeren
verificatieopties, kunt u het volgende instellen:
.option("cloudFiles.ValidateOptionsKey>", "false")
CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR
Incrementele vermeldingsmodus (cloudFiles.<useIncrementalListingKey>
)
en bestandsmelding (cloudFiles.<useNotificationsKey>
)
tegelijkertijd zijn ingeschakeld.
Zorg ervoor dat u slechts één selecteert.
CF_AZURE_STORAGE_SUFFIXES_REQUIRED
AdlsBlobSuffix en adlsDfsSuffix vereisen voor Azure
CF_BUCKET_MISMATCH
De <storeType>
gebeurtenis in het bestand <fileEvent>
verschilt van verwacht door de bron: <source>
.
CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY
Kan het schema niet ontwikkelen wanneer het schemalogboek leeg is. Locatie van schemalogboek: <logPath>
CF_CANNOT_PARSE_QUEUE_MESSAGE
Kan het volgende wachtrijbericht niet parseren: <message>
CF_CANNOT_RESOLVE_CONTAINER_NAME
Kan de containernaam niet omzetten van pad: <path>
, Opgeloste URI: <uri>
CF_CANNOT_RUN_DIRECTORY_LISTING
Kan mapvermelding niet uitvoeren wanneer er een asynchrone backfill-thread wordt uitgevoerd
CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON
Kan cloudFiles.cleanSource en cloudFiles.allowOverwrites niet tegelijk inschakelen.
CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
Auto Loader kan verwerkte bestanden niet verwijderen omdat deze geen schrijfmachtigingen heeft voor de bronmap.
<reason>
U kunt het volgende oplossen:
- Schrijfmachtigingen verlenen aan de bronmap OF
- CleanSource instellen op 'UIT'
U kunt de blokkering van uw stream ook opheffen door de SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors in te stellen op 'true'.
CF_DUPLICATE_COLUMN_IN_DATA
Er is een fout opgetreden bij het afleiden van het partitieschema van de tabel. U hebt dezelfde kolom gedupliceerd in uw gegevens- en partitiepaden. Als u de partitiewaarde wilt negeren, geeft u uw partitiekolommen expliciet op met behulp van: .option("cloudFiles.<partitionColumnsKey>
", "{komma-separated-list}")
CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE
Kan het schema niet afleiden wanneer het invoerpad <path>
leeg is. Probeer de stream te starten wanneer er bestanden in het invoerpad staan of geef het schema op.
CF_EVENT_GRID_AUTH_ERROR
Kan geen Event Grid-abonnement maken. Zorg ervoor dat uw service
principal heeft <permissionType>
Event Grid-abonnementen. Meer informatie vindt u op:
<docLink>
CF_EVENT_GRID_CREATION_FAILED
Kan het Event Grid-abonnement niet maken. Zorg ervoor dat Microsoft.EventGrid is
geregistreerd als resourceprovider in uw abonnement. Meer informatie vindt u op:
<docLink>
CF_EVENT_GRID_NOT_FOUND_ERROR
Kan geen Event Grid-abonnement maken. Zorg ervoor dat uw opslag
account (<storageAccount>
) bevindt zich onder uw resourcegroep (<resourceGroup>
) en dat
het opslagaccount is een StorageV2-account (algemeen gebruik v2). Meer informatie vindt u op:
<docLink>
CF_EVENT_NOTIFICATION_NOT_SUPPORTED
De meldingsmodus voor automatische loader-gebeurtenissen wordt niet ondersteund voor <cloudStore>
.
CF_FAILED_TO_CHECK_STREAM_NEW
Kan niet controleren of de stream nieuw is
CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION
Kan abonnement niet maken: <subscriptionName>
. Er bestaat al een abonnement met dezelfde naam en is gekoppeld aan een ander onderwerp: <otherTopicName>
. Het gewenste onderwerp is <proposedTopicName>
. Verwijder het bestaande abonnement of maak een abonnement met een nieuw resourceachtervoegsel.
CF_FAILED_TO_CREATED_PUBSUB_TOPIC
Kan onderwerp niet maken: <topicName>
. Er bestaat al een onderwerp met dezelfde naam.<reason>
Verwijder het bestaande onderwerp of probeer het opnieuw met een ander resourceachtervoegsel
CF_FAILED_TO_DELETE_GCP_NOTIFICATION
Kan de melding met id <notificationId>
voor bucket <bucketName>
voor onderwerp <topicName>
niet verwijderen. Probeer het opnieuw of verwijder de melding handmatig via de GCP-console.
CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA
Kan het persistente schema niet deserialiseren vanuit tekenreeks: '<jsonSchema>
'
CF_FAILED_TO_EVOLVE_SCHEMA
Kan geen schema ontwikkelen zonder een schemalogboek.
CF_FAILED_TO_FIND_PROVIDER
Kan provider niet vinden voor <fileFormatInput>
CF_FAILED_TO_INFER_SCHEMA
Kan het schema voor indeling <fileFormatInput>
van bestaande bestanden in het invoerpad niet <path>
afleiden.
Zie CF_FAILED_TO_INFER_SCHEMA voor meer informatie
CF_FAILED_TO_WRITE_TO_SCHEMA_LOG
Kan niet schrijven naar het schemalogboek op locatie <path>
.
CF_FILE_FORMAT_REQUIRED
Kan de vereiste optie niet vinden: cloudFiles.format.
CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS
Er zijn meerdere (<num>
) abonnementen gevonden met het voorvoegsel voor automatisch laden voor het onderwerp <topicName>
:
<subscriptionList>
Er mag slechts één abonnement per onderwerp zijn. Zorg er handmatig voor dat uw onderwerp niet meerdere abonnementen heeft.
CF_GCP_AUTHENTICATION
Geef alle volgende gegevens op: <clientEmail>
, <client>
<privateKey>
en <privateKeyId>
of geef geen van deze op om de standaardwaarde te gebruiken
GCP-referentieproviderketen voor verificatie met GCP-resources.
CF_GCP_LABELS_COUNT_EXCEEDED
Er zijn te veel labels (<num>
) ontvangen voor GCP-resource. Het maximale aantal labels per resource is <maxNum>
.
CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED
Er zijn te veel resourcetags (<num>
) ontvangen voor GCP-resource. Het maximale aantal resourcetags per resource is <maxNum>
, omdat resourcetags worden opgeslagen als GCP-labels op resources en databricks-specifieke tags een deel van dit labelquotum verbruiken.
CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG
Onvolledig logboekbestand in het schemalogboek bij pad <path>
CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT
Onvolledig metagegevensbestand in het controlepunt voor automatisch laden
CF_INCORRECT_SQL_PARAMS
De methode cloud_files accepteert twee vereiste tekenreeksparameters: het pad van waaruit moet worden geladen en de bestandsindeling. Opties voor bestandslezers moeten worden opgegeven in een sleutel-waardekaart voor tekenreeksen. bijvoorbeeld cloud_files("path", "json", map("option1", "value1")). Ontvangen: <params>
CF_INTERNAL_ERROR
Interne fout.
Zie CF_INTERNAL_ERROR voor meer informatie
CF_INVALID_ARN
Ongeldige ARN: <arn>
CF_INVALID_AZURE_CERTIFICATE
De persoonlijke sleutel met optie cloudFiles.certificate kan niet worden geparseerd. Geef een geldige openbare sleutel op in PEM-indeling.
CF_INVALID_AZURE_CERT_PRIVATE_KEY
De persoonlijke sleutel met optie cloudFiles.certificatePrivateKey kan niet worden geparseerd. Geef een geldige persoonlijke sleutel op in PEM-indeling.
CF_INVALID_CHECKPOINT
Dit controlepunt is geen geldige CloudFiles-bron
CF_INVALID_CLEAN_SOURCE_MODE
Ongeldige modus voor opschoningsbronoptie <value>
.
CF_INVALID_GCP_RESOURCE_TAG_KEY
Ongeldige resourcetagsleutel voor GCP-resource: <key>
. Sleutels moeten beginnen met een kleine letter, tussen 1 en 63 tekens lang zijn en alleen kleine letters, cijfers, onderstrepingstekens (_) en afbreekstreepjes (-) bevatten.
CF_INVALID_GCP_RESOURCE_TAG_VALUE
Ongeldige resourcetagwaarde voor GCP-resource: <value>
. Waarden moeten tussen 0 en 63 tekens lang zijn en mogen alleen kleine letters, cijfers, onderstrepingstekens (_) en afbreekstreepjes (-) bevatten.
CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS
Auto Loader biedt geen ondersteuning voor de volgende opties wanneer deze worden gebruikt met gebeurtenissen van beheerde bestanden:
<optionList>
U wordt aangeraden deze opties te verwijderen en de stream vervolgens opnieuw te starten.
CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
Ongeldig antwoord van de service voor gebeurtenissen van beheerde bestanden. Neem contact op met de ondersteuning van Databricks voor hulp.
Zie CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE voor meer informatie
CF_INVALID_SCHEMA_EVOLUTION_MODE
cloudFiles.<schemaEvolutionModeKey>
moet een van { zijn
"<addNewColumns>
"
"<failOnNewColumns>
"
"<rescue>
"
"<noEvolution>
"}
CF_INVALID_SCHEMA_HINTS_OPTION
Schemahints kunnen slechts één keer een bepaalde kolom opgeven.
In dit geval wordt de kolom opnieuw gedefinieerd: <columnName>
meerdere keren in schemaHints:
<schemaHints>
CF_INVALID_SCHEMA_HINT_COLUMN
Schemahints kunnen niet worden gebruikt om geneste typen kaarten en matrices te overschrijven.
Conflicterende kolom: <columnName>
CF_LATEST_OFFSET_READ_LIMIT_REQUIRED
latestOffset moet worden aangeroepen met een ReadLimit op deze bron.
CF_LOG_FILE_MALFORMED
Het logboekbestand is onjuist ingedeeld: kan de juiste logboekversie niet lezen van <fileName>
.
CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS
U hebt automatisch laden gevraagd om bestaande bestanden op uw externe locatie te negeren door de instelling includeExistingFiles op false in te stellen. De service voor gebeurtenissen van beheerde bestanden is echter nog steeds bezig met het detecteren van bestaande bestanden op uw externe locatie. Probeer het opnieuw nadat de gebeurtenissen van het beheerde bestand de detectie van alle bestanden op uw externe locatie hebben voltooid.
CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND
U gebruikt Automatisch laden met gebeurtenissen van beheerde bestanden, maar het lijkt erop dat op de externe locatie voor het invoerpad '<path>
' geen bestandsevenementen zijn ingeschakeld of dat het invoerpad ongeldig is. Vraag uw Databricks-beheerder om bestandsevenementen in te schakelen op de externe locatie voor uw invoerpad.
CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED
U gebruikt automatisch laden met gebeurtenissen van beheerde bestanden, maar u hebt geen toegang tot de externe locatie of het volume voor het invoerpad '<path>
' of het invoerpad is ongeldig. Vraag uw Databricks-beheerder om leesmachtigingen te verlenen voor de externe locatie of het externe volume of geef een geldig invoerpad op binnen een bestaande externe locatie of een bestaand volume.
CF_MANAGED_FILE_EVENTS_ONLY_ON_SERVERLESS
Automatisch laden met gebeurtenissen van beheerde bestanden is alleen beschikbaar op Databricks serverloos. Als u wilt doorgaan, verplaatst u deze workload naar serverloze Databricks of schakelt u de optie cloudFiles.useManagedFileEvents uit.
CF_MAX_MUST_BE_POSITIVE
max moet positief zijn
CF_METADATA_FILE_CONCURRENTLY_USED
Meerdere streamingquery's worden gelijktijdig gebruikt met <metadataFile>
CF_MISSING_METADATA_FILE_ERROR
Het metagegevensbestand in de controlepuntmap van de streamingbron ontbreekt. Deze metagegevens
bestand bevat belangrijke standaardopties voor de stream, zodat de stream niet opnieuw kan worden gestart
klikken. Neem contact op met de ondersteuning van Databricks voor hulp.
CF_MISSING_PARTITION_COLUMN_ERROR
De partitiekolom <columnName>
bestaat niet in het opgegeven schema:
<schema>
CF_MISSING_SCHEMA_IN_PATHLESS_MODE
Geef een schema op met behulp van .schema() als er geen pad is opgegeven voor de CloudFiles-bron tijdens het gebruik van de bestandsmeldingsmodus. U kunt ook automatisch laden om het schema af te leiden door een basispad in .load() op te geven.
CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC
Bestaande meldingen gevonden voor onderwerp <topicName>
in bucket <bucketName>
:
melding,id
<notificationList>
Verwijder de bovenstaande meldingen en probeer het opnieuw om de abonnee te vervuilen met onbedoelde gebeurtenissen.
CF_NEW_PARTITION_ERROR
Nieuwe partitiekolommen zijn afgeleid uit uw bestanden: [<filesList>
]. Geef alle partitiekolommen in uw schema op of geef een lijst op met partitiekolommen waarvoor u waarden wilt extraheren met behulp van: .option("cloudFiles.partitionColumns", "{komma-separated-list|empty-string}")
CF_PARTITON_INFERENCE_ERROR
Er is een fout opgetreden bij het afleiden van het partitieschema van de huidige batch bestanden. Geef uw partitiekolommen expliciet op met behulp van: .option("cloudFiles.<partitionColumnOption>
", "{komma-separated-list}")
CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES
Kan geen bestanden lezen wanneer het invoerpad <path>
niet bestaat. Controleer of het invoerpad bestaat en probeer het opnieuw.
CF_PERIODIC_BACKFILL_NOT_SUPPORTED
Periodieke backfill wordt niet ondersteund als asynchrone backfill is uitgeschakeld. U kunt asynchrone backfill/directory-vermelding inschakelen door in te stellen spark.databricks.cloudFiles.asyncDirListing
op true
CF_PREFIX_MISMATCH
Niet-overeenkomende gebeurtenis gevonden: de sleutel <key>
heeft het voorvoegsel niet: <prefix>
CF_PROTOCOL_MISMATCH
<message>
Als u geen andere wijzigingen in uw code hoeft aan te brengen, stelt u de SQL in
configuratie: '<sourceProtocolVersionKey>
= <value>
'
om uw stream te hervatten. Raadpleeg:
<docLink>
voor meer informatie.
CF_REGION_NOT_FOUND_ERROR
Kan de standaard AWS-regio niet ophalen. Geef een regio op met behulp van de optie cloudFiles.region.
CF_RESOURCE_SUFFIX_EMPTY
Kan geen meldingsservices maken: het achtervoegsel van de resource mag niet leeg zijn.
CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS
Kan geen meldingsservices maken: het achtervoegsel van de resource mag alleen alfanumerieke tekens, afbreekstreepjes (-) en onderstrepingstekens (_) bevatten.
CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE
Kan geen meldingsservices maken: het achtervoegsel van de resource mag alleen kleine letters, cijfers en streepjes (-) bevatten.
CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP
Kan geen meldingsservices maken: het achtervoegsel van de resource mag alleen alfanumerieke tekens, afbreekstreepjes (-), onderstrepingstekens (_), punten (.), tildes (~) plustekens (+) en procenttekens (<percentSign>
) bevatten.
CF_RESOURCE_SUFFIX_LIMIT
Kan geen meldingsservices maken: het achtervoegsel van de resource mag niet meer dan <limit>
tekens bevatten.
CF_RESOURCE_SUFFIX_LIMIT_GCP
Kan geen meldingsservices maken: het achtervoegsel van de resource moet tussen <lowerLimit>
tekens en <upperLimit>
tekens staan.
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY
Beperkte GCP-resourcetagsleutel (<key>
) gevonden. De volgende GCP-resourcetagsleutels zijn beperkt voor automatisch laden: [<restrictedKeys>
]
CF_RETENTION_GREATER_THAN_MAX_FILE_AGE
cloudFiles.cleanSource.retentionDuration mag niet groter zijn dan cloudFiles.maxFileAge.
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
Kan geen melding maken voor onderwerp: <topic>
met voorvoegsel: <prefix>
. Er is al een onderwerp met dezelfde naam met een ander voorvoegsel: <oldPrefix>
. Probeer een ander resourceachtervoegsel te gebruiken voor het instellen of verwijderen van de bestaande installatie.
CF_SOURCE_DIRECTORY_PATH_REQUIRED
Geef het pad naar de bronmap op met de optie path
CF_SOURCE_UNSUPPORTED
De bron van cloudbestanden ondersteunt momenteel alleen S3-, Azure Blob Storage-paden (wasb/wasbs) en Azure Data Lake Gen1 (adl) en Gen2 (abfs/abfss). pad: '<path>
', opgeloste URI: '<uri>
'
CF_STATE_INCORRECT_SQL_PARAMS
De cloud_files_state-functie accepteert een tekenreeksparameter die de controlepuntmap van een cloudFiles-stream of een meerdelige tableName aangeeft die een streamingtabel identificeert en een optionele tweede geheel getalparameter die de controlepuntversie vertegenwoordigt om de status te laden. De tweede parameter kan ook 'nieuwste' zijn om het meest recente controlepunt te lezen. Ontvangen: <params>
CF_STATE_INVALID_CHECKPOINT_PATH
Het pad naar <path>
het invoercontrolepunt is ongeldig. Het pad bestaat niet of er zijn geen cloud_files bronnen gevonden.
CF_STATE_INVALID_VERSION
De opgegeven versie <version>
bestaat niet of is verwijderd tijdens de analyse.
CF_THREAD_IS_DEAD
<threadName>
draad is dood.
CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION
Kan de locatie van het stroomcontrolepunt niet afleiden van de locatie van het broncontrolepunt: <checkPointLocation>
CF_UNABLE_TO_DETECT_FILE_FORMAT
Kan de bronbestandsindeling niet detecteren uit <fileSize>
een of meer voorbeeldbestanden.<formats>
Geef de notatie op.
CF_UNABLE_TO_EXTRACT_BUCKET_INFO
Kan bucketgegevens niet extraheren. Pad: '<path>
', opgeloste URI: '<uri>
'.
CF_UNABLE_TO_EXTRACT_KEY_INFO
Kan belangrijke informatie niet extraheren. Pad: '<path>
', opgeloste URI: '<uri>
'.
CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO
Kan de opslagaccountgegevens niet extraheren; pad: '<path>
', opgeloste URI: '<uri>
'
CF_UNABLE_TO_LIST_EFFICIENTLY
Er is een gebeurtenis voor de naam van de map voor het pad <path>
ontvangen, maar deze map kan niet efficiënt worden weergegeven. Als u wilt doorgaan met de stream, stelt u de optie 'cloudFiles.ignoreDirRenames' in op true en kunt u overwegen om reguliere backfills in te schakelen met cloudFiles.backfillInterval om deze gegevens te verwerken.
CF_UNEXPECTED_READ_LIMIT
Onverwacht ReadLimit: <readLimit>
CF_UNKNOWN_OPTION_KEYS_ERROR
Onbekende optietoetsen gevonden:
<optionList>
Zorg ervoor dat alle opgegeven optiesleutels juist zijn. Als u de
validatie van uw opties en deze onbekende opties negeren, kunt u het volgende instellen:
.option("cloudFiles.<validateOptions>
", "false")
CF_UNKNOWN_READ_LIMIT
Onbekend ReadLimit: <readLimit>
CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION
De SQL-functie 'cloud_files' voor het maken van een streamingbron voor automatisch laden wordt alleen ondersteund in een Delta Live Tables-pijplijn. Meer informatie vindt u op:
<docLink>
CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE
Schemadeductie wordt niet ondersteund voor indeling: <format>
. Geef het schema op.
CF_UNSUPPORTED_LOG_VERSION
Niet-ondersteundeLogVersion: de maximaal ondersteunde logboekversie is v<maxVersion>``, but encountered v``<version>
. Het logboekbestand is geproduceerd door een nieuwere versie van DBR en kan niet worden gelezen door deze versie. Voer een upgrade uit.
CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE
De modus <mode>
Schemaontwikkeling wordt niet ondersteund voor indeling: <format>
. Stel de evolutiemodus van het schema in op 'none'.
CF_USE_DELTA_FORMAT
Lezen vanuit een Delta-tabel wordt niet ondersteund met deze syntaxis. Als u gegevens uit Delta wilt gebruiken, raadpleegt u de documenten: een Delta-tabel lezen (<deltaDocLink>
) of een Delta-tabel lezen als een stroombron (<streamDeltaDocLink>
). De streamingbron van Delta is al geoptimaliseerd voor incrementeel verbruik van gegevens.
Georuimtelijk
EWKB_PARSE_ERROR
Fout bij het parseren van EWKB: <parseError>
op positie <pos>
GEOJSON_PARSE_ERROR
Fout bij het parseren van GeoJSON: <parseError>
op positie <pos>
Zie GEOJSON_PARSE_ERROR voor meer informatie
H3_INVALID_CELL_ID
<h3Cell>
is geen geldige H3-cel-id
Zie H3_INVALID_CELL_ID voor meer informatie
H3_INVALID_GRID_DISTANCE_VALUE
H3-rasterafstand <k>
moet niet-negatief zijn
Zie H3_INVALID_GRID_DISTANCE_VALUE voor meer informatie
H3_INVALID_RESOLUTION_VALUE
H3-resolutie <r>
moet liggen tussen <minR>
en <maxR>
, inclusief
Zie H3_INVALID_RESOLUTION_VALUE voor meer informatie
H3_NOT_ENABLED
<h3Expression>
is uitgeschakeld of niet ondersteund. Overweeg foton in te schakelen of over te schakelen naar een laag die H3-expressies ondersteunt
Zie H3_NOT_ENABLED voor meer informatie
H3_PENTAGON_ENCOUNTERED_ERROR
Er is een vijfhoek aangetroffen tijdens het berekenen van de hexring van <h3Cell>
met rasterafstand <k>
H3_UNDEFINED_GRID_DISTANCE
H3-rasterafstand tussen <h3Cell1>
en <h3Cell2>
is niet gedefinieerd
ST_DIFFERENT_SRID_VALUES
Argumenten voor '<sqlFunction>
' moeten dezelfde SRID-waarde hebben. SRID-waarden gevonden: <srid1>
, <srid2>
ST_INVALID_ARGUMENT
"<sqlFunction>
": <reason>
ST_INVALID_ARGUMENT_TYPE
Argument voor '<sqlFunction>
' moet van het type zijn <validTypes>
ST_INVALID_CRS_TRANSFORMATION_ERROR
<sqlFunction>
: Ongeldige of niet-ondersteunde CRS-transformatie van SRID <srcSrid>
naar SRID <trgSrid>
ST_INVALID_ENDIANNESS_VALUE
Endianness <e>
moet NDR zijn (little-endian) of XDR (big-endian)
ST_INVALID_GEOHASH_VALUE
<sqlFunction>
: Ongeldige geohashwaarde: '<geohash>
'. Geohash-waarden moeten geldige basis32-tekenreeksen in kleine letters zijn, zoals beschreven inhttps://en.wikipedia.org/wiki/Geohash#Textual_representation
ST_INVALID_PRECISION_VALUE
Precisie <p>
moet liggen tussen <minP>
en <maxP>
, inclusief
ST_INVALID_SRID_VALUE
Ongeldige of niet-ondersteunde SRID <srid>
ST_NOT_ENABLED
<stExpression>
is uitgeschakeld of niet ondersteund. Overweeg om Photon in te schakelen of over te schakelen naar een laag die ST-expressies ondersteunt
ST_UNSUPPORTED_RETURN_TYPE
De gegevenstypen GEOGRAFIE en GEOMETRIE kunnen niet worden geretourneerd in query's. Gebruik een van de volgende SQL-expressies om ze te converteren naar standaardindelingen voor uitwisseling: <projectionExprs>
.
WKB_PARSE_ERROR
Fout bij het parseren van WKB: <parseError>
op positie <pos>
Zie WKB_PARSE_ERROR voor meer informatie
WKT_PARSE_ERROR
Fout bij parseren WKT: <parseError>
op positie <pos>