Teilen über


Fehlerbedingungen in Azure Databricks

Gilt für:mit 'Ja' markiert Databricks SQL mit 'Ja' markiert Databricks Runtime 12.2 und höher

Fehlerbedingungen sind beschreibende, lesbare Zeichenfolgen, die für den von ihnen beschriebenen Fehler eindeutig sind.

Sie können Fehlerbedingungen verwenden, um Fehler in Ihrer Anwendung programmgesteuert zu behandeln, ohne die Fehlermeldung zu analysieren.

Dies ist eine Liste allgemeiner, benannter Fehlerbedingungen, die von Azure Databricks zurückgegeben werden.

Databricks Runtime und Databricks SQL

ADD_DEFAULT_UNSUPPORTED

SQLSTATE: 42623

Fehler beim Ausführen des <statementType> Befehls, da DEFAULT Werte beim Hinzufügen neuer Spalten zur zuvor vorhandenen Zieldatenquelle mit Dem Tabellenanbieter nicht unterstützt werden: "<dataSource>".

AGGREGATFUNKTION_IN_VERSCHACHTELTEN_REFERENZEN_NICHT_UNTERSTÜTZT

SQLSTATE: 0A000

Erkannte Aggregatfunktionen in äußeren Bereichsreferenzen <expression>, die nicht unterstützt werden.

AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION

SQLSTATE: 42845

Nicht deterministischer Ausdruck <sqlExpr> sollte nicht in den Argumenten einer Aggregatfunktion angezeigt werden.

AI_FUNCTION_HTTP_PARSE_CAST_ERROR

SQLSTATE: 2203G

Fehler beim Analysieren der Modellausgabe beim Umwandeln in den angegebenen returnType: "<dataType>", Antwort JSON lautete: "<responseString>". Aktualisieren Sie den returnType so, dass er dem Inhalt des Typs entspricht, der durch die Antwort JSON dargestellt wird, und wiederholen Sie dann die Abfrage erneut. Ausnahme: <errorMessage>

AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR

SQLSTATE: 2203G

Die tatsächliche Modellausgabe weist mehr als eine Spalte "<responseString>" auf. Der angegebene Rückgabetyp ["<dataType>"] weist jedoch nur eine Spalte auf. Aktualisieren Sie den returnType so, dass er dieselbe Anzahl von Spalten wie die Modellausgabe enthält, und wiederholen Sie dann die Abfrage erneut.

AI_FUNCTION_HTTP_REQUEST_ERROR

SQLSTATE: 08000

Fehler beim Ausführen einer HTTP-Anforderung für die Funktion <funcName>: <errorMessage>

AI_FUNCTION_INVALID_HTTP_RESPONSE

SQLSTATE: 08000

Ungültige HTTP-Antwort für Funktion <funcName>: <errorMessage>

AI_FUNCTION_INVALID_MAX_WORDS

SQLSTATE: 22032

Die maximale Anzahl von Wörtern muss eine nicht negative ganze Zahl sein, es wurde aber <maxWords> erhalten.

AI_FUNCTION_INVALID_MODEL_PARAMETERS

SQLSTATE: 22023

Die bereitgestellten Modellparameter (<modelParameters>) sind in der AI_QUERY Funktion zum Verarbeiten des Endpunkts "<endpointName>" ungültig.

Weitere Details finden Sie unter AI_FUNCTION_INVALID_MODEL_PARAMETERS

AI_FUNCTION_INVALID_RESPONSE_FORMAT_TYPE

SQLSTATE: 0A000

KI-Funktion: "<functionName>" erfordert gültige <format> Zeichenfolge für responseFormat-Parameter, aber das folgende Antwortformat wurde gefunden: "<invalidResponseFormat>". Ausnahme: <errorMessage>

AI_FUNCTION_JSON_PARSE_ERROR

SQLSTATE: 22000

Fehler beim Analysieren der Antwort für die JSON Funktion <funcName>: <errorMessage>

AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR

SQLSTATE: 2203G

Fehler beim Analysieren des Schemas für den dienstenden Endpunkt "<endpointName>": <errorMessage>, Antwort JSON lautete: "<responseJson>".

Legen Sie den returnType Parameter manuell in der AI_QUERY-Funktion fest, um die Schemaauflösung außer Kraft zu setzen.

AI_FUNCTION_REGISTRY_LOOKUP_FAILURE

SQLSTATE: 42883

Fehler beim dynamischen Auflösen der Funktion "<functionName>" aus der AI-Funktionsregistrierung.

AI_FUNCTION_UNSUPPORTED_ERROR

SQLSTATE: 56038

Die Funktion <funcName> wird in der aktuellen Umgebung nicht unterstützt. Sie ist nur in Databricks SQL Pro und Serverless verfügbar.

AI_FUNCTION_UNSUPPORTED_REQUEST

SQLSTATE: 0A000

Fehler beim Auswerten der SQL-Funktion "<functionName>", da das angegebene Argument von <invalidValue> den Typ "<invalidDataType>" aufweist, aber nur die folgenden Typen unterstützt werden: <supportedDataTypes>. Aktualisieren Sie den Funktionsaufruf, um ein Argument vom Zeichenfolgentyp bereitzustellen, und wiederholen Sie die Abfrage erneut.

AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT

SQLSTATE: 0A000

Ein nicht unterstütztes Antwortformat wurde gefunden.

Weitere Details finden Sie unter AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT.

AI_FUNCTION_UNSUPPORTED_RETURN_TYPE

SQLSTATE: 0A000

KI-Funktion: "<functionName>" unterstützt den folgenden Typ nicht als Rückgabetyp: "<typeName>". Der Rückgabetyp muss ein gültiger SQL-Typ sein, der von Catalyst verstanden und von der KI-Funktion unterstützt wird. Aktuelle unterstützte Typen umfassen: <supportedValues>

AI_INVALID_ARGUMENT_VALUE_ERROR

SQLSTATE: 22032

Der angegebene Wert "<argValue>" wird von Argument "<argName>" nicht unterstützt. Unterstützte Werte sind: <supportedValues>

AI_QUERY_ENDPOINT_NOT_SUPPORT_STRUCTURED_OUTPUT

SQLSTATE: 0A000

Erwartet wurde, dass der Aufgabentyp des Endpunkts „Chat“ für die Unterstützung strukturierter Ausgaben ist, aber es wurde "<taskType>" für den Endpunkt "<endpointName>" gefunden.

AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH

SQLSTATE: 0A000

Die bereitgestellte "<sqlExpr>" wird vom Argument returnType nicht unterstützt.

AI_SEARCH_CONFLICTING_QUERY_PARAM_SUPPLY_ERROR

SQLSTATE: 0A000

Konfliktierende Parameter für vector_search SQL-Funktion erkannt: <conflictParamNames>.<hint>

AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR

SQLSTATE: 0A000

vector_search SQL-Funktion mit eingebettetem Spaltentyp <embeddingColumnType> wird nicht unterstützt.

AI_SEARCH_EMPTY_QUERY_PARAM_ERROR

SQLSTATE: 0A000

vector_search Der SQL-Funktion fehlt der Abfrageeingabeparameter, bitte geben Sie mindestens einen von: <parameterNames>an.

AI_SEARCH_HYBRID_QUERY_PARAM_DEPRECATION_ERROR

SQLSTATE: 0A000

Der Parameter query für die vector_search SQL-Funktion wird nicht für die hybrid Vektorsuche unterstützt. Verwenden Sie stattdessen query_text.

AI_SEARCH_HYBRID_TEXT_NOT_FOUND_ERROR

SQLSTATE: 0A000

Der Abfragetext wurde in der sql-Funktion vector_search für hybrid Vektorsuche nicht gefunden. Geben Sie query_text an.

AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR

SQLSTATE: 0A000

vector_search SQL-Funktion mit Indextyp <indexType> wird nicht unterstützt.

AI_SEARCH_MISSING_EMBEDDING_INPUT_ERROR

SQLSTATE: 0A000

query_vector muss für index <indexName> angegeben werden, da sie keinem Einbettungsmodellendpunkt zugeordnet ist.

AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR

SQLSTATE: 0A000

Fehler beim Materialisieren der SQL-Funktionsabfrage vector_search vom Spark-Typ <dataType> für native Scala-Objekte während der Anforderungscodierung: <errorMessage>.

AI_SEARCH_QUERY_TYPE_UNSUPPORTED_ERROR

SQLSTATE: 0A000

vector_search SQL-Funktion mit Abfragetyp <unexpectedQueryType> wird nicht unterstützt. Geben Sie einen Typ aus <supportedQueryTypes> an.

AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR

SQLSTATE: 0A000

vector_search SQL-Funktion mit num_results größer als <maxLimit> wird nicht unterstützt. Der angegebene Grenzwert ist <requestedLimit>. Versuchen Sie es bitte erneut mit num_results <= <maxLimit>

AI_TOP_DRIVERS_PARAM_OUT_OF_RANGE

SQLSTATE: 22003

Der Parameter ai_top_drivers<param> muss zwischen <lo> und <hi> liegen.

AI_TOP_DRIVERS_UNSUPPORTED_AGGREGATION_TYPE

SQLSTATE: 0A000

ai_top_drivers unterstützt das <aggName> Aggregat nicht. Wählen Sie eines der folgenden unterstützten Aggregate aus: <allowed>.

AI_TOP_DRIVERS_UNSUPPORTED_DIMENSION_TYPE

SQLSTATE: 0A000

ai_top_drivers unterstützt keine numerischen, Zuordnungs- oder Strukturdimensionsspalten. Die Spalte <colName> hat Typ <dataType>. Entfernen Sie diese Dimension, oder wandeln Sie sie in einen unterstützten Typ um.

AI_TOP_DRIVERS_UNSUPPORTED_LABEL_TYPE

SQLSTATE: 0A000

ai_top_drivers erfordert, dass der Beschriftungsspalten-Typ boolesch ist. Die Spalte <colName> hat Typ <dataType>. Ändern Sie die Bezeichnungsspalte, oder wandeln Sie sie in einen unterstützten Typ um.

AI_TOP_DRIVERS_UNSUPPORTED_METRIC_TYPE

SQLSTATE: 0A000

ai_top_drivers erfordert, dass der metrische Spaltentyp numerisch ist. Die Spalte <colName> hat Typ <dataType>. Ändern Sie die Metrikspalte, oder wandeln Sie sie in einen unterstützten Typ um.

ALL_PARAMETERS_MUST_BE_NAMED

SQLSTATE: 07001

Für die Verwendung von parametrisierten Namensabfragen müssen alle Parameter benannt werden. Parameter ohne Namen: <exprs>.

ALL_PARTITION_COLUMNS_NOT_ALLOWED

SQLSTATE: KD005

Nicht alle Spalten können als Partitionsspalten verwendet werden.

ALTER_SCHEDULE_DOES_NOT_EXIST

SQLSTATE: 42704

<scheduleType> einer Tabelle kann nicht geändert werden, ohne dass ein vorhandener Zeitplan oder Trigger vorhanden ist. Fügen Sie der Tabelle einen Zeitplan oder Trigger hinzu, bevor Sie versuchen, ihn zu ändern.

ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE

SQLSTATE: 42710

ALTER TABLE <type> Spalte <columnName> gibt den Deskriptor "<optionName>" mehr als einmal an, was ungültig ist.

AMBIGUOUS_ALIAS_IN_NESTED_CTE

SQLSTATE: 42KD0

Der Name <name> ist im geschachtelten CTE mehrdeutig.

Bitte setzen Sie <config> auf "CORRECTED", damit der in der inneren CTE definierte Name Vorrang hat. Wenn sie auf "LEGACY" festgelegt ist, haben äußere CTE-Definitionen Vorrang.

Siehe „https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine“.

AMBIGUOUS_COLUMN_OR_FIELD

SQLSTATE: 42702

Spalte oder Feld <name> ist mehrdeutig und weist <n> Übereinstimmungen auf.

AMBIGUOUS_COLUMN_REFERENCE

SQLSTATE: 42702

Spalten-<name> ist mehrdeutig. Dies liegt daran, dass Sie mehrere DataFrames miteinander verknüpft haben, und einige dieser DataFrames sind identisch.

Diese Spalte verweist auf einen der DataFrames, aber Spark kann nicht herausfinden, welches element.

Bitte weisen Sie den DataFrames über DataFrame.alias unterschiedliche Namen zu, bevor Sie sie zusammenführen.

und geben Sie die Spalte mit qualifiziertem Namen an, z. B. df.alias("a").join(df.alias("b"), col("a.id") > col("b.id")).

AMBIGUOUS_CONSTRAINT

SQLSTATE: 42K0C

Mehrdeutige Referenz auf Einschränkung <constraint>.

AMBIGUOUS_LATERAL_COLUMN_ALIAS

SQLSTATE: 42702

Der Alias der Lateral-Spalte <name> ist mehrdeutig und weist <n> Übereinstimmungen auf.

AMBIGUOUS_REFERENCE

SQLSTATE: 42704

Der Verweis <name> ist mehrdeutig, könnte <referenceNames>sein.

AMBIGUOUS_REFERENCE_TO_FIELDS

SQLSTATE: 42000

Mehrdeutiger Verweis auf das Feld <field>. Es erscheint <count> Mal im Schema.

ANALYZE_CONSTRAINTS_NOT_SUPPORTED

SQLSTATE: 0A000

ANALYZE CONSTRAINTS wird nicht unterstützt.

ANALYZE_TABLE_COMPUTE_STORAGE_METRICS_NOT_SUPPORTED

SQLSTATE: 0A000

ANALYZE TABLE COMPUTE STORAGE METRICS wird nicht unterstützt. Wenden Sie sich an Ihr Databricks-Supportteam, um diesen Arbeitsbereich zu registrieren.

ANSI_CONFIG_CANNOT_BE_DISABLED

SQLSTATE: 56038

Die ANSI SQL-Konfiguration <config> kann in diesem Produkt nicht deaktiviert werden.

EINMAL_ANKETTEN_AUS_BATCH_ABFRAGE

SQLSTATE: 42000

Verwenden Sie den Stream()-Operator.

Das Erstellen einer Streamingtabelle aus einer Batchabfrage verhindert das inkrementelle Laden neuer Daten aus der Quelle. Fehlerhafte Tabelle: '<table>'.

Beispielverwendung:

CREATE STREAMING TABLE <target table name> ... AS SELECT ... FROM stream(<source table name>) ...

APPROX_TOP_K_INVALID_NUM_OF_ARGUMENTS

SQLSTATE: 42605

approx_top_kerwartet 1 bis 3 Argumente, hat aber .<argNum>

APPROX_TOP_K_MAX_ITEMS_TRACKED_EXCEEDS_LIMIT

SQLSTATE: 22023

Die maximal nachverfolgten maxItemsTracked(<maxItemsTracked>) approx_top_k Elemente sollten kleiner oder gleich <limit>sein.

APPROX_TOP_K_MAX_ITEMS_TRACKED_LESS_THAN_K

SQLSTATE: 22023

Die maximal nachverfolgten maxItemsTracked(<maxItemsTracked>) approx_top_k Elemente sollten größer oder gleich k(<k>) sein.

APPROX_TOP_K_NON_POSITIVE_ARG

SQLSTATE: 22023

Der Wert von <argName> in approx_top_k muss eine positive ganze Zahl sein, aber erhalten <argValue>.

APPROX_TOP_K_NULL_ARG

SQLSTATE: 22004

Der Wert von <argName> "in approx_top_k " darf nicht sein NULL.

APPROX_TOP_K_SKETCH_SIZE_NOT_MATCH

SQLSTATE: 42846

Das Kombinieren approx_top_k Skizzen unterschiedlicher Größen ist nicht zulässig. Gefundene Skizzen von Größe <size1> und <size2>.

APPROX_TOP_K_SKETCH_TYPE_NOT_MATCH

SQLSTATE: 42846

Das Kombinieren approx_top_k Skizzen verschiedener Typen ist nicht zulässig. Gefundene Skizzen vom Typ <type1> und <type2>.

AQE_THREAD_INTERRUPTED

SQLSTATE: HY008

Der AQE-Thread wird unterbrochen, wahrscheinlich aufgrund des Abbruchs von Abfragen durch den Benutzer.

ARGUMENT_NOT_CONSTANT

SQLSTATE: 42K08

Die Funktion <functionName> enthält einen Parameter <parameterName> an position <pos>, der ein konstantes Argument erfordert. Berechnen Sie das Argument <sqlExpr> separat, und übergeben Sie das Ergebnis als Konstante.

ARITHMETIC_OVERFLOW

SQLSTATE: 22003

<message>. <alternative> Legen Sie <config> bei Bedarf auf "false" fest, um diesen Fehler zu umgehen.

Weitere Details finden Sie unter ARITHMETIC_OVERFLOW.

ARROW_TYPE_MISMATCH

SQLSTATE: 42K0G

Ungültiges Schema von <operation>: erwartet <outputTypes>, erhalten <actualDataTypes>.

ARTIFACT_ALREADY_EXISTS

SQLSTATE: 42713

Das Artefakt <normalizedRemoteRelativePath> ist bereits vorhanden. Wählen Sie einen anderen Namen für das neue Artefakt aus, da es nicht überschrieben werden kann.

ASSIGNMENT_ARITY_MISMATCH

SQLSTATE: 42802

Die Anzahl der Spalten oder Variablen, die zugewiesen oder aliasiert werden: <numTarget> stimmt nicht mit der Anzahl der Quellausdrücke überein: <numExpr>.

AS_OF_JOIN

SQLSTATE: 42604

Ungültiger As-of-Join.

Weitere Details finden Sie unter AS_OF_JOIN.

ATTEMPT_ANALYSIS_IN_PIPELINE_QUERY_FUNCTION

SQLSTATE: 0A000

Vorgänge, die die DataFrame-Analyse oder -Ausführung auslösen, sind in Pipelineabfragefunktionen nicht zulässig. Verschieben von Code außerhalb der Pipelineabfragefunktion.

AUTOCOMMIT_BEGIN_TRANSACTION_DURING_AUTOCOMMIT_TRANSACTION

SQLSTATE: 25000

Eine neue Transaktion kann nicht gestartet werden, während eine implizite Transaktion SET AUTOCOMMIT=FALSE aktiv ist. COMMIT oder ROLLBACK die aktuelle Transaktion zuerst und SET AUTOCOMMIT=TRUE vor dem Starten einer neuen Transaktion.

AUTOCOMMIT_NOT_SUPPORTED

SQLSTATE: 0A000

Das AUTOCOMMIT Modusfeature wird derzeit entwickelt und wird für Databricks noch nicht unterstützt.

AUTOCOMMIT_OLD_SQL_EDITOR_NOT_SUPPORTED

SQLSTATE: 0A000

AUTOCOMMIT Im älteren SQL-Editor kann nicht auf sie zugegriffen oder geändert werden. Wechseln Sie zum neuen SQL-Editor (<docLink>) oder verwenden Sie ein Notizbuch, das mit einem Databricks SQL Warehouse verbunden ist.

AUTOCOMMIT_ONLY_SUPPORTED_IN_DBSQL

SQLSTATE: 0A000

AUTOCOMMIT kann nur in Databricks SQL Warehouses zugegriffen oder geändert werden.

AUTOCOMMIT_SET_DURING_ACTIVE_TRANSACTION

SQLSTATE: 25000

SET AUTOCOMMIT ist während einer aktiven Transaktion nicht zulässig. Commit oder Rollback zuerst.

AUTOCOMMIT_SET_FALSE_ALREADY_DISABLED

SQLSTATE: 25000

SET AUTOCOMMIT=FALSE ist nicht zulässig, wenn AUTOCOMMIT sie bereits deaktiviert ist. Diese Einschränkung verhindert Verwirrung und hält Transaktionsgrenzen klar.

AUTOCOMMIT_SET_TRUE_DURING_AUTOCOMMIT_TRANSACTION

SQLSTATE: 25000

SET AUTOCOMMIT=TRUE ist nicht zulässig, nachdem Anweisungen in einer impliziten Transaktion ausgeführt wurden, die von SET AUTOCOMMIT=FALSE. Sie ist nur unmittelbar nach SET AUTOCOMMIT=FALSE (vor Anweisungen) oder nach oder ROLLBACKnach COMMIT .

AUTO_TTL_COLUMN_NOT_FOUND

SQLSTATE: 42703

Ungültiges Tabellenschema für Auto-TTL. Die Auto-TTL-Spalte <column> wurde nicht gefunden.

AUTO_TTL_COLUMN_TYPE_NOT_SUPPORTED

SQLSTATE: 42K09

Auto-TTL-Spalte <column> hat Typ <type> , der ungültig ist. Der Spaltentyp muss einer von TIMESTAMP, TIMESTAMP_NTZ, oder DATE.

AUTO_TTL_FEATURE_NOT_ENABLED

SQLSTATE: 0A000

Wenden Sie sich an Ihren Databricks-Vertreter, um die Auto-TTL-Funktion zu aktivieren.

AUTO_TTL_INCOMPLETE_SETTING

SQLSTATE: 42601

Um auto-TTL für eine Tabelle festzulegen, sind beide Tabelleneigenschaften autottl.timestampColumnautottl.expireInDays erforderlich, fehlen jedoch <missing> .

AUTO_TTL_INVALID_COLUMN_CHANGE

SQLSTATE: 42703

Spalte <column> kann nicht sein <operation> , da sie in der Definition von Auto-TTL verwendet wird.

AUTO_TTL_NOT_SUPPORT_SHALLOW_CLONES

SQLSTATE: 56038

Auto-TTL wird in flachen Klontabellen nicht unterstützt.

AUTO_TTL_NOT_SUPPORT_TABLES_HAVING_SHALLOW_CLONES

SQLSTATE: 56038

Auto-TTL wird für Tabellen mit flachen Klonen nicht unterstützt.

AUTO_TTL_REQUIRES_PREDICTIVE_OPTIMIZATION

SQLSTATE: 56038

Auto-TTL erfordert, dass die Predictive Optimization aktiviert ist.

AUTO_TTL_REQUIRES_UC_MANAGED_TABLE

SQLSTATE: 56038

Auto-TTL wird nur in verwalteten UC-Tabellen unterstützt.

AVRO_CANNOT_WRITE_NULL_FIELD

SQLSTATE: 22004

Der Nullwert für das Feld <name> , das als Nicht-Null-Avro-Datentyp <dataType>definiert ist, kann nicht geschrieben werden.

Um einen Null-Wert für dieses Feld zuzulassen, geben Sie das Avro-Schema als Union-Typ mit „null“ mithilfe der Option avroSchema an.

AVRO_DEFAULT_VALUES_UNSUPPORTED

SQLSTATE: 0A000

Die Verwendung von Standardwerten wird nicht unterstützt, wennrescuedDataColumn aktiviert ist. Sie können diese Überprüfung möglicherweise entfernen, indem Sie spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue auf "false" festlegen, die Standardwerte werden jedoch nicht angewendet, und NULL-Werte werden weiterhin verwendet.

AVRO_INCOMPATIBLE_READ_TYPE

SQLSTATE: 22KD3

Avro <avroPath> kann nicht in SQL <sqlPath> konvertiert werden, da der ursprüngliche codierte Datentyp lautet <avroType>. Sie versuchen jedoch, das Feld als <sqlType>zu lesen, was zu einer falschen Antwort führen würde.

Um das Lesen dieses Felds zuzulassen, aktivieren Sie die SQL-Konfiguration: „spark.sql.legacy.avro.allowIncompatibleSchema”.

AVRO_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE

SQLSTATE: 22KD3

Die <functionName> SQL-Funktion kann nicht aufgerufen werden, da die Avro-Datenquelle nicht geladen wird.

Starten Sie den Auftrag oder die Sitzung neu, indem Sie das Paket "spark-avro" laden, z. B. mithilfe des Arguments "--packages" in der Befehlszeile, und wiederholen Sie dann die Abfrage oder den Befehl.

AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED

SQLSTATE: 0A000

Die Verwendung des Positionsfeldabgleichs wird nicht unterstützt, wenn entweder rescuedDataColumn oder failOnUnknownFields aktiviert ist. Entfernen Sie diese Optionen, um fortzufahren.

AZURE_INVALID_CREDENTIALS_CONFIGURATION

SQLSTATE: 42KDK

Azure Key Provider oder Anmeldeinformationen sind falsch konfiguriert. Grund: <causedBy>.

BATCH_METADATA_NOT_FOUND

SQLSTATE: 42K03

Batch-<batchMetadataFile>konnte nicht gefunden werden.

BIGQUERY_DATA_SOURCE_OPTIONS_VALIDATION_FAILED

SQLSTATE: 42616

Fehler bei der Überprüfung der BigQuery-Datenquellenoption(n).

Weitere Informationen finden Sie unter BIGQUERY_DATA_SOURCE_OPTIONS_VALIDATION_FAILED

BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE

SQLSTATE: 42616

BigQuery-Verbindungsanmeldeinformationen müssen entweder mit dem Parameter „GoogleServiceAccountKeyJson“ oder „projectId“, „OAuthServiceAcctEmail“, „OAuthPvtKey“ angegeben werden.

BINARY_ARITHMETIC_OVERFLOW

SQLSTATE: 22003

<value1> <symbol> <value2> verursachte Überlauf. Verwenden Sie <functionName>, um das Überlaufproblem zu ignorieren und NULLzurückzugeben.

BUILT_IN_CATALOG

SQLSTATE: 42832

<operation> unterstützt keine integrierten Kataloge.

CALL_ON_STREAMING_DATASET_UNSUPPORTED

SQLSTATE: 42KDE

Die Methode <methodName> kann nicht für Streaming-Dataset/DataFrame aufgerufen werden.

CANNOT_ALTER_COLLATION_BUCKET_COLUMN

SQLSTATE: 428FR

ALTER TABLE (ALTER|CHANGE) COLUMN kann die Sortierung von Typ/Untertypen von Bucket-Spalten nicht ändern, hat aber die Bucketspalte <columnName> in der Tabelle <tableName> gefunden.

CANNOT_ALTER_PARTITION_COLUMN

SQLSTATE: 428FR

ALTER TABLE (ALTER|CHANGE) COLUMN wird für Partitionsspalten nicht unterstützt, aber es wurde die Partitionsspalte <columnName> in der Tabelle <tableName>gefunden.

CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK

SQLSTATE: 42611

Um die Spalte für die Ereigniszeit neu zuzuweisen, muss ein Wasserzeichen definiert werden. Die Wasserzeichendefinition in der Streamingabfrage konnte nicht gefunden werden.

CANNOT_CAST_DATATYPE

SQLSTATE: 42846

<sourceType> kann nicht in <targetType>umgestellt werden.

CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE

SQLSTATE: 42846

Protobuf-<protobufColumn> kann nicht in SQL-<sqlColumn> konvertiert werden, da das Schema nicht kompatibel ist (protobufType = <protobufType>, sqlType = <sqlType>).

CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE

SQLSTATE: 42846

<protobufType> von Protobuf kann nicht in SQL-Typ <toType>konvertiert werden.

CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE

SQLSTATE: 42846

SQL-<sqlColumn> kann nicht in Protobuf-<protobufColumn> konvertiert werden, da das Schema nicht kompatibel ist (protobufType = <protobufType>, sqlType = <sqlType>).

CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE

SQLSTATE: 42846

SQL-<sqlColumn> kann nicht in Protobuf-<protobufColumn> konvertiert werden, da <data> nicht unter den definierten Werten für Enum: <enumString>ist.

CANNOT_COPY_STATE

SQLSTATE: 0AKD0

Der Katalogstatus kann nicht wie aktuelle Datenbank und temporäre Ansichten aus dem Unity-Katalog in einen Legacykatalog kopiert werden.

CANNOT_CREATE_DATA_SOURCE_TABLE

SQLSTATE: 42KDE

Fehler beim Erstellen der Datenquellentabelle <tableName>:

Weitere Details finden Sie unter CANNOT_CREATE_DATA_SOURCE_TABLE.

CANNOT_DECODE_URL

SQLSTATE: 22546

Die angegebene URL kann nicht decodiert werden: <url>. Stellen Sie sicher, dass die URL ordnungsgemäß formatiert ist, und versuchen Sie es erneut.

CANNOT_DELETE_SYSTEM_OWNED

SQLSTATE: 42832

Der systemeigene <resourceType> kann nicht gelöscht werden.

CANNOT_DROP_AMBIGUOUS_CONSTRAINT

SQLSTATE: 42K0C

Die Einschränkung mit dem Namen <constraintName>, der gemeinsam mit einer CHECK-Einschränkung

und einer PRIMARY KEY-oder FOREIGN KEY-Einschränkung verwendet wird, kann nicht getrennt werden. Sie können die PRIMARY KEY- oder

FOREIGN KEY-Beschränkung durch folgende Abfragen trennen:

ALTER TABLE .. DROP PRIMARY KEY oder

ALTER TABLE .. DROP FOREIGN KEY ..

CANNOT_DROP_BASE_TABLE_REFERENCED_BY_SHALLOW_CLONE (Basis-Tabelle kann nicht gelöscht werden, da sie von einem Shallow Clone referenziert wird)

SQLSTATE: 42893

Tabelle <baseTable> kann nicht abgelegt werden, da sie von einem oder mehreren flachen Klonen referenziert wird: <cloneList>. DROP alle flachen Klone vor dem Ablegen der Basistabelle. Wenn dies nicht möglich ist, sollten Sie "" verwendenDROP TABLE...FORCE, um die Tabelle erzwungen abzulegen. WARNING: Dadurch werden alle vorhandenen Shallow-Clone-Verweise sofort abgebrochen und unbrauchbar.

CANNOT_ESTABLISH_CONNECTION

SQLSTATE: 08001

Eine Verbindung zur Remotedatenbank <jdbcDialectName> kann nicht hergestellt werden. Überprüfen Sie Verbindungsinformationen und Anmeldeinformationen, z. B. Host-, Port-, Benutzer-, Kennwort- und Datenbankoptionen. ** Wenn Sie der Meinung sind, dass die Informationen korrekt sind, überprüfen Sie bitte die Netzwerkeinrichtung Ihres Arbeitsbereichs, und stellen Sie sicher, dass sie keine ausgehenden Einschränkungen für den Host hat. Überprüfen Sie auch, ob der Host eingehende Verbindungen nicht vom Netzwerk blockiert, in dem die Spark-Cluster des Arbeitsbereichs bereitgestellt werden. ** Detaillierte Fehlermeldung: <causeErrorMessage>.

CANNOT_ESTABLISH_CONNECTION_SERVERLESS

SQLSTATE: 08001

Eine Verbindung zur Remotedatenbank <jdbcDialectName> kann nicht hergestellt werden. Überprüfen Sie Verbindungsinformationen und Anmeldeinformationen, z. B. Host-, Port-, Benutzer-, Kennwort- und Datenbankoptionen. ** Wenn Sie der Meinung sind, dass die Informationen korrekt sind, lassen Sie den eingehenden Datenverkehr vom Internet an Ihren Host zu, während Sie Serverless Compute verwenden. Wenn Ihre Netzwerkrichtlinien eingehenden Internetdatenverkehr nicht zulassen, verwenden Sie bitte nicht Serverless Compute, oder Wenden Sie sich an Ihren Databricks-Vertreter, um mehr über Serverless Private Networking zu erfahren. ** Detaillierte Fehlermeldung: <causeErrorMessage>.

CANNOT_ESTABLISH_CONNECTION_TO_HOST

SQLSTATE: 08001

Es kann keine Verbindung hergestellt <protocol> werden mit <host>. Überprüfen Sie die Netzwerkeinrichtung Ihres Arbeitsbereichs, und stellen Sie sicher, dass sie keine ausgehenden Einschränkungen für den Host hat. Überprüfen Sie auch, ob der Host eingehende Verbindungen vom Netzwerk, in dem die Cluster des Arbeitsbereichs bereitgestellt werden, nicht blockiert.

CANNOT_INVOKE_IN_TRANSFORMATIONS

SQLSTATE: 0A000

Datasettransformationen und -aktionen können nur vom Treiber aufgerufen werden, nicht innerhalb anderer Datasettransformationen; Beispielsweise ist "dataset1.map(x => dataset2.values.count() * x") ungültig, da die Wertetransformation und die Anzahlaktion nicht innerhalb der Dataset1.map-Transformation ausgeführt werden können. Weitere Informationen finden Sie unter SPARK-28702.

CANNOT_LOAD_CHECKPOINT_FILE_MANAGER

SQLSTATE: 58030

Fehler beim Laden des Streaming-Checkpoint-Dateimanagers für path=<path>.

Weitere Informationen finden Sie unter CANNOT_LOAD_CHECKPOINT_FILE_MANAGER

CANNOT_LOAD_FUNCTION_CLASS

SQLSTATE: 46103

Klasse <className> beim Registrieren der Funktion <functionName>kann nicht geladen werden. Stellen Sie sicher, dass sie sich auf dem Klassenpfad befindet.

CANNOT_LOAD_PROTOBUF_CLASS

SQLSTATE: 42K03

Die Protobuf-Klasse mit dem Namen <protobufClassName>konnte nicht geladen werden. <explanation>.

CANNOT_LOAD_STATE_STORE

SQLSTATE: 58030

Beim Laden des Zustands ist ein Fehler aufgetreten.

Weitere Details finden Sie unter CANNOT_LOAD_STATE_STORE.

CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE

SQLSTATE: 42825

Fehler beim Zusammenführen inkompatibler Datentypen <left> und <right>. Überprüfen Sie die Datentypen der zusammengeführten Spalten, und stellen Sie sicher, dass sie kompatibel sind. Ziehen Sie bei Bedarf die Umwandlung der Spalten in kompatible Datentypen in Betracht, bevor Sie die Zusammenführung versuchen.

CANNOT_MERGE_SCHEMAS

SQLSTATE: 42KD9

Fehler beim Zusammenführen von Schemas:

Anfängliches Schema:

<left>

Schema, das nicht mit dem ursprünglichen Schema zusammengeführt werden kann:

<right>.

CANNOT_MODIFY_CONFIG

SQLSTATE: 46110

Der Wert der Spark-Konfiguration kann nicht geändert werden: <key>.

Siehe auch „https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements“.

CANNOT_MODIFY_STATIC_CONFIG

SQLSTATE: 46110

Der Wert der statischen Spark-Konfiguration kann nicht geändert werden: <key>.

CANNOT_PARSE_DECIMAL

SQLSTATE: 22018

Dezimalwerte können nicht geparst werden. Bitte stellen Sie sicher, dass die Eingabe eine gültige Zahl mit optionalem Dezimalpunkt oder Dezimalkomma ist.

CANNOT_PARSE_INTERVAL

SQLSTATE: 22006

<intervalString> kann nicht analysiert werden. Stellen Sie sicher, dass der angegebene Wert in einem gültigen Format zum Definieren eines Intervalls enthalten ist. Sie können auf die Dokumentation für das richtige Format verweisen. Wenn das Problem weiterhin besteht, überprüfen Sie bitte, ob der Eingabewert nicht null oder leer ist, und versuchen Sie es erneut.

CANNOT_PARSE_JSON_FIELD

SQLSTATE: 2203G

Der Feldname <fieldName> und der Wert <fieldValue> des JSON Tokentyps <jsonType> können nicht auf den Spark-Datentyp <dataType>analysiert werden.

CANNOT_PARSE_PROTOBUF_DESCRIPTOR

SQLSTATE: 22018

Fehler beim Analysieren von Deskriptorbytes in Protobuf FileDescriptorSet.

CANNOT_PARSE_TIME

SQLSTATE: 22010

Die Eingabezeichenfolge <input> kann nicht in einen TIME-Wert analysiert werden, da sie nicht mit dem Datetime-Format <format>übereinstimmt.

CANNOT_PARSE_TIMESTAMP

SQLSTATE: 22007

<message>. Verwenden Sie <func>, um eine ungültige Eingabezeichenfolge zu tolerieren und stattdessen NULL zurückzugeben.

CANNOT_QUERY_TABLE_DURING_INITIALIZATION

SQLSTATE: 55019

MV/ST kann während der Initialisierung nicht abgerufen werden.

Weitere Informationen finden Sie unter CANNOT_QUERY_TABLE_DURING_INITIALIZATION.

CANNOT_READ_ARCHIVED_FILE

SQLSTATE: KD003

Die Datei kann nicht im Pfad <path> gelesen werden, da sie archiviert wurde. Passen Sie Die Abfragefilter an, um archivierte Dateien auszuschließen.

CANNOT_READ_FILE

SQLSTATE: KD003

Die <format>-Datei kann nicht gelesen werden unter Pfad: <path>.

Weitere Informationen finden Sie unter CANNOT_READ_FILE

CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER

SQLSTATE: 42501

Vertraulicher Schlüssel "<key>" kann nicht vom sicheren Anbieter gelesen werden.

CANNOT_RECOGNIZE_HIVE_TYPE

SQLSTATE: 429BB

Die Strukturtypzeichenfolge kann nicht erkannt werden: <fieldType>, Spalte: <fieldName>. Der angegebene Datentyp für das Feld kann von Spark SQL nicht erkannt werden. Überprüfen Sie den Datentyp des angegebenen Felds, und stellen Sie sicher, dass es sich um einen gültigen Spark SQL-Datentyp handelt. Eine Liste der gültigen Datentypen und deren Format finden Sie in der Spark SQL-Dokumentation. Wenn der Datentyp korrekt ist, stellen Sie sicher, dass Sie eine unterstützte Version von Spark SQL verwenden.

CANNOT_REFERENCE_UC_IN_HMS

SQLSTATE: 0AKD0

Auf einen Unity-Katalog <objType> in Hive-Metastore-Objekten kann nicht verwiesen werden.

CANNOT_REMOVE_RESERVED_PROPERTY

SQLSTATE: 42000

Reservierte Eigenschaft kann nicht entfernt werden: <property>.

CANNOT_RENAME_ACROSS_CATALOG

SQLSTATE: 0AKD0

Das Umbenennen einer <type> über Kataloge hinweg ist nicht zulässig.

CANNOT_RENAME_ACROSS_SCHEMA

SQLSTATE: 0AKD0

Das Umbenennen einer <type> über Schemas hinweg ist nicht zulässig.

CANNOT_RESOLVE_DATAFRAME_COLUMN

SQLSTATE: 42704

DataFrame-Spalte <name>kann nicht identifiziert werden. Es liegt wahrscheinlich an illegalen Verweisen wie df1.select(df2.col("a")).

CANNOT_RESOLVE_STAR_EXPAND

SQLSTATE: 42704

<targetString>.* kann anhand der Eingabespalten <columns> nicht aufgelöst werden. Überprüfen Sie, ob die angegebene Tabelle oder Struktur vorhanden ist und auf die Eingabespalten zugegriffen werden kann.

CANNOT_RESTORE_PERMISSIONS_FOR_PATH

SQLSTATE: 58030

Fehler beim Festlegen von Berechtigungen für den erstellten Pfad <path> zurück zu <permission>.

CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS

SQLSTATE: 0AKD0

Tabellen können zwischen Unity Catalog und Hive-Metastore nicht flach geklont werden.

CANNOT_SHALLOW_CLONE_AUTO_TTL

SQLSTATE: 0AKUC

Eine Tabelle <table> , die auto-TTL aktiviert ist, kann nicht flach geklont werden.

CANNOT_SHALLOW_CLONE_NESTED

SQLSTATE: 0AKUC

Eine Tabelle <table>, die bereits ein flacher Klon ist, kann nicht flach geklont werden.

CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET

SQLSTATE: 0AKUC

Shallow Clone ist nur für den MANAGED Tabellentyp zulässig. Die Tabelle <table> ist nicht MANAGED Tabelle.

CANNOT_UPDATE_FIELD

SQLSTATE: 0A000

Das <table>-Feld vom <fieldName>-Typ kann nicht aktualisiert werden:

Weitere Informationen finden Sie unter FELD_NICHT_AKTUALISIERBAR

CANNOT_UPDATE_PARTITION_COLUMNS

SQLSTATE: 42000

Die deklarierte Partitionierung steht <requestedPartitionColumns> in Konflikt mit der vorhandenen Tabellenpartitionierung <existingPartitionColumns>.

Löschen Sie die Tabelle, oder ändern Sie die deklarierte Partitionierung so, dass sie ihren Partitionen entspricht.

CANNOT_UP_CAST_DATATYPE

SQLSTATE: 42846

<expression> kann nicht von <sourceType> in <targetType> umgewandelt werden.

<details>

CANNOT_USE_KRYO

SQLSTATE: 22KD3

Der Kryo-Serialisierungscodec kann nicht geladen werden. Die Kryo-Serialisierung kann nicht im Spark Connect-Client verwendet werden. Verwenden Sie die Java-Serialisierung, stellen Sie stattdessen einen benutzerdefinierten Codec bereit, oder verwenden Sie stattdessen Spark Classic.

CANNOT_USE_MULTI_ALIASES_IN_WATERMARK_CLAUSE

SQLSTATE: 42000

Mehrere Aliase werden in der Wasserzeichenklausel nicht unterstützt.

KANN_DEN_RESERVIERTEN_STREAMING_ANBIETER_NAME_NICHT_VERWENDEN

SQLSTATE: 42000

Reservierter Streaminganbietername kann nicht verwendet werden: <providerName>.

CANNOT_VALIDATE_CONNECTION

SQLSTATE: 08000

Die Überprüfung der <jdbcDialectName>-Verbindung wird nicht unterstützt. Wenden Sie sich an die Databricks-Unterstützung für alternative Lösungen, oder legen Sie "spark.databricks.testConnectionBeforeCreation" auf "false" fest, um verbindungstests zu überspringen, bevor Sie ein Verbindungsobjekt erstellen.

CANNOT_WRITE_STATE_STORE

SQLSTATE: 58030

Fehler beim Schreiben von Zustandsspeicherdateien für Anbieter <providerClass>.

Weitere Informationen finden Sie unter CANNOT_WRITE_STATE_STORE.

CAST_INVALID_INPUT

SQLSTATE: 22018

Der Wert <expression> des Typs <sourceType> kann nicht in <targetType> umgewandelt werden, da er fehlerhaft ist. Korrigieren Sie den Wert gemäß der Syntax, oder ändern Sie den Zieltyp. Verwenden Sie try_cast, um falsch formatierte Eingaben zu tolerieren und stattdessen NULL zurückzugeben.

Weitere Details finden Sie unter CAST_INVALID_INPUT.

CAST_OVERFLOW

SQLSTATE: 22003

Der Wert <value> des Typs <sourceType> kann aufgrund eines Überlaufs nicht in <targetType> umgewandelt werden. Verwenden Sie try_cast, um Überlauf zu tolerieren und stattdessen NULL zurückzugeben.

CAST_OVERFLOW_IN_TABLE_INSERT

SQLSTATE: 22003

Aufgrund eines Überlaufs konnte kein Wert vom Typ <sourceType> der <targetType>-Typspalte oder Variablen <columnName> zugewiesen werden. Verwenden Sie try_cast für den Eingabewert, um Überlauf zu tolerieren und stattdessen NULL zurückzugeben.

CATALOG_CONVERSION_FOREIGN_ENTITY_PRESENT

SQLSTATE: 55019

Fehler bei der Katalogkonvertierung von UC Foreign in UC Standard, da der Katalog fremde Entitäten enthält (bis zu 10 sind hier dargestellt): <entityNames>. Die vollständige Liste der fremden Entitäten in diesem Katalog finden Sie in der Befehlsdokumentation zu denALTER CATALOG DROP CONNECTION Skripts.

CATALOG_CONVERSION_UNSUPPORTED_CATALOG_TYPE

SQLSTATE: 0AKUC

Der Katalog kann nicht von UC Foreign in UC Standard konvertiert werden. Nur <convertableCatalogTypes> Fremd-UC-Kataloge können in UC Standard konvertiert werden.

CATALOG_NOT_FOUND

SQLSTATE: 42P08

Der Katalog <catalogName> nicht gefunden. Erwägen Sie, die SQL-Konfiguration <config> auf ein Katalog-Plug-In festzulegen.

CATALOG_OWNED_TABLE_CREATION_NOT_ALLOWED

SQLSTATE: 0A000

Das Erstellen von Delta-Tabellen mit <feature> Tabellenfunktion ist nicht zulässig. Wenden Sie sich bitte an den Databricks-Support.

CHECKPOINT_DIR_NOT_SET

SQLSTATE: 42K0I

Das Prüfpunktverzeichnis wurde im SparkContext nicht festgelegt.

Bitte legen Sie sie mit SparkContext.setCheckpointDir().

CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND

SQLSTATE: 56000

Prüfpunktblock <rddBlockId> nicht gefunden!

Entweder der Executor, der die Prüfpunkte für diese Partition ursprünglich festgelegt hat, ist nicht mehr aktiv, oder die ursprüngliche RDD wird nicht beständig gespeichert.

Wenn dieses Problem weiterhin besteht, können Sie stattdessen rdd.checkpoint() verwenden, was langsamer ist als lokale Prüfpunkte, aber fehlertoleranter.

CHECK_CONSTRAINT_VIOLATION

SQLSTATE: 23001

Verstoß gegen CHECK-Einschränkung <constraintName> <expression> durch Zeile mit Werten:

<values>

CIRCULAR_CLASS_REFERENCE

SQLSTATE: 42602

In einer Klasse dürfen keine Zirkelbezüge vorhanden sein, aber in Klasse <t> wurde ein Zirkelbezug gefunden.

CLASS_NOT_OVERRIDE_EXPECTED_METHOD

SQLSTATE: 38000

<className> muss entweder <method1> oder <method2>überschreiben.

CLASS_UNSUPPORTED_BY_MAP_OBJECTS

SQLSTATE: 0A000

MapObjects unterstützt die Klasse <cls> nicht als resultierende Sammlung.

CLEANROOM_COMMANDS_NOT_SUPPORTED

SQLSTATE: 0A000

Clean Room-Befehle werden nicht unterstützt.

CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME

SQLSTATE: 42K05

Ungültiger Name, um in einem Reinraum auf einen <type> Verweis zu verweisen. Verwenden Sie einen <type>-Namen innerhalb des Reinraums im Format [Katalog].[Schema].[<type>].

Wenn Sie nicht sicher sind, welchen Namen Sie verwenden sollen, können Sie "SHOW ALL IN CLEANROOM [clean_room]" ausführen und den Wert in der Spalte "Name" verwenden.

CLONING_WITH_HISTORY_INVALID_OPTION

SQLSTATE: 42613

Das Klonen mit Verlauf wird mit einer ungültigen Option angegeben: <invalidOption>.

Gültige Syntax: CREATE (ODER REPLACE) TABLE ... DEEP CLONE...WITH HISTORY.

CLONING_WITH_HISTORY_UNSUPPORTED

SQLSTATE: 0A000

Das Klonen mit Verlauf wird nicht unterstützt.

CLOUD_FILE_ALREADY_EXISTS

SQLSTATE: 42K04

Clouddatei ist bereits vorhanden. Grund: <causedBy>.

CLOUD_FILE_NOT_FOUND

SQLSTATE: 42K03

Die Clouddatei wurde nicht gefunden. Grund: <causedBy>.

CLOUD_FILE_SOURCE_FILE_NOT_FOUND

SQLSTATE: 42K03

Für die Datei <filePath> wurde eine Dateibenachrichtigung empfangen, aber sie ist nicht mehr vorhanden. Stellen Sie sicher, dass Dateien nicht gelöscht werden, bevor sie verarbeitet werden. Um den Datenstrom fortzusetzen, können Sie die Spark SQL-Konfiguration <config> auf "true" festlegen.

CLOUD_PROVIDER_ERROR

SQLSTATE: 58000

Cloudanbieterfehler: <message>

CLUSTERING_COLUMNS_MISMATCH

SQLSTATE: 42P10

Das angegebene Clustering stimmt nicht mit der der vorhandenen Tabelle <tableName>überein.

Angegebene Clusteringspalten: [<specifiedClusteringString>].

Vorhandene Clusteringspalten: [<existingClusteringString>].

CLUSTERING_NOT_SUPPORTED

SQLSTATE: 42000

"<operation>" unterstützt keine Clustering.

CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED

SQLSTATE: 0A000

Wenden Sie sich bitte an Ihren Databricks-Vertreter, um die Cluster-by-Auto-Funktion zu aktivieren.

CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED

SQLSTATE: 56038

Bitte aktivieren Sie clusteringTable.enableClusteringTableFeature, um CLUSTER BY AUTO zu verwenden.

CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION

SQLSTATE: 56038

CLUSTER BY AUTO erfordert, dass die Predictive Optimization aktiviert ist.

CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR

SQLSTATE: 56038

CLUSTER BY AUTO wird nur in verwalteten UC-Tabellen unterstützt.

CODEC_NOT_AVAILABLE

SQLSTATE: 56038

Der Codec <codecName> ist nicht verfügbar.

Weitere Details finden Sie unter CODEC_NOT_AVAILABLE

CODEC_SHORT_NAME_NOT_FOUND

SQLSTATE: 42704

Es wurde kein Kurzname für den Codec <codecName>gefunden.

COLLATION_INVALID_NAME

SQLSTATE: 42704

Der Wert <collationName> stellt keinen korrekten Sortiernamen dar. Vorgeschlagene gültige Sortierungsnamen: [<proposals>].

COLLATION_INVALID_PROVIDER

SQLSTATE: 42704

Der Wert <provider> stellt keinen korrekten Sortieranbieter dar. Unterstützte Anbieter sind: [<supportedProviders>].

COLLATION_MISMATCH

SQLSTATE: 42P21

Es konnte nicht ermittelt werden, welche Sortierung für Zeichenfolgenfunktionen und Operatoren verwendet werden soll.

Weitere Details finden Sie unter COLLATION_MISMATCH.

COLLECTION_SIZE_LIMIT_EXCEEDED

SQLSTATE: 54000

Array kann nicht mit <numberOfElements> Elementen erstellt werden, die den Grenzwert für die Arraygröße <maxRoundedArrayLength>überschreiten,

Weitere Details finden Sie unter COLLECTION_SIZE_LIMIT_EXCEEDED.

COLUMN_ALIASES_NOT_ALLOWED

SQLSTATE: 42601

Spaltenaliasen sind in <op>nicht zulässig.

COLUMN_ALREADY_EXISTS

SQLSTATE: 42711

Die Spalte <columnName> ist bereits vorhanden. Wählen Sie einen anderen Namen aus, oder benennen Sie die vorhandene Spalte um.

COLUMN_ARRAY_ELEMENT_TYPE_MISMATCH

SQLSTATE: 0A000

Einige Werte im Feld <pos> sind mit dem Spaltenarraytyp nicht kompatibel. Erwarteter Typ <type>.

COLUMN_MASKS_ABAC_MISMATCH

SQLSTATE: 0A000

Spaltenformate konnten für <tableName> nicht aufgelöst werden, da zwischen Spaltenformaten, die von Richtlinien geerbt wurden, und explizit definierten Spaltenformaten ein Konflikt aufgetreten ist. Um fortzufahren, deaktivieren Sie bitte die Attributbasierte Zugriffssteuerung (Attribute Based Access Control, ABAC), und wenden Sie sich an den Databricks-Support.

COLUMN_MASKS_Prüfbedingung_nicht_unterstützt

SQLSTATE: 0A000

Das Erstellen einer CHECK-Einschränkung für Tabelle <tableName> mit Spaltenmaskenrichtlinien wird nicht unterstützt.

COLUMN_MASKS_DUPLIZIEREN_UNTER_VERWENDUNG_VON_SPALTENNAMEN

SQLSTATE: 42734

Eine <statementType>-Anweisung hat versucht, einer Spalte eine Spaltenmaskenrichtlinie zuzuweisen, die mindestens zwei andere referenzierte Spalten aus der Liste USING COLUMNS mit demselben Namen <columnName> enthielt. Dies ist ungültig.

COLUMN_MASKS_FUNKTION_NICHT_UNTERSTÜTZT

SQLSTATE: 0A000

Spaltenmaskierungsrichtlinien für <tableName> werden nicht unterstützt:

Weitere Details finden Sie unter COLUMN_MASKS_FEATURE_NOT_SUPPORTED.

COLUMN_MASKS_INKOMPATIBLE_SCHEMA_ÄNDERUNG

SQLSTATE: 0A000

<statementType> <columnName> aus Tabelle <tableName> nicht möglich, da in einer Spaltenmaskenrichtlinie für Spalte <maskedColumn> darauf verwiesen wird. Die Person im Besitz der Tabelle muss vor dem Fortfahren diese Richtlinie entfernen oder ändern.

COLUMN_MASKS_ZUSAMMENFÜHRUNG_NICHT_UNTERSTÜTZTE_QUELLE

SQLSTATE: 0A000

MERGE INTO-Vorgänge unterstützen keine Spaltenmaskenrichtlinien in der Quelltabelle <tableName>.

COLUMN_MASKS_MERGE_UNTERSTÜTZTES_ZIEL_NICHT_MÖGLICH

SQLSTATE: 0A000

MERGE INTO-Vorgänge unterstützen das Schreiben in die Tabelle <tableName> mit Spaltenmaskenrichtlinien nicht.

COLUMN_MASKS_MULTI_PART_ZIELSPALTENNAME

SQLSTATE: 42K05

Diese Anweisung versuchte, einer Spalte <columnName> mit mehreren Namensbestandteilen eine Spaltenmaskenrichtlinie zuzuweisen, was ungültig ist.

COLUMN_MASKS_MEHRTEIL_UNTER_VERWENDUNG_VON_SPALTENNAMEN

SQLSTATE: 42K05

Diese Anweisung versucht, einer Spalte eine Spaltenmaskenrichtlinie zuzuweisen, und in der USING COLUMNS-Liste ist der Name <columnName> mit mehreren Namensbestandteilen enthalten, was ungültig ist.

COLUMN_MASKS_NICHT_AKTIVIERT

SQLSTATE: 56038

Die Unterstützung für das Definieren von Spaltenmasken ist nicht aktiviert.

COLUMN_MASKS_REQUIRE_UNITY_CATALOG

SQLSTATE: 0A000

Spaltenmaskenrichtlinien werden nur im Unity Catalog unterstützt.

COLUMN_MASKS_SECONDARY_INDEX_CREATION_UNSUPPORTED

SQLSTATE: 0A000

Sekundärer Index ON TABLE <tableName> kann nicht erstellt werden, da die Tabelle Spaltenformatrichtlinien definiert hat.

COLUMN_MASKS_ANZEIGE_PARTITIONEN_NICHT_UNTERSTÜTZT

SQLSTATE: 0A000

SHOW PARTITIONS Befehl wird für<format> Tabellen mit Spaltenmasken nicht unterstützt.

COLUMN_MASKS_TABELLE_KLON_QUELLE_NICHT_UNTERSTÜTZT

SQLSTATE: 0A000

Ein <mode>-Klon aus der Tabelle <tableName> mit Spaltenmaskenrichtlinien wird nicht unterstützt.

COLUMN_MASKS_TABELLENKLONZIEL_NICHT_UNTERSTÜTZT

SQLSTATE: 0A000

Ein <mode>-Klon in die Tabelle <tableName> mit Spaltenmaskenrichtlinien wird nicht unterstützt.

COLUMN_MASKS_NICHT_UNTERSTÜTZTE_KONSTANTE_ALS_PARAMETER

SQLSTATE: 0AKD1

Die Verwendung einer Konstante als Parameter in einer Spaltenmaskenrichtlinie wird nicht unterstützt. Aktualisieren Sie den SQL-Befehl, um die Konstante aus der Spaltenformatdefinition zu entfernen, und wiederholen Sie dann den Befehl erneut.

COLUMN_MASKS_NICHT_UNTERSTÜTZTER_DATENTYP

SQLSTATE: 0AKDC

Funktion <functionName> , die als Spaltenformatrichtlinie verwendet wird, enthält Parameter mit nicht unterstützten Datentypen <dataType>.

COLUMN_MASKS_NICHT_UNTERSTÜTZTER_ANBIETER

SQLSTATE: 0A000

Fehler beim Ausführen des <statementType>-Befehls, da das Zuweisen von Spaltenmaskenrichlinien für eine Zieldatenquelle mit dem Tabellenanbieter <provider> nicht unterstützt wird.

COLUMN_MASKS_VERWENDET_SPALTENNAMEN_GLEICH_WIE_ZIELSPALTE

SQLSTATE: 42734

Die Spalte <columnName> denselben Namen wie die Zielspalte hatte, was ungültig ist; entfernen Sie die Spalte aus der liste USING COLUMNS, und wiederholen Sie den Befehl.

COLUMN_NOT_DEFINED_IN_TABLE

SQLSTATE: 42703

<colType> Spalte <colName> ist in Tabelle <tableName>nicht definiert, definierte Tabellenspalten sind: <tableCols>.

COLUMN_NOT_FOUND

SQLSTATE: 42703

Die Spalte <colName> wurde nicht gefunden. Überprüfen Sie die Schreib- und Korrektheit des Spaltennamens gemäß der SQL-Konfiguration <caseSensitiveConfig>.

COLUMN_NOT_FOUND_IN_TABLE

SQLSTATE: 42703

Spalte <columnName> in Tabelle <tableFullName>nicht gefunden.

COLUMN_ORDINAL_OUT_OF_BOUNDS

SQLSTATE: 22003

Spaltenordnungszahl liegt außerhalb der Grenzen. Die Anzahl der Spalten in der Tabelle ist <attributesLength>, die Spaltenordnungszahl ist jedoch <ordinal>.

Attribute sind die folgenden: <attributes>.

BEFEHL_NICHT_AKTIVIERT

SQLSTATE: 0A000

<command> der Befehl ist nicht aktiviert.

COMMA_PRECEDING_CONSTRAINT_ERROR

SQLSTATE: 42601

Unerwartetes „,“ vor Einschränkungsdefinition. Stellen Sie sicher, dass die Einschränkungsklausel nicht mit einem Komma beginnt, wenn Spalten (und Erwartungen) nicht definiert sind.

COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET

SQLSTATE: 42000

Der Befehl COMMENT ON CONNECTION ist noch nicht implementiert.

COMPARATOR_RETURNS_NULL

SQLSTATE: 22004

Der Vergleichsoperator hat NULL für einen Vergleich zwischen <firstValue> und <secondValue> zurückgegeben.

Es sollte eine positive ganze Zahl für "größer als", 0 für "gleich" und eine negative ganze Zahl für "kleiner als" zurückgeben.

Wenn Sie zu dem veralteten Verhalten zurückkehren möchten, bei dem NULL als 0 (gleich) behandelt wird, müssen Sie "spark.sql.legacy.allowNullComparisonResultInArraySort" auf "true" setzen.

COMPLEX_EXPRESSION_UNSUPPORTED_INPUT

SQLSTATE: 42K09

Eingabedatentypen für den Ausdruck können nicht verarbeitet werden: <expression>.

Weitere Details finden Sie unter COMPLEX_EXPRESSION_UNSUPPORTED_INPUT.

CONCURRENT_QUERY

SQLSTATE: 0A000

Eine weitere Instanz dieser Abfrage [ID: <queryId>] wurde gerade mit einer gleichzeitigen Sitzung gestartet [vorhandene runId: <existingQueryRunId> neue runId: <newQueryRunId>].

CONCURRENT_SCHEDULER_INSUFFICIENT_SLOT

SQLSTATE: 53000

Die Mindestanzahl der im Cluster erforderlichen kostenlosen Slots ist <numTasks>, der Cluster verfügt jedoch nur über <numSlots> Slots kostenlos. Die Abfrage zögert oder schlägt fehl. Erhöhen Sie die Clustergröße, um fortzufahren.

CONCURRENT_STREAM_LOG_UPDATE

SQLSTATE: 40000

Gleichzeitiges Aktualisieren des Protokolls. Für <batchId> wurden mehrere Streamingaufträge erkannt.

Stellen Sie sicher, dass jeweils nur ein Streamingauftrag an einem bestimmten Prüfpunktstandort ausgeführt wird.

CONFIG_NOT_AVAILABLE

SQLSTATE: 42K0I

Die Konfiguration <config> ist nicht verfügbar.

CONFLICTING_CLUSTER_CONFIGURATION

SQLSTATE: 22023

Die folgenden Konfigurationen verursachen einen Konflikt mit spark.databricks.streaming.realTimeMode.enabled: <confNames>. Entfernen Sie diese Konfigurationen aus der Clusterkonfiguration, und starten Sie den Spark-Cluster neu.

CONFLICTING_DIRECTORY_STRUCTURES

SQLSTATE: KD009

Konfliktierende Verzeichnisstrukturen erkannt.

Verdächtige Pfade:

<discoveredBasePaths>

Wenn bereitgestellte Pfade Partitionsverzeichnisse sind, legen Sie "basePath" in den Optionen der Datenquelle fest, um das Stammverzeichnis der Tabelle anzugeben.

Wenn mehrere Stammverzeichnisse vorhanden sind, laden Sie sie bitte separat, und trennen Sie sie dann.

CONFLICTING_PARTITION_COLUMN_NAMES

SQLSTATE: KD009

In Konflikt stehende Partitionsspaltennamen wurden erkannt:

<distinctPartColLists>

Bei partitionierten Tabellenverzeichnissen sollten Datendateien nur in Blattverzeichnissen vorhanden sein.

Und Ordner auf derselben Ebene sollten denselben Partitionsspaltennamen haben.

Überprüfen Sie die folgenden Verzeichnisse auf unerwartete Dateien oder inkonsistente Partitionsspaltennamen:

<suspiciousPaths>

CONFLICTING_PARTITION_COLUMN_NAME_WITH_RESERVED

SQLSTATE: KD009

Der Partitionsspaltenname "<partitionColumnName>" ist mit dem reservierten Spaltennamen in Konflikt.

Das Schema von <tableName> ist Hive-inkompatibel, daher generiert Spark automatisch eine reservierte Spalte "<partitionColumnName>", um die Tabelle in einer bestimmten Form zu speichern.

Verwenden Sie einen anderen Namen für die Partitionsspalte.

CONFLICTING_PROVIDER

SQLSTATE: 22023

Der angegebene Anbieter <provider> ist mit dem vorhandenen Kataloganbieter <expectedProvider>inkonsistent. Verwenden Sie "USING <expectedProvider>" und wiederholen Sie den Befehl.

CONFLICTING_SQL_CONFIGURATION

SQLSTATE: 22023

Die folgenden Konfigurationen verursachen einen Konflikt mit spark.databricks.streaming.realTimeMode.enabled: <confNames>. Entfernen Sie diese Konfigurationen aus Ihrer SparkSession-Konfiguration.

CONNECT

SQLSTATE: 56K00

Generischer Spark Connect-Fehler.

Weitere Details finden Sie unter CONNECT

CONNECTION_ALREADY_EXISTS

SQLSTATE: 42000

Es kann keine Verbindung <connectionName> erstellt werden, da sie bereits vorhanden ist.

Wählen Sie einen anderen Namen, legen Sie die vorhandene Verbindung ab, oder ersetzen Sie die vorhandene Verbindung, oder fügen Sie die IF NOT EXISTS Klausel hinzu, um bereits vorhandene Verbindungen zu tolerieren.

CONNECTION_NAME_CANNOT_BE_EMPTY

SQLSTATE: 42000

Dieser Befehl kann nicht ausgeführt werden, da der Verbindungsname nicht leer sein muss.

CONNECTION_NOT_FOUND

SQLSTATE: 42000

Dieser Befehl kann nicht ausgeführt werden, da der Verbindungsname <connectionName> nicht gefunden wurde.

CONNECTION_OPTION_NOT_SUPPORTED

SQLSTATE: 42000

Verbindungen vom Typ "<connectionType>" unterstützen die folgenden Optionen nicht: <optionsNotSupported>. Unterstützte Optionen: <allowedOptions>.

CONNECTION_TYPE_NOT_SUPPORTED

SQLSTATE: 42000

Die Verbindung vom Typ '<connectionType>' kann nicht erstellt werden. Unterstützte Verbindungstypen: <allowedTypes>.

VERBINDUNGSTYP_NICHT_UNTERSTÜTZT_FÜR_OPTIONSINJEKTION

SQLSTATE: 42000

Die Verbindung mit Name <connectionName> und Typ <connectionType> wird in den Datenframeoptionen nicht unterstützt.

VERBINDUNGSTYP_WIRD_NICHT_FÜR_FERABFRAGEFUNKTION_UNTERSTÜTZT

SQLSTATE: 42000

Die Verbindung mit dem Namen '<connectionName>' und vom Typ '<connectionType>' wird für die Ausführung der Funktion der Remoteabfrage nicht unterstützt.

CONNECT_INVALID_PLAN

SQLSTATE: 56K00

Der Spark Connect-Plan ist ungültig.

Weitere Informationen finden Sie unter CONNECT_INVALID_PLAN

CONNECT_SESSION_MIGRATION

SQLSTATE: 56K00

Generischer Sitzungsmigrationsfehler (userId: <userId>, sessionId: <sessionId>, serverSessionId: <serverSessionId>).

Weitere Details finden Sie unter CONNECT_SESSION_MIGRATION.

CONSTRAINTS_REQUIRE_UNITY_CATALOG

SQLSTATE: 0A000

Tabelleneinschränkungen werden nur im Unity-Katalog unterstützt.

CONSTRAINT_ALREADY_EXISTS

SQLSTATE: 42710

Die Einschränkung "<constraintName>" ist bereits vorhanden. Löschen Sie zuerst die vorhandene Einschränkung.

Vorhandene Einschränkung:

<oldConstraint>

CONSTRAINT_ALREADY_EXISTS_IN_SCHEMA

SQLSTATE: 42710

Die Einschränkung <constraintName> ist bereits in der Datenbank <schemaName>vorhanden.

CONSTRAINT_ALREADY_EXISTS_WITH_SERVER_MESSAGE

SQLSTATE: 42710

<serverMessage>

CONSTRAINT_DOES_NOT_EXIST

SQLSTATE: 42704

Die nicht vorhandene Einschränkung <constraintName> kann nicht aus der Tabelle <tableName>entfernt werden.

CONVERSION_INVALID_INPUT

SQLSTATE: 22018

Der Wert <str> (<fmt>) kann nicht konvertiert <targetType> werden, weil er falsch formatiert ist. Korrigieren Sie den Wert gemäß der Syntax, oder ändern Sie das Format. Verwenden Sie <suggestion>, um falsch formatierte Eingaben zu tolerieren und stattdessen NULL zurückzugeben.

COPY_INTO_COLUMN_ARITY_MISMATCH

SQLSTATE: 21S01

In <tableName> kann nicht geschrieben werden. Ursache:

Weitere Details finden Sie unter COPY_INTO_COLUMN_ARITY_MISMATCH.

COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON

SQLSTATE: 0A000

Ungültiges Schema <scheme>. COPY INTO-Quellanmeldeinformationen unterstützen derzeit nur s3/s3n/s3a/wasbs/abfss.

COPY_INTO_CREDENTIALS_REQUIRED

SQLSTATE: 42601

COPY INTO-Quellanmeldeinformationen müssen <keyList> angeben.

COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED

SQLSTATE: 25000

Duplizierte Dateien wurden in einem gleichzeitigen COPY INTO-Vorgang committet. Versuchen Sie es später erneut.

COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON

SQLSTATE: 0A000

Ungültiges Schema <scheme>. COPY INTO Quellverschlüsselung unterstützt derzeit nur s3/s3n/s3a/abfss.

COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE

SQLSTATE: 0A000

COPY INTO Verschlüsselung unterstützt nur ADLS Gen2 oder abfss:// Dateischema

COPY_INTO_ENCRYPTION_REQUIRED

SQLSTATE: 42601

COPY INTO Die Quellverschlüsselung muss '<key>' angeben.

COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED

SQLSTATE: 42601

Ungültige Verschlüsselungsoption <requiredKey>. COPY INTO Die Quellverschlüsselung muss '<requiredKey>' = '<keyValue>' angeben.

COPY_INTO_FEATURE_INCOMPATIBLE_SETTING

SQLSTATE: 42613

Das COPY INTO Feature '<feature>' ist nicht kompatibel mit '<incompatibleSetting>'.

COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED

SQLSTATE: 25000

COPY INTO Mit Ausnahme des Anfügens von Daten ist ein gleichzeitiges Ausführen mit anderen Transaktionen nicht erlaubt. Versuchen Sie es später erneut.

COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED

SQLSTATE: 25000

COPY INTO konnte den Zustand nicht laden, die maximal zulässigen Wiederholungsversuche wurden überschritten.

COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE

SQLSTATE: 42KDG

Beim Kopieren in die Delta-Tabelle (Tabelle: <table>) wurde ein Schemakonflikt erkannt.

Dies kann auf ein Problem mit den eingehenden Daten hinweisen, oder das Delta-Tabellenschema kann automatisch entsprechend den eingehenden Daten weiterentwickelt werden, indem Sie Folgendes festlegen:

COPY_OPTIONS ('mergeSchema' = 'wahr')

Schemaunterschied:

<schemaDiff>

COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED

SQLSTATE: 0A000

Das Format der Quelldateien muss eine von CSV, JSONAVRO, ORC, , PARQUETTEXT oder BINARYFILE. Die Verwendung von COPY INTO in Delta-Tabellen als Quelle wird nicht unterstützt, da nach OPTIMIZE-Vorgängen doppelte Daten erfasst werden können. Diese Überprüfung kann durch Ausführen des SQL-Befehls set spark.databricks.delta.copyInto.formatCheck.enabled = falsedeaktiviert werden.

COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED

SQLSTATE: 42KD9

Das Quellverzeichnis enthielt keine parsierbaren Dateien vom Typ <format>. Bitte überprüfen Sie den Inhalt von '<source>'.

Der Fehler kann stummgehalten werden, indem "<config>" auf "false" festgelegt wird.

COPY_INTO_STATE_INTERNAL_ERROR

SQLSTATE: 55019

Ein interner Fehler ist bei der Verarbeitung des Zustands COPY INTO aufgetreten.

Weitere Details finden Sie unter COPY_INTO_STATE_INTERNAL_ERROR.

COPY_INTO_SYNTAX_ERROR

SQLSTATE: 42601

Fehler beim Analysieren des befehls "COPY INTO".

Weitere Details finden Sie unter COPY_INTO_SYNTAX_ERROR.

COPY_INTO_UNSUPPORTED_FEATURE

SQLSTATE: 0A000

Das COPY INTO Feature '<feature>' wird nicht unterstützt.

COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED

SQLSTATE: 42000

Daten können nicht im Format '<formatType>' entladen werden. Unterstützte Formate für <connectionType> sind: <allowedFormats>.

CORRUPTED_CATALOG_FUNCTION

SQLSTATE: 0A000

Die Katalogfunktion "<identifier>" kann aufgrund beschädigter Funktionsinformationen im Katalog nicht in eine SQL-Funktion konvertiert werden. Wenn die Funktion keine SQL-Funktion ist, stellen Sie sicher, dass der Klassenname "<className>" geladen werden kann.

CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET

SQLSTATE: 42000

Der Befehl CREATE FOREIGN SCHEMA ist noch nicht implementiert.

CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET

SQLSTATE: 42000

Der Befehl CREATE FOREIGN TABLE ist noch nicht implementiert.

CREATE_OR_REFRESH_MV_NOT_SUPPORTED

SQLSTATE: 42601

CREATE OR REFRESH MATERIALIZED VIEW wird nicht unterstützt. Verwenden Sie CREATE stattdessen OR REPLACE MATERIALIZED VIEW .

CREATE_OR_REFRESH_MV_ST_ASYNC

SQLSTATE: 0A000

CREATE ODER REFRESH von materialisierten Ansichten oder Streamingtabellen bei Angabe von ASYNC nicht möglich. Entfernen Sie ASYNC aus der CREATE OR REFRESH-Anweisung, oder verwenden Sie REFRESH ASYNC, um vorhandene materialisierte Ansichten oder Streamingtabellen asynchron zu aktualisieren.

CREATE_PERMANENT_VIEW_WITHOUT_ALIAS

SQLSTATE: 0A000

Es ist nicht zulässig, die permanente Ansicht <name> zu erstellen, ohne dem Ausdruck <attr>explizit einen Alias zuzuweisen.

CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE

SQLSTATE: 42710

CREATE TABLE Spalte <columnName> gibt den Deskriptor "<optionName>" mehr als einmal an, was ungültig ist.

CREATE_VIEW_COLUMN_ARITY_MISMATCH

SQLSTATE: 21S01

Ansicht <viewName>kann nicht erstellt werden, der Grund ist

Weitere Details finden Sie unter CREATE_VIEW_COLUMN_ARITY_MISMATCH.

CREDENTIAL_MISSING

SQLSTATE: 42601

Geben Sie beim Erstellen oder Aktualisieren externer Speicherorte Anmeldeinformationen an.

CREDENTIAL_PURPOSE_MISMATCH

SQLSTATE: 42809

Die Anmeldeinformationen <credentialName> haben den Verwendungszweck <actualPurpose>, aber der im Befehl angegebene Verwendungszweck ist <expectedPurpose>.

CSV_ENFORCE_SCHEMA_NOT_SUPPORTED

SQLSTATE: 0A000

Die CSV-Option enforceSchema kann nicht festgelegt werden, wenn rescuedDataColumn oder failOnUnknownFieldsverwendet wird, da Spalten anstelle von Ordnungszahlen nach Namen gelesen werden.

CYCLIC_FUNCTION_REFERENCE

SQLSTATE: 42887

Zyklische Funktionsreferenz wurde erkannt: <path>.

DATABRICKS_DELTA_NOT_ENABLED

SQLSTATE: 56038

Databricks Delta ist in Ihrem Konto nicht aktiviert.<hints>

DATAFLOW_GRAPH_NOT_FOUND

SQLSTATE: KD012

Datenflussdiagramm mit ID <graphId> konnte nicht gefunden werden

DATENTYP_KANN_NICHT_SORTIEREN

SQLSTATE: 0A000

Der Typ <dataType> unterstützt keine sortierten Vorgänge.

DATATYPE_MISMATCH

SQLSTATE: 42K09

<sqlExpr> kann aufgrund eines Datentypkonflikts nicht aufgelöst werden:

Weitere Details finden Sie unter DATATYPE_MISMATCH.

DATATYPE_MISSING_SIZE

SQLSTATE: 42K01

DataType <type> erfordert einen Längenparameter, z. B. <type>(10). Geben Sie die Länge an.

DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION

SQLSTATE: 25000

Schreibzeile nicht erfolgreich: Fehlende entsprechende Beziehung zu Richtlinien für CLM/RLS.

DATA_SOURCE_ALREADY_EXISTS

SQLSTATE: 42710

Die Datenquelle '<provider>' ist bereits vorhanden. Wählen Sie einen anderen Namen für die neue Datenquelle aus.

DATA_SOURCE_CONNECTION_MISSING_ALLOW_LIST

SQLSTATE: 42000

Die Verbindung <connectionName> wird in diesem Kontext nicht unterstützt, da keine externen Optionen für die Zulassungsliste konfiguriert sind. Bitte aktualisieren Sie die Verbindung, um eine gültige <optionName>.

DATA_SOURCE_EXTERNAL_ERROR

SQLSTATE: KD010

Fehler beim Speichern in externer Datenquelle.

DATA_SOURCE_NOT_EXIST

SQLSTATE: 42704

Datenquelle '<provider>' nicht gefunden. Stellen Sie sicher, dass die Datenquelle registriert ist.

DATA_SOURCE_NOT_FOUND

SQLSTATE: 42K02

Fehler beim Auffinden der Datenquelle: <provider>. Stellen Sie sicher, dass der Anbietername korrekt ist und das Paket ordnungsgemäß registriert und mit Ihrer Spark-Version kompatibel ist.

DATA_SOURCE_OPTIONS_VALIDATION_FAILED

SQLSTATE: 42616

Fehler bei der Überprüfung der <dataSource> Datenquellenoption(n).

Weitere Informationen finden Sie unter DATA_SOURCE_OPTIONS_VALIDATION_FAILED

DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS

SQLSTATE: 42602

Option <option> darf nicht leer sein und darf keine ungültigen Zeichen, Abfragezeichenfolgen oder Parameter enthalten.

DATA_SOURCE_OPTION_IS_REQUIRED

SQLSTATE: 42601

Option <option> ist erforderlich.

DATA_SOURCE_OPTION_NOT_ALLOWED_BY_CONNECTION

SQLSTATE: 42000

Option <optionName> ist nicht durch Verbindung <connectionName> zulässig und kann nicht extern bereitgestellt werden.

DATA_SOURCE_OPTION_VALUE_NOT_VALID

SQLSTATE: 42602

Die bereitgestellte Datenquellenoption '<option>' enthält einen ungültigen Wert ('<value>').

Weitere Informationen finden Sie unter DATA_SOURCE_OPTION_VALUE_NOT_VALID

DATA_SOURCE_SYNTAX_ERROR_DURING_QUERY_EXECUTION

SQLSTATE: 42000

Das Externe Datenquellenmodul <dataSourceEngine> hat während der Ausführung der Abfrage "<query>" Syntaxfehler ausgelöst. <externalEngineError>.

DATA_SOURCE_TABLE_SCHEMA_MISMATCH

SQLSTATE: 42K03

Das Schema der Datenquellentabelle stimmt nicht mit dem erwarteten Schema überein. Wenn Sie die DataFrameReader.schema-API verwenden oder eine Tabelle erstellen, vermeiden Sie die Angabe des Schemas.

Datenquellenschema: <dsSchema>

Erwartetes Schema: <expectedSchema>

DATA_SOURCE_URL_NOT_ALLOWED

SQLSTATE: 42KDB

Die JDBC-URL ist in den Datenquellenoptionen nicht zulässig. Bitte geben Sie stattdessen die Optionen "Host", "Port" und "Datenbank" an.

DATETIME_FIELD_OUT_OF_BOUNDS

SQLSTATE: 22023

<rangeMessage>.

Weitere Einzelheiten finden Sie unter DATETIME_FIELD_OUT_OF_BOUNDS

DATETIME_OVERFLOW

SQLSTATE: 22008

Überlauf beim datetime-Vorgang: <operation>.

DC_API_QUOTA_EXCEEDED

SQLSTATE: KD000

Sie haben das API-Kontingent für die Datenquelle <sourceName>überschritten.

Weitere Details finden Sie unter DC_API_QUOTA_EXCEEDED.

DC_CONNECTION_ERROR

SQLSTATE: KD000

Fehler beim Herstellen einer Verbindung mit der <sourceName> Quelle. Fehlercode: <errorCode>.

Weitere Informationen finden Sie unter DC_CONNECTION_ERROR

DC_DYNAMICS_API_ERROR

SQLSTATE: KD000

Fehler in Dynamics-API-Aufrufen, errorCode: <errorCode>.

Weitere Informationen finden Sie unter DC_DYNAMICS_API_ERROR

DC_NETSUITE_ERROR

SQLSTATE: KD000

Fehler bei Netsuite JDBC-Anrufen, Fehlercode: <errorCode>.

Weitere Informationen finden Sie unter DC_NETSUITE_ERROR

DC_SCHEMA_CHANGE_ERROR

SQLSTATE: nicht zugewiesen

In der Tabelle <tableName> der <sourceName> Quelle ist eine Schemaänderung aufgetreten.

Weitere Details finden Sie unter DC_SCHEMA_CHANGE_ERROR

DC_SERVICENOW_API_ERROR

SQLSTATE: KD000

Fehler in ServiceNow-API-Aufrufen, errorCode: <errorCode>.

Weitere Informationen finden Sie unter DC_SERVICENOW_API_ERROR

DC_SFDC_BULK_QUERY_JOB_INCOMPLETE

SQLSTATE: KD000

Die Aufnahme für Objekt-<objName> ist unvollständig, da der Salesforce-API-Abfrageauftrag zu lang dauerte, fehlgeschlagen oder manuell abgebrochen wurde.

Um es erneut zu versuchen, können Sie entweder die gesamte Pipeline erneut ausführen oder diese bestimmte Zieltabelle aktualisieren. Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein. Auftrags-ID: <jobId>. Auftragsstatus: <jobStatus>.

DC_SHAREPOINT_API_ERROR

SQLSTATE: KD000

Fehler in SharePoint-API-Aufrufen, errorCode: <errorCode>.

Weitere Informationen finden Sie unter DC_SHAREPOINT_API_ERROR

DC_SOURCE_API_ERROR

SQLSTATE: KD000

Fehler im <sourceName>-API-Aufruf. Quell-API-Typ: <apiType>. Fehlercode: <errorCode>.

Dies kann manchmal passieren, wenn Sie einen <sourceName> API-Grenzwert erreicht haben. Wenn Sie Ihren API-Grenzwert nicht überschritten haben, versuchen Sie, den Connector erneut auszuführen. Wenn das Problem weiterhin besteht, erstellen Sie ein Ticket.

DC_UNSUPPORTED_ERROR

SQLSTATE: 0A000

In der Datenquelle <sourceName>ist ein nicht unterstützter Fehler aufgetreten.

Weitere Details finden Sie unter DC_UNSUPPORTED_ERROR.

DC_WORKDAY_RAAS_API_ERROR

SQLSTATE: KD000

Fehler in Workday RAAS-API-Aufrufen, errorCode: <errorCode>.

Weitere Details finden Sie unter DC_WORKDAY_RAAS_API_ERROR.

DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION

SQLSTATE: 22003

Die Dezimalgenauigkeit <precision> die maximale Genauigkeit <maxPrecision>überschreitet.

DEFAULT_DATABASE_NOT_EXISTS

SQLSTATE: 42704

Die Standarddatenbank <defaultDatabase> ist nicht vorhanden, erstellen Sie sie zuerst, oder ändern Sie die Standarddatenbank in <defaultDatabase>.

DEFAULT_FILE_NOT_FOUND

SQLSTATE: 42K03

Es ist möglich, dass die zugrunde liegenden Dateien aktualisiert wurden. Sie können den Cache in Spark explizit ungültig machen, indem Sie den Befehl "REFRESH TABLE tableName" in SQL ausführen oder das dataset/DataFrame neu erstellen. Wenn der Festplattencache veraltet ist oder die zugrunde liegenden Dateien entfernt wurden, können Sie den Festplattencache manuell ungültig machen, indem Sie den Cluster neu starten.

DEFAULT_PLACEMENT_INVALID

SQLSTATE: 42608

Ein DEFAULT Schlüsselwort in einem MERGE, INSERT, UPDATEOder SET VARIABLE Befehl konnte einer Zielspalte nicht direkt zugewiesen werden, da es Teil eines Ausdrucks war.

Beispiel: UPDATE SET c1 = DEFAULT ist zulässig, ist aber UPDATE T SET c1 = DEFAULT + 1 nicht zulässig.

DEFAULT_UNSUPPORTED

SQLSTATE: 42623

Fehler beim Ausführen <statementType>-Befehls, da DEFAULT-Werte für die Zieldatenquelle mit dem folgenden Tabellenanbieter nicht unterstützt werden: <dataSource>.

DEFINE_FLOW_ONCE_OPTION_NOT_SUPPORTED

SQLSTATE: 0A000

Das Definieren eines einmaligen Flusses <flowName> mit der Option "einmal" wird nicht unterstützt.

DESCRIBE_JSON_NOT_EXTENDED

SQLSTATE: 0A000

DESCRIBE TABLE ... AS JSON wird nur unterstützt, wenn [EXTENDED|FORMATTED] angegeben wird.

Beispiel: DESCRIBE EXTENDED <tableName> AS JSON wird unterstützt, DESCRIBE <tableName> AS JSON aber nicht.

DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE

SQLSTATE: 55019

Die Streamingabfrage las aus einer unerwarteten Delta-Tabelle (id = '<newTableId>').

Gemäß Prüfpunkt las sie ursprünglich aus einer anderen Delta-Tabelle (id = '<oldTableId>').

Dies kann passieren, wenn Sie den Code so geändert haben, dass er aus einer neuen Tabelle gelesen oder gelöscht wurde und

Eine Tabelle neu erstellt. Bitte setzen Sie Ihre Änderung zurück oder löschen Sie Ihren Streamingabfrageprüfpunkt.

um noch einmal von vorn zu beginnen.

DISTINCT_WINDOW_FUNCTION_UNSUPPORTED

SQLSTATE: 0A000

Verschiedene Fensterfunktionen werden nicht unterstützt: <windowExpr>.

DIVIDE_BY_ZERO

SQLSTATE: 22012

Division durch Null. Verwenden Sie try_divide, um divisor 0 zu tolerieren und stattdessen NULL zurückzugeben. Legen Sie <config> bei Bedarf auf "false" fest, um diesen Fehler zu umgehen.

Weitere Details finden Sie unter DIVIDE_BY_ZERO

DLT_EXPECTATIONS_NOT_SUPPORTED

SQLSTATE: 56038

Erwartungen werden nur in einer Lakeflow Spark Declarative Pipeliness-Pipeline unterstützt.

DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED

SQLSTATE: 56038

MATERIALIZED VIEWs mit einer CLUSTER BY Klausel werden nur in einer Lakeflow Spark Declarative Pipeliness-Pipeline unterstützt.

DLT_VIEW_LOCATION_NOT_SUPPORTED

SQLSTATE: 56038

MATERIALIZED VIEW Standorte werden nur in einer Lakeflow Spark Declarative Pipeliness-Pipeline unterstützt.

DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED

SQLSTATE: 56038

MATERIALIZED VIEW Schemas mit einem angegebenen Typ werden nur in einer Lakeflow Spark Declarative Pipeliness-Pipeline unterstützt.

TABLE_CONSTRAINTSDLT_VIEW__NOT_SUPPORTED

SQLSTATE: 56038

CONSTRAINT Klauseln in einer Ansicht werden nur in einer Lakeflow Spark Declarative Pipeliness-Pipeline unterstützt.

DML_OPERATIONS_NOT_SUPPORTED_FOR_REMOTE_QUERY_FUNCTION

SQLSTATE: 0A000

Die Remoteabfragefunktion unterstützt keine DML-Abfragen.

DROP_COMMAND_TYPE_MISMATCH

SQLSTATE: 42809

Ein "Mit" DROP <commandType>kann nicht abzulegen <metadataType> sein.

Verwenden Sie stattdessen DROP <metadataTypeUpper>.

DROP_SCHEDULE_DOES_NOT_EXIST

SQLSTATE: 42000

SCHEDULE kann nicht in einer Tabelle ohne vorhandenen Zeitplan oder Trigger abgelegt werden.

DUPLICATED_CTE_NAMES

SQLSTATE: 42602

Die CTE-Definition darf keine doppelten Namen haben: <duplicateNames>.

DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT

SQLSTATE: 42713

Doppelte Feldnamen in Arrow Struct sind nicht zulässig, <fieldNames> abgerufen.

DUPLICATED_MAP_KEY

SQLSTATE: 23505

Duplizierter Zuordnungsschlüssel <key> wurde gefunden, bitte überprüfen Sie die Eingabedaten.

Wenn Sie die duplizierten Schlüssel entfernen möchten, können Sie <mapKeyDedupPolicy> auf "LAST_WIN" festlegen, sodass der zuletzt eingefügte Schlüssel Vorrang hat.

DUPLICATED_METRICS_NAME

SQLSTATE: 42710

Der Metrikname ist nicht eindeutig: <metricName>. Derselbe Name kann nicht für Metriken mit unterschiedlichen Ergebnissen verwendet werden.

Mehrere Instanzen von Metriken mit demselben Ergebnis und Namen sind jedoch zulässig (z. B. Selbstverknüpfungen).

DUPLICATE_ASSIGNMENTS

SQLSTATE: 42701

Die Spalten oder Variablen <nameList> werden mehr als einmal als Zuweisungsziele verwendet.

DUPLICATE_CLAUSES

SQLSTATE: 42614

Doppelte Klauseln gefunden: <clauseName>. Entfernen Sie eine davon.

DUPLICATE_CONDITION_IN_SCOPE

SQLSTATE: 42734

Es wurde eine duplizierte Bedingung <condition> im Bereich gefunden. Entfernen Sie eine davon.

DUPLICATE_EXCEPTION_HANDLER

SQLSTATE: 42734

Es wurden doppelte Handler gefunden. Entfernen Sie eine davon.

Weitere Informationen finden Sie unter DUPLICATE_EXCEPTION_HANDLER

DUPLICATE_FLOW_SQL_CONF

SQLSTATE: 42710

Gefundene doppelte SQL-Konfiguration für das Dataset '<datasetName>': '<key>' wird sowohl von '<flowName1>' als auch von '<flowName2>' definiert.

DUPLICATE_KEY

SQLSTATE: 23505

Doppelte Schlüssel <keyColumn>gefunden.

DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT

SQLSTATE: 4274K

Der Aufruf an routine <routineName> ist ungültig, da er mehrere Argumentzuweisungen zum gleichen Parameternamen <parameterName>enthält.

Weitere Details finden Sie unter DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT.

DUPLICATE_ROUTINE_PARAMETER_NAMES

SQLSTATE: 42734

Doppelte Namen in der Parameterliste der benutzerdefinierten Routine gefunden <routineName>: <names>.

DUPLICATE_ROUTINE_RETURNS_COLUMNS

SQLSTATE: 42711

Doppelte Spalten in der RETURNS Klauselspaltenliste der benutzerdefinierten Routine <routineName>gefunden: <columns>.

DUPLIZIERTER_VARIABLENNAME_IN_DECLARE

SQLSTATE: 42734

Doppelte Variable <variableName> in der Deklarationsvariablenliste gefunden. Entfernen Sie eine davon.

EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED

SQLSTATE: 42815

Vorheriger Knoten hat eine Zeile mit eventTime=<emittedRowEventTime> ausgegeben, die älter als current_watermark_value=<currentWatermark> ist.

Dies kann zu Problemen bei der Korrektheit in den zustandsbehafteten Operatoren führen, die in der Ausführungspipeline nachgelagert sind.

Korrigieren Sie die Operatorlogik, um Zeilen nach dem aktuellen globalen Wasserzeichenwert auszugeben.

EMPTY_JSON_FIELD_VALUE

SQLSTATE: 42604

Fehler beim Analysieren einer leeren Zeichenfolge für den Datentyp <dataType>.

EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY

SQLSTATE: 22023

Leere lokale Datei in Staging-<operation>-Abfrage

EMPTY_SCHEMA_NOT_SUPPORTED_FOR_DATASOURCE

SQLSTATE: 0A000

Die <format>-Datenquelle unterstützt das Schreiben leerer oder geschachtelter leerer Schemas nicht. Stellen Sie sicher, dass das Datenschema mindestens eine Spalte(n) aufweist.

ENCODER_NOT_FOUND

SQLSTATE: 42704

Es wurde kein Encoder des Typs <typeName> für die interne Darstellung von Spark SQL gefunden.

Erwägen Sie, den Eingabetyp in einen der unterstützten Werte unter '<docroot>/sql-ref-datatypes.html' zu ändern.

END_LABEL_WITHOUT_BEGIN_LABEL

SQLSTATE: 42K0L

Die Endmarke <endLabel> kann nicht ohne eine Anfangsmarke existieren.

END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW

SQLSTATE: KD000

Einige Partitionen in Kafka-Topic(s) berichten über einen verfügbaren Offset, der kleiner ist als der End-Offset, während eine Abfrage mit Trigger.AvailableNow ausgeführt wird. Der Fehler kann vorübergehend sein: Starten Sie Die Abfrage neu, und melden Sie, wenn dasselbe Problem weiterhin angezeigt wird.

Neuester Offset: <latestOffset>, Endoffset: <endOffset>

END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED

SQLSTATE: KD000

Für die Kafka-Datenquelle mit „Trigger.AvailableNow“ sollte der Endoffset pro Themenpartition über einen geringeren oder gleichen Offset verfügen als der vorab abgerufene Offset. Der Fehler kann vorübergehend sein: Starten Sie Die Abfrage neu, und melden Sie, wenn dasselbe Problem weiterhin angezeigt wird.

Vorab abgerufener Offset: <prefetchedOffset>, Endoffset: <endOffset>.

ERROR_READING_AVRO_UNKNOWN_FINGERPRINT

SQLSTATE: KD00B

Fehler beim Lesen von Avro-Daten : Unbekannter Fingerabdruck: <fingerprint>, nicht sicher, welches Schema verwendet werden soll.

Dies kann passieren, wenn Sie nach dem Starten des Spark-Kontexts zusätzliche Schemas registriert haben.

EVENT_LOG_EMPTY

SQLSTATE: 55019

Das Ereignisprotokoll von <tableOrPipeline> hat kein Schema und enthält keine Ereignisse. Versuchen Sie es später erneut, nachdem Ereignisse generiert wurden.

EVENT_LOG_REQUIRES_SHARED_COMPUTE

SQLSTATE: 42601

Ereignisprotokolle können nicht aus einem Cluster vom Typ „Zugewiesen“ oder „Keine Isolation freigegeben“ abgefragt werden. Bitte verwenden Sie stattdessen einen Cluster vom Typ „Freigegeben“ oder ein Databricks SQL-Warehouse.

EVENT_LOG_TVF_UNSUPPORTED_FOR_PIPELINE

SQLSTATE: 0A000

Die TVF EVENT_LOG wird für Pipelines mit dem Feld „schema“ oder der Pipelines, die im Standardspeicher veröffentlicht werden, nicht unterstützt.

Um das Ereignisprotokoll abzufragen, veröffentlichen Sie es im Metastore, indem Sie das Feld event_log in den Pipelineeinstellungen angeben.

Weitere Informationen finden Sie in der Dokumentation zu Monitor Lakeflow Spark Declarative Pipeliness:For more information, see the Monitor Lakeflow Spark Declarative Pipeliness pipelines documentation: https://docs.databricks.com/aws/en/delta-live-tables/observability

EVENT_LOG_UNAVAILABLE

SQLSTATE: 55019

Für <tableOrPipeline>sind keine Ereignisprotokolle verfügbar. Versuchen Sie es später erneut, nachdem die Ereignisse generiert worden sind.

EVENT_LOG_UNSUPPORTED_TABLE_TYPE

SQLSTATE: 42832

Der Tabellentyp von <tableIdentifier> ist <tableType>.

Das Abfragen von Ereignisprotokollen unterstützt nur materialisierte Ansichten, Streamingtabellen oder Lakeflow Spark Declarative Pipeliness-Pipelines

EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE

SQLSTATE: 42K09

Die Ereigniszeit <eventName> weist den ungültigen Typ <eventType>auf, erwartet aber "TIMESTAMP".

EXCEED_LIMIT_LENGTH

SQLSTATE: 54006

Überschreitet die Einschränkung der Zeichen-/Varchar-Typlänge: <limit>.

EXCEL_DATENQUELLE_NICHT_AKTIVIERT

SQLSTATE: 56038

Die Excel-Datenquelle ist in diesem Cluster nicht aktiviert.

EXCEL_FILE_ERROR

SQLSTATE: 58030

Fehler beim Verarbeiten der Excel-Datei '<filePath>'.

Weitere Details finden Sie unter EXCEL_FILE_ERROR

EXCEL_INVALID_READ_OPTION_VALUE

SQLSTATE: 42000

Ungültiger Leseoptionswert für excel-Datenquelle.

Weitere Informationen finden Sie unter EXCEL_INVALID_READ_OPTION_VALUE

EXCEL_UNGÜLTIGER_SCHREIBOPTION_WERT

SQLSTATE: 0A000

Die Excel-Datenquelle unterstützt den Wert '<value>' für die Schreiboption '<option>' nicht.

Weitere Informationen finden Sie unter EXCEL_INVALID_WRITE_OPTION_VALUE

UNGÜLTIGES SCHREIBSCHEMA IN EXCEL

SQLSTATE: 42000

Die Excel-Datenquelle unterstützt das Schema "<schema>" nicht für Schreibvorgänge.

<hint>

EXCEL_PARSING_ERROR

SQLSTATE: 22000

Fehler beim Analysieren von Excel-Daten.

Weitere Details finden Sie unter EXCEL_PARSING_ERROR

EXCEL_UNSUPPORTED_WRITE_OPTION

SQLSTATE: 42616

Die Excel-Datenquelle unterstützt nicht die Schreiboption '<option>'.

<hint>

EXCEPT_NESTED_COLUMN_INVALID_TYPE

SQLSTATE: 428H2

EXCEPT Spalte <columnName> wurde gelöst und es wurde erwartet, dass es sich um StructType handelt, es wurde jedoch Typ <dataType>gefunden.

EXCEPT_OVERLAPPING_COLUMNS

SQLSTATE: 42702

Spalten in einer EXCEPT-Liste müssen eindeutig und nicht überlappend sein, empfangen wurde aber (<columns>).

EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH

SQLSTATE: 42703

EXCEPT-Spalten [<exceptColumns>] wurden aufgelöst, entsprechen jedoch keiner der Spalten [<expandedColumns>] aus der Sternerweiterung.

EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION

SQLSTATE: 42703

Der Spalten-/Feldname <objectName> in der EXCEPT-Klausel kann nicht aufgelöst werden. Meinten Sie eine der folgenden: [<objectList>]?

Hinweis: Geschachtelte Spalten in der EXCEPT-Klausel dürfen während einer struct-Erweiterung keine Qualifizierer (Tabellenname, Name der übergeordneten struct-Spalte usw.) enthalten. Versuchen Sie, Qualifizierer zu entfernen, wenn sie mit geschachtelten Spalten verwendet werden.

EXECUTOR_DISK_OUT_OF_SPACE

SQLSTATE: 53100

Executor disk out of space. Erhöhen Sie die Datenträgerkapazität, falls verfügbar. Wenn Sie Serverless verwenden, wenden Sie sich bitte an unser Supportteam.

EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES

SQLSTATE: 42701

Die USING Klausel dieses EXECUTE IMMEDIATE Befehls enthielt mehrere Argumente mit demselben Alias (<aliases>), was ungültig ist; Aktualisieren Sie den Befehl, um eindeutige Aliase anzugeben, und versuchen Sie es dann erneut.

EXPECT_PERMANENT_TABLE_NOT_TEMP

SQLSTATE: 42809

"<operation>" erwartet eine permanente Tabelle, ist aber <tableName> eine temporäre Tabelle. Geben Sie stattdessen eine permanente Tabelle an.

EXPECT_PERMANENT_VIEW_NOT_TEMP

SQLSTATE: 42809

"<operation>" erwartet eine permanente Ansicht, aber <viewName> ist eine temporäre Ansicht.

EXPECT_TABLE_NOT_VIEW

SQLSTATE: 42809

"<operation>" erwartet eine Tabelle, aber <viewName> ist eine Ansicht.

Weitere Informationen finden Sie unter EXPECT_TABLE_NOT_VIEW

EXPECT_VIEW_NOT_TABLE

SQLSTATE: 42809

Die Tabelle <tableName> unterstützt <operation>nicht.

Weitere Informationen finden Sie unter EXPECT_TABLE_NOT_TABLE

EXPRESSION_DECODING_FAILED

SQLSTATE: 42846

Fehler beim Decodieren einer Zeile in einen Wert der Ausdrücke: <expressions>.

EXPRESSION_ENCODING_FAILED

SQLSTATE: 42846

Fehler beim Codieren eines Werts der Ausdrücke: <expressions> in eine Zeile.

EXPRESSION_TRANSLATION_TO_V2_IS_NOT_SUPPORTED

SQLSTATE: 0A000

Ausdruck <expr> kann nicht in v2-Ausdruck übersetzt werden.

EXPRESSION_TYPE_IS_NOT_ORDERABLE

SQLSTATE: 42822

Der Spaltenausdruck <expr> kann nicht sortiert werden, da der Typ <exprType> nicht sortiert werden kann.

EXTERNAL_METASTORE_CLIENT_ERROR

SQLSTATE: 58000

Fehler beim Clientvorgang:

Weitere Details finden Sie unter EXTERNAL_METASTORE_CLIENT_ERROR

EXTERNAL_SHALLOW_CLONE_STILL_EXISTS

SQLSTATE: 42893

Fehler beim Ausführen des Vorgangs an der Quelltabelle <sourceTable>, da der flache Klon <targetTable> noch vorhanden ist und dessen Status ungültig ist. Wenn Sie diesen Vorgang tatsächlich fortsetzen möchten, bereinigen Sie den flachen Klon, indem Sie explizit den DROP-Befehl ausführen.

EXTERNAL_TABLE_INVALID_SCHEME

SQLSTATE: 0A000

Externe Tabellen unterstützen das <scheme> Schema nicht.

FABRIC_REFRESH_INVALID_SCOPE

SQLSTATE: 0A000

Fehler beim Ausführen von 'REFRESH FOREIGN <scope> <name>'. Ein Fabric <scope> kann nicht direkt aktualisiert werden. Verwenden Sie stattdessen 'REFRESH FOREIGN CATALOG <catalogName>' zum Aktualisieren des Fabric-Katalogs.

FAILED_EXECUTE_UDF

SQLSTATE: 39000

Fehler der benutzerdefinierten Funktion (: (<functionName><signature>) => <result>aufgrund von: <reason>.

FAILED_FUNCTION_CALL

SQLSTATE: 38000

Fehler beim Vorbereiten der Funktion <funcName> für den Aufruf. Bitte überprüfen Sie die Argumente der Funktion.

FAILED_JDBC

SQLSTATE: HV000

Fehler beim JDBC-Operator <url> im Vorgang:

Weitere Informationen finden Sie unter FAILED_JDBC

FAILED_PARSE_STRUCT_TYPE

SQLSTATE: 22018

Fehler beim Analysieren der Struktur: <raw>.

FAILED_READ_FILE

SQLSTATE: KD001

Fehler beim Lesen der Datei <path>.

Weitere Details finden Sie unter FAILED_READ_FILE.

FAILED_REGISTER_CLASS_WITH_KRYO

SQLSTATE: KD000

Fehler beim Registrieren von Klassen bei Kryo.

FAILED_RENAME_PATH

SQLSTATE: 42K04

Fehler beim Umbenennen von <sourcePath> in <targetPath>, da das Ziel bereits vorhanden ist.

FAILED_RENAME_TEMP_FILE

SQLSTATE: 58030

Fehler beim Umbenennen der temporären Datei <srcPath> in <dstPath>, da FileSystem.rename den Wert "false" zurückgegeben hat.

FAILED_ROW_TO_JSON

SQLSTATE: 2203G

Fehler beim Konvertieren des Zeilenwerts <value> der Klasse <class> in den SQL-Zieltyp <sqlType> im JSON Format.

FAILED_TO_CREATE_PLAN_FOR_DIRECT_QUERY

SQLSTATE: 58030

Fehler beim Erstellen eines Plans für direkte Abfrage für Dateien: <dataSourceType>

FAILED_TO_LOAD_ROUTINE

SQLSTATE: 38000

Fehler beim Laden der Routine-<routineName>.

FAILED_TO_PARSE_TOO_COMPLEX

SQLSTATE: 54001

Die Anweisung, einschließlich potenzieller SQL-Funktionen und referenzierter Ansichten, war zu komplex, um zu analysieren.

Um diesen Fehler zu vermeiden, teilen Sie die Anweisung in mehrere, weniger komplexe Blöcke auf.

FEATURE_NOT_ENABLED

SQLSTATE: 56038

Das Feature <featureName> ist nicht aktiviert. Erwägen Sie, die Konfiguration <configKey> auf <configValue> festzulegen, um diese Funktion zu aktivieren.

FEATURE_NOT_ON_CLASSIC_WAREHOUSE

SQLSTATE: 56038

<feature> wird für klassische SQL-Lagerhäuser nicht unterstützt. Um dieses Feature zu verwenden, verwenden Sie ein Pro- oder Serverless SQL Warehouse.

FEATURE_REQUIRES_UC

SQLSTATE: 0AKUD

<feature> wird ohne Unity-Katalog nicht unterstützt. Um dieses Feature zu verwenden, aktivieren Sie Unity-Katalog.

FEATURE_UNAVAILABLE

SQLSTATE: 56038

<feature> wird in Ihrer Umgebung nicht unterstützt. Wenden Sie sich an den Databricks-Support, um dieses Feature zu verwenden.

FETCH_FAILED

SQLSTATE: 58000

Fehler beim Abrufen von Shuffle-Daten oder Metadaten: <errorString>.

FGAC_ON_DEDICATED_COMPUTE_FAILED

SQLSTATE: KD011

Feingranulare Zugriffssteuerung (FGAC) für dedizierte Berechnungen ist aufgrund der folgenden Ausnahme fehlgeschlagen: <message>

FIELD_ALREADY_EXISTS

SQLSTATE: 42710

<op> für Spalte nicht möglich, da <fieldNames> bereits in <struct> vorhanden ist.

FIELD_NOT_FOUND

SQLSTATE: 42704

Kein solches Strukturfeld <fieldName> in <fields>.

FILE_IN_STAGING_PATH_ALREADY_EXISTS

SQLSTATE: 42K04

Die Datei im Stagingpfad <path> ist bereits vorhanden, aber OVERWRITE ist nicht festgelegt

FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR

SQLSTATE: 39000

Fehler in der vom Benutzer bereitgestellten Funktion in flatMapGroupsWithState. Grund: <reason>

FORBIDDEN_DATASOURCE_IN_SERVERLESS

SQLSTATE: 0A000

Das Abfragen der Datenquelle <source> in serverloser Berechnung ist nicht zulässig. Nur <allowlist> Datenquellen werden in serverloser Berechnung unterstützt.

FORBIDDEN_KEYWORD_IN_JDBC_QUERY

SQLSTATE: 42000

Die Abfrageoption <queryOption> darf keine unzulässigen Schlüsselwörter enthalten. Entfernen Sie die folgenden Schlüsselwörter aus der Abfrage: <keywords>

FORBIDDEN_OPERATION

SQLSTATE: 42809

Der Vorgang <statement> ist für den <objectType>nicht zulässig: <objectName>.

FOREACH_BATCH_USER_FUNCTION_ERROR

SQLSTATE: 39000

Fehler in der benutzerseitig bereitgestellten Funktion in der foreach-Batchsenke. Grund: <reason>

FOREACH_USER_FUNCTION_ERROR

SQLSTATE: 39000

Fehler in der benutzerseitig bereitgestellten Funktion in der foreach-Senke. Grund: <reason>

FOREIGN_KEY_MISMATCH

SQLSTATE: 42830

Übergeordnete Fremdschlüsselspalten <parentColumns> stimmen nicht mit untergeordneten Primärschlüsselspalten <childColumns> überein.

FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY

SQLSTATE: 42000

Dieser Befehl kann nicht ausgeführt werden, da der Fremdname <objectType> nicht leer sein darf.

FOREIGN_TABLE_CONVERSION_UNSUPPORTED

SQLSTATE: 0AKUC

Die Tabelle ist nicht für das Upgrade von UC Foreign auf UC External berechtigt. Reason:

Weitere Einzelheiten finden Sie unter FOREIGN_TABLE_CONVERSION_UNSUPPORTED

FOREIGN_VIEW_CONVERSION_UNSUPPORTED

SQLSTATE: 0AKUC

Objekt <objectName> ist nicht für die Konvertierung in eine verwaltete UC-Ansicht berechtigt. Reason:

Weitere Informationen finden Sie unter FOREIGN_VIEW_CONVERSION_UNSUPPORTED

FROM_JSON_CONFLICTING_SCHEMA_UPDATES

SQLSTATE: 42601

Bei einem from_json-Rückschluss wurden an folgender Stelle widersprüchliche Schemaaktualisierungen festgestellt: <location>

FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA

SQLSTATE: 42601

from_json gefunden columnNameOfCorruptRecord (<columnNameOfCorruptRecord>) in einem

in einem JSON Objekt und kann nicht mehr fortgesetzt werden. Bitte konfigurieren Sie einen anderen Wert für

die Option „columnNameOfCorruptRecord“.

FROM_JSON_CORRUPT_SCHEMA

SQLSTATE: 42601

from_json Inference konnte das unter <location> gespeicherte Schema nicht lesen.

FROM_JSON_INFERENCE_FAILED

SQLSTATE: 42601

from_json konnte das Schema nicht ableiten. Bitte geben Sie stattdessen eine an.

FROM_JSON_INFERENCE_NOT_SUPPORTED

SQLSTATE: 0A000

Ein from_json Rückschluss wird nur beim Definieren von Streamingtabellen unterstützt.

FROM_JSON_INVALID_CONFIGURATION

SQLSTATE: 42601

from_json Konfiguration ist ungültig:

Weitere Details finden Sie unter FROM_JSON_INVALID_CONFIGURATION.

FROM_JSON_SCHEMA_EVOLUTION_FAILED

SQLSTATE: 22KD3

from_json konnte sich nicht von <old> zu <new> entwickeln.

FUNCTION_PARAMETERS_MUST_BE_NAMED

SQLSTATE: 07001

Für die Funktion <function> sind benannte Parameter erforderlich. Parameter ohne Namen: <exprs>. Aktualisieren Sie den Funktionsaufruf, um Namen für alle Parameter hinzuzufügen, <function>z. B. (param_name => ...).

GENERATED_COLUMN_WITH_DEFAULT_VALUE

SQLSTATE: 42623

Eine Spalte kann nicht sowohl einen Standardwert als auch einen Generierungsausdruck aufweisen, aber <colName> hat Standardwert: (<defaultValue>) und Generierungsausdruck: (<genExpr>).

GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION

SQLSTATE: 56038

Hive 2.2 und niedrigere Versionen unterstützen getTablesByType nicht. Verwenden Sie hive 2.3 oder höher.

GET_WARMUP_TRACING_FAILED

SQLSTATE: 42601

Fehler beim Abrufen der Aufwärmablaufverfolgung. Ursache: <cause>.

GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED

SQLSTATE: 42601

Funktion „get_warmup_tracing()“ nicht zulässig.

GRAPHITE_SINK_INVALID_PROTOCOL

SQLSTATE: KD000

Ungültiges Graphite-Protokoll: <protocol>.

GRAPHITE_SINK_PROPERTY_MISSING

SQLSTATE: KD000

Graphite-Senke erfordert die „<property>“-Eigenschaft.

GROUPING_COLUMN_MISMATCH

SQLSTATE: 42803

Die Spalte der Gruppierung (<grouping>) kann in den Gruppierungsspalten <groupingColumns> nicht gefunden werden.

GROUPING_ID_COLUMN_MISMATCH

SQLSTATE: 42803

Spalten von grouping_id (<groupingIdColumn>) stimmen nicht mit den Gruppierungsspalten (<groupByColumns>) überein.

GROUPING_SIZE_LIMIT_EXCEEDED

SQLSTATE: 54000

Die Größe der Gruppierungssätze darf nicht größer sein als <maxSize>.

GROUP_BY_AGGREGATE

SQLSTATE: 42903

Aggregatfunktionen sind in GROUP BYnicht zulässig, doch wurden sie in <sqlExpr>gefunden.

Weitere Details finden Sie unter GROUP_BY_AGGREGATE.

GROUP_BY_POS_AGGREGATE

SQLSTATE: 42903

GROUP BY <index> bezieht sich auf einen Ausdruck <aggExpr>, der eine Aggregatfunktion enthält. Aggregatfunktionen sind in GROUP BYnicht zulässig.

GROUP_BY_POS_OUT_OF_RANGE

SQLSTATE: 42805

Position GROUP BY<index> ist nicht in der Auswahlliste enthalten (gültiger Bereich ist [1, <size>]).

GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE

SQLSTATE: 42822

Der Ausdruck <sqlExpr> kann nicht als Gruppierungsausdruck verwendet werden, da der Datentyp <dataType> kein geordneter Datentyp ist.

HDFS_HTTP_ERROR

SQLSTATE: KD00F

Beim Versuch, aus HDFS zu lesen, ist die HTTP-Anforderung fehlgeschlagen.

Weitere Informationen finden Sie unter HDFS_HTTP_ERROR

HINT_UNSUPPORTED_FOR_JDBC_DIALECT

SQLSTATE: 42822

Die Option hint wird für <jdbcDialect> in der JDBC-Datenquelle nicht unterstützt. Unterstützte Dialekte sind MySQLDialect, OracleDialect und DatabricksDialect.

HIVE_METASTORE_INVALID_PLACEHOLDER_PATH

SQLSTATE: 42K06

Die Abfrage oder der Befehl konnte nicht ausgeführt werden, da die Konfiguration "spark.databricks.hive.metastore.tablePlaceholderPath" einen ungültigen Pfad für den Hive-Metastore-Tabellenplatzhalter bereitgestellt hat. Aktualisieren Sie diese Konfiguration mit einem neuen Wert, um einen gültigen Pfad bereitzustellen, und führen Sie dann die Abfrage oder den Befehl erneut aus.

HIVE_METASTORE_TABLE_PLACEHOLDER_PATH_NOT_SET

SQLSTATE: 42000

Fehler bei der Abfrage oder dem Befehl, da der Platzhalterpfad der Hive-Metastore-Tabelle nicht festgelegt ist, was erforderlich ist, wenn sich der Schemaspeicherort auf DBFS befindet und der Tabellenspeicherort ein Objekt/eine Datei ist. Legen Sie "spark.databricks.hive.metastore.tablePlaceholderPath" auf einen Pfad fest, auf den Sie Zugriff haben, und führen Sie dann die Abfrage oder den Befehl erneut aus.

HLL_INVALID_INPUT_SKETCH_BUFFER

SQLSTATE: 22546

Ungültiger Aufruf von <function>; nur gültige HLL-Skizzenpuffer werden als Eingaben (z. B. von der hll_sketch_agg-Funktion erzeugte) unterstützt.

HLL_INVALID_LG_K

SQLSTATE: 22546

Ungültiger Aufruf von <function>; der Wert lgConfigK muss zwischen <min> und <max> liegen (einschließlich): <value>.

HLL_K_MUST_BE_CONSTANT

SQLSTATE: 42K0E

Ungültiger Aufruf von <function>; der K Wert muss ein Konstantenwert sein, aber es wurde ein nicht konstanter Ausdruck abgerufen.

HLL_UNION_DIFFERENT_LG_K

SQLSTATE: 22000

Skizzen weisen unterschiedliche lgConfigK Werte auf: <left> und <right>. Legen Sie den parameter allowDifferentLgConfigK auf "true" fest, um <function> mit unterschiedlichen lgConfigK Werten aufzurufen.

HMS_FEDERATION_SHALLOW_CLONE_NOT_FOUND_IN_UC

SQLSTATE: 22KD1

Der flache Klonpfad "<path>" konnte nicht in eine Tabelle im Unity-Katalog aufgelöst werden. Stellen Sie sicher, dass die Tabelle vorhanden ist und mit dem Unity-Katalog verbunden ist.

HYBRID_ANALYZER_EXCEPTION

SQLSTATE: 0A000

Es trat ein Fehler auf, als versucht wurde, eine Abfrage oder einen Befehl sowohl mit dem veralteten Fixed-Point-Analyzer als auch mit dem Single-Pass-Resolver zu verarbeiten.

Weitere Details finden Sie in HYBRID_ANALYZER_EXCEPTION.

IDENTIFIER_TOO_MANY_NAME_PARTS

SQLSTATE: 42601

<identifier> ist kein gültiger Bezeichner, da er mehr als <limit> Namensteile enthält.

IDENTITY_COLUMNS_DUPLICATED_SEQUENCE_GENERATOR_OPTION

SQLSTATE: 42601

Duplizierte Option für Sequenzgenerator für IDENTITY-Spalte: <sequenceGeneratorOption>.

IDENTITY_COLUMNS_ILLEGAL_STEP

SQLSTATE: 42611

IDENTITY Spaltenschritt darf nicht 0 sein.

IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE

SQLSTATE: 428H2

DataType-<dataType> wird für IDENTITY Spalten nicht unterstützt.

ILLEGAL_DAY_OF_WEEK

SQLSTATE: 22009

Unzulässige Eingabe für Wochentag: <string>.

ILLEGAL_STATE_STORE_VALUE

SQLSTATE: 42601

Ungültiger Wert, der für den Zustandsspeicher bereitgestellt wird

Weitere Details finden Sie unter ILLEGAL_STATE_STORE_VALUE.

INAPPROPRIATE_URI_SCHEME_OF_CONNECTION_OPTION

SQLSTATE: 42616

Die Verbindung kann aufgrund eines unangemessenen URI-Schemas <uri> nicht erstellt werden, das für die Verbindungsoption '<option>' bereitgestellt wurde.

Zulässige(s) Schema(s): <allowedSchemes>.

Fügen Sie ein Schema hinzu, wenn es nicht im URI vorhanden ist, oder geben Sie ein Schema aus den zulässigen Werten an.

INCOMPARABLE_PIVOT_COLUMN

SQLSTATE: 42818

Ungültige Pivotspalte <columnName>. Pivotspalten müssen vergleichbar sein.

INCOMPATIBLE_BATCH_VIEW_READ

SQLSTATE: 42000

Die Ansicht <datasetIdentifier> ist eine Batchansicht und muss mit SparkSession#read referenziert werden. Diese Überprüfung kann durch Festlegen der Spark-Konfiguration pipelines.incompatibleViewCheck.enabled = false deaktiviert werden.

INCOMPATIBLE_COLUMN_TYPE

SQLSTATE: 42825

<operator> kann nur für Tabellen mit kompatiblen Spaltentypen ausgeführt werden. Die <columnOrdinalNumber>-Spalte der <tableOrdinalNumber>-Tabelle hat den Typ <dataType1>, welcher nicht mit <dataType2> in der gleichen Spalte der ersten Tabelle kompatibel ist.<hint>.

INCOMPATIBLE_DATASOURCE_REGISTER

SQLSTATE: 56038

Es wurde ein inkompatibles DataSourceRegister erkannt. Entfernen Sie die inkompatible Bibliothek aus dem Klassenpfad, oder aktualisieren Sie sie. Fehler: <message>

INCOMPATIBLE_DATA_FOR_TABLE

SQLSTATE: KD000

Inkompatible Daten für die Tabelle <tableName>können nicht geschrieben werden:

Weitere Details finden Sie unter INCOMPATIBLE_DATA_FOR_TABLE.

INCOMPATIBLE_JOIN_TYPES

SQLSTATE: 42613

Die Verknüpfungstypen <joinType1> und <joinType2> sind inkompatibel.

INCOMPATIBLE_STREAMING_VIEW_READ

SQLSTATE: 42000

Die Ansicht <datasetIdentifier> ist eine Streamingansicht und muss mit SparkSession#readStream referenziert werden. Diese Überprüfung kann durch Festlegen der Spark-Konfiguration pipelines.incompatibleViewCheck.enabled = false deaktiviert werden.

INCOMPATIBLE_VIEW_SCHEMA_CHANGE

SQLSTATE: 51024

Die SQL-Abfrage der Ansicht <viewName> weist eine inkompatible Schemaänderung auf und die Spalte <colName> kann nicht aufgelöst werden. Es wurden <expectedNum>-Spalten mit dem Namen <colName> erwartet, es wurde aber <actualCols> erhalten.

Versuchen Sie, die Ansicht erneut zu erstellen, indem Sie folgendes ausführen: <suggestion>.

INCOMPLETE_TYPE_DEFINITION

SQLSTATE: 42K01

Unvollständiger komplexer Typ:

Weitere Details finden Sie unter INCOMPLETE_TYPE_DEFINITION.

INCONSISTENT_BEHAVIOR_CROSS_VERSION

SQLSTATE: 42K0B

Möglicherweise erhalten Sie aufgrund des Upgrades ein anderes Ergebnis

Weitere Details finden Sie unter INCONSISTENT_BEHAVIOR_CROSS_VERSION.

INCORRECT_NUMBER_OF_ARGUMENTS

SQLSTATE: 42605

<failure>, <functionName> erfordert mindestens <minArgs> Argumente und die meisten <maxArgs> Argumente.

INCORRECT_RAMP_UP_RATE

SQLSTATE: 22003

Der maximale Versatz mit <rowsPerSecond> rowsPerSecond ist <maxSeconds>, aber „rampUpTimeSeconds“ ist <rampUpTimeSeconds>.

INDETERMINATE_COLLATION

SQLSTATE: 42P22

Es konnte nicht ermittelt werden, welche Sortierung für den Zeichenfolgevorgang verwendet werden soll. Verwenden Sie die COLLATE-Klausel, um die Sortierung explizit festzulegen.

INDETERMINATE_COLLATION_IN_EXPRESSION

SQLSTATE: 42P22

Der Datentyp von <expr> hat eine unbestimmte Sortierung. Verwenden Sie die COLLATE-Klausel, um die Sortierung explizit festzulegen.

INDETERMINATE_COLLATION_IN_SCHEMA

SQLSTATE: 42P22

Das Schema enthält unbestimmte Sortierung bei: [<columnPaths>]. Verwenden Sie die COLLATE-Klausel, um die Sortierung explizit festzulegen.

INDEX_ALREADY_EXISTS

SQLSTATE: 42710

Der Index <indexName> kann für die Tabelle <tableName> nicht erstellt werden, da er bereits existiert.

INDEX_NOT_FOUND

SQLSTATE: 42704

Der Index <indexName> in tabelle <tableName>wurde nicht gefunden.

INET_FUNCTIONS_NOT_ENABLED

SQLSTATE: 0A000

<functionName> ist deaktiviert oder wird nicht unterstützt. INET-Funktionen sind noch nicht öffentlich verfügbar.

INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED

SQLSTATE: 0A000

Der Triggertyp <trigger> wird für diesen Clustertyp nicht unterstützt.

Verwenden Sie einen anderen Triggertyp, z. B. AvailableNow, Once.

INSERT_COLUMN_ARITY_MISMATCH

SQLSTATE: 21S01

In <tableName> kann nicht geschrieben werden. Ursache:

Weitere Informationen finden Sie unter INSERT_COLUMN_ARITY_MISMATCH.

INSERT_PARTITION_COLUMN_ARITY_MISMATCH

SQLSTATE: 21S01

In <tableName> kann nicht geschrieben werden. <reason>:

Tabellenspalten: <tableColumns>.

Partitionsspalten mit statischen Werten: <staticPartCols>.

Datenspalten: <dataColumns>.

INSERT_REPLACE_USING_DISALLOW_MISALIGNED_COLUMNS

SQLSTATE: 42000

Alle Spalten in der USING Klausel müssen in den Ziel- und Quellschemas an derselben Position angezeigt werden. USING Klausel mit falsch ausgerichteten Spalten wird nicht unterstützt.

Die folgenden Spalten sind falsch ausgerichtet: <misalignedReplaceUsingCols>

INSERT_REPLACE_USING_INVALID_SET_OF_COLUMNS

SQLSTATE: 42000

Tabelle muss partitioniert werden, und alle angegebenen Spalten müssen den vollständigen Satz der Partitionsspalten der Tabelle darstellen.

Die folgenden Spalten sind keine Partitionsspalten: <nonPartitionColumns>

Die folgenden Partitionsspalten fehlen: <missingPartitionsColumns>

INSERT_REPLACE_USING_NOT_ENABLED

SQLSTATE: 0A000

Wenden Sie sich an Ihren Databricks-Vertreter, um das INSERT INTO...REPLACE USING Feature (...) zu aktivieren.

INSUFFICIENT_PERMISSIONS

SQLSTATE: 42501

Unzureichende Berechtigungen:

<report>

INSUFFICIENT_PERMISSIONS_EXT_LOC

SQLSTATE: 42501

Der Benutzer <user> verfügt über unzureichende Berechtigungen für externe Speicherorte <location>.

INSUFFICIENT_PERMISSIONS_NO_OWNER

SQLSTATE: 42501

Für <securableName>gibt es keinen Besitzer. Bitten Sie Ihren Administrator, einen Besitzer festzulegen.

INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE

SQLSTATE: 42501

Die benutzende Person besitzt <securableName> nicht.

INSUFFICIENT_PERMISSIONS_SECURABLE

SQLSTATE: 42501

Der Benutzer verfügt nicht über die Berechtigung <action> für <securableName>.

INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER

SQLSTATE: 42501

Der Besitzer von <securableName> unterscheidet sich vom Besitzer von <parentSecurableName>.

INSUFFICIENT_PERMISSIONS_SPARK_CONNECT_CLIENT_SET_CLOUDFETCH_RETENTION_TIMEOUT

SQLSTATE: 42501

Der Client verfügt nicht über die Berechtigung zum Festlegen eines benutzerdefinierten Aufbewahrungstimeouts für CloudFetch-Ergebnisse.

INSUFFICIENT_PERMISSIONS_STORAGE_CRED

SQLSTATE: 42501

Die Speicheranmeldeinformation <credentialName> verfügt nicht über ausreichend Berechtigungen.

INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES

SQLSTATE: 42501

Die benutzende Person kann <action> auf <securableName> aufgrund von Berechtigungen für zugrunde liegende sicherungsfähige Elemente nicht ausführen.

INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE

SQLSTATE: 42501

Die benutzende Person kann <action> auf <securableName> aufgrund von Berechtigungen für zugrunde liegende sicherungsfähige Elemente nicht ausführen:

<underlyingReport>

INTERVAL_ARITHMETIC_OVERFLOW

SQLSTATE: 22015

Ganzzahlüberlauf beim Betrieb mit Intervallen.

Weitere Details finden Sie unter INTERVAL_ARITHMETIC_OVERFLOW.

INTERVAL_DIVIDED_BY_ZERO

SQLSTATE: 22012

Division durch Null. Verwenden Sie try_divide, um divisor 0 zu tolerieren und stattdessen NULL zurückzugeben.

INVALID_AGGREGATE_FILTER

SQLSTATE: 42903

Der FILTER Ausdruck <filterExpr> in einer Aggregatfunktion ist ungültig.

Weitere Details finden Sie unter INVALID_AGGREGATE_FILTER.

INVALID_AGNOSTIC_ENCODER

SQLSTATE: 42001

Es wurde ein ungültiger agnostischer Encoder gefunden. Erwartet wird eine Instanz von AgnosticEncoder, stattdessen lag <encoderType> vor. Weitere Informationen finden Sie unter '<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html'.

INVALID_ARRAY_INDEX

SQLSTATE: 22003

Der Index <indexValue>liegt außerhalb der Begrenzung. Das Array verfügt über <arraySize> Elemente. Verwenden Sie die SQL-Funktion get(), um den Zugriff auf Elemente bei ungültigen Indexen zu tolerieren und stattdessen NULL zurückzugeben.

Weitere Details finden Sie unter INVALID_ARRAY_INDEX.

INVALID_ARRAY_INDEX_IN_ELEMENT_AT

SQLSTATE: 22003

Der Index <indexValue>liegt außerhalb der Begrenzung. Das Array verfügt über <arraySize> Elemente. Verwenden Sie try_element_at, um den Zugriff auf Elemente bei ungültigen Index zu tolerieren und stattdessen NULL zurückzugeben.

Weitere Details finden Sie unter INVALID_ARRAY_INDEX_IN_ELEMENT_AT.

INVALID_ARTIFACT_PATH

SQLSTATE: 22023

Das Artefakt mit dem Namen <name> ist ungültig. Der Name muss ein relativer Pfad sein und kann nicht auf übergeordnete/gleichgeordnete/nephew-Verzeichnisse verweisen.

INVALID_ATTRIBUTE_NAME_SYNTAX

SQLSTATE: 42601

Syntaxfehler im Attributnamen: <name>. Überprüfen Sie, ob Backticks paarweise vorkommen, eine in Anführungszeichen gesetzte Zeichenfolge ein vollständiger Namensteil ist, und verwenden Sie einen Backtick nur innerhalb von Namensteilen in Anführungszeichen.

INVALID_AUTO_TTL_EXPIRE_IN_DAYS

SQLSTATE: 22003

Die Anzahl der Tage, die für Auto-TTL angegeben sind, muss nicht negativ sein.

INVALID_AWS_AUTHENTICATION

SQLSTATE: 42000

Wählen Sie genau eine der folgenden Authentifizierungsmethoden aus:

  • Geben Sie den Namen Ihrer Databricks-Dienstanmeldeinformationen (<serviceCredential>) (als Sparkstreamoption oder als Clusterumgebungsvariable) an.

  • Stellen Sie sowohl aws AccessKey (<awsAccessKey>) als auch SecretAccessKey (<awsSecretKey>) bereit, um AWS-Schlüssel zu verwenden.

  • Stellen Sie weder die AWS-Schlüssel noch die Databricks-Dienstanmeldeinformationen bereit, um die standardmäßige AWS-Anmeldeinformationsanbieterkette für die Kinesis-Authentifizierung zu verwenden.

INVALID_AWS_AUTHENTICATION_EXPLICIT_OPTIONS

SQLSTATE: 42000

Geben Sie entweder den Namen Ihres Databricks-Serviceberechtigungsnachweises an (<serviceCredential>)

ODER sowohl <awsAccessKey> als auch <awsSecretKey>

INVALID_BITMAP_POSITION

SQLSTATE: 22003

Die mit 0 indizierte Bitmapposition <bitPosition> liegt außerhalb der zulässigen Grenzen. Die Bitmap verfügt über <bitmapNumBits> Bits (<bitmapNumBytes> Bytes).

INVALID_BOOLEAN_STATEMENT

SQLSTATE: 22546

In der Bedingung wird ein boolescher Ausdruck erwartet, aber <invalidStatement> wurde gefunden.

INVALID_BOUNDARY

SQLSTATE: 22003

Die Grenze <boundary> ist ungültig: <invalidValue>.

Weitere Informationen finden Sie unter UNGÜLTIGE_GRENZE

INVALID_BUCKET_COLUMN_DATA_TYPE

SQLSTATE: 42601

Für Bucketspalte kann nicht <type> verwendet werden. Sortierte Datentypen werden für die Bucketerstellung nicht unterstützt.

UNGÜLTIGE_BUCKET_ANZAHL

SQLSTATE: 22003

Die Anzahl der Buckets sollte größer als 0 und kleiner oder gleich Bucketing.maxBuckets (<bucketingMaxBuckets>) sein. Erhalten <numBuckets>.

INVALID_BUCKET_FILE

SQLSTATE: 58030

Ungültige Bucketdatei: <path>.

INVALID_BYTE_STRING

SQLSTATE: 22P03

Das erwartete Format ist ByteString, aber war <unsupported> (<class>).

INVALID_CIDR_RANGE

SQLSTATE: 22023

Die Funktion <functionName> hat einen ungültigen CIDR-Bereich empfangen: <value>.

INVALID_CLONE_SESSION_REQUEST

SQLSTATE: 42K04

Ungültige Sitzungs klonenanforderung.

Weitere Details finden Sie unter INVALID_CLONE_SESSION_REQUEST

INVALID_COLUMN_NAME_AS_PATH

SQLSTATE: 46121

Die Datenquelle <datasource> die Spalte <columnName> nicht speichern kann, da ihr Name einige Zeichen enthält, die in Dateipfaden nicht zulässig sind. Verwenden Sie einen Alias, um ihn umzubenennen.

INVALID_COLUMN_OR_FIELD_DATA_TYPE

SQLSTATE: 42000

Die Spalte oder das Feld <name> ist vom Typ <type>, obwohl <expectedType> erforderlich ist.

INVALID_CONF_VALUE

SQLSTATE: 22022

Der Wert '<confValue>' in der Konfiguration "<confName>" ist ungültig.

Weitere Details finden Sie unter INVALID_CONF_VALUE.

INVALID_CONSTRAINT_CHARACTERISTICS

SQLSTATE: 42613

Einschränkungsmerkmale [<characteristics>] werden dupliziert oder stehen miteinander in Konflikt.

INVALID_CORRUPT_RECORD_TYPE

SQLSTATE: 42804

Die Spalte <columnName> für beschädigte Datensätze muss den Nullwerte zulassenden STRING Typ besitzen, aber hat <actualType> erhalten.

INVALID_CURRENT_RECIPIENT_USAGE

SQLSTATE: 42887

Die current_recipient-Funktion kann nur in der CREATE VIEW-Anweisung oder der ALTER VIEW-Anweisung verwendet werden, um in Unity Catalog eine Ansicht nur für die Freigabe zu definieren.

INVALID_CURSOR

SQLSTATE: HY109

Der Cursor ist ungültig.

Weitere Details finden Sie unter INVALID_CURSOR.

UNGÜLTIGES_DATENQUELLEN_FORMAT_FÜR_VERBINDUNGSOPTIONEN_INJEKTION

SQLSTATE: 42000

Die Verbindung mit Name <connectionName> und Typ <connectionType> unterstützt das Format <actualFormat>nicht. Unterstütztes Format: <expectedFormat>.

UNGÜLTIGER_DATENQUELLEN_OPTIONEN_OVERSCHREIBUNGS_VERSUCH

SQLSTATE: 42000

Option <optionName> ist bereits für die Verbindung <connectionName> vorhanden und kann nicht überschrieben werden.

INVALID_DATETIME_PATTERN

SQLSTATE: 22007

Unbekanntes Datetime-Muster: <pattern>.

Weitere Details finden Sie in INVALID_DATETIME_PATTERN.

INVALID_DBFS_MOUNT

SQLSTATE: 42KDL

Auf die DBFS-Bereitstellung kann nicht zugegriffen werden.

Weitere Informationen finden Sie unter INVALID_DBFS_MOUNT

INVALID_DBSQL_CONFIG

SQLSTATE: 42616

<confValue> wird für SQL-Konfigurationsschlüssel nicht unterstützt. <confKey>

INVALID_DEFAULT_VALUE

SQLSTATE: 42623

Fehler beim Ausführen des Befehls <statement>, da die Zielspalte oder Variable <colName> einen DEFAULT-Wert <defaultValue>hat.

Weitere Details finden Sie unter INVALID_DEFAULT_VALUE.

INVALID_DELIMITER_VALUE

SQLSTATE: 42602

Ungültiger Wert für Trennzeichen.

Weitere Details finden Sie unter INVALID_DELIMITER_VALUE.

INVALID_DEST_CATALOG

SQLSTATE: 42809

Der Zielkatalog des Befehls SYNC muss sich im Unity-Katalog befinden. Es wurde <catalog> gefunden.

INVALID_DRIVER_MEMORY

SQLSTATE: F0000

Systemspeicher <systemMemory> muss mindestens <minSystemMemory>sein.

Erhöhen Sie die Heapgröße mithilfe der Option „--driver-memory“ oder <config> in der Spark-Konfiguration.

INVALID_DROP_TABLE_OPTIONS

SQLSTATE: 42601

Es können nicht sowohl die PURGE- als auch die FORCE-Optionen in dem DROP TABLE-Befehl angegeben werden. Verwenden Sie entweder PURGE oder FORCE, aber nicht beide.

INVALID_DYNAMIC_OPTIONS

SQLSTATE: 42K10

Die übergebenen <option_list> Optionen sind für die Fremdtabelle <table_name> verboten.

INVALID_EMPTY_LOCATION

SQLSTATE: 42K05

Der Speicherortname darf keine leere Zeichenfolge sein, aber <location> wurde angegeben.

UNGÜLTIGE_UMGEBUNGSEINSTELLUNGEN_ABHÄNGIGKEITEN

SQLSTATE: 42000

Der Parameter für Abhängigkeiten der Umgebungseinstellungen ist nicht vorhanden oder konnte nicht in eine Liste von Zeichenfolgen umgewandelt werden. Erwartetes Format: ["dep1", "dep2"]

INVALID_ENVIRONMENT_SETTINGS_ENVIRONMENT_VERSION

SQLSTATE: 42000

Diese Laufzeitversion unterstützt keine Umgebungsversion für Datenquellen. Wert: <environmentVersion>.

INVALID_ERROR_CONDITION_DECLARATION

SQLSTATE: 42K0R

Ungültige Bedingungsdeklaration.

Weitere Informationen finden Sie unter INVALID_ERROR_CONDITION_DECLARATION.

INVALID_ESC

SQLSTATE: 42604

Es wurde eine ungültige Escapezeichenfolge gefunden: <invalidEscape>. Die Escapezeichenfolge darf nur ein Zeichen enthalten.

INVALID_ESCAPE_CHAR

SQLSTATE: 42604

EscapeChar muss ein Zeichenfolgenliteral der Länge 1 sein, enthielt jedoch <sqlExpr>.

INVALID_EXECUTOR_MEMORY

SQLSTATE: F0000

Der Speicher des Executors <executorMemory> muss mindestens <minSystemMemory>sein.

Erhöhen Sie den Ausführungsspeicher mithilfe der Option "--executor-memory" oder "<config>" in der Spark-Konfiguration.

INVALID_EXPRESSION_ENCODER

SQLSTATE: 42001

Es wurde ein ungültiger Ausdrucksencoder gefunden. Erwartet eine Instanz von „ExpressionEncoder“, erhielt aber <encoderType>. Weitere Informationen finden Sie unter '<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html'.

INVALID_EXPR_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE

SQLSTATE: 42K09

Der Ausdruckstyp muss Zeichenfolgentyp sein, aber erhalten <exprType>.

INVALID_EXTERNAL_TYPE

SQLSTATE: 42K0N

Der externe Typ <externalType> ist für den Typ <type> im Ausdruck <expr>ungültig.

INVALID_EXTRACT_BASE_FIELD_TYPE

SQLSTATE: 42000

Ein Wert kann nicht aus <base> extrahiert werden. Benötigen Sie einen komplexen Typ [STRUCT, ARRAY, MAP] aber erhalten <other>.

INVALID_EXTRACT_FIELD

SQLSTATE: 42601

<field> kann nicht aus <expr>extrahiert werden.

INVALID_EXTRACT_FIELD_TYPE

SQLSTATE: 42000

Der Feldname muss ein Zeichenfolgenliteral ungleich NULL sein, aber er ist <extraction>.

INVALID_FIELD_NAME

SQLSTATE: 42000

Der Feldname <fieldName> ist ungültig: <path> ist keine Struktur.

INVALID_FLOW_QUERY_TYPE

SQLSTATE: 42000

Der Fluss <flowIdentifier> gibt einen ungültigen Beziehungstyp zurück.

Weitere Informationen finden Sie unter INVALID_FLOW_QUERY_TYPE

INVALID_FORMAT

SQLSTATE: 42601

Das Format ist ungültig: <format>.

Weitere Details finden Sie unter INVALID_FORMAT.

INVALID_FRACTION_OF_SECOND

SQLSTATE: 22023

Gültiger Bereich für Sekunden ist [0, 60] (einschließlich), der angegebene Wert ist jedoch <secAndMicros>. Um diesen Fehler zu vermeiden, verwenden Sie try_make_timestamp, die NULL beim Fehler zurückgibt.

Wenn Sie nicht die Standardeinstellung der Sitzung für die Zeitstempelversion dieser Funktion verwenden möchten, nutzen Sie try_make_timestamp_ntz oder try_make_timestamp_ltz.

INVALID_GET_DIAGNOSTICS_USAGE

SQLSTATE: 42612

Ungültige Verwendung der GETDIAGNOSTICS Anweisung.

Weitere Informationen finden Sie unter INVALID_GET_DIAGNOSTICS_USAGE.

INVALID_GET_DIAGNOSTICS_USAGE_CONDITION_NUMBER_MUST_BE_ONE

SQLSTATE: 35000

Ungültige Verwendung der GETDIAGNOSTICS Anweisung. Der einzige unterstützte Wert für eine Bedingungsnummer in der GETDIAGNOSTICS Anweisung ist 1.

INVALID_HANDLE

SQLSTATE: HY000

Das Handle <handle> ist ungültig.

Weitere Informationen finden Sie unter INVALID_HANDLE

INVALID_HANDLER_DECLARATION

SQLSTATE: 42K0Q

Ungültige Handlerdeklaration.

Weitere Informationen finden Sie unter INVALID_HANDLER_DECLARATION

INVALID_HTTP_REQUEST_METHOD

SQLSTATE: 22023

Der Eingabeparameter: Methode, Wert: <paramValue> ist kein gültiger Parameter für http_request, da es sich nicht um eine gültige HTTP-Methode handelt.

INVALID_HTTP_REQUEST_PATH

SQLSTATE: 22023

Der Eingabeparameter: Pfad, Wert: <paramValue> ist kein gültiger Parameter für http_request, da der Pfad-Traversal nicht zulässig ist.

INVALID_IDENTIFIER

SQLSTATE: 42602

Der nicht zitierte Bezeichner <ident> ist ungültig und muss wie folgt in Anführungszeichen gesetzt werden: <ident>.

Nicht zitierte Bezeichner können nur ASCII-Buchstaben („a“ bis „z“, „A“ bis „Z“), Ziffern („0“ bis „9“) und Unterstrich („_“) enthalten.

Nicht zitierte Bezeichner dürfen auch nicht mit einer Ziffer beginnen.

Unterschiedliche Datenquellen und Metaspeicher können zusätzliche Einschränkungen für gültige Bezeichner erzwingen.

INVALID_INDEX_OF_ZERO

SQLSTATE: 22003

Der Index 0 ist ungültig. Ein Index muss entweder < 0 or > 0 sein (das erste Element hat Index 1).

INVALID_INLINE_TABLE

SQLSTATE: 42000

Ungültige Inlinetabelle.

Weitere Details finden Sie unter INVALID_INLINE_TABLE.

INVALID_INTERVAL_FORMAT

SQLSTATE: 22006

Fehler beim Parsen von „<input>” in das Intervall. Stellen Sie sicher, dass der angegebene Wert in einem gültigen Format zum Definieren eines Intervalls enthalten ist. Sie können auf die Dokumentation für das richtige Format verweisen.

Weitere Details finden Sie unter INVALID_INTERVAL_FORMAT.

INVALID_INTERVAL_WITH_MICROSECONDS_ADDITION

SQLSTATE: 22006

Ein Intervall zu einem Datum kann nicht hinzugefügt werden, da sein Mikrosekundenteil nicht 0 ist. Um dies zu beheben, wandeln Sie das Eingabedatum in einen Zeitstempel um, der das Hinzufügen von Intervallen mit nicht null Mikrosekunden unterstützt.

INVALID_IP_ADDRESS

SQLSTATE: 22023

Die Funktion <functionName> hat eine ungültige IP-Adresse erhalten: <value>.

INVALID_IP_ADDRESS_OR_CIDR_RANGE

SQLSTATE: 22023

Die Funktion <functionName> hat eine ungültige IP-Adresse oder einen CIDR-Bereich empfangen: <value>.

INVALID_JAVA_IDENTIFIER_AS_FIELD_NAME

SQLSTATE: 46121

<fieldName> ist kein gültiger Bezeichner von Java und kann nicht als Feldname verwendet werden.

<walkedTypePath>.

INVALID_JDBC_CONNECTION_OPTION

SQLSTATE: 42616

Die Option <optionKey> ist kein gültiger Parameter für diese JDBC-Verbindung.

INVALID_JDBC_CONNECTION_OPTION_VALUE

SQLSTATE: 42616

Die Option <optionKey> mit dem Wert <optionValue> ist keine gültige Option für diese JDBC-Verbindung.

INVALID_JOIN_TYPE_FOR_JOINWITH

SQLSTATE: 42613

Ungültiger Verknüpfungstyp in joinWith: <joinType>.

INVALID_JSON_DATA_TYPE

SQLSTATE: 2203G

Fehler beim Konvertieren der JSON Zeichenfolge "<invalidType>" in einen Datentyp. Geben Sie einen gültigen Datentyp ein.

INVALID_JSON_DATA_TYPE_FOR_COLLATIONS

SQLSTATE: 2203G

Sortierungen können nur auf Zeichenfolgentypen angewendet werden, der JSON Datentyp ist <jsonType>jedoch .

INVALID_JSON_RECORD_TYPE

SQLSTATE: 22023

Es wurde ein ungültiger Typ eines JSON Datensatzes erkannt, während ein allgemeines Schema im Modus <failFastMode>ableiten. Ein STRUCT-Typ wurde erwartet, jedoch wurde ein <invalidType>gefunden.

INVALID_JSON_ROOT_FIELD

SQLSTATE: 22032

Das Stammfeld kann nicht in den Spark-Zieltyp konvertiert werden JSON .

INVALID_JSON_SCHEMA_MAP_TYPE

SQLSTATE: 22032

Eingabeschema-<jsonSchema> kann nur STRING als Schlüsseltyp für eine MAPenthalten.

INVALID_KRYO_SERIALIZER_BUFFER_SIZE

SQLSTATE: F0000

Der Wert der Konfiguration „<bufferSizeConfKey>“ muss kleiner als 2048 MiB sein, enthält jedoch <bufferSizeConfValue> MiB.

INVALID_KRYO_SERIALIZER_NO_DATA

SQLSTATE: 22002

Das Objekt '<obj>' ist ungültig oder falsch formatiert für die Verwendung mit <serdeOp> unter Einsatz von <serdeClass>.

INVALID_LABEL_USAGE

SQLSTATE: 42K0L

Die Verwendung der Bezeichnung <labelName> ist ungültig.

Weitere Details finden Sie unter INVALID_LABEL_USAGE.

INVALID_LAMBDA_FUNCTION_CALL

SQLSTATE: 42K0D

Ungültiger Lambda-Funktionsaufruf.

Weitere Details finden Sie unter INVALID_LAMBDA_FUNCTION_CALL.

INVALID_LATERAL_JOIN_TYPE

SQLSTATE: 42613

<joinType> JOIN mit LATERAL-Korrelation ist nicht zulässig, da eine OUTER-Unterabfrage nicht mit ihrem Joinpartner korrelieren kann. Entfernen Sie die LATERAL-Korrelation, oder verwenden Sie stattdessen einen INNERJOIN oder LEFT OUTERJOIN.

INVALID_LIMIT_LIKE_EXPRESSION

SQLSTATE: 42K0E

Der limit-ähnliche Ausdruck <expr> ist ungültig.

Weitere Details finden Sie unter INVALID_LIMIT_LIKE_EXPRESSION.

INVALID_LOG_VERSION

SQLSTATE: KD002

UnsupportedLogVersion.

Weitere Informationen finden Sie unter INVALID_LOG_VERSION

INVALID_NAME_IN_USE_COMMAND

SQLSTATE: 42000

Ungültiger Name '<name>' im <command> Befehl. Grund: <reason>

INVALID_NON_ABSOLUTE_PATH

SQLSTATE: 22KD1

Der bereitgestellte, nicht absolute Pfad <path> kann nicht qualifiziert werden. Aktualisieren Sie den Pfad zu einem gültigen DBFS-Bereitstellungsspeicherort.

INVALID_NON_DETERMINISTIC_EXPRESSIONS

SQLSTATE: 42K0E

Der Operator erwartet einen deterministischen Ausdruck, aber der tatsächliche Ausdruck ist <sqlExprs>.

INVALID_NUMERIC_LITERAL_RANGE

SQLSTATE: 22003

Numerisches Literal <rawStrippedQualifier> liegt außerhalb des gültigen Bereichs für <typeName>, mit einem Minimalwert von <minValue> und einem Maximalwert von <maxValue>. Bitte passen Sie den Wert entsprechend an.

INVALID_OBSERVED_METRICS

SQLSTATE: 42K0E

Ungültige beobachtete Metriken.

Weitere Informationen finden Sie unter INVALID_OBSERVED_METRICS

INVALID_OPTIONS

SQLSTATE: 42K06

Ungültige Optionen:

Weitere Einzelheiten siehe UNGÜLTIGE_OPTIONEN

INVALID_PANDAS_UDF_PLACEMENT

SQLSTATE: 0A000

Die pandas-UDF <functionList> für die Gruppenaggregierung kann nicht zusammen mit anderen Nicht-pandas-Aggregatfunktionen aufgerufen werden.

INVALID_PARAMETER_MARKER_VALUE

SQLSTATE: 22023

Es wurde eine ungültige Parameterzuordnung bereitgestellt:

Weitere Details finden Sie unter INVALID_PARAMETER_MARKER_VALUE.

INVALID_PARAMETER_VALUE

SQLSTATE: 22023

Der Wert der parameter(n) <parameter> in <functionName> ist ungültig:

Weitere Details finden Sie unter INVALID_PARAMETER_VALUE.

INVALID_PARTITION_COLUMN_DATA_TYPE

SQLSTATE: 0A000

<type> kann nicht für die Partitionsspalte verwendet werden.

INVALID_PARTITION_OPERATION

SQLSTATE: 42601

Der Partitionsbefehl ist ungültig.

Weitere Details finden Sie unter INVALID_PARTITION_OPERATION.

INVALID_PARTITION_VALUE

SQLSTATE: 42846

Fehler beim Umwandeln des Werts <value> in den Datentyp <dataType> für Partitionsspalte <columnName>. Stellen Sie sicher, dass der Wert dem erwarteten Datentyp für diese Partitionsspalte entspricht.

INVALID_PIPELINE_ID

SQLSTATE: 42604

Die Pipeline-ID <pipelineId> ist ungültig.

Eine Pipeline-ID sollte eine UUID im Format "xx-xxxx-xxxx-xxxx-xxxx-xxxx" sein.

INVALID_PRIVILEGE

SQLSTATE: 42852

Berechtigung <privilege> ist für <securable>ungültig.

INVALID_PROPERTY_KEY

SQLSTATE: 42602

<key> ist ein ungültiger Eigenschaftsschlüssel, verwenden Sie z. B. Anführungszeichen SET <key>=<value>.

INVALID_PROPERTY_VALUE

SQLSTATE: 42602

<value> ist ein ungültiger Eigenschaftswert, verwenden Sie z. B. Anführungszeichen. SET <key>=<value>

INVALID_QUALIFIED_COLUMN_NAME

SQLSTATE: 42000

Der Spaltenname <columnName> ist ungültig, da er nicht mit einem Tabellennamen qualifiziert ist oder aus mehr als 4 Namenteilen besteht.

INVALID_QUERY_MIXED_QUERY_PARAMETERS

SQLSTATE: 42613

Parametrisierte Abfragen müssen entweder Positionsparameter oder benannte Parameter verwenden, aber nicht beide.

INVALID_RECURSIVE_CTE

SQLSTATE: 42836

Ungültige rekursive Definition gefunden. Rekursive Abfragen müssen eine UNION- oder UNION ALL -Anweisung mit zwei untergeordneten Elementen enthalten. Das erste untergeordnete Element muss der Ankerausdruck ohne rekursive Bezüge sein. Alle inneren CTE der obersten Ebene dürfen keine Selbstverweise enthalten.

INVALID_RECURSIVE_REFERENCE

SQLSTATE: 42836

Ungültiger rekursiver Verweis, der innerhalb WITH RECURSIVE einer Klausel gefunden wurde.

Weitere Informationen finden Sie unter INVALID_RECURSIVE_REFERENCE.

INVALID_REGEXP_REPLACE

SQLSTATE: 22023

Für source = "<source>", pattern = "<pattern>", replacement = "<replacement>" und position = <position> konnte „regexp_replace“ nicht ausgeführt werden.

UNGÜLTIGE ZURÜCKSETZBARE ABHÄNGIGKEIT

SQLSTATE: 42000

Tabellen <upstreamResettableTables> sind zurücksetzbar, verfügen jedoch über eine nicht zurücksetzbare nachgelagerte Abhängigkeit "<downstreamTable>". reset wird fehlschlagen, da Spark Streaming gelöschte Quelldaten nicht unterstützt. Sie können entweder die <resetAllowedKey>Eigenschaft "=false" aus '<downstreamTable>' entfernen oder sie zu den upstream-Abhängigkeiten hinzufügen.

INVALID_RESET_COMMAND_FORMAT

SQLSTATE: 42000

Das erwartete Format lautet "RESET" oder "RESET-Element". Wenn Sie Sonderzeichen in die Taste aufnehmen möchten, verwenden Sie z. B. Anführungszeichen RESET key.

INVALID_RESIGNAL_USAGE

SQLSTATE: 0K000

RESIGNAL wenn der Handler nicht aktiv ist. Die RESIGNAL-Anweisung kann nur im Textkörper des Ausnahmehandlers verwendet werden.

INVALID_S3_COPY_CREDENTIALS

SQLSTATE: 42501

COPY INTO Anmeldeinformationen müssen enthalten AWS_ACCESS_KEY, AWS_SECRET_KEYund AWS_SESSION_TOKEN.

INVALID_SAVE_MODE

SQLSTATE: 42000

Der angegebene Speichermodus <mode> ist ungültig. Gültige Speichermodi umfassen „anhängen“, „überschreiben“, „ignorieren“, „Fehler“, „Fehler, falls vorhanden“ und „Standard“.

INVALID_SCHEMA

SQLSTATE: 42K07

Das Eingabeschema <inputSchema> ist keine gültige Schemazeichenfolge.

Weitere Details finden Sie unter INVALID_SCHEMA.

INVALID_SCHEMA_OR_RELATION_NAME

SQLSTATE: 42602

<name> ist kein gültiger Name für Tabellen/Schemas. Gültige Namen enthalten nur Alphabetzeichen, Zahlen und _.

INVALID_SCHEMA_TYPE_NON_STRUCT

SQLSTATE: 42K09

Ungültiger Schematyp. Es wurde ein Strukturtyp erwartet, aber <dataType>wurde erhalten.

INVALID_SCHEME

SQLSTATE: 0AKUC

Der Unity-Katalog unterstützt <name> nicht als Standarddateischema.

INVALID_SECRET_LOOKUP

SQLSTATE: 22531

Geheimnislookup ungültig:

Weitere Details finden Sie unter INVALID_SECRET_LOOKUP.

INVALID_SET_SYNTAX

SQLSTATE: 42000

Das erwartete Format ist 'SET', 'SET key' oder 'SET key=value'. Wenn Sie Sonderzeichen in die Taste aufnehmen oder semikolon in den Wert einschließen möchten, verwenden Sie z. B. Backquotes SET key=value.

INVALID_SHARED_ALIAS_NAME

SQLSTATE: 42601

Der <sharedObjectType> Aliasname muss das Format "schema.name" aufweisen.

INVALID_SINGLE_VARIANT_COLUMN

SQLSTATE: 42613

Das vom Benutzer angegebene Schema <schema> ist ungültig, wenn die singleVariantColumn Option aktiviert ist. Das Schema muss entweder ein Variant-Feld oder ein Variant-Feld sowie ein beschädigtes Spaltenfeld sein.

INVALID_SOURCE_CATALOG

SQLSTATE: 42809

Der Quellkatalog darf nicht im Unity-Katalog für den Befehl SYNC sein. Es wurde <catalog> gefunden.

INVALID_SOURCE_FOR_FILTERING_SERVICE_MERGE_COMMAND

SQLSTATE: 42KDH

Die Quelle des Filterdienstvorgangs MERGE kann nur Projektionen und Filter enthalten.

Passen Sie den MERGE Befehl an, oder verwenden Sie stattdessen eine Stagingtabelle als Quelle.

<stmt>

INVALID_SPARK_CONFIG

SQLSTATE: 42616

Ungültige Spark-Konfiguration:

Weitere Informationen finden Sie unter INVALID_SPARK_CONFIG

INVALID_SQLSTATE

SQLSTATE: 428B3

Ungültiger SQLSTATE Wert: '<sqlState>'. SQLSTATE darf genau 5 Zeichen lang sein und nur A-Z und 0-9 enthalten. SQLSTATE darf nicht mit '00', '01' oder 'XX' beginnen.

INVALID_SQL_ARG

SQLSTATE: 42K08

Das Argument <name> von sql() ist ungültig. Erwägen Sie, sie entweder durch ein SQL-Literal oder durch Sammlungskonstruktorfunktionen wie z map(), array(), struct(). B. zu ersetzen.

INVALID_SQL_FUNCTION_DATA_ACCESS

SQLSTATE: 42K0E

Eine SQL-Funktion mit CONTAINS SQL kann nicht erstellt werden, die auf eine Tabelle/Ansicht oder eine SQL-Funktion zugreift, die SQL-Daten liest. Verwenden READS Sie stattdessen SQL DATA.

INVALID_SQL_SYNTAX

SQLSTATE: 42000

Ungültige SQL-Syntax:

Weitere Details finden Sie unter INVALID_SQL_SYNTAX.

INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY

SQLSTATE: 42604

Ungültiger Stagingpfad in der Staging-<operation>-Abfrage: <path>

INVALID_STATEMENT_FOR_EXECUTE_INTO

SQLSTATE: 07501

Die INTO-Klausel von EXECUTE IMMEDIATE ist nur für Abfragen gültig, aber die angegebene Anweisung ist keine Abfrage: <sqlString>.

INVALID_STATEMENT_OR_CLAUSE

SQLSTATE: 42601

Die Anweisung oder Klausel: <operation> ist ungültig.

INVALID_STREAMING_RATE_SOURCE_VERSION

SQLSTATE: 22023

Ungültige Version für Zinsquelle: <version>. Die Version muss entweder 1 oder 2 sein.

INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_INTERVAL

SQLSTATE: 22023

Das Echtzeittriggerintervall ist auf <interval> ms festgelegt. Dies ist kleiner als das Minimum von <minBatchDuration> ms, das durch „spark.databricks.streaming.realTimeMode.minBatchDuration“ angegeben wird.

INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_OVERRIDE_INTERVAL

SQLSTATE: 22023

Das Prüfpunktintervall <interval> des Echtzeittriggers konnte nicht analysiert werden. Bitte überprüfen Sie, ob Sie eine positive ganze Zahl eingegeben haben.

INVALID_SUBQUERY_EXPRESSION

SQLSTATE: 42823

Ungültige Unterabfrage:

Weitere Details finden Sie unter INVALID_SUBQUERY_EXPRESSION.

INVALID_TARGET_FOR_ALTER_COMMAND

SQLSTATE: 42809

ALTER <commandTableType> ... <command> unterstützt nicht <tableName>. Verwenden ALTER <targetTableType>...<command> Sie stattdessen.

INVALID_TARGET_FOR_SET_TBLPROPERTIES_COMMAND

SQLSTATE: 42809

ALTER <commandTableType> ... SET TBLPROPERTIES unterstützt nicht <tableName>. Verwenden ALTER <targetTableType>...SET TBLPROPERTIES Sie stattdessen.

INVALID_TEMP_OBJ_REFERENCE

SQLSTATE: 42K0F

Das persistente Objekt <objName> des Typs <obj> kann nicht erstellt werden, da es auf das temporäre Objekt <tempObjName> des Typs <tempObj>verweist. Stellen Sie das temporäre Objekt <tempObjName> beständig, oder stellen Sie das persistente Objekt <objName> temporär.

INVALID_TIMESTAMP_FORMAT

SQLSTATE: 22000

Der angegebene Zeitstempel <timestamp> stimmt nicht mit der erwarteten Syntax <format>überein.

INVALID_TIMEZONE

SQLSTATE: 22009

Die Zeitzone: <timeZone> ist ungültig. Die Zeitzone muss entweder eine regionsbasierte Zonen-ID oder ein Zonenoffset sein. Regions-IDs müssen das Formular "Fläche/Stadt" aufweisen, z. B. "Amerika/Los_Angeles". Zonenoffsets müssen im Format '(+|-)HH', '(+|-)HH:mm' oder '(+|-)HH:mm:ss' vorliegen, z. B. '-08', '+01:00' oder '-13:33:33', und muss sich im Bereich von -18:00 bis +18:00 befinden. "Z" und "UTC" werden als Synonyme für "+00:00" akzeptiert.

INVALID_TIME_TRAVEL_SPEC

SQLSTATE: 42K0E

Bei einer Zeitreise der Tabelle können nicht sowohl die Version als auch der Zeitstempel angegeben werden.

INVALID_TIME_TRAVEL_TIMESTAMP_EXPR

SQLSTATE: 42K0E

Der Zeitreisezeitstempelausdruck <expr> ist ungültig.

Weitere Details finden Sie unter INVALID_TIME_TRAVEL_TIMESTAMP_EXPR.

INVALID_TYPED_LITERAL

SQLSTATE: 42604

Der Wert des typierten Literals <valueType> ist ungültig: <value>.

INVALID_UDF_IMPLEMENTATION

SQLSTATE: 38000

Funktion <funcName> implementiert keine ScalarFunction oder AggregateFunction.

INVALID_UPGRADE_SYNTAX

SQLSTATE: 42809

<command> <supportedOrNot> Die Quelltabelle befindet sich im Hive-Metastore und die Zieltabelle in Unity Catalog.

INVALID_URL

SQLSTATE: 22P02

Die URL ist ungültig: <url>. Verwenden Sie try_parse_url, um ungültige URL zu tolerieren und stattdessen NULL zurückzugeben.

INVALID_USAGE_OF_STAR_OR_REGEX

SQLSTATE: 42000

Ungültige Verwendung von <elem> in <prettyName>.

INVALID_UTF8_STRING

SQLSTATE: 22029

Ungültige UTF8-Bytesequenz in Zeichenfolge: <str>.

INVALID_UUID

SQLSTATE: 42604

Eingabe-<uuidInput> ist keine gültige UUID.

Die UUID sollte im Format "xx-xxxx-xxxx-xxxx-xxxx-xxxxxxxxxx" vorliegen.

Bitte überprüfen Sie das Format der UUID.

INVALID_VARIABLE_DECLARATION

SQLSTATE: 42K0M

Ungültige Variablendeklaration.

Weitere Details finden Sie unter INVALID_VARIABLE_DECLARATION.

INVALID_VARIANT_CAST

SQLSTATE: 22023

Der Variant-Wert <value> kann nicht in <dataType>umgewandelt werden. Verwenden Sie stattdessen try_variant_get.

INVALID_VARIANT_FROM_PARQUET

SQLSTATE: 22023

Ungültige Variante.

Weitere Details finden Sie unter INVALID_VARIANT_FROM_PARQUET.

INVALID_VARIANT_GET_PATH

SQLSTATE: 22023

Der Pfad <path> ist kein gültiger Variant-Extraktionspfad in <functionName>.

Ein gültiger Pfad sollte mit $ null oder mehr Segmenten beginnen und folgt wie [123], .name, ['name'], oder ["name"].

INVALID_VARIANT_SHREDDING_SCHEMA

SQLSTATE: 22023

Das Schema <schema> ist kein gültiges Variant-Shredding-Schema.

INVALID_WHERE_CONDITION

SQLSTATE: 42903

Die WHERE Bedingung <condition> enthält ungültige Ausdrücke: <expressionList>.

Schreiben Sie die Abfrage neu, um Fensterfunktionen, Aggregatfunktionen und Generatorfunktionen in der WHERE-Klausel zu vermeiden.

INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC

SQLSTATE: 42601

Es kann weder ORDER BY noch ein Fensterrahmen für <aggFunc> angegeben werden.

INVALID_WITHIN_GROUP_EXPRESSION

SQLSTATE: 42K0K

Ungültige Funktion <funcName> mit WITHIN GROUP.

Weitere Einzelheiten finden Sie unter INVALID_WITHIN_GROUP_EXPRESSION

INVALID_WRITER_COMMIT_MESSAGE

SQLSTATE: 42KDE

Der Datenquellen-Schreiber hat eine ungültige Anzahl von Commit-Nachrichten generiert. Es wurde genau eine Commitnachricht für jede Aufgabe vom Writer erwartet, aber <detail> empfangen.

INVALID_WRITE_DISTRIBUTION

SQLSTATE: 42000

Die angeforderte Schreibverteilung ist ungültig.

Weitere Details finden Sie unter INVALID_WRITE_DISTRIBUTION.

IRC_CREDENTIAL_VENDING_ERROR

SQLSTATE: 08006

Fehler beim Herstellen einer Verbindung mit dem IRC-Host, der keine Anmeldeinformationen für die Tabelle <tableIdentifier>angibt.

Weitere Informationen finden Sie unter IRC_CREDENTIAL_VENDING_ERROR

ISOLATED_COMMAND_FAILURE

SQLSTATE: 39000

Fehler beim Ausführen von <command>. Befehlsausgabe:

<output>

ISOLATED_COMMAND_UNKNOWN_FAILURE

SQLSTATE: 39000

Fehler beim Ausführen von <command>.

ISOLATION_ENVIRONMENT_ERROR

SQLSTATE: 39000

Fehler beim Installieren von Umgebungsabhängigkeiten <name> aufgrund eines Systemfehlers.

Weitere Informationen finden Sie unter ISOLATION_ENVIRONMENT_ERROR

ISOLATION_ENVIRONMENT_USER_ERROR

SQLSTATE: 39000

Fehler beim Installieren von Umgebungsabhängigkeiten für <name>.

Weitere Informationen finden Sie unter ISOLATION_ENVIRONMENT_USER_ERROR

JDBC_EXTERNAL_ENGINE_SYNTAX_ERROR

SQLSTATE: 42000

JDBC-Syntaxfehler der externen Engine. Der Fehler wurde durch die Abfrage <jdbcQuery>verursacht. <externalEngineError>.

Weitere Details finden Sie unter JDBC_EXTERNAL_ENGINE_SYNTAX_ERROR

JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE

SQLSTATE: 42K0E

Die Verknüpfungsbedingung <joinCondition> hat den ungültigen Typ <conditionType>, erwartet "BOOLEAN".

KAFKA_DATA_LOSS

SQLSTATE: 22000

Einige Daten sind möglicherweise verloren gegangen, weil sie in Kafka nicht mehr verfügbar sind;

entweder die Daten wurden von Kafka ausgelöscht, oder das Thema wurde möglicherweise gelöscht, bevor alle Daten im

Thema verarbeitet wurden.

Wenn Ihre Streaming-Abfrage in solchen Fällen nicht fehlschlagen soll, legen Sie die Quelloption "failOnDataLoss" auf "false" fest.

Reason:

Weitere Informationen finden Sie unter KAFKA_DATA_LOSS

KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET

SQLSTATE: 22000

Konnte nicht bis zur gewünschten Sequenznummer <endSeqNum> für Shard <shardId> im

kinesis-Stream <stream> mit Consumermodus <consumerMode>. Die Abfrage wird fehlschlagen aufgrund von

potenzieller Datenverlust. Der letzte gelesene Datensatz war bei Sequenznummer <lastSeqNum>.

Dies kann passieren, wenn die Daten mit endSeqNum bereits veraltet sind oder der Kinesis-Datenstrom abgelaufen war.

gelöscht und mit demselben Namen neu erstellt wurde. Das Fehlerverhalten kann außer Kraft gesetzt werden.

durch Festlegen von spark.databricks.kinesis.failOnDataLoss auf "false" in der Spark-Konfiguration.

KINESIS_EFO_CONSUMER_NOT_FOUND

SQLSTATE: 51000

Für den Kinesis-Stream <streamId>wurde der zuvor registrierte EFO-Nutzer <consumerId> des Datenstroms gelöscht.

Starten Sie die Abfrage neu, damit ein neuer Consumer registriert wird.

KINESIS_EFO_SUBSCRIBE_LIMIT_EXCEEDED

SQLSTATE: 51000

Für Shard <shard>erfolgte der vorherige Aufruf der subscribeToShard-API innerhalb von 5 Sekunden vor dem nächsten Aufruf.

Starten Sie die Abfrage nach 5 Sekunden oder mehr neu.

KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD

SQLSTATE: 42K04

Die abgerufene Mindest-ShardId von Kinesis (<fetchedShardId>)

ist kleiner als die nachverfolgte Mindest-shardId (<trackedShardId>).

Dies ist unerwartet und tritt auf, wenn ein Kinesis-Datenstrom gelöscht und mit demselben Namen neu erstellt wird.

und eine Streamingabfrage mit diesem Kinesis-Stream mithilfe eines vorhandenen Prüfpunktorts neu gestartet wird.

Starten Sie die Streamingabfrage mit einem neuen Prüfpunktort neu, oder erstellen Sie einen Stream mit einem neuen Namen.

KINESIS_POLLING_MODE_UNSUPPORTED

SQLSTATE: 0A000

Der Kinesis-Abrufmodus wird nicht unterstützt.

KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION

SQLSTATE: 22000

Bei Shard <shard>hatte der letzte Datensatz, der in vorherigen Abrufen von Kinesis gelesen wurde, die Sequenznummer <lastSeqNum>.

der größer als der Datensatz ist, der im aktuellen Abruf mit Sequenznummer <recordSeqNum> gelesen wird.

Dies ist unerwartet und kann auftreten, wenn die Startposition des Wiederholungs- oder nächsten Abrufszyklus falsch initialisiert ist und dies kann zu doppelten Datensätzen im weiteren Verlauf führen.

KINESIS_SOURCE_MUST_BE_IN_EFO_MODE_TO_CONFIGURE_CONSUMERS

SQLSTATE: 42KDF

Um aus Kinesis Streams mit Consumerkonfigurationen (consumerName, consumerNamePrefixoder registeredConsumerId) zu lesen, consumerMode muss es sich um efo.

KINESIS_SOURCE_MUST_SPECIFY_REGISTERED_CONSUMER_ID_AND_TYPE

SQLSTATE: 42KDF

Um aus Kinesis-Streams mit registrierten Consumern zu lesen, müssen Sie sowohl die Option registeredConsumerId als auch registeredConsumerIdType angeben.

KINESIS_SOURCE_MUST_SPECIFY_STREAM_NAMES_OR_ARNS

SQLSTATE: 42KDF

Zum Lesen aus Kinesis Streams müssen Sie entweder die streamName- oder streamARN-Option als durch Kommas getrennte Liste von Datenstromnamen/ARNs konfigurieren, aber nicht beide gleichzeitig.

KINESIS_SOURCE_NO_CONSUMER_OPTIONS_WITH_REGISTERED_CONSUMERS

SQLSTATE: 42KDF

Um aus Kinesis-Streams mit registrierten Consumern zu lesen, konfigurieren Sie nicht die Option consumerName oder consumerNamePrefix, da diese nicht wirksam werden.

KINESIS_SOURCE_REGISTERED_CONSUMER_ID_COUNT_MISMATCH

SQLSTATE: 22023

Die Anzahl der registrierten Consumer-IDs muss der Anzahl der Kinesis-Streams entsprechen, es wurden jedoch <numConsumerIds> Consumer-IDs und <numStreams> Streams erkannt.

KINESIS_SOURCE_REGISTERED_CONSUMER_NOT_FOUND

SQLSTATE: 22023

Der von <consumerId> angegebene registrierte Consumer kann für streamARN <streamARN> nicht gefunden werden. Stellen Sie sicher, dass Sie den Verbraucher registriert haben, oder stellen Sie die option registeredConsumerId nicht bereit.

KINESIS_SOURCE_REGISTERED_CONSUMER_TYPE_INVALID

SQLSTATE: 22023

Der registrierte Consumertyp <consumerType> ist ungültig. Es muss entweder name oder ARNsein.

KLL_SKETCH_INCOMPATIBLE_MERGE

SQLSTATE: 22000

Für Funktion <functionName>können KLL-Skizzen nicht zusammengeführt werden: <reason>

KLL_SKETCH_INVALID_INPUT

SQLSTATE: 22000

Für Funktion <functionName>, ungültige KLL-Skizzen-Binärdaten: <reason>

KLL_SKETCH_INVALID_QUANTILE_RANGE

SQLSTATE: 22003

Für die Funktion <functionName>muss der Quantilewert zwischen 0,0 und 1,0 (einschließlich) liegen, aber erhalten <quantile>.

KLL_SKETCH_K_MUST_BE_CONSTANT

SQLSTATE: 42K0E

Für die Funktion <functionName>muss der k-Parameter ein Konstantenwert sein, aber es wurde ein nicht konstanter Ausdruck abgerufen.

KLL_SKETCH_K_OUT_OF_RANGE

SQLSTATE: 22003

Für die Funktion <functionName>muss der k-Parameter zwischen 8 und 65535 (einschließlich) liegen, aber erhalten <k>.

KRYO_BUFFER_OVERFLOW

SQLSTATE: 54006

Fehler bei der Kryo-Serialisierung: <exceptionMsg>. Um dies zu vermeiden, erhöhen Sie den Wert "<bufferSizeConfKey>".

LABELS_MISMATCH

SQLSTATE: 42K0L

Begin label <beginLabel> stimmt nicht mit der Endbezeichnung <endLabel>überein.

LABEL_ORDER_FÜR_VARIABLE_EXISTIERT_BEREITS

SQLSTATE: 42K0L

Die Bezeichnung oder FOR Variable <label> ist bereits vorhanden. Wählen Sie einen anderen Namen aus, oder benennen Sie den vorhandenen Namen um.

LABEL_ODER_FÜR_VARIABLENNAME_VERBOTEN

SQLSTATE: 42K0L

"Das Label oder der Variablenname FOR<label> ist unzulässig."

LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION

SQLSTATE: 0A000

Die Lakehouse-Verbunddatenquelle "<provider>" erfordert eine neuere Databricks-Runtime-Version.

Weitere Einzelheiten finden Sie unter LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION

LATERAL_JOIN_WITH_ARROW_UDTF_UNSUPPORTED (Lateral-Join mit Arrow-UDTF nicht unterstützt)

SQLSTATE: 0A000

LATERAL JOIN mit pfeiloptimierten benutzerdefinierten Tabellenfunktionen (UDTFs) wird nicht unterstützt. Pfeil-UDTFs können nicht auf der rechten Seite einer lateralen Verknüpfung verwendet werden.

Verwenden Sie stattdessen eine normale UDTF, oder strukturieren Sie Ihre Abfrage, um die laterale Verknüpfung zu vermeiden.

LEGACY_CREATE_TEMP_TABLE_WITHOUT_PROVIDER_NOT_SUPPORTED

SQLSTATE: 0A000

CREATE TEMPORARY TABLE ohne anbieter ist nicht zulässig.

LOAD_DATA_PATH_NOT_EXISTS

SQLSTATE: 42K03

LOAD DATA Eingabepfad existiert nicht: <path>.

LOCAL_MUST_WITH_SCHEMA_FILE

SQLSTATE: 42601

LOCAL muss zusammen mit dem Schema von file verwendet werden, enthielt jedoch Folgendes: <actualSchema>.

LOCATION_ALREADY_EXISTS

SQLSTATE: 42710

Die verwaltete Tabelle kann nicht als <identifier>benannt werden, da der zugeordnete Speicherort <location> bereits vorhanden ist. Wählen Sie einen anderen Tabellennamen aus, oder entfernen Sie zuerst den vorhandenen Speicherort.

LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW

SQLSTATE: KD000

Einige Partitionen in Kafka-Themen sind während der Ausführung der Abfrage mit Trigger.AvailableNow verloren gegangen. Der Fehler kann vorübergehend sein: Starten Sie Die Abfrage neu, und melden Sie, wenn dasselbe Problem weiterhin angezeigt wird.

Themenpartitionen für den neuesten Offset: <tpsForLatestOffset>, Themenpartitionen für den Endoffset: <tpsForEndOffset>

MALFORMED_AVRO_MESSAGE

SQLSTATE: KD000

Falsch formatierte Avro-Nachrichten werden in der Deserialisierung von Nachrichten erkannt. Parsemodus: <mode>. Um falsch formatierte Avro-Nachricht als NULL-Ergebnis zu verarbeiten, versuchen Sie, die Option "Modus" als "PERMISSIVE" festzulegen.

MALFORMED_CHARACTER_CODING

SQLSTATE: 22000

Ungültiger Wert beim Ausführen von <function> mit <charset> gefunden

MALFORMED_CSV_RECORD

SQLSTATE: KD000

Falsch formatierter CSV-Eintrag: <badRecord>

MALFORMED_LOG_FILE

SQLSTATE: KD002

Die Protokolldatei war falsch formatiert: Fehler beim Lesen der richtigen Protokollversion aus <text>.

MALFORMED_PROTOBUF_MESSAGE

SQLSTATE: 42K0G

Falsch formatierte Protobuf-Nachrichten werden bei der Nachrichtendeserialisierung erkannt. Parsemodus: <failFastMode>. Um falsch formatierte Protobuf-Nachricht als NULL-Ergebnis zu verarbeiten, versuchen Sie, die Option "Modus" als "PERMISSIVE' festzulegen.

MALFORMED_RECORD_IN_PARSING

SQLSTATE: 22023

Beim Parsen von Datensätzen werden nicht wohlgeformte Datensätze erkannt: <badRecord>.

Parsemodus: <failFastMode>. Um falsch formatierte Datensätze als NULL-Ergebnis zu verarbeiten, versuchen Sie, die Option "Modus" als "PERMISSIVE" festzulegen.

Weitere Details finden Sie unter MALFORMED_RECORD_IN_PARSING.

MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE

SQLSTATE: 22000

Nicht wohlgeformter Zustand in RatePerMicroBatch-Quelle.

Weitere Einzelheiten finden Sie unter MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE

MALFORMED_VARIANT

SQLSTATE: 22023

Die Variant-Binärdatei ist falsch formatiert. Überprüfen Sie, ob die Datenquelle gültig ist.

MANAGED_ICEBERG_ATTEMPTED_TO_ENABLE_CLUSTERING_WITHOUT_DISABLING_DVS_OR_ROW_TRACKING

SQLSTATE: 0A000

Es wurde versucht, liquid clustering auf einer Verwalteten Apache Iceberg-Tabelle zu aktivieren, ohne sowohl Löschvektoren als auch Zeilenverfolgung zu deaktivieren. Löschvektoren und Zeilenverfolgung werden für verwaltete Apache Iceberg-Tabellen nicht unterstützt, sind jedoch für die Parallelität auf Zeilenebene mit Liquid-Tabellen erforderlich. Um liquid clustering auf einer verwalteten Apache Iceberg-Tabelle mit reduzierter Parallelitätssteuerung zu aktivieren, müssen Löschvektoren und Zeilenverfolgung für diese Tabelle deaktiviert werden.

MANAGED_ICEBERG_OPERATION_NOT_SUPPORTED

SQLSTATE: 0A000

Verwaltete Apache-Iceberg-Tabellen unterstützen <operation> nicht.

MANAGED_TABLE_WITH_CRED

SQLSTATE: 42613

Das Erstellen einer verwalteten Tabelle mit Speicheranmeldeinformationen wird nicht unterstützt.

MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID

SQLSTATE: 55019

Die materialisierte Sicht kann nicht <refreshType> werden, da sie vor „pipelineId“ vorhanden war. Um <refreshType> zu aktivieren, löschen Sie bitte die materialisierte Sicht und erstellen sie neu.

MATERIALIZED_VIEW_NOT_INCREMENTALIZABLE

SQLSTATE: 42601

Die materialisierte Ansicht kann nicht mit <refreshPolicy> der Aktualisierungsrichtlinie erstellt werden, da sie für die inkrementelle Aktualisierung nicht unterstützt wird. Reason:

Weitere Informationen finden Sie unter MATERIALIZED_VIEW_NOT_INCREMENTALIZABLE

MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED

SQLSTATE: 56038

Der materialisierte Ansichtsvorgang <operation> ist nicht zulässig:

Weitere Details finden Sie unter MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED.

MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS

SQLSTATE: 0A000

Der Ausgabeausdruck <expression> in einer materialisierten Sicht muss explizit mit einem Alias erstellt werden.

MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID

SQLSTATE: 42000

materialisierte Ansicht <name> konnte nicht mit Streaming-Abfrage erstellt werden. Verwenden CREATE Sie [OR REFRESH] STREAMING TABLE oder entfernen Sie das STREAM Schlüsselwort für Ihre FROM Klausel, um diese Beziehung stattdessen in eine Batchabfrage umzuwandeln.

MATERIALIZED_VIEW_UNSUPPORTED_OPERATION

SQLSTATE: 0A000

Vorgang <operation> wird für materialisierte Ansichten derzeit nicht unterstützt.

MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED

SQLSTATE: 54KD1

Die neue Variable <variableName> kann nicht erstellt werden, da die Anzahl der Variablen in der Sitzung die maximal zulässige Anzahl (<maxNumVariables>) überschreitet.

MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE

SQLSTATE: 22023

maxRecordsPerFetch muss eine positive ganze Zahl kleiner oder gleich <kinesisRecordLimit> sein.

MCV_INVALID_INPUT_SKETCH_BUFFER

SQLSTATE: 22546

Ungültiger Aufruf von <function>; nur gültige MCV-Skizzenpuffer werden als Eingaben unterstützt (z. B. die von der mcv_collect_internal Funktion erzeugten).

MERGE_CARDINALITY_VIOLATION

SQLSTATE: 23K01

Die ON-Suchbedingung der MERGE-Anweisung stimmt überein mit einer einzelnen Zeile der Zieltabelle, die sich mit mehreren Zeilen der Quelltabelle deckt.

Dies kann dazu führen, dass die Zielzeile mehrmals mit einem Aktualisierungs- oder Löschvorgang bearbeitet wird, was nicht zulässig ist.

MERGE_WITHOUT_WHEN

SQLSTATE: 42601

Es muss mindestens eine WHEN-Klausel in einer MERGE-Anweisung vorhanden sein.

METRIC_CONSTRAINT_NOT_SUPPORTED

SQLSTATE: 0A000

METRIC CONSTRAINT ist nicht aktiviert.

METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR

SQLSTATE: 22023

Der bereitgestellte Wert "<argValue>" wird von Argument "<argName>" für die METRIC_STORE Tabellenfunktion nicht unterstützt.

Weitere Details finden Sie unter METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR.

METRIC_STORE_UNSUPPORTED_ERROR

SQLSTATE: 56038

Die metrische Store-Routine <routineName> ist derzeit in dieser Umgebung deaktiviert.

METRIC_VIEW_AMBIGUOUS_JOIN_CRITERIA

SQLSTATE: 42K0E

Die Definition der Metrikansicht enthält eine Verknüpfung mit mehrdeutigen Kriterien: <expr>. [Verwenden Sie entweder die using Verknüpfungskriterien, oder qualifizieren Sie Spalten explizit mit dem <sourceAlias> Alias.]

METRIC_VIEW_CACHE_TABLE_NOT_SUPPORTED

SQLSTATE: 42K0E

Die Metrikansicht darf keine Cachetabellen verwenden.

METRIC_VIEW_FEATURE_DISABLED

SQLSTATE: 42K0E

Das Feature "Metrikansicht" ist deaktiviert. Stellen Sie sicher, dass "spark.databricks.sql.metricView.enabled" auf "true" festgelegt ist.

METRIC_VIEW_INVALID_MEASURE_FUNCTION_INPUT

SQLSTATE: 42K0E

Die funktion MEASURE() akzeptiert nur ein Attribut als Eingabe, hat aber <expr>

METRIC_VIEW_INVALID_VIEW_DEFINITION

SQLSTATE: 42K0E

Die Definition der Metrikansicht ist ungültig. Grund: <reason>.

METRIC_VIEW_IN_CTE_NOT_SUPPORTED

SQLSTATE: 42K0E

Die Metrikansicht ist in CTE-Definitionen nicht zulässig. Plan: <plan>

METRIC_VIEW_JOIN_NOT_SUPPORTED

SQLSTATE: 42K0E

Die Metrikansicht darf Verknüpfungen nicht verwenden. Plan: <plan>

METRIC_VIEW_MATERIALIZATIONS_DISABLED

SQLSTATE: 42K0E

Metrische Ansichtsmaterialisierungen sind deaktiviert. Stellen Sie sicher, dass "spark.databricks.sql.metricView.materializations.enabled" auf "true" festgelegt ist.

METRIC_VIEW_MATERIALIZATIONS_UNAGGREGATED_WITH_METRIC_VIEW

SQLSTATE: 42K0E

Die nicht aggregierte Materialisierung wird nicht unterstützt, wenn die Metrikansicht auf andere Metrikansichten verweist.

METRIKANSICHTSMATERIALISIERUNG_AUF_TEMPORÄRE_ANSICHT_NICHT_UNTERSTÜTZT

SQLSTATE: 42K0E

Die Materialisierung wird für temporäre Metrikansichten nicht unterstützt.

METRIC_VIEW_MATERIALIZATION_WITH_INVOKER_DEPENDENT_EXPRESSIONS_NOT_SUPPORTED

SQLSTATE: 42K0E

Die Materialisierung wird für metrische Ansichten, die aufruferabhängige Ausdrücke enthalten, nicht unterstützt. Diese Ausdrücke verhindern die Wiederverwendung von Materialisierungen.

METRIC_VIEW_MEASURE_IN_GROUP_BY

SQLSTATE: 42K0E

<measureColumns> Measurespalten können nicht in GROUP BY Klauseln oder als kategorisierte Werte verwendet werden. Es wird empfohlen, sie mit einer Aggregatfunktion wie SUMME() für das erwartete Verhalten umzuschließen.

METRIC_VIEW_MISSING_MEASURE_FUNCTION

SQLSTATE: 42K0E

Die Verwendung der Messspalte <column> einer Metrikansicht erfordert eine MEASURE() Funktion, um Ergebnisse zu erhalten.

METRIC_VIEW_NOT_MATERIALIZED

SQLSTATE: 42K0E

Der Befehl 'Materialisierte Ansicht' in der Metrikansicht ohne definierte Materialisierungen

Weitere Informationen finden Sie unter METRIC_VIEW_NOT_MATERIALIZED

METRISCHE_ANSICHT_NICHT_UNTERSTÜTZT_IN_HMS

SQLSTATE: 42K0E

Metrikansichten werden in HMS nicht unterstützt.

METRIC_VIEW_RENAME_DIFFERENT_CATALOG_AND_SCHEMA

SQLSTATE: 42602

Die Metrikansicht <oldName> darf nicht in einen anderen Katalog oder ein anderes Schema umbenannt werden: <newName>

METRIC_VIEW_SNOWFLAKE_JOIN_FEATURE deaktiviert

SQLSTATE: 42K0E

Die Metrikansicht im Snowflake-Join-Feature ist deaktiviert. Stellen Sie sicher, dass "spark.databricks.sql.metricView.snowflake.join.enable" auf "true" festgelegt ist.

METRIC_VIEW_UNSUPPORTED_USAGE

SQLSTATE: 42K0E

Die Verwendung der Metrikansicht wird nicht unterstützt. Plan: <plan>

METRIC_VIEW_WINDOW_FUNCTION_NOT_SUPPORTED

SQLSTATE: 42K0E

Die Metrikansicht darf die Fensterfunktion <expr> nicht verwenden.

METRIC_VIEW_YAML_V11_DISABLED

SQLSTATE: 42K0E

Die Metrikansicht YAML v1.1 ist deaktiviert. Stellen Sie sicher, dass "spark.databricks.sql.metricView.yaml.v11.enabled" auf "true" festgelegt ist.

MIGRATION_NOT_SUPPORTED

SQLSTATE: 42601

<table> wird für die Migration zur verwalteten UC-Tabelle nicht unterstützt, da es sich nicht um eine <tableKind> Tabelle handelt.

Stellen Sie sicher, dass die zu migrierende Tabelle eine externe UC-Delta-Tabelle ist und

es wird auf den Namen anstatt auf den Pfad verwiesen.

MIGRATION_ROLLBACK_NOT_SUPPORTED

SQLSTATE: 42809

<table> wird für den Rollback von zu verwalteter zu externer Tabelle nicht unterstützt, da es sich nicht um eine <tableKind>-Tabelle handelt.

MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED

SQLSTATE: KD000

Die Kafka-Datenquelle in „Trigger.AvailableNow“ muss die gleichen Themenpartitionen im vorab abgerufenen Offset bis zum End-Offset für jeden Mikrobatch bereitstellen. Der Fehler kann vorübergehend sein: Starten Sie Die Abfrage neu, und melden Sie, wenn dasselbe Problem weiterhin angezeigt wird.

Themenpartitionen für den vorab abgerufenen Offset: <tpsForPrefetched>, Themenpartitionen für den Endoffset: <tpsForEndOffset>.

MISSING_AGGREGATION

SQLSTATE: 42803

Der nicht aggregierende Ausdruck <expression> basiert auf Spalten, die nicht an der GROUP BY-Klausel teilnehmen.

Fügen Sie dem GROUP BYdie Spalten oder den Ausdruck hinzu, aggregieren Sie den Ausdruck, oder verwenden Sie <expressionAnyValue>, wenn es Ihnen egal ist, welcher Wert innerhalb einer Gruppe zurückgegeben wird.

Weitere Details finden Sie unter MISSING_AGGREGATION.

MISSING_CATALOG_ABILITY

SQLSTATE: 0A000

Katalog <plugin> unterstützt nicht

Weitere Details finden Sie unter MISSING_CATALOG_ABILITY

MISSING_CLAUSES_FOR_OPERATION

SQLSTATE: 42601

Fehlende Klausel <clauses> für den Vorgang <operation>. Fügen Sie die erforderlichen Klauseln hinzu.

MISSING_CONNECTION_OPTION

SQLSTATE: 42000

Verbindungen vom Typ '<connectionType>' müssen die folgenden Optionen enthalten: <requiredOptions>.

MISSING_DATABASE_FOR_V1_SESSION_CATALOG

SQLSTATE: 3F000

Der Datenbankname wird im v1-Sitzungskatalog nicht angegeben. Stellen Sie sicher, dass Sie beim Interagieren mit dem v1-Katalog einen gültigen Datenbanknamen angeben.

MISSING_GROUP_BY

SQLSTATE: 42803

Die Abfrage enthält keine GROUP BY Klausel. Fügen Sie GROUP BY hinzu, oder bauen Sie es mithilfe von OVER-Klauseln in Fensterfunktionen um.

MISSING_NAME_FOR_CHECK_CONSTRAINT

SQLSTATE: 42000

CHECK Constraint muss einen Namen haben.

MISSING_PARAMETER_FOR_KAFKA

SQLSTATE: 42KDF

Parameter <parameterName> ist für Kafka erforderlich, wird jedoch in <functionName>nicht angegeben.

MISSING_PARAMETER_FOR_ROUTINE

SQLSTATE: 42KDF

Parameter <parameterName> ist erforderlich, wird jedoch in <functionName>nicht angegeben.

MISSING_SCHEDULE_DEFINITION

SQLSTATE: 42000

Die Bereitstellung einer Zeitplandefinition muss gemäß SCHEDULE erfolgen.

MISSING_TIMEOUT_CONFIGURATION

SQLSTATE: HY000

Der Vorgang ist abgelaufen, es ist jedoch kein Timeout-Zeitraum konfiguriert. Verwenden Sie zum Festlegen eines zeitbasierten Verarbeitungstimeouts "GroupState.setTimeoutDuration()" in Ihrem 'mapGroupsWithState'- oder 'flatMapGroupsWithState'-Vorgang. Verwenden Sie für ereigniszeitbasiertes Timeout "GroupState.setTimeoutTimestamp()" und definieren Sie ein Wasserzeichen mithilfe von "Dataset.withWatermark()".

MISSING_WINDOW_SPECIFICATION

SQLSTATE: 42P20

Die Fensterspezifikation ist in der WINDOW-Klausel für <windowName>nicht definiert. Weitere Informationen zu WINDOW Klauseln finden Sie unter "<docroot>/sql-ref-syntax-qry-select-window.html".

MODIFY_BUILTIN_CATALOG

SQLSTATE: 42832

Das Ändern des integrierten Katalogs <catalogName> wird nicht unterstützt.

MULTIPART_FLOW_NAME_NOT_SUPPORTED

SQLSTATE: 0A000

Der Fluss mit mehrteiligen Namen '<flowName>' wird nicht unterstützt.

MULTIPLE_EXCEL_DATA_SOURCE

SQLSTATE: 42710

Es wurden mehrere Excel-Datenquellen mit dem Namen <provider> (<sourceNames>)erkannt. Geben Sie den vollqualifizierten Klassennamen an, oder entfernen Sie <externalSource> aus dem Klassenpfad.

MULTIPLE_LOAD_PATH

SQLSTATE: 42000

Databricks Delta unterstützt nicht mehrere Eingabepfade in der load()-API.

Pfade: <pathList>. So erstellen Sie einen einzelnen DataFrame durch Laden

mehrere Pfade aus derselben Delta-Tabelle laden, sollten Sie den Stammpfad der

die Delta-Tabelle mit den entsprechenden Partitionsfiltern. Wenn mehrere Pfade

aus verschiedenen Delta-Tabellen stammen, verwenden Sie die APIs union() oder unionByName() des Datasets,

um die DataFrames zu kombinieren, die durch separate load()-API-Aufrufe generiert werden.

MULTIPLE_MATCHING_CONSTRAINTS

SQLSTATE: 42891

Es wurden mindestens zwei übereinstimmende Einschränkungen mit der angegebenen Bedingung gefunden.

MULTIPLE_QUERY_RESULT_CLAUSES_WITH_PIPE_OPERATORS

SQLSTATE: 42000

<clause1> und <clause2> kann nicht im gleichen SQL-Pipeoperator mit '|>' koexistieren. Trennen Sie die mehreren Ergebnisklauseln in separate Pipeoperatoren, und wiederholen Sie dann die Abfrage erneut.

MULTIPLE_TIME_TRAVEL_SPEC

SQLSTATE: 42K0E

Die Zeitreise kann nicht sowohl in der Zeitreiseklausel als auch in den Optionen angegeben werden.

MULTIPLE_XML_DATA_SOURCE

SQLSTATE: 42710

Mehrere Datenquellen mit dem Namen <provider> (<sourceNames>)erkannt. Geben Sie den vollqualifizierten Klassennamen an, oder entfernen Sie <externalSource> aus dem Klassenpfad.

MULTI_ALIAS_WITHOUT_GENERATOR

SQLSTATE: 42K0E

Mehrteiliges Aliasing (<names>) wird mit <expr> nicht unterstützt, da es sich nicht um eine Generatorfunktion handelt.

MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION

SQLSTATE: 42K0E

Der Ausdruck <expr> unterstützt nicht mehr als eine Quelle.

MULTI_SOURCE_METRIC_VIEW_MEASURE_REFERENCING_DIMENSION

SQLSTATE: 42K0E

Die Measurespalte <measureColumn> in der Metrikansicht kann nicht auf Bemaßungsspalten (<dimensionColumn>) verweisen.

MULTI_SOURCE_METRIC_VIEW_UNQUALIFIED_MEASURE_REF

SQLSTATE: 42K0E

Nicht qualifizierter Measurespaltenverweis <measureColumn> in der Metrikansicht mit mehreren Quellen ist nicht zulässig. Qualifizieren Sie die Measurespalte mit dem Quellalias.

MULTI_SOURCE_METRIC_VIEW_UNSUPPORTED_EXPRESSION

SQLSTATE: 42K0E

Aggregationsausdruck über mehreren Quellen in der Metrikansicht wird nicht unterstützt: <expr>.

MULTI_UDF_INTERFACE_ERROR

SQLSTATE: 0A000

Nicht zulässig, mehrere UDF-Schnittstellen zu implementieren, UDF-Klasse <className>.

MUTUALLY_EXCLUSIVE_CLAUSES

SQLSTATE: 42613

Sich gegenseitig ausschließende Klauseln oder Optionen <clauses>. Entfernen Sie eine dieser Klauseln.

MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE

SQLSTATE: 42601

Die Eingabeabfrage erwartet eine <expectedType>, die zugrunde liegende Tabelle ist jedoch eine <givenType>.

NAMED_PARAMETERS_NOT_SUPPORTED

SQLSTATE: 4274K

Benannte Parameter werden für die Funktion <functionName>nicht unterstützt; bitte versuchen Sie es erneut, indem Sie Positionsargumente für den Funktionsaufruf verwenden.

NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS

SQLSTATE: 0A000

Funktion <functionName> kann nicht aufgerufen werden, weil benannte Argumentverweise nicht unterstützt werden. In diesem Fall wurde der benannte Argumentverweis <argument>verwendet.

NAMED_PARAMETER_SUPPORT_DISABLED

SQLSTATE: 0A000

Die Funktion <functionName> kann nicht aufgerufen werden, da hier keine benannten Argumentverweise aktiviert sind.

In diesem Fall wurde der benannte Argumentverweis <argument>verwendet.

Legen Sie "spark.sql.allowNamedFunctionArguments" auf "true" fest, um das Feature zu aktivieren.

NAMESPACE_ALREADY_EXISTS

SQLSTATE: 42000

Namespace-<nameSpaceName> kann nicht erstellt werden, da er bereits vorhanden ist.

Wählen Sie einen anderen Namen aus, legen Sie den vorhandenen Namespace ab, oder fügen Sie die IF NOT EXISTS Klausel hinzu, um bereits vorhandene Namespaces zu tolerieren.

NAMESPACE_NOT_EMPTY

SQLSTATE: 42000

Ein Namespace-<nameSpaceNameName> kann nicht gelöscht werden, da er Objekte enthält.

Wird DROP NAMESPACE...CASCADE verwendet, um den Namespace und alle zugehörigen Objekte abzulegen.

NAMESPACE_NOT_FOUND

SQLSTATE: 42000

Der Namespace <nameSpaceName> kann nicht gefunden werden. Überprüfen Sie die Schreib- und Korrektheit des Namespaces.

Wenn Sie den Namen nicht mit einem qualifiziert haben, überprüfen Sie die current_schema()-Ausgabe, oder qualifizieren Sie den Namen mit dem richtigen.

Um den Fehler beim Trennen zu tolerieren, verwenden Sie DROP NAMESPACE IF EXISTS.

NATIVE_IO_ERROR

SQLSTATE: KD00F

Fehler bei der nativen Anforderung. RequestId: <requestId>, Cloud: <cloud>, Vorgang: <operation>

Anforderung: [https: <https>, method = <method>, path = <path>, params = <params>, host = <host>, headers = <headers>, bodyLen = <bodyLen>],

fehler: <error>

NATIVE_XML_DATA_SOURCE_NOT_ENABLED

SQLSTATE: 56038

Native XML-Datenquelle ist in diesem Cluster nicht aktiviert.

NEGATIVE_SCALE_DISALLOWED

SQLSTATE: 0A000

Negative Skalierung ist nicht zulässig: '<scale>'. Legen Sie die Konfiguration <sqlConf> auf "true" fest, um sie zuzulassen.

NEGATIVE_VALUES_IN_FREQUENCY_EXPRESSION

SQLSTATE: 22003

Es wurde ein negativer Wert in <frequencyExpression> gefunden: <negativeValue>, aber ein positiver Integralwert wurde erwartet.

NESTED_AGGREGATE_FUNCTION

SQLSTATE: 42607

Es ist nicht zulässig, eine Aggregatfunktion im Argument einer anderen Aggregatfunktion zu verwenden. Verwenden Sie die innere Aggregatfunktion in einer Unterabfrage.

NESTED_EXECUTE_IMMEDIATE

SQLSTATE: 07501

Geschachtelte EXECUTE IMMEDIATE Befehle sind nicht zulässig. Stellen Sie sicher, dass die bereitgestellte SQL-Abfrage (<sqlString>) keinen anderen EXECUTE IMMEDIATE Befehl enthält.

NESTED_REFERENCES_IN_LATERAL_SUBQUERY_NOT_SUPPORTED

SQLSTATE: 0A000

Es wurden äußere Bereichsverweise <expression> in der lateralen Unterabfrage erkannt, die nicht unterstützt wird. Stellen Sie sicher, dass die laterale Unterabfrage keine Unterabfragen enthält, die auf Attribute aus geschachtelten äußeren Bereichen verweisen.

VERSCHACHTELTE_REFERENZEN_IN_UNTERABFRAGE_NICHT_UNTERSTÜTZT

SQLSTATE: 0A000

Es wurden äußere Bereichsverweise <expression> in der Unterabfrage erkannt, die nicht unterstützt wird.

NEUE_ÜBERPRÜFUNGSEINSCHRÄNKUNGSVERLETZUNG

SQLSTATE: 23512

Die neue Check-Einschränkung (<expression>) kann nicht hinzugefügt werden, da sie durch vorhandene Daten in der Tabelle <tableName>verletzt würde. Stellen Sie sicher, dass alle vorhandenen Zeilen die Einschränkung erfüllen, bevor Sie sie hinzufügen.

NONEXISTENT_FIELD_NAME_IN_LIST

SQLSTATE: HV091

Feld(er) <nonExistFields> ist/sind nicht vorhanden. Verfügbare Felder: <fieldNames>

NICHT_DETERMINISTISCHE_PRÜFUNGSEINSCHRÄNKUNG

SQLSTATE: 42621

Die Check-Einschränkung <checkCondition> ist nicht deterministisch. Check-Einschränkungen dürfen nur deterministische Ausdrücke enthalten.

NON_FOLDABLE_ARGUMENT

SQLSTATE: 42K08

Für die Funktion <funcName> muss der Parameter <paramName> ein faltbarer Ausdruck des Typs <paramType>sein, das tatsächliche Argument ist jedoch nicht faltbar.

NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE: 42613

Wenn es in einer MATCHED-Anweisung mehr als eine MERGE-Klausel gibt, kann nur die letzte MATCHED-Klausel die Bedingung weglassen.

NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION

SQLSTATE: 42613

Wenn es in einer NOT MATCHED BY SOURCE-Anweisung mehr als eine MERGE-Klausel gibt, kann nur die letzte NOT MATCHED BY SOURCE-Klausel die Bedingung weglassen.

NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION

SQLSTATE: 42613

Wenn es in einer NOT MATCHED [BY TARGET]-Anweisung mehr als eine MERGE-Klausel gibt, kann nur die letzte NOT MATCHED [BY TARGET]-Klausel die Bedingung weglassen.

NON_LITERAL_PIVOT_VALUES

SQLSTATE: 42K08

Literalausdrücke sind für Pivotwerte erforderlich, es wurde <expression> gefunden.

NON_PARTITION_COLUMN

SQLSTATE: 42000

PARTITION-Klausel darf keine Nicht-Partitionsspalten enthalten: <columnName>.

NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING

SQLSTATE: 42KDE

Die WINDOW-Funktion wird in <windowFunc> (als Spalte <columnName>) für Streaming-DataFrames/Datasets nicht unterstützt.

Strukturiertes Streaming unterstützt nur die Zeitfensteraggregation mithilfe der WINDOW-Funktion. (Fensterspezifikation: <windowSpec>)

NOT_ALLOWED_IN_FROM

SQLSTATE: 42601

In der FROM-Klausel nicht zulässig:

Weitere Details finden Sie unter NOT_ALLOWED_IN_FROM.

NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE

SQLSTATE: 42601

In der Pipe-WHERE-Klausel nicht zulässig:

Weitere Details finden Sie unter NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE.

NOT_A_CONSTANT_STRING

SQLSTATE: 42601

Der Ausdruck <expr>, der für die Routine- oder Klausel <name> verwendet wird, muss eine Konstante STRING sein, die NOT NULList.

Weitere Details finden Sie unter NOT_A_CONSTANT_STRING.

NOT_A_PARTITIONED_TABLE

SQLSTATE: 42809

Der Vorgang <operation> ist für <tableIdentWithDB> nicht zulässig, da es sich nicht um eine partitionierte Tabelle handelt.

NOT_A_SCALAR_FUNCTION

SQLSTATE: 42887

<functionName> wird hier als skalarer Ausdruck angezeigt, aber die Funktion wurde als Tabellenfunktion definiert. Aktualisieren Sie die Abfrage, um den Funktionsaufruf in die FROM-Klausel zu verschieben, oder definieren Sie stattdessen <functionName> als skalare Funktion neu.

NOT_A_TABLE_FUNCTION

SQLSTATE: 42887

<functionName> wird hier als Tabellenfunktion angezeigt, aber die Funktion wurde als skalare Funktion definiert. Aktualisieren Sie die Abfrage, um den Funktionsaufruf außerhalb der FROM-Klausel zu verschieben, oder definieren Sie stattdessen <functionName> als Tabellenfunktion neu.

NOT_ENOUGH_ARGS

SQLSTATE: 42605

Funktion <functionName> erwartet mindestens <minNum> Parameter, aber empfangen <actualNum> (<actualArgs>).

NOT_NULL_ASSERT_VIOLATION

SQLSTATE: 42000

NULL-Wert in Non-Nullable-Feld: <walkedTypePath>Wenn das Schema aus einem Scala-Tupel/einer Scala-Fallklasse oder einem Java-Bean abgeleitet wird, versuchen Sie, „scala.Option[_]“ oder andere Nullwerte zulassende Typen (z. B. „java.lang.Integer“ anstelle von „int/scala.Int“) zu verwenden.

NOT_NULL_CONSTRAINT_VIOLATION

SQLSTATE: 42000

Das Zuweisen eines NULL-Werts ist hier nicht zulässig.

Weitere Details finden Sie unter NOT_NULL_CONSTRAINT_VIOLATION.

NOT_SUPPORTED_CHANGE_COLUMN

SQLSTATE: 0A000

ALTER TABLE ALTER / CHANGE COLUMN wird nicht unterstützt, um die Spalte <table> von <originName> mit dem Typ <originType> in <newName> mit dem Typ <newType> zu ändern.

NOT_SUPPORTED_CHANGE_SAME_COLUMN

SQLSTATE: 0A000

ALTER TABLE ALTER / CHANGE COLUMN wird nicht unterstützt, um die Spalte <table> von <fieldName> einschließlich ihrer geschachtelten Felder mehrfach im selben Befehl zu ändern.

NOT_SUPPORTED_COMMAND_FOR_V2_TABLE

SQLSTATE: 0A000

<cmd> wird für v2-Tabellen nicht unterstützt.

NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT

SQLSTATE: 0A000

<cmd> wird nicht unterstützt, wenn Sie es aktivieren möchten, legen Sie bitte "spark.sql.catalogImplementation" auf "hive" fest.

NOT_SUPPORTED_IN_JDBC_CATALOG

SQLSTATE: 0A000

Nicht unterstützter Befehl im JDBC-Katalog:

Weitere Informationen finden Sie unter NOT_SUPPORTED_IN_JDBC_CATALOG

NOT_SUPPORTED_WITH_DB_SQL

SQLSTATE: 0A000

<operation> wird in einer SQL <endpoint> nicht unterstützt.

NOT_SUPPORTED_WITH_SERVERLESS

SQLSTATE: 0A000

<operation> wird auf serverloser Berechnung nicht unterstützt.

NOT_UNRESOLVED_ENCODER

SQLSTATE: 42601

Nicht aufgelöster Encoder erwartet, aber <attr> wurde gefunden.

NO_ACTIVE_TRANSACTION

SQLSTATE: 25000

Es ist keine aktive Transaktion zu <action> vorhanden.

NO_DEFAULT_COLUMN_VALUE_AVAILABLE

SQLSTATE: 42608

Der Standardwert <colName> kann nicht bestimmt werden, da er nicht nullfähig ist und keinen Standardwert aufweist.

NO_HANDLER_FOR_UDAF

SQLSTATE: 42000

Kein Handler für UDAF „<functionName>“. Verwenden Sie stattdessen sparkSession.udf.register(...)

NO_MERGE_ACTION_SPECIFIED

SQLSTATE: 42K0E

Nach „df.mergeInto“ muss mindestens eine der folgenden Optionen folgen:whenMatched, whenNotMatched, whenNotMatchedBySource.

NO_PARENT_EXTERNAL_LOCATION_FOR_PATH

SQLSTATE: 22KD1

Für den Pfad '<path>' wurde kein übergeordneter externer Speicherort gefunden. Erstellen Sie einen externen Speicherort auf einem der übergeordneten Pfade, und wiederholen Sie dann die Abfrage oder den Befehl erneut.

NO_PRIMARY_KEY_CONSTRAINT_EXCEPTION

SQLSTATE: 42704

TABLE <table> hat keine Primärschlüsseleinschränkung.

NO_SQL_TYPE_IN_PROTOBUF_SCHEMA

SQLSTATE: 42S22

<catalystFieldPath> im Protobuf-Schema wurde nicht gefunden.

NO_STORAGE_LOCATION_FOR_TABLE

SQLSTATE: nicht zugewiesen

Beim Generieren von Tabellenanmeldeinformationen wurde kein Speicherort für die Tabelle '<tableId>' gefunden. Überprüfen Sie den Tabellentyp und die Tabellenspeicherort-URL, und wiederholen Sie dann die Abfrage oder den Befehl erneut.

NO_SUCH_CATALOG_EXCEPTION

SQLSTATE: 42704

Katalog '<catalog>' wurde nicht gefunden. Überprüfen Sie den Katalognamen, und wiederholen Sie dann die Abfrage oder den Befehl erneut.

NO_SUCH_CLEANROOM_EXCEPTION

SQLSTATE: nicht zugewiesen

Der Reinraum "<cleanroom>" ist nicht vorhanden. Überprüfen Sie, ob der Name des Reinraums richtig geschrieben ist und dem Namen eines gültigen vorhandenen Reinraums entspricht, und wiederholen Sie dann die Abfrage oder den Befehl erneut.

NO_SUCH_CONSTRAINT_EXCEPTION

SQLSTATE: 42704

Die Einschränkung <constraint> wurde in <identifier>.

NO_SUCH_CREDENTIAL_EXCEPTION

SQLSTATE: KD000

Die Anmeldeinformationen „<credential>“ sind nicht vorhanden. Vergewissern Sie sich, dass der Anmeldeinformationsname richtig geschrieben ist und dem Namen einer gültigen vorhandenen Anmeldeinformation entspricht, und wiederholen Sie dann die Abfrage oder den Befehl erneut.

NO_SUCH_EXTERNAL_LOCATION_EXCEPTION

SQLSTATE: nicht zugewiesen

Der externe Speicherort '<externalLocation>' ist nicht vorhanden. Vergewissern Sie sich, dass der Name des externen Speicherorts korrekt ist, und wiederholen Sie dann die Abfrage oder den Befehl erneut.

NO_SUCH_METASTORE_EXCEPTION

SQLSTATE: nicht zugewiesen

Der Metaspeicher wurde nicht gefunden. Bitten Sie Ihren Kontoadministrator, dem aktuellen Arbeitsbereich einen Metastore zuzuweisen, und wiederholen Sie dann die Abfrage oder den Befehl erneut.

NO_SUCH_PROVIDER_EXCEPTION

SQLSTATE: nicht zugewiesen

Der Freigabeanbieter <providerName> ist nicht vorhanden. Überprüfen Sie, ob der Name des Freigabeanbieters richtig geschrieben ist und dem Namen eines gültigen vorhandenen Anbieternamens entspricht, und wiederholen Sie dann die Abfrage oder den Befehl erneut.

NO_SUCH_RECIPIENT_EXCEPTION

SQLSTATE: nicht zugewiesen

Der Empfänger '<recipient>' ist nicht vorhanden. Vergewissern Sie sich, dass der Empfängername richtig geschrieben ist und dem Namen eines gültigen vorhandenen Empfängers entspricht, und wiederholen Sie dann die Abfrage oder den Befehl erneut.

NO_SUCH_SHARE_EXCEPTION

SQLSTATE: nicht zugewiesen

Die Freigabe <share> ist nicht vorhanden. Überprüfen Sie, ob der Freigabename richtig geschrieben ist und dem Namen einer gültigen vorhandenen Freigabe entspricht, und wiederholen Sie dann die Abfrage oder den Befehl erneut.

NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION

SQLSTATE: nicht zugewiesen

Die Speicheranmeldeinformationen <storageCredential> sind nicht vorhanden. Überprüfen Sie, ob der Name der Speicheranmeldeinformationen richtig geschrieben ist und dem Namen einer gültigen vorhandenen Speicheranmeldeinformation entspricht, und wiederholen Sie dann die Abfrage oder den Befehl erneut.

NO_SUCH_USER_EXCEPTION

SQLSTATE: nicht zugewiesen

Der Benutzer '<userName>' ist nicht vorhanden. Vergewissern Sie sich, dass der Benutzer, dem Sie die Berechtigung erteilen oder den Besitz ändern, richtig geschrieben ist und dem Namen eines gültigen vorhandenen Benutzers entspricht, und wiederholen Sie dann die Abfrage oder den Befehl erneut.

NO_UDF_INTERFACE

SQLSTATE: 38000

UDF-Klasse <className> implementiert keine UDF-Schnittstelle.

NULLABLE_COLUMN_OR_FIELD

SQLSTATE: 42000

Die Spalte oder das Feld <name> lässt Nullwerte zu, obwohl keine Nullwerte zugelassen werden dürfen.

NULLABLE_ROW_ID_ATTRIBUTES

SQLSTATE: 42000

Zeilen-ID-Attribute dürfen nicht nullfähig sein: <nullableRowIdAttrs>.

NULL_DATA_SOURCE_OPTION

SQLSTATE: 22024

Die Option "Lese-/Schreibzugriff der Datenquelle" <option> darf keinen Nullwert aufweisen.

NULL_MAP_KEY

SQLSTATE: 2200E

Null kann nicht als Schlüssel in einer Map verwendet werden.

NULL_QUERY_STRING_EXECUTE_IMMEDIATE

SQLSTATE: 22004

"Direkt ausführen" erfordert eine Nicht-NULL-Variable als Abfragezeichenfolge, die bereitgestellte Variable <varName> ist jedoch NULL.

NULL_VALUE_SIGNAL_STATEMENT

SQLSTATE: 22004

Signalargumente erfordern Nicht-Null-Werte, aber <argument> erhielt einen Nullwert.

NUMERIC_OUT_OF_SUPPORTED_RANGE

SQLSTATE: 22003

Der Wert kann nicht als numerischer Wert <value> interpretiert werden, da er mehr als 38 Ziffern aufweist.

NUMERIC_VALUE_OUT_OF_RANGE

SQLSTATE: 22003

Weitere Details finden Sie unter NUMERIC_VALUE_OUT_OF_RANGE.

NUM_COLUMNS_MISMATCH

SQLSTATE: 42826

<operator> kann nur bei Eingaben mit der gleichen Anzahl von Spalten ausgeführt werden, aber die erste Eingabe hat <firstNumColumns> Spalten und die <invalidOrdinalNum> Eingabe hat <invalidNumColumns> Spalten.

NUM_TABLE_VALUE_ALIASES_MISMATCH

SQLSTATE: 42826

Die Anzahl der angegebenen Aliase stimmt nicht mit der Anzahl der Ausgabespalten überein.

Funktionsname: <funcName>; Anzahl der Aliase: <aliasesNum>; Anzahl der Ausgabespalten: <outColsNum>.

OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED

SQLSTATE: 22KD2

Es wurde kein benutzerdefinierter Identitätsanspruch bereitgestellt.

ONLY_SECRET_FUNCTION_SUPPORTED_HERE

SQLSTATE: 42K0E

Das Aufrufen der Funktion <functionName> wird in diesem <location> nicht unterstützt. <supportedFunctions> wird hier unterstützt.

ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR

SQLSTATE: 0A000

SQL-Vorgang <operation> wird nur für Databricks SQL-Connectors mit Unity-Katalogunterstützung unterstützt.

OPERATION_CANCELED

SQLSTATE: HY008

Der Vorgang wurde abgebrochen.

OPERATION_REQUIRES_UNITY_CATALOG

SQLSTATE: 0AKUD

Für den Vorgang <operation> muss der Unity-Katalog aktiviert sein.

OP_NOT_SUPPORTED_READ_ONLY

SQLSTATE: 42KD1

<plan> wird im schreibgeschützten Sitzungsmodus nicht unterstützt.

ORDER_BY_POS_OUT_OF_RANGE

SQLSTATE: 42805

Position ORDER BY<index> ist nicht in der Auswahlliste enthalten (gültiger Bereich ist [1, <size>]).

PARQUET_CONVERSION_FAILURE

SQLSTATE: 42846

Für den Datentyp <dataType>, dessen Parketttyp <parquetType>ist, kann kein Parkettkonverter erstellt werden.

Weitere Details finden Sie unter PARQUET_CONVERSION_FAILURE.

PARQUET_TYPE_ILLEGAL

SQLSTATE: 42846

Unzulässiger Parquet-Typ: <parquetType>.

PARQUET_TYPE_NOT_RECOGNIZED

SQLSTATE: 42846

Unbekannter Parketttyp: <field>.

PARQUET_TYPE_NOT_SUPPORTED

SQLSTATE: 42846

Der Parketttyp <parquetType>wird noch nicht unterstützt.

PARSE_EMPTY_STATEMENT

SQLSTATE: 42617

Syntaxfehler, unerwartete leere Anweisung.

PARSE_MODE_UNSUPPORTED

SQLSTATE: 42601

Die Funktion <funcName> unterstützt den <mode> Modus nicht. Akzeptable Modi sind PERMISSIVE und FAILFAST.

PARSE_SYNTAX_ERROR

SQLSTATE: 42601

Syntaxfehler bei oder in der Nähe von <error> <hint>.

PARTITIONS_ALREADY_EXIST

SQLSTATE: 428FT

Partitionen können nicht mit ADD oder RENAME TO <partitionList> zu Tabelle <tableName> hinzugefügt werden, da sie bereits vorhanden sind.

Wählen Sie einen anderen Namen aus, legen Sie die vorhandene Partition ab, oder fügen Sie die IF NOT EXISTS Klausel hinzu, um eine bereits vorhandene Partition zu tolerieren.

PARTITIONS_NOT_FOUND

SQLSTATE: 428FT

Die Partition(en) <partitionList> können in Tabelle <tableName>nicht gefunden werden.

Überprüfen Sie die Partitionsspezifikation und den Tabellennamen.

Um den Fehler beim „Drop“ zu tolerieren, verwenden Sie ALTER TABLE ... DROP IF EXISTS PARTITION.

PARTITION_COLUMN_NOT_FOUND_IN_SCHEMA

SQLSTATE: 42000

Partitionsspalte <column> in Schema-<schema>nicht gefunden. Geben Sie die vorhandene Spalte für die Partitionierung an.

PARTITION_LOCATION_ALREADY_EXISTS

SQLSTATE: 42K04

Partitionsspeicherort <locationPath> ist bereits in Tabelle <tableName>vorhanden.

PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY

SQLSTATE: 42KD5

Fehler beim Ausführen der ALTER TABLE SET PARTITION LOCATION-Anweisung, da der

Der Partitionsspeicherort <location> befindet sich nicht unter dem Tabellenverzeichnis <table>.

Um dies zu beheben, legen Sie den Speicherort der Partition auf ein Unterverzeichnis von <table>fest.

PARTITION_METADATA

SQLSTATE: 0AKUC

<action> ist für die Tabelle <tableName> nicht zulässig, da das Speichern von Partitionsmetadaten im Unity-Katalog nicht unterstützt wird.

PARTITION_NUMBER_MISMATCH

SQLSTATE: KD009

Die Anzahl der Werte (<partitionNumber>) stimmt nicht mit der Schemagröße überein (<partitionSchemaSize>): Werte sind <partitionValues>, Schema ist <partitionSchema>, Dateipfad ist <urlEncodedPath>.

Materialisieren Sie die Tabelle neu, oder wenden Sie sich an die Person, die sie besitzt.

PARTITION_TRANSFORM_EXPRESSION_NOT_IN_PARTITIONED_BY

SQLSTATE: 42S23

Der Ausdruck <expression> muss sich innerhalb von "partitionedBy" befinden.

PATH_ALREADY_EXISTS

SQLSTATE: 42K04

Der Pfad <outputPath> ist bereits vorhanden. Legen Sie den Modus als "überschreiben" fest, um den vorhandenen Pfad zu überschreiben.

PATH_NOT_FOUND

SQLSTATE: 42K03

Pfad ist nicht vorhanden: <path>.

PATH_RESOLUTION_ERROR

SQLSTATE: KD013

Pfad <path>konnte nicht aufgelöst werden. Verursacht durch: <causedBy>

PHOTON_DESERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED

SQLSTATE: 54000

Die Deserialisierung des Photon-protobuf-Plans erfordert mindestens <size> Bytes, was den

Grenzwert von <limit> Bytes überschreitet. Dies könnte auf einen sehr großen Plan oder das Vorhandensein eines solchen zurückzuführen sein.

breites Schema. Versuchen Sie, die Abfrage zu vereinfachen, unnötige Spalten zu entfernen oder Photon zu deaktivieren.

PHOTON_SERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED

SQLSTATE: 54000

Der serialisierte Photon-protobuf-Plan hat eine Größe von <size> Bytes, die den Grenzwert von

<limit> Bytes überschreitet. Die serialisierte Größe von Datentypen im Plan ist <dataTypeSize> Bytes.

Dies kann auf einen sehr großen Plan oder das Vorhandensein eines sehr breiten Schemas zurückzuführen sein.

Erwägen Sie das Umschreiben der Abfrage, um unerwünschte Vorgänge und Spalten zu entfernen oder Photon zu deaktivieren.

PIPELINE_DATASET_WITHOUT_FLOW

SQLSTATE: 0A000

Das Pipeline-Dataset <identifier> enthält keine definierten Flüsse. Fügen Sie eine Abfrage mit der Definition des Datasets an, oder definieren Sie explizit mindestens einen Fluss, der in das Dataset schreibt.

PIPELINE_DOES_NOT_EXIST

SQLSTATE: 42K03

Pipeline „<pipelineId>“ existiert nicht

Weitere Informationen finden Sie unter PIPELINE_DOES_NOT_EXIST

PIPELINE_DUPLICATE_IDENTIFIERS

SQLSTATE: 42710

Für Elemente, die im Datenflussdiagramm der Pipeline registriert sind, wurde ein doppelter Bezeichner gefunden.

Weitere Informationen finden Sie unter PIPELINE_DUPLICATE_IDENTIFIERS

FEHLER BEI DER REGISTRIERUNG DES PIPELINE-SQL-GRAPH-ELEMENTS

SQLSTATE: 42000

<message>

<offendingQuery>

<codeLocation>

PIPELINE_STORAGE_ROOT_INVALID

SQLSTATE: 42K03

Der Pipelinespeicherstamm muss ein absoluter Pfad mit einem URI-Schema sein (z. B. file://, s3a://, hdfs://). Got: <storage_root>.

PIPE_OPERATOR_AGGREGATE_EXPRESSION_CONTAINS_NO_AGGREGATE_FUNCTION

SQLSTATE: 0A000

Der nicht-gruppierende Ausdruck <expr> wird als Argument an den |>AGGREGATE Pipe-Operator übergeben, enthält jedoch keine Aggregatfunktion. Bitte aktualisieren Sie den Ausdruck, um eine Aggregatfunktion einzuschließen, und wiederholen Sie die Abfrage.

PIPE_OPERATOR_CONTAINS_AGGREGATE_FUNCTION

SQLSTATE: 0A000

Die Aggregatfunktion <expr> ist nicht zulässig, wenn Sie den Pipeoperator |><clause> -Klausel verwenden. Verwenden Sie stattdessen den Pipeoperator |>AGGREGATE -Klausel.

PIVOT_VALUE_DATA_TYPE_MISMATCH

SQLSTATE: 42K09

Ungültiger Pivotwert '<value>':Datentyp des Werts <valueType> stimmt nicht mit dem Datentyp der Pivotspalte überein <pivotType>.

POLICY_ALREADY_EXISTS

SQLSTATE: 42000

Richtlinie <policyName> kann nicht erstellt werden, da sie bereits vorhanden ist.

Wählen Sie einen anderen Namen aus, oder legen Sie die vorhandene Richtlinie ab, um bereits vorhandene Verbindungen zu tolerieren.

POLICY_NOT_FOUND

SQLSTATE: 22023

Der Befehl <commandType> kann nicht ausgeführt werden, da die Richtlinie <policyName> auf <securableFullname> nicht gefunden werden kann.

Überprüfen Sie die Rechtschreibung und Korrektheit.

POLICY_ON_SECURABLE_TYPE_NOT_SUPPORTED

SQLSTATE: 42000

Die Richtlinie für den sicherungsfähigen Typ <securableType> kann nicht erstellt werden. Unterstützte sicherungsfähige Typen: <allowedTypes>.

PREVIEW_FEATURE_NOT_ENABLED

SQLSTATE: 56038

Das Vorschaufeature <featureName> ist nicht aktiviert. Wenden Sie sich an Ihren Arbeitsbereichsadministrator, um dieses Feature über das Vorschauportal zu aktivieren.

PROCEDURE_ARGUMENT_NUMBER_MISMATCH

SQLSTATE: 42605

Die Prozedur <procedureName> erwartet <expected> Argumente, <actual> wurden jedoch bereitgestellt.

PROCEDURE_CREATION_EMPTY_ROUTINE

SQLSTATE: 0A000

CREATE PROCEDURE mit einer leeren Routinedefinition ist nicht zulässig.

PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT

SQLSTATE: 42601

Der Parameter <parameterName> wird mit dem Parametermodus <parameterMode>definiert. OUT und INOUT Parameter können beim Aufrufen einer Routine nicht weggelassen werden und unterstützen DEFAULT daher keinen Ausdruck. Um fortzufahren, entfernen Sie die DEFAULT-Klausel, oder ändern Sie den Parametermodus in IN.

PROCEDURE_NOT_SUPPORTED

SQLSTATE: 0A000

Die gespeicherte Prozedur wird nicht unterstützt

PROCEDURE_NOT_SUPPORTED_WITH_HMS

SQLSTATE: 0A000

Gespeicherte Prozeduren werden vom Hive-Metastore nicht unterstützt. Verwenden Sie stattdessen Unity-Katalog.

PROTOBUF_DEPENDENCY_NOT_FOUND

SQLSTATE: 42K0G

Die Abhängigkeit <dependencyName> wurde nicht gefunden.

PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND

SQLSTATE: 42K0G

Fehler beim Lesen der Protobuf-Deskriptordatei unter Pfad: <filePath>.

PROTOBUF_FIELD_MISSING

SQLSTATE: 42K0G

Die Suche nach <field> im Protobuf-Schema bei <protobufSchema> hat <matchSize> Übereinstimmungen ergeben. Kandidaten: <matches>.

PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA

SQLSTATE: 42K0G

Es wurde <field> im Protobuf-Schema gefunden, aber es gibt keine Übereinstimmung im SQL-Schema.

PROTOBUF_FIELD_TYPE_MISMATCH

SQLSTATE: 42K0G

Für Feld <field> wurde ein Typenkonflikt gefunden.

PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED

SQLSTATE: 0A000

Java-Klassen werden für <protobufFunction>nicht unterstützt. Wenden Sie sich an den Databricks-Support über alternative Optionen.

PROTOBUF_MESSAGE_NOT_FOUND

SQLSTATE: 42K0G

Die Nachricht <messageName> konnte im Deskriptor nicht gefunden werden.

PROTOBUF_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE

SQLSTATE: 22KD3

Die <functionName> SQL-Funktion kann nicht aufgerufen werden, da die Protobuf-Datenquelle nicht geladen wird.

Starten Sie den Auftrag oder die Sitzung neu, indem Sie das Paket "spark-protobuf" laden, zum Beispiel mit dem Argument "--packages" in der Befehlszeile, und wiederholen Sie dann die Abfrage oder den Befehl erneut.

PROTOBUF_TYPE_NOT_SUPPORT

SQLSTATE: 42K0G

Der Protobuf-Typ <protobufType> wird noch nicht unterstützt.

PS_FETCH_RETRY_EXCEPTION

SQLSTATE: 22000

Die Aufgabe in der PubSub-Abrufstage kann nicht wiederholt werden. Partition <partitionInfo> in Stage <stageInfo>, TID <taskId>.

PS_INVALID_EMPTY_OPTION

SQLSTATE: 42000

<key> kann keine leere Zeichenfolge sein.

PS_INVALID_KEY_TYPE

SQLSTATE: 22000

Ungültiger Schlüsseltyp für PubSub Dedup: <key>.

PS_INVALID_OPTION

SQLSTATE: 42000

Die Option <key> wird von PubSub nicht unterstützt. Sie kann nur in Tests verwendet werden.

PS_INVALID_OPTION_TYPE

SQLSTATE: 42000

Ungültiger Typ für <key>. Erwarteter Typ von <key> soll Typ <type>sein.

PS_INVALID_READ_LIMIT

SQLSTATE: 42000

Ungültiger Lesegrenzwert für PubSub-Datenstrom: <limit>.

PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO

SQLSTATE: 22000

Ungültige UnsafeRow zum Decodieren in PubSubMessageMetadata. Gewünschtes Protokollschema: <protoSchema>. Die Eingabe "UnsafeRow" ist möglicherweise beschädigt: <unsafeRow>.

PS_INVALID_WORKLOAD_IDENTITY_FEDERATION_AUDIENCE_OPTION

SQLSTATE: 42000

Die Abfrage oder der Befehl ist aufgrund einer ungültigen Leseoption fehlgeschlagen: in spark.readStream.format("pubsub").option(„workloadIdentityFederation.audience“, <audience>). Aktualisieren Sie <audience> , um dem folgenden Format zu entsprechen: //iam.googleapis.com/projects/{PROJECT_NUMBER}/locations/global/workloadIdentityPools/{POOL_ID}/providers/{PROVIDER_ID} und wiederholen Sie dann die Abfrage oder den Befehl erneut.

PS_MISSING_AUTH_INFO

SQLSTATE: 42000

Fehler beim Auffinden vollständiger PubSub-Authentifizierungsinformationen.

PS_MISSING_REQUIRED_OPTION

SQLSTATE: 42000

Erforderliche Option konnte nicht gefunden werden: <key>.

PS_MOVING_CHECKPOINT_FAILURE

SQLSTATE: 22000

Fehler beim Verschieben von Rohdaten-Prüfpunktdateien aus <src> in das Zielverzeichnis: <dest>.

PS_MULTIPLE_AUTH_OPTIONS

SQLSTATE: 42000

Geben Sie entweder Ihre Databricks-Dienstanmeldeinformationen oder Ihre GCP-Dienstkontoanmeldeinformationen an.

PS_MULTIPLE_FAILED_EPOCHS

SQLSTATE: 22000

Der PubSub-Stream kann nicht gestartet werden, da mehr als ein fehler beim Abrufen vorhanden ist: <failedEpochs>.

PS_OPTION_NOT_IN_BOUNDS

SQLSTATE: 22000

<key> muss innerhalb der folgenden Grenzen (<min>, <max>) ausschließlich der beiden Grenzen stehen.

PS_PROVIDE_CREDENTIALS_WITH_OPTION

SQLSTATE: 42000

Freigegebene Cluster unterstützen keine Authentifizierung mit Instanzprofilen. Geben Sie Anmeldeinformationen mithilfe von „.option()“ direkt für den Stream an.

PS_SPARK_SPECULATION_NOT_SUPPORTED

SQLSTATE: 0A000

Der PubSub-Quell-Connector ist nur in einem Cluster verfügbar, in dem spark.speculation deaktiviert ist.

PS_UNABLE_TO_CREATE_SUBSCRIPTION

SQLSTATE: 42000

Fehler beim Versuch, ein Abonnement <subId> zu Thema <topicId>zu erstellen. Überprüfen Sie, ob ausreichende Berechtigungen zum Erstellen eines Abonnements vorhanden sind, und versuchen Sie es erneut.

PS_UNABLE_TO_PARSE_PROTO

SQLSTATE: 22000

Serialisierte Bytes können nicht geparst werden, um das Protokoll zu generieren.

PS_UNSUPPORTED_GET_OFFSET_CALL

SQLSTATE: 0A000

getOffset wird nicht unterstützt, ohne einen Grenzwert zu liefern.

PYTHON_DATA_SOURCE_ERROR

SQLSTATE: 38000

Fehler bei der <action>-Python-Datenquelle <type>: <msg>

PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR

SQLSTATE: 38000

Fehler beim Ausführen der Python-Streamingdatenquelle <action>: <msg>

QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY

SQLSTATE: 428HD

Auf die referenzierte Tabelle kann nicht zugegriffen werden, da eine zuvor zugewiesene Spaltenmaske derzeit mit dem Tabellenschema nicht kompatibel ist; um den Vorgang fortzusetzen, wenden Sie sich bitte an den Eigentümer der Tabelle, um die Richtlinie zu aktualisieren.

Weitere Details finden Sie unter QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY.

QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY

SQLSTATE: 428HD

Auf referenzierte Tabelle kann nicht zugegriffen werden, da derzeit eine zuvor zugewiesene Sicherheitsrichtlinie auf Zeilenebene mit dem Tabellenschema nicht kompatibel ist. um den Vorgang fortzusetzen, wenden Sie sich bitte an den Besitzer der Tabelle, um die Richtlinie zu aktualisieren:

Weitere Details finden Sie unter QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY.

QUERY_EXECUTION_TIMEOUT_EXCEEDED

SQLSTATE: 57KD0

Die Abfrageausführung wurde aufgrund einer Überschreitung des Timeouts (<timeoutSec>s) abgebrochen. Sie können den Grenzwert in Sekunden erhöhen, indem Sie <config>festlegen.

QUERY_INCOMPATIBLE_WITH_RLSCM_POLICY

SQLSTATE: 0AKUC

Siehe go/rowcolumncontrols-allowlist. LogicalPlan <unknownLogicalPlan> ist nicht mit der RLS/CM-Richtlinie kompatibel.

QUERY_REJECTED

SQLSTATE: 08004

Die Abfrageausführung wurde abgelehnt.

QUERY_RESULT_WRITE_TO_CLOUD_STORE_PERMISSION_ERROR

SQLSTATE: 42501

Die interne Speicherkonfiguration des Arbeitsbereichs verhindert, dass Databricks auf den Cloudspeicher zugreift.

QUERY_TAGS_NOT_IMPLEMENTED_ERROR

SQLSTATE: 0A000

Abfragetags werden in SQL noch nicht unterstützt.

QUERY_TAGS_SYNTAX_INVALID

SQLSTATE: 42000

Ungültiges Format für SET QUERY_TAGS Befehl.

QUERY_TAG_KEY_INVALID

SQLSTATE: 42000

Fehler bei der Überprüfung des Abfragetagschlüssels "<key>".

QUERY_TAG_KEY_MAY_NOT_BE_EMPTY

SQLSTATE: 2200E

Der Abfragetagschlüssel ist möglicherweise nicht null oder leer. Führende und nachfolgende Leerzeichen werden auf Schlüssel und Werte gekürzt.

QUERY_TAG_MAX_COUNT_EXCEEDED

SQLSTATE: 54KD1

Die Anzahl der Abfragetags wurde pro Sitzungslimit von <tagLimit> Tags maximal überschritten.

QUERY_TAG_VALUE_INVALID

SQLSTATE: 42000

Fehler bei der Überprüfung des Abfragetagwerts '<value>'.

QUERY_WATCHDOG_CHECK_FAILED

SQLSTATE: 42000

Fehler bei der Abfrageüberwachungsüberprüfung.

Weitere Informationen finden Sie unter QUERY_WATCHDOG_CHECK_FAILED

READ_CURRENT_FILE_NOT_FOUND

SQLSTATE: 42K03

<message>

Es ist möglich, dass die zugrunde liegenden Dateien aktualisiert wurden. Sie können den Cache in Spark explizit ungültig machen, indem Sie den Befehl "REFRESH TABLE tableName" in SQL ausführen oder das dataset/DataFrame neu erstellen.

READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS

SQLSTATE: 4274K

Der Aufruf der Funktion <functionName> hat <parameterName> und <alternativeName> festgelegt, die gegenseitige Aliase sind. Bitte legen Sie nur einen davon fest.

READ_FILES_CREDENTIALS_PARSE_ERROR

SQLSTATE: 42000

Fehler beim Analysieren der temporären Anmeldeinformationen der funktion read_files()

Weitere Informationen finden Sie unter READ_FILES_CREDENTIALS_PARSE_ERROR.

READ_TVF_UNEXPECTED_REQUIRED_PARAMETER

SQLSTATE: 4274K

Der erforderliche Parameter <functionName> für die Funktion <parameterName> muss an der Position <expectedPos> ohne den Namen zugewiesen werden.

RECIPIENT_EXPIRATION_NOT_SUPPORTED

SQLSTATE: 0A000

Nur TIMESTAMP/TIMESTAMP_LTZ/TIMESTAMP_NTZ-Typen werden für den Ablaufzeitstempel des Empfängers unterstützt.

RECURSION_LEVEL_LIMIT_EXCEEDED

SQLSTATE: 42836

Der Grenzwert für rekursionsebene <levelLimit> wurde erreicht, aber die Abfrage ist nicht erschöpft, versuchen Sie, sie wie 'WITH RECURSIVE t(col) MAX RECURSION LEVEL 200' zu erhöhen.

RECURSION_ROW_LIMIT_EXCEEDED

SQLSTATE: 42836

Rekursionszeilenlimit <rowLimit> erreicht, Abfrage jedoch nicht erschöpft, versuchen Sie, einen größeren LIMIT-Wert festzulegen, wenn Sie die CTE-Relation abfragen.

RECURSIVE_CTE_IN_LEGACY_MODE

SQLSTATE: 42836

Rekursive Definitionen können nicht im älteren CTE-Rangfolgemodus (spark.sql.legacy.ctePrecedencePolicy=LEGACY) verwendet werden.

RECURSIVE_CTE_WITH_LEGACY_INLINE_FLAG

SQLSTATE: 42836

Rekursive Definitionen können nicht verwendet werden, wenn das Legacy-Inlinekennzeichen auf "true" festgelegt ist (spark.sql.legacy.inlineCTEInCommands=true).

RECURSIVE_PROTOBUF_SCHEMA

SQLSTATE: 42K0G

Rekursive Referenz im Protobuf-Schema gefunden, das von Spark standardmäßig nicht verarbeitet werden kann: <fieldDescriptor>. versuchen Sie, die Option recursive.fields.max.depth 1 bis 10 festzulegen. Es ist nicht zulässig, über 10 Rekursionsebenen hinauszugehen.

RECURSIVE_VIEW

SQLSTATE: 42K0H

Rekursive Ansicht <viewIdent> erkannt (Zyklus: <newPath>).

REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION

SQLSTATE: 42601

Verweise auf DEFAULT Spaltenwerte sind in der PARTITION-Klausel nicht zulässig.

RELATION_LARGER_THAN_8G

SQLSTATE: 54000

Eine <relationName>, die größer als 8G ist, kann nicht erstellt werden.

REMAINDER_BY_ZERO

SQLSTATE: 22012

Rest um Null. Verwenden Sie try_mod, um divisor 0 zu tolerieren und stattdessen NULL zurückzugeben. Legen Sie <config> bei Bedarf auf "false" fest, um diesen Fehler zu umgehen.

REMOTE_FUNCTION_HTTP_FAILED_ERROR

SQLSTATE: 57012

Fehler bei der Remote-HTTP-Anforderung mit code <errorCode>und Fehlermeldung <errorMessage>

REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR

SQLSTATE: 22032

Fehler beim Auswerten der <functionName> SQL-Funktion aufgrund der Unfähigkeit, das JSON Ergebnis aus der Remote-HTTP-Antwort zu analysieren; die Fehlermeldung lautet <errorMessage>. Überprüfen Sie die API-Dokumentation: <docUrl>. Beheben Sie das in der Fehlermeldung angegebene Problem, und wiederholen Sie die Abfrage erneut.

REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR

SQLSTATE: 57012

Fehler beim Auswerten der <functionName> SQL-Funktion, weil die unerwartete Remote-HTTP-Antwort nicht verarbeitet werden konnte. Die Fehlermeldung ist <errorMessage>. Überprüfen Sie die API-Dokumentation: <docUrl>. Beheben Sie das in der Fehlermeldung angegebene Problem, und wiederholen Sie die Abfrage erneut.

REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT

SQLSTATE: 57012

Fehler bei der Remoteanforderung nach <N> Wiederholungsversuchen. Der letzte HTTP-Fehlercode war <errorCode>, und die Meldung lautete <errorMessage>

REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR

SQLSTATE: 57012

Fehler beim Auswerten der SQL-Funktion <functionName> aufgrund von <errorMessage>. Überprüfen Sie die Anforderungen in <docUrl>. Beheben Sie das in der Fehlermeldung angegebene Problem, und wiederholen Sie die Abfrage erneut.

REMOTE_QUERY_FUNCTION_UNSUPPORTED_CONNECTOR_PARAMETERS

SQLSTATE: 4274K

Parameter <parameterNames> werden für die remote_query-Funktion nicht unterstützt, die eine Verbindung vom Typ "" vom Typ "<connectionName><connectionType>" abfragt.

Weitere Informationen finden Sie unter REMOTE_QUERY_FUNCTION_UNSUPPORTED_CONNECTOR_PARAMETERS.

RENAME_SRC_PATH_NOT_FOUND

SQLSTATE: 42K03

Fehler beim Umbenennen, da <sourcePath> nicht gefunden wurde.

REPEATED_CLAUSE

SQLSTATE: 42614

Die <clause>-Klausel kann höchstens einmal pro <operation> Vorgang verwendet werden.

REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY

SQLSTATE: 4274K

Der erforderliche Parameter <routineName> der Routine <parameterName> wurde an Position <positionalIndex> ohne den Namen zugewiesen.

Aktualisieren Sie den Funktionsaufruf, um entweder das benannte Argument mit <parameterName> für diesen Parameter zu entfernen oder das positionsbezogene Argument zu entfernen.

Positionsargument bei <positionalIndex> und versuchen Sie es dann nochmal.

REQUIRED_PARAMETER_NOT_FOUND

SQLSTATE: 4274K

Routine-<routineName> kann nicht aufgerufen werden, da der Parameter mit dem Namen <parameterName> erforderlich ist, aber der Routineaufruf hat keinen Wert angegeben. Aktualisieren Sie den Routineaufruf, um einen Argumentwert anzugeben (entweder positional bei Index <index> oder nach Name), und wiederholen Sie die Abfrage erneut.

REQUIRES_EXPLICIT_NAME_IN_WATERMARK_CLAUSE

SQLSTATE: 42000

Für die Wasserzeichenklausel ist ein expliziter Name erforderlich, wenn der Ausdruck angegeben ist, aber erhalten <sqlExpr>.

REQUIRES_SINGLE_PART_NAMESPACE

SQLSTATE: 42K05

<sessionCatalog> erfordert einen einzelteiligen Namespace, hat aber <namespace>.

RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT

SQLSTATE: 4274K

Die DataFrame-API-Leseoption „rescuedDataColumn“ und die DataFrame-API-Option „singleVariantColumn“ schließen sich gegenseitig aus.

Entfernen Sie einen dieser Elemente, und wiederholen Sie dann den DataFrame-Vorgang erneut.

RESERVED_CDC_COLUMNS_ON_WRITE

SQLSTATE: 42939

Der Schreibvorgang umfasst reservierte Spalten <columnList>, die genutzt werden.

intern als Metadaten für den Änderungsdatenfeed verwendet werden. Zum Schreiben in die Tabelle müssen Sie diese Spalten entweder umbenennen/entfernen

oder den Änderungsdatenfeed in der Tabelle deaktivieren, indem

<config> auf FALSCH festgelegt wird.

RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED

SQLSTATE: 0A000

Die Option <option> hat eingeschränkte Werte bei gemeinsamen Clustern für die Quelle <source>.

Weitere Details finden Sie unter RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED.

ROUTINE_ALREADY_EXISTS

SQLSTATE: 42723

Die <newRoutineType> <routineName> kann nicht erstellt werden, da bereits ein <existingRoutineType> mit diesem Namen vorhanden ist.

Wählen Sie einen anderen Namen aus, legen Sie den vorhandenen <existingRoutineType>ab, oder fügen Sie die IF NOT EXISTS Klausel hinzu, um eine bereits vorhandene <newRoutineType>zu tolerieren.

ROUTINE_NOT_FOUND

SQLSTATE: 42883

Die Routine <routineName> kann nicht gefunden werden. Überprüfen Sie die Rechtschreibung und Korrektheit des Schemas und Katalogs.

Wenn Sie den Namen nicht mit einem Schema und Katalog qualifiziert haben, überprüfen Sie die ausgabe current_schema() oder qualifizieren Sie den Namen mit dem richtigen Schema und Katalog.

Tolerieren sie den Fehler bei der Drop-Verwendung DROP...IF EXISTS.

ROUTINE_PARAMETER_NOT_FOUND

SQLSTATE: 42000

Die Routine <routineName> unterstützt den an Position <parameterName>angegebenen Parameter <pos> nicht.<suggestion>

ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME

SQLSTATE: 42939

Die Funktion <routineName> kann nicht erstellt werden, da der angegebene Klassenname '<className>' für die Systemverwendung reserviert ist. Benennen Sie den Kurs um, und versuchen Sie es erneut.

ROW_LEVEL_SECURITY_ABAC_MISMATCH

SQLSTATE: 0A000

Für <tableName> konnten die Zeilenfilter nicht aufgelöst werden, weil es einen Unterschied zwischen den von Richtlinien geerbten Zeilenfiltern und den explizit definierten Zeilenfiltern gab. Um fortzufahren, deaktivieren Sie bitte die Attributbasierte Zugriffssteuerung (Attribute Based Access Control, ABAC), und wenden Sie sich an den Databricks-Support.

ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED

SQLSTATE: 0A000

Das Erstellen einer CHECK-Einschränkung an der Tabelle <tableName> mit Sicherheitsrichtlinien auf Zeilenebene wird nicht unterstützt.

ROW_LEVEL_SECURITY_COLUMN_MASK_UNRESOLVED_REFERENCE_COLUMN

SQLSTATE: 42703

Eine Spalte mit Namen <objectName>, auf die in einem Zeilenfilter- oder Spaltenmaskenfunktionsparameter verwiesen wird, kann nicht aufgelöst werden.

Dies kann passieren, wenn sich das zugrunde liegende Tabellenschema geändert hat und die spalte, auf die verwiesen wird, nicht mehr vorhanden ist.

Dies kann beispielsweise auftreten, wenn die Spalte in einem externen System entfernt wurde (z. B. eine Verbundtabelle), oder wenn ein REPLACE Vorgang in der Tabelle die Spalte gelöscht hat.

Um dies zu beheben, können Benutzer mit Verwaltungsrechten in der Tabelle die aktuellen Zeilenfilter und Spaltenmasken mithilfe DESCRIBE TABLE EXTENDEDvon Und ablegen oder erneut erstellen, die auf nicht vorhandene Spalten verweisen, indem SIE ZEILE FILTER oder MASK verwenden/ALTER TABLESET...DROP.

Hinweis: Databricks hat eine Sicherheitsverbesserung eingeführt, um Spaltenmasken während des REPLACE Betriebs beizubehalten, wenn das neue Schema dieselbe Spalte enthält, auch wenn die Maske nicht angegeben ist. Dadurch wird ein unbeabsichtigter Richtlinienverlust in Tabellen verhindert.

ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME

SQLSTATE: 42734

Eine <statementType>-Anweisung hat versucht, einer Tabelle eine Sicherheitsrichtlinie auf Zeilenebene zuzuweisen, aber zwei oder mehr spalten, auf die verwiesen wird, weisen denselben Namen <columnName>auf, was ungültig ist.

ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED

SQLSTATE: 0A000

Sicherheitsrichtlinien auf Zeilenebene für <tableName> werden nicht unterstützt:

Weitere Details finden Sie unter ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED.

ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 0A000

<statementType> <columnName> in Tabelle <tableName> ist nicht möglich, da in einer Sicherheitsrichtlinie auf Zeilenebene darauf verwiesen wird. Die Person im Besitz der Tabelle muss vor dem Fortfahren diese Richtlinie entfernen oder ändern.

ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE

SQLSTATE: 0A000

MERGE INTO-Vorgänge unterstützen keine Sicherheitsrichtlinien auf Zeilenebene in Quelltabelle <tableName>.

ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET

SQLSTATE: 0A000

MERGE INTO-Vorgänge unterstützen das Schreiben in die Tabelle <tableName> mit Sicherheitsrichtlinien auf Zeilenebene nicht.

ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME

SQLSTATE: 42K05

Diese Anweisung versuchte, einer Tabelle eine Sicherheitsrichtlinie auf Zeilenebene zuzuweisen, aber der Verweis auf Spalte <columnName> hatte mehrere Namensbestandteile, was ungültig ist.

ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG

SQLSTATE: 0A000

Sicherheitsrichtlinien auf Zeilenebene werden nur im Unity-Katalog unterstützt.

ROW_LEVEL_SECURITY_SECONDARY_INDEX_CREATION_UNSUPPORTED

SQLSTATE: 0A000

Sekundärer Index ON TABLE <tableName> kann nicht erstellt werden, da die Tabelle eine Sicherheitsrichtlinie auf Zeilenebene definiert hat.

ROW_LEVEL_SECURITY_SHOW_PARTITIONS_UNSUPPORTED

SQLSTATE: 0A000

SHOW PARTITIONS Befehl wird für<format> Tabellen mit Sicherheitsrichtlinie auf Zeilenebene nicht unterstützt.

ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED

SQLSTATE: 0A000

Ein <mode>-Klon aus der Tabelle <tableName> mit Sicherheitsrichtlinien auf Zeilenebene wird nicht unterstützt.

ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED

SQLSTATE: 0A000

Ein <mode>-Klon in die Tabelle <tableName> mit Sicherheitsrichtlinien auf Zeilenebene wird nicht unterstützt.

ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER

SQLSTATE: 0AKD1

Die Verwendung einer Konstante als Parameter in einer Sicherheitsrichtlinie auf Zeilenebene wird nicht unterstützt. Aktualisieren Sie den SQL-Befehl, um die Konstante aus der Zeilenfilterdefinition zu entfernen, und wiederholen Sie dann den Befehl erneut.

ROW_LEVEL_SECURITY_UNSUPPORTED_DATA_TYPE

SQLSTATE: 0AKDC

Funktion <functionName> , die für die Sicherheitsrichtlinie auf Zeilenebene verwendet wird, hat Parameter mit nicht unterstützten Datentypen <dataType>.

ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER

SQLSTATE: 0A000

Fehler beim Ausführen des <statementType> Befehls, da die Zuweisung einer Sicherheitsrichtlinie auf Zeilenebene für die Zieldatenquelle mit dem Tabellenanbieter nicht unterstützt wird: "<provider>".

ROW_SUBQUERY_TOO_MANY_ROWS

SQLSTATE: 21000

Mehr als eine Zeile, die von einer Teilabfrage zurückgegeben wurden, werden als Zeile verwendet.

ROW_VALUE_IS_NULL

SQLSTATE: 22023

NULL wurde in einer Reihe beim Index <index> gefunden, erwartet wurde ein Wert, der nicht NULL ist.

RULE_ID_NOT_FOUND

SQLSTATE: 22023

Es wurde keine ID für den Regelnamen "<ruleName>" gefunden. Ändern Sie "RuleIdCollection.scala", wenn Sie eine neue Regel hinzufügen.

RUN_EMPTY_PIPELINE

SQLSTATE: 42617

Es wird erwartet, dass Pipelines mindestens ein nicht temporäres Dataset definiert haben (Tabellen, persistente Ansichten), aber keine nicht temporären Datasets in Ihrer Pipeline gefunden wurden.

Stellen Sie sicher, dass Sie die erwarteten Quelldateien eingeschlossen haben und dass Ihr Quellcode Tabellendefinitionen enthält (z CREATE MATERIALIZED VIEW . B. in SQL-Code, @dp.table in Python-Code).

SALESFORCE_DATA_SHARE_API_UNAUTHORIZED

SQLSTATE: 42505

Fehler bei der Autorisierung der Salesforce-Datenfreigabe-API. Stellen Sie sicher, dass die Verbindungsdetails von Databricks an das entsprechende Salesforce-Datenfreigabeziel bereitgestellt werden.

SAMPLE_TABLE_PERMISSIONS

SQLSTATE: 42832

Berechtigungen werden in Beispieldatenbanken/-tabellen nicht unterstützt.

SCALAR_FUNCTION_NOT_COMPATIBLE

SQLSTATE: 42K0O

ScalarFunction <scalarFunc> überschreibt die Methode „produceResult(InternalRow)“ nicht mit einer benutzerdefinierten Implementierung.

SCALAR_FUNCTION_NOT_FULLY_IMPLEMENTED

SQLSTATE: 42K0P

ScalarFunction <scalarFunc> implementiert oder überschreibt die Methode "produceResult(InternalRow)" nicht.

SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION

SQLSTATE: 0A000

Die korrelierte skalare Unterabfrage '<sqlExpr>' ist weder in GROUP BY vorhanden, noch in einer Aggregatfunktion.

Fügen Sie sie GROUP BY anhand der Ordnungsposition hinzu, oder umschließen Sie sie in first() (oder first_value), wenn der Ergebniswert nicht relevant ist.

SCALAR_SUBQUERY_TOO_MANY_ROWS

SQLSTATE: 21000

Mehrere Zeilen, die von einer Teilabfrage zurückgegeben wurden, werden als Ausdruck verwendet.

SCDS_COMMIT_LOG_UNAVAILABLE

SQLSTATE: KD006

Das Commitprotokoll ist nicht mit Prüfpunktspeicherort=<checkpointLocation>vorhanden.

SCDS_INVALID_OPTION_VALUE

SQLSTATE: 42616

Ungültiger Wert für Quelloption=<optionName> mit Fehlermeldung=<message>.

SCDS_OFFSET_LOG_UNAVAILABLE

SQLSTATE: KD006

Das Offsetprotokoll ist nicht mit Prüfpunktposition=<checkpointLocation>vorhanden.

SCDS_REQUIRED_OPTION_UNSPECIFIED

SQLSTATE: 42601

Fehler beim Angeben der erforderlichen Option=<optionName>.

SCHEDULE_ALREADY_EXISTS

SQLSTATE: 42710

Einer Tabelle, die bereits <scheduleType>hat, kann <existingScheduleType> nicht hinzugefügt werden. Bitte legen Sie den vorhandenen Zeitplan ab oder verwenden Sie ALTER TABLE...ALTER <scheduleType> ... sie zu ändern.

SCHEDULE_PERIOD_INVALID

SQLSTATE: 22003

Der Zeitplanzeitraum für <timeUnit> muss ein ganzzahliger Wert zwischen 1 und <upperBound> (einschließlich) sein. Empfangen: <actual>.

SCHEMA_ALREADY_EXISTS

SQLSTATE: 42P06

Schema-<schemaName> kann nicht erstellt werden, da es bereits vorhanden ist.

Wählen Sie einen anderen Namen aus, legen Sie das vorhandene Schema ab, oder fügen Sie die IF NOT EXISTS Klausel hinzu, um bereits vorhandene Schemas zu tolerieren.

SCHEMA_NOT_EMPTY

SQLSTATE: 2BP01

Ein Schema <schemaName> kann nicht gelöscht werden, da es Objekte enthält.

Wird verwendet DROP SCHEMA...CASCADE , um das Schema und alle zugehörigen Objekte abzulegen.

SCHEMA_NOT_FOUND

SQLSTATE: 42704

Das Schema <schemaName> wurde nicht gefunden. Überprüfen Sie die Rechtschreibung und Korrektheit des Schemas und Katalogs.

Wenn Sie den Namen nicht mit einem Katalog qualifiziert haben, überprüfen Sie die ausgabe current_schema() oder qualifizieren Sie den Namen mit dem richtigen Katalog.

Um den Fehler beim Trennen zu tolerieren, verwenden Sie DROP SCHEMA IF EXISTS.

SCHEMA_REGISTRY_CONFIGURATION_ERROR

SQLSTATE: 42K0G

Das Schema aus der Schemaregistrierung konnte nicht initialisiert werden. <reason>.

SEARCH_INDEX_CATALOG_SCHEMA_MISMATCH

SQLSTATE: 42000

Suchindex <indexName> im Katalog <indexCatalog> und Schema <indexSchema>kann nicht erstellt werden. Index muss im selben Katalog und Schema wie die Basistabelle <tableName> (<tableCatalog>erstellt werden.<tableSchema>).

SEARCH_INDEX_INVALID_PARAMETERS

SQLSTATE: 42K06

Suchindex kann nicht erstellt werden, ungültiger Parameter wird angegeben:

Weitere Informationen finden Sie unter SEARCH_INDEX_INVALID_PARAMETERS

SEARCH_INDEX_NAME_CONFLICTS_WITH_TABLE

SQLSTATE: 42P07

Die Tabelle mit dem Indexnamen <indexName> ist bereits vorhanden. Geben Sie einen benutzerdefinierten Indexnamen an, der nicht mit vorhandenen Tabellen in Konflikt steht.

SEARCH_INDEX_OUTDATED_SCHEMA

SQLSTATE: KD007

Der Suchindex <indexName> weist ein veraltetes Schema auf. Erstellen Sie den Index neu, indem Sie Folgendes verwenden:

DROP SEARCH INDEX <indexName>;

CREATE SEARCH INDEX <indexName> ON <tableName>(<columnsList>);

SEARCH_REQUIRES_SEARCHABLE_COLUMNS

SQLSTATE: 42809

<context> erfordert Spalten mit durchsuchbaren Typen (STRING COLLATE UTF8_BINARY, VARIANToder ARRAY).

Weitere Informationen finden Sie unter SEARCH_REQUIRES_SEARCHABLE_COLUMNS

SEARCH_REQUIRES_STRING_LITERALS_ARGUMENTS

SQLSTATE: 42804

SEARCH erfordert <argument> , dass das Argument Zeichenfolgenliterale sein muss, aber <actualExpr> angegeben wurde. <possibleOptionsMessage>

SECONDARY_INDEX_REQUIRES_MANAGED_TABLE

SQLSTATE: 42809

<operation> ON TABLE <tableName> nicht möglich. Der Vorgang kann nur für verwaltete Tabellen ausgeführt werden.

Verwenden Sie den ALTER TABLE <tableName> SET MANAGED Befehl, um eine Tabelle in eine verwaltete Tabelle zu konvertieren.

Weitere Informationen finden Sie unter https://docs.databricks.com/aws/en/tables/convert-external-managed

SECONDARY_INDEX_UNSUPPORTED_TABLE_FORMAT

SQLSTATE: 42809

Kann nicht <operation> ON TABLE <tableName>

Der Vorgang kann nur für Tabellen mit den folgenden Formaten ausgeführt werden: <supportedFormats>

Überprüfen Sie das Tabellenformat mit DESCRIBE DETAIL <tableName>.

Wenn das aktuelle Format Parkett oder Apache Iceberg ist, können Sie es dauerhaft mit CONVERT TO DELTA <tableName>konvertieren ; siehe https://docs.databricks.com/aws/en/sql/language-manual/delta-convert-to-delta

Erstellen Sie andernfalls die Tabelle in einem der unterstützten Formate neu.

SECOND_FUNCTION_ARGUMENT_NOT_INTEGER

SQLSTATE: 22023

Das zweite Argument der funktion <functionName> muss eine ganze Zahl sein.

SECRET_FUNCTION_INVALID_LOCATION

SQLSTATE: 42K0E

<commandType> Befehl mit mindestens einem nicht verschlüsselten Verweis auf die SECRET-Funktion kann nicht ausgeführt werden. verschlüsseln Sie das Ergebnis jedes solchen Funktionsaufrufs mit AES_ENCRYPT, und versuchen Sie es erneut.

SICHERBARES_ELEMENT_EXISTIERT_NICHT

SQLSTATE: 42P01

<securable> ist nicht vorhanden.

SEED_EXPRESSION_IS_UNFOLDABLE

SQLSTATE: 42K08

Der Ausgangsausdruck <seedExpr> des Ausdrucks <exprWithSeed> muss faltbar sein.

SERVER_IS_BUSY

SQLSTATE: 08KD1

Der Server ist ausgelastet und konnte die Anforderung nicht verarbeiten. Bitte warten Sie einen Moment, und versuchen Sie es erneut.

SET_QUERY_TAGS_SYNTAX_INVALID

SQLSTATE: 42000

Fehler beim Ausführen des SET Befehls, da die Syntax ungültig war. Die erwartete Syntax für diesen Befehl ist SET QUERY_TAGS oder SET QUERY_TAGS['key'] = 'value'. Korrigieren Sie den Befehl, um dieser Syntax zu entsprechen, und führen Sie ihn dann erneut aus.

SFTP_DEPRECATED_SSH_RSA_KEY_ALGORITHM

SQLSTATE: 08006

Der SFTP-Server <host>:<port> verwendet den veralteten SSH RSA-Algorithmus für den Schlüsselaustausch.

Erwägen Sie ein Upgrade des SFTP-Servers, um einen sichereren Algorithmus wie ECDSA z. B. ED25519 zu verwenden.

Alternativ können Sie diesen Fehler umgehen, indem Sie <escapeHatchConf> auf true setzen.

SFTP_UNABLE_TO_CONNECT

SQLSTATE: 08006

Fehler beim Herstellen einer Verbindung mit dem SFTP-Server <host> am Port <port> mit Benutzername <user>.

<error>

SFTP_UNKNOWN_HOST_KEY

SQLSTATE: 08006

Der Hostschlüssel des SFTP-Servers <host> ist unbekannt oder hat sich geändert.

Überprüfen Sie die folgende Fehlermeldung, und geben Sie dann den Schlüsselfingerabdruck im Key fingerprint Feld an.

Wenn die Nachricht beispielsweise denECDSA Schlüsselabdruck SHA256:XXX/YYY hat, übermitteln Sie 'SHA256:XXX/YYY' als Schlüsselabdruck.

Verbindungsfehlermeldung:

<error>

SFTP_USER_DOES_NOT_MATCH

SQLSTATE: 08006

Der Benutzer, der aus den Anmeldeinformationen <credentialUser> abgerufen wurde, stimmt nicht mit dem im SFTP-Pfad <path> angegebenen Benutzer überein.

SHOW_COLUMNS_WITH_CONFLICT_NAMESPACE

SQLSTATE: 42K05

SHOW COLUMNS mit widersprüchlichen Namespaces: <namespaceA> != <namespaceB>.

SNOWFLAKE_DATA_SOURCE_OPTIONS_VALIDATION_FAILED

SQLSTATE: 42616

Die Validierung der Snowflake-Datenquellenoption(en) ist fehlgeschlagen.

Weitere Details finden Sie unter SNOWFLAKE_DATA_SOURCE_OPTIONS_VALIDATION_FAILED

SORT_BY_WITHOUT_BUCKETING

SQLSTATE: 42601

"sortBy" muss zusammen mit bucketBy verwendet werden.

SPARK_JOB_CANCELLED

SQLSTATE: HY008

Auftrag <jobId> abgebrochen <reason>

SPECIFY_BUCKETING_IS_NOT_ALLOWED

SQLSTATE: 42601

CREATE TABLE ohne explizite Spaltenliste kann keine Bucketing-Informationen angeben.

Verwenden Sie die Form mit expliziter Spaltenliste, und geben Sie Bucketing-Informationen an.

Alternativ können Sie zulassen, dass die Bucketing-Informationen durch das Weglassen der Klausel abgeleitet werden.

SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED

SQLSTATE: 42908

Sowohl CLUSTER BY als auch CLUSTERED BY INTO BUCKETSkönnen nicht angegeben werden.

SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED

SQLSTATE: 42908

Sowohl CLUSTER BY als auch PARTITIONED BYkönnen nicht angegeben werden.

SPECIFY_PARTITION_IS_NOT_ALLOWED

SQLSTATE: 42601

Eine CREATE TABLE ohne explizite Spaltenliste kann PARTITIONED BYnicht angeben.

Verwenden Sie das Formular mit expliziter Spaltenliste, und geben Sie PARTITIONED BYan.

Alternativ können Sie zulassen, dass die Partitionierung durch das Weglassen der PARTITION BY-Klausel abgeleitet wird.

SQL_CONF_NOT_FOUND

SQLSTATE: 42K0I

Die SQL-Konfigurationskonfiguration <sqlConf> konnte nicht gefunden werden. Überprüfen Sie, ob die Konfiguration vorhanden ist.

SQL_SCRIPT_IN_EXECUTE_IMMEDIATE

SQLSTATE: 07501

SQL-Skripts in EXECUTE IMMEDIATE Befehlen sind nicht zulässig. Stellen Sie sicher, dass die bereitgestellte SQL-Abfrage (<sqlString>) kein SQL-Skript ist. Stellen Sie sicher, dass die sql_string eine wohlgeformte SQL-Anweisung ist und nicht enthält BEGIN und END.

SQL_SCRIPT_MAX_NUMBER_OF_CHARACTERS_EXCEEDED

SQLSTATE: 54000

Die maximale Anzahl von Zeichen in einem SQL-Skript (id: <scriptId>) wurde überschritten. Die maximale Anzahl zulässiger Zeichen ist <maxChars>, und das Skript hatte <chars> Zeichen.

SQL_SCRIPT_MAX_NUMBER_OF_LINES_EXCEEDED

SQLSTATE: 54000

Die maximale Anzahl von Zeilen in einem SQL-Skript (id: <scriptId>) wurde überschritten. Die maximale Anzahl zulässiger Zeilen ist <maxLines>, und das Skript hatte <lines> Zeilen.

SQL_SCRIPT_MAX_NUMBER_OF_LOCAL_VARIABLE_DECLARATIONS_EXCEEDED

SQLSTATE: 54KD1

Die maximale Anzahl von lokalen Variablendeklarationen in einem SQL-Skript (ID: <scriptId>) wurde überschritten. Die maximale Anzahl zulässiger Deklarationen ist <maxDeclarations>, und das Skript hatte <declarations>.

SQL_STORED_PROCEDURES_NESTED_CALLS_LIMIT_EXCEEDED

SQLSTATE: 54000

Die maximale Anzahl geschachtelter Prozeduraufrufe wurde mit der Prozedur überschritten (Name: <procedureName>, callId: <procedureCallId>). Die maximal zulässige Anzahl von geschachtelten Prozeduraufrufen ist <limit>.

STAGING_PATH_CURRENTLY_INACCESSIBLE

SQLSTATE: 22000

Vorübergehender Fehler beim Zugriff auf den Ziel-Stagingpfad <path>. Versuchen Sie es in einigen Minuten.

STAR_GROUP_BY_POS

SQLSTATE: 0A000

Das Sternchen (*) ist in einer Auswahlliste nicht zulässig, wenn eine Ordinalposition verwendet wird.

STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE

SQLSTATE: 42802

Fehler beim Ausführen eines zustandsbehafteten Prozessorvorgangs=<operationType> mit ungültigem Handle-Zustand=<handleState>.

STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE

SQLSTATE: 42802

Fehler beim Ausführen des zustandsbehafteten Prozessorvorgangs=<operationType> mit ungültigem timeMode=<timeMode>

STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED

SQLSTATE: 42802

Statusvariable mit dem Namen <stateVarName> wurde bereits im StatefulProcessor definiert.

STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL

SQLSTATE: 42802

TTL kann nicht für state=<stateName> in timeMode=<timeMode>verwendet werden, verwenden Sie stattdessen TimeMode.ProcessingTime().

STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE

SQLSTATE: 42802

Die TTL-Dauer muss größer als Null für den Zustandsspeichervorgang=<operationType> für "state=<stateName>" sein.

STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE

SQLSTATE: 42802

Unbekannter Zeitmodus <timeMode>. Akzeptierte TimeMode-Modi sind 'none', 'processingTime', 'eventTime'

STATE_REPARTITION_INVALID_CHECKPOINT

SQLSTATE: 55019

Der angegebene Prüfpunktspeicherort "<checkpointLocation>" befindet sich in einem ungültigen Zustand.

Weitere Informationen finden Sie unter STATE_REPARTITION_INVALID_CHECKPOINT

STATE_REPARTITION_INVALID_PARAMETER

SQLSTATE: 42616

Der Parameter <parameter> "Repartition" ist ungültig:

Weitere Informationen finden Sie unter STATE_REPARTITION_INVALID_PARAMETER

STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS

SQLSTATE: 42802

Fehler beim Erstellen einer Spaltenfamilie mit nicht unterstütztem Anfangszeichen und Name=<colFamilyName>.

STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME

SQLSTATE: 42802

Fehler beim Ausführen des Spaltenfamilienvorgangs=<operationName> mit ungültiger Name=<colFamilyName>. Spaltenfamilienname darf nicht leer sein oder führende/nachfolgende Leerzeichen enthalten oder das reservierte Schlüsselwort=Standard verwenden

STATE_STORE_CHECKPOINT_IDS_NOT_SUPPORTED

SQLSTATE: KD002

<msg>

STATE_STORE_CHECKPOINT_LOCATION_NOT_EMPTY

SQLSTATE: 42K03

Der Prüfpunktspeicherort <checkpointLocation> sollte auf Batch 0 leer sein.

Verwenden Sie entweder einen neuen Prüfpunktspeicherort, oder löschen Sie die vorhandenen Daten am Prüfpunktspeicherort.

STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE

SQLSTATE: 42802

Inkompatible Schematransformation mit Spaltenfamilie=<colFamilyName>, oldSchema=<oldSchema>, newSchema=<newSchema>.

STATE_STORE_DOES_NOT_SUPPORT_REUSABLE_ITERATOR

SQLSTATE: 42K06

StateStore-<inputClass> unterstützt keinen wiederverwendbaren Iterator.

STATE_STORE_HANDLE_NOT_INITIALIZED

SQLSTATE: 42802

Das Handle wurde für diesen StatefulProcessor nicht initialisiert.

Verwenden Sie den StatefulProcessor nur im Operator transformWithState.

STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN

SQLSTATE: 42802

Falsche Anzahl von Ordnungszahlen=<numOrderingCols> für Bereichsscan-Encoder. Die Anzahl der Ordnungszahlen darf nicht null oder größer als die Anzahl der Schemaspalten sein.

STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN

SQLSTATE: 42802

Falsche Anzahl von Präfixspalten=<numPrefixCols> für Präfixscan-Encoder. Präfixspalten dürfen nicht null oder größer oder gleich der Anzahl der Schemaspalten sein.

STATE_STORE_INVALID_AVRO_SCHEMA (Ungültiges Avro-Schema im State Store)

SQLSTATE: 3F000

Es wurde ein ungültiges Schema für die Avro-Codierung erkannt.

Weitere Informationen finden Sie unter STATE_STORE_INVALID_AVRO_SCHEMA

STATE_STORE_INVALID_CONFIG_AFTER_RESTART

SQLSTATE: 42K06

<configName> kann zwischen Neustarts nicht von <oldConfig> in <newConfig> geändert werden. Legen Sie <configName> auf <oldConfig>fest, oder starten Sie es mit einem neuen Prüfpunktverzeichnis neu.

STATE_STORE_INVALID_PROVIDER

SQLSTATE: 42K06

Der angegebene State Store-Anbieter <inputClass> erweitert nicht org.apache.spark.sql.execution.streaming.state.StateStoreProvider.

STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE

SQLSTATE: 42K06

<stateVarName> kann zwischen Neustarts der Abfrage nicht in <newType> geändert werden. Legen Sie <stateVarName> auf <oldType>fest, oder starten Sie es mit einem neuen Prüfpunktverzeichnis neu.

STATE_STORE_KEY_SCHEMA_NICHT_KOMPATIBEL

SQLSTATE: 42000

Das bereitgestellte Schlüsselschema stimmt nicht mit dem vorhandenen Schema im Operatorstatus überein.

Vorhandenes Schema=<storedKeySchema>; bereitgestelltes Schema=<newKeySchema>.

Wenn Sie die Abfrage ohne Schemaüberprüfung ausführen möchten, legen Sie spark.sql.streaming.stateStore.stateSchemaCheck auf "false" fest.

Beachten Sie, dass das Ausführen ohne Schemaüberprüfung nicht deterministisches Verhalten aufweisen kann.

STATE_STORE_NATIVE_ROCKSDB_TIMEOUT

SQLSTATE: 58030

Beim Zugriff auf den RocksDB-Zustandsspeicher für den zustandsbehafteten Streamingvorgang ist beim Aufrufen der nativen RocksDB-Funktion <funcName> nach dem Warten auf „timeout=<timeoutMs> ms“ ein Timeout aufgetreten. Versuchen Sie es erneut, und starten Sie den Cluster neu, wenn ein Fehler weiterhin auftritt.

STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED

SQLSTATE: 42802

Nulltyp-Sortierspalte mit name=<fieldName> bei index=<index> wird für Bereichsscan-Encoder nicht unterstützt.

STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY

SQLSTATE: 42K06

Der angegebene Zustandsspeicheranbieter <inputClass> erweitert „org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay“ nicht.

Daher werden die Optionen "snapshotStartBatchId" oder "readChangeFeed" in der Status-Datenquelle nicht unterstützt.

STATE_STORE_ROCKSDB_ZIP_ALREADY_EXISTS

SQLSTATE: 42K04

Die RocksDB-Snapshot-ZIP-Datei <zipFilePath> ist bereits vorhanden. Dies bedeutet, dass die Momentaufnahme bereits in DFS hochgeladen wurde.

(allowVersionOverwrite=<allowVersionOverwrite>, shouldUseCommitService=<shouldUseCommitService>)

STATE_STORE_STATE_SCHEMA_FILES_THRESHOLD_EXCEEDED

SQLSTATE: 42K06

Die Anzahl der Zustandsschemadateien <numStateSchemaFiles> überschreitet die maximale Anzahl von Zustandsschemadateien für diese Abfrage: <maxStateSchemaFiles>.

Hinzugefügt: <addedColumnFamilies>, Entfernt: <removedColumnFamilies>

Legen Sie "spark.sql.streaming.stateStore.stateSchemaFilesThreshold" auf eine höhere Zahl fest, oder setzen Sie Zustandsschemaänderungen zurück.

STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY

SQLSTATE: 42802

Zustandsspeichervorgang=<operationType> wird für fehlende Spaltenfamilie=<colFamilyName>nicht unterstützt.

STATE_STORE_VALUE_SCHEMA_EVOLUTION_THRESHOLD_EXCEEDED

SQLSTATE: 42K06

Die Anzahl der Zustandsschemaentwicklungen <numSchemaEvolutions> überschreitet die maximale Anzahl von Zustandsschemaentwicklungen, <maxSchemaEvolutions>, die für diese Spaltenfamilie zulässig sind.

Fehlerhafte Spaltenfamilie: <colFamilyName>

Legen Sie "spark.sql.streaming.stateStore.valueStateSchemaEvolutionThreshold" auf eine höhere Zahl fest, oder setzen Sie Zustandsschemaänderungen zurück.

STATE_STORE_VALUE_SCHEMA_NOT_COMPATIBLE

SQLSTATE: 42000

Das bereitgestellte Wertschema stimmt nicht mit dem vorhandenen Schema im Operatorstatus überein.

Vorhandenes Schema=<storedValueSchema>; bereitgestelltes Schema=<newValueSchema>.

Wenn Sie die Abfrage ohne Schemaüberprüfung ausführen möchten, legen Sie spark.sql.streaming.stateStore.stateSchemaCheck auf "false" fest.

Beachten Sie, dass das Ausführen ohne Schemaüberprüfung nicht deterministisches Verhalten aufweisen kann.

STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED

SQLSTATE: 42802

Die Sortierspalte variabler Größe mit name=<fieldName> bei index=<index> wird für Bereichsscan-Encoder nicht unterstützt.

STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST

SQLSTATE: 42713

Statische Partitionsspalte <staticName> wird auch in der Spaltenliste angegeben.

STDS_COMMITTED_BATCH_UNAVAILABLE

SQLSTATE: KD006

Es wurde kein committeter Batch gefunden, Prüfpunktspeicherort: <checkpointLocation>. Stellen Sie sicher, dass die Abfrage ausgeführt wurde und alle Microbatches vor dem Beenden festgeschrieben wurden.

STDS_CONFLICT_OPTIONS

SQLSTATE: 42613

Die Optionen <options> können nicht zusammen angegeben werden. Bitte geben Sie den einen an.

STDS_FAILED_TO_READ_OPERATOR_METADATA

SQLSTATE: 42K03

Fehler beim Lesen der Operatormetadaten für checkpointLocation=<checkpointLocation> und batchId=<batchId>.

Entweder ist die Datei nicht vorhanden, oder die Datei ist beschädigt.

Führen Sie die Streamingabfrage erneut aus, um die Operatormetadaten zu erstellen. Sollten weiterhin Fehler auftreten, berichten Sie dies den entsprechenden Gemeinschaften oder Anbietern.

STDS_FAILED_TO_READ_STATE_SCHEMA

SQLSTATE: 42K03

Fehler beim Lesen des Statusschemas. Entweder ist die Datei nicht vorhanden, oder die Datei ist beschädigt. Optionen: <sourceOptions>.

Führen Sie die Streamingabfrage erneut aus, um das Statusschema zu erstellen, und melden Sie den entsprechenden Communities oder Anbietern, wenn der Fehler weiterhin besteht.

STDS_INVALID_OPTION_VALUE

SQLSTATE: 42616

Ungültiger Wert für die Quelloption '<optionName>':

Weitere Details finden Sie unter STDS_INVALID_OPTION_VALUE.

STDS_MIXED_CHECKPOINT_FORMAT_VERSIONS_NOT_SUPPORTED

SQLSTATE: KD002

Der Lesezustand in verschiedenen Formatversionen des Prüfpunktformats wird nicht unterstützt.

startBatchId=<startBatchId>, endBatchId=<endBatchId>.

startFormatVersion=<startFormatVersion>, endFormatVersion=<endFormatVersion>.

STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE

SQLSTATE: KD006

Der Staat hat keine Partition. Überprüfen Sie bitte, ob die Abfrage auf den gültigen Zustand verweist. optionen: <sourceOptions>

STDS_OFFSET_LOG_UNAVAILABLE

SQLSTATE: KD006

Das Offsetprotokoll für <batchId> ist nicht vorhanden, Prüfpunktspeicherort: <checkpointLocation>.

Geben Sie die Batch-ID an, die für die Abfrage verfügbar ist . Sie können die verfügbaren Batch-IDs mithilfe der Zustandsmetadatenquelle abfragen.

STDS_OFFSET_METADATA_LOG_UNAVAILABLE

SQLSTATE: KD006

Für das Offsetprotokoll für <batchId> sind keine Metadaten vorhanden, Prüfpunktspeicherort: <checkpointLocation>.

Der Prüfpunkt scheint nur mit älteren Spark-Versionen ausgeführt zu werden. Führen Sie die Streamingabfrage mit der aktuellen Spark-Version aus, sodass Spark die Statusmetadaten erstellt.

STDS_REQUIRED_OPTION_UNSPECIFIED

SQLSTATE: 42601

'<optionName>' muss angegeben werden.

STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS

SQLSTATE: 0A000

Die Ausführung adaptiver Abfragen wird für zustandsbehaftete Operatoren im strukturierten Streaming nicht unterstützt.

STREAMING_CHECKPOINT_METADATA_ERROR

SQLSTATE: 42616

Fehler bei den Metadaten des Stream-Checkpoints.

Weitere Informationen finden Sie unter STREAMING_CHECKPOINT_METADATA_ERROR

STREAMING_CHECKPOINT_PIN_BATCH_ERROR

SQLSTATE: 42000

Fehler beim Ausführen des Pin-Vorgangs für die Streamingabfrage mit Prüfpunktspeicherort=<checkpointLocation> at batchId=<batchId>.

Weitere Informationen finden Sie unter STREAMING_CHECKPOINT_PIN_BATCH_ERROR

STREAMING_CHECKPOINT_REWIND_ERROR

SQLSTATE: 42000

Fehler beim Ausführen des Rückspulenvorgangs für die Streamingabfrage mit Prüfpunktspeicherort=<checkpointLocation>.

Weitere Informationen finden Sie unter STREAMING_CHECKPOINT_REWIND_ERROR

STREAMING_CHECKPOINT_REWIND_OPTIONS_ERROR

SQLSTATE: 42616

Fehler beim Zurückspulen des Streamingprüfpunkts.

Weitere Informationen finden Sie unter STREAMING_CHECKPOINT_REWIND_OPTIONS_ERROR

STREAMING_FROM_MATERIALIZED_VIEW

SQLSTATE: 0A000

Aus der materialisierten Ansicht <viewName> kann nicht gestreamt werden. Das Streaming von materialisierten Sichten wird nicht unterstützt.

STREAMING_OUTPUT_MODE

SQLSTATE: 42KDE

Ungültiger Streamingausgabemodus: <outputMode>.

Weitere Details finden Sie unter STREAMING_OUTPUT_MODE.

STREAMING_QUERY_EVOLUTION_ERROR

SQLSTATE: 42000

Fehler bei der Streamingabfrageentwicklung:

Weitere Informationen finden Sie unter STREAMING_QUERY_EVOLUTION_ERROR

STREAMING_RATE_SOURCE_OFFSET_VERSION_MISMATCH

SQLSTATE: KD002

Erwarte Rate-Source-Offset-Version <expectedVersion>, aber erhielt Version <actualVersion>. Um den Vorgang fortzusetzen, legen Sie die Option "Version" <expectedVersion> in den Zinsquellenoptionen fest. Beispiel: spark.readStream.format("rate").option("version", "<expectedVersion>").

ÄNDERUNG DER PARTITIONSNUMMER FÜR STREAMING-RATE-QUELLE V2 NICHT UNTERSTÜTZT.

SQLSTATE: 0A000

Die Anzahl der Partitionen (<prevNum>) in früheren Mikrobatchs unterscheidet sich von der aktuellen Anzahl von Partitionen (<currNum>). Es könnte zwei mögliche Gründe geben:

  1. Option "numPartitions" der Rate-Quelle wird während des Abfrage-Neustarts geändert.

  2. Die Größe des Clusters kann sich beim Neustart der Abfrage ändern.

Legen Sie explizit die Option "numPartitions" der Quelle "Rate" fest, um dieses Problem zu <prevNum> beheben.

STREAMING_RATE_SOURCE_V2_RAMPUP_TIME_UNTERSTÜTZT_NICHT

SQLSTATE: 0A000

Die Option "rampUpTime" wird von Rate Version 2 nicht unterstützt. Um diese Option zu verwenden, legen Sie die Option "Version" auf 1 fest. Beispiel: spark.readStream.format("rate"). option("version", "1").

STREAMING_REAL_TIME_MODE

SQLSTATE: 0A000

Der Streaming-Echtzeitmodus hat die folgende Einschränkung:

Weitere Details finden Sie unter STREAMING_REAL_TIME_MODE.

STREAMING_ECHTZEIT_WASSERZEICHEN_AUSBREITUNG

SQLSTATE: 0A000

Die Verteilung von Wasserzeichen in Echtzeit hat die folgende Einschränkung:

Weitere Details finden Sie unter STREAMING_REAL_TIME_WATERMARK_PROPAGATION

STREAMING_SINK_DELIVERY_MODE

SQLSTATE: 42KDE

Ungültiger Streaming-Sink-Übermittlungsmodus: <deliveryMode>.

Weitere Details finden Sie unter STREAMING_SINK_DELIVERY_MODE

STREAMING_SKIP_OFFSETS_INVALID_RANGE

SQLSTATE: 42616

Ungültiger Offsetbereich zum Überspringen: Der Endoffset ist kleiner als der Startoffset <endOffset><startOffset>. Korrigieren Sie diesen Offsetbereich, und versuchen Sie es erneut.

STREAMING_STATEFUL_OPERATOR_MISSING_STATE_DIRECTORY

SQLSTATE: 42K03

Die Streamingabfrage kann nicht mit zustandsbehafteten Operatoren neu gestartet werden, da das Statusverzeichnis leer oder fehlt.

Dies tritt in der Regel auf, wenn Zustandsdateien gelöscht wurden oder die Streamingabfrage zuvor ohne zustandsbehaftete Operatoren ausgeführt wurde, aber mit zustandsbehafteten Operatoren neu gestartet wurde.

Entfernen Sie die zustandsbehafteten Operatoren, verwenden Sie einen neuen Prüfpunktspeicherort, oder stellen Sie die fehlenden Zustandsdateien wieder her.

STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA

SQLSTATE: 42K03

Der Name des Streamingstatusoperators stimmt nicht mit dem Operator in Zustandsmetadaten überein. Dies geschieht wahrscheinlich, wenn der Benutzer den zustandsbehafteten Operator einer vorhandenen Streamingabfrage hinzufügt/entfernt/ändert.

Zustandsbehaftete Operatoren in den Metadaten: [<OpsInMetadataSeq>]; Zustandsbehaftete Operatoren im aktuellen Batch: [<OpsInCurBatchSeq>].

STREAMING_TABLE_NEEDS_REFRESH

SQLSTATE: 55019

Die Streamingtabelle <tableName> muss aktualisiert werden, um <operation>auszuführen.

Wenn die Tabelle aus DBSQLerstellt wird, führen Sie bitte REFRESH STREAMING TABLEaus.

Wenn die Tabelle von einer Pipeline in Lakeflow Spark Declarative Pipeliness erstellt wird, führen Sie bitte ein Pipelineupdate aus.

STREAMING_TABLE_NOT_SUPPORTED

SQLSTATE: 56038

Streamingtabellen können nur in Lakeflow Spark Declarative Pipeliness und Databricks SQL Warehouses erstellt und aktualisiert werden.

STREAMING_TABLE_OPERATION_NOT_ALLOWED

SQLSTATE: 42601

Der Vorgang <operation> ist nicht zulässig:

Weitere Details finden Sie unter STREAMING_TABLE_OPERATION_NOT_ALLOWED.

STREAMING_TABLE_QUERY_INVALID

SQLSTATE: 42000

Streamingtabelle <tableName> kann nur aus einer Streamingabfrage erstellt werden. Fügen Sie Ihrer STREAM-Klausel das Schlüsselwort FROM hinzu, um diese Beziehung in eine Streamingabfrage umzuwandeln.

STREAM_NOT_FOUND_FOR_KINESIS_SOURCE

SQLSTATE: 42K02

Kinesis-Stream <streamName> in <region> nicht gefunden.

Beginnen Sie eine neue Abfrage, die auf den richtigen Streamnamen zeigt.

STRUCT_ARRAY_LENGTH_MISMATCH

SQLSTATE: 2201E

Die Eingabezeile hat nicht die erwartete Anzahl von Werten, die für das Schema erforderlich sind. <expected> Felder sind erforderlich, während <actual> Werte bereitgestellt werden.

ST_INVALID_ALGORITHM_VALUE

SQLSTATE: 22023

Ungültiger oder nicht unterstützter Wert des Edgeinterpolationsalgorithmus: '<alg>'.

ST_INVALID_CRS_VALUE

SQLSTATE: 22023

Ungültiger oder nicht unterstützter CRS-Wert (Koordinatenverweissystem): '<crs>'.

ST_INVALID_SRID_VALUE

SQLSTATE: 22023

Ungültiger oder nicht unterstützter SRID-Wert (Spatial Reference Identifier): <srid>.

SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT

SQLSTATE: 22003

Die Summe der LIMIT-Klausel und der OFFSET-Klausel darf nicht größer als der maximal zulässige ganzzahlige 32-Bit-Wert (2.147.483.647) sein, aber der gefundene Grenzwert = <limit>. Offset = <offset>.

SYNC_METADATA_DELTA_ONLY

SQLSTATE: 0AKDD

Der Befehl "Tabellensynchronisierungsmetadaten reparieren" wird nur für die Delta-Tabelle unterstützt.

SYNC_SRC_TARGET_TBL_NOT_SAME

SQLSTATE: 42KD2

Der Name der Quelltabelle <srcTable> muss mit dem Namen der Zieltabelle <destTable>übereinstimmen.

SYNTAX_DISCONTINUED

SQLSTATE: 42601

Die Unterstützung der Klausel oder des Schlüsselworts <clause> wurde in diesem Kontext eingestellt.

Weitere Details finden Sie unter SYNTAX_DISCONTINUED.

TABLE_ARGUMENTS_NOT_ALLOWED

SQLSTATE: 42601

TABLE Parameter werden in <routineType> nicht unterstützt.

TABLE_NOT_VALID_SECONDARY_INDEX

SQLSTATE: 42809

Fehler beim Ausführen des DESCRIBE SEARCH INDEX Befehls, da die Tabelle <tableName> kein gültiger <indexType> Index ist. Aktualisieren Sie den Befehl, um einen gültigen Index zu verwenden, und wiederholen Sie ihn erneut.

TABLE_OR_VIEW_ALREADY_EXISTS

SQLSTATE: 42P07

Tabelle oder Ansicht <relationName> kann nicht erstellt werden, da sie bereits vorhanden ist.

Wählen Sie einen anderen Namen aus, legen Sie das vorhandene Objekt ab, fügen Sie die IF NOT EXISTS Klausel hinzu, um bereits vorhandene Objekte zu tolerieren, die OR-REPLACE-Klausel hinzuzufügen, um die vorhandene materialisierte Ansicht zu ersetzen, oder fügen Sie die OR-REFRESH-Klausel hinzu, um die vorhandene Streamingtabelle zu aktualisieren.

TABLE_OR_VIEW_NOT_FOUND

SQLSTATE: 42P01

Die Tabelle oder Ansicht <relationName> kann nicht gefunden werden. Überprüfen Sie die Rechtschreibung und Korrektheit des Schemas und Katalogs.

Wenn Sie den Namen nicht mit einem Schema qualifiziert haben, überprüfen Sie die ausgabe current_schema() oder qualifizieren Sie den Namen mit dem richtigen Schema und Katalog.

Um den Fehler beim Löschen zu tolerieren, verwenden Sie DROP VIEW IF EXISTS oder DROP TABLE IF EXISTS.

Weitere Details finden Sie unter TABLE_OR_VIEW_NOT_FOUND.

TABLE_TYPE_INCOMPATIBLE_WITH_ABAC_POLICY

SQLSTATE: 0AKUC

Der Tabellentyp von <tableName>, <tableType>, unterstützt keine ABAC-Richtlinien.

Entfernen Sie die Richtlinien, und versuchen Sie es erneut.

TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS

SQLSTATE: 0A000

Die Aktion <action> ist für die benutzerdefinierte SQL-Funktion <functionName> mit TABLE-Argumenten nicht möglich, weil diese Funktionalität noch nicht implementiert ist.

TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON

SQLSTATE: 38000

Fehler beim Analysieren der benutzerdefinierten Tabellenfunktion python: <msg>

TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL

SQLSTATE: 22023

Fehler beim Auswerten der Tabellenfunktion <functionName>, da die Tabellenmetadaten <requestedMetadata> sind, aber der Funktionsaufruf <invalidFunctionCallProperty>.

TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID

SQLSTATE: 22023

Fehler beim Auswerten der Tabellenfunktion <functionName>, da die Tabellenmetadaten ungültig waren; <reason>.

TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS

SQLSTATE: 54023

Es gibt zu viele Tabellenargumente für die Tabellenwertfunktion.

Ein Tabellenargument ist zulässig, sie enthielt jedoch Folgendes: <num>.

Wenn Sie dies zulassen möchten, legen Sie "spark.sql.allowMultipleTableArguments.enabled" auf "true" fest.

TABLE_WITH_ID_NOT_FOUND

SQLSTATE: 42P01

Tabelle mit ID <tableId> kann nicht gefunden werden. Überprüfen Sie die Richtigkeit der UUID.

TASK_WRITE_FAILED

SQLSTATE: 58030

Aufgabenfehler beim Schreiben von Zeilen in <path>.

TEMP_CHECKPOINT_LOCATION_NOT_SUPPORTED

SQLSTATE: 0A000

Implizite temporäre Streaming-Prüfpunktspeicherorte werden in der aktuellen Arbeitsumgebung nicht unterstützt, bitte geben Sie einen Prüfpunktspeicherort explizit an.

Legen Sie für display() den Prüfpunktort mithilfe von fest:

display(df, checkpointLocation = „your_path“)

Verwenden Sie für alle anderen Streamingabfragen Folgendes:

.option("checkpointLocation", "your_path").

TEMP_TABLE_CREATION_LEGACY_WITH_QUERY

SQLSTATE: 0A000

CREATE TEMPORARY TABLE ... AS ... wird hier nicht unterstützt. Verwenden CREATE TEMPORARY VIEW Sie stattdessen

TEMP_TABLE_CREATION_MUTUAL_EXCLUSIVE_SPECS

SQLSTATE: 0A000

CREATE TEMPORARY TABLE die Angabe <unsupportedSpec>wird nicht unterstützt.

Weitere Informationen finden Sie unter TEMP_TABLE_CREATION_MUTUAL_EXCLUSIVE_SPECS

TEMP_TABLE_CREATION_NAME_RESERVED

SQLSTATE: 42K05

Temporäre Tabelle <tableName> kann nicht erstellt werden, da sie mit einem reservierten Namenspräfix <reservedPrefix>beginnt. Wählen Sie einen anderen Namen aus, und versuchen Sie es erneut.

TEMP_TABLE_CREATION_NOT_SUPPORTED_IN_COMPUTE

SQLSTATE: 0A000

CREATE TEMPORARY TABLE [AS ... ] wird mit dem aktuellen Computetyp nicht unterstützt. Verwenden Sie databricks SQL (DBSQL) stattdessen, um sitzungslokale temporäre Tabellen zu erstellen.

TEMP_TABLE_CREATION_REQUIRES_SINGLE_PART_NAME

SQLSTATE: 42K05

Zum Erstellen einer sitzungslokalen temporären Tabelle ist ein einzelner Teiltabellenname erforderlich, es wurde jedoch <tableName> erhalten. Aktualisieren Sie den Befehl so, dass ein einzelner Tabellenname verwendet wird, und wiederholen Sie den Vorgang.

TEMP_TABLE_CREATION_UNSUPPORTED_LEGACY_SYNTAX_WITH_HINTS

SQLSTATE: 0A000

CREATE TEMPORARY TABLE ... USING ... AS ... wird nicht unterstützt. Um eine temporäre Tabelle zu erstellen, entfernen Sie die USING Klausel, und versuchen Sie es erneut.

TEMP_TABLE_DELETION_MUTUAL_EXCLUSIVE_SPECS

SQLSTATE: 0A000

DROP TEMPORARY TABLE unterstützt nicht die Angabe von <unsupportedSpec>, entfernen Sie diese Spezifikation, oder legen Sie stattdessen eine permanente Tabelle mithilfe des Befehls DROP TABLE ab.

TEMP_TABLE_DELETION_REQUIRES_SINGLE_PART_NAME

SQLSTATE: 42K05

Zum Ablegen einer sitzungslokalen temporären Tabelle ist ein einzelner Teiltabellenname erforderlich, es wurde jedoch <tableName> erhalten. Aktualisieren Sie den DROP TEMPORARY TABLE Befehl so, dass ein einzelner Tabellenname verwendet wird, um eine temporäre Tabelle abzulegen, oder verwenden DROP TABLE Sie stattdessen den Befehl, um eine permanente Tabelle abzulegen.

TEMP_TABLE_NOT_FOUND

SQLSTATE: 42P01

Die temporäre Tabelle <tableName> wurde in der aktuellen Sitzung nicht gefunden. Überprüfen Sie die Schreib- und Korrektheit des Tabellennamens, und wiederholen Sie die Abfrage oder den Befehl erneut.

Um den Fehler beim Drop zu tolerieren, verwenden Sie DROP TEMP TABLE IF EXISTS.

TEMP_TABLE_NICHT_UNTERSTÜTZT_BEI_DATABRICKS_JOBS

SQLSTATE: 0A000

Die temporäre Tabelle wird in Databricks-Aufträgen noch nicht unterstützt. Verwenden Sie stattdessen Databricks-Notebooks und wenden Sie sich an den Databricks Support, um weitere Informationen zu erhalten.

TEMP_TABLE_NOT_SUPPORTED_WITH_HMS

SQLSTATE: 0A000

Der temporäre Tabellenvorgang <operation> wird im Hive-Metastore nicht unterstützt.

TEMP_TABLE_OPERATION_NOT_SUPPORTED

SQLSTATE: 0A000

Vorgänge in der sitzungslokalen temporären Tabelle <tableName> werden nicht unterstützt:

Weitere Einzelheiten finden Sie unter TEMP_TABLE_OPERATION_NOT_SUPPORTED

TEMP_TABLE_OPERATION_NOT_SUPPORTED_IN_V1_COMMAND

SQLSTATE: 0A000

<operation> in temporären Tabellen wird mit V1-Befehlen nicht unterstützt. Legen Sie "spark.sql.legacy.useV1Command" auf "false" fest, und wiederholen Sie den Vorgang.

TEMP_TABLE_OR_VIEW_ALREADY_EXISTS

SQLSTATE: 42P07

Die temporäre Tabelle oder Ansicht kann nicht erstellt werden <relationName> , da sie bereits vorhanden ist.

Wählen Sie einen anderen Namen aus, legen Sie es ab, oder ersetzen Sie das vorhandene Objekt.

TEMP_TABLE_REPLACE_NOT_SUPPORTED

SQLSTATE: 0A000

[CREATE ODER] REPLACE TEMPORARY TABLE wird nicht unterstützt. Um eine vorhandene temporäre Tabelle zu ersetzen, legen Sie sie mit DROP TEMPORARY TABLE ... [IF EXISTS] und erstellen Sie es mit CREATE TEMPORARY TABLE ... neu.

TEMP_TABLE_REQUIRES_DATABRICKS_ENV

SQLSTATE: 0AKDD

Vorgänge in sitzungslokalen temporären Tabellen erfordern databricks-Umgebung.

TEMP_TABLE_REQUIRES_DELTA

SQLSTATE: 0AKDD

Vorgänge in sitzungslokalen temporären Tabellen erfordern die Aktivierung des Delta-Katalogs. Aktivieren Sie den Delta-Katalog, und versuchen Sie es erneut.

TEMP_TABLE_REQUIRES_UC

SQLSTATE: 0AKUD

Vorgänge bei sitzungslokalen temporären Tabellen erfordern den Unity Catalog. Aktivieren Sie den Unity-Katalog in Ihrer ausgeführten Umgebung, und versuchen Sie es erneut.

TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS

SQLSTATE: 428EK

CREATE TEMPORARY VIEW oder die entsprechenden Dataset-APIs akzeptieren nur einteilige Ansichtsnamen, erhielten aber: <actualName>.

THETA_INVALID_INPUT_SKETCH_BUFFER

SQLSTATE: 22546

Ungültiger Aufruf von <function>; nur gültige Theta-Skizzenpuffer werden als Eingaben (z. B. von der theta_sketch_agg Funktion erzeugte) unterstützt.

THETA_INVALID_LG_NOM_ENTRIES

SQLSTATE: 22546

Ungültiger Aufruf von <function>; der Wert lgNomEntries muss zwischen <min> und <max> liegen (einschließlich): <value>.

THETA_LG_NOM_ENTRIES_MUST_BE_CONSTANT

SQLSTATE: 42K0E

Ungültiger Aufruf von <function>; der lgNomEntries Wert muss ein Konstantenwert sein, aber es wurde ein nicht konstanter Ausdruck abgerufen.

TRAILING_COMMA_IN_SELECT

SQLSTATE: 42601

Nachstehendes Komma in SELECT-Klausel erkannt. Entfernen Sie das nachfolgende Komma vor der FROM-Klausel.

TRANSACTION_CDF_SCHEMA_WITH_RESERVED_COLUMN_NAME

SQLSTATE: 42939

"Datenfeed ändern" kann in einer Transaktion nicht aktiviert werden, da eine Tabelle einen reservierten Spaltennamen (<column_name>) enthält.

Um fortzufahren, stellen Sie sicher, dass die Tabelle nur nicht reservierte Spaltennamen verwendet.

TRANSACTION_CDF_SETTING_HIGH_WATERMARK_NOT_ALLOWED

SQLSTATE: 25000

Das manuelle Festlegen des hohen Grenzwerts für CDC-Identitäten ist nicht zulässig.

TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE

SQLSTATE: 40000

Für das Objekt <table>wurde eine gleichzeitige Metadatenänderung erkannt. Führen Sie ROLLBACK aus und versuchen Sie diese Transaktion dann erneut. Details:

Weitere Informationen finden Sie unter TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE

TRANSACTION_CONTEXT_MISMATCH

SQLSTATE: 25000

Die Inkonsistenz des Transaktionskontexts wurde zwischen dem aktuellen Thread und der Spark-Sitzung erkannt. Dies tritt in der Regel auf, wenn eine Spark-Sitzung über mehrere Threads hinweg freigegeben wird. Verwenden Sie für jede Transaktion eine dedizierte Sitzung und einen dedizierten Thread, und führen Sie einen Commit/Rollback der Transaktion im Thread durch, bevor Sie die Sitzung und den Thread für eine neue Transaktion wiederverwenden. Details:

Weitere Informationen finden Sie unter TRANSACTION_CONTEXT_MISMATCH

TRANSACTION_MAX_COMMIT_TIMESTAMP_EXCEEDED

SQLSTATE: 25000

Die Transaktion kann nicht commiten, da der maximale Commit-Zeitstempel überschritten wird. maxCommitTimestamp: commitTimestamp:<maxCommitTimestampMs><commitTimestampMs>

TRANSACTION_NOT_SUPPORTED

SQLSTATE: 0A000

Fehler beim Ausführen der Anweisung.

Weitere Informationen finden Sie unter TRANSACTION_NOT_SUPPORTED

TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT

SQLSTATE: 40000

Die aktuelle Transaktion wurde abgebrochen. Bitte führen Sie ROLLBACK TRANSACTION aus, bevor Sie fortfahren. Abbruchgrund:

Weitere Informationen finden Sie unter TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT

TRANSFORM_WITH_STATE_USER_FUNCTION_ERROR

SQLSTATE: 39000

Fehler in der benutzerdefinierten Funktion <function> des StatefulProcessor. Grund: <reason>.

TRANSPOSE_EXCEED_ROW_LIMIT

SQLSTATE: 54006

Die Anzahl der Zeilen überschreitet den zulässigen Grenzwert für <maxValues>TRANSPOSE. Wenn dies beabsichtigt ist, legen Sie <config> mindestens auf die aktuelle Zeilenanzahl fest.

TRANSPOSE_INVALID_INDEX_COLUMN

SQLSTATE: 42804

Ungültige Indexspalte für TRANSPOSE, weil: <reason>

TRANSPOSE_NO_LEAST_COMMON_TYPE

SQLSTATE: 42K09

Das Transponieren erfordert, dass Nicht-Index-Spalten mindestens einen gemeinsamen Typ verwenden, doch <dt1> und <dt2> tun das nicht.

TRIGGER_INTERVAL_INVALID

SQLSTATE: 22003

Das Triggerintervall muss eine positive Dauer sein, die in ganze Sekunden konvertiert werden kann. Empfangen: <actual> Sekunden.

TUPLE_IS_EMPTY

SQLSTATE: 22004

Da Scala nur eingeschränkte Unterstützung für Tupel bietet, wird ein leeres Tupel nicht unterstützt.

TUPLE_SIZE_EXCEEDS_LIMIT

SQLSTATE: 54011

Da Scala nur eingeschränkte Unterstützung für Tupel bietet, werden Tupel mit mehr als 22 Elementen nicht unterstützt.

UC_BUCKETED_TABLES

SQLSTATE: 0AKUC

Zusammengefasste Tabellen werden im Unity-Katalog nicht unterstützt.

UC_CATALOG_NAME_NOT_PROVIDED

SQLSTATE: 3D000

Geben Sie für Unity-Katalog den Katalognamen explizit an. z. B. SHOW GRANT your.address@email.com ON CATALOG Haupt.

UC_COMMAND_NOT_SUPPORTED

SQLSTATE: 0AKUC

Die Befehle: <commandName> werden im Unity-Katalog nicht unterstützt.

Weitere Details finden Sie unter UC_COMMAND_NOT_SUPPORTED.

UC_COMMAND_NOT_SUPPORTED_IN_SERVERLESS

SQLSTATE: 0AKUC

Die Befehle: <commandName> werden für Unity-Katalogcluster ohne Server nicht unterstützt. Verwenden Sie stattdessen Einzelbenutzercluster oder gemeinsam verwendete Cluster.

UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE

SQLSTATE: 0AKUC

Die Befehle: <commandName> werden für Unity-Katalogcluster im Modus für gemeinsam genutzten Zugriff nicht unterstützt. Verwenden Sie stattdessen den Einzelbenutzerzugriffsmodus.

UC_CONNECTION_NOT_FOUND_FOR_FILE_SYSTEM_SOURCE_ACCESS

SQLSTATE: 42704

Es konnte keine gültige UC-Verbindung zum Zugriff auf <path> gefunden werden, nachdem <connectionNames> ausgewertet wurde.

Stellen Sie sicher, dass mindestens eine gültige UC-Verbindung für den Zugriff auf den Zielpfad verfügbar ist.

Detaillierte Fehler für die ausgewerteten Verbindungen:

<connectionErrors>

UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED

SQLSTATE: 0AKUC

Die angegebene Anmeldeinformationsart wird nicht unterstützt.

UC_DATASOURCE_NOT_SUPPORTED

SQLSTATE: 0AKUC

Das Datenquellenformat <dataSourceFormatName> wird im Unity-Katalog nicht unterstützt.

UC_DATASOURCE_OPTIONS_NOT_SUPPORTED

SQLSTATE: 0AKUC

Datenquellenoptionen werden im Unity-Katalog nicht unterstützt.

UC_DEPENDENCY_DOES_NOT_EXIST

SQLSTATE: 42P01

Die Abhängigkeit ist im Unity-Katalog nicht vorhanden:

<errorMessage>

UC_EXTERNAL_VOLUME_MISSING_LOCATION

SQLSTATE: 42601

LOCATION-Klausel muss für externes Volume vorhanden sein. Bitte überprüfen Sie die Syntax 'CREATE EXTERNAL VOLUME...LOCATION ...' zum Erstellen eines externen Volumes.

UC_FAILED_PROVISIONING_STATE

SQLSTATE: 0AKUC

Fehler bei der Abfrage, da versucht wurde, auf tabelle <tableName> zu verweisen, dies aber nicht möglich war: <failureReason>. Aktualisieren Sie die Tabelle <tableName>, um sicherzustellen, dass sie sich in einem aktiven Bereitstellungsstatus befindet, und wiederholen Sie dann die Abfrage erneut.

UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED

SQLSTATE: 0AKUC

Das Erstellen einer Tabelle im Unity-Katalog mit dateischema <schemeName> wird nicht unterstützt.

Erstellen Sie stattdessen eine Verbunddatenquellenverbindung mit dem Befehl CREATE CONNECTION für denselben Tabellenanbieter, und erstellen Sie dann einen Katalog basierend auf der Verbindung mit einem CREATE FOREIGN CATALOG-Befehl, um auf die darin enthaltenen Tabellen zu verweisen.

UC_HIVE_METASTORE_DISABLED_EXCEPTION

SQLSTATE: 0A000

Der Vorgang hat versucht, hive Metastore<identifier> zu verwenden, der aufgrund des deaktivierten Legacyzugriffs in Ihrem Konto oder Arbeitsbereich deaktiviert ist. Überprüfen Sie den Standardkatalog und die Standard-Namespace-Einstellung in der aktuellen Sitzung. Wenn Sie auf den Hive-Metastore zugreifen müssen, bitten Sie Ihren Administrator, den Hive-Metastore-Partnerverbund über den Unity-Katalog einzurichten.

UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED

SQLSTATE: 56038

Die Hive Metastore Federationsansicht unterstützt keine Abhängigkeiten über mehrere Kataloge hinweg. Ansicht <view> im Hive-Metastore-Verbundkatalog muss Abhängigkeiten aus dem hive_metastore- oder dem spark_catalog-Katalog verwenden, aber die Abhängigkeit <dependency> befindet sich in einem anderen Katalog <referencedCatalog>. Aktualisieren Sie die Abhängigkeiten, um diese Einschränkung zu erfüllen, und wiederholen Sie dann die Abfrage oder den Befehl erneut.

UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED

SQLSTATE: 0A000

Der Hive-Metastore-Partnerverbund ist für diesen Cluster nicht aktiviert.

Der Zugriff auf den Katalog <catalogName> wird in diesem Cluster nicht unterstützt.

UC_INVALID_DEPENDENCIES

SQLSTATE: 56098

Abhängigkeiten von <securable> werden als <storedDeps> aufgezeichnet, während sie als <parsedDeps>geparst werden. Dies ist wahrscheinlich durch falsche Verwendung einer NICHT-SQL-API aufgetreten.

Weitere Informationen finden Sie unter UC_INVALID_DEPENDENCIES

UC_INVALID_NAMESPACE

SQLSTATE: 0AKUC

Geschachtelte oder leere Namespaces werden im Unity-Katalog nicht unterstützt.

UC_INVALID_REFERENCE

SQLSTATE: 0AKUC

Nicht-Unity-Catalog-Objekt <name> kann in Unity Catalog-Objekten nicht referenziert werden.

UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED

SQLSTATE: 56038

Die Unity Catalog Lakehouse Federation-Schreibunterstützung ist für den Anbieter <provider> in diesem Cluster nicht aktiviert.

UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED

SQLSTATE: 42601

Das verwaltete Volume akzeptiert keine LOCATION-Klausel. Bitte überprüfen Sie die Syntax 'CREATE VOLUME ...' zum Erstellen eines verwalteten Volumes.

UC_NOT_ENABLED

SQLSTATE: 56038

Unity-Katalog ist für diesen Cluster nicht aktiviert.

UC_QUERY_FEDERATION_NOT_ENABLED

SQLSTATE: 56038

Unity Catalog Query Federation ist für diesen Cluster nicht aktiviert.

UC_RESOLVED_DBFS_PATH_MISMATCH

SQLSTATE: 0AKUC

Fehler bei der Abfrage, weil versucht wurde, auf <objectType> <name> zu verweisen, dies aber nicht möglich war: Der aufgelöste DBFS-Pfad <resolvedHmsPath> stimmt nicht mit dem Unity-Katalogspeicherort <ucStorageLocation> überein.

UC_SECRETS_NICHT_AKTIVIERT

SQLSTATE: 56038

Die Unterstützung für Geheimnisse des Unity-Katalogs ist nicht aktiviert.

UC_GEHEIMNIS_EXISTIERT_BEREITS

SQLSTATE: 42713

Geheimer Schlüssel <name> kann nicht erstellt werden, da er bereits vorhanden ist.

Wählen Sie einen anderen Namen aus, legen Sie das vorhandene Objekt ab, oder ersetzen Sie das vorhandene Objekt, oder fügen Sie die IF NOT EXISTS Klausel hinzu, um bereits vorhandene Objekte zu tolerieren.

UC_SECRET_NOT_FOUND

SQLSTATE: 42704

Geheimer Schlüssel <name> ist nicht vorhanden. Verwenden Sie 'SHOW SECRETS' zum Auflisten verfügbarer geheimer Schlüssel.

UC_SERVICE_CREDENTIALS_NOT_ENABLED

SQLSTATE: 56038

Dienstanmeldedaten sind für diesen Cluster nicht aktiviert.

UC_TABLE_METADATA_OUT_OF_SYNC

SQLSTATE: 55019

Tabelle <tableName> kann nicht abgefragt werden, da Tabellenmetadaten im Katalog nicht synchronisiert sind. Reparieren Sie die Tabelle, indem Sie zuerst 'MSK REPAIR TABLE <tableName> SYNC METADATA' ausführen, um Metadaten zu synchronisieren.

UC_UNCAUGHT_CLIENT_EXCEPTION

SQLSTATE: KCUC4

Unerwarteter HTTP-Fehler beim Kommunizieren mit dem Databricks Unity Catalog-Back-End. Fehlercode: <errCode>. Meldung: <message>

UC_VOLUMES_NOT_ENABLED

SQLSTATE: 56038

Die Unterstützung für Unity-Katalogvolumes ist für diese Instanz nicht aktiviert.

UC_VOLUMES_NOT_SUPPORTED

SQLSTATE: 0A000

Volumes werden für diesen Vorgang nicht unterstützt. Der angegebene Pfad war '<path>'.

UC_VOLUMES_SHARING_NOT_ENABLED

SQLSTATE: 56038

Die Unterstützung für Volume-Sharing ist für diese Instanz nicht aktiviert.

UC_VOLUME_NOT_FOUND

SQLSTATE: 42704

Volume <name> existiert nicht. Verwenden Sie "SHOW VOLUMES" zum Auflisten der verfügbaren Volumes.

UDF_ENVIRONMENT_ERROR

SQLSTATE: 39000

Konnte UDF-Abhängigkeiten für <udfName> aufgrund eines Systemfehlers nicht installieren.

Weitere Details finden Sie unter UDF_ENVIRONMENT_ERROR.

UDF_ENVIRONMENT_USER_ERROR

SQLSTATE: 39000

Fehler beim Installieren von UDF-Abhängigkeiten für <udfName>.

Weitere Details finden Sie unter UDF_ENVIRONMENT_USER_ERROR

UDF_ERROR

SQLSTATE: nicht zugewiesen

Fehler bei der Ausführung der Funktion <fn>

Weitere Details finden Sie unter UDF_ERROR

UDF_LIMITS

SQLSTATE: 54KD0

Mindestens ein UDF-Grenzwert wurde verletzt.

Weitere Informationen finden Sie unter UDF_LIMITS

UDF_MAX_COUNT_EXCEEDED

SQLSTATE: 54KD0

Der abfrageweite UDF-Grenzwert von <maxNumUdfs> UDFs wurde überschritten (während der öffentlichen Vorschau beschränkt). Es wurde <numUdfs> gefunden. Die UDFs waren: <udfNames>.

UDF_PYSPARK_ERROR

SQLSTATE: 39000

Python-Worker unerwartet beendet

Weitere Informationen finden Sie unter UDF_PYSPARK_ERROR

UDF_PYSPARK_UNSUPPORTED_TYPE

SQLSTATE: 0A000

PySpark UDF <udf> (<eval-type>) wird für Cluster im Modus für den freigegebenen Zugriff nicht unterstützt.

UDF_PYSPARK_USER_CODE_ERROR

SQLSTATE: 39000

Fehler bei der Ausführung.

Weitere Details finden Sie unter UDF_PYSPARK_USER_CODE_ERROR.

UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE

SQLSTATE: 0A000

Der Parameterstandardwert wird für benutzerdefinierte <functionType>-Funktion nicht unterstützt.

UDF_USER_CODE_ERROR

SQLSTATE: 39000

Fehler bei der Ausführung der Funktion <fn>.

Weitere Informationen finden Sie unter UDF_USER_CODE_ERROR

UDTF_ALIAS_NUMBER_MISMATCH

SQLSTATE: 42802

Die Anzahl der in der AS Klausel angegebenen Aliase stimmt nicht mit der Anzahl der Spalten überein, die vom UDTF ausgegeben werden.

Es wurden <aliasesSize> Aliase erwartet, aber <aliasesNames> erhalten.

Stellen Sie sicher, dass die Anzahl der bereitgestellten Aliase mit der Anzahl der von der UDTF ausgegebenen Spalten übereinstimmt.

UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD

SQLSTATE: 42802

Fehler beim Auswerten der benutzerdefinierten Tabellenfunktion, da die 'analyze'-Methode eine angeforderte OrderingColumn zurückgegeben hat, deren Spaltenname-Ausdruck einen unnötigen Alias <aliasName> enthält. Bitte entfernen Sie diesen Alias und versuchen Sie die Abfrage dann erneut.

UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS

SQLSTATE: 42802

Fehler beim Auswerten der benutzerdefinierten Tabellenfunktion, da die 'analyze'-Methode einen angeforderten 'select'-Ausdruck (<expression>) zurückgegeben hat, der keinen entsprechenden Alias enthält. Aktualisieren Sie die UDTF, um dort einen Alias anzugeben, und versuchen Sie es dann erneut.

UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE

SQLSTATE: 42K0G

Sql-Typ-<toType> kann nicht in den Protobuf-Typ <protobufType>konvertiert werden.

UNABLE_TO_FETCH_HIVE_TABLES

SQLSTATE: 58030

Das Abrufen von Tabellen der Hive-Datenbank ist nicht möglich: <dbName>. Fehlerklassenname: <className>.

UNABLE_TO_INFER_PIPELINE_TABLE_SCHEMA

SQLSTATE: 42KD9

Fehler beim Ableiten des Schemas für die Tabelle <tableName> aus den vorgelagerten Flüssen.

Ändern Sie die Flüsse, die in diese Tabelle schreiben, um deren Schemas kompatibel zu machen.

Abgeleitetes Schema bisher:

<inferredDataSchema>

Inkompatibles Schema:

<incompatibleDataSchema>

UNABLE_TO_INFER_SCHEMA

SQLSTATE: 42KD9

Es war nicht möglich, das Schema für <format>zu ermitteln. Sie muss manuell angegeben werden.

NICHT AUTHENTIFIZIERT

SQLSTATE: 08000

Die Anfrage verfügt nicht über gültige Authentifizierungsdaten für den Vorgang.

UNAUTHORIZED_ACCESS

SQLSTATE: 42501

Nicht autorisierter Zugriff:

<report>

UNBOUND_SQL_PARAMETER

SQLSTATE: 42P02

Der ungebundene Parameter wurde gefunden: <name>. Korrigieren args Sie den Parameter, und stellen Sie eine Zuordnung des Parameters zu einer SQL-Literal- oder Sammlungskonstruktorfunktion bereit, z map(), array(), struct(). B. .

UNCLOSED_BRACKETED_COMMENT

SQLSTATE: 42601

Es wurde ein nicht eingeschlossener Kommentar in Klammern gefunden. Fügen Sie */am Ende des Kommentars an.

UNEXPECTED_INPUT_TYPE

SQLSTATE: 42K09

Parameter <paramIndex> funktion <functionName> erfordert den typ <requiredType>, <inputSql> hat jedoch den Typ <inputType>.

UNEXPECTED_INPUT_TYPE_OF_NAMED_PARAMETER

SQLSTATE: 42K09

Der <namedParamKey> Parameter der Funktion <functionName> erfordert den <requiredType> Typ, <inputSql> jedoch den Typ <inputType>hat.<hint>

UNEXPECTED_OPERATOR_IN_STREAMING_VIEW

SQLSTATE: 42KDD

Unerwarteter Operator <op> in der CREATE VIEW-Anweisung als Streamingquelle.

Eine Streamingansichtsabfrage darf nur aus Vorgängen SELECT, WHEREbestehen UNION ALL .

UNEXPECTED_POSITIONAL_ARGUMENT

SQLSTATE: 4274K

Routine <routineName> kann nicht aufgerufen werden, weil sie positionelle Argumente enthält, die dem benannten Argument folgen, das <parameterName> zugewiesen ist. Ordnen Sie sie neu an, sodass die positionellen Argumente am Anfang stehen, und wiederholen Sie dann die Abfrage.

UNEXPECTED_SERIALIZER_FOR_CLASS

SQLSTATE: 42846

Die Klasse <className> verfügt über einen unerwarteten Expressionsserialisierer. Erwartet wurde „STRUCT“ oder „IF“ (gibt „STRUCT“ zurück), gefunden wurde aber <expr>.

UNION_NOT_SUPPORTED_IN_RECURSIVE_CTE

SQLSTATE: 42836

Der UNION Operator wird in rekursiven allgemeinen Tabellenausdrücken (WITH Klauseln, die direkt oder indirekt auf sich selbst verweisen) noch nicht unterstützt. Verwenden Sie stattdessen UNION ALL.

EINDEUTIGKEITSBEDINGUNG_DEAKTIVIERT

SQLSTATE: 0A000

Das Feature "Eindeutige Einschränkung" ist deaktiviert. Legen Sie zum Aktivieren "spark.databricks.sql.dsv2.unique.enabled" als "true" fest.

UNKNOWN_FIELD_EXCEPTION

SQLSTATE: KD003

<changeType> während dem Parsen von <unknownFieldBlob>, was durch eine automatische Wiederholung behoben werden kann: <isRetryable>

Weitere Details finden Sie unter UNKNOWN_FIELD_EXCEPTION.

UNKNOWN_POSITIONAL_ARGUMENT

SQLSTATE: 4274K

Der Aufruf von Routine-<routineName> enthält ein unbekanntes Positionsargument <sqlExpr> an Position <pos>. Dies ist ungültig.

UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT

SQLSTATE: 22023

Unbekannter Grundtyp mit id <id> wurde in einem Variant-Wert gefunden.

UNKNOWN_PROTOBUF_MESSAGE_TYPE

SQLSTATE: 42K0G

Es wurde versucht, <descriptorName> als Nachricht zu behandeln, aber es war <containingType>.

UNPIVOT_REQUIRES_ATTRIBUTES

SQLSTATE: 42K0A

UNPIVOT erfordert, dass alle angegebenen <given> Ausdrücke Spalten sein müssen, wenn keine <empty> Ausdrücke angegeben werden. Dies sind keine Spalten: [<expressions>].

UNPIVOT_REQUIRES_VALUE_COLUMNS

SQLSTATE: 42K0A

Mindestens eine Wertspalte muss für UNPIVOTangegeben werden, während alle anderen Spalten als IDs angegeben werden.

UNPIVOT_VALUE_DATA_TYPE_MISMATCH

SQLSTATE: 42K09

UNPIVOT-Wertspalten müssen mindestens einen allgemeinen Typ teilen, dies ist für einige Typen nicht der Fall: [<types>].

UNPIVOT_VALUE_SIZE_MISMATCH

SQLSTATE: 428C4

Alle UNPIVOT-Wertspalten müssen dieselbe Größe aufweisen wie Wertspaltennamen (<names>).

UNRECOGNIZED_PARAMETER_NAME

SQLSTATE: 4274K

Routine-<routineName> kann nicht aufgerufen werden, da der Routineaufruf einen benannten Argumentverweis für das Argument namens <argumentName>enthält, aber diese Routine enthält keine Signatur, die ein Argument mit diesem Namen enthält. Meinten Sie einen der folgenden Punkte? [<proposal>].

UNRECOGNIZED_SQL_TYPE

SQLSTATE: 42704

Unbekannter SQL-Typ - Name: <typeName>, ID: <jdbcType>.

UNRECOGNIZED_STATISTIC

SQLSTATE: 42704

Die Statistik <stats> wird nicht erkannt. Gültige Statistiken enthalten count, count_distinct, approx_count_distinct, mean, stddev, min, max, und Quantilwerte. Perzentil muss ein numerischer Wert und gefolgt von '%' innerhalb des Bereichs 0% bis 100%sein.

UNRESOLVABLE_TABLE_VALUED_FUNCTION

SQLSTATE: 42883

<name> konnte nicht in eine Tabellenwertfunktion aufgelöst werden.

Stellen Sie sicher, dass <name> als Tabellenwertfunktion definiert ist und dass alle erforderlichen Parameter korrekt bereitgestellt werden.

Wenn <name> nicht definiert ist, erstellen Sie die Tabellenwertfunktion, bevor Sie sie verwenden.

Weitere Informationen zum Definieren von Tabellenwertfunktionen finden Sie in der Apache Spark-Dokumentation.

UNRESOLVED_ALL_IN_GROUP_BY

SQLSTATE: 42803

Die Gruppierung von Spalten für GROUP BY ALL kann nicht basierend auf der Auswahlklausel abgeleitet werden. Geben Sie die Gruppierungsspalten explizit an.

UNRESOLVED_COLUMN

SQLSTATE: 42703

Ein Spalten-, Variablen- oder Funktionsparameter mit dem Namen <objectName> kann nicht aufgelöst werden.

Weitere Informationen finden Sie unter UNRESOLVED_COLUMN

UNRESOLVED_COLUMN_AMONG_FIELD_NAMES

SQLSTATE: 42703

Der Spaltenname "<colName>" zwischen (<fieldNames>) kann nicht aufgelöst werden.

UNRESOLVED_FIELD

SQLSTATE: 42703

Ein Feld mit dem Namen <fieldName> kann nicht mit der Strukturspalte <columnPath>aufgelöst werden.

Weitere Informationen finden Sie unter UNRESOLVED_FIELD

UNRESOLVED_INSERT_REPLACE_USING_COLUMN

SQLSTATE: 42703

Die REPLACE USING-Spalte <colName> kann nicht in <relationType>aufgelöst werden.

Haben Sie eine der folgenden Spalten gemeint? [<suggestion>].

UNRESOLVED_MAP_KEY

SQLSTATE: 42703

Spalte <objectName> kann nicht als Kartenschlüssel aufgelöst werden. Wenn der Schlüssel ein Zeichenfolgenliteral ist, schließen Sie ihn in einzelne Anführungszeichen (“)ein.

Weitere Details finden Sie unter UNRESOLVED_MAP_KEY.

UNRESOLVED_ROUTINE

SQLSTATE: 42883

Routine <routineName> im Suchpfad <searchPath>kann nicht aufgelöst werden.

Überprüfen Sie die Schreibweise von <routineName>, überprüfen Sie, ob die Routine vorhanden ist, und bestätigen Sie, dass Sie über USE Berechtigungen für den Katalog und das Schema verfügen, und EXECUTE für die Routine.

Weitere Informationen finden Sie unter UNRESOLVED_ROUTINE

UNRESOLVED_TABLE_PATH

SQLSTATE: 22KD1

Der Speicherpfad für tabellen <identifier> kann nicht aufgelöst werden.

UNRESOLVED_USING_COLUMN_FOR_JOIN

SQLSTATE: 42703

USING-Spalte <colName> kann nicht auf der <side>-Seite des Join aufgelöst werden. Die <side>-seitigen Spalten: [<suggestion>].

UNRESOLVED_VARIABLE

SQLSTATE: 42883

Die Variable <variableName> für suchpfad <searchPath>kann nicht aufgelöst werden.

UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_FILE_FORMAT

SQLSTATE: 0A000

Unstrukturiertes Dateiformat <format> wird nicht unterstützt. Unterstützte Dateiformate sind <supportedFormats>.

Aktualisieren Sie format in Ihrem <expr>-Ausdruck auf eines der unterstützten Formate, und wiederholen Sie dann die Abfrage erneut.

UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_MODEL_OPTION

SQLSTATE: 0A000

Unstrukturierte Modelloption ('<option>' -> '<value>') wird nicht unterstützt. Unterstützte Werte sind: <supportedValues>.

Wechseln Sie zu einem der unterstützten Werte, und wiederholen Sie dann die Abfrage erneut.

UNSTRUCTURED_OCR_COLUMN_NOT_ALLOWED_WITH_METADATA_MODEL_OPTION

SQLSTATE: 42000

Der Funktionsparameter „ocrText“ muss NULL sein oder weggelassen werden, wenn die Option „metadataModel“ angegeben wird. Eine angegebene 'metadataModel'-Option löst die Metadatenextraktion aus, wobei ein bereitgestellter "ocrText" verboten ist.

UNSUPPORTED_ADD_FILE

SQLSTATE: 0A000

Unterstützen Sie das Hinzufügen von Dateien nicht.

Weitere Details finden Sie unter UNSUPPORTED_ADD_FILE.

UNSUPPORTED_ALTER_COLUMN_PARAMETER

SQLSTATE: 0A000

Das Angeben von <parameter> mit ALTER <commandTableType> wird nicht unterstützt.

UNSUPPORTED_ARROWTYPE

SQLSTATE: 0A000

Nicht unterstützter Pfeiltyp <typeName>.

UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION

SQLSTATE: 42000

Die Funktion <funcName> unterstützt keine Batchabfragen.

UNSUPPORTED_CALL

SQLSTATE: 0A000

Die Methode "<methodName>" der Klasse "<className>" kann nicht aufgerufen werden.

Weitere Details finden Sie unter UNSUPPORTED_CALL.

UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING

SQLSTATE: 0A000

Der Char-/VARCHAR-Typ kann nicht im Tabellenschema verwendet werden.

Wenn Spark diese als Zeichenfolgentyp wie Spark 3.0 und früher behandeln soll, legen Sie "spark.sql.legacy.charVarcharAsString" auf "true" fest.

UNSUPPORTED_CHAR_OR_VARCHAR_COLLATION

SQLSTATE: 0A000

Der Zeichen-/Varchar-Typ <type> darf keine Sortierung angegeben haben.

UNSUPPORTED_CLAUSE_FOR_OPERATION

SQLSTATE: 0A000

<clause> wird für <operation> nicht unterstützt.

UNSUPPORTED_COLLATION

SQLSTATE: 0A000

Die <collationName>-Sortierung wird nicht unterstützt für:

Weitere Details finden Sie unter UNSUPPORTED_COLLATION.

UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE

SQLSTATE: 42616

Der gemeinsame Vorgänger des Quellpfads und der sourceArchiveDir sollte bei UC registriert werden.

Wenn diese Fehlermeldung angezeigt wird, ist es wahrscheinlich, dass Sie den Quellpfad und den sourceArchiveDir an verschiedenen externen Speicherorten registrieren.

Platzieren Sie sie in einem einzigen externen Speicherort.

UNSUPPORTED_CONNECT_FEATURE

SQLSTATE: 0A000

Das Feature wird in Spark Connect nicht unterstützt:

Weitere Einzelheiten finden Sie unter UNSUPPORTED_CONNECT_FEATURE

UNSUPPORTED_CONSTRAINT_CHARACTERISTIC

SQLSTATE: 0A000

Das Einschränkungsmerkmal '<characteristic>' wird für den Einschränkungstyp '<constraintType>' nicht unterstützt.

UNSUPPORTED_CONSTRAINT_CLAUSES

SQLSTATE: 0A000

Einschränkungsklauseln <clauses> werden nicht unterstützt.

UNSUPPORTED_CONSTRAINT_TYPE

SQLSTATE: 42000

Nicht unterstützter Einschränkungstyp. Nur <supportedConstraintTypes> werden unterstützt

UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY

SQLSTATE: 0A000

Nicht unterstützter Datenquellentyp für direkte Abfrage für Dateien: <dataSourceType>

UNSUPPORTED_DATATYPE

SQLSTATE: 0A000

Nicht unterstützter Datentyp <typeName>.

UNSUPPORTED_DATA_SOURCE_SAVE_MODE

SQLSTATE: 0A000

Die Datenquelle "<source>" kann nicht im <createMode> Modus geschrieben werden. Verwenden Sie stattdessen den Modus "Anfügen" oder "Überschreiben".

UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE

SQLSTATE: 0A000

Die <format> Datenquelle unterstützt die Spalte <columnName> des Typs <columnType>nicht.

UNSUPPORTED_DATA_TYPE_FOR_ENCODER

SQLSTATE: 0A000

Encoder für <dataType>kann nicht erstellt werden. Verwenden Sie einen anderen Ausgabedatentyp für Ihre UDF oder DataFrame.

UNSUPPORTED_DEFAULT_VALUE

SQLSTATE: 0A000

DEFAULT-Spaltenwerte werden nicht unterstützt.

Weitere Details finden Sie unter UNSUPPORTED_DEFAULT_VALUE.

UNSUPPORTED_DESERIALIZER

SQLSTATE: 0A000

Der Deserialisierer wird nicht unterstützt:

Weitere Details finden Sie unter UNSUPPORTED_DESERIALIZER.

UNSUPPORTED_EXPRESSION_GENERATED_COLUMN

SQLSTATE: 42621

Die generierte Spalte <fieldName> mit Generierungsausdruck <expressionStr> kann nicht erstellt werden, da <reason>.

UNSUPPORTED_EXPR_FOR_OPERATOR

SQLSTATE: 42K0E

Ein Abfrageoperator enthält einen oder mehrere nicht unterstützte Ausdrücke.

Erwägen Sie, sie neu zu schreiben, um Fensterfunktionen, Aggregatfunktionen und Generatorfunktionen in der WHERE-Klausel zu vermeiden.

Ungültige Ausdrücke: [<invalidExprSqls>]

UNSUPPORTED_EXPR_FOR_PARAMETER

SQLSTATE: 42K0E

Ein Abfrageparameter enthält einen nicht unterstützten Ausdruck.

Parameter können Variablen oder Literale sein.

Ungültiger Ausdruck: [<invalidExprSql>]

UNSUPPORTED_EXPR_FOR_WINDOW

SQLSTATE: 42P20

Ausdruck <sqlExpr> wird in einer Fensterfunktion nicht unterstützt.

UNSUPPORTED_FEATURE

SQLSTATE: 0A000

Das Feature wird nicht unterstützt:

Weitere Details finden Sie unter UNSUPPORTED_FEATURE.

UNSUPPORTED_FN_TYPE

SQLSTATE: 0A000

Nicht unterstützter benutzerdefinierter Funktionstyp: <language>

UNSUPPORTED_GENERATOR

SQLSTATE: 42K0E

Der Generator wird nicht unterstützt:

Weitere Details finden Sie unter UNSUPPORTED_GENERATOR.

UNSUPPORTED_GROUPING_EXPRESSION

SQLSTATE: 42K0E

grouping()/grouping_id() kann nur mit GroupingSets/Cube/Rollup verwendet werden.

UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE

SQLSTATE: 42616

<trigger> mit der initialen Position <initialPosition> wird mit der Kinesis-Quelle nicht unterstützt

UNSUPPORTED_INSERT

SQLSTATE: 42809

Das Einfügen in das Ziel ist nicht möglich.

Weitere Details finden Sie unter UNSUPPORTED_INSERT.

UNSUPPORTED_JOIN_TYPE

SQLSTATE: 0A000

Nicht unterstützter Verknüpfungstyp '<typ>'. Unterstützte Verknüpfungstypen sind: <supported>.

UNSUPPORTED_MANAGED_TABLE_CREATION

SQLSTATE: 0AKDD

Das Erstellen einer verwalteten Tabelle <tableName> mithilfe von Datenquellen <dataSource> wird nicht unterstützt. Sie müssen Datenquelle DELTA verwenden oder eine externe Tabelle mit...CREATE EXTERNAL TABLE <tableName>USING <dataSource> ...

UNSUPPORTED_MERGE_CONDITION

SQLSTATE: 42K0E

Der MERGE-Vorgang enthält eine nicht unterstützte <condName>-Bedingung.

Weitere Informationen finden Sie unter UNSUPPORTED_MERGE_CONDITION.

UNSUPPORTED_METADATA_KEY

SQLSTATE: 42K0E

Nicht unterstützter Metadatenschlüssel: <key>. Unterstützte Schlüssel: <supportedKeys>.

UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY

SQLSTATE: 0A000

Tabelle <tableName> weist eine Sicherheitsrichtlinie oder Spaltenmaske auf Zeilenebene auf, die indirekt auf eine andere Tabelle mit einer Sicherheitsrichtlinie oder Spaltenmaske auf Zeilenebene verweist; dies wird nicht unterstützt. Anrufsequenz: <callSequence>

UNSUPPORTED_OPERATION_FOR_CONTINUOUS_MEMORY_SINK

SQLSTATE: 0A000

Der Vorgang <operation> wird für eine kontinuierliche Speichersenke nicht unterstützt. Wenn Sie einen Test für den Modus für Streaming in Echtzeit schreiben, erwägen Sie den Einsatz von CheckAnswerWithTimeout anstatt anderer Prüfungen.

UNSUPPORTED_OVERWRITE

SQLSTATE: 42902

Das Ziel, aus dem ebenfalls gelesen wird, kann nicht überschrieben werden.

Weitere Details finden Sie unter UNSUPPORTED_OVERWRITE.

UNSUPPORTED_PARTITION_TRANSFORM

SQLSTATE: 0A000

Nicht unterstützte Partitionstransformation: <transform>. Die unterstützten Transformationen sind identity, bucketund clusterBy. Stellen Sie sicher, dass ihr Transformationsausdruck eine dieser Ausdrücke verwendet.

UNSUPPORTED_PIPELINE_SPARK_SQL_COMMAND

SQLSTATE: 0A000

'<command>' wird in spark.sql("...")-API in Spark Declarative Pipeline nicht unterstützt.

UNSUPPORTED_PROCEDURE_COLLATION

SQLSTATE: 0A000

Die Prozedur <procedureName> muss DEFAULT COLLATION UTF8_BINARY angeben oder erben. Verwenden Sie CREATE PROCEDURE <procedureName> (...) DEFAULT COLLATION UTF_BINARY ....

UNSUPPORTED_SAVE_MODE

SQLSTATE: 0A000

Der Speichermodus <saveMode> wird für Folgendes nicht unterstützt:

Weitere Details finden Sie unter UNSUPPORTED_SAVE_MODE.

UNSUPPORTED_SHOW_CREATE_TABLE

SQLSTATE: 0A000

Unterstützung für einen SHOW CREATE TABLE-Befehl aufgehoben.

Weitere Details finden Sie unter UNSUPPORTED_SHOW_CREATE_TABLE.

UNSUPPORTED_SINGLE_PASS_ANALYZER_FEATURE

SQLSTATE: 0A000

Die Single-Pass-Analyse kann diese Abfrage oder diesen Befehl nicht verarbeiten, da sie <feature>noch nicht unterstützt.

UNSUPPORTED_SQL_UDF_USAGE

SQLSTATE: 0A000

Die Verwendung der SQL-Funktion <functionName> in <nodeName> wird nicht unterstützt.

UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK

SQLSTATE: 0A000

<outputMode>-Ausgabemodus wird für <statefulOperator> beim Streamen von DataFrames/DataSets ohne Wasserzeichen nicht unterstützt.

UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW

SQLSTATE: 0A000

Streaming einer Ansicht wird nicht unterstützt. Reason:

Weitere Details finden Sie unter UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW.

UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED

SQLSTATE: 0A000

Die Streamingoptionen <options> werden für eine Datenquelle <source> in einem freigegebenen Cluster nicht unterstützt. Vergewissern Sie sich, dass die Optionen richtig<prefixHint> angegeben und richtig geschrieben sind, und überprüfen Sie auf https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode Einschränkungen.

UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED

SQLSTATE: 0A000

Die Datenquelle <sink> wird nicht als Streamingsenke in einem freigegebenen Cluster unterstützt.

UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED

SQLSTATE: 0A000

Datenquelle <source> wird nicht als Streamingquelle auf einem freigegebenen Cluster unterstützt.

UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION

SQLSTATE: 42000

Die Funktion <funcName> unterstützt kein Streaming. Entfernen Sie das Schlüsselwort STREAM

UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE

SQLSTATE: 0A000

<streamReadLimit> wird mit der Kinesis-Quelle nicht unterstützt.

UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY

SQLSTATE: 0A000

Nicht unterstützter Unterabfrageausdruck:

Weitere Details finden Sie unter UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY.

UNSUPPORTED_TABLE_CHANGE_IN_AUTO_SCHEMA_EVOLUTION

SQLSTATE: 42000

Die Tabellenänderungen <changes> werden vom Katalog der Tabelle <tableName>nicht unterstützt.

UNSUPPORTED_TABLE_CHANGE_IN_JDBC_CATALOG

SQLSTATE: 42000

Die Tabellenänderung <change> wird für den JDBC-Katalog in Tabelle <tableName> nicht unterstützt. Unterstützte Änderungen sind: AddColumn, RenameColumn, DeleteColumn, UpdateColumnType, UpdateColumnNullability.

UNSUPPORTED_TIMESERIES_COLUMNS

SQLSTATE: 56038

Das Erstellen eines Primärschlüssels mit Zeitserienspalten wird nicht unterstützt.

UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN

SQLSTATE: 0A000

Das Erstellen eines Primärschlüssels mit mehr als einer Zeitserienspalte <colSeq> wird nicht unterstützt.

UNSUPPORTED_TIME_PRECISION

SQLSTATE: 0A001

Die Sekundengenauigkeit <precision> des TIME-Datentyps liegt außerhalb des unterstützten Bereichs [0, 6].

UNSUPPORTED_TIME_TYPE

SQLSTATE: 0A000

Der Datentyp TIME wird nicht unterstützt.

UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE

SQLSTATE: 0A000

<trigger> wird mit der Kinesis-Quelle nicht unterstützt.

UNSUPPORTED_TYPED_LITERAL

SQLSTATE: 0A000

Literale des Typs <unsupportedType> werden nicht unterstützt. Folgende Typen werden unterstützt: <supportedTypes>.

UNSUPPORTED_UDF_FEATURE

SQLSTATE: 0A000

Die Funktion <function> verwendet die folgenden Features, die eine neuere Version der Databricks-Laufzeit erfordern: <features>. Weitere Informationen finden Sie in <docLink>.

UNSUPPORTED_UDF_TYPES_IN_SAME_PLACE

SQLSTATE: 0A000

UDF-Typen können nicht zusammen verwendet werden: <types>

UNTYPED_SCALA_UDF

SQLSTATE: 42K0E

Sie verwenden nicht typisierte Scala UDF, die keine Eingabetypinformationen enthält.

Spark übergibt möglicherweise blind NULL an die Skala-Schließung mit dem Argument "Grundtyp", und beim Schließen wird der Standardwert des Java-Typs für das Null-Argument angezeigt, udf((x: Int) => x, IntegerType)z. B. ist das Ergebnis 0 für null-Eingabe. Um diesen Fehler zu entfernen, können Sie folgende Aktionen ausführen:

  1. verwenden Sie typisierte Scala-UDF-APIs (ohne Rückgabetypparameter), zum Beispiel udf((x: Int) => x).

  2. Verwenden Sie Java-UDF-APIs, z. B. udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType), wenn Eingabetypen alle nicht primitiv sind.

  3. legen Sie "spark.sql.legacy.allowUntypedScalaUDF" auf "true" fest, und verwenden Sie diese API vorsichtig.

UPGRADE_NOT_SUPPORTED

SQLSTATE: 0AKUC

Die Tabelle ist nicht berechtigt, ein Upgrade von Hive Metastore auf den Unity-Katalog durchzuführen. Reason:

Weitere Details finden Sie unter UPGRADE_NOT_SUPPORTED.

USER_DEFINED_FUNCTIONS

SQLSTATE: 42601

Benutzerdefinierte Funktion ist ungültig:

Weitere Details finden Sie unter USER_DEFINED_FUNCTIONS.

USER_RAISED_EXCEPTION

SQLSTATE: P0001

<errorMessage>

USER_RAISED_EXCEPTION_PARAMETER_MISMATCH

SQLSTATE: P0001

Die raise_error()-Funktion wurde zum Auslösen der Fehlerklasse verwendet: <errorClass>, die Parameter erwartet: <expectedParms>.

Die bereitgestellten Parameter <providedParms> entsprechen nicht den erwarteten Parametern.

Stellen Sie sicher, dass Sie alle erwarteten Parameter angeben.

USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS

SQLSTATE: P0001

Die raise_error()-Funktion wurde verwendet, um eine unbekannte Fehlerklasse auszuheben: <errorClass>

USER_SPECIFIED_AND_ACTUAL_SCHEMA_MISMATCH

SQLSTATE: 42K03

Das vom Benutzer angegebene Schema stimmt nicht mit dem tatsächlichen Schema überein:

vom Benutzer angegeben: , ist: <schema><actualSchema>. Wenn Sie dies verwenden

Die DataFrameReader.schema-API oder das Erstellen einer Tabelle geben Sie das Schema nicht an.

Oder wenn Sie eine vorhandene Tabelle scannen, legen Sie sie ab, und erstellen Sie sie erneut.

BENUTZER_SPEZIFIZIERTES_UND_FESTGESTELLTES_SCHEMA_NICHT_KOMPATIBEL

SQLSTATE: 42000

Tabelle '<tableName>' weist ein vom Benutzer angegebenes Schema auf, das nicht mit dem Schema kompatibel ist.

abgeleitet von der Abfrage.

<streamingTableHint>

Deklariertes Schema:

<specifiedSchema>

Abgeleitetes Schema:

<inferredDataSchema>

USE_CATALOG_SCHEMA_IN_DEFINER_STORED_PROCEDURE_NOT_SUPPORTED

SQLSTATE: 0A000

Das Festlegen des Katalogs oder Schemas innerhalb der gespeicherten SQL-Prozedur SECURITY DEFINER wird nicht unterstützt.

VARIABLE_ALREADY_EXISTS

SQLSTATE: 42723

Die Variable <variableName> kann nicht erstellt werden, da sie bereits vorhanden ist.

Wählen Sie einen anderen Namen aus, oder legen Sie die vorhandene Variable ab, oder ersetzen Sie sie.

VARIABLE_NOT_FOUND

SQLSTATE: 42883

Die Variable <variableName> wurde nicht gefunden. Überprüfen Sie die Rechtschreibung und Korrektheit des Schemas und Katalogs.

Wenn Sie den Namen nicht mit einem Schema und Katalog qualifiziert haben, überprüfen Sie die ausgabe current_schema() oder qualifizieren Sie den Namen mit dem richtigen Schema und Katalog.

Um den Fehler beim Trennen zu tolerieren, verwenden Sie DROP VARIABLE IF EXISTS.

VARIANT_CONSTRUCTOR_SIZE_LIMIT

SQLSTATE: 22023

Es kann kein Variant-Wert erstellt werden, der größer als 16 MiB ist. Die maximal zulässige Größe eines Variant-Werts beträgt 16 MiB.

VARIANT_DUPLICATE_KEY

SQLSTATE: 22023

Fehler beim Erstellen der Variante aufgrund eines doppelten Objektschlüssels <key>.

VARIANT_SIZE_LIMIT

SQLSTATE: 22023

Es kann keine Variante erstellt werden, die größer als <sizeLimit> in <functionName>ist.

Vermeiden Sie große Eingabezeichenfolgen für diesen Ausdruck (z. B. fügen Sie Funktionsaufrufe hinzu, um die Größe des Ausdrucks zu überprüfen und sie zuerst in NULL zu konvertieren, wenn sie zu groß ist).

VERSIONED_CLONE_UNSUPPORTED_TABLE_FEATURE

SQLSTATE: 56038

Der Quelltabellenverlauf enthält (ein) Tabellenfeature(s), das/die in dieser DBR-Version von der versionsgesteuerten Kopie nicht unterstützt wird/werden: <unsupportedFeatureNames>.

Aktualisieren Sie bitte auf eine neuere DBR-Version.

VIEW_ALREADY_EXISTS

SQLSTATE: 42P07

Die Ansicht <relationName> kann nicht erstellt werden, da sie bereits existiert.

Wählen Sie einen anderen Namen aus, legen Sie das vorhandene Objekt ab, oder ersetzen Sie das vorhandene Objekt, oder fügen Sie die IF NOT EXISTS Klausel hinzu, um bereits vorhandene Objekte zu tolerieren.

VIEW_EXCEED_MAX_NESTED_DEPTH

SQLSTATE: 54K00

Die Tiefe der Ansicht <viewName> überschreitet die maximale Auflösungstiefe (<maxNestedDepth>).

Die Analyse wird abgebrochen, um Fehler zu vermeiden. Wenn Sie dies umgehen möchten, versuchen Sie, den Wert von "spark.sql.view.maxNestedViewDepth" zu erhöhen.

VIEW_NOT_FOUND

SQLSTATE: 42P01

Die Ansicht <relationName> kann nicht gefunden werden. Überprüfen Sie die Rechtschreibung und Korrektheit des Schemas und Katalogs.

Wenn Sie den Namen nicht mit einem Schema qualifiziert haben, überprüfen Sie die ausgabe current_schema() oder qualifizieren Sie den Namen mit dem richtigen Schema und Katalog.

Um den Fehler beim Trennen zu tolerieren, verwenden Sie DROP VIEW IF EXISTS.

VOLUME_ALREADY_EXISTS

SQLSTATE: 42000

Volume-<relationName> kann nicht erstellt werden, da es bereits vorhanden ist.

Wählen Sie einen anderen Namen aus, legen Sie das vorhandene Objekt ab, oder ersetzen Sie das vorhandene Objekt, oder fügen Sie die IF NOT EXISTS Klausel hinzu, um bereits vorhandene Objekte zu tolerieren.

WATERMARK_ADVANCEMENT_STRATEGY

SQLSTATE: 0A000

Die Strategie zur Entwicklung von Streamingwasserzeichen hat die folgende Einschränkung:

Weitere Informationen finden Sie unter WATERMARK_ADVANCEMENT_STRATEGY

WINDOW_FUNCTION_AND_FRAME_MISMATCH

SQLSTATE: 42K0E

Die Funktion <funcName> kann nur in einem sortierten zeilenbasierten Fensterrahmen mit einem einzigen Offset ausgewertet werden: <windowExpr>.

WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE

SQLSTATE: 42601

Für die Fensterfunktion <funcName> ist eine OVER-Klausel erforderlich.

WITH_CREDENTIAL

SQLSTATE: 42601

WITH CREDENTIAL Syntax wird für <type>nicht unterstützt.

WRITE_STREAM_NOT_ALLOWED

SQLSTATE: 42601

writeStream kann nur für ein Streaming-Dataset/DataFrame aufgerufen werden.

WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED

SQLSTATE: 0AKDC

Fehler beim Ausführen des Befehls, da DEFAULT-Werte beim Hinzufügen neuer Elemente nicht unterstützt werden.

Spalten zu bereits vorhandenen Delta-Tabellen nicht unterstützt werden. Fügen Sie die Spalte zunächst ohne Standardwert

und führen Sie dann stattdessen einen zweiten ALTER TABLE ALTER COLUMN SET DEFAULT-Befehl aus, um

an zukünftige eingefügte Zeilen anzufügen.

WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED

SQLSTATE: 0AKDE

Fehler beim Ausführen des Befehls <commandType>, da ihm ein DEFAULT-Wert zugewiesen wurde,

die entsprechende Tabellenfunktion wurde jedoch nicht aktiviert. Wiederholen Sie den Befehl erneut.

nach Ausführung von ALTER TABLE tableName SET

TBLPROPERTIES('delta.feature.allowColumnDefaults' = 'unterstützt').

WRONG_COMMAND_FOR_OBJECT_TYPE

SQLSTATE: 42809

Für den Vorgang <operation> ist ein <requiredType> erforderlich. Aber <objectName> ist ein <foundType>. Verwenden Sie stattdessen <alternative>.

WRONG_NUM_ARGS

SQLSTATE: 42605

Der <functionName> erfordert <expectedNum> Parameter, aber die tatsächliche Anzahl ist <actualNum>.

Weitere Details finden Sie unter WRONG_NUM_ARGS.

XML_ROW_TAG_MISSING

SQLSTATE: 42KDF

<rowTag> Die Option ist für das Lesen/Schreiben von Dateien im XML-Format erforderlich.

XML_UNSUPPORTED_NESTED_TYPES

SQLSTATE: 0N000

XML unterstützt <innerDataType> nicht als inneren Typ von <dataType>. Umschließen Sie den <innerDataType> innerhalb eines StructType-Felds, wenn Sie ihn in <dataType> verwenden.

XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR

SQLSTATE: 22023

Wiederhergestellte Daten und Platzhalterspalten können nicht gleichzeitig aktiviert werden. Entfernen Sie die wildcardColumnName-Option.

ZORDERBY_COLUMN_DOES_NOT_EXIST

SQLSTATE: 42703

Die Spalte <columnName> "ZOrderBy" ist nicht vorhanden.

Deltasee

DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND

SQLSTATE: 08003

Aktive SparkSession konnte nicht gefunden werden.

DELTA_ACTIVE_TRANSACTION_ALREADY_SET

SQLSTATE: 0B000

Ein neuer txn kann nicht als aktiv festgelegt werden, wenn eins bereits aktiv ist.

DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED

SQLSTATE: 42000

Fehler beim Hinzufügen von Spalte <colName>, da der Name reserviert ist.

DELTA_ADDING_DELETION_VECTORS_DISALLOWED

SQLSTATE: 0A000

Der aktuelle Vorgang hat versucht, einer Tabelle einen Löschvektor hinzuzufügen, der die Erstellung neuer Löschvektoren nicht zulässt. Bitte geben Sie einen Fehlerbericht an.

DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED

SQLSTATE: 42000

Alle Vorgänge, die Löschvektoren hinzufügen, sollten die "tightBounds"-Spalte in Statistiken auf "false" festlegen. Bitte geben Sie einen Fehlerbericht an.

DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO

SQLSTATE: 42KD3

Index <columnIndex> zum Hinzufügen von Spalten <columnName> ist niedriger als 0.

DELTA_ADD_COLUMN_PARENT_NOT_STRUCT

SQLSTATE: 42KD3

<columnName> kann nicht hinzugefügt werden, da das übergeordnete Element kein StructType ist. Es wurde <other> gefunden.

DELTA_ADD_COLUMN_STRUCT_NOT_FOUND

SQLSTATE: 42KD3

Die Struktur wurde an Position <position> nicht gefunden.

DELTA_ADD_CONSTRAINTS

SQLSTATE: 0A000

Verwenden Sie ALTER TABLE ADD CONSTRAINT, um CHECK-Einschränkungen hinzuzufügen.

DELTA_AGGREGATE_IN_CHECK_CONSTRAINT

SQLSTATE: 42621

In einer CHECK Einschränkung gefunden<sqlExpr>. Aggregatausdrücke sind in CHECK Einschränkungen nicht zulässig.

DELTA_AGGREGATE_IN_GENERATED_COLUMN

SQLSTATE: 42621

Es wurde <sqlExpr> gefunden. Eine generierte Spalte kann keinen Aggregatausdruck verwenden.

DELTA_AGGREGATION_NOT_SUPPORTED

SQLSTATE: 42903

Aggregatfunktionen werden in der <operation> <predicate>nicht unterstützt.

DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER

SQLSTATE: 428FR

Fehler beim Ändern der Sortierung der Spalte <column>, da sie einen Bloom-Filterindex enthält. Bitte behalten Sie entweder die vorhandene Sortierung bei, oder legen Sie den Bloom-Filterindex ab, und wiederholen Sie dann den Befehl erneut, um die Sortierung zu ändern.

DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY

SQLSTATE: 428FR

Fehler beim Ändern der Sortierung der Spalte <column>, da es sich um eine Clusteringspalte handelt. Bitte behalten Sie entweder die vorhandene Sortierung bei, oder ändern Sie die Spalte in eine Spalte ohne Clustering mit einem ALTER TABLE Befehl, und wiederholen Sie dann den Befehl erneut, um die Sortierung zu ändern.

DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED

SQLSTATE: 42837

ALTER TABLE CHANGE COLUMN wird nicht unterstützt, um die Spalte von <currentType> zu <newType> zu ändern.

DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED

SQLSTATE: 42000

ALTER TABLE CLUSTER BY wird nur für die Delta-Tabelle mit Liquid Clustering unterstützt.

DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED

SQLSTATE: 42000

ALTER TABLE CLUSTER BY kann nicht auf eine partitionierte Tabelle angewendet werden.

DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED

SQLSTATE: 42000

Vorgang nicht zulässig: ALTER TABLE RENAME TO ist für verwaltete Delta-Tabellen auf S3 nicht zulässig, da die schlussendliche Konsistenz in S3 das Delta-Transaktionsprotokoll beschädigen kann. Wenn Sie darauf bestehen und sicher sind, dass noch nie eine Delta-Tabelle mit dem neuen Namen <newName> vorhanden ist, können Sie dies aktivieren, indem Sie <key> auf "true" festlegen.

DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED

SQLSTATE: 42000

Das <tableFeature>-Tabellenfeature kann nicht mit ALTER TABLE SET TBLPROPERTIES aktiviert werden. Verwenden Sie CREATE ODER REPLACE TABLE CLUSTER BY, um eine Delta-Tabelle mit Clustering zu erstellen.

DELTA_ALTER_TABLE_SET_MANAGED_COPY_OR_MOVE_REQUIRED

SQLSTATE: 42809

ALTER TABLE ... SET MANAGED erfordert COPY , dass MOVE für fremdtabelle <table>angegeben wird.

DELTA_ALTER_TABLE_SET_MANAGED_DOES_NOT_SUPPORT_UNIFORM_ICEBERG

SQLSTATE: 0A000

ALTER TABLE ... SET MANAGED unterstützt keine Uniform Apache Iceberg-Tabelle. Uniform deaktivieren oder SET MANAGED TRUNCATE UNIFORM HISTORY verwenden.

DELTA_ALTER_TABLE_SET_MANAGED_FAILED

SQLSTATE: 42809

ALTER TABLE <table> SET MANAGED fehlgeschlagen.

Weitere Einzelheiten finden Sie unter DELTA_ALTER_TABLE_SET_MANAGED_FAILED

DELTA_ALTER_TABLE_SET_MANAGED_NOT_ENABLED

SQLSTATE: 0AKDC

ALTER TABLE ... SET MANAGED der Befehl ist nicht aktiviert. Wenden Sie sich an Ihr Databricks-Supportteam, um Unterstützung zu erhalten.

DELTA_ALTER_TABLE_SET_MANAGED_TABLE_NOT_MIGRATABLE

SQLSTATE: 55019

ALTER TABLE <table> SET MANAGED die angegebene Tabelle kann nicht migriert werden.

Stellen Sie sicher, dass sich die Tabelle in einem gültigen Zustand befindet, und wiederholen Sie den Befehl. Wenn das Problem weiterhin besteht, wenden Sie sich an den Databricks-Support.

Weitere Informationen finden Sie unter DELTA_ALTER_TABLE_SET_MANAGED_TABLE_NOT_MIGRATABLE

DELTA_ALTER_TABLE_SET_MANAGED_UNSUPPORTED_COPY_MOVE_SYNTAX

SQLSTATE: 42809

ALTER TABLE ... SET MANAGED [COPY | MOVE] Die Syntax wird für Die Tabelle <table>nicht unterstützt. Verwenden Sie stattdessen ALTER TABLE ... SET MANAGED.

DELTA_ALTER_TABLE_SET_MANAGED_UNSUPPORTED_FOREIGN_TABLE

SQLSTATE: 42809

Fremdtabelle <table> wird für die Migration zur UC-verwalteten Tabelle nicht unterstützt: <errorMessage>.

DELTA_ALTER_TABLE_UNSET_MANAGED_DOES_NOT_SUPPORT_COMPATIBILITY_MODE

SQLSTATE: 0AKDC

ALTER TABLE ... UNSET MANAGED unterstützt keine Tabelle mit aktivierter Kompatibilitätsmodus.

Deaktivieren Sie den Kompatibilitätsmodus in der Tabelle, bevor Sie diesen Befehl ausführen.

DELTA_ALTER_TABLE_UNSET_MANAGED_DOES_NOT_SUPPORT_UNIFORM

SQLSTATE: 0AKDC

ALTER TABLE ... UNSET MANAGED unterstützt Uniform nicht. Uniform deaktivieren oder UNSET MANAGED TRUNCATE UNIFORM HISTORY verwenden.

DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED

SQLSTATE: 42809

Für <table> kann kein Rollback von einer verwalteten auf eine externe Tabelle durchgeführt werden.

Weitere Einzelheiten finden Sie unter DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED

DELTA_ALTER_TABLE_UNSET_MANAGED_NOT_ENABLED

SQLSTATE: 0AKDC

ALTER TABLE ... UNSET MANAGED der Befehl ist nicht aktiviert. Wenden Sie sich an Ihr Databricks-Supportteam, um Unterstützung zu erhalten.

DELTA_AMBIGUOUS_DATA_TYPE_CHANGE

SQLSTATE: 429BQ

Der Datentyp der <column> kann von <from> in <to>nicht geändert werden. Diese Änderung enthält Spaltenentfernungen und Ergänzungen, daher sind sie mehrdeutig. Bitte nehmen Sie diese Änderungen einzeln mit ALTER TABLE [ADD | DROP | RENAME] COLUMNvor.

DELTA_AMBIGUOUS_PARTITION_COLUMN

SQLSTATE: 42702

Die mehrdeutige Partitionsspalte <column> kann <colMatches> sein.

DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE

SQLSTATE: 42613

CREATE TABLE enthält zwei verschiedene Speicherorte: <identifier> und <location>.

Sie können die LOCATION-Klausel aus der CREATE TABLE-Anweisung entfernen oder Folgendes festlegen

<config> auf TRUE festlegen, um diese Überprüfung zu überspringen.

DELTA_ARCHIVED_FILES_IN_LIMIT

SQLSTATE: 42KDC

Tabelle <table> enthält nicht genügend Datensätze in nicht archivierten Dateien, um das angegebene LIMIT von <limit> Datensätzen zu erfüllen.

DELTA_ARCHIVED_FILES_IN_SCAN

SQLSTATE: 42KDC

Es wurden <numArchivedFiles> potenziell archivierte Dateien in der Tabelle <table> gefunden, die im Rahmen dieser Abfrage gescannt werden müssen.

Auf archivierte Dateien kann nicht zugegriffen werden. Die aktuelle Zeit, bis die Archivierung als <archivalTime>konfiguriert ist.

Passen Sie Die Abfragefilter an, um archivierte Dateien auszuschließen.

DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION

SQLSTATE: 42KD4

Der Vorgang "<opName>" ist nicht zulässig, wenn die Tabelle den Change Data Feed (CDF) aktiviert hat und Schemaänderungen unter Verwendung von DROP COLUMN oder RENAME COLUMN vorgenommen wurden.

DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS

SQLSTATE: 42703

Bloomfilterindizes für die folgende(n) nicht vorhandene(n) Spalte(n) können nicht abgelegt werden: <unknownColumns>

DELTA_BLOOM_FILTER_OOM_ON_WRITE

SQLSTATE: 82100

OutOfMemoryError ist beim Schreiben von Bloom-Filterindizes für die folgenden Spalten aufgetreten: <columnsWithBloomFilterIndices>.

Sie können den Speicherbedarf von Bloom-Filterindizes reduzieren, indem Sie einen kleineren Wert für die Option "numItems", einen größeren Wert für die Option "fpp" auswählen oder weniger Spalten indizieren.

DELTA_CANNOT_CHANGE_DATA_TYPE

SQLSTATE: 429BQ

Datentyp kann nicht geändert werden: <dataType>.

DELTA_CANNOT_CHANGE_LOCATION

SQLSTATE: 42601

Der Speicherort der Delta-Tabelle kann nicht mit SET TBLPROPERTIES geändert werden. Verwenden Sie stattdessen ALTER TABLE SET LOCATION.

DELTA_CANNOT_CHANGE_PROVIDER

SQLSTATE: 42939

"provider" ist eine reservierte Tabelleneigenschaft und kann nicht geändert werden.

DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL

SQLSTATE: 42703

Bloom-Filterindizes für die folgenden nicht vorhandenen Spalten können nicht erstellt werden: <unknownCols>.

DELTA_CANNOT_CREATE_LOG_PATH

SQLSTATE: 42KD5

<path> kann nicht erstellt werden.

DELTA_CANNOT_DESCRIBE_VIEW_HISTORY

SQLSTATE: 42809

Der Verlauf einer Sicht kann nicht beschrieben werden.

DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN

SQLSTATE: 42703

Der Bloomfilterindex kann in einer nicht indizierten Spalte nicht abgelegt werden: <columnName>.

DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE

SQLSTATE: 0AKDE

Die CHECK-Einschränkungstabellenfunktion kann nicht getrennt werden.

Die folgenden Einschränkungen müssen zuerst gelöscht werden: <constraints>.

DELTA_CANNOT_DROP_COLLATIONS_FEATURE

SQLSTATE: 0AKDE

Die Sortierungstabellenfunktion kann nicht getrennt werden.

Spalten mit nicht standardmäßigen Kollationen müssen zuerst auf die Verwendung von UTF8_BINARY geändert werden: <colNames>.

DELTA_CANNOT_DROP_DOMAIN_METADATA_FEATURE_VON_VERWALTETER_ICEBERG_TABELLE

SQLSTATE: 0AKDE

Das DomainMetadata-Tabellen-Feature kann nicht gelöscht werden. Tabelle ist eine verwaltete Apache Iceberg-Tabelle <name> . DomainMetadata kann nicht aus verwalteten Apache Iceberg-Tabellen gelöscht werden.

DELTA_KANN_GEORÄUMLICHE_FUNKTION_NICHT_ENTFERNEN

SQLSTATE: 0AKDE

Das Geospatialtabellen-Feature kann nicht gelöscht werden. Rekonstruieren Sie die Tabelle oder löschen Sie die Spalten mit Geometrie-/Geografietypen: <colNames> und versuchen Sie es erneut.

DELTA_CANNOT_DROP_VARIANT_FEATURE

SQLSTATE: 55000

DROP FEATURE <feature> war nicht erfolgreich. Die Variant-Tabellenfunktion kann nicht abzulegen sein. Variant-Spalten müssen zuerst gelöscht werden: <colNames>.

DELTA_CANNOT_EVALUATE_EXPRESSION

SQLSTATE: 0AKDC

Ausdruck kann nicht ausgewertet werden: <expression>.

DELTA_CANNOT_FIND_BUCKET_SPEC

SQLSTATE: 22000

Es wird eine Delta-Bucket-Tabelle erwartet, aber die Bucketspezifikation kann in der Tabelle nicht gefunden werden.

DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION

SQLSTATE: 0AKDC

Code für Ausdruck: <expression> kann nicht generiert werden.

DELTA_CANNOT_MODIFY_APPEND_ONLY

SQLSTATE: 42809

Diese Tabelle ist so konfiguriert, dass nur Anfüge zulässig sind. Wenn Sie Aktualisierungen oder Löschungen zulassen möchten, verwenden Sie "ALTER TABLE <table_name> SET TBLPROPERTIES (<config>=false)".

DELTA_CANNOT_MODIFY_CATALOG_OWNED_DEPENDENCIES

SQLSTATE: 42616

Die Eigenschaften der In-Commit-Zeitstempeltabelle können nicht überschrieben oder aufgehoben werden, da diese Tabelle Eigentum des Katalogs ist. Entfernen Sie „delta.enableInCommitTimestamps“, „delta.inCommitTimestampEnablementVersion“ und „delta.inCommitTimestampEnablementTimestamp“ aus der TBLPROPERTIES-Klausel, und wiederholen Sie dann den Befehl.

DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES

SQLSTATE: 42616

<Command> kann die Eigenschaften der In-Commit-Zeitstempeltabelle nicht außer Kraft setzen oder löschen, da koordinierte Commits in dieser Tabelle aktiviert und von diesen abhängig sind. Entfernen Sie sie ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") aus der TBLPROPERTIES-Klausel, und wiederholen Sie dann den Befehl erneut.

DELTA_CANNOT_MODIFY_TABLE_PROPERTY

SQLSTATE: 42939

Die Delta-Tabellenkonfiguration <prop> kann vom Benutzer nicht angegeben werden.

DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS

SQLSTATE: 42616

<Command> kann die Konfigurationen für koordinierte Commits in einer vorhandenen Zieltabelle nicht außer Kraft setzen. Entfernen Sie sie aus der TBLPROPERTIES-Klausel ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview", "delta.coordinatedCommits.tableConf-preview").

DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI

SQLSTATE: 22KD1

Ein URI (<uri>), der nicht in einen relativen Pfad umgewandelt werden kann, wurde im Transaktionsprotokoll gefunden.

DELTA_CANNOT_RELATIVIZE_PATH

SQLSTATE: 42000

Ein Pfad (<path>), der nicht mit der aktuellen Eingabe relativiert werden kann, wurde gefunden im

Transaktionsprotokoll. Führen Sie dies wie folgt erneut aus:

%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<userPath>", true)

Führen Sie dann auch Folgendes aus:

%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<path>")

DELTA_CANNOT_RENAME_PATH

SQLSTATE: 22KD1

Kann <currentPath> nicht in <newPath> umbenannt werden.

DELTA_CANNOT_REPLACE_MISSING_TABLE

SQLSTATE: 42P01

Tabelle <tableName> kann nicht ersetzt werden, da sie nicht vorhanden ist. Verwenden Sie CREATE ODER-REPLACE TABLE, um die Tabelle zu erstellen.

DELTA_CANNOT_RESOLVE_CLUSTERING_COLUMN

SQLSTATE: 42703

Die Clusterspalte <columnName> in <schema> kann aufgrund eines unerwarteten Fehlers nicht aufgelöst werden. Ausführen ALTER TABLE...CLUSTER BY ... zum Reparieren von Delta-Clusteringmetadaten.

DELTA_CANNOT_RESOLVE_COLUMN

SQLSTATE: 42703

Spalte <columnName> kann nicht aufgelöst werden in <schema>

DELTA_CANNOT_RESTORE_TABLE_VERSION

SQLSTATE: 22003

Die Tabelle kann nicht in version <version>wiederhergestellt werden. Verfügbare Versionen: [<startVersion>, <endVersion>].

DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER

SQLSTATE: 22003

Die Tabelle kann nicht auf den Zeitstempel (<requestedTimestamp>) wiederhergestellt werden, da er vor der frühesten verfügbaren Version liegt. Bitte verwenden Sie einen Zeitstempel nach (<earliestTimestamp>)

DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER

SQLSTATE: 22003

Die Tabelle kann nicht auf den Zeitstempel (<requestedTimestamp>) wiederhergestellt werden, da dieser nach der neuesten verfügbaren Version liegt. Bitte verwenden Sie einen Zeitstempel vor (<latestTimestamp>).

DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES

SQLSTATE: 42616

<Command> kann keine Eigenschaften der In-Commit-Zeitstempeltabelle zusammen mit koordinierten Commits festlegen, da letztere von ersteren abhängen und erstere intern festlegen. Entfernen Sie sie ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") aus der TBLPROPERTIES-Klausel, und wiederholen Sie dann den Befehl erneut.

DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER

SQLSTATE: 42613

Die Position einer pfadbasierten Tabelle kann nicht geändert werden.

DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY

SQLSTATE: 42616

"delta.managedDataSkippingStatsColumns" kann nicht in einer Nicht-Lakeflow "Spark Declarative Pipelines"-Tabelle festgelegt werden.

DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_COMMAND

SQLSTATE: 42616

Wenn 'unity-catalog' als Commit-Koordinator aktiviert wird, kann die Konfiguration "<configuration>" nicht über den Befehl festgelegt werden. Entfernen Sie ihn aus der TBLPROPERTIES-Klausel, und wiederholen Sie dann den Befehl erneut.

DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_SESSION

SQLSTATE: 42616

Wenn "unity-catalog" als Commit-Koordinator aktiviert wird, kann die Konfiguration "<configuration>" nicht aus den SparkSession-Konfigurationen festgelegt werden. Löschen Sie sie, indem Sie spark.conf.unset("<configuration>") ausführen, und wiederholen Sie dann den Befehl.

DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS

SQLSTATE: 42616

ALTER kann Koordinationseinstellungen für Commits nicht aufheben. Wenn Sie eine Tabelle von koordinierten Commits herabstufen möchten, versuchen Sie es bitte erneut.ALTER TABLE [table-name] DROP FEATURE 'coordinatedCommits-preview'

DELTA_CANNOT_UPDATE_ARRAY_FIELD

SQLSTATE: 429BQ

Feldtyp <fieldName> kann nicht aktualisiert werden<tableName>: Aktualisieren des Elements durch Aktualisieren<fieldName>.element.

DELTA_CANNOT_UPDATE_MAP_FIELD

SQLSTATE: 429BQ

Feldtyp <fieldName> kann nicht aktualisiert werden<tableName>: Aktualisieren einer Karte durch Aktualisieren <fieldName>.key oder <fieldName>.value.

DELTA_CANNOT_UPDATE_OTHER_FIELD

SQLSTATE: 429BQ

Das <tableName>-Feld des Typs <typeName> kann nicht aktualisiert werden.

DELTA_CANNOT_UPDATE_STRUCT_FIELD

SQLSTATE: 429BQ

Feld <tableName> vom Typ <fieldName> kann nicht aktualisiert werden: Aktualisieren Sie die Struktur, indem Sie Felder hinzufügen, löschen oder aktualisieren.

DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION

SQLSTATE: 428FT

Nicht alle Spalten können als Partitionsspalten verwendet werden.

DELTA_CANNOT_VACUUM_LITE

SQLSTATE: 55000

VACUUM LITE kann nicht alle berechtigten Dateien löschen, da einige Dateien nicht im Delta-Protokoll referenziert sind. Führen Sie VACUUM FULL aus.

DELTA_CANNOT_WRITE_INTO_VIEW

SQLSTATE: 0A000

<table> ist eine Ansicht. Schreibvorgänge in eine Ansicht werden nicht unterstützt.

DELTA_CAST_OVERFLOW_IN_TABLE_WRITE

SQLSTATE: 22003

Fehler beim Schreiben eines Werts vom Typ <sourceType> in die Spalte <targetType> vom Typ <columnName> aufgrund eines Überlaufs.

Verwenden Sie try_cast für den Eingabewert, um Überlauf zu tolerieren und stattdessen NULL zurückzugeben.

Setzen Sie bei Bedarf <storeAssignmentPolicyFlag> auf "LEGACY", um diesen Fehler zu umgehen, oder setzen Sie <updateAndMergeCastingFollowsAnsiEnabledFlag> auf "true", um zum alten Verhalten zurückzukehren und in <ansiEnabledFlag>, UPDATE und MERGE zu folgen.

DELTA_CATALOG_MANAGED_TABLE_UPGRADE_OR_DOWNGRADE_NOT_SUPPORTED

SQLSTATE: 0A000

Das Aktualisieren oder Herabstufen einer katalogverwalteten Tabelle wird nicht unterstützt. Erstellen Sie stattdessen eine neue Tabelle mit den gewünschten Tabellenfeatures.

DELTA_CATALOG_MANAGED_TABLE_UPGRADE_WITH_OTHER_PROPERTIES

SQLSTATE: 429BQ

Die Aktualisierungstabelle <tableName> kann nicht mit anderen Eigenschaftsänderungen auf katalogverwaltete Tabellen kombiniert werden.

Bereitgestellte Eigenschaften: <properties>.

DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION

SQLSTATE: 0AKDC

Configuration delta.enableChangeDataFeed kann nicht festgelegt werden. Der Änderungsdatenfeed von Delta ist noch nicht verfügbar.

DELTA_CDC_READ_NULL_RANGE_BOUNDARY

SQLSTATE: 22004

Die Start-/End-Parameter des CDC-Lesevorgangs dürfen nicht null sein. Bitte geben Sie eine gültige Version oder einen Zeitstempel an.

DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA

SQLSTATE: 0AKDC

Fehler beim Abrufen von Tabellenänderungen zwischen Version <start> und <end> aufgrund eines inkompatiblen Datenschemas.

Ihr Leseschema ist bei Version <readSchema><readVersion>, aber wir haben ein inkompatibles Datenschema bei Version <incompatibleVersion>gefunden.

Wenn möglich, rufen Sie die Tabellenänderungen mithilfe des Schemas der Endversion ab, indem Sie <config> auf endVersion setzen, oder wenden Sie sich an den Support.

DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 0AKDC

Fehler beim Abrufen von Tabellenänderungen zwischen Version <start> und <end> aufgrund einer inkompatiblen Schemaänderung.

Ihr Leseschema ist bei Version <readSchema><readVersion>, aber wir haben eine inkompatible Schemaänderung bei version <incompatibleVersion>gefunden.

Wenn möglich, fragen Sie die Tabellenänderungen separat von Version <start> bis <incompatibleVersion> - 1 und von Version <incompatibleVersion> bis <end>ab.

DELTA_CHANGE_DATA_FILE_NOT_FOUND

SQLSTATE: 42K03

Datei <filePath>, auf die im Transaktionsprotokoll verwiesen wird, wurde nicht gefunden. Dies kann auftreten, wenn Daten manuell aus dem Dateisystem gelöscht wurden, anstatt die Tabelle DELETE Anweisung zu verwenden. Diese Anforderung scheint auf den Änderungsdaten-Feed ausgerichtet zu sein. Falls dies der Fall ist, kann dieser Fehler auftreten, wenn sich die Änderungsdatendatei außerhalb des Aufbewahrungszeitraums befindet und durch die VACUUM statement gelöscht wurde. Weitere Informationen finden Sie unter <faqPath>

DELTA_CHANGE_TABLE_FEED_DISABLED

SQLSTATE: 42807

Es kann nicht in die Tabelle geschrieben werden, wenn delta.enableChangeDataFeed gesetzt ist. Der Änderungsdatenfeed von Delta ist nicht verfügbar.

DELTA_CHECKPOINT_NON_EXIST_TABLE

SQLSTATE: 42K03

Eine nicht vorhandene Tabelle <path> kann keine Überprüfung haben. Haben Sie Dateien im verzeichnis _delta_log manuell gelöscht?

DELTA_CLONE_AMBIGUOUS_TARGET

SQLSTATE: 42613

Es wurden zwei Pfade als CLONE-Ziel bereitgestellt, sodass nicht eindeutig ist, welcher verwendet werden soll. Ein externes

Speicherort für CLONE wurde bei <externalLocation> gleichzeitig mit dem Pfad bereitgestellt

<targetIdentifier>.

DELTA_CLONE_INCOMPATIBLE_SOURCE

SQLSTATE: 0AKDC

Die Klonquelle verfügt über ein gültiges Format, hat aber ein nicht unterstütztes Feature mit Delta.

Weitere Informationen finden Sie unter DELTA_CLONE_INCOMPATIBLE_SOURCE.

DELTA_CLONE_INCOMPLETE_FILE_COPY

SQLSTATE: 42000

Datei (<fileName>) nicht vollständig kopiert. Erwartete Dateigröße: <expectedSize>, gefunden: <actualSize>. Wenn Sie den Vorgang fortsetzen möchten, indem Sie die Dateigrößenüberprüfung ignorieren, legen Sie <config> auf "false" fest.

DELTA_CLONE_UNSUPPORTED_SOURCE

SQLSTATE: 0AKDC

Nicht unterstützte <mode> Klonquelle '<name>', deren Format lautet <format>.

Die unterstützten Formate sind "delta", "Apache Iceberg" und "Parkett".

DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE

SQLSTATE: 0AKDC

Nicht unterstützte Quelltabelle:

Weitere Informationen finden Sie unter DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE.

DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET

SQLSTATE: 0AKDC

Nicht unterstützte Zieltabelle:

Weitere Informationen finden Sie unter DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET.

DELTA_CLONE_WITH_ROW_TRACKING_WITHOUT_STATS

SQLSTATE: 22000

Es ist nicht möglich, eine Tabelle seicht zu klonen, wenn keine Statistiken vorhanden sind und die Zeilenverfolgung aktiviert ist.

Wenn Sie die Zeilenverfolgung aktivieren möchten, müssen Sie zunächst Statistiken zur Quelltabelle sammeln, indem Sie Folgendes ausführen:

ANALYZE TABLE table_name COMPUTE DELTA STATISTICS

DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED

SQLSTATE: 0A000

CLONE wird für die Delta-Tabelle mit Liquid Clustering für DBR Version < 14.0 nicht unterstützt.

DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED

SQLSTATE: 0A000

CLUSTER BY wird nicht unterstützt, da die folgenden Spalten: <columnsWithDataTypes> das Überspringen von Daten nicht unterstützen.

DELTA_CLUSTERING_COLUMNS_MISMATCH

SQLSTATE: 42P10

Die bereitgestellten Clusteringspalten stimmen nicht mit denen der vorhandenen Tabelle überein.

  • Bereitgestellt: <providedClusteringColumns>

  • Vorhanden: <existingClusteringColumns>

DELTA_CLUSTERING_COLUMN_MISSING_STATS

SQLSTATE: 22000

Für flüssiges Clustering sind Clusterspalten erforderlich, um Statistiken zu erhalten. Die Clusterspalten "<columns>" im Statistikschema konnten nicht gefunden werden:

<schema>

DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE

SQLSTATE: 22000

Das Erstellen einer externen Tabelle ohne Flüssigclustering aus einem Tabellenverzeichnis mit Flüssigclustering ist nicht zulässig; Pfad: <path>.

DELTA_CLUSTERING_NOT_SUPPORTED

SQLSTATE: 42000

"<operation>" unterstützt keine Clustering.

DELTA_CLUSTERING_PHASE_OUT_FAILED

SQLSTATE: 0AKDE

<phaseOutType> konnte für die Tabelle mit der <tableFeatureToAdd>-Tabellenfunktion nicht abgeschlossen werden (Grund: <reason>). Versuchen Sie es erneut mit dem Befehl OPTIMIZE.

== Fehler ==

<error>

DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE

SQLSTATE: 42000

REPLACE Eine Delta-Tabelle mit Liquid Clustering in Kombination mit einer partitionierten Tabelle ist nicht zulässig.

DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS

SQLSTATE: 0A000

SHOW CREATE TABLE wird für die Delta-Tabelle mit Liquid Clustering ohne Clusteringspalten nicht unterstützt.

DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS

SQLSTATE: 42000

Der Übergang einer Delta-Tabelle mit liquidem Clustering zu einer partitionierten Tabelle ist für den Vorgang nicht zulässig: <operation>, wenn die vorhandene Tabelle nicht leere Clusterspalten enthält.

Führen Sie ALTER TABLE CLUSTER BY NONE aus, um zuerst die Clusteringspalten zu entfernen.

DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE: 42000

Der Überschreibmodus für dynamische Partitionen ist für die Delta-Tabelle mit Liquid Clustering nicht zulässig.

DELTA_CLUSTERING_WITH_PARTITION_PREDICATE

SQLSTATE: 0A000

OPTIMIZE Der Befehl für die Delta-Tabelle mit Liquid Clustering unterstützt keine Partitions-Prädikate. Entfernen Sie bitte die Prädikate: <predicates>.

DELTA_CLUSTERING_WITH_ZORDER_BY

SQLSTATE: 42613

OPTIMIZE-Befehl für Delta-Tabelle mit Liquid-Clustering kann ZORDER BYnicht angeben. Bitte ZORDER BY (<zOrderBy>) entfernen.

DELTA_CLUSTER_BY_AUTO_MISMATCH

SQLSTATE: 42000

Der bereitgestellte clusterByAuto-Wert stimmt nicht mit der der vorhandenen Tabelle überein.

DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS

SQLSTATE: 54000

CLUSTER BY für Liquid-Clustering unterstützt bis zu <numColumnsLimit> Clusteringspalten, aber die Tabelle enthält <actualNumColumns> Clusteringspalten. Entfernen Sie die überzähligen Clusteringspalten.

DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED

SQLSTATE: 42908

Es ist nicht zulässig, CLUSTER BY anzugeben, wenn das Schema nicht definiert ist. Bitte definieren Sie das Schema für tabellen <tableName>.

DELTA_CLUSTER_BY_WITH_BUCKETING

SQLSTATE: 42613

Clustering und Bucketing können nicht gleichzeitig angegeben werden. Entfernen Sie CLUSTERED BY INTO BUCKETS/bucketBy, wenn Sie eine Delta-Tabelle mit Clustering erstellen möchten.

DELTA_CLUSTER_BY_WITH_PARTITIONED_BY

SQLSTATE: 42613

Clustering und Partitionierung können nicht beide angegeben werden. Entfernen Sie PARTITIONED BY / partitionBy / partitionedBy, wenn Sie eine Delta-Tabelle mit Clustering erstellen möchten.

DELTA_COLLATIONS_NOT_SUPPORTED

SQLSTATE: 0AKDC

Sortierungen werden im Delta Lake nicht unterstützt.

DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN

SQLSTATE: 0AKDC

Das Überspringen von Daten wird für die Partitionsspalte "<column>" nicht unterstützt.

DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE

SQLSTATE: 0AKDC

Das Überspringen von Daten wird für spalte "<column>" vom Typ <type>nicht unterstützt.

DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET

SQLSTATE: 42703

Die Eigenschaft für die maximale Spalten-ID (<prop>) ist bei einer Tabelle mit aktivierter Spaltenzuordnung nicht festgelegt.

DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY

SQLSTATE: 42703

Die Eigenschaft für die maximale Spalten-ID (<prop>) für eine aktivierte Spaltenzuordnung ist <tableMax>, die nicht kleiner als die maximale Spalten-ID für alle Felder (<fieldMax>) sein kann.

DELTA_COLUMN_MISSING_DATA_TYPE

SQLSTATE: 42601

Der Datentyp der Spalte <colName> wurde nicht bereitgestellt.

DELTA_COLUMN_NOT_FOUND

SQLSTATE: 42703

Die Spalte <columnName> konnte mit der Angabe [<columnList>] nicht gefunden werden.

DELTA_COLUMN_NOT_FOUND_IN_MERGE

SQLSTATE: 42703

Die Spalte '<targetCol>' der Zieltabelle konnte aus den INSERT Spalten nicht gefunden werden: <colNames>. INSERT Klausel muss den Wert für alle Spalten der Zieltabelle angeben.

DELTA_COLUMN_NOT_FOUND_IN_SCHEMA

SQLSTATE: 42703

Spalte <columnName> konnte nicht gefunden werden in:

<tableSchema>

DELTA_COLUMN_PATH_NOT_NESTED

SQLSTATE: 42704

Es wurde erwartet, dass <columnPath> ein geschachtelter Datentyp sein sollte, aber <other>wurde gefunden. Es wurde nach dem

Index von <column> in einem geschachtelten Feld.

Schema:

<schema>

DELTA_COLUMN_STRUCT_TYPE_MISMATCH

SQLSTATE: 2200G

Strukturspalte <source> kann nicht in ein <targetType>-Feld <targetField> in <targetTable> eingefügt werden.

DELTA_COMMIT_INTERMEDIATE_REDIRECT_STATE

SQLSTATE: 42P01

Der Commit einer Tabelle kann im Umleitungstabellenzustand „<state>“ nicht bearbeitet werden.

DELTA_COMPACTION_VALIDATION_FAILED

SQLSTATE: 22000

Fehler bei der Überprüfung der Komprimierung des Pfads <compactedPath> zu <newPath>: Bitte geben Sie einen Fehlerbericht ein.

DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE

SQLSTATE: 22005

Geschachtelter NullType in Spalte <columName> vom Typ <dataType> gefunden. Delta unterstützt das Schreiben von NullType in komplexen Typen nicht.

DELTA_CONCURRENT_APPEND

SQLSTATE: 2D521

ConcurrentAppendException: Dateien wurden durch ein gleichzeitiges Update zu <partition> hinzugefügt. <retryMsg> <conflictingCommit>

Weitere Informationen finden Sie unter <docLink>.

DELTA_CONCURRENT_DELETE_DELETE

SQLSTATE: 2D521

ConcurrentDeleteDeleteException: Diese Transaktion hat versucht, eine oder mehrere Dateien zu löschen, die durch ein gleichzeitiges Update gelöscht wurden (z. B. <file>). Versuchen Sie es erneut.<conflictingCommit>

Weitere Informationen finden Sie unter <docLink>.

DELTA_CONCURRENT_DELETE_READ

SQLSTATE: 2D521

ConcurrentDeleteReadException: Diese Transaktion hat versucht, eine oder mehrere Dateien zu lesen, die durch eine gleichzeitige Aktualisierung gelöscht wurden (z. B. <file>). Versuchen Sie es erneut.<conflictingCommit>

Weitere Informationen finden Sie unter <docLink>.

DELTA_CONCURRENT_TRANSACTION

SQLSTATE: 2D521

ConcurrentTransactionException: Dieser Fehler tritt auf, wenn mehrere Streamingabfragen denselben Prüfpunkt verwenden, um in diese Tabelle zu schreiben. Haben Sie mehrere Instanzen derselben Streamingabfrage gleichzeitig ausgeführt?<conflictingCommit>

Weitere Informationen finden Sie unter <docLink>.

DELTA_CONCURRENT_WRITE

SQLSTATE: 2D521

GleichzeitigeWriteException: Eine gleichzeitige Transaktion hat neue Daten geschrieben, seit die aktuelle Transaktion die Tabelle liest. Versuchen Sie es erneut.<conflictingCommit>

Weitere Informationen finden Sie unter <docLink>.

DELTA_CONFLICT_SET_COLUMN

SQLSTATE: 42701

Es besteht ein Konflikt zwischen diesen SET-Spalten: <columnList>.

DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND

SQLSTATE: 42616

Die Konfiguration "<command>" kann während <configuration> nicht durch den Befehl festgelegt werden. Entfernen Sie ihn aus der TBLPROPERTIES-Klausel, und wiederholen Sie dann den Befehl erneut.

DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION

SQLSTATE: 42616

Während <command> kann die Konfiguration "<configuration>" nicht über die SparkSession-Einstellungen festgelegt werden. Löschen Sie sie, indem Sie spark.conf.unset("<configuration>") ausführen, und wiederholen Sie dann den Befehl.

DELTA_CONSTRAINT_ALREADY_EXISTS

SQLSTATE: 42710

Die Einschränkung "<constraintName>" ist bereits vorhanden. Löschen Sie zuerst die alte Einschränkung.

Alte Einschränkung:

<oldConstraint>

DELTA_CONSTRAINT_DATA_TYPE_MISMATCH

SQLSTATE: 42K09

Spalte <columnName> weist den Datentyp <columnType> auf und kann nicht auf den Datentyp <dataType> geändert werden, da auf diese Spalte durch die folgenden Prüfeinschränkungen verwiesen wird:

<constraints>

DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE

SQLSTATE: 42K09

Spalte <columnName> kann nicht geändert werden, da auf diese Spalte durch die folgenden Einschränkungen verwiesen wird:

<constraints>

DELTA_CONSTRAINT_DOES_NOT_EXIST

SQLSTATE: 42704

Die nicht vorhandene Einschränkung <constraintName> kann nicht aus der Tabelle <tableName>entfernt werden. Um einen Fehler zu vermeiden, geben Sie den Parameter IF EXISTS an, oder legen Sie die SQL-Sitzungskonfiguration <config> auf <confValue>fest.

DELTA_CONVERSION_MERGE_ON_READ_NOT_SUPPORTED

SQLSTATE: 0AKDC

Die Konvertierung der Zusammenführungs-On-Read-Tabelle <format> wird nicht unterstützt: <path>, <hint>

DELTA_CONVERSION_NO_PARTITION_FOUND

SQLSTATE: 42KD6

Es wurden keine Partitionsinformationen im Katalog für die Tabelle <tableName>gefunden. Haben Sie "MSCK REPAIR TABLE" auf Ihrer Tabelle ausgeführt, um Partitionen zu ermitteln?

DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN

SQLSTATE: 0AKDC

Parquet-Tabelle mit sortierter Partitionsspalte <colName> kann nicht in Delta umgewandelt werden.

DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING

SQLSTATE: 0AKDC

Die Konfiguration „<config>“ kann nicht auf <mode> festgelegt werden, wenn CONVERT TO DELTA verwendet wird.

DELTA_CONVERSION_UNSUPPORTED_SCHEMA_CHANGE

SQLSTATE: 0AKDC

Nicht unterstützte Schemaänderungen für <format> die Tabelle: <path>, <hint>

DELTA_CONVERT_NON_PARQUET_TABLE

SQLSTATE: 0AKDC

CONVERT TO DELTA unterstützt nur Parquet-Tabellen. Sie versuchen jedoch, eine <sourceName>-Quelle zu konvertieren: <tableId>.

DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS

SQLSTATE: 22000

Zeilenverfolgung kann nicht aktiviert werden, ohne Statistiken zu sammeln.

Wenn Sie die Zeilenverfolgung aktivieren möchten, gehen Sie wie folgt vor:

  1. Aktivieren der Statistiksammlung durch Ausführen des Befehls

SET <statisticsCollectionPropertyKey> = wahr

  1. Führen Sie CONVERT TO DELTA ohne die Option "NO STATISTICS" aus.

Wenn Sie keine Statistiken sammeln möchten, deaktivieren Sie die Zeilenverfolgung:

  1. Deaktivieren Sie das Aktivieren des Tabellenfeatures standardmäßig, indem Sie den Befehl ausführen:

RESET <rowTrackingTableFeatureDefaultKey>

  1. Deaktivieren Sie die Tabelleneigenschaft standardmäßig, indem Sie Folgendes ausführen:

SET <rowTrackingDefaultPropertyKey> = falsch

DELTA_COPY_INTO_TARGET_FORMAT

SQLSTATE: 0AKDD

COPY INTO Ziel muss eine Delta-Tabelle sein.

DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA

SQLSTATE: 42601

Sie versuchen, eine externe Tabelle <tableName> zu erstellen.

mit Delta aus <path> zu erstellen, aber das Schema wird nicht angegeben, wenn der

Der Eingabepfad ist leer.

Weitere Informationen zu Delta finden Sie unter <docLink>

DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG

SQLSTATE: 42K03

Sie versuchen, eine externe Tabelle <tableName> mithilfe von Delta von <path> zu erstellen, es ist jedoch kein Transaktionsprotokoll unter <logPath> vorhanden. Überprüfen Sie den vorgelagerten Einzelvorgang, um sicherzustellen, dass er mit format("delta") schreibt, und dass der Pfad der Stamm der Tabelle ist.

Weitere Informationen zu Delta finden Sie unter <docLink>

DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH

SQLSTATE: 0AKDC

Das Erstellen einer pfadbasierten Delta-Tabelle mit einem anderen Speicherort wird nicht unterstützt. Bezeichner: <identifier>, Speicherort: <location>.

DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION

SQLSTATE: 42601

Der Tabellenname oder -speicherort muss angegeben werden.

DELTA_CREATE_TABLE_SCHEME_MISMATCH

SQLSTATE: 42KD7

Das angegebene Schema stimmt nicht mit dem vorhandenen Schema bei <path>überein.

== Angegeben ==

<specifiedSchema>

== Bestehendes ==

<existingSchema>

== Unterschiede ==

<schemaDifferences>

Wenn Sie das vorhandene Schema beibehalten möchten, können Sie es weglassen.

Schema aus dem "CREATE TABLE"-Befehl. Stellen Sie andernfalls sicher, dass

Das Schema passt.

DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED

SQLSTATE: 42000

Das <tableFeature>-Tabellenfeature kann nicht mit TBLPROPERTIES aktiviert werden. Verwenden Sie CREATE ODER REPLACE TABLE CLUSTER BY, um eine Delta-Tabelle mit Clustering zu erstellen.

DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING

SQLSTATE: 42KD7

Die angegebenen Clusterspalten stimmen nicht mit den vorhandenen Clusterspalten bei <path>überein.

== Angegeben ==

<specifiedColumns>

== Bestehendes ==

<existingColumns>

DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING

SQLSTATE: 42KD7

Die angegebene Partitionierung stimmt nicht mit der vorhandenen Partitionierung bei <path>überein.

== Angegeben ==

<specifiedColumns>

== Bestehendes ==

<existingColumns>

DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY

SQLSTATE: 42KD7

Die angegebenen Eigenschaften stimmen nicht mit den vorhandenen Eigenschaften bei <path>überein.

== Angegeben ==

<specifiedProperties>

== Bestehendes ==

<existingProperties>

DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION

SQLSTATE: 42601

Tabelle ('<tableId>') kann nicht erstellt werden. Der zugeordnete Speicherort ('<tableLocation>') ist nicht leer und auch keine Delta-Tabelle.

DELTA_DATA_CHANGE_FALSE

SQLSTATE: 0AKDE

Tabellenmetadaten können nicht geändert werden, da die Option "dataChange" auf "false" festgelegt ist. Versuchter Vorgang: <op>.

DELTA_DELETED_PARQUET_FILE_NOT_FOUND

SQLSTATE: 42K03

Datei <filePath>, auf die im Transaktionsprotokoll verwiesen wird, wurde nicht gefunden. Diese Parquet-Datei kann nach der Datenaufbewahrungsrichtlinie von Delta gelöscht werden.

Standardmäßige Aufbewahrungsdauer für Delta-Daten: <logRetentionPeriod>. Änderungszeit der Parquet-Datei: <modificationTime>. Löschzeit der Parquet-Datei: <deletionTime>. Gelöscht in Delta-Version: <deletionVersion>.

DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS

SQLSTATE: 2D521

Es ist nicht zulässig, Dateien mit Löschvektoren zu übernehmen, denen die NumRecords-Statistik fehlt.

DELTA_DISABLE_SOURCE_MATERIALIZATION_IN_INSERT_REPLACE_ON_OR_USING_NOT_ALLOWED

SQLSTATE: 0AKDC

Das Deaktivieren der Materialisierung der Quelle in INSERT REPLACE ON/USING durch das Festlegen von "spark.databricks.delta.insertReplaceOnOrUsing.materializeSource" auf "none" ist nicht zulässig.

DELTA_DISABLE_SOURCE_MATERIALIZATION_IN_MERGE_NOT_ALLOWED

SQLSTATE: 0AKDC

Die Deaktivierung der Quellmaterialisierung in MERGE durch das Festlegen von "spark.databricks.delta.merge.materializeSource" auf "none" ist nicht zulässig.

DELTA_DOMAIN_METADATA_NOT_SUPPORTED

SQLSTATE: 0A000

Erkannte DomainMetadata-Aktion(en) für Domänen <domainNames>, aber „DomainMetadataTableFeature“ ist nicht aktiviert.

DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO

SQLSTATE: 42KD8

Index <columnIndex> zum Löschen der Spalte ist kleiner als 0.

DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA

SQLSTATE: 0AKDC

Es kann keine Spalte aus einem Schema mit nur einer Spalte entfernt werden. Schema:

<schema>

DELTA_DUPLICATE_ACTIONS_FOUND

SQLSTATE: 2D521

Der Dateivorgang '<actionType>' für den Pfad <path> wurde mehrmals angegeben.

Dies steht in Konflikt mit <conflictingPath>.

Es ist nicht gültig für mehrere Dateivorgänge mit demselben Pfad, der in einem einzigen Commit vorhanden ist.

DELTA_DUPLICATE_COLUMNS_FOUND

SQLSTATE: 42711

Doppelte Spalten <coltype>gefunden: <duplicateCols>.

DELTA_DUPLICATE_COLUMNS_ON_INSERT

SQLSTATE: 42701

Doppelte Spaltennamen in INSERT-Klausel.

DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE

SQLSTATE: 42701

<message>

Entfernen Sie doppelte Spalten, bevor Sie Die Tabelle aktualisieren.

DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS

SQLSTATE: 42701

Doppelte Spalten für das Überspringen von Daten gefunden: <columns>.

DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR

SQLSTATE: 42601

Interner Fehler: Zwei DomainMetadata-Aktionen innerhalb derselben Transaktion haben dieselbe Domäne <domainName>.

DELTA_DUPLICATE_LOG_ENTRIES_FOUND

SQLSTATE: 55019

Das Delta-Protokoll befindet sich in einem unzulässigen Zustand: <numDuplicates> Pfade weisen doppelte Einträge in der Version <version>auf. RESTORE auf eine Version vor dem Commit, der die Duplizierung verursacht hat, zurück oder wenden Sie sich an den Support für Unterstützung.

DELTA_DV_HISTOGRAM_DESERIALIZATON

SQLSTATE: 22000

Das Histogramm für die Anzahl gelöschter Datensätze konnte während der Überprüfung der Tabellenintegrität nicht deserialisiert werden.

DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED

SQLSTATE: 0A000

Der Modus für dynamische Partitionsüberschreibvorgänge wird durch Sitzungskonfigurations- oder Schreiboptionen angegeben, ist jedoch durch spark.databricks.delta.dynamicPartitionOverwrite.enabled=falsedeaktiviert.

DELTA_EMPTY_DATA

SQLSTATE: 428GU

Daten, die beim Erstellen der Delta-Tabelle verwendet werden, weisen keine Spalten auf.

DELTA_EMPTY_DIRECTORY

SQLSTATE: 42K03

Keine Datei im Verzeichnis gefunden: <directory>.

DELTA_EXCEED_CHAR_VARCHAR_LIMIT

SQLSTATE: 22001

Der Wert "<value>" überschreitet die Einschränkung der Zeichen-/Varchar-Typlänge. Fehlerhafte Prüfung: <expr>.

DELTA_EXTERNAL_METADATA_UNRESOLVED_PROJECTION

SQLSTATE: 42703

Die Projektionsabfrage '<query>' kann im Schema nicht aufgelöst werden: <schemaTreeString>

DELTA_EXTERNAL_METADATA_UNSUPPORTED_SOURCE

SQLSTATE: 0AKDC

Externe Metadaten unterstützen die Quelle nicht.

Weitere Informationen finden Sie unter DELTA_EXTERNAL_METADATA_UNSUPPORTED_SOURCE

DELTA_FAILED_CAST_PARTITION_VALUE

SQLSTATE: 22018

Fehler beim Umwandeln des Partitionswerts <value> in <dataType>.

DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS

SQLSTATE: 42703

<newAttributeName> konnte unter der vorhandenen Zielausgabe <targetOutputColumns> nicht gefunden werden.

DELTA_FAILED_INFER_SCHEMA

SQLSTATE: 42KD9

Fehler beim Ableiten des Schemas aus der angegebenen Liste von Dateien.

DELTA_FAILED_MERGE_SCHEMA_FILE

SQLSTATE: 42KDA

Fehler beim Zusammenführen des Dateischemas <file>:

<schema>

DELTA_FAILED_OPERATION_ON_SHALLOW_CLONE

SQLSTATE: 42893

Fehler beim Ausführen des Vorgangs in der Quelltabelle <sourceTable> , da der flache Klon noch vorhanden ist und der folgende Fehler im flachen Klon <targetTable> aufgetreten ist: <message>

SQLSTATE: KD001

Die Fußzeile für die Datei konnte nicht gelesen werden: <currentFile>.

DELTA_FAILED_RECOGNIZE_PREDICATE

SQLSTATE: 42601

Das Prädikat '<predicate>' kann nicht erkannt werden.

DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION

SQLSTATE: KD002

Es wird ein vollständiger Scan der neuesten Version der Delta-Quelle erwartet, stattdessen wurde ein historischer Scan der Version <historicalVersion> gefunden.

DELTA_FAILED_TO_MERGE_FIELDS

SQLSTATE: 22005

Fehler beim Zusammenführen von Feldern '<currentField>' und '<updateField>'.

DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH

SQLSTATE: KD004

Diese Tabelle kann nicht ausgeführt werden, da die folgenden Tabellenfeatures in Metadaten aktiviert sind, aber nicht im Protokoll aufgeführt sind: <features>.

DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT

SQLSTATE: 42000

Ihr Tabellenschema erfordert eine manuelle Aktivierung der folgenden Tabellenfeatures: <unsupportedFeatures>.

Führen Sie dazu den folgenden Befehl für jede der oben aufgeführten Features aus:

ALTER TABLE SET TBLPROPERTIES table_name ('delta.feature.feature_name' = 'supported')

Ersetzen Sie "table_name" und "feature_name" durch reale Werte.

Aktuell unterstützte(s) Feature(s): <supportedFeatures>.

DELTA_FEATURE_CAN_ONLY_DROP_CHECKPOINT_PROTECTION_WITH_HISTORY_TRUNCATION

SQLSTATE: 55000

Die Funktion "Prüfpunktschutz" konnte nicht entfernt werden.

Dieses Feature kann nur durch Abschneiden des Verlaufs getrennt werden.

Versuchen Sie es bitte erneut mit der Option TRUNCATE HISTORY:

ALTER TABLE DROP FEATURE table_name checkpointProtectionTRUNCATE HISTORY

DELTA_FEATURE_DROP_CHECKPOINT_FAILED

SQLSTATE: 22KD0

Fehler beim Ablegen <featureName> aufgrund eines Fehlers bei der Erstellung des Prüfpunkts.

Versuchen Sie es später erneut. Wenn das Problem weiterhin besteht, wenden Sie sich an den Databricks-Support.

DELTA_FEATURE_DROP_CHECKPOINT_PROTECTION_WAIT_FOR_RETENTION_PERIOD

SQLSTATE: 22KD0

Der Vorgang war nicht erfolgreich, da immer noch Spuren von verworfenen Features vorhanden sind.

im Tabellenverlauf. CheckpointProtection kann nicht gelöscht werden, solange diese historischen Daten vorhanden sind.

Versionen abgelaufen sind.

Um die CheckpointProtection zu entfernen, warten Sie, bis die historischen Versionen

ablaufen, und wiederholen Sie dann diesen Befehl. Der Aufbewahrungszeitraum für historische Versionen ist

zurzeit für <truncateHistoryLogRetentionPeriod>konfiguriert.

DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL

SQLSTATE: 40000

Die Funktion kann nicht gelöscht werden, weil eine gleichzeitige Transaktion die Tabelle geändert hat.

Versuchen Sie es erneut.

<concurrentCommit>

DELTA_FEATURE_DROP_DEPENDENT_FEATURE

SQLSTATE: 55000

Die Tabellenfunktion <feature> kann nicht entfernt werden, da einige andere Features (<dependentFeatures>) in dieser Tabelle von <feature>abhängen.

Erwägen Sie, sie zuerst zu löschen, bevor Sie dieses Feature ablegen.

DELTA_FEATURE_DROP_FEATURE_IS_DELTA_PROPERTY

SQLSTATE: 42000

Die Eigenschaft <property> kann nicht aus dieser Tabelle entfernt werden, da es sich um eine Delta-Tabelleneigenschaft und nicht um ein Tabellenmerkmal handelt.

DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT

SQLSTATE: 55000

Element <feature> kann nicht aus dieser Tabelle entfernt werden, da es momentan nicht im Protokoll der Tabelle vorhanden ist.

DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST

SQLSTATE: 22KD0

<feature> kann nicht gelöscht werden, da das Delta-Protokoll historische Versionen enthält, die das Feature verwenden.

Warten Sie, bis der Aufbewahrungszeitraum für den Verlauf (<logRetentionPeriodKey>=<logRetentionPeriod>)

wurde seit der letzten Aktiven des Features übergeben.

Alternativ warten Sie, bis der TRUNCATE HISTORY Aufbewahrungszeitraum abläuft (<truncateHistoryLogRetentionPeriod>)

und führen daraufhin Folgendes aus:

ALTER TABLE Tabellenname DROP FEATURE Funktionsname TRUNCATE HISTORY

DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED

SQLSTATE: 42000

Für das bestimmte Feature ist keine Verlaufskürzung erforderlich.

DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE

SQLSTATE: 0AKDC

<feature> kann nicht gelöscht werden, da das Ablegen dieses Features nicht unterstützt wird.

Wenden Sie sich bitte an den Databricks-Support.

DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE

SQLSTATE: 0AKDC

<feature> kann nicht entfernt werden, da sie von dieser Databricks-Version nicht unterstützt wird.

Erwägen Sie die Verwendung von Databricks mit einer höheren Version.

DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD

SQLSTATE: 22KD0

Das Löschen von <feature> war teilweise erfolgreich.

Das Feature wird jetzt nicht mehr in der aktuellen Version der Tabelle verwendet. Das Feature ist allerdings

in historischen Versionen der Tabelle noch vorhanden. Das Tabellenfeature kann nicht gelöscht werden.

aus dem Tabellenprotokoll gelöscht werden, nachdem diese Verlaufsversionen abgelaufen sind.

Um die Tabellenfunktion aus dem Protokoll zu löschen, warten Sie bitte, bis die historischen Versionen verfügbar sind.

ablaufen, und wiederholen Sie dann diesen Befehl. Der Aufbewahrungszeitraum für historische Versionen ist

zurzeit als <logRetentionPeriodKey>=<logRetentionPeriod>konfiguriert.

Alternativ warten Sie, bis der TRUNCATE HISTORY Aufbewahrungszeitraum abläuft (<truncateHistoryLogRetentionPeriod>)

und führen daraufhin Folgendes aus:

ALTER TABLE Tabellenname DROP FEATURE Funktionsname TRUNCATE HISTORY

DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION

SQLSTATE: 55000

Das Tabellenfeature <feature> kann nicht aktiviert werden, da es eine höhere Leseprotokollversion (aktuelle <current>) erfordert. Erwägen Sie das Upgrade der Leseprotokollversion der Tabelle auf <required>oder auf eine Version, die Lesetabellenfeatures unterstützt. Weitere Informationen zu Tabellenprotokollversionen finden Sie unter <docLink>.

DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION

SQLSTATE: 55000

Das Tabellenfeature <feature> kann nicht aktiviert werden, da es eine höhere Writer-Protokollversion (aktuelle <current>) erfordert. Erwägen Sie das Upgrade der Writer-Protokollversion der Tabelle auf <required>oder auf eine Version, die Writer-Tabellenfeatures unterstützt. Weitere Informationen zu Tabellenprotokollversionen finden Sie unter <docLink>.

DELTA_FILE_ALREADY_EXISTS

SQLSTATE: 42K04

Vorhandener Dateipfad <path>.

DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT

SQLSTATE: 42613

Es können nicht sowohl eine Dateiliste als auch eine Musterzeichenfolge angegeben werden.

DELTA_FILE_NOT_FOUND

SQLSTATE: 42K03

Dateipfad <path>.

DELTA_FILE_NOT_FOUND_DETAILED

SQLSTATE: 42K03

Datei <filePath>, auf die im Transaktionsprotokoll verwiesen wird, wurde nicht gefunden. Dies geschieht, wenn Daten manuell aus dem Dateisystem gelöscht wurden, anstatt die Tabelle DELETE Anweisung zu verwenden. Weitere Informationen finden Sie unter <faqPath>

DELTA_FILE_OR_DIR_NOT_FOUND

SQLSTATE: 42K03

Keine solche Datei oder ein solches Verzeichnis: <path>.

DELTA_FILE_TO_OVERWRITE_NOT_FOUND

SQLSTATE: 42K03

Die Datei (<path>) zum Umschreiben wurde nicht unter den Kandidatendateien gefunden.

<pathList>

DELTA_FOUND_MAP_TYPE_COLUMN

SQLSTATE: KD003

Es wurde ein MapType gefunden. Um auf den Schlüssel oder Wert eines MapType-Typs zuzugreifen, geben Sie einen an.

of:

<key> oder

<value>

gefolgt vom Namen der Spalte (nur wenn diese Spalte ein Strukturtyp ist).

Beispiel: mymap.key.mykey

Wenn es sich bei der Spalte um einen einfachen Typ handelt, ist mymap.key oder mymap.value ausreichend.

Schema:

<schema>

DELTA_FSCK_CANNOT_REPAIR_DELTA_LOG

SQLSTATE: 55000

FSCK kann die Tabelle nicht reparieren. Die Tabelle hat keinen gültigen Prüfpunkt, um die Protokollwiedergabe zu starten, und es ist kein ausreichender Protokollverlauf vorhanden, der von der ersten Version wiedergegeben werden kann.

DELTA_FSCK_CONCURRENT_MODIFICATION

SQLSTATE: 2D521

Gleichzeitige Änderung der Tabelle, die beim Ausführen von FSCK erkannt wurde. Wiederholen Sie den FSCK-Befehl, und stellen Sie sicher, dass während des Reparaturvorgangs keine anderen Vorgänge in die Tabelle geschrieben werden.

DELTA_FSCK_DRY_RUN_CANNOT_PROCEED_WITH_INVALID_CHECKPOINTS

SQLSTATE: 55000

FSCK DRY RUN kann nicht fortgesetzt werden, weil ungültige Prüfpunkte erkannt wurden. Führen Sie zuerst "FSCK-Tabelle REPAIR TABLEMETADATA ONLY" aus, um die Prüfpunkte zu reparieren.

DELTA_FSCK_DRY_RUN_CANNOT_PROCEED_WITH_MISSING_OR_INVALID_PARTITION_FILES

SQLSTATE: 55000

FSCK DRY RUN kann nicht fortgesetzt werden, weil fehlende Dateien oder Dateien mit ungültigen Partitionswerten erkannt wurden. Führen Sie zuerst "FSCK-Tabelle REPAIR TABLE " aus, um die Tabelle zu reparieren.

DELTA_FSCK_INVALID_BARRIER_CHECKPOINT

SQLSTATE: 55000

FSCK kann die Tabelle nicht reparieren. Einige ungültige Prüfpunkte sind geschützt und können nicht entfernt werden. Wenden Sie sich bitte an den Databricks-Support.

DELTA_FSCK_NO_VALID_CHECKPOINT

SQLSTATE: 55000

FSCK kann die Tabelle nicht reparieren. Alle Prüfpunkte dieser Tabelle sind ungültig. Wenden Sie sich bitte an den Databricks-Support.

DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH

SQLSTATE: 42K09

Spalte <columnName> weist den Datentyp <columnType> auf und kann nicht auf den Datentyp <dataType> geändert werden, da auf diese Spalte durch die folgenden generierten Spalten verwiesen wird:

<generatedColumns>.

DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE

SQLSTATE: 42K09

Spalten-<columnName> kann nicht geändert werden, da auf diese Spalte durch die folgenden generierten Spalten verwiesen wird:

<generatedColumns>.

DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH

SQLSTATE: 42K09

Der Ausdruckstyp der generierten Spalte <columnName> lautet <expressionType>, jedoch ist der Spaltentyp <columnType>.

DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH

SQLSTATE: 42K09

Spalte <currentName> ist eine generierte Spalte oder eine Spalte, die von einer generierten Spalte verwendet wird. Der Datentyp ist <currentDataType> und kann nicht in den Datentyp <updateDataType>konvertiert werden.

DELTA_GEOSPATIAL_NOT_SUPPORTED

SQLSTATE: 0AKDC

Geospatialtypen werden in dieser Version von Delta Lake nicht unterstützt.

DELTA_GEOSPATIAL_SRID_NOT_SUPPORTED

SQLSTATE: 0AKDC

Der räumliche Typ weist eine nicht unterstützte Raumbezugskennung auf: <srid>. Delta-Tabellen unterstützen nur nicht negative srid-Werte.

DELTA_ICEBERG_COMPAT_VIOLATION

SQLSTATE: KD00E

Die Validierung von IcebergCompatV<version> ist fehlgeschlagen.

Weitere Details finden Sie unter DELTA_ICEBERG_COMPAT_VIOLATION.

DELTA_ICEBERG_WRITER_COMPAT_VIOLATION

SQLSTATE: KD00E

Die Überprüfung von IcebergWriterCompatV<version> ist fehlgeschlagen.

Weitere Informationen finden Sie unter DELTA_ICEBERG_WRITER_COMPAT_VIOLATION.

DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED

SQLSTATE: 429BQ

ALTER TABLE ALTER COLUMN wird für IDENTITY-Spalten nicht unterstützt.

DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT

SQLSTATE: 0AKDD

ALTER TABLE ALTER COLUMN SYNC IDENTITY wird nur von Delta unterstützt.

DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN

SQLSTATE: 429BQ

ALTER TABLE ALTER COLUMN SYNC IDENTITY kann nicht für Nicht-IDENTITY-Spalten aufgerufen werden.

DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED

SQLSTATE: 42808

Das Bereitstellen von Werten für GENERATED ALWAYS AS IDENTITY die Spalte <colName> wird nicht unterstützt.

DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP

SQLSTATE: 42611

IDENTITY Spaltenschritt darf nicht 0 sein.

DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT

SQLSTATE: 0AKDD

IDENTITY Spalten werden nur von Delta unterstützt.

DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED

SQLSTATE: 42601

PARTITIONED BY IDENTITY Spalte <colName> wird nicht unterstützt.

DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED

SQLSTATE: 429BQ

ALTER TABLE REPLACE COLUMNS wird für eine Tabelle mit IDENTITY-Spalten nicht unterstützt.

DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE

SQLSTATE: 428H2

DataType-<dataType> wird für IDENTITY Spalten nicht unterstützt.

DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED

SQLSTATE: 42808

UPDATE für IDENTITY-Spalte <colName> wird nicht unterstützt.

DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION

SQLSTATE: 42613

IDENTITY Spalte kann nicht mit einem generierten Spaltenausdruck angegeben werden.

DELTA_ILLEGAL_OPTION

SQLSTATE: 42616

Ungültiger Wert '<input>' für Option '<name>', <explain>

DELTA_ILLEGAL_USAGE

SQLSTATE: 42601

Die Verwendung von <option> ist nicht zulässig, wenn für eine Delta-Tabelle <operation> ausgeführt wird.

DELTA_INCONSISTENT_BUCKET_SPEC

SQLSTATE: 42000

BucketSpec in der zusammengefassten Delta-Tabelle stimmt nicht mit BucketSpec aus Metadaten überein. Erwartet: <expected>. Aktuell: <actual>.

DELTA_INCONSISTENT_LOGSTORE_CONFS

SQLSTATE: F0000

(<setKeys>) kann nicht auf unterschiedliche Werte festgelegt werden. Legen Sie nur einen davon fest, oder legen Sie sie auf denselben Wert fest.

DELTA_INCORRECT_ARRAY_ACCESS

SQLSTATE: KD003

Falscher Zugriff auf einen ArrayType. Verwenden Sie die Position „arrayname.element.elementname“ für das

zu einem Array hinzufügen.

DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME

SQLSTATE: KD003

Ein ArrayType wurde gefunden. Um auf Elemente eines ArrayTyps zuzugreifen, geben Sie Folgendes an.

<rightName> anstelle von <wrongName>.

Schema:

<schema>

DELTA_INCORRECT_GET_CONF

SQLSTATE: 42000

Verwenden Sie getConf() anstelle von conf.getConf().

DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION

SQLSTATE: 0AKDC

Dieser Fehler tritt in der Regel auf, wenn die LogStore-Standardimplementierung,

HDFSLogStore, verwendet wird, um in eine Delta-Tabelle in einem Nicht-HDFS-Speichersystem zu schreiben.

Um die transaktionsrelevanten ACID-Garantien für Tabellenupdates zu erhalten, müssen Sie die

korrekte Implementierung von LogStore, die für Ihr Speichersystem geeignet ist.

Weitere Informationen finden Sie unter <docLink>.

DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT

SQLSTATE: 42KD8

Der Index <index> zum Ablegen der Spalte ist gleich oder größer als die Strukturlänge: <length>.

DELTA_INDEX_LARGER_THAN_STRUCT

SQLSTATE: 42KD8

Index <index> zum Hinzufügen einer Spalte <columnName> ist größer als die Strukturlänge: <length>.

DELTA_INSERT_COLUMN_ARITY_MISMATCH

SQLSTATE: 42802

Schreiben in „<tableName>“ nicht möglich, <columnName>, die Zieltabelle hat <numColumns> Spalte(n), aber die eingefügten Daten haben <insertColumns> Spalte(n).

DELTA_INSERT_COLUMN_MISMATCH

SQLSTATE: 42802

Spalte <columnName> ist in INSERT nicht angegeben.

DELTA_INSERT_REPLACE_ON_AMBIGUOUS_COLUMNS_IN_CONDITION

SQLSTATE: 42702

Spalten <columnNames> sind in der Bedingung von INSERT REPLACE ON mehrdeutig. Erwägen Sie die Angabe eines Alias für diese Spalten.

DELTA_EINFÜGEN_ERSETZEN_NICHT_AKTIVIERT

SQLSTATE: 0A000

Wenden Sie sich bitte an Ihren Databricks-Vertreter, um die INSERT INTO...REPLACE ON ... SQL- und DataFrame-APIs.

If the identifier is meant to stay consistent with the original English due to technical precision and domain-specific norms, the translation remains as: DELTA_INSERT_REPLACE_ON_UNRESOLVED_COLUMNS_IN_CONDITION

SQLSTATE: 42703

Spalten <columnNames> können in der Bedingung von INSERT REPLACE ON nicht aufgelöst werden.

DELTA_INVALID_AUTO_COMPACT_TYPE

SQLSTATE: 22023

Ungültiger automatisch komprimierter Typ: <value>. Zulässige Werte sind: <allowed>.

DELTA_INVALID_BUCKET_COUNT

SQLSTATE: 22023

Ungültige Bucketanzahl: <invalidBucketCount>. Die Bucketanzahl sollte eine positive Zahl, eine Potenz von 2 und mindestens 8 sein. Sie können stattdessen <validBucketCount> verwenden.

DELTA_INVALID_BUCKET_INDEX

SQLSTATE: 22023

Die Bucketspalte kann in den Partitionsspalten nicht gefunden werden.

DELTA_INVALID_CALENDAR_INTERVAL_EMPTY

SQLSTATE: 2200P

Das Intervall darf nicht null oder leer sein.

DELTA_INVALID_CDC_RANGE

SQLSTATE: 22003

Der CDC-Bereich von Anfang <start> bis Ende <end> war ungültig. Das Ende kann nicht vor dem Start erfolgen.

DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME

SQLSTATE: 42K05

Attributname "<columnName>" enthält ungültige Zeichen zwischen " ;;{}()\n\t=". Verwenden Sie zum Umbenennen einen Alias.

DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES

SQLSTATE: 42K05

Ungültige Zeichen zwischen ' gefunden;{}()\n\t=" in den Spaltennamen Ihres Schemas.

Ungültige Spaltennamen: <invalidColumnNames>.

Bitte verwenden Sie andere Zeichen, und versuchen Sie es erneut.

Alternativ können Sie die Spaltenzuordnung aktivieren, um diese Zeichen weiterhin zu verwenden.

DELTA_INVALID_CHECK_CONSTRAINT_REFERENCES

SQLSTATE: 42621

In CHECK Einschränkung gefunden<colName>. Eine Check-Einschränkung kann keine nicht vorhandene Spalte verwenden.

DELTA_INVALID_CLONE_PATH

SQLSTATE: 22KD1

Der Zielspeicherort für CLONE muss ein absoluter Pfad oder ein Tabellenname sein. Verwenden Sie ein/eine

absoluten Pfad anstelle von <path>.

DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING

SQLSTATE: 42K05

Ungültige Zeichen zwischen ' gefunden;{}()\n\t=" in den Spaltennamen Ihres Schemas.

Ungültige Spaltennamen: <invalidColumnNames>.

Die Spaltenzuordnung kann nicht entfernt werden, wenn in den Spaltennamen ungültige Zeichen vorhanden sind.

Benennen Sie die Spalten um, um die ungültigen Zeichen zu entfernen, und führen Sie diesen Befehl erneut aus.

DELTA_INVALID_FORMAT

SQLSTATE: 22000

Inkompatibles Format erkannt.

Ein Transaktionsprotokoll für Delta wurde gefunden unter <deltaRootPath>/_delta_log,

aber Sie versuchen <operation> <path> mithilfe von format("<format>"). Sie müssen

'format("delta")' beim Lesen und Schreiben in eine Delta-Tabelle verwenden.

Weitere Informationen zu Delta finden Sie unter <docLink>

DELTA_INVALID_GENERATED_COLUMN_REFERENCES

SQLSTATE: 42621

Eine generierte Spalte kann keine nicht vorhandene Spalte oder eine andere generierte Spalte verwenden.

DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS

SQLSTATE: 42616

Ungültige Optionen für idempotente Dataframe-Schreibvorgänge: <reason>

DELTA_INVALID_INTERVAL

SQLSTATE: 22006

<interval> ist keine gültige INTERVAL.

DELTA_INVALID_INVENTORY_SCHEMA

SQLSTATE: 42000

Das Schema für die angegebene INVENTORY enthält nicht alle erforderlichen Felder. Erforderliche Felder sind: <expectedSchema>

DELTA_INVALID_ISOLATION_LEVEL

SQLSTATE: 25000

ungültige Isolationsstufe '<isolationLevel>'.

DELTA_INVALID_LOGSTORE_CONF

SQLSTATE: F0000

(<classConfig>) und (<schemeConfig>) können nicht gleichzeitig festgelegt werden. Bitte legen Sie nur eine Gruppe davon fest.

DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA

SQLSTATE: 42000

Sie versuchen, eine verwaltete Tabelle <tableName>

mit Delta zu erstellen, aber das Schema wurde nicht angegeben.

Weitere Informationen zu Delta finden Sie unter <docLink>

DELTA_INVALID_PARTITION_COLUMN

SQLSTATE: 42996

<columnName> ist keine gültige Partitionsspalte in tabelle <tableName>.

DELTA_INVALID_PARTITION_COLUMN_NAME

SQLSTATE: 42996

Gefundene Partitionsspalten mit ungültigen Zeichen zwischen " ;;{}()\n\t=". Ändern Sie den Namen in Ihre Partitionsspalten. Diese Überprüfung kann deaktiviert werden, indem spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false) festgelegt wird, dies wird jedoch nicht empfohlen, da andere Features von Delta möglicherweise nicht ordnungsgemäß funktionieren.

DELTA_INVALID_PARTITION_COLUMN_TYPE

SQLSTATE: 42996

Die Verwendung von Spalte <name> vom Typ <dataType> als Partitionsspalte wird nicht unterstützt.

DELTA_INVALID_PARTITION_PATH

SQLSTATE: 22KD1

Ein Partitionspfadfragment sollte das Format wie part1=foo/part2=barsein. Der Partitionspfad: <path>.

DELTA_INVALID_PROTOCOL_DOWNGRADE

SQLSTATE: KD004

Die Protokollversion kann nicht von (<oldProtocol>) auf (<newProtocol>) herabgestuft werden.

DELTA_INVALID_PROTOCOL_VERSION

SQLSTATE: KD004

Nicht unterstützte Delta-Protokollversion: Tabelle "<tableNameOrPath>" erfordert Leseversion <readerRequired> und Writer-Version <writerRequired>, aber diese Version von Databricks unterstützt Leseversionen und Writer-Versionen <supportedReaders><supportedWriters>. Aktualisieren Sie bitte auf eine neuere Version.

DELTA_INVALID_TABLE_VALUE_FUNCTION

SQLSTATE: 22000

Die Funktion <function> ist eine nicht unterstützte Tabellenwertfunktion für CDC-Lesevorgänge.

DELTA_INVALID_TIMESTAMP_FORMAT

SQLSTATE: 22007

Der angegebene Zeitstempel <timestamp> stimmt nicht mit der erwarteten Syntax <format>überein.

DELTA_LOG_ALREADY_EXISTS

SQLSTATE: 42K04

Ein Delta-Protokoll ist bereits vorhanden bei <path>.

DELTA_LOG_FILE_NOT_FOUND

SQLSTATE: 42K03

Die Delta-Protokolldateien können nicht abgerufen werden, um die Tabellenversion <version> ab Prüfpunktversion <checkpointVersion> zu erstellen.<logPath>

DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE

SQLSTATE: 42K03

Wenn Sie sie nie gelöscht haben, liegt ihre Abfrage wahrscheinlich hinterher. Löschen Sie den Prüfpunkt, um von Grund auf neu zu starten. Um dies zukünftig zu vermeiden, können Sie Ihre Aufbewahrungsrichtlinie Ihrer Delta-Tabelle aktualisieren.

DELTA_LOG_JSON_FILE_ACCESS_DENIED

SQLSTATE: 58000

Zugriff verweigert beim Lesen der Delta-Protokolldatei JSON : <filePath>. Überprüfen Sie, ob Sie über Leseberechtigungen für den Speicherort der Delta-Tabelle verfügen.

DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING

SQLSTATE: 22000

Materialisierter Spaltenname für <rowTrackingColumn> fehlt für <tableName>.

DELTA_MAX_ARRAY_SIZE_EXCEEDED

SQLSTATE: 42000

Bitte verwenden Sie einen Grenzwert kleiner als Int.MaxValue - 8.

DELTA_MAX_COMMIT_RETRIES_EXCEEDED

SQLSTATE: 40000

Dieser Commit ist fehlgeschlagen, da es <numAttempts> Mal versucht wurde, aber nicht erfolgreich war.

Dies kann dadurch verursacht werden, dass für die Delta-Tabelle kontinuierlich viele gleichzeitige

commits.

Commit gestartet bei Version <startVersion>

Commit mit Fehler abgebrochen bei Version <failVersion>

Anzahl der Aktionen, die einen Commit versucht haben: <numActions>

Gesamtzeit für den Versuch dieses Commits: <timeSpent> ms

DELTA_MAX_LIST_FILE_EXCEEDED

SQLSTATE: 42000

Die Dateiliste darf höchstens <maxFileListSize> Einträge haben, hatte aber <numFiles>.

DELTA_MERGE_ADD_VOID_COLUMN

SQLSTATE: 42K09

Es kann keine Spalte <newColumn> mit dem Typ VOID hinzugefügt werden. Bitte geben Sie explizit einen anderen als den void-Typ an.

DELTA_MERGE_INCOMPATIBLE_DATATYPE

SQLSTATE: 42K09

Fehler beim Zusammenführen inkompatibler Datentypen <currentDataType> und <updateDataType>.

DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE

SQLSTATE: 42806

Fehler beim Zusammenführen von Dezimaltypen mit inkompatiblen <decimalRanges>.

DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY

SQLSTATE: 25000

Die Quelle der MERGE-Anweisung materialisiert beizubehalten ist wiederholt fehlgeschlagen.

DELTA_MERGE_MISSING_WHEN

SQLSTATE: 42601

Es muss mindestens eine WHEN-Klausel in einer MERGE-Anweisung vorhanden sein.

DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT

SQLSTATE: 42601

Aufgelöste Attribute <missingAttributes> fehlen in <input> im <merge>-Operator.

DELTA_MERGE_SOURCE_CACHED_DURING_EXECUTION

SQLSTATE: 25000

Fehler beim MERGE Vorgang, da (Teil) des Quellplans während der Ausführung des MERGE Vorgangs zwischengespeichert wurde.

DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY

SQLSTATE: 22005

Unerwarteter Zuordnungsschlüssel: <unexpectedKeyClass> - <unexpectedKeyObject>.

DELTA_MERGE_UNRESOLVED_EXPRESSION

SQLSTATE: 42601

Auflösung von <sqlExpr> in <clause> vorhandenen Spalten <cols> nicht möglich.

DELTA_METADATA_CHANGED

SQLSTATE: 2D521

MetadataChangedException: Die Metadaten der Delta-Tabelle wurden durch ein gleichzeitiges Update geändert. Versuchen Sie es erneut.<conflictingCommit>

Weitere Informationen finden Sie unter <docLink>.

DELTA_MISSING_CHANGE_DATA

SQLSTATE: KD002

Fehler beim Abrufen von Änderungsdaten für den Bereich [<startVersion> , <endVersion>] als Änderungsdaten nicht

für Version [<version>] nicht aufgezeichnet wurden. Wenn Sie den Änderungsdaten-Feed für diese Tabelle aktiviert haben,

verwenden Sie DESCRIBE HISTORY, um zu sehen, wann sie zum ersten Mal aktiviert wurde.

Verwenden Sie andernfalls ALTER TABLE table_name SET TBLPROPERTIES, um die Aufzeichnung der Änderungsdaten zu starten.

(<key>=true).

DELTA_MISSING_COLUMN

SQLSTATE: 42703

<columnName> konnte nicht in den Tabellenspalten gefunden werden: <columnList>.

DELTA_MISSING_COMMIT_INFO

SQLSTATE: KD004

Diese Tabelle verfügt über das Feature <featureName> aktiviert, das das Vorhandensein der CommitInfo-Aktion in jedem Commit erfordert. Die CommitInfo-Aktion fehlt jedoch in der Commit-Version <version>.

DELTA_MISSING_COMMIT_TIMESTAMP

SQLSTATE: KD004

Diese Tabelle verfügt über das Feature <featureName> aktiviert, das das Vorhandensein von commitTimestamp in der CommitInfo-Aktion erfordert. Dieses Feld wurde jedoch nicht in commit-Version <version>festgelegt.

DELTA_MISSING_DELTA_TABLE

SQLSTATE: 42P01

<tableName> ist keine Delta-Tabelle.

DELTA_MISSING_DELTA_TABLE_COPY_INTO

SQLSTATE: 42P01

Tabelle ist nicht vorhanden. Erstellen Sie zuerst eine leere Delta-Tabelle mit CREATE TABLE <tableName>.

DELTA_MISSING_ICEBERG_CLASS

SQLSTATE: 56038

Die Apache Iceberg-Klasse wurde nicht gefunden. Bitte stellen Sie sicher, dass die Delta Apache Iceberg-Unterstützung installiert ist.

Weitere Informationen finden Sie unter <docLink>.

DELTA_MISSING_NOT_NULL_COLUMN_VALUE

SQLSTATE: 23502

Spalte <columnName>, die eine NOT NULL Einschränkung aufweist, fehlt in den Daten, die in die Tabelle geschrieben werden.

DELTA_MISSING_PARTITION_COLUMN

SQLSTATE: 42KD6

Partitionsspalte <columnName> in Schema-<columnList>nicht gefunden.

DELTA_MISSING_PART_FILES

SQLSTATE: 42KD6

Alle Teildateien der Prüfpunktversion konnten nicht gefunden werden: <version>.

DELTA_MISSING_PROVIDER_FOR_CONVERT

SQLSTATE: 0AKDC

CONVERT TO DELTA unterstützt nur Parquet-Tabellen. Schreiben Sie Ihr Ziel als „parquet. <path>“ um, wenn es sich um ein Parquet-Verzeichnis handelt.

DELTA_MISSING_ROW_TRACKING_FOR_CDC

SQLSTATE: 0AKDE

Fehler beim Abrufen von Änderungsdaten für <tableName> das Nachverfolgen von Zeilen war nicht aktiviert. Um die Zeilenverfolgung zu aktivieren, verwenden Sie ALTER TABLE table_name SET TBLPROPERTIES (<key>=true).

DELTA_MISSING_SET_COLUMN

SQLSTATE: 42703

SET-Spalte <columnName> wurde in den angegebenen Spalten nicht gefunden: <columnList>.

DELTA_MISSING_TRANSACTION_LOG

SQLSTATE: 42000

Inkompatibles Format erkannt.

Sie versuchen die Ausführung von <operation> <path> mit Delta, aber es ist kein

Transaktionsprotokoll vorhanden. Überprüfen Sie den Upstreamauftrag, um sicherzustellen, dass er

format("delta") verwendet und dass Sie versuchen, „%1$s“ auf den Basispfad der Tabelle anzuwenden.

Weitere Informationen zu Delta finden Sie unter <docLink>

DELTA_MODE_NOT_SUPPORTED

SQLSTATE: 0AKDC

Der angegebene Modus "<mode>" wird nicht unterstützt. Unterstützte Modi sind: <supportedModes>.

DELTA_MULTIPLE_CDC_BOUNDARY

SQLSTATE: 42614

Mehrere <startingOrEnding>-Argumente für CDC-Lesevorgang bereitgestellt. Bitte geben Sie entweder einen <startingOrEnding>Zeitstempel oder eine <startingOrEnding>Version an.

DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER

SQLSTATE: 42614

Es wurden mehrere Bloomfilterindex-Konfigurationen an den Befehl für Spalte <columnName> übergeben.

DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE

SQLSTATE: 21506

Die Zusammenführung kann nicht als mehrere Quellzeilen übereinstimmen und versucht haben, dasselbe zu ändern.

Zielzeile in der Delta-Tabelle auf möglicherweise widersprüchliche Weise. Durch DIE SQL-Semantik des Zusammenführens,

Wenn mehrere Quellzeilen in derselben Zielzeile übereinstimmen, kann das Ergebnis mehrdeutig sein.

da unklar ist, welche Quellzeile verwendet werden soll, um den Abgleich zu aktualisieren oder zu löschen

Zielzeile. Sie können die Quelltabelle vorverarbeiten, um die Möglichkeit zu beseitigen

mehrere Übereinstimmungen. Informationen zu den nächsten Schritten finden Sie im Abschnitt

<usageReference>

DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND

SQLSTATE: 42616

Während <command> werden entweder beide Konfigurationen der koordinierten Commits ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview") im Befehl festgelegt oder keine davon. Fehlt: "<configuration>". Geben Sie diese Konfiguration in der TBLPROPERTIES-Klausel an, oder entfernen Sie die andere Konfiguration, und wiederholen Sie dann den Befehl erneut.

DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION

SQLSTATE: 42616

Während <command> werden entweder beide Konfigurationen der koordinierten Commits ("coordinatedCommits.commitCoordinator-preview", "coordinatedCommits.commitCoordinatorConf-preview") in den SparkSession-Konfigurationen festgelegt oder keine davon. Fehlt: "<configuration>". Legen Sie diese Konfiguration in der SparkSession fest, oder deaktivieren Sie die andere Konfiguration, und wiederholen Sie dann den Befehl erneut.

DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE

SQLSTATE: 42000

Die folgenden Spaltennamen sind nur für die interne Verwendung der delta-zusammengefassten Tabelle reserviert: <names>

DELTA_NESTED_FIELDS_NEED_RENAME

SQLSTATE: 42K05

Das Eingabeschema enthält geschachtelte Felder, die anders großgeschrieben sind als die Zieltabelle.

Sie müssen umbenannt werden, um den Verlust von Daten in diesen Feldern beim Schreiben in das Delta-System zu vermeiden.

Fields:

<fields>.

Ursprüngliches Schema:

<schema>

DELTA_NESTED_NOT_NULL_CONSTRAINT

SQLSTATE: 0AKDC

Der <nestType> Typ des Felds <parent> enthält eine NOT NULL Einschränkung. Delta unterstützt keine NOT NULL-Einschränkungen, die in Arrays oder Maps geschachtelt sind. Um diesen Fehler zu unterdrücken und die angegebenen Einschränkungen stillschweigend zu ignorieren, setzen Sie <configKey> = true.

Geparster <nestType>-Typ:

<nestedPrettyJson>

DELTA_NESTED_SUBQUERY_NOT_SUPPORTED

SQLSTATE: 0A000

Geschachtelte Unterabfragen werden in der <operation>-Bedingung nicht unterstützt.

DELTA_NEW_CHECK_CONSTRAINT_VIOLATION

SQLSTATE: 23512

<numRows> Zeilen in <tableName> verstoßen gegen die neue CHECK Beschränkung (<checkConstraint>).

DELTA_NEW_NOT_NULL_VIOLATION

SQLSTATE: 23512

<numRows> Zeilen in <tableName> verstoßen gegen die neue NOT NULL-Einschränkung in <colName>.

DELTA_NON_BOOLEAN_CHECK_CONSTRAINT

SQLSTATE: 42621

CHECK Einschränkung '<name>' (<expr>) sollte ein boolescher Ausdruck sein.

DELTA_NON_DETERMINISTIC_EXPRESSION_IN_CHECK_CONSTRAINT

SQLSTATE: 42621

In einer CHECK Einschränkung gefunden<expr>. Eine CHECK Einschränkung kann keinen nicht deterministischen Ausdruck verwenden.

DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN

SQLSTATE: 42621

Es wurde <expr> gefunden. Eine generierte Spalte kann keinen nicht deterministischen Ausdruck verwenden.

DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED

SQLSTATE: 0AKDC

Nicht-deterministische Funktionen werden in der <operation> <expression> nicht unterstützt.

DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE: 42601

Wenn es in einer MATCHED-Anweisung mehr als eine MERGE-Klausel gibt, kann nur die letzte MATCHED-Klausel die Bedingung weglassen.

DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION

SQLSTATE: 42601

Wenn es in einer NOT MATCHED BY SOURCE-Anweisung mehr als eine MERGE-Klausel gibt, kann nur die letzte NOT MATCHED BY SOURCE-Klausel die Bedingung weglassen.

DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE: 42601

Wenn es in einer NOT MATCHED-Anweisung mehr als eine MERGE-Klausel gibt, kann nur die letzte NOT MATCHED-Klausel die Bedingung weglassen.

DELTA_NON_PARSABLE_TAG

SQLSTATE: 42601

Tag <tag>konnte nicht analysiert werden.

Dateitags sind: <tagList>.

DELTA_NON_PARTITION_COLUMN_ABSENT

SQLSTATE: KD005

In Delta geschriebene Daten müssen mindestens eine nicht partitionierte Spalte enthalten.<details>

DELTA_NON_PARTITION_COLUMN_REFERENCE

SQLSTATE: 42P10

Prädikat verweist auf nicht partitionierte Spalte '<columnName>'. Nur auf die Partitionsspalten kann verwiesen werden: [<columnList>].

DELTA_NON_PARTITION_COLUMN_SPECIFIED

SQLSTATE: 42P10

Nicht partitionierende Spalten <columnList> werden angegeben, wobei nur Partitionierungsspalten erwartet werden: <fragment>.

DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG

SQLSTATE: 42K05

Der Delta-Katalog erfordert einen einzelteiligen Namespace, aber <identifier> ist mehrteilig.

DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_COMMAND

SQLSTATE: 42616

Das Festlegen des Commit-Koordinators auf "<nonUcCoordinatorName>" vom Befehl wird nicht unterstützt, da von UC verwaltete Tabellen nur "unity-catalog" als Commit-Koordinator haben können. Ändern Sie sie entweder in "unity-catalog", oder entfernen Sie alle Coordinated Commits-Tabelleneigenschaften aus der TBLPROPERTIES Klausel, und wiederholen Sie dann den Befehl erneut.

DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_SESSION

SQLSTATE: 42616

Es wird nicht unterstützt, den Commit-Koordinator aus den SparkSession-Konfigurationen auf '<nonUcCoordinatorName>' festzulegen, da von UC verwaltete Tabellen nur 'unity-catalog' als Commit-Koordinator haben können. Ändern Sie sie entweder in "unity-catalog", indem Sie ausführen spark.conf.set("<coordinatorNameDefaultKey>", "unity-catalog"), oder entfernen Sie alle Coordinated Commits-Tabelleneigenschaften aus den SparkSession-Konfigurationen, indem Sie den Befehl ausführen spark.conf.unset("<coordinatorNameDefaultKey>"), spark.conf.unset("<coordinatorConfDefaultKey>"), spark.conf.unset("<tableConfDefaultKey>"), und wiederholen Sie dann den Befehl erneut.

DELTA_NON_UC_MANAGED_TABLE_UPGRADE_OR_DOWNGRADE_NOT_SUPPORTED

SQLSTATE: 0A000

Tabelle <tableName> ist nicht UC-verwaltet. Nur von UC verwaltete Tabellen können auf katalogverwaltete Tabellen aktualisiert oder herabgestuft werden.

DELTA_NOT_A_DATABRICKS_DELTA_TABLE

SQLSTATE: 42000

<table> ist keine Delta-Tabelle. Löschen Sie bitte zuerst diese Tabelle, wenn Sie sie mit Databricks Delta erstellen möchten.

DELTA_NOT_A_DELTA_TABLE

SQLSTATE: 0AKDD

<tableName> ist keine Delta-Tabelle. Bitte legen Sie diese Tabelle zuerst ab, wenn Sie sie mit Delta Lake neu erstellen möchten.

DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT

SQLSTATE: 42K09

Eine Spalte, die keine Nullwerte zulässt, wurde in der Struktur: <struct> gefunden.

DELTA_NOT_NULL_CONSTRAINT_VIOLATED

SQLSTATE: 23502

Verstoß gegeben NOT NULL-Einschränkung für Spalte: <columnName>.

DELTA_NOT_NULL_NESTED_FIELD

SQLSTATE: 0A000

Ein geschachteltes Feld, das keine Nullwerte zulässt, kann nicht zu einem übergeordneten Element hinzugefügt werden, dass Nullwerte zulässt. Legen Sie die Nullierbarkeit der übergeordneten Spalte entsprechend fest.

DELTA_NO_COMMITS_FOUND

SQLSTATE: KD006

Keine Commits gefunden bei <logPath>.

DELTA_NO_RECREATABLE_HISTORY_FOUND

SQLSTATE: KD006

Es wurden keine reproduzierbaren Commits bei <logPath> gefunden.

DELTA_NO_REDIRECT_RULES_VIOLATED

SQLSTATE: 42P01

Vorgang nicht zulässig: <operation> kann für eine Tabelle mit Umleitungsfunktion nicht ausgeführt werden.

Die Regeln für keine Umleitung werden nicht erfüllt <noRedirectRules>.

DELTA_NO_RELATION_TABLE

SQLSTATE: 42P01

Tabelle <tableIdent> nicht gefunden.

DELTA_NO_START_FOR_CDC_READ

SQLSTATE: 42601

Weder „startingVersion“ noch „startTimestamp“ für CDC-Lesezugriff bereitgestellt.

DELTA_NULL_SCHEMA_IN_STREAMING_WRITE

SQLSTATE: 42P18

Delta akzeptiert nullTypes im Schema für Streaming-Schreibvorgänge nicht.

DELTA_ONEOF_IN_TIMETRAVEL

SQLSTATE: 42601

Geben Sie entweder "timestampAsOf" oder "versionAsOf" für Zeitreisen an.

DELTA_ONLY_OPERATION

SQLSTATE: 0AKDD

<operation> wird nur für Delta-Tabellen unterstützt.

DELTA_OPERATION_MISSING_PATH

SQLSTATE: 42601

Geben Sie den Pfad oder die Tabellen-ID für <operation>an.

DELTA_OPERATION_NOT_ALLOWED

SQLSTATE: 0AKDC

Vorgang nicht zulässig: <operation> Wird für Delta-Tabellen nicht unterstützt.

DELTA_OPERATION_NOT_ALLOWED_DETAIL

SQLSTATE: 0AKDC

Vorgang nicht zulässig: <operation> wird für Delta-Tabellen: <tableName> nicht unterstützt.

DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION

SQLSTATE: 0AKDC

<operation> wird für Spalte <colName> mit nicht standardmäßiger Sortierung <collation> nicht unterstützt.

DELTA_OPERATION_NOT_SUPPORTED_FOR_DATATYPES

SQLSTATE: 0AKDC

<operation> wird für Datentypen nicht unterstützt: <dataTypeList>.

DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION

SQLSTATE: 0AKDC

<operation> wird für Ausdrücke <exprText> nicht unterstützt, da sie nicht standardmäßige Sortierung verwendet.

DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED

SQLSTATE: 0A000

Der <operation>-Befehl, der sich auf eine temporäre Ansicht bezieht und auf eine Delta-Tabelle mit generierten Spalten verweist, wird nicht unterstützt. Führen Sie den <operation> Befehl in der Delta-Tabelle direkt aus.

DELTA_OPERATION_ON_VIEW_NOT_ALLOWED

SQLSTATE: 0AKDC

Vorgang nicht zulässig: <operation> kann nicht auf einer Ansicht ausgeführt werden.

DELTA_OPTIMIZE_FULL_NOT_SUPPORTED

SQLSTATE: 42601

OPTIMIZE FULL wird nur für gruppierte Tabellen mit nicht leeren Clusterspalten unterstützt.

DELTA_OVERWRITE_MUST_BE_TRUE

SQLSTATE: 42000

Die Kopieroption overwriteSchema kann nicht angegeben werden, ohne OVERWRITE auf 'true' zu setzen.

DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE: 42613

'overwriteSchema' kann nicht im Modus für dynamische Partitionsüberschreibung verwendet werden.

DELTA_PARTITION_COLUMN_CAST_FAILED

SQLSTATE: 22525

Fehler beim Umwandeln des Werts <value> in <dataType> für die Partitionsspalte <columnName>.

DELTA_PARTITION_COLUMN_NOT_FOUND

SQLSTATE: 42703

Die Partitionsspalte <columnName> wurde im Schema [<schemaMap>] nicht gefunden.

DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES

SQLSTATE: 42613

Das Partitionsschema kann beim Konvertieren von Apache Iceberg-Tabellen nicht angegeben werden. Sie wird automatisch abgeleitet.

DELTA_PATH_BASED_ACCESS_TO_CATALOG_MANAGED_TABLE_BLOCKED

SQLSTATE: KD00G

Pfadbasierter Zugriff ist für Catalog-Managed Tabelle nicht zulässig: <path>. Bitte greifen Sie über ihren Namen auf die Tabelle zu, und versuchen Sie es erneut.

DELTA_PFAD_BASIERTER_ZUGRIFF_AUF_TABELLE_BLOCKIERT

SQLSTATE: 42P01

Die Tabelle unter <path> '' wurde zu einer verwalteten Unity-Katalog-Tabelle migriert und kann nicht mehr über den Pfad zugegriffen werden. Aktualisieren Sie den Client, um auf die Tabelle anhand des Namens zuzugreifen.

DELTA_PATH_DOES_NOT_EXIST

SQLSTATE: 42K03

<path> ist nicht vorhanden oder ist keine Delta-Tabelle.

DELTA_PATH_EXISTS

SQLSTATE: 42K04

Es kann nicht in den bereits vorhandenen Pfad <path> geschrieben werden, ohne OVERWRITE = 'true' festzulegen.

DELTA_POST_COMMIT_HOOK_FAILED

SQLSTATE: 2DKD0

Das Committen in der Delta-Tabellenversion <version> war erfolgreich, beim Ausführen des Hooks <name> <message> nach dem Commit ist jedoch ein Fehler aufgetreten

DELTA_PROTOCOL_CHANGED

SQLSTATE: 2D521

ProtocolChangedException: Die Protokollversion der Delta-Tabelle wurde durch ein gleichzeitiges Update geändert. <additionalInfo> <conflictingCommit>

Weitere Informationen finden Sie unter <docLink>.

DELTA_PROTOCOL_PROPERTY_NOT_INT

SQLSTATE: 42K06

Die Protokolleigenschaft <key> muss eine ganze Zahl sein. Es wurde <value> gefunden.

DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE

SQLSTATE: KD004

Es ist nicht möglich, nur die Version des Leseprotokolls zu aktualisieren, um Tabellenfunktionen zu verwenden. Die Writer-Protokollversion muss mindestens <writerVersion> sein, um fortzufahren. Weitere Informationen zu Tabellenprotokollversionen finden Sie unter <docLink>.

DELTA_READ_TABLE_WITHOUT_COLUMNS

SQLSTATE: 428GU

Sie versuchen, eine Delta-Tabelle <tableName> zu lesen, die keine Spalten enthält.

Schreiben Sie einige neue Daten mit der Option mergeSchema = true, um die Tabelle lesen zu können.

DELTA_READ_TIME_CDC_NOT_SUPPORTED_FOR_TABLES_WITH_ACCESS_POLICIES

SQLSTATE: 56038

Sie versuchen, "Datenfeed ändern" zu berechnen, für <tableName> den Zugriffsrichtlinien definiert sind. Lesezeitänderungsdatenfeed befindet sich derzeit in der Vorschau und unterstützt CDF für Tabellen mit Zugriffsrichtlinien nicht. Aktivieren Sie das leseoptimierte CDF, indem Sie die Tabelleneigenschaft "" auf "<cdfTableProperty>true" in der Tabelle festlegen.

DELTA_REDIRECT_TARGET_ROW_FILTER_COLUMN_MASK_UNSUPPORTED

SQLSTATE: 0AKDC

Die Umleitung zu einer Tabelle mit Zeilenfilter oder Spaltenformat wird nicht unterstützt. Aktualisieren Sie Ihren Code, um direkt auf die Zieltabelle <tableIdent> zu verweisen.

DELTA_REGEX_OPT_SYNTAX_ERROR

SQLSTATE: 2201B

Überprüfen Sie ihre Syntax erneut auf "<regExpOption>".

DELTA_RELATION_PATH_MISMATCH

SQLSTATE: 2201B

Beziehungspfad '<relation>' stimmt nicht mit dem Pfad von <targetType> '<targetPath>' überein.

DELTA_REORG_MATERIALIZATION_NOT_SUPPORTED_ON_UNPARTITIONED_TABLE

SQLSTATE: 22000

Liquid Conversion using reorg command is not supported on an unpartitioned table.

DELTA_REORG_PARTITION_MATERIALIZATION_CONFLICT

SQLSTATE: 22000

Spalten können nicht <action> partitionieren. <instruction> Partitionsspaltenmaterialisierung durch Festlegen der Tabelleneigenschaft '<tableProperty>' auf <value> oder die SQL-Konfiguration '<sqlConfig>' auf <value>.

DELTA_REORG_UNKNOWN_MODE

SQLSTATE: 0AKDC

Unbekannter REORG TABLE Modus: <mode>.

DELTA_REPLACE_WHERE_IN_OVERWRITE

SQLSTATE: 42613

Sie können „replaceWhere“ nicht in Verbindung mit einer Überschreibung durch einen Filter verwenden.

DELTA_REPLACE_WHERE_MISMATCH

SQLSTATE: 44000

Die geschriebenen Daten entsprechen nicht der Bedingung zum Überschreiben der partiellen Tabelle oder der Einschränkung „<replaceWhere>“.

<message>

DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE: 42613

Ein „replaceWhere“-Ausdruck und „partitionOverwriteMode’=’dynamic“ können nicht beide in den DataFrameWriter-Optionen festgelegt werden.

DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET

SQLSTATE: 42613

'replaceWhere' kann nicht mit Datenfiltern verwendet werden, wenn 'dataChange' auf "false" festgelegt ist. Filter: <dataFilters>.

DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS

SQLSTATE: 22000

Zeilen-IDs ohne Zeilenzählungsstatistiken können nicht zugewiesen werden.

Sammeln Sie Statistiken für die Tabelle, indem Sie den ANALYZE TABLE Befehl ausführen:

ANALYZE TABLE Tabellenname COMPUTE DELTA STATISTICS

DELTA-Reihenverfolgung: Backfill läuft gleichzeitig mit Nicht-Backfill

SQLSTATE: 22KD0

Ein Aktivierungsvorgang für die Zeilenverfolgung wurde erkannt, der gleichzeitig mit einer Deaktivierung der Zeilenverfolgung ausgeführt wird. Abbrechen des Deaktivierungsvorgangs. Versuchen Sie den Deaktivierungsvorgang bei Bedarf erneut, wenn der Aktivierungsvorgang abgeschlossen ist.

DELTA_ROW_TRACKING_ILLEGAL_PROPERTY_COMBINATION

SQLSTATE: 55000

Ungültiger Tabellenstatus wurde erkannt. Tabelleneigenschaften <property1> und <property2> sind beide auf "true" festgelegt. Das Problem kann behoben werden, indem eine der beiden Tabelleneigenschaften deaktiviert wird.

Bitte wenden Sie sich an den Databricks-Support, um weitere Unterstützung zu erhalten.

DELTA_SCHEMA_CHANGED

SQLSTATE: KD007

Schemaänderung erkannt:

Streamingquellenschema: <readSchema>

Datendateischema: <dataSchema>

Versuchen Sie, die Abfrage neu zu starten. Wenn sich dieses Problem über Abfrageneustarts hinweg wiederholt, ohne

dass es Fortschritte gibt, haben Sie eine inkompatible Schemaänderung vorgenommen und müssen ihre

Abfragen von neuem auf eines neuen Prüfpunktverzeichnisses starten.

DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS

SQLSTATE: KD007

Schemaänderung in version <version>erkannt:

Streamingquellenschema: <readSchema>

Datendateischema: <dataSchema>

Versuchen Sie, die Abfrage neu zu starten. Wenn sich dieses Problem über Abfrageneustarts hinweg wiederholt, ohne

dass es Fortschritte gibt, haben Sie eine inkompatible Schemaänderung vorgenommen und müssen ihre

Abfragen von neuem auf eines neuen Prüfpunktverzeichnisses starten. Wenn das Problem weiterhin besteht,

Wenn Sie zu einem neuen Prüfpunktverzeichnis wechseln, müssen Sie möglicherweise das vorhandene Prüfpunktverzeichnis ändern.

Option für „startingVersion“ oder „startingTimestamp“ ändern, um ab einer neueren Version als

<version> mit einem neuen Prüfpunktverzeichnis.

DELTA_SCHEMA_CHANGED_WITH_VERSION

SQLSTATE: KD007

Schemaänderung in version <version>erkannt:

Streamingquellenschema: <readSchema>

Datendateischema: <dataSchema>

Versuchen Sie, die Abfrage neu zu starten. Wenn sich dieses Problem über Abfrageneustarts hinweg wiederholt, ohne

dass es Fortschritte gibt, haben Sie eine inkompatible Schemaänderung vorgenommen und müssen ihre

Abfragen von neuem auf eines neuen Prüfpunktverzeichnisses starten.

DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS

SQLSTATE: KD007

Das Schema Ihrer Delta-Tabelle hat sich seit Dem DataFrame nicht kompatibel geändert

oder ein DeltaTable-Objekt wurde erstellt. Bitte definieren Sie Das DataFrame- oder DeltaTable-Objekt neu.

Changes:

<schemaDiff> <legacyFlagMessage>

DELTA_SCHEMA_NOT_PROVIDED

SQLSTATE: 42908

Das Tabellenschema wird nicht bereitgestellt. Geben Sie das Schema (Spaltendefinition) der Tabelle bei Verwendung REPLACE der Tabelle an, und es AS SELECT wird keine Abfrage angegeben.

DELTA_SCHEMA_NOT_SET

SQLSTATE: KD008

Das Tabellenschema ist nicht festgelegt. Schreiben Sie Daten in das Schema, oder verwenden Sie CREATE TABLE, um das Schema festzulegen.

DELTA_SET_LOCATION_SCHEMA_MISMATCH

SQLSTATE: 42KD7

Das Schema des neuen Delta-Standorts unterscheidet sich vom aktuellen Tabellenschema.

ursprüngliches Schema:

<original>

Zielschema:

<destination>

Wenn dies eine beabsichtigte Änderung ist, können Sie diese Überprüfung deaktivieren, indem Sie Folgendes ausführen:

%%sql festlegen <config> = wahr

DELTA_SHALLOW_CLONE_FILE_NOT_FOUND

SQLSTATE: 42K03

Datei <filePath>, auf die im Transaktionsprotokoll verwiesen wird, wurde nicht gefunden. Dies kann auftreten, wenn Daten manuell aus dem Dateisystem gelöscht wurden, anstatt die Tabelle DELETE Anweisung zu verwenden. Diese Tabelle scheint ein flacher Klon zu sein, wenn dies der Fall ist, kann dieser Fehler auftreten, wenn die ursprüngliche Tabelle, aus der diese Tabelle geklont wurde, eine Datei gelöscht hat, die der Klon noch verwendet. Wenn Klonen unabhängig von der ursprünglichen Tabelle sein sollen, verwenden Sie stattdessen einen DEEP-Klon.

DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY

SQLSTATE: 42939

Vordefinierte Eigenschaften, die mit <prefix> beginnen, können nicht geändert werden.

DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED

SQLSTATE: 42704

Die Daten werden durch die Empfängereigenschaft <property> eingeschränkt, die nicht für den aktuellen Empfänger in der Sitzung gelten.

Weitere Details finden Sie unter DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED.

DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW

SQLSTATE: 42887

<operation> kann nicht in Delta-Sharing-Ansichten verwendet werden, die kontoübergreifend freigegeben sind.

DELTA_SHARING_INVALID_PROVIDER_AUTH

SQLSTATE: 28000

Ungültiger Authentifizierungstyp <authenticationType> für Anbieter <provider>.

DELTA_SHARING_INVALID_RECIPIENT_AUTH

SQLSTATE: 28000

Ungültiger Authentifizierungstyp <authenticationType> für empfänger <recipient>.

DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME

SQLSTATE: 42K05

Ungültiger Name, um in einer Freigabe auf <type> zu verweisen. Sie können entweder den Namen von <type> innerhalb des Shares im Format [schema].[<type>] verwenden oder auch den ursprünglichen vollständigen Namen der Tabelle im Format [Katalog].[schema].[>typ>] verwenden.

Wenn Sie sich nicht sicher sind, welchen Namen Sie verwenden sollen, können Sie „SHOW ALL IN SHARE [Freigabe]“ ausführen und den Namen des zu entfernenden <type> ermitteln: Spalte „name“ ist der Name von <type> innerhalb der Freigabe, und Spalte „shared_object“ ist der ursprüngliche vollständige Name von <type>.

DELTA_SHARING_MAXIMUM_RECIPIENT_TOKENS_ÜBERSCHRITTEN

SQLSTATE: 54000

Es gibt mehr als zwei Tokens für den Empfänger <recipient>.

DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND

SQLSTATE: 42704

Empfängereigenschaft <property> ist nicht vorhanden.

RECIPIENT_TOKENSDELTA_SHARING__NOT_FOUND

SQLSTATE: 42704

Empfängertoken fehlen für Empfänger<recipient>.

DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN

SQLSTATE: 42P10

Nicht partitionierende Spalte(n) <badCols> für SHOW PARTITIONS angegeben.

DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE

SQLSTATE: 42809

SHOW PARTITIONS ist für eine Tabelle, die nicht partitioniert ist, nicht zulässig: <tableName>.

DELTA_SHREDDED_WRITES_DISABLED

SQLSTATE: 55000

Der Vorgang kann nicht ausgeführt REORG APPLY(SHRED) werden, da geschredderte Schreibvorgänge deaktiviert sind.

DELTA_SHREDDING_TABLE_PROPERTY_DISABLED

SQLSTATE: 0A000

Es wurde versucht, Shredded Variants zu schreiben, die Tabelle unterstützt jedoch keine zerkleinerten Schreibvorgänge. Erwägen Sie, die Tabelleneigenschaft enableVariantShredding auf "true" festzulegen.

DELTA_SOURCE_IGNORE_DELETE

SQLSTATE: 0A000

Es wurden gelöschte Daten (z. B. <removedFile>) in der Streamingquelle der Version <version> erkannt. Dies wird derzeit nicht unterstützt. Wenn Sie Löschlöschungen ignorieren möchten, legen Sie die Option "ignoreDeletes" auf "true" fest. Die Quelltabelle finden Sie unter Pfad <dataPath>.

DELTA_SOURCE_TABLE_IGNORE_CHANGES

SQLSTATE: 0A000

Es wurde ein Datenupdate (z. B. <file>) in der Quelltabelle in version <version>erkannt. Dies wird derzeit nicht unterstützt. Wenn dies regelmäßig geschieht und Sie bereit sind, Änderungen auszulassen, stellen Sie die Option "skipChangeCommits" auf "true" ein. Wenn die Datenaktualisierung berücksichtigt werden soll, starten Sie diese Abfrage mit einem neuen Prüfpunktverzeichnis neu oder führen Sie eine vollständige Aktualisierung durch, falls Sie die Lakeflow Spark Declarative Pipelines verwenden. Wenn Sie diese Änderungen bearbeiten müssen, wechseln Sie bitte zu MVs. Die Quelltabelle finden Sie unter Pfad <dataPath>.

DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET

SQLSTATE: 42613

Geben Sie entweder "<version>" oder "<timestamp>" an.

DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND

SQLSTATE: 42000

<statsType>-Statistik für Spalte in Parquet-Metadaten <columnPath> wurde nicht gefunden: .

DELTA_STATS_NOT_FOUND_IN_FILE

SQLSTATE: 22000

Statistiken wurden in Datei nicht gefunden: <filePath>. Führen Sie 'ANALYZE TABLE [tableName]' COMPUTE DELTA STATISTICSaus, um Statistiken zu berechnen.

DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION

SQLSTATE: KD002

Wir haben eine oder mehrere nicht additive Schemaänderungen (<opType>) zwischen Delta-Version <previousSchemaChangeVersion> und <currentSchemaChangeVersion> in der Delta-Streamingquelle erkannt.

Changes:

<columnChangeDetails>

Überprüfen Sie, ob Sie diese Schemaänderungen manuell an die Senkentabelle weitergeben möchten, bevor wir mit der Streamverarbeitung mithilfe des endgültigen Schemas in Version <currentSchemaChangeVersion> fortfahren.

Nachdem Sie das Schema der Senkentabelle behoben oder entschieden haben, dass keine Korrektur erforderlich ist, können Sie die folgenden Konfigurationen festlegen, um die Blockierung der nicht-additiven Schemaänderungen aufzuheben und die Datenstromverarbeitung fortzusetzen.

Mithilfe der Dataframe-Reader-Option(en):

Um die Blockierung für diesen bestimmten Stream nur für diese Reihe von Schemaänderungen aufzuheben:

<unblockChangeOptions>

So heben Sie die Blockierung für diesen bestimmten Datenstrom auf:

<unblockStreamOptions>

Verwenden von SQL-Konfigurationen:

Um die Blockierung für diesen bestimmten Stream nur für diese Reihe von Schemaänderungen aufzuheben:

<unblockChangeConfs>

So heben Sie die Blockierung für diesen bestimmten Datenstrom auf:

<unblockStreamConfs>

So heben Sie die Blockierung für alle Datenströme auf:

<unblockAllConfs>

DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT

SQLSTATE: KD002

Fehler beim Abrufen einer Delta-Protokollmomentaufnahme für die Startversion, als Schemaänderungen der Spaltenzuordnung überprüft wurden. Wählen Sie eine andere Startversion aus, oder erzwingen Sie die Aktivierung des Streaming-Lesevorgangs auf eigene Gefahr, indem Sie '<config>' auf 'true' festlegen.

DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 42KD4

Streaminglesevorgänge werden für Tabellen mit inkompatiblen Schemaänderungen (z. B. Umbenennen oder Ablegen oder Datentypänderungen) nicht unterstützt.

Weitere Informationen und mögliche nächste Schritte zur Behebung dieses Problems finden Sie in der Dokumentation unter <docLink>

Leseschema: <readSchema>. Inkompatibles Datenschema: <incompatibleSchema>.

DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG

SQLSTATE: 42KD4

Streaminglesevorgänge werden für Tabellen mit inkompatiblen Schemaänderungen (z. B. Umbenennen oder Ablegen oder Datentypänderungen) nicht unterstützt.

Stellen Sie eine 'schemaTrackingLocation' bereit, um die nicht-additive Schemaentwicklung für die Delta-Datenstromverarbeitung zu ermöglichen.

Weitere Informationen finden Sie unter <docLink>.

Leseschema: <readSchema>. Inkompatibles Datenschema: <incompatibleSchema>.

DELTA_STREAMING_METADATA_EVOLUTION

SQLSTATE: 22000

Das Schema, die Tabellenkonfiguration oder das Protokoll Ihrer Delta-Tabelle wurde während des Streamings geändert.

Das Schema- oder Metadatenverfolgungsprotokoll wurde aktualisiert.

Starten Sie den Datenstrom neu, um die Verarbeitung mithilfe der aktualisierten Metadaten fortzusetzen.

Aktualisiertes Schema: <schema>.

Aktualisierte Tabellenkonfigurationen: <config>.

Aktualisiertes Tabellenprotokoll: <protocol>

DELTA_STREAMING_SCHEMA_EVOLUTION_NICHT_UNTERSTÜTZTER_ZEILENFILTER_COLUMN_MASKS

SQLSTATE: 22000

Das Streamen aus der Quelltabelle <tableId> mit Schemanachverfolgung unterstützt keine Zeilenfilter oder Spaltenmasken.

Legen Sie die Zeilenfilter oder Spaltenmasken ab, oder deaktivieren Sie die Schemanachverfolgung.

DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT

SQLSTATE: 22000

Es wurde ein Konflikt mit dem Schemaspeicherort „<loc>“ beim Streaming aus der Tabelle oder der Tabelle unter „<table>“ entdeckt.

Ein anderer Datenstrom kann denselben Schemaspeicherort wiederverwenden, der nicht zulässig ist.

Geben Sie einen neuen eindeutigen schemaTrackingLocation Pfad oder streamingSourceTrackingId als Leseoption für einen der Datenströme aus dieser Tabelle an.

DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT

SQLSTATE: 22000

Der Schemaspeicherort „<schemaTrackingLocation>“ muss unter dem Prüfpunktspeicherort „<checkpointLocation>“ festgelegt werden.

DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED

SQLSTATE: 22000

Unvollständige Protokolldatei im Delta Streaming-Quellschemaprotokoll unter '<location>'.

Möglicherweise wurde das Schemaprotokoll beschädigt. Wählen Sie einen neuen Schemaspeicherort aus.

DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID

SQLSTATE: 22000

Eine inkompatible Delta-Tabellen-ID wurde erkannt, als versucht wurde, den Delta-Datenstrom zu lesen.

Persistente Tabellen-ID: <persistedId>, Tabellen-ID: <tableId>

Möglicherweise wurde das Schemaprotokoll wiederverwendet. Wählen Sie einen neuen Schemaspeicherort aus.

DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA

SQLSTATE: 22000

Es wurde ein inkompatibles Partitionsschema beim Lesen des Delta-Datenstroms erkannt.

Beibehaltenes Schema: <persistedSchema>, Delta-Partitionsschema: <partitionSchema>

Wählen Sie einen neuen Schemaspeicherort aus, um das Schemaprotokoll erneut zu initialisieren, wenn Sie das Partitionsschema der Tabelle kürzlich manuell geändert haben.

DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA

SQLSTATE: 22000

Wir konnten das Delta-Streamingquellschemaprotokoll nicht initialisieren, da

beim Bereitstellen eines Streamingbatches von der Tabellenversion <a> zu <b>eine inkompatible Schema- oder Protokolländerung erkannt wurde.

DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED

SQLSTATE: 22000

Fehler beim Analysieren des Schemas aus dem Delta-Streamingquellschemaprotokoll.

Möglicherweise wurde das Schemaprotokoll beschädigt. Wählen Sie einen neuen Schemaspeicherort aus.

DELTA_STREAMING_SINK_TRANSACTION_NOT_FOUND

SQLSTATE: 56000

In den letzten <versionLimit> Versionen wurde keine Transaktion für batch <batchId> in der Delta-Spüle gefunden.

DELTA_STREAMING_SKIP_OFFSETS_INVALID_OFFSET_RANGE

SQLSTATE: 42616

Ungültiger Offsetbereich für delta source range=[<startOffset>, <endOffset>). Korrigieren Sie diesen Offsetbereich, und versuchen Sie es erneut.

Weitere Informationen finden Sie unter DELTA_STREAMING_SKIP_OFFSETS_INVALID_OFFSET_RANGE

DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS

SQLSTATE: 42711

Die Änderungsdatenerfassung kann in der Tabelle nicht aktiviert werden. Die Tabelle enthält bereits

reservierte Spalten <columnList>, die

intern als Metadaten für den Änderungsdatenfeed der Tabelle verwendet werden. So aktivieren Sie

Ändern Sie den Datenfluss in der Tabelle, wenn Sie diese Spalten umbenennen oder löschen.

DELTA_TABLE_ALREADY_EXISTS

SQLSTATE: 42P07

Tabelle <tableName> ist bereits vorhanden.

DELTA_TABLE_CONTAINS_RESERVED_CDC_COLUMNS

SQLSTATE: 42939

Der Datenfeed kann in der Tabelle nicht berechnet werden. Die Tabelle enthält reservierte Spaltennamen <columnList> , die als Ausgabespalten für den Datenfeed der Tabelle verwendet werden. Zum Berechnen des Änderungsdatenfeeds in der Tabelle benennen/ablegen Sie diese Spalten um.To compute Change Data Feed on the table rename/drop these columns.

DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF

SQLSTATE: 0AKDC

DeltaTable.forPath unterstützt derzeit nur Hadoop-Konfigurationsschlüssel, die mit <allowedPrefixes> beginnen, aber <unsupportedOptions> bekommen.

DELTA_TABLE_ID_MISMATCH

SQLSTATE: KD007

Die Delta-Tabelle bei <tableLocation> wurde ersetzt, während dieser Befehl die Tabelle verwendet hat.

Die Tabellen-ID war <oldId>, ist aber jetzt <newId>.

Wiederholen Sie den aktuellen Befehl, um sicherzustellen, dass er eine konsistente Ansicht der Tabelle liest.

DELTA_TABLE_INVALID_REDIRECT_STATE_TRANSITION

SQLSTATE: 22023

Tabellenumleitungsstatus kann nicht aktualisiert werden: Ungültiger Zustandsübergang wurde versucht.

Die Delta-Tabelle '<table>' kann nicht von '<oldState>' in '<newState>' geändert werden.

DELTA_TABLE_INVALID_SET_UNSET_REDIRECT

SQLSTATE: 22023

SET oder UNSET für Umleitungseigenschaft in <table> nicht möglich: Die aktuelle Eigenschaft „<currentProperty>“ entspricht nicht der neuen Eigenschaft „<newProperty>“.

DELTA_TABLE_LOCATION_MISMATCH

SQLSTATE: 42613

Die Position der vorhandenen Tabelle <tableName> ist <existingTableLocation>. Sie stimmt nicht mit der angegebenen Position <tableLocation>überein.

DELTA_TABLE_NOT_FOUND

SQLSTATE: 42P01

Die Delta-Tabelle <tableName> ist nicht vorhanden.

DELTA_TABLE_NOT_SUPPORTED_IN_OP

SQLSTATE: 42809

Tabelle wird in <operation> nicht unterstützt. Verwenden Sie stattdessen einen Pfad.

DELTA_TABLE_ONLY_OPERATION

SQLSTATE: 0AKDD

<tableName> ist keine Delta-Tabelle. <operation> wird nur für Delta-Tabellen unterstützt.

DELTA_TABLE_UNRECOGNIZED_REDIRECT_SPEC

SQLSTATE: 42704

Das Delta-Protokoll enthält die nicht erkannte Tabellenumleitungsspezifikation „<spec>“.

DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY

SQLSTATE: 428GU

Das endgültige Schema der Zieltabelle ist leer.

DELTA_TIMESTAMP_EARLIER_THAN_COMMIT_RETENTION

SQLSTATE: 42816

Der angegebene Zeitstempel (<userTimestamp>) liegt vor der frühesten Version, die für

diese Tabelle (<commitTs>). Bitte verwenden Sie einen Zeitstempel nach <timestampString>.

DELTA_TIMESTAMP_GREATER_THAN_COMMIT

SQLSTATE: 42816

Der bereitgestellte Zeitstempel (<providedTimestamp>) liegt nach der aktuellen Version, die verfügbar ist für diese

Tabelle (<tableName>). Bitte verwenden Sie einen Zeitstempel vor oder bei <maximumTimestamp>.

DELTA_TIMESTAMP_INVALID

SQLSTATE: 42816

Der angegebene Zeitstempel (<expr>) kann nicht in einen gültigen Zeitstempel konvertiert werden.

DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE

SQLSTATE: 42604

<timeTravelKey> muss ein gültiger Anfangswert sein.

DELTA_TOO_MUCH_LISTING_MEMORY

SQLSTATE: 53000

Fehler beim Auflisten von Dateien (<numFiles>) in der Delta-Tabelle aufgrund unzureichendem Arbeitsspeicher. Erforderlicher Arbeitsspeicher: <estimatedMemory>, verfügbarer Arbeitsspeicher: <maxMemory>.

DELTA_TRUNCATED_TRANSACTION_LOG

SQLSTATE: 42K03

<path>: Der Zustand kann in der Version <version> nicht rekonstruiert werden, da das Transaktionsprotokoll aufgrund manueller Löschung oder der Protokollaufbewahrungsrichtlinie (<logRetentionKey>=<logRetention>) und der Prüfpunktaufbewahrungsrichtlinie (<checkpointRetentionKey>=<checkpointRetention>) abgeschnitten wurde.

DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED

SQLSTATE: 0AKDC

Vorgang nicht zulässig: TRUNCATE TABLE in Delta-Tabellen unterstützt keine Partitions-Prädikate; verwenden Sie DELETE, um bestimmte Partitionen oder Zeilen zu löschen.

DELTA_UDF_IN_CHECK_CONSTRAINT

SQLSTATE: 42621

In einer CHECK Einschränkung gefunden<expr>. Eine CHECK Einschränkung kann keine benutzerdefinierte Funktion verwenden.

DELTA_UDF_IN_GENERATED_COLUMN

SQLSTATE: 42621

Es wurde <udfExpr> gefunden. Eine generierte Spalte kann keine benutzerdefinierte Funktion verwenden.

DELTA_UNEXPECTED_ACTION_EXPRESSION

SQLSTATE: 42601

Unerwarteter Aktionsausdruck <expression>.

DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME

SQLSTATE: KD009

Es werden die <expectedColsSize>-Partitionsspalten <expectedCols> erwartet, es wurden jedoch <parsedColsSize>-Partitionsspalten <parsedCols> beim Parsen des Dateinamens <path> gefunden.

DELTA_UNEXPECTED_PARTIAL_SCAN

SQLSTATE: KD00A

Es wurde ein vollständiger Scan der Delta-Quellen erwartet, aber nur ein Teilscan gefunden. Pfad: <path>.

DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME

SQLSTATE: KD009

Partitionsspalte <expectedCol>erwartet, die Partitionsspalte <parsedCol> wurde jedoch aus der Analyse des Dateinamens gefunden: <path>.

DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER

SQLSTATE: KD009

CONVERT TO DELTA wurde mit einem anderen Partitionsschema aufgerufen als dem, das aus dem Katalog abgeleitet wird. Bitte vermeiden Sie es, das Schema bereitzustellen, damit das Partitionsschema aus dem Katalog ausgewählt werden kann.

Katalogpartitionsschema:

<catalogPartitionSchema>

bereitgestelltes Partitionsschema:

<userPartitionSchema>

DELTA_UNIFORM_COMPATIBILITY_LOCATION_CANNOT_BE_CHANGED

SQLSTATE: 0AKDC

delta.universalFormat.compatibility.location kann nicht geändert werden.

DELTA_UNIFORM_COMPATIBILITY_LOCATION_NOT_REGISTERED

SQLSTATE: 42K0I

delta.universalFormat.compatibility.location ist nicht im Katalog registriert.

DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION

SQLSTATE: 42601

Fehlender oder ungültiger Speicherort für das Uniform-Kompatibilitätsformat. Legen Sie ein leeres Verzeichnis für delta.universalFormat.compatibility.location fest.

Fehlerursache:

Weitere Details finden Sie unter DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION.

DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION

SQLSTATE: KD00E

Das Lesen von Apache Iceberg mit Delta Uniform ist fehlgeschlagen.

Weitere Informationen finden Sie unter DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION

DELTA_UNIFORM_INGRESS_AMBIGUOUS_FORMAT

SQLSTATE: KD00E

Es werden mehrere Delta Uniform-Eingangsformate (<formats>) gefunden, höchstens kann eine festgelegt werden.

DELTA_UNIFORM_INGRESS_NOT_SUPPORTED

SQLSTATE: 0A000

Das Erstellen oder Aktualisieren einer einheitlichen Eingangstabelle wird nicht unterstützt.

DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT

SQLSTATE: 0AKDC

Format<fileFormat> wird nicht unterstützt. Nur Apache Iceberg und Hudi als originales Dateiformat werden unterstützt.

DELTA_UNIFORM_INGRESS_VIOLATION

SQLSTATE: KD00E

Fehler beim Lesen von Delta UniForm:

Weitere Informationen finden Sie unter DELTA_UNIFORM_INGRESS_VIOLATION.

DELTA_UNIFORM_NOT_SUPPORTED

SQLSTATE: 0AKDC

Universelles Format wird nur in Unity-Katalogtabellen unterstützt.

DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT

SQLSTATE: 42616

REFRESH TABLE mit ungültigem Argument:

Weitere Informationen finden Sie unter DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT

DELTA_UNIFORM_REFRESH_NOT_SUPPORTED

SQLSTATE: 0AKDC

REFRESH Bezeichner SYNC UNIFORM wird aus einem Grund nicht unterstützt:

Weitere Details finden Sie unter DELTA_UNIFORM_REFRESH_NOT_SUPPORTED.

DELTA_UNIFORM_REFRESH_NOT_SUPPORTED_FOR_MANAGED_ICEBERG_TABLE_WITH_METADATA_PATH

SQLSTATE: 0AKDC

REFRESH TABLE mit METADATA_PATH wird nicht für verwaltete Apache-Iceberg-Tabellen unterstützt.

DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED

SQLSTATE: KD00E

Fehler beim Konvertieren der Tabellenversion <version> in das universelle Format <format>. <message>

DELTA_UNIVERSAL_FORMAT_VIOLATION

SQLSTATE: KD00E

Die Überprüfung des universellen Formats (<format>) ist fehlgeschlagen: <violation>.

DELTA_UNKNOWN_CONFIGURATION

SQLSTATE: F0000

Unbekannte Konfiguration wurde angegeben: <config>.

Um diese Überprüfung zu deaktivieren, legen Sie <disableCheckConfig>in der Spark-Sitzungskonfiguration "=true" fest.

DELTA_UNKNOWN_PRIVILEGE

SQLSTATE: 42601

Unbekannte Berechtigungen: <privilege>.

DELTA_UNKNOWN_READ_LIMIT

SQLSTATE: 42601

Unbekanntes Leselimit: <limit>.

DELTA_UNRECOGNIZED_COLUMN_CHANGE

SQLSTATE: 42601

Nicht erkannte Spaltenänderung <otherClass>. Möglicherweise führen Sie eine veraltete Delta Lake-Version aus.

DELTA_UNRECOGNIZED_INVARIANT

SQLSTATE: 56038

Nicht erkannte Invariante. Bitte aktualisieren Sie Ihre Spark-Version.

DELTA_UNRECOGNIZED_LOGFILE

SQLSTATE: KD00B

Nicht erkannte Protokolldatei <filename>.

DELTA_UNSET_NON_EXISTENT_PROPERTY

SQLSTATE: 42616

Es wurde versucht, eine nicht vorhandene Eigenschaft '<property>' in der Tabelle <tableName> zu entfernen.

DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE

SQLSTATE: 0AKDC

<path> unterstützt das Hinzufügen von Dateien mit einem absoluten Pfad nicht.

DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP

SQLSTATE: 0AKDC

ALTER TABLE CHANGE COLUMN wird für das Ändern der Spalte <fieldPath> von <oldField> zu " <newField>nicht unterstützt.

DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP

SQLSTATE: 0AKDC

Nicht unterstützter ALTER TABLE REPLACE COLUMNS-Vorgang. Grund: <details>

Fehler beim Ändern des Schemas von:

<oldSchema>

to:

<newSchema>

DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE

SQLSTATE: 0AKDC

Sie haben versucht, mit dem Vorgang REPLACE eine vorhandene Tabelle (<tableName>) durch CLONE zu ersetzen. Dieser Vorgang wird

unsupported. Probieren Sie ein anderes Ziel für CLONE aus, oder löschen Sie die Tabelle am aktuellen Ziel.

DELTA_UNSUPPORTED_CLUSTERING_COLUMN_PREDICATES

SQLSTATE: 0A000

OPTIMIZE ... FULL WHERE Der Befehl für Liquid-Tabellen unterstützt die bereitgestellten Prädikate nicht:

Weitere Informationen finden Sie unter DELTA_UNSUPPORTED_CLUSTERING_COLUMN_PREDICATES

DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE

SQLSTATE: 0AKDC

Das Ändern des Spaltenzuordnungsmodus von "<oldMode>" in "<newMode>" wird nicht unterstützt.

DELTA_UNSUPPORTED_COLUMN_MAPPING_OPERATIONS_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX

SQLSTATE: 0AKDC

Fehler beim Ausführen des Spaltenzuordnungsvorgangs <opName> für Spalte(n) <quotedColumnNames>

da diese Spalte(n) über Bloom-Filter-Index(e) verfügen.

Wenn Sie den Spaltenzuordnungsvorgang für Spalte(n)

mit Bloom-Filterindex ausführen möchten,

Bitte entfernen Sie zuerst den/die Bloom Filter Index/Indizes:

DROP BLOOMFILTER INDEX ON TABLE Tabellenname FOR COLUMNS(<columnNames>)

Wenn Sie stattdessen alle Bloom-Filterindizes in der Tabelle entfernen möchten, verwenden Sie Folgendes:

DROP BLOOMFILTER INDEX ON TABLE TabellenName

DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL

SQLSTATE: KD004

Die aktuelle Tabellenprotokollversion unterstützt das Ändern von Spaltenzuordnungsmodi nicht.

mittels <config>.

Erforderliche Delta-Protokollversion für die Spaltenzuordnung:

<requiredVersion>

Die aktuelle Delta-Protokollversion Ihrer Tabelle:

<currentVersion>

<advice>

DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE

SQLSTATE: 0AKDC

Schemaänderung wird erkannt:

altes Schema:

<oldTableSchema>

neues Schema:

<newTableSchema>

Schemaänderungen sind während der Änderung des Spaltenzuordnungsmodus nicht zulässig.

DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE

SQLSTATE: 0AKDC

Das Schreiben von Daten mit dem Spaltenzuordnungsmodus wird nicht unterstützt.

DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER

SQLSTATE: 0AKDC

Das Erstellen eines Bloom-Filterindex für eine Spalte mit Typ <dataType> wird nicht unterstützt: <columnName>.

DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY

SQLSTATE: 0AKDC

Ein Kommentar kann nicht zu <fieldPath> hinzugefügt werden. Das Hinzufügen eines Kommentars zu einem Kartenschlüssel/Wert oder Arrayelement wird nicht unterstützt.

DELTA_UNSUPPORTED_DATA_TYPES

SQLSTATE: 0AKDC

Spalten mit nicht unterstützten Datentypen gefunden: <dataTypeList>. Sie können '<config>' auf 'false' festlegen, um die Typüberprüfung zu deaktivieren. Die Deaktivierung dieser Typüberprüfung kann es Benutzern ermöglichen, nicht unterstützte Delta-Tabellen zu erstellen, und sollte nur erfolgen, wenn versucht wird, Legacytabellen zu lesen oder zu schreiben.

DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN

SQLSTATE: 42621

<dataType> kann nicht das Ergebnis einer generierten Spalte sein.

DELTA_UNSUPPORTED_DEEP_CLONE

SQLSTATE: 0A000

Deep Clone wird von dieser Delta-Version nicht unterstützt.

DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW

SQLSTATE: 42809

<view> ist eine Ansicht. DESCRIBE DETAIL wird nur für Tabellen unterstützt.

DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN

SQLSTATE: 0AKDC

Das Ablegen von Clusteringspalten (<columnList>) ist nicht zulässig.

DELTA_UNSUPPORTED_DROP_COLUMN

SQLSTATE: 0AKDC

DROP COLUMN wird für Ihre Delta-Tabelle nicht unterstützt. <advice>

DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE

SQLSTATE: 0AKDC

Geschachtelte Spalten können nur von StructType abgelegt werden. Es wurde <struct> gefunden.

DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN

SQLSTATE: 0AKDC

Das Entfernen von Partitionsspalten (<columnList>) ist nicht zulässig.

DELTA_UNSUPPORTED_EXPRESSION

SQLSTATE: 0A000

Nicht unterstützter Ausdruckstyp(<expType>) für <causedBy>. Die unterstützten Typen sind [<supportedTypes>].

DELTA_UNSUPPORTED_EXPRESSION_CHECK_CONSTRAINT

SQLSTATE: 42621

In einer CHECK Einschränkung gefunden<expression>. <expression> kann nicht in einer CHECK Einschränkung verwendet werden.

DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN

SQLSTATE: 42621

<expression> kann nicht in einer generierten Spalte verwendet werden.

DELTA_UNSUPPORTED_FEATURES_FOR_READ

SQLSTATE: 56038

Nicht unterstützte Delta-Lesefunktion: Tabelle "<tableNameOrPath>" erfordert Lesetabellenfeatures, die von dieser Version von Databricks nicht unterstützt werden: <unsupported>. Weitere Informationen zur Featurekompatibilität von Delta Lake finden Sie unter <link>.

DELTA_UNSUPPORTED_FEATURES_FOR_WRITE

SQLSTATE: 56038

Nicht unterstützte Delta-Schreibfunktion: Tabelle "<tableNameOrPath>" erfordert Writer-Tabellenfeatures, die von dieser Version von Databricks nicht unterstützt werden: <unsupported>. Weitere Informationen zur Featurekompatibilität von Delta Lake finden Sie unter <link>.

DELTA_UNSUPPORTED_FEATURES_IN_CONFIG

SQLSTATE: 56038

In den folgenden Spark-Konfigurationen oder Delta-Tabelleneigenschaften konfigurierte Tabellenfunktionen werden von dieser Version von Databricks nicht erkannt: <configs>.

DELTA_UNSUPPORTED_FEATURE_STATUS

SQLSTATE: 0AKDE

Es wird erwartet, dass der Status für das Tabellenfeature <feature> „supported“ lautet, er lautet aber <status>.

DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT

SQLSTATE: 0AKDC

Das Aktualisieren geschachtelter Felder wird nur für StructType unterstützt, aber Sie versuchen, ein Feld von <columnName>zu aktualisieren, dessen Typ: <dataType>ist.

DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS

SQLSTATE: 0A000

Der Befehl "FSCK REPAIR TABLE" wird für Tabellenversionen mit fehlenden Vektordateien für Löschvorgänge nicht unterstützt.

Wenden Sie sich an den Support.

DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS

SQLSTATE: 0A000

Der Befehl 'GENERATE symlink_format_manifest' wird für Tabellenversionen mit Vektoren zum Löschen nicht unterstützt.

Um eine Version der Tabelle ohne Vektoren zum Löschen zu erstellen, führen Sie "TabelleAPPLY (PURGE)"REORG TABLE aus. Führen Sie dann den Befehl 'GENERATE' erneut aus.

Stellen Sie sicher, dass zwischen REORG und GENERATEkeine gleichzeitigen Transaktionen erneut Löschvektoren hinzufügen.

Wenn Sie Manifeste regelmäßig generieren müssen oder nicht gleichzeitige Transaktionen verhindern können, erwägen Sie das Deaktivieren von Löschvektoren in dieser Tabelle unter Verwendung von "ALTER TABLE Tabelle SET TBLPROPERTIES (delta.enableDeletionVectors = false)".

DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT

SQLSTATE: 0AKDC

Invarianten in geschachtelten Feldern außer StructTypes werden nicht unterstützt.

DELTA_UNSUPPORTED_IN_SUBQUERY

SQLSTATE: 0AKDC

Die IN-Unterabfrage wird in der <operation>-Bedingung nicht unterstützt.

DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX

SQLSTATE: 0A000

listKeywithPrefix nicht verfügbar.

DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING

SQLSTATE: 0AKDC

Die Manifestgenerierung wird für Tabellen, die die Spaltenzuordnung nutzen, nicht unterstützt, da externe Leser diese Delta-Tabellen nicht lesen können. Weitere Details finden Sie in der Delta-Dokumentation.

DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC

SQLSTATE: 0A000

MERGE INTO-Vorgänge mit Schemaentwicklung unterstützen derzeit nicht das Schreiben von CDC-Ausgaben.

DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE

SQLSTATE: 0AKDC

Mehrspaltige IN-Prädikate werden in der <operation>-Bedingung nicht unterstützt.

DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER

SQLSTATE: 0AKDC

Das Erstellen eines Bloomfilterindexes in einer geschachtelten Spalte wird derzeit nicht unterstützt: <columnName>.

DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION

SQLSTATE: 0AKDC

Geschachteltes Feld wird im <operation> (Feld = <fieldName>) nicht unterstützt.

DELTA_UNSUPPORTED_NON_EMPTY_CLONE

SQLSTATE: 0AKDC

Die Klonzieltabelle ist nicht leer. TRUNCATE oder DELETE FROM Sie die Tabelle, bevor Sie CLONE ausführen.

DELTA_UNSUPPORTED_OUTPUT_MODE

SQLSTATE: 0AKDC

Die Datenquelle <dataSource> unterstützt den Ausgabemodus <mode> nicht.

DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER

SQLSTATE: 0AKDC

Das Erstellen eines Bloomfilterindexes für eine Partitionierungsspalte wird nicht unterstützt: <columnName>.

DELTA_UNSUPPORTED_RENAME_COLUMN

SQLSTATE: 0AKDC

Spaltenumbenennung wird für Ihre Delta-Tabelle nicht unterstützt. <advice>

DELTA_UNSUPPORTED_SCHEMA_DURING_READ

SQLSTATE: 0AKDC

Delta unterstützt die Angabe des Schemas zur Lesezeit nicht.

DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES

SQLSTATE: 0A000

SORTED BY wird für Delta-gebündelte Tabellen nicht unterstützt.

DELTA_UNSUPPORTED_SOURCE

SQLSTATE: 0AKDD

Das <operation>-Ziel unterstützt nur Delta-Quellen.

<plan>

DELTA_UNSUPPORTED_STATIC_PARTITIONS

SQLSTATE: 0AKDD

Das Angeben statischer Partitionen in der Partitionsspezifikation wird derzeit während der Einfügungen nicht unterstützt.

DELTA_UNSUPPORTED_STRATEGY_NAME

SQLSTATE: 22023

Nicht unterstützter Strategiename: <strategy>.

DELTA_UNSUPPORTED_SUBQUERY

SQLSTATE: 0AKDC

Unterabfragen werden in der <operation> (Bedingung = <cond>) nicht unterstützt.

DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES

SQLSTATE: 0AKDC

Unterabfragen werden in Partitionsprädikaten nicht unterstützt.

DELTA_UNTERSTÜTZTE_ZEITREISE_JENSEITS_DER_GELÖSCHTEN_DATEIAUFBEWAHRUNGSDATUM

SQLSTATE: 0AKDC

Zeitreiseoperationen können nicht über die delta.deletedFileRetentionDuration (<deletedFileRetention> HOURS) hinausgehen, die für die Tabelle festgelegt ist.

DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS

SQLSTATE: 42613

Zeitreisen können nicht in mehreren Formaten spezifiziert werden.

DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS

SQLSTATE: 0AKDC

Zeitreisen für Ansichten, Unterabfragen, Streams oder Änderungsdatenfeedabfragen sind nicht möglich.

DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES

SQLSTATE: 0A000

Abschneiden von Beispieltabellen wird nicht unterstützt.

DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA

SQLSTATE: 0AKDC

Diese Tabelle kann nicht ausgeführt werden, da eine nicht unterstützte Typänderung angewendet wurde. Feld-<fieldName> wurde von <fromType> in <toType>geändert.

DELTA_UNSUPPORTED_TYPE_CHANGE_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX

SQLSTATE: 0AKDC

Fehler beim Ändern des Datentyps der Spalte(n) <quotedColumnNames>

da diese Spalten Bloom-Filterindizes aufweisen.

Wenn Sie den Datentyp von Spalten mit Bloom Filter Index(es) ändern möchten,

Bitte entfernen Sie zuerst den/die Bloom Filter Index/Indizes:

DROP BLOOMFILTER INDEX ON TABLE Tabellenname FOR COLUMNS(<columnNames>)

Wenn Sie stattdessen alle Bloom-Filterindizes in der Tabelle entfernen möchten, verwenden Sie Folgendes:

DROP BLOOMFILTER INDEX ON TABLE TabellenName

DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION

SQLSTATE: 0AKDC

Geben Sie den Basispfad (<baseDeltaPath>) beim Vakuumieren von Delta-Tabellen an. Das Vakuumieren bestimmter Partitionen wird derzeit nicht unterstützt.

DELTA_UNSUPPORTED_WRITES_STAGED_TABLE

SQLSTATE: 42807

Die Tabellenimplementierung unterstützt keine Schreibvorgänge: <tableName>.

DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR

SQLSTATE: 0AKDC

Sie versuchen, Schreibvorgänge für eine Tabelle durchzuführen, die beim Commit-Koordinator <coordinatorName>registriert wurde. In der aktuellen Umgebung ist jedoch keine Implementierung dieses Koordinators verfügbar und Schreibvorgänge ohne Koordinatoren sind nicht zulässig.

DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES

SQLSTATE: 0A000

Schreiben in Beispieltabellen wird nicht unterstützt.

DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION

SQLSTATE: 42846

<fromCatalog> kann nicht in <toCatalog>umgestellt werden. Alle geschachtelten Spalten müssen übereinstimmen.

DELTA_V2_CHECKPOINTS_REQUIRED_FOR_OPERATION

SQLSTATE: 55019

CHECKPOINT der Vorgang erfordert, dass V2-Prüfpunkte in der Tabelle aktiviert werden.

DELTA_VACUUM_COPY_INTO_STATE_FAILED

SQLSTATE: 22000

VACUUM für Datendateien war erfolgreich, aber COPY INTO Zustands-GC ist fehlgeschlagen.

DELTA_VERSIONS_NOT_CONTIGUOUS

SQLSTATE: KD00C

Versionen (<versionList>) sind nicht zusammenhängend.

Beim Versuch, Version <startVersion> zu laden, wurde eine Lücke im Deltaprotokoll zwischen Version <endVersion> und <versionToLoad> erkannt.

Weitere Details finden Sie unter DELTA_VERSIONS_NOT_CONTIGUOUS.

DELTA_VERSION_INVALID

SQLSTATE: 42815

Die angegebene Version (<version>) ist keine gültige Version.

DELTA_VERSION_NOT_FOUND

SQLSTATE: 22003

Die Delta-Tabelle kann nicht in die Version <userVersion>reisen. Verfügbare Versionen: [<earliest>, <latest>].

DELTA_VIOLATE_CONSTRAINT_WITH_VALUES

SQLSTATE: 23001

Verstoß gegen CHECK-Einschränkung <constraintName> <expression> durch Zeile mit Werten:

<values>.

DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED

SQLSTATE: 0A000

Die Validierung der Eigenschaften der Tabelle <table> wurde verletzt:

Weitere Details finden Sie unter DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED.

DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED

SQLSTATE: 0A000

<viewIdentifier> ist eine Ansicht. Sie dürfen keine Daten in eine Ansicht schreiben.

DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST

SQLSTATE: 42703

Die Spalte "Z-Sortierung" <columnName> ist im Datenschema nicht vorhanden.

DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS

SQLSTATE: KD00D

Z-Order on <cols> ist unwirksam, da wir derzeit keine Statistiken für diese Spalten sammeln. Weitere Informationen zum Überspringen von Daten und zur Z-Sortierung finden Sie unter <link> . Sie können diese Überprüfung deaktivieren, indem Sie eine Einstellung ändern.

SET <zorderColStatKey> = falsch

DELTA_ZORDERING_ON_PARTITION_COLUMN

SQLSTATE: 42P10

<colName> ist eine Partitionsspalte. Z-Sortierung kann nur für Datenspalten ausgeführt werden.

Delta-Sharing

DELTA_SHARING_ACTIVATION_NONCE_DOES_NOT_EXIST

SQLSTATE: nicht zugewiesen

Aktivierungsnonce nicht gefunden. Der verwendete Aktivierungslink ist ungültig oder abgelaufen. Generieren Sie den Aktivierungslink neu, und versuchen Sie es erneut.

DELTA_SHARING_CROSS_REGION_SHARE_UNSUPPORTED

SQLSTATE: nicht zugewiesen

Die Freigabe zwischen <regionHint>-Regionen und Regionen außerhalb davon wird nicht unterstützt.

DELTA_SHARING_GET_RECIPIENT_PROPERTIES_INVALID_DEPENDENT

SQLSTATE: nicht zugewiesen

Die mit der current_recipient-Funktion definierte Ansicht dient nur der gemeinsamen Nutzung und kann nur von der Datenempfängerseite abgefragt werden. Das bereitgestellte Securable mit der ID <securableId> ist keine Delta Sharing View.

DELTA_SHARING_MUTABLE_SECURABLE_KIND_NOT_SUPPORTED

SQLSTATE: nicht zugewiesen

Die bereitgestellte sicherungsfähige Art <securableKind> unterstützt keine Veränderlichkeit bei Delta-Freigaben.

DELTA_SHARING_ROTATE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE

SQLSTATE: nicht zugewiesen

Die bereitgestellte sicherungsfähige Art <securableKind> unterstützt keine Tokenrotationsaktion, die vom Marketplace-Dienst initiiert wird.

DS_AUTH_TYPE_NOT_AVAILABLE

SQLSTATE: nicht zugewiesen

<dsError>: Authentifizierungstyp ist in der Anbieterentität <providerEntity>nicht verfügbar.

DS_CDF_NOT_ENABLED

SQLSTATE: nicht zugewiesen

<dsError>: Der Zugriff auf den Änderungsdaten-Feed für <tableName>ist nicht möglich. CDF ist für die ursprüngliche Delta-Tabelle für die Version <version> nicht aktiviert. Wenden Sie sich bitte an Ihren Datenanbieter.

DS_CDF_NOT_SHARED

SQLSTATE: nicht zugewiesen

<dsError>: Der Zugriff auf den Änderungsdaten-Feed für <tableName>ist nicht möglich. CDF ist für die Tabelle nicht freigegeben. Wenden Sie sich bitte an Ihren Datenanbieter.

DS_CDF_RPC_INVALID_PARAMETER

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_CLIENT_AUTH_ERROR_FOR_DB_DS_SERVER

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_CLIENT_ERROR_FOR_DB_DS_SERVER

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_CLIENT_OAUTH_TOKEN_EXCHANGE_FAILURE

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_CLIENT_OAUTH_TOKEN_EXCHANGE_UNAUTHORIZED

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_CLOUD_VENDOR_UNAVAILABLE

SQLSTATE: nicht zugewiesen

<dsError>: Der Cloudanbieter ist vorübergehend für <rpcName>nicht verfügbar, versuchen Sie es erneut.<traceId>

DS_DATA_MATERIALIZATION_COMMAND_FAILED

SQLSTATE: nicht zugewiesen

<dsError>: Bei der Ausführung der Datenmaterialisierungsaufgabe <runId> von Organisation <orgId> ist bei Befehl <command> ein Fehler aufgetreten.

DS_DATA_MATERIALIZATION_COMMAND_NOT_SUPPORTED

SQLSTATE: nicht zugewiesen

<dsError>: Die Ausführung der Datenmaterialisierungsaufgabe <runId> von Organisation <orgId> unterstützt den Befehl <command> nicht.

DS_DATA_MATERIALIZATION_NOT_SUPPORTED_WITHOUT_SERVERLESS

SQLSTATE: nicht zugewiesen

<dsError>: <featureName> wird nicht unterstützt, da Serverless im Anbieterarbeitsbereich nicht unterstützt oder aktiviert ist. Wenden Sie sich an Ihren Datenanbieter, um serverlos zu aktivieren.

DS_DATA_MATERIALIZATION_NO_VALID_NAMESPACE

SQLSTATE: nicht zugewiesen

<dsError>: Der gültige Namespace zum Erstellen der Materialisierung für <tableName>konnte nicht gefunden werden. Wenden Sie sich an Ihren Datenanbieter, um dies zu beheben.

DS_DATA_MATERIALIZATION_RECIPIENT_MISSING_WORKSPACE_ID

SQLSTATE: nicht zugewiesen

<dsError>: Es wurde kein geeigneter Arbeitsbereich gefunden, um gemeinsam genutzte Ressourcen zu materialisieren. Wenden Sie sich an Ihren Datenanbieter, um den Empfänger in einem Arbeitsbereich erneut zu erstellen, in dem schreibgeschützter Zugriff auf den Katalog der freigegebenen Ressource zulässig ist.

DS_DATA_MATERIALIZATION_RUN_DOES_NOT_EXIST

SQLSTATE: nicht zugewiesen

<dsError>: Die Ausführung der Datenmaterialisierungsaufgabe <runId> von Organisation <orgId> ist nicht vorhanden.

DS_DELTA_ILLEGAL_STATE

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_DELTA_MISSING_CHECKPOINT_FILES

SQLSTATE: nicht zugewiesen

<dsError>: Es konnten nicht alle Teildateien der Prüfpunktversion gefunden werden: <version>. <suggestion>

DS_DELTA_NULL_POINTER

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_DELTA_RUNTIME_EXCEPTION

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_EXPIRE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE

SQLSTATE: nicht zugewiesen

<dsError> Die bereitgestellte sicherungsfähige Art <securableKind> unterstützt keine Tokenablaufaktion, die vom Marketplace-Dienst initiiert wird.

DS_FAILED_REQUEST_TO_OPEN_DS_SERVER

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_FAILED_REQUEST_TO_SAP_DS_SERVER

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_FEATURE_ONLY_FOR_DATABRICKS_TO_DATABRICKS

SQLSTATE: nicht zugewiesen

<dsError>: <feature> ist nur für die Databricks-zu-Databricks-Delta-Freigabe aktiviert.

DS_FILE_LISTING_EXCEPTION

SQLSTATE: nicht zugewiesen

<dsError>: : <storage><message>

DS_FILE_SIGNING_EXCEPTION

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_FOREIGN_TABLE_METADATA_REFRESH_FAILED

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_GATEKEEPER_DISABLED

SQLSTATE: nicht zugewiesen

<dsError>: Dieses Feature ist für das Konto deaktiviert. Wenden Sie sich bitte an Ihren Datenanbieter.

DS_HADOOP_CONFIG_NOT_SET

SQLSTATE: nicht zugewiesen

<dsError>: <key> wird vom Aufrufer nicht festgelegt.

DS_ILLEGAL_STATE

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_INTERNAL_ERROR_FROM_DB_DS_SERVER

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_INVALID_AZURE_PATH

SQLSTATE: nicht zugewiesen

<dsError>: Ungültiger Azure-Pfad: <path>.

DS_INVALID_DELTA_ACTION_OPERATION

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_INVALID_FIELD

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_INVALID_ITERATOR_OPERATION

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_INVALID_PARAMETER_VALUE

SQLSTATE: nicht zugewiesen

<dsError>: Ungültiger Parameter für <rpcName> aufgrund von <cause>.

DS_INVALID_PARTITION_SPEC

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_INVALID_RESPONSE_FROM_DS_SERVER

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_MATERIALIZATION_QUERY_FAILED

SQLSTATE: nicht zugewiesen

<dsError>: Abfrage für <schema>fehlgeschlagen. <table> aus Freigabe <share>.

DS_MATERIALIZATION_QUERY_TIMEDOUT

SQLSTATE: nicht zugewiesen

<dsError>: Zeitüberschreitung bei Abfrage für <schema>. <table> von Freigabe <share> nach <timeoutInSec> Sekunden.

DS_MIGRATED_MANAGEMENT_API_AUFGERUFEN

SQLSTATE: nicht zugewiesen

<dsError>: Der UC RPC <rpcName> ist fehlgeschlagen.

DS_MISSING_IDEMPOTENCY_KEY

SQLSTATE: nicht zugewiesen

<dsError>: Der Idempotenzschlüssel ist erforderlich, wenn <schema> abgefragt wird. <table> aus Freigabe <share> erforderlich.

DS_MISSING_SERVERLESS_BUDGET_POLICY

SQLSTATE: nicht zugewiesen

<dsError>: Der Vorgang verwendet Serverless bei den Databricks des Anbieters, aber die Freigabe hat keine serverlose Budgetrichtlinie. Wenden Sie sich an den Datenanbieter, um eine serverlose Budgetrichtlinie zur gemeinsamen Nutzung hinzuzufügen.

DS_MORE_THAN_ONE_RPC_PARAMETER_SET

SQLSTATE: nicht zugewiesen

<dsError>: Bitte geben Sie nur einen davon an: <parameters>.

DS_NETWORK_CONNECTION_CLOSED

SQLSTATE: nicht zugewiesen

<dsError>: Netzwerkverbindung aufgrund von <rpcName> für <errorCause> geschlossen, versuchen Sie es erneut.<traceId>

DS_NETWORK_CONNECTION_TIMEOUT

SQLSTATE: nicht zugewiesen

<dsError>: Netzwerkverbindungstimeout aufgrund von <rpcName> für <errorCause>, versuchen Sie es erneut.<traceId>

DS_NETWORK_ERROR

SQLSTATE: nicht zugewiesen

<dsError>: Netzwerkfehler für <rpcName> aufgrund von <errorCause>, versuchen Sie es erneut.<traceId>

DS_NO_METASTORE_ASSIGNED

SQLSTATE: nicht zugewiesen

<dsError>: Kein Metaspeicher für den aktuellen Arbeitsbereich zugewiesen (workspaceId: <workspaceId>).

DS_O2D_OIDC_WORKLOAD_IDENTITY_TOKEN_GENERATION_FAILED

SQLSTATE: nicht zugewiesen

<dsError>: Fehler beim Generieren des Workload-Identitätstokens für den O2D-OIDC-Anbieter: <message>.

DS_PAGINATION_AND_QUERY_ARGS_MISMATCH

SQLSTATE: nicht zugewiesen

<dsError>: Nicht übereinstimmende Paginierungs- oder Abfrageargumente.

DS_PARTITION_COLUMNS_RENAMED

SQLSTATE: nicht zugewiesen

<dsError>: Partitionsspalte [<renamedColumns>] wurde in der freigegebenen Tabelle umbenannt. Wenden Sie sich an Ihren Datenanbieter, um dies zu beheben.

DS_QUERY_BEFORE_START_VERSION

SQLSTATE: nicht zugewiesen

<dsError>: Sie können Tabellendaten nur seit version <startVersion>abfragen.

DS_QUERY_END_VERSION_AFTER_LATEST_VERSION

SQLSTATE: nicht zugewiesen

<dsError>: Die bereitgestellte Endversion(<endVersion>) zum Lesen von Daten ist ungültig. Die Endversion darf nicht größer sein als die neueste Version der Tabelle(<latestVersion>).

DS_QUERY_START_VERSION_AFTER_LATEST_VERSION

SQLSTATE: nicht zugewiesen

<dsError>: Die bereitgestellte Startversion(<startVersion>) zum Lesen von Daten ist ungültig. Die Startversion darf nicht größer als die neueste Version der Tabelle(<latestVersion>) sein.

DS_QUERY_TIMEOUT_ON_SERVER

SQLSTATE: nicht zugewiesen

<dsError>: Beim Verarbeiten von <queryType> in <tableName> nach <numActions>-Aktualisierungen in <numIter>-Iterationen ist ein Timeout aufgetreten.<progressUpdate> <suggestion> <traceId>

DS_RATE_LIMIT_ON_DS_SERVER

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_RECIPIENT_RPC_INVALID_PARAMETER

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_RECON_FAILED_ON_UC_WRITE_RPC

SQLSTATE: nicht zugewiesen

<dsError>: UC RPC <rpcName> ist fehlgeschlagen, wird konvertiert zu INTERNAL_ERROR.

DS_RESOURCE_ALREADY_EXIST_ON_DS_SERVER

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_RESOURCE_EXHAUSTED

SQLSTATE: nicht zugewiesen

<dsError>: Der Grenzwert für <resource> wurde überschritten: [<limitSize>]<suggestion>.<traceId>

DS_RESOURCE_NOT_FOUND_ON_DS_SERVER

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_SAP_UNSUPPORTED_DBR_VERSION

SQLSTATE: nicht zugewiesen

<dsError>: Delta Sharing SAP Connector wird für DBR <dbrVersion>nicht unterstützt. Die mindestens unterstützten Versionen sind: <supportedVersions>.

DS_SCHEMA_NAME_CONFLICT_FOUND

SQLSTATE: nicht zugewiesen

<dsError>: Katalog <catalogName> enthält bereits Schemanamen, die in der Freigabe <shareName> gefunden werden. <description> von konfliktverursachenden Schemanamen: <schemaNamesInCommon>.

DS_SERVER_TIMEOUT

SQLSTATE: nicht zugewiesen

<dsError>: Servertimeout für <rpcName> aufgrund von <errorCause>, versuchen Sie es erneut.<traceId>

DS_SERVICE_DENIED

SQLSTATE: nicht zugewiesen

<dsError>: Die Anforderung wurde verweigert, da der Dienst zu viel Auslastung hat. Bitte versuchen Sie es später nach einer Weile erneut.

DS_SHARE_ALREADY_MOUNTED_TO_CATALOG

SQLSTATE: nicht zugewiesen

<dsError>: Freigabe <shareName> vom Anbieter <providerName> ist bereits in den Katalog <catalogName> eingebunden.

DS_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED

SQLSTATE: nicht zugewiesen

Es können keine Berechtigungen für <securableType> an die vom System generierte Gruppe <principal>gewährt werden.

DS_TABLE_METADATA_TEMPORARILY_UNAVAILABLE

SQLSTATE: nicht zugewiesen

<dsError>: Tabellenmetadaten sind nicht verfügbar. Versuchen Sie es in einigen Momenten erneut.

DS_TIME_TRAVEL_NOT_PERMITTED

SQLSTATE: nicht zugewiesen

<dsError>: Zeitreiseabfrage ist nicht zulässig, es sei denn, der Verlauf wird für <tableName> freigegeben. Wenden Sie sich bitte an Ihren Datenanbieter.

DS_UNAUTHORIZED

SQLSTATE: nicht zugewiesen

<dsError>: Nicht autorisiert.

DS_UNAUTHORIZED_D2O_OIDC_RECIPIENT

SQLSTATE: nicht zugewiesen

<dsError>: Nicht autorisierter D2O-OIDC-Empfänger: <message>.

DS_UNKNOWN_EXCEPTION

SQLSTATE: nicht zugewiesen

<dsError>: <traceId>

DS_UNKNOWN_QUERY_ID

SQLSTATE: nicht zugewiesen

<dsError>: Unbekannte Abfrage-ID <queryID> für <schema>. <table> aus Freigabe <share>.

DS_UNKNOWN_QUERY_STATUS

SQLSTATE: nicht zugewiesen

<dsError>: Unbekannter Abfragestatus für die Abfrage-ID <queryID> für <schema>. <table> aus Freigabe <share>.

DS_UNKNOWN_RPC

SQLSTATE: nicht zugewiesen

<dsError>: Unbekannter RPC <rpcName>.

DS_UNSUPPORTED_DELTA_READER_VERSION

SQLSTATE: nicht zugewiesen

<dsError>: Die Delta-Protokollleserversion <tableReaderVersion> ist höher als <supportedReaderVersion> und kann nicht auf dem Delta-Freigabeserver unterstützt werden.

DS_UNSUPPORTED_DELTA_TABLE_FEATURES

SQLSTATE: nicht zugewiesen

<dsError>: Tabellenfeatures <tableFeatures> befinden sich in Tabelle<versionStr> <historySharingStatusStr> <optionStr>

DS_UNSUPPORTED_OPERATION

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_UNSUPPORTED_STORAGE_SCHEME

SQLSTATE: nicht zugewiesen

<dsError>: Nicht unterstütztes Speicherschema: <scheme>.

DS_UNSUPPORTED_TABLE_TYPE

SQLSTATE: nicht zugewiesen

<dsError>: <schema>konnte nicht abgerufen werden. <table> von Share <share>, da die Tabelle mit dem Typ [<tableType>] derzeit in <queryType>-Abfragen nicht unterstützt wird.

DS_UNSUPPORTED_TABLE_TYPE_IN_MST

SQLSTATE: nicht zugewiesen

<dsError>: Das Abfragen des Tabellentyps [<tableType>] wird in der MST-Abfrage (Multi-Statement Transaction) nicht unterstützt.

DS_USER_CONTEXT_ERROR

SQLSTATE: nicht zugewiesen

<dsError>: <message>

DS_VIEW_SHARING_FUNCTIONS_NOT_ALLOWED

SQLSTATE: nicht zugewiesen

<dsError>: Die folgenden Funktionen sind in der Ansichtsfreigabeabfrage nicht zulässig: <functions>

DS_WORKSPACE_DOMAIN_NOT_SET

SQLSTATE: nicht zugewiesen

<dsError>: Arbeitsbereich <workspaceId> Domäne ist nicht festgelegt.

DS_WORKSPACE_NOT_FOUND

SQLSTATE: nicht zugewiesen

<dsError>: Arbeitsbereich <workspaceId> wurde nicht gefunden.

Autoloader

CF_ADD_NEW_NOT_SUPPORTED

SQLSTATE: 0A000

Der Schemaentwicklungsmodus <addNewColumnsMode> wird beim Angeben des Schemas nicht unterstützt. Um diesen Modus zu verwenden, können Sie stattdessen das Schema über cloudFiles.schemaHints bereitstellen.

CF_AMBIGUOUS_AUTH_OPTIONS_ERROR

SQLSTATE: 42000

Es wurden Authentifizierungsoptionen für die Benachrichtigungseinrichtung für den (Standard-)Auflistungsmodus des

Eintragsmodus:

<options>

Wenn Sie den Dateibenachrichtigungsmodus verwenden möchten, legen Sie folgendes explizit fest:

.option("cloudFiles.<useNotificationsKey>", "true")

Alternativ können Sie die Überprüfung Ihrer Optionen überspringen und diese ignorieren.

Authentifizierungsoptionen können Sie festlegen:

.option("cloudFiles.ValidateOptionsKey>", "false")

CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR

SQLSTATE: 42000

Inkrementeller Auflistungsmodus (cloudFiles.<useIncrementalListingKey>)

und Dateibenachrichtigung (cloudFiles.<useNotificationsKey>)

wurden gleichzeitig aktiviert.

Stellen Sie sicher, dass Sie nur eine auswählen.

CF_AZURE_AUTHENTICATION_MISSING_OPTIONS

SQLSTATE: 42000

Bitte stellen Sie entweder Databricks-Dienstanmeldeinformationen oder sowohl eine ClientID als auch ein ClientSecret für die Authentifizierung mit Azure bereit.

CF_AZURE_AUTHENTICATION_MULTIPLE_OPTIONS

SQLSTATE: 42000

Wenn eine Databricks-Dienstanmeldeinformation bereitgestellt wird, sollten keine anderen Anmeldeinformationen (z. B. clientId, clientSecret oder connectionString) bereitgestellt werden.

CF_AZURE_STORAGE_SUFFIXES_REQUIRED

SQLSTATE: 42000

Erforderlich sind adlsBlobSuffix und adlsDfsSuffix für Azure

CF_BUCKET_MISMATCH

SQLSTATE: 22000

Der <storeType> im Dateiereignis <fileEvent> entspricht nicht der Erwartung der Quelle: <source>.

CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY

SQLSTATE: 22000

Schema kann nicht weiterentwickelt werden, wenn das Schemaprotokoll leer ist. Schemaprotokollspeicherort: <logPath>

CF_CANNOT_PARSE_QUEUE_MESSAGE

SQLSTATE: 22000

Die folgende Warteschlangenmeldung kann nicht analysiert werden: <message>

CF_CANNOT_RESOLVE_CONTAINER_NAME

SQLSTATE: 22000

Der Containername kann nicht vom Pfad <path>aufgelöst werden, aufgelöster URI: <uri>

CF_CANNOT_RUN_DIRECTORY_LISTING

SQLSTATE: 22000

Verzeichnisauflistung kann nicht ausgeführt werden, wenn ein asynchroner Backfill-Thread ausgeführt wird

CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON

SQLSTATE: 42000

CloudFiles.cleanSource und cloudFiles.allowOverwrites können nicht gleichzeitig aktiviert werden.

CF_CLEAN_SOURCE_CANNOT_MOVE_FILES_INSIDE_SOURCE_PATH

SQLSTATE: 42000

Das Verschieben von Dateien in ein Verzeichnis unter dem Pfad, aus dem Daten erfasst werden, wird nicht unterstützt.

CF_CLEAN_SOURCE_NOT_ENABLED

SQLSTATE: 0A000

CleanSource wurde für diesen Arbeitsbereich nicht aktiviert. Wenden Sie sich an den Databricks-Support, um Unterstützung zu erhalten.

CF_CLEAN_SOURCE_NOT_SUPPORTED

SQLSTATE: 0A000

CleanSource wird für <op> nicht unterstützt.

CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION

SQLSTATE: 42501

Das automatische Laden kann verarbeitete Dateien nicht archivieren, da sie keine Schreibberechtigungen für das Quellverzeichnis oder das Verschiebungsziel besitzt.

Weitere Informationen finden Sie unter CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION

CF_DUPLICATE_COLUMN_IN_DATA

SQLSTATE: 22000

Fehler beim Ableiten des Partitionsschemas der Tabelle. Sie haben dieselbe Spalte sowohl in Ihren Daten als auch in Ihren Partitionspfaden dupliziert. Um den Partitionswert zu ignorieren, geben Sie Ihre Partitionsspalten explizit mithilfe von ".option("cloudFiles.<partitionColumnsKey>", "{comma-separated-list}") an.

CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE

SQLSTATE: 42000

Das Schema kann nicht abgeleitet werden, wenn der Eingabepfad <path> leer ist. Versuchen Sie, den Datenstrom zu starten, wenn Dateien im Eingabepfad vorhanden sind, oder geben Sie das Schema an.

CF_EVENT_GRID_AUTH_ERROR

SQLSTATE: 22000

Fehler beim Erstellen eines Event Grid-Abonnements. Stellen Sie sicher, dass Ihr Dienstprinzipal

über <permissionType>-Event Grid-Abonnements verfügt. Weitere Details finden Sie unter:

<docLink>

CF_EVENT_GRID_CREATION_FAILED

SQLSTATE: 22000

Fehler beim Erstellen des Event Grid-Abonnements. Stellen Sie sicher, dass Microsoft.EventGrid als

Ressourcenanbieter in Ihrem Abonnement registriert ist. Weitere Details finden Sie unter:

<docLink>

CF_EVENT_GRID_NOT_FOUND_ERROR

SQLSTATE: 22000

Fehler beim Erstellen eines Event Grid-Abonnements. Stellen Sie sicher, dass Ihr Speicherkonto

(<storageAccount>) sich in Ihrer Ressourcengruppe (<resourceGroup>) befindet und dass

Das Speicherkonto ist ein "StorageV2(general purpose v2)"-Konto. Weitere Details finden Sie unter:

<docLink>

CF_EVENT_NOTIFICATION_NOT_SUPPORTED

SQLSTATE: 0A000

Der Modus für Ereignisbenachrichtigungen beim automatischen Laden wird für <cloudStore>nicht unterstützt.

CF_EVENT_NOTIFICATION_SETUP_FAILED

SQLSTATE: 22000

Fehler beim Einrichten von Dateibenachrichtigungsressourcen für das automatische Laden.

Weitere Informationen finden Sie unter CF_EVENT_NOTIFICATION_SETUP_FAILED

CF_FAILED_TO_CHECK_STREAM_NEW

SQLSTATE: 22000

Fehler beim Überprüfen, ob der Datenstrom neu ist.

CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION

SQLSTATE: 22000

Fehler beim Erstellen des Abonnements: <subscriptionName>. Ein Abonnement mit demselben Namen ist bereits vorhanden und einem anderen Thema zugeordnet: <otherTopicName>. Das gewünschte Thema ist <proposedTopicName>. Löschen Sie entweder das vorhandene Abonnement, oder erstellen Sie ein Abonnement mit einem neuen Ressourcensuffix.

CF_FAILED_TO_CREATED_PUBSUB_TOPIC

SQLSTATE: 22000

Fehler: Themenbereich <topicName> konnte nicht erstellt werden. Ein Thema mit demselben Namen ist bereits vorhanden. <reason> Entfernen sie das vorhandene Thema, oder versuchen Sie es erneut mit einem anderen Ressourcensuffix.

CF_FAILED_TO_DELETE_GCP_NOTIFICATION

SQLSTATE: 22000

Fehler beim Löschen der Benachrichtigung mit der ID <notificationId> im Bucket <bucketName> für Thema <topicName>. Versuchen Sie es erneut, oder entfernen Sie die Benachrichtigung manuell über die GCP-Konsole.

CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA

SQLSTATE: 22000

Fehler beim Deserialisieren des persistenten Schemas aus der Zeichenfolge: '<jsonSchema>'

CF_FAILED_TO_EVOLVE_SCHEMA

SQLSTATE: 22000

Schema kann nicht ohne Schemaprotokoll weiterentwickelt werden.

CF_FAILED_TO_FIND_PROVIDER

SQLSTATE: 42000

Der Anbieter für <fileFormatInput> konnte nicht gefunden werden.

CF_FAILED_TO_INFER_SCHEMA

SQLSTATE: 22000

Fehler beim Ableiten des Schemas für das Format <fileFormatInput> aus vorhandenen Dateien im Eingabepfad <path>.

Weitere Details finden Sie unter CF_FAILED_TO_INFER_SCHEMA.

CF_FAILED_TO_WRITE_TO_SCHEMA_LOG

SQLSTATE: 22000

Fehler beim Schreiben in das Schemaprotokoll am Speicherort <path>.

CF_FILE_FORMAT_REQUIRED

SQLSTATE: 42000

Die erforderliche Option wurde nicht gefunden: cloudFiles.format.

CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS

SQLSTATE: 22000

Es wurden mehrere (<num>) Abonnements mit dem Präfix "Auto Loader" für das Thema <topicName>gefunden:

<subscriptionList>

Pro Thema sollte nur ein Abonnement vorhanden sein. Stellen Sie bitte manuell sicher, dass Ihr Thema nicht über mehrere Abonnements verfügt.

CF_GCP_AUTHENTICATION

SQLSTATE: 42000

Geben Sie entweder folgendes an: <clientEmail>, <client>,

<privateKey> und <privateKeyId>, oder geben Sie <serviceCredential> an, um Ihre Databricks-Dienstanmeldeinformationen zu verwenden.

Geben Sie alternativ nichts davon an, um die standardmäßige GCP-Anmeldeinformationsanbieterkette für die Authentifizierung bei GCP-Ressourcen zu verwenden.

CF_GCP_LABELS_COUNT_EXCEEDED

SQLSTATE: 22000

Es wurden zu viele Bezeichnungen (<num>) für die GCP-Ressource empfangen. Die maximale Bezeichnungsanzahl pro Ressource ist <maxNum>.

CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED

SQLSTATE: 22000

Sie haben zu viele Ressourcentags (<num>) für die GCP-Ressource empfangen. Die maximale Anzahl von Ressourcentags pro Ressource ist <maxNum>, da Ressourcentags als GCP-Bezeichnungen für Ressourcen gespeichert werden, und Databricks-spezifische Tags verbrauchen einige dieser Bezeichnungskontingente.

CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG

SQLSTATE: 22000

Unvollständige Protokolldatei im Schemaprotokoll im Pfad <path>

CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT

SQLSTATE: 22000

Unvollständige Metadatendatei im Prüfpunkt "Auto Loader"

CF_INCORRECT_BATCH_USAGE

SQLSTATE: 42887

CloudFiles ist eine Streamingquelle. Verwenden Sie spark.readStream anstelle von spark.read. Um diese Überprüfung zu deaktivieren, legen Sie <cloudFilesFormatValidationEnabled> auf "false" fest.

CF_INCORRECT_SQL_PARAMS

SQLSTATE: 42000

Die cloud_files-Methode akzeptiert zwei erforderliche Zeichenfolgenparameter: den Pfad zum Laden von und das Dateiformat. Dateileseoptionen müssen in einer Zeichenfolgen-Schlüsselwertzuordnung bereitgestellt werden. beispiel: cloud_files("path", "json", map("option1", "value1")). Empfangen: <params>

CF_INCORRECT_STREAM_USAGE

SQLSTATE: 42887

Um "cloudFiles" als Streamingquelle zu verwenden, geben Sie das Dateiformat mit der Option "cloudFiles.format" an, und verwenden Sie .load(), um Ihren DataFrame zu erstellen. Um diese Überprüfung zu deaktivieren, legen Sie <cloudFilesFormatValidationEnabled> auf "false" fest.

CF_INTERNAL_ERROR

SQLSTATE: 42000

Beim automatischen Laden ist ein interner Fehler aufgetreten. Wenden Sie sich an den Databricks-Support, um Unterstützung zu erhalten.

Weitere Details finden Sie unter CF_INTERNAL_ERROR.

CF_INVALID_ARN

SQLSTATE: 42000

Ungültiger ARN: <arn>

CF_INVALID_AZURE_CERTIFICATE

SQLSTATE: 42000

Der private Schlüssel, der mit option cloudFiles.certificate bereitgestellt wird, kann nicht analysiert werden. Geben Sie einen gültigen öffentlichen Schlüssel im PEM-Format an.

CF_INVALID_AZURE_CERT_PRIVATE_KEY

SQLSTATE: 42000

Der private Schlüssel, der mit option cloudFiles.certificatePrivateKey bereitgestellt wird, kann nicht analysiert werden. Geben Sie einen gültigen privaten Schlüssel im PEM-Format an.

CF_INVALID_CHECKPOINT

SQLSTATE: 42000

Dieser Prüfpunkt ist keine gültige CloudFiles-Quelle.

CF_INVALID_CLEAN_SOURCE_MODE

SQLSTATE: 42000

Ungültiger Modus für die Option "Saubere Quelle" <value>.

CF_INVALID_GCP_RESOURCE_TAG_KEY

SQLSTATE: 42000

Ungültiger Ressourcentagschlüssel für GCP-Ressource: <key>. Schlüssel müssen mit einem Kleinbuchstaben beginnen, innerhalb von 1 bis 63 Zeichen lang sein und nur Kleinbuchstaben, Zahlen, Unterstriche (_) und Bindestriche (-) enthalten.

CF_INVALID_GCP_RESOURCE_TAG_VALUE

SQLSTATE: 42000

Ungültiger Ressourcentagwert für GCP-Ressource: <value>. Werte müssen innerhalb von 0 bis 63 Zeichen lang sein und dürfen nur Kleinbuchstaben, Zahlen, Unterstriche (_) und Bindestriche (-) enthalten.

CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS

SQLSTATE: 42000

Auto Loader unterstützt die folgenden Optionen bei der Verwendung mit verwalteten Dateievents nicht.

<optionList>

Es wird empfohlen, diese Optionen zu entfernen und dann den Datenstrom neu zu starten.

CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE

SQLSTATE: 22000

Ungültige Antwort vom Dienst für verwaltete Dateiereignisse. Wenden Sie sich an den Databricks-Support, um Unterstützung zu erhalten.

Weitere Details finden Sie unter CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE.

CF_INVALID_SCHEMA_EVOLUTION_MODE

SQLSTATE: 42000

cloudFiles. <schemaEvolutionModeKey> muss eine von { sein

<addNewColumnsWithTypeWidening>

<addNewColumns>

<failOnNewColumns>

<rescue>

"<noEvolution>"}

CF_INVALID_SCHEMA_HINTS_OPTION

SQLSTATE: 42000

Schemahinweise können nur einmal eine bestimmte Spalte angeben.

In diesem Fall wird die Spalte neu definiert: <columnName>

mehrmals in „schemaHints“ neu definiert:

<schemaHints>

CF_INVALID_SCHEMA_HINT_COLUMN

SQLSTATE: 42000

Schemahinweise können nicht verwendet werden, um die geschachtelten Typen von Zuordnungen und Arrays außer Kraft zu setzen.

In Konflikt stehende Spalte: <columnName>

CF_LATEST_OFFSET_READ_LIMIT_REQUIRED

SQLSTATE: 22000

latestOffset sollte mit einem ReadLimit für diese Quelle aufgerufen werden.

CF_LOG_FILE_MALFORMED

SQLSTATE: 22000

Die Protokolldatei war falsch formatiert: Fehler beim Lesen der richtigen Protokollversion aus <fileName>.

CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS

SQLSTATE: 22000

Sie haben den Auto Loader angewiesen, bestehende Dateien an Ihrem externen Speicherort zu ignorieren, indem Sie "includeExistingFiles" auf "false" setzen. Der Dienst für das Management von Dateivorgängen entdeckt jedoch weiterhin vorhandene Dateien an Ihrem externen Speicherort. Versuchen Sie es erneut, nachdem die Dateiverwaltungsereignisse das Ermitteln aller Dateien an Ihrem externen Speicherort abgeschlossen haben.

CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND

SQLSTATE: 42000

Sie verwenden Auto Loader mit verwalteten Dateiereignissen, aber es scheint, dass der externe Speicherort für Ihren Eingabepfad „<path>“ keine Dateiereignisse aktiviert hat, oder der Eingabepfad ist ungültig. Bitten Sie Ihren Databricks-Administrator, die Dateivorgänge am externen Speicherort für Ihren Eingabepfad zu aktivieren.

CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED

SQLSTATE: 42000

Sie verwenden Auto Loader mit verwalteten Dateiereignissen, aber Sie haben keinen Zugriff auf den externen Speicherort oder das Volume für den Eingabepfad „<path>“, oder der Eingabepfad ist ungültig. Bitten Sie Ihren Databricks-Administrator, Leseberechtigungen für den externen Speicherort oder das Volume zu erteilen oder einen gültigen Eingabepfad innerhalb eines vorhandenen externen Speicherorts oder Volumes bereitzustellen.

CF_MANAGED_FILE_EVENTS_INVALID_CONTINUATION_TOKEN

SQLSTATE: 42000

Die Leseposition des Datenstroms im Cache für Dateiereignisse wurde ungültig. Dies kann passieren, weil die Konfiguration von Dateiereignissen aktualisiert wurde (z. B. die bereitgestellte Warteschlangen-URL wurde geändert, oder Dateiereignisse wurden deaktiviert und erneut aktiviert). Wenden Sie sich an den Databricks-Support, um Unterstützung zu erhalten.

CF_MANAGED_FILE_EVENTS_IS_PREVIEW

SQLSTATE: 56038

Auto Loader mit verwalteten Dateiereignissen befindet sich in der Vorschauversion. Um fortzufahren, wenden Sie sich bitte an den Databricks Support oder deaktivieren Sie die Option "cloudFiles.useManagedFileEvents".

CF_MANAGED_FILE_EVENTS_RATE_LIMIT_EXCEEDED

SQLSTATE: 53000

Zu viele gleichzeitige Datenströme für das automatische Laden werden ausgeführt. Reduzieren Sie die Parallelität des Datenstroms, wenn möglich, oder erstellen Sie separate Volumes für jedes Unterverzeichnis, wenn sie von mehreren Unterverzeichnissen an einem externen Speicherort geladen werden. Wenden Sie sich an Ihren Databricks-Vertreter, wenn das Problem weiterhin besteht.

CF_MAX_MUST_BE_POSITIVE

SQLSTATE: 42000

max muss positiv sein

CF_METADATA_FILE_CONCURRENTLY_USED

SQLSTATE: 22000

Mehrere Streaming-Abfragen werden gleichzeitig mit <metadataFile> ausgeführt.

CF_MISSING_METADATA_FILE_ERROR

SQLSTATE: 42000

Die Metadatendatei im Verzeichnis des Streamingquellpunkts fehlt. Diese Metadaten

Datei enthält wichtige Standardoptionen für den Datenstrom, sodass der Datenstrom nicht neu gestartet werden kann.

Gerade jetzt. Wenden Sie sich an den Databricks-Support, um Unterstützung zu erhalten.

CF_MISSING_PARTITION_COLUMN_ERROR

SQLSTATE: 42000

Die Partitionsspalte <columnName> ist im bereitgestellten Schema nicht vorhanden:

<schema>

CF_MISSING_SCHEMA_IN_PATHLESS_MODE

SQLSTATE: 42000

Geben Sie mit .schema() ein Schema an, wenn im Dateibenachrichtigungsmodus kein Pfad für die CloudFiles-Quelle bereitgestellt wird. Alternativ können Sie das automatische Ladeprogramm verwenden, um das Schema abzuleiten, bitte geben Sie einen Basispfad in .load() an.

CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC

SQLSTATE: 22000

Es wurden vorhandene Benachrichtigungen für das Thema <topicName> im Bucket <bucketName>gefunden.

notification,id

<notificationList>

Um das Verunreinigen des Abonnenten mit unbeabsichtigten Ereignissen zu vermeiden, löschen Sie die oben genannten Benachrichtigungen, und versuchen Sie es erneut.

CF_NEW_PARTITION_ERROR

SQLSTATE: 22000

Neue Partitionsspalten wurden von Ihren Dateien abgeleitet: [<filesList>]. Geben Sie alle Partitionsspalten in Ihrem Schema an, oder geben Sie eine Liste der Partitionsspalten an, für die Sie Werte extrahieren möchten, indem Sie folgendes verwenden: .option("cloudFiles.partitionColumns", "{comma-separated-list|empty-string}")

CF_PARTITON_INFERENCE_ERROR

SQLSTATE: 22000

Fehler beim Ableiten des Partitionsschemas des aktuellen Dateibatches. Geben Sie Ihre Partitionsspalten explizit mithilfe von ".option("cloudFiles.<partitionColumnOption>", "{comma-separated-list}") an.

CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES

SQLSTATE: 42000

Dateien können nicht gelesen werden, wenn der Eingabepfad <path> nicht vorhanden ist. Stellen Sie sicher, dass der Eingabepfad vorhanden ist, und versuchen Sie es erneut.

CF_PERIODIC_BACKFILL_NOT_SUPPORTED

SQLSTATE: 0A000

Regelmäßiges Zurückfüllen wird nicht unterstützt, wenn asynchrones Ausfüllen deaktiviert ist. Sie können die asynchrone Nachfüll-/Verzeichnisauflistung aktivieren, indem Sie spark.databricks.cloudFiles.asyncDirListing auf "true" festlegen.

CF_PREFIX_MISMATCH

SQLSTATE: 22000

Gefundenes nicht übereinstimmendes Event: Schlüssel <key> hat das Präfix nicht: <prefix>

CF_PROTOCOL_MISMATCH

SQLSTATE: 22000

<message>

Wenn Sie keine weiteren Änderungen an Ihrem Code vornehmen müssen, legen Sie die SQL-Datei fest.

Konfiguration: '<sourceProtocolVersionKey> = <value>'

um Ihren Datenstrom fortzusetzen. Weitere Informationen finden Sie unter:

<docLink>

finden Sie weitere Details.

CF_REGION_NOT_FOUND_ERROR

SQLSTATE: 42000

Aws-Standardregion konnte nicht abgerufen werden. Geben Sie eine Region mit der Option "cloudFiles.region" an.

CF_RESOURCE_SUFFIX_EMPTY

SQLSTATE: 42000

Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix darf nicht leer sein.

CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS

SQLSTATE: 42000

Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix kann nur alphanumerische Zeichen, Bindestriche (-) und Unterstriche (_) enthalten.

CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE

SQLSTATE: 42000

Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix kann nur Kleinbuchstaben, Zahlen und Gedankenstriche (-) aufweisen.

CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP

SQLSTATE: 42000

Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix kann nur alphanumerische Zeichen, Bindestriche (-), Unterstriche (_), Punkte (.), Tilden (~) Pluszeichen (+) und Prozentzeichen (<percentSign>) enthalten.

CF_RESOURCE_SUFFIX_LIMIT

SQLSTATE: 42000

Fehler beim Einrichten von Benachrichtigungsdiensten: Das Ressourcensuffix darf nicht mehr als <limit> Zeichen enthalten.

CF_RESOURCE_SUFFIX_LIMIT_GCP

SQLSTATE: 42000

Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix muss zwischen den Zeichen <lowerLimit> und <upperLimit> liegen.

CF_RESTRICTED_GCP_RESOURCE_TAG_KEY

SQLSTATE: 22000

Tagschlüssel (<key>) für eingeschränkte GCP-Ressource gefunden. Die folgenden GCP-Ressourcentagschlüssel sind für das automatische Laden eingeschränkt: [<restrictedKeys>]

CF_RETENTION_GREATER_THAN_MAX_FILE_AGE

SQLSTATE: 42000

cloudFiles.cleanSource.retentionDuration darf nicht größer als cloudFiles.maxFileAge sein.

CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX

SQLSTATE: 22000

Fehler beim Erstellen einer Benachrichtigung für das Thema: <topic> mit präfix: <prefix>. Es gibt bereits ein Thema mit demselben Namen mit einem anderen Präfix: <oldPrefix>. Versuchen Sie, ein anderes Ressourcensuffix zum Einrichten zu verwenden oder das vorhandene Setup zu löschen.

CF_SCHEMA_LOG_DEEP_CLONE_FAILED

SQLSTATE: 42000

Fehler beim Klonen und Migrieren von Schemaprotokolleinträgen aus dem Quellschemaprotokoll.

CF_SFTP_MISSING_PASSWORD_OR_KEY_FILE

SQLSTATE: 42000

Eine Kennwort- oder Schlüsseldatei muss für SFTP angegeben werden.

Geben Sie das Kennwort im Quell-URI oder über <passwordOption>an, oder geben Sie den Schlüsseldateiinhalt über <keyFileOption>an.

CF_SFTP_NOT_ENABLED

SQLSTATE: 0A000

Der Zugriff auf SFTP-Dateien ist nicht aktiviert. Wenden Sie sich an den Databricks-Support, um Unterstützung zu erhalten.

CF_SFTP_REQUIRE_FULL_PATH

SQLSTATE: 0A000

Geben Sie die vollständigen Pfadkomponenten für eine SFTP-Quelle in der Form von sftp://$user@$host:$port/$path an, um eine exakte UC-Verbindungsrecherche sicherzustellen.

CF_SFTP_REQUIRE_UC_CLUSTER

SQLSTATE: 0A000

Für den Zugriff auf SFTP-Dateien ist ein UC-fähiger Cluster erforderlich. Wenden Sie sich an den Databricks-Support, um Unterstützung zu erhalten.

CF_SFTP_USERNAME_NOT_FOUND

SQLSTATE: 42000

Der Benutzername muss für SFTP angegeben werden.

Geben Sie den Benutzernamen im Quell-URI oder über <option>an.

CF_SOURCE_DIRECTORY_PATH_REQUIRED

SQLSTATE: 42000

Geben Sie den Quellverzeichnispfad mit Option path an.

CF_SOURCE_UNSUPPORTED

SQLSTATE: 0A000

Die Clouddateienquelle unterstützt derzeit nur S3-Pfade, Azure Blob Storage (wasb/wasbs) und Azure Data Lake Gen1 (adl) und Gen2 (abfs/abfss). Pfad: '<path>', aufgelöster URI: '<uri>'

CF_STATE_INCORRECT_SQL_PARAMS

SQLSTATE: 42000

Die Funktion cloud_files_state akzeptiert einen Zeichenfolgenparameter, der das Prüfpunktverzeichnis eines CloudFiles-Datenstroms oder einen mehrteiligen Tabellennamen darstellt, der eine Streamingtabelle identifiziert. Zudem gibt es einen optionalen zweiten Parameter vom Typ Ganzzahl, der die Prüfpunktversion angibt, für die der Zustand geladen werden soll. Der zweite Parameter kann auch „latest“ sein, um den neuesten Prüfpunkt zu lesen. Empfangen: <params>

CF_STATE_INVALID_CHECKPOINT_PATH

SQLSTATE: 42000

Der Eingabeprüfpunktpfad <path> ist ungültig. Entweder ist der Pfad nicht vorhanden oder es wurden keine cloud_files Quellen gefunden.

CF_STATE_INVALID_VERSION

SQLSTATE: 42000

Die angegebene Version <version> ist nicht vorhanden oder wurde während der Analyse entfernt.

CF_THREAD_IS_DEAD

SQLSTATE: 22000

<threadName> Thread ist tot.

CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION

SQLSTATE: 42000

Der Prüfpunktspeicherort des Streams kann nicht aus dem Prüfpunktspeicherort der Quelle <checkPointLocation> abgeleitet werden

CF_UNABLE_TO_DETECT_FILE_FORMAT

SQLSTATE: 42000

Das Quelldateiformat aus <fileSize>-Stichprobendateien konnte nicht erkannt werden, es wurde <formats> gefunden. Geben Sie das Format an.

CF_UNABLE_TO_EXTRACT_BUCKET_INFO

SQLSTATE: 42000

Bucketinformationen können nicht extrahiert werden. Pfad: „<path>“, aufgelöster URI: „<uri>

CF_UNABLE_TO_EXTRACT_KEY_INFO

SQLSTATE: 42000

Schlüsselinformationen können nicht extrahiert werden. Pfad: „<path>“, aufgelöster URI: „<uri>

CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO

SQLSTATE: 42000

Speicherkontoinformationen können nicht extrahiert werden; Pfad: '<path>', aufgelöster URI: '<uri>'

CF_UNABLE_TO_LIST_EFFICIENTLY

SQLSTATE: 22000

Es wurde ein Verzeichnisbenennungsereignis für den Pfad <path>empfangen, aber wir können dieses Verzeichnis nicht effizient auflisten. Damit der Datenstrom fortgesetzt werden kann, legen Sie die Option "cloudFiles.ignoreDirRenames" auf "true" fest, und erwägen Sie, reguläre Backfills mit "cloudFiles.backfillInterval" zu aktivieren, damit diese Daten verarbeitet werden.

CF_UNEXPECTED_READ_LIMIT

SQLSTATE: 22000

Unerwartetes Leselimit: <readLimit>

CF_UNKNOWN_OPTION_KEYS_ERROR

SQLSTATE: 42000

Unbekannte Optionstasten gefunden:

<optionList>

Stellen Sie sicher, dass alle bereitgestellten Optionstasten korrekt sind. Wenn Sie die

Überprüfung Ihrer Optionen überspringen und diese unbekannten Optionen ignorieren möchten, können Sie Folgendes festlegen:

.option("cloudFiles.<validateOptions>", "false")

CF_UNKNOWN_READ_LIMIT

SQLSTATE: 22000

Unbekanntes ReadLimit: <readLimit>

CF_UNSUPPORTED_CLEAN_SOURCE_MOVE

SQLSTATE: 0A000

Die Konfiguration des cleanSource-Modus „Verschieben“ wird nicht unterstützt.

Weitere Einzelheiten finden Sie unter CF_UNSUPPORTED_CLEAN_SOURCE_MOVE

CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION

SQLSTATE: 0A000

Die SQL-Funktion "cloud_files" zum Erstellen einer Streamingquelle für das automatische Laden wird nur in einer Lakeflow Spark Declarative Pipeliness-Pipeline unterstützt. Weitere Details finden Sie unter:

<docLink>

CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE

SQLSTATE: 0A000

Die Schemaerkennung wird für das Format nicht unterstützt: <format>. Geben Sie das Schema an.

CF_UNSUPPORTED_LOG_VERSION

SQLSTATE: 0A000

UnsupportedLogVersion: Die höchste unterstützte Protokollversion ist v<maxVersion>, es wurde jedoch v<version> gefunden. Die Protokolldatei wurde von einer neueren Version von DBR erstellt und kann von dieser Version nicht gelesen werden. Bitte aktualisieren Sie.

CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE

SQLSTATE: 0A000

Schema-Evolutionsmodus <mode> wird für Format <format>nicht unterstützt. Legen Sie den Schemaentwicklungsmodus auf "none" fest.

CF_USE_DELTA_FORMAT

SQLSTATE: 42000

Das Lesen aus einer Delta-Tabelle wird mit dieser Syntax nicht unterstützt. Wenn Sie Daten aus Delta nutzen möchten, lesen Sie bitte die Dokumente: lesen Sie eine Delta-Tabelle (<deltaDocLink>) oder lesen Sie eine Delta-Tabelle als Datenstromquelle (<streamDeltaDocLink>). Die Streamingquelle von Delta ist bereits für den inkrementellen Verbrauch von Daten optimiert.

Geospatial

EWKB_PARSE_ERROR

SQLSTATE: 22023

Fehler beim Parsen von EWKB „<parseError>“ an Position <pos>

Weitere Informationen finden Sie unter EWKB_PARSE_ERROR

EWKT_PARSE_ERROR

SQLSTATE: 22023

Fehler beim Analysieren von EWKT: <parseError> an position <pos>

GEOJSON_PARSE_ERROR

SQLSTATE: 22023

Fehler beim Analysieren von GeoJSON: <parseError> an Position <pos>

Weitere Informationen finden Sie unter GEOJSON_PARSE_ERROR

GEO_ENCODER_SRID_MISMATCH_ERROR

SQLSTATE: 42K09

Fehler beim Codieren <type> eines Werts, da die bereitgestellte SRID <valueSrid> eines zu codierenden Werts nicht mit dem Typ SRID übereinstimmt: <typeSrid>.

H3_INVALID_CELL_ID

SQLSTATE: 22023

<h3Cell> ist keine gültige H3-Zell-ID.

Weitere Details finden Sie unter H3_INVALID_CELL_ID.

H3_INVALID_GRID_DISTANCE_VALUE

SQLSTATE: 22023

H3-Rasterabstand <k> darf nicht negativ sein

Weitere Details finden Sie unter H3_INVALID_GRID_DISTANCE_VALUE.

H3_INVALID_RESOLUTION_VALUE

SQLSTATE: 22023

Die H3-Auflösung <r> muss zwischen <minR> und <maxR> liegen (inklusive)

Weitere Details finden Sie unter H3_INVALID_RESOLUTION_VALUE.

H3_NOT_ENABLED

SQLSTATE: 0A000

<h3Expression> ist deaktiviert oder wird nicht unterstützt. Erwägen Sie, zu einer Ebene zu wechseln, die H3-Ausdrücke unterstützt

Weitere Details finden Sie unter H3_NOT_ENABLED.

H3_PENTAGON_ENCOUNTERED_ERROR

SQLSTATE: 22023

Beim Berechnen des Hexrings von <h3Cell> mit Rasterabstand <k> ist ein Fünfeck aufgetreten.

H3_UNDEFINED_GRID_DISTANCE

SQLSTATE: 22023

H3-Rasterabstand zwischen <h3Cell1> und <h3Cell2> ist nicht definiert

ST_DIFFERENT_SRID_VALUES

SQLSTATE: 22023

Argumente für "<sqlFunction>" müssen denselben SRID-Wert aufweisen. SRID-Werte gefunden: <srid1>, <srid2>

ST_INVALID_ARGUMENT

SQLSTATE: 22023

"<sqlFunction>":

Weitere Details finden Sie unter ST_INVALID_ARGUMENT

ST_INVALID_CRS_TRANSFORMATION_ERROR

SQLSTATE: 22023

<sqlFunction>: Ungültige oder nicht unterstützte CRS-Transformation von SRID-<srcSrid> in SRID-<trgSrid>

ST_INVALID_PRECISION_VALUE

SQLSTATE: 22023

Präzisions-<p> muss zwischen <minP> und <maxP>(einschließlich) liegen.

ST_NOT_ENABLED

SQLSTATE: 0A000

<stExpression> ist deaktiviert oder wird nicht unterstützt. Erwägen Sie, zu einer Ebene zu wechseln, die ST-Ausdrücke unterstützt

WKB_PARSE_ERROR

SQLSTATE: 22023

Fehler beim Analysieren von WKB <parseError> an Position <pos>

Weitere Informationen finden Sie unter WKB_PARSE_ERROR

WKT_PARSE_ERROR

SQLSTATE: 22023

Fehler beim Parsen von WKT <parseError> an Position <pos>

Weitere Details finden Sie unter WKT_PARSE_ERROR.

Unity-Katalog

CANNOT_DROP_TAGGED_COLUMN

SQLSTATE: 42893

Spalte kann nicht gelöscht werden, da ihr ein oder mehrere verwaltete Tags zugewiesen wurden. Entfernen Sie die Tags, bevor Sie die Spalte ablegen. Anleitungen finden Sie in der Dokumentation <docLink>.

ERSTELLUNG_VON_UNTERELEMENTEN_FÜR_FREMDE_SICHERBARE_VERBOTEN

SQLSTATE: 22023

Sicherheitsobjekt <childSecurableName> des Typs <childSecurableType> kann nicht im übergeordneten Element <parentSecurableName> der Art <parentSecurableKind> erstellt werden.

SPALTENFORMAT_NICHT_KOMPATIBEL_MIT_SPALTENTYP

SQLSTATE: 42809

Spalte <columnName> weist ein Format auf <formatType> , das nicht mit dem Spaltentyp <columnType>kompatibel ist.

CONFLICTING_COLUMN_NAMES_ERROR

SQLSTATE: 42711

Spaltenkonflikt <columnName> mit einer anderen Spalte mit demselben Namen, aber ohne nachfolgende Leerzeichen (z. B. eine vorhandene Spalte mit dem Namen <columnName> ). Benennen Sie die Spalte mit einem anderen Namen um.

CONNECTION_CREDENTIALS_NOT_SUPPORTED_FOR_ONLINE_TABLE_CONNECTION

SQLSTATE: 0AKUC

Ungültige Anforderung zum Abrufen von Anmeldeinformationen auf Verbindungsebene für die Verbindung vom Typ <connectionType>. Solche Anmeldeinformationen sind nur für verwaltete PostgreSQL-Verbindungen verfügbar.

CONNECTION_TYPE_NOT_ENABLED

SQLSTATE: 56038

Der Verbindungstyp '<connectionType>' ist nicht aktiviert. Aktivieren Sie die Verbindung, um sie zu verwenden.

DELTA_SHARING_BEREITSTELLUNGSSTATUS_NICHT_AKTIV

SQLSTATE: 55019

Die freigegebene Entität "<securableFullName>" kann derzeit nicht verwendet werden, da sie noch nicht vollständig mit der entsprechenden Quellentität synchronisiert wurde. Verursacht von: <reason>.

DELTA_SHARING_READ_ONLY_RECIPIENT_EXISTS

SQLSTATE: 42710

Es ist bereits ein Recipient-Objekt '<existingRecipientName>' mit demselben Freigabebezeichner '<existingMetastoreId>' vorhanden.

DELTA_SHARING_READ_ONLY_SECURABLE_KIND

SQLSTATE: 42501

Daten der sicherungsfähigen Delta-Freigabeart <securableKindName> sind schreibgeschützt und können nicht erstellt, geändert oder gelöscht werden.

DISASTER_RECOVERY_READ_ONLY

SQLSTATE: 25006

Daten innerhalb eines Replikatkatalogs <catalogName> , der von der Notfallwiederherstellung verwaltet wird, sind schreibgeschützt und können nicht erstellt, geändert oder gelöscht werden.

EXTERNAL_ACCESS_DISABLED_ON_METASTORE

SQLSTATE: 0A000

Der Verkauf von Anmeldeinformationen wird für eine Nicht-Databricks-Compute-Umgebung abgelehnt, da der Zugriff auf externe Daten für Metastore <metastoreName> deaktiviert wurde. Wenden Sie sich an Ihren Metastore-Administrator, um die Konfiguration "Externer Datenzugriff" im Metastore zu aktivieren.

EXTERNAL_ACCESS_NOT_ALLOWED_FOR_TABLE

SQLSTATE: 0AKUC

Auf die Tabelle mit der ID <tableId> kann aufgrund ihrer Art <securableKind>außerhalb der Databricks Compute Environment nicht zugegriffen werden. Nur auf 'TABLE_EXTERNAL', 'TABLE_DELTA_EXTERNAL' und 'TABLE_DELTA' Tabellentypen kann extern zugegriffen werden.

EXTERNAL_USE_SCHEMA_ASSIGNED_TO_INCORRECT_SECURABLE_TYPE

SQLSTATE: 22023

Berechtigungen EXTERNAL USE SCHEMA gelten nicht für diese Entität <assignedSecurableType> und können nur einem Schema oder Katalog zugewiesen werden. Entfernen Sie die Berechtigungen aus dem <assignedSecurableType>-Objekt, und weisen Sie sie stattdessen einem Schema oder Katalog zu.

EXTERNAL_WRITE_NOT_ALLOWED_FOR_TABLE

SQLSTATE: 0AKUC

Tabelle mit ID <tableId> kann wegen ihres Typs <securableKind>nicht von außerhalb der "Databricks Compute Environment" beschrieben werden. Nur 'TABLE_EXTERNAL' und 'TABLE_DELTA_EXTERNAL' Tabellentypen können extern geschrieben werden.

FOREIGN_CATALOG_STORAGE_ROOT_MUST_SUPPORT_WRITES

SQLSTATE: 42501

Der Speicherort für einen Fremdkatalog vom Typ <catalogType> wird zum Entladen von Daten verwendet und darf nicht schreibgeschützt sein.

HMS_SECURABLE_OVERLAP_LIMIT_EXCEEDED

SQLSTATE: 54000

Die Anzahl von <resourceType> für Eingabepfad <url> überschreitet den zulässigen Grenzwert (<overlapLimit>) für überlappende HMS-Ressourcentypen (<resourceType>).

UNGÜLTIGES_DATENQUELLEN_FORMAT

SQLSTATE: 0AKUC

Das Datenquellenformat '<datasourceFormat>' wird nicht unterstützt<tableTypeSuffix> <catalogKindSuffix>.

INVALID_NAME_FORMAT

SQLSTATE: 42602

<fieldDescription> ist kein gültiger Name. Gültige Namen dürfen nur alphanumerische Zeichen und Unterstriche enthalten und dürfen keine Leerzeichen, Punkte, Schrägstriche oder Steuerzeichen enthalten.

INVALID_RESOURCE_NAME_DELTA_SHARING

SQLSTATE: 0A000

Delta-Freigabeanforderungen werden nicht mit Ressourcennamen unterstützt.

INVALID_RESOURCE_NAME_ENTITY_TYPE

SQLSTATE: 42809

Der bereitgestellte Ressourcenname verweist auf den Entitätstyp <provided>, aber es wurde <expected> erwartet.

INVALID_RESOURCE_NAME_METASTORE_ID

SQLSTATE: 42000

Der bereitgestellte Ressourcenname verweist auf einen Metaspeicher, der für die aktuelle Anforderung nicht im Gültigkeitsbereich ist.

INVALID_SECURABLE_NAME

SQLSTATE: 42602

<rpcName> ungültiger <securableType> Name: '<securableFullName>'

LOCATION_OVERLAP

SQLSTATE: 22023

Eingabepfad-URL „<path>“ überlappt mit <overlappingLocation> innerhalb des Aufrufs „<caller>“. <conflictingSummary>. <permissionErrorSuggestion>

LOCATION_OVERLAP_STORAGE_CONFLICT_WITH_WORKSPACE_STORAGE

SQLSTATE: 22023

Der vom Kunden definierte Speicherort ist während des Vorgangs "<path><caller>" des Arbeitsbereichs mit dem Standardspeicher "" des Arbeitsbereichs in Konflikt. Dadurch wird verhindert, dass Features, die auf arbeitsbereichsspeichern, nicht mehr ausgeführt werden. Konfliktzusammenfassung: <conflictingSummary>. Weitere Informationen finden Sie https://docs.databricks.com/aws/en/data-governance/unity-catalog/storage-conflicts in den Korrekturschritten.

VERWALTETES_TABELLENFORMAT

SQLSTATE: 0AKUC

Nur Delta wird für verwaltete Tabellen unterstützt. Das bereitgestellte Datenquellenformat ist <datasourceFormat>.

MONGO_DB_SRV_CONNECTION_STRING_DOES_NOT_ALLOW_PORT

SQLSTATE: 42616

Das Erstellen oder Aktualisieren einer MongoDB-Verbindung ist nicht zulässig, da die MongoDB SRV-Verbindungszeichenfolge keinen Port erfordert.

Entfernen Sie den Port, da für die SRV-Verbindungszeichenfolge kein Port erforderlich ist.

PRINCIPAL_EXISTIERT_NICHT

SQLSTATE: 42704

Der Hauptbenutzer mit dem Namen <principalName> konnte nicht gefunden werden.

PRIVILEGES_SUPPORT_NOT_ENABLED

SQLSTATE: 0AKUC

Die Unterstützung von Berechtigungen ist für den Typ [<typeString>] nicht aktiviert.

PRIVILEGE_NOT_APPLICABLE_TO_ENTITY

SQLSTATE: 22023

Berechtigungen <privilege> gelten nicht für diese Entität [<classifier>]. Wenn dies unerwartet erscheint, überprüfen Sie bitte die Berechtigungsversion des Metastores, der verwendet wird [<privilegeVersion>].

READ_ONLY_CATALOG

SQLSTATE: 0AKUC

Innerhalb eines Delta-Freigabekatalogs können Daten nur gelesen werden und nicht erstellt, geändert oder gelöscht werden. Katalog '<catalogName>' ist ein Delta-Sharing-Katalog.

REDSHIFT_FOREIGN_CATALOG_STORAGE_ROOT_MUST_BE_S3

SQLSTATE: 22KD1

Der Speicherstamm für den Fremdkatalog von Redshift muss AWS S3 sein.

SCHEMA_NOT_EMPTY

SQLSTATE: 42893

Das Schema "<fullName>" ist nicht leer. <extraInfo>

SECURABLE_KIND_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION

SQLSTATE: 0AKUC

Sicherungsfähig mit Art <securableKind> unterstützt keinen Lakehouse-Verbund.

SECURABLE_KIND_NOT_ENABLED

SQLSTATE: 56038

Sicherungsfähige Art <securableKind> ist nicht aktiviert. Wenn es sich um eine sicherungsfähige Art handelt, die einer Previewfunktion zugeordnet ist, aktivieren Sie sie in den Arbeitsbereichseinstellungen.

SECURABLE_TYPE_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION

SQLSTATE: 0AKUC

Sicherungsfähig mit Typ <securableType> unterstützt keinen Lakehouse-Verbund.

SOURCE_TABLE_COLUMN_COUNT_EXCEEDS_LIMIT

SQLSTATE: 54000

Die Quelltabelle enthält mehr als <columnCount> Spalten. Bitte reduzieren Sie die Anzahl der Spalten auf <columnLimitation> oder weniger.

SYSTEMDIENSTPRINZIPAL_IST_NICHT_REGISTRIERT

SQLSTATE: 42704

Der registrierte Systemdienstprinzipal mit dem Ressourcennamen <servicePrincipalResource>konnte nicht gefunden werden.

TABELLENTYP_UNTERSTÜTZT_KEINE_SPALTENMETADATEN

SQLSTATE: 0AKUC

Der Tabellentyp <tableType> unterstützt keine Spaltenmetadaten.

UC_AAD_CLIENT_SECRET_EXPIRED_FOR_SERVICE_PRINCIPAL

SQLSTATE: 42KDI

Die geheimen Clientschlüssel für den Dienstprinzipal mit Anwendungs-ID <applicationId> sind abgelaufen. Besuchen Sie das Azure-Portal, um neue Schlüssel für Ihren Dienstprinzipal zu erstellen.

UC_AAD_CLIENT_SECRET_EXPIRED_FOR_STORAGE_CREDENTIAL

SQLSTATE: 42KDI

Die geheimen Clientschlüssel für Speicheranmeldeinformationen <storageCredentialName> sind abgelaufen. Wenden Sie sich an den Besitzer oder Ihren Kontoadministrator, um die Speicheranmeldeinformationen zu aktualisieren.

UC_AAD_CLIENT_SECRET_INVALID_FOR_SERVICE_PRINCIPAL

SQLSTATE: 42KDI

Der geheime Clientschlüssel für den Dienstprinzipal mit Anwendungs-ID <applicationId> ist ungültig.

UC_AAD_SERVICE_PRINCIPAL_CONFIG_INVALID

SQLSTATE: 42KDI

Die Dienstprinzipalkonfiguration ist ungültig. Überprüfen Sie die Verzeichnis-ID, Anwendungs-ID und den geheimen Clientschlüssel.

UC_AAD_TOKEN_EXCHANGE_GENERIC_FAILURE

SQLSTATE: 42KDI

Fehler beim Abrufen von Anmeldeinformationen: Die Speicheranmeldeinformationen <storageCredentialName> sind nicht ordnungsgemäß konfiguriert. Wenden Sie sich an den Besitzer oder Ihren Kontoadministrator, um die Konfiguration zu aktualisieren.

UC_AAD_TOKEN_LIFETIME_TOO_SHORT

SQLSTATE: 22003

Die ausgetauschte AAD-Tokenlebensdauer beträgt <lifetime> und ist zu kurz konfiguriert. Überprüfen Sie Ihre Azure AD-Einstellung, um sicherzustellen, dass das temporäre Zugriffstoken mindestens eine Stunde lebensdauer hat. https://learn.microsoft.com/azure/active-directory/develop/active-directory-configurable-token-lifetimes

UC_ABAC_MEHRDEUTIGE_SPALTENZUORDNUNG

SQLSTATE: 42KDJ

Fehler beim Auswerten der ABAC-Richtlinien für „<resource>“. Ein Fehler bei der Richtlinie '<policyName>' mit Meldung: Die Verwendung des Alias '<alias>' ergab <size> Übereinstimmungen, genau 1 Übereinstimmung ist zulässig.

UC_ABAC_DEPENDENCY_COMPLEXITY_LIMIT_EXCEEDED

SQLSTATE: 54000

<resourceType> "<ref>" hat zu viele <resolverType> Abac-Abhängigkeiten.

UC_ABAC_DEPENDENCY_DIFFERING_RF_CM

SQLSTATE: 55000

Die Abhängigkeit "<dependency>" wird mehrmals referenziert und führt zu unterschiedlichen ABAC-Zeilenfiltern oder Spaltenmasken.

UC_ABAC_EVALUATION_USER_ERROR

SQLSTATE: 42000

Fehler beim Auswerten der ABAC-Richtlinien für „<resource>“. Die Richtlinie „<policyName>“ ist fehlgeschlagen mit der Meldung: <message>.

UC_ABAC_INVALID_TAG_POLICY_VALUE

SQLSTATE: 42KDJ

Fehler beim Auswerten der ABAC-Richtlinien für „<resource>“. Fehler bei Nachricht: Ungültiger Tag-Richtlinienwert <tagValue> für Den Schlüssel <tagKey>.

UC_ABAC_MULTIPLE_ROW_FILTERS

SQLSTATE: 42KDJ

Die Auswertung von ABAC-Richtlinien für "<resource>" führte zu mehreren Zeilenfiltern. Maximal ein Zeilenfilter ist zulässig.

UC_ABAC_UNKNOWN_TAG_POLICY

SQLSTATE: 42KDJ

Fehler beim Auswerten der ABAC-Richtlinien für „<resource>“. Fehler bei Nachricht: Unbekannte Tagrichtlinie: <tagKey>.

UC_ABAC_UNMATCHED_ALIAS_IN_USING_COLUMNS

SQLSTATE: 42KDJ

Fehler beim Auswerten der ABAC-Richtlinien für „<resource>“. Fehlgeschlagen mit der Meldung: Alias '<alias>', verwendet in USING COLUMNS, hat mit keiner Spalte übereingestimmt.

UC_ABAC_UNMATCHED_ON_COLUMN_ALIAS

SQLSTATE: 42KDJ

Fehler beim Auswerten der ABAC-Richtlinien für „<resource>“. Die Richtlinie '<policyName>' schlug fehl mit der Meldung: Der Alias '<alias>', der in ON COLUMN verwendet wurde, entspricht keiner Spalte.

UC_ABAC_UNÜBEREINGESTIMMT_UNTER_VERWENDUNG_VON_ALIAS

SQLSTATE: 42KDJ

Fehler beim Auswerten der ABAC-Richtlinien für „<resource>“. Richtlinie '<policyName>' ist fehlgeschlagen mit der Meldung: Die Verwendung des Alias '<alias>' stimmt mit keiner Spalte überein.

UC_ABAC_USING_REF_OF_NATIVE_MASKED_COLUMNS

SQLSTATE: 42KDJ

Fehler beim Auswerten der ABAC-Richtlinien für „<resource>“. Fehler bei meldung: Spalte '<usingCol>' wurde von der systemeigenen RLS/CM-Richtlinie maskiert und kann nicht als Eingabe für die ABAC-Richtlinie '<policyName>' verwendet werden.

UC_ZUGRIFF_ERFORDERT_ARBEITSBEREICH

SQLSTATE: 42501

Es kann nicht auf das arbeitsbereichsgebundene Sicherheitsobjekt zugegriffen werden, da der Benutzer dem Arbeitsbereich nicht zugewiesen ist.

UC_ALTER_DLT_VIEW_OUTSIDE_DEFINING_PIPELINE

SQLSTATE: 0A000

Das Ändern der Ansicht "<viewFullName>" außerhalb der Pipeline, durch die sie definiert wurde, ist nicht zulässig. Aktualisieren Sie stattdessen die Ansichtsdefinition aus der Pipeline, die sie definiert hat (Pipeline-ID: <owningPipelineId>).

UC_ATLAS_NOT_ENABLED_FOR_CALLING_SERVICE

SQLSTATE: 0A000

Atlas ist für den Anrufdienst <serviceName>nicht aktiviert.

UC_AUTHZ_ACTION_NOT_SUPPORTED

SQLSTATE: 0AKUC

Die Autorisierung <actionName> wird nicht unterstützt; Überprüfen Sie, ob der aufgerufene RPC für diesen Ressourcentyp implementiert ist.

UC_AWS_ASSUME_ROLE_FAILED

SQLSTATE: 42KDI

Fehler beim Abrufen von Anmeldeinformationen: Die AWS IAM-Rolle in den Unity-Katalog-Anmeldeinformationen ist nicht ordnungsgemäß konfiguriert. Wenden Sie sich an Ihren Metastore-Administrator oder den Anmeldeinformationsbesitzer, um die Konfiguration in AWS zu aktualisieren.

UC_AWS_EMPTY_STORAGE_LOCATION

SQLSTATE: 22023

Leerer Speicherort.

UC_AWS_INVALID_S3_POLICY_PREFIX

SQLSTATE: 22KD1

Ungültiger s3-Pfad für den Speicherort: Der S3-Pfad <providedPath> beginnt nicht mit dem erwarteten Präfix: <expectedPrefix>.

UC_AWS_UNSUPPORTED_S3_SCHEME

SQLSTATE: 22KD1

Ungültiger Pfad für speicherort: Nicht unterstütztes Schema gefunden: <providedScheme>. Unterstützte Schemas sind: <supportedS3Schemes>.

UC_AZURE_BLOB_SERVICE_UNAVAILABLE

SQLSTATE: 57P03

Der Azure Blob-Dienst ist vorübergehend nicht verfügbar. Versuchen Sie es später erneut.

UC_AZURE_UDK_UNAUTHORIZED

SQLSTATE: 42501

Die Anforderung für den Benutzerdelegierungsschlüssel ist nicht autorisiert. Details: <details>

UC_BUILTIN_HMS_CONNECTION_CREATION_PERMISSION_DENIED

SQLSTATE: 42501

Es kann keine Verbindung für einen integrierten Hive-Metaspeicher erstellt werden, da der Benutzer: <userId> nicht der Administrator des Arbeitsbereichs ist: <workspaceId>

UC_BUILTIN_HMS_CONNECTION_MODIFY_RESTRICTED_FIELD

SQLSTATE: 22023

Versuchen Sie, ein eingeschränktes Feld in der integrierten HMS-Verbindung '<connectionName>' zu ändern. Nur "warehouse_directory" kann aktualisiert werden.

UC_CANNOT_RENAME_PARTITION_FILTERING_COLUMN

SQLSTATE: 428FR

Fehler beim Umbenennen der Tabellenspalte <originalLogicalColumn>, da sie für die Partitionsfilterung in <sharedTableName> verwendet wird. Um fortzufahren, können Sie die Tabelle aus der Freigabe entfernen, die Spalte umbenennen und mit den gewünschten Partitionsfilterspalten erneut freigeben. Dies kann jedoch die Streamingabfrage für Ihren Empfänger unterbrechen.

UC_CHILD_CREATION_FORBIDDEN_FOR_NON_UC_CLUSTER

SQLSTATE: 0AKUC

<securableType> '<securable>' kann nicht unter <parentSecurableType> '<parentSecurable>' erstellt werden, da die Anforderung nicht von einem UC-Cluster stammt.

UC_CONFLICTING_CONNECTION_ALLOW_LIST_OPTIONS

SQLSTATE: 42616

Eine Verbindung mit einer Zulassungsliste, die sich mit einer Verbindungsoption überlappt, kann nicht erstellt werden. Wert: <conflictingOptions>

UC_CONFLICTING_CONNECTION_OPTIONS

SQLSTATE: 42616

Eine Verbindung mit den Authentifizierungsoptionen "Benutzername/Kennwort" und "Oauth" kann nicht hergestellt werden. Wählen Sie eine aus.

UC_CONNECTION_CREDENTIALS_MAXIMUM_REACHED

SQLSTATE: 53400

Die maximale Anzahl von Anmeldeinformationen für den Verbindungsnamen „<connectionName>“ wurde erreicht. Löschen Sie vorhandene Anmeldeinformationen, bevor Sie eine neue erstellen.

UC_CONNECTION_CREDENTIALS_NOT_EXIST_FOR_USER_WITH_LOGIN

SQLSTATE: 42517

Die Anmeldeinformationen für die Benutzeridentität („<userIdentity>“) für die Verbindung „<connectionName>“ wurden nicht gefunden. Bitte melden Sie sich zuerst bei der Verbindung an, indem Sie <connectionPage> besuchen

UC_CONNECTION_CREDENTIALS_TYPE_NOT_SUPPORTED

SQLSTATE: 42809

Das Erstellen von Anmeldeinformationen für den sicherbaren Typ "<securableType>" wird nicht unterstützt. Unterstützte sicherungsfähige Typen: <allowedSecurableType>.

UC_CONNECTION_EXISTS_FOR_CREDENTIAL

SQLSTATE: 42893

Die Anmeldeinformationen „<credentialName>“ haben mindestens eine abhängige Verbindung. Sie können die Option "Erzwingen" verwenden, um die Anmeldeinformationen weiterhin zu aktualisieren oder zu löschen, aber die Verbindungen, die diese Anmeldeinformationen verwenden, funktionieren möglicherweise nicht mehr.

UC_CONNECTION_EXPIRED_ACCESS_TOKEN

SQLSTATE: 42KDI

Das der Verbindung zugeordnete Zugriffstoken ist abgelaufen. Aktualisieren Sie die Verbindung, um den OAuth-Fluss neu zu starten, um ein Token abzurufen.

UC_CONNECTION_EXPIRED_REFRESH_TOKEN

SQLSTATE: 42KDI

Das aktualisierungstoken, das der Verbindung zugeordnet ist, ist abgelaufen. Aktualisieren Sie die Verbindung, um den OAuth-Fluss neu zu starten, um ein neues Token abzurufen.

UC_CONNECTION_IN_FAILED_STATE

SQLSTATE: 55000

Die Verbindung befindet sich im FAILED Zustand. Aktualisieren Sie die Verbindung mit gültigen Anmeldeinformationen, um sie erneut zu aktivieren.

UC_CONNECTION_MISSING_OPTION

SQLSTATE: 22023

Verbindungen vom sicherungsfähigen Typ '<securableType>' müssen die folgenden Optionen enthalten: <requiredOptions>.

UC_CONNECTION_MISSING_REFRESH_TOKEN

SQLSTATE: 42KDI

Der Verbindung ist kein Aktualisierungstoken zugeordnet. Aktualisieren Sie die OAuth-Client-Integration in Ihrem Identitätsanbieter, um Aktualisierungs-Token zurückzugeben, und aktualisieren oder erstellen Sie die Verbindung neu, um den OAuth-Fluss erneut zu starten und die erforderlichen Token abzurufen.

UC_CONNECTION_OAUTH_EXCHANGE_FAILED

SQLSTATE: 42KDI

Fehler beim OAuth-Tokenaustausch mit HTTP-Statuscode <httpStatus>. Die zurückgegebene Serverantwort oder Ausnahmemeldung lautet: <response>

UC_CONNECTION_OPTION_NOT_SUPPORTED

SQLSTATE: 42616

Verbindungen vom sicherungsfähigen Typ '<securableType>' unterstützen die folgenden Optionen nicht: <optionsNotSupported>. Unterstützte Optionen: <allowedOptions>.

UC_COORDINATED_COMMITS_NOT_ENABLED

SQLSTATE: 56038

Die Unterstützung für koordinierte Commits ist nicht aktiviert. Wenden Sie sich bitte an den Databricks-Support.

UC_CREATE_FORBIDDEN_UNDER_INACTIVE_SECURABLE

SQLSTATE: 55019

<securableType> '<securableName>' kann nicht erstellt werden, da es sich unter <parentSecurableType> '<parentSecurableName>' befindet, was nicht aktiv ist. Löschen Sie das übergeordnete sicherungsfähige Element, und erstellen Sie das übergeordnete Element neu.

UC_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED

SQLSTATE: 22KD1

Fehler beim Parsen der bereitgestellten Zugriffskonnektor-ID: <accessConnectorId>. Überprüfen Sie die Formatierung, und versuchen Sie es erneut.

UC_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN

SQLSTATE: 58000

Fehler beim Erhalten eines AAD-Tokens zur Überprüfung der Cloud-Berechtigungen für einen Zugriffskonnektor. Wiederholen Sie die Aktion.

UC_CREDENTIAL_INVALID_CLOUD_PERMISSIONS

SQLSTATE: nicht zugewiesen

Für die Registrierung von Anmeldeinformationen ist die Teilnehmerrolle über den entsprechenden Zugriffsconnector mit ID <accessConnectorId> erforderlich. Wenden Sie sich an Ihren Kontoadministrator.

UC_CREDENTIAL_INVALID_CREDENTIAL_TYPE_FOR_PURPOSE

SQLSTATE: 22023

Der Anmeldeinformationstyp „<credentialType>“ wird für den Zweck „<credentialPurpose>“ nicht unterstützt.

UC_CREDENTIAL_PERMISSION_DENIED

SQLSTATE: nicht zugewiesen

Nur der Kontoadministrator kann eine Anmeldeinformation mit dem Typ <storageCredentialType>erstellen oder aktualisieren.

UC_CREDENTIAL_TRUST_POLICY_IS_OPEN

SQLSTATE: 22023

Die Vertrauensrichtlinie der IAM-Rolle, um dem Databricks-Konto zu erlauben, die Rolle zu übernehmen, sollte eine externe ID erfordern. Wenden Sie sich an Ihren Kontoadministrator, um die Bedingung für die externe ID hinzuzufügen. Dieses Verhalten dient dazu, das Problem des verwirrten Stellvertreters (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html) zu verhindern.

UC_CREDENTIAL_WORKSPACE_API_PROHIBITED

SQLSTATE: 0A000

Das Erstellen oder Aktualisieren von Anmeldeinformationen als Nicht-Kontoadministrator wird in der API auf Kontoebene nicht unterstützt. Verwenden Sie stattdessen die API auf Arbeitsbereichsebene.

UC_DBR_TRUST_VERSION_TOO_OLD

SQLSTATE: 0A000

Die verwendete Databricks-Runtime unterstützt diesen Vorgang nicht mehr. Verwenden Sie die neueste Version (Möglicherweise müssen Sie den Cluster neu starten).

UC_DELTA_ILLEGAL_BACKFILLED_VERSION

SQLSTATE: 22023

Unerwartetes latestBackfilledVersion <latestBackfilledVersion> für den Commit (<version>, <commitType>).

UC_DELTA_ILLEGAL_CONCURRENT_MIGRATION

SQLSTATE: 0A000

Gleichzeitiges Upgrade oder Downgrade von einer katalogverwalteten Tabelle wird nicht unterstützt. Stellen Sie sicher, dass jeweils nur eine Transaktion den Migrationsbefehl ausführt. Es wurde ein Duplikat <commitType> erkannt.

UC_DELTA_ILLEGAL_MIGRATION_STATE_CHANGE

SQLSTATE: 22023

Ungültiger Zustandsübergang vom alten Commit-Typ <lastCommitType> in "Neu <commitType>".

UC_DELTA_MIGRATION_STATE_CHANGE_VERSION_MISMATCH

SQLSTATE: 22023

Versionen stimmen nicht für den Zustandsübergang von alter (<lastVersion>, <lastCommitType>) zu neuer (<version>, <commitType>) überein.

UC_DELTA_UNIVERSAL_FORMAT_CANNOT_PARSE_ICEBERG_VERSION

SQLSTATE: 22P02

Die Apache Iceberg-Tabellenversion kann vom Metadatenspeicherort <metadataLocation> nicht geparst werden.

UC_DELTA_UNIVERSAL_FORMAT_CONCURRENT_WRITE

SQLSTATE: 40001

Es wurde ein gleichzeitiges Update auf dieselbe Apache Iceberg-Metadatenversion erkannt.

UC_DELTA_UNIVERSAL_FORMAT_INVALID_METADATA_LOCATION

SQLSTATE: 22KD1

Der zugesicherte Metadatenspeicherort <metadataLocation> ist ungültig. Es handelt sich nicht um ein Unterverzeichnis des Stammverzeichnisses <tableRoot>der Tabelle.

UC_DELTA_UNIVERSAL_FORMAT_MISSING_FIELD_CONSTRAINT

SQLSTATE: 42601

Die bereitgestellten Delta Apache Iceberg Format Konvertierungsinformationen fehlen erforderliche Felder.

UC_DELTA_UNIVERSAL_FORMAT_NON_CREATE_CONSTRAINT

SQLSTATE: 0A000

Das Festlegen von Delta Apache Iceberg-Formatinformationen zum Erstellen wird nicht unterstützt.

UC_DELTA_UNIVERSAL_FORMAT_TOO_LARGE_CONSTRAINT

SQLSTATE: 54000

Die bereitgestellten Delta Apache Iceberg Format Konvertierungsinformationen sind zu groß.

UC_DELTA_UNIVERSAL_FORMAT_UPDATE_INVALID

SQLSTATE: 0A000

Einheitliche Metadaten können nur auf Delta-Tabellen aktualisiert werden, wenn das Uniform-Feature aktiviert ist.

UC_DEPENDENCY_DEPTH_LIMIT_EXCEEDED

SQLSTATE: 54000

<resourceType> "<ref>" Tiefe überschreitet den Grenzwert (oder weist einen Zirkelbezug auf).

UC_DEPENDENCY_DOES_NOT_EXIST

SQLSTATE: 42704

<resourceType> '<ref>' ist ungültig, da eine der zugrunde liegenden Ressourcen nicht vorhanden ist. <cause>

UC_DEPENDENCY_PERMISSION_DENIED

SQLSTATE: 42501

<resourceType> "<ref>" verfügt nicht über ausreichende Berechtigungen zur Ausführung, weil der Besitzer einer der zugrunde liegenden Ressourcen bei einer Autorisierungsprüfung durchgefallen ist. <cause>

UC_DUPLICATE_CONNECTION

SQLSTATE: 42710

Eine Verbindung mit dem Namen '<connectionName>' mit derselben URL ist bereits vorhanden. Bitten Sie den Besitzer, diese Verbindung zu verwenden, anstatt ein Duplikat zu erstellen.

UC_DUPLICATE_FABRIC_CATALOG_CREATION

SQLSTATE: 42710

Es wurde versucht, einen Fabric-Katalog mit der URL "<storageLocation>" zu erstellen, der einem vorhandenen Katalog entspricht, der nicht zulässig ist.

UC_DUPLICATE_TAG_ASSIGNMENT_CREATION

SQLSTATE: 42710

Die Tag-Zuweisung mit dem Tagschlüssel <tagKey> existiert bereits.

UC_ENTITY_DOES_NOT_HAVE_CORRESPONDING_ONLINE_CLUSTER

SQLSTATE: 57000

Die Entität <securableType> <entityId> verfügt nicht über einen entsprechenden Onlinecluster.

UC_ETAG_MISMATCH

SQLSTATE: 40001

Ressource wurde geändert. Rufen Sie das neueste eTag ab, und versuchen Sie es erneut. Etag-Wert erwartet: <expectedTokenValue> mit Protokollversion <expectedTokenVersion>, empfangener etag-Wert: <providedTokenValue> mit Protokollversion <providedTokenVersion>

UC_EXCEEDS_MAX_FILE_LIMIT

SQLSTATE: 22023

Es sind mehr als <maxFileResults> Dateien vorhanden. Geben Sie [max_results] an, um die Anzahl der zurückgegebenen Dateien einzuschränken.

UC_EXTERNAL_HMS_SCHEMA_LOCATION_NOT_FEDERATED

SQLSTATE: 22023

Das Schema <schemaName> befindet sich im DEGRADED Bereitstellungsstatus, der erwartet wird, da der Speicherort des eHMS/Glue-Schemas nicht verbunden wird.

UC_EXTERNAL_LOCATION_OP_NOT_ALLOWED

SQLSTATE: 22023

<opName> <extLoc> <reason> nicht möglich. <suggestion>.

UC_FEATURE_DISABLED

SQLSTATE: 56038

<featureName> ist derzeit in UC deaktiviert.

UC_FOREIGN_CATALOG_FOR_CONNECTION_TYPE_NOT_SUPPORTED

SQLSTATE: 42809

Das Erstellen eines fremden Katalogs für den Verbindungstyp '<connectionType>' wird nicht unterstützt. Dieser Verbindungstyp kann nur zum Erstellen verwalteter Aufnahmepipelines verwendet werden. Weitere Informationen finden Sie in der Databricks-Dokumentation.

UC_FOREIGN_CREDENTIAL_CHECK_ONLY_FOR_READ_OPERATIONS

SQLSTATE: 0AKUC

Nur Leseberechtigungen können für Fremdtabellen abgerufen werden.

UC_FOREIGN_ENTITY_CREATION_FORBIDDEN_DURING_CONVERSION

SQLSTATE: 55019

Das Erstellen FOREIGN <securableType> von '<entityName>' unter Katalog '<catalogName>' ist verboten, während der Katalog in FOREIGNSTANDARD. konvertiert wird.

UC_FOREIGN_HMS_SHALLOW_CLONE_MISMATCH

SQLSTATE: 22023

Die Basistabelle und die Klontabelle müssen sich im gleichen Katalog befinden, damit flache Klone, die in fremden Hive-Metastore-Katalogen erstellt wurden, erstellt werden. Die Basistabelle '<baseTableName>' befindet sich im Katalog '<baseCatalogName>' und die Klontabelle '<cloneTableName>' befindet sich im Katalog '<cloneCatalogName>'.

UC_FOREIGN_KEY_CHILD_COLUMN_LENGTH_MISMATCH

SQLSTATE: 42830

Die unter- und übergeordneten Spalten von Fremdschlüssel <constraintName> sind unterschiedlich groß.

UC_FOREIGN_KEY_COLUMN_MISMATCH

SQLSTATE: 42830

Die übergeordneten Fremdschlüsselspalten stimmen nicht mit den referenzierten untergeordneten Primärschlüsselspalten überein. Übergeordnete Fremdschlüsselspalten sind (<parentColumns>), und untergeordnete Primärschlüsselspalten sind (<primaryKeyChildColumns>).

UC_FOREIGN_KEY_COLUMN_TYPE_MISMATCH

SQLSTATE: 42830

Der untergeordnete Spaltentyp des Fremdschlüssels stimmt nicht mit dem übergeordneten Spaltentyp überein. Untergeordnete Fremdschlüsselspalte <childColumnName> hat Typ <childColumnType>, und übergeordnete Spalte <parentColumnName> hat Typ <parentColumnType>.

UC_GCP_INVALID_PRIVATE_KEY

SQLSTATE: 42501

Zugriff abgelehnt. Ursache: Privater Schlüssel des Dienstkontos ist ungültig.

UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT

SQLSTATE: 22032

Google Server-Konto OAuth Private Key muss ein gültiges JSON Objekt mit erforderlichen Feldern sein. Stellen Sie bitte sicher, dass sie die vollständige JSON Datei bereitstellen, die aus dem Abschnitt "KEYS" des Dienstkontodetails generiert wurde.

UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT_MISSING_FIELDS

SQLSTATE: 22032

Google Server-Konto OAuth Private Key muss ein gültiges JSON Objekt mit erforderlichen Feldern sein. Stellen Sie bitte sicher, dass sie die vollständige JSON Datei bereitstellen, die aus dem Abschnitt "KEYS" des Dienstkontodetails generiert wurde. Fehlende Felder sind <missingFields>

UC_IAM_ROLE_NON_SELF_ASSUMING

SQLSTATE: 22023

Es wurde festgestellt, dass die IAM-Rolle für diese Speicheranmeldeinformationen nicht selbstübernehmend ist. Überprüfen Sie die Vertrauens- und IAM-Richtlinien Ihrer Rolle, um sicherzustellen, dass Ihre IAM-Rolle sich gemäß der Dokumentation zu Unity Catalog-Speicheranmeldeinformationen selbst annehmen kann.

UC_ICEBERG_COMMIT_CONFLICT

SQLSTATE: 40001

Commit für <tableName> nicht möglich: Metadatenspeicherort <baseMetadataLocation> wurde von <catalogMetadataLocation> geändert.

UC_ICEBERG_COMMIT_INVALID_TABLE

SQLSTATE: 42809

Es kann kein Commit einer verwalteten Apache Iceberg-Tabelle auf eine nicht verwaltete Apache Iceberg-Tabelle durchgeführt werden: <tableName>.

UC_ICEBERG_COMMIT_MISSING_FIELD_CONSTRAINT

SQLSTATE: 42601

Den bereitgestellten Managed Apache Iceberg Commit-Informationen fehlen erforderliche Felder.

UC_ID_MISMATCH

SQLSTATE: 40001

<type> <name> hat nicht ID <wrongId>. Versuchen Sie den Vorgang erneut.

UC_INFORMATION_SCHEMA_PER_METASTORE_DB_RATE_LIMIT_EXCEEDED

SQLSTATE: 53300

Zu viele Informationsschemaanforderungen für den Metaspeicher. Bitte warten Sie einen Moment, und versuchen Sie es erneut. Wenn das Problem weiterhin besteht, sollten Sie in Erwägung ziehen, die Selektivität Ihrer Abfragen anzupassen oder den Support zu kontaktieren.

UC_UNGÜLTIGER_ZUGRIFF_BRICKSTORE_ONLINE_TABELLEN_ABSCHALTUNG

SQLSTATE: 0AKUC

Die Onlinetabelle ist veraltet. Der Erwerb des Zugriffs auf die Onlinetabelle <securableName> wird nicht mehr unterstützt.

UC_INVALID_ACCESS_BRICKSTORE_PG_CONNECTION

SQLSTATE: 0A000

Ungültiger Zugriff auf datenbankinstanz. <reason>

UC_INVALID_ACCESS_DBFS_ENTITY

SQLSTATE: 42501

Ungültiger Zugriff auf <securableType> <securableName> im Verbundkatalog <catalogName>. <reason>

UC_INVALID_AZURE_PATH

SQLSTATE: 22KD1

Ungültiger Azure-Pfad: <path>

UC_INVALID_CLOUDFLARE_ACCOUNT_ID

SQLSTATE: 22023

Ungültige Cloudflare-Konto-ID.

UC_INVALID_CREDENTIAL_CLOUD

SQLSTATE: 42616

Ungültiger Cloudanbieter <cloud> für Anmeldeinformationen. Zulässiger Cloudanbieter '<allowedCloud>'.

UC_INVALID_CREDENTIAL_PURPOSE_VALUE

SQLSTATE: 42616

Ungültiger Wert <value> für den „purpose“ der Anmeldeinformationen. Zulässige Werte '<allowedValues>'.

UC_INVALID_CREDENTIAL_TRANSITION

SQLSTATE: 42616

Es kann keine Verbindung von <startingCredentialType> auf <endingCredentialType>aktualisiert werden. Der einzige gültige Übergang besteht aus einer benutzernamen-/kennwortbasierten Verbindung zu einer OAuth-tokenbasierten Verbindung.

UC_INVALID_CRON_STRING_FABRIC

SQLSTATE: 22P02

Ungültige Cron-Zeichenfolge. Gefunden: „<cronString>“ mit Parsingausnahme: „<message>

UC_INVALID_DIRECT_ACCESS_MANAGED_TABLE

SQLSTATE: 22023

Ungültige verwaltete Tabelle für direkten Zugriff <tableName>. Stellen Sie sicher, dass die Pipelinedefinitionen der Quelltabelle & nicht definiert sind.

UC_INVALID_EMPTY_STORAGE_LOCATION

SQLSTATE: 55000

Unerwarteter leerer Speicherort für <securableType> '<securableName>' im Katalog '<catalogName>'. Um diesen Fehler zu beheben, führen Sie bitte DESCRIBE SCHEMA <catalogName>aus. <securableName>, und aktualisieren Sie diese Seite.

UC_INVALID_OPTIONS_UPDATE

SQLSTATE: 42601

Ungültige Optionen wurden für das Update bereitgestellt. Ungültige Optionen: <invalidOptions>. Zulässige Optionen: <allowedOptions>.

UC_INVALID_OPTION_VALUE

SQLSTATE: 42616

Ungültiger Wert '<value>' für '<option>'. Zulässige Werte '<allowedValues>'.

UC_INVALID_OPTION_VALUE_EMPTY

SQLSTATE: 42616

'<option>' darf nicht leer sein. Geben Sie einen nicht leeren Wert ein.

UC_INVALID_POLICY_CONDITION

SQLSTATE: 42611

Ungültige Bedingung in Richtlinie '<policyName>'. Kompilierungsfehler mit der Meldung '<message>'.

UC_INVALID_R2_ACCESS_KEY_ID

SQLSTATE: 22023

Ungültige R2-Zugriffstasten-ID.

UC_INVALID_R2_SECRET_ACCESS_KEY

SQLSTATE: 22023

Ungültiger geheimer R2-Zugriffsschlüssel.

UC_INVALID_UPDATE_ON_SYSTEM_WORKSPACE_ADMIN_GROUP_OWNED_SECURABLE

SQLSTATE: 42501

<securableType> '<securableName>' kann nicht aktualisiert werden, da es sich im Besitz einer internen Gruppe befindet. Bitte wenden Sie sich an den Databricks-Support, um weitere Details zu erhalten.

UC_INVALID_WASBS_EXTERNAL_LOCATION_STORAGE_CREDENTIAL

SQLSTATE: 22023

Die bereitgestellten Speicher-Zugangsdaten <storageCredentialName> sind nicht mit dem DBFS-Stamm verbunden, daher ist die Erstellung eines wasbs-Externstandorts nicht zulässig.

UC_LOCATION_INVALID_SCHEME

SQLSTATE: 22KD1

Der Speicherort weist ein ungültiges URI-Schema auf: <scheme>.

UC_MALFORMED_OAUTH_SERVER_RESPONSE

SQLSTATE: 58000

Die Antwort vom Token-Server enthielt das Feld <missingField>nicht. Die zurückgegebene Serverantwort lautet: <response>

UC_MANAGED_ICEBERG_UNSUPPORTED

SQLSTATE: 0AKUC

Die verwaltete Apache Iceberg-Tabelle auf dem aktuellen Endpunkt kann nicht unterstützt werden.

UC_METASTORE_ASSIGNMENT_STATUS_INVALID

SQLSTATE: 22023

'<metastoreAssignmentStatus>' kann nicht zugewiesen werden. Nur MANUALLY_ASSIGNABLE und AUTO_ASSIGNMENT_ENABLED werden unterstützt.

UC_METASTORE_CERTIFICATION_NOT_ENABLED

SQLSTATE: 0A000

Die Metastore-Zertifizierung ist nicht aktiviert.

UC_METASTORE_HAS_ACTIVE_MANAGED_ONLINE_CATALOGS

SQLSTATE: nicht zugewiesen

Der Metastore <metastoreId> enthält <numberManagedOnlineCatalogs> verwaltete(n) Onlinekatalog(e). Löschen Sie sie explizit, und wiederholen Sie dann den Metastore-Löschvorgang.

UC_METASTORE_QUOTA_EXCEEDED

SQLSTATE: 53400

Dieses Konto mit id <accountId> hat den Grenzwert für Metastores in der Region <region>erreicht.

UC_METASTORE_STORAGE_ROOT_CREDENTIAL_UPDATE_INVALID

SQLSTATE: 22023

Metastore-Stammanmeldeinformationen können beim Aktualisieren des Metastore-Stammspeicherorts nicht festgelegt werden. Die Anmeldeinformationen werden vom übergeordneten externen Speicherort des Metastores abgerufen.

UC_METASTORE_STORAGE_ROOT_DELETION_INVALID

SQLSTATE: 42501

Das Löschen des Metastore-Speicherwurzelorts ist fehlgeschlagen. <reason>

UC_METASTORE_STORAGE_ROOT_READ_ONLY_INVALID

SQLSTATE: 22023

Der Stamm <securableType> für einen Metastore darf nicht schreibgeschützt sein.

UC_METASTORE_STORAGE_ROOT_UPDATE_INVALID

SQLSTATE: 22023

Der Metastore-Speicherstamm kann nicht aktualisiert werden, nachdem er festgelegt wurde.

UC_MODEL_INVALID_STATE

SQLSTATE: 55000

Temporäre '<opName>' Anmeldeinformationen für Modellversion <modelVersion> mit Status <modelVersionStatus> können nicht generiert werden. '<opName>' Anmeldeinformationen können nur für Modellversionen mit dem Status <validStatus> generiert werden.

UC_NATIVE_USING_REF_OF_ABAC_MASKED_COLUMNS

SQLSTATE: 42KDJ

Fehler beim Auswerten der ABAC-Richtlinien für „<resource>“. Fehler bei meldung: Spalte '<usingCol>' wurde von der ABAC-Richtlinie '<policyName>' maskiert und kann nicht als Eingabe für eine systemeigene RLS/CM-Richtlinie verwendet werden.

UC_NO_ORG_ID_IN_CONTEXT

SQLSTATE: 58000

Es wurde versucht, auf die Organisations-ID (oder Arbeitsbereichs-ID) zuzugreifen, der Kontext hat jedoch keine.

UC_ONELAKE_PATH_BAD_DOMAIN

SQLSTATE: 22KD1

Der Azure OneLake-Pfad "<path>" muss den Domänennamen "<expectedHost>" aufweisen.

UC_ONELAKE_PATH_BAD_FORMAT

SQLSTATE: 22KD1

Der Azure OneLake-Pfad "<path>" muss das Format "abfss://_WORKSPACE_@<host>/" aufweisen.

UC_ONELAKE_PATH_MISSING_AT

SQLSTATE: 22KD1

Der Azure OneLake-Pfad '<path>' enthält nicht '@'.

UC_ONELAKE_PATH_MISSING_WORKSPACE

SQLSTATE: 22KD1

Der Azure OneLake-Pfad "<path>" muss einen Arbeitsbereichsnamen enthalten.

UC_ONLINE_CATALOG_NOT_MUTABLE

SQLSTATE: nicht zugewiesen

Die <rpcName>-Anforderung aktualisiert <fieldName>. Verwenden Sie die Computeregisterkarte für den Onlinespeicher, um alles andere als Kommentar, Besitzende und isolationMode eines Onlinekatalogs zu ändern.

UC_ONLINE_CATALOG_QUOTA_EXCEEDED

SQLSTATE: 53400

Es können nicht mehr als <quota> Onlineshops im Metastore erstellt werden, und es gibt bereits <currentCount>. Möglicherweise haben Sie keinen Zugriff auf vorhandene Online-Stores. Wenden Sie sich an Ihren Metastore-Administrator, um Zugriff oder weitere Anweisungen zu erhalten.

UC_ONLINE_INDEX_CATALOG_INVALID_CRUD

SQLSTATE: nicht zugewiesen

Onlineindexkataloge müssen über die API „/vector-search“ <action> werden.

UC_ONLINE_INDEX_CATALOG_NOT_MUTABLE

SQLSTATE: nicht zugewiesen

Die <rpcName>-Anforderung aktualisiert <fieldName>. Verwenden Sie die API „/vector-search“, um alles andere als Kommentar, Eigentümer und isolationMode eines Online-Indexkatalogs zu ändern.

UC_ONLINE_INDEX_CATALOG_QUOTA_EXCEEDED

SQLSTATE: 53400

Es können höchstens <quota> Onlineindexkataloge im Metastore erstellt werden, und es gibt bereits <currentCount>. Möglicherweise haben Sie keinen Zugriff auf vorhandene Onlineindexkataloge. Wenden Sie sich an Ihren Metastore-Administrator, um Zugriff oder weitere Anweisungen zu erhalten.

UC_ONLINE_INDEX_INVALID_CRUD

SQLSTATE: 0A000

Onlineindizes müssen über die API „/vector-search“ <action> werden.

UC_ONLINE_STORE_INVALID_CRUD

SQLSTATE: nicht zugewiesen

Für Onlinespeicher muss über die Computeregisterkarte des Onlinespeichers <action> ausgeführt werden.

UC_ONLINE_TABLE_COLUMN_NAME_TOO_LONG

SQLSTATE: 54000

Der Name der Quelltabellenspalte <columnName> ist zu lang. Die maximale Länge beträgt <maxLength> Zeichen.

UC_ONLINE_TABLE_PRIMARY_KEY_COLUMN_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT

SQLSTATE: 42P16

Spalte <columnName> kann nicht als Primärschlüsselspalte der Onlinetabelle verwendet werden, da sie nicht Teil der vorhandenen PRIMARY KEY Einschränkung der Quelltabelle ist. Weitere Informationen finden Sie unter <docLink>

UC_ONLINE_TABLE_TIMESERIES_KEY_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT

SQLSTATE: 42P16

Spalte <columnName> kann nicht als Zeitserienschlüssel der Onlinetabelle verwendet werden, da es sich nicht um eine Zeitserienspalte der vorhandenen PRIMARY KEY Einschränkung der Quelltabelle handelt. Weitere Informationen finden Sie unter <docLink>

UC_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED

SQLSTATE: 53400

Pro Quelltabelle können nicht mehr als <quota> Onlinetabellen erstellt werden.

UC_ONLINE_VIEW_ACCESS_DENIED

SQLSTATE: 0AKUC

Für den Zugriff auf Ressourcen <resourceName> ist die Verwendung eines Serverless SQL Warehouse erforderlich. Stellen Sie sicher, dass das Lager, das verwendet wird, um eine Abfrage auszuführen oder einen Datenbankkatalog in der Benutzeroberfläche anzuzeigen, serverlos ist. Weitere Informationen finden Sie unter <docLink>

UC_ONLINE_VIEW_CONTINUOUS_QUOTA_EXCEEDED

SQLSTATE: 53400

Es können höchstens <quota> fortlaufende Onlineansichten im Onlinespeicher erstellt werden, und es gibt bereits <currentCount>. Möglicherweise haben Sie keinen Zugriff auf vorhandene Onlineansichten. Wenden Sie sich an Ihren Online-Shop-Administrator, um Zugriff oder weitere Anweisungen zu erhalten.

UC_ONLINE_VIEW_DOES_NOT_SUPPORT_DMK

SQLSTATE: nicht zugewiesen

<tableKind> kann unter einem Speicherort mit von Databricks verwalteten Schlüsseln nicht erstellt werden. Wählen Sie ein anderes Schema/Katalog an einem Speicherort ohne Verschlüsselung für verwaltete Schlüssel von Databricks aus.

UC_ONLINE_VIEW_INVALID_CATALOG

SQLSTATE: 42809

Ungültiger Katalog <catalogName> mit Art <catalogKind>, um <tableKind> darin zu erstellen. <tableKind> kann nur unter Katalogen der folgenden Arten erstellt werden: <validCatalogKinds>.

UC_ONLINE_VIEW_INVALID_SCHEMA

SQLSTATE: 42809

Ungültiges Schema <schemaName> mit Art <schemaKind>, um <tableKind> darin zu erstellen. <tableKind> kann nur unter Schemas der folgenden Arten erstellt werden: <validSchemaKinds>.

UC_ONLINE_VIEW_INVALID_TTL_TIME_COLUMN_TYPE

SQLSTATE: 42809

Spalten-<columnName> vom Typ <columnType> können nicht als TTL-Zeitspalte verwendet werden. Zulässige Typen sind <supportedTypes>.

UC_OPERATION_NOT_SUPPORTED

SQLSTATE: 0AKUC

Der Vorgang wird vom Unity-Katalog nicht unterstützt. <detailedMessage>

UC_OUT_OF_AUTHORIZED_PATHS_SCOPE

SQLSTATE: 22023

Fehler bei autorisiertem Pfad. Der <securableType>-Speicherort <location> ist nicht innerhalb der autorisierten Pfade für den Katalog definiert: <catalogName>. Bitten Sie den Katalogbesitzer, den Pfad zur Liste der autorisierten Pfade hinzuzufügen, die im Katalog definiert sind.

UC_OVERLAPPED_AUTHORIZED_PATHS

SQLSTATE: 22023

Die Option "authorized_paths" enthält überlappende Pfade: <overlappingPaths>. Stellen Sie sicher, dass jeder Pfad eindeutig ist und sich nicht mit anderen in der Liste überschneidet.

UC_PAGINATION_AND_QUERY_ARGS_MISMATCH

SQLSTATE: 22023

Das Abfrageargument '<arg>' ist auf '<received>' festgelegt, was sich vom Wert unterscheidet, der im ersten Paginierungsaufruf verwendet wird ('<expected>)

UC_PATH_FILTER_ALLOWLIST_VIOLATION

SQLSTATE: 42501

Die Anmeldeinformationen "<credentialName>" sind standardanmeldeinformationen des Arbeitsbereichs, die nur auf Daten in den folgenden Pfaden zugreifen dürfen: '<allowlist>'. Stellen Sie sicher, dass sich jeder Pfad, auf den mit diesen Anmeldeinformationen zugegriffen wird, unter einem dieser Pfade befindet.

UC_PATH_FILTER_DENYLIST_VIOLATION

SQLSTATE: 42501

Die Zugangsdaten '<credentialName>' sind die Standard-Zugangsdaten des Arbeitsbereichs und können nicht auf Daten im folgenden eingeschränkten Pfad zugreifen: '<targetPath>'.

UC_PATH_TOO_LONG

SQLSTATE: 54000

Der Eingabepfad ist zu lang. Zulässige Länge: <maxLength>. Eingabelänge: <inputLength>. Eingabe: <path>...

UC_PER_METASTORE_DATABASE_CONCURRENCY_LIMIT_EXCEEDED

SQLSTATE: 54000

Die Parallelitätsgrenze für metastore <metastoreId> wurde überschritten. Versuchen Sie es später erneut. Wenn das Problem weiterhin besteht, wenden Sie sich an den Support. Fehlercode #UC-<errorCodeArbitraryFiveLettersUpperCase>

UC_POSTGRESQL_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED

SQLSTATE: 53400

Pro Quelltabelle können nicht mehr als <quota> synchronisierte Datenbanktabellen erstellt werden.

UC_PRIMARY_KEY_ON_NULLABLE_COLUMN

SQLSTATE: 42831

Der Primärschlüssel <constraintName> kann nicht erstellt werden, da die untergeordnete Spalte <childColumnNames> Nullwerte zulässt. Ändern Sie die NULL-Zulässigkeit der Spalte, und versuchen Sie es erneut.

UC_REQUEST_LIMIT_EXCEEDED

SQLSTATE: 53400

Ihre Anforderung wurde abgelehnt, da Ihre Organisation das Zinslimit überschritten hat. Wiederholen Sie Ihre Anforderung später noch mal.

UC_REQUEST_TIMEOUT

SQLSTATE: 57KD0

Dieser Vorgang dauerte zu lange.

UC_RESOURCE_QUOTA_EXCEEDED

SQLSTATE: 53400

(s) kann nicht in <parentResourceType> <parentResourceId> (geschätzte Anzahl: <currentCount>, Limit: ) erstellt werden<amount> <resourceType>. <quotaLimit>

UC_ROOT_STORAGE_S3_BUCKET_NAME_CONTAINS_DOT

SQLSTATE: 22KD1

Der S3-Bucketname des Stammspeichers mit Punkten wird vom Unity-Katalog nicht unterstützt: <uri>

UC_SCHEMA_EMPTY_STORAGE_LOCATION

SQLSTATE: 22KD1

Unerwarteter leerer Speicherort für das Schema "<schemaName>" im Katalog "<catalogName>". Stellen Sie sicher, dass das Schema ein Pfadschema von <validPathSchemesListStr>verwendet.

UC_SERVERLESS_UNTRUSTED_DOMAIN_STORAGE_TOKEN_MINTING

SQLSTATE: 42501

In netzwerkeingeschränkten Arbeitsbereichen ist es serverlosen Python- und Scala-Notizbüchern untersagt, temporäre Speicheranmeldeinformationen aus dem Unity-Katalog abzurufen.

UC_SHALLOW_CLONE_BASE_TABLE_DELETED

SQLSTATE: 42S02

Auf den flachen Klon '<tableFullName>' kann nicht zugegriffen werden, weil die Basistabelle '<baseTableName>' gelöscht wurde.

STORAGE_CREDENTIALSUC__WITH_EXTERNAL_LOCATION_DELETION_DENIED

SQLSTATE: 42893

Die Speicheranmeldeinformationen "<credentialName>" haben <extTablesCount> direkt abhängige externe Tabellen und <extLocationsCount> abhängige Speicherorte. Sie können die Option "Erzwingen" verwenden, um sie zu löschen, aber die verwalteten Speicherdaten, die diese Speicheranmeldeinformationen verwenden, können nicht mehr vom Unity-Katalog gelöscht werden.

STORAGE_CREDENTIALSUC__WITH_EXTERNAL_LOCATION_UPDATE_DENIED

SQLSTATE: 42893

Speicheranmeldeinformationen "<credentialName>" haben <extTablesCount> direkt abhängige externe Tabellen und <extLocationsCount> abhängige Speicherorte. Verwenden Sie die Erzwingungsoption, um trotzdem zu aktualisieren.

UC_STORAGE_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED

SQLSTATE: 22KD1

Fehler beim Parsen der bereitgestellten Zugriffskonnektor-ID: <accessConnectorId>. Überprüfen Sie die Formatierung, und versuchen Sie es erneut.

UC_STORAGE_CREDENTIAL_DBFS_ROOT_CREATION_PERMISSION_DENIED

SQLSTATE: 42501

Die Speicheranmeldeinformationen für den DBFS-Stamm können nicht erstellt werden, da der Benutzer: <userId> nicht der Administrator des Arbeitsbereichs ist: <workspaceId>

UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_DBFS_ENABLED

SQLSTATE: 0AKUC

DBFS-Stammspeicher-Anmeldeinformationen werden für Arbeitsbereiche mit DBFS mit Firewallaktivierung noch nicht unterstützt.

UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_NOT_SUPPORTED

SQLSTATE: 0A000

DBFS-Root-Speicherberechtigungen für den aktuellen Arbeitsbereich werden derzeit nicht unterstützt.

UC_STORAGE_CREDENTIAL_DBFS_ROOT_WORKSPACE_DISABLED

SQLSTATE: 0A000

Der DBFS-Stamm ist für den Arbeitsbereich <workspaceId> nicht aktiviert.

UC_STORAGE_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN

SQLSTATE: 58000

Fehler beim Erhalten eines AAD-Tokens zur Überprüfung der Cloud-Berechtigungen für einen Zugriffskonnektor. Wiederholen Sie die Aktion.

UC_STORAGE_CREDENTIAL_INVALID_CLOUD_PERMISSIONS

SQLSTATE: 42501

Für die Registrierung von Speicheranmeldeinformationen ist die Teilnehmerrolle über den entsprechenden Zugriffsconnector mit ID <accessConnectorId> erforderlich. Wenden Sie sich an Ihren Kontoadministrator.

UC_SPEICHER_CREDENTIAL_METADATENSPEICHER_ROOT_LÖSCHUNG_VERWEIGERT

SQLSTATE: 55000

Speicheranmeldeinformationen '<credentialName>' können nicht gelöscht werden, da sie als Stammanmeldeinformationen dieses Metastores konfiguriert ist. Aktualisieren Sie die Stammanmeldeinformationen des Metastores, bevor Sie den Löschvorgang versuchen.

UC_STORAGE_CREDENTIAL_PERMISSION_DENIED

SQLSTATE: 42501

Nur der Kontoadministrator kann eine Speicheranmeldeinformation mit dem Typ <storageCredentialType>erstellen oder aktualisieren.

UC_STORAGE_CREDENTIAL_SERVICE_PRINCIPAL_MISSING_VALIDATION_TOKEN

SQLSTATE: 42KDI

Fehlendes Überprüfungstoken für den Dienstprinzipal. Geben Sie bitte ein gültiges Entra ID-ARM-Token im Anforderungsheader „X-Databricks-Azure-SP-Management-Token“ an, und wiederholen Sie den Vorgang. Weitere Informationen finden Sie unter https://docs.databricks.com/api/workspace/storagecredentials

UC_STORAGE_CREDENTIAL_TRUST_POLICY_IS_OPEN

SQLSTATE: 22023

Die Vertrauensrichtlinie der IAM-Rolle, um dem Databricks-Konto zu erlauben, die Rolle zu übernehmen, sollte eine externe ID erfordern. Wenden Sie sich an Ihren Kontoadministrator, um die Bedingung für die externe ID hinzuzufügen. Dieses Verhalten dient dazu, das Problem des verwirrten Stellvertreters (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html) zu verhindern.

UC_STORAGE_CREDENTIAL_WASBS_NOT_DBFS_ROOT

SQLSTATE: 22KD1

Der Speicherort <location> befindet sich nicht im DBFS-Stamm, da keine Speicheranmeldeinformationen erstellt werden können. <storageCredentialName>

UC_STORAGE_CREDENTIAL_WORKSPACE_API_PROHIBITED

SQLSTATE: 0AKD1

Das Erstellen oder Aktualisieren von Speicheranmeldeinformationen als Nicht-Kontoadministrator wird in der API auf Kontoebene nicht unterstützt. Verwenden Sie stattdessen die API auf Arbeitsbereichsebene.

UC_STORAGE_CREDENTIAL_WS_BUCKET_INVALID_LOCATION

SQLSTATE: 22KD1

Der Speicherort <requestedLocation> befindet sich nicht innerhalb des zulässigen Kontexts. <allowedLocation>

UC_STORAGE_CREDENTIAL_WS_INTERNAL_CATALOG_NOT_SUPPORTED

SQLSTATE: 56038

Die Katalogspeicher-Anmeldeinformationen für den aktuellen Arbeitsbereich werden noch nicht unterstützt.

UC_SYSTEM_SCHEMA_NICHT_VERFÜGBAR_FÜR_AKTIVIERUNG

SQLSTATE: 57P03

Das Systemschema <systemSchema> ist zurzeit nicht für die Aktivierung verfügbar. Versuchen Sie es später erneut.

UC_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED

SQLSTATE: 22023

Es können keine Berechtigungen für <securableType> an die vom System generierte Gruppe <principal>gewährt werden.

UC_TABLE_IS_LOCKED_FOR_CATALOG_MANAGED_TABLE_MIGRATION

SQLSTATE: 55000

Die Tabelle "<tableId>" ist vorübergehend für eine katalogverwaltete Tabellenmigration gesperrt. Transaktionen in dieser Tabelle werden blockiert, bis die Migration abgeschlossen ist. Versuchen Sie die Transaktion in Kürze erneut.

UC_TABLE_IS_NOT_CATALOG_OWNED

SQLSTATE: 0A000

Die Anforderung zum Ausführen von Commit/getCommits für die Tabelle „<tableId>“ erfordert das Aktivieren des Features „Eigentum des Katalogs“ für die Tabelle.

UC_TAG_ASSIGNMENT_WITH_KEY_DOES_NOT_EXIST

SQLSTATE: 42704

Tagzuweisung mit Tagschlüssel <tagKey> ist nicht vorhanden.

UC_TEMPORARY_CREDENTIAL_OPERATION_NOT_SUPPORTED

SQLSTATE: 0A000

Vorgang mit temporären Anmeldeinformationen wird nicht unterstützt.

UC_UNDROP_RESOURCE_ID_ALREADY_EXISTS

SQLSTATE: 42710

Kann '<resourceType>' nicht wiederherstellen, da bereits ein '<resourceType>' mit der ID '<resourceId>' vorhanden ist.

UC_UNDROP_RESOURCE_NAME_ALREADY_EXISTS

SQLSTATE: 42710

'<resourceType>' kann nicht rückgängig werden, da bereits ein '<resourceType>' mit dem Namen '<resourceName>' vorhanden ist.

UC_UNDROP_RESOURCE_NOT_READY

SQLSTATE: 55000

<resourceType>“ kann nicht wiederhergestellt werden, da „<resourceType>“ mit der ID „<resourceId>“ noch nicht zur Wiederherstellung bereit ist. Bitte versuchen Sie es später erneut.

UC_UNDROP_RESOURCE_PAST_CUSTOM_RETENTION_PERIOD (Ein Zeitraum, der über die benutzerdefinierte Aufbewahrungsfrist hinausgeht)

SQLSTATE: 55019

'<resourceType>' kann nicht rückgängig gemacht werden, da das '<resourceType>' mit der ID '<resourceId>' außerhalb seines benutzerdefinierten Wiederherstellungszeitraums liegt.

UC_UNDROP_RESOURCE_PAST_RECOVERABLE_WINDOW

SQLSTATE: 55019

<resourceType>“ kann nicht wiederhergestellt werden, da „<resourceType>“ mit der ID „<resourceId>“ den unterstützten Wiederherstellungszeitraum von „<maxRestorationPeriodDay>“ Tagen überschreitet.

UC_EINZIGARTIGKEITSBEDINGUNG_KINDERSPALTEN_EXISTIEREN_BEREITS

SQLSTATE: 42891

Fehler beim Erstellen der UNIQUE-Einschränkung <newConstraintName>: Die Tabelle <tableName> hat bereits eine UNIQUE-Einschränkung: <existingConstraintName>, die denselben Satz von untergeordneten Spalten enthält.

UC_UNIQUE_CONSTRAINT_NOT_SUPPORTED

SQLSTATE: 56038

Fehler beim Arbeiten mit UNIQUE Einschränkung <constraintName>: UNIQUE Einschränkung ist nicht aktiviert.

UC_UNSUPPORTED_HTTP_CONNECTION_BASE_PATH

SQLSTATE: 22KD1

Ungültiger Basispfad angegeben, Basispfad sollte etwa "/api/resources/v1" sein. Nicht unterstützter Pfad: <path>

UC_UNSUPPORTED_HTTP_CONNECTION_HOST

SQLSTATE: 22KD1

Ungültiger Hostname angegeben, Hostname sollte ungefähr wie https://www.databricks.com ohne Pfadsuffix sein. Nicht unterstützter Host: <host>

UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH

SQLSTATE: 22KD1

In Pfaden für externe Speicherorte/Volumes/Tabellen werden nur einfache Latin/Latin-1-ASCII-Zeichen unterstützt. Nicht unterstützter Pfad: <path>

UC_UPDATE_FORBIDDEN_FOR_PROVISIONING_SECURABLE

SQLSTATE: 55019

<securableType> '<securableName>' kann nicht aktualisiert werden, da es bereitgestellt wird.

UC_USING_REF_OF_MASKED_COLUMNS

SQLSTATE: 42KDJ

Fehler beim Auswerten der ABAC-Richtlinien für „<resource>“. Fehler bei Meldung: Spalte '<usingCol>' wurde von der ABAC-Richtlinie '<existingMaskingPolicy>' maskiert und kann nicht in der Richtlinie '<policyName>' verwendet werden.

UC_WRITE_CONFLICT

SQLSTATE: 40001

<type> <name> wurde von einer anderen Anforderung geändert. Versuchen Sie den Vorgang erneut.

UNDROP_TABLE_NOT_FOUND

SQLSTATE: 42704

Tabelle kann nicht rückgängig werden, da keine Tabelle mit Namen <tableFullName> für "Rückgängigmachen" qualifiziert ist. Diese Tabelle kann bereits abgeschnitten, über den maximalen Wiederherstellungszeitraum hinaus gelöscht oder nie vorhanden sein.

UNITY_CATALOG_EXTERNAL_COORDINATED_COMMITS_REQUEST_DENIED

SQLSTATE: 42517

Die Anforderung, Commit/getCommits für die Tabelle "<tableId>" außerhalb der Databricks Unity Catalog-aktivierten Umgebung auszuführen, wird aus Sicherheitsgründen verweigert. Wenden Sie sich an den Databricks-Support für Integrationen in Unity-Katalog.

UNITY_CATALOG_EXTERNAL_CREATE_STAGING_TABLE_REQUEST_DENIED

SQLSTATE: 42517

Die Anforderung zum Erstellen der Staging-Tabelle "<tableFullName>" außerhalb der Databricks Unity Catalog-aktivierten Compute-Umgebung wird aus Sicherheitsgründen verweigert. Wenden Sie sich an den Databricks-Support für Integrationen in Unity-Katalog.

COLUMN_MASKSUNITY_CATALOG_EXTERNAL_CREATE_TABLE_FAILED_VALIDATION__DEFINED

SQLSTATE: 42517

Die Anforderung zum Erstellen einer Tabelle "<tableFullName>" außerhalb von Databricks Unity Catalog aktivierter Computeumgebung wird verweigert. Spaltenmasken werden beim externen Erstellen von Tabellen nicht unterstützt.

UNITY_CATALOG_EXTERNAL_CREATE_TABLE_FEHLGESCHLAGENE_VALIDIERUNG_DATENQUELLENFORMAT_NICHT_DELTA

SQLSTATE: 42517

Die Anforderung zum Erstellen einer Tabelle "<tableFullName>" außerhalb von Databricks Unity Catalog aktivierter Computeumgebung wird verweigert. Das Datenquellenformat muss sein DELTA , eine Tabelle extern zu erstellen, sondern es lautet "<dataSourceFormat>".

UNITY_CATALOG_EXTERNAL_CREATE_TABLE_FAILED_VALIDATION_TABLE_TYPE_NOT_EXTERNAL (Fehler: Tabellentyp ist nicht externer Typ)

SQLSTATE: 42517

Die Anforderung zum Erstellen einer Tabelle "<tableFullName>" außerhalb von Databricks Unity Catalog aktivierter Computeumgebung wird verweigert. Der Tabellentyp muss EXTERNAL sein, um eine Tabelle extern zu erstellen, aber er ist stattdessen "<tableType>".

UNITY_CATALOG_EXTERNAL_CREATE_TABLE_INFO_ENTHÄLT_UNGÜLTIGE_FELDER

SQLSTATE: 22023

Die Erstellung externer Tabellen ermöglicht nur die folgenden Felder: [Name, catalog_name, schema_name, table_type, data_source_format, Spalten, storage_location und Eigenschaften].

UNITY_CATALOG_EXTERNAL_CREATE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED

SQLSTATE: 42517

Die Anforderung zum Erstellen einer nicht externen Tabelle "<tableFullName>" von außerhalb einer Databricks Unity Catalog aktivierten Compute-Umgebung wird aus Sicherheitsgründen verweigert. Wenden Sie sich an den Databricks-Support für Integrationen in Unity-Katalog.

UNITY_CATALOG_EXTERNAL_DELETE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED

SQLSTATE: 42517

Die Anforderung zum Löschen einer nicht externen Tabelle „<tableFullName>“ außerhalb des Unity-Katalogs mit aktivierter Compute-Umgebung wird nicht unterstützt.

UNITY_CATALOG_EXTERNAL_GENERATE_PATH_CREDENTIALS_DENIED

SQLSTATE: 42517

Die Anforderung zum Generieren von Zugriffsanmeldeinformationen für den Pfad "<path>" aus einer Umgebung außerhalb der durch den Databricks Unity Catalog aktivierten Compute-Umgebung wird aus Sicherheitsgründen abgelehnt. Wenden Sie sich an den Databricks-Support für Integrationen in Unity-Katalog.

UNITY_CATALOG_EXTERNAL_GENERATE_TABLE_CREDENTIALS_DENIED

SQLSTATE: 42517

Die Anforderung, um Zugriffsanmeldeinformationen für die Tabelle "<tableId>" von außerhalb einer durch den Databricks Unity-Katalog aktivierten Compute-Umgebung zu generieren, wird aus Sicherheitsgründen verweigert. Wenden Sie sich an den Databricks-Support für Integrationen in Unity-Katalog.

UNITY_CATALOG_EXTERNAL_GENERATE_TEMP_PATH_CRED_FAILED_VALIDATION_CREDENTIAL_ID_DEFINED - Die vom System angegebene Anmeldeinformationen konnten nicht überprüft werden.

SQLSTATE: 42517

Die Anforderung zum Erstellen temporärer Zugangsdaten für Pfade von außerhalb der Databricks Unity-Katalog-fähigen Rechenumgebung wird abgelehnt. Die Anmeldeinformations-ID darf beim externen Generieren temporärer Pfadanmeldeinformationen nicht definiert werden.

UNITY_KATALOG_EXTERN_ERZEUGEN_TEMPORÄRER_PFAD_CRED_FEHLGESCHLAGENE_VALIDIERUNG_NUR_ELTERNPFAD_DEFINIERT

SQLSTATE: 42517

Die Anforderung zum Erstellen temporärer Zugangsdaten für Pfade von außerhalb der Databricks Unity-Katalog-fähigen Rechenumgebung wird abgelehnt. make_path_only_parent darf beim externen Generieren temporärer Pfadanmeldeinformationen nicht definiert werden.

UNITY_CATALOG_EXTERNAL_GENERATE_VOLUME_CREDENTIALS_DENIED

SQLSTATE: 42517

Die Anforderung zum Generieren von Zugriffsanmeldeinformationen für das Volume "<volumeId>" von außerhalb des Databricks Unity-Katalogs aktivierten Computeumgebung wird zur Sicherheit verweigert. Wenden Sie sich an den Databricks-Support für Integrationen in Unity-Katalog.

UNITY_CATALOG_EXTERNAL_GENERATE_VOLUME_CREDENTIALS_FOR_SECURABLE_KIND_NOT_SUPPORTED

SQLSTATE: 0AKUC

Die Anforderung zum Generieren von Zugriffsanmeldeinformationen für "<volumeSecurableKind>" außerhalb des Databricks-Unity-Katalogs aktivierter Computeumgebung wird zur Sicherheit verweigert. Wenden Sie sich an den Databricks-Support für Integrationen in Unity-Katalog.

UNITY_CATALOG_EXTERNAL_GET_FOREIGN_CREDENTIALS_DENIED

SQLSTATE: 42517

Die Anforderung, fremde Anmeldeinformationen für sicherungsfähige Objekte von außerhalb der Databricks Unity Catalog-aktivierten Compute-Umgebung abzurufen, wird aus Sicherheitsgründen verweigert.

UNITY_CATALOG_EXTERNAL_UPDATA_METADATA_SNAPSHOT_DENIED

SQLSTATE: 42517

Die Anforderung, Metadaten-Schnappschüsse von außerhalb der durch Databricks Unity Catalog aktivierten Compute-Umgebung zu aktualisieren, wird aus Sicherheitsgründen verweigert.

Nicht unterstütztes Standort-Schema

SQLSTATE: 22KD1

<fieldName> hat ein ungültiges URI-Schema <scheme>. Gültige URI-Schemas umfassen <validSchemes>. Ungültiger Pfad: <path>.

UPDATE_SYSTEM_TABLE

SQLSTATE: 42501

Systemeigene Tabelle kann nicht geändert werden. Tabelle '<tableName>' ist eine systemeigene Tabelle.

WRITE_CREDENTIALS_NOT_SUPPORTED_FOR_LEGACY_MANAGED_ONLINE_TABLE

SQLSTATE: 0AKUC

Ungültige Anforderung zum Abrufen von Schreibberechtigungen für die verwaltete Onlinetabelle in einem Onlinekatalog.

Datei-API

FILES_API_API_IS_NOT_ENABLED

SQLSTATE: nicht zugewiesen

<api_name> API ist nicht aktiviert

FILES_API_API_IS_NOT_ENABLED_FOR_CLOUD_PATHS

SQLSTATE: nicht zugewiesen

Die angeforderte Methode der Datei-API wird für Cloudpfade nicht unterstützt.

FILES_API_AWS_ACCESS_DENIED

SQLSTATE: nicht zugewiesen

Der Zugriff auf den Speicher-Bucket wird von AWS verweigert.

FILES_API_AWS_ALL_ACCESS_DISABLED

SQLSTATE: nicht zugewiesen

Der gesamte Zugriff auf den Speicher-Bucket wurde in AWS deaktiviert.

FILES_API_AWS_BUCKET_DOES_NOT_EXIST

SQLSTATE: nicht zugewiesen

Der Speicher-Bucket ist in AWS nicht vorhanden.

FILES_API_AWS_FORBIDDEN

SQLSTATE: nicht zugewiesen

Der Zugriff auf den Speicher-Bucket ist von AWS verboten.

FILES_API_AWS_INVALID_AUTHORIZATION_HEADER

SQLSTATE: nicht zugewiesen

Der Arbeitsbereich ist falsch konfiguriert: Er muss sich in derselben Region wie der AWS-Arbeitsbereich-Stammspeicher-Bucket befinden.

FILES_API_AWS_INVALID_BUCKET_NAME

SQLSTATE: nicht zugewiesen

Der Speicher-Bucketname ist ungültig.

FILES_API_AWS_KMS_KEY_DISABLED

SQLSTATE: nicht zugewiesen

Die konfigurierten KMS-Schlüssel für den Zugriff auf den Speicher-Bucket sind in AWS deaktiviert.

FILES_API_AWS_UNAUTHORIZED

SQLSTATE: nicht zugewiesen

Der Zugriff auf AWS-Ressource ist nicht autorisiert.

FILES_API_AZURE_ACCOUNT_IS_DISABLED

SQLSTATE: nicht zugewiesen

Das Speicherkonto ist in Azure deaktiviert.

FILES_API_AZURE_AUTHORIZATION_PERMISSION_MISMATCH

SQLSTATE: nicht zugewiesen

Fehlende Übereinstimmung bei der Autorisierungsberechtigung.

FILES_API_AZURE_CMK_NOT_FOUND

SQLSTATE: nicht zugewiesen

Der verwaltete Verschlüsselungsschlüssel kann nicht gefunden werden.

FILES_API_AZURE_CMK_SOFT_DELETED

SQLSTATE: nicht zugewiesen

Der verwaltete Verschlüsselungsschlüssel wurde vorläufig gelöscht.

FILES_API_AZURE_CONTAINER_DOES_NOT_EXIST

SQLSTATE: nicht zugewiesen

Der Azure-Container ist nicht vorhanden.

FILES_API_AZURE_CREDENTIAL_NOT_FOUND

SQLSTATE: nicht zugewiesen

Azure-Anmeldeinformationen wurden nicht gefunden. Die Azure-Anmeldeinformationen könnten fehlen oder unzugänglich sein.

FILES_API_AZURE_FORBIDDEN

SQLSTATE: nicht zugewiesen

Der Zugriff auf den Speichercontainer ist von Azure verboten.

FILES_API_AZURE_HAS_A_LEASE

SQLSTATE: nicht zugewiesen

Azure hat geantwortet, dass es derzeit eine Lease für die Ressource gibt. Versuchen Sie es später erneut.

FILES_API_AZURE_INSUFFICIENT_ACCOUNT_PERMISSION

SQLSTATE: nicht zugewiesen

Das Konto, auf das zugegriffen wird, verfügt nicht über ausreichende Berechtigungen, um diesen Vorgang auszuführen.

FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_CONFIGURATION

SQLSTATE: nicht zugewiesen

Die Konfiguration des Kontos, auf das zugegriffen wird, wird nicht unterstützt.

FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_NAME

SQLSTATE: nicht zugewiesen

Auf das Speicherkonto in Azure kann nicht zugegriffen werden: Ungültiger Speicherkontoname.

FILES_API_AZURE_KEY_BASED_AUTHENTICATION_NOT_PERMITTED

SQLSTATE: nicht zugewiesen

Der Schlüsseltresor wird in Azure nicht gefunden. Überprüfen Sie die Einstellungen für vom Kunden verwaltete Schlüssel.

FILES_API_AZURE_KEY_VAULT_KEY_NOT_FOUND

SQLSTATE: nicht zugewiesen

Der Azure Key Vault-Schlüssel wurde in Azure nicht gefunden. Überprüfen Sie die Einstellungen für vom Kunden verwaltete Schlüssel.

FILES_API_AZURE_KEY_VAULT_VAULT_NOT_FOUND

SQLSTATE: nicht zugewiesen

Der Schlüsseltresor wird in Azure nicht gefunden. Überprüfen Sie die Einstellungen für vom Kunden verwaltete Schlüssel.

FILES_API_AZURE_MI_ACCESS_CONNECTOR_NOT_FOUND

SQLSTATE: nicht zugewiesen

Anmeldeinformationen für verwaltete Azure-Identität mit Zugriffsconnector nicht gefunden. Dies könnte darauf zurückzuführen sein, dass die IP-Zugriffskontrollen Ihre Anforderung abgelehnt haben.

FILES_API_AZURE_OPERATION_TIMEOUT

SQLSTATE: nicht zugewiesen

Der Vorgang konnte nicht innerhalb der zulässigen Zeit abgeschlossen werden.

FILES_API_AZURE_PATH_INVALID

SQLSTATE: nicht zugewiesen

Der angeforderte Pfad ist für Azure ungültig.

FILES_API_AZURE_PATH_IS_IMMUTABLE

SQLSTATE: nicht zugewiesen

Der angeforderte Pfad ist unveränderlich.

FILES_API_AZURE_UNSUPPORTED_HEADER

SQLSTATE: nicht zugewiesen

Einer der im Vorgang angegebenen Header wird nicht unterstützt.

FILES_API_CANNOT_PARSE_URL_PARAMETER

SQLSTATE: nicht zugewiesen

Der URL-Parameter kann nicht analysiert werden.

FILES_API_CATALOG_NOT_FOUND

SQLSTATE: nicht zugewiesen

<unity_catalog_error_message>

FILES_API_CLOUD_RESOURCE_EXHAUSTED

SQLSTATE: nicht zugewiesen

<message>

FILES_API_CLOUD_STORAGE_PROVIDER_CONNECTION_ISSUE

SQLSTATE: nicht zugewiesen

Es liegt ein Verbindungsproblem vor, das <cloud_storage_provider> erreicht. Versuchen Sie es später erneut.

FILES_API_COLON_IS_NOT_SUPPORTED_IN_PATH

SQLSTATE: nicht zugewiesen

Das Zeichen „:“ wird in Pfaden nicht unterstützt.

FILES_API_CONSUMER_NETWORK_ZONE_NOT_ALLOWED

SQLSTATE: nicht zugewiesen

Die Consumer-Netzwerkzone „<consumer_network_zone>“ ist von der Netzwerkzone „<requester_network_zone>“ des Anforderernetzwerks nicht zulässig.

FILES_API_CONTROL_PLANE_NETWORK_ZONE_NOT_ALLOWED

SQLSTATE: nicht zugewiesen

Netzwerkzone der Databricks-Steuerungsebene nicht zulässig.

FILES_API_ZUGANGSDATEN_NICHT_GEFUNDEN

SQLSTATE: nicht zugewiesen

Die Anmeldeinformationen wurden nicht gefunden.

FILES_API_DIRECTORIES_CANNOT_HAVE_BODIES

SQLSTATE: nicht zugewiesen

Ein Textkörper wurde bereitgestellt, Verzeichnisse können jedoch keinen Dateiinhalt haben.

FILES_API_DIRECTORY_IS_NOT_EMPTY

SQLSTATE: nicht zugewiesen

Das Verzeichnis ist nicht leer. Dieser Vorgang wird für nicht leere Verzeichnisse nicht unterstützt.

FILES_API_DIRECTORY_IS_NOT_FOUND

SQLSTATE: nicht zugewiesen

Das Verzeichnis, auf das zugegriffen werden soll, wurde nicht gefunden.

DATEIEN_API_VERZEICHNIS_ZIP_DOWNLOAD_DATEIGRENZE_ÜBERSCHRITTEN

SQLSTATE: nicht zugewiesen

Verzeichnis enthält zu viele Dateien zum ZIP-Download. Maximal <max_file_count> Dateien erlaubt.

FILES_API_DMK_ENCRYPTION_ROOT_KEY_DISABLED

SQLSTATE: nicht zugewiesen

Der Stammschlüssel für die vom Kunden verwaltete Verschlüsselung ist deaktiviert.

FILES_API_DUPLICATED_HEADER

SQLSTATE: nicht zugewiesen

Die Anforderung enthielt mehrere Kopien eines Headers, der nur einmal zulässig ist.

FILES_API_DUPLICATE_QUERY_PARAMETER

SQLSTATE: nicht zugewiesen

Der Abfrageparameter '<parameter_name>' muss genau einmal vorhanden sein, wurde aber mehrmals bereitgestellt.

FILES_API_EMPTY_BUCKET_NAME

SQLSTATE: nicht zugewiesen

Der DbFS-Bucketname ist leer.

FILES_API_ENCRYPTION_KEY_PERMISSION_DENIED

SQLSTATE: nicht zugewiesen

Der Benutzer hat keinen Zugriff auf den Verschlüsselungsschlüssel.

FILES_API_ENCRYPTION_KEY_RETRIEVAL_OPERATION_TIMEOUT

SQLSTATE: nicht zugewiesen

Der Vorgang zum Abrufen des Verschlüsselungsschlüssels konnte nicht innerhalb des zulässigen Zeitraums abgeschlossen werden.

FILES_API_ENTITY_TOO_LARGE

SQLSTATE: nicht zugewiesen

Ihr Objekt überschreitet die maximal zulässige Objektgröße.

FILES_API_ERROR_EXPIRED_TTL

SQLSTATE: nicht zugewiesen

Die TTL ist abgelaufen.

FILES_API_ERROR_INVALID_TTL

SQLSTATE: nicht zugewiesen

Die TTL ist ungültig.

FILES_API_ERROR_KEY_FOR_WORKSPACE_IS_NOT_FOUND

SQLSTATE: nicht zugewiesen

Der Schlüssel für den Arbeitsbereich wurde nicht gefunden.

FILES_API_ERROR_MISSING_REQUIRED_PARAM

SQLSTATE: nicht zugewiesen

Der URL fehlt ein erforderlicher Parameter.

FILES_API_ERROR_TTL_IN_THE_FUTURE

SQLSTATE: nicht zugewiesen

TTL liegt in der Zukunft.

FILES_API_ERROR_URL_INVALID_ISSUER_SHARD_NAME

SQLSTATE: nicht zugewiesen

Der Herausgeber-Shard-Name ist ungültig.

FILES_API_EXPIRATION_TIME_MUST_BE_PRESENT

SQLSTATE: nicht zugewiesen

Ablaufzeit muss vorhanden sein

FILES_API_EXPIRED_TOKEN

SQLSTATE: nicht zugewiesen

Das bereitgestellte Token ist abgelaufen.

FILES_API_EXPIRE_TIME_MUST_BE_IN_THE_FUTURE

SQLSTATE: nicht zugewiesen

„ExpireTime“ muss in der Zukunft liegen.

FILES_API_EXPIRE_TIME_TOO_FAR_IN_FUTURE

SQLSTATE: nicht zugewiesen

Die angeforderte TTL überschreitet die unterstützte Dauer (1 Stunde).

FILES_API_EXTERNAL_LOCATION_PATH_OVERLAP_OTHER_UC_STORAGE_ENTITY

SQLSTATE: nicht zugewiesen

<unity_catalog_error_message>

FILES_API_FILE_ALREADY_EXISTS

SQLSTATE: nicht zugewiesen

Die erstellte Datei ist bereits vorhanden.

FILES_API_FILE_NOT_FOUND

SQLSTATE: nicht zugewiesen

Die zugegriffene Datei wurde nicht gefunden.

FILES_API_FILE_OR_DIRECTORY_ENDS_IN_DOT

SQLSTATE: nicht zugewiesen

Dateien oder Verzeichnisse, die auf dem Zeichen "." enden, werden nicht unterstützt.

FILES_API_FILE_SIZE_EXCEEDED

SQLSTATE: nicht zugewiesen

Die Dateigröße sollte <max_download_size_in_bytes> Bytes nicht überschreiten, aber <size_in_bytes> Bytes wurden gefunden.

FILES_API_GCP_ACCOUNT_IS_DISABLED

SQLSTATE: nicht zugewiesen

Der Zugriff auf den Speicher-Bucket wurde in GCP deaktiviert.

FILES_API_GCP_BUCKET_DOES_NOT_EXIST

SQLSTATE: nicht zugewiesen

Der Speicher-Bucket ist in GCP nicht vorhanden.

FILES_API_GCP_FORBIDDEN

SQLSTATE: nicht zugewiesen

Der Zugriff auf den Bucket ist von GCP verboten.

FILES_API_GCP_IAM_AUTHENTICATION_FAILURE

SQLSTATE: nicht zugewiesen

Fehler bei der Authentifizierung für den GCP IAM-Vorgang.

FILES_API_GCP_IAM_CREDENTIALS_NOT_FOUND

SQLSTATE: nicht zugewiesen

Die angegebenen GCP-Anmeldeinformationen sind nicht vorhanden oder können nicht aufgerufen werden.

FILES_API_GCP_IAM_PERMISSION_DENIED

SQLSTATE: nicht zugewiesen

Berechtigung verweigert für GCP IAM-Vorgang.

FILES_API_GCP_KEY_DELETED

SQLSTATE: nicht zugewiesen

Der Verschlüsselungsschlüssel wurde gelöscht oder ist nicht mehr zugänglich.

FILES_API_GCP_KEY_DISABLED_OR_DESTROYED

SQLSTATE: nicht zugewiesen

Der für diesen Speicherort konfigurierte vom Kunden verwaltete Verschlüsselungsschlüssel ist entweder deaktiviert oder zerstört.

FILES_API_GCP_REQUEST_IS_PROHIBITED_BY_POLICY

SQLSTATE: nicht zugewiesen

Die GCP-Anforderungen an den Bucket sind per Richtlinie verboten, prüfen Sie die VPC-Dienststeuerungen.

FILES_API_GCP_USER_PROJECT_ACCOUNT_PROBLEM

SQLSTATE: nicht zugewiesen

Es besteht ein Problem mit dem in der Anforderung verwendeten GCP-Projekt, das verhindert, dass der Vorgang erfolgreich abgeschlossen wird.

FILES_API_HOST_TEMPORARILY_NOT_AVAILABLE

SQLSTATE: nicht zugewiesen

Cloudanbieterhost ist vorübergehend nicht verfügbar; versuchen Sie es später erneut.

DATEIEN_API_UNGÜLTIGE_INHALTSLÄNGE

SQLSTATE: nicht zugewiesen

Der Wert des Content-Length-Headers muss eine ganze Zahl sein, die größer oder gleich 0 ist.

FILES_API_INVALID_CONTINUATION_TOKEN

SQLSTATE: nicht zugewiesen

Das bereitgestellte Seitentoken ist ungültig.

FILES_API_INVALID_HEADER_VALUE

SQLSTATE: nicht zugewiesen

Der Wert der Kopfzeile '<header_name>' ist ungültig.

FILES_API_INVALID_HOSTNAME

SQLSTATE: nicht zugewiesen

Der Hostname ist ungültig.

FILES_API_INVALID_HTTP_METHOD

SQLSTATE: nicht zugewiesen

Ungültige HTTP-Methode. „<expected>“ erwartet, aber „<actual>“ erhalten.

FILES_API_INVALID_METASTORE_ID_HEADER

SQLSTATE: nicht zugewiesen

Der Metastore-ID-Header ist ungültig.

FILES_API_INVALID_PAGE_TOKEN

SQLSTATE: nicht zugewiesen

Ungültiges Seitentoken

FILES_API_INVALID_PATH

SQLSTATE: nicht zugewiesen

Ungültiger Pfad: <validation_error>

FILES_API_INVALID_RANGE

SQLSTATE: nicht zugewiesen

Der Range-Header ist ungültig.

FILES_API_INVALID_RESOURCE_FULL_NAME

SQLSTATE: nicht zugewiesen

<unity_catalog_error_message>

FILES_API_INVALID_SESSION_TOKEN

SQLSTATE: nicht zugewiesen

Ungültiges Sitzungstoken

FILES_API_INVALID_SESSION_TOKEN_TYPE

SQLSTATE: nicht zugewiesen

Ungültiger Sitzungstokentyp. „<expected>“ erwartet, aber „<actual>“ erhalten.

FILES_API_INVALID_TIMESTAMP

SQLSTATE: nicht zugewiesen

Der Zeitstempel ist ungültig.

FILES_API_INVALID_UPLOAD_TYPE

SQLSTATE: nicht zugewiesen

Ungültiger Uploadtyp. „<expected>“ erwartet, aber „<actual>“ erhalten.

FILES_API_INVALID_URL

SQLSTATE: nicht zugewiesen

Ungültige URL

FILES_API_INVALID_URL_PARAMETER

SQLSTATE: nicht zugewiesen

Die als Parameter übergebene URL ist ungültig.

FILES_API_INVALID_VALUE_FOR_OVERWRITE_QUERY_PARAMETER

SQLSTATE: nicht zugewiesen

Der Abfrageparameter „overwrite“ muss „true“ oder „false“ sein, aber war: <got_values>

FILES_API_INVALID_VALUE_FOR_QUERY_PARAMETER

SQLSTATE: nicht zugewiesen

Der Abfrageparameter '<parameter_name>' muss einer der folgenden sein: <expected>, war jedoch: <actual>.

FILES_API_MALFORMED_REQUEST_BODY

SQLSTATE: nicht zugewiesen

Falsch formatierter Anforderungstext

FILES_API_MANAGED_CATALOG_FEATURE_DISABLED

SQLSTATE: nicht zugewiesen

<unity_catalog_error_message>

FILES_API_METASTORE_NOT_FOUND

SQLSTATE: nicht zugewiesen

<unity_catalog_error_message>

FILES_API_METHOD_IS_NOT_ENABLED_FOR_JOBS_BACKGROUND_COMPUTE_ARTIFACT_STORAGE

SQLSTATE: nicht zugewiesen

Die angeforderte Methode der Dateien-API wird für Artefaktspeicher für Hintergrundberechnungen von Aufträgen nicht unterstützt.

FILES_API_MISSING_CONTENT_LENGTH

SQLSTATE: nicht zugewiesen

Der Header „content-length“ ist in der Anforderung erforderlich.

FILES_API_MISSING_QUERY_PARAMETER

SQLSTATE: nicht zugewiesen

Der Abfrageparameter '<parameter_name>' ist erforderlich, fehlt aber in der Anforderung.

FILES_API_MISSING_REQUIRED_PARAMETER_IN_REQUEST

SQLSTATE: nicht zugewiesen

Bei der Anforderung fehlt ein erforderlicher Parameter.

FILES_API_MLFLOW_PERMISSION_DENIED

SQLSTATE: nicht zugewiesen

<mlflow_error_message>

FILES_API_MLFLOW_RESOURCE_EXHAUSTED

SQLSTATE: nicht zugewiesen

Die Anforderungsgrenze beim Kontakt mit dem mlflow-Dienst wurde überschritten.

FILES_API_MODEL_VERSION_IS_NOT_READY

SQLSTATE: nicht zugewiesen

Modellversion ist noch nicht bereit

FILES_API_MULTIPART_UPLOAD_ABORT_PRESIGNED_URL_NOT_SUPPORTED

SQLSTATE: nicht zugewiesen

Vorsignierte URLs für das Abbrechen von mehrteiligen Uploads werden für Dateien, die auf <cloud_storage_provider> gespeichert sind, nicht unterstützt.

FILES_API_MULTIPART_UPLOAD_ABORT_UPLOAD_NOT_SUPPORTED

SQLSTATE: nicht zugewiesen

Das Abbrechen von mehrteiligen Uploads wird für dateien, die auf <cloud_storage_provider>gespeichert sind, nicht unterstützt.

FILES_API_MULTIPART_UPLOAD_EMPTY_PART_LIST

SQLSTATE: nicht zugewiesen

Die Liste der Teile muss mindestens ein Element aufweisen, war aber leer.

FILES_API_MULTIPART_UPLOAD_INVALID_PART

SQLSTATE: nicht zugewiesen

Mindestens eine der angegebenen Teile konnte nicht gefunden werden. Das Element wurde möglicherweise nicht hochgeladen, oder das angegebene Entity-Tag stimmt nicht mit dem Entity-Tag des Elements überein.

FILES_API_MULTIPART_UPLOAD_INVALID_PART_NUMBER

SQLSTATE: nicht zugewiesen

Teilenummern müssen größer oder gleich <min> und kleiner als oder gleich sein <max>.

FILES_API_MULTIPART_UPLOAD_MISSING_ETAG

SQLSTATE: nicht zugewiesen

ETags müssen für Dateien zur Verfügung gestellt werden, die auf <cloud_storage_provider> gespeichert sind. Mindestens ein ETag wurde nicht bereitgestellt oder leer.

FILES_API_MULTIPART_UPLOAD_MODIFIED_STORAGE_ENTITY_STATE

SQLSTATE: nicht zugewiesen

Der interne Status der Speicherentität wurde seit dem Initiieren des Uploads geändert, z. B. weil der Dateipfad nicht auf denselben zugrunde liegenden Cloudspeicherort verweist. Fahren Sie fort, indem Sie eine neue Uploadsitzung initiieren.

FILES_API_MULTIPART_UPLOAD_NON_TRAILING_PARTS_WITH_DIFFERENT_SIZES

SQLSTATE: nicht zugewiesen

Die Teile, die als Teil einer Sitzung für Mehrfach-Uploads hochgeladen werden, müssen für auf <cloud_storage_provider> gespeicherte Dateien dieselbe Größe aufweisen, mit Ausnahme des letzten Teils, der kleiner sein kann.

FILES_API_MULTIPART_UPLOAD_PART_SIZE_OUT_OF_RANGE

SQLSTATE: nicht zugewiesen

Die Größe der teile, die als Teil einer mehrteiligen Uploadsitzung hochgeladen wurden, muss größer oder gleich <min> und kleiner als oder gleich sein <max>.

FILES_API_MULTIPART_UPLOAD_SESSION_NOT_FOUND

SQLSTATE: nicht zugewiesen

Die Uploadsitzung wurde nicht gefunden. Möglicherweise wurde sie abgebrochen oder abgeschlossen.

FILES_API_MULTIPART_UPLOAD_UNORDERED_PART_LIST

SQLSTATE: nicht zugewiesen

Die Liste von Teilen muss nach der Teilenummer sortiert werden, war aber ungeordnet.

FILES_API_NON_ZERO_CONTENT_LENGTH

SQLSTATE: nicht zugewiesen

Der Content-Length-Header muss für diese Anforderung 0 sein.

FILES_API_NOT_ENABLED_FOR_PLACE

SQLSTATE: nicht zugewiesen

Die Datei-API für <place> ist für diesen Arbeitsbereich/dieses Konto nicht aktiviert.

FILES_API_NOT_SUPPORTED_FOR_INTERNAL_WORKSPACE_STORAGE

SQLSTATE: nicht zugewiesen

Die angeforderte Methode der Datei-API wird für den internen Arbeitsbereichspeicher nicht unterstützt.

FILES_API_OPERATION_MUST_BE_PRESENT

SQLSTATE: nicht zugewiesen

Vorgang muss vorhanden sein.

FILES_API_OPERATION_TIMEOUT

SQLSTATE: nicht zugewiesen

Beim Vorgang ist ein Timeout aufgetreten.

FILES_API_PAGE_SIZE_MUST_BE_GREATER_OR_EQUAL_TO_ZERO

SQLSTATE: nicht zugewiesen

page_size muss größer oder gleich 0 sein.

DATEIEN_API_PFADBASIERTER_ZUGRIFF_AUF_TABELLE_MIT_FILTER_NICHT_ERLAUBT

SQLSTATE: nicht zugewiesen

<unity_catalog_error_message>

FILES_API_PATH_END_WITH_A_SLASH

SQLSTATE: nicht zugewiesen

Pfade, die auf dem Zeichen "/" enden, stellen Verzeichnisse dar. Diese API unterstützt keine Vorgänge in Verzeichnissen.

FILES_API_PATH_IS_A_DIRECTORY

SQLSTATE: nicht zugewiesen

Der angegebene Pfad verweist auf ein vorhandenes Verzeichnis. Diese API unterstützt keine Vorgänge in Verzeichnissen.

FILES_API_PATH_IS_A_FILE

SQLSTATE: nicht zugewiesen

Der angegebene Pfad verweist auf eine vorhandene Datei. Diese API unterstützt keine Vorgänge für Dateien.

FILES_API_PATH_IS_NOT_A_VALID_UTF8_ENCODED_URL

SQLSTATE: nicht zugewiesen

Der angegebene Pfad war keine gültige UTF-8-codierte URL.

FILES_API_PATH_IS_NOT_ENABLED_FOR_DATAPLANE_PROXY

SQLSTATE: nicht zugewiesen

Der angegebene Pfad ist für den Datenebenenproxy nicht aktiviert.

FILES_API_PATH_MUST_BE_PRESENT

SQLSTATE: nicht zugewiesen

Pfad muss vorhanden sein.

FILES_API_PATH_NOT_SUPPORTED

SQLSTATE: nicht zugewiesen

<rejection_message>

FILES_API_PATH_TOO_LONG

SQLSTATE: nicht zugewiesen

Der bereitgestellte Dateipfad ist zu lang.

FILES_API_PRECONDITION_FAILED

SQLSTATE: nicht zugewiesen

Die Anforderung konnte aufgrund einer Vorbedingung nicht ausgeführt werden.

FILES_API_PRESIGNED_URLS_FOR_MODELS_NOT_SUPPORTED

SQLSTATE: nicht zugewiesen

Die Datei-API für vorsignierte URLs für Modelle wird derzeit nicht unterstützt.

FILES_API_R2_CREDENTIALS_DISABLED

SQLSTATE: nicht zugewiesen

R2 wird derzeit nicht unterstützt.

FILES_API_RANGE_NOT_SATISFIABLE

SQLSTATE: nicht zugewiesen

Der angeforderte Bereich ist nicht zufriedenstellend.

FILES_API_RECURSIVE_LIST_IS_NOT_SUPPORTED

SQLSTATE: nicht zugewiesen

Rekursives Auflisten von Dateien wird nicht unterstützt.

FILES_API_REQUESTER_NETWORK_ZONE_UNKNOWN

SQLSTATE: nicht zugewiesen

Die Netzwerkzone des Anforderers kann nicht abgeleitet werden.

FILES_API_REQUEST_GOT_ROUTED_INCORRECTLY

SQLSTATE: nicht zugewiesen

Anforderung wurde falsch weitergeleitet

FILES_API_REQUEST_MUST_INCLUDE_ACCOUNT_INFORMATION

SQLSTATE: nicht zugewiesen

Anforderung muss Kontoinformationen enthalten

FILES_API_ANFRAGE_MUSS_EMPFÄNGERINFORMATIONEN_ENTHALTEN

SQLSTATE: nicht zugewiesen

Die Anforderung muss Empfängerinformationen enthalten.

FILES_API_REQUEST_MUST_INCLUDE_USER_INFORMATION

SQLSTATE: nicht zugewiesen

Anforderung muss Benutzerinformationen enthalten

FILES_API_REQUEST_MUST_INCLUDE_WORKSPACE_INFORMATION

SQLSTATE: nicht zugewiesen

Anforderung muss Arbeitsbereichsinformationen enthalten

FILES_API_RESOURCE_IS_READONLY

SQLSTATE: nicht zugewiesen

Ressource ist schreibgeschützt.

FILES_API_RESOURCE_NOT_FOUND

SQLSTATE: nicht zugewiesen

<unity_catalog_error_message>

FILES_API_SCHEMA_NOT_FOUND

SQLSTATE: nicht zugewiesen

<unity_catalog_error_message>

FILES_API_SECURE_URL_CANT_BE_ACCESSED

SQLSTATE: nicht zugewiesen

Auf die URL kann nicht zugegriffen werden.

FILES_API_SIGNATURE_VERIFICATION_FAILED

SQLSTATE: nicht zugewiesen

Fehler bei der Signaturüberprüfung.

FILES_API_STORAGE_ACCESS_CONTEXT_INVALID

SQLSTATE: nicht zugewiesen

Der Speicherzugriffskontext ist ungültig.

FILES_API_STORAGE_CONTEXT_IS_NOT_SET

SQLSTATE: nicht zugewiesen

Auf die Speicherkonfiguration für diesen Arbeitsbereich kann nicht zugegriffen werden.

FILES_API_STORAGE_CREDENTIAL_NOT_FOUND

SQLSTATE: nicht zugewiesen

<unity_catalog_error_message>

FILES_API_TABLE_TYPE_NOT_SUPPORTED

SQLSTATE: nicht zugewiesen

Die Datei-API wird für <table_type> nicht unterstützt.

FILES_API_UC_AUTHENTICATION_FAILURE

SQLSTATE: nicht zugewiesen

<unity_catalog_error_message>

FILES_API_UC_IAM_ROLE_NON_SELF_ASSUMING

SQLSTATE: nicht zugewiesen

<unity_catalog_error_message>

FILES_API_UC_MODEL_INVALID_STATE

SQLSTATE: nicht zugewiesen

<unity_catalog_error_message>

FILES_API_UC_PERMISSION_DENIED

SQLSTATE: nicht zugewiesen

<unity_catalog_error_message>

FILES_API_UC_RESOURCE_EXHAUSTED

SQLSTATE: nicht zugewiesen

<message>

FILES_API_UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH

SQLSTATE: nicht zugewiesen

<unity_catalog_error_message>

FILES_API_UC_VOLUME_NAME_CHANGED

SQLSTATE: nicht zugewiesen

<unity_catalog_error_message>

FILES_API_UNABLE_TO_RENEW_AZURE_MANAGED_IDENTITIES

SQLSTATE: nicht zugewiesen

Die verwaltete Azure-Identität kann nicht verlängert werden.

FILES_API_UNEXPECTED_ERROR_WHILE_PARSING_URI

SQLSTATE: nicht zugewiesen

Unerwarteter Fehler beim Analysieren des URI

FILES_API_UNEXPECTED_QUERY_PARAMETERS

SQLSTATE: nicht zugewiesen

Unerwartete Abfrageparameter: <unexpected_query_parameters>

FILES_API_UNKNOWN_METHOD

SQLSTATE: nicht zugewiesen

Unbekannte Methode <method>

FILES_API_UNKNOWN_SERVER_ERROR

SQLSTATE: nicht zugewiesen

Unbekannter Serverfehler.

FILES_API_UNKNOWN_URL_HOST

SQLSTATE: nicht zugewiesen

Der URL-Host ist unbekannt.

FILES_API_UNSUPPORTED_AUTHENTICATION_METHOD

SQLSTATE: nicht zugewiesen

Die Anforderung wurde nicht ordnungsgemäß authentifiziert.

FILES_API_UNSUPPORTED_HTTP_METHOD

SQLSTATE: nicht zugewiesen

HttpMethod wird nicht unterstützt.

FILES_API_UNSUPPORTED_PARAMETERS_COMBINATION

SQLSTATE: nicht zugewiesen

Die Kombination von Parametern wird nicht unterstützt.

FILES_API_UNSUPPORTED_PATH

SQLSTATE: nicht zugewiesen

Der bereitgestellte Pfad wird von der Datei-API nicht unterstützt. Stellen Sie sicher, dass der angegebene Pfad keine Vorkommen der Sequenzen '../' oder './' enthält. Stellen Sie sicher, dass der angegebene Pfad nicht mehrere aufeinander folgende Schrägstriche verwendet (z. B. '////').

FILES_API_UPLOAD_PART_URLS_COUNT_MUST_BE_GREATER_THAN_ZERO

SQLSTATE: nicht zugewiesen

Der Eingabeparameter 'count' muss größer als 0 sein.

FILES_API_URL_GENERATION_DISABLED

SQLSTATE: nicht zugewiesen

Die Vorsignierte URL-Generierung ist für <cloud>nicht aktiviert.

FILES_API_VOLUME_TYPE_NOT_SUPPORTED

SQLSTATE: nicht zugewiesen

Die Datei-API wird für <volume_type> nicht unterstützt.

FILES_API_WORKSPACE_IS_CANCELED

SQLSTATE: nicht zugewiesen

Der Arbeitsbereich wurde abgebrochen.

FILES_API_WORKSPACE_IS_NOT_FOUND

SQLSTATE: nicht zugewiesen

Auf die Speicherkonfiguration für diesen Arbeitsbereich kann nicht zugegriffen werden.

Lakeflow Spark Declarative Pipelines

ABAC-Richtlinien werden nicht unterstützt

SQLSTATE: 0A000

ABAC-Richtlinien werden für Tabellen, die in einer Pipeline definiert sind, nicht unterstützt.

Entfernen Sie die Richtlinien, oder wenden Sie sich an den Databricks-Support.

ABNORMAL_DRIVER_TERMINATION

SQLSTATE: 57P02

Der Treiber auf dem Cluster <clusterId> wurde aufgrund von <terminationCause> abnormal beendet. Weitere Details finden Sie in den Treiberprotokollen.

ACTIVE_UPDATE_EXISTS_FOR_LINKED_PIPELINE

SQLSTATE: 42000

Für die verknüpfte Pipeline '<updateId>' ist bereits ein aktives Update '<linkedPipelineId>' vorhanden.

ACTIVE_UPDATE_EXISTS_FOR_PIPELINE

SQLSTATE: 42000

Für die Pipeline '<updateId>' ist bereits ein aktives Update '<pipelineId>' vorhanden.

ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE

SQLSTATE: 0A000

ALTER ist für Tabellen nicht zulässig, die verwaltet werden von

Weitere Informationen finden Sie unter ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE.

ALTER_SCHEDULE_SCHEDULE_DOES_NOT_EXIST

SQLSTATE: 42704

<type> einer Tabelle kann nicht geändert werden, ohne dass ein vorhandener Zeitplan oder Trigger vorhanden ist. Fügen Sie der Tabelle einen Zeitplan oder Trigger hinzu, bevor Sie versuchen, ihn zu ändern.

API_QUOTA_EXCEEDED

SQLSTATE: KD000

Sie haben das API-Kontingent für die Datenquelle <sourceName>überschritten.

Weitere Details finden Sie unter API_QUOTA_EXCEEDED.

APPLY_CHANGES_ERROR

SQLSTATE: 42000

Während des AUTO CDC Vorgangs ist ein Fehler aufgetreten.

Weitere Informationen finden Sie unter APPLY_CHANGES_ERROR.

APPLY_CHANGES_FROM_SNAPSHOT_ERROR

SQLSTATE: 22000

Während des AUTO CDC FROM SNAPSHOT Vorgangs ist ein Fehler aufgetreten.

Weitere Informationen finden Sie unter APPLY_CHANGES_FROM_SNAPSHOT_ERROR.

APPLY_CHANGES_FROM_SNAPSHOT_EXPECTATIONS_NOT_SUPPORTED

SQLSTATE: 0A000

Im Dataset <datasetName> sind Erwartungen definiert, aber Erwartungen werden derzeit für Datasets mit AUTO CDC FROM SNAPSHOT nicht unterstützt.

Entfernen Sie die Erwartungen, um diesen Fehler zu beheben. Als Alternative sollten Sie die folgende Struktur verwenden, um Erwartungen durch die Kombination von AUTO CDC und AUTO CDC FROM SNAPSHOT anzuwenden.

  1. Wenden Sie Änderungen von einem Schnappschuss mit SCD-Typ 1 auf eine Zwischentabelle an, ohne besondere Erwartungen.

  2. Lesen von Änderungen aus der Zwischentabelle mithilfe von spark.readStream.option("readChangeFeed", "true").table.

  3. Anwenden von Änderungen aus der Zwischentabelle auf die endgültige Zieltabelle mithilfe dlt.apply_changes der folgenden Parameter zusätzlich zu den derzeit verwendeten dlt.apply_changes_from_snapshotParametern:

  • So behandeln Sie Änderungen: apply_as_deletes = "_change_type == 'delete'"

  • So entfernen Sie Spalten, die vom CDF hinzugefügt wurden: except_column_list = ["_change_type", "_commit_version", "_commit_timestamp"]

  1. Fügen Sie die aktuellen Erwartungen in die endgültige Zieltabelle ein, die für dlt.apply_changes verwendet wird.

APPLY_CHANGES_PARTIAL_UPDATES_NOT_ENABLED

SQLSTATE: 0A000

Das Feature COLUMNS TO UPDATE befindet sich in der Vorschau und ist für Ihren Arbeitsbereich nicht aktiviert. Wenden Sie sich an Ihren Databricks-Vertreter, um mehr über dieses Feature zu erfahren und auf die private Vorschau zuzugreifen.

UMGEBUNG_ANWENDEN_CLUSTER_NICHT_VERFÜGBAR

SQLSTATE: 57000

Die Pipelineberechnung für <pipelineId> ist nicht verfügbar. Die Pipelineberechnung könnte gestoppt worden sein oder wird noch gestartet.

Versuchen Sie es später erneut, wenn die Berechnung vollständig verfügbar ist. Wenn das Problem weiterhin besteht, wenden Sie sich bitte an den Databricks-Support.

APPLY_ENVIRONMENT_CLUSTER_NOT_FOUND

SQLSTATE: 57000

Die Pipeline-Berechnung für <pipelineId> wurde nicht gefunden. Die Pipeline-Berechnung wurde möglicherweise nie gestartet oder ist bereits gestoppt worden. Starten Sie die Pipeline

vor dem Anwenden der Umgebung.

UMGEBUNG_ANWENDEN_NICHT_UNTERSTÜTZT

SQLSTATE: 0A000

ApplyEnvironment-Endpunkt wird nicht unterstützt.

ARCHITECTURE_MIGRATION_FAILURE

SQLSTATE: 55000

Weitere Details finden Sie unter ARCHITECTURE_MIGRATION_FAILURE.

ARCLIGHT_REQUIRES_SERVERLESS

SQLSTATE: 42000

Pipelines für Kataloge, die Standardspeicher verwenden, müssen serverloses Computing verwenden. Wenn Sie keinen Zugriff auf serverlose Berechnungen haben, wenden Sie sich an Databricks, um dieses Feature für Ihren Arbeitsbereich zu aktivieren.

AUTO_FULL_REFRESH_DISABLED

SQLSTATE: 42000

Die automatische vollständige Aktualisierung ist für die Tabelle <tableName>deaktiviert.

AUTO_FULL_REFRESH_NOT_ALLOWED

SQLSTATE: 42000

Fehler bei der automatischen vollständigen Aktualisierung für die Tabelle <tableName> , da <reason>.

AUTO_FULL_REFRESH_THROTTLED

SQLSTATE: 42000

Fehler bei der automatischen vollständigen Aktualisierung. Die Tabelle <tableName> wurde automatisch <timestamp> vollständig aktualisiert, und das Mindestintervall vor der nächsten automatischen vollständigen Aktualisierung lautet: <minInterval> Minuten.

AZURE_ACTIVE_DIRECTORY_AUTHENTICATION_FAILED

SQLSTATE: 28000

Fehler bei der Azure Active Directory-Authentifizierung (AADSTS5000224).

Ablaufverfolgungs-ID: <traceId>, Korrelations-ID: <correlationId>.

Stellen Sie sicher, dass Azure Active Directory ordnungsgemäß konfiguriert und zugänglich ist. Wenn das Problem weiterhin besteht, wenden Sie sich an den Microsoft-Support.

AZURE_MANAGED_IDENTITY_CREDENTIAL_NOT_FOUND

SQLSTATE: 28000

Azure Managed Identity-Anmeldeinformationen mit Access Connector-ID <accessConnectorId> wurden für das Konto <accountId>nicht gefunden.

Stellen Sie sicher, dass die Anmeldeinformationen vorhanden sind und ordnungsgemäß konfiguriert sind.

AZURE_STORAGE_HOSTNAME_RESOLUTION_FAILED

SQLSTATE: 08001

Fehler beim Auflösen des Azure Storage-Hostnamens: <hostname>.

Überprüfen Sie, ob DNS ordnungsgemäß konfiguriert ist und auf das Speicherkonto über Ihr Netzwerk zugegriffen werden kann.

AZURE_STORAGE_REQUEST_NOT_AUTHORIZED

SQLSTATE: 42501

Die Anforderung an Azure Storage wurde nicht vom Netzwerksicherheitsperimeter autorisiert.

Stellen Sie sicher, dass der Speicher ordnungsgemäß konfiguriert und barrierefrei ist.

FEHLENDER_BIGQUERY_DATENVERBINDER_QUELLKATALOG

SQLSTATE: KD000

Fehler im BigQuery-Datenconnector.

Die 'source catalog' (GCP-Projekt-ID) fehlt in Ihrer Einspeisungsspezifikation.

Geben Sie den Quellkatalog (Projekt-ID) in Ihrer Aufnahmespezifikation an, um dieses Problem zu beheben.

CANNOT_ADD_COLUMN_TO_INCLUDE_COLUMNS

SQLSTATE: 42000

Neue Spalten (<columnNames>) werden zum Feld include_columns in der Pipeline-Definition für die Tabelle <qualifiedTableName>hinzugefügt. Aktualisieren Sie die Tabelle vollständig, um potenzielle Datenverluste zu vermeiden oder diese Spalten aus include_columns zu entfernen.

CANNOT_ADD_STORAGE_LOCATION

SQLSTATE: 42000

Ein Speicherort kann nicht zu einer bestehenden Pipeline mit definiertem Katalog hinzugefügt werden. Wenn Sie einen Speicherort festlegen möchten, erstellen Sie eine neue Pipeline.

Vorhandener Katalog: '<catalog>'.

Angeforderter Speicherort: <storageLocation>.

CANNOT_COMPOSE_DECORATOR

SQLSTATE: nicht zugewiesen

Der @<decoratorName> Dekorateur kann nicht mit <otherDecorators>.

CANNOT_EXCLUDE_NON_EXISTENT_COLUMN

SQLSTATE: 42703

Die Pipelinedefinition schließt Spalten (<columnNames>) aus, die in der Tabelle <qualifiedTableName> der Quell-<sourceType>nicht vorhanden sind. Entfernen Sie diese Spalten aus dem Feld exclude_columns.

CANNOT_FILTER_OUT_REQUIRED_COLUMN

SQLSTATE: 42000

Die Pipelinedefinition enthält nicht die erforderlichen Spalten (<columnNames>) in der Tabelle <qualifiedTableName> der Quelle <sourceType> zur Erfassung. Bitte fügen Sie sie zu den `include_columns` hinzu oder entfernen Sie sie aus den `exclude_columns`.

CANNOT_INCLUDE_NON_EXISTENT_COLUMN

SQLSTATE: 42703

Die Pipelinedefinition enthält Spalten (<columnNames>), die nicht vorhanden sind oder nicht in der Quelltabelle <qualifiedTableName><sourceType>verfügbar sind. Entfernen Sie diese Spalten aus dem Feld include_columns.

CANNOT_INGEST_TABLE_WITHOUT_PRIMARY_KEY

SQLSTATE: 42000

Die Tabelle <qualifiedTableName> in der <sourceType> Quelle verfügt nicht über einen Primärschlüssel.

Geben Sie einen Primärschlüssel in der Connectorkonfiguration an, um die Tabelle einzulesen, wenn vorhanden.

CANNOT_MODIFY_PIPELINE_OWNER_FOR_UC_PIPELINES

SQLSTATE: 42000

Das Ändern des Besitzers für Nicht-UC-Pipelines wird noch nicht unterstützt.

CANNOT_MODIFY_PIPELINE_OWNER_PERMISSION_DENIED

SQLSTATE: 42000

Nur Arbeitsbereichsadministratoren können den Pipelinebesitzer ändern.

CANNOT_MODIFY_PIPELINE_OWNER_WHEN_MISSING

SQLSTATE: 42000

Der neue Besitzer existiert nicht.

CANNOT_MODIFY_PIPELINE_TYPE

SQLSTATE: 42000

pipeline_type kann nicht aktualisiert werden.

Aktueller Pipeline-Typ: <currentPipelineType>.

Aktualisierter Pipeline-Typ: <requestedPipelineType>.

CANNOT_MODIFY_STORAGE_LOCATION

SQLSTATE: 42000

Der Speicherort einer vorhandenen Pipeline kann nicht geändert werden.

Vorhandener Speicherort: '<existingStorageLocation>'.

Angeforderter Speicherort: <requestedStorageLocation>.

CANNOT_REMOVE_COLUMN_FROM_EXCLUDE_COLUMNS

SQLSTATE: 42000

Spalten (<columnNames>) werden aus dem exclude_columns-Feld in der Pipeline-Definition für die Tabelle <qualifiedTableName>entfernt. Aktualisieren Sie die Tabelle vollständig, um potenzielle Datenverluste zu vermeiden oder diese Spalten wieder zu exclude_columns hinzuzufügen.

CANNOT_SET_CATALOG_FOR_HMS_PIPELINE

SQLSTATE: 42613

Ein Katalog kann einer vorhandenen Pipeline mit definiertem Speicherort nicht hinzugefügt werden. Wenn Sie UC verwenden möchten, erstellen Sie eine neue Pipeline und legen Sie den Katalog fest.

Vorhandener Speicherort: '<storageLocation>'

Angeforderter Katalog: '<catalog>'

CANNOT_SET_LINKED_PIPELINE_ID

SQLSTATE: 42000

Pipeline-IDs sind identisch, das Festlegen der verknüpften Pipeline-IDs führt zu Deadlock.

CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE

SQLSTATE: 0AKD0

Das angegebene Feld "schema" in den Pipelineeinstellungen für die Pipeline "<pipelineName>" ist unzulässig. Reason:

Weitere Informationen finden Sie unter CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE.

NICHT_ZUSAMMEN_SETZEN_

SQLSTATE: nicht zugewiesen

<argList> schließen sich gegenseitig aus und können nicht zusammengesetzt werden.

CANNOT_SPECIFY_BOTH_INCLUDE_EXCLUDE_COLUMNS

SQLSTATE: 42000

Die Pipelinedefinition gibt sowohl include_columns als auch exclude_columns für <identifier>an. Entfernen Sie eine davon.

CANNOT_UPDATE_CLUSTERING_COLUMNS

SQLSTATE: 42000

Clusterspalten für Die Tabelle <tableName> können nicht aktualisiert werden, da sie Partitionsspalten verwendet. Eine Tabelle kann entweder Partitionsspalten oder Clusterspalten verwenden, aber nicht beide.

Um zwischen flüssiger Clusterung und Partitionierung zu wechseln, lösen Sie eine vollständige Aktualisierung dieser Tabelle aus.

CANNOT_UPDATE_PARTITION_COLUMNS

SQLSTATE: 42000

Partitionsspalten für streamingtabelle <tableName>können nicht aktualisiert werden.

Aktuell: <existingPartitionColumns>

Angefordert: <requestedPartitionColumns>

Um diese Partitionsänderung anzuwenden, lösen Sie eine vollständige Aktualisierung dieser Tabelle und aller anderen Streamingtabellen mit aktualisierten Partitionsspalten aus.

Alternativ können Sie diese Änderung wiederherstellen, um weiterhin die vorhandenen Partitionsspalten zu verwenden.

CANNOT_UPDATE_TABLE_SCHEMA

SQLSTATE: 42KD9

Fehler beim Zusammenführen der aktuellen und neuen Schemas für die Tabelle <tableName>.

Um mit dieser Schemaänderung fortzufahren, können Sie eine vollständige Aktualisierung dieser Tabelle auslösen.

Abhängig von Ihrem Anwendungsfall und den Schemaänderungen können Sie die Schemaänderung möglicherweise vermeiden. Sie können Ihre Abfragen so aktualisieren, dass das Ausgabeschema mit dem vorhandenen Schema kompatibel ist (z. B. durch explizites Umwandeln von Spalten in den richtigen Datentyp).

CANNOT_WRITE_TO_INACTIVE_COLUMNS

SQLSTATE: 55000

<details>

Die Zieltabelle(n) weist jedoch bereits inaktive Spalten mit diesem Namen auf; die Spalten sind inaktiv, da sie zuvor aus den Quelltabellen gelöscht wurden.

Führen Sie eine FULL REFRESH der Tabellen aus, um mit dem Update fortzufahren.

CANNOT_WRITE_TO_INACTIVE_TABLES

SQLSTATE: 55000

Die folgenden Tabellen im Ziel sind inaktiv und stehen in Konflikt mit den aktuellen Quelltabellen: <tables>.

Diese Tabellen bleiben inaktiv, da sie zuvor aus der Quelle gelöscht oder aus dem Connector nicht ausgewählt wurden.

Um mit der Aktualisierung fortzufahren, ändern Sie bitte den Namen der Zieltabelle, oder führen Sie eine FULL REFRESH dieser Tabellen aus, oder legen Sie diese inaktiven Tabellen aus dem Ziel im Katalog-Explorer oder über DROP TABLE befehl ab, und wiederholen Sie die Aktualisierung.

CANNOT_WRITE_TO_TABLES_PENDING_RESET

SQLSTATE: 55000

Die folgenden Tabellen im Ziel wurden in der vorherigen vollständigen Aktualisierung nicht ordnungsgemäß zurückgesetzt: <tables>.

Lösen Sie eine vollständige Aktualisierung aus, um sie wiederherzustellen.

CATALOG_MAPPING_NOT_AVAILABLE_IN_UC

SQLSTATE: 3D000

Der UC-Katalog verfügt nicht über die Zuordnung für den Katalog „<sourceCatalog>“.

Überprüfen Sie, ob der Katalog im UC-Katalog registriert ist.

CATALOG_SCHEMA_MISMATCH_WITH_DESTINATION_PIPELINE

SQLSTATE: 55000

Der Katalog <destPipelineCatalog> und das Schema <destPipelineSchema> der Zielpipeline mit der ID '<destPipelineId>' stimmen nicht mit dem Katalog und Schema der Tabelle <tableName>überein. Die Zielpipeline sollte denselben Katalog und dasselbe Schema wie die Tabelle haben oder die Zielpipeline muss den Direct Publishing-Modus verwenden.

CATALOG_SPEC_UNSUPPORTED

SQLSTATE: 0A000

CatalogSpecs werden von den Datenbank-Connectors derzeit nicht unterstützt. Entfernen Sie die Katalogspezifikation.

CDC_APPLIER_AUTO_FULL_REFRESH_POLICY_MUST_BE_SAME_FOR_ALL_DESTINATION_TABLES

SQLSTATE: 42000

Die Richtlinie für die automatische vollständige Aktualisierung aller Zieltabellen, die mit derselben Quelltabelle verbunden sind, muss identisch sein.

Ändern Sie die Richtlinie für die folgenden Zieltabellen <destinationTables> , die mit der Quelle <sourceTable>verbunden sind.

CDC_APPLIER_COLUMN_UOID_NOT_SUPPORTED

SQLSTATE: 0A000

Spalten mit UOID <columnNames> für die Tabelle <tableName> werden in CDC-verwalteten Erfassungspipelines nicht unterstützt.

Überprüfen Sie, ob die Aufnahmepipeline die Spalte UOID unterstützt, oder fordern Sie eine vollständige Aktualisierung der Tabelle an.

CDC_APPLIER_FATAL_FAILURE_FROM_GATEWAY

SQLSTATE: 42000

Bei der Gatewaypipeline ist ein schwerwiegender Fehler aufgetreten:

<errorMessage>

Überprüfen Sie hier den Pipelineupdatefehler: <link>.

CDC_APPLIER_INGESTION_GATEWAY_REMOVED

SQLSTATE: 42000

Die Aufnahmegatewaypipeline, die mit der verwalteten Aufnahmepipeline <pipelineId> verknüpft ist, wurde entfernt.

Entfernen Sie die Pipeline für verwaltete Erfassungen, und erstellen Sie sowohl Ingestion-Gateway als auch verwaltete Aufnahmepipelinen.

CDC_APPLIER_REPLICATED_TABLE_METADATA_NOT_READY

SQLSTATE: 42KD4

Replizierte Tabellenmetadaten für die Tabelle <tableName> sind nicht bereit.

Der vorhandene Zeitstempel der Auftragsanforderung ist <existingRequestTs>, aber wir erwarten <expectedRequestTs> oder später.

CDC_APPLIER_REQUIRES_ALL_DESTINATION_TABLES_FULL_REFRESH

SQLSTATE: 42000

Die vollständige Aktualisierung einer Zieltabelle und die normale Aktualisierung einer anderen Zieltabelle aus derselben Quelle wird nicht unterstützt.

Bitte aktualisieren Sie beide Tabellen vollständig, um nach Möglichkeit fortzufahren.

Tabellen vollständig aktualisieren: <fullRefreshTables>

Zieltabellen für Quelle <sourceTable>: <destinationTables>

CDC_APPLIER_SCHEMA_CHANGED_DURING_STREAMING

SQLSTATE: 42KD4

Die Schemaversion <dataSchemaVersion> unterscheidet sich von der Leseschemaversion <readSchemaVersion>.

Lakeflow Spark Declarative Pipelines wiederholen das Update.

CDC_APPLIER_SEQUENCE_BY_COLUMN_NOT_FOUND

SQLSTATE: 42704

Die Spalte <columnName> für die in sequenceBy angegebene Tabelle <tableName> existiert nicht in <columns>.

CDC_APPLIER_SEQUENCE_BY_INVALID_TYPE

SQLSTATE: 0A000

Die spalte <columnName> für die in sequenceBy angegebene Tabelle <tableName> ist vom Typ <typeName> , der nicht unterstützt wird.

Unterstützte Typen für sequenceBy-Spalten sind <allowedTypes>.

CDC_APPLIER_SEQUENCE_BY_MULTIPLE_COLUMNS_NOT_SUPPORTED

SQLSTATE: 0A000

Höchstens eine Spalte kann in sequenceBy der verwalteten Erfassungspipeline des CDC angegeben werden.

Angegebene Spalten: <columns> für Tabelle <tableName>.

CDC_INCOMPATIBLE_SCHEMA_CHANGES

SQLSTATE: 42KD4

Wir sind auf eine inkompatible Schemaänderung (<cause>) von der Schemaversion <previousSchemaVersion> zu <currentSchemaVersion>gestoßen.

Daher können wir nicht mit der Anwendung von Änderungen für <tableName>fortfahren. Bitte fordern Sie eine vollständige Aktualisierung der Tabelle an.

Vorheriges Schema: <previousSchema>

Aktuelles Schema: <currentSchema>

CDC_MULTIPLE_SOURCE_TABLES_MAPPED_TO_SAME_DESTINATION_TABLE

SQLSTATE: 42000

Es wurden mehrere Quelltabellen gefunden: <source_tables> zugeordnet zu derselben Zieltabelle <destination_table>.

Ordnen Sie sie einem anderen Zieltabellennamen oder einem anderen Zielschema zu.

CDC_POTENTIAL_DATA_GAPS

SQLSTATE: 55000

Die folgenden Tabellen [<needFullRefreshTableList>] wurden seit <retention> Tagen nicht erfolgreich aktualisiert.

Bitte aktualisieren Sie diese Tabellen oder die gesamte Pipeline vollständig.

CDC_SAME_TABLE_FROM_MULTIPLE_SOURCES

SQLSTATE: 42000

Den gleichen Tabellennamen <table> bei mehreren Quellen gefunden: <sources>.

Teilen Sie sie bitte in verschiedene Pipelines auf, um Konflikte zu vermeiden.

CDC_SOURCE_VALIDATION_FAILURE

SQLSTATE: 42000

Fehler bei der Quelldatenbanküberprüfung <errorCount> . Detaillierte Ergebnisse und Korrekturschritte finden Sie in den Ereignisprotokollberichten.

CDC_TABLE_NOT_FOUND_IN_ALL_TABLES

SQLSTATE: 42P01

Tabelle <table> wird in der Momentaufnahme aller Tabellen der Quelldatenbank nicht gefunden.

Tabellenspezifikationsdetails:

<tableSpec>

CHANGES_HMS_PIPELINE_TO_UC_NOT_ALLOWED

SQLSTATE: 0AKD0

Das Ändern einer HMS-Pipeline in eine UC-Pipeline ist nicht zulässig.

CHANGES_UC_PIPELINE_TO_HMS_NOT_ALLOWED

SQLSTATE: 0AKD0

Das Ändern einer UC-Pipeline in eine HMS-Pipeline ist nicht zulässig.

CHANGING_CATALOG_NOT_ALLOWED

SQLSTATE: 0AKD0

Der Katalog einer vorhandenen Pipeline kann nicht geändert werden. Vorhandener Katalog: '<existingCatalog>'. Angeforderter Katalog: '<requestedCatalog>'.

CHANGING_TARGET_SCHEMA_NOT_ALLOWED

SQLSTATE: 0AKD0

Das Ändern des Zielschemas ist nicht zulässig. Grund: <reason>.

CLUSTER_CREATION_BUDGET_POLICY_LIMIT_EXCEEDED

SQLSTATE: 57000

Es konnte kein Cluster erstellt werden, da die Budgetrichtlinie der Pipeline den Grenzwert überschritten hat. Verwenden Sie eine andere Richtlinie, oder wenden Sie sich an Ihren Abrechnungsadministrator.

CLUSTER_CREATION_CLIENT_ERROR

SQLSTATE: KDL01

Fehler beim Erstellen eines Pipelineclusters: <errorMessage>

Dieser Fehler ist wahrscheinlich auf eine Fehlkonfiguration in der Pipeline zurückzuführen.

Überprüfen Sie die Pipelineclusterkonfiguration und die zugeordnete Clusterrichtlinie.

CLUSTER_CREATION_CLUSTER_POLICY_LIMIT_EXCEEDED

SQLSTATE: 57000

Fehler beim Erstellen eines Clusters, da die Anzahl der ausgeführten Cluster pro Benutzer für die Richtlinie "<clusterPolicy>" den Grenzwert überschritten <clusterLimit>hat. Verwenden Sie eine andere Richtlinie, oder wenden Sie sich an Ihren Administrator.

CLUSTER_CREATION_CREDITS_EXHAUSTED

SQLSTATE: 57000

Fehler beim Erstellen eines Clusters, da Sie Ihr verfügbares Guthaben ausgeschöpft haben. Fügen Sie eine Zahlungsmethode hinzu, um Ihr Konto zu aktualisieren.

CLUSTER_CREATION_RESOURCE_EXHAUSTED

SQLSTATE: 57000

Fehler beim Erstellen eines Clusters, da Sie die Ressourcengrenzwerte überschritten haben: <errorMessage>

CLUSTER_CREATION_SECRETS_FETCH_FAILED

SQLSTATE: 42501

Geheime Schlüssel, die in der Spark-Konfiguration bezeichnet werden, können nicht abgerufen werden.

Überprüfen Sie, ob die geheimen Schlüssel vorhanden sind, und der Besitzer des Clusters verfügt über Leseberechtigungen.

CLUSTER_LAUNCH_CLIENT_ERROR

SQLSTATE: KDL01

Fehler beim Starten des Pipelineclusters <clusterId>: <clusterStateMessage>

Dieser Fehler ist wahrscheinlich auf eine Fehlkonfiguration in der Pipeline zurückzuführen.

Überprüfen Sie die Pipelineclusterkonfiguration und die zugeordnete Clusterrichtlinie.

CLUSTER_LAUNCH_CLOUD_FAILURE

SQLSTATE: 58000

Fehler beim Starten des Pipelineclusters <clusterId>: <clusterStateMessage>

Dieser Fehler kann vorübergehend sein: Starten Sie Die Pipeline neu, und melden Sie, wenn dasselbe Problem weiterhin angezeigt wird.

CLUSTER_LAUNCH_RESOURCE_EXHAUSTED

SQLSTATE: 57000

Fehler beim Starten des Pipelineclusters <clusterId> aufgrund erschöpfter Ressourcengrenzwerte: <clusterStateMessage>.

CLUSTER_START_RESOURCE_MANGEL

SQLSTATE: KDL01

Fehler beim Starten des Pipelineclusters <clusterId>: <clusterStateMessage>

Der angeforderte Instanztyp konnte vom Cloudanbieter nicht bereitgestellt werden.

Überprüfen Sie Ihr Cloudanbieterabonnement, oder versuchen Sie es erneut mit einem anderen Instanztyp.

CLUSTER_SETUP_CLIENT_ERROR

SQLSTATE: KDL01

Der Cluster <clusterId> kann für die Ausführung von Pipelineupdates nicht erfolgreich eingerichtet werden. Reason:

Weitere Details finden Sie unter CLUSTER_SETUP_CLIENT_ERROR.

CLUSTER_UNREACHABLE

SQLSTATE: 08000

Kommunikation mit Fahrer verloren. Cluster <clusterId> war für <timeoutSeconds> Sekunden nicht erreichbar.

COLUMN_MASK_WITH_NO_COLUMN

SQLSTATE: 42000

Spaltenmaske für Spalte '<columnName>' gefunden, die im MV/ST-Schema nicht vorhanden ist. Wenn dies auf eine Änderung des Basistabellenschemas zurückzuführen ist,

bitte entfernen Sie die alte Maske mit ALTER TABLE [table_name] ALTER COLUMN [Spalte, auf die die Maske angewendet wird] DROP MASK, oder stellen Sie die Spalte wieder her.

COLUMN_TO_UPDATE_NOT_FOUND

SQLSTATE: 42703

Spalte <column>, die in COLUMNS bis UPDATE angegeben ist, wurde im Quelldatenframe nicht gefunden.

CONCURRENT_UPGRADE_FAILED_TO_STOP_PREVIOUS_UPDATE

SQLSTATE: 2D521

Das Update '<upgradedUpdateId>' für ein Upgrade wurde gestartet, konnte aber das vorherige Update '<oldUpdateId>' nicht beenden.

Dieser Fehler ist wahrscheinlich vorübergehend. Die Pipeline wird automatisch erneut wiederholt, und das Problem sollte sich von alleine lösen.

Melden Sie diesen Fehler an Databricks, wenn weiterhin dasselbe Problem angezeigt wird.

ERSTELLUNG_EINMALIGER_APPEND_FLOW_AUS_BATCH_ABFRAGE_NICHT_ERLAUBT

SQLSTATE: 42000

Eine Anfügeoperation im Append-once-Modus für eine Streamingtabelle kann nicht aus einer Batch-Abfrage erstellt werden.

Dies verhindert die inkrementelle Aufnahme aus der Quelle und kann zu einem falschen Verhalten führen.

Fehlerhafte Tabelle: '<table>'.

Um dies zu beheben, verwenden Sie den STREAM() oder readStream-Operator, um die Quelle als Streamingeingabe zu deklarieren.

Beispiel: SELECT...FROM STREAM(<source table name>) oder spark.readStream.table('<source table name>')

DATASET_DECORATOR_APPLIED_TWICE

SQLSTATE: nicht zugewiesen

Dataset <datasetName> ist bereits vorhanden. Stellen Sie sicher, dass die Abfragefunktion nur einmal als Ansicht oder Tabelle markiert wurde.

DATASET_NOT_DEFINED

SQLSTATE: 42P01

Fehler beim Lesen des Datasets '<datasetName>'. Dieses Dataset ist in der Pipeline nicht definiert.

Wenn diese Tabelle von einer anderen Pipeline verwaltet wird, sollten Sie nicht dlt.read / dlt.readStream verwenden, um die Tabelle zu lesen oder den Namen mit dem LIVE-Schlüsselwort voranzustellen.

DATASET_NOT_FOUND_FOR_EXPECTATIONS

SQLSTATE: 42P01

Es wurde versucht, Erwartungen für ein Dataset zu<datasetName> definieren, das nicht vorhanden ist.

DATASET_NOT_REGISTERED_FOR_FLOW

SQLSTATE: 42000

Es wurde versucht, einen Fluss für das Dataset "<datasetName>" zu registrieren, aber das Dataset ist nicht registriert.

DBFS_NOT_ENABLED

SQLSTATE: 42000

DBFS ist für diesen Arbeitsbereich nicht aktiviert; veröffentlichen Sie den Unity-Katalog, oder geben Sie einen anderen Speicherort für die Pipeline an.

DBSQL_INCONSISTENT_SCHEDULE_IN_PIPELINE

SQLSTATE: 42000

Pipeline <pipelineId> verfügt über mehrere Produktionstabellen mit unterschiedlichen Zeitplaneinstellungen: [<tableScheduleInfo>]. Alle Produktionstabellen müssen denselben Zeitplan aufweisen.

DBSQL_INVALID_CHANNEL_VALUE

SQLSTATE: 42616

Ungültiger Kanal, der mit pipelines.channel Eigenschaft angegeben wurde: <channel>. Gültige Werte sind: <validChannels>.

DBSQL_INVALID_SCHEDULE_TYPE

SQLSTATE: 42616

Ungültiger Zeitplantyp, der mit der Zeitplaneigenschaft angegeben ist: <scheduleValue>.

DBSQL_MISSING_SCHEDULE_PROPERTY

SQLSTATE: 42000

Fehlende erforderliche Zeitplaneigenschaft in Tabelleneigenschaften.

DBSQL_PIPELINE_IS_MISSING

SQLSTATE: 42000

Eine DBSQL Pipeline fehlt. Bitte aktualisieren Sie Ihre materialisierte Ansicht oder Streamingtabelle, um die DBSQL Pipeline zu erstellen.

DBSQL_PIPELINE_SHOULD_NOT_HAVE_MULTIPLE_TABLES

SQLSTATE: 42000

Eine DBSQL-Pipeline muss genau eine materialisierte Ansicht oder Streamingtabelle haben, es wurden jedoch <tablesSize> Tabellen gefunden: <tables>

DELETE_PIPELINE_DEAKTIVIERT

SQLSTATE: 58000

Die Pipeline kann zurzeit nicht gelöscht werden.

Wenden Sie sich an den Databricks-Support, um Unterstützung beim Löschen der Pipeline "<pipelineId>" zu erhalten.

DESTINATION_PIPELINE_NOT_FOUND

SQLSTATE: 42K03

Die Zielpipeline mit der ID '<pipelineId>' wurde nicht gefunden. Stellen Sie sicher, dass Sie sich im gleichen Arbeitsbereich wie die Pipeline befinden, die Pipeline besitzen, und dass die Pipeline mindestens einmal ausgeführt wurde.

DESTINATION_PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE

SQLSTATE: 0AKLT

Die Zielpipeline mit der ID '<pipelineId>' verwendet nicht den Direct Publishing-Modus.

DESTINATION_PIPELINE_PERMISSION_DENIED

SQLSTATE: 42501

Sie dürfen diesen Vorgang nicht ausführen, Sie sind nicht der Besitzer der Zielpipeline mit der ID '<pipelineId>'. Nur Besitzer können die Pipeline einer Tabelle ändern.

DESTINATION_PIPELINE_TYPE_NOT_WORKSPACE_PIPELINE_TYPE

SQLSTATE: 0AKLT

Die Zielpipeline mit der ID '<pipelineId>' ist keine ETL-Pipeline.

DIRECTORY_PATH_REQUIRES_GLOB

SQLSTATE: 42000

Der Pfad <path> ist ein Verzeichnis. Um alle Dateien in ein Verzeichnis einzuschließen, verwenden Sie das Glob-Muster mit dem Suffix '**' '<path>/**' in Ihrer Pipelinekonfiguration.

NICHT_ERLAUBTE_ANFRAGE_ZUM_WIEDERHERSTELLEN_DER_PIPELINE

SQLSTATE: 42000

Die Anforderung <request> ist für die Pipeline "<pipelineId>" im RESTORING Zustand nicht zulässig.

DO_CREATE_OR_EDIT_INVALID_USER_ACTION

SQLSTATE: 42000

Fehler beim Behandeln von '<action>' Anforderung.

DROP_SCHEDULE_SCHEDULE_DOES_NOT_EXIST

SQLSTATE: 42000

SCHEDULE kann nicht in einer Tabelle ohne vorhandenen Zeitplan oder Trigger abgelegt werden.

DUPLICATED_FROM_JSON_SCHEMA_LOCATION

SQLSTATE: 42616

Doppelter from_json-Schemaspeicherortschlüssel: <schemaLocationKey>.

Wählen Sie für jede from_json-Abfrage in der Pipeline eindeutige Schemaspeicherortschlüssel aus.

DUPLICATED_INGESTION_CONFIG_TABLE_SPECS

SQLSTATE: 42710

Die Konfiguration der Aufnahmepipeline enthält doppelte Tabellen. Stellen Sie sicher, dass jede Tabelle eindeutig ist.

EMPTY_INGESTION_CONFIG_OBJECTS

SQLSTATE: 42000

Konfigurationsobjekte für Erfassung sind leer.

ENHANCED_AUTOSCALING_REQUIRES_ADVANCED_EDITION

SQLSTATE: 42000

Erweiterte Autocaling-Einstellung "spare_capacity_fraction" wird nur in der Erweiterten Produktedition von Lakeflow Spark Declarative Pipeliness unterstützt.

Ändern Sie Ihre Pipeline-Einstellungen, indem Sie die "edition" auf "advanced" setzen, um 'spare_capacity_fraction' verwenden zu können.

ENVIRONMENT_PIP_INSTALL_ERROR

SQLSTATE: 42000

Fehler beim Installieren der Umgebungsabhängigkeit: '<pipDependency>'. Weitere Details finden Sie in den stdout-Protokolldateien des Treibers im Cluster.

EVENT_LOG_PICKER_FEATURE_NOT_SUPPORTED

SQLSTATE: 0A000

Das Veröffentlichen des Ereignisprotokolls im Unity-Katalog wird im älteren Veröffentlichungsmodus nicht unterstützt. Um dieses Feature zu aktivieren, migrieren Sie Ihre Pipeline in den Standardmäßigen Veröffentlichungsmodus, indem Sie die Schritte im Migrationshandbuch ausführen https://docs.databricks.com/aws/en/dlt/migrate-to-dpm. Wenn Sie den Legacy-Veröffentlichungsmodus weiterhin verwenden möchten, entfernen Sie die Konfiguration "event_log" aus Ihrer Pipelinespezifikation.

EXPECTATION_VIOLATION

SQLSTATE: 22000

Der Flow „<flowName>“ konnte die Erwartung nicht erfüllen.

Weitere Informationen finden Sie unter EXPECTATION_VIOLATION.

EXPLORE_ONLY_CANNOT_BE_SET_WITH_VALIDATE_ONLY

SQLSTATE: 42000

explore_only und validate_only können nicht gleichzeitig auf "true" festgelegt werden.

EXPLORE_ONLY_IS_NOT_ENABLED

SQLSTATE: 0A000

explore_only Update ist nicht aktiviert. Wenden Sie sich bitte an den Databricks-Support.

FAILED_TO_CREATE_EVENT_LOG

SQLSTATE: 58030

Ereignisprotokoll für Pipeline (ID=<pipelineId>) mit Bezeichner <eventLogIdentifier> konnte nicht erstellt werden. Weitere Informationen finden Sie in der nachstehenden Ausnahme.

FAILED_TO_PUBLISH_VIEW_TO_METASTORE

SQLSTATE: 42000

Veröffentlichen der Ansicht <viewName> im Metastore fehlgeschlagen, weil <reason>.

FAILED_TO_UPDATE_EVENT_LOG

SQLSTATE: 58030

Fehler beim Aktualisieren des Pipeline-Ereignisprotokollbezeichners (id=<pipelineId>) auf <newEventLogIdentifier>. Weitere Informationen finden Sie in der nachstehenden Ausnahme.

FLOW_SCHEMA_CHANGED

SQLSTATE: KD007

Der Fluss <flowName> wurde beendet, da während der Ausführung eine Schemaänderung aufgetreten ist.

Die Schemaänderung ist mit dem vorhandenen Zielschema kompatibel, und die nächste Ausführung des Flusses kann mit dem neuen Schema fortgesetzt werden.

FOREACH_BATCH_SINK_ONLY_SUPPORTED_IN_PREVIEW_CHANNEL

SQLSTATE: 0A000

Lakeflow Spark Declarative Pipelines ForeachBatch Sink wird derzeit nicht unterstützt.

Die private Vorschau für Lakeflow Spark Declarative Pipelines ForeachBatch Spüle erfordert den PREVIEW Kanal.

Lakeflow Spark Declarative Pipelines senken: <sinkNames>

GATEWAY_PIPELINE_INIT_SCRIPTS_NOT_ALLOWED

SQLSTATE: 0A000

Die Gatewaypipeline lässt keine Cluster-Init-Skripts zu. Entfernen Sie es aus <from>.

GATEWAY_PIPELINE_SPARK_CONF_NOT_ALLOWED

SQLSTATE: 0A000

Die Gateway-Pipeline erlaubt die Spark-Konfiguration [<configs>] nicht. Entfernen Sie sie aus <from>.

GET_ORG_UPDATE_CAPACITY_LIMIT_EXCEEDED

SQLSTATE: 54000

Die Anzahl der angeforderten Organisations-IDs überschreitet den maximal zulässigen Grenzwert. <limit>

GOOGLE_ANALYTICS_RAW_DATA_CONNECTOR_SOURCE_CATALOG_MISSING

SQLSTATE: KD000

Fehler im Google Analytics-Rohdatenkonnektor.

Die 'source catalog' (GCP-Projekt-ID) fehlt in Ihrer Einspeisungsspezifikation.

Geben Sie den Quellkatalog (Projekt-ID) in Ihrer Aufnahmespezifikation an, um dieses Problem zu beheben.

HMS_NOT_ENABLED

SQLSTATE: 42000

Der Hive-Metastore ist für diesen Arbeitsbereich nicht aktiviert; bitte veröffentlichen Sie im Unity-Katalog.

ILLEGAL_COLUMN_TO_UPDATE_DATA_TYPE

SQLSTATE: 42000

Der Datentyp der in COLUMNS TO UPDATE angegebenen Spalte muss ein Zeichenfolgenarray sein, es wurde aber <illegalDataType> gefunden.

ILLEGAL_ID_PARAM_IN_PIPELINE_SETTINGS

SQLSTATE: 42000

Die Einstellungen dürfen nicht '<fieldName>' enthalten.

ILLEGAL_SCHEMA_FIELD_IN_PIPELINE_SPEC

SQLSTATE: 42000

Das angegebene Feld "schema" in den Pipelineeinstellungen ist unzulässig. Grund: <reason>.

INCORRECT_ROOT_PATH_TYPE

SQLSTATE: 42000

Der Stammpfad „<rootPath>“ muss ein Verzeichnis sein, aber es wurde <objectType> gefunden.

INCREMENTAL_REFRESH_UNAVAILABLE_WITH_STRICT_REFRESH_POLICY

SQLSTATE: 42000

Die materialisierte Ansicht verfügt über eine Aktualisierungsrichtlinie, INCREMENTAL_STRICT kann aber nicht inkrementellisiert werden.

INFRASTRUKTUR_WARTUNG

SQLSTATE: 57P01

Der Treiber auf dem Cluster <clusterId> wurde aufgrund der Infrastrukturwartung gestoppt.

INGESTION_CONFIG_DUPLICATED_SCHEMA

SQLSTATE: 42710

Die Konfiguration der Aufnahmepipeline enthält doppelte Schemas. Stellen Sie sicher, dass jedes Schema eindeutig ist.

INGESTION_GATEWAY_AUTHENTICATION_FAILURE

SQLSTATE: 42501

Authentifizierungsfehler

Weitere Details finden Sie unter INGESTION_GATEWAY_AUTHENTICATION_FAILURE.

INGESTION_GATEWAY_BREAKING_SCHEMA_CHANGE_FAILURE

SQLSTATE: 42KD4

Es wurde ein Schemakonflikt zwischen den Quell- und Zieltabellen erkannt. Um dieses Problem zu beheben, ist eine vollständige Aktualisierung der Tabelle "<entityName>" für die Aufnahmepipeline erforderlich.

INGESTION_GATEWAY_CAPTURE_INSTANCE_UNAVAILABLE

SQLSTATE: 42000

Die Aufnahmeinstanz ist <entityName> für die Quelle nicht mehr verfügbar.

Lösen Sie eine vollständige Aktualisierung aus, nachdem SIE CDC oder CT auf der Tabelle aktiviert haben.

INGESTION_GATEWAY_CDC_LOG_TRUNCATED

SQLSTATE: 42000

DAS CDC-Protokoll wurde aus Tabelle '<entityName>' abgeschnitten, Grund: <errorMessage>.

Dies kann durch das Abschneiden von Änderungsnachverfolgungsprotokollen durch die CDC-Protokollaufbewahrungsrichtlinie verursacht werden, bevor sie verarbeitet werden können.

Die Tabelle wird von der Verarbeitung übersprungen. Um die Verarbeitung erneut zu aktivieren, aktualisieren Sie die Tabelle vollständig.

INGESTION_GATEWAY_CDC_NOT_ENABLED

SQLSTATE: 42000

CDC ist nicht aktiviert auf <entityType> '<entityName>'. Aktivieren Sie CDC, und aktualisieren Sie die Tabelle in der Aufnahmepipeline vollständig. Fehlermeldung: „<errorMessage>“.

INGESTION_GATEWAY_DB_VERSION_NOT_SUPPORTED

SQLSTATE: 42000

Datenbankversion wird nicht unterstützt.

Weitere Informationen finden Sie unter INGESTION_GATEWAY_DB_VERSION_NOT_SUPPORTED

INGESTION_GATEWAY_DDL_OBJECTS_MISSING

SQLSTATE: 42000

DDL-Objekte fehlen auf <entityType> '<entityName>'. Führen Sie das Skript für DDL-Objekte aus, und aktualisieren Sie die Tabelle in der Ingestion-Pipeline vollständig. Fehlermeldung: „<errorMessage>“.

INGESTION_GATEWAY_HEALTH_CHECKER_VALIDATION_CYCLE_FAILED

SQLSTATE: 42000

Fehler beim Überprüfungszyklus der internen Integritätsprüfung. Wird im nächsten Zyklus erneut versuchen, wenn das Problem weiterhin besteht, geben Sie ein Ticket an.

Fehlermeldung: <errorMessage>

INGESTION_GATEWAY_MISSING_CONNECTION_REFERENCE

SQLSTATE: 42000

Bei der Konfiguration des Erfassungsgateways fehlt eine Verbindung.

Fügen Sie einen Verweis auf die Unity-Katalogverbindung hinzu, die Ihre Anmeldeinformationen enthält.

Details der Pipelinedefinition des Erfassungsgateways:

<definition>

INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_CATALOG

SQLSTATE: 42000

Die Konfiguration des Erfassungsgateways fehlt im internen Speicherortkatalog.

Fügen Sie den internen Speicherortkatalog hinzu.

Details der Pipelinedefinition des Erfassungsgateways:

<definition>

INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_NAME

SQLSTATE: 42000

In der Konfiguration des Erfassungsgateways fehlt der Name des internen Speicherorts.

Fügen Sie den Namen des internen Speicherorts hinzu.

Details der Pipelinedefinition des Erfassungsgateways:

<definition>

INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_SCHEMA

SQLSTATE: 42000

In der Konfiguration des Erfassungsgateways fehlt das Schema des internen Speicherorts.

Fügen Sie das interne Speicherortschema hinzu.

Details der Pipelinedefinition des Erfassungsgateways:

<definition>

INGESTION_GATEWAY_MISSING_TABLE_IN_SOURCE

SQLSTATE: 42P01

Tabelle '<entityName>' ist in der Quelldatenbank nicht vorhanden oder wurde gelöscht. Beheben Sie das Problem, und aktualisieren Sie die Tabelle in der verwalteten Erfassungspipeline vollständig. Fehlermeldung: „<errorMessage>“.

INGESTION_GATEWAY_MYSQL_BINLOG_FILE_DELETED

SQLSTATE: 42000

Die erforderliche MySQL-Binlogdatei(n) wurde in der Quelldatenbank gelöscht. Dies geschieht in der Regel, wenn der Binlog-Aufbewahrungszeitraum zu niedrig ist oder wenn die Aufnahme nach dem Übergeben des Aufbewahrungsfensters neu gestartet wird. Führen Sie zur Entschärfung eine vollständige Aktualisierung aller Tabellen aus, und erhöhen Sie die Binlogaufbewahrung auf der Quelle.

Fehlermeldung: <errorMessage>

INGESTION_GATEWAY_MYSQL_MISSED_BINLOG_FILES_DETECTED

SQLSTATE: 42000

Verpasste Erkennung von MySQL Binlog-Dateien. Bitte führen Sie eine vollständige Aktualisierung durch <entityName>.

Fehlermeldung: <errorMessage>

INGESTION_GATEWAY_ORACLE_ARCHIVE_LOG_FILES_UNAVAILABLE

SQLSTATE: 42000

Oracle-Archivprotokolldateien, die für die CDC-Replikation erforderlich sind, sind nicht mehr in der Quelldatenbank verfügbar. Dies kann passieren, wenn Archivprotokolle den Aufbewahrungszeitraum überschreiten oder manuell gelöscht werden. Bitte führen Sie eine vollständige Aktualisierung aller Zieltabellen aus, die dem Katalog "<catalogName>" zugeordnet sind. Wenn dieses Problem weiterhin besteht, sollten Sie die Aufbewahrungsdauer des Archivprotokolls in der Quelldatenbank erhöhen, um sicherzustellen, dass Protokolle während der Verarbeitung verfügbar bleiben.

Fehlermeldung: <errorMessage>

INGESTION_GATEWAY_ORACLE_MISSING_CONFIGURATION

SQLSTATE: 42000

Die Oracle-Verbindungskonfiguration ist unvollständig.

Weitere Informationen finden Sie unter INGESTION_GATEWAY_ORACLE_MISSING_CONFIGURATION

INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED

SQLSTATE: 42000

Die Replikationsveröffentlichung für <entityType><entityName>“ konnte nicht geändert werden.

Fehlermeldung: <errorMessage>

Weitere Einzelheiten finden Sie unter INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED

INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED

SQLSTATE: 42000

Fehler beim Erstellen der Replikationspublikation für <entityType> "<entityName>"

Fehlermeldung: <errorMessage>

Weitere Einzelheiten finden Sie unter INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED

INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED

SQLSTATE: 42000

Die Replikationsveröffentlichung für <entityType><entityName>“ konnte nicht abgelegt werden.

Fehlermeldung: <errorMessage>

Weitere Einzelheiten finden Sie unter INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED

INGESTION_GATEWAY_PG_SLOT_CONFIG_IS_INVALIDATED

SQLSTATE: 55000

Die Konfiguration des Replikationsplatzes befindet <entityType> <entityName> sich nicht im fehlerfreien Zustand. Um dieses Problem zu beheben, lösen Sie eine vollständige Aktualisierung aller Zieltabellen aus, die dem Katalog <catalogName>zugeordnet sind.

Fehlermeldung: <errorMessage>

INGESTION_GATEWAY_PG_SLOT_CONSUMED_BY_OTHER_PROCESS

SQLSTATE: 42000

Fehler beim Erstellen des Replikations-Slots für <entityType> "<entityName>", da der Replikations-Slot von einer anderen PID verwendet wird.

Fehlermeldung: <errorMessage>

INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED

SQLSTATE: 42000

Fehler beim Erstellen des Replikationsplatzes für <entityType> '<entityName>'

Fehlermeldung: <errorMessage>

Weitere Einzelheiten finden Sie unter INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED

INGESTION_GATEWAY_PG_SLOT_DROP_FAILED

SQLSTATE: 42000

Fehler beim Ablegen des Replikationsplatzes für <entityType> "<entityName>"

Fehlermeldung: <errorMessage>

Weitere Informationen finden Sie unter INGESTION_GATEWAY_PG_SLOT_DROP_FAILED

INGESTION_GATEWAY_PG_SLOT_HAS_BEEN_DELETED

SQLSTATE: 42704

Der Replikationsplatz für <entityType> "<entityName>" wurde gelöscht. Lösen Sie eine vollständige Aktualisierung aller Zieltabellen aus, die dem Katalog "<catalogName>" zugeordnet sind.

Fehlermeldung: <errorMessage>

INGESTION_GATEWAY_PG_SLOT_IS_INVALIDATED

SQLSTATE: 55000

Der Replikationsplatz für <entityType> "<entityName>" befindet sich nicht im fehlerfreien Zustand. Legen Sie den Steckplatz ab, und lösen Sie eine vollständige Aktualisierung aller Zieltabellen aus, die dem Katalog "<catalogName>" zugeordnet sind.

Fehlermeldung: <errorMessage>

INGESTION_GATEWAY_SOURCE_INSUFFICIENT_PERMISSION_FAILURE

SQLSTATE: 42501

Der Benutzer verfügt nicht über die erforderlichen Berechtigungen, um auf dieses Objekt zuzugreifen oder die gespeicherte Prozedur auszuführen. Stellen Sie sicher, dass alle erforderlichen Berechtigungen gewährt werden. Weitere Informationen finden Sie in der folgenden Dokumentation: https://docs.databricks.com/aws/en/ingestion/lakeflow-connect/sql-server/database-user-requirements.

INGESTION_GATEWAY_SOURCE_SCHEMA_MISSING_ENTITY

SQLSTATE: 42000

Für die Replikation aus der Quelle sind keine Tabellen verfügbar.

Stellen Sie sicher, dass die Tabellen ordnungsgemäß ausgewählt und in der Aufnahmepipeline definiert sind.

und der Benutzer verfügt über den erforderlichen Katalog- und Schemazugriff.

INGESTION_GATEWAY_SQL_SERVER_CT_DISABLED

SQLSTATE: 42000

Die Änderungsnachverfolgung für die Tabelle <entityName> wurde für die Quelle deaktiviert.

Lösen Sie eine vollständige Aktualisierung aus, nachdem SIE CDC oder CT auf der Tabelle aktiviert haben.

INGESTION_GATEWAY_TABELLE_GELÖSCHT

SQLSTATE: 42000

Die Quelltabelle '<entityName>' wurde im Quell-System gelöscht. Fehlermeldung: <errorMessage>

INGESTION_GATEWAY_TABLE_RENAMED

SQLSTATE: 42000

Die Quelltabelle '<entityName>' wurde in der Quelle umbenannt. Fehlermeldung: <errorMessage>

DATENIMPORT_ZUGANGSPUNKT_TABELLE_IGNORIERT_AUFGRUND_EINES_NICHT_UNTERSTÜTZTEN_SPALTENDATENTYPS

SQLSTATE: 42P01

Tabelle '<entityName>' wurde aufgrund nicht unterstützter Datentypspalten übersprungen. Beheben Sie das Problem, und aktualisieren Sie die Tabelle in der verwalteten Erfassungspipeline vollständig. Fehlermeldung: „<errorMessage>“.

No changes necessary, as placeholders and specific identifiers are generally left untranslated in technical contexts for accuracy and clarity.

SQLSTATE: 0AXX1

Die Tabelle "<entityName>" wurde übersprungen, da den Spalten eine unerwartete UOID zugewiesen wurde. Führen Sie eine vollständige Aktualisierung der Tabelle aus, um das Problem zu beheben. Fehler: <errorMessage>.

INGESTION_GATEWAY_UNEXPECTED_TABLE_UOID

SQLSTATE: 0AXX2

Die Tabelle '<entityName>' wurde aufgrund einer unerwartet zugeordneten UOID übersprungen. Führen Sie eine vollständige Aktualisierung der Tabelle aus, um das Problem zu beheben. Fehler: <errorMessage>.

INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE

SQLSTATE: 08000

Fehler bei der Verbindung aufgrund eines falschen Hostnamens <host> und/oder Port <port> der Quelldatenbank.

Weitere Details finden Sie unter INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE.

INGESTION_GATEWAY_UNSUPPORTED_CHARS_IN_OBJECT_NAME

SQLSTATE: 42XXX

Nicht unterstützte Zeichen, die in Objekten für Tabelle <entityName>gefunden wurden, Grund: <errorMessage>. Die Tabelle wird übersprungen. Wenden Sie sich an den Support, um die Aufnahme von Sonderzeichen zu aktivieren.

INGESTION_GATEWAY_UNSUPPORTED_OBJECT_TYPE

SQLSTATE: 42P01

Objekt '<entityName>' wird nicht unterstützt und wurde übersprungen. Entfernen Sie dieses Objekt zur Auflösung aus der Aufnahmepipeline. Fehlermeldung: „<errorMessage>“.

INGESTION_GATEWAY_UNTRACEABLE_TABLE_MODIFICATION

SQLSTATE: 42000

Nicht nachvollziehbare Tabellenänderung für Tabelle <entityName> erkannt, Grund: <errorMessage>.

Dies kann durch einen Tabellenkürzungsvorgang, einen CDC-Protokollüberlauf oder einen anderen nicht erkennbaren Vorgang verursacht werden.

Die Tabelle wird von der Verarbeitung übersprungen. Um die Verarbeitung erneut zu aktivieren, aktualisieren Sie die Tabelle vollständig.

INGESTION_GATEWAY_XA_TRANSAKTION_NICHT_UNTERSTÜTZT

SQLSTATE: 42000

Replizieren von <entityType> '<entityName>' fehlgeschlagen, da es Teil einer XA-Transaktion ist.

Fehlermeldung: <errorMessage>

INVALID_APPLY_CHANGES_COMMAND

SQLSTATE: 42000

AUTO CDC Befehl ist ungültig. <reason>.

INVALID_ARGUMENT_TYPE

SQLSTATE: nicht zugewiesen

Der Wert des ungültigen Typs, der an den Parameter '<paramName>' übergeben wird. <expectedType> erwartet. <additionalMsg>.

INVALID_COMPATIBILITY_OPTIONS

SQLSTATE: 42616

Die für die Tabelle <table> angegebenen Tabellenoptionen sind ungültig, da

Weitere Informationen finden Sie unter INVALID_COMPATIBILITY_OPTIONS.

INVALID_CONFIG_FOR_UC_PIPELINE

SQLSTATE: 42616

UC-Pipelines unterstützen das Festlegen von "<configKey>" auf "<configValue>" nicht. Entfernen Sie diese Konfiguration aus den Pipelineeinstellungen.

INVALID_DECORATOR_USAGE

SQLSTATE: nicht zugewiesen

Das erste positionale Argument, das an @<decoratorName> übergeben wird, muss aufrufbar sein. Fügen Sie @<decoratorName> ohne Parameter zu Ihrer Funktion hinzu, oder übergeben Sie Optionen an @<decoratorName> , indem Sie Schlüsselwortargumente verwenden (z. B <exampleUsage>. ).

INVALID_DESTINATION_PIPELINE_ID

SQLSTATE: 42K03

Ungültige Zielpipeline-ID: '<pipelineId>'. Pipeline-IDs müssen gültige UUIDs sein.

Stellen Sie sicher, dass Sie die richtige Pipeline-ID und nicht den Pipelinenamen verwenden.

INVALID_EVENT_LOG_CONFIGURATION

SQLSTATE: F0000

Ungültige Ereignisprotokollkonfiguration in Pipelinespezifikation: <message>

INVALID_NAME_IN_USE_COMMAND

SQLSTATE: 42000

Ungültiger Name '<name>' im <command> Befehl. Grund: <reason>

INVALID_PARAM_FOR_DBSQL_PIPELINE

SQLSTATE: 42000

Sie können "pipeline_id" und "pipeline_type" nur beim Aufrufen von "dry_run" für eine DBSQL Pipeline angeben.

INVALID_REFRESH_SELECTION

SQLSTATE: 42000

Weitere Details finden Sie unter INVALID_REFRESH_SELECTION.

INVALID_REFRESH_SELECTION_REQUEST_FOR_CONTINUOUS_PIPELINE

SQLSTATE: 42000

Die Aktualisierungsauswahl wird für den fortlaufenden Modus nicht unterstützt.

INVALID_REFRESH_SELECTION_REQUEST_WITH_FULL_REFRESH

SQLSTATE: 42000

full_refresh sollte für eine Aktualisierungsauswahlanforderung nicht auf "true" festgelegt werden.

INVALID_REWIND_SPECIFICATION

SQLSTATE: 0A000

Die Zurückspulenspezifikation ist ungültig.

Weitere Informationen finden Sie unter INVALID_REWIND_SPECIFICATION

INVALID_ROOT_PATH

SQLSTATE: 42000

Ungültige root_path '<rootPath>': Derzeit werden nur absolute Verzeichnispfade unterstützt. Verzeichnispfade müssen mit '/' beginnen und nicht mit '/' enden.

INVALID_SCHEMA_NAME

SQLSTATE: 3F000

Ungültiges Schema <schemaName> in der Pipelineeinstellung angegeben. Grund: <reason>.

INVALID_SNAPSHOT_AND_VERSION_TYPE

SQLSTATE: nicht zugewiesen

snapshot_and_version für den Flow mit Ziel '<target>' hat einen nicht unterstützten Typ zurückgegeben. <additionalMsg>.

INVALID_TRIGGER_INTERVAL_FORMAT

SQLSTATE: 42000

Die in der <configurationType> angegebene Triggerintervallkonfiguration ist ungültig.

JIRA_ACCESS_FORBIDDEN

SQLSTATE: KD000

Der Verbindungsbenutzer hat keinen Zugriff. Überprüfen Sie die Berechtigungen des Benutzers erneut, und versuchen Sie es erneut.

JIRA_ADMIN_BERECHTIGUNG_FEHLT

SQLSTATE: KD000

Fehler beim Aufrufen von Jira-APIs. Bitte stellen Sie sicher, dass Sie

der Verbindungsbenutzer die Jira-Administratorberechtigungen für Ihre Jira-Instanz.

JIRA_AUTORISIERUNG_FEHLGESCHLAGEN

SQLSTATE: KD000

Fehler bei der Autorisierung beim Aufrufen von Jira-APIs. Freundlich erneut authentifizieren

Die UC-Verbindung wurde erstellt, und versuchen Sie es erneut.

JIRA_CONNECTOR_ENTITY_MAPPING_PARSING_FAILED

SQLSTATE: KD000

Fehler im Jira-Connector.

Beim Analysieren der Entitätszuordnung für den Entitätstyp ist ein Problem aufgetreten: <entityType> Überprüfen Sie, ob Ihre Entität Teil der unterstützten Typen ist.

Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.

JIRA_MISSING_REQUIRED_FIELD

SQLSTATE: KD000

Das erforderliche Feld "<fieldName>" fehlt in der Jira-API-Antwort.

JSON Knoten: <jsonNode>

JIRA_SITE_MISSING

SQLSTATE: KD000

CloudId wurde nicht gefunden, die der bereitgestellten Jira-Domäne <domain>entspricht.

Stellen Sie sicher, dass der verbindende Benutzer auf diese Website zugreifen kann.

JOB_DETAILS_DO_NOT_MATCH

SQLSTATE: 42000

Wenn sowohl „update_cause_details.job_details“ als auch „job_task“ angegeben werden, müssen sie übereinstimmen, sie lauten jedoch <details> und <jobTask>

JOB_TASK_DETAILS_MISSING

SQLSTATE: 42000

Wenn die „Ursache“ JOB_TASK ist, muss entweder „job_task“ oder „update_cause_details.job_details“ angegeben werden.

LEGACY_PIPELINE_CREATION_DISABLED

SQLSTATE: 0A000

Das Erstellen von Pipelines im Legacy-Veröffentlichungsmodus ist standardmäßig in Arbeitsbereichen deaktiviert. Wenden Sie sich an den Databricks-Support, wenn eine Ausnahme erforderlich ist.

LIBRARY_FILE_FETCH_PERMISSION_DENIED

SQLSTATE: 42501

Auf die Bibliotheksdatei kann unter '<path>' nicht zugegriffen werden. Stellen Sie sicher, dass der Benutzer über die erforderlichen Berechtigungen zum Lesen dieser Datei verfügt.

Grund: <reason>

LIBRARY_FILE_NOT_FOUND

SQLSTATE: 42000

Die Datei "<path>" wurde nicht gefunden, oder der run_as Benutzer verfügt nicht über berechtigungen für den Zugriff darauf.

LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_CLASSIC

SQLSTATE: 42000

Das Verweisen auf Datasets mithilfe des virtuellen Schemas LIVE außerhalb der Dataset-Abfragedefinition (d. h. @dlt.table-Anmerkung) wird nicht unterstützt.

LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_DPM

SQLSTATE: 42000

Das Verweisen auf Datasets mithilfe des virtuellen Schemas LIVE<identifier> außerhalb der Definition der Dataset-Abfrage (d. h. @dlt.table Anmerkung) wird nicht unterstützt.

LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_SPARK_SQL

SQLSTATE: 0A000

Verweise auf Datasets mithilfe LIVE virtuellen Schemas in der spark.sql(...)- API dürfen nicht außerhalb der Datasetabfragedefinition (d. h. @dlt.table-Anmerkung) aufgerufen werden. Sie kann nur innerhalb der Datasetabfragedefinition aufgerufen werden.

MANAGED_INGESTION_PIPELINE_SPEC_VALIDATION_ERROR

SQLSTATE: 42000

Weitere Details finden Sie unter MANAGED_INGESTION_PIPELINE_SPEC_VALIDATION_ERROR

MATERIALISIERTE_SICHT_ZURÜCKGEGEBEN_GESTREAMTES_DATENRAHMEN

SQLSTATE: nicht zugewiesen

Die Abfragefunktion für die materialisierte Ansicht "<datasetName>" hat einen Streaming-DataFrame zurückgegeben.

Es muss einen Nicht-Streaming-DataFrame zurückgeben.

MAX_RETRY_REACHED_BEFORE_ENZYME_RECOMPUTE

SQLSTATE: 42000

Die maximale Wiederholungsanzahl wurde erreicht. Wiederholungsanzahl:<flowRetryCount>. maxFlowFailureRetryCountThreshold:<maxFlowRetryAttempts>. <message>

MESA_PIPELINE_INVALID_DEFINITION_TYPE

SQLSTATE: 42000

Das Starten einer <definitionType>-Pipeline aus der UC-Definition ist nicht zulässig.

MESA_PIPELINE_MISMATCH_PIPELINE_TYPES

SQLSTATE: 42000

Die gespeicherte und aktualisierte Definition muss denselben Pipelinetyp haben, es wurden jedoch <stored> und <updated> erhalten.

MESA_PIPELINE_MISSING_DEFINITION

SQLSTATE: 42000

Die Pipeline verfügt nicht über eine gültige Definition in UC, aber eine Aktualisierung wird angefordert.

MESA_PIPELINE_MISSING_DEFINITION_UNEXPECTED

SQLSTATE: 42000

Unerwartet fehlende Pipelinedefinition von UC.

METASTORE_OPERATION_TIMED_OUT

SQLSTATE: 58000

Vorgänge, die an der Aktualisierung der Metaspeicherinformationen für <tableName> beteiligt waren, dauerten länger als <timeout>.

Dieses Problem kann vorübergehend sein oder auf Fehler im konfigurierten Metastore-Client hinweisen. Versuchen Sie, Die Pipeline neu zu starten, und melden Sie dieses Problem, wenn sie weiterhin besteht.

META_ADS_PARAMETERS_CHANGED

SQLSTATE: KD000

Fehler im Metamarketingconnector. Die Eingabeparameter für die ad_insights Tabelle wurden geändert.

Bitte führen Sie eine vollständige Aktualisierung der betroffenen Tabellen durch.

META_ADS_SOURCE_API_ERROR

SQLSTATE: KD000

Fehler im Metamarketing-API-Aufruf. Facebook-Ablaufverfolgungs-ID zur Ablaufverfolgung mit Meta-Unterstützung: <trace_id>.

Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.

META_MARKETING_INSIGHTS_LEVEL_INVALID

SQLSTATE: KD000

Fehler im Metamarketingconnector beim Abrufen von Einblicken für die ad_insights Tabelle.

Der bereitgestellte Levelparameter <level> ist ungültig. Bitte übergeben Sie eine von (Anzeigen, Anzeigen, Kampagne, Konto).

META_MARKETING_INSIGHTS_PARAM_BREAKDOWNS_INVALID

SQLSTATE: KD000

Fehler im Metamarketingconnector beim Abrufen von Einblicken für die ad_insights Tabelle.

Die bereitgestellten Aufschlüsselungen <breakdowns> sind ungültig. Bitte überprüfen Sie die Meta-API-Dokumentation, um eine gültige Liste der Aufschlüsselungen zu finden.

Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.

META_MARKETING_INSIGHTS_PARAM_TIME_INCREMENT_INVALID

SQLSTATE: KD000

Fehler im Metamarketingconnector beim Abrufen von Einblicken für die ad_insights Tabelle.

Der angegebene Zeitinkrementierungsparameter <timeInc> konnte nicht analysiert werden. Geben Sie eine gültige ganzzahlige Zahl ein.

META_MARKETING_INSIGHTS_START_DATE_INVALID

SQLSTATE: KD000

Fehler im Metamarketingconnector beim Abrufen von Einblicken für die ad_insights Tabelle.

Der angegebene Startdatumsparameter <startDate> konnte nicht analysiert werden. Bitte überprüfen und ändern Sie es im korrekten YYYY-MM-DD-Format.

META_MARKETING_INSIGHTS_START_DATE_TOO_OLD

SQLSTATE: KD000

Fehler im Metamarketingconnector beim Abrufen von Einblicken für die ad_insights Tabelle.

Das angegebene Startdatum kann nicht mehr als 37 Monate ab dem aktuellen Synchronisierungsdatum betragen. Bitte überprüfen und ändern Sie sie in den bereitgestellten Params.

Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.

META_MARKETING_RATE_LIMIT_EXCEEDED

SQLSTATE: KD000

Das Meta-API-Ratelimit für dieses Anzeigenkonto wurde erschöpft. Versuchen Sie das Pipelineupdate nach einiger Zeit erneut. Es wird empfohlen, weniger Anzahl von Tabellen parallel aufzunehmen, um das Erreichen der Grenzwerte zu vermeiden.

Wenn Sie häufig auf Fehler bei der Häufigkeitsbegrenzung stoßen, sollten Sie ein Upgrade auf den erweiterten Zugriff in Betracht ziehen, wenn dies noch nicht geschehen ist, wie in der Metadokumentation beschrieben: https://developers.facebook.com/docs/marketing-api/get-started/authorization

META_MARKETING_REQUESTED_DATA_LIMIT_EXCEEDED

SQLSTATE: KD000

Fehler bei der Meta-API, da die angeforderte Datenmenge den Grenzwert überschreitet, den die Metaserver verarbeiten können.

Versuchen Sie, die Anzahl der felder zu verringern, die in dieser Tabelle aufgenommen werden sollen, indem Sie die Spaltenauswahllogik verwenden. Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.

MIGRATION_TO_UNITY_CATALOG

SQLSTATE: 55000

Weitere Informationen finden Sie unter MIGRATION_TO_UNITY_CATALOG

Fehlende Katalog- oder Schema-Berechtigung

SQLSTATE: 42501

Der Benutzer "<userName>" verfügt nicht über Berechtigungen für "<schemaName>". Details: <reason>

MISSING_CREATE_SCHEMA_PRIVILEGE

SQLSTATE: 42501

Der Benutzer "<userName>" verfügt nicht über die Berechtigung zum Erstellen eines Schemas im Katalog. <catalogName>

MISSING_CREATE_TABLE_PRIVILEGE

SQLSTATE: 42501

Der Benutzer "<userName>" verfügt nicht über die Berechtigung zum Erstellen einer Tabelle im Schema. <schemaName>

MISSING_RUN_AS_USER

SQLSTATE: 28000

Für das Update wurde keine Benutzerausführung angegeben.

MULTI_QUERY_SNAPSHOT_TARGET_NOT_SUPPORTED (Mehrfachabfrage-Snapshot-Ziel nicht unterstützt)

SQLSTATE: 0A000

'<tableName>' enthält bereits eine AUTO CDC FROM SNAPSHOT Abfrage '<flowName>'. Derzeit unterstützt diese API nur einen Fluss pro Ziel.

MUTUALLY_EXCLUSIVE_OPTIONS

SQLSTATE: 42000

Sich gegenseitig ausschließende Optionen <options>. Entfernen Sie eine dieser Optionen.

NEGATIVE_VALUE

SQLSTATE: nicht zugewiesen

Der Wert für <arg_name> muss größer oder gleich 0 sein, ist jedoch „<arg_value>“.

NON_UC_TABLE_ALREADY_MANAGED_BY_OTHER_PIPELINE

SQLSTATE: 42P07

Tabelle '<tableName>' wird bereits über die Pipeline <otherPipelineId>verwaltet.

Wenn die Tabelle "<tableName>" von dieser Pipeline verwaltet werden soll –

  1. Entfernen Sie die Tabelle aus der Pipeline „<otherPipelineId>“.

  2. Starten Sie ein vollständiges Aktualisierungsupdate für diese Pipeline.

Wenn Sie die Tabelle weiterhin aus mehreren Pipelines verwalten möchten, deaktivieren Sie diese Überprüfung, indem Sie die Konfiguration pipelines.tableManagedByMultiplePipelinesCheck.enabled in den Pipelineeinstellungen auf false festlegen.

Dies wird nicht empfohlen, da gleichzeitige Vorgänge in der Tabelle möglicherweise miteinander in Konflikt stehen und zu unerwarteten Ergebnissen führen.

NOTEBOOK_NAME_LIMIT_REACHED

SQLSTATE: 42000

Ungültiger Notizbuchpfad: '<nameStart>...<nameEnd>'. Er ist länger als <maxNotebookPathLength> Zeichen.

NOTEBOOK_NOT_FOUND

SQLSTATE: 42000

Auf das Notizbuch '<notebookPath>' kann nicht zugegriffen werden. Es ist entweder nicht vorhanden, oder die Zum Ausführen dieser Pipeline <identity>verwendete Identität fehlt den erforderlichen Berechtigungen.

NOTEBOOK_PIP_INSTALL_ERROR

SQLSTATE: 42000

Fehler beim Ausführen von '<pipInstallCommand>' aus dem Notizbuch: <notebookPath>. Weitere Details finden Sie in den stdout-Protokolldateien des Treibers im Cluster.

NOTEBOOK_TOO_LARGE

SQLSTATE: 54000

Der aufgelöste Notizbuchinhalt bei '<notebookPath>' ist zu groß, bitte verringern Sie die Größe des Notizbuchs.

NOTIFICATIONS_DUPLICATE_ALERTS

SQLSTATE: 42000

Doppelte Warnungen '<alertsDuplicates>' sind in [<alerts>] angegeben

NOTIFICATIONS_DUPLICATE_EMAIL_ADDRESSES

SQLSTATE: 42000

Doppelte E-Mail-Adressen '<emailRecipientsDuplicates>' in [<emailRecipients>] angegeben

NOTIFICATIONS_INVALID_ALERTS

SQLSTATE: 42000

Ungültige Warnungen wurden angegeben, um Benachrichtigungen zu erhalten auf: <invalidAlerts>

NOTIFICATIONS_INVALID_EMAIL_ADDRESS

SQLSTATE: 42000

Ungültige E-Mail-Adresse, die zum Empfangen von Benachrichtigungen angegeben wurde: <invalidEmailAddresses>

NOTIFICATIONS_MISSING_PARAMS

SQLSTATE: 42000

Geben Sie mindestens einen Empfänger und eine Warnung in <setting>

NO_SOURCE_OR_SNAPSHOT_AND_VERSION_ARGUMENT_PROVIDED

SQLSTATE: nicht zugewiesen

Entweder source oder snapshot_version muss für apply_changes_from_snapshot mit dem Ziel '<target>' festgelegt werden.

NO_TABLES_IN_PIPELINE

SQLSTATE: 42617

Es wird erwartet, dass Pipelines mindestens eine Tabelle definiert haben, aber in Ihrer Pipeline wurden keine Tabellen gefunden.

Vergewissern Sie sich, dass Sie "Run As is configured", die erwarteten Quelldateien und/oder Verzeichnisse enthalten und dass Ihr Quellcode Tabellendefinitionen enthält (z CREATE MATERIALIZED VIEW . B. in SQL-Code, @dlt.table in Python-Code).

Beachten Sie, dass nur Tabellen zu dieser Prüfung gezählt werden. Dieser Fehler kann auch auftreten, wenn Sie nur Sichten oder Flows in Ihre Pipeline einbinden.

OUTPUT_MODE_NOT_SUPPORTED_FOR_TABLE_FLOW

SQLSTATE: 42000

Der Ausgabemodus '<outputMode>' wird für den Tabellenfluss '<flowName>' für die Zieltabelle '<target>' nicht unterstützt. Der Modus "Anfüge" wird nur für Tabellenflüsse unterstützt.

OWNER_IS_MISSING

SQLSTATE: 42000

Der Besitzer ist nicht vorhanden.

PAGINATION_REQUEST_HAS_NAME_AND_PAGINATION

SQLSTATE: 42000

Sie können entweder eine <name> oder eine Paginierung angeben, aber nicht beides.

PATCH_PIPELINE_DEFINITION_UNSUPPORTED_FIELD

SQLSTATE: 42000

PatchPipelineDefinition unterstützt nur das schedule Feld, aber die bereitgestellte Definition hatte andere aufgefüllte Felder: '<updatedDefinition>'.

PERSISTED_VIEW_READS_FROM_STREAMING_SOURCE

SQLSTATE: 42000

Beibehaltene Ansichten unterstützen das Lesen aus Streamingquellen nicht.

PERSISTED_VIEW_READS_FROM_TEMPORARY_VIEW

SQLSTATE: 42K0F

Die persistierte Ansicht <persistedViewName> kann nicht auf die temporäre Ansicht <temporaryViewName> verweisen, da diese außerhalb des Pipelinebereichs nicht verfügbar ist. Machen Sie entweder die gespeicherte Ansicht temporär oder persistieren Sie die temporäre Ansicht.

PIPELINE_CLONING_ALREADY_IN_PROGRESS

SQLSTATE: 42000

Die Pipeline ist bereits mit der ID „<pipelineId>“ geklont worden.

PIPELINE_CLONING_BOTH_TARGET_AND_SCHEMA_SPECIFIED

SQLSTATE: 42000

Beim Klonen einer Pipeline können weder 'target' noch 'schema' angegeben werden. Geben Sie nur eine an.

PIPELINE_CLONING_CANNOT_CHANGE_SCHEMA_TO_TARGET

SQLSTATE: 42000

Eine Pipeline mit 'schema' kann nicht mit einer Pipeline mit 'Target' geklont werden. Die geklonte Pipeline muss auch "schema" verwenden oder beide auslassen, um den ursprünglichen Wert zu erben.

PIPELINE_CLONING_INVALID_DURING_ACTIVE_UPDATE

SQLSTATE: 42000

Die Pipeline mit der ID '<pipelineId>' kann während eines aktiven Updates nicht geklont werden.

PIPELINE_CLONING_INVALID_FIELDS

SQLSTATE: 42000

Die Anforderung enthielt eine Pipeline-Spezifikation mit ungültigen Feldern zum Klonen. Zulässige Felder sind: Name, Katalog, Ziel, Konfiguration.

PIPELINE_CLONING_INVALID_FOR_MISSING_TARGET

SQLSTATE: 42000

Die Pipeline mit der ID „<pipelineId>“ wird nicht in einem Zielschema publiziert. Die Quellpipeline muss in einem Zielschema veröffentlicht werden, das geklont werden soll. Versuchen Sie es erneut, nachdem Sie das Feld "Ziel" in der Pipelinespezifikation angegeben haben, und führen Sie ein neues Update aus, um es in einem Zielschema zu veröffentlichen.

PIPELINE_CLONING_INVALID_FOR_UC_PIPELINE

SQLSTATE: 42000

Die Pipeline mit der ID '<pipelineId>' ist bereits eine UC-Pipeline. UC-Pipelines können nicht geklont werden.

PIPELINE_CLONING_NO_CATALOG_SPECIFIED

SQLSTATE: 42000

Kein angegebener Katalog zum Klonen.

PIPELINE_CLONING_NO_MODE_SPECIFIED

SQLSTATE: 42000

Kein angegebener Klonmodus.

PIPELINE_CLONING_NO_TARGET_SPECIFIED

SQLSTATE: 42000

Kein angegebener Zielkatalog zum Klonen.

PIPELINE_CREATION_NOT_ENABLED_FOR_WORKSPACE

SQLSTATE: 42000

Die Pipelineerstellung ist für diesen Arbeitsbereich nicht aktiviert.

PIPELINE_DOES_NOT_EXIST

SQLSTATE: 42000

Die Pipeline mit der ID '<pipelineId>' ist nicht vorhanden.

Weitere Informationen finden Sie unter PIPELINE_DOES_NOT_EXIST

PIPELINE_ENVIRONMENT_NOT_ENABLED

SQLSTATE: 0A000

Die Verwendung der Umgebung in Lakeflow Spark Declarative Pipelines ist nicht aktiviert.

PIPELINE_ENVIRONMENT_VERSION_NOT_ALLOWED

SQLSTATE: 54000

Die Umgebung der Pipeline unterstützt derzeit keine Umgebungsversionen.

PIPELINE_FAILED_TO_UPDATE_UC_TABLE_DUE_TO_CONCURRENT_UPDATE

SQLSTATE: 55000

Die Pipeline konnte die UC-Tabelle (<tableName>) nach <attempts> Versuchen aufgrund gleichzeitiger Änderungen nicht aktualisieren.

Vergewissern Sie sich, dass keine externen Prozesse die Tabelle ändern, das Update wiederholen und sich an die Databricks-Unterstützung wenden, wenn dieses Problem weiterhin besteht.

PIPELINE_FAILED_TO_UPDATE_UC_TABLE_DUE_TO_EXTERNAL_DELETE

SQLSTATE: 55000

Die Tabelle <tableName> wurde von einem externen Vorgang gelöscht, während die Pipeline sie aktualisiert hat.

Stellen Sie sicher, dass keine externen Prozesse die Tabelle ändern, und wiederholen Sie dann die Aktualisierung.

Wenn das Problem weiterhin besteht, wenden Sie sich an den Databricks-Support.

PIPELINE_FOR_TABLE_NEEDS_REFRESH

SQLSTATE: 55000

Die Tabelle <tableName> befindet sich nicht im erforderlichen Zustand, die Tabelle wurde kürzlich nicht aktualisiert. Die Pipeline mit der ID '<pipelineId>' muss erneut ausgeführt werden und dann den Vorgang wiederholen.

PIPELINE_FOR_TABLE_NOT_FOUND

SQLSTATE: 42K03

Die Pipeline mit der ID „<pipelineId>“, die die Tabelle <tableName> verwaltet, kann nicht gefunden werden. Stellen Sie sicher, dass Sie sich im gleichen Arbeitsbereich wie die Pipeline befinden, die Pipeline besitzen, und dass die Pipeline mindestens einmal ausgeführt wurde.

PIPELINE_GLOB_INCLUDES_CONFLICTS

SQLSTATE: F0000

Entweder das Feld „glob“ oder „notebook/file“ unter „libraries“ in den Pipelineeinstellungen sollte festgelegt sein. Ändern Sie die Pipelineeinstellungen.

PIPELINE_GLOB_INCLUDES_NOT_SUPPORTED

SQLSTATE: 0A000

Das Verwenden des Glob-Felds zum Einschließen von Quelldateien ist ein Vorschaufeature und ist deaktiviert.

Wählen Sie jede Quelldatei erneut aus, um sie in die Pipeline aufzunehmen und diesen Fehler zu beheben.

Wenden Sie sich an die Databricks-Unterstützung, um mehr über dieses Feature zu erfahren und sich für die Vorschau zu registrieren.

PIPELINE_GLOB_UNSUPPORTED_SPECIAL_CHARACTER

SQLSTATE: 42000

Die Sonderzeichen <specialChar> sind reserviert und sollten nicht in den Pipelineeinstellungen im eingeschlossenen Pfad „<path>“ verwendet werden. Entfernen Sie diese Zeichen, um den Fehler zu beheben.

PIPELINE_NAME_LIMIT_REACHED

SQLSTATE: 42000

Der Name darf nicht länger als <maxPipelineNameLength> Zeichen sein.

PIPELINE_NON_RETRYABLE_ANALYSIS_CLIENT_ERROR

SQLSTATE: 42000

Die Pipeline konnte die Quelltabellen (<tables>) aufgrund nicht wiederholbarer Fehler nach einer teilweisen Ausführung nicht analysieren.

Ein neues Pipeline-Update wird nicht erstellt.

<flowErrors>

Überprüfen Sie das Ereignisprotokoll, und beheben Sie die Probleme entsprechend.

PIPELINE_NOT_ELIGIBLE_FOR_RESTORATION

SQLSTATE: 42000

Pipeline '<pipelineId>' liegt außerhalb des Wiederherstellungsfensters.

PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE

SQLSTATE: 0AKLT

Die Pipeline mit der ID '<pipelineId>', die die Tabelle <tableName>verwaltet, verwendet nicht den Direct Publishing-Modus.

PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE

SQLSTATE: 55000

Die Tabelle ist noch nicht für die Aktualisierung bereit.

Weitere Details finden Sie unter PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE.

PIPELINE_PERMISSION_DENIED_NOT_OWNER

SQLSTATE: 42501

Sie dürfen diesen Vorgang nicht ausführen. Sie sind weder der Besitzer der Pipeline mit der ID '<pipelineId>', noch verwalten Sie die Tabelle <tableName>.

PIPELINE_WIEDERHOLBARE_ANALYSE

SQLSTATE: 42000

Fehler bei der Pipeline beim Analysieren der Quelltabellen (<tables>) aufgrund wiederholbarer Fehler nach einer teilweisen Ausführung.

Zum Wiederholen der Verarbeitung wird ein neues Pipelineupdate erstellt. Wenn der Fehler weiterhin besteht, überprüfen Sie das Ereignisprotokoll, und beheben Sie die Probleme entsprechend.

PIPELINE_SETTINGS_FIELD_CANNOT_BE_EDITED

SQLSTATE: 42000

'<uneditableFieldName>' kann von Benutzern nicht geändert werden. Wenn Benutzer das <settingName>Feld hinzufügen oder ändern möchten, verwenden Sie stattdessen das Feld "<editableFieldName>".

PIPELINE_SETTINGS_MODIFIED_CONCURRENTLY

SQLSTATE: 42000

Pipelineeinstellungen wurden gleichzeitig geändert.

PIPELINE_SETTINGS_UNSUPPORTED_CONFIGURATIONS

SQLSTATE: 42000

Die Konfigurationen <configurations> werden von Lakeflow Spark Declarative Pipelines nicht unterstützt. Entfernen Sie diese Konfigurationen.

PIPELINE_SETTING_SHOULD_NOT_SPECIFY_DEVELOPMENT

SQLSTATE: 42000

Das Starten eines Updates mit der Einstellung "Entwicklung" wird nicht unterstützt.

PIPELINE_SHOULD_NOT_HAVE_MULTIPLE_TABLES

SQLSTATE: 42000

Die Pipeline muss genau eine Tabelle haben, es wurden jedoch <tablesSize> Tabellen gefunden: <tables>

PIPELINE_SOURCE_FILE_NUMBER_EXCEEDED

SQLSTATE: 54000

Die Anzahl der Quelldateien, einschließlich dateien, die in Ordnern deklariert sind, überschreitet den Grenzwert von <limit>.

Entfernen oder Zusammenführen übermäßiger Dateien und Ändern der entsprechenden Pipelinespezifikation bei Bedarf,

oder wenden Sie sich an den Databricks-Support, um eine Grenzwerterhöhung anzufordern.

PIPELINE_SOURCE_FOLDER_DEPTH_EXCEEDED

SQLSTATE: 54000

Der Ordner „<folder_path>“ überschreitet die maximal zulässige Verzeichnisschachtelungsebene von <limit>. Verringern Sie die Ordnerschachtelungsebene, oder wenden Sie sich an den Databricks-Support, um eine Erhöhung des Grenzwerts zu beantragen.

PIPELINE_SPEC_PARAM_CANNOT_BE_CHANGED

SQLSTATE: 42000

Das Ändern des folgenden Parameters <param> in pipelineeinstellungen ist nicht zulässig.

PIPELINE_TYPE_NOT_SUPPORTED

SQLSTATE: 42000

Der Pipelinetyp '<pipelineType>' wird nicht unterstützt.

PIPELINE_TYPE_NOT_WORKSPACE_PIPELINE_TYPE

SQLSTATE: 0AKLT

Die Pipeline mit der ID '<pipelineId>', die die Tabelle <tableName>verwaltet, ist keine ETL-Pipeline.

PIPELINE_TYPE_QUOTA_EXCEEDED

SQLSTATE: 54000

Das Update '<updateId>' kann nicht gestartet werden, da der Grenzwert für aktive Pipelines vom Typ '<pipelineType>' erreicht wurde.

PIPELINE_UPDATE_FOR_TABLE_IS_RUNNING

SQLSTATE: 55000

Die Pipeline mit der ID „<pipelineId>“, die die Tabelle <tableName> verwaltet, wird ausgeführt. Beenden Sie die Pipeline, bevor Sie den Vorgang ausführen.

PIPELINE_WORKSPACE_LIMIT_REACHED

SQLSTATE: 42000

Die Pipelineerstellung vom Typ '<pipelineType>' wurde blockiert, da der Arbeitsbereich '<orgId>' bereits über '<countLimit>' Pipelines verfügt. Löschen Sie nicht verwendete Pipelines.

PIP_INSTALL_NOT_AT_TOP_OF_NOTEBOOK

SQLSTATE: 42000

Es wurden Zellen gefunden, die „%pip install“ enthalten, die sich nicht am Anfang des Notebooks für <notebookPath> befinden.

Verschieben Sie alle Zellen mit „%pip install“ an den Anfang des Notebooks.

PY4J_BLOCKED_API

SQLSTATE: nicht zugewiesen

Sie verwenden eine Python-API, die in der aktuellen Umgebung nicht unterstützt wird.

Bitte überprüfen Sie die Databricks-Dokumentation auf Alternativen.

<additionalInfo>

QUERY_BASED_CONNECTOR_SOURCE_API_ERROR

SQLSTATE: KD000

Fehler im <sourceName>-API-Aufruf. Quell-API-Typ: <qbcSourceApiType>.

Versuchen Sie, die Zieltabelle zu aktualisieren. Wenn das Problem weiterhin besteht, erstellen Sie ein Ticket.

QUERY_BASED_INGESTION_CONNECTOR_ERROR

SQLSTATE: 0A000

Fehler im abfragebasierten Aufnahmeconnector für <sourceName>.

Weitere Informationen finden Sie unter QUERY_BASED_INGESTION_CONNECTOR_ERROR

REFERENCE_DLT_DATASET_OUTSIDE_QUERY_DEFINITION

SQLSTATE: 0A000

Das Verweisen auf das Lakeflow Spark Declarative Pipelines-Dataset <identifier> außerhalb der Dataset-Abfragedefinition (d. h @dlt.table . Anmerkung) wird nicht unterstützt. Lesen Sie sie stattdessen innerhalb der Datasetabfragedefinition.

REFRESH_INITIATED_FROM_INVALID_WORKSPACE

SQLSTATE: 42000

Die Aktualisierung muss im Arbeitsbereich <homeWorkspaceId>initiiert werden, in dem die Ressource erstellt wurde.

Die Aktualisierung wurde im Arbeitsbereich <userWorkspaceId>versucht.

REFRESH_MODE_ALREADY_EXISTS

SQLSTATE: 42710

Einer Tabelle, die bereits <type>hat, kann <existingType> nicht hinzugefügt werden. Bitte legen Sie den vorhandenen Zeitplan ab oder verwenden Sie ALTER TABLE...ALTER <type> ... sie zu ändern.

REQUIRED_PARAM_NOT_FOUND

SQLSTATE: 42000

Der erforderliche Parameter <param> wurde nicht gefunden.

RESERVED_KEYWORD_IN_USE_CATALOG

SQLSTATE: 42000

USE CATALOG '' ist unzulässig, da '<reservedKeyword><reservedKeyword>' ein reserviertes Schlüsselwort in Lakeflow Spark Declarative Pipelines ist.

RESERVED_KEYWORD_IN_USE_SCHEMA

SQLSTATE: 42000

USE SCHEMA '' ist unzulässig, da '<reservedKeyword><reservedKeyword>' ein reserviertes Schlüsselwort in Lakeflow Spark Declarative Pipelines ist.

RESSOURCEN_WERDEN_BEREITGESTELLT

SQLSTATE: 42000

Pipeline-Ressourcen werden für die Pipeline "<pipelineId>" bereitgestellt.

RESOURCE_READ_ONLY_IN_WORKSPACE

SQLSTATE: 42501

<resourceType> "<resourceName>" wurde im aktuellen Arbeitsbereich schreibgeschützt festgelegt.

WIEDERHERSTELLEN_NICHT_GELÖSCHTE_PIPELINE

SQLSTATE: 42000

Die Pipeline "<pipelineId>" wird nicht gelöscht. Die Wiederherstellung gilt nur für gelöschte Pipelines.

WIEDERHERSTELLUNGSPIPELINE_DEAKTIVIERT

SQLSTATE: 42000

RestorePipeline ist für den Pipelinetyp nicht aktiviert. <pipelineType>

Wenden Sie sich an den Databricks-Support, um Unterstützung bei der Wiederherstellung der Pipeline "<pipelineId>" zu erhalten.

ROOT_PATH_NOT_FOUND

SQLSTATE: 42000

Auf den Stammpfad '<rootPath>' kann nicht zugegriffen werden. Stellen Sie sicher, dass Sie über die erforderlichen Zugriffsrechte verfügen.

RUN_AS_USER_NOT_FOUND

SQLSTATE: 28000

Die angegebene Ausführung als benutzende Person <runAsUserId> für das Update ist im Arbeitsbereich nicht vorhanden.

SAAS_CONNECTION_ERROR

SQLSTATE: KD000

Fehler beim Herstellen einer Verbindung mit der <sourceName> Quelle. Fehlercode: <saasConnectionErrorCode>.

Weitere Informationen finden Sie unter SAAS_CONNECTION_ERROR

SAAS_CONNECTOR_DUPLICATE_DATA

SQLSTATE: 42000

Doppelte Daten in der Tabelle <tableName>gefunden. Quelltyp: <sourceName>.

Weitere Informationen finden Sie unter SAAS_CONNECTOR_DUPLICATE_DATA

SAAS_CONNECTOR_INVALID_INCLUDE_COLUMNS

SQLSTATE: 42000

Ungültige include_columns für die Tabelle <qualifiedTableName>angegeben. Grund: <reason>

SAAS_CONNECTOR_INVALID_PRIMARY_KEY_CONFIGURATION

SQLSTATE: 42000

Ungültige Primärschlüsselkonfiguration für Tabelle <qualifiedTableName>. Grund: <reason>

SAAS_CONNECTOR_MUTUAL_AUTHENTICATION_FAILED

SQLSTATE: KD000

Diese Sitzung konnte nicht für die Verwendung mit <sourceName>sich gegenseitig authentifiziert werden. Quell-API-Typ: <saasSourceApiType>. Fehlercode: <saasSourceApiErrorCode>.

Stellen Sie sicher, dass das Clientzertifikat und der private Schlüssel ein gültiges Paar und vertrauenswürdig sind.<sourceName>

SAAS_CONNECTOR_REFRESH_TOKEN_EXPIRED

SQLSTATE: KD000

Das Aktualisierungstoken für die Verbindung <connectionName> ist abgelaufen. Bearbeiten Sie die Verbindung, authentifizieren Sie sie erneut, und führen Sie die Pipeline erneut aus.

SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR

SQLSTATE: 42KD4

In der Tabelle <tableName> der <sourceName> Quelle ist eine Schemaänderung aufgetreten.

Weitere Details finden Sie unter SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR.

SAAS_CONNECTOR_SOURCE_API_ERROR

SQLSTATE: KD000

Fehler im <sourceName>-API-Aufruf. Quell-API-Typ: <saasSourceApiType>. Fehlercode: <saasSourceApiErrorCode>.

Versuchen Sie, die Zieltabelle zu aktualisieren. Wenn das Problem weiterhin besteht, erstellen Sie ein Ticket.

SAAS_CONNECTOR_UC_CONNECTION_OAUTH_EXCHANGE_FAILED

SQLSTATE: KD000

Fehler beim OAuth-Tokenaustausch für uc-Verbindung: <connectionName>.

Dies kann durch Probleme mit Ihren UC-Anmeldeinformationen verursacht werden. Überprüfen Sie die Fehlerablaufverfolgung, bearbeiten Sie die UC-Verbindung, authentifizieren Sie sie erneut, und führen Sie die Pipeline erneut aus. Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.

SAAS_CONNECTOR_UNSUPPORTED_ERROR

SQLSTATE: 0A000

In der Datenquelle <sourceName>ist ein nicht unterstützter Fehler aufgetreten.

Weitere Informationen finden Sie unter SAAS_CONNECTOR_UNSUPPORTED_ERROR.

SAAS_INCOMPATIBLE_SCHEMA_CHANGES_DURING_INIT

SQLSTATE: 42KD4

Beim Initialisieren der Pipeline wurden inkompatible Schemaänderungen erkannt:

<details>

Bitte führen Sie eine vollständige Aktualisierung der betroffenen Tabellen durch.

SAAS_PARTIAL_ANALYSIS_INPUT_CREATION_ERROR

SQLSTATE: 42KD4

Fehler beim Erstellen von Eingaben für die Teilanalyse. Ein neues Pipeline-Update wird nicht erstellt.

Überprüfen Sie das Ereignisprotokoll, und beheben Sie die Probleme entsprechend.

SAAS_SCHEMA_DIVERGED_DURING_ANALYSIS

SQLSTATE: 42KD4

Das analysierte Schema der Quelltabelle (<table>) hat sich vom erwarteten Schema abgegrenzt.

Versuchen Sie das Pipelineupdate erneut, und überprüfen Sie, ob das Problem behoben ist.

Wenn dieses Problem weiterhin besteht, führen Sie eine vollständige Aktualisierung der oben genannten Tabellen durch.

Schema erwartet:

<expectedSchema>

Tatsächliches Schema:

<actualSchema>

SAAS_UC_CONNECTION_INACCESSIBLE

SQLSTATE: 08000

Auf die bereitgestellte Verbindungs-<connectionName> kann nicht zugegriffen werden. Überprüfen Sie die Verbindung, und versuchen Sie es erneut.

Weitere Informationen finden Sie unter SAAS_UC_CONNECTION_INACCESSIBLE.

SCHEMA_SPEC_EMPTY_CATALOG

SQLSTATE: 3D000

SchemaSpec weist eine leere Zeichenfolge im Katalogfeld auf.

Entfernen Sie die leere Zeichenfolge, oder fügen Sie den Katalognamen hinzu. (Wenn dieses Schema nicht zu einem Katalog in der Quelle gehört, legen Sie das Feld nicht fest.)

Schemaspezifikationsdetails:

<schemaSpec>

SCHEMA_SPEC_EMPTY_SCHEMA

SQLSTATE: 3F000

SchemaSpec verfügt über eine leere Zeichenfolge im Schemafeld.

Entfernen Sie die leere Zeichenfolge, oder fügen Sie den Schemanamen hinzu. (Wenn diese Tabelle nicht zu einem Schema in der Quelle gehört, legen Sie das Feld nicht fest.)

Schemaspezifikationsdetails:

<schemaSpec>

SCHEMA_SPEC_REQUIRE_ONE_OF_CATALOG_SCHEMA

SQLSTATE: 42000

Mindestens ein Quellkatalog- und Quellschema muss vorhanden sein. Aber beide sind leer.

Schemaspezifikationsdetails:

<schemaSpec>

SEQUENZ_NACH_SPALTE_NICHT_GEFUNDEN

SQLSTATE: 42703

Die Definition der Pipeline enthält sequence_by-Spalte(n) (<columnNames>), die in der Tabelle <qualifiedTableName> des Quellcodes <sourceType> nicht vorhanden sind. Entfernen Sie diese Spalten aus dem Feld sequence_by.

SERVERLESS_BUDGET_POLICY_AND_USAGE_POLICY_BOTH_SET

SQLSTATE: 42000

Es kann weder budget_policy_id noch usage_policy_id festgelegt werden. Bitte budget_policy_id entfernen.

SERVERLESS_BUDGET_POLICY_BAD_REQUEST

SQLSTATE: 42000

Die bereitgestellte Budgetrichtlinie mit der ID "<budgetPolicyId>" kann in diesem Arbeitsbereich aufgrund von Richtlinienarbeitsbereichsbindungseinschränkungen nicht verwendet werden.

SERVERLESS_BUDGET_POLICY_IS_INVALID

SQLSTATE: 42000

Die Serverlose Budgetrichtlinie mit der ID "<budgetPolicyId>" ist ungültig.

SERVERLESS_BUDGET_POLICY_MISSING

SQLSTATE: 42000

Serverlose Budgetrichtlinie mit der ID '<budgetPolicyId>' ist nicht vorhanden.

SERVERLESS_BUDGET_POLICY_NOT_ENABLED

SQLSTATE: 0A000

Die Richtlinie für serverloses Budget ist nicht aktiviert, wenden Sie sich bitte an den Databricks-Support.

SERVERLESS_BUDGET_POLICY_NOT_ENABLED_FOR_ACCOUNT

SQLSTATE: 0A000

Die Serverlose Budgetrichtlinie ist für dieses Konto nicht aktiviert. Der Benutzer kann keine Budgetrichtlinie für diese Pipeline angeben. Der Kontoadministrator sollte versuchen, sich über das Featurevorschauportal zu registrieren. Wenn das Problem weiterhin besteht, wenden Sie sich bitte an den Databricks-Support.

SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_NON_SERVERLESS_PIPELINE

SQLSTATE: 42000

Die Serverless-Budgetrichtlinie kann nicht einer Nicht-Serverless-Pipeline zugewiesen werden.

SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_PIPELINE_TYPE

SQLSTATE: 42000

Die Serverlose Budgetrichtlinie wird für den Pipelinetyp <pipelineType>nicht unterstützt.

SERVERLESS_BUDGET_POLICY_PERMISSION_DENIED

SQLSTATE: 42000

Der Benutzer verfügt nicht über die Berechtigung, serverlose Budgetrichtlinien mit der ID "<budgetPolicyId>" zu verwenden.

SERVERLESS_NOT_AVAILABLE

SQLSTATE: 0A000

Serverlose Berechnung ist nicht verfügbar. Weitere Informationen finden Sie unter Databricks.

SERVERLESS_NOT_ENABLED

SQLSTATE: 0A000

Sie können keine serverlose Berechnung mit Lakeflow Spark Declarative Pipeliness verwenden. Wenden Sie sich an Databricks, um dieses Feature für Ihren Arbeitsbereich zu aktivieren.

SERVERLESS_NOT_ENABLED_FOR_USER

SQLSTATE: 0A000

Serverlose Berechnung ist für Den Anrufer nicht aktiviert. Wenden Sie sich an Ihren Arbeitsbereichsadministrator, um dieses Feature zu aktivieren.

SERVERLESS_NOT_ENABLED_FOR_WORKSPACE

SQLSTATE: 0A000

Serverlose Berechnung ist für diesen Arbeitsbereich und/oder diese Region nicht verfügbar. Weitere Informationen finden Sie unter Databricks.

SERVERLESS_REQUIRED

SQLSTATE: 42000

Sie müssen in diesem Arbeitsbereich serverloses Berechnen verwenden.

SERVICENOW_CONNECTION_ERROR

SQLSTATE: KD000

In ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>.

Weitere Informationen finden Sie unter SERVICENOW_CONNECTION_ERROR

SERVICENOW_CONNECTOR_EMPTY_CURSOR_KEY_ERROR

SQLSTATE: KD000

Im ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>.

Zurzeit kann die Aufnahmepipeline die Tabelle '<tableName>' nicht aufnehmen, da die Cursortaste in einer Zeile ein leeres Feld enthält.

Um die Ausführung der Pipeline fortzusetzen, entfernen Sie diese Tabelle. Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.

SERVICENOW_CONNECTOR_INSTANCE_HIBERNATION_ERROR

SQLSTATE: KD000

In ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>.

Fehler beim Herstellen einer Verbindung mit der ServiceNow-Instanz. Die Instanz scheint im Schlafmodus oder inaktiv zu sein.

Melden Sie sich bei Ihrem ServiceNow-Verwaltungsportal an, und warten Sie einige Zeit, bis die Instanz vollständig aktiviert ist.

Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.

SERVICENOW_CONNECTOR_INSTANCE_OFFLINE_ERROR

SQLSTATE: KD000

In ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>.

Fehler beim Herstellen einer Verbindung mit der ServiceNow-Instanz. Die Instanz ist offline.

Melden Sie sich beim ServiceNow-Verwaltungsportal an, und warten Sie einige Zeit, bis die Instanz wiederhergestellt wird.

Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.

SERVICENOW_CONNECTOR_INVALID_TABLE_ERROR

SQLSTATE: KD000

In ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>.

Fehler beim Abfragen des Schemas der Tabelle '<tableName>'. Die Tabelle ist im ServiceNow-Konto für diesen Benutzer nicht vorhanden.

Überprüfen Sie den Tabellennamen für alle Tippfehler, und stellen Sie sicher, dass der Benutzer über die erforderlichen Berechtigungen für den Zugriff auf die Tabelle verfügt.

Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.

SERVICENOW_CONNECTOR_IP_ADDRESS_RESTRICTED_ERROR

SQLSTATE: KD000

In ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>.

Fehler beim Herstellen einer Verbindung mit der ServiceNow-Instanz. Die Instanz verfügt über Einschränkungen für die IP-Adresszugriffskontrolle.

Um dies zu beheben, deaktivieren Sie entweder die IP-Adresseinschränkungen, indem Sie zu ServiceNow >> All >> System Security >> IP Address Access Control navigieren oder serverlose stabile IPs verwenden.

Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.

SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR

SQLSTATE: KD000

In ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>.

Ungültige ServiceNow-API-Endpunkt-URL erkannt. Die URL-Struktur stimmt nicht mit dem erwarteten ServiceNow-Format überein.

Überprüfen Sie die ServiceNow-Instanzkonfiguration in den UC-Verbindungsanmeldeinformationen.

Weitere Details finden Sie unter SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR.

SERVICENOW_CONNECTOR_MAX_FAILED_ATTEMPTS_REACHED

SQLSTATE: KD000

In ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>.

Dies geschieht häufig, wenn der Datenabruf für eine Tabelle zu lang dauert. Arbeiten Sie als erster Schritt mit Ihrem ServiceNow-Administrator zusammen, um die Indizierung in der Cursorspalte zu aktivieren.

Die Cursorspalte wird aus der folgenden Liste in der Reihenfolge der Verfügbarkeit und Einstellung ausgewählt: sys_updated_on (erste Auswahl), sys_created_on (zweite Auswahl), sys_archived (dritte Auswahl)

Anweisungen zum Aktivieren der Indizierung in ServiceNow finden Sie hier: https://docs.databricks.com/ingestion/lakeflow-connect/servicenow-overview#why-is-my-servicenow-ingestion-performance-slow.

Außerdem wird empfohlen, das TIMEout der REST-API-Abfrage auf mehr als 60 Sekunden zu erhöhen, um mehr Zeit zum Abrufen von Datensätzen zu ermöglichen.

Versuchen Sie es dann erneut mit der Erfassungspipeline. Wenn das Problem weiterhin auftritt, reichen Sie ein Ticket ein.

SERVICENOW_CONNECTOR_SCHEMA_FIELD_TYPE_INACCESSIBLE

SQLSTATE: KD000

Im ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>.

Beim Abrufen des Tabellenschemas ohne Administratorrechte kann nicht auf den internal_type der Schemaspalten zugegriffen werden.

Um dies zu beheben, erteilen Sie dem aktuellen Benutzer Leseberechtigungen für die Tabelle "sys_glide_object".

Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.

SERVICENOW_CONNECTOR_SCHEMA_FIELD_TYPE_MISMATCH

SQLSTATE: KD000

Fehler in ServiceNow beim Abrufen des Tabellenschemas.

Es wurden zwei widersprüchliche Datentypen für das Feld '<fieldName>'<firstDataType> und '<secondDataType>' gefunden.

Um die Ausführung der Pipeline fortzusetzen, entfernen Sie diese Tabelle. Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.

SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR

SQLSTATE: KD000

In ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>.

Weitere Details finden Sie unter SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR.

SET_TBLPROPERTIES_NOT_ALLOWED_FOR_PIPELINE_TABLE

SQLSTATE: 0AKLT

ALTER <commandTableType> ... SET TBLPROPERTIES wird nicht unterstützt. Wenn Sie Tabelleneigenschaften ändern möchten, ändern Sie die ursprüngliche Definition, und führen Sie ein Update aus.

SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE

SQLSTATE: KD000

Die Aufnahme für Objekt-<objName> ist unvollständig, da der Salesforce-API-Abfrageauftrag zu lang dauerte, fehlgeschlagen oder manuell abgebrochen wurde.

Weitere Details finden Sie unter SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE.

SFDC_CONNECTOR_BULK_QUERY_NOT_FOUND

SQLSTATE: KD000

Fehler beim Import des Objekts <objName> da der Salesforce-Massen-API-Abfrageauftrag nicht gefunden wurde.

Dies liegt wahrscheinlich daran, dass der Auftrag in der Salesforce-Benutzeroberfläche gelöscht wurde oder weil er seit dem letzten Pipelineupdate mehr als 7 Tage vergangen ist, nach dem Salesforce den Auftrag automatisch löscht.

Um einen neuen Massenauftrag auszulösen, führen Sie bitte eine FULL REFRESH für die spezifische Zieltabelle aus.

SFDC_CONNECTOR_CREATE_BULK_QUERY_API_LIMIT_EXCEEDED

SQLSTATE: KD000

Fehler im Salesforce-API-Aufruf: API-Grenzwert überschritten

Warten Sie, bis Ihre API-Grenzwerte zurückgesetzt werden. Probieren Sie dann, die Zieltabelle neu zu laden.

Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.

SFDC_CONNECTOR_CREATE_BULK_QUERY_JOB_FAILED

SQLSTATE: KD000

Die Erfassung von Objekt-<objName> ist unvollständig, da die Erstellung des Salesforce-Massen-API-Abfrageauftrags fehlgeschlagen ist. Fehlercode: <saasSourceApiErrorCode>.

<actionText>.

SFDC_CONNECTOR_MALFORMED_RECORDS

SQLSTATE: KD000

Fehler beim Aufnehmen des Salesforce-Objekts "<objName>", da Salesforce <saasSourceApiType> falsch formatierte Datensätze zurückgegeben hat.

Weitere Details finden Sie im Stacktrace.

Überprüfen Sie die Daten in Salesforce, und führen Sie die Pipeline erneut aus.

SINKS_NOT_SUPPORTED_IN_SEG

SQLSTATE: 0A000

Lakeflow Spark Declarative Pipelines Sinks in Pipeline werden in aktivierten Arbeitsbereichen für serverlose Übergabesteuerelemente nicht unterstützt. Unterstützte Lakeflow Spark Declarative Pipelines Senken sind Kafka und Delta.

Die folgenden nicht unterstützten Senken werden gefunden: <sinkNames>, die entsprechenden Formate sind: <sinkFormats>.

SOURCE_TABLE_NOT_MATERIALIZED

SQLSTATE: 42704

Fehler beim Lesen des abhängigen Datasets "<sourceTableName>", da es nicht materialisiert ist. Führen Sie die gesamte Pipeline aus, um alle abhängigen Datensätze zu materialisieren.

SPARK_CONNECT_DEFINITION_PATH_NOT_FOUND

SQLSTATE: 42000

Der Definitionspfad für das Diagrammelement '<graphElementName>' wurde nicht gefunden. Wenden Sie sich bitte an den Databricks-Support.

SPARK_CONNECT_DEFINITION_PATH_NOT_FOUND_SPARK_SQL

SQLSTATE: 42000

Im aktuellen Spark SQL-Ausführungskontext ist kein Pipelinedefinitionspfad verfügbar. Wenden Sie sich bitte an den Databricks-Support.

SPARK_CONNECT_UNSUPPORTED_FLOW_DEFINITION_ERROR

SQLSTATE: 42000

Die Ablaufdefinition wird nicht unterstützt. Wenden Sie sich bitte an den Databricks-Support. Befehl: <defineFlowCommand>

SPARK_CONNECT_UNSUPPORTED_OUTPUT_TYPE

SQLSTATE: 42000

Der Ausgabetyp '<outputType>' wird in Spark Connect nicht unterstützt. Wenden Sie sich bitte an den Databricks-Support.

STANDALONE_PRIVATE_MVST_NOT_SUPPORTED

SQLSTATE: 0A000

Das Erstellen eines eigenständigen PRIVATE MV/ST wird nicht unterstützt. Entfernen Sie den PRIVATE Modifizierer.

START_PYTHON-REPL-ZEITÜBERSCHREITUNG

SQLSTATE: 53000

Timeout beim Warten darauf, dass die Python REPL startet. Dauerte länger als <timeoutSeconds> Sekunden.

STREAMING_TARGET_NOT_DEFINED

SQLSTATE: 42P01

Die Zieltabelle <target> für den <command> Befehl wurde nicht gefunden. Zieltabelle <target> ist in der Pipeline nicht definiert.

SYNCED_TABLE_USER_ERROR

SQLSTATE: 42000

Benutzerfehler der synchronisierten Tabellenpipeline.

Weitere Informationen finden Sie unter SYNCED_TABLE_USER_ERROR

TABLE_CHANGED_DURING_OPERATION

SQLSTATE: 55019

Die Tabelle <tableName> wurde außerhalb dieser Transaktion geändert, und diese Transaktion wurde zurückgesetzt. Wiederholen Sie den Vorgang.

TABLE_MATERIALIZATION_CYCLIC_FOREIGN_KEY_DEPENDENCY

SQLSTATE: 42887

Pipelineupdate für Pipeline: <pipelineId> hat eine zyklische Kette von Fremdschlüsseleinschränkungen erkannt: <tables>.

TABLE_SPEC_BOTH_CATALOG_SCHEMA_REQUIRED

SQLSTATE: 42000

Bei „TableSpec“ fehlt der Quellkatalog und/oder das Quellschema.

Tabellenspezifikationsdetails:

<tableSpec>

TABLE_SPEC_EMPTY_CATALOG

SQLSTATE: 3D000

TableSpec verfügt über eine leere Zeichenfolge im Katalogfeld.

Entfernen Sie die leere Zeichenfolge, oder fügen Sie den Katalognamen hinzu. (Wenn diese Tabelle nicht zu einem Katalog in der Quelle gehört, legen Sie das Feld nicht fest.)

Tabellenspezifikationsdetails:

<tableSpec>

TABLE_SPEC_EMPTY_SCHEMA

SQLSTATE: 3F000

TableSpec verfügt über eine leere Zeichenfolge im Schemafeld.

Entfernen Sie die leere Zeichenfolge, oder fügen Sie den Schemanamen hinzu. (Wenn diese Tabelle nicht zu einem Schema in der Quelle gehört, legen Sie das Feld nicht fest.)

Tabellenspezifikationsdetails:

<tableSpec>

TABLE_SPEC_EMPTY_TABLE

SQLSTATE: 42601

Der Tabellenname ist leer. Geben Sie einen Tabellennamen an.

Tabellenspezifikationsdetails:

<tableSpec>

TABLE_TOKEN_NOT_EXIST_FOR_SCHEMA_EVOLUTION_LEGACY_TABLE

SQLSTATE: 42KD4

Die Schemaentwicklung kann aufgrund fehlender Metadaten nicht aktiviert werden. Lösen Sie eine vollständige Aktualisierung aus.

Grund: Snapshot-Tabellentoken muss definiert werden, wenn die Schemaentwicklung aktiviert ist.

TRASHED_PIPELINE_IN_WORKSPACE

SQLSTATE: 42000

Die Pipeline kann nicht gestartet werden, da sie in den Papierkorb verschoben oder gelöscht wurde.

TRIGGER_INTERVAL_VALUE_INVALID

SQLSTATE: 22003

Das Triggerintervall muss eine positive Dauer sein, der maximal zulässige Wert beträgt 2.147.483.647 Sekunden. Empfangen: <actual> Sekunden.

TRIGGER_NOT_ENABLED

SQLSTATE: 0A000

Trigger sind für diesen Arbeitsbereich nicht aktiviert. Bitte aktivieren Sie die Tabellenauslöser auf der Seite "Vorschau".

TRIGGER_ON_VIEW_READ_FROM_FILE_NOT_SUPPORTED

SQLSTATE: 0A000

Die Quelle <source> ist eine Ansicht, die aus einem Dateispeicherort liest, der derzeit nicht vom Trigger unterstützt wird.

TRIGGER_REQUEST_SERIALIZATION_ERROR

SQLSTATE: 54000

Es gab ein Problem bei der Verarbeitung Ihrer Anforderung. Wenden Sie sich bitte an den Databricks-Support.

TRIGGER_SECURABLE_KIND_NOT_SUPPORTED (Sichere Art des Auslösers wird nicht unterstützt)

SQLSTATE: 0A000

Fehler beim Auslösen des Setups: Nicht unterstützter Tabellentyp. Weitere Informationen finden Sie in der Dokumentation zu unterstützten Typen.

TRIGGER_SOURCE_TYPE_NOT_SUPPORTED

SQLSTATE: 0A000

Die Quelle <source> mit Typ <type> wird derzeit nicht vom Auslöser unterstützt.

AUSLÖSER_ZUSTAND_SERIALISIERUNGSFEHLER

SQLSTATE: 54000

Es gab ein Problem bei der Verarbeitung Ihrer Anforderung. Wenden Sie sich bitte an den Databricks-Support.

TRIGGER_TABLE_LIMIT_EXCEEDED

SQLSTATE: 54000

Fehler beim Auslösen des Setups: Der Trigger enthält mehr Tabellen als das zulässige Limit. Ausführliche Informationen zu Tabellenbeschränkungen und zur Behebung dieses Problems finden Sie in der Dokumentation.

TRIGGER_TABLE_TYPE_NOT_SUPPORTED

SQLSTATE: 0A000

Fehler beim Auslösen des Setups: Nicht unterstützter Tabellentyp. Weitere Informationen finden Sie in der Dokumentation zu unterstützten Typen.

UC_CLEARING_TARGET_SCHEMA_NOT_ALLOWED

SQLSTATE: 0AKD0

Das Löschen des Zielschemafelds ist für UC-Pipelines nicht zulässig. Grund: <reason>.

UC_IAM_ROLE_NON_SELF_ASSUMING

SQLSTATE: 22023

Die IAM-Rolle für die Speicheranmeldeinformationen wurde als nicht selbst angenommen gefunden.

Überprüfen Sie die Vertrauens- und IAM-Richtlinien Ihrer Rolle, um sicherzustellen, dass Ihre IAM-Rolle sich gemäß der Dokumentation zu Unity Catalog-Speicheranmeldeinformationen selbst annehmen kann.

UC_NOT_ENABLED

SQLSTATE: 0A000

Die Verwendung des UC-Katalogs in Lakeflow Spark Declarative Pipelines ist nicht aktiviert.

UC_PIPELINE_CANNOT_PUBLISH_TO_HMS

SQLSTATE: 42000

UC-aktivierte Pipelines können nicht im Hive-Metastore veröffentlicht werden. Wählen Sie einen anderen Zielkatalog aus.

UC_TARGET_SCHEMA_REQUIRED

SQLSTATE: 0AKD0

Das Zielschemafeld ist für UC-Pipelines erforderlich. Grund: <reason>.

UNABLE_TO_INFER_TABLE_SCHEMA

SQLSTATE: 42KD9

Fehler beim Ableiten des Schemas für die Tabelle <tableName> aus den vorgelagerten Flüssen.

Ändern Sie die Flüsse, die in diese Tabelle schreiben, um deren Schemas kompatibel zu machen.

Abgeleitetes Schema bisher:

<inferredDataSchema>

Inkompatibles Schema:

<incompatibleDataSchema>

UNEXPECTED_PIPELINE_SCHEMA_PERMISSION_ERROR

SQLSTATE: 42501

Unerwarteter Fehler beim Überprüfen von Schemaberechtigungen für Pipeline-<pipelineId>. Wenden Sie sich bitte an den Databricks-Support.

ROW_FILTERSUNIFORM_COMPATIBILITY_CANNOT_SET_WITH__OR_COLUMN_MASKS

SQLSTATE: 42000

Die einheitliche Kompatibilität kann nicht für materialisierte Ansichten oder Streamingtabellen festgelegt werden, auf die ein Zeilenfilter oder Spaltenmasken angewendet wurden.

UNITY_CATALOG_INITIALIZATION_FAILED

SQLSTATE: 56000

Beim Einrichten der Pipeline im Cluster <clusterId> ist ein Fehler mit Unity Catalog aufgetreten.

Stellen Sie sicher, dass Ihre Unity-Katalogkonfiguration korrekt ist und dass erforderliche Ressourcen (z. B. Katalog, Schema) vorhanden sind und darauf zugegriffen werden kann.

Überprüfen Sie außerdem, ob der Cluster über entsprechende Berechtigungen für den Zugriff auf den Unity-Katalog verfügt.

Details: <ucErrorMessage>

UNRESOLVED_SINK_PATH

SQLSTATE: 22KD1

Speicherpfad für Senke <identifier> kann nicht aufgelöst werden. Wenden Sie sich bitte an den Databricks-Support.

UNRESOLVED_TABLES_FOR_MAINTENANCE

SQLSTATE: 55000

Die folgenden Tabellen wurden in der Pipelinedefinition gefunden, konnten aber während der Wartung nicht aufgelöst werden. Führen Sie eine Pipelineupdateausführung mit der neuesten Pipelinedefinition aus, um alle Tabellen in der Pipelinedefinition zu materialisieren und die Wartung aufzuheben, oder wenden Sie sich an die Unterstützung von Databricks, wenn das Problem weiterhin besteht.

<unresolvedTableIdentifiersSet>

UNRESOLVED_TABLE_PATH

SQLSTATE: 22KD1

Der Speicherpfad für tabellen <identifier> kann nicht aufgelöst werden. Wenden Sie sich bitte an den Databricks-Support.

UNSUPPORTED_ALTER_COMMAND

SQLSTATE: 0A000

ALTER <commandTableType> ... <command> wird nicht unterstützt.

UNSUPPORTED_CHANNEL_FOR_DPM

SQLSTATE: 0A000

Nicht unterstützter Kanal für den Direct Publishing-Modus. Erwartet wurde entweder der Kanal CURRENT oder PREVIEW, erhalten wurde jedoch PREVIOUS.

UNSUPPORTED_COMMAND_IN_NON_DPM_PIPELINE

SQLSTATE: 0A000

<command> nur unterstützt im Direct Publishing-Modus aktiviert Spark Declarative Pipeline

UNSUPPORTED_COMMAND_IN_QUERY_DEFINITION

SQLSTATE: 0A000

'<command>' wird in der Abfragedefinition nicht unterstützt. Verschieben Sie den Befehl außerhalb der Abfragedefinition. Wenn es sich um eine Spark Declarative Pipeline in Python handelt, verschieben Sie das "<command>" außerhalb des @dlt.table()/@dlt.view() Dekorators. Wenn es sich um eine Spark Declarative Pipeline in Scala handelt, verschieben Sie das "<command>" außerhalb der Abfragemethode.

UNSUPPORTED_CUSTOM_DBR_VERSION

SQLSTATE: 42000

Benutzerdefinierte DBR-Version '<v>' wird in SHIELD und HIPAA Arbeitsbereichen nicht unterstützt. Eine von [<supportedDbrVersions>] erwartet

Nicht unterstützte benutzerdefinierte Schema-Vorschau

SQLSTATE: 0A000

Die private Vorschau des benutzerdefinierten Schemas ist deaktiviert.

Erstellen Sie eine neue Pipeline mit standardmäßigem Veröffentlichungsmodus mithilfe des Felds "Schema"

in der Pipelinespezifikation, und verschieben Sie die Datasets aus dieser Pipeline in die neue Pipeline.

NICHT_UNTERSTÜTZTE_BENUTZERDEFINIERTE_SCHEMA_VORSCHAU_AKTIVIERUNG

SQLSTATE: 0A000

Die private Vorschau des benutzerdefinierten Schemas ist deaktiviert, und Sie können die Vorschau nicht zu einer Pipeline hinzufügen.

Entfernen <sparkConfKeys> Sie die Pipelinekonfiguration.

UNSUPPORTED_DBR_VERSION

SQLSTATE: 42000

DBR-Version '<v>' wird nicht unterstützt. Eine von [<supportedDbrVersions>] erwartet

UNSUPPORTED_FEATURE_FOR_WORKSPACE

SQLSTATE: 0A000

<featureName> wird in Ihrem Arbeitsbereich nicht unterstützt. Wenden Sie sich an den Databricks-Support, um dieses Feature für Ihren Arbeitsbereich zu aktivieren.

UNSUPPORTED_LANGUAGE

SQLSTATE: 0A000

Fehler beim Laden des <language> Notizbuchs '<notebookPath>'. Derzeit werden nur <supportedLanguages> Notizbücher unterstützt.

UNSUPPORTED_LIBRARY_FILE_TYPE

SQLSTATE: 0A000

Die Datei unter <path> hat nicht .py oder .sql Suffix. Nur Python- und SQL-Dateien werden in Pipelines unterstützt.

UNSUPPORTED_LIBRARY_NOTEBOOK_LANGUAGE

SQLSTATE: 0A000

Nicht unterstützte Sprache <language> für Notebook <path>. Nur Python und SQL werden in Pipelines unterstützt.

UNSUPPORTED_LIBRARY_OBJECT_TYPE

SQLSTATE: 0A000

Der im Pfad enthaltene <path> ist vom Typ <objectType>, der nicht unterstützt wird. Derzeit können nur Notizbücher und Dateien als Bibliotheken verwendet werden. Um dieses Problem zu beheben, entfernen Sie das nicht unterstützte Objekt, oder aktualisieren Sie die für diese Pipeline konfigurierten Bibliotheken, sodass nur unterstützte Objekttypen enthalten sind.

UNSUPPORTED_MANAGED_INGESTION_SOURCE_TYPE

SQLSTATE: 0A000

Ungültige Definition einer verwalteten Aufnahmepipeline, nicht unterstützter Quelltyp: <sourceType>.

UNSUPPORTED_MULTIPLE_UPDATE_TYPE

SQLSTATE: 0A000

Nur überprüfen, nur erkunden und Zurückspulen von Updates schließen sich gegenseitig aus. Es sollte höchstens eine festgelegt werden.

UNSUPPORTED_REWIND

SQLSTATE: 0A000

Zurückspulenvorgänge sind für diesen Arbeitsbereich noch nicht aktiviert.

UNSUPPORTED_SAAS_INGESTION_TYPE

SQLSTATE: 0A000

Der bereitgestellte Erfassungstyp <ingestionType> wird nicht unterstützt.

Wenden Sie sich an den Databricks-Support, wenn dieses Problem weiterhin besteht.

UNSUPPORTED_SPARK_SQL_COMMAND

SQLSTATE: 0A000

'<command>' wird in spark.sql("...")-API in Lakeflow Spark Declarative Pipelines Python nicht unterstützt. Unterstützter Befehl: <supportedCommands>.

UNSUPPORTED_SQL_STATEMENT

SQLSTATE: 0A000

Nicht unterstützte SQL-Anweisung für <datasetType> '<datasetName>': <operation> wird nicht unterstützt.

UPDATED_DEFINITION_SET_FOR_NON_DBSQL_PIPELINE

SQLSTATE: 42000

Nur DBSQL-Pipelines können eine aktualisierte Definition haben.

USE_CATALOG_IN_HMS

SQLSTATE: 0A000

USE CATALOG only supported in UC-enabled Spark Declarative Pipeline

VIEW_TEXT_NOT_SAVED_IN_UC

SQLSTATE: 42000

Tabelle <tableName> kann nicht aktualisiert werden, da sie keine Abfrage im Unity-Katalog gespeichert hat. Wenden Sie sich bitte an den Databricks-Support.

WORKDAY_HCM_CONNECTOR_FETCH_BATCH_FAILED

SQLSTATE: KD000

Fehler in Workday HCM. Quell-API-Typ: <saasSourceApiType>.

Fehler beim Abrufen des Batches beim Offset '<offset>'.

Versuchen Sie, die Zieltabelle zu aktualisieren. Wenn das Problem weiterhin besteht, erstellen Sie ein Ticket.

WORKDAY_REPORTS_CONNECTOR_INSUFFICIENT_OAUTH_SCOPE_ERROR

SQLSTATE: KD000

In Workday-Berichten ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>.

Fehler beim Abrufen von Daten für den Bericht '<reportUrl>'. Der OAuth-Client verfügt nicht über ausreichenden Bereichszugriff, um den Bericht abzurufen.

Um dies zu beheben, stellen Sie sicher, dass der OAuth-Client die erforderlichen Bereiche in Workday konfiguriert hat.

Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.

WORKDAY_REPORTS_CONNECTOR_MISSING_REQUIRED_PARAMS_ERROR

SQLSTATE: KD000

In Workday-Berichten ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>.

Der Workday-Bericht '<reportUrl>' erwartet den Parameter '<missingParam>'.

Stellen Sie sicher, dass alle Parameter des Berichts in der URL enthalten sind; Sie können die Workday-Berichtskonfiguration überprüfen, um zu ermitteln, welche Parameter obligatorisch sind.

Wenn das Problem weiterhin auftritt, reichen Sie ein Ticket ein.

WORKDAY_REPORTS_CONNECTOR_REPORT_NOT_FOUND_ERROR

SQLSTATE: KD000

In Workday-Berichten ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>.

Die Berichts-URL '<reportUrl>' ist falsch. Überprüfen Sie auf Tippfehler in der Basis-URL oder auf den Berichtsnamen, um das Problem zu beheben.

Wenn das Problem weiterhin auftritt, reichen Sie ein Ticket ein.

- WORKDAY_REPORTS_CONNECTOR_BERICHTSGRÖSSENÜBERSCHREITUNGSFEHLER

SQLSTATE: KD000

In Workday-Berichten ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>.

Die Größe des Berichts mit der URL '<reportUrl>' ist größer als 2 GB. Stellen Sie sicher, dass die Berichtsgröße diesen Grenzwert nicht überschreitet.

Wenn das Problem weiterhin auftritt, reichen Sie ein Ticket ein.

WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR

SQLSTATE: KD000

In Workday-Berichten ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>.

Weitere Informationen finden Sie unter WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR.

WORKDAY_REPORT_URL_EMPTY

SQLSTATE: 42000

Die Url des Workday-Berichts ist leer. Mindestens ein Bericht muss bereitgestellt werden.

WORKSPACE_QUOTA_EXCEEDED

SQLSTATE: 54000

Update „<updateId>“ kann nicht gestartet werden, da bereits „<maxActiveUpdates>“ aktive Pipelines in diesem Arbeitsbereich ausgeführt werden.

Installation

ERROR_BASE_ENVIRONMENT_FILE_NOT_FOUND – Die Datei für die Basisumgebung wurde nicht gefunden.

SQLSTATE: nicht zugewiesen

Die YAML-Datei der Basisumgebung fehlt. Stellen Sie sicher, dass die Datei im angegebenen Pfad vorhanden ist.

Beschreibung: Tritt auf, wenn die erforderliche Basisumgebungs-YAML-Datei am erwarteten Speicherort nicht gefunden werden kann.

Vorgeschlagene Aktion: Stellen Sie sicher, dass die YAML-Basisumgebungsdatei im angegebenen Pfad vorhanden ist, und wiederholen Sie die Installation.

ERROR_BASE_ENVIRONMENT_FILE_READ

SQLSTATE: nicht zugewiesen

Fehler beim Lesen der Basisumgebungsdatei aufgrund einer falschen Syntax oder eines falschen Formats der YAML-Datei. Bitte überprüfen Sie den Dateiinhalt.

Beschreibung: Tritt auf, wenn die YAML-Basisumgebung Syntax- oder Formatfehler enthält.

Vorgeschlagene Aktion: Überprüfen und beheben Sie die YAML-Syntax in der Umgebungsdatei, und wiederholen Sie dann die Installation.

FEHLER_VERBINDUNG_ABGELEHNT

SQLSTATE: nicht zugewiesen

Es kann keine Verbindung mit dem Paket-Repository hergestellt werden. Überprüfen Sie die Verfügbarkeit von Netzwerkkonnektivität, Firewalleinstellungen oder Repositorys.

Beschreibung: Tritt auf, wenn pip aufgrund von Netzwerkproblemen, Firewalleinschränkungen oder Repositoryausfallzeiten keine Verbindung mit dem Remotepaket-Repository herstellen kann.

Vorgeschlagene Aktion: Überprüfen Sie die Netzwerkkonnektivität, überprüfen Sie die Firewall- oder Proxyeinstellungen, bestätigen Sie, dass auf die Repository-URL zugegriffen werden kann, und versuchen Sie es später erneut, wenn das Repository vorübergehend nicht verfügbar ist.

ERROR_CORE_PACKAGE_VERSION_CHANGE

SQLSTATE: nicht zugewiesen

Das installierte Paket ist nicht mit Databricks-Kernpaketen kompatibel. Richten Sie die Paketversionen an den vorinstallierten Bibliotheksversionen aus, und wiederholen Sie die Installationen.

Beschreibung: Tritt auf, wenn eine Databricks-Kernabhängigkeit (z. B. pyspark)-Version geändert wird.

Vorgeschlagene Aktion: Richten Sie die installierten Paketversionen mit den vorinstallierten Bibliotheken aus, und wiederholen Sie die Installation.

ERROR_CRAN_PACKAGE_NOT_AVAILABLE

SQLSTATE: nicht zugewiesen

Das CRAN-Paket ist für die vorinstallierte R-Version auf dieser Berechnung nicht verfügbar.

Beschreibung: Tritt auf, wenn ein R-Paket für die installierte R-Version auf dem Computersystem nicht verfügbar ist.

Vorgeschlagene Aktion: Wechseln Sie zu einer Berechnung mit einer kompatiblen R-Version, oder wählen Sie eine andere Paketversion aus.

ERROR_DBFS_DISABLED

SQLSTATE: nicht zugewiesen

Der öffentliche DBFS-Stammzugriff ist deaktiviert. Bitte verwenden Sie einen alternativen Speicher.

Beschreibung: Tritt auf, wenn Sie versuchen, Bibliotheken aus DBFS zu installieren, aber der öffentliche DBFS-Stamm ist im Arbeitsbereich deaktiviert.

Vorgeschlagene Aktion: Verwenden Sie alternative Speicherorte wie UC-Volumes, Arbeitsbereichsdateien oder Remotespeicher.

ERROR_DIRECTORY_NOT_INSTALLABLE

SQLSTATE: nicht zugewiesen

Das Verzeichnis ist aufgrund einer ungültigen Python-Paketstruktur nicht installiert. Überprüfen Sie, ob das Verzeichnis ordnungsgemäß eingerichtet ist.

Beschreibung: Tritt auf, wenn die Pip-Installation für ein Verzeichnis ohne gültige Python-Paketstruktur ausgeführt wird.

Vorgeschlagene Aktion: Stellen Sie sicher, dass das Verzeichnis ein setup.py oder pyproject.toml enthält, und versuchen Sie es erneut, oder verpacken Sie es als Rad.

Fehler: Doppelte Installation

SQLSTATE: nicht zugewiesen

Doppelte Paketinstallation wurde erkannt. Versuchen Sie, den doppelten Paketeintrag für das Paket zu entfernen und den Cluster neu zu starten.

Beschreibung: Tritt auf, wenn dasselbe Paket bereits auf dem Cluster installiert ist und eine duplizierte Installation versucht wird.

Vorgeschlagene Aktion: Entfernen Sie die doppelten Paketeinträge, und starten Sie den Cluster neu.

ERROR_FEATURE_DISABLED

SQLSTATE: nicht zugewiesen

Unity-Katalogvolumes sind im Arbeitsbereich deaktiviert. Wenden Sie sich an den Arbeitsbereichsadministrator, um dieses Feature zu aktivieren.

Beschreibung: Tritt auf, wenn Unity-Katalogvolumes im Arbeitsbereich deaktiviert sind und die Installation von UC-Volumes verhindert wird.

Vorgeschlagene Aktion: Wenden Sie sich an Ihren Arbeitsbereichsadministrator, um Unity-Katalogvolumes zu aktivieren oder alternativen Speicher zu verwenden.

ERROR_HASH_MISMATCH

SQLSTATE: nicht zugewiesen

Pakethashkonflikt erkannt. Der Hash des heruntergeladenen Pakets stimmt nicht mit dem erwarteten Hash überein.

Beschreibung: Tritt auf, wenn der Hash eines heruntergeladenen Pakets nicht mit dem erwarteten Hash übereinstimmt.

Vorgeschlagene Aktion: Wiederholen Sie die Installation, starten Sie den Cluster neu, und/oder verschieben Sie große Paketinstallationen in Arbeitsbereichsdateien, UC Volumes oder ein privates PyPI-Repository.

ERROR_INVALID_FILE

SQLSTATE: nicht zugewiesen

Die angegebene Datei kann aufgrund eines falschen Dateityps nicht installiert werden. Überprüfen Sie, ob Sie den gültigen und unterstützten Dateityp verwenden.

Beschreibung: Tritt auf, wenn die angegebene Bibliotheksdatei aufgrund eines falschen Dateityps oder -formats nicht installiert werden kann.

Vorgeschlagene Aktion: Verwenden Sie einen unterstützten Bibliotheksdateityp (z. B. Rad, Jar), und überprüfen Sie die Pfadgültigkeit.

ERROR_INVALID_REQUIREMENT

SQLSTATE: nicht zugewiesen

Falsche Syntax oder falsch formatierte Einträge in Anforderungsdatei- oder Paketabhängigkeiten. Überprüfen und korrigieren Sie den Inhalt der Anforderungsdatei und der Paketabhängigkeiten.

Beschreibung: Ungültiges oder falsch formatiertes Anforderungsformat, das entweder in Der Anforderungsdatei oder in den Abhängigkeitsspezifikationen eines Pakets erkannt wurde.

Vorgeschlagene Aktion: Verwenden Sie das richtige Format (z. B. "Bibliotheksname==Version")in Anforderungsdateien, überprüfen Sie, ob die Paketabhängigkeitsformate gültig sind, und überprüfen Sie, ob Tippfehler oder nicht unterstützte Versionsbezeichner vorhanden sind.

ERROR_INVALID_SCRIPT_ENTRY_POINT

SQLSTATE: nicht zugewiesen

Ungültiger Skripteinstiegspunkt. Bitte überprüfen Sie die Einstiegspunkte des Pakets oder die setup.py Datei.

Beschreibung: Tritt auf, wenn der angegebene Einstiegspunkt des Konsolenskripts in den Paketmetadaten nicht vorhanden ist.

Vorgeschlagene Aktion: Überprüfen Sie den Namen des Einstiegspunkts in setup.py oder pyproject.toml, oder wenden Sie sich an den Paketbetreuer.

FEHLER_UNGÜLTIGE_SPEICHERKONFIGURATION

SQLSTATE: nicht zugewiesen

Ungültiger Speicherkonfigurationswert, der für das Cloudspeicherkonto erkannt wurde. Überprüfen Sie die Speicherkonfiguration, Kontoeinstellungen und Anmeldeinformationen.

Beschreibung: Tritt auf, wenn die Konfiguration des Cloudspeicherkontos fehlerhaft oder falsch ist.

Vorgeschlagene Aktion: Korrigieren Sie die Speicherkonfiguration für das Konto, und wiederholen Sie die Installation.

FEHLER_UNGÜLTIGE_BENUTZER_EINGABE

SQLSTATE: nicht zugewiesen

Ungültige Paketsyntax oder bereitgestellte Argumente. Überprüfen Sie, ob die Eingabe und Optionen für die Bibliotheksinstallation gültig sind.

Beschreibung: Tritt auf, wenn pip mit ungültigen Optionen oder Argumenten aufgerufen wird.

Vorgeschlagene Aktion: Überprüfen Sie Pip-Optionen und Befehlssyntax, korrigieren Sie die Eingabe, und wiederholen Sie die Installation.

Fehler: Ungültiges Rad

SQLSTATE: nicht zugewiesen

Beschädigte, falsch formatierte oder ungültige Wheel-Datei wurde erkannt. Überprüfen Sie die Raddatei, oder wiederholen Sie die Installation.

Beschreibung: Tritt auf, wenn pip während der Installation eine beschädigte, unvollständige oder falsch formatierte Raddatei findet.

Vorgeschlagene Aktion: Löschen Sie den Pip-Cache, laden Sie das Rad erneut herunter oder bauen Sie es neu auf, installieren Sie es erneut und überprüfen Sie die Integrität, bevor Sie den Vorgang wiederholen.

ERROR_JAR_EVICTED

SQLSTATE: nicht zugewiesen

Das JAR-Paket wurde aufgrund von Versionskonflikten vom Resolver entfernt. Beheben Sie Abhängigkeitsversionskonflikte.

Beschreibung: Tritt auf, wenn Maven bei der Auflösung von Abhängigkeiten eine JAR-Datei wegen Versionskonflikten mit anderen Abhängigkeiten verdrängt.

Vorgeschlagene Aktion: Lösen Sie Konflikte in Ihrer Abhängigkeitskonfiguration, oder verwenden Sie explizite Versionsüberschreibungen.

ERROR_MAVEN_LIBRARY_RESOLUTION

SQLSTATE: nicht zugewiesen

Maven-Bibliothekskoordinaten können nicht aufgelöst werden. Überprüfen Sie Bibliotheksinformationen, Zugriff auf Repositories oder die Verfügbarkeit von Maven-Repositories.

Beschreibung: Tritt auf, wenn Maven die angegebene Bibliothek aufgrund falscher Koordinaten, Netzwerkprobleme oder Repositoryausfallzeiten nicht finden oder beheben kann.

Vorgeschlagene Aktion: Überprüfen Sie das Format "groupId:artifactId:version", überprüfen Sie Repository-URLs und Anmeldeinformationen, versuchen Sie es mit alternativen Repositorys, oder versuchen Sie es später erneut, wenn das Repository möglicherweise vorübergehend nicht verfügbar ist.

ERROR_NO_MATCHING_DISTRIBUTION

SQLSTATE: nicht zugewiesen

Das Herunterladen oder Zugreifen auf die angegebenen Cloudspeicherressourcen ist in der Regel aufgrund von Fehlkonfigurationen, fehlenden Abhängigkeiten oder Verbindungsproblemen nicht möglich. Überprüfen Sie die Einrichtung des Cloudspeichers.

Beschreibung: Tritt auf, wenn cluster keine Bibliotheksdateien aus dem Cloudspeicher herunterladen oder installieren kann, in der Regel aufgrund von Fehlkonfigurationen, fehlenden Abhängigkeiten oder Netzwerkproblemen.

Vorgeschlagene Aktion: Stellen Sie sicher, dass die Cloudspeicher-URIs korrekt sind, Anmeldeinformationen gültig sind und alle erforderlichen Netzwerkproxys oder Bibliotheken ordnungsgemäß konfiguriert sind, und wiederholen Sie dann die Installation.

ERROR_NO_SUCH_FILE_OR_DIRECTORY (FEHLER_KEINE_DATEI_ODER_VERZEICHNIS_VORHANDEN)

SQLSTATE: nicht zugewiesen

Die Bibliotheksdatei ist nicht vorhanden, oder der Benutzer verfügt nicht über die Berechtigung zum Lesen der Bibliotheksdatei. Überprüfen Sie, ob die Bibliotheksdatei vorhanden ist und der Benutzer über die richtigen Berechtigungen für den Zugriff auf die Datei verfügt.

Beschreibung: Tritt auf, wenn die angegebene Datei während der Bibliotheksinstallation fehlt oder nicht auf den angegebenen Pfad zugegriffen werden kann.

Vorgeschlagene Aktion: Überprüfen Sie, ob die Datei im angegebenen Pfad vorhanden ist, korrigieren Sie den Pfad, oder laden Sie die fehlende Datei hoch, und stellen Sie die richtigen Berechtigungen sicher.

ERROR_OPERATION_NOT_SUPPORTED

SQLSTATE: nicht zugewiesen

Die Bibliotheksinstallation wird für diesen Dateityp vom angeforderten Dateisystem nicht unterstützt. Überprüfen Sie den Bibliothekstyp, und lesen Sie das Benutzerhandbuch zur unterstützten Bibliothek auf der aktuellen Berechnung.

Beschreibung: Tritt auf, wenn das Zieldateisystem, der Dateityp oder der Computetyp den angeforderten Vorgang während der Installation nicht unterstützt.

Vorgeschlagene Aktion: Verwenden Sie ein unterstütztes Dateisystem, Dateityp oder Computetyp, oder passen Sie das Installationsziel an einen unterstützten Speicherort an.

ERROR_BERECHTIGUNG_VERWEIGERT

SQLSTATE: nicht zugewiesen

Der Benutzer verfügt nicht über die ausreichende Berechtigung zum Installieren des Pakets. Überprüfen Sie die Datei- und Verzeichniszugriffsrechte für den Benutzer.

Beschreibung: Tritt auf, wenn der Installationsbenutzer während der Installation nicht berechtigt ist, eine Datei oder ein Verzeichnis zu lesen oder zu schreiben.

Vorgeschlagene Aktion: Überprüfen und erteilen Sie die richtigen Berechtigungen für das Zielverzeichnis, oder wenden Sie sich an den Systemadministrator.

ERROR_PIP_CONFIG

SQLSTATE: nicht zugewiesen

Der Benutzer hat versucht, eine Python-Bibliothek zu installieren, aber die Konfigurationsdatei auf Arbeitsbereichsebene oder die Pip-Konfigurationsdatei auf Arbeitsbereichsebene weist Syntaxfehler auf oder ist fehlerhaft. Überprüfen Sie die Pip-Konfigurationsdatei, und korrigieren Sie sie.

Beschreibung: Tritt auf, wenn die Konfigurationsdatei von Pip Syntaxfehler aufweist oder falsch formatiert ist.

Vorgeschlagene Aktion: Beheben Sie die Syntaxfehler in der Pip-Konfigurationsdatei, entfernen Sie die Konfigurationsdatei, um Standardeinstellungen zu verwenden, starten Sie den Cluster neu, und wiederholen Sie die Installation.

ERROR_PYTHON_REPL_RESTORE_FAILURE

SQLSTATE: nicht zugewiesen

Fehler bei der Python REPL-Wiederherstellung nach der Paketinstallation.

Beschreibung: Tritt in der Regel auf, wenn kerne Python-Pakete so aktualisiert werden, dass die Laufzeitumgebung während der Wiederherstellung unterbrochen wird.

Vorgeschlagene Aktion: Überprüfen Sie kürzlich installierte Pakete und Installationspakete, die mit Databricks Environment-Standardeinstellungen wie Numpy, Pandas, Pyspark und anderen Standardbibliotheken kompatibel sind. Stellen Sie sicher, dass Versionen mit Ihrer Databricks-Runtime-Version kompatibel sind. Wenn der Fehler weiterhin auftritt, wenden Sie sich bitte an den Databricks-Support.

ERROR_REQUIREMENTS_FILE_INSTALLATION

SQLSTATE: nicht zugewiesen

requirements.txt Dateien, die einen Unity Catalog-Volume- oder Arbeitsbereichsdateiverweis enthalten, werden für nicht UC-aktivierte Cluster nicht unterstützt. Verwenden Sie einen UC-aktivierten Cluster, um requirements.txt zu installieren, die sich auf ein UC-Volume oder eine Arbeitsbereichsdatei bezieht.

Beschreibung: Tritt auf, wenn requirements.txt UC-Volumes oder Arbeitsbereichsdatei-Verweise auf einem nicht UC-aktivierten Cluster enthält.

Vorgeschlagene Aktion: Verwenden Sie einen UC-aktivierten Cluster für eine requirements.txt-Datei, die auf Arbeitsbereichs- oder UC-Dateien verweist, oder entfernen Sie diese Verweise.

ERROR_BENÖTIGT_HASHES

SQLSTATE: nicht zugewiesen

Fehlende Hashes, wenn pip im Modus "-require-hashes" ausgeführt wird und eine Anforderung keinen Hash enthält. Beachten Sie die Hashanforderungen, oder deaktivieren Sie die Hashüberprüfung.

Beschreibung: Tritt auf, wenn pip im Modus "-require-hashes" ausgeführt wird und eine Anforderung keinen Hash aufweist.

Vorgeschlagene Aktion: Fügen Sie die Hashes für alle Pakete in requirements.txt hinzu oder entfernen Sie die --require-hashes Flagge.

ERROR_RESTART_PYTHON

SQLSTATE: nicht zugewiesen

Fehler beim Neustart des Python-Prozesses. Dies kann darauf zurückzuführen sein, dass die Version eines Pakets aktualisiert wird, das mit den vorinstallierten Laufzeitbibliotheken in Konflikt steht. Überprüfen und ausrichten Sie die Paketabhängigkeiten und deren Versionen.

Beschreibung: Tritt auf, wenn die Python-Umgebung nach der Bibliotheksinstallation nicht neu gestartet werden kann, häufig aufgrund von Konflikten zwischen installierten Paketen und vorinstallierten Databricks-Runtime-Bibliotheken.

Vorgeschlagene Aktion: Richten Sie installierte Paketversionen mit den vorinstallierten Databricks-Runtime-Bibliotheken aus, um Konflikte und Python-Neustartfehler zu vermeiden.

ERROR_RESTART_SCALA

SQLSTATE: nicht zugewiesen

Fehler beim Neustart des Scala-Prozesses. Dies kann darauf zurückzuführen sein, dass skalare JARs nicht übereinstimmen (z. B. das Ausführen von 2.12 jar auf einem 2.13-Kernel). Bitte überprüfen und ausrichten Sie die Scala-Versionen.

Beschreibung: Tritt auf, wenn die Scala-Umgebung nicht neu gestartet werden kann, häufig aufgrund von Konflikten der Scala-Version in Scala-JARs.

Vorgeschlagene Aktion: Richten Sie JAR Skala-Versionen mit Kernel-Skala-Version aus, um Konflikte und Scala-Neustartfehler zu vermeiden.

ERROR_S3_FORBIDDEN

SQLSTATE: nicht zugewiesen

Der Zugriff auf die S3-Ressource wurde verweigert. Überprüfen Sie die IAM-Berechtigungen und Bucket-Richtlinien.

Beschreibung: Die AWS-Anmeldeinformationen des Clusters verfügen nicht über ausreichende Berechtigungen für den Zugriff auf die angegebene S3-Ressource.

Vorgeschlagene Aktion: Überprüfen und aktualisieren Sie die S3-Bucketrichtlinien oder IAM-Rollen, um den erforderlichen Lesezugriff auf den Cluster zu gewähren.

ERROR_SCALA_INSTALLATION

SQLSTATE: nicht zugewiesen

Fehler beim Installieren von Java-Abhängigkeiten aufgrund von Berechtigungsproblemen oder fehlenden Dateien.

Beschreibung: Tritt auf, wenn Java-Abhängigkeiten nicht installiert werden können, häufig aufgrund ungültiger Pfade, URLs oder unzureichender Dateiberechtigungen.

Vorgeschlagene Aktion: Überprüfen Sie Dateipfade und URLs, stellen Sie die richtigen Berechtigungen sicher, und wiederholen Sie die Installation.

ERROR_SETUP_PY_FAILURE (Fehler beim Einrichten von setup.py)

SQLSTATE: nicht zugewiesen

Die setup.py des Python-Pakets wurde aufgrund von Kompatibilitätsproblemen, fehlenden Abhängigkeiten oder Konfigurationsfehlern nicht erfolgreich ausgeführt. Überprüfen Sie die Konfigurationsdatei Ihrer Abhängigkeiten.

Beschreibung: Tritt auf, wenn das setup.py Skript des Pakets aufgrund von Kompatibilitätsproblemen, fehlenden Abhängigkeiten oder Konfigurationsfehlern fehlschlägt.

Vorgeschlagene Aktion: Aktualisieren Sie Paketversionen, installieren Sie fehlende Abhängigkeiten, ersetzen Sie veraltete Pakete, und überprüfen Sie das setup.py Skript.

ERROR_SSL_VIOLATION (SSL-Verletzung)

SQLSTATE: nicht zugewiesen

Pip hat SSL-Handshake- oder Zertifikatüberprüfungsprobleme festgestellt. Überprüfen Sie die SSL-Konfigurationen und Zertifikate in Ihrem Compute- oder Arbeitsbereich.

Beschreibung: Tritt auf, wenn pip auf SSL-Handshake- oder Zertifikatüberprüfungsprobleme beim Herstellen einer Verbindung mit Paketrepositorys stößt.

Vorgeschlagene Aktion: Überprüfen Sie, ob SSL-Zertifikate gültig sind, vertrauenswürdige Hosts in Pip konfigurieren oder die SSL-Einstellung des Netzwerks überprüfen.

ERROR_UC_ASSET_NOT_FOUND (Asset nicht gefunden)

SQLSTATE: nicht zugewiesen

Das Unity Catalog-Objekt wurde nicht gefunden. Überprüfen Sie, ob Katalog, Schema und Volumen vorhanden sind.

Beschreibung: Tritt auf, wenn das angegebene Unity-Katalogvolume, -Katalog oder -Schema nicht vorhanden oder nicht zugänglich ist.

Vorgeschlagene Aktion: Überprüfen Sie, ob der Unity Catalog-Objektpfad korrekt ist und das Objekt in Ihrem Konto vorhanden ist.

ERROR_UNSUPPORTED_LIBRARY_TYPE

SQLSTATE: nicht zugewiesen

Der Bibliothekstyp wird für diese Berechnung nicht unterstützt. Überprüfen Sie die unterstützten Bibliotheken für den Rechentyp.

Beschreibung: Tritt auf, wenn Sie versuchen, einen Bibliothekstyp zu installieren, der nicht mit dem ausgewählten Compute kompatibel ist.

Vorgeschlagene Aktion: Verwenden Sie einen unterstützten Bibliothekstyp für diese Berechnung, oder wechseln Sie zu einem Compute, der diesen libraryType unterstützt.

ERROR_UNSUPPORTED_PYTHON_VERSION

SQLSTATE: nicht zugewiesen

Die Python-Bibliothek ist mit der Python-Version auf dieser Berechnung nicht kompatibel. Verwenden Sie einen Compute mit einer kompatiblen Python-Version.

Beschreibung: Tritt auf, wenn die Einschränkung eines Pakets python_requires nicht mit der Python-Version übereinstimmt, die auf der Berechnung ausgeführt wird.

Vorgeschlagene Aktion: Installieren Sie eine Paketversion, die die aktuelle Python-Version unterstützt, oder ändern Sie die Computeversion.

ERROR_UNSUPPORTED_SSL_ENABLED

SQLSTATE: nicht zugewiesen

Die Installation schlägt fehl, wenn spark.ssl.enabled-Konfiguration aktiviert ist, was für die Bibliotheksinstallation nicht unterstützt wird. Deaktivieren Sie die SSL-Konfiguration, und starten Sie den Cluster neu.

Beschreibung: Tritt auf, wenn die Spark.ssl.enabled-Konfiguration aktiviert ist, die für die Bibliotheksinstallation nicht unterstützt wird.

Vorgeschlagene Aktion: Deaktivieren Sie die SSL-Konfiguration (z. B. "spark.ssl.enabled=false" oder "spark.databricks.libraries.ignoreSSL=true"), und starten Sie den Cluster neu.

FEHLER_BENUTZER_NICHT_IM_ARBEITSBEREICH_GEFUNDEN

SQLSTATE: nicht zugewiesen

Fehler bei der Bibliotheksinstallation, da der Benutzer im Arbeitsbereich nicht gefunden wurde. Dies geschieht in der Regel, wenn ein Benutzer aus dem Arbeitsbereich entfernt wurde, aber sein Token weiterhin verwendet wird.

Beschreibung: Tritt auf, wenn das Zugriffstoken eines Benutzers verwendet wird, der Benutzer aber nicht mehr im angegebenen Arbeitsbereich vorhanden ist.

Vorgeschlagene Aktion: Stellen Sie sicher, dass der Benutzer Zugriff auf den Arbeitsbereich hat, oder aktualisieren Sie die Clusterkonfiguration, um die Anmeldeinformationen eines gültigen Benutzers zu verwenden.

ERROR_VOLUME_PERMISSION_DENIED

SQLSTATE: nicht zugewiesen

Unzureichende Berechtigungen für das Unity Catalog Volume. Überprüfen Sie die Zugriffsrechte auf das UC-Volume oder beantragen Sie den Zugriff beim Eigentümer des UC-Volumes.

Beschreibung: Tritt auf, wenn der Benutzer über keine Berechtigungen für das angegebene UC-Volume verfügt.

Vorgeschlagene Aktion: Anfordern von LESEberechtigungen für das Unity-Katalogvolume vom Volumebesitzer oder Administrator.

ERROR_WHEEL_BUILD

SQLSTATE: nicht zugewiesen

Pip konnte das Rad aufgrund fehlender Buildabhängigkeiten oder Fehler nicht erfolgreich erstellen. Bitte überprüfen Sie den Inhalt und die Abhängigkeiten des Radpakets.

Beschreibung: Tritt auf, wenn pip ein Wheel für das Paket aufgrund fehlender Build-Abhängigkeiten oder Fehler nicht erstellt.

Vorgeschlagene Aktion: Stellen Sie sicher, dass Buildtools und Header installiert sind, oder installieren Sie ein vordefiniertes Rad mit --no-binary.

FEHLER_BEI_DER_RADEINBAU

SQLSTATE: nicht zugewiesen

Das Rad ist aufgrund eines nicht übereinstimmenden Plattformtags oder einer ungültigen Raddatei nicht mit dem aktuellen Compute kompatibel. Überprüfen Sie den Inhalt des Wheel-Pakets, die Abhängigkeiten und die Kompatibilität mit dem Computersystem.

Beschreibung: Tritt auf, wenn die Wheel-Datei ungültig ist oder die Plattform-Tags nicht übereinstimmen.

Vorgeschlagene Aktion: Verwenden Sie ein Rad, das für die aktuelle Plattform erstellt wurde, oder erstellen Sie das Rad mit den entsprechenden Tags neu.

FEHLER_CLOUD_STORAGE_INSTALLATION

SQLSTATE: nicht zugewiesen

Das Herunterladen oder Zugreifen auf die angegebenen Cloudspeicherressourcen ist in der Regel aufgrund von Fehlkonfigurationen oder Verbindungsproblemen nicht möglich. Bitte überprüfen Sie die Einrichtung des Cloudspeichers.

Beschreibung: Tritt auf, wenn die Berechnung keine Bibliotheksdateien aus dem Cloudspeicher herunterladen oder installieren kann, in der Regel aufgrund von Fehlkonfigurationen oder Netzwerkproblemen.

Vorgeschlagene Aktion: Stellen Sie sicher, dass die Cloudspeicher-URIs korrekt sind, Anmeldeinformationen gültig sind und alle erforderlichen Netzwerkproxys oder Bibliotheken ordnungsgemäß konfiguriert sind, und wiederholen Sie dann die Installation.

FAULT_DBR_VERSION_EOS

SQLSTATE: nicht zugewiesen

Die Databricks-Runtime-Version auf dem Rechner hat das Supportende erreicht und wird nicht mehr unterstützt. Verwenden Sie eine unterstützte Databricks-Laufzeitversion.

Beschreibung: Tritt auf, wenn die Bibliothek auf einer Databricks-Runtime-Version installiert wird, die keine Updates oder Support mehr empfängt.

Vorgeschlagene Aktion: Aktualisieren Sie den Cluster auf eine unterstützte Databricks-Runtime-Version, und wiederholen Sie die Installation.

FAULT_POLLER_ALLOWLIST_VALIDATION

SQLSTATE: nicht zugewiesen

Die Bibliotheksinstallation ist aufgrund fehlender Zulassungsliste blockiert. Dies kann passieren, wenn eine Bibliothek nach dem Hinzufügen zu einem Cluster aus der Zulassungsliste entfernt wird. Überprüfen Sie die Zulassungsliste der Bibliothek, bitten Sie den Administrator, der Zulassungsliste Bibliotheken hinzuzufügen oder nicht autorisierte Pakete aus dem Cluster zu entfernen.

Beschreibung: Tritt auf, wenn eine oder mehrere angeforderte Bibliotheken in der Metastore-Zulassungsliste nicht genehmigt werden und von der Installation blockiert werden. Dies kann auch passieren, wenn eine Bibliothek zuvor zulässig, aber später aus der Zulassungsliste entfernt wurde.

Vorgeschlagene Aktion: Überprüfen Sie die Metastore-Zulassungsliste, fordern Sie Ihren Administrator an, die fehlenden Bibliotheken zur Zulassungsliste hinzuzufügen oder nicht autorisierte Bibliotheken aus dem Cluster zu entfernen.

FAULT_POLLER_DBR_UNSUPPORTED

SQLSTATE: nicht zugewiesen

Die Databricks-Runtime-Version auf dem Cluster hat das Ende der Unterstützung erreicht und wird nicht mehr unterstützt. Verwenden Sie eine unterstützte Databricks-Laufzeitversion.

Beschreibung: Tritt auf, wenn die Bibliothek auf einer Databricks-Runtime-Version installiert wird, die keine Updates oder Support mehr empfängt.

Vorgeschlagene Aktion: Ändern Sie den Cluster so, dass eine unterstützte Databricks-Runtime-Version verwendet wird, und wiederholen Sie die Installation.

FAULT_POLLER_BIBLIOTHEK_SPEICHERFORMAT_NICHT_UNTERSTÜTZT

SQLSTATE: nicht zugewiesen

Die ausgewählte Databricks-Runtime-Version unterstützt möglicherweise keine bestimmten Bibliotheksspeicherformate, z. B. gs:// oder abfss:// Pfade. Bitte aktualisieren Sie Databricks Runtime, oder lesen Sie das Benutzerhandbuch zu den Funktionen für verschiedene Databricks-Runtime-Versionen.

Beschreibung: Tritt auf, wenn die Databricks-Runtime-Version das angegebene Bibliotheksspeicherformat oder -protokoll nicht unterstützt.

Vorgeschlagene Aktion: Verwenden Sie ein unterstütztes Speicherschema oder aktualisieren Sie auf eine Databricks-Runtime-Version, die das gewünschte Speicherformat unterstützt.

FAULT_POLLER_UNITY_CATALOG_NOT_AVAILABLE_ERROR

SQLSTATE: nicht zugewiesen

Die Bibliotheksinstallation erfordert Unity-Katalog, aber Unity-Katalog ist im Cluster oder Arbeitsbereich nicht verfügbar. Wenden Sie sich an den Arbeitsbereichsadministrator, um dieses Feature zu aktivieren.

Beschreibung: Tritt auf, wenn für eine Bibliotheksinstallation Unity-Katalog erforderlich ist, der Unity-Katalog jedoch im Arbeitsbereich nicht verfügbar ist.

Vorgeschlagene Aktion: Anfordern der Verwaltung, um Unity-Katalog in Ihrem Arbeitsbereich zu aktivieren oder einen Cluster zu verwenden, der Unity-Katalog unterstützt.

SPEICHERZUGRIFFSFEHLER

SQLSTATE: nicht zugewiesen

Aufgrund von Anmeldeinformationen, Netzwerk- oder Berechtigungsproblemen kann nicht auf Cloudspeicherressourcen zugegriffen werden. Überprüfen Sie die Konfiguration des Cloudspeicherzugriffs.

Beschreibung: Tritt auf, wenn die Berechnung aufgrund von Anmeldeinformationen, Netzwerk- oder Berechtigungsproblemen nicht auf die Cloudspeicherressourcen zugreifen kann.

Vorgeschlagene Aktion: Überprüfen Sie Speicheranmeldeinformationen, Netzwerkkonnektivität und Zugriffsberechtigungen, und wiederholen Sie dann die Installation.

Miscellaneous

ABAC_POLICIES_NOT_SUPPORTED_FOR_RUNTIME_VERSION

SQLSTATE: nicht zugewiesen

DBR-Version <abacDBRMajorVersion>. <abacDBRMinorVersion> oder höher ist erforderlich, um eine Tabelle <tableFullName>abzufragen, da sie durch eine ABAC-Richtlinie geschützt ist.

AZURE_ENTRA_CREDENTIALS_MISSING

SQLSTATE: nicht zugewiesen

Anmeldeinformationen für Azure Entra (auch als Azure Active Directory bekannt) fehlen.

Stellen Sie sicher, dass Sie entweder mit Ihrem Entra-Konto angemeldet sind.

oder Sie ein persönliches Azure DevOps-Zugriffstoken (PAT) unter „Benutzereinstellungen > Git-Integration“ eingerichtet haben.

Wenn Sie kein PAT verwenden und Azure DevOps mit der Repos-API verwenden,

Sie müssen ein Azure Entra-Zugriffstoken verwenden.

Siehe https://docs.microsoft.com/azure/databricks/dev-tools/api/latest/aad/app-aad-token für Schritte zum Abrufen eines Azure Entra-Zugriffstokens.

<pickOrCreateNewCredential>

AZURE_ENTRA_CREDENTIALS_PARSE_FAILURE

SQLSTATE: nicht zugewiesen

Es wurde ein Fehler mit Ihren Azure Entra (Azure Active Directory)-Anmeldeinformationen festgestellt. Bitte versuchen Sie, sich abzumelden von

Entra (https://portal.azure.com) und wieder anzumelden.

Alternativ können Sie auch „Benutzereinstellungen > Git-Integration“ aufrufen, um ein

ein persönliches Azure DevOps-Zugriffstoken einrichten.

<pickOrCreateNewCredential>

AZURE_ENTRA_LOGIN_ERROR

SQLSTATE: nicht zugewiesen

Ein Fehler ist bei Ihren Azure Active Directory-Anmeldeinformationen aufgetreten. Bitte versuchen Sie, sich abzumelden von

Azure Active Directory (https://portal.azure.com) und erneute Anmeldung.

<pickOrCreateNewCredential>

AZURE_ENTRA_WORKLOAD_IDENTITY_ERROR

SQLSTATE: nicht zugewiesen

Bei Azure Workload Identity trat ein Fehler mit einer Azure-Ausnahme auf: <azureWorkloadIdentityExceptionMessage>

CLEAN_ROOM_DELTA_SHARING_ENTITY_NOT_AUTHORIZED

SQLSTATE: nicht zugewiesen

Die Generierung von Anmeldeinformationen für sicherungsfähiges Delta Sharing in Reinräumen kann nicht angefordert werden.

CLEAN_ROOM_HIDDEN_SECURABLE_PERMISSION_DENIED

SQLSTATE: nicht zugewiesen

Sicherungsfähiges <securableName>-Element mit Typ <securableType> und Art <securableKind> wird vom Reinraumsystem verwaltet, Benutzende haben keinen Zugriff.

CONSTRAINT_ALREADY_EXISTS

SQLSTATE: nicht zugewiesen

Es gibt bereits eine Einschränkung mit dem Namen <constraintName>, wählen Sie bitte einen anderen Namen.

CONSTRAINT_DOES_NOT_EXIST

SQLSTATE: nicht zugewiesen

Einschränkung <constraintName> ist nicht vorhanden.

COULD_NOT_READ_REMOTE_REPOSITORY

SQLSTATE: nicht zugewiesen

Konnte Remote-Repository (<repoUrl>) nicht lesen.

Anmeldeinformationen <credentialName> (<credentialId>) wurden verwendet<because>.

Der Anbieter dieser Git-Anmeldeinformationen ist <gitCredentialProvider> und E-Mail/Benutzername lautet <gitCredentialUsername>.

Gehen Sie bitte zu Ihrem Git-Remoteanbieter, um folgendes sicherzustellen:

  1. Ihre Git-Repository-REMOTE-URL ist gültig.

  2. Ihr persönliches Zugriffstoken oder App-Kennwort verfügt über den richtigen Repositoryzugriff.

<pickOrCreateNewCredential>

COULD_NOT_RESOLVE_REPOSITORY_HOST

SQLSTATE: nicht zugewiesen

Host für <repoUrl> konnte nicht aufgelöst werden.

Anmeldeinformationen <credentialName> (<credentialId>) wurden verwendet<because>.

Der Anbieter dieser Git-Anmeldeinformationen ist <gitCredentialProvider> und E-Mail/Benutzername lautet <gitCredentialUsername>.

CSMS_BEGINNING_OF_TIME_NOT_SUPPORTED

SQLSTATE: nicht zugewiesen

Der Parameter beginning_of_time kann nicht wahr sein.

CSMS_CONTINUATION_TOKEN_EXPIRED

SQLSTATE: nicht zugewiesen

Fortsetzungstoken ist abgelaufen. Ursache: <msg>

CSMS_CREDENTIAL_NAME_MISSING

SQLSTATE: nicht zugewiesen

Der Anmeldeinformationsname fehlt in der Anforderung.

CSMS_FILE_EVENTS_VALIDATION_USER_ERROR

SQLSTATE: nicht zugewiesen

Fehler bei der Dateiereignisseüberprüfung für den Vorgang <operation>: <message>

CSMS_INVALID_CONTINUATION_TOKEN

SQLSTATE: nicht zugewiesen

Fortsetzungstoken ungültig. Ursache: <msg>

CSMS_INVALID_FILE_EVENTS_QUEUE

SQLSTATE: nicht zugewiesen

<missingField> fehlt in <queueType> der Anforderung

CSMS_INVALID_MAX_OBJECTS

SQLSTATE: nicht zugewiesen

Ungültiger Wert <value> für Parameter max_objects, erwarteter Wert in [<minValue>, <maxValue>]

CSMS_INVALID_SUBSCRIPTION_ID

SQLSTATE: nicht zugewiesen

Die Abonnement-ID ist ungültig. Ursache: <msg>

CSMS_INVALID_URI_FORMAT

SQLSTATE: nicht zugewiesen

Ungültiges URI-Format. Ein Volume oder ein Cloudspeicherpfad (z. B. "/Volumes/catalog/schema/volume" oder "s3://some-uri") wird erwartet.

CSMS_KAFKA_TOPIC_MISSING

SQLSTATE: nicht zugewiesen

Muss ein Kafka-Thema bereitstellen

CSMS_LOCATION_ERROR

SQLSTATE: nicht zugewiesen

Fehler beim Auflisten von Objekten. Es gibt Probleme am Standort, die behoben werden müssen. Details: <msg>

CSMS_LOCATION_NOT_KNOWN

SQLSTATE: nicht zugewiesen

Kein Speicherort für URI <path> gefunden.

CSMS_METASTORE_ID_MISSING

SQLSTATE: nicht zugewiesen

Muss eine Metastore-UUID bereitstellen

CSMS_METASTORE_RESOLUTION_FAILED

SQLSTATE: nicht zugewiesen

Ein Metaspeicher für die Anforderung kann nicht ermittelt werden.

CSMS_RESOLVE_CREDENTIAL_ID_FAILED

SQLSTATE: nicht zugewiesen

Fehler beim Auflösen der Anmeldeinformations-ID für Anmeldeinformationen: <credentialName>

CSMS_RESOLVE_LOCAL_SHARD_NAME_FAILED

SQLSTATE: nicht zugewiesen

CSMS konnte den lokalen Shardnamen nicht auflösen.

CSMS_SERVICE_DISABLED

SQLSTATE: nicht zugewiesen

Der Dienst ist deaktiviert.

CSMS_SHARD_NAME_MISSING_IN_REQUEST

SQLSTATE: nicht zugewiesen

Der Shardname fehlt in einer RPC-Anforderung an CSMS.

CSMS_STORAGE_CREDENTIAL_DOES_NOT_EXIST

SQLSTATE: nicht zugewiesen

Speicheranmeldeinformationen sind nicht vorhanden.

CSMS_SUBSCRIPTION_ID_MISSING_IN_REQUEST

SQLSTATE: nicht zugewiesen

Die Abonnement-ID fehlt in der Anforderung.

CSMS_ABONNEMENT_NICHT_GEFUNDEN

SQLSTATE: nicht zugewiesen

Abonnement mit ID <id> nicht gefunden.

CSMS_UNITY_CATALOG_DISABLED

SQLSTATE: nicht zugewiesen

Unity-Katalog ist für diesen Arbeitsbereich deaktiviert.

CSMS_UNITY_CATALOG_ENTITY_NOT_FOUND

SQLSTATE: nicht zugewiesen

Unity Catalog-Entität nicht gefunden. Stellen Sie sicher, dass der Katalog, das Schema, das Volume und/oder der externe Speicherort vorhanden sind.

CSMS_UNITY_CATALOG_EXTERNAL_LOCATION_DOES_NOT_EXIST

SQLSTATE: nicht zugewiesen

Der externe Speicherort des Unity-Katalogs ist nicht vorhanden.

CSMS_UNITY_CATALOG_EXTERNAL_STORAGE_OVERLAP

SQLSTATE: nicht zugewiesen

URI überlappt mit anderen Volumes

CSMS_UNITY_CATALOG_METASTORE_DOES_NOT_EXIST

SQLSTATE: nicht zugewiesen

Ein Metaspeicher für die Anforderung kann nicht ermittelt werden. Metastore ist nicht vorhanden

Zugriff auf Tabelle mit Filter auf Grundlage des Pfads im Unity-Katalog nicht erlaubt

SQLSTATE: nicht zugewiesen

URI verweist auf eine Tabelle mit Zeilenfilter oder Spaltenmaske. Der pfadbasierte Zugriff auf diese Tabelle ist nicht zulässig.

CSMS_UNITY_CATALOG_PERMISSION_DENIED

SQLSTATE: nicht zugewiesen

Berechtigung verweigert

CSMS_UNITY_CATALOG_RATE_LIMITED

SQLSTATE: nicht zugewiesen

Die Anforderungsratengrenze wurde überschritten. Versuchen Sie es nach einiger Zeit erneut.

CSMS_UNITY_CATALOG_TABLE_DOES_NOT_EXIST

SQLSTATE: nicht zugewiesen

Die Unity-Katalogtabelle ist nicht vorhanden.

CSMS_UNITY_CATALOG_VOLUME_DOES_NOT_EXIST

SQLSTATE: nicht zugewiesen

Das Unity-Katalogvolumen existiert nicht.

CSMS_UNSUPPORTED_FILE_EVENTS_QUEUE

SQLSTATE: nicht zugewiesen

Unbekannte Dateiereigniswarteschlange in Anforderung

CSMS_UNSUPPORTED_MANAGED_RESOURCE_TYPE

SQLSTATE: nicht zugewiesen

Verwalteter Ressourcentyp <resourceType> wird nicht unterstützt.

CSMS_UNSUPPORTED_SECURABLE

SQLSTATE: nicht zugewiesen

Nicht unterstütztes Sicherungsobjekt

CSMS_URI_MISSING

SQLSTATE: nicht zugewiesen

URI muss bereitgestellt werden

CSMS_URI_TOO_LONG

SQLSTATE: nicht zugewiesen

Der angegebene URI ist zu lang. Die maximal zulässige Länge ist <maxLength>.

CSMS_USER_CONTEXT_MISSING_IN_REQUEST

SQLSTATE: nicht zugewiesen

Der Benutzerkontext fehlt in einer RPC-Anforderung an CSMS.

DMK_CATALOGS_DISALLOWED_ON_CLASSIC_COMPUTE

SQLSTATE: nicht zugewiesen

Auf den Databricks-Standardspeicher kann nicht mithilfe des klassischen Compute zugegriffen werden. Verwenden Sie Serverless Compute, um auf Daten im Standardspeicher zuzugreifen.

GITHUB_APP_COULD_NOT_REFRESH_CREDENTIALS

SQLSTATE: nicht zugewiesen

Fehler beim Vorgang, da verknüpfte GitHub-App-Anmeldeinformationen nicht aktualisiert werden konnten.

Versuchen Sie es erneut, oder wechseln Sie zu "Benutzereinstellungen" > Git-Integration, und versuchen Sie erneut, Ihr Git-Anbieterkonto zu verknüpfen.

Wenn das Problem weiterhin besteht, melden Sie bitte ein Supportticket an.

<pickOrCreateNewCredential>

GITHUB_APP_CREDENTIALS_NO_ACCESS

SQLSTATE: nicht zugewiesen

Der Link zu Ihrem GitHub-Konto hat keinen Zugriff. So beheben Sie diesen Fehler:

  1. Ein Admin des Repositorys muss zu https://github.com/apps/databricks/installations/new wechseln und die GitHub-App „Databricks“ im Repository installieren.

Alternativ kann ein GitHub-Kontobesitzer die App auf dem Konto installieren, um Zugriff auf die Repositorys des Kontos zu gewähren.

  1. Wenn die App bereits installiert ist, lassen Sie einen Administrator sicherstellen, dass bei der Verwendung von eingeschränktem Zugriff mit der Option "Nur Repositories auswählen", der Zugriff auf dieses Repository eingeschlossen ist, indem er es auswählt.

https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app Weitere Informationen finden Sie unter.

<pickOrCreateNewCredential>

GITHUB_APP_EXPIRED_CREDENTIALS

SQLSTATE: nicht zugewiesen

Verknüpfte GitHub-App-Anmeldeinformationen sind nach 6 Monaten Inaktivität abgelaufen.

Wechseln Sie zu "Benutzereinstellungen" > Git-Integration, und versuchen Sie, Ihre Anmeldeinformationen erneut zu verknüpfen.

Wenn das Problem weiterhin besteht, melden Sie bitte ein Supportticket an.

<pickOrCreateNewCredential>

GITHUB_APP_INSTALL_ON_DIFFERENT_USER_ACCOUNT

SQLSTATE: nicht zugewiesen

Der Link zu Ihrem GitHub-Konto hat keinen Zugriff. So beheben Sie diesen Fehler:

  1. GitHub-Benutzer <gitCredentialUsername> sollte zu https://github.com/apps/databricks/installations/new gehen und die App auf dem Konto <gitCredentialUsername> installieren, um den Zugriff zu ermöglichen.

  2. Wenn der Benutzer <gitCredentialUsername> die App bereits installiert hat und er den bereichsbezogenen Zugriff mit der Option "Nur ausgewählte Repositorys" verwendet, sollte er sicherstellen, dass er Zugriff auf dieses Repository hat, indem er es auswählt.

https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app Weitere Informationen finden Sie unter.

<pickOrCreateNewCredential>

GITHUB_APP_INSTALL_ON_ORGANIZATION

SQLSTATE: nicht zugewiesen

Der Link zu Ihrem GitHub-Konto hat keinen Zugriff. So beheben Sie diesen Fehler:

  1. Ein Besitzer der GitHub-Organisation <organizationName> sollte zu https://github.com/apps/databricks/installations/new gehen und die App in der Organisation <organizationName> installieren, um den Zugriff zu ermöglichen.

  2. Wenn die App bereits in der GitHub-Organisation <organizationName> installiert ist, muss ein Besitzer dieser Organisation sicherstellen, dass sie bei der Verwendung von berechtigtem Zugriff mit der Option "Nur ausgewählte Repositorys" den Zugriff auf dieses Repository gewährt haben, indem sie es auswählen.

https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app Weitere Informationen finden Sie unter.

<pickOrCreateNewCredential>

GITHUB_APP_INSTALL_ON_YOUR_ACCOUNT

SQLSTATE: nicht zugewiesen

Der Link zu Ihrem GitHub-Konto hat keinen Zugriff. So beheben Sie diesen Fehler:

  1. Wechseln Sie zu https://github.com/apps/databricks/installations/new und installieren Sie die App auf Ihrem Konto <gitCredentialUsername>, um den Zugriff zu ermöglichen.

  2. Wenn die App bereits installiert ist und Sie den bereichsbezogenen Zugriff mit der Option "Nur Repositorys auswählen" verwenden, stellen Sie sicher, dass Sie Zugriff auf dieses Repository haben, indem Sie sie auswählen.

https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app Weitere Informationen finden Sie unter.

<pickOrCreateNewCredential>

GIT_CLUSTER_NOT_READY

SQLSTATE: nicht zugewiesen

Git-Cluster ist nicht bereit.

GIT_CREDENTIAL_GENERIC_INVALID

SQLSTATE: nicht zugewiesen

Ungültige Git-Anbieteranmeldeinformationen für Repository-URL <repoUrl>.

Anmeldeinformationen <credentialName> (<credentialId>) wurden verwendet<because>.

Der Anbieter dieser Git-Anmeldeinformationen ist <gitCredentialProvider> und E-Mail/Benutzername lautet <gitCredentialUsername>.

Gehen Sie bitte zu Ihrem Git-Remoteanbieter, um folgendes sicherzustellen:

  1. Sie haben die richtige Git-Benutzer-E-Mail oder ihren Benutzernamen mit Ihren Git-Anbieteranmeldeinformationen eingegeben.

  2. Ihr Token verfügt über den richtigen Repositoryzugriff.

  3. Ihr Token ist nicht abgelaufen.

  4. Wenn Sie SSO mit Ihrem Git-Anbieter aktiviert haben, müssen Sie Ihr Token autorisieren.

<pickOrCreateNewCredential>

GIT_CREDENTIAL_INVALID_PAT

SQLSTATE: nicht zugewiesen

Ungültige Personal Access Token-Anmeldeinformationen des Git-Anbieters für die Repository-URL <repoUrl>.

Anmeldeinformationen <credentialName> (<credentialId>) wurden verwendet<because>.

Der Anbieter dieser Git-Anmeldeinformationen ist <gitCredentialProvider> und E-Mail/Benutzername lautet <gitCredentialUsername>.

Gehen Sie bitte zu Ihrem Git-Remoteanbieter, um folgendes sicherzustellen:

  1. Sie haben die richtige Git-Benutzer-E-Mail oder ihren Benutzernamen mit Ihren Git-Anbieteranmeldeinformationen eingegeben.

  2. Ihr Token verfügt über den richtigen Repositoryzugriff.

  3. Ihr Token ist nicht abgelaufen.

  4. Wenn Sie SSO mit Ihrem Git-Anbieter aktiviert haben, müssen Sie Ihr Token autorisieren.

<pickOrCreateNewCredential>

.

GIT_CREDENTIAL_MISSING

SQLSTATE: nicht zugewiesen

Keine Git-Anmeldeinformationen konfiguriert, aber Anmeldeinformationen sind für dieses Repository erforderlich (<repoUrl>).

Wechseln Sie zu "Benutzereinstellungen" > Git-Integration, um Ihre Git-Anmeldeinformationen einzurichten.

GIT_CREDENTIAL_NO_WRITE_PERMISSION

SQLSTATE: nicht zugewiesen

Schreibzugriff auf das <gitCredentialProvider>-Repository (<repoUrl>) wurde nicht gewährt.

Anmeldeinformationen <credentialName> (<credentialId>) wurden verwendet<because>.

Der Anbieter dieser Git-Anmeldeinformationen ist <gitCredentialProvider> und E-Mail/Benutzername lautet <gitCredentialUsername>.

Stellen Sie sicher, dass Sie (<gitCredentialUsername>) Schreibzugriff auf dieses Remote-Repository haben.

GIT_CREDENTIAL_PROVIDER_MISMATCHED

SQLSTATE: nicht zugewiesen

Falscher Git-Anmeldeinformationsanbieter für Repository.

Sie haben keine Git-Anmeldeinformationen mit einem Git-Anbieter (<repositoryGitProvider>), der mit dem des Git-Anbieters <repoUrl>des Repositorys übereinstimmt.

Wechseln Sie zu Git Integration für Benutzereinstellungen > , um eine neue Anmeldeinformationen für Git-Anbieter <repositoryGitProvider>zu erstellen.

GIT_DATEINAME_ZU_LANG

SQLSTATE: nicht zugewiesen

Der Datei- oder Ordnername(n) im Pfad <path> überschreitet das Maximum " <maxComponentBytes>-byte" pro Komponente.

Unixbasierte Systeme unterstützen nur bis zu <maxComponentBytes> Bytes pro Datei- oder Ordnername.

Verletzungen: <violations>

Kürzen Sie die beleidigenden Komponenten, um fortzufahren.

GIT_PROVIDER_INFO_MISSING

SQLSTATE: nicht zugewiesen

Git-Anbieterinformationen fehlen oder sind leer.

Fügen Sie die Git-Anmeldeinformationsinformationen hinzu, und versuchen Sie es erneut.

Wenn das Problem weiterhin besteht, melden Sie bitte ein Supportticket an.

GIT_PROXY_CLUSTER_NOT_READY

SQLSTATE: nicht zugewiesen

Git-Proxycluster ist nicht bereit.

GIT_PROXY_CONNECTION_FAILED

SQLSTATE: nicht zugewiesen

Fehler beim Herstellen einer Verbindung mit Git Proxy. Überprüfen Sie, ob Git Proxy ausgeführt wird.

Fehler: <error>

GIT_SECRET_IN_CODE

SQLSTATE: nicht zugewiesen

Geheimnisse im Commit gefunden. Detail: <secretDetail>. So beheben Sie diesen Fehler:

Entfernen Sie das Geheimnis, und committen Sie erneut.

Wenn das Problem weiterhin besteht, melden Sie bitte ein Supportticket an.

GIT_STALE_REMOTE_REFS

SQLSTATE: nicht zugewiesen

Git fetch completed but could not update stale remote references due to filesystem path conflicts (for example, deleted branches or 'feature' vs 'feature/sub').

Git-Fehler: <gitErrorMessage>

HIERARCHICAL_NAMESPACE_NOT_ENABLED

SQLSTATE: nicht zugewiesen

Das Azure-Speicherkonto hat keinen hierarchischen Namespace aktiviert.

INVALID_FIELD_LENGTH

SQLSTATE: 54000

<rpcName> <fieldName> zu lang. Die maximale Länge beträgt <maxLength> Zeichen.

INVALID_PARAMETER_VALUE

SQLSTATE: 22023

<msg>

Weitere Details finden Sie unter INVALID_PARAMETER_VALUE.

JOBS_TASK_FRAMEWORK_TASK_RUN_OUTPUT_NOT_FOUND

SQLSTATE: nicht zugewiesen

Aufgabenframework: Ausgabe der Aufgabenausführung für Aufgabe mit Ausführungs-ID (runId) <runId> und Organisations-ID (orgId) <orgId> wurde nicht gefunden.

JOBS_TASK_FRAMEWORK_TASK_RUN_STATE_NOT_FOUND

SQLSTATE: nicht zugewiesen

Aufgabenframework: Status der Aufgabenausführung für Aufgabe mit Ausfühungs-ID (runId) <runId> und Organisations-ID (orgId) <orgId> wurde nicht gefunden.

JOBS_TASK_REGISTRY_TASK_CLIENT_CONFIG_DOES_NOT_EXIST

SQLSTATE: nicht zugewiesen

RPC-ClientConfig für Aufgabe mit ID <taskId> existiert nicht.

JOBS_TASK_REGISTRY_TASK_DOES_NOT_EXIST

SQLSTATE: nicht zugewiesen

Die Aufgabe mit der ID <taskId> ist nicht vorhanden.

JOBS_TASK_REGISTRY_UNSUPPORTED_JOB_TASK

SQLSTATE: nicht zugewiesen

Aufgabenregistrierung: Nicht unterstützte oder unbekannte JobTask mit Klasse <taskClassName>.

PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_EXTERNAL_SHALLOW_CLONE

SQLSTATE: nicht zugewiesen

Pfadbasierter Zugriff auf externe flache Klontabelle <tableFullName> wird nicht unterstützt. Verwenden Sie stattdessen Tabellennamen, um auf den flachen Klon zuzugreifen.

PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_FABRIC

SQLSTATE: nicht zugewiesen

Die Fabric-Tabelle unter der URL '<url>' wurde nicht gefunden. Verwenden Sie den Befehl REFRESH FOREIGN CATALOG, um Fabric-Tabellen aufzufüllen.

PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_TABLES_WITH_ROW_COLUMN_ACCESS_POLICIES

SQLSTATE: nicht zugewiesen

Pfadbasierter Zugriff auf Tabelle <tableFullName> mit Zeilenfilter oder Spaltenmaske nicht unterstützt.

PERMISSION_DENIED

SQLSTATE: nicht zugewiesen

<principalName> hat <msg> nicht auf <resourceType> '<resourceName>'.

REDASH_DELETE_ASSET_HANDLER_INVALID_INPUT

SQLSTATE: nicht zugewiesen

Die Löschanforderung für das Objekt kann nicht verarbeitet werden: <invalidInputMsg>

REDASH_DELETE_OBJECT_NOT_IN_TRASH

SQLSTATE: nicht zugewiesen

Objekt <resourceName> kann nicht gelöscht werden, da es sich nicht im Papierkorb befindet.

REDASH_PERMISSION_DENIED

SQLSTATE: nicht zugewiesen

Der Zugriff auf Ressource <resourceId> konnte nicht gefunden werden oder es fehlen die notwendigen Berechtigungen.

REDASH_QUERY_NOT_FOUND

SQLSTATE: nicht zugewiesen

Die Ressource konnte nicht aus der Abfrage-ID <queryId> gefunden werden.

REDASH_QUERY_SNIPPET_CREATION_FAILED

SQLSTATE: nicht zugewiesen

Der neue Abfrageausschnitt kann nicht erstellt werden.

REDASH_QUERY_SNIPPET_QUOTA_EXCEEDED

SQLSTATE: nicht zugewiesen

Das Kontingent für die Anzahl der Abfrageausschnitte wurde erreicht. Das aktuelle Kontingent beträgt <quota>.

REDASH_QUERY_SNIPPET_TRIGGER_ALREADY_IN_USE

SQLSTATE: nicht zugewiesen

Der angegebene Trigger <trigger> wird bereits von einem anderen Abfrageausschnitt in diesem Arbeitsbereich verwendet.

REDASH_RESOURCE_NOT_FOUND

SQLSTATE: nicht zugewiesen

Die angeforderte Ressource <resourceName> ist nicht vorhanden.

REDASH_RESTORE_ASSET_HANDLER_INVALID_INPUT

SQLSTATE: nicht zugewiesen

Die Löschanforderung für das Objekt kann nicht verarbeitet werden: <invalidInputMsg>

REDASH_RESTORE_OBJECT_NOT_IN_TRASH

SQLSTATE: nicht zugewiesen

Objekt <resourceName>, das sich nicht im Papierkorb befindet, kann nicht wiederhergestellt werden.

REDASH_TRASH_OBJECT_ALREADY_IN_TRASH

SQLSTATE: nicht zugewiesen

Objekt <resourceName> befindet sich bereits im Papierkorb und kann nicht erneut in den Papierkorb verschoben werden.

REDASH_UNABLE_TO_GENERATE_RESOURCE_NAME

SQLSTATE: nicht zugewiesen

Der Ressourcenname konnte nicht aus id <id> generiert werden.

REDASH_VISUALIZATION_CREATION_FAILED

SQLSTATE: nicht zugewiesen

Neue Visualisierung kann nicht erstellt werden.

REDASH_VISUALIZATION_NOT_FOUND

SQLSTATE: nicht zugewiesen

Visualisierung <visualizationId> konnte nicht gefunden werden.

REDASH_VISUALIZATION_QUOTA_EXCEEDED

SQLSTATE: nicht zugewiesen

Das Kontingent für die Anzahl der Visualisierungen für die Abfrage <query_id> wurde erreicht. Das aktuelle Kontingent beträgt <quota>.

REPOSITORY_URL_NOT_FOUND

SQLSTATE: nicht zugewiesen

Remote-Repository (<repoUrl>) nicht gefunden.

Anmeldeinformationen <credentialName> (<credentialId>) wurden verwendet<because>.

Der Anbieter dieser Git-Anmeldeinformationen ist <gitCredentialProvider> und E-Mail/Benutzername lautet <gitCredentialUsername>.

Gehen Sie bitte zu Ihrem Git-Remoteanbieter, um folgendes sicherzustellen:

  1. Ihre Git-Repository-REMOTE-URL ist gültig.

  2. Ihr persönliches Zugriffstoken oder App-Kennwort verfügt über den richtigen Repositoryzugriff.

<pickOrCreateNewCredential>

RESOURCE_ALREADY_EXISTS

SQLSTATE: 42710

<resourceType> '<resourceIdentifier>' ist bereits vorhanden.

RESOURCE_DOES_NOT_EXIST

SQLSTATE: 42704

<resourceType> '<resourceIdentifier>' ist nicht vorhanden.

ROW_COLUMN_ACCESS_POLICIES_NOT_SUPPORTED_ON_ASSIGNED_CLUSTERS

SQLSTATE: nicht zugewiesen

Abfrage auf die Tabelle <tableFullName> mit Zeilenfilter oder Spaltenmaske wird auf zugewiesenen Clustern nicht unterstützt.

ROW_COLUMN_SECURITY_NOT_SUPPORTED_WITH_TABLE_IN_DELTA_SHARING

SQLSTATE: nicht zugewiesen

Tabelle <tableFullName> wird mit Delta Sharing geteilt und kann keine Zeilen-/Spaltensicherheit verwenden.

SERVICE_TEMPORARILY_UNAVAILABLE

SQLSTATE: nicht zugewiesen

Der <serviceName>-Dienst wird vorübergehend gewartet. Versuchen Sie es später erneut.

TABLE_WITH_ROW_COLUMN_SECURITY_NOT_SUPPORTED_IN_ONLINE_MODE

SQLSTATE: nicht zugewiesen

Tabelle <tableFullName> kann nicht gleichzeitig Zeilen-/Spaltensicherheit und online materialisierte Ansichten haben.

TOO_MANY_ROWS_TO_UPDATE

SQLSTATE: nicht zugewiesen

Zu viele Zeilen zum Aktualisieren, Aktualisierung wird abgebrochen.

UC_ABAC_UNSUPPORTED_TABLE_TYPE

SQLSTATE: nicht zugewiesen

ABAC-Richtlinien werden für den Tabellentyp <tableType>nicht unterstützt.