Fehlerklassen in Azure Databricks

Gilt für:Häkchen gesetzt ja Databricks SQL Häkchen gesetzt ja Databricks Runtime 12.2 und höher

Fehlerklassen sind beschreibende, lesbare Zeichenfolgen, die für die Fehlerbedingung eindeutig sind.

Sie können Fehlerklassen verwenden, um Fehler in Ihrer Anwendung programmgesteuert zu behandeln, ohne die Fehlermeldung analysieren zu müssen.

Dies ist eine Liste allgemeiner, benannter Fehlerbedingungen, die von Azure Databricks zurückgegeben werden.

Databricks Runtime und Databricks SQL

AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION

SQLSTATE: 42845

Der nicht deterministische Ausdruck <sqlExpr> darf nicht in den Argumenten einer Aggregatfunktion aufgeführt werden.

AI_FUNCTION_HTTP_PARSE_CAST_ERROR

SQLSTATE: 2203G

Fehler beim Analysieren der Modellausgabe beim Umwandeln in den angegebenen returnType: "<dataType>", Antwort von JSON lautete: "<responseString>". Aktualisieren Sie den returnType so, dass er dem Inhalt des Typs entspricht, der durch den Antwort-JSON dargestellt wird, und wiederholen Sie dann die Abfrage erneut.

AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR

SQLSTATE: 2203G

Die tatsächliche Modellausgabe weist mehr als eine Spalte "<responseString>" auf. Der angegebene Rückgabetyp ["<dataType>"] weist jedoch nur eine Spalte auf. Aktualisieren Sie den returnType so, dass er dieselbe Anzahl von Spalten wie die Modellausgabe enthält, und wiederholen Sie dann die Abfrage erneut.

AI_FUNCTION_HTTP_REQUEST_ERROR

SQLSTATE: 08000

Fehler beim Ausführen einer HTTP-Anforderung für die Funktion <funcName>: <errorMessage>

AI_FUNCTION_INVALID_HTTP_RESPONSE

SQLSTATE: 08000

Ungültige HTTP-Antwort für Funktion <funcName>: <errorMessage>

AI_FUNCTION_INVALID_MAX_WORDS

SQLSTATE: 22032

Die maximale Anzahl von Wörtern muss eine nicht negative ganze Zahl sein, es wurde aber <maxWords> erhalten.

AI_FUNCTION_JSON_PARSE_ERROR

SQLSTATE: 22000

Fehler beim Analysieren der JSON-Antwort für die Funktion <funcName>: <errorMessage>

AI_FUNCTION_UNSUPPORTED_ERROR

SQLSTATE: 56038

Die Funktion <funcName> wird in der aktuellen Umgebung nicht unterstützt. Sie ist nur in Databricks SQL Pro und Serverless verfügbar.

AI_FUNCTION_UNSUPPORTED_REQUEST

SQLSTATE: 0A000

Fehler beim Auswerten der SQL-Funktion „<functionName>“, da das angegebene Argument von <invalidValue> den Typ „<invalidDataType>“ aufweist, aber nur die folgenden Typen unterstützt werden: <supportedDataTypes>. Aktualisieren Sie den Funktionsaufruf. Geben Sie dabei ein Argument vom Typ „string“ an, und wiederholen Sie die Abfrage.

AI_FUNCTION_UNSUPPORTED_RETURN_TYPE

SQLSTATE: 0A000

Die KI-Funktion <functionName> unterstützt den folgenden Typ nicht als Rückgabetyp: <typeName>. Der Rückgabetyp muss ein gültiger SQL-Typ sein, der von Catalyst verstanden und von der KI-Funktion unterstützt wird. Beispiele für aktuell unterstützte Typen: <supportedValues>

AI_INVALID_ARGUMENT_VALUE_ERROR

SQLSTATE: 22032

Der angegebene Wert <argValue> wird vom <argName>-Argument nicht unterstützt. Folgende Werte werden unterstützt: <supportedValues>

ALL_PARAMETERS_MUST_BE_NAMED

SQLSTATE: 07001

Für die Verwendung von nach dem Namen parametrisierten Abfragen müssen alle Parameter benannt sein. Parameter ohne Namen: <exprs>.

ALL_PARTITION_COLUMNS_NOT_ALLOWED

SQLSTATE: KD005

Für Partitionsspalten können nicht alle Spalten verwendet werden.

ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE

SQLSTATE: 42710

ALTER TABLE <type> Spalte <columnName>gibt den Deskriptor „<optionName>“ mehr als einmal an, was ungültig ist.

AMBIGUOUS_ALIAS_IN_NESTED_CTE

SQLSTATE: 42KD0

Der Name <name> ist im geschachtelten CTE mehrdeutig.

Legen Sie <config> auf „CORRECTED“ fest, damit der im inneren CTE definierte Name Vorrang hat. Wenn der Wert auf „LEGACY“ festgelegt ist, haben äußere CTE-Definitionen Vorrang.

Siehe https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine’.

AMBIGUOUS_COLUMN_OR_FIELD

SQLSTATE: 42702

Spalte oder Feld <name> ist mehrdeutig und weist <n> Übereinstimmungen auf.

AMBIGUOUS_COLUMN_REFERENCE

SQLSTATE: 42702

Die Spalte <name> ist mehrdeutig. Dies liegt daran, dass Sie mehrere DataFrames miteinander verknüpft haben, und einige dieser DataFrames identisch sind.

Diese Spalte verweist auf einen der DataFrames, aber Spark kann nicht ermitteln auf welchen.

Verwenden Sie für die DataFrames unterschiedliche Namen mit DataFrame.alias, bevor Sie sie verknüpfen,

und geben Sie die Spalte mithilfe des qualifizierten Namens an, z. B. df.alias("a").join(df.alias("b"), col("a.id") > col("b.id")).

AMBIGUOUS_CONSTRAINT

SQLSTATE: 42K0C

Mehrdeutige Referenz auf Einschränkung <constraint>.

AMBIGUOUS_LATERAL_COLUMN_ALIAS

SQLSTATE: 42702

Der Alias der Lateral-Spalte <name> ist mehrdeutig und weist <n> Übereinstimmungen auf.

AMBIGUOUS_REFERENCE

SQLSTATE: 42704

Verweis <name> ist mehrdeutig, könnte Folgendes sein: <referenceNames>.

AMBIGUOUS_REFERENCE_TO_FIELDS

SQLSTATE: 42000

Mehrdeutiger Verweis auf das Feld <field>. Es erscheint <count> Mal im Schema.

ANSI_CONFIG_CANNOT_BE_DISABLED

SQLSTATE: 56038

Die ANSI SQL-Konfiguration <config> kann in diesem Produkt nicht deaktiviert werden.

ARGUMENT_NOT_CONSTANT

SQLSTATE: 42K08

Die Funktion <functionName> enthält einen <parameterName>-Parameter and der Position <pos>, der ein konstantes Argument erfordert. Bitte berechnen Sie das Argument <sqlExpr> separat, und übergeben Sie das Ergebnis als Konstante.

ARITHMETIC_OVERFLOW

SQLSTATE: 22003

<message>.<alternative> Legen Sie bei Bedarf <config> auf FALSCH fest, um diesen Fehler zu umgehen.

Weitere Details finden Sie unter ARITHMETIC_OVERFLOW

ASSIGNMENT_ARITY_MISMATCH

SQLSTATE: 42802

Die Anzahl der zugewiesenen oder an einen Alias gebundenen Spalten oder Variablen: <numTarget> stimmt nicht mit der Anzahl der Quellausdrücke überein: <numExpr>.

AS_OF_JOIN

SQLSTATE: 42604

Ungültiger As-of-Join.

Weitere Informationen finden Sie unter AS_OF_JOIN.

AVRO_DEFAULT_VALUES_UNSUPPORTED

SQLSTATE: 0A000

Die Verwendung von Standardwerten wird nicht unterstützt, wennrescuedDataColumn aktiviert ist. Sie können diese Überprüfung möglicherweise entfernen, indem Sie spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue auf FALSE festlegen, aber die Standardwerte werden nicht angewendet, und NULL-Werte werden weiterhin verwendet.

AVRO_INCOMPATIBLE_READ_TYPE

SQLSTATE: 22KD3

Avro <avroPath> kann nicht in SQL <sqlPath> konvertiert werden, weil als ursprünglicher Datentyp <avroType> codiert wurde. Sie versuchen jedoch, das Feld als <sqlType> zu lesen, was zu einer falschen Antwort führen würde.

Um das Lesen dieses Felds zuzulassen, aktivieren Sie die SQL-Konfiguration: „spark.sql.legacy.avro.allowIncompatibleSchema”.

AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED

SQLSTATE: 0A000

Die Verwendung des Positionsfeldabgleichs wird nicht unterstützt, wenn rescuedDataColumn oder failOnUnknownFields aktiviert ist. Entfernen Sie diese Optionen, um fortzufahren.

BATCH_METADATA_NOT_FOUND

SQLSTATE: 42K03

Batch <batchMetadataFile> wurde nicht gefunden.

BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE

SQLSTATE: 42616

BigQuery-Verbindungsanmeldeinformationen müssen entweder mit dem Parameter „GoogleServiceAccountKeyJson“ oder „projectId“, „OAuthServiceAcctEmail“, „OAuthPvtKey“ angegeben werden.

BINARY_ARITHMETIC_OVERFLOW

SQLSTATE: 22003

<value1><symbol><value2> verursachte einen Überlauf.

BUILT_IN_CATALOG

SQLSTATE: 42832

<operation> unterstützt keine integrierten Kataloge.

CALL_ON_STREAMING_DATASET_UNSUPPORTED

SQLSTATE: 42KDE

Die Methode <methodName> kann für das Streamingdataset/den DataFrame nicht aufgerufen werden.

CANNOT_ALTER_PARTITION_COLUMN

SQLSTATE: 428FR

ALTER TABLE (ALTER|CHANGE) COLUMN wird für Partitionsspalten nicht unterstützt, aber die Partitionsspalte <columnName> wurde in der Tabelle <tableName> gefunden.

CANNOT_CAST_DATATYPE

SQLSTATE: 42846

<sourceType> kann nicht in <targetType> umgewandelt werden.

CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE

SQLSTATE: 42846

Protobuf <protobufColumn> kann nicht in SQL <sqlColumn> konvertiert werden, da das Schema inkompatibel ist (protobufType = <protobufType>, sqlType = <sqlType>).

CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE

SQLSTATE: 42846

<protobufType> von Protobuf kann nicht in den SQL-Typ <toType> konvertiert werden.

CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE

SQLSTATE: 42846

SQL <sqlColumn> kann nicht in Protobuf <protobufColumn> konvertiert werden, da das Schema inkompatibel ist (protobufType = <protobufType>, sqlType = <sqlType>).

CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE

SQLSTATE: 42846

SQL <sqlColumn> kann nicht in Protobuf <protobufColumn> konvertiert werden, da <data> sich nicht in den definierten Werten für die Enumeration <enumString> befindet.

CANNOT_COPY_STATE

SQLSTATE: 0AKD0

Der Katalogstatus wie die aktuelle Datenbank und temporäre Sichten können nicht von Unity Catalog in einen Legacykatalog kopiert werden.

CANNOT_CREATE_DATA_SOURCE_TABLE

SQLSTATE: 42KDE

Fehler beim Erstellen der Datenquellentabelle <tableName>:

Weitere Informationen finden Sie unter CANNOT_CREATE_DATA_SOURCE_TABLE.

CANNOT_DECODE_URL

SQLSTATE: 22546

Die angegebene URL kann nicht decodiert werden: <url>. Stellen Sie sicher, dass die URL ordnungsgemäß formatiert ist, und versuchen Sie es erneut.

CANNOT_DELETE_SYSTEM_OWNED

SQLSTATE: 42832

Der systemeigene <resourceType> kann nicht gelöscht werden.

CANNOT_DROP_AMBIGUOUS_CONSTRAINT

SQLSTATE: 42K0C

Die Einschränkung mit dem gemeinsamen Namen <constraintName> einer CHECK-Einschränkung

und einer PRIMARY KEY- oder FOREIGN KEY-Einschränkung kann nicht gelöscht werden. Sie können die PRIMARY KEY- oder

FOREIGN KEY-Einschränkung durch Abfragen löschen:

  • ALTER TABLE .. DROP PRIMARY KEY oder
  • ALTER TABLE .. DROP FOREIGN KEY ..

CANNOT_ESTABLISH_CONNECTION

SQLSTATE: 08001

Die Verbindung mit der Remotedatenbank <jdbcDialectName> kann nicht hergestellt werden. Überprüfen Sie die Verbindungsinformationen und die Anmeldeinformationen, z. B. die Optionen für Host, Port, Benutzer, Kennwort und Datenbank. ** Wenn Sie der Meinung sind, dass die Informationen korrekt sind, überprüfen Sie die Netzwerkeinrichtung Ihres Arbeitsbereichs, und stellen Sie sicher, dass er keine Beschränkungen für ausgehenden Datenverkehr für den Host aufweist. Stellen Sie auch sicher, dass der Host keine eingehenden Verbindungen aus dem Netzwerk blockiert, in dem die Spark-Cluster des Arbeitsbereichs bereitgestellt werden. ** Detaillierte Fehlermeldung: <causeErrorMessage>.

CANNOT_ESTABLISH_CONNECTION_SERVERLESS

SQLSTATE: 08001

Die Verbindung mit der Remotedatenbank <jdbcDialectName> kann nicht hergestellt werden. Überprüfen Sie die Verbindungsinformationen und die Anmeldeinformationen, z. B. die Optionen für Host, Port, Benutzer, Kennwort und Datenbank. ** Wenn Sie die Informationen für richtig halten, lassen Sie eingehenden Datenverkehr aus dem Internet zu Ihrem Host zu, da Sie serverloses Computing verwenden. Wenn Ihre Netzwerkrichtlinien keinen eingehenden Internetdatenverkehr zulassen, verwenden Sie kein serverloses Computing, oder wenden Sie sich an Ihren Databricks-Vertreter, um mehr über serverlose private Netzwerke zu erfahren. ** Detaillierte Fehlermeldung: <causeErrorMessage>.

CANNOT_INVOKE_IN_TRANSFORMATIONS

SQLSTATE: 0A000

Datasettransformationen und -aktionen können nur vom Treiber aufgerufen werden, nicht innerhalb anderer Datasettransformationen. Beispielsweise ist „dataset1.map(x => dataset2.values.count() * x)“ ungültig, da die Wertetransformations- und Zählaktion nicht innerhalb der dataset1.map-Transformation ausgeführt werden kann. Weitere Informationen finden Sie unter SPARK-28702.

CANNOT_LOAD_FUNCTION_CLASS

SQLSTATE: 46103

Die Klasse <className> kann beim Registrieren der Funktion <functionName> nicht geladen werden, stellen Sie bitte sicher, dass sie sich im Klassenpfad befindet.

CANNOT_LOAD_PROTOBUF_CLASS

SQLSTATE: 42K03

Die Protobuf-Klasse mit dem Namen <protobufClassName> konnte nicht geladen werden. <explanation>.

CANNOT_LOAD_STATE_STORE

SQLSTATE: 58030

Beim Laden des Zustands ist ein Fehler aufgetreten.

Weitere Informationen finden Sie unter CANNOT_LOAD_STATE_STORE

CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE

SQLSTATE: 42825

Fehler beim Zusammenführen der inkompatiblen Datentypen <left> und <right>. Überprüfen Sie die Datentypen der Spalten, die zusammengeführt werden, und stellen Sie sicher, dass sie kompatibel sind. Erwägen Sie bei Bedarf, die Spalten in kompatible Datentypen umzuwandeln, bevor Sie die Zusammenführung versuchen.

CANNOT_MERGE_SCHEMAS

SQLSTATE: 42KD9

Fehler beim Zusammenführen von Schemas:

Ursprüngliches Schema:

<left>

Schema, das nicht mit dem ursprünglichen Schema zusammengeführt werden kann:

<right>.

CANNOT_MODIFY_CONFIG

SQLSTATE: 46110

Der Wert der Spark-Konfiguration kann nicht geändert werden: <key>.

Weitere Informationen finden Sie unter https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements“.

CANNOT_PARSE_DECIMAL

SQLSTATE: 22018

Dezimalwerte können nicht geparst werden. Stellen Sie sicher, dass es sich bei der Eingabe um eine gültige Zahl mit optionalen Dezimaltrennzeichen (Punkt oder Komma) handelt.

CANNOT_PARSE_INTERVAL

SQLSTATE: 22006

<intervalString> kann nicht geparst werden. Stellen Sie sicher, dass der angegebene Wert in einem gültigen Format zum Definieren eines Intervalls vorliegt. Das richtige Format finden Sie in der Dokumentation. Wenn das Problem weiterhin besteht, stellen Sie sicher, dass der Eingabewert nicht NULL oder leer ist, und versuchen Sie es erneut.

CANNOT_PARSE_JSON_FIELD

SQLSTATE: 2203G

Der Feldname <fieldName> und der Wert <fieldValue> des JSON-Tokentyps <jsonType> können nicht auf den Spark-Zieldatentyp <dataType> geparst werden.

CANNOT_PARSE_PROTOBUF_DESCRIPTOR

SQLSTATE: 22018

Fehler beim Analysieren von Deskriptorbytes in Protobuf FileDescriptorSet.

CANNOT_PARSE_TIMESTAMP

SQLSTATE: 22007

<message>. Legen Sie bei Bedarf <ansiConfig> auf FALSCH fest, um diesen Fehler zu umgehen.

CANNOT_READ_ARCHIVED_FILE

SQLSTATE: KD003

Die Datei kann im Pfad <path> nicht gelesen werden, da sie archiviert wurde. Bitte passen Sie Ihre Abfragefilter an, um archivierte Dateien auszuschließen.

CANNOT_READ_FILE

SQLSTATE: KD003

Die <format>-Datei kann nicht gelesen werden unter Pfad: <path>.

Weitere Details finden Sie unter CANNOT_READ_FILE

SQLSTATE: KD001

Die Fußzeile konnte nicht gelesen werden für die Datei: <file>. Stellen Sie sicher, dass die Datei entweder im ORC- oder Parquet-Format vorliegt.

Falls nicht, konvertieren Sie sie in ein gültiges Format. Wenn die Datei das gültige Format aufweist, überprüfen Sie, ob sie beschädigt ist.

In diesem Fall können Sie sie entweder ignorieren oder die Beschädigung beheben.

CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER

SQLSTATE: 42501

Der vertrauliche Schlüssel „<key>“ kann nicht vom sicheren Anbieter gelesen werden.

CANNOT_RECOGNIZE_HIVE_TYPE

SQLSTATE: 429BB

Die Strukturtypzeichenfolge kann nicht erkannt werden: <fieldType>, Spalte: <fieldName>. Der angegebene Datentyp für das Feld wird von Spark SQL nicht erkannt. Überprüfen Sie den Datentyp des angegebenen Felds, und stellen Sie sicher, dass es sich um einen gültigen Spark SQL-Datentyp handelt. Eine Liste gültiger Datentypen und deren Format finden Sie in der Spark SQL-Dokumentation. Wenn der Datentyp richtig ist, stellen Sie sicher, dass Sie eine unterstützte Version von Spark SQL verwenden.

CANNOT_REFERENCE_UC_IN_HMS

SQLSTATE: 0AKD0

In Hive-Metastore-Objekten kann nicht auf einen Unity Catalog <objType> verwiesen werden.

CANNOT_RENAME_ACROSS_CATALOG

SQLSTATE: 0AKD0

Das Umbenennen von <type> über Kataloge hinweg ist nicht zulässig.

CANNOT_RENAME_ACROSS_SCHEMA

SQLSTATE: 0AKD0

Das Umbenennen von <type> über Schemas hinweg ist nicht zulässig.

CANNOT_RESOLVE_DATAFRAME_COLUMN

SQLSTATE: 42704

Fehler beim Auflösen der DataFrame-Spalte <name>. Die Ursache sind wahrscheinlich unzulässige Verweise wie df1.select(df2.col("a")).

CANNOT_RESOLVE_STAR_EXPAND

SQLSTATE: 42704

<targetString>.* kann anhand der Eingabespalten <columns> nicht aufgelöst werden. Überprüfen Sie, ob die angegebene Tabelle oder Struktur vorhanden und in den Eingabespalten zugänglich ist.

CANNOT_RESTORE_PERMISSIONS_FOR_PATH

SQLSTATE: 58030

Fehler beim Festlegen von Berechtigungen für den erstellten Pfad <path> zurück zu <permission>.

CANNOT_SAVE_VARIANT

SQLSTATE: 0A000

Der Datentyp „variant“ kann nicht im externen Speicher gespeichert werden.

CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS

SQLSTATE: 0AKD0

Tabellen können zwischen Unity Catalog und Hive Metastore nicht flach geklont werden.

CANNOT_SHALLOW_CLONE_NESTED

SQLSTATE: 0AKUC

Eine Tabelle <table>, die bereits ein flacher Klon ist, kann nicht flach geklont werden.

CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET

SQLSTATE: 0AKUC

Ein flacher Klon wird nur für den VERWALTETEN Tabellentyp unterstützt. Die Tabelle <table> ist keine VERWALTETE Tabelle.

CANNOT_UPDATE_FIELD

SQLSTATE: 0A000

Das <table>-Feld vom <fieldName>-Typ kann nicht aktualisiert werden:

Weitere Informationen finden Sie unter CANNOT_UPDATE_FIELD

CANNOT_UP_CAST_DATATYPE

SQLSTATE: 42846

<expression> kann nicht von <sourceType> zu <targetType> umgewandelt werden.

<details>

CANNOT_VALIDATE_CONNECTION

SQLSTATE: 08000

Die Validierung der <jdbcDialectName>-Verbindung wird nicht unterstützt. Wenden Sie sich für alternative Lösungen an den Databricks-Support, oder legen Sie „spark.databricks.testConnectionBeforeCreation“ auf „false“ fest, um Verbindungstests vor dem Erstellen eines Verbindungsobjekts zu überspringen.

CANNOT_WRITE_STATE_STORE

SQLSTATE: 58030

Fehler beim Schreiben von Zustandsspeicherdateien für Anbieter <providerClass>.

Weitere Informationen finden Sie unter CANNOT_WRITE_STATE_STORE

CAST_INVALID_INPUT

SQLSTATE: 22018

Der Wert <expression> des Typs <sourceType> kann nicht in <targetType> umgewandelt werden, da er nicht wohlgeformt ist. Korrigieren Sie den Wert gemäß der Syntax, oder ändern Sie den Zieltyp. Verwenden Sie try_cast, um fehlerhafte Eingaben zu tolerieren und stattdessen NULL zurückzugeben. Legen Sie bei Bedarf <ansiConfig> auf FALSCH fest, um diesen Fehler zu umgehen.

Weitere Details finden Sie unter CAST_INVALID_INPUT

CAST_OVERFLOW

SQLSTATE: 22003

Der Wert <value>des Typs <sourceType> kann aufgrund eines Überlaufs nicht in <targetType> umgewandelt werden. Verwenden Sie try_cast, um den Überlauf zu tolerieren und stattdessen NULL zurückzugeben. Legen Sie bei Bedarf <ansiConfig> auf FALSCH fest, um diesen Fehler zu umgehen.

CAST_OVERFLOW_IN_TABLE_INSERT

SQLSTATE: 22003

Aufgrund eines Überlaufs konnte kein Wert vom Typ <sourceType> der <targetType>-Typspalte oder Variablen <columnName> zugewiesen werden. Verwenden Sie try_cast für den Eingabewert, um einen Überlauf zu tolerieren, und geben Sie stattdessen NULL zurück.

CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND

SQLSTATE: 56000

Der Prüfpunktblock <rddBlockId> wurde nicht gefunden!

Entweder der Executor, der die Prüfpunkte für diese Partition ursprünglich festgelegt hat, ist nicht mehr aktiv, oder die ursprüngliche RDD wird nicht beständig gespeichert.

Wenn dieses Problem weiterhin besteht, können Sie stattdessen rdd.checkpoint() verwenden. Dies ist langsamer als die lokale Festlegung von Prüfpunkten, aber fehlertoleranter.

CLASS_UNSUPPORTED_BY_MAP_OBJECTS

SQLSTATE: 0A000

MapObjects unterstützt die Klasse <cls> nicht als resultierende Sammlung.

CLEANROOM_COMMANDS_NOT_SUPPORTED

SQLSTATE: 0A000

Clean Room-Befehle werden nicht unterstützt.

CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME

SQLSTATE: 42K05

Ungültiger Name, um in einem Reinraum auf einen <type> Verweis zu verweisen. Verwenden Sie einen <type>-Namen innerhalb des Reinraums nach dem Format von [Katalog].[ schema]. [<type>].

Wenn Sie nicht sicher sind, welchen Namen Sie verwenden sollen, können Sie "SHOW ALL IN CLEANROOM [clean_room]" und den Wert in der Spalte "Name" verwenden.

CLOUD_FILE_SOURCE_FILE_NOT_FOUND

SQLSTATE: 42K03

Für die Datei <filePath> wurde eine Dateibenachrichtigung empfangen, aber sie ist nicht mehr vorhanden. Bitte stellen Sie sicher, dass Dateien nicht gelöscht werden, bevor sie verarbeitet werden. Um Ihren Stream fortzusetzen, können Sie die Spark SQL-Konfiguration <config> auf WAHR festlegen.

CODEC_NOT_AVAILABLE

SQLSTATE: 56038

Der Codec <codecName> ist nicht verfügbar. Erwägen Sie, die Konfiguration <configKey> auf <configVal> festzulegen.

CODEC_SHORT_NAME_NOT_FOUND

SQLSTATE: 42704

Für den Codec <codecName> kann kein Kurzname gefunden werden.

COLLATION_INVALID_NAME

SQLSTATE: 42704

Der Wert <collationName> stellt keinen korrekten Sortierungsnamen dar. Vorgeschlagener gültiger Sortierungsname: [<proposal>].

COLLECTION_SIZE_LIMIT_EXCEEDED

SQLSTATE: 54000

Fehler beim Erstellen eines Arrays mit <numberOfElements>-Elementen, die den Grenzwert für die Arraygröße von <maxRoundedArrayLength> überschreiten.

Weitere Informationen finden Sie unter COLLECTION_SIZE_LIMIT_EXCEEDED.

COLUMN_ALIASES_NOT_ALLOWED

SQLSTATE: 42601

Spaltenaliase sind in <op> nicht zulässig.

COLUMN_ALREADY_EXISTS

SQLSTATE: 42711

Die Spalte <columnName> ist bereits vorhanden. Wählen Sie einen anderen Namen aus oder benennen Sie die vorhandene Spalte um.

COLUMN_MASKS_CHECK_CONSTRAINT_UNSUPPORTED

SQLSTATE: 0A000

Das Erstellen einer CHECK-Einschränkung für die Tabelle <tableName> mit Spaltenmaskenrichtlinien wird nicht unterstützt.

COLUMN_MASKS_DUPLICATE_USING_COLUMN_NAME

SQLSTATE: 42734

Eine <statementType>-Anweisung hat versucht, einer Spalte eine Maskenrichtlinie zuzuweisen, die zwei oder mehr andere referenzierte Spalten aus der Liste USING COLUMNS mit demselben Namen <columnName> enthielt. Dies ist ungültig.

COLUMN_MASKS_FEATURE_NOT_SUPPORTED

SQLSTATE: 0A000

Spaltenmaskenrichtlinien für <tableName> werden nicht unterstützt:

Weitere Details finden Sie unter COLUMN_MASKS_FEATURE_NOT_SUPPORTED

COLUMN_MASKS_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 0A000

<statementType><columnName> können nicht aus der Tabelle <tableName> übernommen werden, da sie in einer Spaltenformatrichtlinie für Spalte <maskedColumn> referenziert werden. Der Tabellenbesitzer muss diese Richtlinie entfernen oder ändern, bevor er fortfährt.

COLUMN_MASKS_MERGE_UNSUPPORTED_SOURCE

SQLSTATE: 0A000

MERGE INTO-Vorgänge unterstützen keine Spaltenmaskenrichtlinien in der Quelltabelle <tableName>.

COLUMN_MASKS_MERGE_UNSUPPORTED_TARGET

SQLSTATE: 0A000

MERGE INTO-Vorgänge unterstützen das Schreiben in die Tabelle <tableName> mit Spaltenmaskenrichtlinien nicht.

COLUMN_MASKS_MULTI_PART_TARGET_COLUMN_NAME

SQLSTATE: 42K05

Mit dieser Anweisung wurde versucht, der Spalte <columnName> mit mehreren Namensteilen eine Spaltenmaskenrichtlinie zuzuweisen, was ungültig ist.

COLUMN_MASKS_MULTI_PART_USING_COLUMN_NAME

SQLSTATE: 42K05

Mit dieser Anweisung wurde versucht, einer Spalte eine Spaltenmaskenrichtlinie zuzuweisen, wobei die Liste USING COLUMNS den Namen <columnName> mit mehreren Namensteilen enthielt, was ungültig ist.

COLUMN_MASKS_NOT_ENABLED

SQLSTATE: 56038

Die Unterstützung für das Definieren von Spaltenmasken ist nicht aktiviert.

COLUMN_MASKS_REQUIRE_UNITY_CATALOG

SQLSTATE: 0A000

Spaltenmaskenrichtlinien werden nur in Unity Catalog unterstützt.

COLUMN_MASKS_TABLE_CLONE_SOURCE_NOT_SUPPORTED

SQLSTATE: 0A000

Ein <mode>-Klon aus der Tabelle <tableName> mit Spaltenmaskenrichtlinien wird nicht unterstützt.

COLUMN_MASKS_TABLE_CLONE_TARGET_NOT_SUPPORTED

SQLSTATE: 0A000

Ein <mode>-Klon in die Tabelle <tableName> mit Spaltenmaskenrichtlinien wird nicht unterstützt.

COLUMN_MASKS_UNSUPPORTED_CONSTANT_AS_PARAMETER

SQLSTATE: 0AKD1

Die Verwendung einer Konstante als Parameter in einer Spaltenmaskenrichtlinie wird nicht unterstützt. Aktualisieren Sie den SQL-Befehl, um die Konstante aus der Spaltenmaskendefinition zu entfernen, und wiederholen Sie dann den Befehl erneut.

COLUMN_MASKS_UNSUPPORTED_PROVIDER

SQLSTATE: 0A000

Fehler beim Ausführen des <statementType>-Befehls, da das Zuweisen von Spaltenmaskenrichlinien für eine Zieldatenquelle mit dem Tabellenanbieter <provider> nicht unterstützt wird.

COLUMN_MASKS_UNSUPPORTED_SUBQUERY

SQLSTATE: 0A000

<operation> kann für die Tabelle <tableName> nicht ausgeführt werden, da sie eine oder mehrere Spaltenmaskenrichtlinien mit Unterabfrageausdrücken enthält, die noch nicht unterstützt werden. Wenden Sie sich an den Besitzer der Tabelle, um die Spaltenmaskenrichtlinien zu aktualisieren und fortfahren zu können.

COLUMN_MASKS_USING_COLUMN_NAME_SAME_AS_TARGET_COLUMN

SQLSTATE: 42734

Die Spalte <columnName> hatte denselben Namen wie die Zielspalte, was ungültig ist. Entfernen Sie die Spalte aus der Liste USING COLUMNS, und wiederholen Sie den Befehl.

COLUMN_NOT_DEFINED_IN_TABLE

SQLSTATE: 42703

Die <colType>-Spalte <colName> ist nicht in der Tabelle <tableName> definiert. Definierte Tabellenspalten: <tableCols>.

COLUMN_NOT_FOUND

SQLSTATE: 42703

Die Spalte <colName> kann nicht gefunden werden. Überprüfen Sie die Schreibweise und Korrektheit des Spaltennamens gemäß der SQL-Konfiguration <caseSensitiveConfig>.

COMMA_PRECEDING_CONSTRAINT_ERROR

SQLSTATE: 42601

Unerwartetes ',' vor der Einschränkungsdefinition(n). Stellen Sie sicher, dass die Einschränkungsklausel nicht mit einem Komma beginnt, wenn Spalten (und Erwartungen) nicht definiert sind.

COMPARATOR_RETURNS_NULL

SQLSTATE: 22004

Der Vergleichsoperator hat NULL für einen Vergleich zwischen <firstValue> und <secondValue>zurückgegeben.

Er sollte eine positive ganze Zahl für „größer als“, 0 für „gleich“ und eine negative ganze Zahl für „kleiner als“ zurückgeben.

Um ein veraltetes Verhalten rückgängig zu machen, bei dem NULL als 0 (gleich) behandelt wird, müssen Sie „spark.sql.legacy.allowNullComparisonResultInArraySort“ auf WAHR festlegen.

CONCURRENT_QUERY

SQLSTATE: 0A000

Eine weitere Instanz dieser Abfrage [ID: <queryId>] wurde gerade von einer gleichzeitigen Sitzung gestartet [vorhandene runId: <existingQueryRunId>, neue runId: <newQueryRunId>].

CONCURRENT_STREAM_LOG_UPDATE

SQLSTATE: 40000

Gleichzeitiges Aktualisieren des Protokolls. Für <batchId> wurden mehrere Streamingaufträge erkannt.

Stellen Sie sicher, dass jeweils nur ein Streamingauftrag an einem bestimmten Prüfpunktort ausgeführt wird.

CONFLICTING_PROVIDER

SQLSTATE: 22023

Der angegebene Anbieter <provider> ist mit dem vorhandenen Kataloganbieter <expectedProvider> inkonsistent. Verwenden Sie "USING <expectedProvider>", und wiederholen Sie den Befehl.

CONNECT

SQLSTATE: 56K00

Generischer Spark Connect-Fehler.

Weitere Informationen finden Sie unter CONNECT.

CONNECTION_ALREADY_EXISTS

SQLSTATE: 42000

Die Verbindung <connectionName> kann nicht erstellt werden, da sie bereits vorhanden ist.

Wählen Sie einen anderen Namen aus, löschen oder ersetzen Sie die vorhandene Verbindung, oder fügen Sie die „IF NOT EXISTS“-Klausel hinzu, um bereits vorhandene Verbindungen zu tolerieren.

CONNECTION_NAME_CANNOT_BE_EMPTY

SQLSTATE: 42000

Dieser Befehl kann nicht ausgeführt werden, da der Verbindungsname nicht leer sein darf.

CONNECTION_NOT_FOUND

SQLSTATE: 42000

Dieser Befehl kann nicht ausgeführt werden, da der Verbindungsname <connectionName> nicht gefunden wurde.

CONNECTION_OPTION_NOT_SUPPORTED

SQLSTATE: 42000

Verbindungen vom Typ „<connectionType>“ unterstützen die folgende(n) Option(en) nicht: <optionsNotSupported>. Unterstützte Optionen: <allowedOptions>.

CONNECTION_TYPE_NOT_SUPPORTED

SQLSTATE: 42000

Es kann keine Verbindung vom Typ „<connectionType>“ erstellt werden. Unterstützte Verbindungstypen: <allowedTypes>.

CONSTRAINTS_REQUIRE_UNITY_CATALOG

SQLSTATE: 0A000

Tabellenconstraints werden nur in Unity Catalog unterstützt.

CONVERSION_INVALID_INPUT

SQLSTATE: 22018

Der Wert <str> (<fmt>) kann nicht in <targetType> konvertiert werden, da er nicht wohlgeformt ist. Korrigieren Sie den Wert gemäß der Syntax, oder ändern Sie das Format. Verwenden Sie <suggestion>, um fehlerhafte Eingaben zu tolerieren und stattdessen NULL zurückzugeben.

COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON

SQLSTATE: 0A000

Ungültiges Schema <scheme>. COPY INTO-Quellanmeldeinformationen unterstützen derzeit nur s3/s3n/s3a/wasbs/abfss.

COPY_INTO_CREDENTIALS_REQUIRED

SQLSTATE: 42601

COPY INTO-Quellanmeldeinformationen müssen <keyList> angeben.

COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED

SQLSTATE: 25000

Duplizierte Dateien wurden in einem gleichzeitigen COPY INTO-Vorgang committet. Versuchen Sie es später noch mal.

COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON

SQLSTATE: 0A000

Ungültiges Schema <scheme>. COPY INTO-Quellenverschlüsselung unterstützt derzeit nur s3/s3n/s3a/abfss.

COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE

SQLSTATE: 0A000

COPY INTO-Verschlüsselung unterstützt nur ADLS Gen2 oder das Dateischema abfss://

COPY_INTO_ENCRYPTION_REQUIRED

SQLSTATE: 42601

COPY INTO-Quellenverschlüsselung muss „<key>“ angeben.

COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED

SQLSTATE: 42601

Ungültige Verschlüsselungsoption <requiredKey>. COPY INTO-Quellenverschlüsselung muss „<requiredKey>“ = „<keyValue>“ angeben.

COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED

SQLSTATE: 25000

COPY INTO mit anderen Aktionen als dem Anfügen von Daten darf nicht gleichzeitig mit anderen Transaktionen ausgeführt werden. Versuchen Sie es später noch mal.

COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED

SQLSTATE: 25000

COPY INTO konnte den Zustand nicht laden, maximale Anzahl von Wiederholungen überschritten.

COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE

SQLSTATE: 42KDG

Beim Kopieren in die Delta-Tabelle (Tabelle: <table>) wurde ein Schemakonflikt erkannt.

Dies kann auf ein Problem mit den eingehenden Daten hinweisen, oder das Delta-Tabellenschema kann automatisch entsprechend den eingehenden Daten weiterentwickelt werden, indem Sie Folgendes festlegen:

COPY_OPTIONS (‘mergeSchema’ = ‘true’)

Schemaunterschied:

<schemaDiff>

COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED

SQLSTATE: 0A000

Das Format der Quelldateien muss CSV, JSON, AVRO, ORC, PARQUET, TEXT oder BINARYFILE sein. Die Verwendung von COPY INTO in Delta-Tabellen als Quelle wird nicht unterstützt, da nach OPTIMIZE-Vorgängen doppelte Daten erfasst werden können. Diese Überprüfung kann mit dem SQL-Befehl set spark.databricks.delta.copyInto.formatCheck.enabled = false deaktiviert werden.

COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED

SQLSTATE: 42KD9

Das Quellverzeichnis enthielt keine Dateien vom Typ <format>, die geparst werden konnten. Bitte überprüfen Sie den Inhalt von „<source>“.

COPY_INTO_SYNTAX_ERROR

SQLSTATE: 42601

Fehler beim Parsen des COPY INTO-Befehls.

Weitere Informationen finden Sie unter COPY_INTO_SYNTAX_ERROR.

CREATE_OR_REFRESH_MV_ST_ASYNC

SQLSTATE: 0A000

CREATE OR REFRESH von materialisierten Sichten oder Streamingtabellen mit spezifiziertem ASYNC nicht möglich. Entfernen Sie ASYNC aus der CREATE OR REFRESH-Anweisung, oder verwenden Sie REFRESH ASYNC, um vorhandene materialisierte Sichten oder Streamingtabellen asynchron zu aktualisieren.

CREATE_PERMANENT_VIEW_WITHOUT_ALIAS

SQLSTATE: 0A000

Es ist nicht zulässig, die permanente Ansicht <name> zu erstellen, ohne explizit einen Alias für den Ausdruck <attr> zuzuweisen.

CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE

SQLSTATE: 42710

CREATE TABLE-Spalte <columnName> gibt den Deskriptor „<optionName>“ mehr als einmal an, was ungültig ist.

CREATE_VIEW_COLUMN_ARITY_MISMATCH

SQLSTATE: 21S01

Die Ansicht <viewName> kann nicht erstellt werden. Der Grund ist

Weitere Informationen finden Sie unter CREATE_VIEW_COLUMN_ARITY_MISMATCH.

CREDENTIAL_MISSING

SQLSTATE: 42601

Bitte geben Sie beim Erstellen oder Aktualisieren externer Speicherorte Anmeldeinformationen an.

CSV_ENFORCE_SCHEMA_NOT_SUPPORTED

SQLSTATE: 0A000

Die CSV-Option enforceSchema kann nicht festgelegt werden, wenn rescuedDataColumn oder failOnUnknownFields verwendet wird, da Spalten nach Namen und nicht nach Ordnungszahlen gelesen werden.

CYCLIC_FUNCTION_REFERENCE

SQLSTATE: 42887

Zyklische Funktionsreferenz wurde entdeckt: <path>.

DATABRICKS_DELTA_NOT_ENABLED

SQLSTATE: 56038

Databricks Delta ist in Ihrem Konto nicht aktiviert.<hints>

DATATYPE_MISMATCH

SQLSTATE: 42K09

<sqlExpr> kann aufgrund von Datentypkonflikten nicht aufgelöst werden:

Weitere Informationen finden Sie unter DATATYPE_MISMATCH.

DATATYPE_MISSING_SIZE

SQLSTATE: 42K01

Der Datentyp <type> erfordert einen Längenparameter, z. B. <type>(10). Geben Sie die Länge an.

DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION

SQLSTATE: 25000

Schreibzeile nicht erfolgreich: Fehlende entsprechende Beziehung zu Richtlinien für CLM/RLS.

DATA_SOURCE_ALREADY_EXISTS

SQLSTATE: 42710

Die Datenquelle „<provider>“ ist bereits vorhanden. Wählen Sie einen anderen Namen für die neue Datenquelle aus.

DATA_SOURCE_NOT_EXIST

SQLSTATE: 42704

Die Datenquelle <provider> wurde nicht gefunden. Stellen Sie sicher, dass die Datenquelle registriert ist.

DATA_SOURCE_NOT_FOUND

SQLSTATE: 42K02

Fehler beim Auffinden der Datenquelle: <provider>. Stellen Sie sicher, dass der Anbietername korrekt ist und das Paket ordnungsgemäß registriert und mit Ihrer Spark-Version kompatibel ist.

DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS

SQLSTATE: 42602

Die Option <option> darf nicht leer sein und darf keine ungültigen Zeichen, Abfragezeichenfolgen oder Parameter enthalten.

DATA_SOURCE_OPTION_IS_REQUIRED

SQLSTATE: 42601

Die Option <option> ist erforderlich.

DATA_SOURCE_TABLE_SCHEMA_MISMATCH

SQLSTATE: 42K03

Das Schema der Datenquellentabelle stimmt nicht mit dem erwarteten Schema überein. Wenn Sie die DataFrameReader.schema-API verwenden oder eine Tabelle erstellen, sollten Sie kein Schema angeben.

Datenquellenschema: <dsSchema>

Erwartetes Schema: <expectedSchema>

DATA_SOURCE_URL_NOT_ALLOWED

SQLSTATE: 42KDB

JDBC-URL ist in den Datenquellenoptionen nicht zulässig, bitte geben Sie stattdessen die Optionen „Host“, „Port“ und „Datenbank“ an.

DATETIME_OVERFLOW

SQLSTATE: 22008

Überlauf beim Datetime-Vorgang: <operation>.

DC_CONNECTION_ERROR

SQLSTATE: KD000

Fehler beim Herstellen einer Verbindung mit der Datenquelle <sourceName>. Fehlercode: <errorCode>

Weitere Informationen finden Sie unter DC_CONNECTION_ERROR

DC_CONNECTOR_ERROR

SQLSTATE: KD000

Fehler in der Datenquelle <sourceName>. Fehlercode: <errorCode>

Weitere Informationen finden Sie unter DC_CONNECTOR_ERROR

DC_FEATURE_NOT_ENABLED

SQLSTATE: 0A000

<feature> ist nicht aktiviert. Verwenden Sie <action>.

DC_FILE_BACKUP_NOT_FOUND

SQLSTATE: KD000

Verlust von Daten beim Block-Manager, für die es keine Dateisicherung gibt. Führen Sie eine vollständige Aktualisierung der Pipeline durch.

DC_GA4_RAW_DATA_ERROR

SQLSTATE: KD000

Fehler in GA4-Rohdatenkonnektoraufrufen, errorCode: <errorCode>.

Weitere Informationen finden Sie unter DC_GA4_RAW_DATA_ERROR

DC_INVALID_OFFSET

SQLSTATE: KD000

Fehler beim Parsen des Offsets <offset>, oder der Offset wurde nicht gefunden. Starten Sie die Abfrage aus einem neuen Prüfpunktverzeichnis neu.

DC_SFDC_API_DAILY_QUOTA_THRESHOLD_EXCEEDED

SQLSTATE: KD000

Sie haben das konfigurierte tägliche API-Kontingent (<type>) für <sourceName> überschritten.

Aktuelle Nutzung: <usage>, konfiguriertes Kontingent: <quota>.

Erhöhen Sie das Kontingent in Salesforce, oder ändern Sie den konfigurierten Schwellenwert.

DC_SFDC_API_ERROR

SQLSTATE: KD000

Fehler in Salesforce-API-Aufrufen, Fehlercode: <errorCode>.

Weitere Informationen finden Sie unter DC_SFDC_API_ERROR.

DC_SQLSERVER_ERROR

SQLSTATE: KD000

Fehler beim SQL Server-Connector.

Weitere Informationen finden Sie unter DC_SQLSERVER_ERROR.

DC_UNSUPPORTED_ERROR

SQLSTATE: 0A000

In der Datenquelle <sourceName> ist ein nicht unterstützter Fehler aufgetreten.

Weitere Informationen finden Sie unter DC_UNSUPPORTED_ERROR.

DC_WORKDAY_RAAS_API_ERROR

SQLSTATE: KD000

Fehler in Workday RAAS-API-Aufrufen, errorCode: <errorCode>.

Weitere Informationen finden Sie unter DC_WORKDAY_RAAS_API_ERROR

DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION

SQLSTATE: 22003

Die Dezimalgenauigkeit <precision> überschreitet die maximale Genauigkeit <maxPrecision>.

DEFAULT_DATABASE_NOT_EXISTS

SQLSTATE: 42704

Die Standarddatenbank <defaultDatabase> ist nicht vorhanden, bitte erstellen Sie diese zuerst, oder ändern Sie die Standarddatenbank in <defaultDatabase>.

DEFAULT_FILE_NOT_FOUND

SQLSTATE: 42K03

Möglicherweise wurden die zugrunde liegenden Dateien aktualisiert. Sie können den Cache in Spark explizit ungültig machen, indem Sie den Befehl „REFRESH TABLE tableName“ in SQL ausführen oder das betroffene Dataset/DataFrame neu erstellen. Wenn der Datenträgercache veraltet ist oder die zugrunde liegenden Dateien entfernt wurden, können Sie den Datenträgercache manuell ungültig machen, indem Sie den Cluster neu starten.

DEFAULT_PLACEMENT_INVALID

SQLSTATE: 42608

Ein DEFAULT-Schlüsselwort in einem MERGE-, INSERT-, UPDATE- oder SET VARIABLE-Befehl konnte nicht direkt einer Zielspalte zugewiesen werden, da es Teil eines Ausdrucks war.

Beispielsweise ist UPDATE SET c1 = DEFAULT zulässig, während UPDATE T SET c1 = DEFAULT + 1 nicht zulässig ist.

DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE

SQLSTATE: 55019

Die Streamingabfrage las aus einer unerwarteten Delta-Tabelle (id = <newTableId>).

Gemäß Prüfpunkt las sie ursprünglich aus einer anderen Delta-Tabelle (id = <oldTableId>).

Dies kann passieren, wenn Sie den Code so geändert haben, dass aus einer neuen Tabelle gelesen wird, oder wenn Sie eine Tabelle gelöscht und

neu erstellt haben. Machen Sie Ihre Änderung rückgängig, oder löschen Sie den Prüfpunkt für die Streamingabfrage,

um noch einmal von vorn zu beginnen.

DISTINCT_WINDOW_FUNCTION_UNSUPPORTED

SQLSTATE: 0A000

DISTINCT WINDOW-Funktionen werden nicht unterstützt: <windowExpr>.

DIVIDE_BY_ZERO

SQLSTATE: 22012

Division durch Null. Verwenden Sie try_divide, um zu tolerieren, dass der Divisor 0 ist, und stattdessen NULL zurückzugeben. Legen Sie bei Bedarf <config> auf FALSCH fest, um diesen Fehler zu umgehen.

Weitere Details finden Sie unter DIVIDE_BY_ZERO

DLT_EXPECTATIONS_NOT_SUPPORTED

SQLSTATE: 56038

Erwartungen werden nur innerhalb einer Delta Live Tables-Pipeline unterstützt.

DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED

SQLSTATE: 56038

MATERIALIZED VIEWs mit einer CLUSTER BY-Klausel werden nur in einer Delta Live Tables-Pipeline unterstützt.

DLT_VIEW_LOCATION_NOT_SUPPORTED

SQLSTATE: 56038

MATERIALIZED VIEW-Speicherorte werden nur in einer Delta Live Tables-Pipeline unterstützt.

DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED

SQLSTATE: 56038

MATERIALIZED VIEW-Schemas mit einem angegebenen Typ werden nur in einer Delta Live Tables-Pipeline unterstützt.

DLT_VIEW_TABLE_CONSTRAINTS_NOT_SUPPORTED

SQLSTATE: 56038

CONSTRAINT-Klauseln in einer Ansicht werden nur in einer Delta Live Tables-Pipeline unterstützt.

DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT

SQLSTATE: 42713

Doppelte Feldnamen in Arrow Struct sind nicht zulässig, <fieldNames> abgerufen.

DUPLICATED_MAP_KEY

SQLSTATE: 23505

Duplizierter Zuordnungsschlüssel <key> wurde gefunden, bitte überprüfen Sie die Eingabedaten.

Wenn Sie die doppelten Schlüssel entfernen möchten, können Sie <mapKeyDedupPolicy> auf „LAST_WIN“ festlegen, damit der zuletzt eingefügte Schlüssel Vorrang hat.

DUPLICATED_METRICS_NAME

SQLSTATE: 42710

Der Metrikname ist nicht eindeutig: <metricName>. Für Metriken mit unterschiedlichen Ergebnissen kann nicht derselbe Name verwendet werden.

Es sind jedoch mehrere Instanzen von Metriken mit demselben Ergebnis und demselben Namen zulässig (z. B. Selbstverknüpfungen).

DUPLICATE_ASSIGNMENTS

SQLSTATE: 42701

Die Spalten oder Variablen <nameList> erscheinen mehrmals als Zuweisungsziele.

DUPLICATE_CLAUSES

SQLSTATE: 42614

Doppelte Klauseln gefunden: <clauseName>. Entfernen Sie eine Klausel.

DUPLICATE_KEY

SQLSTATE: 23505

Doppelte Schlüssel <keyColumn> gefunden.

DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT

SQLSTATE: 4274K

Der Aufruf der Funktion <functionName> ist ungültig, weil er mehrere Argumentzuweisungen zu demselben Parameternamen <parameterName> enthält.

Weitere Informationen finden Sie unter DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT.

DUPLICATE_ROUTINE_PARAMETER_NAMES

SQLSTATE: 42734

In der Parameterliste der benutzerdefinierten Routine <routineName> wurden doppelte Namen gefunden: <names>.

DUPLICATE_ROUTINE_RETURNS_COLUMNS

SQLSTATE: 42711

In der Spaltenliste der RETURNS-Klausel der benutzerdefinierten Routine <routineName>wurden doppelte Spalten gefunden: <columns>.

EMPTY_JSON_FIELD_VALUE

SQLSTATE: 42604

Fehler beim Parsen einer leeren Zeichenfolge für den Datentyp <dataType>.

EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY

SQLSTATE: 22023

Leere lokale Datei in Staging-<operation>-Abfrage

ENCODER_NOT_FOUND

SQLSTATE: 42704

Es wurde kein Encoder des Typs <typeName> für die interne Darstellung von Spark SQL gefunden.

Ziehen Sie in Betracht, den Eingabetyp in einen der unterstützten Datentypen in „<docroot>/sql-ref-datatypes.html“ zu ändern.

END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW

SQLSTATE: KD000

Einige Partitionen in Kafka-Themen melden verfügbaren Offset, welcher geringer als der Endoffset während der Ausführung der Abfrage mit Trigger.AvailableNow ist. Der Fehler kann vorübergehend sein – starten Sie die Abfrage neu, und melden Sie, wenn dasselbe Problem weiterhin angezeigt wird.

Neuester Offset: <latestOffset>, Endoffset: <endOffset>

END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED

SQLSTATE: KD000

Für die Kafka-Datenquelle mit Trigger.AvailableNow sollte der Endoffset pro Themenpartition über einen geringeren oder oder gleichen Offset verfügen als der vorab abgerufene Offset. Der Fehler kann vorübergehend sein – starten Sie die Abfrage neu, und melden Sie, wenn dasselbe Problem weiterhin angezeigt wird.

Vorab abgerufener Offset: <prefetchedOffset>, Endoffset: <endOffset>.

ERROR_READING_AVRO_UNKNOWN_FINGERPRINT

SQLSTATE: KD00B

Fehler beim Lesen von Avro-Daten: Unbekannter Fingerabdruck: <fingerprint>, nicht sicher, welches Schema zu verwenden ist.

Dies kann passieren, wenn Sie nach dem Starten Ihres Spark-Kontexts zusätzliche Schemata registriert haben.

EVENT_LOG_REQUIRES_SHARED_COMPUTE

SQLSTATE: 42601

Ereignisprotokolle können nicht aus einem Cluster vom Typ „Zugewiesen“ oder „Keine Isolation freigegeben“ abgefragt werden, bitte verwenden Sie stattdessen einen Cluster vom Typ „Freigegeben“ oder ein Databricks SQL-Warehouse.

EVENT_LOG_UNAVAILABLE

SQLSTATE: 55019

Für <tableOrPipeline> sind keine Ereignisprotokolle verfügbar. Bitte versuchen Sie es später erneut, nachdem Ereignisse generiert wurden

EVENT_LOG_UNSUPPORTED_TABLE_TYPE

SQLSTATE: 42832

Der Tabellentyp von <tableIdentifier> ist <tableType>.

Das Abfragen von Ereignisprotokollen unterstützt nur Pipelines für materialisierte Sichten, Streamingtabellen oder Delta-Live-Tabellen

EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE

SQLSTATE: 42K09

Die Ereigniszeit <eventName> hat den ungültigen Typ <eventType>, TIMESTAMP erwartet.

EXCEED_LIMIT_LENGTH

SQLSTATE: 54006

Überschreitet die Längenbegrenzung des Typs char/varchar: <limit>.

EXCEPT_NESTED_COLUMN_INVALID_TYPE

SQLSTATE: 428H2

Die EXCEPT-Spalte <columnName> wurde aufgelöst, und es wurde erwartet, dass sie StructType ist, gefunden wurde aber der Typ <dataType>.

EXCEPT_OVERLAPPING_COLUMNS

SQLSTATE: 42702

Spalten in einer EXCEPT-Liste müssen eindeutig und nicht überlappend sein, empfangen wurde aber (<columns>).

EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH

SQLSTATE: 42703

Die EXCEPT-Spalten [<exceptColumns>] wurden aufgelöst, entsprechen jedoch keiner der Spalten [<expandedColumns>] aus der Sternerweiterung.

EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION

SQLSTATE: 42703

Der Spalten-/Feldname <objectName> in der EXCEPT-Klausel kann nicht aufgelöst werden. Meinten Sie eines der Folgenden: [<objectList>]?

Hinweis: Geschachtelte Spalten in der EXCEPT-Klausel dürfen während einer struct-Erweiterung keine Qualifizierer (Tabellenname, Name der übergeordneten struct-Spalte usw.) enthalten. Versuchen Sie, Qualifizierer zu entfernen, wenn sie mit geschachtelten Spalten verwendet werden.

EXECUTOR_BROADCAST_JOIN_OOM

SQLSTATE: 53200

Zum Erstellen der Broadcast-Beziehung <relationClassName> ist nicht genügend Arbeitsspeicher verfügbar. Beziehungsgröße = <relationSize>. Buildseitige Shufflegröße = <shuffleSize>. Gesamter von dieser Aufgabe verwendeter Arbeitsspeicher = <taskMemoryUsage>. Executorarbeitsspeicher-Manager-Metriken: onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>, offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>, onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>, offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>. [shuffleId: <shuffleId>]

EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES

SQLSTATE: 42701

Die USING-Klausel dieses EXECUTE IMMEDIATE-Befehls enthielt unzulässigerweise mehrere Argumente mit demselben Alias (<aliases>). Ändern Sie den Befehl, geben Sie dabei eindeutige Aliase an, und versuchen Sie es dann erneut.

EXPECT_PERMANENT_VIEW_NOT_TEMP

SQLSTATE: 42809

<operation>“ erwartet eine permanente Ansicht, aber <viewName> ist eine temporäre Ansicht.

EXPECT_TABLE_NOT_VIEW

SQLSTATE: 42809

<operation>“ erwartet eine Tabelle, aber <viewName> ist eine Ansicht.

Weitere Informationen finden Sie unter EXPECT_TABLE_NOT_VIEW

EXPECT_VIEW_NOT_TABLE

SQLSTATE: 42809

Die Tabelle <tableName> unterstützt <operation> nicht.

Weitere Informationen finden Sie unter EXPECT_TABLE_NOT_TABLE

EXPRESSION_DECODING_FAILED

SQLSTATE: 42846

Fehler beim Decodieren einer Zeile in einen Wert der Ausdrücke: <expressions>.

EXPRESSION_ENCODING_FAILED

SQLSTATE: 42846

Fehler beim Codieren eines Werts der Ausdrücke: <expressions> in eine Zeile.

EXPRESSION_TYPE_IS_NOT_ORDERABLE

SQLSTATE: 42822

Der Spaltenausdruck <expr> kann nicht sortiert werden, weil der zugehörige Typ <exprType> nicht sortiert werden kann.

EXTERNAL_TABLE_INVALID_SCHEME

SQLSTATE: 0A000

Externe Tabellen unterstützen das <scheme>-Schema nicht.

FABRIC_REFRESH_INVALID_SCOPE

SQLSTATE: 0A000

Fehler beim Ausführen von 'REFRESH FOREIGN <scope><name>'. Ein Fabric <scope> kann nicht direkt aktualisiert werden. Verwenden Sie stattdessen "REFRESH FOREIGN CATALOG <catalogName>", um den Fabric-Katalog zu aktualisieren.

FAILED_EXECUTE_UDF

SQLSTATE: 39000

Fehler bei der benutzerdefinierten Funktion (<functionName>: (<signature>) =><result>) aufgrund von: <reason>.

FAILED_FUNCTION_CALL

SQLSTATE: 38000

Fehler bei der Vorbereitung der Funktion <funcName> für den Aufruf. Überprüfen Sie die Argumente der Funktion.

FAILED_JDBC

SQLSTATE: HV000

Fehler beim JDBC-Operator <url> im Vorgang:

Weitere Informationen finden Sie unter FAILED_JDBC.

FAILED_PARSE_STRUCT_TYPE

SQLSTATE: 22018

Fehler beim Parsen der Struktur: <raw>.

FAILED_REGISTER_CLASS_WITH_KRYO

SQLSTATE: KD000

Fehler beim Registrieren von Klassen bei Kryo.

FAILED_RENAME_PATH

SQLSTATE: 42K04

Fehler beim Umbenennen von <sourcePath> nach <targetPath>, da das Ziel bereits vorhanden ist.

FAILED_RENAME_TEMP_FILE

SQLSTATE: 58030

Fehler beim Umbenennen der temporären Datei <srcPath> in <dstPath>, da von FileSystem.rename „false“ zurückgegeben wurde.

FEATURE_NOT_ON_CLASSIC_WAREHOUSE

SQLSTATE: 56038

<feature> wird in klassischen SQL-Warehouses nicht unterstützt. Um dieses Feature verwenden zu können, müssen Sie ein Pro- oder serverloses SQL-Warehouse verwenden. Weitere Informationen zu Warehouse-Typen finden Sie unter <docLink>

FEATURE_REQUIRES_UC

SQLSTATE: 0AKUD

<feature> wird ohne Unity Catalog nicht unterstützt. Aktivieren Sie Unity Catalog, um dieses Feature zu verwenden. Weitere Informationen zu Unity Catalog finden Sie unter <docLink>

FEATURE_UNAVAILABLE

SQLSTATE: 56038

<feature> wird in Ihrer Umgebung nicht unterstützt. Wenden Sie sich an den Databricks-Support, um dieses Feature zu verwenden.

FIELDS_ALREADY_EXISTS

SQLSTATE: 42710

<op> für Spalte nicht möglich, da <fieldNames> bereits in <struct>vorhanden ist.

FIELD_NOT_FOUND

SQLSTATE: 42704

Kein solches Strukturfeld <fieldName> in <fields>.

FILE_IN_STAGING_PATH_ALREADY_EXISTS

SQLSTATE: 42K04

Die Datei im Stagingpfad <path> ist bereits vorhanden, aber OVERWRITE ist nicht festgelegt

FORBIDDEN_OPERATION

SQLSTATE: 42809

Der Vorgang <statement> ist auf dem <objectType> nicht zulässig: <objectName>.

FOREACH_BATCH_USER_FUNCTION_ERROR

SQLSTATE: 39000

Fehler in der vom Benutzer bereitgestellten Funktion in der Batchsenke. Grund: <reason>

FOREIGN_KEY_MISMATCH

SQLSTATE: 42830

Übergeordnete Fremdschlüsselspalten <parentColumns> stimmen nicht mit untergeordneten Primärschlüsselspalten <childColumns> überein.

FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY

SQLSTATE: 42000

Dieser Befehl kann nicht ausgeführt werden, da der Fremdname <objectType> nicht leer sein darf.

FOUND_MULTIPLE_DATA_SOURCES

SQLSTATE: 42710

Es wurden mehrere Datenquellen mit dem Namen „<provider>“ gefunden. Überprüfen Sie, ob die Datenquelle nicht gleichzeitig registriert ist und sich im Klassenpfad befindet.

FROM_JSON_CONFLICTING_SCHEMA_UPDATES

SQLSTATE: 42601

Bei einem from_json-Rückschluss wurden an folgender Stelle widersprüchliche Schemaupdates festgestellt: <location>

FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA

SQLSTATE: 42601

from_json gefunden columnNameOfCorruptRecord (<columnNameOfCorruptRecord>) in einem

JSON-Objekt gefunden. Fortsetzung nicht möglich. Konfigurieren Sie einen anderen Wert für

die Option „columnNameOfCorruptRecord“.

FROM_JSON_CORRUPT_SCHEMA

SQLSTATE: 42601

Beim from_json-Rückschluss konnte das an folgendem Speicherort gespeicherte Schema nicht gelesen werden: <location>

FROM_JSON_INFERENCE_FAILED

SQLSTATE: 42601

from_json konnte das Schema nicht ableiten. Bitte geben Sie stattdessen eins an.

FROM_JSON_INFERENCE_NOT_SUPPORTED

SQLSTATE: 0A000

Ein from_json Rückschluss wird nur beim Definieren von Streamingtabellen unterstützt.

FROM_JSON_INVALID_CONFIGURATION

SQLSTATE: 42601

Die from_json-Konfiguration ist ungültig:

Weitere Informationen finden Sie unter FROM_JSON_INVALID_CONFIGURATION.

FROM_JSON_SCHEMA_EVOLUTION_FAILED

SQLSTATE: 22KD3

from_json konnte sich nicht von <old> zu <new> entwickeln

GENERATED_COLUMN_WITH_DEFAULT_VALUE

SQLSTATE: 42623

Eine Spalte kann nicht sowohl einen Standardwert als auch einen Generierungsausdruck aufweisen, aber die Spalte <colName> hat den Standardwert (<defaultValue>) und den Generierungsausdruck (<genExpr>).

GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION

SQLSTATE: 56038

Hive 2.2 und niedrigere Versionen unterstützen getTablesByType nicht. Verwenden Sie Hive 2.3 oder eine höhere Version.

GRAPHITE_SINK_INVALID_PROTOCOL

SQLSTATE: KD000

Ungültiges Graphite-Protokoll: <protocol>.

GRAPHITE_SINK_PROPERTY_MISSING

SQLSTATE: KD000

Graphite-Senke erfordert die „<property>“-Eigenschaft.

GROUPING_COLUMN_MISMATCH

SQLSTATE: 42803

Die Spalte der Gruppierung (<grouping>) kann in den Gruppierungsspalten <groupingColumns> nicht gefunden werden.

GROUPING_ID_COLUMN_MISMATCH

SQLSTATE: 42803

Spalten der grouping_id (<groupingIdColumn>) stimmen nicht mit Gruppierungsspalten (<groupByColumns>) überein.

GROUPING_SIZE_LIMIT_EXCEEDED

SQLSTATE: 54000

Die Größe der Gruppierungssätze darf nicht größer sein als <maxSize>.

GROUP_BY_AGGREGATE

SQLSTATE: 42903

Aggregatfunktionen sind in GROUP BY nicht zulässig, es wurde aber <sqlExpr> gefunden.

Weitere Details finden Sie unter GROUP_BY_AGGREGATE

GROUP_BY_POS_AGGREGATE

SQLSTATE: 42903

GROUP BY <index> bezieht sich auf einen Ausdruck <aggExpr>, der eine Aggregatfunktion enthält. Aggregatfunktionen sind in GROUP BY nicht zulässig.

GROUP_BY_POS_OUT_OF_RANGE

SQLSTATE: 42805

Die GROUP BY-Position <index>befindet sich nicht in der Auswahlliste (gültiger Bereich ist [1, <size>]).

GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE

SQLSTATE: 42822

Der Ausdruck <sqlExpr> kann nicht als Gruppierungsausdruck verwendet werden, weil der zugehörige Datentyp <dataType> kein sortierbarer Datentyp ist.

HLL_INVALID_INPUT_SKETCH_BUFFER

SQLSTATE: 22546

Ungültiger Aufruf von <function>; es werden nur gültige (z. B. von der Funktion hll_sketch_agg erzeugte) HLL-Skizzenpuffer als Eingaben unterstützt.

HLL_INVALID_LG_K

SQLSTATE: 22546

Ungültiger Aufruf von <function>; der Wert lgConfigK muss zwischen <min> und <max> liegen (einschließlich): <value>.

HLL_UNION_DIFFERENT_LG_K

SQLSTATE: 22000

Skizzen weisen unterschiedliche lgConfigK-Werte auf: <left> und <right>. Legen Sie den Parameter allowDifferentLgConfigK auf TRUE fest, um <function> mit anderen lgConfigK-Werten aufzurufen.

IDENTIFIER_TOO_MANY_NAME_PARTS

SQLSTATE: 42601

<identifier> ist kein gültiger Bezeichner, da er über mehr als 2 Namensteile verfügt.

INCOMPARABLE_PIVOT_COLUMN

SQLSTATE: 42818

Ungültige Pivotspalte <columnName>. Pivotspalten müssen vergleichbar sein.

INCOMPATIBLE_COLUMN_TYPE

SQLSTATE: 42825

<operator> kann nur für Tabellen mit kompatiblen Spaltentypen ausgeführt werden. Die <columnOrdinalNumber>-Spalte der Tabelle <tableOrdinalNumber> ist der <dataType1>-Typ, der nicht mit <dataType2> in der gleichen Spalte der ersten Tabelle kompatibel ist.<hint>.

INCOMPATIBLE_DATASOURCE_REGISTER

SQLSTATE: 56038

Es wurde ein inkompatibles DataSourceRegister erkannt. Entfernen Sie die inkompatible Bibliothek aus dem Klassenpfad, oder aktualisieren Sie sie. Fehler: <message>

INCOMPATIBLE_DATA_FOR_TABLE

SQLSTATE: KD000

Für die Tabelle <tableName> können keine inkompatiblen Daten geschrieben werden:

Weitere Informationen finden Sie unter INCOMPATIBLE_DATA_FOR_TABLE

INCOMPATIBLE_JOIN_TYPES

SQLSTATE: 42613

Die Join-Typen <joinType1> und <joinType2> sind nicht kompatibel.

INCOMPATIBLE_VIEW_SCHEMA_CHANGE

SQLSTATE: 51024

Die SQL-Abfrage der Ansicht <viewName> weist eine nicht kompatible Schemaänderung auf, und die Spalte <colName> kann nicht aufgelöst werden. Es wurden <expectedNum> Spalten mit dem Namen <colName> erwarten, aber erhalten wurden <actualCols>.

Bitte versuchen Sie, die Ansicht erneut zu erstellen, indem Sie Folgendes ausführen: <suggestion>.

INCOMPLETE_TYPE_DEFINITION

SQLSTATE: 42K01

Unvollständiger komplexer Typ:

Weitere Details finden Sie unter INCOMPLETE_TYPE_DEFINITION

INCONSISTENT_BEHAVIOR_CROSS_VERSION

SQLSTATE: 42K0B

Möglicherweise erhalten Sie ein anderes Ergebnis aufgrund des Upgrades auf

Weitere Informationen finden Sie unter INCONSISTENT_BEHAVIOR_CROSS_VERSION.

INCORRECT_NUMBER_OF_ARGUMENTS

SQLSTATE: 42605

<failure>, <functionName> erfordert mindestens <minArgs> Argumente und maximal <maxArgs> Argumente.

INCORRECT_RAMP_UP_RATE

SQLSTATE: 22003

Der maximale Versatz mit <rowsPerSecond> rowsPerSecond ist <maxSeconds>, aber „rampUpTimeSeconds“ ist <rampUpTimeSeconds>.

INDEX_ALREADY_EXISTS

SQLSTATE: 42710

Der Index <indexName> kann auf der Tabelle <tableName> nicht erstellt werden, da er bereits vorhanden ist.

INDEX_NOT_FOUND

SQLSTATE: 42704

Der Index <indexName> auf der Tabelle <tableName> wurde nicht gefunden.

INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED

SQLSTATE: 0A000

Der Triggertyp <trigger> wird für diesen Clustertyp nicht unterstützt.

Verwenden Sie einen anderen Triggertyp, z. B. AvailableNow, Once.

INSERT_COLUMN_ARITY_MISMATCH

SQLSTATE: 21S01

In <tableName> kann nicht geschrieben werden. Ursache:

Weitere Informationen finden Sie unter INSERT_COLUMN_ARITY_MISMATCH.

INSERT_PARTITION_COLUMN_ARITY_MISMATCH

SQLSTATE: 21S01

In <tableName>kann nicht geschrieben werden. <reason>:

Tabellenspalten: <tableColumns>.

Partitionsspalten mit statischen Werten: <staticPartCols>.

Datenspalten: <dataColumns>.

INSUFFICIENT_PERMISSIONS

SQLSTATE: 42501

Keine ausreichenden Berechtigungen:

<report>

INSUFFICIENT_PERMISSIONS_EXT_LOC

SQLSTATE: 42501

Der Benutzer <user> hat nicht genügend Berechtigungen für den externen Speicherort <location>.

INSUFFICIENT_PERMISSIONS_NO_OWNER

SQLSTATE: 42501

Es gibt keinen Besitzer für <securableName>. Bitten Sie Ihren Administrator, einen Besitzer festzulegen.

INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE

SQLSTATE: 42501

Der Benutzer besitzt <securableName> nicht.

INSUFFICIENT_PERMISSIONS_SECURABLE

SQLSTATE: 42501

Der Benutzer hat keine <action>-Berechtigung für <securableName>.

INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER

SQLSTATE: 42501

Der Besitzer von <securableName> unterscheidet sich vom Besitzer von <parentSecurableName>.

INSUFFICIENT_PERMISSIONS_STORAGE_CRED

SQLSTATE: 42501

Die Speicheranmeldeinformation <credentialName> verfügt nicht über ausreichend Berechtigungen.

INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES

SQLSTATE: 42501

Der Benutzer kann <action> auf <securableName> aufgrund von Berechtigungen für zugrunde liegende sicherungsfähige Elemente nicht ausführen.

INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE

SQLSTATE: 42501

Der Benutzer kann <action> auf <securableName> aufgrund von Berechtigungen für zugrunde liegende sicherungsfähige Elemente nicht ausführen:

<underlyingReport>

INTERVAL_ARITHMETIC_OVERFLOW

SQLSTATE: 22015

<message>.<alternative>

INTERVAL_DIVIDED_BY_ZERO

SQLSTATE: 22012

Division durch Null. Verwenden Sie try_divide, um zu tolerieren, dass der Divisor 0 ist, und stattdessen NULL zurückzugeben.

INVALID_ARRAY_INDEX

SQLSTATE: 22003

Der Index <indexValue>liegt außerhalb der Begrenzung. Das Array enthält <arraySize> Elemente. Verwenden Sie die SQL-Funktion get(), um den Zugriff auf ein Element mit ungültigem Index zu tolerieren und stattdessen NULL zurückzugeben. Legen Sie bei Bedarf <ansiConfig> auf FALSCH fest, um diesen Fehler zu umgehen.

Weitere Details finden Sie unter INVALID_ARRAY_INDEX

INVALID_ARRAY_INDEX_IN_ELEMENT_AT

SQLSTATE: 22003

Der Index <indexValue>liegt außerhalb der Begrenzung. Das Array enthält <arraySize> Elemente. Verwenden Sie try_element_at, um den Zugriff auf ein Element mit ungültigem Index zu tolerieren und stattdessen NULL zurückzugeben. Legen Sie bei Bedarf <ansiConfig> auf FALSCH fest, um diesen Fehler zu umgehen.

Weitere Details finden Sie unter INVALID_ARRAY_INDEX_IN_ELEMENT_AT

INVALID_BITMAP_POSITION

SQLSTATE: 22003

Die mit 0 indizierte Bitmapposition <bitPosition> liegt außerhalb der zulässigen Grenzen. Die Bitmap umfasst <bitmapNumBits> Bits (<bitmapNumBytes> Bytes).

INVALID_BOUNDARY

SQLSTATE: 22003

Die Grenze <boundary> ist ungültig: <invalidValue>.

Weitere Details finden Sie unter INVALID_BOUNDARY

INVALID_BUCKET_FILE

SQLSTATE: 58030

Ungültige Bucketdatei: <path>.

INVALID_BYTE_STRING

SQLSTATE: 22P03

Das erwartete Format ist ByteString, war aber <unsupported> (<class>).

INVALID_COLUMN_NAME_AS_PATH

SQLSTATE: 46121

Die Datenquelle <datasource> kann die Spalte <columnName> nicht speichern, da ihr Name einige Zeichen enthält, die in Dateipfaden nicht zulässig sind. Verwenden Sie bitte einen Alias, um ihn umzubenennen.

INVALID_COLUMN_OR_FIELD_DATA_TYPE

SQLSTATE: 42000

Die Spalte oder das Feld <name> ist vom Typ <type>, während <expectedType> erforderlich ist.

INVALID_CURRENT_RECIPIENT_USAGE

SQLSTATE: 42887

Die current_recipient-Funktion kann nur in der CREATE VIEW-Anweisung oder der ALTER VIEW-Anweisung verwendet werden, um in Unity Catalog eine Ansicht nur für die Freigabe zu definieren.

INVALID_CURSOR

SQLSTATE: HY109

Der Cursor ist ungültig.

Weitere Informationen finden Sie unter INVALID_CURSOR.

INVALID_DEFAULT_VALUE

SQLSTATE: 42623

Fehler beim Ausführen des <statement>-Befehls, weil die Zielspalte oder Variable <colName> den DEFAULT-Wert <defaultValue> aufweist,

Weitere Details finden Sie unter INVALID_DEFAULT_VALUE

INVALID_DEST_CATALOG

SQLSTATE: 42809

Der Zielkatalog des SYNC-Befehls muss in Unity Catalog enthalten sein. Es wurde <catalog> gefunden.

INVALID_DRIVER_MEMORY

SQLSTATE: F0000

Der Systemspeicher <systemMemory> muss mindestens <minSystemMemory> sein.

Erhöhen Sie die Heapgröße mithilfe der Option „–driver-memory“ oder <config> in der Spark-Konfiguration.

INVALID_EMPTY_LOCATION

SQLSTATE: 42K05

Der Name des Speicherorts darf keine leere Zeichenfolge sein, es wurde aber <location> angegeben.

INVALID_ESC

SQLSTATE: 42604

Es wurde eine ungültige Escapezeichenfolge gefunden: <invalidEscape>. Die Escapezeichenfolge darf nur ein Zeichen enthalten.

INVALID_ESCAPE_CHAR

SQLSTATE: 42604

EscapeChar sollte ein Zeichenfolgenliteral der Länge 1 sein, enthielt jedoch <sqlExpr>.

INVALID_EXECUTOR_MEMORY

SQLSTATE: F0000

Der Executorarbeitsspeicher <executorMemory> muss mindestens <minSystemMemory> sein.

Erhöhen Sie den Executorarbeitsspeicher mithilfe der Option „–executor-memory“ oder <config> in der Spark-Konfiguration.

INVALID_EXPRESSION_ENCODER

SQLSTATE: 42001

Es wurde ein ungültiger Ausdrucks-Encoder gefunden. Erwartet eine Instanz von ExpressionEncoder, es wurde aber <encoderType> erhalten. Weitere Informationen finden Sie unter '<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html'.

INVALID_EXTRACT_BASE_FIELD_TYPE

SQLSTATE: 42000

Ein Wert kann nicht aus <base> extrahiert werden. Komplexer Typ [STRUCT, ARRAY, MAP] erforderlich, aber <other> erhalten.

INVALID_EXTRACT_FIELD

SQLSTATE: 42601

<field> kann nicht aus <expr> extrahiert werden.

INVALID_EXTRACT_FIELD_TYPE

SQLSTATE: 42000

Der Feldname sollte ein Zeichenfolgenliteral ungleich NULL sein, aber er ist <extraction>.

INVALID_FIELD_NAME

SQLSTATE: 42000

Feldname <fieldName> ist ungültig: <path> ist keine Struktur.

INVALID_FORMAT

SQLSTATE: 42601

Das Format ist ungültig: <format>.

Weitere Informationen finden Sie unter INVALID_FORMAT.

INVALID_FRACTION_OF_SECOND

SQLSTATE: 22023

Der Sekundenbruchteil muss null sein. Der gültige Bereich ist [0, 60]. Legen Sie bei Bedarf <ansiConfig> auf FALSCH fest, um diesen Fehler zu umgehen.

INVALID_HANDLE

SQLSTATE: HY000

Das Handle <handle> ist ungültig.

Weitere Informationen finden Sie unter INVALID_HANDLE

INVALID_IDENTIFIER

SQLSTATE: 42602

Der Bezeichner <ident> ist ungültig. Verwenden Sie eventuell Gravis-Zeichen als <ident>.

INVALID_INDEX_OF_ZERO

SQLSTATE: 22003

Der Index 0 ist ungültig. Ein Index muss entweder < 0 oder > 0 sein (das erste Element hat den Index 1).

INVALID_INLINE_TABLE

SQLSTATE: 42000

Ungültige Inlinetabelle.

Weitere Informationen finden Sie unter INVALID_INLINE_TABLE.

INVALID_INVERSE_DISTRIBUTION_FUNCTION

SQLSTATE: 42K0K

Ungültige inverse Verteilungsfunktion <funcName>.

Weitere Informationen finden Sie unter INVALID_INVERSE_DISTRIBUTION_FUNCTION.

INVALID_JSON_ROOT_FIELD

SQLSTATE: 22032

Das JSON-Stammfeld kann nicht in den Spark-Zieltyp konvertiert werden.

INVALID_JSON_SCHEMA_MAP_TYPE

SQLSTATE: 22032

Das Eingabeschema <jsonSchema> kann nur STRING als Schlüsseltyp für MAP enthalten.

INVALID_KRYO_SERIALIZER_BUFFER_SIZE

SQLSTATE: F0000

Der Wert der Konfiguration „<bufferSizeConfKey>“ muss kleiner als 2.048 MiB sein, enthält jedoch <bufferSizeConfValue> MiB.

INVALID_LAMBDA_FUNCTION_CALL

SQLSTATE: 42K0D

Ungültiger Lambdafunktionsaufruf.

Weitere Informationen finden Sie unter INVALID_LAMBDA_FUNCTION_CALL.

INVALID_LATERAL_JOIN_TYPE

SQLSTATE: 42613

Der <joinType>-JOIN mit LATERAL-Korrelation ist nicht zulässig, da eine OUTER-Subabfrage nicht mit ihrem Joinpartner korrelieren kann. Entfernen Sie die LATERAL-Korrelation, oder verwenden Sie stattdessen einen INNER JOIN oder LEFT OUTER JOIN.

INVALID_LIMIT_LIKE_EXPRESSION

SQLSTATE: 42K0E

Der Limit-Like- Ausdruck <expr> ist ungültig.

Weitere Details finden Sie unter INVALID_LIMIT_LIKE_EXPRESSION

INVALID_NON_DETERMINISTIC_EXPRESSIONS

SQLSTATE: 42K0E

Der Operator erwartet einen deterministischen Ausdruck, aber der tatsächliche Ausdruck lautet <sqlExprs>.

INVALID_NUMERIC_LITERAL_RANGE

SQLSTATE: 22003

Das numerische Literal <rawStrippedQualifier> liegt mit einem Mindestwert von <minValue> und einem Höchstwert von <maxValue> außerhalb des gültigen Bereichs für <typeName>. Passen Sie den Wert entsprechend an.

INVALID_OBSERVED_METRICS

SQLSTATE: 42K0E

Ungültige beobachtete Metriken.

Weitere Informationen finden Sie unter INVALID_OBSERVED_METRICS

INVALID_OPTIONS

SQLSTATE: 42K06

Ungültige Optionen:

Weitere Details finden Sie unter INVALID_SCHEMA

INVALID_PANDAS_UDF_PLACEMENT

SQLSTATE: 0A000

Die pandas-UDF <functionList> für die Gruppenaggregierung kann nicht zusammen mit anderen Aggregatfunktionen vom Typ nicht-pandas aufgerufen werden.

INVALID_PARAMETER_MARKER_VALUE

SQLSTATE: 22023

Eine ungültige Parameterzuordnung wurde bereitgestellt:

Weitere Details finden Sie unter INVALID_PARAMETER_MARKER_VALUE

INVALID_PARAMETER_VALUE

SQLSTATE: 22023

Der Wert der Parameter <parameter> in <functionName> ist ungültig:

Weitere Details finden Sie unter INVALID_PARAMETER_VALUE

INVALID_PARTITION_OPERATION

SQLSTATE: 42601

Der Partitionsbefehl ist ungültig.

Weitere Details finden Sie unter INVALID_PARTITION_OPERATION

INVALID_PIPELINE_ID

SQLSTATE: 42604

Die Pipeline-ID <pipelineId> ist nicht gültig.

Eine Pipeline-ID sollte eine UUID im Format „xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx“ sein

INVALID_PRIVILEGE

SQLSTATE: 42852

Die Berechtigung <privilege> ist nicht gültig für <securable>.

INVALID_PROPERTY_KEY

SQLSTATE: 42602

<key> ist ein ungültiger Eigenschaftsschlüssel, bitte verwenden Sie Anführungszeichen, z. B.: SET <key>=<value>.

INVALID_PROPERTY_VALUE

SQLSTATE: 42602

<value> ist ein ungültiger Eigenschaftswert bitte verwenden Sie Anführungszeichen, z. B. SET <key>=<value>

INVALID_QUERY_MIXED_QUERY_PARAMETERS

SQLSTATE: 42613

Parametrisierte Abfragen müssen entweder die Position oder benannte Parameter verwenden, aber nicht beides.

INVALID_S3_COPY_CREDENTIALS

SQLSTATE: 42501

COPY INTO-Anmeldeinformationen müssen AWS_ACCESS_KEY, AWS_SECRET_KEY und AWS_SESSION_TOKEN enthalten.

INVALID_SAVE_MODE

SQLSTATE: 42000

Der angegebene Speichermodus <mode> ist ungültig. Gültige Speichermodi sind: „append“, „overwrite“, „ignore“, „error“, „errorifexists“ und „default“.

INVALID_SCHEMA

SQLSTATE: 42K07

Das Eingabeschema <inputSchema> ist keine gültige Schemazeichenfolge.

Weitere Informationen finden Sie unter INVALID_SCHEMA.

INVALID_SCHEMA_OR_RELATION_NAME

SQLSTATE: 42602

<name> ist kein gültiger Name für Tabellen/Schemas. Gültige Namen enthalten nur alphabetische Zeichen, Zahlen und _.

INVALID_SCHEME

SQLSTATE: 0AKUC

Der Unity Catalog unterstützt <name> nicht als Standarddateischema.

INVALID_SECRET_LOOKUP

SQLSTATE: 22531

Geheimnislookup ungültig:

Weitere Informationen finden Sie unter INVALID_SECRET_LOOKUP.

INVALID_SET_SYNTAX

SQLSTATE: 42000

Das erwartete Format ist „SET“, „SET key“ oder „SET key=value“. Wenn Sie Sonderzeichen in den Schlüssel oder Semikolon in den Wert einschließen möchten, verwenden Sie rückwärts gerichtete Anführungszeichen, z. B. SET key=value.

INVALID_SHARED_ALIAS_NAME

SQLSTATE: 42601

Der <sharedObjectType>-Aliasname muss das Format „schema.name“ aufweisen.

INVALID_SINGLE_VARIANT_COLUMN

SQLSTATE: 42613

Wenn singleVariantColumn in der Scandatenquelle <dataSource> angegeben wird, muss der Benutzer ein explizites Schema mit einer einzelnen Variant-Spalte (z. B. column VARIANT) bereitstellen.

INVALID_SOURCE_CATALOG

SQLSTATE: 42809

Der Quellkatalog darf nicht innerhalb von Unity Catalog für den SYNC-Befehl enthalten sein. Es wurde <catalog> gefunden.

INVALID_SQL_ARG

SQLSTATE: 42K08

Das Argument <name> für sql() ist ungültig. Erwägen Sie, es entweder durch ein SQL-Literal oder durch Sammlungskonstruktorfunktionen wie map(), array(), struct() zu ersetzen.

INVALID_SQL_SYNTAX

SQLSTATE: 42000

Ungültige SQL-Syntax:

Weitere Details finden Sie unter INVALID_SQL_SYNTAX

INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY

SQLSTATE: 42604

Ungültiger Stagingpfad in der Staging-<operation>-Abfrage: <path>

INVALID_STATEMENT_FOR_EXECUTE_INTO

SQLSTATE: 07501

Die INTO-Klausel von EXECUTE IMMEDIATE ist nur für Abfragen gültig, die angegebene Anweisung ist aber keine Abfrage: <sqlString>.

INVALID_SUBQUERY_EXPRESSION

SQLSTATE: 42823

Ungültige Unterabfrage:

Weitere Informationen finden Sie unter INVALID_SUBQUERY_EXPRESSION.

INVALID_TEMP_OBJ_REFERENCE

SQLSTATE: 42K0F

Das persistente Objekt <objName> des Typs <obj> kann nicht erstellt werden, da es auf das temporäre Objekt <tempObjName> des Typs <tempObj>verweist. Bitte machen Sie das temporäre Objekt <tempObjName> dauerhaft, oder machen Sie das persistente Objekt <objName> temporär.

INVALID_TIMESTAMP_FORMAT

SQLSTATE: 22000

Der angegebene Zeitstempel <timestamp> stimmt nicht mit der erwarteten Syntax <format> überein.

INVALID_TIME_TRAVEL_SPEC

SQLSTATE: 42K0E

Bei einer Zeitreise der Tabelle können nicht sowohl die Version als auch der Zeitstempel angegeben werden.

INVALID_TIME_TRAVEL_TIMESTAMP_EXPR

SQLSTATE: 42K0E

Der Zeitstempelausdruck <expr> für die Zeitreise ist ungültig.

Weitere Informationen finden Sie unter INVALID_TIME_TRAVEL_TIMESTAMP_EXPR.

INVALID_TYPED_LITERAL

SQLSTATE: 42604

Der Wert des eingegebenen Literals <valueType> ist ungültig: <value>.

INVALID_UDF_IMPLEMENTATION

SQLSTATE: 38000

Die Funktion <funcName> implementiert weder eine ScalarFunction noch eine AggregateFunction.

INVALID_UPGRADE_SYNTAX

SQLSTATE: 42809

<command><supportedOrNot> die Quelltabelle befindet sich im Hive-Metastore und die Zieltabelle im Unity Catalog.

INVALID_URL

SQLSTATE: 22P02

Die URL ist ungültig: <url>. Legen Sie bei Bedarf <ansiConfig> auf FALSCH fest, um diesen Fehler zu umgehen.

INVALID_USAGE_OF_STAR_OR_REGEX

SQLSTATE: 42000

Ungültige Verwendung von <elem> in <prettyName>.

INVALID_UUID

SQLSTATE: 42604

Die Eingabe <uuidInput> ist keine gültige UUID.

Die UUID sollte im Format „xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx“ vorliegen

Bitte überprüfen Sie das Format der UUID.

INVALID_VARIABLE_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE

SQLSTATE: 42K09

Der Variablentyp muss eine Zeichenfolge (string) sein, empfangen wurde aber <varType>.

INVALID_WHERE_CONDITION

SQLSTATE: 42903

Die WHERE-Bedingung <condition> enthält ungültige Ausdrücke: <expressionList>.

Schreiben Sie die Abfrage erneut, um Fensterfunktionen, Aggregatfunktionen und Generatorfunktionen in der WHERE-Klausel zu vermeiden.

INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC

SQLSTATE: 42601

ORDER BY oder ein Fensterrahmen für <aggFunc> kann nicht angegeben werden.

INVALID_WRITER_COMMIT_MESSAGE

SQLSTATE: 42KDE

Der Datenquellen-Writer hat eine ungültige Anzahl von Commitnachrichten generiert. Es wurde genau eine Commitnachricht für jede Aufgabe vom Writer erwartet, aber <detail> empfangen.

INVALID_WRITE_DISTRIBUTION

SQLSTATE: 42000

Die angeforderte Schreibverteilung ist ungültig.

Weitere Details finden Sie unter INVALID_WRITE_DISTRIBUTION

JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE

SQLSTATE: 42K0E

Die Verknüpfungsbedingung <joinCondition> weist den ungültigen Typ <conditionType> auf, BOOLEAN erwartet.

KAFKA_DATA_LOSS

SQLSTATE: 22000

Einige Daten sind möglicherweise verloren gegangen, weil sie in Kafka nicht mehr verfügbar sind;

entweder die Daten wurden von Kafka ausgelöscht, oder das Thema wurde möglicherweise gelöscht, bevor alle Daten im

Thema verarbeitet wurden.

Wenn Ihre Streamingabfrage in solchen Fällen nicht fehlschlägt, legen Sie die Quelloption failOnDataLoss auf "false" fest.

Ursache:

Weitere Informationen finden Sie unter KAFKA_DATA_LOSS

KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET

SQLSTATE: 22000

Konnte nicht bis zur gewünschten Sequenznummer <endSeqNum> für Shard <shardId> im

kinesis-Stream <stream> mit Consumermodus <consumerMode>. Die Abfrage führt aufgrund eines

potenziellen Datenverlusts zu einem Fehler. Der letzte Lesedatensatz befand sich bei Sequenznummer <lastSeqNum>.

Dies kann passieren, wenn die Daten mit endSeqNum bereits veraltet sind oder der Kinesis-Stream

gelöscht und mit demselben Namen rekonstruiert wurde. Das Fehlerverhalten kann außer Kraft gesetzt werden

indem Sie spark.databricks.kinesis.failOnDataLoss auf FALSE in der Spark-Konfiguration festlegen.

KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD

SQLSTATE: 42K04

Die abgerufene Mindest-ShardId von Kinesis (<fetchedShardId>)

ist kleiner als die nachverfolgte Mindest-ShardID (<trackedShardId>).

Dies ist unerwartet und tritt auf, wenn ein Kinesis-Stream gelöscht und mit demselben Namen neu erstellt wird

und eine Streamingabfrage mit diesem Kinesis-Stream mithilfe eines vorhandenen Prüfpunktorts neu gestartet wird.

Starten Sie die Streamingabfrage mit einem neuen Prüfpunktort neu, oder erstellen Sie einen Stream mit einem neuen Namen.

KRYO_BUFFER_OVERFLOW

SQLSTATE: 54006

Fehler bei der Kryo-Serialisierung: <exceptionMsg>. Um dies zu vermeiden, erhöhen Sie den Wert von „<bufferSizeConfKey>“.

LOAD_DATA_PATH_NOT_EXISTS

SQLSTATE: 42K03

LOAD DATA-Eingabepfad ist nicht vorhanden: <path>.

LOCAL_MUST_WITH_SCHEMA_FILE

SQLSTATE: 42601

LOCAL muss zusammen mit dem Schema von file verwendet werden, enthielt jedoch Folgendes: <actualSchema>.

LOCATION_ALREADY_EXISTS

SQLSTATE: 42710

Die verwaltete Tabelle kann nicht als <identifier> benannt werden, da der zugeordnete Speicherort <location> bereits vorhanden ist. Wählen Sie einen anderen Tabellennamen aus, oder entfernen Sie zuerst den vorhandenen Speicherort.

LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW

SQLSTATE: KD000

Einige Partitionen in Kafka-Themen sind während der Ausführung der Abfrage mit Trigger.AvailableNow verloren gegangen. Der Fehler kann vorübergehend sein – starten Sie die Abfrage neu, und melden Sie, wenn dasselbe Problem weiterhin angezeigt wird.

Themenpartitionen für den neuesten Offset: <tpsForLatestOffset>, Themenpartitionen für den Endoffset: <tpsForEndOffset>

MALFORMED_AVRO_MESSAGE

SQLSTATE: KD000

Falsch formatierte Avro-Nachrichten werden bei der Nachrichtendeserialisierung erkannt. Parsenmodus: <mode>. Um falsch formatierte Avro-Nachrichten als NULL-Ergebnis zu verarbeiten, sollten Sie versuchen, die Option „mode“ als „PERMISSIVE“ festzulegen.

MALFORMED_CSV_RECORD

SQLSTATE: KD000

Nicht wohlgeformter CSV-Datensatz: <badRecord>

MALFORMED_RECORD_IN_PARSING

SQLSTATE: 22023

Nicht wohlgeformte Datensätze werden beim Datensatzparsen erkannt: <badRecord>.

Parsenmodus: <failFastMode>. Um nicht wohlgeformte Datensätze als NULL-Ergebnis zu verarbeiten, sollten Sie versuchen, die Option „mode“ als „PERMISSIVE“ festzulegen.

Weitere Informationen finden Sie unter MALFORMED_RECORD_IN_PARSING.

MALFORMED_VARIANT

SQLSTATE: 22023

Die Variant-Binärdatei ist falsch formatiert. Überprüfen Sie, ob die Datenquelle gültig ist.

MANAGED_TABLE_WITH_CRED

SQLSTATE: 42613

Das Erstellen einer verwalteten Tabelle mit Speicheranmeldeinformationen wird nicht unterstützt.

MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID

SQLSTATE: 55019

Die materialisierte Sicht kann nicht <refreshType> werden, da sie vor pipelineId vorhanden war. Um <refreshType> zu aktivieren, löschen Sie bitte die materialisierte Sicht und erstellen sie neu.

MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED

SQLSTATE: 56038

Der Vorgang <operation> für die materialisierte Sicht ist nicht erlaubt:

Weitere Details finden Sie unter MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED

MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS

SQLSTATE: 0A000

Der Ausgabeausdruck <expression> in einer materialisierten Sicht muss explizit mit einem Alias erstellt werden.

MATERIALIZED_VIEW_UNSUPPORTED_OPERATION

SQLSTATE: 0A000

Der Vorgang <operation> wird für materialisierte Ansichten für diese Version nicht unterstützt.

MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED

SQLSTATE: 54KD1

Die neue Variable <variableName> kann nicht erstellt werden, da die Anzahl der Variablen in der Sitzung die maximal zulässige Anzahl (<maxNumVariables>) überschreitet.

MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE

SQLSTATE: 22023

maxRecordsPerFetch muss eine positive ganze Zahl kleiner oder gleich <kinesisRecordLimit> sein.

MERGE_CARDINALITY_VIOLATION

SQLSTATE: 23K01

Die ON-Suchbedingung der MERGE-Anweisung entsprach einer einzelnen Zeile aus der Zieltabelle mit mehreren Zeilen der Quelltabelle.

Dies kann dazu führen, dass die Zielzeile bei einem Aktualisierungs- oder Löschvorgang mehrmals verarbeitet wird, und ist daher nicht zulässig.

MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED

SQLSTATE: KD000

Die Kafka-Datenquelle in Trigger.AvailableNow sollte die gleichen Themenpartitionen im vorab abgerufenen Offset bis zum End-Offset für jeden Mikrobatch bereitstellen. Der Fehler kann vorübergehend sein – starten Sie die Abfrage neu, und melden Sie, wenn dasselbe Problem weiterhin angezeigt wird.

Themenpartitionen für den vorab abgerufenen Offset: <tpsForPrefetched>, Themenpartitionen für den Endoffset: <tpsForEndOffset>.

MISSING_AGGREGATION

SQLSTATE: 42803

Der nicht aggregierende Ausdruck <expression> basiert auf Spalten, die nicht an der GROUP BY-Klausel beteiligt sind.

Fügen Sie die Spalten oder den Ausdruck zur GROUP BY-Klausel hinzu, aggregieren Sie den Ausdruck, oder verwenden Sie <expressionAnyValue>, wenn es keine Rolle spielt, welcher der Werte innerhalb einer Gruppe zurückgegeben wird.

Weitere Details finden Sie unter MISSING_AGGREGATION

MISSING_CONNECTION_OPTION

SQLSTATE: 42000

Verbindungen vom Typ „<connectionType>“ müssen die folgende(n) Option(en) enthalten: <requiredOptions>.

MISSING_GROUP_BY

SQLSTATE: 42803

Die Abfrage enthält keine GROUP BY-Klausel. Fügen Sie eine GROUP BY-Klausel hinzu, oder wandeln Sie sie mithilfe von OVER-Klauseln in die Fensterfunktionen um.

MISSING_NAME_FOR_CHECK_CONSTRAINT

SQLSTATE: 42000

Die CHECK-Einschränkung muss einen Namen haben.

MISSING_PARAMETER_FOR_KAFKA

SQLSTATE: 42KDF

Der Parameter <parameterName> ist für Kafka erforderlich, ist aber in <functionName> nicht angegeben.

MISSING_PARAMETER_FOR_ROUTINE

SQLSTATE: 42KDF

Der <parameterName>-Parameter ist für Kafka erforderlich, wurde aber in <functionName> nicht angegeben.

MODIFY_BUILTIN_CATALOG

SQLSTATE: 42832

Das Ändern des integrierten Katalogs <catalogName> wird nicht unterstützt.

MULTIPLE_LOAD_PATH

SQLSTATE: 42000

Databricks Delta unterstützt in der load()-API nicht mehrere Eingabepfade.

Pfade: <pathList>. Um einen einzelnen DataFrame zu erstellen, indem Sie

mehrere Pfade aus derselben Delta-Tabelle laden, sollten Sie den Stammpfad der

Delta-Tabelle mit den entsprechenden Partitionsfiltern laden. Wenn mehrere Pfade

aus verschiedenen Delta-Tabellen stammen, verwenden Sie die APIs union() oder unionByName() des Datasets,

um die DataFrames zu kombinieren, die durch verschiedene Aufrufe der load()-API generiert wurden.

MULTIPLE_MATCHING_CONSTRAINTS

SQLSTATE: 42891

Es wurden mindestens zwei übereinstimmende Einschränkungen mit der angegebenen Bedingung gefunden.

MULTIPLE_TIME_TRAVEL_SPEC

SQLSTATE: 42K0E

Die Zeitreise kann nicht sowohl in der Zeitreiseklausel als auch in den Optionen angegeben werden.

MULTIPLE_XML_DATA_SOURCE

SQLSTATE: 42710

Es wurden mehrere Datenquellen mit dem Namen <provider> (<sourceNames>) gefunden. Geben Sie den vollqualifizierten Klassennamen an, oder entfernen Sie <externalSource> aus dem Klassenpfad.

MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION

SQLSTATE: 42K0E

Der Ausdruck <expr> unterstützt nicht mehr als eine Quelle.

MULTI_UDF_INTERFACE_ERROR

SQLSTATE: 0A000

Es ist nicht zulässig, mehrere UDF-Schnittstellen zu implementieren, UDF-Klasse <className>.

MUTUALLY_EXCLUSIVE_CLAUSES

SQLSTATE: 42613

Sich gegenseitig ausschließende Klauseln oder Optionen <clauses>. Entfernen Sie eine dieser Klauseln.

MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE

SQLSTATE: 42601

Die Eingabeabfrage erwartet <expectedType>, aber die zugrunde liegende Tabelle ist <givenType>.

NAMED_PARAMETERS_NOT_SUPPORTED

SQLSTATE: 4274K

Benannte Parameter werden für die Funktion <functionName> nicht unterstützt. Wiederholen Sie die Abfrage stattdessen mit positionellen Argumenten für den Funktionsaufruf.

NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS

SQLSTATE: 0A000

Die Funktion <functionName> kann nicht aufgerufen werden, weil benannte Argumentverweise für SQL UDF nicht unterstützt werden. In diesem Fall lautete der benannte Argumentverweis <argument>.

NAMED_PARAMETER_SUPPORT_DISABLED

SQLSTATE: 0A000

Die Funktion <functionName> kann nicht aufgerufen werden, weil benannte Argumentverweise hier nicht aktiviert sind.

In diesem Fall lautete der benannte Argumentverweis <argument>.

Legen Sie „spark.sql.allowNamedFunctionArguments“ auf TRUE fest, um das Feature zu aktivieren.

NAMESPACE_ALREADY_EXISTS

SQLSTATE: 42000

Der Namespace <nameSpaceName> kann nicht erstellt werden, da er bereits vorhanden ist.

Wählen Sie einen anderen Namen aus, löschen Sie den vorhandenen Namespace, oder fügen Sie die IF NOT EXISTS-Klausel hinzu, um bereits vorhandene Namespaces zu tolerieren.

NAMESPACE_NOT_EMPTY

SQLSTATE: 42000

Ein Namespace <nameSpaceNameName> kann nicht gelöscht werden, da er Objekte enthält.

Verwenden Sie DROP NAMESPACE ... CASCADE, um den Namespace und alle zugehörigen Objekte zu löschen.

NAMESPACE_NOT_FOUND

SQLSTATE: 42000

Der Namespace <nameSpaceName> kann nicht gefunden werden. Überprüfen Sie die Schreibweise und Korrektheit des Namespace.

Wenn Sie den Namen nicht mit einem qualifiziert haben, überprüfen Sie die current_schema()-Ausgabe, oder qualifizieren Sie den Namen mit dem richtigen.

Verwenden Sie DROP NAMESPACE IF EXISTS, um den Fehler beim Löschen zu tolerieren.

NATIVE_XML_DATA_SOURCE_NOT_ENABLED

SQLSTATE: 56038

Die native XML-Datenquelle ist in diesem Cluster nicht aktiviert.

NESTED_AGGREGATE_FUNCTION

SQLSTATE: 42607

Es ist nicht zulässig, eine Aggregatfunktion im Argument einer anderen Aggregatfunktion zu verwenden. Verwenden Sie die interne Aggregatfunktion in einer Unterabfrage.

NESTED_EXECUTE_IMMEDIATE

SQLSTATE: 07501

Geschachtelte EXECUTE IMMEDIATE-Befehle sind nicht zulässig. Stellen Sie sicher, dass die bereitgestellte SQL-Abfrage (<sqlString>) keinen weiteren EXECUTE IMMEDIATE-Befehl enthält.

NON_FOLDABLE_ARGUMENT

SQLSTATE: 42K08

Für die Funktion <funcName> muss der Parameter <paramName> ein faltbarer Ausdruck des Typs <paramType> sein; das tatsächliche Argument ist jedoch nicht faltbar.

NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE: 42613

Wenn eine MERGE-Anweisung mehr als eine MATCHED-Klausel enthält, kann nur die letzte MATCHED-Klausel die Bedingung auslassen.

NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION

SQLSTATE: 42613

Wenn eine MERGE-Anweisung mehrere NOT MATCHED BY SOURCE-Klauseln enthält, kann nur die letzte NOT MATCHED BY SOURCE-Klausel die Bedingung auslassen.

NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION

SQLSTATE: 42613

Wenn eine MERGE-Anweisung mehrere NOT MATCHED [BY TARGET]-Klauseln enthält, kann nur die letzte NOT MATCHED [BY TARGET]-Klausel die Bedingung auslassen.

NON_LITERAL_PIVOT_VALUES

SQLSTATE: 42K08

Literal-Ausdrücke sind für Pivotwerte erforderlich, es wurde <expression> gefunden.

NON_PARTITION_COLUMN

SQLSTATE: 42000

PARTITION-Klausel darf keine Nicht-Partitionsspalten enthalten: <columnName>.

NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING

SQLSTATE: 42KDE

Die WINDOW-Funktion wird in <windowFunc> (als Spalte <columnName>) für Streamingdatenframes/Datasets nicht unterstützt.

Strukturiertes Streaming unterstützt nur die Aggregation von Zeitfenstern mithilfe der WINDOW-Funktion. (Fensterspezifikation: <windowSpec>)

NOT_ALLOWED_IN_FROM

SQLSTATE: 42601

In der FROM-Klausel nicht zulässig:

Weitere Details finden Sie unter NOT_ALLOWED_IN_FROM

NOT_A_CONSTANT_STRING

SQLSTATE: 42601

Der für die Routine oder Klausel <name> verwendete <expr>-Ausdruck muss eine konstante STRING sein, die NOT NULL ist.

Weitere Details finden Sie unter NOT_A_CONSTANT_STRING

NOT_A_PARTITIONED_TABLE

SQLSTATE: 42809

Der Vorgang <operation> ist für <tableIdentWithDB> nicht zulässig, da es sich nicht um eine partitionierte Tabelle handelt.

NOT_A_SCALAR_FUNCTION

SQLSTATE: 42887

<functionName> erscheint hier als skalarer Ausdruck, aber die Funktion wurde als Tabellenfunktion definiert. Bitte aktualisieren Sie die Abfrage, um den Funktionsaufruf in die FROM-Klausel zu verschieben, oder definieren Sie <functionName> stattdessen als skalare Funktion.

NOT_A_TABLE_FUNCTION

SQLSTATE: 42887

<functionName> erscheint hier als Tabellenfunktion, aber die Funktion wurde als skalare Funktion definiert. Bitte aktualisieren Sie die Abfrage, um den Funktionsaufruf außerhalb der FROM-Klausel zu verschieben, oder definieren Sie <functionName> stattdessen als Tabellenfunktion.

NOT_NULL_CONSTRAINT_VIOLATION

SQLSTATE: 42000

Das Zuweisen eines NULL-Werts ist hier nicht zulässig.

Weitere Details finden Sie unter NOT_NULL_CONSTRAINT_VIOLATION

NOT_SUPPORTED_CHANGE_COLUMN

SQLSTATE: 0A000

ALTER TABLE ALTER/CHANGE COLUMN wird nicht unterstützt, um die Spalte <originName> von <table> mit dem Typ <originType> in <newName> mit dem Typ <newType> zu ändern.

NOT_SUPPORTED_COMMAND_FOR_V2_TABLE

SQLSTATE: 0A000

<cmd> wird für v2-Tabellen nicht unterstützt.

NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT

SQLSTATE: 0A000

<cmd> wird nicht unterstützt. Wenn Sie diesen Befehl aktivieren möchten, legen Sie „spark.sql.catalogImplementation“ auf „hive“ fest.

NOT_SUPPORTED_IN_JDBC_CATALOG

SQLSTATE: 0A000

Nicht unterstützter Befehl im JDBC-Katalog:

Weitere Details finden Sie unter NOT_SUPPORTED_IN_JDBC_CATALOG

NOT_SUPPORTED_WITH_DB_SQL

SQLSTATE: 0A000

<operation> wird in einer SQL <endpoint> nicht unterstützt.

NO_DEFAULT_COLUMN_VALUE_AVAILABLE

SQLSTATE: 42608

Der Standardwert für <colName> kann nicht bestimmt werden, weil er keine Nullwerte zulässt und keinen Standardwert aufweist.

NO_HANDLER_FOR_UDAF

SQLSTATE: 42000

Kein Handler für UDAF „<functionName>“. Verwenden Sie stattdessen sparkSession.udf.register(...).

NO_MERGE_ACTION_SPECIFIED

SQLSTATE: 42K0E

Nach „df.mergeInto“ muss mindestens eine der folgenden Optionen folgen:whenMatched, whenNotMatched, whenNotMatchedBySource.

NO_PARENT_EXTERNAL_LOCATION_FOR_PATH

SQLSTATE: keiner zugewiesen

Für den Pfad „<path>“ wurde kein übergeordneter externer Speicherort gefunden. Erstellen Sie einen externen Speicherort unter einem der übergeordneten Pfade, und wiederholen Sie dann die Abfrage oder den Befehl.

NO_SQL_TYPE_IN_PROTOBUF_SCHEMA

SQLSTATE: 42S22

<catalystFieldPath> kann Im Protobuf-Schema nicht gefunden werden.

NO_STORAGE_LOCATION_FOR_TABLE

SQLSTATE: keiner zugewiesen

Beim Generieren von Tabellenanmeldeinformationen wurde kein Speicherort für die Tabelle „<tableId>“ gefunden. Überprüfen Sie den Tabellentyp und die URL des Tabellenspeicherorts, und wiederholen Sie dann die Abfrage oder den Befehl.

NO_SUCH_CATALOG_EXCEPTION

SQLSTATE: keiner zugewiesen

Der Katalog „<catalog>“ wurde nicht gefunden. Überprüfen Sie den Katalognamen, und wiederholen Sie dann die Abfrage oder den Befehl.

NO_SUCH_CLEANROOM_EXCEPTION

SQLSTATE: keiner zugewiesen

Der Reinraum "<cleanroom>" ist nicht vorhanden. Überprüfen Sie, ob der Reinraumname richtig geschrieben ist und dem Namen eines gültigen vorhandenen Reinraumes entspricht, und wiederholen Sie dann die Abfrage oder den Befehl.

NO_SUCH_EXTERNAL_LOCATION_EXCEPTION

SQLSTATE: keiner zugewiesen

Der externe Speicherort „<externalLocation>“ ist nicht vorhanden. Vergewissern Sie sich, dass der Name des externen Speicherorts korrekt ist, und wiederholen Sie dann die Abfrage oder den Befehl.

NO_SUCH_METASTORE_EXCEPTION

SQLSTATE: keiner zugewiesen

Der Metastore wurde nicht gefunden. Bitten Sie Ihre Kontoadministrator*innen, dem aktuellen Arbeitsbereich einen Metastore zuzuweisen, und wiederholen Sie dann die Abfrage oder den Befehl.

NO_SUCH_PROVIDER_EXCEPTION

SQLSTATE: keiner zugewiesen

Der Freigabeanbieter „<providerName>“ ist nicht vorhanden. Überprüfen Sie, ob der Name des Freigabeanbieters richtig geschrieben ist und dem Namen eines gültigen vorhandenen Anbieters entspricht, und wiederholen Sie dann die Abfrage oder den Befehl.

NO_SUCH_RECIPIENT_EXCEPTION

SQLSTATE: keiner zugewiesen

Der Empfänger „<recipient>“ ist nicht vorhanden. Vergewissern Sie sich, dass der Empfängername richtig geschrieben ist und dem Namen eines gültigen vorhandenen Empfängers entspricht, und wiederholen Sie dann die Abfrage oder den Befehl.

NO_SUCH_SHARE_EXCEPTION

SQLSTATE: keiner zugewiesen

Die Freigabe „<share>“ ist nicht vorhanden. Überprüfen Sie, ob der Freigabename richtig geschrieben ist und dem Namen einer gültigen vorhandenen Freigabe entspricht, und wiederholen Sie dann die Abfrage oder den Befehl.

NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION

SQLSTATE: keiner zugewiesen

Die Speicheranmeldeinformationen „<storageCredential>“ sind nicht vorhanden. Überprüfen Sie, ob der Name für die Speicheranmeldeinformationen richtig geschrieben ist und dem Namen gültiger vorhandener Speicheranmeldeinformation entspricht, und wiederholen Sie dann die Abfrage oder den Befehl.

NO_SUCH_USER_EXCEPTION

SQLSTATE: keiner zugewiesen

Der/die Benutzer*in „<userName>“ ist nicht vorhanden. Vergewissern Sie sich, dass Benutzer*innen, für die Sie Berechtigungen zuweisen oder den Besitz ändern möchten, richtig geschrieben sind und den Namen gültiger vorhandener Benutzer*innen entsprechen, und wiederholen Sie dann die Abfrage oder den Befehl.

NO_UDF_INTERFACE

SQLSTATE: 38000

UDF-Klasse <className> implementiert keine UDF-Schnittstelle.

NULLABLE_COLUMN_OR_FIELD

SQLSTATE: 42000

Spalte oder Feld <name> lässt Nullwerte zu, obwohl sie/es keine Nullwerte zulassend darf.

NULLABLE_ROW_ID_ATTRIBUTES

SQLSTATE: 42000

Zeilen-ID-Attribute dürfen keine Nullwerte zulassen: <nullableRowIdAttrs>.

NULL_MAP_KEY

SQLSTATE: 2200E

Null kann nicht als Zuordnungsschlüssel verwendet werden.

NUMERIC_OUT_OF_SUPPORTED_RANGE

SQLSTATE: 22003

Der Wert <value> kann nicht als numerischer Wert interpretiert werden, da er mehr als 38 Ziffern aufweist.

NUMERIC_VALUE_OUT_OF_RANGE

SQLSTATE: 22003

<value> kann nicht als Dezimal(<precision>, <scale>) dargestellt werden. Legen Sie bei Bedarf <config> auf FALSE fest, um diesen Fehler zu umgehen, und geben Sie stattdessen NULL zurück.

NUM_COLUMNS_MISMATCH

SQLSTATE: 42826

<operator> kann nur für Eingaben mit der gleichen Anzahl von Spalten ausgeführt werden, aber die erste Eingabe enthält <firstNumColumns> Spalten, und die <invalidOrdinalNum>-Eingabe enthält <invalidNumColumns> Spalten.

NUM_TABLE_VALUE_ALIASES_MISMATCH

SQLSTATE: 42826

Die Anzahl der angegebenen Aliase stimmt nicht mit der Anzahl der Ausgabespalten überein.

Funktionsname: <funcName>, Anzahl der Aliase: <aliasesNum>, Anzahl der Ausgabespalten: <outColsNum>.

OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED

SQLSTATE: 22KD2

Es wurde kein benutzerdefinierter Identitätsanspruch bereitgestellt.

ONLY_SECRET_FUNCTION_SUPPORTED_HERE

SQLSTATE: 42K0E

Das Aufrufen der Funktion <functionName> wird in diesem <location> nicht unterstützt. <supportedFunctions> wird hier unterstützt.

OPERATION_CANCELED

SQLSTATE: HY008

Der Vorgang wurde abgebrochen.

OPERATION_REQUIRES_UNITY_CATALOG

SQLSTATE: 0AKUD

Der Vorgang <operation> erfordert die Aktivierung des Unity Catalog.

OP_NOT_SUPPORTED_READ_ONLY

SQLSTATE: 42KD1

<plan> wird im schreibgeschützten Sitzungsmodus nicht unterstützt.

ORDER_BY_POS_OUT_OF_RANGE

SQLSTATE: 42805

Die ORDER BY-Position <index> befindet sich nicht in der Auswahlliste (gültiger Bereich ist [1, <size>]).

PARSE_EMPTY_STATEMENT

SQLSTATE: 42617

Syntaxfehler, unerwartete leere Anweisung.

PARSE_SYNTAX_ERROR

SQLSTATE: 42601

Syntaxfehler bei oder in der Nähe von <error><hint>.

PARTITIONS_ALREADY_EXIST

SQLSTATE: 428FT

Die Partition(en) <partitionList> können nicht mit ADD oder RENAME TO zur Tabelle <tableName> hinzugefügt werden, da sie bereits vorhanden sind.

Wählen Sie einen anderen Namen aus, löschen Sie die vorhandene Partition, oder fügen Sie die IF NOT EXISTS-Klausel hinzu, um eine bereits vorhandene Partition zu tolerieren.

PARTITIONS_NOT_FOUND

SQLSTATE: 428FT

Die Partition(en) <partitionList> kann/können in der Tabelle <tableName> nicht gefunden werden.

Überprüfen Sie die Partitionsspezifikation und den Tabellennamen.

Verwenden Sie ALTER TABLE, um den Fehler beim Löschen zu tolerieren. DROP IF EXISTS PARTITION.

PARTITION_LOCATION_ALREADY_EXISTS

SQLSTATE: 42K04

Der Partitionsspeicherort „<locationPath>“ ist bereits in der Tabelle „<tableName>“ vorhanden.

PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY

SQLSTATE: 42KD5

Fehler beim Ausführen der ALTER TABLE SET PARTITION LOCATION-Anweisung, da sich der

Partitionsspeicherort „<location>“ nicht unter dem Tabellenverzeichnis „<table>“ befindet.

Um dies zu beheben, legen Sie den Speicherort der Partition auf ein Unterverzeichnis von „<table>“ fest.

PARTITION_METADATA

SQLSTATE: 0AKUC

<action> ist in der Tabelle <tableName> nicht zulässig, da das Speichern von Partitionsmetadaten im Unity Catalog nicht unterstützt wird.

PATH_ALREADY_EXISTS

SQLSTATE: 42K04

Der Pfad <outputPath> ist bereits vorhanden. Legen Sie den Modus auf „overwrite“ fest, um den vorhandenen Pfad zu überschreiben.

PATH_NOT_FOUND

SQLSTATE: 42K03

Der Pfad ist nicht vorhanden: <path>.

PIVOT_VALUE_DATA_TYPE_MISMATCH

SQLSTATE: 42K09

Ungültiger Pivotwert „<value>“: Wertdatentyp <valueType> stimmt nicht mit dem Datentyp der Pivotspalte <pivotType> überein.

PROTOBUF_DEPENDENCY_NOT_FOUND

SQLSTATE: 42K0G

Die Abhängigkeit <dependencyName> wurde nicht gefunden.

PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND

SQLSTATE: 42K0G

Fehler beim Lesen der Protobuf-Deskriptordatei unter Pfad: <filePath>.

PROTOBUF_FIELD_MISSING

SQLSTATE: 42K0G

Die Suche nach <field> im Protobuf-Schema bei <protobufSchema> hat <matchSize> Übereinstimmungen ergeben. Kandidaten: <matches>.

PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA

SQLSTATE: 42K0G

Im Protobuf-Schema wurde <field> gefunden, es gibt aber keine Übereinstimmung im SQL-Schema.

PROTOBUF_FIELD_TYPE_MISMATCH

SQLSTATE: 42K0G

Für des Feld <field> wurde ein Typenkonflikt gefunden.

PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED

SQLSTATE: 0A000

Java-Klassen werden für <protobufFunction> nicht unterstützt. Wenden Sie sich an den Databricks-Support, um mehr über alternative Optionen zu erfahren.

PROTOBUF_MESSAGE_NOT_FOUND

SQLSTATE: 42K0G

Die Nachricht <messageName> wurde im Deskriptor nicht gefunden.

PROTOBUF_TYPE_NOT_SUPPORT

SQLSTATE: 42K0G

Der Protobuf-Typ <protobufType> ist noch nicht unterstützt.

PS_FETCH_RETRY_EXCEPTION

SQLSTATE: 22000

Die Aufgabe in der PubSub-Abrufstage kann nicht wiederholt werden. Partition <partitionInfo> in Stage <stageInfo>, TID <taskId>.

PS_INVALID_EMPTY_OPTION

SQLSTATE: 42000

<key> darf keine leere Zeichenfolge sein.

PS_INVALID_KEY_TYPE

SQLSTATE: 22000

Ungültiger Schlüsseltyp für PubSub-Deduplizierung: <key>.

PS_INVALID_OPTION

SQLSTATE: 42000

Die Option <key> wird von PubSub nicht unterstützt. Sie kann nur beim Testen verwendet werden.

PS_INVALID_OPTION_TYPE

SQLSTATE: 42000

Ungültiger Typ für <key>. Für <key> wird der Typ <type> erwartet.

PS_INVALID_READ_LIMIT

SQLSTATE: 42000

Ungültiges Leselimit für PubSub-Stream: <limit>.

PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO

SQLSTATE: 22000

Ungültige UnsafeRow zum Decodieren in PubSubMessageMetadata. Gewünschtes Protokollschema: <protoSchema>. Die UnsafeRow-Eingabe ist möglicherweise beschädigt: <unsafeRow>.

PS_MISSING_AUTH_INFO

SQLSTATE: 42000

Es wurden keine vollständigen PubSub-Authentifizierungsinformationen gefunden.

PS_MISSING_REQUIRED_OPTION

SQLSTATE: 42000

Erforderliche Option wurde nicht gefunden: <key>.

PS_MOVING_CHECKPOINT_FAILURE

SQLSTATE: 22000

Fehler beim Verschieben von Rohdaten-Prüfpunktdateien aus <src> in das Zielverzeichnis: <dest>.

PS_MULTIPLE_FAILED_EPOCHS

SQLSTATE: 22000

PubSub-Stream kann nicht gestartet werden, weil beim Abrufen mehrere Fehler aufgetreten sind: <failedEpochs>.

PS_OPTION_NOT_IN_BOUNDS

SQLSTATE: 22000

<key> muss innerhalb der folgenden Grenzwerte liegen (ausschließlich): <min>, <max>.

PS_PROVIDE_CREDENTIALS_WITH_OPTION

SQLSTATE: 42000

Freigegebene Cluster unterstützen keine Authentifizierung mit Instanzprofilen. Geben Sie Anmeldeinformationen mithilfe von „.option()“ direkt für den Stream an.

PS_SPARK_SPECULATION_NOT_SUPPORTED

SQLSTATE: 0A000

Der PubSub-Quellconnector ist nur im Cluster verfügbar, wenn spark.speculation deaktiviert ist.

PS_UNABLE_TO_CREATE_SUBSCRIPTION

SQLSTATE: 42000

Fehler beim Versuch, ein Abonnement <subId> zum Thema <topicId> zu erstellen. Überprüfen Sie, ob ausreichende Berechtigungen zum Erstellen eines Abonnements vorhanden sind, und versuchen Sie es erneut.

PS_UNABLE_TO_PARSE_PROTO

SQLSTATE: 22000

Serialisierte Bytes können nicht geparst werden, um das Protokoll zu generieren.

PS_UNSUPPORTED_GET_OFFSET_CALL

SQLSTATE: 0A000

getOffset wird ohne Angabe eines Limits nicht unterstützt.

PYTHON_DATA_SOURCE_ERROR

SQLSTATE: 38000

Fehler bei der <action>-Python-Datenquelle <type>: <msg>

QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY

SQLSTATE: 428HD

Auf die Verweistabelle kann nicht zugegriffen werden, da eine zuvor zugewiesene Spaltenmaske derzeit nicht mit dem Tabellenschema kompatibel ist. Um fortzufahren, wenden Sie sich an den Besitzer der Tabelle, damit dieser die Richtlinie aktualisiert:

Weitere Details finden Sie unter QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY

QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY

SQLSTATE: 428HD

Auf die Verweistabelle kann nicht zugegriffen werden, da eine zuvor zugewiesene Sicherheitsrichtlinie auf Zeilenebene derzeit nicht mit dem Tabellenschema kompatibel ist. Um fortzufahren, wenden Sie sich an den Besitzer der Tabelle, damit dieser die Richtlinie aktualisiert:

Weitere Details finden Sie unter QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY

READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS

SQLSTATE: 4274K

Der Aufruf der Funktion <functionName> hat <parameterName> und <alternativeName> festgelegt, welche Aliase voneinander sind. Legen Sie nur einen davon fest.

READ_TVF_UNEXPECTED_REQUIRED_PARAMETER

SQLSTATE: 4274K

Der erforderliche Parameter <parameterName> für die Funktion <functionName> muss an der Position <expectedPos> ohne den Namen zugewiesen werden.

RECURSIVE_PROTOBUF_SCHEMA

SQLSTATE: 42K0G

Ein rekursiver Verweis wurde im Protobuf-Schema gefunden, der von Spark standardmäßig nicht verarbeitet werden kann: <fieldDescriptor>. Versuchen Sie, die Option recursive.fields.max.depth 0 auf 10 festzulegen. Es ist nicht zulässig, über 10 Ebenen der Rekursion hinauszugehen.

RECURSIVE_VIEW

SQLSTATE: 42K0H

Rekursive Ansicht <viewIdent> erkannt (Zyklus: <newPath>).

REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION

SQLSTATE: 42601

Verweise auf DEFAULT-Spaltenwerte sind innerhalb der PARTITION-Klausel nicht zulässig.

RELATION_LARGER_THAN_8G

SQLSTATE: 54000

Eine <relationName>, die größer als 8G ist, kann nicht erstellt werden.

REMOTE_FUNCTION_HTTP_FAILED_ERROR

SQLSTATE: 57012

Fehler bei der HTTP-Remoteanforderung mit Code <errorCode> und Fehlermeldung <errorMessage>

REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR

SQLSTATE: 22032

Fehler beim Auswerten der SQL-Funktion <functionName>, da das JSON-Ergebnis aus der Remote-HTTP-Antwort nicht geparst werden kann. Die Fehlermeldung lautet <errorMessage>. Weitere Informationen finden Sie in der REST-API-Dokumentation: <docUrl>. Beheben Sie das in der Fehlermeldung angegebene Problem, und wiederholen Sie die Abfrage.

REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR

SQLSTATE: 57012

Fehler beim Auswerten der SQL-Funktion <functionName>, da die unerwartete Remote-HTTP-Antwort nicht verarbeitet werden kann. Die Fehlermeldung lautet <errorMessage>. Weitere Informationen finden Sie in der REST-API-Dokumentation: <docUrl>. Beheben Sie das in der Fehlermeldung angegebene Problem, und wiederholen Sie die Abfrage.

REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT

SQLSTATE: 57012

Fehler bei der Remoteanforderung nach <N> Wiederholungsversuchen. Der letzte HTTP-Fehlercode war <errorCode>, und die Meldung lautete <errorMessage>

REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR

SQLSTATE: 57012

Fehler beim Auswerten der SQL-Funktion <functionName>, aufgrund von <errorMessage>. Überprüfen Sie die Anforderungen in <docUrl>. Beheben Sie das in der Fehlermeldung angegebene Problem, und wiederholen Sie die Abfrage.

RENAME_SRC_PATH_NOT_FOUND

SQLSTATE: 42K03

Fehler beim Umbenennen, da <sourcePath> nicht gefunden wurde.

REPEATED_CLAUSE

SQLSTATE: 42614

Die <clause>-Klausel kann höchstens einmal pro <operation>-Vorgang verwendet werden.

REQUIRED_PARAMETER_NOT_FOUND

SQLSTATE: 4274K

Die Funktion <functionName> kann nicht aufgerufen werden, weil der Parameter <parameterName> erforderlich ist, aber im Funktionsaufruf kein Wert bereitgestellt wurde. Aktualisieren Sie den Funktionsaufruf, sodass ein Argumentwert (entweder über die Position am Index <index> oder den Namen) angegeben wird, und wiederholen Sie die Abfrage.

REQUIRES_SINGLE_PART_NAMESPACE

SQLSTATE: 42K05

<sessionCatalog> erfordert einen einteiligen Namespace, er hat aber <namespace>.

RESERVED_CDC_COLUMNS_ON_WRITE

SQLSTATE: 42939

Der Schreibvorgang umfasst reservierte Spalten <columnList>, die

intern als Metadaten für den Änderungsdatenfeed verwendet werden. Zum Schreiben in die Tabelle müssen Sie diese Spalten entweder umbenennen/entfernen

oder den Änderungsdatenfeed in der Tabelle deaktivieren, indem

<config> auf FALSCH festgelegt wird.

RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED

SQLSTATE: 0A000

Die Option <option> hat eingeschränkte Werte für freigegebene Cluster für die Quelle <source>.

Weitere Informationen finden Sie unter RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED.

ROUTINE_ALREADY_EXISTS

SQLSTATE: 42723

Die Funktion <routineName> kann nicht erstellt werden, da sie bereits vorhanden ist.

Wählen Sie einen anderen Namen aus, löschen oder ersetzen Sie die vorhandene Funktion, oder fügen Sie die IF NOT EXISTS-Klausel hinzu, um eine bereits vorhandene Funktion zu tolerieren.

ROUTINE_NOT_FOUND

SQLSTATE: 42883

Die Funktion <routineName> kann nicht gefunden werden. Überprüfen Sie die Schreibweise und Korrektheit des Schemas und des Katalogs.

Wenn Sie den Namen nicht mit einem Schema und Katalog qualifiziert haben, überprüfen Sie die current_schema()-Ausgabe, oder qualifizieren Sie den Namen mit dem richtigen Schema und Katalog.

Verwenden Sie DROP FUNCTION IF EXISTS, um den Fehler beim Löschen zu tolerieren.

ROUTINE_PARAMETER_NOT_FOUND

SQLSTATE: 42000

Die Funktion <functionName> unterstützt den Parameter <parameterName> nicht, der an der Position <pos> angegeben ist.<suggestion>

ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME

SQLSTATE: 42939

Die Funktion <routineName> kann nicht erstellt werden, da der angegebene Klassenname „<className>“ für die Systemverwendung reserviert ist. Bitte benennen Sie die Klasse um, und versuchen Sie es erneut.

ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED

SQLSTATE: 0A000

Das Erstellen einer CHECK-Einschränkung für die Tabelle <tableName> mit Sicherheitsrichtlinien auf Zeilenebene wird nicht unterstützt.

ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME

SQLSTATE: 42734

Eine <statementType>-Anweisung hat versucht, einer Tabelle eine Sicherheitsrichtlinie auf Zeilenebene zuzuweisen, aber zwei oder mehr Spalten, auf die verwiesen wird, hatten denselben Namen <columnName>. Dies ist ungültig.

ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED

SQLSTATE: 0A000

Sicherheitsrichtlinien auf Zeilenebene für <tableName> werden nicht unterstützt:

Weitere Details finden Sie unter ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED

ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 0A000

<statementType><columnName> können nicht aus der Tabelle <tableName> übernommen werden, da sie in einer Sicherheitsrichtlinie auf Zeilenebene referenziert werden. Der Tabellenbesitzer muss diese Richtlinie entfernen oder ändern, bevor er fortfährt.

ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE

SQLSTATE: 0A000

MERGE INTO-Vorgänge unterstützen keine Sicherheitsrichtlinien auf Zeilenebene in der Quelltabelle <tableName>.

ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET

SQLSTATE: 0A000

MERGE INTO-Vorgänge unterstützen das Schreiben in die Tabelle <tableName> mit Sicherheitsrichtlinien auf Zeilenebene nicht.

ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME

SQLSTATE: 42K05

Diese Anweisung hat versucht, einer Tabelle eine Sicherheitsrichtlinie auf Zeilenebene zuzuweisen, aber die Spalte <columnName>, auf die verwiesen wird, hatte mehrere Namensteile, was ungültig ist.

ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG

SQLSTATE: 0A000

Sicherheitsrichtlinien auf Zeilenebene werden nur in Unity Catalog unterstützt.

ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED

SQLSTATE: 0A000

Ein <mode>-Klon aus der Tabelle <tableName> mit Sicherheitsrichtlinien auf Zeilenebene wird nicht unterstützt.

ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED

SQLSTATE: 0A000

Ein <mode>-Klon in die Tabelle <tableName> mit Sicherheitsrichtlinien auf Zeilenebene wird nicht unterstützt.

ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER

SQLSTATE: 0AKD1

Die Verwendung einer Konstante als Parameter in einer Sicherheitsrichtlinie auf Zeilenebene wird nicht unterstützt. Aktualisieren Sie den SQL-Befehl, um die Konstante aus der Zeilenfilterdefinition zu entfernen, und wiederholen Sie dann den Befehl erneut.

ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER

SQLSTATE: 0A000

Fehler beim Ausführen des Befehls <statementType>, da das Zuweisen von Sicherheitsrichtlinien auf Zeilenebene für eine Zieldatenquelle mit dem Tabellenanbieter <provider> nicht unterstützt wird.

ROW_SUBQUERY_TOO_MANY_ROWS

SQLSTATE: 21000

Mehr als eine Zeile, die von einer Teilabfrage zurückgegeben wurden, werden als Zeile verwendet.

RULE_ID_NOT_FOUND

SQLSTATE: 22023

Für den Regelnamen „<ruleName>“ wurde keine ID gefunden. Ändern Sie „RuleIdCollection.scala“, wenn Sie eine neue Regel hinzufügen.

SAMPLE_TABLE_PERMISSIONS

SQLSTATE: 42832

Berechtigungen werden in Beispieldatenbanken/-tabellen nicht unterstützt.

SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION

SQLSTATE: 0A000

Die korrelierte Skalarunterabfrage <sqlExpr> ist weder in GROUP BY noch in einer Aggregatfunktion vorhanden.

Fügen Sie sie GROUP BY anhand der Ordnungsposition hinzu, oder umschließen Sie sie in first() (oder first_value), wenn der Ergebniswert nicht relevant ist.

SCALAR_SUBQUERY_TOO_MANY_ROWS

SQLSTATE: 21000

Mehr als eine Zeile, die von einer Teilabfrage zurückgegeben wurden, wird als Ausdruck verwendet.

SCHEMA_ALREADY_EXISTS

SQLSTATE: 42P06

Das Schema <schemaName> kann nicht erstellt werden, da es bereits vorhanden ist.

Wählen Sie einen anderen Namen aus, löschen Sie das vorhandene Schema, oder fügen Sie die IF NOT EXISTS-Klausel hinzu, um bereits vorhandene Schemas zu tolerieren.

SCHEMA_NOT_EMPTY

SQLSTATE: 2BP01

Ein Schema <schemaName> kann nicht gelöscht werden, da es Objekte enthält.

Verwenden Sie DROP SCHEMA ... CASCADE, um das Schema und alle zugehörigen Objekte zu löschen.

SCHEMA_NOT_FOUND

SQLSTATE: 42704

Das Schema <schemaName> kann nicht gefunden werden. Überprüfen Sie die Schreibweise und Korrektheit des Schemas und des Katalogs.

Wenn Sie den Namen nicht mit einem Katalog qualifiziert haben, überprüfen Sie die current_schema()-Ausgabe, oder qualifizieren Sie den Namen mit dem richtigen Katalog.

Verwenden Sie DROP SCHEMA IF EXISTS, um den Fehler beim Löschen zu tolerieren.

SCHEMA_REGISTRY_CONFIGURATION_ERROR

SQLSTATE: 42K0G

Das Schema aus der Schemaregistrierung konnte nicht initialisiert werden. <reason>.

SECOND_FUNCTION_ARGUMENT_NOT_INTEGER

SQLSTATE: 22023

Das zweite Argument der <functionName>-Funktion muss eine ganze Zahl sein.

SECRET_FUNCTION_INVALID_LOCATION

SQLSTATE: 42K0E

Der <commandType>-Befehl mit einem oder mehreren nicht verschlüsselten Verweisen auf die SECRET-Funktion kann nicht ausgeführt werden. Bitte verschlüsseln Sie das Ergebnis jedes solchen Funktionsaufrufs mit AES_ENCRYPT, und versuchen Sie den Befehl erneut

SEED_EXPRESSION_IS_UNFOLDABLE

SQLSTATE: 42K08

Der Seedausdruck <seedExpr> des Ausdrucks <exprWithSeed> muss faltbar sein.

SERVER_IS_BUSY

SQLSTATE: 08KD1

Der Server ist ausgelastet und konnte die Anforderung nicht verarbeiten. Warten Sie einen Moment, und versuchen Sie es noch mal.

SORT_BY_WITHOUT_BUCKETING

SQLSTATE: 42601

sortBy muss zusammen mit bucketBy verwendet werden.

SPECIFY_BUCKETING_IS_NOT_ALLOWED

SQLSTATE: 42601

CREATE TABLE ohne explizite Spaltenliste kann keine Bucketing-Informationen angeben.

Verwenden Sie die Form mit expliziter Spaltenliste, und geben Sie Bucketing-Informationen an.

Alternativ können Sie zulassen, dass die Bucketing-Informationen durch das Weglassen der Klausel abgeleitet werden.

SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED

SQLSTATE: 42908

CLUSTER BY und CLUSTERED BY INTO BUCKETS können nicht zusammen angegeben werden.

SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED

SQLSTATE: 42908

CLUSTER BY und PARTITIONED BY können nicht angegeben werden.

SPECIFY_PARTITION_IS_NOT_ALLOWED

SQLSTATE: 42601

CREATE TABLE ohne explizite Spaltenliste kann nicht PARTITIONED BY angeben.

Verwenden Sie die Form mit expliziter Spaltenliste, und geben Sie PARTITIONED BY an.

Alternativ können Sie zulassen, dass die Partitionierung durch das Weglassen der PARTITION BY-Klausel abgeleitet wird.

SQL_CONF_NOT_FOUND

SQLSTATE: 42K0I

Die SQL-Konfiguration <sqlConf> kann nicht gefunden werden. Bitte überprüfen Sie, ob die Konfiguration vorhanden ist.

STAGING_PATH_CURRENTLY_INACCESSIBLE

SQLSTATE: 22000

Vorübergehender Fehler beim Zugriff auf den Ziel-Stagingpfad <path>, bitte versuchen Sie es in einigen Minuten erneut

STAR_GROUP_BY_POS

SQLSTATE: 0A000

Die Sternvariable (*) ist in einer Auswahlliste nicht zulässig, wenn für GROUP BY eine Ordinalposition verwendet wird.

STATE_STORE_CANNOT_REMOVE_DEFAULT_COLUMN_FAMILY

SQLSTATE: 42802

Fehler beim Entfernen der Standardspaltenfamilie mit reservierten Namen=<colFamilyName>.

STATE_STORE_MULTIPLE_VALUES_PER_KEY

SQLSTATE: 42802

Der Store unterstützt nicht mehrere Werte pro Schlüssel

STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST

SQLSTATE: 42713

Die statische Partitionsspalte <staticName> wird auch in der Spaltenliste angegeben.

STDS_COMMITTED_BATCH_UNAVAILABLE

SQLSTATE: KD006

Es wurde kein committeter Batch gefunden, Prüfpunktspeicherort: <checkpointLocation>. Stellen Sie sicher, dass die Abfrage ausgeführt und alle Mikrobatches vor dem Beenden committet wurden.

STDS_CONFLICT_OPTIONS

SQLSTATE: 42613

Die Optionen <options> können nicht zusammen angegeben werden. Geben Sie eine an.

STDS_FAILED_TO_READ_STATE_SCHEMA

SQLSTATE: 42K03

Fehler beim Lesen des Statusschemas. Die Datei ist entweder nicht vorhanden oder beschädigt. Optionen: <sourceOptions>.

Führen Sie die Streamingabfrage erneut aus, um das Statusschema zu erstellen, und melden Sie den Fehler den entsprechenden Communitys oder Anbietern, falls er weiterhin auftritt.

STDS_INVALID_OPTION_VALUE

SQLSTATE: 42616

Ungültiger Wert für die Quelloption „<optionName>“:

Weitere Details finden Sie unter STDS_INVALID_OPTION_VALUE.

STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE

SQLSTATE: KD006

Der Zustand besitzt keine Partition. Überprüfen Sie, ob die Abfrage auf den gültigen Zustand verweist. Optionen: <sourceOptions>

STDS_OFFSET_LOG_UNAVAILABLE

SQLSTATE: KD006

Das Offsetprotokoll für <batchId> ist nicht vorhanden, Prüfpunktspeicherort: <checkpointLocation>.

Geben Sie die Batch-ID an, die für Abfragen verfügbar ist. Sie können die verfügbaren Batch-IDs mithilfe der Datenquelle für Zustandsmetadaten abfragen.

STDS_OFFSET_METADATA_LOG_UNAVAILABLE

SQLSTATE: KD006

Für das Offsetprotokoll für <batchId> sind keine Metadaten vorhanden, Prüfpunktspeicherort: <checkpointLocation>.

Der Prüfpunkt wird möglicherweise nur mit älteren Spark-Versionen ausgeführt. Führen Sie die Streamingabfrage mit der aktuellen Spark-Version aus, damit Spark die Zustandsmetadaten erstellen kann.

STDS_REQUIRED_OPTION_UNSPECIFIED

SQLSTATE: 42601

<optionName>“ muss angegeben werden.

STORED_PROCEDURE_NOT_SUPPORTED

SQLSTATE: 0A000

Die gespeicherte Prozedur wird nicht unterstützt

STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS

SQLSTATE: 0A000

Die Ausführung adaptiver Abfragen wird für zustandsbehaftete Operatoren im strukturierten Streaming nicht unterstützt.

STREAMING_FROM_MATERIALIZED_VIEW

SQLSTATE: 0A000

Das Streamen aus der materialisierter Sicht <viewName> ist nicht möglich. Das Streaming von materialisierten Sichten wird nicht unterstützt.

STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA

SQLSTATE: 42K03

Der Name des Streamingstatusoperators stimmt nicht mit dem Operator in Zustandsmetadaten überein. Dies geschieht wahrscheinlich, wenn der Benutzer den zustandsbehafteten Operator einer vorhandenen Streamingabfrage hinzufügt/entfernt/ändert.

Zustandsbehaftete Operatoren in den Metadaten: [<OpsInMetadataSeq>]; Zustandsbehaftete Operatoren im aktuellen Batch: [<OpsInCurBatchSeq>].

STREAMING_TABLE_NEEDS_REFRESH

SQLSTATE: 55019

Die Streamingtabelle <tableName> muss aktualisiert werden. Bitte führen Sie CREATE OR REFRESH STREAMING TABLE <tableName> AS aus, um die Tabelle zu aktualisieren.

STREAMING_TABLE_NOT_SUPPORTED

SQLSTATE: 56038

Streamingtabellen können nur in Delta Live Tables und Databricks SQL-Warehouses erstellt und aktualisiert werden.

STREAMING_TABLE_OPERATION_NOT_ALLOWED

SQLSTATE: 42601

Der Vorgang <operation> ist nicht zulässig:

Weitere Informationen finden Sie unter STREAMING_TABLE_OPERATION_NOT_ALLOWED.

STREAMING_TABLE_QUERY_INVALID

SQLSTATE: 42000

Die Streamingtabelle <tableName> kann nur aus einer Streamingabfrage erstellt werden. Fügen Sie der FROM-Klausel das STREAM-Schlüsselwort hinzu, um diese Beziehung in eine Streamingabfrage umzuwandeln.

STREAM_NOT_FOUND_FOR_KINESIS_SOURCE

SQLSTATE: 42K02

Kinesis-Stream <streamName> in <region> wurde nicht gefunden.

Starten Sie eine neue Abfrage, die auf den richtigen Streamnamen verweist.

SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT

SQLSTATE: 22003

Die Summe der LIMIT-Klausel und der OFFSET-Klausel darf den maximalen ganzzahligen 32-Bit-Wert (2.147.483.647) nicht überschreiten. Gefunden: Limit = <limit>, Offset = <offset>.

SYNC_METADATA_DELTA_ONLY

SQLSTATE: 0AKDD

Der Befehl zum Reparieren der Metadaten für die Tabellensynchronisierung wird nur für Delta-Tabellen unterstützt.

SYNC_METADATA_NOT_SUPPORTED

SQLSTATE: 0AKUD

Der Befehl zum Reparieren der Metadaten für die Tabellensynchronisierung wird nur für Unity Catalog-Tabellen unterstützt.

SYNC_SRC_TARGET_TBL_NOT_SAME

SQLSTATE: 42KD2

Der Quelltabellenname <srcTable> muss mit dem Namen der Zieltabelle <destTable> identisch sein.

TABLE_OR_VIEW_ALREADY_EXISTS

SQLSTATE: 42P07

Eine Tabelle oder Ansicht <relationName> kann nicht erstellt werden, da sie bereits vorhanden ist.

Wählen Sie einen anderen Namen aus, löschen oder ersetzen Sie das vorhandene Objekt, fügen Sie die IF NOT EXISTS-Klausel hinzu, um bereits vorhandene Objekte zu tolerieren, oder fügen Sie die OR REFRESH-Klausel hinzu, um die vorhandene Streamingtabelle zu aktualisieren.

TABLE_OR_VIEW_NOT_FOUND

SQLSTATE: 42P01

Die Tabelle oder Ansicht <relationName> kann nicht gefunden werden. Überprüfen Sie die Schreibweise und Korrektheit des Schemas und des Katalogs.

Wenn Sie den Namen nicht mit einem Schema qualifiziert haben, überprüfen Sie die current_schema()-Ausgabe, oder qualifizieren Sie den Namen mit dem richtigen Schema und Katalog.

Verwenden Sie DROP VIEW IF EXISTS oder DROP TABLE IF EXISTS, um den Fehler beim Löschen zu tolerieren.

Weitere Details finden Sie unter TABLE_OR_VIEW_NOT_FOUND

TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS

SQLSTATE: 0A000

Die Aktion <action> ist für die benutzerdefinierte SQL-Funktion <functionName> mit TABLE-Argumenten nicht möglich, weil diese Funktionalität noch nicht implementiert ist.

TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON

SQLSTATE: 38000

Fehler beim Analysieren der benutzerdefinierten Python-Tabellenfunktion: <msg>

TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL

SQLSTATE: 22023

Fehler beim Auswerten der Tabellenfunktion <functionName>, da die Tabellenmetadaten <requestedMetadata> sind, aber der Funktionsaufruf <invalidFunctionCallProperty>.

TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID

SQLSTATE: 22023

Fehler beim Auswerten der Tabellenfunktion <functionName>, da die Tabellenmetadaten ungültig waren; <reason>.

TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS

SQLSTATE: 54023

Es liegen zu viele Tabellenargumente für die Tabellenwertfunktion vor.

Ein Tabellenargument ist zulässig, sie enthielt jedoch Folgendes: <num>.

Wenn Sie dies zulassen möchten, legen Sie „spark.sql.allowMultipleTableArguments.enabled“ auf TRUE fest.

TABLE_WITH_ID_NOT_FOUND

SQLSTATE: 42P01

Die Tabelle mit der ID <tableId> kann nicht gefunden werden. Überprüfen Sie die Richtigkeit der UUID.

TASK_WRITE_FAILED

SQLSTATE: 58030

Aufgabenfehler beim Schreiben von Zeilen in <path>.

TEMP_TABLE_OR_VIEW_ALREADY_EXISTS

SQLSTATE: 42P07

Die temporäre Ansicht <relationName> kann nicht erstellt werden, da sie bereits vorhanden ist.

Wählen Sie einen anderen Namen aus, löschen oder ersetzen Sie die vorhandene Ansicht, oder fügen Sie die IF NOT EXISTS-Klausel hinzu, um bereits vorhandene Ansichten zu tolerieren.

TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS

SQLSTATE: 428EK

CREATE TEMPORARY VIEW oder die entsprechenden Dataset-APIs akzeptieren nur einteilige Ansichtsnamen, enthalten aber: <actualName>.

TWS_VALUE_SHOULD_NOT_BE_NULL

SQLSTATE: 22004

Neuer Wert sollte nicht null sein für <typeOfState>

UC_BUCKETED_TABLES

SQLSTATE: 0AKUC

In Unity Catalog werden keine Buckettabellen unterstützt.

UC_CATALOG_NAME_NOT_PROVIDED

SQLSTATE: 3D000

Geben Sie für Unity Catalog den Katalognamen explizit an. Beispiel: SHOW GRANT your.address@email.com ON CATALOG main.

UC_COMMAND_NOT_SUPPORTED

SQLSTATE: 0AKUC

In Unity Catalog werden folgende Befehle nicht unterstützt: <commandName>.

Weitere Details finden Sie unter UC_COMMAND_NOT_SUPPORTED

UC_DATASOURCE_NOT_SUPPORTED

SQLSTATE: 0AKUC

Das Datenquellenformat <dataSourceFormatName> wird in Unity Catalog nicht unterstützt.

UC_DATASOURCE_OPTIONS_NOT_SUPPORTED

SQLSTATE: 0AKUC

Datenquellenoptionen werden in Unity Catalog nicht unterstützt.

UC_EXTERNAL_VOLUME_MISSING_LOCATION

SQLSTATE: 42601

DIE LOCATION-Klausel muss für ein externes Volume vorhanden sein. Bitte überprüfen Sie die Syntax „CREATE EXTERNAL VOLUME … LOCATION …“ zum Erstellen eines externen Volumes.

UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED

SQLSTATE: 0AKUC

Das Erstellen einer Tabelle in Unity Catalog mit dem Dateischema <schemeName> wird nicht unterstützt.

Erstellen Sie stattdessen mithilfe des Befehls CREATE CONNECTION eine Verbunddatenquellen-Verbindung für denselben Tabellenanbieter, und erstellen Sie dann basierend auf der Verbindung einen Katalog mit einem CREATE FOREIGN CATALOG-Befehl, um auf die darin enthaltenen Tabellen zu verweisen.

UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED

SQLSTATE: 0A000

Der Hive-Metastore-Verbund ist in diesem Cluster nicht aktiviert.

Der Zugriff auf den Katalog <catalogName> wird in diesem Cluster nicht unterstützt.

UC_INVALID_DEPENDENCIES

SQLSTATE: 56098

Abhängigkeiten von <viewName> werden als <storedDeps> aufgezeichnet, während sie als <parsedDeps>geparst werden. Dies ist wahrscheinlich durch unsachgemäße Verwendung einer Nicht-SQL-API aufgetreten. Sie können Abhängigkeiten in Databricks Runtime reparieren, indem Sie ALTER VIEW <viewName> AS <viewText> ausführen.

UC_INVALID_NAMESPACE

SQLSTATE: 0AKUC

Geschachtelte oder leere Namespaces werden in Unity Catalog nicht unterstützt.

UC_INVALID_REFERENCE

SQLSTATE: 0AKUC

Auf ein Objekt <name>, das nicht aus Unity Catalog stammt, kann nicht in Unity Catalog-Objekten verwiesen werden.

UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED

SQLSTATE: 56038

Unity Catalog Lakehouse Federation-Schreibunterstützung ist für den Anbieter <provider> in diesem Cluster nicht aktiviert.

UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED

SQLSTATE: 42601

Das verwaltete Volume akzeptiert keine LOCATION-Klausel. Bitte überprüfen Sie die Syntax „CREATE VOLUME …“ zum Erstellen eines verwalteten Volumes.

UC_NOT_ENABLED

SQLSTATE: 56038

Unity Catalog ist auf diesem Cluster nicht aktiviert.

UC_QUERY_FEDERATION_NOT_ENABLED

SQLSTATE: 56038

Der Unity Catalog-Abfrageverbund ist in diesem Cluster nicht aktiviert.

UC_VOLUMES_NOT_ENABLED

SQLSTATE: 56038

Die Unterstützung für Unity Catalog-Volumes ist auf dieser Instanz nicht aktiviert.

UC_VOLUMES_SHARING_NOT_ENABLED

SQLSTATE: 56038

Die Unterstützung für die Volumefreigabe ist für diese Instanz nicht aktiviert.

UC_VOLUME_NOT_FOUND

SQLSTATE: 42704

Das Volume <name> ist nicht vorhanden. Bitte verwenden Sie „SHOW VOLUMES“, um verfügbare Volumes aufzulisten.

UDF_ERROR

SQLSTATE: keiner zugewiesen

Fehler bei der Ausführung der <fn>-Funktion.

Weitere Informationen finden Sie unter UDF_ERROR.

UDF_LIMITS

SQLSTATE: 54KD0

Mindestens ein UDF-Grenzwert wurde verletzt.

Weitere Informationen finden Sie unter UDF_LIMITS.

UDF_MAX_COUNT_EXCEEDED

SQLSTATE: 54KD0

Der abfrageweite UDF-Grenzwert von <maxNumUdfs> UDFs wurde überschritten (während der öffentlichen Vorschau beschränkt). Es wurde <numUdfs> gefunden. Die UDFs waren: <udfNames>.

UDF_PYSPARK_UNSUPPORTED_TYPE

SQLSTATE: 0A000

PySpark-UDF <udf> (<eval-type>) wird auf Clustern im Modus für geteilten Zugriff nicht unterstützt.

UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE

SQLSTATE: 0A000

Der Parameterstandardwert wird für die benutzerdefinierte <functionType>-Funktionen nicht unterstützt.

UDF_USER_CODE_ERROR

SQLSTATE: 39000

Fehler bei der Ausführung der Funktion <fn>.

Weitere Details finden Sie unter UDF_USER_CODE_ERROR

UDTF_ALIAS_NUMBER_MISMATCH

SQLSTATE: 42802

Die Anzahl von Aliasen, die in der AS-Klausel angegeben werden, stimmt nicht mit der Anzahl der von der UDTF ausgegebenen Spalten überein.

Es wurden <aliasesSize> Aliase erwartet, aber <aliasesNames> erhalten.

Stellen Sie sicher, dass die Anzahl der bereitgestellten Aliase mit der Anzahl der Spalten übereinstimmt, die von der UDTF ausgegeben werden.

UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD

SQLSTATE: 42802

Fehler beim Auswerten der benutzerdefinierten Tabellenfunktion, da die analyze-Methode eine angeforderte OrderingColumn zurückgegeben hat, deren Spaltennameausdruck den unnötigen Alias <aliasName> enthielt. Entfernen Sie diesen Alias, und versuchen Sie es dann erneut.

UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS

SQLSTATE: 42802

Fehler beim Auswerten der benutzerdefinierten Tabellenfunktion, da die 'analyze'-Methode einen angeforderten 'select'-Ausdruck (<expression>) zurückgegeben hat, der keinen entsprechenden Alias enthält. Aktualisieren Sie die UDTF, um dort einen Alias anzugeben, und versuchen Sie es dann erneut.

UDTF_PYSPARK_NOT_SUPPORTED

SQLSTATE: 0A000

PySpark-UDTF wird in Clustern im Modus für geteilten Zugriff nicht unterstützt. Um fortzufahren, erstellen Sie stattdessen einen Einzelbenutzercluster und führen das Notebook erneut aus.

UNABLE_TO_ACQUIRE_MEMORY

SQLSTATE: 53200

Fehler beim Abrufen von <requestedBytes> Bytes aus dem Arbeitsspeicher, empfangen <receivedBytes>.

UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE

SQLSTATE: 42K0G

Der SQL-Typ <toType>kann nicht in den Protobuf-Typ <protobufType> konvertiert werden.

UNABLE_TO_FETCH_HIVE_TABLES

SQLSTATE: 58030

Tabellen der Hive-Datenbank: <dbName> können nicht abgerufen werden. Fehlerklassenname: <className>.

UNABLE_TO_INFER_SCHEMA

SQLSTATE: 42KD9

Schema für <format> kann nicht abgeleitet werden. Es muss manuell angegeben werden.

UNAUTHORIZED_ACCESS

SQLSTATE: 42501

Nicht autorisierter Zugriff:

<report>

UNBOUND_SQL_PARAMETER

SQLSTATE: 42P02

Der folgende ungebundene Parameter wurde gefunden: <name>. Beheben Sie args, und geben Sie eine Zuordnung des Parameters entweder zu einem SQL-Literal oder zu Sammlungskonstruktorfunktionen wie z. B.map(), array(), struct() an.

UNCLOSED_BRACKETED_COMMENT

SQLSTATE: 42601

Es wurde ein nicht eingeschlossener Kommentar in Klammern gefunden. Fügen Sie */ am Ende des Kommentars an.

UNEXPECTED_INPUT_TYPE

SQLSTATE: 42K09

Der Parameter <paramIndex> der Funktion <functionName> erfordert den <requiredType>-Typ, <inputSql> weist jedoch den Typ <inputType> auf .

UNEXPECTED_OPERATOR_IN_STREAMING_VIEW

SQLSTATE: 42KDD

Unerwarteter Operator <op> in der CREATE VIEW-Anweisung als Streamingquelle.

Eine Streamingansichtsabfrage darf nur aus SELECT-, WHERE- und UNION ALL-Vorgängen bestehen.

UNEXPECTED_POSITIONAL_ARGUMENT

SQLSTATE: 4274K

Die Funktion <functionName> kann nicht aufgerufen werden, weil sie positionelle Argumente enthält, die dem benannten Argument folgen, das <parameterName> zugewiesen ist. Ordnen Sie sie neu an, sodass die positionellen Argumente am Anfang stehen, und wiederholen Sie dann die Abfrage.

UNEXPECTED_SERIALIZER_FOR_CLASS

SQLSTATE: 42846

Die <className>-Klasse weist einen unerwarteten Ausdrucksserialisierer auf. Erwartet wurde „STRUCT“ oder „IF“ (gibt „STRUCT“ zurück), gefunden wurde aber <expr>.

UNKNOWN_FIELD_EXCEPTION

SQLSTATE: KD003

Unbekannte Felder während dem Parsen von <unknownFieldBlob>, was durch eine automatische Wiederholung behoben werden kann: <isRetryable>

Weitere Details finden Sie unter UNKNOWN_FIELD_EXCEPTION

UNKNOWN_POSITIONAL_ARGUMENT

SQLSTATE: 4274K

Der Aufruf der Funktion <functionName> enthält ein unbekanntes positionelles Argument <sqlExpr> an der Position <pos>. Dies ist ungültig.

UNKNOWN_PROTOBUF_MESSAGE_TYPE

SQLSTATE: 42K0G

Es wurde versucht, <descriptorName> als Nachricht zu behandeln, es war jedoch <containingType>.

UNPIVOT_REQUIRES_ATTRIBUTES

SQLSTATE: 42K0A

UNPIVOT erfordert, dass alle angegebenen <given>-Ausdrücke Spalten sind, wenn keine <empty>-Ausdrücke angegeben werden. Dies sind keine Spalten: [<expressions>].

UNPIVOT_REQUIRES_VALUE_COLUMNS

SQLSTATE: 42K0A

Für UNPIVOT muss mindestens eine Wertspalte angegeben werden, alle anderen Spalten sind als IDs angegeben.

UNPIVOT_VALUE_DATA_TYPE_MISMATCH

SQLSTATE: 42K09

UNPIVOT-Wertspalten müssen mindestens einen allgemeinen Typ teilen, dies ist für einige Typen nicht der Fall: [<types>].

UNPIVOT_VALUE_SIZE_MISMATCH

SQLSTATE: 428C4

Alle UNPIVOT-Wertspalten müssen dieselbe Größe aufweisen wie Wertspaltennamen (<names>).

UNRECOGNIZED_PARAMETER_NAME

SQLSTATE: 4274K

Die Funktion <functionName> kann nicht aufgerufen werden, weil der Funktionsaufruf einen benannten Argumentverweis für das Argument namens <argumentName> enthielt. Diese Funktion umfasst jedoch keine Signatur, die ein Argument mit diesem Namen enthält. Meinten Sie Folgendes? [<proposal>].

UNRECOGNIZED_SQL_TYPE

SQLSTATE: 42704

Nicht erkannter SQL-Typ – Name: <typeName>, ID: <jdbcType>.

UNRESOLVABLE_TABLE_VALUED_FUNCTION

SQLSTATE: 42883

<name> konnte nicht in eine Tabellenwertfunktion aufgelöst werden.

Stellen Sie sicher, dass <name> als Tabellenwertfunktion definiert ist und dass alle erforderlichen Parameter ordnungsgemäß bereitgestellt werden.

Wenn <name> nicht definiert ist, erstellen Sie die Tabellenwertfunktion, bevor Sie sie verwenden.

Weitere Informationen zum Definieren von Tabellenwertfunktionen finden Sie in der Apache Spark-Dokumentation.

UNRESOLVED_ALL_IN_GROUP_BY

SQLSTATE: 42803

Gruppierungsspalten für GROUP BY ALL können nicht basierend auf der SELECT-Klausel abgeleitet werden. Geben Sie die Gruppierungsspalten explizit an.

UNRESOLVED_COLUMN

SQLSTATE: 42703

Eine Spalte, eine Variable oder ein Funktionsparameter namens <objectName> kann nicht aufgelöst werden.

Weitere Informationen finden Sie unter UNRESOLVED_COLUMN.

UNRESOLVED_FIELD

SQLSTATE: 42703

Ein Feld mit Name <fieldName> kann nicht mit der Strukturtypspalte <columnPath> aufgelöst werden.

Weitere Informationen finden Sie unter UNRESOLVED_FIELD.

UNRESOLVED_MAP_KEY

SQLSTATE: 42703

Die Spalte <objectName> kann nicht als Zuordnungsschlüssel aufgelöst werden. Wenn der Schlüssel ein Zeichenfolgenliteral ist, schließen Sie ihn in einzelne Anführungszeichen (“)ein.

Weitere Informationen finden Sie unter UNRESOLVED_MAP_KEY.

UNRESOLVED_ROUTINE

SQLSTATE: 42883

Die Funktion <routineName> für den Suchpfad <searchPath> kann nicht aufgelöst werden.

Weitere Details finden Sie unter UNRESOLVED_FIELD

UNRESOLVED_USING_COLUMN_FOR_JOIN

SQLSTATE: 42703

USING-Spalte <colName> kann nicht auf der <side>-Seite des Join aufgelöst werden. Die <side>-seitigen Spalten: [<suggestion>].

UNRESOLVED_VARIABLE

SQLSTATE: 42883

Die Variable <variableName> im Suchpfad <searchPath> kann nicht aufgelöst werden.

UNSET_NONEXISTENT_PROPERTIES

SQLSTATE: 42K0J

Es wurde versucht, die nicht vorhandenen Eigenschaften <properties> in der Tabelle <table> zu löschen.

UNSUPPORTED_ADD_FILE

SQLSTATE: 0A000

Das Hinzufügen von Dateien wird nicht unterstützt.

Weitere Informationen finden Sie unter UNSUPPORTED_ADD_FILE.

UNSUPPORTED_ARROWTYPE

SQLSTATE: 0A000

Nicht unterstützter Pfeiltyp <typeName>.

UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION

SQLSTATE: 42000

Die Funktion <funcName> unterstützt keine Batchabfragen.

UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING

SQLSTATE: 0A000

Der Typ char/varchar kann nicht im Tabellenschema verwendet werden.

Wenn Sie möchten, dass Spark diesen Datentyp als Zeichenfolgentyp wie Spark 3.0 und früher behandelt, legen Sie „spark.sql.legacy.charVarcharAsString“ auf „true“ fest.

UNSUPPORTED_CLAUSE_FOR_OPERATION

SQLSTATE: 0A000

<clause> wird für <operation> nicht unterstützt.

UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE

SQLSTATE: 42616

Der gemeinsame Vorgänger von Quellpfad und sourceArchiveDir muss bei UC registriert werden.

Wenn diese Fehlermeldung angezeigt wird, registrieren Sie den Quellpfad und sourceArchiveDir möglicherweise an verschiedenen externen Speicherorten.

Platzieren Sie sie in einem einzigen externen Speicherort.

UNSUPPORTED_CONSTRAINT_CLAUSES

SQLSTATE: 0A000

Die Einschränkungsklauseln <clauses> werden nicht unterstützt.

UNSUPPORTED_CONSTRAINT_TYPE

SQLSTATE: 42000

Der Einschränkungstyp wird nicht unterstützt. Nur <supportedConstraintTypes> werden unterstützt

UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY

SQLSTATE: 0A000

Nicht unterstützter Datenquellentyp für direkte Abfragen von Dateien: <dataSourceType>

UNSUPPORTED_DATATYPE

SQLSTATE: 0A000

Nicht unterstützter Datentyp <typeName>.

UNSUPPORTED_DATA_SOURCE_SAVE_MODE

SQLSTATE: 0A000

Die Datenquelle „<source>“ kann nicht im <createMode>-Modus geschrieben werden. Verwenden Sie stattdessen den Modus „Anfügen“ oder „Überschreiben“.

UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE

SQLSTATE: 0A000

Die <format>-Datenquelle unterstützt die Spalte <columnName> vom Typ <columnType> nicht.

UNSUPPORTED_DEFAULT_VALUE

SQLSTATE: 0A000

DEFAULT-Spaltenwerte werden nicht unterstützt.

Weitere Informationen finden Sie unter UNSUPPORTED_DEFAULT_VALUE.

UNSUPPORTED_DESERIALIZER

SQLSTATE: 0A000

Der Deserializer wird nicht unterstützt:

Weitere Informationen finden Sie unter UNSUPPORTED_DESERIALIZER.

UNSUPPORTED_EXPRESSION_GENERATED_COLUMN

SQLSTATE: 42621

Die generierte Spalte <fieldName> mit Generierungsausdruck <expressionStr> kann nicht erstellt werden, da <reason>.

UNSUPPORTED_EXPR_FOR_OPERATOR

SQLSTATE: 42K0E

Ein Abfrageoperator enthält mindestens einen nicht unterstützten Ausdruck.

Erwägen Sie, die Abfrage erneut zu generieren, um Fensterfunktionen, Aggregatfunktionen und Generatorfunktionen in der WHERE-Klausel zu vermeiden.

Ungültige Ausdrücke: [<invalidExprSqls>]

UNSUPPORTED_EXPR_FOR_PARAMETER

SQLSTATE: 42K0E

Ein Abfrageparameter enthält einen nicht unterstützten Ausdruck.

Parameter können Variablen oder Literale sein.

Ungültiger Ausdruck: [<invalidExprSql>]

UNSUPPORTED_EXPR_FOR_WINDOW

SQLSTATE: 42P20

Der Ausdruck <sqlExpr> wird innerhalb einer Fensterfunktion nicht unterstützt.

UNSUPPORTED_FEATURE

SQLSTATE: 0A000

Das Feature wird nicht unterstützt:

Weitere Informationen finden Sie unter UNSUPPORTED_FEATURE.

UNSUPPORTED_FN_TYPE

SQLSTATE: 0A000

Nicht unterstützter benutzerdefinierter Funktionstyp: <language>

UNSUPPORTED_GENERATOR

SQLSTATE: 42K0E

Der Generator wird nicht unterstützt:

Weitere Informationen finden Sie unter UNSUPPORTED_GENERATOR.

UNSUPPORTED_GROUPING_EXPRESSION

SQLSTATE: 42K0E

grouping()/grouping_id() kann nur mit GroupingSets/Cube/Rollup verwendet werden.

UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE

SQLSTATE: 42616

<trigger> mit der initialen Position <initialPosition> wird mit der Kinesis-Quelle nicht unterstützt

UNSUPPORTED_INSERT

SQLSTATE: 42809

Das Einfügen in das Ziel ist nicht möglich.

Weitere Informationen finden Sie unter UNSUPPORTED_INSERT.

UNSUPPORTED_MANAGED_TABLE_CREATION

SQLSTATE: 0AKDD

Das Erstellen der verwalteten Tabelle <tableName> mithilfe der Datenquelle <dataSource> wird nicht unterstützt. Sie müssen DELTA für die Datenquelle verwenden oder eine externe Tabelle erstellen mit CREATE EXTERNAL TABLE <tableName> … USING <dataSource>

UNSUPPORTED_MERGE_CONDITION

SQLSTATE: 42K0E

Der MERGE-Vorgang enthält eine nicht unterstützte <condName>-Bedingung.

Weitere Informationen finden Sie unter UNSUPPORTED_MERGE_CONDITION.

UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY

SQLSTATE: 0A000

Die Tabelle <tableName> verfügt über eine Sicherheitsrichtlinie auf Zeilenebene oder eine Spaltenmaske, die indirekt auf eine andere Tabelle mit einer Sicherheitsrichtlinie auf Zeilenebene oder einer Spaltenmaske verweist. Dies wird nicht unterstützt. Aufrufsequenz: <callSequence>

UNSUPPORTED_OVERWRITE

SQLSTATE: 42902

Das Ziel, aus dem ebenfalls gelesen wird, kann nicht überschrieben werden.

Weitere Details finden Sie unter UNSUPPORTED_OVERWRITE

UNSUPPORTED_SAVE_MODE

SQLSTATE: 0A000

Der Speichermodus <saveMode> wird für Folgendes nicht unterstützt:

Weitere Informationen finden Sie unter UNSUPPORTED_SAVE_MODE.

UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW

SQLSTATE: 0A000

Nicht unterstützt für das Streamen einer Ansicht. Ursache:

Weitere Informationen finden Sie unter UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW

UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED

SQLSTATE: 0A000

Die Streamingoptionen <options> werden für eine Datenquelle <source> in einem freigegebenen Cluster nicht unterstützt.

UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED

SQLSTATE: 0A000

Die Datenquelle <sink> wird nicht als Streamingsenke in einem freigegebenen Cluster unterstützt.

UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED

SQLSTATE: 0A000

Die Datenquelle <source> wird nicht als Streamingquelle in einem freigegebenen Cluster unterstützt.

UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION

SQLSTATE: 42000

Die Funktion <funcName> unterstützt kein Streaming. Entfernen Sie das STREAM-Schlüsselwort.

UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE

SQLSTATE: 0A000

<streamReadLimit> wird mit der Kinesis-Quelle nicht unterstützt

UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY

SQLSTATE: 0A000

Nicht unterstützter Unterabfrageausdruck:

Weitere Informationen finden Sie unter UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY.

UNSUPPORTED_TIMESERIES_COLUMNS

SQLSTATE: 56038

Das Erstellen eines Primärschlüssels mit Zeitreihenspalten wird nicht unterstützt.

UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN

SQLSTATE: 0A000

Das Erstellen eines Primärschlüssels mit mehreren <colSeq>-Zeitreihenspalten wird nicht unterstützt.

UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE

SQLSTATE: 0A000

<trigger> wird mit der Kinesis-Quelle nicht unterstützt

UNSUPPORTED_TYPED_LITERAL

SQLSTATE: 0A000

Literale des Typs <unsupportedType> werden nicht unterstützt. Folgende Typen werden unterstützt: <supportedTypes>.

UNTYPED_SCALA_UDF

SQLSTATE: 42K0E

Sie verwenden eine nicht typisierte Scala-UDF, die keine Informationen zum Eingabetyp enthält.

Spark kann ohne Tests NULL an den Scala-Funktionsabschluss über ein Argument mit einem primitiven Typ übergeben, und der Funktionsabschluss erkennt den Standardwert des Java-Typs für das NULL-Argument, z. B. udf((x: Int) => x, IntegerType), das Ergebnis ist für NULL-Eingaben 0. Um diesen Fehler zu beseitigen, gehen Sie wie folgt vor:

  1. Verwenden Sie typisierte Scala-UDF-APIs (ohne Rückgabetypparameter), z. B. udf((x: Int) => x).
  2. Verwenden Sie Java-UDF-APIs, z. B. udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType), wenn alle Eingabetypen nicht primitive Typen sind.
  3. Legen Sie „spark.sql.legacy.allowUntypedScalaUDF“ auf WAHR fest, und verwenden Sie diese API mit Vorsicht.

UPGRADE_NOT_SUPPORTED

SQLSTATE: 0AKUC

Tabelle ist nicht berechtigt für ein Upgrade von Hive-Metastore auf Unity Catalog. Ursache:

Weitere Informationen finden Sie unter UPGRADE_NOT_SUPPORTED

USER_DEFINED_FUNCTIONS

SQLSTATE: 42601

Die benutzerdefinierte Funktion ist ungültig:

Weitere Informationen finden Sie unter USER_DEFINED_FUNCTIONS.

USER_RAISED_EXCEPTION

SQLSTATE: P0001

<errorMessage>

USER_RAISED_EXCEPTION_PARAMETER_MISMATCH

SQLSTATE: P0001

Die Funktion raise_error() wurde für das Auslösen der Fehlerklasse: <errorClass> verwendet, die die Parameter: <expectedParms> erwartet.

Die bereitgestellten Parameter <providedParms> stimmen nicht mit den erwarteten Parametern überein.

Stellen Sie sicher, dass alle erwarteten Parameter bereitgestellt werden.

USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS

SQLSTATE: P0001

Die Funktion raise_error() wurde für das Auslösen einer unbekannten Fehlerklasse: <errorClass> verwendet

VARIABLE_ALREADY_EXISTS

SQLSTATE: 42723

Die Variable <variableName> kann nicht erstellt werden, da sie bereits vorhanden ist.

Wählen Sie einen anderen Namen, oder löschen oder ersetzen Sie die vorhandene Variable.

VARIABLE_NOT_FOUND

SQLSTATE: 42883

Die Variable <variableName> wurde nicht gefunden. Überprüfen Sie die Schreibweise und Korrektheit des Schemas und des Katalogs.

Wenn Sie den Namen nicht mit einem Schema und Katalog qualifiziert haben, überprüfen Sie die current_schema()-Ausgabe, oder qualifizieren Sie den Namen mit dem richtigen Schema und Katalog.

Verwenden Sie DROP VIEW IF EXISTS, um den Fehler beim Löschen zu tolerieren.

VARIANT_SIZE_LIMIT

SQLSTATE: 22023

Die Variante kann nicht größer als <sizeLimit> in <functionName> sein.

Vermeiden Sie große Eingabezeichenfolgen für diesen Ausdruck (z. B. Fügen Sie Funktionsaufrufe hinzu, um die Größe des Ausdrucks zu überprüfen und sie zuerst in NULL zu konvertieren, wenn sie zu groß ist).

VIEW_ALREADY_EXISTS

SQLSTATE: 42P07

Die Ansicht <relationName> kann nicht erstellt werden, da sie bereits vorhanden ist.

Wählen Sie einen anderen Namen aus, löschen oder ersetzen Sie das vorhandene Objekt, oder fügen Sie die IF NOT EXISTS-Klausel hinzu, um bereits vorhandene Objekte zu tolerieren.

VIEW_EXCEED_MAX_NESTED_DEPTH

SQLSTATE: 54K00

Die Tiefe der Ansicht <viewName> überschreitet die maximale Auflösungstiefe (<maxNestedDepth>).

Die Analyse wird abgebrochen, um Fehler zu vermeiden. Wenn Sie dies umgehen möchten, versuchen Sie, den Wert von „spark.sql.view.maxNestedViewDepth“ zu erhöhen.

VIEW_NOT_FOUND

SQLSTATE: 42P01

Die Ansicht <relationName> kann nicht gefunden werden. Überprüfen Sie die Schreibweise und Korrektheit des Schemas und des Katalogs.

Wenn Sie den Namen nicht mit einem Schema qualifiziert haben, überprüfen Sie die current_schema()-Ausgabe, oder qualifizieren Sie den Namen mit dem richtigen Schema und Katalog.

Verwenden Sie DROP VIEW IF EXISTS, um den Fehler beim Löschen zu tolerieren.

VOLUME_ALREADY_EXISTS

SQLSTATE: 42000

Das Volume <relationName> kann nicht erstellt werden, da es bereits vorhanden ist.

Wählen Sie einen anderen Namen aus, löschen oder ersetzen Sie das vorhandene Objekt, oder fügen Sie die IF NOT EXISTS-Klausel hinzu, um bereits vorhandene Objekte zu tolerieren.

WINDOW_FUNCTION_AND_FRAME_MISMATCH

SQLSTATE: 42K0E

Die Funktion <funcName> kann nur in einem sortierten zeilenbasierten Fensterrahmen mit einem einzigen Offset ausgewertet werden: <windowExpr>.

WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE

SQLSTATE: 42601

Für die WINDOW-Funktion <funcName> ist eine OVER-Klausel erforderlich.

WITH_CREDENTIAL

SQLSTATE: 42601

WITH CREDENTIAL-Syntax wird für <type> nicht unterstützt.

WRITE_STREAM_NOT_ALLOWED

SQLSTATE: 42601

writeStream kann nur im Dataset/DataFrame für das Streaming aufgerufen werden.

WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED

SQLSTATE: 0AKDC

Fehler beim Ausführen des Befehls, da Standardwerte beim Hinzufügen neuer

Spalten zu bereits vorhandenen Delta-Tabellen nicht unterstützt werden. Fügen Sie die Spalte zunächst ohne Standardwert hinzu,

und führen Sie dann stattdessen einen zweiten ALTER TABLE ALTER COLUMN SET DEFAULT-Befehl aus, um

an zukünftige eingefügte Zeilen anzufügen.

WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED

SQLSTATE: 0AKDE

Fehler beim Ausführen des Befehls <commandType>, da ihm ein Spaltenstandardwert zugewiesen wurde,

die entsprechende Tabellenfunktion jedoch nicht aktiviert war. Wiederholen Sie den Befehl,

nachdem Sie ALTER TABLE tableName SET

TBLPROPERTIES('delta.feature.allowColumnDefaults' = 'supported') ausgeführt haben.

WRONG_COMMAND_FOR_OBJECT_TYPE

SQLSTATE: 42809

Für den Vorgang <operation> ist ein <requiredType> erforderlich. Aber <objectName> ist ein <foundType>. Verwenden Sie stattdessen <alternative>.

WRONG_NUM_ARGS

SQLSTATE: 42605

Der <functionName> erfordert <expectedNum> Parameter, aber die tatsächliche Anzahl ist <actualNum>.

Weitere Informationen finden Sie unter WRONG_NUM_ARGS.

XML_ROW_TAG_MISSING

SQLSTATE: 42KDF

Die Option <rowTag> ist zum Lesen von Dateien im XML-Format erforderlich.

XML_UNSUPPORTED_NESTED_TYPES

SQLSTATE: 0N000

XML unterstützt <innerDataType> nicht als inneren Typ von <dataType>. Umschließen Sie den <innerDataType> innerhalb eines StructType-Felds, wenn Sie ihn in <dataType> verwenden.

XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR

SQLSTATE: 22023

Wiederhergestellte Daten und Platzhalterspalten können nicht gleichzeitig aktiviert werden. Entfernen Sie die wildcardColumnName-Option.

ZORDERBY_COLUMN_DOES_NOT_EXIST

SQLSTATE: 42703

ZOrderBy-Spalte <columnName> ist nicht vorhanden.

Delta Lake

DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND

SQLSTATE: 08003

Aktive Spark-Sitzung nicht gefunden

DELTA_ACTIVE_TRANSACTION_ALREADY_SET

SQLSTATE: 0B000

Neue Transaktion kann nicht als aktiv festgelegt werden, wenn bereits eine aktiv ist

DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED

SQLSTATE: 42000

Fehler beim Hinzufügen der Spalte <colName>, da der Name reserviert ist.

DELTA_ADDING_DELETION_VECTORS_DISALLOWED

SQLSTATE: 0A000

Beim aktuellen Vorgang wurde versucht, einen Löschvektor zu einer Tabelle hinzuzufügen, welche die Erstellung neuer Löschvektoren nicht zulässt. Bitte reichen Sie einen Fehlerbericht ein.

DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED

SQLSTATE: 42000

Alle Vorgänge, die Löschvektoren hinzufügen, sollten die tightBounds-Spalte in Statistiken auf FALSCH festlegen. Bitte reichen Sie einen Fehlerbericht ein.

DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO

SQLSTATE: 42KD3

Der Index <columnIndex> zum Hinzufügen der Spalte <columnName> ist kleiner als 0

DELTA_ADD_COLUMN_PARENT_NOT_STRUCT

SQLSTATE: 42KD3

<columnName> kann nicht hinzugefügt werden, da das übergeordnete Element kein StructType ist. Es wurde <other> gefunden

DELTA_ADD_COLUMN_STRUCT_NOT_FOUND

SQLSTATE: 42KD3

Struktur wurde an der Position <position> nicht gefunden

DELTA_ADD_CONSTRAINTS

SQLSTATE: 0A000

Verwenden Sie ALTER TABLE ADD CONSTRAINT, um CHECK-Einschränkungen hinzuzufügen.

DELTA_AGGREGATE_IN_GENERATED_COLUMN

SQLSTATE: 42621

Es wurde <sqlExpr> gefunden. Eine generierte Spalte kann keinen Aggregatausdruck verwenden.

DELTA_AGGREGATION_NOT_SUPPORTED

SQLSTATE: 42903

Aggregatfunktionen werden in der <operation><predicate> nicht unterstütz.

DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED

SQLSTATE: 42837

ALTER TABLE CHANGE COLUMN wird für das Ändern der Spalte <currentType> nach <newType> nicht unterstützt

DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED

SQLSTATE: 42000

ALTER TABLE CLUSTER BY wird für eine Delta-Tabelle mit Liquid Clustering unterstützt.

DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED

SQLSTATE: 42000

ALTER TABLE CLUSTER BY kann nicht auf eine partitionierte Tabelle angewandt werden.

DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED

SQLSTATE: 42000

Vorgang nicht zulässig: ALTER TABLE RENAME TO ist für verwaltete Delta-Tabellen in S3 nicht zulässig, da die letztliche Konsistenz in S3 das Delta-Transaktionsprotokoll beschädigen kann. Wenn Sie den Vorgang unbedingt durchführen möchten und sicher sind, dass es bisher keine Delta-Tabelle mit dem neuen Namen <newName> gab, können Sie diese ermöglichen, indem Sie die Einstellung <key> auf WAHR festlegen.

DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED

SQLSTATE: 42000

Das <tableFeature> Tabellenfeature kann nicht mit ALTER TABLE SET TBLPROPERTIES aktiviert werden. Verwenden Sie CREATE OR REPLACE TABLE CLUSTER BY, um eine Delta-Tabelle mit Clustering zu erstellen.

DELTA_AMBIGUOUS_DATA_TYPE_CHANGE

SQLSTATE: 429BQ

Der Datentyp von <column> kann nicht von <from> in <to> geändert werden. Diese Änderung beinhaltet das Entfernen und Hinzufügen von Spalten und ist daher mehrdeutig. Bitte nehmen Sie diese Änderungen einzeln mit ALTER TABLE [ADD | DROP | RENAME] COLUMN vor.

DELTA_AMBIGUOUS_PARTITION_COLUMN

SQLSTATE: 42702

Die mehrdeutige Partitionsspalte <column> kann <colMatches> sein.

DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE

SQLSTATE: 42613

CREATE TABLE enthält zwei verschiedene Speicherorte: <identifier> und <location>.

Sie können die LOCATION-Klausel aus der CREATE TABLE-Anweisung entfernen oder

<config> auf TRUE festlegen, um diese Überprüfung zu überspringen.

DELTA_ARCHIVED_FILES_IN_LIMIT

SQLSTATE: 42KDC

Die Tabelle <table> enthält nicht genügend Datensätze in nicht archivierten Dateien, um das angegebene LIMIT von <limit> Datensätzen zu erfüllen.

DELTA_ARCHIVED_FILES_IN_SCAN

SQLSTATE: 42KDC

Es wurden <numArchivedFiles> potenziell archivierte Dateien in der Tabelle <table> gefunden, die im Rahmen dieser Abfrage gescannt werden müssen.

Auf archivierte Dateien kann nicht zugegriffen werden. Die aktuelle Zeit bis zur Archivierung ist als <archivalTime> konfiguriert.

Bitte passen Sie Ihre Abfragefilter an, um alle archivierte Dateien auszuschließen.

DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION

SQLSTATE: 42KD4

Der Vorgang „<opName>“ ist nicht zulässig, wenn die Tabelle den Änderungsdatenfeed (Change Data Feed, CDF) aktiviert hat und Schemaänderungen mithilfe von DROP COLUMN oder RENAME COLUMN vorgenommen wurden.

DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS

SQLSTATE: 42703

Bloomfilterindizes für die folgenden nicht vorhandenen Spalten können nicht gelöscht werden: <unknownColumns>

DELTA_BLOOM_FILTER_OOM_ON_WRITE

SQLSTATE: 82100

Beim Schreiben von Bloom-Filterindizes für die folgende(n) Spalte(n) ist ein OutOfMemoryError-Fehler aufgetreten: <columnsWithBloomFilterIndices>.

Sie können den Arbeitsspeicherbedarf von Bloom-Filterindizes reduzieren, indem Sie einen kleineren Wert für die Option „numItems“ oder einen größeren Wert für die Option „fpp“ auswählen oder weniger Spalten indizieren.

DELTA_CANNOT_CHANGE_DATA_TYPE

SQLSTATE: 429BQ

Datentyp <dataType> kann nicht geändert werden

DELTA_CANNOT_CHANGE_LOCATION

SQLSTATE: 42601

Die Position (location) der Delta-Tabelle kann nicht mithilfe von SET TBLPROPERTIES geändert werden. Verwenden Sie stattdessen ALTER TABLE SET LOCATION.

DELTA_CANNOT_CHANGE_PROVIDER

SQLSTATE: 42939

Der Anbieter (provider) ist eine reservierte Tabelleneigenschaft und kann nicht geändert werden.

DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL

SQLSTATE: 42703

Bloomfilterindizes für die folgenden nicht vorhandenen Spalten können nicht erstellt werden: <unknownCols>

DELTA_CANNOT_CREATE_LOG_PATH

SQLSTATE: 42KD5

<path> kann nicht erstellt werden

DELTA_CANNOT_DESCRIBE_VIEW_HISTORY

SQLSTATE: 42809

Der Verlauf einer Sicht kann nicht beschrieben werden.

DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN

SQLSTATE: 42703

Der Bloomfilterindex kann in einer nicht indizierten Spalte nicht entfernt werden: <columnName>

DELTA_CANNOT_EVALUATE_EXPRESSION

SQLSTATE: 0AKDC

Der Ausdruck <expression> kann nicht ausgewertet werden

DELTA_CANNOT_FIND_BUCKET_SPEC

SQLSTATE: 22000

Es wird eine Delta-Buckettabelle erwartet, aber die Bucketspezifikation kann in der Tabelle nicht gefunden werden.

DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION

SQLSTATE: 0AKDC

Code für Ausdruck <expression> kann nicht generiert werden

DELTA_CANNOT_MODIFY_APPEND_ONLY

SQLSTATE: 42809

Diese Tabelle ist so konfiguriert, dass nur Anfügungen zulässig sind. Wenn Sie Updates oder Löschungen erlauben möchten, verwenden Sie „ALTER TABLE <table_name> SET TBLPROPERTIES (<config>=false)“.

DELTA_CANNOT_MODIFY_TABLE_PROPERTY

SQLSTATE: 42939

Die Delta-Tabellenkonfiguration <prop> kann nicht vom Benutzer angegeben werden

DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI

SQLSTATE: 22KD1

Im Transaktionsprotokoll wurde ein URI (<uri>) gefunden, der nicht in einen relativen Pfad umgewandelt werden kann.

DELTA_CANNOT_RELATIVIZE_PATH

SQLSTATE: 42000

Ein Pfad (<path>), der nicht mit der aktuellen Eingabe relativiert werden kann, wurde gefunden im

Transaktionsprotokoll gefunden. Wiederholen Sie die Ausführung mit:

%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“<userPath>”, true)

Führen Sie dann auch Folgendes aus:

%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“<path>”)

DELTA_CANNOT_RENAME_PATH

SQLSTATE: 22KD1

<currentPath> kann nicht in <newPath> umbenennt werden

DELTA_CANNOT_REPLACE_MISSING_TABLE

SQLSTATE: 42P01

Die Tabelle <tableName> kann nicht ersetzt werden, da sie nicht vorhanden ist. Verwenden Sie CREATE OR REPLACE TABLE, um die Tabelle zu erstellen.

DELTA_CANNOT_RESOLVE_COLUMN

SQLSTATE: 42703

Die Spalte <columnName> kann nicht in <schema> aufgelöst werden

DELTA_CANNOT_RESTORE_TABLE_VERSION

SQLSTATE: 22003

Tabelle kann nicht auf Version <version> wiederhergestellt werden. Verfügbare Versionen: [<startVersion>, <endVersion>].

DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER

SQLSTATE: 22003

Die Tabelle kann nicht zum Zeitstempel (<requestedTimestamp>) wiederhergestellt werden, da dieser nach der neuesten Version liegt. Bitte verwenden Sie einen Zeitstempel vor (<latestTimestamp>)

DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER

SQLSTATE: 42613

Der Speicherort einer pfadbasierten Tabelle kann nicht geändert werden.

DELTA_CANNOT_UPDATE_ARRAY_FIELD

SQLSTATE: 429BQ

Feld %1$s vom Typ %2$s kann nicht aktualisiert werden: Aktualisieren Sie das Element durch Aktualisieren von %2$s.element

DELTA_CANNOT_UPDATE_MAP_FIELD

SQLSTATE: 429BQ

Feld %1$s vom Typ %2$s kann nicht aktualisiert werden: Aktualisieren Sie die Zuordnung durch Aktualisieren von %2$s.key oder %2$s.value

DELTA_CANNOT_UPDATE_OTHER_FIELD

SQLSTATE: 429BQ

Das Feld <tableName> vom Typ <typeName> kann nicht aktualisiert werden

DELTA_CANNOT_UPDATE_STRUCT_FIELD

SQLSTATE: 429BQ

Das Feld <tableName> vom Typ <fieldName> kann nicht aktualisiert werden: Aktualisieren Sie die Struktur durch Hinzufügen, Löschen oder Aktualisieren ihrer Felder

DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION

SQLSTATE: 428FT

Für Partitionsspalten können nicht alle Spalten verwendet werden.

DELTA_CANNOT_WRITE_INTO_VIEW

SQLSTATE: 0A000

<table> ist eine Ansicht. Schreibvorgänge in eine Ansicht werden nicht unterstützt.

DELTA_CAST_OVERFLOW_IN_TABLE_WRITE

SQLSTATE: 22003

Fehler beim Schreiben eines Werts vom Typ <sourceType> in die Spalte <columnName> vom Typ <targetType> aufgrund eines Überlaufs.

Verwenden Sie try_cast für den Eingabewert, um einen Überlauf zu tolerieren, und geben Sie stattdessen NULL zurück.

Legen Sie <storeAssignmentPolicyFlag> bei Bedarf auf LEGACY fest, um diesen Fehler zu umgehen, oder legen Sie <updateAndMergeCastingFollowsAnsiEnabledFlag> auf TRUE fest, um zum alten Verhalten zurückzukehren und <ansiEnabledFlag> in UPDATE und MERGE zu folgen.

DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION

SQLSTATE: 0AKDC

„Configuration delta.enableChangeDataFeed“ kann nicht festgelegt werden. Der Änderungsdatenfeed von Delta ist noch nicht verfügbar.

DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA

SQLSTATE: 0AKDC

Das Abrufen von Tabellenänderungen zwischen Version <start> und <end> ist aufgrund eines inkompatiblen Datenschemas fehlgeschlagen.

Ihr Leseschema ist <readSchema> bei Version <readVersion>, wir haben jedoch ein inkompatibles Datenschema unter Version <incompatibleVersion> gefunden.

Bitte rufen Sie nach Möglichkeit die Tabellenänderungen mithilfe des Schemas der Endversion ab, indem Sie <config> auf endVersion festlegen, oder wenden Sie sich an den Support.

DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 0AKDC

Das Abrufen von Tabellenänderungen zwischen Version <start> und <end> ist aufgrund einer inkompatiblen Schemaänderung fehlgeschlagen.

Ihr Leseschema ist <readSchema> bei Version <readVersion>, wir haben jedoch eine inkompatible Schemaänderung bei Version <incompatibleVersion> gefunden.

Bitte fragen Sie wenn möglich die Tabellenänderungen von Version <start> auf <incompatibleVersion> - 1 und von Version <incompatibleVersion> auf <end> separat ab.

DELTA_CHANGE_DATA_FILE_NOT_FOUND

SQLSTATE: 42K03

Die Datei <filePath>, auf die im Transaktionsprotokoll verwiesen wird, kann nicht gefunden werden. Dies kann geschehen, wenn Daten manuell aus dem Dateisystem gelöscht wurden, anstatt mithilfe der DELETE-Anweisung der Tabelle. Diese Anforderung scheint sich auf den Änderungsdatenfeed zu beziehen. Wenn dies der Fall ist, kann dieser Fehler auftreten, wenn die Änderungsdatendatei außerhalb des Aufbewahrungszeitraums liegt und durch die VACUUM-Anweisung gelöscht wurde. Weitere Informationen finden Sie unter <faqPath>.

DELTA_CHANGE_TABLE_FEED_DISABLED

SQLSTATE: 42807

In die Tabelle kann nicht mit festgelegtem delta.enableChangeDataFeed geschrieben werden. Der Änderungsdatenfeed von Delta ist nicht verfügbar.

DELTA_CHECKPOINT_NON_EXIST_TABLE

SQLSTATE: 42K03

Eine nicht vorhandene Tabelle <path> kann keine Überprüfung haben. Haben Sie Dateien im Verzeichnis „_delta_log“ manuell gelöscht?

DELTA_CLONE_AMBIGUOUS_TARGET

SQLSTATE: 42613

Es wurden zwei Pfade als CLONE-Ziel bereitgestellt, sodass nicht eindeutig ist, welcher verwendet werden soll. Ein externer

Speicherort für CLONE wurde bei <externalLocation> gleichzeitig mit dem Pfad bereitgestellt

<targetIdentifier>.

DELTA_CLONE_INCOMPLETE_FILE_COPY

SQLSTATE: 42000

Die Datei (<fileName>) wurde nicht vollständig kopiert. Erwartete Dateigröße: <expectedSize>, gefunden: <actualSize>. Wenn Sie den Vorgang fortsetzen möchten, indem Sie die Dateigrößenprüfung ignorieren, legen Sie <config> auf FALSE fest.

DELTA_CLONE_UNSUPPORTED_SOURCE

SQLSTATE: 0AKDC

Nicht unterstützte <mode>-Klonquelle „<name>“, deren Format <format> ist.

Die unterstützten Formate sind „delta“, „iceberg“ und „parquet“.

DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED

SQLSTATE: 0A000

CLONE wird für eine Delta-Tabelle mit Liquid Clustering für DBR Version < 14.0 nicht unterstützt.

DELTA_CLUSTERING_COLUMNS_MISMATCH

SQLSTATE: 42P10

Die bereitgestellten Clustering-Spalten stimmen nicht mit denen der vorhandenen Tabelle überein.

  • Bereitgestellt: <providedClusteringColumns>
  • Vorhanden: <existingClusteringColumns>

DELTA_CLUSTERING_COLUMN_MISSING_STATS

SQLSTATE: 22000

Für Liquid Clustering müssen die Clusterspalten Statistiken erhalten. Es wurden keine Clusterspalten „<columns>“ im Statistikschema gefunden:

<schema>

DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE

SQLSTATE: 22000

Das Erstellen einer externen Tabelle ohne Liquid Clustering aus einem Tabellenverzeichnis mit Liquid Clustering ist nicht zulässig; Pfad: <path>.

DELTA_CLUSTERING_NOT_SUPPORTED

SQLSTATE: 42000

<operation>“ unterstützt kein Clustering.

DELTA_CLUSTERING_PHASE_OUT_FAILED

SQLSTATE: 0AKDE

<phaseOutType> konnte für die Tabelle mit der <tableFeatureToAdd>-Tabellenfunktion nicht abgeschlossen werden (Grund: <reason>). Wiederholen Sie den Vorgang mit dem OPTIMIZE-Befehl.

== Fehler ==

<error>

DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE

SQLSTATE: 42000

Das Ersetzen einer Delta-Tabelle mit Liquid Clustering durch eine partitionierte Tabelle ist mit REPLACE nicht zulässig.

DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS

SQLSTATE: 0A000

SHOW CREATE TABLE wird für eine Delta-Tabelle mit Liquid Clustering ohne Clusterspalten nicht unterstützt.

DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE: 42000

Der Überschreibungsmodus für dynamische Partitionen ist für eine Delta-Tabelle mit Liquid Clustering nicht zulässig.

DELTA_CLUSTERING_WITH_PARTITION_PREDICATE

SQLSTATE: 0A000

Der OPTIMIZE-Befehl für eine Delta-Tabelle mit Liquid Clustering unterstützt keine Partitionsprädikate. Entfernen Sie die Prädikate: <predicates>.

DELTA_CLUSTERING_WITH_ZORDER_BY

SQLSTATE: 42613

Der OPTIMIZE-Befehl für eine Delta-Tabelle mit Liquid Clustering kann ZORDER BY nicht angeben. Entfernen Sie ZORDER BY (<zOrderBy>).

DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS

SQLSTATE: 54000

CLUSTER BY für Liquid-Clustering unterstützt bis zu <numColumnsLimit> Clusteringspalten, aber die Tabelle enthält <actualNumColumns> Clusteringspalten. Entfernen Sie die überzähligen Clusteringspalten.

DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED

SQLSTATE: 42908

Es ist nicht zulässig, CLUSTER BY anzugeben, wenn das Schema nicht definiert ist. Definieren Sie das Schema für die Tabelle <tableName>.

DELTA_CLUSTER_BY_WITH_BUCKETING

SQLSTATE: 42613

Clustering und Bucketing können nicht gleichzeitig angegeben werden. Entfernen Sie CLUSTERED BY INTO BUCKETS/bucketBy, wenn Sie eine Delta-Tabelle mit Clustering erstellen möchten.

DELTA_CLUSTER_BY_WITH_PARTITIONED_BY

SQLSTATE: 42613

Clustering und Partitionierung können nicht gleichzeitig angegeben werden. Entfernen Sie PARTITIONED BY/partitionBy/partitionedBy, wenn Sie eine Delta-Tabelle mit Clustering erstellen möchten.

DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN

SQLSTATE: 0AKDC

Das Überspringen von Daten wird für die Partitionsspalte <column> nicht unterstützt.

DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE

SQLSTATE: 0AKDC

Das Überspringen von Daten wird für die Spalte <column> mit Typ <type> nicht unterstützt.

DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET

SQLSTATE: 42703

Die Eigenschaft „maximale Spalten-ID“ (<prop>) wird nicht für eine Tabelle festgelegt, die für die Spaltenzuordnung aktiviert ist.

DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY

SQLSTATE: 42703

Die Eigenschaft „maximale Spalten-ID“ (<prop>) für eine Tabelle mit aktivierter Spaltenzuordnung ist <tableMax>, was nicht kleiner als die maximale Spalten-ID für alle Felder (<fieldMax>) sein darf.

DELTA_COLUMN_NOT_FOUND

SQLSTATE: 42703

Die Spalte <columnName> konnte mit der Angabe [<columnList>] nicht gefunden werden

DELTA_COLUMN_NOT_FOUND_IN_MERGE

SQLSTATE: 42703

Die Spalte „<targetCol>“ der Zieltabelle konnte aus den INSERT-Spalten <colNames> nicht gefunden werden. Die INSERT-Klausel muss einen Wert für alle Spalten der Zieltabelle angeben.

DELTA_COLUMN_NOT_FOUND_IN_SCHEMA

SQLSTATE: 42703

Die Spalte <columnName>konnte nicht gefunden werden in:

<tableSchema>

DELTA_COLUMN_PATH_NOT_NESTED

SQLSTATE: 42704

Es wurde erwartet, dass <columnPath> ein geschachtelten Datentyp sei, gefunden wurde jedoch <other>. Es wurde nach dem

Index von <column> in einem geschachtelten Feld gesucht

DELTA_COLUMN_STRUCT_TYPE_MISMATCH

SQLSTATE: 2200G

Strukturspalte <source> kann nicht in ein <targetType>-Feld <targetField> in <targetTable> eingefügt werden.

DELTA_COMPACTION_VALIDATION_FAILED

SQLSTATE: 22000

Die Validierung der Komprimierung des Pfads <compactedPath> für <newPath> ist fehlgeschlagen: Bitte reichen Sie einen Fehlerbericht ein.

DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE

SQLSTATE: 22005

Geschachtelter NullType in Spalte <columName> vom Typ <dataType> gefunden. Bei einem Delta wird das Schreiben von NullType in komplexen Typen nicht unterstützt.

DELTA_CONFLICT_SET_COLUMN

SQLSTATE: 42701

Es besteht ein Konflikt zwischen diesen SET-Spalten: <columnList>.

DELTA_CONSTRAINT_ALREADY_EXISTS

SQLSTATE: 42710

Die Einschränkung „<constraintName>“ ist bereits vorhanden. Löschen Sie zunächst die alte Einschränkung.

Alte Einschränkung:

<oldConstraint>

DELTA_CONSTRAINT_DOES_NOT_EXIST

SQLSTATE: 42704

Eine nicht vorhandene Einschränkung <constraintName> kann nicht aus der Tabelle <tableName> entfernt werden. Um das Auslösen eines Fehlers zu vermeiden, geben Sie den Parameter IF EXISTS an oder legen die SQL-Sitzungskonfiguration <config> auf <confValue> fest.

DELTA_CONVERSION_NO_PARTITION_FOUND

SQLSTATE: 42KD6

Es wurden keine Partitionsinformationen im Katalog für die Tabelle <tableName> gefunden. Haben Sie „MSCK REPAIR TABLE“ für Ihre Tabelle ausgeführt, um Partitionen zu ermitteln?

DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING

SQLSTATE: 0AKDC

Die Konfiguration „<config>“ kann nicht auf <mode> festgelegt werden, wenn CONVERT TO DELTA verwendet wird.

DELTA_CONVERT_NON_PARQUET_TABLE

SQLSTATE: 0AKDC

CONVERT TO DELTA unterstützt nur Parquet-Tabellen. Sie versuchen jedoch, eine <sourceName>-Quelle zu konvertieren: <tableId>

DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS

SQLSTATE: 22000

Die Zeilennachverfolgung kann nicht aktiviert werden, ohne Statistiken zu erfassen.

Wenn Sie die Zeilennachverfolgung aktivieren möchten, gehen Sie wie folgt vor:

  1. Aktivieren Sie die Statistikerfassung, indem Sie folgenden Befehl ausführen:

    SET <statisticsCollectionPropertyKey> = true

    1. Führen Sie CONVERT TO DELTA ohne die NO STATISTICS-Option aus.

Wenn Sie keine Statistiken erfassen möchten, deaktivieren Sie die Zeilennachverfolgung:

  1. Deaktivieren Sie die standardmäßige Aktivierung des Tabellenfeatures, indem Sie folgenden Befehl ausführen:

    RESET <rowTrackingTableFeatureDefaultKey>

    1. Deaktivieren Sie die Tabelleneigenschaft standardmäßig, indem Sie Folgendes ausführen:

      SET <rowTrackingDefaultPropertyKey> = false

DELTA_COPY_INTO_TARGET_FORMAT

SQLSTATE: 0AKDD

Das COPY INTO-Ziel muss eine Delta-Tabelle sein.

DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA

SQLSTATE: 42601

Sie versuchen, eine externe Tabelle <tableName>

mit Delta aus <path> zu erstellen, aber das Schema wird nicht angegeben, wenn der

Eingabepfad leer ist.

Weitere Informationen zu Delta finden Sie unter <docLink>

DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG

SQLSTATE: 42K03

Sie versuchen, eine externe Tabelle <tableName>

mit Delta aus %2$s zu erstellen, aber es gibt kein Transaktionsprotokoll in

%2$s/_delta_log. Überprüfen Sie den Upstreamauftrag, um sicherzustellen, dass er mithilfe des

Formats („Delta“) schreibt und dass der Pfad der Stamm der Tabelle ist.

Weitere Informationen zu Delta finden Sie unter <docLink>

DELTA_CREATE_TABLE_SCHEME_MISMATCH

SQLSTATE: 42KD7

Das angegebene Schema stimmt nicht mit dem vorhandenen Schema unter <path> überein.

== Angegeben ==

<specifiedSchema>

== Vorhanden ==

<existingSchema>

== Unterschiede ==

<schemaDifferences>

Wenn Sie das vorhandene Schema beibehalten möchten, können Sie das

Schema im CREATE TABLE-Befehl weglassen. Stellen Sie andernfalls sicher, dass

das Schema übereinstimmt.

DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED

SQLSTATE: 42000

Das <tableFeature>-Tabellenfeature kann nicht mit TBLPROPERTIES aktiviert werden. Verwenden Sie CREATE OR REPLACE TABLE CLUSTER BY, um eine Delta-Tabelle mit Clustering zu erstellen.

DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING

SQLSTATE: 42KD7

Die angegebenen Clusterspalten stimmen nicht mit den vorhandenen Clusterspalten bei <path> überein.

== Angegeben ==

<specifiedColumns>

== Vorhanden ==

<existingColumns>

DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING

SQLSTATE: 42KD7

Die angegebene Partitionierung stimmt nicht mit der vorhandenen Partitionierung unter <path> überein.

== Angegeben ==

<specifiedColumns>

== Vorhanden ==

<existingColumns>

DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY

SQLSTATE: 42KD7

Die angegebenen Eigenschaften stimmen nicht mit den vorhandenen Eigenschaften unter <path> überein.

== Angegeben ==

<specificiedProperties>

== Vorhanden ==

<existingProperties>

DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION

SQLSTATE: 42601

Die Tabelle („<tableId>“) kann nicht erstellt werden. Der zugeordnete Speichert („<tableLocation>“) ist nicht leer und auch nicht eine Delta-Tabelle.

DELTA_DATA_CHANGE_FALSE

SQLSTATE: 0AKDE

Tabellenmetadaten können nicht geändert werden, da die Option „dataChange“ auf „false“ festgelegt ist. Versuchter Vorgang: „<op>“.

DELTA_DELETED_PARQUET_FILE_NOT_FOUND

SQLSTATE: 42K03

Die Datei <filePath>, auf die im Transaktionsprotokoll verwiesen wird, kann nicht gefunden werden. Diese Parquet-Datei kann nach der Datenaufbewahrungsrichtlinie von Delta gelöscht werden.

Standarddauer für die Datenaufbewahrung von Delta: <logRetentionPeriod>. Änderungszeit der Parquet-Datei: <modificationTime>. Löschzeit der Parquet-Datei: <deletionTime>. Gelöscht in Delta-Version: <deletionVersion>.

DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS

SQLSTATE: 2D521

Es ist ungültig, Dateien mit Löschvektoren zu committen, denen die numRecords-Statistik fehlt.

DELTA_DOMAIN_METADATA_NOT_SUPPORTED

SQLSTATE: 0A000

DomainMetadata-Aktionen für Domänen <domainNames> erkannt, aber DomainMetadataTableFeature ist nicht aktiviert.

DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO

SQLSTATE: 42KD8

Index <columnIndex> zum Löschen einer Spalte ist kleiner als 0

DELTA_DUPLICATE_ACTIONS_FOUND

SQLSTATE: 2D521

Der Dateivorgang „<actionType>“ für den Pfad <path> wurde mehrmals angegeben.

Dies steht in Konflikt mit <conflictingPath>.

Es ist ungültig, wenn mehrere Dateivorgänge mit demselben Pfad in einem einzelnen Commit vorhanden sind.

DELTA_DUPLICATE_COLUMNS_FOUND

SQLSTATE: 42711

Es wurden doppelte Spalten <coltype> gefunden: <duplicateCols>

DELTA_DUPLICATE_COLUMNS_ON_INSERT

SQLSTATE: 42701

In der INSERT-Klausel sind doppelte Spaltennamen vorhanden.

DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE

SQLSTATE: 42701

<message>

Entfernen Sie doppelte Spalten, bevor Sie Ihre Tabelle aktualisieren.

DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS

SQLSTATE: 42701

Doppelte Spalten für das Überspringen von Daten gefunden: <columns>.

DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR

SQLSTATE: 42601

Interner Fehler: Zwei DomainMetadata-Aktionen innerhalb derselben Transaktion haben dieselbe Domäne <domainName>.

DELTA_DV_HISTOGRAM_DESERIALIZATON

SQLSTATE: 22000

Das Histogramm für die Anzahl gelöschter Datensätze konnte während der Überprüfung der Tabellenintegrität nicht deserialisiert werden.

DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED

SQLSTATE: 0A000

Der Überschreibungsmodus für dynamische Partitionen wird durch Sitzungskonfigurations- oder Schreiboptionen angegeben, aber von spark.databricks.delta.dynamicPartitionOverwrite.enabled=false deaktiviert.

DELTA_EMPTY_DATA

SQLSTATE: 428GU

Die Daten, die beim Erstellen der Delta-Tabelle verwendet werden, weisen keine Spalten auf.

DELTA_EMPTY_DIRECTORY

SQLSTATE: 42K03

Im Verzeichnis <directory> wurde keine Datei gefunden.

DELTA_EXCEED_CHAR_VARCHAR_LIMIT

SQLSTATE: 22001

Die Einschränkung für die Länge der Typen char/varchar wurde überschritten. Fehlerhafte Prüfung: <expr>.

DELTA_FAILED_CAST_PARTITION_VALUE

SQLSTATE: 22018

Fehler beim Umwandeln des Partitionswerts <value> in <dataType>

DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS

SQLSTATE: 42703

<newAttributeName> konnte unter den vorhandenen Zielausgabe <targetOutputColumns> nicht gefunden werden

DELTA_FAILED_INFER_SCHEMA

SQLSTATE: 42KD9

Fehler beim Ableiten des Schemas aus der angegebenen Dateiliste.

DELTA_FAILED_MERGE_SCHEMA_FILE

SQLSTATE: 42KDA

Fehler beim Zusammenführen des Schemas der Datei <file>:

<schema>

SQLSTATE: KD001

Die Fußzeile der Datei <currentFile> konnte nicht gelesen werden

DELTA_FAILED_RECOGNIZE_PREDICATE

SQLSTATE: 42601

Das Prädikat „<predicate>“ wird nicht erkannt

DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION

SQLSTATE: KD002

Es wurde ein vollständiger Scan der letzten Version der Delta-Quelle erwartet, aber es wurde eine historischer Scan der Version <historicalVersion> gefunden

DELTA_FAILED_TO_MERGE_FIELDS

SQLSTATE: 22005

Fehler beim Zusammenführen der Felder „<currentField>“ und „<updateField>“.

DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH

SQLSTATE: 0AKDE

Diese Tabelle kann nicht ausgeführt werden, da die folgenden Tabellenfeatures in Metadaten aktiviert, aber nicht im Protokoll aufgeführt sind: <features>.

DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT

SQLSTATE: 0AKDE

Ihr Tabellenschema erfordert die manuelle Aktivierung der folgenden Tabellenfeatures: <unsupportedFeatures>.

Führen Sie hierzu den folgenden Befehl für jedes der oben aufgeführten Features aus:

ALTER TABLE table_name SET TBLPROPERTIES ('delta.feature.feature_name' = 'supported')

Ersetzen Sie „table_name“ und „feature_name“ durch reale Werte.

Aktuell unterstützte(s) Feature(s): <supportedFeatures>.

DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL

SQLSTATE: 0AKDE

Das Feature kann nicht gelöscht werden, weil die Tabelle durch eine gleichzeitige Transaktion geändert wurde.

Wiederholen Sie den Vorgang.

<concurrentCommit>

DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT

SQLSTATE: 0AKDE

<feature> kann aus dieser Tabelle nicht gelöscht werden, weil dieses Feature derzeit nicht im Protokoll der Tabelle vorhanden ist.

DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST

SQLSTATE: 0AKDE

<feature> kann nicht gelöscht werden, weil das Delta-Protokoll Verlaufsversionen enthält, die das Feature verwenden.

Warten Sie, bis der Aufbewahrungszeitraum für den Verlauf (<logRetentionPeriodKey>=<logRetentionPeriod>)

seit der letzten Aktivierung des Features abgelaufen ist.

Alternativ können Sie warten, bis der Aufbewahrungszeitraum für TRUNCATE HISTORY abläuft (<truncateHistoryLogRetentionPeriod>)

und führen daraufhin Folgendes aus:

ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY

DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED

SQLSTATE: 0AKDE

Die Verlaufskürzung ist nur für Leserfeatures relevant.

DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE

SQLSTATE: 0AKDE

<feature> kann nicht gelöscht werden, weil das Entfernen dieses Features nicht unterstützt wird.

Wenden Sie sich an den Databricks-Support.

DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE

SQLSTATE: 0AKDE

<feature> kann nicht gelöscht werden, weil dieses Feature von dieser Databricks-Version nicht unterstützt wird.

Erwägen Sie die Verwendung von Databricks mit einer höheren Version.

DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD

SQLSTATE: 0AKDE

Das Löschen von <feature> war teilweise erfolgreich.

Das Feature wird in der aktuellen Version der Tabelle nicht mehr verwendet. Das Feature ist allerdings

in historischen Versionen der Tabelle noch vorhanden. Das Tabellenfeature kann erst

aus dem Tabellenprotokoll gelöscht werden, nachdem diese Verlaufsversionen abgelaufen sind.

Um das Tabellenfeature aus dem Protokoll zu löschen, warten Sie, bis die Verlaufsversionen

ablaufen, und wiederholen Sie dann diesen Befehl. Der Aufbewahrungszeitraum für Verlaufsversionen ist

derzeit als <logRetentionPeriodKey>=<logRetentionPeriod> konfiguriert.

Alternativ können Sie warten, bis der Aufbewahrungszeitraum für TRUNCATE HISTORY abläuft (<truncateHistoryLogRetentionPeriod>)

und führen daraufhin Folgendes aus:

ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY

DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION

SQLSTATE: 0AKDE

Das Tabellenfeature <feature> kann nicht aktiviert werden, da es eine höhere Leserprotokollversion (aktuell <current>) erfordert. Führen Sie ein Upgrade der Leserprotokollversion der Tabelle auf <required> oder auf eine Version durch, welche die Lesertabellenfeatures unterstützt. Weitere Informationen zu Tabellenprotokollversionen finden Sie unter <docLink>.

DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION

SQLSTATE: 0AKDE

Das Tabellenfeature <feature> kann nicht aktiviert werden, da es eine höhere Schreiberprotokollversion (aktuell <current>) erfordert. Führen Sie ein Upgrade der Schreiberprotokollversion der Tabelle auf <required> oder auf eine Version durch, die Schreibertabellenfeatures unterstützt. Weitere Informationen zu Tabellenprotokollversionen finden Sie unter <docLink>.

DELTA_FILE_ALREADY_EXISTS

SQLSTATE: 42K04

Es ist bereits ein Dateipfad <path> vorhanden

DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT

SQLSTATE: 42613

Dateiliste und Musterzeichenfolge können nicht zusammen angegeben werden.

DELTA_FILE_NOT_FOUND

SQLSTATE: 42K03

Dateipfad <path>

DELTA_FILE_NOT_FOUND_DETAILED

SQLSTATE: 42K03

Die Datei <filePath>, auf die im Transaktionsprotokoll verwiesen wird, kann nicht gefunden werden. Dies tritt auf, wenn Daten manuell aus dem Dateisystem gelöscht wurden, anstatt mithilfe der DELETE-Anweisung der Tabelle. Weitere Informationen finden Sie unter <faqPath>.

DELTA_FILE_OR_DIR_NOT_FOUND

SQLSTATE: 42K03

Keine solche Datei oder kein solches Verzeichnis: <path>

DELTA_FILE_TO_OVERWRITE_NOT_FOUND

SQLSTATE: 42K03

Die neu zu schreibende Datei (<path>) wurde nicht in den Kandidatendateien gefunden:

<pathList>

DELTA_FOUND_MAP_TYPE_COLUMN

SQLSTATE: KD003

Eine MapType-Spalte wurde gefunden. Wenn Sie auf den Schlüssel oder Wert einer MapType-Spalte zugreifen möchten, geben Sie

eine der folgenden Möglichkeiten an:

<key> oder

<value>

gefolgt von dem Namen der Spalte (nur wenn diese Spalte ein STRUCT-Typ ist).

Beispiel: mymap.key.mykey

Wenn es sich bei der Spalte um einen einfachen Typ handelt, ist mymap.key oder mymap.value ausreichend.

DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH

SQLSTATE: 42K09

Die Spalte <columnName> ist eine generierte Spalte oder eine Spalte, die von einer generierten Spalte verwendet wird. Der Datentyp ist <columnType>. Der Datentyp <dataType> wird nicht akzeptiert

DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH

SQLSTATE: 42K09

Der Ausdruckstyp der generierten Spalte <columnName> lautet <expressionType>, der Spaltentyp ist jedoch <columnType>

DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH

SQLSTATE: 42K09

Die Spalte <currentName> ist eine generierte Spalte oder eine Spalte, die von einer generierten Spalte verwendet wird. Der Datentyp lautet <currentDataType> und kann nicht in den Datentyp <updateDataType> konvertiert werden

DELTA_ICEBERG_COMPAT_VIOLATION

SQLSTATE: KD00E

Bei der Validierung von IcebergCompatV<version> ist ein Fehler aufgetreten.

Weitere Details finden Sie unter DELTA_ICEBERG_COMPAT_VIOLATION.

DELTA_ILLEGAL_OPTION

SQLSTATE: 42616

Ungültiger Wert „<input>“ für die Option „<name>“, <explain>

DELTA_ILLEGAL_USAGE

SQLSTATE: 42601

Die Verwendung von <option> ist nicht zulässig, wenn für eine Delta-Tabelle <operation> ausgeführt wird.

DELTA_INCONSISTENT_BUCKET_SPEC

SQLSTATE: 42000

BucketSpec in Delta-Buckettabelle stimmt nicht mit BucketSpec aus den Metadaten überein. Erwartet: <expected>. Aktuell: <actual>.

DELTA_INCONSISTENT_LOGSTORE_CONFS

SQLSTATE: F0000

(<setKeys>) kann nicht auf unterschiedliche Werte festgelegt werden. Legen Sie nur einen dieser Werte fest, oder legen Sie sie auf denselben Wert fest.

DELTA_INCORRECT_ARRAY_ACCESS

SQLSTATE: KD003

Falscher Zugriff auf einen ArrayType. Verwenden Sie die Position „arrayname.element.elementname“ für das

Hinzufügen in einem Array.

DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME

SQLSTATE: KD003

Ein ArrayType wurde gefunden. Wenn Sie auf Elemente eines ArrayType zuzugreifen möchten, geben Sie

<rightName>

anstelle von <wrongName> an

DELTA_INCORRECT_GET_CONF

SQLSTATE: 42000

Verwenden Sie getConf() anstelle von `conf.getConf().

DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION

SQLSTATE: 0AKDC

Dieser Fehler tritt in der Regel auf, wenn die LogStore-Standardimplementierung,

HDFSLogStore, verwendet wird, um in eine Delta-Tabelle in einem Nicht-HDFS-Speichersystem zu schreiben.

Um die transaktionsrelevanten ACID-Garantien für Tabellenupdates zu erhalten, müssen Sie die

richtige Implementierung von LogStore für Ihr Speichersystem verwenden.

Details hierzu finden Sie unter <docLink>.

DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT

SQLSTATE: 42KD8

Der Index <position>zum Ablegen der Spalte ist gleich oder größer als die Strukturlänge: <length>

DELTA_INDEX_LARGER_THAN_STRUCT

SQLSTATE: 42KD8

Der Index <index> zum Hinzufügen der Spalte <columnName> ist größer als die Strukturlänge: <length>

DELTA_INSERT_COLUMN_ARITY_MISMATCH

SQLSTATE: 42802

Schreiben in „<tableName>“, <columnName> nicht möglich. Die Zieltabelle hat <numColumns> Spalte(n), aber die eingefügten Daten umfassen <insertColumns> Spalte(n)

DELTA_INSERT_COLUMN_MISMATCH

SQLSTATE: 42802

Die Spalte <columnName> ist in INSERT nicht angegeben

DELTA_INVALID_AUTO_COMPACT_TYPE

SQLSTATE: 22023

Ungültiger automatisch komprimierter Typ: <value>. Zulässige Werte sind: <allowed>.

DELTA_INVALID_BUCKET_COUNT

SQLSTATE: 22023

Ungültige Bucketanzahl: <invalidBucketCount>. Die Bucketanzahl sollte eine positive Zahl, eine Potenz von 2 und mindestens 8 sein. Sie können stattdessen <validBucketCount> verwenden.

DELTA_INVALID_BUCKET_INDEX

SQLSTATE: 22023

Die Bucketspalte in den Partitionsspalten kann nicht gefunden werden.

DELTA_INVALID_CALENDAR_INTERVAL_EMPTY

SQLSTATE: 2200P

Das Intervall kann nicht NULL oder leer sein.

DELTA_INVALID_CDC_RANGE

SQLSTATE: 22003

Der CDC-Bereich von Anfang <start> bis Ende <end> war ungültig. Das Ende kann nicht vor dem Anfang liegen.

DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME

SQLSTATE: 42K05

Der Attributname „<columnName>“ enthält ungültige Zeichen zwischen ” ,;{}()\n\t=”. Verwenden Sie zum Umbenennen einen Alias.

DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES

SQLSTATE: 42K05

Spaltennamen Ihres Schemas enthalten ungültige Zeichen ( ,;{}()nt=).

Ungültige Spaltennamen: <invalidColumnNames>.

Verwenden Sie andere Zeichen, und versuchen Sie es noch einmal.

DELTA_INVALID_CLONE_PATH

SQLSTATE: 22KD1

Der Zielspeicherort für CLONE muss ein absoluter Pfad oder ein Tabellenname sein. Verwenden Sie einen

absoluten Pfad anstelle von <path>.

DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING

SQLSTATE: 42K05

Spaltennamen Ihres Schemas enthalten ungültige Zeichen ( ,;{}()nt=).

Ungültige Spaltennamen: <invalidColumnNames>.

Die Spaltenzuordnung kann nicht entfernt werden, wenn in den Spaltennamen ungültige Zeichen vorhanden sind.

Benennen Sie die Spalten um, um die ungültigen Zeichen zu entfernen, und führen Sie diesen Befehl erneut aus.

DELTA_INVALID_FORMAT

SQLSTATE: 22000

Inkompatibles Format erkannt.

Ein Transaktionsprotokoll für Delta wurde unter <deltaRootPath>/_delta_log``gefunden,

aber Sie versuchen <operation><path> mithilfe von format(“<format>”). Sie müssen

„format(“delta”)“ beim Lesen und Schreiben in eine Delta-Tabelle verwenden.

Weitere Informationen zu Delta finden Sie unter <docLink>

DELTA_INVALID_GENERATED_COLUMN_REFERENCES

SQLSTATE: 42621

Eine generierte Spalte kann keine nicht vorhandene Spalte oder eine andere generierte Spalte verwenden.

DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS

SQLSTATE: 42616

Ungültige Optionen für idempotente Dataframe-Schreibvorgänge: <reason>

DELTA_INVALID_INTERVAL

SQLSTATE: 22006

<interval> Ist kein gültiges INTERVALL.

DELTA_INVALID_ISOLATION_LEVEL

SQLSTATE: 25000

Ungültige Isolationsstufe „<isolationLevel>

DELTA_INVALID_LOGSTORE_CONF

SQLSTATE: F0000

(<classConfig>) und (<schemeConfig>) können nicht gleichzeitig festgelegt werden. Legen Sie nur eine Gruppe davon fest.

DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA

SQLSTATE: 42000

Sie versuchen, eine verwaltete Tabelle <tableName>

mit Delta zu erstellen, aber das Schema wurde nicht angegeben.

Weitere Informationen zu Delta finden Sie unter <docLink>

DELTA_INVALID_PARTITION_COLUMN

SQLSTATE: 42996

<columnName> ist keine gültige Partitionsspalte in der Tabelle <tableName>.

DELTA_INVALID_PARTITION_COLUMN_NAME

SQLSTATE: 42996

Partitionsspalten mit ungültigen Zeichen unter „ ,;{}()nt=“ gefunden. Ändern Sie den Namen in Ihre Partitionsspalten. Diese Überprüfung kann durch Festlegen von „spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false)“ deaktiviert werden. Dies wird jedoch nicht empfohlen, da andere Features von Delta möglicherweise nicht ordnungsgemäß funktionieren.

DELTA_INVALID_PARTITION_COLUMN_TYPE

SQLSTATE: 42996

Die Verwendung der Spalte <name> des Typs <dataType> als Partitionsspalte wird nicht unterstützt.

DELTA_INVALID_PARTITION_PATH

SQLSTATE: 22KD1

Ein Partitionspfadfragment sollte das Format part1=foo/part2=bar aufweisen. Der Partitionspfad: <path>

DELTA_INVALID_PROTOCOL_DOWNGRADE

SQLSTATE: KD004

Die Protokollversion kann nicht von <oldProtocol> auf <newProtocol> herabgestuft werden

DELTA_INVALID_PROTOCOL_VERSION

SQLSTATE: KD004

Nicht unterstützte Delta-Protokollversion: Die Tabelle „<tableNameOrPath>“ erfordert die Reader-Version „<readerRequired>“ und die Writer-Version „<writerRequired>“, aber diese Version von Databricks unterstützt die Reader-Versionen „<supportedReaders>“ und die Schreiber-Versionen „<supportedWriters>“. Führen Sie ein Upgrade auf ein neueres Release durch.

DELTA_INVALID_TABLE_VALUE_FUNCTION

SQLSTATE: 22000

Die Funktion <function> ist eine nicht unterstützte Tabellenwertfunktion für CDC-Lesevorgänge.

DELTA_INVALID_TIMESTAMP_FORMAT

SQLSTATE: 22007

Der angegebene Zeitstempel <timestamp> stimmt nicht mit der erwarteten Syntax <format> überein.

DELTA_LOG_ALREADY_EXISTS

SQLSTATE: 42K04

Ein Delta-Protokoll ist bereits unter <path> vorhanden

DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE

SQLSTATE: 42K03

Wenn Sie sie nie gelöscht haben, ist es wahrscheinlich, dass Ihre Abfrage hinterherhinkt. Löschen Sie den Prüfpunkt, um von Grund auf neu zu starten. Um dies zu vermeiden, können Sie die Aufbewahrungsrichtlinie Ihrer Delta-Tabelle aktualisieren.

DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING

SQLSTATE: 22000

Materialisierter Spaltenname für <rowTrackingColumn> fehlt für <tableName>.

DELTA_MAX_ARRAY_SIZE_EXCEEDED

SQLSTATE: 42000

Verwenden Sie einen Grenzwert, der kleiner als „Int.MaxValue – 8“ ist.

DELTA_MAX_COMMIT_RETRIES_EXCEEDED

SQLSTATE: 40000

Dieser Commit wurde mit einem Fehler beendet, da er <numAttempts> Mal ohne Erfolg wiederholt wurde.

Dies kann dadurch verursacht werden, dass für die Delta-Tabelle kontinuierlich viele gleichzeitige

Commits ausgeführt werden.

Commit gestartet bei Version <startVersion>

Commit mit Fehler abgebrochen bei Version <failVersion>

Anzahl der Aktionen, die einen Commit versucht haben: <numActions>

Gesamtzeit für den Versuch dieses Commits: <timeSpent> ms

DELTA_MAX_LIST_FILE_EXCEEDED

SQLSTATE: 42000

Die Dateiliste darf höchstens <maxFileListSize> Einträge haben, hatte aber <numFiles>.

DELTA_MERGE_INCOMPATIBLE_DATATYPE

SQLSTATE: 42K09

Fehler beim Zusammenführen der inkompatiblen Datentypen <currentDataType> und <updateDataType>

DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE

SQLSTATE: 42806

Fehler beim Zusammenführen von Dezimaltypen mit inkompatiblen <decimalRanges>

DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY

SQLSTATE: 25000

Die Quelle der MERGE-Anweisung materialisiert beizubehalten ist wiederholt fehlgeschlagen.

DELTA_MERGE_MISSING_WHEN

SQLSTATE: 42601

Es muss mindestens eine WHEN-Klausel in einer MERGE-Anweisung vorhanden sein.

DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT

SQLSTATE: 42601

Aufgelöste Attribute <missingAttributes> fehlen in <input> im <merge>-Operator.

DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY

SQLSTATE: 22005

Unerwarteter Zuweisungsschlüssel: <unexpectedKeyClass> - <unexpectedKeyObject>

DELTA_MERGE_UNRESOLVED_EXPRESSION

SQLSTATE: 42601

<sqlExpr> kann in <clause> mit <cols> nicht aufgelöst werden.

DELTA_MISSING_CHANGE_DATA

SQLSTATE: KD002

Fehler beim Abrufen von Änderungsdaten für den Bereich [<startVersion> , <endVersion>], da Änderungsdaten

für Version [<version>] nicht aufgezeichnet wurden. Wenn Sie den Änderungsdatenfeed in dieser Tabelle aktiviert haben,

verwenden Sie DESCRIBE HISTORY, um den Zeitpunkt der ersten Aktivierung zu ermitteln.

Verwenden Sie andernfalls zum Starten der Aufzeichnung von Änderungsdaten „ALTER TABLE table_name SET TBLPROPERTIES

(<key>=true)`.

DELTA_MISSING_COLUMN

SQLSTATE: 42703

<columnName> kann in den Tabellenspalten <columnList> nicht gefunden werden

DELTA_MISSING_DELTA_TABLE

SQLSTATE: 42P01

<tableName> ist keine Delta-Tabelle.

DELTA_MISSING_DELTA_TABLE_COPY_INTO

SQLSTATE: 42P01

Die Tabelle ist nicht vorhanden. Erstellen Sie zunächst eine leere Delta-Tabelle mithilfe von CREATE TABLE <tableName>.

DELTA_MISSING_ICEBERG_CLASS

SQLSTATE: 56038

Die Iceberg-Klasse wurde nicht gefunden. Stellen Sie sicher, dass Delta Iceberg-Support installiert ist.

Weitere Details finden Sie unter <docLink>.

DELTA_MISSING_NOT_NULL_COLUMN_VALUE

SQLSTATE: 23502

Die Spalte <columnName>, die eine NOT NULL-Einschränkung aufweist, fehlt in den Daten, die in die Tabelle geschrieben werden.

DELTA_MISSING_PARTITION_COLUMN

SQLSTATE: 42KD6

Die Partitionsspalte <columnName>wurde im Schema <columnList> nicht gefunden

DELTA_MISSING_PART_FILES

SQLSTATE: 42KD6

Es konnten nicht alle Teildateien der Prüfpunktversion gefunden werden: <version>

DELTA_MISSING_PROVIDER_FOR_CONVERT

SQLSTATE: 0AKDC

CONVERT TO DELTA unterstützt nur Parquet-Tabellen. Schreiben Sie Ihr Ziel als „parquet.<path>“ um, wenn es sich um ein Parquet-Verzeichnis handelt.

DELTA_MISSING_SET_COLUMN

SQLSTATE: 42703

SET-Spalte <columnName> wurde in den angegebenen Spalten nicht gefunden: <columnList>.

DELTA_MISSING_TRANSACTION_LOG

SQLSTATE: 42000

Inkompatibles Format erkannt.

Sie versuchen, <operation><path> mit Delta auszuführen, aber es ist kein

Transaktionsprotokoll vorhanden. Überprüfen Sie den Upstreamauftrag, um sicherzustellen, dass er

„format("delta")“ verwendet und dass Sie versuchen, %1$s auf den Basispfad der Tabelle anzuwenden.

Weitere Informationen zu Delta finden Sie unter <docLink>

DELTA_MODE_NOT_SUPPORTED

SQLSTATE: 0AKDC

Der angegebene Modus „<mode>“ wird nicht unterstützt. Unterstützte Modi sind: <supportedModes>

DELTA_MULTIPLE_CDC_BOUNDARY

SQLSTATE: 42614

Mehrere <startingOrEnding>-Argumente für CDC-Lesevorgang bereitgestellt. Bitte geben Sie entweder einen <startingOrEnding>Zeitstempel oder eine <startingOrEnding>Version an.

DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER

SQLSTATE: 42614

Es wurden mehrere Bloom-Filterindexkonfigurationen an den Befehl für Spalte <columnName> übergeben:

DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE

SQLSTATE: 21506

Die Zusammenführung konnte nicht durchgeführt werden, da mehrere Quellzeilen übereinstimmen und dieselbe

Zielreihe in der Delta-Tabelle auf möglicherweise widersprüchliche Weise zu ändern versuchten. Gemäß der SQL-Semantik von „MERGE“

kann das Ergebnis mehrdeutig sein, wenn mehrere Quellzeilen mit derselben Zielzeile übereinstimmen,

da unklar ist, welche Quellzeile zum Aktualisieren oder Löschen der übereinstimmenden

Zielreihe verwendet werden soll. Sie können die Quelltabelle vorverarbeiten, um die Möglichkeit

mehrerer Übereinstimmungen auszuschließen. Informationen zu den nächsten Schritten finden Sie im Abschnitt

<usageReference>

DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE

SQLSTATE: 42000

Die folgenden Spaltennamen sind nur für die interne Verwendung von Delta-Buckettabellen reserviert: <names>

DELTA_NESTED_FIELDS_NEED_RENAME

SQLSTATE: 42K05

Das Eingabeschema enthält geschachtelte Felder, die anders großgeschrieben sind als die Zieltabelle.

Sie müssen umbenannt werden, um den Verlust von Daten in diesen Feldern beim Schreiben in Delta zu vermeiden.

Felder:

<fields>.

Ursprüngliches Schema:

<schema>

DELTA_NESTED_NOT_NULL_CONSTRAINT

SQLSTATE: 0AKDC

Der <nestType>-Typ des Felds <parent> enthält eine NOT NULL-Einschränkung. Delta unterstützt keine NOT NULL-Einschränkungen, die in Arrays oder Zuordnungen geschachtelt sind. Legen Sie <configKey> = WAHR fest, um diesen Fehler zu unterdrücken und die angegebenen Einschränkungen im Hintergrund zu ignorieren.

Geparster <nestType>-Typ:

<nestedPrettyJson>

DELTA_NESTED_SUBQUERY_NOT_SUPPORTED

SQLSTATE: 0A000

Geschachtelte Unterabfragen werden in der <operation>-Bedingung nicht unterstützt.

DELTA_NEW_CHECK_CONSTRAINT_VIOLATION

SQLSTATE: 23512

<numRows> Zeilen in <tableName> verstoßen gegen die neue CHECK-Einschränkung (<checkConstraint>)

DELTA_NEW_NOT_NULL_VIOLATION

SQLSTATE: 23512

<numRows> Zeilen in <tableName> verstoßen gegen die neue NOT NULL-Einschränkung in <colName>

DELTA_NON_BOOLEAN_CHECK_CONSTRAINT

SQLSTATE: 42621

CHECK-Einschränkung „<name>“ (<expr>) sollte ein boolescher Ausdruck sein.

DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED

SQLSTATE: 0AKDC

Nicht deterministische Funktionen werden nicht unterstützt in der <operation><expression>

DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE: 42601

Wenn eine MERGE-Anweisung mehr als eine MATCHED-Klausel enthält, kann nur die letzte MATCHED-Klausel die Bedingung auslassen.

DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION

SQLSTATE: 42601

Wenn eine MERGE-Anweisung mehrere NOT MATCHED BY SOURCE-Klauseln enthält, kann nur die letzte NOT MATCHED BY SOURCE-Klausel die Bedingung auslassen.

DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE: 42601

Wenn eine MERGE-Anweisung mehrere NOT MATCHED-Klauseln enthält, kann nur die letzte NOT MATCHED-Klausel die Bedingung auslassen.

DELTA_NON_PARSABLE_TAG

SQLSTATE: 42601

Das Tag <tag> konnte nicht geparst werden.

Dateitags sind: <tagList>

DELTA_NON_PARTITION_COLUMN_ABSENT

SQLSTATE: KD005

In Delta geschriebene Daten müssen mindestens eine nicht partitionierte Spalte enthalten.<details>

DELTA_NON_PARTITION_COLUMN_REFERENCE

SQLSTATE: 42P10

Das Prädikat verweist auf die Nicht-Partitionsspalte „<columnName>“. Nur die Partitionsspalten dürfen verwiesen werden: [<columnList>]

DELTA_NON_PARTITION_COLUMN_SPECIFIED

SQLSTATE: 42P10

Nicht-Partitionierungsspalten <columnList> sind angegeben, wenn nur Partitionierungsspalten erwartet werden: <fragment>.

DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG

SQLSTATE: 42K05

Der Delta-Katalog erfordert einen einteiligen Namespace, aber <identifier> ist mehrteilig.

DELTA_NOT_A_DATABRICKS_DELTA_TABLE

SQLSTATE: 42000

<table> ist keine Delta-Tabelle. Löschen Sie diese Tabelle zunächst, wenn Sie sie mit Databricks Delta erstellen möchten.

DELTA_NOT_A_DELTA_TABLE

SQLSTATE: 0AKDD

<tableName> ist keine Delta-Tabelle. Entfernen Sie diese Tabelle zunächst, wenn Sie sie mit Delta Lake neu erstellen möchten.

DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT

SQLSTATE: 42K09

Eine Spalte, die keine Nullwerte zulässt, wurde in der Struktur gefunden: <struct>

DELTA_NOT_NULL_CONSTRAINT_VIOLATED

SQLSTATE: 23502

NOT NULL-Einschränkung verletzt für Spalte: <columnName>.

DELTA_NOT_NULL_NESTED_FIELD

SQLSTATE: 0A000

Ein geschachteltes Feld, das keine Nullwerte zulässt, kann nicht zu einem übergeordneten Element hinzugefügt werden, dass Nullwerte zulässt. Legen Sie die NULL-Zulässigkeit der übergeordneten Spalte entsprechend fest.

DELTA_NO_COMMITS_FOUND

SQLSTATE: KD006

Keine Commits gefunden bei <logPath>

DELTA_NO_RECREATABLE_HISTORY_FOUND

SQLSTATE: KD006

Keine wiederherstellbaren Commits gefunden bei <logPath>

DELTA_NO_RELATION_TABLE

SQLSTATE: 42P01

Tabelle <tableIdent> konnte nicht gefunden werden

DELTA_NO_START_FOR_CDC_READ

SQLSTATE: 42601

Weder „startingVersion“ noch „startTimestamp“ für CDC-Lesezugriff bereitgestellt.

DELTA_NULL_SCHEMA_IN_STREAMING_WRITE

SQLSTATE: 42P18

Delta akzeptiert keine NullTypes im Schema für Streamingschreibvorgänge.

DELTA_ONEOF_IN_TIMETRAVEL

SQLSTATE: 42601

Geben Sie entweder „timestampAsOf“ oder „versionAsOf“ für Zeitreisen an.

DELTA_ONLY_OPERATION

SQLSTATE: 0AKDD

<operation> wird nur für Delta-Tabellen unterstützt.

DELTA_OPERATION_MISSING_PATH

SQLSTATE: 42601

Bitte geben Sie den Pfad- oder Tabellenbezeichner für <operation> an.

DELTA_OPERATION_NOT_ALLOWED

SQLSTATE: 0AKDC

Vorgang nicht zulässig: <operation> wird bei Delta-Tabellen nicht unterstützt.

DELTA_OPERATION_NOT_ALLOWED_DETAIL

SQLSTATE: 0AKDC

Vorgang nicht zulässig: <operation> wird bei Delta-Tabellen nicht unterstützt: <tableName>

DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED

SQLSTATE: 0A000

Der <operation>-Befehl in einer temporären Ansicht, die auf eine Delta-Tabelle mit generierten Spalten verweist, wird nicht unterstützt. Bitte führen Sie den <operation>-Befehl direkt in der Delta-Tabelle aus

DELTA_OVERWRITE_MUST_BE_TRUE

SQLSTATE: 42000

Die Kopieroption „overwriteSchema“ kann nicht angegeben werden, ohne OVERWRITE = ‘true’ festzulegen.

DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE: 42613

„overwriteSchema“ kann nicht im dynamischen Partitionsüberschreibungsmodus verwendet werden.

DELTA_PARTITION_COLUMN_CAST_FAILED

SQLSTATE: 22525

Fehler beim Umwandeln des Werts <value> in <dataType> für die Partitionsspalte <columnName>

DELTA_PARTITION_COLUMN_NOT_FOUND

SQLSTATE: 42703

Die Partitionsspalte <columnName> wurde im Schema [<schemaMap>] nicht gefunden

DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES

SQLSTATE: 42613

Partitionsschema kann beim Konvertieren von Iceberg-Tabellen nicht angegeben werden. Es wird automatisch abgeleitet.

DELTA_PATH_DOES_NOT_EXIST

SQLSTATE: 42K03

<path> ist nicht vorhanden oder ist keine Delta-Tabelle.

DELTA_PATH_EXISTS

SQLSTATE: 42K04

Es kann nicht in den bereits vorhandenen Pfad <path> geschrieben werden, ohne OVERWRITE = ‘true’ festzulegen.

DELTA_POST_COMMIT_HOOK_FAILED

SQLSTATE: 2DKD0

Das Committen in der Delta-Tabellenversion <version> war erfolgreich, beim Ausführen des Hooks nach dem Commit ist jedoch ein Fehler aufgetreten <name><message>

DELTA_PROTOCOL_PROPERTY_NOT_INT

SQLSTATE: 42K06

Die Protokolleigenschaft <key> muss eine ganze Zahl sein. Es wurde <value> gefunden

DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE

SQLSTATE: KD004

Nur die Readerprotokollversion kann nicht aktualisiert werden, um Tabellenfeatures zu verwenden. Die Schreiberprotokollversion muss mindestens <writerVersion> sein, um fortfahren zu können. Weitere Informationen zu Tabellenprotokollversionen finden Sie unter <docLink>.

DELTA_READ_TABLE_WITHOUT_COLUMNS

SQLSTATE: 428GU

Sie versuchen, eine Delta-Tabelle <tableName> zu lesen, die keine Spalten enthält.

Schreiben Sie einige neue Daten mit der Option mergeSchema = true, um die Tabelle lesen zu können.

DELTA_REGEX_OPT_SYNTAX_ERROR

SQLSTATE: 2201B

Überprüfen Sie Ihre Syntax für „<regExpOption>

DELTA_REPLACE_WHERE_IN_OVERWRITE

SQLSTATE: 42613

Sie können „replaceWhere“ nicht in Verbindung mit einer Überschreibung durch einen Filter verwenden.

DELTA_REPLACE_WHERE_MISMATCH

SQLSTATE: 44000

Die geschriebenen Daten entsprechen nicht der Bedingung zum Überschreiben der partiellen Tabelle oder der Einschränkung „<replaceWhere>“.

<message>

DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE: 42613

Ein „replaceWhere“-Ausdruck und „partitionOverwriteMode’=’dynamic“ können nicht beide in den DataFrameWriter-Optionen festgelegt werden.

DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET

SQLSTATE: 42613

„replaceWhere“ kann nicht mit den Datenfiltern verwendet werden, wenn „dataChange“ auf „False“ festgelegt ist. Filter: <dataFilters>

DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS

SQLSTATE: 22000

Zeilen-IDs können ohne Zeilenanzahlstatistiken nicht zugewiesen werden.

Erfassen Sie Statistiken für die Tabelle, indem Sie den folgenden Code in einem Scala-Notebook ausführen, und wiederholen Sie den Vorgang:

import com.databricks.sql.transaction.tahoe.DeltaLog

import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection

import org.apache.spark.sql.catalyst.TableIdentifier

val log = DeltaLog.forTable(spark, TableIdentifier(table_name))

StatisticsCollection.recompute(spark, log)

DELTA_SCHEMA_CHANGED

SQLSTATE: KD007

Schemaänderung erkannt:

Streamingquellschema: <readSchema>

Datendateischema: <dataSchema>

Versuchen Sie, die Abfrage neu zu starten. Wenn sich dieses Problem über Abfrageneustarts hinweg wiederholt, ohne

dass es Fortschritte gibt, haben Sie eine inkompatible Schemaänderung vorgenommen und müssen ihre

Abfragen von neuem auf eines neuen Prüfpunktverzeichnisses starten.

DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS

SQLSTATE: KD007

Schemaänderung in Version <version> erkannt:

Streamingquellschema: <readSchema>

Datendateischema: <dataSchema>

Versuchen Sie, die Abfrage neu zu starten. Wenn sich dieses Problem über Abfrageneustarts hinweg wiederholt, ohne

dass es Fortschritte gibt, haben Sie eine inkompatible Schemaänderung vorgenommen und müssen ihre

Abfragen von neuem auf eines neuen Prüfpunktverzeichnisses starten. Wenn das Problem weiterhin besteht,

nachdem Sie in ein neues Prüfpunktverzeichnis wechseln, müssen Sie möglicherweise die vorhandene

Option für „startingVersion“ oder „startingTimestamp“ ändern, um ab einer neueren Version als

<version> mit einem neuen Prüfpunktverzeichnis zu beginnen.

DELTA_SCHEMA_CHANGED_WITH_VERSION

SQLSTATE: KD007

Schemaänderung in Version <version> erkannt:

Streamingquellschema: <readSchema>

Datendateischema: <dataSchema>

Versuchen Sie, die Abfrage neu zu starten. Wenn sich dieses Problem über Abfrageneustarts hinweg wiederholt, ohne

dass es Fortschritte gibt, haben Sie eine inkompatible Schemaänderung vorgenommen und müssen ihre

Abfragen von neuem auf eines neuen Prüfpunktverzeichnisses starten.

DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS

SQLSTATE: KD007

Das Schema Ihrer Delta-Tabelle hat sich auf inkompatible Weise geändert, seit Ihr DataFrame-

oder DeltaTable-Objekt erstellt wurde. Definieren Sie Ihr DataFrame- oder DeltaTable-Objekt neu.

Änderungen:

<schemaDiff> <legacyFlagMessage>

DELTA_SCHEMA_NOT_PROVIDED

SQLSTATE: 42908

Das Tabellenschema ist nicht angegeben. Geben Sie das Schema (Spaltendefinition) der Tabelle an, wenn Sie die REPLACE-Tabelle verwenden. Es wird keine AS SELECT-Abfrage bereitgestellt.

DELTA_SCHEMA_NOT_SET

SQLSTATE: KD008

Das Tabellenschema ist nicht festgelegt. Schreiben Sie Daten hinein, oder verwenden Sie CREATE TABLE, um das Schema festzulegen.

DELTA_SET_LOCATION_SCHEMA_MISMATCH

SQLSTATE: 42KD7

Das Schema des neuen Delta-Speicherorts unterscheidet sich vom aktuellen Tabellenschema.

Ursprüngliches Schema:

<original>

Zielschema:

<destination>

Wenn dies eine beabsichtigte Änderung ist, können Sie diese Überprüfung deaktivieren, indem Sie Folgendes ausführen:

%%sql set <config> = true

DELTA_SHALLOW_CLONE_FILE_NOT_FOUND

SQLSTATE: 42K03

Die Datei <filePath>, auf die im Transaktionsprotokoll verwiesen wird, kann nicht gefunden werden. Dies kann geschehen, wenn Daten manuell aus dem Dateisystem gelöscht wurden, anstatt mithilfe der DELETE-Anweisung der Tabelle. Diese Tabelle scheint ein flacher Klon zu sein. Wenn dies der Fall ist, kann dieser Fehler auftreten, wenn die ursprüngliche Tabelle, aus der diese Tabelle geklont wurde, eine Datei gelöscht hat, die der Klon immer noch verwendet. Wenn Klone unabhängig von der ursprünglichen Tabelle sein sollen, verwenden Sie stattdessen einen TIEFEN Klon.

DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED

SQLSTATE: 42704

Die Daten werden durch die Empfängereigenschaft <property> eingeschränkt, die nicht für den aktuellen Empfänger in der Sitzung gilt. Wenden Sie sich an den Datenanbieter, um das Problem zu beheben.

DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW

SQLSTATE: 42887

<operation> kann nicht in Delta-Sharing-Ansichten verwendet werden, die kontoübergreifend freigegeben sind.

DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN

SQLSTATE: 42P10

Nicht partitionierende Spalten <badCols> werden für SHOW PARTITIONS angegeben

DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE

SQLSTATE: 42809

SHOW PARTITIONS ist in einer nicht partitionierten Tabelle nicht zulässig: <tableName>

DELTA_SOURCE_IGNORE_DELETE

SQLSTATE: 0A000

Es wurden gelöschte Daten (z. B. <removedFile>) in der Streamingquelle der Version <version> erkannt. Dies wird derzeit nicht unterstützt. Wenn Sie Löschungen ignorieren möchten, legen Sie die Option „ignoreDeletes“ auf „True“ fest. Die Quelltabelle finden Sie unter Pfad <dataPath>.

DELTA_SOURCE_TABLE_IGNORE_CHANGES

SQLSTATE: 0A000

Es wurde eine Datenaktualisierung (z. B. <file>) in der Quelltabelle der Version <version> erkannt. Dies wird derzeit nicht unterstützt. Wenn dies regelmäßig vorkommt und Sie Änderungen überspringen können, setzen Sie die Option „skipChangeCommits“ auf „true“. Wenn die Datenaktualisierung wiedergegeben werden soll, starten Sie diese Abfrage mit einem neuen Prüfpunktverzeichnis neu, oder aktualisieren Sie eine vollständige Aktualisierung, wenn Sie DLT verwenden. Wenn Sie diese Änderungen bearbeiten müssen, wechseln Sie bitte zu MVs. Die Quelltabelle finden Sie unter Pfad <dataPath>.

DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET

SQLSTATE: 42613

Geben Sie entweder „<version>“ oder „<timestamp>“ an

DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND

SQLSTATE: 42000

<statsType>-Statistik für Spalte in Parquet-Metadaten <columnPath> wurde nicht gefunden: .

DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION

SQLSTATE: KD002

Wir haben mindestens eine nicht additive Schemaänderung (<opType>) zwischen der Delta-Version <previousSchemaChangeVersion> und <currentSchemaChangeVersion> in der Delta-Streamingquelle erkannt.

Überprüfen Sie, ob Sie diese Schemaänderungen manuell an die Senkentabelle weitergeben möchten, bevor wir mit der Streamverarbeitung mithilfe des endgültigen Schemas unter <currentSchemaChangeVersion> fortfahren.

Nachdem Sie das Schema der Senkentabelle korrigiert oder entschieden haben, dass keine Korrektur erforderlich ist, können Sie die folgenden SQL-Konfigurationen (eine davon) festlegen, um die Blockierung der nicht additiven Schemaänderungen aufzuheben und die Streamverarbeitung fortzusetzen.

Um die Blockierung für diesen bestimmten Stream nur für diese Reihe von Schemaänderungen aufzuheben: legen Sie <allowCkptVerKey>` = `<allowCkptVerValue> fest.

Um die Blockierung für diesen bestimmten Stream aufzuheben: legen Sie <allowCkptKey>` = `<allowCkptValue> fest

Um die Blockierung für alle Streams aufzuheben: legen Sie <allowAllKey>` = `<allowAllValue> fest.

Alternativ können Sie, falls zutreffend, den <allowAllMode> durch <opSpecificMode> in der SQL-Konfiguration ersetzen, um die Blockierung des Streams nur für diesen Schemaänderungstyp aufzuheben.

DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT

SQLSTATE: KD002

Fehler beim Abrufen einer Delta-Protokollmomentaufnahme für die Startversion, als Schemaänderungen der Spaltenzuordnung überprüft wurden. Bitte wählen Sie eine andere Startversion aus, oder erzwingen Sie das Aktivieren des Streaminglesevorgangs auf eigene Gefahr, indem Sie „<config>“ auf „WAHR“ festlegen.

DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 42KD4

Streaminglesevorgänge werden für Tabellen mit leseinkompatiblen Schemaänderungen (z. B. Umbenennen, Löschen oder Datentypänderungen) nicht unterstützt.

Weitere Informationen und mögliche nächste Schritte zum Beheben dieses Problems finden Sie in der Dokumentation unter <docLink>

Leseschema: <readSchema>. Inkompatibles Datenschema: <incompatibleSchema>.

DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG

SQLSTATE: 42KD4

Streaminglesevorgänge werden für Tabellen mit leseinkompatiblen Schemaänderungen (z. B. Umbenennen, Löschen oder Datentypänderungen) nicht unterstützt.

Geben Sie eine „schemaTrackingLocation“ an, um die nicht-additive Schemaentwicklung für die Delta-Streamverarbeitung zu ermöglichen.

Weitere Informationen finden Sie unter <docLink>.

Leseschema: <readSchema>. Inkompatibles Datenschema: <incompatibleSchema>.

DELTA_STREAMING_METADATA_EVOLUTION

SQLSTATE: 22000

Das Schema, die Tabellenkonfiguration oder das Protokoll Ihrer Delta-Tabelle hat sich während des Streamings geändert.

Das Schema- oder Metadaten-Nachverfolgungsprotokoll wurde aktualisiert.

Starten Sie den Stream neu, um die Verarbeitung mithilfe der aktualisierten Metadaten fortzusetzen.

Aktualisiertes Schema: <schema>.

Aktualisierte Tabellenkonfigurationen: <config>.

Aktualisiertes Tabellenprotokoll: <protocol>.

DELTA_STREAMING_SCHEMA_EVOLUTION_UNSUPPORTED_ROW_FILTER_COLUMN_MASKS

SQLSTATE: 22000

Das Streaming aus der Quelltabelle <tableId> mit Schemanachverfolgung unterstützt keine Zeilenfilter oder Spaltenmasken.

Entfernen Sie die Zeilenfilter oder Spaltenmasken, oder deaktivieren Sie die Schemanachverfolgung.

DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT

SQLSTATE: 22000

Es wurde ein Konflikt mit dem Schemaspeicherort „<loc>“ beim Streaming aus der Tabelle oder der Tabelle unter „<table>“ entdeckt.

Ein anderer Stream verwendet möglicherweise denselben Schemaspeicherort, was nicht zulässig ist.

Bitte geben Sie einen neuen eindeutigen schemaTrackingLocation-Pfad oder streamingSourceTrackingId als Leseroption für einen der Streams aus dieser Tabelle an.

DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT

SQLSTATE: 22000

Der Schemaspeicherort „<schemaTrackingLocation>“ muss unter dem Prüfpunktspeicherort „<checkpointLocation>“ platziert werden.

DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED

SQLSTATE: 22000

Unvollständige Protokolldatei im Schemaprotokoll der Delta-Streamingquelle bei „<location>“.

Das Schemaprotokoll wurde möglicherweise beschädigt. Bitte wählen Sie einen neuen Schemaspeicherort aus.

DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID

SQLSTATE: 22000

Beim Lesen des Delta-Streams wurde eine inkompatible Delta-Tabellen-ID erkannt.

Persistente Tabellen-ID: <persistedId>, Tabellen-ID: <tableId>

Das Schemaprotokoll wurde möglicherweise wiederverwendet. Bitte wählen Sie einen neuen Schemaspeicherort aus.

DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA

SQLSTATE: 22000

Beim Lesen des Delta-Streams wurde ein inkompatibles Partitionsschema erkannt.

Persistentes Schema: <persistedSchema>, Delta-Partitionsschema: <partitionSchema>

Bitte wählen Sie einen neuen Schemaspeicherort aus, um das Schemaprotokoll neu zu initialisieren, wenn Sie das Partitionsschema der Tabelle kürzlich manuell geändert haben.

DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA

SQLSTATE: 22000

Wir konnten das Schemaprotokoll der Delta-Streamingquelle nicht initialisieren, weil

beim Bereitstellen eines Streamingbatches von der Tabellenversion <a> zu <b>eine inkompatible Schema- oder Protokolländerung erkannt wurde.

DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED

SQLSTATE: 22000

Fehler beim Parsen des Schemas aus dem Schemaprotokoll der Delta-Streamingquelle.

Das Schemaprotokoll wurde möglicherweise beschädigt. Bitte wählen Sie einen neuen Schemaspeicherort aus.

DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS

SQLSTATE: 42711

Change Data Capture konnte in der Tabelle nicht aktiviert werden. Die Tabelle enthält bereits

reservierte Spalten <columnList>, die

intern als Metadaten für den Änderungsdatenfeed der Tabelle verwendet werden. Um

den Änderungsdatenfeed in der Tabelle zu aktivieren, müssen Sie diese Spalten umbenennen/entfernen.

DELTA_TABLE_ALREADY_EXISTS

SQLSTATE: 42P07

Die Tabelle <tableName> ist bereits vorhanden.

DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF

SQLSTATE: 0AKDC

DeltaTable.forPath unterstützt derzeit nur Hadoop-Konfigurationsschlüssel ab <allowedPrefixes>, verwendet aber <unsupportedOptions>

DELTA_TABLE_ID_MISMATCH

SQLSTATE: KD007

Die Delta-Tabelle unter <tableLocation> wurde während der Verwendung der Tabelle durch diesen Befehl ersetzt.

Die Tabellen-ID lautete <oldId>, aber lautet jetzt <newId>.

Wiederholen Sie den aktuellen Befehl, um sicherzustellen, dass eine konsistente Ansicht der Tabelle gelesen wird.

DELTA_TABLE_LOCATION_MISMATCH

SQLSTATE: 42613

Der Speicherort der vorhandenen Tabelle <tableName> ist <existingTableLocation>. Er stimmt nicht mit dem angegebenen Speicherort <tableLocation> überein.

DELTA_TABLE_NOT_FOUND

SQLSTATE: 42P01

Die Delta-Tabelle <tableName> ist nicht vorhanden.

DELTA_TABLE_NOT_SUPPORTED_IN_OP

SQLSTATE: 42809

Tabelle wird in <operation> nicht unterstützt. Verwenden Sie stattdessen einen Pfad.

DELTA_TABLE_ONLY_OPERATION

SQLSTATE: 0AKDD

<tableName> ist keine Delta-Tabelle. <operation> wird nur für Delta-Tabellen unterstützt.

DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY

SQLSTATE: 428GU

Das endgültige Schema der Zieltabelle ist leer.

DELTA_TIMESTAMP_GREATER_THAN_COMMIT

SQLSTATE: 42816

Der bereitgestellte Zeitstempel (<providedTimestamp>) liegt nach der aktuellen Version, die verfügbar ist für diese

Tabelle (<tableName>). Bitte verwenden Sie einen Zeitstempel bis einschließlich <maximumTimestamp>.

DELTA_TIMESTAMP_INVALID

SQLSTATE: 42816

Der angegebene Zeitstempel (<expr>) kann nicht in einen gültigen Zeitstempel konvertiert werden.

DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE

SQLSTATE: 42604

<timeTravelKey> muss ein gültiger Anfangswert sein.

DELTA_TRUNCATED_TRANSACTION_LOG

SQLSTATE: 42K03

<path>: Der Zustand kann in der Version <version> nicht rekonstruiert werden, da das Transaktionsprotokoll aufgrund der manuellen Löschung oder der Protokollaufbewahrungsrichtlinie (<logRetentionKey>=<logRetention>) und der Prüfpunktaufbewahrungsrichtlinie (<checkpointRetentionKey>=<checkpointRetention>) abgeschnitten wurde

DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED

SQLSTATE: 0AKDC

Vorgang nicht zulässig: TRUNCATE TABLE unterstützt in Delta-Tabellen keine Partitionsprädikate. Verwenden Sie DELETE, um bestimmte Partitionen oder Zeilen zu löschen.

DELTA_UDF_IN_GENERATED_COLUMN

SQLSTATE: 42621

Es wurde <udfExpr> gefunden. Eine generierte Spalte kann keine benutzerdefinierte Funktion verwenden.

DELTA_UNEXPECTED_ACTION_EXPRESSION

SQLSTATE: 42601

Unerwarteter Aktionsausdruck <expression>.

DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME

SQLSTATE: KD009

Es werden die <expectedColsSize>-Partitionsspalten <expectedCols> erwarten, es wurden jedoch <parsedColsSize>-Partitionsspalten <parsedCols> beim Parsen des Dateinamens <path> gefunden

DELTA_UNEXPECTED_PARTIAL_SCAN

SQLSTATE: KD00A

Es wurde ein vollständiger Scan der Delta-Quellen erwartet, aber nur ein Teilscan gefunden. Pfad: <path>

DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME

SQLSTATE: KD009

Es wird die Partitionsspalte <expectedCol> erwartet, es wurde jedoch die Partitionsspalte <parsedCol> beim Parsen des Dateinamens <path> gefunden

DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER

SQLSTATE: KD009

CONVERT TO DELTA wurde mit einem Partitionsschema aufgerufen, das sich von dem aus dem Katalog abgeleiteten Partitionsschema unterscheidet. Vermeiden Sie es, das Schema anzugeben, sodass das Partitionsschema aus dem Katalog ausgewählt werden kann.

Katalogpartitionsschema:

<catalogPartitionSchema>

Bereitgestelltes Partitionsschema:

<userPartitionSchema>

DELTA_UNIFORM_NOT_SUPPORTED

SQLSTATE: 0AKDC

Das universelle Format wird nur für Unity Catalog-Tabellen unterstützt.

DELTA_UNIVERSAL_FORMAT_VIOLATION

SQLSTATE: KD00E

Bei der Überprüfung des universellen Formats (<format>) ist ein Fehler aufgetreten: <violation>

DELTA_UNKNOWN_CONFIGURATION

SQLSTATE: F0000

Eine unbekannte Konfiguration wurde angegeben: <config>

DELTA_UNKNOWN_PRIVILEGE

SQLSTATE: 42601

Unbekannte Berechtigung: <privilege>

DELTA_UNKNOWN_READ_LIMIT

SQLSTATE: 42601

Unbekanntes ReadLimit: <limit>

DELTA_UNRECOGNIZED_COLUMN_CHANGE

SQLSTATE: 42601

Nicht erkannte Spaltenänderung <otherClass>. Möglicherweise wird eine veraltete Delta Lake-Version ausgeführt.

DELTA_UNRECOGNIZED_INVARIANT

SQLSTATE: 56038

Nicht erkannte Invariante. Aktualisieren Sie Ihre Spark-Version.

DELTA_UNRECOGNIZED_LOGFILE

SQLSTATE: KD00B

Nicht erkannte Protokolldatei <fileName>

DELTA_UNSET_NON_EXISTENT_PROPERTY

SQLSTATE: 42616

Es wurde versucht, die nicht vorhandene Eigenschaft „<property>“ in der Tabelle <tableName> zu löschen

DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE

SQLSTATE: 0AKDC

<path> unterstützt das Hinzufügen von Dateien mit einem absoluten Pfad nicht

DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP

SQLSTATE: 0AKDC

ALTER TABLE CHANGE COLUMN wird für das Ändern der Spalte <fieldPath> von <oldField> nach <newField> nicht unterstützt

DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP

SQLSTATE: 0AKDC

Nicht unterstützter ALTER TABLE REPLACE COLUMNS-Vorgang. Grund: <details>

Fehler beim Ändern des Schemas von:

<oldSchema>

in:

<newSchema>

DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE

SQLSTATE: 0AKDC

Sie haben versucht, mit dem Vorgang REPLACE eine vorhandene Tabelle (<tableName>) mit CLONE zu ersetzen. Dieser Vorgang wird

Nicht unterstützt. Probieren Sie ein anderes Ziel für CLONE aus, oder löschen Sie die Tabelle am aktuellen Ziel.

DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE

SQLSTATE: 0AKDC

Das Ändern des Spaltenzuordnungsmodus von „<oldMode>“ in „<newMode>“ wird nicht unterstützt.

DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL

SQLSTATE: KD004

Ihre aktuelle Tabellenprotokollversion unterstützt nicht das Ändern von Spaltenzuordnungsmodi

mittels <config>.

Erforderliche Delta-Protokollversion für die Spaltenzuordnung:

<requiredVersion>

Aktuelle Delta-Protokollversion Ihrer Tabelle:

<currentVersion>

<advice>

DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE

SQLSTATE: 0AKDC

Schemaänderung erkannt:

Altes Schema:

<oldTableSchema>

Neues Schema:

<newTableSchema>

Schemaänderungen sind während der Änderung des Spaltenzuordnungsmodus nicht zulässig.

DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE

SQLSTATE: 0AKDC

Das Schreiben von Daten mit dem Spaltenzuordnungsmodus wird nicht unterstützt.

DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER

SQLSTATE: 0AKDC

Das Erstellen eines Bloomfilterindexes für eine Spalte vom Typ <dataType> wird nicht unterstützt: <columnName>

DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY

SQLSTATE: 0AKDC

Ein Kommentar kann nicht zu <fieldPath> hinzugefügt werden. Das Hinzufügen eines Kommentars zu einem Kartenschlüssel/Wert oder Arrayelement wird nicht unterstützt.

DELTA_UNSUPPORTED_DATA_TYPES

SQLSTATE: 0AKDC

Es wurden Spalten mit nicht unterstützten Datentypen gefunden: <dataTypeList>. Sie können „<config>“ auf FALSCH festlegen, um die Typüberprüfung zu deaktivieren. Wenn Sie diese Typüberprüfung deaktivieren, können Benutzer*innen nicht unterstützte Delta-Tabellen erstellen, die nur verwendet werden sollten, um Legacytabellen zu lesen oder zu schreiben.

DELTA_UNSUPPORTED_DEEP_CLONE

SQLSTATE: 0A000

Tiefe Klone werden für diese Delta-Version nicht unterstützt.

DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW

SQLSTATE: 42809

<view> ist eine Ansicht. DESCRIBE DETAIL wird nur für Tabellen unterstützt.

DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN

SQLSTATE: 0AKDC

Das Ablegen von Clusteringspalten (<columnList>) ist nicht zulässig.

DELTA_UNSUPPORTED_DROP_COLUMN

SQLSTATE: 0AKDC

DROP COLUMN wird für Ihre Delta-Tabelle nicht unterstützt. <advice>

DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE

SQLSTATE: 0AKDC

Geschachtelte Spalten können nur von StructType abgelegt werden. Es wurde <struct> gefunden

DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN

SQLSTATE: 0AKDC

Das Ablegen von Partitionsspalten (<columnList>) ist nicht zulässig.

DELTA_UNSUPPORTED_EXPRESSION

SQLSTATE: 0A000

Nicht unterstützter Ausdruckstyp (<expType>) für <causedBy>. Die unterstützten Typen sind [<supportedTypes>].

DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN

SQLSTATE: 42621

<expression> darf in einer generierten Spalte nicht verwendet werden

DELTA_UNSUPPORTED_FEATURES_FOR_READ

SQLSTATE: 56038

Nicht unterstützte Delta-Lesefunktion: Tabelle „<tableNameOrPath>“ erfordert Lesetabellenfeatures, die von dieser Version von Databricks nicht unterstützt werden: <unsupported>. Weitere Informationen zur Kompatibilität von Delta Lake-Features finden Sie unter <link>.

DELTA_UNSUPPORTED_FEATURES_FOR_WRITE

SQLSTATE: 56038

Nicht unterstützte Delta-Schreibfunktion: Tabelle „<tableNameOrPath>“ erfordert Schreibtabellenfeatures, die von dieser Version von Databricks nicht unterstützt werden: <unsupported>. Weitere Informationen zur Kompatibilität von Delta Lake-Features finden Sie unter <link>.

DELTA_UNSUPPORTED_FEATURES_IN_CONFIG

SQLSTATE: 56038

Tabellenfeatures, die in den folgenden Spark-Konfigurationen oder Delta-Tabelleneigenschaften konfiguriert sind, werden von dieser Version von Databricks nicht erkannt: <configs>.

DELTA_UNSUPPORTED_FEATURE_STATUS

SQLSTATE: 0AKDE

Es wird erwartet, dass der Status für das Tabellenfeature <feature> „unterstützt“ lautet, er lautet aber „<status>“.

DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT

SQLSTATE: 0AKDC

Das Aktualisieren geschachtelter Felder wird nur für StructType unterstützt, Sie versuchen aber, ein Feld von <columnName> zu aktualisieren, das den Typ <dataType> aufweist.

DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS

SQLSTATE: 0A000

Der Befehl „FSCK REPAIR TABLE“ wird für Tabellenversionen mit fehlenden Löschvektordateien nicht unterstützt.

Wenden Sie sich an den Support.

DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS

SQLSTATE: 0A000

Der Befehl „GENERATE symlink_format_manifest“ wird in Tabellenversionen mit Löschvektoren nicht unterstützt.

Um eine Version der Tabelle ohne Löschvektoren zu erstellen, führen Sie „REORG TABLE table APPLY (PURGE)“ aus. Führen Sie dann den Befehl „GENERATE“ erneut aus.

Stellen Sie sicher, dass gleichzeitige Transaktionen zwischen REORG und GENERATE nicht erneut Löschvektoren hinzufügen.

Wenn Sie regelmäßig Manifeste generieren müssen oder gleichzeitige Transaktionen nicht verhindern können, sollten Sie erwägen, die Löschvektoren in dieser Tabelle mithilfe von „ALTER TABLE table SET TBLPROPERTIES (delta.enableDeletionVectors = false)“ zu deaktivieren.

DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT

SQLSTATE: 0AKDC

Invarianten werden für andere geschachtelte Felder als StructTypes nicht unterstützt.

DELTA_UNSUPPORTED_IN_SUBQUERY

SQLSTATE: 0AKDC

Die IN-Unterabfrage wird in der <operation>-Bedingung nicht unterstützt.

DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX

SQLSTATE: 0A000

listKeywithPrefix nicht verfügbar

DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING

SQLSTATE: 0AKDC

Die Manifestgenerierung wird für Tabellen, die die Spaltenzuordnung nutzen, nicht unterstützt, da externe Leser diese Delta-Tabellen nicht lesen können. Weitere Informationen finden Sie in der Dokumentation zu Delta.

DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC

SQLSTATE: 0A000

MERGE INTO-Vorgänge mit Schemaentwicklung unterstützen derzeit nicht das Schreiben von CDC-Ausgaben.

DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE

SQLSTATE: 0AKDC

Mehrspaltige IN-Prädikate werden in der <operation>-Bedingung nicht unterstützt.

DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER

SQLSTATE: 0AKDC

Das Erstellen eines Bloomfilterindexes in einer geschachtelten Spalte wird derzeit nicht unterstützt: <columnName>

DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION

SQLSTATE: 0AKDC

Geschachteltes Feld wird in <operation> (Feld = <fieldName>) nicht unterstützt.

DELTA_UNSUPPORTED_NON_EMPTY_CLONE

SQLSTATE: 0AKDC

Die Klonzieltabelle ist nicht leer. Verwenden Sie TRUNCATE oder DELETE FROM für die Tabelle, bevor Sie CLONE ausführen.

DELTA_UNSUPPORTED_OUTPUT_MODE

SQLSTATE: 0AKDC

Die Datenquelle <dataSource> unterstützt den <mode>-Ausgabemodus nicht

DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER

SQLSTATE: 0AKDC

Das Erstellen eines Bloomfilterindexes für eine Partitionierungsspalte wird nicht unterstützt: <columnName>

DELTA_UNSUPPORTED_RENAME_COLUMN

SQLSTATE: 0AKDC

Spaltenumbenennung wird für Ihre Delta-Tabelle nicht unterstützt. <advice>

DELTA_UNSUPPORTED_SCHEMA_DURING_READ

SQLSTATE: 0AKDC

Delta unterstützt das Angeben des Schemas zur Lesezeit nicht.

DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES

SQLSTATE: 0A000

SORTED BY wird für Delta-Buckettabellen nicht unterstützt.

DELTA_UNSUPPORTED_SOURCE

SQLSTATE: 0AKDD

Das <operation>-Ziel unterstützt nur Delta-Quellen.

<plan>

DELTA_UNSUPPORTED_STATIC_PARTITIONS

SQLSTATE: 0AKDD

Das Angeben statischer Partitionen in der Partitionsspezifikation wird derzeit während der Einfügungen nicht unterstützt.

DELTA_UNSUPPORTED_STRATEGY_NAME

SQLSTATE: 22023

Nicht unterstützter Strategiename: <strategy>

DELTA_UNSUPPORTED_SUBQUERY

SQLSTATE: 0AKDC

Unterabfragen werden in der <operation> (Bedingung = <cond>) nicht unterstützt.

DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES

SQLSTATE: 0AKDC

Unterabfragen werden in Partitionsprädikaten nicht unterstützt.

DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS

SQLSTATE: 42613

Zeitreise kann nicht in mehreren Formaten angegeben werden.

DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS

SQLSTATE: 0AKDC

Zeitreisen für Ansichten, Unterabfragen, Streams oder Änderungsdatenfeedabfragen sind nicht möglich.

DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES

SQLSTATE: 0A000

Das Abschneiden von Beispieltabellen wird nicht unterstützt.

DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION

SQLSTATE: 0AKDC

Bitte geben Sie den Basispfad (<baseDeltaPath>) beim Vakuumieren von Delta-Tabellen an. Die Vakuumierung bestimmter Partitionen wird derzeit nicht unterstützt.

DELTA_UNSUPPORTED_WRITES_STAGED_TABLE

SQLSTATE: 42807

Die Tabellenimplementierung unterstützt keine Schreibvorgänge: <tableName>

DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES

SQLSTATE: 0A000

Schreiben in Beispieltabellen wird nicht unterstützt

DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION

SQLSTATE: 42846

<fromCatalog> kann nicht in <toCatalog> umgewandelt werden. Alle geschachtelten Spalten müssen übereinstimmen.

DELTA_VERSIONS_NOT_CONTIGUOUS

SQLSTATE: KD00C

Versionen (<versionList>) sind nicht zusammenhängend.

Weitere Informationen finden Sie unter DELTA_VERSIONS_NOT_CONTIGUOUS.

DELTA_VIOLATE_CONSTRAINT_WITH_VALUES

SQLSTATE: 23001

CHECK-Einschränkung <constraintName><expression> verletzt durch Zeile mit Werten:

<values>

DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED

SQLSTATE: 0A000

Die Validierung der Eigenschaften der Tabelle <table> wurde verletzt:

Weitere Informationen finden Sie unter DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED

DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED

SQLSTATE: 0A000

<viewIdentifier> ist eine Ansicht. Sie können keine Daten in eine Sicht schreiben.

DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST

SQLSTATE: 42703

Die Z-Sortierspalte <columnName> ist im Datenschema nicht vorhanden.

DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS

SQLSTATE: KD00D

Die Z-Sortierung auf <cols> wird

nicht effektiv, da wir derzeit keine Statistiken für diese Spalten erfassen. Informationen zu den nächsten Schritten finden Sie im Abschnitt

<link>

weitere Informationen zum Überspringen von Daten und zur Z-Ordnung. Sie können

diese Überprüfung deaktivieren, indem Sie

„%%sql set <zorderColStatKey> = false“ festlegen

DELTA_ZORDERING_ON_PARTITION_COLUMN

SQLSTATE: 42P10

<colName> ist eine Partitionsspalte. Die Z-Ordnung kann nur für Datenspalten durchgeführt werden.

Autoloader

CF_ADD_NEW_NOT_SUPPORTED

SQLSTATE: 0A000

Der Schemaentwicklungsmodus <addNewColumnsMode> wird nicht unterstützt, wenn das Schema angegeben wurde. Um diesen Modus zu verwenden, können Sie das Schema stattdessen über cloudFiles.schemaHints bereitstellen.

CF_AMBIGUOUS_AUTH_OPTIONS_ERROR

SQLSTATE: 42000

Es wurden Authentifizierungsoptionen für die Benachrichtigungseinrichtung für den (Standard-)Auflistungsmodus des

Verzeichnisses gefunden:

<options>

Wenn Sie den Dateibenachrichtigungsmodus verwenden möchten, legen Sie Folgendes explizit fest:

.option(“cloudFiles.<useNotificationsKey>”, “true”)

Alternativ können Sie, um die Überprüfung Ihrer Optionen zu überspringen und diese

Authentifizierungsoptionen zu ignorieren, Folgendes festlegen:

.option(„cloudFiles.ValidateOptionsKey>“, „false“)

CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR

SQLSTATE: 42000

Inkrementeller Auflistungsmodus (cloudFiles.<useIncrementalListingKey>)

und Dateibenachrichtigung (cloudFiles.<useNotificationsKey>)

wurden gleichzeitig aktiviert.

Stellen Sie sicher, dass nur eine Option ausgewählt wird.

CF_AZURE_STORAGE_SUFFIXES_REQUIRED

SQLSTATE: 42000

adlsBlobSuffix und adlsDfsSuffix sind für Azure erforderlich

CF_BUCKET_MISMATCH

SQLSTATE: 22000

Der <storeType> im Dateiereignis <fileEvent> entspricht nicht der Erwartung der Quelle: <source>.

CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY

SQLSTATE: 22000

Das Schema kann nicht entwickelt werden, wenn das Schemaprotokoll leer ist. Schemaprotokollspeicherort: <logPath>

CF_CANNOT_PARSE_QUEUE_MESSAGE

SQLSTATE: 22000

Die folgende Nachricht in der Warteschlange kann nicht analysiert werden: <message>

CF_CANNOT_RESOLVE_CONTAINER_NAME

SQLSTATE: 22000

Der Containername kann nicht vom Pfad <path>aufgelöst werden, aufgelöster URI: <uri>

CF_CANNOT_RUN_DIRECTORY_LISTING

SQLSTATE: 22000

Verzeichnisauflistung kann nicht ausgeführt werden, während ein asynchroner Abgleichsthread ausgeführt wird

CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON

SQLSTATE: 42000

cloudFiles.cleanSource und cloudFiles.allowOverwrites können nicht gleichzeitig aktiviert werden.

CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION

SQLSTATE: 42501

Der Autolader kann keine verarbeiteten Dateien löschen, da er über keine Schreibberechtigungen für das Quellverzeichnis verfügt.

<reason>

Um dies zu beheben, können Sie eines der Folgenden tun:

  1. Erteilen von Schreibberechtigungen für das Quellverzeichnis ODER
  2. Festlegen von cleanSource auf „OFF“

Sie können die Blockierung Ihres Streams auch aufheben, indem Sie SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors auf WAHR festlegen.

CF_DUPLICATE_COLUMN_IN_DATA

SQLSTATE: 22000

Beim Versuch, das Partitionsschema Ihrer Tabelle abzuleiten, ist ein Fehler aufgetreten. Dieselbe Spalte ist in Ihren Daten- und Partitionspfaden doppelt vorhanden. Um den Partitionswert zu ignorieren, geben Sie bitte Ihre Partitionsspalten explizit wie folgt an: .option(“cloudFiles.<partitionColumnsKey>”, “{Komma-getrennte-Liste}”)

CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE

SQLSTATE: 42000

Das Schema kann nicht angeleitet werden, wenn der Eingabepfad <path> leer ist. Versuchen Sie, den Datenstrom zu starten, wenn Dateien im Eingabepfad vorhanden sind, oder geben Sie das Schema an.

CF_EVENT_GRID_AUTH_ERROR

SQLSTATE: 22000

Fehler beim Erstellen eines Event Grid-Abonnements. Stellen Sie sicher, dass Ihr Dienstprinzipal

über <permissionType>-Event Grid-Abonnements verfügt. Weitere Informationen finden Sie unter:

<docLink>

CF_EVENT_GRID_CREATION_FAILED

SQLSTATE: 22000

Fehler beim Erstellen des Event Grid-Abonnements. Stellen Sie sicher, dass Microsoft.EventGrid als

Ressourcenanbieter in Ihrem Abonnement registriert ist. Weitere Informationen finden Sie unter:

<docLink>

CF_EVENT_GRID_NOT_FOUND_ERROR

SQLSTATE: 22000

Fehler beim Erstellen eines Event Grid-Abonnements. Stellen Sie sicher, dass Ihr Speicherkonto

(<storageAccount>) sich in Ihrer Ressourcengruppe (<resourceGroup>) befindet und dass

das Speicherkonto den Typ „StorageV2 (universell v2)“ aufweist. Weitere Informationen finden Sie unter:

<docLink>

CF_EVENT_NOTIFICATION_NOT_SUPPORTED

SQLSTATE: 0A000

Der Autolader-Modus für Ereignisbenachrichtigungen wird für <cloudStore> nicht unterstützt.

CF_FAILED_TO_CHECK_STREAM_NEW

SQLSTATE: 22000

Fehler bei der Überprüfung, ob der Datenstrom neu ist

CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION

SQLSTATE: 22000

Fehler beim Erstellen des Abonnements: <subscriptionName>. Ein Abonnement mit diesem Namen ist bereits vorhanden und einem anderen Thema zugeordnet: <otherTopicName>. Das gewünschte Thema ist <proposedTopicName>. Löschen Sie entweder das vorhandene Abonnement, oder erstellen Sie ein Abonnement mit einem neuen Ressourcensuffix.

CF_FAILED_TO_CREATED_PUBSUB_TOPIC

SQLSTATE: 22000

Fehler beim Erstellen von Thema <topicName>. Es ist bereits ein Thema mit diesem Namen vorhanden.<reason> Entfernen Sie das vorhandene Thema, oder versuchen Sie es erneut mit einem anderen Ressourcensuffix

CF_FAILED_TO_DELETE_GCP_NOTIFICATION

SQLSTATE: 22000

Fehler beim Löschen der Benachrichtigung mit der ID <notificationId> im Bucket <bucketName> für das Thema <topicName>. Wiederholen Sie den Vorgang, oder entfernen Sie manuell die Benachrichtigung über die GCP-Konsole.

CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA

SQLSTATE: 22000

Fehler beim Deserialisieren des gespeicherten Schemas aus der Zeichenfolge: „<jsonSchema>

CF_FAILED_TO_EVOLVE_SCHEMA

SQLSTATE: 22000

Schema kann ohne Schemaprotokoll nicht entwickelt werden.

CF_FAILED_TO_FIND_PROVIDER

SQLSTATE: 42000

Fehler beim Suchen des Anbieters für <fileFormatInput>

CF_FAILED_TO_INFER_SCHEMA

SQLSTATE: 22000

Fehler beim Ableiten des Schemas für das Format <fileFormatInput> aus vorhandenen Dateien im Eingabepfad <path>. Stellen Sie sicher, dass die Optionen ordnungsgemäß konfiguriert wurden, oder geben das Schema explizit an.

CF_FAILED_TO_WRITE_TO_SCHEMA_LOG

SQLSTATE: 22000

Fehler beim Schreiben in das Schemaprotokoll am Speicherort <path>.

CF_FILE_FORMAT_REQUIRED

SQLSTATE: 42000

Die erforderliche Option konnte nicht gefunden werden: cloudFiles.format.

CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS

SQLSTATE: 22000

Es wurden mehrere (<topicName>) Abonnements mit dem Autolader-Präfix für das Thema <num> gefunden:

<subscriptionList>

Es sollte nur ein Abonnement pro Thema vorhanden sein. Stellen Sie manuell sicher, dass Ihr Thema nicht über mehrere Abonnements verfügt.

CF_GCP_AUTHENTICATION

SQLSTATE: 42000

Bitte geben Sie entweder alle folgenden Informationen an: <clientEmail>, <client>,

<privateKey> und <privateKeyId>, oder stellen Sie keine davon bereit, um die Standardeinstellung

für die GCP-Anmeldeinformationenanbieterkette zur Authentifizierung bei GCP-Ressourcen zu verwenden.

CF_GCP_LABELS_COUNT_EXCEEDED

SQLSTATE: 22000

Es wurden zu viele Bezeichnungen (<num>) für die GCP-Ressource empfangen. Die maximale Bezeichnungsanzahl pro Ressource ist <maxNum>.

CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED

SQLSTATE: 22000

Es wurden zu viele Ressourcentags (<num>) für die GCP-Ressource empfangen. Die maximale Anzahl von Ressourcentags pro Ressource ist <maxNum>, da Ressourcentags als GCP-Bezeichnungen in Ressourcen gespeichert werden und die Databricks-spezifischen Tags einen Teil dieses Bezeichnungskontingents verbrauchen.

CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG

SQLSTATE: 22000

Unvollständige Protokolldatei im Schemaprotokoll im Pfad <path>

CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT

SQLSTATE: 22000

Unvollständige Metadatendatei am Autoloader-Prüfpunkt

CF_INCORRECT_SQL_PARAMS

SQLSTATE: 42000

Die „cloud_files“-Methode akzeptiert zwei erforderliche Zeichenfolgenparameter: den Pfad, aus dem geladen werden soll, und das Dateiformat. Dateileseoptionen müssen in einer Zeichenfolgen-Schlüsselwertzuordnung bereitgestellt werden. Beispiel: cloud_files(“path”, “json”, map(“option1”, “value1”)). Empfangen: <params>

CF_INTERNAL_ERROR

SQLSTATE: 42000

Interner Fehler.

Weitere Informationen finden Sie unter CF_INTERNAL_ERROR

CF_INVALID_ARN

SQLSTATE: 42000

Ungültiger ARN: <arn>

CF_INVALID_CHECKPOINT

SQLSTATE: 42000

Dieser Prüfpunkt ist keine gültige CloudFiles-Quelle.

CF_INVALID_CLEAN_SOURCE_MODE

SQLSTATE: 42000

Ungültiger Modus für die Option <value> mit bereinigter Quelle .

CF_INVALID_GCP_RESOURCE_TAG_KEY

SQLSTATE: 42000

Ungültiger Ressourcentagschlüssel für GCP-Ressource: <key>. Schlüssel müssen mit einem Kleinbuchstaben beginnen, zwischen 1 und 63 Zeichen lang sein und dürfen nur Kleinbuchstaben, Zahlen, Unterstriche (_) und Bindestriche (-) enthalten.

CF_INVALID_GCP_RESOURCE_TAG_VALUE

SQLSTATE: 42000

Ungültiger Ressourcentagwert für GCP-Ressource: <value>. Werte müssen zwischen 0 und 63 Zeichen lang sein und dürfen nur Kleinbuchstaben, Zahlen, Unterstriche (_) und Bindestriche (-) enthalten.

CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS

SQLSTATE: 42000

Auto Loader unterstützt bei Verwendung mit verwalteten Dateiereignissen die folgenden Optionen nicht:

<optionList>

Es wird empfohlen, diese Optionen zu entfernen und den Datenstrom danach neu zu starten.

CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE

SQLSTATE: 22000

Ungültige Antwort vom Dienst für verwaltete Dateiereignisse. Wenden Sie sich für Unterstützung an den Databricks-Support.

Weitere Informationen finden Sie unter CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE

CF_INVALID_SCHEMA_EVOLUTION_MODE

SQLSTATE: 42000

cloudFiles.<schemaEvolutionModeKey> muss eines sein von {

<addNewColumns>

<failOnNewColumns>

<rescue>

<noEvolution>”}

CF_INVALID_SCHEMA_HINTS_OPTION

SQLSTATE: 42000

Schemahinweise können eine bestimmte Spalte nur einmal angeben.

In diesem Fall wird die Spalte: <columnName>

mehrmals in Schemahinweisen neu definiert:

<schemaHints>

CF_INVALID_SCHEMA_HINT_COLUMN

SQLSTATE: 42000

Schemahinweise können nicht verwendet werden, um die geschachtelten Typen von Zuordnungen und Arrays außer Kraft zu setzen.

In Konflikt stehende Spalte: <columnName>

CF_LATEST_OFFSET_READ_LIMIT_REQUIRED

SQLSTATE: 22000

latestOffset sollte mit einem ReadLimit für diese Quelle aufgerufen werden.

CF_LOG_FILE_MALFORMED

SQLSTATE: 22000

Die Protokolldatei war nicht wohlgeformt: Fehler beim Lesen der korrekten Protokollversion aus <fileName>.

CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS

SQLSTATE: 22000

Sie haben angefordert, dass Auto Loader die vorhandenen Dateien an Ihrem externen Speicherort ignoriert, indem Sie includeExistingFiles auf FALSE festlegen. Der Dienst für verwaltete Dateiereignisse findet weiterhin vorhandene Dateien an Ihrem externen Speicherort. Versuchen Sie es noch einmal, nachdem die verwalteten Datereignisse alle Dateien an Ihrem externen Speicherort gefunden haben.

CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND

SQLSTATE: 42000

Sie verwenden Auto Loader mit verwalteten Dateiereignissen, aber es scheint, dass der externe Speicherort für Ihren Eingabepfad „<path>“ keine Dateiereignisse aktiviert hat, oder der Eingabepfad ist ungültig. Bitten Sie Ihren bzw. Ihre Databricks-Administrator*in, Dateiereignisse an dem externen Speicherort für Ihren Eingabepfad zu aktivieren.

CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED

SQLSTATE: 42000

Sie verwenden Auto Loader mit verwalteten Dateiereignissen, aber Sie haben keinen Zugriff auf den externen Speicherort oder das Volume für den Eingabepfad „<path>“, oder der Eingabepfad ist ungültig. Bitten Sie Ihren bzw. Ihre Databricks-Administrator*in, Leseberechtigungen für den externen Speicherort oder das Volume zu gewähren, oder stellen Sie einen gültigen Eingabepfad innerhalb eines vorhandenen externen Speicherorts oder Volumes bereit.

CF_MANAGED_FILE_EVENTS_ONLY_ON_SERVERLESS

SQLSTATE: 56038

Auto Loader mit verwalteten Dateiereignissen ist nur in Databricks Serverless verfügbar. Um fortzufahren, verschieben Sie die Workload zu Databricks Serverless oder deaktivieren Sie die Option „cloudFiles.useManagedFileEvents“.

CF_MAX_MUST_BE_POSITIVE

SQLSTATE: 42000

muss positiv sein

CF_METADATA_FILE_CONCURRENTLY_USED

SQLSTATE: 22000

Mehrere Streamingabfragen verwenden gleichzeitig <metadataFile>

CF_MISSING_METADATA_FILE_ERROR

SQLSTATE: 42000

Die Metadatendatei im Prüfpunktverzeichnis der Streamingquelle fehlt. Diese Metadatendatei

enthält wichtige Standardoptionen für den Datenstrom, sodass der Datenstrom derzeit nicht neu gestartet

werden kann. Wenden Sie sich für Unterstützung an den Databricks-Support.

CF_MISSING_PARTITION_COLUMN_ERROR

SQLSTATE: 42000

Die Partitionsspalte <columnName> ist im angegebenen Schema nicht enthalten:

<schema>

CF_MISSING_SCHEMA_IN_PATHLESS_MODE

SQLSTATE: 42000

Geben Sie mit .schema() ein Schema an, wenn im Dateibenachrichtigungsmodus kein Pfad für die CloudFiles-Quelle bereitgestellt wird. Alternativ können Sie das Schema auch von Autoloader ableiten lassen, indem Sie in .load() einen Basispfad angeben.

CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC

SQLSTATE: 22000

Vorhandene Benachrichtigungen für das Thema <topicName> im Bucket <bucketName>gefunden:

Benachrichtigung,ID

<notificationList>

Um zu viele Benachrichtigungen an Abonnent*innen durch unbeabsichtigte Ereignisse zu vermeiden, löschen Sie die obigen Benachrichtigungen und versuchen es erneut.

CF_NEW_PARTITION_ERROR

SQLSTATE: 22000

Neue Partitionsspalten wurden aus Ihren Dateien abgeleitet: [<filesList>]. Geben Sie alle Partitionsspalten in Ihrem Schema an, oder geben Sie wie folgt eine Liste der Partitionsspalten an, für die Sie Werte extrahieren möchten: .option(„cloudFiles.partitionColumns“, „{trennzeichen-liste|leere-zeichenfolge}“)

CF_PARTITON_INFERENCE_ERROR

SQLSTATE: 22000

Fehler beim Versuch, das Partitionsschema des aktuellen Dateibatches abzuleiten. Bitte geben Sie Ihre Partitionsspalten explizit wie folgt an: .option(“cloudFiles.<partitionColumnOption>”, “{Komma-getrennte-Liste}”)

CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES

SQLSTATE: 42000

Es können keine Dateien gelesen werden, wenn der Eingabepfad <path> nicht vorhanden ist. Stellen Sie sicher, dass der Eingabepfad vorhanden ist, und versuchen Sie es erneut.

CF_PERIODIC_BACKFILL_NOT_SUPPORTED

SQLSTATE: 0A000

Periodische Abgleiche werden nicht unterstützt, wenn der asynchrone Abgleich deaktiviert ist. Sie können den asynchronen Abgleich/die Verzeichnisauflistung aktivieren, indem Sie spark.databricks.cloudFiles.asyncDirListing auf TRUE festlegen.

CF_PREFIX_MISMATCH

SQLSTATE: 22000

Nicht übereinstimmendes Ereignis gefunden: Der Schlüssel <key> verfügt nicht über das Präfix <prefix>

CF_PROTOCOL_MISMATCH

SQLSTATE: 22000

<message>

Wenn Sie keine anderen Änderungen an Ihrem Code vornehmen müssen, legen Sie die SQL-Konfiguration

<sourceProtocolVersionKey> = <value>“ fest,

um Ihren Datenstrom fortzusetzen. Informationen hierzu finden Sie hier:

<docLink>

finden Sie weitere Informationen.

CF_REGION_NOT_FOUND_ERROR

SQLSTATE: 42000

Standard-AWS-Region konnte nicht abgerufen werden. Geben Sie mit der Option „cloudFiles.region“ eine Region an.

CF_RESOURCE_SUFFIX_EMPTY

SQLSTATE: 42000

Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix darf nicht leer sein.

CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS

SQLSTATE: 42000

Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix darf nur alphanumerische Zeichen, Bindestriche (-) und Unterstriche (_) enthalten.

CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE

SQLSTATE: 42000

Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix darf nur Kleinbuchstaben, Zahlen und Bindestriche (-) enthalten.

CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP

SQLSTATE: 42000

Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix darf nur alphanumerische Zeichen, Bindestriche (-), Unterstriche (_), Punkte (.), Tilden (~), Pluszeichen (+) und Prozentzeichen (<percentSign>) enthalten.

CF_RESOURCE_SUFFIX_LIMIT

SQLSTATE: 42000

Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix darf nicht mehr als <limit> Zeichen enthalten.

CF_RESOURCE_SUFFIX_LIMIT_GCP

SQLSTATE: 42000

Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix muss zwischen <lowerLimit> und <upperLimit> Zeichen enthalten.

CF_RESTRICTED_GCP_RESOURCE_TAG_KEY

SQLSTATE: 22000

Tagschlüssel (<key>) für eingeschränkte GCP-Ressource gefunden. Die folgenden GCP-Ressourcentagschlüssel sind für den Autolader eingeschränkt: [<restrictedKeys>]

CF_RETENTION_GREATER_THAN_MAX_FILE_AGE

SQLSTATE: 42000

cloudFiles.cleanSource.retentionDuration darf nicht größer als cloudFiles.maxFileAge sein.

CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX

SQLSTATE: 22000

Fehler beim Erstellen der Benachrichtigung für das Thema: <topic> mit Präfix: <prefix>. Es gibt bereits ein Thema mit demselben Namen und einem anderen Präfix: <oldPrefix>. Versuchen Sie, ein anderes Ressourcensuffix einzurichten, oder löschen Sie das vorhandene Setup.

CF_SOURCE_DIRECTORY_PATH_REQUIRED

SQLSTATE: 42000

Geben Sie den Quellverzeichnispfad mit Option path an.

CF_SOURCE_UNSUPPORTED

SQLSTATE: 0A000

Die Clouddateiquelle unterstützt derzeit nur S3-, Azure Blob Storage- (wasb/wasbs), Azure Data Lake Gen1 (adl) und Gen2-Pfade (abfs/abfss). Pfad: „<path>“, aufgelöster URI: „<uri>

CF_STATEFUL_STREAMING_SCHEMA_EVOLUTION

SQLSTATE: 0A000

Zustandsbehafte Streamingabfragen unterstützen nicht die Schemaentwicklung. Legen Sie die Option „cloudFiles.schemaEvolutionMode“ auf „rescue“ oder „none“ fest.

CF_STATE_INCORRECT_SQL_PARAMS

SQLSTATE: 42000

Die cloud_files_state-Funktion akzeptiert einen Zeichenfolgenparameter, der das Prüfpunktverzeichnis eines cloudFiles-Datenstroms angibt, oder einen mehrteiligen tableName, der eine Streamingtabelle identifiziert. Außerdem wird optional ein zweiter ganzzahliger Parameter akzeptiert, der die Prüfpunktversion darstellt, für die der Zustand geladen werden soll. Der zweite Parameter kann auch „latest“ sein, um den neuesten Prüfpunkt zu lesen. Empfangen: <params>

CF_STATE_INVALID_CHECKPOINT_PATH

SQLSTATE: 42000

Der Eingabeprüfpunkt-Pfad <path> ist ungültig. Entweder ist der Pfad nicht vorhanden, oder es wurden keine cloud_files-Quellen gefunden.

CF_STATE_INVALID_VERSION

SQLSTATE: 42000

Die angegebene Version <version> ist nicht vorhanden oder wurde während der Analyse entfernt.

CF_THREAD_IS_DEAD

SQLSTATE: 22000

Der Thread <threadName> ist inaktiv.

CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION

SQLSTATE: 42000

Der Prüfpunktspeicherort des Streams kann nicht aus dem Prüfpunktspeicherort der Quelle <checkPointLocation> abgeleitet werden

CF_UNABLE_TO_DETECT_FILE_FORMAT

SQLSTATE: 42000

Das Quelldateiformat aus <fileSize>-Stichprobendateien konnte nicht erkannt werden, es wurde <formats> gefunden. Geben Sie das Format an.

CF_UNABLE_TO_EXTRACT_BUCKET_INFO

SQLSTATE: 42000

Bucketinformationen können nicht extrahiert werden. Pfad: „<path>“, aufgelöster URI: „<uri>“.

CF_UNABLE_TO_EXTRACT_KEY_INFO

SQLSTATE: 42000

Schlüsselinformationen können nicht extrahiert werden. Pfad: „<path>“, aufgelöster URI: „<uri>“.

CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO

SQLSTATE: 42000

Informationen zum Speicherkonto können nicht extrahiert werden. Pfad: „<path>“, aufgelöster URI: „<uri>

CF_UNABLE_TO_LIST_EFFICIENTLY

SQLSTATE: 22000

Es wurde ein Ereignis zur Umbenennung für ein Verzeichnis unter dem Pfad <path> empfangen, dieses Verzeichnis kann aber nicht effizient aufgelistet werden. Um den Datenstrom fortzusetzen, legen Sie die Option „cloudFiles.ignoreDirRenames“ auf TRUE fest, und erwägen Sie, reguläre Abgleiche mit cloudFiles.backfillInterval zu aktivieren, damit diese Daten verarbeitet werden.

CF_UNEXPECTED_READ_LIMIT

SQLSTATE: 22000

Unerwartetes ReadLimit: <readLimit>

CF_UNKNOWN_OPTION_KEYS_ERROR

SQLSTATE: 42000

Unbekannte Optionsschlüssel gefunden:

<optionList>

Stellen Sie sicher, dass alle bereitgestellten Optionsschlüssel korrekt sind. Wenn Sie die

Überprüfung Ihrer Optionen überspringen und diese unbekannten Optionen ignorieren möchten, können Sie Folgendes festlegen:

.option(“cloudFiles.<validateOptions>”, “false”)

CF_UNKNOWN_READ_LIMIT

SQLSTATE: 22000

Unbekanntes ReadLimit: <readLimit>

CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION

SQLSTATE: 0A000

Die SQL-Funktion "cloud_files" zum Erstellen einer Streamingquelle für das automatische Laden wird nur in einer Delta Live Tables-Pipeline unterstützt. Weitere Informationen finden Sie unter:

<docLink>

CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE

SQLSTATE: 0A000

Der Schemarückschluss wird für das Format <format> nicht unterstützt: . Geben Sie das Schema an.

CF_UNSUPPORTED_LOG_VERSION

SQLSTATE: 0A000

UnsupportedLogVersion: Die maximal unterstützte Protokollversion ist v<maxVersion>``, but encountered v``<version>. Die Protokolldatei wurde von einer neueren DBR-Version erstellt und kann von dieser Version nicht gelesen werden. Führen Sie ein Upgrade durch.

CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE

SQLSTATE: 0A000

Der Schemaentwicklungsmodus <mode> wird für das Format <format> nicht unterstützt: . Bitte legen Sie den Schemaentwicklungsmodus auf „none“ fest.

CF_USE_DELTA_FORMAT

SQLSTATE: 42000

Das Lesen aus einer Delta-Tabelle wird mit dieser Syntax nicht unterstützt. Wenn Sie Daten aus Delta nutzen möchten, erhalten Sie weitere Informationen in der folgenden Dokumentation: „Lesen einer Delta-Tabelle (<deltaDocLink>)“ oder „Lesen einer Delta-Tabelle als eine Streamingquelle (<streamDeltaDocLink>)“. Die Streamingquelle von Delta ist bereits für die inkrementelle Datennutzung optimiert.

Geodaten

EWKB_PARSE_ERROR

SQLSTATE: 22023

Fehler beim Parsen von EWKB „<parseError>“ an Position <pos>

GEOJSON_PARSE_ERROR

SQLSTATE: 22023

Fehler beim Parsen von GeoJSON <parseError> bei Position <pos>

Weitere Details finden Sie unter GEOJSON_PARSE_ERROR

H3_INVALID_CELL_ID

SQLSTATE: 22023

<h3Cell> ist keine gültige H3-Zellen-ID

Weitere Details finden Sie unter H3_INVALID_CELL_ID

H3_INVALID_GRID_DISTANCE_VALUE

SQLSTATE: 22023

Der H3-Rasterabstand <k> darf nicht negativ sein

Weitere Details finden Sie unter H3_INVALID_GRID_DISTANCE_VALUE

H3_INVALID_RESOLUTION_VALUE

SQLSTATE: 22023

Die H3-Auflösung <r> muss zwischen <minR> und <maxR> liegen (inklusive)

Weitere Details finden Sie unter H3_INVALID_RESOLUTION_VALUE

H3_NOT_ENABLED

SQLSTATE: 0A000

<h3Expression> ist deaktiviert oder wird nicht unterstützt. Erwägen Sie, Photon zu aktivieren oder zu einer Ebene zu wechseln, die H3-Ausdrücke unterstützt.

Weitere Details finden Sie unter H3_NOT_ENABLED

H3_PENTAGON_ENCOUNTERED_ERROR

SQLSTATE: 22023

Beim Berechnen des Hexadezimalrings von <h3Cell> wurde ein Fünfeck mit dem Rasterabstand <k> gefunden

H3_UNDEFINED_GRID_DISTANCE

SQLSTATE: 22023

H3-Rasterabstand zwischen <h3Cell1> und <h3Cell2> ist nicht definiert.

ST_DIFFERENT_SRID_VALUES

SQLSTATE: 22023

Argumente für „<sqlFunction>“ müssen über denselben SRID-Wert verfügen. SRID-Werte gefunden: <srid1>, <srid2>

ST_INVALID_ARGUMENT

SQLSTATE: 22023

<sqlFunction>”: <reason>

ST_INVALID_ARGUMENT_TYPE

SQLSTATE: 22023

Das Argument für „<sqlFunction>“ muss vom Typ „<validTypes>“ sein

ST_INVALID_CRS_TRANSFORMATION_ERROR

SQLSTATE: 22023

<sqlFunction>: Ungültige oder nicht unterstützte CRS-Transformation von SRID <srcSrid> in SRID <trgSrid>

ST_INVALID_ENDIANNESS_VALUE

SQLSTATE: 22023

Die Byte-Reihenfolge <e> muss „NDR“ (little-endian) oder „XDR“ (big-endian) sein

ST_INVALID_GEOHASH_VALUE

SQLSTATE: 22023

<sqlFunction>: Ungültiger Geohashwert: '<geohash>'. Geohash-Werte müssen gültige base32-Zeichenfolgen in Kleinbuchstaben sein, wie in https://en.wikipedia.org/wiki/Geohash#Textual_representation beschrieben

ST_INVALID_PRECISION_VALUE

SQLSTATE: 22023

Die Genauigkeit <p> muss zwischen <minP> und <maxP> liegen (inklusive)

ST_INVALID_SRID_VALUE

SQLSTATE: 22023

Ungültige oder nicht unterstützte SRID <srid>

ST_NOT_ENABLED

SQLSTATE: 0A000

<stExpression> ist deaktiviert oder nicht unterstützt. Erwägen Sie, Photon zu aktivieren oder zu einer Ebene zu wechseln, die ST-Ausdrücke unterstützt

ST_UNSUPPORTED_RETURN_TYPE

SQLSTATE: 0A000

Die Datentypen GEOGRAPHY und GEOMETRY können nicht in Abfragen zurückgegeben werden. Verwenden Sie einen der folgenden SQL-Ausdrücke, um sie in standardmäßige Austauschformate zu konvertieren: <projectionExprs>.

WKB_PARSE_ERROR

SQLSTATE: 22023

Fehler beim Analysieren von WKB: <parseError> bei Position <pos>

Weitere Details finden Sie unter WKB_PARSE_ERROR

WKT_PARSE_ERROR

SQLSTATE: 22023

Fehler beim Analysieren von WKT <parseError> bei Position <pos>

Weitere Details finden Sie unter WKT_PARSE_ERROR