Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Gilt für: Databricks SQL
Databricks Runtime 12.2 und höher
Fehlerbedingungen sind beschreibende, lesbare Zeichenfolgen, die für den von ihnen beschriebenen Fehler eindeutig sind.
Sie können Fehlerbedingungen verwenden, um Fehler in Ihrer Anwendung programmgesteuert zu behandeln, ohne die Fehlermeldung zu analysieren.
Dies ist eine Liste allgemeiner, benannter Fehlerbedingungen, die von Azure Databricks zurückgegeben werden.
Databricks Runtime und Databricks SQL
DEFAULT_UNSUPPORTED_HINZUFÜGEN
Fehler beim Ausführen des <statementType>
Befehls, da DEFAULT
Werte beim Hinzufügen neuer Spalten zur zuvor vorhandenen Zieldatenquelle mit Dem Tabellenanbieter nicht unterstützt werden: "<dataSource>
".
AGGREGATFUNKTION_MIT_NICHTDETERMINISTISCHER_AUSDRUCK
Nicht deterministischer Ausdruck <sqlExpr>
sollte nicht in den Argumenten einer Aggregatfunktion angezeigt werden.
AGGREGAT-AUS-SPEICHER
Nicht genügend Arbeitsspeicher für aggregation
AI_FUNCTION_HTTP_PARSE_CAST_ERROR
Fehler beim Analysieren der Modellausgabe beim Umwandeln in den angegebenen returnType: "<dataType>
", Antwort von JSON lautete: "<responseString>
". Aktualisieren Sie den returnType so, dass er dem Inhalt des Typs entspricht, der durch den Antwort-JSON dargestellt wird, und wiederholen Sie dann die Abfrage erneut.
Fehler beim Parsen von HTTP-Spalten in AI-Funktion
Die tatsächliche Modellausgabe weist mehr als eine Spalte "<responseString>
" auf. Der angegebene Rückgabetyp ["<dataType>
"] weist jedoch nur eine Spalte auf. Aktualisieren Sie den returnType so, dass er dieselbe Anzahl von Spalten wie die Modellausgabe enthält, und wiederholen Sie dann die Abfrage erneut.
AI_FUNCTION_HTTP-Abfragefehler
Fehler beim Ausführen einer HTTP-Anforderung für die Funktion <funcName>
: <errorMessage>
Ungültige HTTP-Antwort der KI-Funktion
Ungültige HTTP-Antwort für Funktion <funcName>
: <errorMessage>
KI_FUNKTION_UNGÜLTIGE_MAXIMALE_WÖRTERANZAHL
Die maximale Anzahl von Wörtern muss eine nicht negative ganze Zahl sein, es wurde aber <maxWords>
erhalten.
AI_FUNKTIONS_UNGÜLTIGE_MODELL_PARAMETER
Die bereitgestellten Modellparameter (<modelParameters>
) sind in der AI_QUERY
Funktion zum Verarbeiten des Endpunkts "<endpointName>
" ungültig.
Weitere Details finden Sie unter AI_FUNCTION_INVALID_MODEL_PARAMETERS
AI_FUNCTION_UNGÜLTIGES_ANTWORTFORMAT_TYP
KI-Funktion: "<functionName>
" erfordert gültige <format>
Zeichenfolge für responseFormat
-Parameter, aber das folgende Antwortformat wurde gefunden: "<invalidResponseFormat>
". Ausnahme: <errorMessage>
AI_FUNCTION_JSON_PARSE_ERROR (Fehler beim Parsen von JSON)
Fehler beim Parsen der JSON-Antwort für Funktion <funcName>
: <errorMessage>
AI_FUNCTION_MODEL_SCHEMA_PARSENFEHLER
Fehler beim Analysieren des Schemas für den bereitgestellten Endpunkt "<endpointName>
": <errorMessage>
, Antwort-JSON lautete: "<responseJson>
".
Legen Sie den returnType
Parameter manuell in der AI_QUERY
-Funktion fest, um die Schemaauflösung außer Kraft zu setzen.
Nicht unterstützte AI-Funktion-Fehler
Die Funktion <funcName>
wird in der aktuellen Umgebung nicht unterstützt. Sie ist nur in Databricks SQL Pro und Serverless verfügbar.
KI_FUNKTION_NICHT_UNTERSTÜTZTE_ANFRAGE
Fehler beim Auswerten der SQL-Funktion "<functionName>
", da das angegebene Argument von <invalidValue>
den Typ "<invalidDataType>
" aufweist, aber nur die folgenden Typen unterstützt werden: <supportedDataTypes>
. Aktualisieren Sie den Funktionsaufruf, um ein Argument vom Zeichenfolgentyp bereitzustellen, und wiederholen Sie die Abfrage erneut.
AI_FUNKTION_UNTERSTÜTZTES ANTWORTFORMAT
Ein nicht unterstütztes Antwortformat wurde gefunden.
Weitere Details finden Sie unter AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT.
AI_FUNKTION_NICHT_UNTERSTÜTZTER_RÜCKGABETYP
KI-Funktion: "<functionName>
" unterstützt den folgenden Typ nicht als Rückgabetyp: "<typeName>
". Der Rückgabetyp muss ein gültiger SQL-Typ sein, der von Catalyst verstanden und von der KI-Funktion unterstützt wird. Aktuelle unterstützte Typen umfassen: <supportedValues>
AI_INVALID_ARGUMENT_VALUE_ERROR - Ungültiger Argumentwertfehler
Der angegebene Wert "<argValue>
" wird von Argument "<argName>
" nicht unterstützt. Unterstützte Werte sind: <supportedValues>
AI-Abfrage-Endpunkt unterstützt strukturiertes Ausgabeformat nicht.
Erwartet wurde, dass der Aufgabentyp des Endpunkts „Chat“ für die Unterstützung strukturierter Ausgaben ist, aber es wurde "<taskType>
" für den Endpunkt "<endpointName>
" gefunden.
KI_ABFRAGE_RÜCKGABETYP_SPALTENTYP_UNSTIMMIGKEIT
Die bereitgestellte "<sqlExpr>
" wird vom Argument returnType nicht unterstützt.
AI_SUCHEN_KONFLIKT_ABFRAGEPARAMETER_BEREITSTELLUNGSFEHLER
Konfliktierende Parameter für vector_search
SQL-Funktion erkannt: <conflictParamNames>
.<hint>
KI_SUCH_EINBETTUNGS_SPALTENTYP_NICHT_UNTERSTÜTZT_FEHLER
vector_search
SQL-Funktion mit eingebettetem Spaltentyp <embeddingColumnType>
wird nicht unterstützt.
AI_SUCHEN_LEERER_ABFRAGE_PARAMETER_FEHLER
vector_search
Der SQL-Funktion fehlt der Abfrageeingabeparameter, bitte geben Sie mindestens einen von: <parameterNames>
an.
AI_SEARCH_HYBRID_QUERY_PARAM_VERALTUNGSFEHLER
Der Parameter query
für die vector_search
SQL-Funktion wird nicht für die hybrid
Vektorsuche unterstützt. Verwenden Sie stattdessen query_text
.
Fehler bei der hybriden AI-Suche: Text nicht gefunden
Der Abfragetext wurde in der sql-Funktion vector_search
für hybrid
Vektorsuche nicht gefunden. Geben Sie query_text
an.
Fehler: AI-Suchindextyp wird nicht unterstützt
vector_search
SQL-Funktion mit Indextyp <indexType>
wird nicht unterstützt.
AI_SUCHFEHLER_EINGABEFEHLENDEM_EMBEDDING (hypothetical, if translation is appropriate and context supports it)
query_vector
muss für index <indexName>
angegeben werden, da sie keinem Einbettungsmodellendpunkt zugeordnet ist.
AI_SUCHABFRAGENTYP_KONVERTIERUNGS_ENCODIERUNGSFEHLER
Fehler beim Materialisieren der SQL-Funktionsabfrage vector_search
vom Spark-Typ <dataType>
für native Scala-Objekte während der Anforderungscodierung: <errorMessage>
.
AI-SUCHANFRAGE-TYP-NICHT-UNTERSTÜTZT-FEHLER
vector_search
SQL-Funktion mit Abfragetyp <unexpectedQueryType>
wird nicht unterstützt. Geben Sie einen Typ aus <supportedQueryTypes>
an.
AI_SUCHEN_UNTERSTÜTZTE_ANZAHL_ERGEBNISSE_FEHLER
vector_search
SQL-Funktion mit num_results größer als <maxLimit>
wird nicht unterstützt. Der angegebene Grenzwert ist <requestedLimit>
. Versuchen Sie es bitte erneut mit num_results <= <maxLimit>
AI_TOP_FAHRER_PARAM_AUßERHALB_DES_BEREICHS
Der Parameter ai_top_drivers
<param>
muss zwischen <lo>
und <hi>
liegen.
AI_TOP_TREIBER_UNTERSTÜTZTER_AGGREGATIONSTYP_NICHT
ai_top_drivers
unterstützt das <aggName>
Aggregat nicht. Wählen Sie eines der folgenden unterstützten Aggregate aus: <allowed>
.
Because this is likely a code or a technical identifier, there may be no improvement needed unless specific context is provided that requires localized interpretation.
ai_top_drivers
unterstützt keine numerischen, Zuordnungs- oder Strukturdimensionsspalten. Die Spalte <colName>
hat Typ <dataType>
. Entfernen Sie diese Dimension, oder wandeln Sie sie in einen unterstützten Typ um.
KI_TOPTREIBER_NICHT_UNTERSTÜTZTER_LABEL_TYP
ai_top_drivers
erfordert, dass der Beschriftungsspalten-Typ boolesch ist. Die Spalte <colName>
hat Typ <dataType>
. Ändern Sie die Bezeichnungsspalte, oder wandeln Sie sie in einen unterstützten Typ um.
AI_TOP_TREIBER_UNTERSTÜTZTER_METRIK_TYP
ai_top_drivers
erfordert, dass der metrische Spaltentyp numerisch ist. Die Spalte <colName>
hat Typ <dataType>
. Ändern Sie die Metrikspalte, oder wandeln Sie sie in einen unterstützten Typ um.
ALLE_PARAMETER_MÜSSEN_BENANNT_WERDEN
Für die Verwendung von parametrisierten Namensabfragen müssen alle Parameter benannt werden. Parameter ohne Namen: <exprs>
.
KEINE_PARTITIONSSPALTE_ERLAUBT
Nicht alle Spalten können als Partitionsspalten verwendet werden.
ALTER_PLAN_EXISTIERT_NICHT
<scheduleType>
einer Tabelle kann nicht geändert werden, ohne dass ein vorhandener Zeitplan oder Trigger vorhanden ist. Fügen Sie der Tabelle einen Zeitplan oder Trigger hinzu, bevor Sie versuchen, ihn zu ändern.
ÄNDERE_TABELLE_SPALTEN_BESCHREIBER_DUPLIKAT
ALTER TABLE <type>
Spalte <columnName>
gibt den Deskriptor "<optionName>
" mehr als einmal an, was ungültig ist.
Mehrdeutiger_Alias_in_verschachtelten_CTE
Der Name <name>
ist im geschachtelten CTE mehrdeutig.
Bitte setzen Sie <config>
auf "CORRECTED
", damit der in der inneren CTE definierte Name Vorrang hat. Wenn sie auf "LEGACY
" festgelegt ist, haben äußere CTE-Definitionen Vorrang.
Siehe „https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine“.
MEHRDEUTIGE_SPALTE_ODER_FELD
Spalte oder Feld <name>
ist mehrdeutig und weist <n>
Übereinstimmungen auf.
Mehrdeutige_Spaltenreferenz
Spalten-<name>
ist mehrdeutig. Dies liegt daran, dass Sie mehrere DataFrames miteinander verknüpft haben, und einige dieser DataFrames sind identisch.
Diese Spalte verweist auf einen der DataFrames, aber Spark kann nicht herausfinden, welches element.
Bitte weisen Sie den DataFrames über DataFrame.alias
unterschiedliche Namen zu, bevor Sie sie zusammenführen.
und geben Sie die Spalte mithilfe des qualifizierten Namens an, z. B. df.alias("a").join(df.alias("b"), col("a.id") > col("b.id"))
.
UNEINDEUTIGE_EINSCHRÄNKUNG
Mehrdeutige Referenz auf Einschränkung <constraint>
.
Mehrdeutiger_Lateraler_Spalten_Alias
Der Alias der Lateral-Spalte <name>
ist mehrdeutig und weist <n>
Übereinstimmungen auf.
Mehrdeutige_Referenz
Der Verweis <name>
ist mehrdeutig, könnte <referenceNames>
sein.
Mehrdeutiger_Verweis_auf_Felder
Mehrdeutiger Verweis auf das Feld <field>
. Es erscheint <count>
Mal im Schema.
ANALYSE_EINSCHRÄNKUNGEN_NICHT_UNTERSTÜTZT
ANALYZE CONSTRAINTS
wird nicht unterstützt.
ANSI_KONFIGURATION_KANN_NICHT_DEAKTIVIERT_WERDEN
Die ANSI SQL-Konfiguration <config>
kann in diesem Produkt nicht deaktiviert werden.
AQE_THREAD_INTERRUPTED
Der AQE-Thread wird unterbrochen, wahrscheinlich aufgrund des Abbruchs von Abfragen durch den Benutzer.
ARGUMENT_NICHT_KONSTANT
Die Funktion <functionName>
enthält einen Parameter <parameterName>
an position <pos>
, der ein konstantes Argument erfordert. Berechnen Sie das Argument <sqlExpr>
separat, und übergeben Sie das Ergebnis als Konstante.
Arithmetischer Überlauf
<message>
.
<alternative>
Legen Sie <config>
bei Bedarf auf "false" fest, um diesen Fehler zu umgehen.
Weitere Details finden Sie unter ARITHMETIC_OVERFLOW.
PFEIL_TYP_UNSTIMMIGKEIT
Ungültiges Schema von <operation>
: erwartet <outputTypes>
, erhalten <actualDataTypes>
.
Artefakt existiert bereits
Das Artefakt <normalizedRemoteRelativePath>
ist bereits vorhanden. Wählen Sie einen anderen Namen für das neue Artefakt aus, da es nicht überschrieben werden kann.
ZUWEISUNG_ARITÄTSUNSTIMMIGKEIT
Die Anzahl der Spalten oder Variablen, die zugewiesen oder aliasiert werden: <numTarget>
stimmt nicht mit der Anzahl der Quellausdrücke überein: <numExpr>
.
AS_OF_JOIN
Ungültiger As-of-Join.
Weitere Details finden Sie unter AS_OF_JOIN.
AVRO_KANN_NICHT_AUF_NULL_FELD_SCHREIBEN
Der Nullwert für das Feld <name>
, das als Nicht-Null-Avro-Datentyp <dataType>
definiert ist, kann nicht geschrieben werden.
Um null-Wert für dieses Feld zuzulassen, geben Sie das Avro-Schema als Union-Typ mit "null" mithilfe der avroSchema
Option an.
AVRO_STANDARDWERTE_NICHT_UNTERSTÜTZT
Die Verwendung von Standardwerten wird nicht unterstützt, wennrescuedDataColumn
aktiviert ist. Sie können diese Überprüfung möglicherweise entfernen, indem Sie spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue
auf "false" festlegen, die Standardwerte werden jedoch nicht angewendet, und NULL-Werte werden weiterhin verwendet.
AVRO_NICHT_KOMPATIBLER_LESETYP
Avro <avroPath>
kann nicht in SQL <sqlPath>
konvertiert werden, da der ursprüngliche codierte Datentyp lautet <avroType>
. Sie versuchen jedoch, das Feld als <sqlType>
zu lesen, was zu einer falschen Antwort führen würde.
Um das Lesen dieses Felds zuzulassen, aktivieren Sie die SQL-Konfiguration: „spark.sql.legacy.avro.allowIncompatibleSchema”.
AVRO_NICHT_GELADEN_SQL_FUNCTIONEN_NICHT_VERWENDBAR
Die <functionName>
SQL-Funktion kann nicht aufgerufen werden, da die Avro-Datenquelle nicht geladen wird.
Starten Sie den Auftrag oder die Sitzung neu, indem Sie das Paket "spark-avro" laden, z. B. mithilfe des Arguments "--packages" in der Befehlszeile, und wiederholen Sie dann die Abfrage oder den Befehl.
AVRO_POSITIONSFELDER_ABGLEICH_UNTERSTÜTZT_NICHT
Die Verwendung des Positionsfeldabgleichs wird nicht unterstützt, wenn entweder rescuedDataColumn
oder failOnUnknownFields
aktiviert ist. Entfernen Sie diese Optionen, um fortzufahren.
BATCH_METADATA_NICHT_GEFUNDEN
Batch-<batchMetadataFile>
konnte nicht gefunden werden.
OPTIONEN_SIND_GEGENSEITIG_AUSSCHLIESSEND
BigQuery-Verbindungsanmeldeinformationen müssen entweder mit dem Parameter „GoogleServiceAccountKeyJson“ oder „projectId“, „OAuthServiceAcctEmail“, „OAuthPvtKey“ angegeben werden.
Binärer Arithmetiküberlauf
<value1> <symbol> <value2>
verursachte Überlauf. Verwenden Sie <functionName>
, um das Überlaufproblem zu ignorieren und NULL
zurückzugeben.
Integrierter Katalog
<operation>
unterstützt keine integrierten Kataloge.
FUNKTIONSAUFRUF_BEI_STREAMING_DATENSATZ_NICHT_UNTERSTÜTZT
Die Methode <methodName>
kann nicht für Streaming-Dataset/DataFrame aufgerufen werden.
ÄNDERUNG_DER_COLLATION_BUCKET_SPALTE_NICHT_MÖGLICH
ALTER TABLE (ALTER|CHANGE) COLUMN
kann die Sortierung von Typ/Untertypen von Bucket-Spalten nicht ändern, hat aber die Bucketspalte <columnName>
in der Tabelle <tableName>
gefunden.
PARTITIONSSPALTE_KANN_NICHT_GEAENDERT_WERDEN
ALTER TABLE (ALTER|CHANGE) COLUMN
wird für Partitionsspalten nicht unterstützt, aber es wurde die Partitionsspalte <columnName>
in der Tabelle <tableName>
gefunden.
KANN KEINE EREIGNISZEITSPALTE OHNE WASSERZEICHEN ZUWEISEN
Um die Spalte für die Ereigniszeit neu zuzuweisen, muss ein Wasserzeichen definiert werden. Die Wasserzeichendefinition in der Streamingabfrage konnte nicht gefunden werden.
KANN_DATENTYP_NICHT_UMWANDELN
<sourceType>
kann nicht in <targetType>
umgestellt werden.
KANN_PROTOBUF_FELDTYP_NICHT_IN_SQL_TYP_UMWANDELN
Protobuf-<protobufColumn>
kann nicht in SQL-<sqlColumn>
konvertiert werden, da das Schema nicht kompatibel ist (protobufType = <protobufType>
, sqlType = <sqlType>
).
KANN_PROTOBUF_NACHRICHTENTYP_NICHT_IN_SQL_TYP_KONVERTIEREN
<protobufType>
von Protobuf kann nicht in SQL-Typ <toType>
konvertiert werden.
CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE (SQL-Typ kann nicht in Protobuf-Feldtyp konvertiert werden)
SQL-<sqlColumn>
kann nicht in Protobuf-<protobufColumn>
konvertiert werden, da das Schema nicht kompatibel ist (protobufType = <protobufType>
, sqlType = <sqlType>
).
CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE - Kann SQL-Wert nicht in Protobuf-Enum-Typ konvertieren
SQL-<sqlColumn>
kann nicht in Protobuf-<protobufColumn>
konvertiert werden, da <data>
nicht unter den definierten Werten für Enum: <enumString>
ist.
ZUSTAND_KANN_NICHT_KOPIERT_WERDEN
Der Katalogstatus kann nicht wie aktuelle Datenbank und temporäre Ansichten aus dem Unity-Katalog in einen Legacykatalog kopiert werden.
KANN_DATENQUELLENTABELLE_NICHT_ERSTELLEN
Fehler beim Erstellen der Datenquellentabelle <tableName>
:
Weitere Details finden Sie unter CANNOT_CREATE_DATA_SOURCE_TABLE.
KANN_URL_NICHT_ENTCODIEREN
Die angegebene URL kann nicht decodiert werden: <url>
. Stellen Sie sicher, dass die URL ordnungsgemäß formatiert ist, und versuchen Sie es erneut.
SYSTEM_EIGENTUM_KANN_NICHT_GELÖSCHT_WERDEN
Der systemeigene <resourceType>
kann nicht gelöscht werden.
Kann mehrdeutige Einschränkung nicht entfernen
Die Einschränkung mit dem Namen <constraintName>
, der gemeinsam mit einer CHECK
-Einschränkung
und einer PRIMARY KEY
-oder FOREIGN KEY
-Einschränkung verwendet wird, kann nicht getrennt werden. Sie können die PRIMARY KEY
- oder
FOREIGN KEY
-Beschränkung durch folgende Abfragen trennen:
ALTER TABLE
..
DROP PRIMARY KEY
oder
ALTER TABLE
..
DROP FOREIGN KEY
..
KANN_KEINE_VERBINDUNG_HERSTELLEN
Eine Verbindung zur Remotedatenbank <jdbcDialectName>
kann nicht hergestellt werden. Überprüfen Sie Verbindungsinformationen und Anmeldeinformationen, z. B. Host, Port, Benutzer, Kennwort und Datenbankoptionen. ** Wenn Sie der Meinung sind, dass die Informationen korrekt sind, überprüfen Sie bitte die Netzwerkeinrichtung Ihres Arbeitsbereichs, und stellen Sie sicher, dass sie keine ausgehenden Einschränkungen für den Host hat. Überprüfen Sie auch, ob der Host eingehende Verbindungen nicht vom Netzwerk blockiert, in dem die Spark-Cluster des Arbeitsbereichs bereitgestellt werden. ** Detaillierte Fehlermeldung: <causeErrorMessage>
.
VERBINDUNG_ZU_SERVERLESS_KANN_NICHT_HERGESTELLT_WERDEN
Eine Verbindung zur Remotedatenbank <jdbcDialectName>
kann nicht hergestellt werden. Überprüfen Sie Verbindungsinformationen und Anmeldeinformationen, z. B. Host, Port, Benutzer, Kennwort und Datenbankoptionen. ** Wenn Sie der Meinung sind, dass die Informationen korrekt sind, lassen Sie den eingehenden Datenverkehr vom Internet an Ihren Host zu, während Sie Serverless Compute verwenden. Wenn Ihre Netzwerkrichtlinien eingehenden Internetdatenverkehr nicht zulassen, verwenden Sie bitte nicht Serverless Compute, oder Wenden Sie sich an Ihren Databricks-Vertreter, um mehr über Serverless Private Networking zu erfahren. ** Detaillierte Fehlermeldung: <causeErrorMessage>
.
KANN_NICHT_IN_TRANSFORMATIONEN_AUFRUFEN
Datasettransformationen und -aktionen können nur vom Treiber aufgerufen werden, nicht innerhalb anderer Datasettransformationen; Ist beispielsweise ungültig, dataset1.map(x => dataset2.values.count() * x)
da die Wertetransformation und die Zählungsaktion nicht innerhalb der Dataset1.map-Transformation ausgeführt werden können. Weitere Informationen finden Sie unter SPARK
-28702.
FUNKTIONSKLASSE_KANN_NICHT_GELADEN_WERDEN
Klasse <className>
beim Registrieren der Funktion <functionName>
kann nicht geladen werden. Stellen Sie sicher, dass sie sich auf dem Klassenpfad befindet.
KANN_PROTOBUF_KLASSE_NICHT_LADEN
Die Protobuf-Klasse mit dem Namen <protobufClassName>
konnte nicht geladen werden.
<explanation>
.
KANN_STATUS_SPEICHER_NICHT_LADEN
Beim Laden des Zustands ist ein Fehler aufgetreten.
Weitere Details finden Sie unter CANNOT_LOAD_STATE_STORE.
KANN_NICHT_ZUSAMMENGEFÜHRT_WERDEN_INKOMPATIBLER_DATENTYP
Fehler beim Zusammenführen inkompatibler Datentypen <left>
und <right>
. Überprüfen Sie die Datentypen der zusammengeführten Spalten, und stellen Sie sicher, dass sie kompatibel sind. Ziehen Sie bei Bedarf die Umwandlung der Spalten in kompatible Datentypen in Betracht, bevor Sie die Zusammenführung versuchen.
SCHEMAS_KÖNNEN_NICHT_ZUSAMMENGEFÜGT_WERDEN
Fehler beim Zusammenführen von Schemas:
Anfängliches Schema:
<left>
Schema, das nicht mit dem ursprünglichen Schema zusammengeführt werden kann:
<right>
.
KONFIGURATION_KANN_NICHT_GEÄNDERT_WERDEN
Der Wert der Spark-Konfiguration kann nicht geändert werden: <key>
.
Siehe auch „https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements“.
DEZIMALZAHL_KANN_NICHT_GELESEN_WERDEN
Dezimalwerte können nicht geparst werden. Bitte stellen Sie sicher, dass die Eingabe eine gültige Zahl mit optionalem Dezimalpunkt oder Dezimalkomma ist.
INTERVALL_NICHT_ANALYSIERBAR
<intervalString>
kann nicht analysiert werden. Stellen Sie sicher, dass der angegebene Wert in einem gültigen Format zum Definieren eines Intervalls enthalten ist. Sie können auf die Dokumentation für das richtige Format verweisen. Wenn das Problem weiterhin besteht, überprüfen Sie bitte, ob der Eingabewert nicht null oder leer ist, und versuchen Sie es erneut.
KANN_JSON_FELD_NICHT_VERARBEITEN
Der Feldname <fieldName>
und der Wert <fieldValue>
des JSON-Tokentyps <jsonType>
können nicht auf den Spark-Zieldatentyp <dataType>
geparst werden.
CANNOT_PARSE_PROTOBUF_DESCRIPTOR (Protokoll-Zwischencode kann nicht analysiert werden)
Fehler beim Analysieren von Deskriptorbytes in Protobuf FileDescriptorSet.
ZEIT_NICHT_PARSEBAR
Die Eingabezeichenfolge <input>
kann nicht in einen TIME-Wert analysiert werden, da sie nicht mit dem Datetime-Format <format>
übereinstimmt.
ZEITSTEMPEL_KANN_NICHT_GEPARST_WERDEN
<message>
. Verwenden Sie <func>
, um eine ungültige Eingabezeichenfolge zu tolerieren und stattdessen NULL
zurückzugeben.
KANN_TABELLE_WÄHREND_INITIALISIERUNG_NICHT_ABFRAGEN
MV/ST kann während der Initialisierung nicht abgerufen werden.
Weitere Informationen finden Sie unter CANNOT_QUERY_TABLE_DURING_INITIALIZATION.
KANN_ARCHIVIERTE_DATEI_NICHT_LESEN
Die Datei kann nicht im Pfad <path>
gelesen werden, da sie archiviert wurde. Passen Sie Die Abfragefilter an, um archivierte Dateien auszuschließen.
KANN_DATEI_NICHT_LESEN
Die <format>
-Datei kann nicht gelesen werden unter Pfad: <path>
.
Weitere Informationen finden Sie unter CANNOT_READ_FILE
KANN_SENSITIVEN_SCHLÜSSEL_VOM_SICHEREN_ANBIETER_NICHT_LESEN
Vertraulicher Schlüssel "<key>
" kann nicht vom sicheren Anbieter gelesen werden.
KANN_BIENENSTOCK_TYP_NICHT_ERKENNEN
Die Strukturtypzeichenfolge kann nicht erkannt werden: <fieldType>
, Spalte: <fieldName>
. Der angegebene Datentyp für das Feld kann von Spark SQL nicht erkannt werden. Überprüfen Sie den Datentyp des angegebenen Felds, und stellen Sie sicher, dass es sich um einen gültigen Spark SQL-Datentyp handelt. Eine Liste der gültigen Datentypen und deren Format finden Sie in der Spark SQL-Dokumentation. Wenn der Datentyp korrekt ist, stellen Sie sicher, dass Sie eine unterstützte Version von Spark SQL verwenden.
CANNOT_REFERENCE_UC_IN_HMS
Auf einen Unity-Katalog <objType>
in Hive-Metastore-Objekten kann nicht verwiesen werden.
RESERVIERTE_EIGENSCHAFT_KANN_NICHT_ENTFERNT_WERDEN
Reservierte Eigenschaft kann nicht entfernt werden: <property>
.
KANN_NICHT_ÜBER_KATALOG_UMBENENNEN
Das Umbenennen einer <type>
über Kataloge hinweg ist nicht zulässig.
UMBENENNEN_ZWISCHEN_SCHEMATA_NICHT_MÖGLICH
Das Umbenennen einer <type>
über Schemas hinweg ist nicht zulässig.
KANN_DATAFRAME_SPALTE_NICHT_AUFLÖSEN
DataFrame-Spalte <name>
kann nicht identifiziert werden. Es liegt wahrscheinlich an illegalen Verweisen wie df1.select(df2.col("a"))
.
STERNAUSWEITUNG_KANN_NICHT_AUFGELÖST_WERDEN
<targetString>
.* kann anhand der Eingabespalten <columns>
nicht aufgelöst werden. Überprüfen Sie, ob die angegebene Tabelle oder Struktur vorhanden ist und auf die Eingabespalten zugegriffen werden kann.
Berechtigungen für Pfad können nicht wiederhergestellt werden
Fehler beim Festlegen von Berechtigungen für den erstellten Pfad <path>
zurück zu <permission>
.
CANNOT_SHALLOW_CLONE_ACROSS_UC_UND_HMS
Tabellen können zwischen Unity Catalog und Hive-Metastore nicht flach geklont werden.
KANN_NICHT_SEICHT_GEKLONTE_VERSCHACHTELUNG
Eine Tabelle <table>
, die bereits ein flacher Klon ist, kann nicht flach geklont werden.
KANN_AUS_QUELLE_ODER_ZIEL_NICHT_FLACH_KLONEN_WENN_TABELLE_NICHT_UNTER_UC_VERWALTET_IST
Shallow Clone ist nur für den MANAGED
Tabellentyp zulässig. Die Tabelle <table>
ist nicht MANAGED
Tabelle.
KANN_FELD_NICHT_AKTUALISIEREN
Das <table>
-Feld vom <fieldName>
-Typ kann nicht aktualisiert werden:
Weitere Informationen finden Sie unter FELD_NICHT_AKTUALISIERBAR
DATENTYP_KANN_NICHT_HOCHGEGOSSEN_WERDEN
<expression>
kann nicht von <sourceType>
in <targetType>
umgewandelt werden.
<details>
KRYO kann nicht verwendet werden
Der Kryo-Serialisierungscodec kann nicht geladen werden. Die Kryo-Serialisierung kann nicht im Spark Connect-Client verwendet werden. Verwenden Sie die Java-Serialisierung, stellen Sie stattdessen einen benutzerdefinierten Codec bereit, oder verwenden Sie stattdessen Spark Classic.
VERBINDUNG_KANN_NICHT_VALIDIERT_WERDEN
Die Überprüfung der <jdbcDialectName>
-Verbindung wird nicht unterstützt. Wenden Sie sich an die Databricks-Unterstützung für alternative Lösungen, oder legen Sie "spark.databricks.testConnectionBeforeCreation" auf "false" fest, um verbindungstests zu überspringen, bevor Sie ein Verbindungsobjekt erstellen.
KANN_ZUSTANDSSPEICHER_NICHT_SCHREIBEN
Fehler beim Schreiben von Zustandsspeicherdateien für Anbieter <providerClass>
.
Weitere Informationen finden Sie unter CANNOT_WRITE_STATE_STORE.
CAST_UNGÜLTIGE_EINGABE
Der Wert <expression>
des Typs <sourceType>
kann nicht in <targetType>
umgewandelt werden, da er fehlerhaft ist. Korrigieren Sie den Wert gemäß der Syntax, oder ändern Sie den Zieltyp. Verwenden Sie try_cast
, um falsch formatierte Eingaben zu tolerieren und stattdessen NULL
zurückzugeben.
Weitere Details finden Sie unter CAST_INVALID_INPUT.
Überlauf beim Casting
Der Wert <value>
des Typs <sourceType>
kann aufgrund eines Überlaufs nicht in <targetType>
umgewandelt werden. Verwenden Sie try_cast
, um Überlauf zu tolerieren und stattdessen NULL
zurückzugeben.
Überlauf beim Einfügen in Tabelle
Aufgrund eines Überlaufs konnte kein Wert vom Typ <sourceType>
der <targetType>
-Typspalte oder Variablen <columnName>
zugewiesen werden. Verwenden Sie try_cast
für den Eingabewert, um Überlauf zu tolerieren und stattdessen NULL
zurückzugeben.
KATALOG_NICHT_GEFUNDEN
Der Katalog <catalogName>
nicht gefunden. Erwägen Sie, die SQL-Konfiguration <config>
auf ein Katalog-Plug-In festzulegen.
KATALOGBESITZTE_TABELLENERSTELLUNG_NICHT_ERLAUBT
Das Erstellen von Delta-Tabellen mit <feature>
Tabellenfunktion ist nicht zulässig. Wenden Sie sich bitte an den Databricks-Support.
CHECKPOINT_RDD_BLOCK_ID_NICHT_GEFUNDEN
Prüfpunktblock <rddBlockId>
nicht gefunden!
Entweder der Executor, der die Prüfpunkte für diese Partition ursprünglich festgelegt hat, ist nicht mehr aktiv, oder die ursprüngliche RDD wird nicht beständig gespeichert.
Wenn dieses Problem weiterhin besteht, können Sie stattdessen rdd.checkpoint()
verwenden, was langsamer ist als lokale Prüfpunkte, aber fehlertoleranter.
ZIRKULÄRE_KLASSENREFERENZ
In einer Klasse dürfen keine Zirkelbezüge vorhanden sein, aber in Klasse <t>
wurde ein Zirkelbezug gefunden.
KLASSE_NICHT_ERWARTETE_METHODEN_ÜBERSCHREIBEN
<className>
muss entweder <method1>
oder <method2>
überschreiben.
KLASSE_VON_KARTENOBJEKTEN_NICHT_UNTERSTÜTZT
MapObjects
unterstützt die Klasse <cls>
nicht als resultierende Sammlung.
CLEANROOM_BEFEHLE_NICHT_UNTERSTÜTZT
Clean Room-Befehle werden nicht unterstützt.
REINRAUM_UNGÜLTIGER_GETEILTE_DATENOBJEKT_NAME
Ungültiger Name, um in einem Reinraum auf einen <type>
Verweis zu verweisen. Verwenden Sie einen <type>
-Namen innerhalb des Reinraums im Format [Katalog].[Schema].[<type>
].
Wenn Sie nicht sicher sind, welchen Namen Sie verwenden sollen, können Sie "SHOW ALL IN CLEANROOM
[clean_room]" ausführen und den Wert in der Spalte "Name" verwenden.
KLONEN_MIT_VERLAUF_UNGÜLTIGE_OPTION
Das Klonen mit Verlauf wird mit einer ungültigen Option angegeben: <invalidOption>
.
Gültige Syntax: CREATE
(ODER REPLACE) TABLE
... DEEP CLONE
... WITH HISTORY
.
KLONEN_MIT_VERLAUF_NICHT_UNTERSTÜTZT
Das Klonen mit Verlauf wird nicht unterstützt.
DIE_DATEIQUELLE_DER_CLOUD_DATEI_WURDE_NICHT_GEFUNDEN
Für die Datei <filePath>
wurde eine Dateibenachrichtigung empfangen, aber sie ist nicht mehr vorhanden. Stellen Sie sicher, dass Dateien nicht gelöscht werden, bevor sie verarbeitet werden. Um den Datenstrom fortzusetzen, können Sie die Spark SQL-Konfiguration <config>
auf "true" festlegen.
CLOUD_PROVIDER_ERROR (Fehler beim Cloud-Anbieter)
Cloudanbieterfehler: <message>
FEHLANPASSUNG_DER_CLUSTERING_SPALTEN
Das angegebene Clustering stimmt nicht mit der der vorhandenen Tabelle <tableName>
überein.
Angegebene Clusteringspalten: [<specifiedClusteringString>
].
Vorhandene Clusteringspalten: [<existingClusteringString>
].
CLUSTERING_NICHT_UNTERSTÜTZT
"<operation>
" unterstützt keine Clustering.
CLUSTER_DURCH_AUTO_FEATURE_NICHT_AKTIVIERT
Wenden Sie sich bitte an Ihren Databricks-Vertreter, um die Cluster-by-Auto-Funktion zu aktivieren.
CLUSTER_BY_AUTO_ERFORDERT_DIE_AKTIVIERUNG_DER_CLUSTERING_FUNKTION
Bitte aktivieren Sie clusteringTable.enableClusteringTableFeature, um CLUSTER BY
AUTO zu verwenden.
CLUSTER_BY_AUTO_ERFORDERT_PRÄDIKTIVE_OPTIMIERUNG
CLUSTER BY
AUTO erfordert, dass die Predictive Optimization aktiviert ist.
CLUSTER_BY_AUTO_NICHT_UNTERSTÜTZTER_TABELLENTYP_FEHLER
CLUSTER BY
AUTO wird nur in verwalteten UC-Tabellen unterstützt.
CODEC_NICHT_VERFÜGBAR
Der Codec <codecName>
ist nicht verfügbar.
Weitere Details finden Sie unter CODEC_NOT_AVAILABLE
CODEC_KURZNAME_NICHT_GEFUNDEN (CODEC_SHORT_NAME_NOT_FOUND)
Es wurde kein Kurzname für den Codec <codecName>
gefunden.
UNGÜLTIGER_KOLLATIONSNAME
Der Wert <collationName>
stellt keinen korrekten Sortiernamen dar. Vorgeschlagene gültige Sortierungsnamen: [<proposals>
].
UNGÜLTIGER ANBIETER FÜR SORTIERUNG
Der Wert <provider>
stellt keinen korrekten Sortieranbieter dar. Unterstützte Anbieter sind: [<supportedProviders>
].
KOLLATIONSFEHLER
Es konnte nicht ermittelt werden, welche Sortierung für Zeichenfolgenfunktionen und Operatoren verwendet werden soll.
Weitere Details finden Sie unter COLLATION_MISMATCH.
SAMMLUNGSGRÖSSENLIMIT ÜBERSCHRITTEN
Array kann nicht mit <numberOfElements>
Elementen erstellt werden, die den Grenzwert für die Arraygröße <maxRoundedArrayLength>
überschreiten,
Weitere Details finden Sie unter COLLECTION_SIZE_LIMIT_EXCEEDED.
SPALTENALIASSE_NICHT_ERLAUBT
Spaltenaliasen sind in <op>
nicht zulässig.
SPALTE_EXISTIERT_BEREITS
Die Spalte <columnName>
ist bereits vorhanden. Wählen Sie einen anderen Namen aus, oder benennen Sie die vorhandene Spalte um.
ARRAY_ELEMENT_TYP_UNSTIMMENDE_FELD
Einige Werte im Feld <pos>
sind mit dem Spaltenarraytyp nicht kompatibel. Erwarteter Typ <type>
.
COLUMN_MASKS_ABAC_Nichtübereinstimmung
Spaltenformate konnten für <tableName>
nicht aufgelöst werden, da zwischen Spaltenformaten, die von Richtlinien geerbt wurden, und explizit definierten Spaltenformaten ein Konflikt aufgetreten ist. Um fortzufahren, deaktivieren Sie bitte die Attributbasierte Zugriffssteuerung (Attribute Based Access Control, ABAC), und wenden Sie sich an den Databricks-Support.
COLUMN_MASKS_PRÜFUNGSBEDINGUNG_NICHT_UNTERSTÜTZT
Das Erstellen einer CHECK
-Einschränkung für Tabelle <tableName>
mit Spaltenmaskenrichtlinien wird nicht unterstützt.
COLUMN_MASKS_DUPLIKAT_MIT_SPALTENNAME
Eine <statementType>
-Anweisung hat versucht, einer Spalte eine Spaltenmaskenrichtlinie zuzuweisen, die mindestens zwei andere referenzierte Spalten aus der Liste USING COLUMNS
mit demselben Namen <columnName>
enthielt. Dies ist ungültig.
COLUMN_MASKS_FUNKTIONS_UNTERSTÜTZUNG_NICHT
Spaltenmaskierungsrichtlinien für <tableName>
werden nicht unterstützt:
Weitere Details finden Sie unter COLUMN_MASKS_FEATURE_NOT_SUPPORTED.
COLUMN_MASKS_INKOMPATIBLE_SCHEMAÄNDERUNG
<statementType> <columnName>
aus Tabelle <tableName>
nicht möglich, da in einer Spaltenmaskenrichtlinie für Spalte <maskedColumn>
darauf verwiesen wird. Die Person im Besitz der Tabelle muss vor dem Fortfahren diese Richtlinie entfernen oder ändern.
COLUMN_MASKS_MERGE_UNTERSTÜTZTE_QUELLE
MERGE INTO
-Vorgänge unterstützen keine Spaltenmaskenrichtlinien in der Quelltabelle <tableName>
.
COLUMN_MASKS_ZUSAMMENFÜHRUNG_UNTERSTÜTZT_ZIEL_NICHT
MERGE INTO
-Vorgänge unterstützen das Schreiben in die Tabelle <tableName>
mit Spaltenmaskenrichtlinien nicht.
COLUMN_MASKS_ZIELSPALTENNAME_MEHRTEILIG
Diese Anweisung versuchte, einer Spalte <columnName>
mit mehreren Namensbestandteilen eine Spaltenmaskenrichtlinie zuzuweisen, was ungültig ist.
COLUMN_MASKS_MEHRTEIL_UNTER_VERWENDUNG_DES_SPALTENNAMENS
Diese Anweisung versucht, einer Spalte eine Spaltenmaskenrichtlinie zuzuweisen, und in der USING COLUMNS
-Liste ist der Name <columnName>
mit mehreren Namensbestandteilen enthalten, was ungültig ist.
COLUMN_MASKS_NICHT_AKTIVIERT
Die Unterstützung für das Definieren von Spaltenmasken ist nicht aktiviert.
COLUMN_MASKS_REQUIRE_UNITY_CATALOG
Spaltenmaskenrichtlinien werden nur im Unity Catalog unterstützt.
COLUMN_MASKS_PARTITIONEN_ANZEIGEN_NICHT_UNTERSTÜTZT
SHOW PARTITIONS
Befehl wird für<format>
Tabellen mit Spaltenmasken nicht unterstützt.
If a translation is required for the term, consider translating it to "_TABELLE_CLONE_QUELLE_NICHT_UNTERSTÜTZT" for better comprehension by German speakers, ensuring that the term is understandable within the context.
Ein <mode>
-Klon aus der Tabelle <tableName>
mit Spaltenmaskenrichtlinien wird nicht unterstützt.
COLUMN_MASKS_TABELLE_CLONE_ZIEL_NICHT_UNTERSTÜTZT
Ein <mode>
-Klon in die Tabelle <tableName>
mit Spaltenmaskenrichtlinien wird nicht unterstützt.
COLUMN_MASKS_NICHT_UNTERSTÜTZTE_KONSTANTE_ALS_PARAMETER
Die Verwendung einer Konstante als Parameter in einer Spaltenmaskenrichtlinie wird nicht unterstützt. Aktualisieren Sie den SQL-Befehl, um die Konstante aus der Spaltenformatdefinition zu entfernen, und wiederholen Sie dann den Befehl erneut.
COLUMN_MASKS_NICHT_UNTERSTÜTZTER_DATEN_TYP
Funktion <functionName>
, die als Spaltenformatrichtlinie verwendet wird, enthält Parameter mit nicht unterstützten Datentypen <dataType>
.
COLUMN_MASKS_NICHT_UNTERSTÜTZTER_ANBIETER
Fehler beim Ausführen des <statementType>
-Befehls, da das Zuweisen von Spaltenmaskenrichlinien für eine Zieldatenquelle mit dem Tabellenanbieter <provider>
nicht unterstützt wird.
COLUMN_MASKS_NICHT_UNTERSTÜTZTE_UNTERABFRAGE
<operation>
kann für Tabelle <tableName>
nicht ausgeführt werden, da sie eine oder mehrere Spaltenmaskenrichtlinien mit Unterabfrageausdrücken enthält, die noch nicht unterstützt werden. Wenden Sie sich an den Besitzer der Tabelle, um die Spaltenmaskierungsrichtlinien zu aktualisieren, um fortzufahren.
COLUMN_MASKS_USVERWENDUNG_VON_SPALTENNAMEN_WIE_BEI_ZIELSPALTE
Die Spalte <columnName>
denselben Namen wie die Zielspalte hatte, was ungültig ist; entfernen Sie die Spalte aus der liste USING COLUMNS
, und wiederholen Sie den Befehl.
SPALTE_NICHT_IN_TABELLE_DEFINIERT
<colType>
Spalte <colName>
ist in Tabelle <tableName>
nicht definiert, definierte Tabellenspalten sind: <tableCols>
.
Spalte nicht gefunden
Die Spalte <colName>
wurde nicht gefunden. Überprüfen Sie die Schreib- und Korrektheit des Spaltennamens gemäß der SQL-Konfiguration <caseSensitiveConfig>
.
SPALTENORDINAL_X_AUSSERHALB_DER_GRENZEN
Spaltenordnungszahl liegt außerhalb der Grenzen. Die Anzahl der Spalten in der Tabelle ist <attributesLength>
, die Spaltenordnungszahl ist jedoch <ordinal>
.
Attribute sind die folgenden: <attributes>
.
KOMMA_VORLAGENBEDINGUNGSFEHLER
Unerwartetes „,“ vor Einschränkungsdefinition. Stellen Sie sicher, dass die Einschränkungsklausel nicht mit einem Komma beginnt, wenn Spalten (und Erwartungen) nicht definiert sind.
KOMMENTAR_ZU_VERBINDUNG_NOCH_NICHT_IMPLEMENTIERT
Der Befehl COMMENT ON CONNECTION
ist noch nicht implementiert.
COMPARATOR_RETURNS_NULL (Vergleichsoperator gibt null zurück)
Der Vergleichsoperator hat NULL
für einen Vergleich zwischen <firstValue>
und <secondValue>
zurückgegeben.
Es sollte eine positive ganze Zahl für "größer als", 0 für "gleich" und eine negative ganze Zahl für "kleiner als" zurückgeben.
Wenn Sie zu dem veralteten Verhalten zurückkehren möchten, bei dem NULL
als 0 (gleich) behandelt wird, müssen Sie "spark.sql.legacy.allowNullComparisonResultInArraySort" auf "true" setzen.
KOMPLEXE_AUSDRUCK_UNTERSTÜTZTE_EINGABE
Eingabedatentypen für den Ausdruck können nicht verarbeitet werden: <expression>
.
Weitere Details finden Sie unter COMPLEX_EXPRESSION_UNSUPPORTED_INPUT.
Gleichzeitige Abfrage
Eine weitere Instanz dieser Abfrage [ID: <queryId>
] wurde gerade mit einer gleichzeitigen Sitzung gestartet [vorhandene runId: <existingQueryRunId>
neue runId: <newQueryRunId>
].
GLEICHZEITIG_PLANER_UNZUREICHENDER_SLOT
Die Mindestanzahl der im Cluster erforderlichen kostenlosen Slots ist <numTasks>
, der Cluster verfügt jedoch nur über <numSlots>
Slots kostenlos. Die Abfrage zögert oder schlägt fehl. Erhöhen Sie die Clustergröße, um fortzufahren.
GLEICHZEITIGE_STREAM_PROTOKOLL_AKTUALISIERUNG
Gleichzeitiges Aktualisieren des Protokolls. Für <batchId>
wurden mehrere Streamingaufträge erkannt.
Stellen Sie sicher, dass jeweils nur ein Streamingauftrag an einem bestimmten Prüfpunktstandort ausgeführt wird.
KONFIGURATION_NICHT_VERFÜGBAR
Die Konfiguration <config>
ist nicht verfügbar.
Konflikt in der Cluster-Konfiguration
Die folgenden Konfigurationen verursachen einen Konflikt mit spark.databricks.streaming.realTimeMode.enabled: <confNames>
. Entfernen Sie diese Konfigurationen aus der Clusterkonfiguration, und starten Sie den Spark-Cluster neu.
Konfliktierende Verzeichnisstrukturen
Konfliktierende Verzeichnisstrukturen erkannt.
Verdächtige Pfade:
<discoveredBasePaths>
Wenn bereitgestellte Pfade Partitionsverzeichnisse sind, legen Sie "basePath" in den Optionen der Datenquelle fest, um das Stammverzeichnis der Tabelle anzugeben.
Wenn mehrere Stammverzeichnisse vorhanden sind, laden Sie sie bitte separat, und trennen Sie sie dann.
Konflikt der Partitionsspaltennamen
In Konflikt stehende Partitionsspaltennamen wurden erkannt:
<distinctPartColLists>
Bei partitionierten Tabellenverzeichnissen sollten Datendateien nur in Blattverzeichnissen vorhanden sein.
Und Ordner auf derselben Ebene sollten denselben Partitionsspaltennamen haben.
Überprüfen Sie die folgenden Verzeichnisse auf unerwartete Dateien oder inkonsistente Partitionsspaltennamen:
<suspiciousPaths>
KONFLIKT_BEI_PARTITIONSSPALTE_NAME_MIT_RESERVIERT
Der Partitionsspaltenname "<partitionColumnName>
" ist mit dem reservierten Spaltennamen in Konflikt.
Das Schema von <tableName>
ist Hive-inkompatibel, daher generiert Spark automatisch eine reservierte Spalte "<partitionColumnName>
", um die Tabelle in einer bestimmten Form zu speichern.
Verwenden Sie einen anderen Namen für die Partitionsspalte.
Konfliktanbieter
Der angegebene Anbieter <provider>
ist mit dem vorhandenen Kataloganbieter <expectedProvider>
inkonsistent. Verwenden Sie "USING <expectedProvider>
" und wiederholen Sie den Befehl.
WIDERSPRECHENDE_SQL_KONFIGURATION
Die folgenden Konfigurationen verursachen einen Konflikt mit spark.databricks.streaming.realTimeMode.enabled: <confNames>
. Entfernen Sie diese Konfigurationen aus Ihrer SparkSession-Konfiguration.
VERBINDEN
Generischer Spark Connect-Fehler.
Weitere Details finden Sie unter CONNECT
VERBINDUNG_BESTEHT_BEREITS
Es kann keine Verbindung <connectionName>
erstellt werden, da sie bereits vorhanden ist.
Wählen Sie einen anderen Namen, legen Sie die vorhandene Verbindung ab, oder ersetzen Sie die vorhandene Verbindung, oder fügen Sie die IF NOT EXISTS
Klausel hinzu, um bereits vorhandene Verbindungen zu tolerieren.
VERBINDUNGSNAME_DARF_NICHT_LEER_SEIN
Dieser Befehl kann nicht ausgeführt werden, da der Verbindungsname nicht leer sein muss.
VERBINDUNG_NICHT_GEFUNDEN
Dieser Befehl kann nicht ausgeführt werden, da der Verbindungsname <connectionName>
nicht gefunden wurde.
VERBINDUNGSOPTION_NICHT_UNTERSTÜTZT
Verbindungen vom Typ "<connectionType>
" unterstützen die folgenden Optionen nicht: <optionsNotSupported>
. Unterstützte Optionen: <allowedOptions>
.
VERBINDUNGSTYP_NICHT_UNTERSTÜTZT
Die Verbindung vom Typ '<connectionType>
' kann nicht erstellt werden. Unterstützte Verbindungstypen: <allowedTypes>
.
CONNECT_SESSION_MIGRATION
Generischer Sitzungsmigrationsfehler (userId: <userId>
, sessionId: <sessionId>
, serverSessionId: <serverSessionId>
).
Weitere Details finden Sie unter CONNECT_SESSION_MIGRATION.
EINSCHRÄNKUNGEN_ERFORDERN_UNITY_CATALOG
Tabelleneinschränkungen werden nur im Unity-Katalog unterstützt.
UNGÜLTIGE_UMWANDLUNGSEINGABE
Der Wert <str> (<fmt>
) kann nicht in <targetType>
konvertiert werden, da er fehlerhaft ist. Korrigieren Sie den Wert gemäß der Syntax, oder ändern Sie das Format. Verwenden Sie <suggestion>
, um falsch formatierte Eingaben zu tolerieren und stattdessen NULL
zurückzugeben.
KOPIEREN_IN_SPALTEN_ÄRGERNIS_ABSTIMMUNGSFEHLER
In <tableName>
kann nicht geschrieben werden. Ursache:
Weitere Details finden Sie unter COPY_INTO_COLUMN_ARITY_MISMATCH.
Kopieren in Anmeldedaten nicht erlaubt
Ungültiges Schema <scheme>
.
COPY INTO
-Quellanmeldeinformationen unterstützen derzeit nur s3/s3n/s3a/wasbs/abfss.
IN_CREDENTIALS_EINFÜGEN_ERFORDERLICH
COPY INTO
-Quellanmeldeinformationen müssen <keyList>
angeben.
Kopieren in duplizierte Dateien nicht erlaubt
Duplizierte Dateien wurden in einem gleichzeitigen COPY INTO
-Vorgang committet. Versuchen Sie es später erneut.
Kopieren in Verschlüsselung nicht erlaubt bei
Ungültiges Schema <scheme>
.
COPY INTO
Quellverschlüsselung unterstützt derzeit nur s3/s3n/s3a/abfss.
KOPIEREN_ZU_VERSCHLÜSSELUNG_NICHT_UNTERSTÜTZT_BEI_AZURE
COPY INTO
Verschlüsselung unterstützt nur ADLS Gen2 oder abfss:// Dateischema
KOPIEREN_INTO_VERSCHLÜSSELUNG_ERFORDERLICH
COPY INTO
Die Quellverschlüsselung muss '<key>
' angeben.
KOPIEREN_IN_VERSCHLÜSSELUNG_ERFORDERLICH_MIT_ERWARTET
Ungültige Verschlüsselungsoption <requiredKey>
.
COPY INTO
Die Quellverschlüsselung muss '<requiredKey>
' = '<keyValue>
' angeben.
Kopiervorgang aufgrund nicht kompatibler Einstellung nicht möglich
Das COPY INTO
Feature '<feature>
' ist nicht kompatibel mit '<incompatibleSetting>
'.
KOPIE_IN_NICHT-BLINDE_APPEND_ANHÄNGEN_NICHT_ERLAUBT
COPY INTO
Mit Ausnahme des Anfügens von Daten ist ein gleichzeitiges Ausführen mit anderen Transaktionen nicht erlaubt. Versuchen Sie es später erneut.
Copy into RocksDB: Maximale Anzahl an Wiederholungen überschritten
COPY INTO
konnte den Zustand nicht laden, die maximal zulässigen Wiederholungsversuche wurden überschritten.
Kopieren-in-Schema-Unstimmigkeit mit Zieltabelle
Beim Kopieren in die Delta-Tabelle (Tabelle: <table>
) wurde ein Schemakonflikt erkannt.
Dies kann auf ein Problem mit den eingehenden Daten hinweisen, oder das Delta-Tabellenschema kann automatisch entsprechend den eingehenden Daten weiterentwickelt werden, indem Sie Folgendes festlegen:
COPY_OPTIONS
('mergeSchema' = 'true')
Schemaunterschied:
<schemaDiff>
Kopieren_in_Quelle_Datei_Format_nicht_unterstützt
Das Format der Quelldateien muss eine von CSV, JSON, AVRO, ORC, PARQUET
, TEXT oder BINARYFILE
sein. Die Verwendung von COPY INTO
in Delta-Tabellen als Quelle wird nicht unterstützt, da nach OPTIMIZE
-Vorgängen doppelte Daten erfasst werden können. Diese Überprüfung kann durch Ausführen des SQL-Befehls set spark.databricks.delta.copyInto.formatCheck.enabled = false
deaktiviert werden.
Kopieren in Quellschema: Schema-Inferenz fehlgeschlagen
Das Quellverzeichnis enthielt keine parsierbaren Dateien vom Typ <format>
. Bitte überprüfen Sie den Inhalt von '<source>
'.
Der Fehler kann stummgehalten werden, indem "<config>
" auf "false" festgelegt wird.
INTERNER_FEHLER_BEI_VERSCHIEBEN_IN_ZUSTAND
Ein interner Fehler ist bei der Verarbeitung des Zustands COPY INTO
aufgetreten.
Weitere Details finden Sie unter COPY_INTO_STATE_INTERNAL_ERROR.
Syntaxfehler beim Kopieren
Fehler beim Analysieren des befehls "COPY INTO
".
Weitere Details finden Sie unter COPY_INTO_SYNTAX_ERROR.
Kopieren in nicht unterstützte Funktion
Das COPY INTO
Feature '<feature>
' wird nicht unterstützt.
Kopieren/Entladen-Formattyp wird nicht unterstützt
Daten können nicht im Format '<formatType>
' entladen werden. Unterstützte Formate für <connectionType>
sind: <allowedFormats>
.
FEHLERHAFTE_KATALOGFUNKTION
Die Katalogfunktion "<identifier>
" kann aufgrund beschädigter Funktionsinformationen im Katalog nicht in eine SQL-Funktion konvertiert werden. Wenn die Funktion keine SQL-Funktion ist, stellen Sie sicher, dass der Klassenname "<className>
" geladen werden kann.
ERSTELLE_FREMD_SCHEMA_NOCH_NICHT_IMPLEMENTIERT
Der Befehl CREATE FOREIGN SCHEMA
ist noch nicht implementiert.
ERSTELLE_AUSLÄNDISCHE_TABELLE_NOCH_NICHT_IMPLEMENTIERT
Der Befehl CREATE FOREIGN TABLE
ist noch nicht implementiert.
ERSTELLEN_ODER_AKTUALISIEREN_MV_NICHT_UNTERSTÜTZT
CREATE OR REFRESH MATERIALIZED VIEW
wird nicht unterstützt. Verwenden Sie stattdessen CREATE OR REPLACE MATERIALIZED VIEW
.
CREATE_OR_REFRESH_MV_ST_ASYNC (Erstellen_oder_Aktualisieren_MV_ST_Asynchron)
CREATE
ODER REFRESH
von materialisierten Ansichten oder Streamingtabellen bei Angabe von ASYNC
nicht möglich. Entfernen Sie ASYNC
aus der CREATE
OR REFRESH
-Anweisung, oder verwenden Sie REFRESH ASYNC
, um vorhandene materialisierte Ansichten oder Streamingtabellen asynchron zu aktualisieren.
CREATE_PERMANENTE_ANSICHT_OHNE_ALIAS
Es ist nicht zulässig, die permanente Ansicht <name>
zu erstellen, ohne dem Ausdruck <attr>
explizit einen Alias zuzuweisen.
ERSTELLE_TABELLEN_SPALTENBEZEICHNER_DUPLIKAT
CREATE TABLE
Spalte <columnName>
gibt den Deskriptor "<optionName>
" mehr als einmal an, was ungültig ist.
ANSICHT_ERSTELLEN_SPALTENARITÄTSUNSTIMMIGKEIT
Ansicht <viewName>
kann nicht erstellt werden, der Grund ist
Weitere Details finden Sie unter CREATE_VIEW_COLUMN_ARITY_MISMATCH.
ANMELDEDATEN_FEHLEN
Geben Sie beim Erstellen oder Aktualisieren externer Speicherorte Anmeldeinformationen an.
Anmeldezweck stimmt nicht überein
Die Anmeldeinformationen <credentialName>
haben den Verwendungszweck <actualPurpose>
, aber der im Befehl angegebene Verwendungszweck ist <expectedPurpose>
.
CSV_ENFORCE_SCHEMA_NICHT_UNTERSTÜTZT
Die CSV-Option enforceSchema
kann nicht festgelegt werden, wenn rescuedDataColumn
oder failOnUnknownFields
verwendet wird, da Spalten anstelle von Ordnungszahlen nach Namen gelesen werden.
Zyklische_Funktionsreferenz
Zyklische Funktionsreferenz wurde erkannt: <path>
.
DATABRICKS_DELTA_NICHT_AKTIVIERT
Databricks Delta ist in Ihrem Konto nicht aktiviert.<hints>
DATATYPE_MISMATCH
<sqlExpr>
kann aufgrund eines Datentypkonflikts nicht aufgelöst werden:
Weitere Details finden Sie unter DATATYPE_MISMATCH.
DATENTYP_FEHLENDE_GRÖSSE
DataType <type>
erfordert einen Längenparameter, z. B. <type>
(10). Geben Sie die Länge an.
Datenherkunft_gesicherte_Ansicht_Blattknoten_hat_keine_Relation
Schreibzeile nicht erfolgreich: Fehlende entsprechende Beziehung zu Richtlinien für CLM/RLS.
DATENQUELLE_EXISTIERT_BEREITS
Die Datenquelle '<provider>
' ist bereits vorhanden. Wählen Sie einen anderen Namen für die neue Datenquelle aus.
DATENQUELLE_EXTERNER_FEHLER
Fehler beim Speichern in externer Datenquelle.
DATENQUELLE_EXISTIERT_NICHT
Datenquelle '<provider>
' nicht gefunden. Stellen Sie sicher, dass die Datenquelle registriert ist.
DATENQUELLE_NICHT_GEFUNDEN
Fehler beim Auffinden der Datenquelle: <provider>
. Stellen Sie sicher, dass der Anbietername korrekt ist und das Paket ordnungsgemäß registriert und mit Ihrer Spark-Version kompatibel ist.
DATENQUELLEN_OPTION_ENTHÄLT_UNGÜLTIGE_ZEICHEN
Option <option>
darf nicht leer sein und darf keine ungültigen Zeichen, Abfragezeichenfolgen oder Parameter enthalten.
DATENQUELLENOPTION_IST_ERFORDERLICH
Option <option>
ist erforderlich.
DATENQUELLE_TABELLENSCHEMA_NICHTÜBEREINSTIMMUNG
Das Schema der Datenquellentabelle stimmt nicht mit dem erwarteten Schema überein. Wenn Sie die DataFrameReader.schema-API verwenden oder eine Tabelle erstellen, vermeiden Sie die Angabe des Schemas.
Datenquellenschema: <dsSchema>
Erwartetes Schema: <expectedSchema>
DATENQUELLEN-URL_NICHT_ERLAUBT
Die JDBC-URL ist in den Datenquellenoptionen nicht zulässig. Bitte geben Sie stattdessen die Optionen "Host", "Port" und "Datenbank" an.
DATUMSZEITFELD_AUSSERHALB_DES_BEREICHS
<rangeMessage>
.
Weitere Informationen finden Sie unter DATETIME_FIELD_OUT_OF_BOUNDS
DATUMSZEITÜBERLAUF
Überlauf beim datetime-Vorgang: <operation>
.
API_KONTINGENT_ÜBERSCHRITTEN
Sie haben das API-Kontingent für die Datenquelle <sourceName>
überschritten.
Weitere Details finden Sie unter DC_API_QUOTA_EXCEEDED.
DC_CONNECTION_ERROR
Fehler beim Herstellen einer Verbindung mit der <sourceName>
Quelle. Fehlercode: <errorCode>
.
Weitere Informationen finden Sie unter DC_CONNECTION_ERROR
DC_DYNAMICS_API_ERROR
Fehler in Dynamics-API-Aufrufen, errorCode: <errorCode>
.
Weitere Informationen finden Sie unter DC_DYNAMICS_API_ERROR
DC_NETSUITE_ERROR
Fehler bei Netsuite JDBC-Anrufen, Fehlercode: <errorCode>
.
Weitere Informationen finden Sie unter DC_NETSUITE_ERROR
DC_SCHEMA_CHANGE_ERROR
SQLSTATE: nicht zugewiesen
In der Tabelle <tableName>
der <sourceName>
Quelle ist eine Schemaänderung aufgetreten.
Weitere Details finden Sie unter DC_SCHEMA_CHANGE_ERROR
DC_SERVICENOW_API_ERROR
Fehler in ServiceNow-API-Aufrufen, errorCode: <errorCode>
.
Weitere Informationen finden Sie unter DC_SERVICENOW_API_ERROR
DC_SFDC_BULK_ABFRAGE_JOB_UNVOLLSTÄNDIG
Die Aufnahme für Objekt-<objName>
ist unvollständig, da der Salesforce-API-Abfrageauftrag zu lang dauerte, fehlgeschlagen oder manuell abgebrochen wurde.
Um es erneut zu versuchen, können Sie entweder die gesamte Pipeline erneut ausführen oder diese bestimmte Zieltabelle aktualisieren. Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein. Auftrags-ID: <jobId>
. Auftragsstatus: <jobStatus>
.
DC_SHAREPOINT_API_ERROR
Fehler in SharePoint-API-Aufrufen, errorCode: <errorCode>
.
Weitere Informationen finden Sie unter DC_SHAREPOINT_API_ERROR
DC_SOURCE_API_FEHLER
Fehler im <sourceName>
-API-Aufruf. Quell-API-Typ: <apiType>
. Fehlercode: <errorCode>
.
Dies kann manchmal passieren, wenn Sie einen <sourceName>
API-Grenzwert erreicht haben. Wenn Sie Ihren API-Grenzwert nicht überschritten haben, versuchen Sie, den Connector erneut auszuführen. Wenn das Problem weiterhin besteht, erstellen Sie ein Ticket.
DC_UNSUPPORTED_ERROR
In der Datenquelle <sourceName>
ist ein nicht unterstützter Fehler aufgetreten.
Weitere Details finden Sie unter DC_UNSUPPORTED_ERROR.
DC_WORKDAY_RAAS_API_ERROR
Fehler in Workday RAAS-API-Aufrufen, errorCode: <errorCode>
.
Weitere Details finden Sie unter DC_WORKDAY_RAAS_API_ERROR.
DEZIMALPRÄZISION ÜBERSCHREITET MAXIMALE PRÄZISION
Die Dezimalgenauigkeit <precision>
die maximale Genauigkeit <maxPrecision>
überschreitet.
STANDARD_DATENBANK_EXISTIERT_NICHT
Die Standarddatenbank <defaultDatabase>
ist nicht vorhanden, erstellen Sie sie zuerst, oder ändern Sie die Standarddatenbank in <defaultDatabase>
.
Standarddatei nicht gefunden
Es ist möglich, dass die zugrunde liegenden Dateien aktualisiert wurden. Sie können den Cache in Spark explizit ungültig machen, indem Sie den Befehl "REFRESH TABLE
tableName" in SQL ausführen oder das dataset/DataFrame neu erstellen. Wenn der Festplattencache veraltet ist oder die zugrunde liegenden Dateien entfernt wurden, können Sie den Festplattencache manuell ungültig machen, indem Sie den Cluster neu starten.
STANDARDPLATZIERUNG_UNGÜLTIG
Ein DEFAULT
Schlüsselwort in einem MERGE
, INSERT
, UPDATE
oder SET VARIABLE
Befehl konnte einer Zielspalte nicht direkt zugewiesen werden, da es Teil eines Ausdrucks war.
Beispiel: UPDATE SET c1 = DEFAULT
ist zulässig, ist aber UPDATE T SET c1 = DEFAULT + 1
nicht zulässig.
STANDARD_NICHT_UNTERSTÜTZT
Fehler beim Ausführen <statementType>
-Befehls, da DEFAULT
-Werte für die Zieldatenquelle mit dem folgenden Tabellenanbieter nicht unterstützt werden: <dataSource>
.
BESCHREIBE_JSON_NICHT_ERWEITERT
DESCRIBE TABLE
... AS JSON wird nur unterstützt, wenn [EXTENDED|FORMATTED
] angegeben wird.
Beispiel: DESCRIBE EXTENDED <tableName>
AS JSON wird unterstützt, aber DESCRIBE <tableName>
AS JSON nicht.
UNTERSCHIEDLICHE_DELTA-TABELLE_LESEN_DURCH_STREAMING-QUELLE
Die Streamingabfrage las aus einer unerwarteten Delta-Tabelle (id = '<newTableId>
').
Gemäß Prüfpunkt las sie ursprünglich aus einer anderen Delta-Tabelle (id = '<oldTableId>
').
Dies kann passieren, wenn Sie den Code so geändert haben, dass er aus einer neuen Tabelle gelesen oder gelöscht wurde und
Eine Tabelle neu erstellt. Bitte setzen Sie Ihre Änderung zurück oder löschen Sie Ihren Streamingabfrageprüfpunkt.
um noch einmal von vorn zu beginnen.
NICHT_UNTERSTÜTZTE_DISTINKTE_FENSTERFUNKTION
Verschiedene Fensterfunktionen werden nicht unterstützt: <windowExpr>
.
DIVIDE_BY_ZERO
Division durch Null. Verwenden Sie try_divide
, um divisor 0 zu tolerieren und stattdessen NULL
zurückzugeben. Legen Sie <config>
bei Bedarf auf "false" fest, um diesen Fehler zu umgehen.
Weitere Details finden Sie unter DIVIDE_BY_ZERO
DLT_ERWARTUNGEN_NICHT_UNTERSTÜTZT
Erwartungen werden nur in Lakeflow Declarative Pipelines unterstützt.
DLT_VIEW_CLUSTER_BY_NICHT_UNTERSTÜTZT
MATERIALIZED
VIEWs mit einer CLUSTER BY
-Klausel werden nur in Lakeflow Declarative Pipelines unterstützt.
DLT_ANZEIGEORT_NICHT_UNTERSTÜTZT
Materialisierte Ansichtsstandorte werden nur in Lakeflow Declarative Pipelines unterstützt.
DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED (Ansichtsschema mit Typ wird nicht unterstützt)
Materialisierte Ansichtsschemas mit einem angegebenen Typ werden nur in Lakeflow Declarative Pipelines unterstützt.
DLT_VIEW_TABLE_CONSTRAINTS_NICHT_UNTERSTÜTZT
CONSTRAINT
Klauseln in einer Ansicht werden nur in Lakeflow Declarative Pipelines unterstützt.
DROP_PLAN_EXISTIERT_NICHT
SCHEDULE
kann nicht in einer Tabelle ohne vorhandenen Zeitplan oder Trigger abgelegt werden.
Duplizierte_CTE_Namen
Die CTE-Definition darf keine doppelten Namen haben: <duplicateNames>
.
DUPLIZIERTER_FELDNAME_IN_ARROW_STRUKTUR
Doppelte Feldnamen in Arrow Struct sind nicht zulässig, <fieldNames>
abgerufen.
DUPLIZIERTER_KARTENSCHLÜSSEL
Duplizierter Zuordnungsschlüssel <key>
wurde gefunden, bitte überprüfen Sie die Eingabedaten.
Wenn Sie die duplizierten Schlüssel entfernen möchten, können Sie <mapKeyDedupPolicy>
auf "LAST_WIN
" festlegen, sodass der zuletzt eingefügte Schlüssel Vorrang hat.
DUPLIZIERTER_METRIKENNAME
Der Metrikname ist nicht eindeutig: <metricName>
. Derselbe Name kann nicht für Metriken mit unterschiedlichen Ergebnissen verwendet werden.
Mehrere Instanzen von Metriken mit demselben Ergebnis und Namen sind jedoch zulässig (z. B. Self-Joins).
DOPPELTE_ZUWEISUNGEN
Die Spalten oder Variablen <nameList>
werden mehr als einmal als Zuweisungsziele verwendet.
Doppelte Klauseln
Doppelte Klauseln gefunden: <clauseName>
. Entfernen Sie eine davon.
DOPPELTE_BEDINGUNG_IM_SCOPE
Es wurde eine duplizierte Bedingung <condition>
im Bereich gefunden. Entfernen Sie eine davon.
DUPLICATE_EXCEPTION_HANDLER
Es wurden doppelte Handler gefunden. Entfernen Sie eine davon.
Weitere Informationen finden Sie unter DUPLICATE_EXCEPTION_HANDLER
DUPLIZIERTER_SCHLÜSSEL
Doppelte Schlüssel <keyColumn>
gefunden.
DUPLICATE_ROUTINENPARAMETERZUWEISUNG
Der Aufruf an routine <routineName>
ist ungültig, da er mehrere Argumentzuweisungen zum gleichen Parameternamen <parameterName>
enthält.
Weitere Details finden Sie unter DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT.
DUPLIKATE_ROUTINE_PARAMETER_NAMEN
Doppelte Namen in der Parameterliste der benutzerdefinierten Routine gefunden <routineName>
: <names>
.
DUPLIZIERTE_ROUTINE_RÜCKGABE_SPALTEN
Doppelte Spalten in der RETURNS
Klauselspaltenliste der benutzerdefinierten Routine <routineName>
gefunden: <columns>
.
AUSGABE_VON_REIHEN_ÄLTER_ALS_DER_WASSERSTAND_NICHT_ERLAUBT
Vorheriger Knoten hat eine Zeile mit eventTime=<emittedRowEventTime>
ausgegeben, die älter als current_watermark_value=<currentWatermark>
ist.
Dies kann zu Problemen bei der Korrektheit in den zustandsbehafteten Operatoren führen, die in der Ausführungspipeline nachgelagert sind.
Korrigieren Sie die Operatorlogik, um Zeilen nach dem aktuellen globalen Wasserzeichenwert auszugeben.
EMPTY_JSON_FIELD_VALUE (Leerer JSON-Feldwert)
Fehler beim Analysieren einer leeren Zeichenfolge für den Datentyp <dataType>
.
LEERE_LOKALE_DATEI_IM_STAGING_ZUGRIFFSABFRAGE
Leere lokale Datei in Staging-<operation>
-Abfrage
EMPTY_SCHEMA_NICHT_UNTERSTÜTZT_FÜR_DATASOURCE
Die <format>
-Datenquelle unterstützt das Schreiben leerer oder geschachtelter leerer Schemas nicht. Stellen Sie sicher, dass das Datenschema mindestens eine Spalte(n) aufweist.
Encoder_nicht_gefunden
Es wurde kein Encoder des Typs <typeName>
für die interne Darstellung von Spark SQL gefunden.
Erwägen Sie, den Eingabetyp in einen der unterstützten Werte unter '<docroot>
/sql-ref-datatypes.html' zu ändern.
END_MARKIERUNG_OHNE_BEGINN_MARKIERUNG
Die Endmarke <endLabel>
kann nicht ohne eine Anfangsmarke existieren.
END_OFFSET_HAT_EINEN_GRÖSSEREN_OFFSET_FÜR_TOPIC_PARTITION_ALS_LATEST_MIT_TRIGGER_AVAILABLENOW
Einige Partitionen in Kafka-Topic(s) berichten über einen verfügbaren Offset, der kleiner ist als der End-Offset, während eine Abfrage mit Trigger.AvailableNow ausgeführt wird. Der Fehler kann vorübergehend sein: Starten Sie Die Abfrage neu, und melden Sie, wenn dasselbe Problem weiterhin angezeigt wird.
Neuester Offset: <latestOffset>
, Endoffset: <endOffset>
ENDE_OFFSET_HAT_GRÖSSEREN_OFFSET_FÜR_TOPIC_PARTITION_ALS_VORABGELADEN
Für die Kafka-Datenquelle mit „Trigger.AvailableNow“ sollte der Endoffset pro Themenpartition über einen geringeren oder gleichen Offset verfügen als der vorab abgerufene Offset. Der Fehler kann vorübergehend sein: Starten Sie Die Abfrage neu, und melden Sie, wenn dasselbe Problem weiterhin angezeigt wird.
Vorab abgerufener Offset: <prefetchedOffset>
, Endoffset: <endOffset>
.
FEHLER_BEIM_LESEN_AVRO_UNBEKANNTER_FINGERABDRUCK
Fehler beim Lesen von Avro-Daten : Unbekannter Fingerabdruck: <fingerprint>
, nicht sicher, welches Schema verwendet werden soll.
Dies kann passieren, wenn Sie nach dem Starten des Spark-Kontexts zusätzliche Schemas registriert haben.
Ereignisprotokoll leer
Das Ereignisprotokoll von <tableOrPipeline>
hat kein Schema und enthält keine Ereignisse. Versuchen Sie es später erneut, nachdem Ereignisse generiert wurden.
EVENT_PROTOKOLL_ERFORDERT_GETEILTE_RECHENLEISTUNG
Ereignisprotokolle können nicht aus einem Cluster vom Typ „Zugewiesen“ oder „Keine Isolation freigegeben“ abgefragt werden. Bitte verwenden Sie stattdessen einen Cluster vom Typ „Freigegeben“ oder ein Databricks SQL-Warehouse.
EREIGNISPROTOKOLL_TVF_NICHT_UNTERSTÜTZT_FÜR_PIPELINE
Die TVF EVENT_LOG
wird für Pipelines mit dem Feld „schema“ oder der Pipelines, die im Standardspeicher veröffentlicht werden, nicht unterstützt.
Um das Ereignisprotokoll abzufragen, veröffentlichen Sie es im Metastore, indem Sie das Feld event_log in den Pipelineeinstellungen angeben.
Weitere Informationen finden Sie in der Dokumentation zu Monitor Lakeflow Declarative Pipelines: https://docs.databricks.com/aws/en/delta-live-tables/observability.
Ereignisprotokoll nicht verfügbar
Für <tableOrPipeline>
sind keine Ereignisprotokolle verfügbar. Versuchen Sie es später erneut, nachdem die Ereignisse generiert worden sind.
EVENT_LOG_NICHT_UNTERSTÜTZTER_TABELLENTYP
Der Tabellentyp von <tableIdentifier>
ist <tableType>
.
Das Abfragen von Ereignisprotokollen unterstützt nur materialisierte Ansichten, Streamingtabellen oder Lakeflow Declarative Pipelines.
EREIGNISZEIT_IST_NICHT_IM_ZEITSTEMPEL_TYP
Die Ereigniszeit <eventName>
weist den ungültigen Typ <eventType>
auf, erwartet aber "TIMESTAMP
".
LÄNGENLIMIT_ÜBERSCHREITEN
Überschreitet die Einschränkung der Zeichen-/Varchar-Typlänge: <limit>
.
EXCEPT_VERSCHACHTELTE_SPALTE_UNGÜLTIGER_TYP
EXCEPT
Spalte <columnName>
wurde gelöst und es wurde erwartet, dass es sich um StructType handelt, es wurde jedoch Typ <dataType>
gefunden.
AUSSER_ÜBERLAPPENDE_SPALTEN
Spalten in einer EXCEPT
-Liste müssen eindeutig und nicht überlappend sein, empfangen wurde aber (<columns>
).
Außer-gelöste-Spalten-ohne-Übereinstimmung
EXCEPT
-Spalten [<exceptColumns>
] wurden aufgelöst, entsprechen jedoch keiner der Spalten [<expandedColumns>
] aus der Sternerweiterung.
AUSNAHME_UNAUFGELÖSTE_SPALTE_IN_STRUCT_EXPANSION
Der Spalten-/Feldname <objectName>
in der EXCEPT
-Klausel kann nicht aufgelöst werden. Meinten Sie eine der folgenden: [<objectList>
]?
Hinweis: Geschachtelte Spalten in der EXCEPT
-Klausel dürfen während einer struct-Erweiterung keine Qualifizierer (Tabellenname, Name der übergeordneten struct-Spalte usw.) enthalten. Versuchen Sie, Qualifizierer zu entfernen, wenn sie mit geschachtelten Spalten verwendet werden.
EXECUTOR_BROADCAST_JOIN_OOM
Es ist nicht genügend Arbeitsspeicher vorhanden, um die Übertragungsbeziehung <relationClassName>
zu erstellen. Beziehungsgröße = <relationSize>
. Gesamtspeicher, der von dieser Aufgabe verwendet wird = <taskMemoryUsage>
. Arbeitsspeichermanager-Metriken für Executor: onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>
, offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>
, onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>
, offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>
. [sparkPlanId: <sparkPlanId>
] Deaktivieren Sie Übertragungen für diese Abfrage mithilfe von „set spark.sql.autoBroadcastJoinThreshold=-1“, oder verwenden Sie Join-Hinweise, um unsortierte Joins zu erzwingen.
EXECUTOR_BROADCAST_JOIN_STORE_OOM
Es ist nicht genügend Arbeitsspeicher vorhanden, um die Übertragungsbeziehung <relationClassName>
zu speichern. Beziehungsgröße = <relationSize>
. StorageLevel = <storageLevel>
. [sparkPlanId: <sparkPlanId>
] Deaktivieren Sie Übertragungen für diese Abfrage mithilfe von „set spark.sql.autoBroadcastJoinThreshold=-1“, oder verwenden Sie Join-Hinweise, um unsortierte Joins zu erzwingen.
AUSFÜHRUNG_SOFT_DOPPELTE_ARGUMENT_ALIASE
Die USING
Klausel dieses EXECUTE IMMEDIATE
Befehls enthielt mehrere Argumente mit demselben Alias (<aliases>
), was ungültig ist; Aktualisieren Sie den Befehl, um eindeutige Aliase anzugeben, und versuchen Sie es dann erneut.
ERWARTEN_SIE_EINE_DAUERTABELLE_NICHT_TEMPORÄR
"<operation>
" erwartet eine permanente Tabelle, ist aber <tableName>
eine temporäre Tabelle. Geben Sie stattdessen eine permanente Tabelle an.
ERWARTE_DAUERANSICHT_NICHT_TEMPORÄR
"<operation>
" erwartet eine permanente Ansicht, aber <viewName>
ist eine temporäre Ansicht.
ERWARTE_TABELLE_NICHT_SICHT
"<operation>
" erwartet eine Tabelle, aber <viewName>
ist eine Ansicht.
Weitere Informationen finden Sie unter EXPECT_TABLE_NOT_VIEW
EXPECT_VIEW_NOT_TABLE
Die Tabelle <tableName>
unterstützt <operation>
nicht.
Weitere Informationen finden Sie unter EXPECT_TABLE_NOT_TABLE
Ausdruck_Decodierung_Fehlgeschlagen
Fehler beim Decodieren einer Zeile in einen Wert der Ausdrücke: <expressions>
.
AUSDRUCK_CODIERUNG_FEHLGESCHLAGEN
Fehler beim Codieren eines Werts der Ausdrücke: <expressions>
in eine Zeile.
AUSDRUCKSTYP_IST_NICHT_SORTIERBAR
Der Spaltenausdruck <expr>
kann nicht sortiert werden, da der Typ <exprType>
nicht sortiert werden kann.
EXTERNER_FLACHER_KLON_EXISTIERT_NOCH
Fehler beim Ausführen des Vorgangs an der Quelltabelle <sourceTable>
, da der flache Klon <targetTable>
noch vorhanden ist und dessen Status ungültig ist. Wenn Sie diesen Vorgang tatsächlich fortsetzen möchten, bereinigen Sie den flachen Klon, indem Sie explizit den DROP
-Befehl ausführen.
EXTERNE_TABELLE_UNGÜLTIGES_SCHEMA
Externe Tabellen unterstützen das <scheme>
Schema nicht.
FABRIC_REFRESH_UNGÜLTIGER_BEREICH
Fehler beim Ausführen von 'REFRESH FOREIGN <scope> <name>
'. Ein Fabric <scope>
kann nicht direkt aktualisiert werden. Verwenden Sie stattdessen 'REFRESH FOREIGN CATALOG <catalogName>
' zum Aktualisieren des Fabric-Katalogs.
AUSFÜHRUNG_UDF_FEHLGESCHLAGEN
Die benutzerdefinierte Funktion (<functionName>
: (<signature>
) =>
<result>
) ist fehlgeschlagen aufgrund von: <reason>
.
FEHLGESCHLAGEN_FUNKTIONSAUFRUF
Fehler beim Vorbereiten der Funktion <funcName>
für den Aufruf. Bitte überprüfen Sie die Argumente der Funktion.
FAILED_JDBC
Fehler beim JDBC-Operator <url>
im Vorgang:
Weitere Informationen finden Sie unter FAILED_JDBC
FEHLGESCHLAGEN_PARSE_STRUCT_TYPE
Fehler beim Analysieren der Struktur: <raw>
.
FEHLER_BEIM_LESEN_DER_DATEI
Fehler beim Lesen der Datei <path>
.
Weitere Details finden Sie unter FAILED_READ_FILE.
FEHLGESCHLAGEN_BEIM_REGISTRIEREN_DER_KLASSE_MIT_KRYO
Fehler beim Registrieren von Klassen bei Kryo.
"UMBENENNEN_DES_PFADES_FEHLGESCHLAGEN"
Fehler beim Umbenennen von <sourcePath>
in <targetPath>
, da das Ziel bereits vorhanden ist.
UMBENENNEN_TEMP_DATEI_FEHLGESCHLAGEN
Fehler beim Umbenennen der temporären Datei <srcPath>
in <dstPath>
, da FileSystem.rename den Wert "false" zurückgegeben hat.
Since maintaining the original term may be most appropriate here, no changes are recommended if it is indeed a proper technical term. However, if clarification is needed, consider providing an explanatory translation or additional context elsewhere.
Fehler beim Konvertieren des Zeilenwerts <value>
der Klasse <class>
in den SQL-Zieltyp <sqlType>
im JSON-Format.
FEHLER_BEIM_LADEN_ROUTINE
Fehler beim Laden der Routine-<routineName>
.
FEHLGESCHLAGEN_BEIM_PARSEN_ZU_KOMPLEX
Die Anweisung, einschließlich potenzieller SQL-Funktionen und referenzierter Ansichten, war zu komplex, um zu analysieren.
Um diesen Fehler zu vermeiden, teilen Sie die Anweisung in mehrere, weniger komplexe Blöcke auf.
FUNKTION_NICHT_AKTIVIERT
Das Feature <featureName>
ist nicht aktiviert. Erwägen Sie, die Konfiguration <configKey>
auf <configValue>
festzulegen, um diese Funktion zu aktivieren.
Funktion nicht im klassischen Lager erhältlich
<feature>
wird für klassische SQL-Lagerhäuser nicht unterstützt. Um dieses Feature zu verwenden, verwenden Sie ein Pro- oder Serverless SQL Warehouse.
FUNKTION_ERFORDERT_UC
<feature>
wird ohne Unity-Katalog nicht unterstützt. Um dieses Feature zu verwenden, aktivieren Sie Unity-Katalog.
FUNKTION_NICHT_VERFÜGBAR
<feature>
wird in Ihrer Umgebung nicht unterstützt. Wenden Sie sich an den Databricks-Support, um dieses Feature zu verwenden.
FELD_EXISTIERT_BEREITS
<op>
für Spalte nicht möglich, da <fieldNames>
bereits in <struct>
vorhanden ist.
Feld nicht gefunden
Kein solches Strukturfeld <fieldName>
in <fields>
.
DATEI_IM_ABGESTELLTEN_VERZEICHNIS_BESTEHT_BEREITS
Die Datei im Stagingpfad <path>
ist bereits vorhanden, aber OVERWRITE
ist nicht festgelegt
FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR
Fehler in der vom Benutzer bereitgestellten Funktion in flatMapGroupsWithState. Grund: <reason>
VERBOTENE_DATENQUELLE_IN_SERVERLOS
Das Abfragen der Datenquelle <source>
in serverloser Berechnung ist nicht zulässig. Nur <allowlist>
Datenquellen werden in serverloser Berechnung unterstützt.
VERBOTENE_OPERATION
Der Vorgang <statement>
ist für den <objectType>
nicht zulässig: <objectName>
.
FEHLER_BEI_JEDER_CHARGEN_BENUTZERFUNKTION
Fehler in der benutzerseitig bereitgestellten Funktion in der foreach-Batchsenke. Grund: <reason>
FEHLER_IN_JEDE_BENUTZERFUNKTION
Fehler in der benutzerseitig bereitgestellten Funktion in der foreach-Senke. Grund: <reason>
Fremdschlüssel-Diskrepanz
Übergeordnete Fremdschlüsselspalten <parentColumns>
stimmen nicht mit untergeordneten Primärschlüsselspalten <childColumns>
überein.
Fremdobjektname_kann_nicht_leer_sein
Dieser Befehl kann nicht ausgeführt werden, da der Fremdname <objectType>
nicht leer sein darf.
Umwandlung von Fremdtabelle nicht unterstützt
Die Tabelle ist nicht für das Upgrade von UC Foreign auf UC External berechtigt. Grund:
Weitere Informationen finden Sie unter FOREIGN_TABLE_CONVERSION_UNSUPPORTED
Mehrere Datenquellen gefunden
Es wurden mehrere Datenquellen mit dem Namen '<provider>
' erkannt. Überprüfen Sie, ob die Datenquelle nicht gleichzeitig registriert ist und sich im Klassenpfad befindet.
AUS_JSON_KONFLIKT_SCHMEUPDATES
Bei einem from_json-Rückschluss wurden an folgender Stelle widersprüchliche Schemaaktualisierungen festgestellt: <location>
FROM_JSON_BESCHÄDIGTER_DATENSATZ_SPALTE_IN_SCHEMA
from_json gefunden columnNameOfCorruptRecord (<columnNameOfCorruptRecord>
) in einem
JSON-Objekt gefunden. Fortsetzung nicht möglich. Bitte konfigurieren Sie einen anderen Wert für
die Option „columnNameOfCorruptRecord“.
VON_JSON_BESCHÄDIGTES_SCHEMA
from_json Inference konnte das unter <location>
gespeicherte Schema nicht lesen.
FEHLER BEI DER INFERENZ AUS JSON
from_json konnte das Schema nicht ableiten. Bitte geben Sie stattdessen eine an.
FROM_JSON_SCHLUSSFOLGERUNG_NICHT_UNTERSTÜTZT
Ein from_json Rückschluss wird nur beim Definieren von Streamingtabellen unterstützt.
UNGÜLTIGE_KONFIGURATION_AUS_JSON
from_json Konfiguration ist ungültig:
Weitere Details finden Sie unter FROM_JSON_INVALID_CONFIGURATION.
VON_JSON_SCHEMA_EVOLUTION_FEHLGESCHLAGEN
from_json konnte sich nicht von <old>
zu <new>
entwickeln.
FUNKTION_PARAMETER_MÜSSEN_BENANNT_WERDEN
Für die Funktion <function>
sind benannte Parameter erforderlich. Parameter ohne Namen: <exprs>
. Aktualisieren Sie den Funktionsaufruf, um Namen für alle Parameter hinzuzufügen, z. B. (param_name = ...).
GENERIERTE_SPALTE_MIT_STANDARDWERT
Eine Spalte kann nicht sowohl einen Standardwert als auch einen Generierungsausdruck aufweisen, aber <colName>
hat Standardwert: (<defaultValue>
) und Generierungsausdruck: (<genExpr>
).
GET_TABLES_BY_TYPE_UNTERSTÜTZT_NICHT_DURCH_HIVE_VERSION
Hive 2.2 und niedrigere Versionen unterstützen getTablesByType nicht. Verwenden Sie hive 2.3 oder höher.
AUFWÄRMEN_NACHVERFOLGUNG_FEHLGESCHLAGEN
Fehler beim Abrufen der Aufwärmablaufverfolgung. Ursache: <cause>
.
WARMUP-TRACE-FUNKTION-NICHT-ERLAUBT
Funktion „get_warmup_tracing()“ nicht zulässig.
GRAPHITE_SINK_UNGÜLTIGES_PROTOKOLL
Ungültiges Graphite-Protokoll: <protocol>
.
GRAPHITE_SINK_EIGENSCHAFT_FEHLT
Graphite-Senke erfordert die „<property>
“-Eigenschaft.
Gruppierungsspalte_Fehler
Die Spalte der Gruppierung (<grouping>
) kann in den Gruppierungsspalten <groupingColumns>
nicht gefunden werden.
GRUPPIERUNG_ID_SPALTEN_UNSTIMMIGKEIT
Spalten von grouping_id (<groupingIdColumn>
) stimmen nicht mit den Gruppierungsspalten (<groupByColumns>
) überein.
Gruppierungsgrößenlimit überschritten
Die Größe der Gruppierungssätze darf nicht größer sein als <maxSize>
.
Gruppierung_nach_Aggregat
Aggregatfunktionen sind in GROUP BY
nicht zulässig, doch wurden sie in <sqlExpr>
gefunden.
Weitere Details finden Sie unter GROUP_BY_AGGREGATE.
GRUPPIERE_NACH_POS_AGGREGAT
GROUP BY <index>
bezieht sich auf einen Ausdruck <aggExpr>
, der eine Aggregatfunktion enthält. Aggregatfunktionen sind in GROUP BY
nicht zulässig.
GRUPPIERUNG_NACH_POS_AUßERHALB_DES_BEREICHS
Position GROUP BY
<index>
ist nicht in der Auswahlliste enthalten (gültiger Bereich ist [1, <size>
]).
GRUPPEN_AUSDRUCK_TYP_IST_NICHT_ORDNUNGSFÄHIG
Der Ausdruck <sqlExpr>
kann nicht als Gruppierungsausdruck verwendet werden, da der Datentyp <dataType>
kein geordneter Datentyp ist.
HDFS_HTTP_ERROR
Beim Versuch, aus HDFS zu lesen, ist die HTTP-Anforderung fehlgeschlagen.
Weitere Informationen finden Sie unter HDFS_HTTP_ERROR
HINWEIS_NICHT_UNTERSTÜTZT_FÜR_JDBC_DIALEKT
Die Option hint
wird für <jdbcDialect>
in der JDBC-Datenquelle nicht unterstützt. Unterstützte Dialekte sind MySQLDialect
OracleDialect
und DatabricksDialect
.
HIVE_METASTORE_UNGÜLTIGER_PLATZHALTERPFAD
Die Abfrage oder der Befehl konnte nicht ausgeführt werden, da die Konfiguration "spark.databricks.hive.metastore.tablePlaceholderPath" einen ungültigen Pfad für den Hive-Metastore-Tabellenplatzhalter bereitgestellt hat. Aktualisieren Sie diese Konfiguration mit einem neuen Wert, um einen gültigen Pfad bereitzustellen, und führen Sie dann die Abfrage oder den Befehl erneut aus.
HIVE_METASTORE_TABLE_PLACEHOLDER_PATH_NOT_SET
Fehler bei der Abfrage oder dem Befehl, da der Platzhalterpfad der Hive-Metastore-Tabelle nicht festgelegt ist, was erforderlich ist, wenn sich der Schemaspeicherort auf DBFS befindet und der Tabellenspeicherort ein Objekt/eine Datei ist. Legen Sie "spark.databricks.hive.metastore.tablePlaceholderPath" auf einen Pfad fest, auf den Sie Zugriff haben, und führen Sie dann die Abfrage oder den Befehl erneut aus.
Fehler: Ungültiger Eingabe-Skizzenpuffer
Ungültiger Aufruf von <function>
; nur gültige HLL-Skizzenpuffer werden als Eingaben (z. B. von der hll_sketch_agg
-Funktion erzeugte) unterstützt.
HLL_INVALID_LG_K
Ungültiger Aufruf von <function>
; der Wert lgConfigK
muss zwischen <min>
und <max>
liegen (einschließlich): <value>
.
HLL_UNION_DIFFERENT_LG_K
Skizzen weisen unterschiedliche lgConfigK
Werte auf: <left>
und <right>
. Legen Sie den parameter allowDifferentLgConfigK
auf "true" fest, um <function>
mit unterschiedlichen lgConfigK
Werten aufzurufen.
HMS_FEDERATION_SHALLOW_CLONE_NOT_FOUND_IN_UC
Der flache Klonpfad "<path>
" konnte nicht in eine Tabelle im Unity-Katalog aufgelöst werden. Stellen Sie sicher, dass die Tabelle vorhanden ist und mit dem Unity-Katalog verbunden ist.
HYBRID_ANALYZER_EXCEPTION
Es trat ein Fehler auf, als versucht wurde, eine Abfrage oder einen Befehl sowohl mit dem veralteten Fixed-Point-Analyzer als auch mit dem Single-Pass-Resolver zu verarbeiten.
Weitere Details finden Sie in HYBRID_ANALYZER_EXCEPTION.
IDENTIFIKATOR_ZU_VIELE_NAME_TEILE
<identifier>
ist kein gültiger Bezeichner, da er mehr als 2 Namensteile enthält.
IDENTITÄTSSPALTE_DOPPELTE_SEQUENZ_GENERATOR_OPTION
Duplizierte Option für Sequenzgenerator für IDENTITY
-Spalte: <sequenceGeneratorOption>
.
IDENTITÄTSSPALTEN_UNZULÄSSIGER_SCHRITT
IDENTITY
Spaltenschritt darf nicht 0 sein.
IDENTITÄTSSPALTEN_UNTERSTÜTZT_DATENTYP_NICHT
DataType-<dataType>
wird für IDENTITY
Spalten nicht unterstützt.
UNGÜLTIGER_TAG_DER_WOCHE
Unzulässige Eingabe für Wochentag: <string>
.
UNGÜLTIGER_ZUSTANDSSPEICHERWERT
Ungültiger Wert, der für den Zustandsspeicher bereitgestellt wird
Weitere Details finden Sie unter ILLEGAL_STATE_STORE_VALUE.
Ungeeignetes URI-Schema für Verbindungsoption
Die Verbindung kann aufgrund eines unangemessenen URI-Schemas <uri>
nicht erstellt werden, das für die Verbindungsoption '<option>
' bereitgestellt wurde.
Zulässige(s) Schema(s): <allowedSchemes>
.
Fügen Sie ein Schema hinzu, wenn es nicht im URI vorhanden ist, oder geben Sie ein Schema aus den zulässigen Werten an.
UNVERGLEICHLICHE_PIVOT_SPALTE
Ungültige Pivotspalte <columnName>
. Pivotspalten müssen vergleichbar sein.
INKOMPATIBLER_SPALTENTYP
<operator>
kann nur für Tabellen mit kompatiblen Spaltentypen ausgeführt werden. Die <columnOrdinalNumber>
-Spalte der <tableOrdinalNumber>
-Tabelle hat den Typ <dataType1>
, welcher nicht mit <dataType2>
in der gleichen Spalte der ersten Tabelle kompatibel ist.<hint>
.
Inkompatible Datenquelle registrieren
Es wurde ein inkompatibles DataSourceRegister erkannt. Entfernen Sie die inkompatible Bibliothek aus dem Klassenpfad, oder aktualisieren Sie sie. Fehler: <message>
INKOMPATIBLE_DATEN_FÜR_TABELLE
Inkompatible Daten für die Tabelle <tableName>
können nicht geschrieben werden:
Weitere Details finden Sie unter INCOMPATIBLE_DATA_FOR_TABLE.
INKOMPATIBLE_VERKNÜPFUNGSARTEN
Die Verknüpfungstypen <joinType1>
und <joinType2>
sind inkompatibel.
INKOMPATIBLE_ANSICHT_SCHEMAÄNDERUNG
Die SQL-Abfrage der Ansicht <viewName>
weist eine inkompatible Schemaänderung auf und die Spalte <colName>
kann nicht aufgelöst werden. Es wurden <expectedNum>
-Spalten mit dem Namen <colName>
erwartet, es wurde aber <actualCols>
erhalten.
Versuchen Sie, die Ansicht erneut zu erstellen, indem Sie folgendes ausführen: <suggestion>
.
UNVOLLSTÄNDIGE_TYP_DEFINITION
Unvollständiger komplexer Typ:
Weitere Details finden Sie unter INCOMPLETE_TYPE_DEFINITION.
INKONSISTENTES_VERHALTEN_ÜBER_VERSIONEN
Möglicherweise erhalten Sie aufgrund des Upgrades ein anderes Ergebnis
Weitere Details finden Sie unter INCONSISTENT_BEHAVIOR_CROSS_VERSION.
FALSCHE_ANZAHL_AN_ARGUMENTEN
<failure>
, <functionName>
erfordert mindestens <minArgs>
Argumente und maximal <maxArgs>
Argumente.
Falsche Anstiegsrate
Der maximale Versatz mit <rowsPerSecond>
rowsPerSecond ist <maxSeconds>
, aber „rampUpTimeSeconds“ ist <rampUpTimeSeconds>
.
UNBESTIMMTE_SORTIERUNG
Es konnte nicht ermittelt werden, welche Sortierung für den Zeichenfolgevorgang verwendet werden soll. Verwenden Sie die COLLATE
-Klausel, um die Sortierung explizit festzulegen.
UNBESTIMMTE_SORTIERFOLGE_IN_AUSDRUCK
Der Datentyp von <expr>
hat eine unbestimmte Sortierung. Verwenden Sie die COLLATE
-Klausel, um die Sortierung explizit festzulegen.
UNBESTIMMTE SORTIERUNG_IN_SCHEMA
Das Schema enthält unbestimmte Sortierung bei: [<columnPaths>
]. Verwenden Sie die COLLATE
-Klausel, um die Sortierung explizit festzulegen.
INDEX_EXISTIERT_BEREITS
Der Index <indexName>
kann für die Tabelle <tableName>
nicht erstellt werden, da er bereits existiert.
INDEX_NICHT_GEFUNDEN
Der Index <indexName>
in tabelle <tableName>
wurde nicht gefunden.
UNENDLICHER_STREAMING_AUSLÖSER_NICHT_UNTERSTÜTZT
Der Triggertyp <trigger>
wird für diesen Clustertyp nicht unterstützt.
Verwenden Sie einen anderen Triggertyp, z. B. AvailableNow, Once.
EINFÜGEN_SPALTEN_ARITÄTSKONFLIKT
In <tableName>
kann nicht geschrieben werden. Ursache:
Weitere Informationen finden Sie unter INSERT_COLUMN_ARITY_MISMATCH.
Einfügen_Spaltenanzahl_Übereinstimmung_FEHLER
In <tableName>
kann nicht geschrieben werden. <reason>
:
Tabellenspalten: <tableColumns>
.
Partitionsspalten mit statischen Werten: <staticPartCols>
.
Datenspalten: <dataColumns>
.
Einfügen_Ersetzen_mit_ungültigem_Satz_von_Spalten
Tabelle muss partitioniert werden, und alle angegebenen Spalten müssen den vollständigen Satz der Partitionsspalten der Tabelle darstellen.
Die folgenden Spalten sind keine Partitionsspalten: <nonPartitionColumns>
Die folgenden Partitionsspalten fehlen: <missingPartitionsColumns>
Einfügen_Ersetzen_Nicht_Aktiviert
Wenden Sie sich bitte an Ihren Databricks-Vertreter, um das INSERT INTO
Feature ... REPLACE USING
(...) zu aktivieren.
UNZUREICHENDE_BERECHTIGUNGEN
Unzureichende Berechtigungen:
<report>
UNZUREICHENDE_BERECHTIGUNGEN_EXT_LOC
Der Benutzer <user>
verfügt über unzureichende Berechtigungen für externe Speicherorte <location>
.
UNZUREICHENDE_BERECHTIGUNGEN_KEIN_BESITZER
Für <securableName>
gibt es keinen Besitzer. Bitten Sie Ihren Administrator, einen Besitzer festzulegen.
UNZUREICHENDE_BERECHTIGUNGEN_EIGENTUM_SICHERBAR
Die benutzende Person besitzt <securableName>
nicht.
UNZUREICHENDE_BERECHTIGUNGEN_SICHERBAR
Der Benutzer verfügt nicht über die Berechtigung <action>
für <securableName>
.
UNZUREICHENDE_BERECHTIGUNGEN_SICHERBARE_ELTERNEIGENTÜMER
Der Besitzer von <securableName>
unterscheidet sich vom Besitzer von <parentSecurableName>
.
Unzureichende_Berechtigungen_Spark_Connect_Client_Set_CloudFetch_Aufbewahrungs_Timeout
Der Client verfügt nicht über die Berechtigung zum Festlegen eines benutzerdefinierten Aufbewahrungstimeouts für CloudFetch-Ergebnisse.
UNZUREICHENDE_BERECHTIGUNGEN_SPEICHER_CRED
Die Speicheranmeldeinformation <credentialName>
verfügt nicht über ausreichend Berechtigungen.
UNZUREICHENDE_BERECHTIGUNGEN_GRUNDLIEGENDE_SICHERHEITSELEMENTE
Die benutzende Person kann <action>
auf <securableName>
aufgrund von Berechtigungen für zugrunde liegende sicherungsfähige Elemente nicht ausführen.
UNZUREICHENDE_BERECHTIGUNGEN_DARUNTERLIEGENDE_SICHERUNGSOBJEKTE_AUSFÜHRLICH
Die benutzende Person kann <action>
auf <securableName>
aufgrund von Berechtigungen für zugrunde liegende sicherungsfähige Elemente nicht ausführen:
<underlyingReport>
INTERVALL_ARITHMETISCHE_ÜBERLAUF
Ganzzahlüberlauf beim Betrieb mit Intervallen.
Weitere Details finden Sie unter INTERVAL_ARITHMETIC_OVERFLOW.
INTERVALL_DURCH_NULL_GETEILT
Division durch Null. Verwenden Sie try_divide
, um divisor 0 zu tolerieren und stattdessen NULL
zurückzugeben.
UNGÜLTIGER_AGGREGATFILTER
Der FILTER
Ausdruck <filterExpr>
in einer Aggregatfunktion ist ungültig.
Weitere Details finden Sie unter INVALID_AGGREGATE_FILTER.
UNGÜLTIGER_AGNOSTISCHER_ENCODER
Es wurde ein ungültiger agnostischer Encoder gefunden. Erwartet wird eine Instanz von AgnosticEncoder, stattdessen lag <encoderType>
vor. Weitere Informationen finden Sie unter '<docroot>
/api/java/index.html?org/apache/spark/sql/Encoder.html'.
UNGÜLTIGER_ALGORITHMENWERT
Ungültiger oder nicht unterstützter Wert des Edgeinterpolationsalgorithmus <alg>
.
INVALID_ARRAY_INDEX (Ungültiger Array-Index)
Der Index <indexValue>
liegt außerhalb der Begrenzung. Das Array verfügt über <arraySize>
Elemente. Verwenden Sie die SQL-Funktion get()
, um den Zugriff auf Elemente bei ungültigen Indexen zu tolerieren und stattdessen NULL
zurückzugeben.
Weitere Details finden Sie unter INVALID_ARRAY_INDEX.
UNGÜLTIGER_ARRAY_INDEX_IN_ELEMENT_AT
Der Index <indexValue>
liegt außerhalb der Begrenzung. Das Array verfügt über <arraySize>
Elemente. Verwenden Sie try_element_at
, um den Zugriff auf Elemente bei ungültigen Index zu tolerieren und stattdessen NULL
zurückzugeben.
Weitere Details finden Sie unter INVALID_ARRAY_INDEX_IN_ELEMENT_AT.
UNGÜLTIGE_ATTRIBUTE_NAME_SYNTAX
Syntaxfehler im Attributnamen: <name>
. Überprüfen Sie, ob Backticks paarweise vorkommen, eine in Anführungszeichen gesetzte Zeichenfolge ein vollständiger Namensteil ist, und verwenden Sie einen Backtick nur innerhalb von Namensteilen in Anführungszeichen.
UNGÜLTIGE_AWS_AUTHENTIFIZIERUNG
Wählen Sie genau eine der folgenden Authentifizierungsmethoden aus:
Geben Sie den Namen Ihrer Databricks-Dienstanmeldeinformationen (
<serviceCredential>
) (als Sparkstreamoption oder als Clusterumgebungsvariable) an.Stellen Sie sowohl aws AccessKey (
<awsAccessKey>
) als auch SecretAccessKey (<awsSecretKey>
) bereit, um AWS-Schlüssel zu verwenden.Stellen Sie weder die AWS-Schlüssel noch die Databricks-Dienstanmeldeinformationen bereit, um die standardmäßige AWS-Anmeldeinformationsanbieterkette für die Kinesis-Authentifizierung zu verwenden.
INVALID_AWS_AUTHENTIFIZIERUNGS_EXPLIZITE_OPTIONEN
Geben Sie entweder den Namen Ihres Databricks-Serviceberechtigungsnachweises an (<serviceCredential>
)
ODER sowohl <awsAccessKey>
als auch <awsSecretKey>
UNGÜLTIGE_BITMAP_POSITION
Die mit 0 indizierte Bitmapposition <bitPosition>
liegt außerhalb der zulässigen Grenzen. Die Bitmap verfügt über <bitmapNumBits>
Bits (<bitmapNumBytes>
Bytes).
UNGÜLTIGE_BOOLESCHE_ANWEISUNG
In der Bedingung wird ein boolescher Ausdruck erwartet, aber <invalidStatement>
wurde gefunden.
UNGÜLTIGE_GRENZE
Die Grenze <boundary>
ist ungültig: <invalidValue>
.
Weitere Informationen finden Sie unter UNGÜLTIGE_GRENZE
UNGÜLTIGER_BUCKET_SPALTE_DATENTYP
Für Bucketspalte kann nicht <type>
verwendet werden. Sortierte Datentypen werden für die Bucketerstellung nicht unterstützt.
UNGÜLTIGE_BUCKET_DATEI
Ungültige Bucketdatei: <path>
.
UNGÜLTIGE_BYTE_KETTE
Das erwartete Format ist ByteString, war aber <unsupported> (<class>
).
UNGÜLTIGER_SPALTENNAME_ALS_PFAD
Die Datenquelle <datasource>
die Spalte <columnName>
nicht speichern kann, da ihr Name einige Zeichen enthält, die in Dateipfaden nicht zulässig sind. Verwenden Sie einen Alias, um ihn umzubenennen.
UNGÜLTIGER_SPALTEN_ODER_FELDDATENTYP
Die Spalte oder das Feld <name>
ist vom Typ <type>
, obwohl <expectedType>
erforderlich ist.
UNGÜLTIGE_KONFIG_WERT
Der Wert '<confValue>
' in der Konfiguration "<confName>
" ist ungültig.
Weitere Details finden Sie unter INVALID_CONF_VALUE.
UNGÜLTIG_BESCHÄDIGTER_DATENSATZTYP
Die Spalte <columnName>
für beschädigte Datensätze muss den Nullwerte zulassenden STRING
Typ besitzen, aber hat <actualType>
erhalten.
UNGÜLTIGER_CRS_WERT
Ungültiger oder nicht unterstützter CRS-Wert <crs>
(Koordinatenverweissystem).
UNGÜLTIGE AKTUELLE EMPFÄNGERNUTZUNG
Die current_recipient
-Funktion kann nur in der CREATE VIEW
-Anweisung oder der ALTER VIEW
-Anweisung verwendet werden, um in Unity Catalog eine Ansicht nur für die Freigabe zu definieren.
Ungültiger_Cursor
Der Cursor ist ungültig.
Weitere Details finden Sie unter INVALID_CURSOR.
UNGÜLTIGES_DATUMZEITMUSTER
Unbekanntes Datetime-Muster: <pattern>
.
Weitere Details finden Sie in INVALID_DATETIME_PATTERN.
UNGÜLTIGER_STANDARDWERT
Fehler beim Ausführen des Befehls <statement>
, da die Zielspalte oder Variable <colName>
einen DEFAULT
-Wert <defaultValue>
hat.
Weitere Details finden Sie unter INVALID_DEFAULT_VALUE.
UNGÜLTIGER_TRENNZEICHENWERT
Ungültiger Wert für Trennzeichen.
Weitere Details finden Sie unter INVALID_DELIMITER_VALUE.
UNGÜLTIGES_ZIELKATALOG
Der Zielkatalog des Befehls SYNC
muss sich im Unity-Katalog befinden. Es wurde <catalog>
gefunden.
UNGÜLTIGER_TREIBERSPEICHER
Systemspeicher <systemMemory>
muss mindestens <minSystemMemory>
sein.
Erhöhen Sie die Heapgröße mithilfe der Option „--driver-memory“ oder <config>
in der Spark-Konfiguration.
UNGÜLTIGE_DYNAMISCHE_OPTIONEN
Die übergebenen <option_list>
Optionen sind für die Fremdtabelle <table_name>
verboten.
UNGÜLTIG_LEERER_STANDORT
Der Speicherortname darf keine leere Zeichenfolge sein, aber <location>
wurde angegeben.
UNGÜLTIGE_FEHLERBEDINGUNG_DECLARATION
Ungültige Bedingungsdeklaration.
Weitere Informationen finden Sie unter INVALID_ERROR_CONDITION_DECLARATION.
Ungültige Esc-Zeichenfolge
Es wurde eine ungültige Escapezeichenfolge gefunden: <invalidEscape>
. Die Escapezeichenfolge darf nur ein Zeichen enthalten.
Ungültiges Escapezeichen
EscapeChar
muss ein Zeichenfolgenliteral der Länge 1 sein, enthielt jedoch <sqlExpr>
.
UNGÜLTIGER_AUSFÜHRER_SPEICHER
Der Speicher des Executors <executorMemory>
muss mindestens <minSystemMemory>
sein.
Erhöhen Sie den Ausführungsspeicher mithilfe der Option "--executor-memory" oder "<config>
" in der Spark-Konfiguration.
UNGÜLTIGER_AUSDRUCK_CODEC
Es wurde ein ungültiger Ausdrucksencoder gefunden. Erwartet eine Instanz von „ExpressionEncoder“, erhielt aber <encoderType>
. Weitere Informationen finden Sie unter '<docroot>
/api/java/index.html?org/apache/spark/sql/Encoder.html'.
UNGÜLTIGER_EXTERNER_TYP
Der externe Typ <externalType>
ist für den Typ <type>
im Ausdruck <expr>
ungültig.
UNGÜLTIGER_BASIS_FELDTYP_FÜR_EXTRAKTION
Ein Wert kann nicht aus <base>
extrahiert werden. Komplexer Typ [STRUCT
, ARRAY
, MAP
] erforderlich, aber <other>
erhalten.
UNGÜLTIGES_EXTRAKT_FELD
<field>
kann nicht aus <expr>
extrahiert werden.
UNGÜLTIGES_EXTRAKT_FELDFORMAT
Der Feldname muss ein Zeichenfolgenliteral ungleich NULL sein, aber er ist <extraction>
.
UNGÜLTIGER_FELDER_NAME
Der Feldname <fieldName>
ist ungültig: <path>
ist keine Struktur.
UNGÜLTIGES_FORMAT
Das Format ist ungültig: <format>
.
Weitere Details finden Sie unter INVALID_FORMAT.
UNGÜLTIGER_BRUCHTEIL_EINER_SEKUNDE
Gültiger Bereich für Sekunden ist [0, 60] (einschließlich), der angegebene Wert ist jedoch <secAndMicros>
. Um diesen Fehler zu vermeiden, verwenden Sie try_make_timestamp
, die NULL
beim Fehler zurückgibt.
Wenn Sie nicht die Standardeinstellung der Sitzung für die Zeitstempelversion dieser Funktion verwenden möchten, nutzen Sie try_make_timestamp_ntz
oder try_make_timestamp_ltz
.
Ungültige Verwendung von GET_DIAGNOSTICS
Ungültige Verwendung der GETDIAGNOSTICS
Anweisung.
Weitere Informationen finden Sie unter INVALID_GET_DIAGNOSTICS_USAGE.
UNGÜLTIGE_GET_DIAGNOSTICS_VERWENDUNGSBEDINGUNG_NUMMER_MUSS_EINS_SEIN
Ungültige Verwendung der GETDIAGNOSTICS
Anweisung. Der einzige unterstützte Wert für eine Bedingungsnummer in der GETDIAGNOSTICS
Anweisung ist 1.
UNGÜLTIGER_GRIFF
Das Handle <handle>
ist ungültig.
Weitere Informationen finden Sie unter INVALID_HANDLE
UNGÜLTIGE_HANDLER_DEKLARATION
Ungültige Handlerdeklaration.
Weitere Informationen finden Sie unter INVALID_HANDLER_DECLARATION
UNGÜLTIGE_HTTP_ANFORDERUNGSMETHODE
Der Eingabeparameter: Methode, Wert: <paramValue>
ist kein gültiger Parameter für http_request, da es sich nicht um eine gültige HTTP-Methode handelt.
UNGÜLTIGER_HTTP_ANFORDERUNGSPFAD
Der Eingabeparameter: Pfad, Wert: <paramValue>
ist kein gültiger Parameter für http_request, da der Pfad-Traversal nicht zulässig ist.
UNGÜLTIGER_IDENTIFIKATOR
Der nicht zitierte Bezeichner <ident>
ist ungültig und muss wie folgt in Anführungszeichen gesetzt werden: <ident>
.
Nicht zitierte Bezeichner können nur ASCII
-Buchstaben („a“ bis „z“, „A“ bis „Z“), Ziffern („0“ bis „9“) und Unterstrich („_“) enthalten.
Nicht zitierte Bezeichner dürfen auch nicht mit einer Ziffer beginnen.
Unterschiedliche Datenquellen und Metaspeicher können zusätzliche Einschränkungen für gültige Bezeichner erzwingen.
UNGÜLTIGER_INDEX_VON_NULL
Der Index 0 ist ungültig. Ein Index muss entweder < 0
oder > 0
(das erste Element hat Index 1).
UNGÜLTIGE_INLINE-TABELLE
Ungültige Inlinetabelle.
Weitere Details finden Sie unter INVALID_INLINE_TABLE.
UNGÜLTIGES_INTERVALLFORMAT
Fehler beim Parsen von „<input>
” in das Intervall. Stellen Sie sicher, dass der angegebene Wert in einem gültigen Format zum Definieren eines Intervalls enthalten ist. Sie können auf die Dokumentation für das richtige Format verweisen.
Weitere Details finden Sie unter INVALID_INTERVAL_FORMAT.
UNGÜLTIGER_INTERVALL_MIT_MIKROSEKUNDEN_HINZUFÜGUNG
Ein Intervall zu einem Datum kann nicht hinzugefügt werden, da sein Mikrosekundenteil nicht 0 ist. Um dies zu beheben, wandeln Sie das Eingabedatum in einen Zeitstempel um, der das Hinzufügen von Intervallen mit nicht null Mikrosekunden unterstützt.
UNGÜLTIGER_JAVA_IDENTIFIKATOR_ALS_FELDNAME
<fieldName>
ist kein gültiger Bezeichner von Java und kann nicht als Feldname verwendet werden.
<walkedTypePath>
.
UNGÜLTIGE_JDBC_VERBINDUNGSOPTION
Die Option <optionKey>
ist kein gültiger Parameter für diese JDBC-Verbindung.
INVALID_JDBC_CONNECTION_OPTION_VALUE
Die Option <optionKey>
mit dem Wert <optionValue>
ist keine gültige Option für diese JDBC-Verbindung.
UNGÜLTIGER_JOIN_TYP_FÜR_JOINWITH
Ungültiger Verknüpfungstyp in joinWith: <joinType>
.
Ungültiger_JSON-Datentyp
Fehler beim Konvertieren der JSON-Zeichenfolge "<invalidType>
" in einen Datentyp. Geben Sie einen gültigen Datentyp ein.
UNGÜLTIGER_JSON_DATENTYP_FÜR_SORTIERUNGEN
Kollationen können nur auf Zeichenfolgentypen angewendet werden. Der JSON-Datentyp ist jedoch <jsonType>
.
UNGÜLTIGER_JSON_DATENSTELLENTYP
Ein ungültiger Typ eines JSON-Eintrags wurde erkannt, während ein allgemeines Schema im Modus <failFastMode>
abgeleitet wird. Ein STRUCT
-Typ wurde erwartet, jedoch wurde ein <invalidType>
gefunden.
UNGÜLTIGES_JSON_ROOT_FELD
Das JSON-Stammfeld kann nicht in den Spark-Zieltyp konvertiert werden.
UNGÜLTIGER_JSON_SCHEMA_MAP_TYP
Eingabeschema-<jsonSchema>
kann nur STRING
als Schlüsseltyp für eine MAP
enthalten.
UNGÜLTIGE_KRYO_SERIALISIERER_PUFFERGRÖSSE
Der Wert der Konfiguration „<bufferSizeConfKey>
“ muss kleiner als 2048 MiB sein, enthält jedoch <bufferSizeConfValue>
MiB.
UNGÜLTIGE_ETIKETTENVERWENDUNG
Die Verwendung der Bezeichnung <labelName>
ist ungültig.
Weitere Details finden Sie unter INVALID_LABEL_USAGE.
UNGÜLTIGER_LAMBDA_FUNKTIONSAUFRUF
Ungültiger Lambda-Funktionsaufruf.
Weitere Details finden Sie unter INVALID_LAMBDA_FUNCTION_CALL.
UNGÜLTIGE_LATERALE_VERBINDUNGSART
<joinType>
JOIN mit LATERAL
-Korrelation ist nicht zulässig, da eine OUTER
-Unterabfrage nicht mit ihrem Joinpartner korrelieren kann. Entfernen Sie die LATERAL
-Korrelation, oder verwenden Sie stattdessen einen INNER
JOIN oder LEFT OUTER
JOIN.
INVALID_LIMIT_LIKE_EXPRESSION
Der limit-ähnliche Ausdruck <expr>
ist ungültig.
Weitere Details finden Sie unter INVALID_LIMIT_LIKE_EXPRESSION.
UNGÜLTIGE_LOG_VERSION
Nicht unterstützte Log-Version.
Weitere Informationen finden Sie unter INVALID_LOG_VERSION
UNGÜLTIG_NICHT_ABSOLUTER_PFAD
Der bereitgestellte, nicht absolute Pfad <path>
kann nicht qualifiziert werden. Aktualisieren Sie den Pfad zu einem gültigen DBFS-Bereitstellungsspeicherort.
UNGÜLTIGE NICHT-DETERMINISTISCHE AUSDRÜCKE
Der Operator erwartet einen deterministischen Ausdruck, aber der tatsächliche Ausdruck ist <sqlExprs>
.
UNGÜLTIGER_BEREICH_DES_NUMERISCHEN_LITERAL
Numerisches Literal <rawStrippedQualifier>
liegt außerhalb des gültigen Bereichs für <typeName>
, mit einem Minimalwert von <minValue>
und einem Maximalwert von <maxValue>
. Bitte passen Sie den Wert entsprechend an.
UNGÜLTIGE_BEOBACHTETE_METRIKEN
Ungültige beobachtete Metriken.
Weitere Informationen finden Sie unter INVALID_OBSERVED_METRICS
UNGÜLTIGE_OPTIONEN
Ungültige Optionen:
Weitere Einzelheiten siehe UNGÜLTIGE_OPTIONEN
INVALID_PANDAS_UDF_PLACEMENT (Ungültige Platzierung von Pandas UDF)
Die pandas-UDF <functionList>
für die Gruppenaggregierung kann nicht zusammen mit anderen Nicht-pandas-Aggregatfunktionen aufgerufen werden.
UNGÜLTIGER_PARAMETER_MARKER_WERT
Es wurde eine ungültige Parameterzuordnung bereitgestellt:
Weitere Details finden Sie unter INVALID_PARAMETER_MARKER_VALUE.
INVALID_PARAMETER_VALUE
Der Wert der parameter(n) <parameter>
in <functionName>
ist ungültig:
Weitere Details finden Sie unter INVALID_PARAMETER_VALUE.
UNZULÄSSIGER_TEILUNGSSPALTE_DATENTYP
<type>
kann nicht für die Partitionsspalte verwendet werden.
UNGÜLTIGE_PARTITION_OPERATION
Der Partitionsbefehl ist ungültig.
Weitere Details finden Sie unter INVALID_PARTITION_OPERATION.
Ungültiger Partitionswert
Fehler beim Umwandeln des Werts <value>
in den Datentyp <dataType>
für Partitionsspalte <columnName>
. Stellen Sie sicher, dass der Wert dem erwarteten Datentyp für diese Partitionsspalte entspricht.
UNGÜLTIG_PIPELINE_ID
Die Pipeline-ID <pipelineId>
ist ungültig.
Eine Pipeline-ID sollte eine UUID im Format "xx-xxxx-xxxx-xxxx-xxxx-xxxx" sein.
UNGÜLTIGES PRIVILEG
Berechtigung <privilege>
ist für <securable>
ungültig.
UNGÜLTIGER_EIGENSCHAFTSSCHLÜSSEL
<key>
ein ungültiger Eigenschaftsschlüssel ist, verwenden Sie bitte Anführungszeichen, z. B. SET <key>=<value>
.
UNGÜLTIGER_EIGENSCHAFTSWERT
Der Wert <value>
ist ein ungültiger Eigenschaftswert, bitte verwenden Sie Anführungszeichen, z. B. SET <key>=<value>
.
UNGÜLTIG_QUALIFIZIERTER_SPALTENNAME
Der Spaltenname <columnName>
ist ungültig, da er nicht mit einem Tabellennamen qualifiziert ist oder aus mehr als 4 Namenteilen besteht.
UNGÜLTIGE_ANFRAGE_GEMISCHTE_ABFRAGE_PARAMETER
Parametrisierte Abfragen müssen entweder Positionsparameter oder benannte Parameter verwenden, aber nicht beide.
UNGÜLTIG_REKURSIVE_CTE
Ungültige rekursive Definition gefunden. Rekursive Abfragen müssen eine UNION
- oder UNION ALL
-Anweisung mit zwei untergeordneten Elementen enthalten. Das erste untergeordnete Element muss der Ankerausdruck ohne rekursive Bezüge sein.
UNGÜLTIGE_REKURSIVE_REFERENZ
Ungültiger rekursiver Verweis, der innerhalb WITH RECURSIVE
einer Klausel gefunden wurde.
Weitere Informationen finden Sie unter INVALID_RECURSIVE_REFERENCE.
UNGÜLTIGES_REGEX_ERSETZEN
Für source = "<source>
", pattern = "<pattern>
", replacement = "<replacement>
" und position = <position>
konnte „regexp_replace“ nicht ausgeführt werden.
UNGÜLTIGES ZURÜCKSETZUNGSBEFEHLFORMAT
Das erwartete Format lautet "RESET
" oder "RESET
-Element". Wenn Sie Sonderzeichen in die Taste aufnehmen möchten, verwenden Sie bitte Anführungszeichen, z. B. RESET key
.
UNGÜLTIGE_WIEDERSIGNALISIERUNGSVERWENDUNG
RESIGNAL
wenn der Handler nicht aktiv ist. Die RESIGNAL
-Anweisung kann nur im Textkörper des Ausnahmehandlers verwendet werden.
UNGÜLTIGE_S3_KOPIERBERECHTIGUNGEN
COPY INTO
-Anmeldeinformationen müssen AWS_ACCESS_KEY
, AWS_SECRET_KEY
und AWS_SESSION_TOKEN
enthalten.
UNGÜLTIGER_SPEICHER_MODUS
Der angegebene Speichermodus <mode>
ist ungültig. Gültige Speichermodi umfassen „anhängen“, „überschreiben“, „ignorieren“, „Fehler“, „Fehler, falls vorhanden“ und „Standard“.
UNGÜLTIGES_SCHEMA
Das Eingabeschema <inputSchema>
ist keine gültige Schemazeichenfolge.
Weitere Details finden Sie unter INVALID_SCHEMA.
UNGÜLTIGES_SCHEMA_ODER_BEZIEHUNGSNAME
<name>
ist kein gültiger Name für Tabellen/Schemas. Gültige Namen enthalten nur Alphabetzeichen, Zahlen und _.
Ungültiges Schema
Der Unity-Katalog unterstützt <name>
nicht als Standarddateischema.
UNGÜLTIGE_GEHEIMNIS_ABFRAGE
Geheimnislookup ungültig:
Weitere Details finden Sie unter INVALID_SECRET_LOOKUP.
UNGÜLTIGE_SATZ_SYNTAX
Das erwartete Format ist 'SET
', 'SET
key' oder 'SET
key=value'. Wenn Sie Sonderzeichen in den Schlüssel oder Semikolon in den Wert einschließen möchten, verwenden Sie rückwärts gerichtete Anführungszeichen, z. B. SET key
=value
.
UNGÜLTIG_GETEILTER_ALIASNAME
Der <sharedObjectType>
Aliasname muss das Format "schema.name" aufweisen.
UNGÜLTIGE_EINZELVARIANTE_SPALTE
Das vom Benutzer angegebene Schema <schema>
ist ungültig, wenn die singleVariantColumn
Option aktiviert ist. Das Schema muss entweder ein Variant-Feld oder ein Variant-Feld sowie ein beschädigtes Spaltenfeld sein.
UNGÜLTIGER_QUELLKATALOG
Der Quellkatalog darf nicht im Unity-Katalog für den Befehl SYNC
sein. Es wurde <catalog>
gefunden.
UNGÜLTIGE_QUELLE_FÜR_FILTERDIENST_ZUSAMMENFÜHRUNGS_BEFEHL
Die Quelle des Filterdienstvorgangs MERGE
kann nur Projektionen und Filter enthalten.
Passen Sie den MERGE
Befehl an, oder verwenden Sie stattdessen eine Stagingtabelle als Quelle.
<stmt>
UNGÜLTIGE_SPARK_KONFIGURATION
Ungültige Spark-Konfiguration:
Weitere Informationen finden Sie unter INVALID_SPARK_CONFIG
Ungültiges SQLSTATE
Ungültiger SQLSTATE
Wert: '<sqlState>
'.
SQLSTATE
darf genau 5 Zeichen lang sein und nur A-Z und 0-9 enthalten.
SQLSTATE
darf nicht mit '00', '01' oder 'XX' beginnen.
Ungültiges SQL-Argument (INVALID_SQL_ARG)
Das Argument <name>
von sql()
ist ungültig. Erwägen Sie, sie entweder durch ein SQL-Literal oder durch Sammlungskonstruktorfunktionen wie map()
, array()
, struct()
zu ersetzen.
UNGÜLTIGE_SQL_SYNTAX
Ungültige SQL-Syntax:
Weitere Details finden Sie unter INVALID_SQL_SYNTAX.
UNGÜLTIGER_STAGING_PFAD_IN_STAGING_ACCESS_ABFRAGE
Ungültiger Stagingpfad in der Staging-<operation>
-Abfrage: <path>
UNGÜLTIGE_ANWEISUNG_FÜR_AUSFÜHRUNG_INTO
Die INTO
-Klausel von EXECUTE IMMEDIATE
ist nur für Abfragen gültig, aber die angegebene Anweisung ist keine Abfrage: <sqlString>
.
UNGÜLTIGE_AUSSAGE_ODER_KLAUSEL
Die Anweisung oder Klausel: <operation>
ist ungültig.
UNGÜLTIGES_STREAMING_ECHTZEIT_MODUS_AUSLÖSEINTERVALL
Das Echtzeittriggerintervall ist auf <interval>
ms festgelegt. Dies ist kleiner als das Minimum von <minBatchDuration>
ms, das durch „spark.databricks.streaming.realTimeMode.minBatchDuration“ angegeben wird.
UNGÜLTIGER_STREAMING_ECHTZEIT_MODUS_TRIGGER_OVERRIDE_INTERVALL
Das Prüfpunktintervall <interval>
des Echtzeittriggers konnte nicht analysiert werden. Bitte überprüfen Sie, ob Sie eine positive ganze Zahl eingegeben haben.
UNGÜLTIGER_UNTERABFRAGE_AUSDRUCK
Ungültige Unterabfrage:
Weitere Details finden Sie unter INVALID_SUBQUERY_EXPRESSION.
UNGÜLTIGES_ZIEL_FÜR_ALTER_COMMAND
ALTER <commandTableType>
... <command>
unterstützt nicht <tableName>
. Bitte verwenden Sie ALTER <targetTableType>
... <command>
stattdessen.
UNGÜLTIGES ZIEL FÜR SET_TBLPROPERTIES_BEFEHL
ALTER <commandTableType>
... SET TBLPROPERTIES
unterstützt nicht <tableName>
. Bitte verwenden Sie ALTER <targetTableType>
... SET TBLPROPERTIES
stattdessen.
UNGÜLTIGE_TEMPORÄRE_OBJEKT_REFERENZ
Das persistente Objekt <objName>
des Typs <obj>
kann nicht erstellt werden, da es auf das temporäre Objekt <tempObjName>
des Typs <tempObj>
verweist. Stellen Sie das temporäre Objekt <tempObjName>
beständig, oder stellen Sie das persistente Objekt <objName>
temporär.
UNGÜLTIGES_ZEITSTEMPEL_FORMAT
Der angegebene Zeitstempel <timestamp>
stimmt nicht mit der erwarteten Syntax <format>
überein.
UNGÜLTIGE_ZEITZONE
Die Zeitzone: <timeZone>
ist ungültig. Die Zeitzone muss entweder eine regionsbasierte Zonen-ID oder ein Zonenoffset sein. Regions-IDs müssen das Formular "Fläche/Stadt" aufweisen, z. B. "Amerika/Los_Angeles". Zonenoffsets müssen im Format '(+|-)HH', '(+|-)HH:mm' oder '(+|-)HH:mm:ss' vorliegen, z. B. '-08', '+01:00' oder '-13:33:33', und muss sich im Bereich von -18:00 bis +18:00 befinden. "Z" und "UTC" werden als Synonyme für "+00:00" akzeptiert.
UNGÜLTIGE_ZEITREISE_SPEZIFIKATION
Bei einer Zeitreise der Tabelle können nicht sowohl die Version als auch der Zeitstempel angegeben werden.
UNGÜLTIGER_ZEITREISE_TIMESTAMP_AUSDRUCK
Der Zeitreisezeitstempelausdruck <expr>
ist ungültig.
Weitere Details finden Sie unter INVALID_TIME_TRAVEL_TIMESTAMP_EXPR.
UNGÜLTIG_TYPISIERTE_LITERAL
Der Wert des typierten Literals <valueType>
ist ungültig: <value>
.
UNGÜLTIGE_UDF_IMPLEMENTIERUNG
Funktion <funcName>
implementiert keine ScalarFunction oder AggregateFunction.
UNGÜLTIGE_UPGRADE_SYNTAX
<command> <supportedOrNot>
Die Quelltabelle befindet sich im Hive-Metastore und die Zieltabelle in Unity Catalog.
UNGÜLTIGE_URL
Die URL ist ungültig: <url>
. Verwenden Sie try_parse_url
, um ungültige URL zu tolerieren und stattdessen NULL
zurückzugeben.
UNGÜLTIGE_VERWENDUNG_VON_STERN_ODER_REGEX
Ungültige Verwendung von <elem>
in <prettyName>
.
UNGÜLTIGE_UTF8_ZEICHENFOLGE
Ungültige UTF8-Bytesequenz in Zeichenfolge: <str>
.
Ungültige UUID
Eingabe-<uuidInput>
ist keine gültige UUID.
Die UUID sollte im Format "xx-xxxx-xxxx-xxxx-xxxx-xxxxxxxxxx" vorliegen.
Bitte überprüfen Sie das Format der UUID.
UNGÜLTIGE_VARIABLE_DEKLARATION
Ungültige Variablendeklaration.
Weitere Details finden Sie unter INVALID_VARIABLE_DECLARATION.
INVALID_VARIABLE_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE
Der Variablentyp muss eine Zeichenfolge (string) sein, empfangen wurde aber <varType>
.
UNGÜLTIGE_VARIANTEN_UMWANDLUNG
Der Variant-Wert <value>
kann nicht in <dataType>
umgewandelt werden. Verwenden Sie stattdessen try_variant_get
.
UNGÜLTIGE_VARIANT_VON_PARQUET
Ungültige Variante.
Weitere Details finden Sie unter INVALID_VARIANT_FROM_PARQUET.
UNGÜLTIGE_VARIANTEN_AUF_PFAD
Der Pfad <path>
ist kein gültiger Variant-Extraktionspfad in <functionName>
.
Ein gültiger Pfad sollte mit $
beginnen und gefolgt von null oder mehr Segmenten wie [123]
, .name
, ['name']
oder ["name"]
.
UNGÜLTIGES_VARIANTEN_ZERLEGUNGS_SCHEMA
Das Schema <schema>
ist kein gültiges Variant-Shredding-Schema.
UNGÜLTIGE_WO_BEDINGUNG
Die WHERE
Bedingung <condition>
enthält ungültige Ausdrücke: <expressionList>
.
Schreiben Sie die Abfrage neu, um Fensterfunktionen, Aggregatfunktionen und Generatorfunktionen in der WHERE
-Klausel zu vermeiden.
UNGÜLTIGE_FENSTERSPEZIFIKATION_FÜR_AGGREGATFUNKTION
Es kann weder ORDER BY
noch ein Fensterrahmen für <aggFunc>
angegeben werden.
UNGÜLTIG_AUSDRUCK_IN_GRUPPE
Ungültige Funktion <funcName>
mit WITHIN GROUP
.
Weitere Details finden Sie unter INVALID_WITHIN_GROUP_EXPRESSION
UNGÜLTIGE_SCHREIBER_KOMMIT_NACHRICHT
Der Datenquellen-Schreiber hat eine ungültige Anzahl von Commit-Nachrichten generiert. Es wurde genau eine Commitnachricht für jede Aufgabe vom Writer erwartet, aber <detail>
empfangen.
Ungültige Schreibverteilung
Die angeforderte Schreibverteilung ist ungültig.
Weitere Details finden Sie unter INVALID_WRITE_DISTRIBUTION.
ISOLIERTER_BEFEHLSFEHLER
Fehler beim Ausführen von <command>
. Befehlsausgabe:
<output>
ISOLIERTER_BEFEHL_UNBEKANNTER_FEHLER
Fehler beim Ausführen von <command>
.
JOIN_BEDINGUNG_IST_KEIN_BOOLESCHER_TYP
Die Verknüpfungsbedingung <joinCondition>
hat den ungültigen Typ <conditionType>
, erwartet "BOOLEAN
".
KAFKA_DATENVERLUST
Einige Daten sind möglicherweise verloren gegangen, weil sie in Kafka nicht mehr verfügbar sind;
entweder die Daten wurden von Kafka ausgelöscht, oder das Thema wurde möglicherweise gelöscht, bevor alle Daten im
Thema verarbeitet wurden.
Wenn Ihre Streaming-Abfrage in solchen Fällen nicht fehlschlagen soll, legen Sie die Quelloption "failOnDataLoss" auf "false" fest.
Grund:
Weitere Informationen finden Sie unter KAFKA_DATA_LOSS
KINESIS_KONNTE_SHARD_NICHT_BIS_ZUM_END_OFFSET_LESEN
Konnte nicht bis zur gewünschten Sequenznummer <endSeqNum>
für Shard <shardId>
im
kinesis-Stream <stream>
mit Consumermodus <consumerMode>
. Die Abfrage wird fehlschlagen aufgrund von
potenzieller Datenverlust. Der letzte gelesene Datensatz war bei Sequenznummer <lastSeqNum>
.
Dies kann passieren, wenn die Daten mit endSeqNum bereits veraltet sind oder der Kinesis-Datenstrom abgelaufen war.
gelöscht und mit demselben Namen neu erstellt wurde. Das Fehlerverhalten kann außer Kraft gesetzt werden.
durch Festlegen von spark.databricks.kinesis.failOnDataLoss auf "false" in der Spark-Konfiguration.
Kinesis-EFO-Verbraucher-nicht-gefunden
Für den Kinesis-Stream <streamId>
wurde der zuvor registrierte EFO-Nutzer <consumerId>
des Datenstroms gelöscht.
Starten Sie die Abfrage neu, damit ein neuer Consumer registriert wird.
KINESIS_EFO_ABONNIERUNGSLIMIT_ÜBERSCHRITTEN
Für Shard <shard>
erfolgte der vorherige Aufruf der subscribeToShard-API innerhalb von 5 Sekunden vor dem nächsten Aufruf.
Starten Sie die Abfrage nach 5 Sekunden oder mehr neu.
If the context allows translating technical terms: "ABSCHNITT_ABGERUFEN_WENIGER_ALS_VERFOLGTER_ABSCHNITT"
Die abgerufene Mindest-ShardId von Kinesis (<fetchedShardId>
)
ist kleiner als die nachverfolgte Mindest-shardId (<trackedShardId>
).
Dies ist unerwartet und tritt auf, wenn ein Kinesis-Datenstrom gelöscht und mit demselben Namen neu erstellt wird.
und eine Streamingabfrage mit diesem Kinesis-Stream mithilfe eines vorhandenen Prüfpunktorts neu gestartet wird.
Starten Sie die Streamingabfrage mit einem neuen Prüfpunktort neu, oder erstellen Sie einen Stream mit einem neuen Namen.
KINESIS_ABFRAGE_MODUS_NICHT_UNTERSTÜTZT
Der Kinesis-Abrufmodus wird nicht unterstützt.
KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION (Reihenfolgeverletzung der Kinesis-Datensatzsequenznummer)
Bei Shard <shard>
hatte der letzte Datensatz, der in vorherigen Abrufen von Kinesis gelesen wurde, die Sequenznummer <lastSeqNum>
.
der größer als der Datensatz ist, der im aktuellen Abruf mit Sequenznummer <recordSeqNum>
gelesen wird.
Dies ist unerwartet und kann auftreten, wenn die Startposition des Wiederholungs- oder nächsten Abrufszyklus falsch initialisiert ist und dies kann zu doppelten Datensätzen im weiteren Verlauf führen.
KINESIS_QUELLE_MUSS_IM_EFO_MODUS_SEIN_ZUR_KONFIGURATION_VON_CONSUMERN
Um aus Kinesis-Streams mit Consumerkonfigurationen zu lesen (consumerName
, consumerNamePrefix
oder registeredConsumerId
), muss consumerMode
efo
sein.
KINESIS_QUELLE_MUSS_REGISTRIERTE_VERBRAUCHER_ID_UND_TYP_ANGEBEN
Um aus Kinesis-Streams mit registrierten Consumern zu lesen, müssen Sie sowohl die Option registeredConsumerId
als auch registeredConsumerIdType
angeben.
KINESIS_SOURCE_MUSS_STREAMNAMEN_ODER_ARNS_ANGEBEN
Zum Lesen aus Kinesis Streams müssen Sie entweder die streamName
- oder streamARN
-Option als durch Kommas getrennte Liste von Datenstromnamen/ARNs konfigurieren, aber nicht beide gleichzeitig.
KINESIS_QUELLE_KEINE_VERBRAUCHEROPTIONEN_MIT_REGISTRIERTEN_VERBRAUCHERN
Um aus Kinesis-Streams mit registrierten Consumern zu lesen, konfigurieren Sie nicht die Option consumerName
oder consumerNamePrefix
, da diese nicht wirksam werden.
KINESIS_QUELLEN_REGISTER_KONSUMENT_ID_ANZAHL_UNSTIMMIGKEIT
Die Anzahl der registrierten Consumer-IDs muss der Anzahl der Kinesis-Streams entsprechen, es wurden jedoch <numConsumerIds>
Consumer-IDs und <numStreams>
Streams erkannt.
KINESIS_SOURCE_REGISTERED_VERBRAUCHER_NICHT_GEFUNDEN
Der von <consumerId>
angegebene registrierte Consumer kann für streamARN <streamARN>
nicht gefunden werden. Stellen Sie sicher, dass Sie den Verbraucher registriert haben, oder stellen Sie die option registeredConsumerId
nicht bereit.
KINESIS_QUELLE_REGISTRIERTER_VERBRAUCHERTYP_UNGÜLTIG
Der registrierte Consumertyp <consumerType>
ist ungültig. Es muss entweder name
oder ARN
sein.
KRYO_BUFFER_OVERFLOW
Fehler bei der Kryo-Serialisierung: <exceptionMsg>
. Um dies zu vermeiden, erhöhen Sie den Wert "<bufferSizeConfKey>
".
ETIKETTEN_UNGEREIMTHEIT
Begin label <beginLabel>
stimmt nicht mit der Endbezeichnung <endLabel>
überein.
Etikett existiert bereits
Die Bezeichnung <label>
ist bereits vorhanden. Wählen Sie einen anderen Namen aus, oder benennen Sie die vorhandene Bezeichnung um.
LABEL_NAME_VERBOTEN
Der Bezeichnungsname <label>
ist verboten.
LAKEHOUSE_FEDERATION_DATENQUELLE_ERFORDERT_NEUERE_DBR_VERSION
Die Lakehouse-Verbunddatenquelle "<provider>
" erfordert eine neuere Databricks-Runtime-Version.
Weitere Details finden Sie unter LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION
LADER_DATENPFAD_EXISTIERT_NICHT
LOAD DATA Eingabepfad existiert nicht: <path>
.
LOKAL_MUSS_MIT_SCHEMADATEI
LOCAL
muss zusammen mit dem Schema von file
verwendet werden, enthielt jedoch Folgendes: <actualSchema>
.
Standort existiert bereits.
Die verwaltete Tabelle kann nicht als <identifier>
benannt werden, da der zugeordnete Speicherort <location>
bereits vorhanden ist. Wählen Sie einen anderen Tabellennamen aus, oder entfernen Sie zuerst den vorhandenen Speicherort.
VERLORENE_TOPIC_PARTITIONEN_IM_END_OFFSET_MIT_TRIGGER_VERFÜGBARJETZT
Einige Partitionen in Kafka-Themen sind während der Ausführung der Abfrage mit Trigger.AvailableNow verloren gegangen. Der Fehler kann vorübergehend sein: Starten Sie Die Abfrage neu, und melden Sie, wenn dasselbe Problem weiterhin angezeigt wird.
Themenpartitionen für den neuesten Offset: <tpsForLatestOffset>
, Themenpartitionen für den Endoffset: <tpsForEndOffset>
MALFORMED_AVRO_NACHRICHT
Falsch formatierte Avro-Nachrichten werden in der Deserialisierung von Nachrichten erkannt. Parsemodus: <mode>
. Um falsch formatierte Avro-Nachricht als NULL-Ergebnis zu verarbeiten, versuchen Sie, die Option "Modus" als "PERMISSIVE
" festzulegen.
FEHLERHAFTE_ZEICHENKODIERUNG
Ungültiger Wert beim Ausführen von <function>
mit <charset>
gefunden
MALFORMIERTER_CSV_EINTRAG
Falsch formatierter CSV-Eintrag: <badRecord>
FEHLERHAFTES_PROTOKOLLDATEI
Die Protokolldatei war falsch formatiert: Fehler beim Lesen der richtigen Protokollversion aus <text>
.
FEHLERHAFT_PROTOBUF_NACHRICHT
Falsch formatierte Protobuf-Nachrichten werden bei der Nachrichtendeserialisierung erkannt. Parsemodus: <failFastMode>
. Um falsch formatierte Protobuf-Nachricht als NULL-Ergebnis zu verarbeiten, versuchen Sie, die Option "Modus" als "PERMISSIVE
' festzulegen.
FEHLERHAFTER_DATENSATZ_BEIM_PARSING
Beim Parsen von Datensätzen werden nicht wohlgeformte Datensätze erkannt: <badRecord>
.
Parsemodus: <failFastMode>
. Um falsch formatierte Datensätze als NULL-Ergebnis zu verarbeiten, versuchen Sie, die Option "Modus" als "PERMISSIVE
" festzulegen.
Weitere Details finden Sie unter MALFORMED_RECORD_IN_PARSING.
FEHLERHAFTER_STATUS_BEI_RATE_PRO_MICRO_BATCH_QUELLE
Nicht wohlgeformter Zustand in RatePerMicroBatch-Quelle.
Weitere Informationen finden Sie unter MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE
FEHLERHAFTE_VARIANTE
Die Variant-Binärdatei ist falsch formatiert. Überprüfen Sie, ob die Datenquelle gültig ist.
MANAGED_ICEBERG_HAT_VERSUCHT_CLUSTERING_ZU_AKTIVIEREN_OHNE_DVS_ODER_ROW_TRACKING_ZU_DEAKTIVIEREN
Es wurde versucht, Liquid Clustering auf einer verwalteten Apache Iceberg-Tabelle zu aktivieren, ohne sowohl die Löschvektoren als auch die Zeilenverfolgung zu deaktivieren. Löschvektoren und Zeilenverfolgung werden für verwaltete Iceberg-Tabellen nicht unterstützt, sind jedoch für die Parallelität auf Zeilenebene mit Liquid-Tabellen erforderlich. Um liquid clustering auf einer verwalteten Iceberg-Tabelle mit reduzierter Parallelitätssteuerung zu aktivieren, müssen Löschvektoren und Zeilenverfolgung für diese Tabelle deaktiviert werden.
VERWALTETE_EISBERG_OPERATIONNICHT_UNTERSTÜTZT
Verwaltete Iceberg-Tabellen unterstützen <operation>
nicht.
MANAGED_TABLE_WITH_CRED
Das Erstellen einer verwalteten Tabelle mit Speicheranmeldeinformationen wird nicht unterstützt.
Since no specific improvements are necessary and the term seems like a system-specific identifier, it remains unchanged: MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID.
Die materialisierte Sicht kann nicht <refreshType>
werden, da sie vor „pipelineId“ vorhanden war. Um <refreshType>
zu aktivieren, löschen Sie bitte die materialisierte Sicht und erstellen sie neu.
INDEXIERT_VIEW_OPERATION_NICHT_ERLAUBT
Der materialisierte Ansichtsvorgang <operation>
ist nicht zulässig:
Weitere Details finden Sie unter MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED.
MATERIALIZED_VIEW_OUTPUT_OHNE_EXPIZITES_ALIAS
Der Ausgabeausdruck <expression>
in einer materialisierten Sicht muss explizit mit einem Alias erstellt werden.
MATERIALISIERTE ANSICHT ÜBER STREAMING-ANFRAGE UNGÜLTIG
materialisierte Ansicht <name>
konnte nicht mit Streaming-Abfrage erstellt werden. Verwenden CREATE [OR REFRESH] STREAMING TABLE
Oder entfernen Sie das STREAM
Schlüsselwort für Ihre FROM
Klausel, um diese Beziehung stattdessen in eine Batchabfrage umzuwandeln.
MATERIALISIERTE_ANSICHT_NICHT_UNTERSTÜTZTE_OPERATION
Vorgang <operation>
wird für materialisierte Ansichten derzeit nicht unterstützt.
MAXIMALE_ANZAHL_VARIABLES_IN_SESSION_ÜBERSCHRITTEN
Die neue Variable <variableName>
kann nicht erstellt werden, da die Anzahl der Variablen in der Sitzung die maximal zulässige Anzahl (<maxNumVariables>
) überschreitet.
MAX_DATENSÄTZE_PRO_AUSLESUNG_UNGÜLTIG_FÜR_KINESIS_QUELLE
maxRecordsPerFetch muss eine positive ganze Zahl kleiner oder gleich <kinesisRecordLimit>
sein.
MERGE_Kardinalitätsverletzung
Die ON
-Suchbedingung der MERGE
-Anweisung stimmt überein mit einer einzelnen Zeile der Zieltabelle, die sich mit mehreren Zeilen der Quelltabelle deckt.
Dies kann dazu führen, dass die Zielzeile mehrmals mit einem Aktualisierungs- oder Löschvorgang bearbeitet wird, was nicht zulässig ist.
VERBINDEN_OHNE_WANN
Es muss mindestens eine WHEN
-Klausel in einer MERGE
-Anweisung vorhanden sein.
MESSWERTEINSCHRÄNKUNG_NICHT_UNTERSTÜTZT
METRIC CONSTRAINT
ist nicht aktiviert.
METRIC_STORE_UNGÜLTIGER_ARGUMENTWERT_FEHLER
Der bereitgestellte Wert "<argValue>
" wird von Argument "<argName>
" für die METRIC_STORE
Tabellenfunktion nicht unterstützt.
Weitere Details finden Sie unter METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR.
METRIC_STORE_UNTERSTÜTZUNGSFEHLER
Die metrische Store-Routine <routineName>
ist derzeit in dieser Umgebung deaktiviert.
METRIKANZEIGE_UNKLARE_VERBINDUNGSKRITERIEN
Die Definition der Metrikansicht enthält eine Verknüpfung mit mehrdeutigen Kriterien: <expr>
. [Verwenden Sie entweder die using
Verknüpfungskriterien, oder qualifizieren Sie Spalten explizit mit dem <sourceAlias>
Alias.]
METRIC_VIEW_CACHE_TABELLE_NICHT_UNTERSTÜTZT
Die Metrikansicht darf keine Cachetabellen verwenden.
ANSICHT_DER_METRIK_FUNKTION_DEAKTIVIERT
Das Feature "Metrikansicht" ist deaktiviert. Stellen Sie sicher, dass "spark.databricks.sql.metricView.enabled" auf "true" festgelegt ist.
UNGÜLTIGE_METRISCHE_ANSICHT_ FUNKTIONSEINGABE_MISS Maß
Die funktion MEASURE
() akzeptiert nur ein Attribut als Eingabe, hat aber <expr>
METRIKANSICHT_UNGÜLTIGE_ANSICHT_DEFINITION
Die Definition der Metrikansicht ist ungültig. Grund: <reason>
.
METRIC_VIEW_IN_CTE_WIRD_NICHT_UNTERSTÜTZT
Die Metrikansicht ist in CTE-Definitionen nicht zulässig. Plan: <plan>
MESSANZEIGE_VERKNÜPFUNG_NICHT_UNTERSTÜTZT
Die Metrikansicht darf Verknüpfungen nicht verwenden. Plan: <plan>
METRIC_VIEW_MATERIALISIERUNGEN_DEAKTIVIERT
Metrische Ansichtsmaterialisierungen sind deaktiviert. Stellen Sie sicher, dass "spark.databricks.sql.metricView.materializations.enabled" auf "true" festgelegt ist.
Messfunktion in der Metrikansicht fehlt
Die Verwendung der Messspalte <column>
einer Metrikansicht erfordert eine MEASURE
() Funktion, um Ergebnisse zu erhalten.
METRIC_VIEW_UMBENENNEN_UNTERSCHIEDLICHER_KATALOG_UND_SCHEMA
Die Metrikansicht <oldName>
darf nicht in einen anderen Katalog oder ein anderes Schema umbenannt werden: <newName>
Nicht unterstützte Nutzung der Metrikansicht
Die Verwendung der Metrikansicht wird nicht unterstützt. Plan: <plan>
Nicht unterstützte Fensterfunktion in METRIC_VIEW
Die Metrikansicht darf die Fensterfunktion <expr>
nicht verwenden.
MIGRATION_NICHT_UNTERSTÜTZT
<table>
wird für die Migration zur verwalteten UC-Tabelle nicht unterstützt, da es sich nicht um eine <tableKind>
Tabelle handelt.
Stellen Sie sicher, dass die zu migrierende Tabelle eine externe UC-Delta-Tabelle ist und
Es wird auf den Namen statt auf den Pfad verwiesen.
Migration-Rücksetzung-nicht-unterstützt
<table>
wird für den Rollback von zu verwalteter zu externer Tabelle nicht unterstützt, da es sich nicht um eine <tableKind>
-Tabelle handelt.
NICHTÜBEREINSTIMMENDE_THEMEN_PARTITIONEN_ZWISCHEN_END_OFFSET_UND_VORABGELADEN
Die Kafka-Datenquelle in „Trigger.AvailableNow“ muss die gleichen Themenpartitionen im vorab abgerufenen Offset bis zum End-Offset für jeden Mikrobatch bereitstellen. Der Fehler kann vorübergehend sein: Starten Sie Die Abfrage neu, und melden Sie, wenn dasselbe Problem weiterhin angezeigt wird.
Themenpartitionen für den vorab abgerufenen Offset: <tpsForPrefetched>
, Themenpartitionen für den Endoffset: <tpsForEndOffset>
.
FEHLENDE_AGGREGATION
Der nicht aggregierende Ausdruck <expression>
basiert auf Spalten, die nicht an der GROUP BY
-Klausel teilnehmen.
Fügen Sie dem GROUP BY
die Spalten oder den Ausdruck hinzu, aggregieren Sie den Ausdruck, oder verwenden Sie <expressionAnyValue>
, wenn es Ihnen egal ist, welcher Wert innerhalb einer Gruppe zurückgegeben wird.
Weitere Details finden Sie unter MISSING_AGGREGATION.
FEHLENDE_KLAUSELN_FÜR_OPERATION
Fehlende Klausel <clauses>
für den Vorgang <operation>
. Fügen Sie die erforderlichen Klauseln hinzu.
FEHLENDE_VERBINDUNGSOPTION
Verbindungen vom Typ '<connectionType>
' müssen die folgenden Optionen enthalten: <requiredOptions>
.
FEHLENDE_DATENBANK_FÜR_V1_SITZUNGSKATALOG
Der Datenbankname wird im v1-Sitzungskatalog nicht angegeben. Stellen Sie sicher, dass Sie beim Interagieren mit dem v1-Katalog einen gültigen Datenbanknamen angeben.
GRUPPIERUNG_FEHLT
Die Abfrage enthält keine GROUP BY
Klausel. Fügen Sie GROUP BY
hinzu, oder bauen Sie es mithilfe von OVER-Klauseln in Fensterfunktionen um.
FEHLENDER_NAME_FÜR_PRÜFUNGSEINSCHRÄNKUNG
CHECK
Constraint muss einen Namen haben.
FEHLENDER_PARAMETER_FÜR_KAFKA
Parameter <parameterName>
ist für Kafka erforderlich, wird jedoch in <functionName>
nicht angegeben.
FEHLENDER_PARAMETER_FÜR_ROUTINE
Parameter <parameterName>
ist erforderlich, wird jedoch in <functionName>
nicht angegeben.
FEHLENDE_ZEITPLAN_DEFINITION
Die Bereitstellung einer Zeitplandefinition muss gemäß SCHEDULE
erfolgen.
FEHLENDE_TIMEOUT_KONFIGURATION
Der Vorgang ist abgelaufen, es ist jedoch kein Timeout-Zeitraum konfiguriert. Verwenden Sie zum Festlegen eines zeitbasierten Verarbeitungstimeouts "GroupState.setTimeoutDuration()" in Ihrem 'mapGroupsWithState'- oder 'flatMapGroupsWithState'-Vorgang. Verwenden Sie für ereigniszeitbasiertes Timeout "GroupState.setTimeoutTimestamp()" und definieren Sie ein Wasserzeichen mithilfe von "Dataset.withWatermark()".
FEHLENDE_FENSTER_SPEZIFIKATION
Die Fensterspezifikation ist in der WINDOW
-Klausel für <windowName>
nicht definiert. Weitere Informationen zu WINDOW
Klauseln finden Sie unter "<docroot>
/sql-ref-syntax-qry-select-window.html".
INTEGRIERTEN_KATALOG_ANPASSEN
Das Ändern des integrierten Katalogs <catalogName>
wird nicht unterstützt.
MEHRFACH_LADEPFAD
Databricks Delta unterstützt nicht mehrere Eingabepfade in der load()-API.
Pfade: <pathList>
. So erstellen Sie einen einzelnen DataFrame durch Laden
mehrere Pfade aus derselben Delta-Tabelle laden, sollten Sie den Stammpfad der
die Delta-Tabelle mit den entsprechenden Partitionsfiltern. Wenn mehrere Pfade
aus verschiedenen Delta-Tabellen stammen, verwenden Sie die APIs union() oder unionByName() des Datasets,
um die DataFrames zu kombinieren, die durch separate load()-API-Aufrufe generiert werden.
Mehrfache Übereinstimmungsbeschränkungen
Es wurden mindestens zwei übereinstimmende Einschränkungen mit der angegebenen Bedingung gefunden.
MEHRFACHE ABFRAGEERGEBNIS-KLAUSELN MIT PIPE-OPERATOREN
<clause1>
und <clause2>
kann nicht im gleichen SQL-Pipeoperator mit '|>' koexistieren. Trennen Sie die mehreren Ergebnisklauseln in separate Pipeoperatoren, und wiederholen Sie dann die Abfrage erneut.
MULTIPLE_ZEITREISE_SPEZIFIKATION
Die Zeitreise kann nicht sowohl in der Zeitreiseklausel als auch in den Optionen angegeben werden.
MEHRERE_XML_DATENQUELLE
Es wurden mehrere Datenquellen mit dem Namen <provider> (<sourceNames>
) erkannt. Geben Sie den vollqualifizierten Klassennamen an, oder entfernen Sie <externalSource>
aus dem Klassenpfad.
MULTI_ALIAS_WITHOUT_GENERATOR
Mehrteiliges Aliasing (<names>
) wird mit <expr>
nicht unterstützt, da es sich nicht um eine Generatorfunktion handelt.
MEHRERE_QUELLEN_FÜR_AUSDRUCK_UNTERSTÜTZT_NICHT
Der Ausdruck <expr>
unterstützt nicht mehr als eine Quelle.
MULTI_STATEMENT_TRANSACTION_CDF_SCHEMA_MIT_RESERVIERTEM_SPALTENNAMEN
"Change Data Feed kann in einer Mehrfachanweisungstransaktion nicht aktiviert werden, da eine Tabelle einen reservierten Spaltennamen (<column_name>
) enthält."
Um fortzufahren, stellen Sie sicher, dass die Tabelle nur nicht reservierte Spaltennamen verwendet.
TRANS_AUS_MEHREREN_ANWEISUNGEN_CDF_EINSTELLUNG_HOCHWASSERMARKE_NICHT_ERLAUBT
Das manuelle Festlegen des hohen Wasserzeichens für CDC-Identitäten ist nicht zulässig.
Mehrfach-Anweisung-Transaktion_gleichzeitige_Katalog-Metadaten-Änderung
Eine gleichzeitige Metadatenänderung wurde in Tabelle/Ansicht <table>
erkannt. Führen Sie ROLLBACK
aus und versuchen Sie diese Transaktion dann erneut. Details:
Weitere Informationen finden Sie unter MULTI_STATEMENT_TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE
MULTI_STATEMENT_TRANSACTION_CONTEXT_MISMATCH
Die Inkonsistenz des Transaktionskontexts wurde zwischen dem aktuellen Thread und der Spark-Sitzung erkannt. Dies tritt in der Regel auf, wenn eine Spark-Sitzung über mehrere Threads hinweg freigegeben wird. Verwenden Sie für jede Transaktion eine dedizierte Sitzung und einen dedizierten Thread, und führen Sie einen Commit/Rollback der Transaktion im Thread durch, bevor Sie die Sitzung und den Thread für eine neue Transaktion wiederverwenden. Details:
Weitere Informationen finden Sie unter MULTI_STATEMENT_TRANSACTION_CONTEXT_MISMATCH
MEHRFACHANWEISUNG_TRANSAKTION_NICHT_UNTERSTÜTZT
Fehler beim Ausführen der Anweisung.
Weitere Informationen finden Sie unter MULTI_STATEMENT_TRANSACTION_NOT_SUPPORTED.
MEHRFACHE_ANWEISUNG_TRANSAKTION_KEINE_AKTIVE_TRANSAKTION
Es ist keine aktive Transaktion zu <action>
vorhanden.
MEHRFACH_ANWEISUNG_TRANSAKTIONSRÜCKGANG_ERFORDERLICH_NACH_ABBRUCH
Die aktuelle Transaktion wurde abgebrochen. Bitte führen Sie ROLLBACK TRANSACTION
aus, bevor Sie fortfahren. Abbruchgrund:
Weitere Informationen finden Sie unter MULTI_STATEMENT_TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT
MULTI_UDF_INTERFACE_FEHLER
Nicht zulässig, mehrere UDF-Schnittstellen zu implementieren, UDF-Klasse <className>
.
Wechselseitig ausschließende Klauseln
Sich gegenseitig ausschließende Klauseln oder Optionen <clauses>
. Entfernen Sie eine dieser Klauseln.
MV_ST_ABFRAGE_VERÄNDERN_FALSCHE_UNTERSTÜTZUNGSTYP
Die Eingabeabfrage erwartet eine <expectedType>
, die zugrunde liegende Tabelle ist jedoch eine <givenType>
.
BENANNTE_PARAMETER_NICHT_UNTERSTÜTZT
Benannte Parameter werden für die Funktion <functionName>
nicht unterstützt; bitte versuchen Sie es erneut, indem Sie Positionsargumente für den Funktionsaufruf verwenden.
BENANNTE_PARAMETER_WERDEN_FÜR_SQL_UDFS_NICHT_UNTERSTÜTZT
Funktion <functionName>
kann nicht aufgerufen werden, weil benannte Argumentverweise nicht unterstützt werden. In diesem Fall wurde der benannte Argumentverweis <argument>
verwendet.
UNTERSTÜTZUNG_FÜR_BENENNTE_PARAMETER_DEAKTIVIERT
Die Funktion <functionName>
kann nicht aufgerufen werden, da hier keine benannten Argumentverweise aktiviert sind.
In diesem Fall wurde der benannte Argumentverweis <argument>
verwendet.
Legen Sie "spark.sql.allowNamedFunctionArguments" auf "true" fest, um das Feature zu aktivieren.
NAMESPACE_BEREITS_VORHANDEN
Namespace-<nameSpaceName>
kann nicht erstellt werden, da er bereits vorhanden ist.
Wählen Sie einen anderen Namen aus, legen Sie den vorhandenen Namespace ab, oder fügen Sie die IF NOT EXISTS
Klausel hinzu, um bereits vorhandene Namespaces zu tolerieren.
Namensraum_nicht_leer
Ein Namespace-<nameSpaceNameName>
kann nicht gelöscht werden, da er Objekte enthält.
Verwenden Sie DROP NAMESPACE
... CASCADE
, um den Namespace und alle zugehörigen Objekte abzulegen.
Namensraum nicht gefunden
Der Namespace <nameSpaceName>
kann nicht gefunden werden. Überprüfen Sie die Schreib- und Korrektheit des Namespaces.
Wenn Sie den Namen nicht mit einem qualifiziert haben, überprüfen Sie die current_schema()-Ausgabe, oder qualifizieren Sie den Namen mit dem richtigen.
Um den Fehler beim Trennen zu tolerieren, verwenden Sie DROP NAMESPACE IF EXISTS
.
NATIVE_IO_ERROR
Fehler bei der nativen Anforderung. RequestId: <requestId>
, Cloud: <cloud>
, Vorgang: <operation>
Anforderung: [https: <https>
, method = <method>
, path = <path>
, params = <params>
, host = <host>
, headers = <headers>
, bodyLen = <bodyLen>
],
fehler: <error>
NATIVE_XML_DATENQUELLE_NICHT_AKTIVIERT
Native XML-Datenquelle ist in diesem Cluster nicht aktiviert.
NEGATIVE_SKALIERUNG_NICHT_ERLAUBT
Negative Skalierung ist nicht zulässig: '<scale>
'. Legen Sie die Konfiguration <sqlConf>
auf "true" fest, um sie zuzulassen.
NEGATIVE_WERTE_IN_HÄUFIGKEITSAUSDRUCK
Es wurde ein negativer Wert in <frequencyExpression>
gefunden: <negativeValue>
, aber ein positiver Integralwert wurde erwartet.
Verschachtelte_Aggregatfunktion
Es ist nicht zulässig, eine Aggregatfunktion im Argument einer anderen Aggregatfunktion zu verwenden. Verwenden Sie die innere Aggregatfunktion in einer Unterabfrage.
NESTED_EXECUTE_IMMEDIATE
Geschachtelte EXECUTE IMMEDIATE
Befehle sind nicht zulässig. Stellen Sie sicher, dass die bereitgestellte SQL-Abfrage (<sqlString>
) keinen anderen EXECUTE IMMEDIATE
Befehl enthält.
NICHT_EXISTIERENDES_FELDFELDNAME_IN_LISTE
Feld(er) <nonExistFields>
ist/sind nicht vorhanden. Verfügbare Felder: <fieldNames>
NICHT_FALTBAR_ARGUMENT
Für die Funktion <funcName>
muss der Parameter <paramName>
ein faltbarer Ausdruck des Typs <paramType>
sein, das tatsächliche Argument ist jedoch nicht faltbar.
NICHT_LETZTE_PASSENDE_KLAUSEL_AUSSCHLIESSEN_BEDINGUNG
Wenn es in einer MATCHED
-Anweisung mehr als eine MERGE
-Klausel gibt, kann nur die letzte MATCHED
-Klausel die Bedingung weglassen.
Nicht_letzter_nicht_vom_Quelltext_quadrierte_Aussage_Ausschluss_Bedingung
Wenn es in einer NOT MATCHED BY SOURCE
-Anweisung mehr als eine MERGE
-Klausel gibt, kann nur die letzte NOT MATCHED BY SOURCE
-Klausel die Bedingung weglassen.
NICHT_LETZTE_NICHT_DURCH_ZIEL_KLAUSEL_ENTSPRECHEND_KONDITION_AUSLASSEN
Wenn eine NOT MATCHED [BY TARGET
-Anweisung mehr als eine MERGE
-Klausel enthält, darf nur die letzte NOT MATCHED [BY TARGET
-Klausel die Bedingung auslassen.
Nicht-wörtliche Pivot-Werte
Literalausdrücke sind für Pivotwerte erforderlich, es wurde <expression>
gefunden.
Nicht-Partitionsspalte
PARTITION
-Klausel darf keine Nicht-Partitionsspalten enthalten: <columnName>
.
NICHT_ZEITFENSTER_NICHT_UNTERSTÜTZT_IM_STREAMING
Die WINDOW-Funktion wird in <windowFunc>
(als Spalte <columnName>
) für Streaming-DataFrames/Datasets nicht unterstützt.
Strukturiertes Streaming unterstützt nur die Zeitfensteraggregation mithilfe der WINDOW
-Funktion. (Fensterspezifikation: <windowSpec>
)
Nicht_erlaubt_in_von
In der FROM
-Klausel nicht zulässig:
Weitere Details finden Sie unter NOT_ALLOWED_IN_FROM.
NICHT_GESTATTET_IM_PIPE_OPERATOR_WHERE
In der Pipe-WHERE
-Klausel nicht zulässig:
Weitere Details finden Sie unter NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE.
NOT_A_CONSTANT_STRING
Der Ausdruck <expr>
, der für die Routine- oder Klausel <name>
verwendet wird, muss eine Konstante STRING
sein, die NOT NULL
ist.
Weitere Details finden Sie unter NOT_A_CONSTANT_STRING.
KEINE_PARTITIONIERTE_TABELLE
Der Vorgang <operation>
ist für <tableIdentWithDB>
nicht zulässig, da es sich nicht um eine partitionierte Tabelle handelt.
KEINE_SKALARFUNKTION
<functionName>
wird hier als skalarer Ausdruck angezeigt, aber die Funktion wurde als Tabellenfunktion definiert. Aktualisieren Sie die Abfrage, um den Funktionsaufruf in die FROM
-Klausel zu verschieben, oder definieren Sie stattdessen <functionName>
als skalare Funktion neu.
KEINE_TABELLENFUNKTION
<functionName>
wird hier als Tabellenfunktion angezeigt, aber die Funktion wurde als skalare Funktion definiert. Aktualisieren Sie die Abfrage, um den Funktionsaufruf außerhalb der FROM
-Klausel zu verschieben, oder definieren Sie stattdessen <functionName>
als Tabellenfunktion neu.
NOT_NULL_ASSERT_VERLETZUNG
NULL
-Wert in Non-Nullable-Feld: <walkedTypePath>
Wenn das Schema aus einem Scala-Tupel/einer Scala-Fallklasse oder einem Java-Bean abgeleitet wird, versuchen Sie, „scala.Option[_]“ oder andere Nullwerte zulassende Typen (z. B. „java.lang.Integer“ anstelle von „int/scala.Int“) zu verwenden.
NICHT_NULL_CONSTRAINT_VERLETZUNG
Das Zuweisen eines NULL
-Werts ist hier nicht zulässig.
Weitere Details finden Sie unter NOT_NULL_CONSTRAINT_VIOLATION.
NICHT_UNTERSTÜTZTE_ÄNDERUNG_SPALTE
ALTER TABLE ALTER
/
CHANGE COLUMN
wird nicht unterstützt, um die Spalte <table>
von <originName>
mit dem Typ <originType>
in <newName>
mit dem Typ <newType>
zu ändern.
ÄNDERUNG_DERSELBEN_SPALTE_NICHT_UNTERSTÜTZT
ALTER TABLE ALTER
/
CHANGE COLUMN
wird nicht unterstützt, um die Spalte <table>
von <fieldName>
einschließlich ihrer geschachtelten Felder mehrfach im selben Befehl zu ändern.
NICHT_UNTERSTÜTZTER_BEFEHL_FÜR_V2_TABELLE
<cmd>
wird für v2-Tabellen nicht unterstützt.
NICHT_UNTERSTÜTZTER_BEFEHL_OHNE_HIVE_UNTERSTÜTZUNG
<cmd>
wird nicht unterstützt, wenn Sie es aktivieren möchten, legen Sie bitte "spark.sql.catalogImplementation" auf "hive" fest.
Nicht unterstützt im JDBC-Katalog
Nicht unterstützter Befehl im JDBC-Katalog:
Weitere Informationen finden Sie unter NOT_SUPPORTED_IN_JDBC_CATALOG
Nicht unterstützt mit DB_SQL
<operation>
wird in einer SQL <endpoint>
nicht unterstützt.
NICHT_UNTERSTÜTZT_BEI_SERVEURLOS
<operation>
wird auf serverloser Berechnung nicht unterstützt.
NICHT_UNAUFGELÖSTER_ENCODER
Nicht aufgelöster Encoder erwartet, aber <attr>
wurde gefunden.
KEIN_STANDARDBEZEICHNUNGSWERT_VERFÜGBAR
Der Standardwert <colName>
kann nicht bestimmt werden, da er nicht nullfähig ist und keinen Standardwert aufweist.
Kein Handler für UDAF
Kein Handler für UDAF „<functionName>
“. Verwenden Sie stattdessen sparkSession.udf.register(...)
KEINE_ZUSAMMENFÜHRUNGS_AKTION_ANGEGEBEN
Nach „df.mergeInto“ muss mindestens eine der folgenden Optionen folgen:whenMatched, whenNotMatched, whenNotMatchedBySource.
KEIN_ELTER_ÄUßERER_SPEICHERORT_FÜR_PFAD
SQLSTATE: nicht zugewiesen
Für den Pfad '<path>
' wurde kein übergeordneter externer Speicherort gefunden. Erstellen Sie einen externen Speicherort auf einem der übergeordneten Pfade, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
NO_SQL_TYPE_IN_PROTOBUF_SCHEMA
<catalystFieldPath>
im Protobuf-Schema wurde nicht gefunden.
KEIN_SPEICHERORT_FÜR_TABELLE
SQLSTATE: nicht zugewiesen
Beim Generieren von Tabellenanmeldeinformationen wurde kein Speicherort für die Tabelle '<tableId>
' gefunden. Überprüfen Sie den Tabellentyp und die Tabellenspeicherort-URL, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
KEINE_SOLCHE_KATALOG_AUSNAHME
Katalog '<catalog>
' wurde nicht gefunden. Überprüfen Sie den Katalognamen, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
NO_SUCH_CLEANROOM_EXCEPTION (Keine solche Reinraum-Ausnahme)
SQLSTATE: nicht zugewiesen
Der Reinraum "<cleanroom>
" ist nicht vorhanden. Überprüfen Sie, ob der Name des Reinraums richtig geschrieben ist und dem Namen eines gültigen vorhandenen Reinraums entspricht, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
CREDENTIAL_EXCEPTION_NICHT_GEFUNDEN
Die Anmeldeinformationen „<credential>
“ sind nicht vorhanden. Vergewissern Sie sich, dass der Anmeldeinformationsname richtig geschrieben ist und dem Namen einer gültigen vorhandenen Anmeldeinformation entspricht, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
KEINE_SOLCHE_EXTERNE_STANDORT_AUSNAHME
SQLSTATE: nicht zugewiesen
Der externe Speicherort '<externalLocation>
' ist nicht vorhanden. Vergewissern Sie sich, dass der Name des externen Speicherorts korrekt ist, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
NO_SUCH_METASTORE_EXCEPTION (Kein solcher Metastore-Fehler)
SQLSTATE: nicht zugewiesen
Der Metaspeicher wurde nicht gefunden. Bitten Sie Ihren Kontoadministrator, dem aktuellen Arbeitsbereich einen Metastore zuzuweisen, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
NO_SUCH_PROVIDER_EXCEPTION (Kein solcher Anbieter Ausnahme)
SQLSTATE: nicht zugewiesen
Der Freigabeanbieter <providerName>
ist nicht vorhanden. Überprüfen Sie, ob der Name des Freigabeanbieters richtig geschrieben ist und dem Namen eines gültigen vorhandenen Anbieternamens entspricht, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
KEIN_SUCH_EMPFÄNGER_EXCEPTION
SQLSTATE: nicht zugewiesen
Der Empfänger '<recipient>
' ist nicht vorhanden. Vergewissern Sie sich, dass der Empfängername richtig geschrieben ist und dem Namen eines gültigen vorhandenen Empfängers entspricht, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
KEINE_SOLCHE_FREIGABE_AUSNAHME
SQLSTATE: nicht zugewiesen
Die Freigabe <share>
ist nicht vorhanden. Überprüfen Sie, ob der Freigabename richtig geschrieben ist und dem Namen einer gültigen vorhandenen Freigabe entspricht, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
Keine solche Speicherberechtigungs-Ausnahme (NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION)
SQLSTATE: nicht zugewiesen
Die Speicheranmeldeinformationen <storageCredential>
sind nicht vorhanden. Überprüfen Sie, ob der Name der Speicheranmeldeinformationen richtig geschrieben ist und dem Namen einer gültigen vorhandenen Speicheranmeldeinformation entspricht, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
KEINE_SOLCHE_BENUTZER_AUSNAHME
SQLSTATE: nicht zugewiesen
Der Benutzer '<userName>
' ist nicht vorhanden. Vergewissern Sie sich, dass der Benutzer, dem Sie die Berechtigung erteilen oder den Besitz ändern, richtig geschrieben ist und dem Namen eines gültigen vorhandenen Benutzers entspricht, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
KEINE_UDF_SCHNITTSTELLE
UDF-Klasse <className>
implementiert keine UDF-Schnittstelle.
NULLBARE_SPALTE_ODER_FELD
Die Spalte oder das Feld <name>
lässt Nullwerte zu, obwohl keine Nullwerte zugelassen werden dürfen.
NULLABLE_ZEILEN_ID_ATTRIBUTE
Zeilen-ID-Attribute dürfen nicht nullfähig sein: <nullableRowIdAttrs>
.
NULL_DATENQUELLE_OPTION
Die Option "Lese-/Schreibzugriff der Datenquelle" <option>
darf keinen Nullwert aufweisen.
NULL_MAP_KEY (Nullwerte-Schlüssel)
Null kann nicht als Schlüssel in einer Map verwendet werden.
NULL_ABFRAGEZEICHENFOLGE_SOFORT_AUSFÜHREN
"Direkt ausführen" erfordert eine Nicht-NULL-Variable als Abfragezeichenfolge, die bereitgestellte Variable <varName>
ist jedoch NULL.
NULL-Wert-Signal-Anweisung
Signalargumente erfordern Nicht-Null-Werte, aber <argument>
erhielt einen Nullwert.
ZAHL_AUSSERHALB_DES_UNTERSTÜTZTEN_BEREICHS
Der Wert kann nicht als numerischer Wert <value>
interpretiert werden, da er mehr als 38 Ziffern aufweist.
NUMERISCHER_WERT_AUSSERHALB_DES_BEREICHS
Weitere Details finden Sie unter NUMERIC_VALUE_OUT_OF_RANGE.
SPALTENANZAHL_UNSTIMMIGKEIT
<operator>
kann nur bei Eingaben mit der gleichen Anzahl von Spalten ausgeführt werden, aber die erste Eingabe hat <firstNumColumns>
Spalten und die <invalidOrdinalNum>
Eingabe hat <invalidNumColumns>
Spalten.
NUMMER_TABELLENWERT_ALIASS_FEHLER
Die Anzahl der angegebenen Aliase stimmt nicht mit der Anzahl der Ausgabespalten überein.
Funktionsname: <funcName>
; Anzahl der Aliase: <aliasesNum>
; Anzahl der Ausgabespalten: <outColsNum>
.
OAUTH_BENUTZERDEFINIERTER_IDENTITÄTSANSPRUCH_NICHT_BEREITGESTELLT
Es wurde kein benutzerdefinierter Identitätsanspruch bereitgestellt.
ONLY_SECRET_FUNCTION_SUPPORTED_HERE (Nur geheime Funktion hier unterstützt)
Das Aufrufen der Funktion <functionName>
wird in diesem <location>
nicht unterstützt. <supportedFunctions>
wird hier unterstützt.
NUR_UNTERSTÜTZT_MIT_UC_SQL_CONNECTOR
SQL-Vorgang <operation>
wird nur für Databricks SQL-Connectors mit Unity-Katalogunterstützung unterstützt.
OPERATION_ABGEBROCHEN
Der Vorgang wurde abgebrochen.
Operation erfordert Unity-Katalog
Für den Vorgang <operation>
muss der Unity-Katalog aktiviert sein.
OPERATION_NICHT_UNTERSTÜTZT_NUR_LESEN
<plan>
wird im schreibgeschützten Sitzungsmodus nicht unterstützt.
ORDNUNG_NACH_POSITION_AUSSER_REICHWEITE
Position ORDER BY
<index>
ist nicht in der Auswahlliste enthalten (gültiger Bereich ist [1, <size>
]).
PARQUET_CONVERSION_FAILURE
Für den Datentyp <dataType>
, dessen Parketttyp <parquetType>
ist, kann kein Parkettkonverter erstellt werden.
Weitere Details finden Sie unter PARQUET_CONVERSION_FAILURE.
PARQUET_TYP_UNZULÄSSIG
Unzulässiger Parquet-Typ: <parquetType>
.
PARQUET_TYP_NICHT_ERKANNT
Unbekannter Parketttyp: <field>
.
PARQUET_TYP_NICHT_UNTERSTÜTZT
Der Parketttyp <parquetType>
wird noch nicht unterstützt.
PARSEN_LEERE_ANWEISUNG
Syntaxfehler, unerwartete leere Anweisung.
PARSE_MODE_NICHT_UNTERSTÜTZT
Die Funktion <funcName>
unterstützt den <mode>
Modus nicht. Akzeptable Modi sind PERMISSIVE
und FAILFAST
.
PARSE_SYNTAX_FEHLER
Syntaxfehler bei oder in der Nähe von <error> <hint>
.
PARTITIONEN_EXISTIEREN_BEREITS
Partitionen können nicht mit ADD oder RENAME
TO <partitionList>
zu Tabelle <tableName>
hinzugefügt werden, da sie bereits vorhanden sind.
Wählen Sie einen anderen Namen aus, legen Sie die vorhandene Partition ab, oder fügen Sie die IF NOT EXISTS
Klausel hinzu, um eine bereits vorhandene Partition zu tolerieren.
PARTITIONEN_NICHT_GEFUNDEN
Die Partition(en) <partitionList>
können in Tabelle <tableName>
nicht gefunden werden.
Überprüfen Sie die Partitionsspezifikation und den Tabellennamen.
Um den Fehler beim „Drop“ zu tolerieren, verwenden Sie ALTER TABLE
...
DROP IF EXISTS PARTITION
.
PARTITIONSSPALTE_NICHT_IM_SCHEMA_GEFUNDEN
Partitionsspalte <column>
in Schema-<schema>
nicht gefunden. Geben Sie die vorhandene Spalte für die Partitionierung an.
PARTITION_STANDORT_EXISTIERT_BEREITS
Partitionsspeicherort <locationPath>
ist bereits in Tabelle <tableName>
vorhanden.
DER_PARTITIONSORTIERT_IST_NICHT_IM_TABELLENVERZEICHNIS
Fehler beim Ausführen der ALTER TABLE SET PARTITION LOCATION
-Anweisung, da der
Der Partitionsspeicherort <location>
befindet sich nicht unter dem Tabellenverzeichnis <table>
.
Um dies zu beheben, legen Sie den Speicherort der Partition auf ein Unterverzeichnis von <table>
fest.
PARTITIONSDATEN
<action>
ist für die Tabelle <tableName>
nicht zulässig, da das Speichern von Partitionsmetadaten im Unity-Katalog nicht unterstützt wird.
PARTITION_NUMMER_STIMMT_NICHT_ÜBEREIN
Die Anzahl der Werte (<partitionNumber>
) stimmt nicht mit der Schemagröße überein (<partitionSchemaSize>
): Werte sind <partitionValues>
, Schema ist <partitionSchema>
, Dateipfad ist <urlEncodedPath>
.
Materialisieren Sie die Tabelle neu, oder wenden Sie sich an die Person, die sie besitzt.
AUSDRUCK_DER_PARTITIONSTRANSFORMATION_NICHT_IN_PARTITIONIERT_DURCH
Der Ausdruck <expression>
muss sich innerhalb von "partitionedBy" befinden.
PFAD_EXISTIERT_BEREITS
Der Pfad <outputPath>
ist bereits vorhanden. Legen Sie den Modus als "überschreiben" fest, um den vorhandenen Pfad zu überschreiben.
Pfad nicht gefunden
Pfad ist nicht vorhanden: <path>
.
PHOTON_ENTSERIALISIERT_PROTOBUF_SPEICHERGRENZE_ÜBERSCHRITTEN
Die Deserialisierung des Photon-protobuf-Plans erfordert mindestens <size>
Bytes, was den
Grenzwert von <limit>
Bytes überschreitet. Dies könnte auf einen sehr großen Plan oder das Vorhandensein eines solchen zurückzuführen sein.
breites Schema. Versuchen Sie, die Abfrage zu vereinfachen, unnötige Spalten zu entfernen oder Photon zu deaktivieren.
PHOTON_SERIALISIERTE_PROTOBUF-SPEICHERBEGRENZUNG ÜBERSCHRITTEN
Der serialisierte Photon-protobuf-Plan hat eine Größe von <size>
Bytes, die den Grenzwert von
<limit>
Bytes überschreitet. Die serialisierte Größe von Datentypen im Plan ist <dataTypeSize>
Bytes.
Dies kann auf einen sehr großen Plan oder das Vorhandensein eines sehr breiten Schemas zurückzuführen sein.
Erwägen Sie das Umschreiben der Abfrage, um unerwünschte Vorgänge und Spalten zu entfernen oder Photon zu deaktivieren.
PIPELINE_EXISTIERT_NICHT
Pipeline '<pipelineId>
' existiert nicht
Weitere Informationen finden Sie unter PIPELINE_DOES_NOT_EXIST
PIPE_OPERATOR_AGGREGATS_AUSDRUCK_ENTHÄLT_KEINE_AGGREGATFUNKTION
Ein Ausdruck <expr>
ohne Gruppierung wird als Argument für den |> AGGREGATE
Pipeoperator bereitgestellt, enthält jedoch keine Aggregatfunktion. Aktualisieren Sie ihn so, dass er eine Aggregatfunktion enthält, und wiederholen Sie dann die Abfrage erneut.
PIPE_OPERATOR_ENTHÄLT_AGGREGATFUNKTION
Die Aggregatfunktion <expr>
ist nicht zulässig, wenn Sie die Pipeoperatorklausel |> <clause>
verwenden. Verwenden Sie stattdessen die Pipe operator-Klausel |> AGGREGATE
.
PIVOT_WERT_DATENTYP_ANPASSUNG_FEHLER
Ungültiger Pivotwert '<value>
':Datentyp des Werts <valueType>
stimmt nicht mit dem Datentyp der Pivotspalte überein <pivotType>
.
POINTER_ARRAY_SPEICHER_ÜBERZIEHEN
Nicht genügend Arbeitsspeicher zum Vergrößern des Zeigerarrays
POLITIK_EXISTIERT_BEREITS
Richtlinie <policyName>
kann nicht erstellt werden, da sie bereits vorhanden ist.
Wählen Sie einen anderen Namen aus, oder legen Sie die vorhandene Richtlinie ab, um bereits vorhandene Verbindungen zu tolerieren.
RICHTLINIE_NICHT_GEFUNDEN
Der Befehl <commandType>
kann nicht ausgeführt werden, da die Richtlinie <policyName>
auf <securableFullname>
nicht gefunden werden kann.
Überprüfen Sie die Rechtschreibung und Korrektheit.
POLICY_ON_SECURABLE_TYPE_NOT_SUPPORTED (Richtlinie für nicht unterstützte sicherbare Typen)
Die Richtlinie für den sicherungsfähigen Typ <securableType>
kann nicht erstellt werden. Unterstützte sicherungsfähige Typen: <allowedTypes>
.
PROCEDURE_ARGUMENT_ANZAHL_UNSTIMMIGKEIT
Die Prozedur <procedureName>
erwartet <expected>
Argumente, <actual>
wurden jedoch bereitgestellt.
PROCEDURE_ERSTELLUNG_LEERE_ROUTINE
CREATE PROCEDURE
mit einer leeren Routinedefinition ist nicht zulässig.
Parameter_der_Prozedurerstellung_OUT_INOUT_mit_Standardwert
Der Parameter <parameterName>
wird mit dem Parametermodus <parameterMode>
definiert.
OUT
- und INOUT
-Parameter können bei der Ausführung einer Routine nicht weggelassen werden und unterstützen daher keinen DEFAULT
-Ausdruck. Um fortzufahren, entfernen Sie die DEFAULT
-Klausel, oder ändern Sie den Parametermodus in IN
.
PROZEDUR_NICHT_UNTERSTÜTZT
Die gespeicherte Prozedur wird nicht unterstützt
PROZEDUR_NICHT_UNTERSTÜTZT_MIT_HMS
Gespeicherte Prozeduren werden vom Hive-Metastore nicht unterstützt. Verwenden Sie stattdessen Unity-Katalog.
PROTOBUF_ABHÄNGIGKEIT_NICHT_GEFUNDEN
Die Abhängigkeit <dependencyName>
wurde nicht gefunden.
PROTOBUF_DESCRIPTOR_DATEI_NICHT_GEFUNDEN
Fehler beim Lesen der Protobuf-Deskriptordatei unter Pfad: <filePath>
.
PROTOBUF_FIELD_MISSING
Die Suche nach <field>
im Protobuf-Schema bei <protobufSchema>
hat <matchSize>
Übereinstimmungen ergeben. Kandidaten: <matches>
.
PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA
Es wurde <field>
im Protobuf-Schema gefunden, aber es gibt keine Übereinstimmung im SQL-Schema.
PROTOBUF_FELDTYPEN_FEHLANPASSUNG
Für Feld <field>
wurde ein Typenkonflikt gefunden.
PROTOBUF_JAVA_CLASSES_NICHT_UNTERSTÜTZT
Java-Klassen werden für <protobufFunction>
nicht unterstützt. Wenden Sie sich an den Databricks-Support über alternative Optionen.
PROTOBUF_MESSAGE_NOT_FOUND
Die Nachricht <messageName>
konnte im Deskriptor nicht gefunden werden.
PROTOBUF_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE (Protokoll-Puffer nicht geladen, SQL-Funktionen nicht nutzbar)
Die <functionName>
SQL-Funktion kann nicht aufgerufen werden, da die Protobuf-Datenquelle nicht geladen wird.
Starten Sie den Auftrag oder die Sitzung neu, indem Sie das Paket "spark-protobuf" laden, zum Beispiel mit dem Argument "--packages" in der Befehlszeile, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
PROTOBUF_TYP_NICHT_UNTERSTÜTZT
Der Protobuf-Typ <protobufType>
wird noch nicht unterstützt.
PS_FETCH_RETRY_AUSNAHME
Die Aufgabe in der PubSub-Abrufstage kann nicht wiederholt werden. Partition <partitionInfo>
in Stage <stageInfo>
, TID <taskId>
.
UNGÜLTIGE_LEERE_OPTION
<key>
kann keine leere Zeichenfolge sein.
PS_UNGÜLTIGER_SCHLÜSSEL_TYP
Ungültiger Schlüsseltyp für PubSub Dedup: <key>
.
PS_UNGÜLTIGE_OPTION
Die Option <key>
wird von PubSub nicht unterstützt. Sie kann nur in Tests verwendet werden.
PS_UNGÜLTIGER_OPTIONSTYP
Ungültiger Typ für <key>
. Erwarteter Typ von <key>
soll Typ <type>
sein.
PS_UNGÜLTIGES_LESELIMIT
Ungültiger Lesegrenzwert für PubSub-Datenstrom: <limit>
.
PS_UNGÜLTIGE_UNSICHERE_ZEILENUMWANDLUNG_VON_PROTO
Ungültige UnsafeRow zum Decodieren in PubSubMessageMetadata. Gewünschtes Protokollschema: <protoSchema>
. Die Eingabe "UnsafeRow" ist möglicherweise beschädigt: <unsafeRow>
.
PS_UNGÜLTIGE_WORKLOAD_IDENTITÄTS_FÖDERATION_ZIELGRUPPEN_OPTION
Der Befehl oder die Abfrage ist aufgrund einer ungültigen Leseoption fehlgeschlagen: in spark.readStream.format("pubsub").option("workloadIdentityFederation.audience", <audience>
). Aktualisieren Sie <audience>
, um dem folgenden Format zu entsprechen: //iam.googleapis.com/projects/{PROJECT_NUMBER}/locations/global/workloadIdentityPools/{POOL_ID}/providers/{PROVIDER_ID}
Und wiederholen Sie dann die Abfrage oder den Befehl erneut.
PS_FEHLENDE_AUTH_INFO
Fehler beim Auffinden vollständiger PubSub-Authentifizierungsinformationen.
Fehlende erforderliche Option
Erforderliche Option konnte nicht gefunden werden: <key>
.
PS_BEWEGEN_CHECKPOINT_FEHLER
Fehler beim Verschieben von Rohdaten-Prüfpunktdateien aus <src>
in das Zielverzeichnis: <dest>
.
PS_MEHRERE_AUTHENTIFIZIERUNGSOPTIONEN
Geben Sie entweder Ihre Databricks-Dienstanmeldeinformationen oder Ihre GCP-Dienstkontoanmeldeinformationen an.
PS_MEHRERE_FEHLGESCHLAGENE_EPOCHEN
Der PubSub-Stream kann nicht gestartet werden, da mehr als ein fehler beim Abrufen vorhanden ist: <failedEpochs>
.
PS_OPTION_AUßERHALB_DER_GRENZEN
<key>
muss innerhalb der folgenden Grenzwerte liegen (ausschließlich): <min>
, <max>
.
PS_ANMELDEDATEN_MIT_OPTION_BEREITSTELLEN
Freigegebene Cluster unterstützen keine Authentifizierung mit Instanzprofilen. Geben Sie Anmeldeinformationen mithilfe von „.option()“ direkt für den Stream an.
PS_SPARK_SPEKULATION_NICHT_UNTERSTÜTZT
Der PubSub-Quell-Connector ist nur in einem Cluster verfügbar, in dem spark.speculation
deaktiviert ist.
PS_KANN_ABONNEMENT_NICHT_ERSTELLEN
Fehler beim Versuch, ein Abonnement <subId>
zu Thema <topicId>
zu erstellen. Überprüfen Sie, ob ausreichende Berechtigungen zum Erstellen eines Abonnements vorhanden sind, und versuchen Sie es erneut.
PS_KANN_PROTO_NICHT_ANALYSIEREN
Serialisierte Bytes können nicht geparst werden, um das Protokoll zu generieren.
PS_UNTERSTÜTZTE_ABRUFEN_OFFSET_AUFRUF_UNTERSTÜTZT_NICHT
getOffset wird nicht unterstützt, ohne einen Grenzwert zu liefern.
PYTHON_DATENQUELLEN_FEHLER
Fehler bei der <action>
-Python-Datenquelle <type>
: <msg>
PYTHON_STREAMING_DATENQUELLE_LAUFZEITFEHLER
Fehler beim Ausführen der Python-Streamingdatenquelle <action>
: <msg>
ABGEFRAGTE_TABELLE_NICHT_KOMPATIBEL_MIT_SPALTENMASKIERUNGS_POLITIK
Auf die referenzierte Tabelle kann nicht zugegriffen werden, da eine zuvor zugewiesene Spaltenmaske derzeit mit dem Tabellenschema nicht kompatibel ist; um den Vorgang fortzusetzen, wenden Sie sich bitte an den Eigentümer der Tabelle, um die Richtlinie zu aktualisieren.
Weitere Details finden Sie unter QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY.
Abgefragte Tabelle ist inkompatibel mit Zeilensicherheitsrichtlinie
Auf referenzierte Tabelle kann nicht zugegriffen werden, da derzeit eine zuvor zugewiesene Sicherheitsrichtlinie auf Zeilenebene mit dem Tabellenschema nicht kompatibel ist. um den Vorgang fortzusetzen, wenden Sie sich bitte an den Besitzer der Tabelle, um die Richtlinie zu aktualisieren:
Weitere Details finden Sie unter QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY.
Abfrageausführungs-Timeout überschritten
Die Abfrageausführung wurde aufgrund einer Überschreitung des Timeouts (<timeoutSec>
s) abgebrochen. Sie können den Grenzwert in Sekunden erhöhen, indem Sie <config>
festlegen.
ANFRAGE_ABGELEHNT
Die Abfrageausführung wurde abgelehnt.
FEHLER BEI DER BERECHTIGUNG ZUM SCHREIBEN DES ABFRAGEERGEBNISSES IN DEN CLOUD-SPEICHER
Die interne Speicherkonfiguration des Arbeitsbereichs verhindert, dass Databricks auf den Cloudspeicher zugreift.
AKTUELLE_DATEI_NICHT_GEFUNDEN
<message>
Es ist möglich, dass die zugrunde liegenden Dateien aktualisiert wurden. Sie können den Cache in Spark explizit ungültig machen, indem Sie den Befehl "REFRESH TABLE
tableName" in SQL ausführen oder das dataset/DataFrame neu erstellen.
LESEN_DATEIEN_MEHRDEUTIGE_ROUTINE_PARAMETER
Der Aufruf der Funktion <functionName>
hat <parameterName>
und <alternativeName>
festgelegt, die gegenseitige Aliase sind. Bitte legen Sie nur einen davon fest.
READ_FILES_CREDENTIALS_PARSE_ERROR
Fehler beim Analysieren der temporären Anmeldeinformationen der funktion read_files()
Weitere Informationen finden Sie unter READ_FILES_CREDENTIALS_PARSE_ERROR.
LESEN_TVF_UNERWARTETER_ERFORDERLICHER_PARAMETER
Der erforderliche Parameter <functionName>
für die Funktion <parameterName>
muss an der Position <expectedPos>
ohne den Namen zugewiesen werden.
Empfängerablauf nicht unterstützt
Nur TIMESTAMP
/TIMESTAMP_LTZ
/TIMESTAMP_NTZ
-Typen werden für den Ablaufzeitstempel des Empfängers unterstützt.
REKURSIONSEBENENLIMIT ÜBERSCHRITTEN
Der Grenzwert für rekursionsebene <levelLimit>
wurde erreicht, aber die Abfrage ist nicht erschöpft, versuchen Sie, sie wie 'WITH RECURSIVE
t(col) MAX RECURSION LEVEL
200' zu erhöhen.
REKURSIONSZEILENGRENZE_ÜBERSCHRITTEN
Rekursionszeilenlimit <rowLimit>
erreicht, Abfrage jedoch nicht erschöpft, versuchen Sie, einen größeren LIMIT
Wert festzulegen, wenn Sie die CTE-Relation abfragen.
RECURSIVE_CTE_IN_LEGACY_MODE
Rekursive Definitionen können nicht im älteren CTE-Rangfolgemodus (spark.sql.legacy.ctePrecedencePolicy=LEGACY
) verwendet werden.
If no translation is required due to the term's technical and specific nature, keep it as: RECURSIVE_CTE_WITH_LEGACY_INLINE_FLAG If explanation or partial translation is necessary for understanding in documentation: REKURSIVE_CTE_MIT_ALTER_INLINE_FLAG
Rekursive Definitionen können nicht verwendet werden, wenn das Legacy-Inlinekennzeichen auf "true" festgelegt ist (spark.sql.legacy.inlineCTEInCommands=true).
REKURSIERENDES PROTOBUF-SCHEMA
Rekursive Referenz im Protobuf-Schema gefunden, das von Spark standardmäßig nicht verarbeitet werden kann: <fieldDescriptor>
. versuchen Sie, die Option recursive.fields.max.depth
1 bis 10 festzulegen. Es ist nicht zulässig, über 10 Rekursionsebenen hinauszugehen.
Rekursive_Ansicht
Rekursive Ansicht <viewIdent>
erkannt (Zyklus: <newPath>
).
REF_DEFAULT_WERT_IST_IN_PARTITION_NICHT_ERLAUBT
Verweise auf DEFAULT
Spaltenwerte sind in der PARTITION
-Klausel nicht zulässig.
BEZIEHUNG_GRÖSSER_ALS_8G
Eine <relationName>
, die größer als 8G ist, kann nicht erstellt werden.
REMOTE_FUNKTION_HTTP_FEHLER_AUSGEFALLEN
Fehler bei der Remote-HTTP-Anforderung mit code <errorCode>
und Fehlermeldung <errorMessage>
REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR (REMOTE_FUNKTION_HTTP_ERGEBNIS_PARSE_FEHLER)
Fehler beim Auswerten der <functionName>
SQL-Funktion aufgrund der Unfähigkeit, das JSON-Ergebnis aus der Remote-HTTP-Antwort zu analysieren; die Fehlermeldung <errorMessage>
ist. Überprüfen Sie die API-Dokumentation: <docUrl>
. Beheben Sie das in der Fehlermeldung angegebene Problem, und wiederholen Sie die Abfrage erneut.
REMOTE_FUNKTION_HTTP_ERGEBNIS_UNERWARTETER_FEHLER
Fehler beim Auswerten der <functionName>
SQL-Funktion, weil die unerwartete Remote-HTTP-Antwort nicht verarbeitet werden konnte. Die Fehlermeldung ist <errorMessage>
. Überprüfen Sie die API-Dokumentation: <docUrl>
. Beheben Sie das in der Fehlermeldung angegebene Problem, und wiederholen Sie die Abfrage erneut.
REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT
Fehler bei der Remoteanforderung nach <N>
Wiederholungsversuchen. Der letzte HTTP-Fehlercode war <errorCode>
, und die Meldung lautete <errorMessage>
REMOTE_FUNCTION_FEHLENDE_ANFORDERUNGEN_FEHLER
Fehler beim Auswerten der SQL-Funktion <functionName>
aufgrund von <errorMessage>
. Überprüfen Sie die Anforderungen in <docUrl>
. Beheben Sie das in der Fehlermeldung angegebene Problem, und wiederholen Sie die Abfrage erneut.
UMBENENNEN_SRC_PFAD_NICHT_GEFUNDEN
Fehler beim Umbenennen, da <sourcePath>
nicht gefunden wurde.
WIEDERHOLTE_KLAUSEL
Die <clause>
-Klausel kann höchstens einmal pro <operation>
Vorgang verwendet werden.
ERFORDERLICHER_PARAMETER_BEREITS_POSITIONAL_BEREITGESTELLT
Der erforderliche Parameter <routineName>
der Routine <parameterName>
wurde an Position <positionalIndex>
ohne den Namen zugewiesen.
Aktualisieren Sie den Funktionsaufruf, um entweder das benannte Argument mit <parameterName>
für diesen Parameter zu entfernen oder das positionsbezogene Argument zu entfernen.
Positionsargument bei <positionalIndex>
und versuchen Sie es dann nochmal.
ERFORDERLICHER_PARAMETER_NICHT_GEFUNDEN
Routine-<routineName>
kann nicht aufgerufen werden, da der Parameter mit dem Namen <parameterName>
erforderlich ist, aber der Routineaufruf hat keinen Wert angegeben. Aktualisieren Sie den Routineaufruf, um einen Argumentwert anzugeben (entweder positional bei Index <index>
oder nach Name), und wiederholen Sie die Abfrage erneut.
ERFORDERT_EINTEILIGEN_NAMENSRAUM
<sessionCatalog>
erfordert einen einzelteiligen Namespace, hat aber <namespace>
.
GERETTETE_DATEN_SPALTEN_KONFLIKT_MIT_EINZELNEM_VARIANT
Die DataFrame-API-Leseoption „rescuedDataColumn“ und die DataFrame-API-Option „singleVariantColumn“ schließen sich gegenseitig aus.
Entfernen Sie einen dieser Elemente, und wiederholen Sie dann den DataFrame-Vorgang erneut.
RESERVIERTE_CDC_SPALTEN_BEIM_SCHREIBEN
Der Schreibvorgang umfasst reservierte Spalten <columnList>
, die genutzt werden.
intern als Metadaten für den Änderungsdatenfeed verwendet werden. Zum Schreiben in die Tabelle müssen Sie diese Spalten entweder umbenennen/entfernen
oder den Änderungsdatenfeed in der Tabelle deaktivieren, indem
<config>
auf FALSCH festgelegt wird.
EINGESCHRÄNKTE_STREAMING_OPTION_BERECHTIGUNG_DURCHGESETZT
Die Option <option>
hat eingeschränkte Werte bei gemeinsamen Clustern für die Quelle <source>
.
Weitere Details finden Sie unter RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED.
ROUTINE_BEREITS_VORHANDEN
Die <newRoutineType> <routineName>
kann nicht erstellt werden, da bereits ein <existingRoutineType>
mit diesem Namen vorhanden ist.
Wählen Sie einen anderen Namen aus, legen Sie den vorhandenen <existingRoutineType>
ab, oder fügen Sie die IF NOT EXISTS
Klausel hinzu, um eine bereits vorhandene <newRoutineType>
zu tolerieren.
ROUTINE_NICHT_GEFUNDEN
Die Routine <routineName>
kann nicht gefunden werden. Überprüfen Sie die Rechtschreibung und Korrektheit des Schemas und Katalogs.
Wenn Sie den Namen nicht mit einem Schema und Katalog qualifiziert haben, überprüfen Sie die ausgabe current_schema() oder qualifizieren Sie den Namen mit dem richtigen Schema und Katalog.
Um den Fehler beim Löschen zu tolerieren, verwenden Sie DROP
... IF EXISTS
.
ROUTINE_PARAMETER_NOT_FOUND (Routinenparameter nicht gefunden)
Die Routine <routineName>
unterstützt den an Position <parameterName>
angegebenen Parameter <pos>
nicht.<suggestion>
ROUTINE_VERWENDET_SYSTEMRESERVIERTEN_KLASSENNAMEN
Die Funktion <routineName>
kann nicht erstellt werden, da der angegebene Klassenname '<className>
' für die Systemverwendung reserviert ist. Benennen Sie den Kurs um, und versuchen Sie es erneut.
Zeilenebene-Sicherheit-Abweichung bei Attributbasierter Zugriffssteuerung
Für <tableName>
konnten die Zeilenfilter nicht aufgelöst werden, weil es einen Unterschied zwischen den von Richtlinien geerbten Zeilenfiltern und den explizit definierten Zeilenfiltern gab. Um fortzufahren, deaktivieren Sie bitte die Attributbasierte Zugriffssteuerung (Attribute Based Access Control, ABAC), und wenden Sie sich an den Databricks-Support.
ROW_LEVEL_SECURITY_PRÜFUNG_EINSCHRÄNKUNG_NICHT_UNTERSTÜTZT
Das Erstellen einer CHECK
-Einschränkung an der Tabelle <tableName>
mit Sicherheitsrichtlinien auf Zeilenebene wird nicht unterstützt.
ZEILENEBENENSICHERHEIT_DOPPELTER_SPALTENNAME
Eine <statementType>
-Anweisung hat versucht, einer Tabelle eine Sicherheitsrichtlinie auf Zeilenebene zuzuweisen, aber zwei oder mehr spalten, auf die verwiesen wird, weisen denselben Namen <columnName>
auf, was ungültig ist.
ZEILENEBENE_SICHERHEITSFUNKTION_NICHT_UNTERSTÜTZT
Sicherheitsrichtlinien auf Zeilenebene für <tableName>
werden nicht unterstützt:
Weitere Details finden Sie unter ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED.
Zeilenebenen-Sicherheit: Inkompatible Schemaänderung
<statementType> <columnName>
in Tabelle <tableName>
ist nicht möglich, da in einer Sicherheitsrichtlinie auf Zeilenebene darauf verwiesen wird. Die Person im Besitz der Tabelle muss vor dem Fortfahren diese Richtlinie entfernen oder ändern.
Sicherheitsmaßnahmen auf Zeilenebene: Zusammenführung nicht unterstützter Quelle
MERGE INTO
-Vorgänge unterstützen keine Sicherheitsrichtlinien auf Zeilenebene in Quelltabelle <tableName>
.
ZEILENEBENE_SICHERHEITS_MERGE_UNTERSTÜTZTES_ZIEL
MERGE INTO
-Vorgänge unterstützen das Schreiben in die Tabelle <tableName>
mit Sicherheitsrichtlinien auf Zeilenebene nicht.
Zeilenebene_Sicherheitsregel_Mehrteiliger_Spaltenname
Diese Anweisung versuchte, einer Tabelle eine Sicherheitsrichtlinie auf Zeilenebene zuzuweisen, aber der Verweis auf Spalte <columnName>
hatte mehrere Namensbestandteile, was ungültig ist.
ROW_LEVEL_SECURITY_ERFORDERT_UNITY_CATALOG
Sicherheitsrichtlinien auf Zeilenebene werden nur im Unity-Katalog unterstützt.
ROW_LEVEL_SECURITY_SHOW_PARTITIONS_UNTERSTÜTZT_NICHT
SHOW PARTITIONS
Befehl wird für<format>
Tabellen mit Sicherheitsrichtlinie auf Zeilenebene nicht unterstützt.
ZEILENEBENENSICHERHEIT_TABELLENKLON_QUELLE_NICHT_UNTERSTÜTZT
Ein <mode>
-Klon aus der Tabelle <tableName>
mit Sicherheitsrichtlinien auf Zeilenebene wird nicht unterstützt.
ZIEL FÜR TABELLEABLAGE MIT SICHERHEIT AUF ZEILENEBENE NICHT UNTERSTÜTZT
Ein <mode>
-Klon in die Tabelle <tableName>
mit Sicherheitsrichtlinien auf Zeilenebene wird nicht unterstützt.
ROW_LEVEL_SECURITY_UNTERSTÜTZT_KONSTANTE_NICHT_ALS_PARAMETER
Die Verwendung einer Konstante als Parameter in einer Sicherheitsrichtlinie auf Zeilenebene wird nicht unterstützt. Aktualisieren Sie den SQL-Befehl, um die Konstante aus der Zeilenfilterdefinition zu entfernen, und wiederholen Sie dann den Befehl erneut.
SICHERHEIT_AUF_ZELEEBENE_NICHT_UNTERSTÜTZTER_DATENTYP
Funktion <functionName>
, die für die Sicherheitsrichtlinie auf Zeilenebene verwendet wird, hat Parameter mit nicht unterstützten Datentypen <dataType>
.
Zeilenebene_Sicherheit_nicht_unterstützter_Anbieter
Fehler beim Ausführen des <statementType>
Befehls, da die Zuweisung einer Sicherheitsrichtlinie auf Zeilenebene für die Zieldatenquelle mit dem Tabellenanbieter nicht unterstützt wird: "<provider>
".
UNTERABFRAGE_ZU_VIELE_ZEILEN
Mehr als eine Zeile, die von einer Teilabfrage zurückgegeben wurden, werden als Zeile verwendet.
ZEILENWERT_IST_NULL
NULL
wurde in einer Reihe beim Index <index>
gefunden, erwartet wurde ein Wert, der nicht NULL
ist.
REGEL_ID_NICHT_GEFUNDEN
Es wurde keine ID für den Regelnamen "<ruleName>
" gefunden. Ändern Sie "RuleIdCollection.scala", wenn Sie eine neue Regel hinzufügen.
SALESFORCE_DATENFREIGABE_API_UNAUTORISIERT
Fehler bei der Autorisierung der Salesforce-Datenfreigabe-API. Stellen Sie sicher, dass die Verbindungsdetails von Databricks an das entsprechende Salesforce-Datenfreigabeziel bereitgestellt werden.
BEISPIEL_TABELLENBERECHTIGUNGEN
Berechtigungen werden in Beispieldatenbanken/-tabellen nicht unterstützt.
SKALARFUNKTION_NICHT_KOMPATIBEL
ScalarFunction <scalarFunc>
überschreibt die Methode „produceResult(InternalRow)“ nicht mit einer benutzerdefinierten Implementierung.
Skalarfunktion_nicht_vollständig_implementiert
ScalarFunction <scalarFunc>
implementiert oder überschreibt die Methode "produceResult(InternalRow)" nicht.
SKALARE_UNTERABFRAGE_IST_IN_GROUP_BY_ODER_AGGREGATFUNKTION
Die korrelierte skalare Unterabfrage '<sqlExpr>
' ist weder in GROUP BY
vorhanden, noch in einer Aggregatfunktion.
Fügen Sie sie GROUP BY
anhand der Ordnungsposition hinzu, oder umschließen Sie sie in first()
(oder first_value
), wenn der Ergebniswert nicht relevant ist.
SKALAR_UNTERABFRAGE_ZU_VIELE_ZEILEN
Mehrere Zeilen, die von einer Teilabfrage zurückgegeben wurden, werden als Ausdruck verwendet.
ZEITPLAN_EXISTIERT_BEREITS
Einer Tabelle, die bereits <scheduleType>
hat, kann <existingScheduleType>
nicht hinzugefügt werden. Bitte löschen Sie den vorhandenen Zeitplan oder verwenden Sie ALTER TABLE
... ALTER <scheduleType>
, um ihn zu ändern.
UNGÜLTIGER PLANUNGSZEITRAUM
Der Zeitplanzeitraum für <timeUnit>
muss ein ganzzahliger Wert zwischen 1 und <upperBound>
(einschließlich) sein. Empfangen: <actual>
.
SCHEMA_EXISTIERT_BEREITS
Schema-<schemaName>
kann nicht erstellt werden, da es bereits vorhanden ist.
Wählen Sie einen anderen Namen aus, legen Sie das vorhandene Schema ab, oder fügen Sie die IF NOT EXISTS
Klausel hinzu, um bereits vorhandene Schemas zu tolerieren.
SCHEMA_NOT_EMPTY
Ein Schema <schemaName>
kann nicht gelöscht werden, da es Objekte enthält.
Verwenden Sie DROP SCHEMA
... CASCADE
zum Ablegen des Schemas und aller zugehörigen Objekte.
SCHEMA_NICHT_GEFUNDEN
Das Schema <schemaName>
wurde nicht gefunden. Überprüfen Sie die Rechtschreibung und Korrektheit des Schemas und Katalogs.
Wenn Sie den Namen nicht mit einem Katalog qualifiziert haben, überprüfen Sie die ausgabe current_schema() oder qualifizieren Sie den Namen mit dem richtigen Katalog.
Um den Fehler beim Trennen zu tolerieren, verwenden Sie DROP SCHEMA IF EXISTS
.
Schema-Registrierungs-Konfigurationsfehler
Das Schema aus der Schemaregistrierung konnte nicht initialisiert werden.
<reason>
.
Das zweite Funktionsargument ist keine ganze Zahl
Das zweite Argument der funktion <functionName>
muss eine ganze Zahl sein.
GEHEIME_FUNKTION_UNGÜLTIGER_STANDORT
<commandType>
Befehl mit mindestens einem nicht verschlüsselten Verweis auf die SECRET
-Funktion kann nicht ausgeführt werden. verschlüsseln Sie das Ergebnis jedes solchen Funktionsaufrufs mit AES_ENCRYPT
, und versuchen Sie es erneut.
SEED_AUSDRUCK_IST_ENTFALTBAR
Der Ausgangsausdruck <seedExpr>
des Ausdrucks <exprWithSeed>
muss faltbar sein.
Server ist ausgelastet
Der Server ist ausgelastet und konnte die Anforderung nicht verarbeiten. Bitte warten Sie einen Moment, und versuchen Sie es erneut.
SFTP_KANN_NICHT_VERBINDEN
Fehler beim Herstellen einer Verbindung mit dem SFTP-Server <host>
am Port <port>
mit Benutzername <user>
.
SFTP_BENUTZER_STIMMT_NICHT_ÜBEREIN
Der Benutzer, der aus den Anmeldeinformationen <credentialUser>
abgerufen wurde, stimmt nicht mit dem des im SFTP-Pfad <path>
angegebenen überein.
ZEIGE_SPALTEN_MIT_KONFLIKT_NAMESPACE
SHOW COLUMNS
mit widersprüchlichen Namespaces: <namespaceA>
!= <namespaceB>
.
SORTIEREN_OHNE_BUCKETING
"sortBy" muss zusammen mit bucketBy verwendet werden.
SPARK_AUFGABE_ABGEBROCHEN
Auftrag <jobId>
abgebrochen <reason>
BUCKETING_ANGABE_IST_NICHT_ERLAUBT
CREATE TABLE
ohne explizite Spaltenliste kann keine Bucketing-Informationen angeben.
Verwenden Sie die Form mit expliziter Spaltenliste, und geben Sie Bucketing-Informationen an.
Alternativ können Sie zulassen, dass die Bucketing-Informationen durch das Weglassen der Klausel abgeleitet werden.
CLUSTER_BY_ZUSAMMEN_MIT_BUCKETING_IST_NICHT_ERLAUBT
Sowohl CLUSTER BY
als auch CLUSTERED BY INTO BUCKETS
können nicht angegeben werden.
Angeben von CLUSTER BY mit PARTITIONED BY ist nicht erlaubt
Sowohl CLUSTER BY
als auch PARTITIONED BY
können nicht angegeben werden.
PARTITION_SPEZIFIZIERUNG_NICHT_ERLAUBT
Eine CREATE TABLE
ohne explizite Spaltenliste kann PARTITIONED BY
nicht angeben.
Verwenden Sie das Formular mit expliziter Spaltenliste, und geben Sie PARTITIONED BY
an.
Alternativ können Sie zulassen, dass die Partitionierung durch das Weglassen der PARTITION BY
-Klausel abgeleitet wird.
AUSGABE_SPEICHERFEHLER
Fehler beim Aufrufen von Spill() bei <consumerToSpill>
: <message>
SQL_KONF_NICHT_GEFUNDEN
Die SQL-Konfigurationskonfiguration <sqlConf>
konnte nicht gefunden werden. Überprüfen Sie, ob die Konfiguration vorhanden ist.
SQL-Skript in EXECUTE IMMEDIATE
SQL-Skripts in EXECUTE IMMEDIATE
Befehlen sind nicht zulässig. Stellen Sie sicher, dass die bereitgestellte SQL-Abfrage (<sqlString>
) kein SQL-Skript ist. Stellen Sie sicher, dass die sql_string eine wohlgeformte SQL-Anweisung ist und nicht enthält BEGIN
und END.
SQL_SCRIPT_MAX_ANZAHL_VON_ZEICHEN_ÜBERSCHRITTEN
Die maximale Anzahl von Zeichen in einem SQL-Skript (id: <scriptId>
) wurde überschritten. Die maximale Anzahl zulässiger Zeichen ist <maxChars>
, und das Skript hatte <chars>
Zeichen.
Die maximale Anzahl von Zeilen im SQL-Skript überschritten
Die maximale Anzahl von Zeilen in einem SQL-Skript (id: <scriptId>
) wurde überschritten. Die maximale Anzahl zulässiger Zeilen ist <maxLines>
, und das Skript hatte <lines>
Zeilen.
Die maximale Anzahl von Deklarationen lokaler Variablen im SQL-Skript wurde überschritten.
Die maximale Anzahl von lokalen Variablendeklarationen in einem SQL-Skript (ID: <scriptId>
) wurde überschritten. Die maximale Anzahl zulässiger Deklarationen ist <maxDeclarations>
, und das Skript hatte <declarations>
.
SQL_GESPEICHERTE_PROZEDUREN_NESTED_ANRUFE_LIMIT_ÜBERSCHRITTEN
Die maximale Anzahl geschachtelter Prozeduraufrufe wurde mit der Prozedur überschritten (Name: <procedureName>
, callId: <procedureCallId>
). Die maximal zulässige Anzahl von geschachtelten Prozeduraufrufen ist <limit>
.
DERZEIT NICHT ZUGÄNGLICHER STAGING-PFAD
Vorübergehender Fehler beim Zugriff auf den Ziel-Stagingpfad <path>
. Versuchen Sie es in einigen Minuten.
STERNE_GRP_NACH_POS
Das Sternchen (*) ist in einer Auswahlliste nicht zulässig, wenn eine Ordinalposition verwendet wird.
ZUSTANDSBEHÄLTER_VERARBEITER_KANN_OPERATION_MIT_UNGÜLTIGEM_HANDLE_ZUSTAND_NICHT_AUSFÜHREN
Fehler beim Ausführen eines zustandsbehafteten Prozessorvorgangs=<operationType>
mit ungültigem Handle-Zustand=<handleState>
.
STATUSBEHÄLTER_PROZESSOR_KANN_OPERATION_MIT_UNGÜLTIGEM_ZEITMODUS_NICHT_AUSFÜHREN
Fehler beim Ausführen des zustandsbehafteten Prozessorvorgangs=<operationType>
mit ungültigem timeMode=<timeMode>
ZUSTANDSBEHÄLTER_VERARBEITER_DOPPELT_DEFINIERTE_ZUSTANDSVARIABLE
Statusvariable mit dem Namen <stateVarName>
wurde bereits im StatefulProcessor definiert.
STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL (Zustandsprozessor-Fehler: Falscher Zeitmodus zur Zuweisung von TTL)
TTL kann nicht für state=<stateName>
in timeMode=<timeMode>
verwendet werden, verwenden Sie stattdessen TimeMode.ProcessingTime().
STATEFUL_PROCESSOR_TTL_DAUER_MUSS_POSITIV_SEIN
Die TTL-Dauer muss größer als Null für den Zustandsspeichervorgang=<operationType>
für "state=<stateName>
" sein.
STATUSBEZOGENER_PROZESSOR_UNBEKANNTER_ZEITMODUS
Unbekannter Zeitmodus <timeMode>
. Akzeptierte TimeMode-Modi sind 'none', 'processingTime', 'eventTime'
STATE_STORE_KANN_KEINE_COLUMN_FAMILY_MIT_RESERVIERTEN_ZEICHEN_ERSTELLEN
Fehler beim Erstellen einer Spaltenfamilie mit nicht unterstütztem Anfangszeichen und Name=<colFamilyName>
.
ZUSTANDSSPEICHER_KANN_COLUMN_FAMILIE_MIT_UNGÜLTIGEM_NAMEN_NICHT_VERWENDEN
Fehler beim Ausführen des Spaltenfamilienvorgangs=<operationName>
mit ungültiger Name=<colFamilyName>
. Spaltenfamilienname darf nicht leer sein oder führende/nachfolgende Leerzeichen enthalten oder das reservierte Schlüsselwort=Standard verwenden
STATE_STORE_SPALTENFAMILIE_SCHEMA_INKOMPATIBEL
Inkompatible Schematransformation mit Spaltenfamilie=<colFamilyName>
, oldSchema=<oldSchema>
, newSchema=<newSchema>
.
STATUS_SPEICHER_UNTERSTÜTZT_KEINE_WIEDERVERWENDBAREN_ITERATOREN
StateStore-<inputClass>
unterstützt keinen wiederverwendbaren Iterator.
STATE_STORE_HANDLE_NOT_INITIALIZED (Zustandsspeicher-Handle nicht initialisiert)
Das Handle wurde für diesen StatefulProcessor nicht initialisiert.
Verwenden Sie den StatefulProcessor nur im Operator transformWithState.
FALSCHER_ANZAHL_BESTELLKOLONNEN_FÜR_BEREICHSABFRAGE_IM_STATE_STORE
Falsche Anzahl von Ordnungszahlen=<numOrderingCols>
für Bereichsscan-Encoder. Die Anzahl der Ordnungszahlen darf nicht null oder größer als die Anzahl der Schemaspalten sein.
FALSCHE_ANZAHL_VON_PREFIX_SPALTEN_FÜR_PREFIX_SCAN
Falsche Anzahl von Präfixspalten=<numPrefixCols>
für Präfixscan-Encoder. Präfixspalten dürfen nicht null oder größer oder gleich der Anzahl der Schemaspalten sein.
STATE_STORE_UNGÜLTIGE_KONFIGURATION_NACH_NEUSTART
<configName>
kann zwischen Neustarts nicht von <oldConfig>
in <newConfig>
geändert werden. Legen Sie <configName>
auf <oldConfig>
fest, oder starten Sie es mit einem neuen Prüfpunktverzeichnis neu.
STATE_STORE_UNGÜLTIGER_ANBIETER
Der angegebene State Store-Anbieter <inputClass>
erweitert nicht org.apache.spark.sql.execution.streaming.state.StateStoreProvider.
STATE_STORE_UNGÜLTIGE_ÄNDERUNG_DER_VARIABLENTYPS
<stateVarName>
kann zwischen Neustarts der Abfrage nicht in <newType>
geändert werden. Legen Sie <stateVarName>
auf <oldType>
fest, oder starten Sie es mit einem neuen Prüfpunktverzeichnis neu.
STATE_STORE_NATIVE_ROCKSDB_TIMEOUT
Beim Zugriff auf den RocksDB-Zustandsspeicher für den zustandsbehafteten Streamingvorgang ist beim Aufrufen der nativen RocksDB-Funktion <funcName>
nach dem Warten auf „timeout=<timeoutMs>
ms“ ein Timeout aufgetreten. Versuchen Sie es erneut, und starten Sie den Cluster neu, wenn ein Fehler weiterhin auftritt.
STATUS_SPEICHER_NULL_TYP_SORTIERUNGS_SPALTEN_NICHT_UNTERSTÜTZT
Nulltyp-Sortierspalte mit name=<fieldName>
bei index=<index>
wird für Bereichsscan-Encoder nicht unterstützt.
STATUS_SPEICHERANBIETER_UNTERSTÜTZT_KEIN_FEINGRANULIERTESTATUS_WIEDERGABE
Der angegebene Zustandsspeicheranbieter <inputClass>
erweitert „org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay“ nicht.
Daher werden die Optionen "snapshotStartBatchId" oder "readChangeFeed" in der Status-Datenquelle nicht unterstützt.
SCHWELLENWERT_FÜR_STATE_STORE_STATE_SCHEMA_DATEIEN_ÜBERSCHRITTEN
Die Anzahl der Zustandsschemadateien <numStateSchemaFiles>
überschreitet die maximale Anzahl von Zustandsschemadateien für diese Abfrage: <maxStateSchemaFiles>
.
Hinzugefügt: <addedColumnFamilies>
, Entfernt: <removedColumnFamilies>
Legen Sie "spark.sql.streaming.stateStore.stateSchemaFilesThreshold" auf eine höhere Zahl fest, oder setzen Sie Zustandsschemaänderungen zurück.
STATUSSPEICHER_NICHT_UNTERSTÜTZTE_OPERATION_BEI_FEHLENDER_SPALTENFAMILIE
Zustandsspeichervorgang=<operationType>
wird für fehlende Spaltenfamilie=<colFamilyName>
nicht unterstützt.
Grenzwert für Schema-Entwicklung von STATE_STORE_WERT überschritten.
Die Anzahl der Zustandsschemaentwicklungen <numSchemaEvolutions>
überschreitet die maximale Anzahl von Zustandsschemaentwicklungen, <maxSchemaEvolutions>
, die für diese Spaltenfamilie zulässig sind.
Fehlerhafte Spaltenfamilie: <colFamilyName>
Legen Sie "spark.sql.streaming.stateStore.valueStateSchemaEvolutionThreshold" auf eine höhere Zahl fest, oder setzen Sie Zustandsschemaänderungen zurück.
STATE_STORE_VARIABLE_GRÖSSEN_ANORDNUNGSSPALTEN_NICHT_UNTERSTÜTZT
Die Sortierspalte variabler Größe mit name=<fieldName>
bei index=<index>
wird für Bereichsscan-Encoder nicht unterstützt.
STATISCHE_PARTITIONSSPALTE_IN_DER_EINFGESPALTLISTE
Statische Partitionsspalte <staticName>
wird auch in der Spaltenliste angegeben.
STDS_VERBINDLICHER_BATCH_NICHT_VERFÜGBAR
Es wurde kein committeter Batch gefunden, Prüfpunktspeicherort: <checkpointLocation>
. Stellen Sie sicher, dass die Abfrage ausgeführt wurde und alle Microbatches vor dem Beenden festgeschrieben wurden.
STANDARD_KONFLIKT_OPTIONEN
Die Optionen <options>
können nicht zusammen angegeben werden. Bitte geben Sie den einen an.
Fehler beim Lesen der Operatormetadaten
Fehler beim Lesen der Operatormetadaten für checkpointLocation=<checkpointLocation>
und batchId=<batchId>
.
Entweder ist die Datei nicht vorhanden, oder die Datei ist beschädigt.
Führen Sie die Streamingabfrage erneut aus, um die Operatormetadaten zu erstellen. Sollten weiterhin Fehler auftreten, berichten Sie dies den entsprechenden Gemeinschaften oder Anbietern.
STDS_FAILED_TO_READ_STATE_SCHEMA_Konnte_Datenbankschema_nicht_lesen
Fehler beim Lesen des Statusschemas. Entweder ist die Datei nicht vorhanden, oder die Datei ist beschädigt. Optionen: <sourceOptions>
.
Führen Sie die Streamingabfrage erneut aus, um das Statusschema zu erstellen, und melden Sie den entsprechenden Communities oder Anbietern, wenn der Fehler weiterhin besteht.
STDS_UNGÜLTIGER_OPTION_WERT
Ungültiger Wert für die Quelloption '<optionName>
':
Weitere Details finden Sie unter STDS_INVALID_OPTION_VALUE.
KEINE_PARTITION_IM_STATUSSPEICHER_ENTDECKT
Der Staat hat keine Partition. Überprüfen Sie bitte, ob die Abfrage auf den gültigen Zustand verweist. optionen: <sourceOptions>
STDS_OFFSET_PROTOKOLL_NICHT_VERFÜGBAR
Das Offsetprotokoll für <batchId>
ist nicht vorhanden, Prüfpunktspeicherort: <checkpointLocation>
.
Geben Sie die Batch-ID an, die für die Abfrage verfügbar ist . Sie können die verfügbaren Batch-IDs mithilfe der Zustandsmetadatenquelle abfragen.
STDS_OFFSET_METADATA_LOG_NICHT_VERFÜGBAR
Für das Offsetprotokoll für <batchId>
sind keine Metadaten vorhanden, Prüfpunktspeicherort: <checkpointLocation>
.
Der Prüfpunkt scheint nur mit älteren Spark-Versionen ausgeführt zu werden. Führen Sie die Streamingabfrage mit der aktuellen Spark-Version aus, sodass Spark die Statusmetadaten erstellt.
Anforderung erforderlich Option nicht angegeben
'<optionName>
' muss angegeben werden.
STREAMING_AQE_WIRD_FÜR_ZUSTANDSBEWUSSTE_OPERATOR_EN_NICHT_UNTERSTÜTZT
Die Ausführung adaptiver Abfragen wird für zustandsbehaftete Operatoren im strukturierten Streaming nicht unterstützt.
STREAMING_AUS_MATERIALISIERTER_ANSICHT
Aus der materialisierten Ansicht <viewName>
kann nicht gestreamt werden. Das Streaming von materialisierten Sichten wird nicht unterstützt.
STREAMING_AUSGABEMODUS
Ungültiger Streamingausgabemodus: <outputMode>
.
Weitere Details finden Sie unter STREAMING_OUTPUT_MODE.
STREAMING_ECHTZEIT_MODUS
Der Streaming-Echtzeitmodus hat die folgende Einschränkung:
Weitere Details finden Sie unter STREAMING_REAL_TIME_MODE.
STREAMING_ZUSTANDSBEHÄLTER_OPERATOR_STIMMT_NICHT_MIT_ZUSTANDSMETADATEN_ÜBEREIN
Der Name des Streamingstatusoperators stimmt nicht mit dem Operator in Zustandsmetadaten überein. Dies geschieht wahrscheinlich, wenn der Benutzer den zustandsbehafteten Operator einer vorhandenen Streamingabfrage hinzufügt/entfernt/ändert.
Zustandsbehaftete Operatoren in den Metadaten: [<OpsInMetadataSeq>
]; Zustandsbehaftete Operatoren im aktuellen Batch: [<OpsInCurBatchSeq>
].
STREAMING_TABELLE_MUSS_AKTUALISIERT_WERDEN
Die Streamingtabelle <tableName>
muss aktualisiert werden, um <operation>
auszuführen.
Wenn die Tabelle aus DBSQL
erstellt wird, führen Sie bitte REFRESH STREAMING TABLE
aus.
Wenn die Tabelle von Lakeflow Declarative Pipelines erstellt wird, führen Sie ein Pipelineupdate aus.
Streaming-Tabelle-nicht-unterstützt
Streamingtabellen können nur in Lakeflow Declarative Pipelines und Databricks SQL Warehouses erstellt und aktualisiert werden.
STREAMING_TABELLEN_OPERATION_NICHT_ERLAUBT
Der Vorgang <operation>
ist nicht zulässig:
Weitere Details finden Sie unter STREAMING_TABLE_OPERATION_NOT_ALLOWED.
STREAMING-TABELLE-ANFRAGE_UNGÜLTIG
Streamingtabelle <tableName>
kann nur aus einer Streamingabfrage erstellt werden. Fügen Sie Ihrer STREAM
-Klausel das Schlüsselwort FROM
hinzu, um diese Beziehung in eine Streamingabfrage umzuwandeln.
STREAM_NICHT_GEFUNDEN_FÜR_KINESIS_QUELLE
Kinesis-Stream <streamName>
in <region>
nicht gefunden.
Beginnen Sie eine neue Abfrage, die auf den richtigen Streamnamen zeigt.
Struktur-Array-Längen-Mismatch
Die Eingabezeile hat nicht die erwartete Anzahl von Werten, die für das Schema erforderlich sind.
<expected>
Felder sind erforderlich, während <actual>
Werte bereitgestellt werden.
SUMME_VON_LIMIT_UND_OFFSET_ÜBERSCHREITET_MAXIMALEN_INT
Die Summe der LIMIT
-Klausel und der OFFSET
-Klausel darf nicht größer als der maximal zulässige ganzzahlige 32-Bit-Wert (2.147.483.647) sein, aber der gefundene Grenzwert = <limit>
. Offset = <offset>
.
SYNC_METADATA_DELTA_ONLY
Der Befehl "Tabellensynchronisierungsmetadaten reparieren" wird nur für die Delta-Tabelle unterstützt.
QUELLE_ZIEL_TABELLE_NICHT_IDENTISCH
Der Name der Quelltabelle <srcTable>
muss mit dem Namen der Zieltabelle <destTable>
übereinstimmen.
SYNTAX_DISCONTINUED
Die Unterstützung der Klausel oder des Schlüsselworts <clause>
wurde in diesem Kontext eingestellt.
Weitere Details finden Sie unter SYNTAX_DISCONTINUED.
TABELLE_ODER_ANSICHT_EXISTIERT_BEREITS
Tabelle oder Ansicht <relationName>
kann nicht erstellt werden, da sie bereits vorhanden ist.
Wählen Sie einen anderen Namen aus, legen Sie das vorhandene Objekt ab, fügen Sie die IF NOT EXISTS
Klausel hinzu, um bereits vorhandene Objekte zu tolerieren, die OR-REPLACE
-Klausel hinzuzufügen, um die vorhandene materialisierte Ansicht zu ersetzen, oder fügen Sie die OR-REFRESH
-Klausel hinzu, um die vorhandene Streamingtabelle zu aktualisieren.
TABELLE_ODER_SICHT_NICHT_GEFUNDEN
Die Tabelle oder Ansicht <relationName>
kann nicht gefunden werden. Überprüfen Sie die Rechtschreibung und Korrektheit des Schemas und Katalogs.
Wenn Sie den Namen nicht mit einem Schema qualifiziert haben, überprüfen Sie die ausgabe current_schema() oder qualifizieren Sie den Namen mit dem richtigen Schema und Katalog.
Um den Fehler beim Löschen zu tolerieren, verwenden Sie DROP VIEW IF EXISTS
oder DROP TABLE IF EXISTS
.
Weitere Details finden Sie unter TABLE_OR_VIEW_NOT_FOUND.
TABELLENWERTIGE_ARGUMENTE_NOCH_NICHT_FÜR_SQL_FUNKTIONS_IMPLEMENTIERT
Die Aktion <action>
ist für die benutzerdefinierte SQL-Funktion <functionName>
mit TABLE
-Argumenten nicht möglich, weil diese Funktionalität noch nicht implementiert ist.
TABELLENBEZOGENE_FUNKTION_KONNTE_IN_PYTHON_NICHT_ANALYSIERT_WERDEN
Fehler beim Analysieren der benutzerdefinierten Tabellenfunktion python: <msg>
TABELLENWERTIGE_FUNKTION_ERFORDERLICHE_METADATA_NICHT_KOMPATIBEL_MIT_AUFRUF
Fehler beim Auswerten der Tabellenfunktion <functionName>
, da die Tabellenmetadaten <requestedMetadata>
sind, aber der Funktionsaufruf <invalidFunctionCallProperty>
.
TABELLE_WERTFUNKTION_ERFORDERLICHE_META_DATEN_UNGÜLTIG
Fehler beim Auswerten der Tabellenfunktion <functionName>
, da die Tabellenmetadaten ungültig waren; <reason>
.
Funktionswert für Tabelle hat zu viele Tabellenargumente
Es gibt zu viele Tabellenargumente für die Tabellenwertfunktion.
Ein Tabellenargument ist zulässig, sie enthielt jedoch Folgendes: <num>
.
Wenn Sie dies zulassen möchten, legen Sie "spark.sql.allowMultipleTableArguments.enabled" auf "true" fest.
TABELLE_MIT_ID_NICHT_GEFUNDEN
Tabelle mit ID <tableId>
kann nicht gefunden werden. Überprüfen Sie die Richtigkeit der UUID.
AUFGABENSCHREIBFEHLER
Aufgabenfehler beim Schreiben von Zeilen in <path>
.
TEMP_CHECKPOINT_STANDORT_NICHT_UNTERSTÜTZT
Implizite temporäre Streaming-Prüfpunktspeicherorte werden in der aktuellen Arbeitsumgebung nicht unterstützt, bitte geben Sie einen Prüfpunktspeicherort explizit an.
Legen Sie für display() den Prüfpunktort mithilfe von fest:
display(df, checkpointLocation = "Ihr_Pfad")
Verwenden Sie für alle anderen Streamingabfragen Folgendes:
.option("checkpointLocation", "your_path").
TEMP_TABLE_CREATION_LEGACY_MIT_ABFRAGE
CREATE TEMPORARY TABLE
... AS ... wird hier nicht unterstützt, verwenden Sie CREATE TEMPORARY VIEW
stattdessen.
ERSTELLUNG_TEMPORÄRER_TABELLEN_AUSSCHLIESSLICHE_SPEZIFIKATIONEN
CREATE TEMPORARY TABLE
unterstützt die Angabe <unsupportedSpec>
nicht. Erstellen Sie stattdessen eine dauerhafte Tabelle.
TEMP_TABLE_ERSTELLUNG_ERFORDERT_EINTEILIGEN_NAMEN
Zum Erstellen einer sitzungslokalen temporären Tabelle ist ein einzelner Teiltabellenname erforderlich, aber es wurde <tableName>
erhalten. Aktualisieren Sie den Befehl so, dass ein einzelner Tabellenname verwendet wird, und wiederholen Sie den Vorgang.
TEMPORÄRE_TABELLE_LÖSCHUNG_GEGENSEITIG_AUSSCHLIESSENDE_SPEZIFIKATIONEN
DROP TEMPORARY TABLE
unterstützt nicht die Angabe <unsupportedSpec>
, entfernen Sie diese Spezifikation, oder legen Sie stattdessen eine permanente Tabelle mithilfe von DROP TABLE
Befehl ab.
TEMPORALE_TABELLENLÖSCHUNG_ERFORDERT_EINTEILIGEN_NAMEN
Für das Ablegen einer sitzungslokalen temporären Tabelle ist ein einzelner Teiltabellenname erforderlich, aber es wurde <tableName>
erhalten. Aktualisieren Sie den DROP TEMPORARY TABLE
Befehl so, dass ein einzelner Tabellenname verwendet wird, um eine temporäre Tabelle abzulegen, oder verwenden DROP TABLE
Sie stattdessen den Befehl, um eine permanente Tabelle abzulegen.
TEMP_TABELLENLÖSCHUNG_ERFORDERT_V2_BEFEHL
DROP TEMPORARY TABLE
erfordert das Aktivieren von V2-Befehlen. Legen Sie die Konfiguration "spark.sql.legacy.useV1Command" auf "false" fest, und wiederholen Sie den Vorgang.
TEMPORÄRE_TABELLE_NICHT_GEFUNDEN
Die temporäre Tabelle <tableName>
wurde in der aktuellen Sitzung nicht gefunden. Überprüfen Sie die Schreib- und Korrektheit des Tabellennamens, und wiederholen Sie die Abfrage oder den Befehl erneut.
Um den Fehler beim Drop zu tolerieren, verwenden Sie DROP
TEMP TABLE IF EXISTS
.
TEMP_TABLE_NICHT_UNTERSTÜTZT_MIT_HMS
Der temporäre Tabellenvorgang <operation>
wird im Hive-Metastore nicht unterstützt.
VORGANG_FÜR_TEMP_TABELLE_NICHT_UNTERSTÜTZT
Vorgänge in der sitzungslokalen temporären Tabelle <tableName>
werden nicht unterstützt:
Weitere Details finden Sie unter TEMP_TABLE_OPERATION_NOT_SUPPORTED
TEMPORÄRE_TABELLE_ODER_SICHT_EXISTIERT_BEREITS
Die temporäre Tabelle oder Ansicht kann nicht erstellt werden <relationName>
, da sie bereits vorhanden ist.
Wählen Sie einen anderen Namen aus, legen Sie das vorhandene Objekt ab, oder fügen Sie die IF NOT EXISTS
Klausel hinzu, um bereits vorhandene Objekte zu tolerieren.
TEMPORÄRE_TABELLE_BENÖTIGT_DELTA
Vorgänge in sitzungslokalen temporären Tabellen erfordern die Aktivierung des Delta-Katalogs. Aktivieren Sie den Delta-Katalog, und versuchen Sie es erneut.
TEMP_TABLE_ERFORDERT_UC
Vorgänge bei sitzungslokalen temporären Tabellen erfordern den Unity Catalog. Aktivieren Sie den Unity-Katalog in Ihrer ausgeführten Umgebung, und versuchen Sie es erneut.
TEMP_VIEW_NAME_ZU_VIELE_NAMENS_TEILE
CREATE TEMPORARY VIEW
oder die entsprechenden Dataset-APIs akzeptieren nur einteilige Ansichtsnamen, erhielten aber: <actualName>
.
NACHGESTELLTES_KOMMA_IN_SELECT
Nachstehendes Komma in SELECT
-Klausel erkannt. Entfernen Sie das nachfolgende Komma vor der FROM
-Klausel.
TRANSAKTION_MAXIMALES_COMMIT-ZEITSTEMPEL_ÜBERSCHRITTEN
Die Transaktion kann nicht commiten, da der maximale Commit-Zeitstempel überschritten wird. maxCommitTimestamp: commitTimestamp:<maxCommitTimestampMs>
<commitTimestampMs>
TRANSFORMATION_MIT_STATUS_BENUTZERFUNKTION_FEHLER
Fehler in der benutzerdefinierten Funktion <function>
des StatefulProcessor. Grund: <reason>
.
ZEILENLIMIT_FÜR_TRANSPONIEREN_ÜBERSCHRITTEN
Die Anzahl der Zeilen überschreitet den zulässigen Grenzwert für <maxValues>
TRANSPOSE
. Wenn dies beabsichtigt ist, legen Sie <config>
mindestens auf die aktuelle Zeilenanzahl fest.
TRANSPOSE_UNGÜLTIGE_INDEX_SPALTE
Ungültige Indexspalte für TRANSPOSE
, weil: <reason>
TRANSPOSE_NICHT_WENIGSTER_GEMEINSAMER_TYP
Das Transponieren erfordert, dass Nicht-Index-Spalten mindestens einen gemeinsamen Typ verwenden, doch <dt1>
und <dt2>
tun das nicht.
TRIGGER_INTERVAL_INVALID
Das Triggerintervall muss eine positive Dauer sein, die in ganze Sekunden konvertiert werden kann. Empfangen: <actual>
Sekunden.
TUPLE_IS_EMPTY
Da Scala nur eingeschränkte Unterstützung für Tupel bietet, wird ein leeres Tupel nicht unterstützt.
TUPLE_GRÖSSE_ÜBERSCHREITET_LIMIT
Aufgrund der eingeschränkten Unterstützung von Tupeln durch Scala werden Tupel mit mehr als 22 Elementen nicht unterstützt.
UC_BUCKETED_TABLES
Zusammengefasste Tabellen werden im Unity-Katalog nicht unterstützt.
UC_KATALOGNAME_NICHT_ANGEGEBEN
Geben Sie für Unity-Katalog den Katalognamen explizit an. z. B. SHOW GRANT your.address@email.com ON CATALOG
Haupt.
UC_COMMAND_NICHT_UNTERSTÜTZT
Die Befehle: <commandName>
werden im Unity-Katalog nicht unterstützt.
Weitere Details finden Sie unter UC_COMMAND_NOT_SUPPORTED.
UC_BEFEHL_NICHT_UNTERSTÜTZT_IM_SERVERLOSEN
Die Befehle: <commandName>
werden für Unity-Katalogcluster ohne Server nicht unterstützt. Verwenden Sie stattdessen Einzelbenutzercluster oder gemeinsam verwendete Cluster.
UC_BEFEHL_NICHT_UNTERSTÜTZT_IM_GEMEINSAMEN_ZUGRIFFSMODUS
Die Befehle: <commandName>
werden für Unity-Katalogcluster im Modus für gemeinsam genutzten Zugriff nicht unterstützt. Verwenden Sie stattdessen den Einzelbenutzerzugriffsmodus.
UC_CONNECTION_NOT_FOUND_FÜR_DATEISYSTEM_QUELLENZUGRIFF
Es konnte keine gültige UC-Verbindung zum Zugriff auf <path>
gefunden werden, nach der Auswertung <connectionNames>
.
Stellen Sie sicher, dass mindestens eine gültige UC-Verbindung für den Zugriff auf den Zielpfad verfügbar ist.
Detaillierte Fehler für die ausgewerteten Verbindungen:
<connectionErrors>
UC_CREDENTIAL_ZWECK_NICHT_UNTERSTÜTZT
Die angegebene Anmeldeinformationsart wird nicht unterstützt.
UC_DATENQUELLE_NICHT_UNTERSTÜTZT
Das Datenquellenformat <dataSourceFormatName>
wird im Unity-Katalog nicht unterstützt.
UC_DATENQUELLEN_OPTIONEN_NICHT_UNTERSTÜTZT
Datenquellenoptionen werden im Unity-Katalog nicht unterstützt.
UC_Abhängigkeit_existiert_nicht
Die Abhängigkeit ist im Unity-Katalog nicht vorhanden:
<errorMessage>
EXTERNES_VOLUME_FEHLT_STANDORT
LOCATION
-Klausel muss für externes Volume vorhanden sein. Bitte überprüfen Sie die Syntax 'CREATE EXTERNAL VOLUME
... LOCATION
' zum Erstellen eines externen Volumes.
UC_FEHLER_BEI_BEREITSTELLUNGSSTATUS
Fehler bei der Abfrage, da versucht wurde, auf tabelle <tableName>
zu verweisen, dies aber nicht möglich war: <failureReason>
. Aktualisieren Sie die Tabelle <tableName>
, um sicherzustellen, dass sie sich in einem aktiven Bereitstellungsstatus befindet, und wiederholen Sie dann die Abfrage erneut.
UC_FILE_SCHEME_FÜR_TABELLENERSTELLUNG_NICHT_UNTERSTÜTZT
Das Erstellen einer Tabelle im Unity-Katalog mit dateischema <schemeName>
wird nicht unterstützt.
Erstellen Sie stattdessen eine Verbunddatenquellenverbindung mit dem Befehl CREATE CONNECTION
für denselben Tabellenanbieter, und erstellen Sie dann einen Katalog basierend auf der Verbindung mit einem CREATE FOREIGN CATALOG
-Befehl, um auf die darin enthaltenen Tabellen zu verweisen.
UC_HIVE_METASTORE_FEDERATION_ÜBERKATALOGANSICHT_NICHT_UNTERSTÜTZT
Die Hive Metastore Federationsansicht unterstützt keine Abhängigkeiten über mehrere Kataloge hinweg. Ansicht <view>
im Hive-Metastore-Verbundkatalog muss Abhängigkeiten aus dem hive_metastore- oder dem spark_catalog-Katalog verwenden, aber die Abhängigkeit <dependency>
befindet sich in einem anderen Katalog <referencedCatalog>
. Aktualisieren Sie die Abhängigkeiten, um diese Einschränkung zu erfüllen, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED (Die Hive Metastore-Föderation ist nicht aktiviert)
Der Hive-Metastore-Partnerverbund ist für diesen Cluster nicht aktiviert.
Der Zugriff auf den Katalog <catalogName>
wird in diesem Cluster nicht unterstützt.
UC_UNGÜLTIGE_ABHÄNGIGKEITEN
Abhängigkeiten von <viewName>
werden als <storedDeps>
aufgezeichnet, während sie als <parsedDeps>
geparst werden. Dies ist wahrscheinlich durch falsche Verwendung einer NICHT-SQL-API aufgetreten. Sie können Abhängigkeiten in Databricks Runtime reparieren, indem Sie ALTER VIEW <viewName>
AS <viewText>
ausführen.
UC_INVALID_NAMESPACE
Geschachtelte oder leere Namespaces werden im Unity-Katalog nicht unterstützt.
UC_UNGÜLTIGE_REFERENZ
Nicht-Unity-Catalog-Objekt <name>
kann in Unity Catalog-Objekten nicht referenziert werden.
UC_LAKEHOUSE_FEDERATION_SCHREIBEN_NICHT_ERLAUBT
Die Unity Catalog Lakehouse Federation-Schreibunterstützung ist für den Anbieter <provider>
in diesem Cluster nicht aktiviert.
UC_STANDORT_FÜR_VERWALTETES_VOLUME_NICHT_UNTERSTÜTZT
Das verwaltete Volume akzeptiert keine LOCATION
-Klausel. Bitte überprüfen Sie die Syntax 'CREATE VOLUME
...' zum Erstellen eines verwalteten Volumes.
UC_NICHT_AKTIVIERT
Unity-Katalog ist für diesen Cluster nicht aktiviert.
UC_ABFRAGE_FÖDERATION_NICHT_AKTIVIERT
Unity Catalog Query Federation ist für diesen Cluster nicht aktiviert.
UC_RESOLVED_DBFS_PATH_MISMATCH (Nicht übereinstimmender DBFS-Pfad aufgelöst)
Fehler bei der Abfrage, weil versucht wurde, auf <objectType> <name>
zu verweisen, dies aber nicht möglich war: Der aufgelöste DBFS-Pfad <resolvedHmsPath>
stimmt nicht mit dem Unity-Katalogspeicherort <ucStorageLocation>
überein.
UC-Dienstanmeldedaten-nicht-aktiviert
Dienstanmeldedaten sind für diesen Cluster nicht aktiviert.
UC_VOLUMEN_NICHT_AKTIVIERT
Die Unterstützung für Unity-Katalogvolumes ist für diese Instanz nicht aktiviert.
UC_VOLUMEN_FREIGABE_NICHT_AKTIVIERT
Die Unterstützung für Volume-Sharing ist für diese Instanz nicht aktiviert.
UC_VOLUME_NICHT_GEFUNDEN
Volume <name>
existiert nicht. Verwenden Sie "SHOW VOLUMES
" zum Auflisten der verfügbaren Volumes.
UDF_ENVIRONMENT_ERROR (Umweltfehler)
Konnte UDF-Abhängigkeiten für <udfName>
aufgrund eines Systemfehlers nicht installieren.
Weitere Details finden Sie unter UDF_ENVIRONMENT_ERROR.
UDF_ENVIRONMENT_USER_ERROR
Fehler beim Installieren von UDF-Abhängigkeiten für <udfName>
.
Weitere Details finden Sie unter UDF_ENVIRONMENT_USER_ERROR
UDF_ERROR
SQLSTATE: nicht zugewiesen
Fehler bei der Ausführung der Funktion <fn>
Weitere Details finden Sie unter UDF_ERROR
UDF_LIMITS
Mindestens ein UDF-Grenzwert wurde verletzt.
Weitere Informationen finden Sie unter UDF_LIMITS
UDF_MAX_ANZAHL_ÜBERSCHRITTEN
Der abfrageweite UDF-Grenzwert von <maxNumUdfs>
UDFs wurde überschritten (während der öffentlichen Vorschau beschränkt). Es wurde <numUdfs>
gefunden. Die UDFs waren: <udfNames>
.
UDF_PYSPARK_ERROR
Python-Worker unerwartet beendet
Weitere Informationen finden Sie unter UDF_PYSPARK_ERROR
UDF_PYSPARK_UNSUPPORTED_TYPE
PySpark UDF <udf> (<eval-type>
) wird auf Clustern im Shared Access-Modus nicht unterstützt.
UDF_PYSPARK_Benutzer_Codefehler
Fehler bei der Ausführung.
Weitere Details finden Sie unter UDF_PYSPARK_USER_CODE_ERROR.
UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE (Standardwert für nicht unterstützten Parameter)
Der Parameterstandardwert wird für benutzerdefinierte <functionType>
-Funktion nicht unterstützt.
UDF_USER_CODE_ERROR
Fehler bei der Ausführung der Funktion <fn>
.
Weitere Informationen finden Sie unter UDF_USER_CODE_ERROR
UDTF_ALIAS_ANZAHLEN_UNSTIMMIGKEIT
Die Anzahl der in der AS-Klausel angegebenen Aliase stimmt nicht mit der Anzahl der Spalten überein, die vom UDTF ausgegeben werden.
Es wurden <aliasesSize>
Aliase erwartet, aber <aliasesNames>
erhalten.
Stellen Sie sicher, dass die Anzahl der bereitgestellten Aliase mit der Anzahl der von der UDTF ausgegebenen Spalten übereinstimmt.
UDTF_UNGÜLTIGES_ALIAS_IN_ANGEFORDERTER_SORTIERUNGSZEICHENKETTE_VON_ANALYSE_METHODE
Fehler beim Auswerten der benutzerdefinierten Tabellenfunktion, da die 'analyze'-Methode eine angeforderte OrderingColumn zurückgegeben hat, deren Spaltenname-Ausdruck einen unnötigen Alias <aliasName>
enthält. Bitte entfernen Sie diesen Alias und versuchen Sie die Abfrage dann erneut.
UDTF_UNGÜLTIGE_ANGEFORDERTE_AUSGEWÄHLTE_AUSDRUCK_VON_ANALYSE_METHODE_ERFORDERT_ALIAS
Fehler beim Auswerten der benutzerdefinierten Tabellenfunktion, da die 'analyze'-Methode einen angeforderten 'select'-Ausdruck (<expression>
) zurückgegeben hat, der keinen entsprechenden Alias enthält. Aktualisieren Sie die UDTF, um dort einen Alias anzugeben, und versuchen Sie es dann erneut.
SPEICHER_KONNTE_NICHT_BESCHAFFT_WERDEN
Fehler beim Abrufen von <requestedBytes>
Bytes aus dem Arbeitsspeicher, empfangen <receivedBytes>
.
Umwandlung in Protobuf-Nachrichtentyp nicht möglich
Sql-Typ-<toType>
kann nicht in den Protobuf-Typ <protobufType>
konvertiert werden.
KANN_HIVE_TABELLEN_NICHT_ABRUFEN
Das Abrufen von Tabellen der Hive-Datenbank ist nicht möglich: <dbName>
. Fehlerklassenname: <className>
.
SCHEMA_KANN_NICHT_ERKANNT_WERDEN
Es war nicht möglich, das Schema für <format>
zu ermitteln. Sie muss manuell angegeben werden.
UNBEFUGTER_ZUGRIFF
Nicht autorisierter Zugriff:
<report>
Nicht gebundener SQL-Parameter
Der ungebundene Parameter wurde gefunden: <name>
. Beheben Sie args
, und stellen Sie eine Zuordnung des Parameters zu einer SQL-Literal- oder Sammlungskonstruktorfunktionen wie map()
, array()
, struct()
bereit.
NICHT_ABORTIERTER_KLAMMERKOMMENTAR
Es wurde ein nicht eingeschlossener Kommentar in Klammern gefunden. Fügen Sie */am Ende des Kommentars an.
UNERWARTETER_EINGABETYP
Parameter <paramIndex>
funktion <functionName>
erfordert den typ <requiredType>
, <inputSql>
hat jedoch den Typ <inputType>
.
Unerwarteter Eingabetyp des benannten Parameters
Der <namedParamKey>
Parameter der Funktion <functionName>
erfordert den <requiredType>
Typ, <inputSql>
jedoch den Typ <inputType>
hat.<hint>
UNERWARTETER_OPERATOR_IN_STREAMING_ANSICHT
Unerwarteter Operator <op>
in der CREATE VIEW
-Anweisung als Streamingquelle.
Eine Streamingansichtsabfrage darf nur aus SELECT
, WHERE
und UNION ALL
Vorgängen bestehen.
UNERWARTETES_POSITIONSARGUMENT
Routine <routineName>
kann nicht aufgerufen werden, weil sie positionelle Argumente enthält, die dem benannten Argument folgen, das <parameterName>
zugewiesen ist. Ordnen Sie sie neu an, sodass die positionellen Argumente am Anfang stehen, und wiederholen Sie dann die Abfrage.
UNERWARTETER_SERIALISIERER_FÜR_KLASSE
Die Klasse <className>
verfügt über einen unerwarteten Expressionsserialisierer. Erwartet wurde „STRUCT
“ oder „IF
“ (gibt „STRUCT
“ zurück), gefunden wurde aber <expr>
.
VERBINDUNG_IN_REKURSIVER_CTE_NICHT_UNTERSTÜTZT
Der UNION
Operator wird in rekursiven allgemeinen Tabellenausdrücken (WITH
Klauseln, die direkt oder indirekt auf sich selbst verweisen) noch nicht unterstützt. Verwenden Sie stattdessen UNION ALL
.
UNBEKANNTE_FELD_AUSNAHME
<changeType>
während dem Parsen von <unknownFieldBlob>
, was durch eine automatische Wiederholung behoben werden kann: <isRetryable>
Weitere Details finden Sie unter UNKNOWN_FIELD_EXCEPTION.
UNBEKANNTER_POSITIONAL_ARGUMENT
Der Aufruf von Routine-<routineName>
enthält ein unbekanntes Positionsargument <sqlExpr>
an Position <pos>
. Dies ist ungültig.
UNBEKANNTER_PRIMITIVTYP_IN_VARIATE
Unbekannter Grundtyp mit id <id>
wurde in einem Variant-Wert gefunden.
UNBEKANNTER_PROTOBUF_NACHRICHTENTYP
Es wurde versucht, <descriptorName>
als Nachricht zu behandeln, aber es war <containingType>
.
UNPIVOT_BENÖTIGT_ATTRIBUTE
UNPIVOT
erfordert, dass alle angegebenen <given>
Ausdrücke Spalten sein müssen, wenn keine <empty>
Ausdrücke angegeben werden. Dies sind keine Spalten: [<expressions>
].
UNPIVOT_BENÖTIGT_WERTSPALTEN
Mindestens eine Wertspalte muss für UNPIVOT
angegeben werden, während alle anderen Spalten als IDs angegeben werden.
UNPIVOT_WERT_DATENTYP_UNSTIMMIGKEIT
UNPIVOT-Wertspalten müssen mindestens einen allgemeinen Typ teilen, dies ist für einige Typen nicht der Fall: [<types>
].
Größe der UNPIVOT-Wertstimmung nicht übereinstimmend
Alle UNPIVOT-Wertspalten müssen dieselbe Größe aufweisen wie Wertspaltennamen (<names>
).
NICHT_ERKANNTER_PARAMETERNAME
Routine-<routineName>
kann nicht aufgerufen werden, da der Routineaufruf einen benannten Argumentverweis für das Argument namens <argumentName>
enthält, aber diese Routine enthält keine Signatur, die ein Argument mit diesem Namen enthält. Meinten Sie einen der folgenden Punkte? [<proposal>
].
NICHT ERKANNTER SQL-TYP
Unbekannter SQL-Typ - Name: <typeName>
, ID: <jdbcType>
.
NICHT ERKANNTE STATISTIK
Die Statistik <stats>
wird nicht erkannt. Gültige Statistiken umfassen count
, count_distinct
, approx_count_distinct
, mean
, stddev
, min
, max
und Perzentilwerte. Perzentil muss ein numerischer Wert und gefolgt von '%' innerhalb des Bereichs 0% bis 100%sein.
UNAUFLÖSBARE_TABELLE-WERTE-FUNKTION
<name>
konnte nicht in eine Tabellenwertfunktion aufgelöst werden.
Stellen Sie sicher, dass <name>
als Tabellenwertfunktion definiert ist und dass alle erforderlichen Parameter korrekt bereitgestellt werden.
Wenn <name>
nicht definiert ist, erstellen Sie die Tabellenwertfunktion, bevor Sie sie verwenden.
Weitere Informationen zum Definieren von Tabellenwertfunktionen finden Sie in der Apache Spark-Dokumentation.
ALLE_UNGELÖST_IN_GRUPPE_BEI
Die Gruppierung von Spalten für GROUP BY ALL
kann nicht basierend auf der Auswahlklausel abgeleitet werden. Geben Sie die Gruppierungsspalten explizit an.
NICHT_AUFGELÖSTE_SPALTE
Ein Spalten-, Variablen- oder Funktionsparameter mit dem Namen <objectName>
kann nicht aufgelöst werden.
Weitere Informationen finden Sie unter UNRESOLVED_COLUMN
UNRESOLVED_FIELD
Ein Feld mit dem Namen <fieldName>
kann nicht mit der Strukturspalte <columnPath>
aufgelöst werden.
Weitere Informationen finden Sie unter UNRESOLVED_FIELD
NICHT_AUFGELÖST_INSERT_ERSETZEN_UNTER_VERWENDUNG_SPALTE
Die REPLACE USING
-Spalte <colName>
kann nicht in <relationType>
aufgelöst werden.
Haben Sie eine der folgenden Spalten gemeint? [<suggestion>
].
NICHT_AUFGELÖSTER_KARTENSCHLÜSSEL
Spalte <objectName>
kann nicht als Kartenschlüssel aufgelöst werden. Wenn der Schlüssel ein Zeichenfolgenliteral ist, schließen Sie ihn in einzelne Anführungszeichen (“)ein.
Weitere Details finden Sie unter UNRESOLVED_MAP_KEY.
UNAUFGELÖSTE_ROUTINE
Routine <routineName>
im Suchpfad <searchPath>
kann nicht aufgelöst werden.
Überprüfen Sie die Schreibweise von <routineName>
, überprüfen Sie, ob die Routine vorhanden ist, und bestätigen Sie, dass Sie über USE
Berechtigungen für den Katalog und das Schema verfügen, und EXECUTE
für die Routine.
Weitere Informationen finden Sie unter UNRESOLVED_ROUTINE
UNGELÖST_BEI_VERWENDUNG_DER_SPALTE_ZUM_JOIN
USING
-Spalte <colName>
kann nicht auf der <side>
-Seite des Join aufgelöst werden. Die <side>
-seitigen Spalten: [<suggestion>
].
UNAUFGELÖSTE_VARIABLE
Die Variable <variableName>
für suchpfad <searchPath>
kann nicht aufgelöst werden.
UNSTRUKTURIERTE_DATENVERARBEITUNG_NICHT_UNTERSTÜTZTES_DATEIFORMAT
Unstrukturiertes Dateiformat <format>
wird nicht unterstützt. Unterstützte Dateiformate sind <supportedFormats>
.
Aktualisieren Sie format
in Ihrem <expr>
-Ausdruck auf eines der unterstützten Formate, und wiederholen Sie dann die Abfrage erneut.
Verarbeitung_nicht_strukturierter_Daten_nicht_unterstützte_Modelloption
Die Option "Unstrukturiertes Modell" ('<option>
' ->
'<value>
') wird nicht unterstützt. Unterstützte Werte sind: <supportedValues>
.
Wechseln Sie zu einem der unterstützten Werte, und wiederholen Sie dann die Abfrage erneut.
Unstrukturierte OCR-Spalte nicht zulässig mit der Metadatenmodell-Option
Der Funktionsparameter „ocrText“ muss NULL
sein oder weggelassen werden, wenn die Option „metadataModel“ angegeben wird. Eine angegebene 'metadataModel'-Option löst die Metadatenextraktion aus, wobei ein bereitgestellter "ocrText" verboten ist.
UNTERSTÜTZTE_DATEI_HINZUFÜGEN_NICHT_MÖGLICH
Unterstützen Sie das Hinzufügen von Dateien nicht.
Weitere Details finden Sie unter UNSUPPORTED_ADD_FILE.
NICHT_UNTERSTÜTZTER_ALTER_SPALTEN_PARAMETER
Das Angeben von <parameter>
mit ALTER <commandTableType>
wird nicht unterstützt.
NICHT UNTERSTÜTZTER ARROWTYPE
Nicht unterstützter Pfeiltyp <typeName>
.
NICHT UNTERSTÜTZTE STAPELTABELLEN-WERTFUNKTION
Die Funktion <funcName>
unterstützt keine Batchabfragen.
NICHT_UNTERSTÜTZTER_ANRUF
Die Methode "<methodName>
" der Klasse "<className>
" kann nicht aufgerufen werden.
Weitere Details finden Sie unter UNSUPPORTED_CALL.
NICHT_UNTERSTÜTZTER_CHAR_ODER_VARCHAR_ALS_STRING
Der Char-/VARCHAR-Typ kann nicht im Tabellenschema verwendet werden.
Wenn Spark diese als Zeichenfolgentyp wie Spark 3.0 und früher behandeln soll, legen Sie "spark.sql.legacy.charVarcharAsString" auf "true" fest.
UNTERSTÜTZTE_KLAUSEL_FÜR_OPERATION
<clause>
wird für <operation>
nicht unterstützt.
NICHT_UNTERSTÜTZTE_KOLLATION
Die <collationName>
-Sortierung wird nicht unterstützt für:
Weitere Details finden Sie unter UNSUPPORTED_COLLATION.
NICHT_UNTERSTÜTZTER_GEMEINSAMER_URSORGSORT_FÜR_DATEISTROM_QUELLE
Der gemeinsame Vorgänger des Quellpfads und der sourceArchiveDir sollte bei UC registriert werden.
Wenn diese Fehlermeldung angezeigt wird, ist es wahrscheinlich, dass Sie den Quellpfad und den sourceArchiveDir an verschiedenen externen Speicherorten registrieren.
Platzieren Sie sie in einem einzigen externen Speicherort.
NICHT_UNTERSTÜTZTE_VERBINDUNGSFUNKTION
Das Feature wird in Spark Connect nicht unterstützt:
Weitere Informationen finden Sie unter UNSUPPORTED_CONNECT_FEATURE
Nicht unterstützte Einschränkungsklauseln
Einschränkungsklauseln <clauses>
werden nicht unterstützt.
UNSUPPORTED_CONSTRAINT_TYPE (Nicht unterstützter Einschränkungstyp)
Nicht unterstützter Einschränkungstyp. Nur <supportedConstraintTypes>
werden unterstützt
NICHT UNTERSTÜTZTE DATENQUELLE FÜR DIREKTABFRAGE
Nicht unterstützter Datenquellentyp für direkte Abfrage für Dateien: <dataSourceType>
Nicht unterstützter Datentyp
Nicht unterstützter Datentyp <typeName>
.
NICHT_UNTERSTÜTZTER_DATENQUELLEN_SPEICHER_MODUS
Die Datenquelle "<source>
" kann nicht im <createMode>
Modus geschrieben werden. Verwenden Sie stattdessen den Modus "Anfügen" oder "Überschreiben".
NICHT_UNTERSTÜTZTER_DATENTYP_FÜR_DATENQUELLE
Die <format>
Datenquelle unterstützt die Spalte <columnName>
des Typs <columnType>
nicht.
NICHT_UNTERSTÜTZTER_DATENTYP_FÜR_ENCODER
Encoder für <dataType>
kann nicht erstellt werden. Verwenden Sie einen anderen Ausgabedatentyp für Ihre UDF oder DataFrame.
NICHT_UNTERSTÜTZTER_STANDARDWERT
DEFAULT
-Spaltenwerte werden nicht unterstützt.
Weitere Details finden Sie unter UNSUPPORTED_DEFAULT_VALUE.
Nicht unterstützter Deserialisierer
Der Deserialisierer wird nicht unterstützt:
Weitere Details finden Sie unter UNSUPPORTED_DESERIALIZER.
NICHT_UNTERSTÜTZTER_AUSDRUCK_ERZEUGTE_SPALTE
Die generierte Spalte <fieldName>
mit Generierungsausdruck <expressionStr>
kann nicht erstellt werden, da <reason>
.
NICHT_UNTERSTÜTZTER_AUSDRUCK_FÜR_OPERATOR
Ein Abfrageoperator enthält einen oder mehrere nicht unterstützte Ausdrücke.
Erwägen Sie, sie neu zu schreiben, um Fensterfunktionen, Aggregatfunktionen und Generatorfunktionen in der WHERE
-Klausel zu vermeiden.
Ungültige Ausdrücke: [<invalidExprSqls>
]
NICHT_UNTERSTÜTZTER_AUSDRUCK_FÜR_PARAMETER
Ein Abfrageparameter enthält einen nicht unterstützten Ausdruck.
Parameter können Variablen oder Literale sein.
Ungültiger Ausdruck: [<invalidExprSql>
]
NICHT UNTERSTÜTZTER AUSDRUCK FÜR FENSTER
Ausdruck <sqlExpr>
wird in einer Fensterfunktion nicht unterstützt.
NICHT_UNTERSTÜTZTES_FEATURE
Das Feature wird nicht unterstützt:
Weitere Details finden Sie unter UNSUPPORTED_FEATURE.
NICHT UNTERSTÜTZTER FN_TYP
Nicht unterstützter benutzerdefinierter Funktionstyp: <language>
Nicht unterstützter Generator
Der Generator wird nicht unterstützt:
Weitere Details finden Sie unter UNSUPPORTED_GENERATOR.
NICHT UNTERSTÜTZTE GRUPPIERUNGSAUSDRUCK
grouping()/grouping_id() kann nur mit GroupingSets/Cube/Rollup verwendet werden.
UNTERSTÜTZTE_ANFANGSPOSITION_UND_AUSLÖSERPAAR_FÜR_KINESIS_QUELLE_NICHT_VORHANDEN
<trigger>
mit der initialen Position <initialPosition>
wird mit der Kinesis-Quelle nicht unterstützt
NICHT_UNTERSTÜTZTE_EINFÜGUNG
Das Einfügen in das Ziel ist nicht möglich.
Weitere Details finden Sie unter UNSUPPORTED_INSERT.
NICHT_UNTERSTÜTZTER_JOIN_TYP
Nicht unterstützter Verknüpfungstyp '<typ>
'. Unterstützte Verknüpfungstypen sind: <supported>
.
NICHT_UNTERSTÜTZTE_VERWALTETE_TABELLENERSTELLUNG
Das Erstellen einer verwalteten Tabelle <tableName>
mithilfe von Datenquellen <dataSource>
wird nicht unterstützt. Sie müssen die Datenquelle DELTA
verwenden oder eine externe Tabelle mit CREATE EXTERNAL TABLE <tableName>
... USING <dataSource>
erstellen.
NICHT UNTERSTÜTZTE ZUSAMMENFÜHRUNGSBEDINGUNG
Der MERGE
-Vorgang enthält eine nicht unterstützte <condName>
-Bedingung.
Weitere Informationen finden Sie unter UNSUPPORTED_MERGE_CONDITION.
NICHT UNTERSTÜTZTE VERSCHACHTELTE ZEILEN- ODER SPALTENZUGRIFFS-RICHTLINIE
Tabelle <tableName>
weist eine Sicherheitsrichtlinie oder Spaltenmaske auf Zeilenebene auf, die indirekt auf eine andere Tabelle mit einer Sicherheitsrichtlinie oder Spaltenmaske auf Zeilenebene verweist; dies wird nicht unterstützt. Anrufsequenz: <callSequence>
Nicht unterstützter Überschreiben
Das Ziel, aus dem ebenfalls gelesen wird, kann nicht überschrieben werden.
Weitere Details finden Sie unter UNSUPPORTED_OVERWRITE.
NICHT_UNTERSTÜTZTE_PARTITIONS_TRANSFORMATION
Nicht unterstützte Partitionstransformation: <transform>
. Die unterstützten Transformationen sind identity
, bucket
und clusterBy
. Stellen Sie sicher, dass ihr Transformationsausdruck eine dieser Ausdrücke verwendet.
NICHT_UNTERSTÜTZTER_SPEICHER_MODUS
Der Speichermodus <saveMode>
wird für Folgendes nicht unterstützt:
Weitere Details finden Sie unter UNSUPPORTED_SAVE_MODE.
NICHT UNTERSTÜTZT_SHOW_CREATE_TABLE
Unterstützung für einen SHOW CREATE TABLE
-Befehl aufgehoben.
Weitere Details finden Sie unter UNSUPPORTED_SHOW_CREATE_TABLE.
NICHT UNTERSTÜTZTE EINZELDURCHGANGS-ANALYSE-FUNKTION
Die Single-Pass-Analyse kann diese Abfrage oder diesen Befehl nicht verarbeiten, da sie <feature>
noch nicht unterstützt.
NICHT_UNTERSTÜTZTE_SQL_BDF_VERWENDUNG
Die Verwendung der SQL-Funktion <functionName>
in <nodeName>
wird nicht unterstützt.
NICHT UNTERSTÜTZTER STREAMING-BETREIBER OHNE WASSERZEICHEN
<outputMode>
-Ausgabemodus wird für <statefulOperator>
beim Streamen von DataFrames/DataSets ohne Wasserzeichen nicht unterstützt.
Nicht unterstützte Streaming-Optionen für Ansicht
Streaming einer Ansicht wird nicht unterstützt. Grund:
Weitere Details finden Sie unter UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW.
NICHT UNTERSTÜTZTE STREAMING-OPTIONEN RECHTSINHABER ERZWUNGEN
Die Streamingoptionen <options>
werden für eine Datenquelle <source>
in einem freigegebenen Cluster nicht unterstützt. Vergewissern Sie sich, dass die Optionen richtig angegeben und richtig geschrieben sind, und überprüfen Sie https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode auf Einschränkungen.
NICHT UNTERSTÜTZTES STREAMING-SINK-BERECHTIGUNG DURCHGESETZT
Die Datenquelle <sink>
wird nicht als Streamingsenke in einem freigegebenen Cluster unterstützt.
UNTERSTÜTZUNG DER STREAMING-QUELLE NICHT MÖGLICH: BERECHTIGUNG DURCHGESETZT
Datenquelle <source>
wird nicht als Streamingquelle auf einem freigegebenen Cluster unterstützt.
UNSUPPORTED_STREAM_AND_TABLE_WERTFUNKTION UNTERSTÜTZT_NICHT
Die Funktion <funcName>
unterstützt kein Streaming. Entfernen Sie das Schlüsselwort STREAM
UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE
<streamReadLimit>
wird mit der Kinesis-Quelle nicht unterstützt.
NICHT_UNTERSTÜTZTE_UNTERABFRAGE_AUSDRUCK_KATEGORIE
Nicht unterstützter Unterabfrageausdruck:
Weitere Details finden Sie unter UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY.
NICHT_UNTERSTÜTZTE_TABELLENÄNDERUNG_IM_JDBC_KATALOG
Die Tabellenänderung <change>
wird für den JDBC-Katalog in Tabelle <tableName>
nicht unterstützt. Unterstützte Änderungen sind: AddColumn, RenameColumn, DeleteColumn, UpdateColumnType, UpdateColumnNullability.
NICHT_UNTERSTÜTZTE_ZEITREIHEN_SPALTEN
Das Erstellen eines Primärschlüssels mit Zeitserienspalten wird nicht unterstützt.
NICHT UNTERSTÜTZTE ZEITREIHE MIT MEHR ALS EINER SPALTE
Das Erstellen eines Primärschlüssels mit mehr als einer Zeitserienspalte <colSeq>
wird nicht unterstützt.
NICHT_UNTERSTÜTZTE_ZEITGENAUIGKEIT
Die Sekundengenauigkeit <precision>
des TIME-Datentyps liegt außerhalb des unterstützten Bereichs [0, 6].
NICHT_UNTERSTÜTZTER_ZEIT_TYP
Der Datentyp TIME wird nicht unterstützt.
UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE (Nicht unterstützter Auslöser für Kinesis-Quelle)
<trigger>
wird mit der Kinesis-Quelle nicht unterstützt.
NICHT_UNTERSTÜTZTES_TYPISIERTES_LITERAL
Literale des Typs <unsupportedType>
werden nicht unterstützt. Folgende Typen werden unterstützt: <supportedTypes>
.
NICHT_UNTERSTÜTZTES_UDF_FEATURE
Die Funktion <function>
verwendet die folgenden Features, die eine neuere Version der Databricks-Laufzeit erfordern: <features>
. Weitere Informationen finden Sie in <docLink>
.
NICHT UNTERSTÜTZTE UDF-TYPEN AM SELBEN ORT
UDF-Typen können nicht zusammen verwendet werden: <types>
UNTYPED SCALA-Benutzerdefinierte Funktion (UDF)
Sie verwenden nicht typisierte Scala UDF, die keine Eingabetypinformationen enthält.
Spark kann ohne Tests NULL an den Scala-Funktionsabschluss über ein Argument mit einem primitiven Typ übergeben, und der Funktionsabschluss erkennt den Standardwert des Java-Typs für das NULL-Argument, z. B. udf((x: Int) => x, IntegerType)
, das Ergebnis ist für NULL-Eingaben 0. Um diesen Fehler zu entfernen, können Sie folgende Aktionen ausführen:
verwenden Sie typierte Scala UDF-APIs(ohne Rückgabetypparameter), z. B.
udf((x: Int) => x)
.Verwenden Sie Java-UDF-APIs, wie z. B.
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)
, wenn alle Eingabetypen nicht primitive sind.legen Sie "spark.sql.legacy.allowUntypedScalaUDF" auf "true" fest, und verwenden Sie diese API vorsichtig.
Upgrade nicht unterstützt
Die Tabelle ist nicht berechtigt, ein Upgrade von Hive Metastore auf den Unity-Katalog durchzuführen. Grund:
Weitere Details finden Sie unter UPGRADE_NOT_SUPPORTED.
BENUTZERDEFINIERTE_FUNKTIONS
Benutzerdefinierte Funktion ist ungültig:
Weitere Details finden Sie unter USER_DEFINED_FUNCTIONS.
BENUTZER_AUSGELÖSTE_AUSNAHME
<errorMessage>
BENUTZER_AUSGELÖSTE_AUSNAHME_PARAMETER_UNSTIMMIGKEIT
Die raise_error()
-Funktion wurde zum Auslösen der Fehlerklasse verwendet: <errorClass>
, die Parameter erwartet: <expectedParms>
.
Die bereitgestellten Parameter <providedParms>
entsprechen nicht den erwarteten Parametern.
Stellen Sie sicher, dass Sie alle erwarteten Parameter angeben.
BENUTZER_ERHOBENE_AUSNAHME_UNBEKANNTE_FEHLERKLASSE
Die raise_error()
-Funktion wurde verwendet, um eine unbekannte Fehlerklasse auszuheben: <errorClass>
VARIABLE_EXISTIERT_BEREITS
Die Variable <variableName>
kann nicht erstellt werden, da sie bereits vorhanden ist.
Wählen Sie einen anderen Namen aus, oder legen Sie die vorhandene Variable ab, oder ersetzen Sie sie.
VARIABLE_NICHT_GEFUNDEN
Die Variable <variableName>
wurde nicht gefunden. Überprüfen Sie die Rechtschreibung und Korrektheit des Schemas und Katalogs.
Wenn Sie den Namen nicht mit einem Schema und Katalog qualifiziert haben, überprüfen Sie die ausgabe current_schema() oder qualifizieren Sie den Namen mit dem richtigen Schema und Katalog.
Um den Fehler beim Trennen zu tolerieren, verwenden Sie DROP VARIABLE IF EXISTS
.
VARIANT_KONSTRUKTOR_GRÖSSENBEGRENZUNG
Es kann kein Variant-Wert erstellt werden, der größer als 16 MiB ist. Die maximal zulässige Größe eines Variant-Werts beträgt 16 MiB.
VARIANT_DUPLIZIERTER_SCHLÜSSEL
Fehler beim Erstellen der Variante aufgrund eines doppelten Objektschlüssels <key>
.
Variantengrößenlimit
Es kann keine Variante erstellt werden, die größer als <sizeLimit>
in <functionName>
ist.
Vermeiden Sie große Eingabezeichenfolgen für diesen Ausdruck (z. B. fügen Sie Funktionsaufrufe hinzu, um die Größe des Ausdrucks zu überprüfen und sie zuerst in NULL
zu konvertieren, wenn sie zu groß ist).
VERSIONED_CLONE_UNTERSTÜTZTES_TABELLEN_FEATURE_UNTERSTÜTZT_NICHT
Der Quelltabellenverlauf enthält Tabellenfeatures, die in dieser DBR-Version von der versionierten Kopie nicht unterstützt werden: <unsupportedFeatureNames>
.
Aktualisieren Sie bitte auf eine neuere DBR-Version.
Ansicht_besteht_schon
Die Ansicht <relationName>
kann nicht erstellt werden, da sie bereits existiert.
Wählen Sie einen anderen Namen aus, legen Sie das vorhandene Objekt ab, oder ersetzen Sie das vorhandene Objekt, oder fügen Sie die IF NOT EXISTS
Klausel hinzu, um bereits vorhandene Objekte zu tolerieren.
ANZEIGE_ÜBERSTEIGT_MAXIMALE_VERSCHACHTELUNGSTIEFE
Die Tiefe der Ansicht <viewName>
überschreitet die maximale Auflösungstiefe (<maxNestedDepth>
).
Die Analyse wird abgebrochen, um Fehler zu vermeiden. Wenn Sie dies umgehen möchten, versuchen Sie, den Wert von "spark.sql.view.maxNestedViewDepth" zu erhöhen.
Ansicht nicht gefunden
Die Ansicht <relationName>
kann nicht gefunden werden. Überprüfen Sie die Rechtschreibung und Korrektheit des Schemas und Katalogs.
Wenn Sie den Namen nicht mit einem Schema qualifiziert haben, überprüfen Sie die ausgabe current_schema() oder qualifizieren Sie den Namen mit dem richtigen Schema und Katalog.
Um den Fehler beim Trennen zu tolerieren, verwenden Sie DROP VIEW IF EXISTS
.
Volume existiert bereits
Volume-<relationName>
kann nicht erstellt werden, da es bereits vorhanden ist.
Wählen Sie einen anderen Namen aus, legen Sie das vorhandene Objekt ab, oder ersetzen Sie das vorhandene Objekt, oder fügen Sie die IF NOT EXISTS
Klausel hinzu, um bereits vorhandene Objekte zu tolerieren.
Unstimmigkeit zwischen Fensterfunktion und Rahmen
Die Funktion <funcName>
kann nur in einem sortierten zeilenbasierten Fensterrahmen mit einem einzigen Offset ausgewertet werden: <windowExpr>
.
FENSTERFUNKTION_OHNE_OVER_KLAUSEL
Für die Fensterfunktion <funcName>
ist eine OVER-Klausel erforderlich.
MIT_BERECHTIGUNG
WITH CREDENTIAL
Syntax wird für <type>
nicht unterstützt.
SCHREIBEN_VON_DATENSTROM_NICHT_ERLAUBT
writeStream
kann nur für ein Streaming-Dataset/DataFrame aufgerufen werden.
FALSCHE_SPALTENSTANDARDS_FÜR_DELTA_ALTER_TABLE_SPALTE_HINZUFÜGEN_NICHT_UNTERSTÜTZT
Fehler beim Ausführen des Befehls, da DEFAULT
-Werte beim Hinzufügen neuer Elemente nicht unterstützt werden.
Spalten zu bereits vorhandenen Delta-Tabellen nicht unterstützt werden. Fügen Sie die Spalte zunächst ohne Standardwert
und führen Sie dann stattdessen einen zweiten ALTER TABLE ALTER COLUMN SET DEFAULT
-Befehl aus, um
an zukünftige eingefügte Zeilen anzufügen.
Falsche Spaltendefaults, da Delta-Funktion nicht aktiviert ist.
Fehler beim Ausführen des Befehls <commandType>
, da ihm ein DEFAULT
-Wert zugewiesen wurde,
die entsprechende Tabellenfunktion wurde jedoch nicht aktiviert. Wiederholen Sie den Befehl erneut.
nach Ausführung von ALTER TABLE
tableName SET
TBLPROPERTIES
('delta.feature.allowColumnDefaults' = 'unterstützt').
UNGÜLTIGER_BEFEHL_FÜR_OBJEKTTYP
Für den Vorgang <operation>
ist ein <requiredType>
erforderlich. Aber <objectName>
ist ein <foundType>
. Verwenden Sie stattdessen <alternative>
.
FALSCHE_ANZAHL_ARGUMENTE
Der <functionName>
erfordert <expectedNum>
Parameter, aber die tatsächliche Anzahl ist <actualNum>
.
Weitere Details finden Sie unter WRONG_NUM_ARGS.
XML_REIHEN_TAG_FEHLT
<rowTag>
Die Option ist für das Lesen/Schreiben von Dateien im XML-Format erforderlich.
XML_UNTERSTÜTZT_KEINE_VERSCHACHTELTEN_TYPEN
XML unterstützt <innerDataType>
nicht als inneren Typ von <dataType>
. Umschließen Sie den <innerDataType>
innerhalb eines StructType-Felds, wenn Sie ihn in <dataType>
verwenden.
XML_Wildcard_Gerettete_Daten_Konfliktfehler
Wiederhergestellte Daten und Platzhalterspalten können nicht gleichzeitig aktiviert werden. Entfernen Sie die wildcardColumnName-Option.
ZORDERBY_SPALTE_EXISTIERT_NICHT
Die Spalte <columnName>
"ZOrderBy" ist nicht vorhanden.
Delta Lake
Aktive Delta-Spark-Sitzung nicht gefunden
Aktive SparkSession konnte nicht gefunden werden.
DELTA_AKTIVE_TRANSAKTION_BEREITS_EINGESTELLT
Ein neuer txn kann nicht als aktiv festgelegt werden, wenn eins bereits aktiv ist.
DELTA_ADDING_COLUMN_MIT_INTERNEM_NAMEN_FEHLGESCHLAGEN
Fehler beim Hinzufügen von Spalte <colName>
, da der Name reserviert ist.
DELTA_HINZUFÜGEN_VON_LÖSCHVEKTOREN_NICHT_ERLAUBT
Der aktuelle Vorgang hat versucht, einer Tabelle einen Löschvektor hinzuzufügen, der die Erstellung neuer Löschvektoren nicht zulässt. Bitte geben Sie einen Fehlerbericht an.
Hinzufügen von Löschvektoren mit engen Grenzen nicht erlaubt
Alle Vorgänge, die Löschvektoren hinzufügen, sollten die "tightBounds"-Spalte in Statistiken auf "false" festlegen. Bitte geben Sie einen Fehlerbericht an.
DELTA_SPALTE_AN_INDEX_KLEINER_ALS_NULL_HINZUFÜGEN
Index <columnIndex>
zum Hinzufügen von Spalten <columnName>
ist niedriger als 0.
Without additional context, no literal translation can be proposed. Therefore, retaining the original term is appropriate. Thus: DELTA_ADD_COLUMN_PARENT_NOT_STRUCT
<columnName>
kann nicht hinzugefügt werden, da das übergeordnete Element kein StructType ist. Es wurde <other>
gefunden.
DELTA_ADD_COLUMN_STRUKTUR_NICHT_GEFUNDEN
Die Struktur wurde an Position <position>
nicht gefunden.
DELTA_EINSCHRÄNKUNGEN_HINZUFÜGEN
Verwenden Sie ALTER TABLE
ADD CONSTRAINT
, um CHECK
-Einschränkungen hinzuzufügen.
DELTA_AGGREGAT_IN_GENERIERTER_SPALTE
Es wurde <sqlExpr>
gefunden. Eine generierte Spalte kann keinen Aggregatausdruck verwenden.
DELTA_AGGREGATION_NICHT_UNTERSTÜTZT
Aggregatfunktionen werden in der <operation> <predicate>
nicht unterstützt.
DELTA_ALTER_COLLATION_NICHT_UNTERSTÜTZT_BLOOM_FILTER
Fehler beim Ändern der Sortierung der Spalte <column>
, da sie einen Bloom-Filterindex enthält. Bitte behalten Sie entweder die vorhandene Sortierung bei, oder legen Sie den Bloom-Filterindex ab, und wiederholen Sie dann den Befehl erneut, um die Sortierung zu ändern.
DELTA_ALTER_KOLLATION_NICHT_UNTERSTÜTZT_CLUSTER_BY
Fehler beim Ändern der Sortierung der Spalte <column>
, da es sich um eine Clusteringspalte handelt. Bitte behalten Sie entweder die vorhandene Sortierung bei, oder ändern Sie die Spalte in eine Spalte ohne Clustering mit einem ALTER TABLE
Befehl, und wiederholen Sie dann den Befehl erneut, um die Sortierung zu ändern.
DELTA_ALTER_TABLE_COLUMN_ÄNDERUNG_NICHT_UNTERSTÜTZT
ALTER TABLE CHANGE COLUMN
wird nicht unterstützt, um die Spalte von <currentType>
zu <newType>
zu ändern.
DELTA_ALTER_TABLE_CLUSTER_BY_NICHT_ERLAUBT
ALTER TABLE CLUSTER BY
wird nur für die Delta-Tabelle mit Liquid Clustering unterstützt.
DELTA_ALTER_TABLE_CLUSTER_BY_BEI_PARTITIONIERTER_TABELLE_NICHT_ERLAUBT
ALTER TABLE CLUSTER BY
kann nicht auf eine partitionierte Tabelle angewendet werden.
DELTA_TABELLE_UMBENENNEN_NICHT_ERLAUBT
Vorgang nicht zulässig: ALTER TABLE RENAME
TO ist für verwaltete Delta-Tabellen auf S3 nicht zulässig, da die schlussendliche Konsistenz in S3 das Delta-Transaktionsprotokoll beschädigen kann. Wenn Sie darauf bestehen und sicher sind, dass noch nie eine Delta-Tabelle mit dem neuen Namen <newName>
vorhanden ist, können Sie dies aktivieren, indem Sie <key>
auf "true" festlegen.
DELTA_ALTER_TABLE_SET_CLUSTERING_Tabelle_Funktion_nicht_erlaubt
Das <tableFeature>
-Tabellenfeature kann nicht mit ALTER TABLE SET TBLPROPERTIES
aktiviert werden. Verwenden Sie CREATE
ODER REPLACE TABLE CLUSTER BY
, um eine Delta-Tabelle mit Clustering zu erstellen.
DELTA_ALTER_TABLE_SET_MANAGED_DOES_NOT_SUPPORT_UNIFORM_ICEBERG
ALTER
TABLE
...
SET
MANAGED
unterstützt keine Uniform Iceberg-Tabelle. Deaktivieren Sie Uniform, und versuchen Sie es erneut.
DELTA_ALTER_TABLE_SET_MANAGED_FAILED
ALTER TABLE <table> SET MANAGED
misslungen.
Weitere Informationen finden Sie unter DELTA_ALTER_TABLE_SET_MANAGED_FAILED
DELTA_ALTER_TABLE_SET_MANAGED_NOT_ENABLED
ALTER TABLE
... SET MANAGED
der Befehl ist nicht aktiviert. Wenden Sie sich an Ihr Databricks-Supportteam, um Unterstützung zu erhalten.
DELTA_TABELLE_ALTER_SETZEN_MANAGED_FEHLGESCHLAGEN
Für <table>
kann kein Rollback von einer verwalteten auf eine externe Tabelle durchgeführt werden.
Weitere Informationen finden Sie unter DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED
DELTA_TABELLE_ALTER_TABELLE_UNSET_MANAGED_NICHT_AKTIVIERT
ALTER TABLE
... UNSET MANAGED
der Befehl ist nicht aktiviert. Wenden Sie sich an Ihr Databricks-Supportteam, um Unterstützung zu erhalten.
DELTA_UNKLARE_DATENTYPÄNDERUNG
Der Datentyp der <column>
kann von <from>
in <to>
nicht geändert werden. Diese Änderung enthält Spaltenentfernungen und Ergänzungen, daher sind sie mehrdeutig. Bitte nehmen Sie diese Änderungen einzeln mit ALTER TABLE
[ADD | DROP | RENAME
] COLUMN
vor.
DELTA_MEHRDEUTIGE_PARTITIONSSPALTE
Die mehrdeutige Partitionsspalte <column>
kann <colMatches>
sein.
DELTA_UNKLARE_PFADE_IN_CREATE_TABLE
CREATE TABLE
enthält zwei verschiedene Speicherorte: <identifier>
und <location>
.
Sie können die LOCATION
-Klausel aus der CREATE TABLE
-Anweisung entfernen oder Folgendes festlegen
<config>
auf TRUE festlegen, um diese Überprüfung zu überspringen.
DELTA_ARCHIVED_FILES_IN_LIMIT (Note: Retained original as no context suggests the necessity of translation.)
Tabelle <table>
enthält nicht genügend Datensätze in nicht archivierten Dateien, um das angegebene LIMIT
von <limit>
Datensätzen zu erfüllen.
DELTA_ARCHIVIERTE_DATEIEN_IM_SCAN
Es wurden <numArchivedFiles>
potenziell archivierte Dateien in der Tabelle <table>
gefunden, die im Rahmen dieser Abfrage gescannt werden müssen.
Auf archivierte Dateien kann nicht zugegriffen werden. Die aktuelle Zeit, bis die Archivierung als <archivalTime>
konfiguriert ist.
Passen Sie Die Abfragefilter an, um archivierte Dateien auszuschließen.
DELTA-BLOCK-SPALTENZUORDNUNG UND CDC-OPERATION
Der Vorgang "<opName>
" ist nicht zulässig, wenn die Tabelle den Change Data Feed (CDF) aktiviert hat und Schemaänderungen unter Verwendung von DROP COLUMN
oder RENAME COLUMN
vorgenommen wurden.
DELTA_BLOOM_FILTER_ENTFERNEN_BEI_NICHT_EXISTIERENDEN_SPALTEN
Bloom-Filter-Indizes für die nicht vorhandenen folgenden Spalten können nicht gelöscht werden: <unknownColumns>
.
DELTA_BLOOM_FILTER_OOM_BEIM_SCHREIBEN
OutOfMemoryError ist beim Schreiben von Bloom-Filterindizes für die folgenden Spalten aufgetreten: <columnsWithBloomFilterIndices>
.
Sie können den Speicherbedarf von Bloom-Filterindizes reduzieren, indem Sie einen kleineren Wert für die Option "numItems", einen größeren Wert für die Option "fpp" auswählen oder weniger Spalten indizieren.
DELTA_DATENTYP_KANN_NICHT_GEÄNDERT_WERDEN
Datentyp kann nicht geändert werden: <dataType>
.
DELTA_KANN_STANDORT_NICHT_ÄNDERN
Der Speicherort der Delta-Tabelle kann nicht mit SET TBLPROPERTIES
geändert werden. Verwenden Sie stattdessen ALTER TABLE SET LOCATION
.
DELTA_KANN_ANBIETER_NICHT_WECHSELN
"provider" ist eine reservierte Tabelleneigenschaft und kann nicht geändert werden.
DELTA_KANN_BLOOM_FILTER_NICHT_FÜR_NICHT_EXISTIERENDE_SPALTE_ERSTELLEN
Bloom-Filterindizes für die folgenden nicht vorhandenen Spalten können nicht erstellt werden: <unknownCols>
.
DELTA_KANN_PFAD_FÜR_LOGDATEI_NICHT_ERSTELLEN
<path>
kann nicht erstellt werden.
DELTA_KANN_ANSICHTSVERLAUF_NICHT_BESCHREIBEN
Der Verlauf einer Sicht kann nicht beschrieben werden.
DELTA_KANN_BLOOM_FILTER_AUF_NICHT_INDEXIERTEM_FELD_NICHT_ENTFERNEN
Der Bloom-Filterindex kann auf einer nicht indizierten Spalte nicht gelöscht werden: <columnName>
.
DELTA_FEHLER_BEIM_LÖSCHEN_EINES_CHECK_CONSTRAINT_FEATURE
Die CHECK
-Einschränkungstabellenfunktion kann nicht getrennt werden.
Die folgenden Einschränkungen müssen zuerst gelöscht werden: <constraints>
.
DELTA_FEATURE_ZUM_ENTFERNEN_VON_SORTIERUNGEN_KANN_NICHT_GELÖSCHT_WERDEN
Die Sortierungstabellenfunktion kann nicht getrennt werden.
Spalten mit nicht standardmäßigen Kollationen müssen zuerst auf die Verwendung von UTF8_BINARY geändert werden: <colNames>
.
KANN_DELTA_AUSDRUCK_NICHT_AUSWERTEN
Ausdruck kann nicht ausgewertet werden: <expression>
.
DELTA_KANN_BUCKET_SPEC_NICHT_FINDEN
Erwartet eine Bucket-Delta-Tabelle, aber die Bucketspezifikation in der Tabelle kann nicht gefunden werden.
DELTA_KANN_KEINEN_CODE_FÜR_AUSDRUCK_GENERIEREN
Für den Ausdruck kann kein Code generiert werden: <expression>
.
DELTA_CANNOT_MODIFY_APPEND_ONLY (Änderung der nur anhängbaren Objekte nicht möglich)
Diese Tabelle ist so konfiguriert, dass nur Anfüge zulässig sind. Wenn Sie Aktualisierungen oder Löschungen zulassen möchten, verwenden Sie "ALTER TABLE <table_name> SET TBLPROPERTIES (<config> =false)
".
DELTA_KANN_KATALOG_EIGENE_ABHÄNGIGKEITEN_NICHT_MODIFIZIEREN
Die Eigenschaften der In-Commit-Zeitstempeltabelle können nicht überschreiben oder nicht festgelegt werden, da diese Tabelle im Katalogbesitz ist. Entfernen Sie "delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion" und "delta.inCommitTimestampEnablementTimestamp" aus der TBLPROPERTIES
Klausel, und wiederholen Sie dann den Befehl.
DELTA_KANN_NICHT_VERÄNDERTE_KOORDINIERTE_COMMIT-ABHÄNGIGKEITEN
<Command>
kann die Eigenschaften der In-Commit-Zeitstempeltabelle nicht außer Kraft setzen oder löschen, da koordinierte Commits in dieser Tabelle aktiviert und von diesen abhängig sind. Entfernen Sie sie ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") aus der TBLPROPERTIES
-Klausel, und wiederholen Sie dann den Befehl erneut.
DELTA_KANN_TABELLENEIGENSCHAFT_NICHT_ANPASSEN
Die Delta-Tabellenkonfiguration <prop>
kann vom Benutzer nicht angegeben werden.
DELTA_KANN_KOORDINIERTE_COMMITS_EINSTELLUNGEN_NICHT_ÜBERSCHREIBEN
<Command>
kann die Konfigurationen für koordinierte Commits in einer vorhandenen Zieltabelle nicht außer Kraft setzen. Entfernen Sie sie aus der TBLPROPERTIES
-Klausel ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview", "delta.coordinatedCommits.tableConf-preview").
DELTA_KANN_PFAD_NICHT_AUS_URI_WIEDERHERSTELLEN
Ein URI (<uri>
), der nicht in einen relativen Pfad umgewandelt werden kann, wurde im Transaktionsprotokoll gefunden.
DELTA_KANN_PFAD_NICHT_RELATIVIEREN
Ein Pfad (<path>
), der nicht mit der aktuellen Eingabe relativiert werden kann, wurde gefunden im
Transaktionsprotokoll. Führen Sie dies wie folgt erneut aus:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<userPath>
", true)
Führen Sie dann auch Folgendes aus:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<path>
")
DELTA_PFAD_UMBENENNEN_NICHT_MÖGLICH
Kann <currentPath>
nicht in <newPath>
umbenannt werden.
DELTA_KANN_FEHLENDE_TABELLE_NICHT_ERSETZEN
Tabelle <tableName>
kann nicht ersetzt werden, da sie nicht vorhanden ist. Verwenden Sie CREATE
ODER-REPLACE TABLE
, um die Tabelle zu erstellen.
DELTA_KANN_CLUSTERINGSPALTE_NICHT_AUFLÖSEN
Die Clusterspalte <columnName>
in <schema>
kann aufgrund eines unerwarteten Fehlers nicht aufgelöst werden. Ausführen ALTER TABLE
... CLUSTER BY
zum Reparieren von Delta-Clusteringmetadaten.
DELTA_KANN_SPALTE_NICHT_AUFLÖSEN
Spalte <columnName>
kann nicht aufgelöst werden in <schema>
DELTA_KANN_TABELLENVERSION_NICHT_WIEDERHERSTELLEN
Die Tabelle kann nicht in version <version>
wiederhergestellt werden. Verfügbare Versionen: [<startVersion>
, <endVersion>
].
DELTA_KANN_ZEITSTEMPEL_NICHT_FRÜHER_WIEDERHERSTELLEN
Die Tabelle kann nicht auf den Zeitstempel (<requestedTimestamp>
) wiederhergestellt werden, da er vor der frühesten verfügbaren Version liegt. Bitte verwenden Sie einen Zeitstempel nach (<earliestTimestamp>
)
DELTA_KANN_ZEITSTEMPEL_MIT_GRÖSSEREM_WERT_NICHT_WIEDERHERSTELLEN
Die Tabelle kann nicht auf den Zeitstempel (<requestedTimestamp>
) wiederhergestellt werden, da dieser nach der neuesten verfügbaren Version liegt. Bitte verwenden Sie einen Zeitstempel vor (<latestTimestamp>
).
DELTA_KANN_NICHT_KOORDINIERTE_COMMITS_ABHÄNGIGKEITEN_SETZEN
<Command>
kann keine Eigenschaften der In-Commit-Zeitstempeltabelle zusammen mit koordinierten Commits festlegen, da letztere von ersteren abhängen und erstere intern festlegen. Entfernen Sie sie ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") aus der TBLPROPERTIES
-Klausel, und wiederholen Sie dann den Befehl erneut.
DELTA_SETZT_POSITION_AUF_PFAD_IDENTIFIKATOR_NICHT_MÖGLICH
Die Position einer pfadbasierten Tabelle kann nicht geändert werden.
DELTA_KANN_MANAGED_STATS_COLUMNS_PROPERTY_NICHT_SETZEN
Delta.managedDataSkippingStatsColumns kann nicht für eine Nicht-DLT-Tabelle festgelegt werden.
DELTA_KANN_UC_COMMIT_COORDINATOR_CONF_IM_BEFEHL_NICHT_SETZEN
Wenn 'unity-catalog' als Commit-Koordinator aktiviert wird, kann die Konfiguration "<configuration>
" nicht über den Befehl festgelegt werden. Entfernen Sie ihn aus der TBLPROPERTIES
-Klausel, und wiederholen Sie dann den Befehl erneut.
DELTA_KANN_UC_COMMIT_COORDINATOR_CONF_IN_SESSION_NICHT_SETZEN
Wenn "unity-catalog" als Commit-Koordinator aktiviert wird, kann die Konfiguration "<configuration>
" nicht aus den SparkSession-Konfigurationen festgelegt werden. Löschen Sie sie, indem Sie spark.conf.unset("<configuration>")
ausführen, und wiederholen Sie dann den Befehl.
DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS (assuming this is a technical term/tag that needs to remain untranslated, otherwise an appropriate German explanation could be provided if context allows it).
ALTER
kann Koordinationseinstellungen für Commits nicht aufheben. Wenn Sie eine Tabelle von koordinierten Commits herabstufen möchten, versuchen Sie es erneut mithilfe von ALTER
TABLE[table-name]
DROP FEATURE 'coordinatedCommits-preview'
.
DELTA_KANN_ARRAY_FELD_NICHT_AKTUALISIEREN
Der Feldtyp <tableName>
kann nicht aktualisiert werden<fieldName>
: Aktualisieren Sie das Element, indem <fieldName>
.element aktualisiert wird.
DELTA_KANN_DAS_KARTENFELD_NICHT_AKTUALISIEREN
Das Feld <tableName>
vom Typ <fieldName>
kann nicht aktualisiert werden: Aktualisieren Sie eine Karte, indem Sie <fieldName>.key
oder <fieldName>.value
aktualisieren.
DELTA_KANN_ANDERE_FELDER_NICHT_AKTUALISIEREN
Das <tableName>
-Feld des Typs <typeName>
kann nicht aktualisiert werden.
DELTA_KANN_STRUKTURFELD_NICHT_AKTUALISIEREN
Feld <tableName>
vom Typ <fieldName>
kann nicht aktualisiert werden: Aktualisieren Sie die Struktur, indem Sie Felder hinzufügen, löschen oder aktualisieren.
DELTA_KANN_NICHT_ALLE_SPALTEN_FÜR_DIE_PARTITION_VERWENDEN
Nicht alle Spalten können als Partitionsspalten verwendet werden.
DELTA_CANNOT_VACUUM_LITE
VACUUM
LITE kann nicht alle berechtigten Dateien löschen, da einige Dateien nicht im Delta-Protokoll referenziert sind. Führen Sie VACUUM FULL
aus.
DELTA_KANN_NICHT_IN_ANZEIGE_SCHREIBEN
<table>
ist eine Ansicht. Schreibvorgänge in eine Ansicht werden nicht unterstützt.
DELTA_CAST_OVERFLOW_BEI_TABELLEN_SCHREIBVORGANG
Fehler beim Schreiben eines Werts vom Typ <sourceType>
in die Spalte <targetType>
vom Typ <columnName>
aufgrund eines Überlaufs.
Verwenden Sie try_cast
für den Eingabewert, um Überlauf zu tolerieren und stattdessen NULL
zurückzugeben.
Setzen Sie bei Bedarf <storeAssignmentPolicyFlag>
auf "LEGACY
", um diesen Fehler zu umgehen, oder setzen Sie <updateAndMergeCastingFollowsAnsiEnabledFlag>
auf "true", um zum alten Verhalten zurückzukehren und in <ansiEnabledFlag>
, UPDATE
und MERGE
zu folgen.
DELTA_CDC_IN_DIESER_VERSION_NICHT_ERLAUBT
Configuration delta.enableChangeDataFeed kann nicht festgelegt werden. Der Änderungsdatenfeed von Delta ist noch nicht verfügbar.
DELTA_CDC_READ_NULL_RANGE_BOUNDARY
Die Start-/End-Parameter des CDC-Lesevorgangs dürfen nicht null sein. Bitte geben Sie eine gültige Version oder einen Zeitstempel an.
DELTA_CHANGE_DATA_FEED_INKOMPATIBLES_DATENSCHEMA
Fehler beim Abrufen von Tabellenänderungen zwischen Version <start>
und <end>
aufgrund eines inkompatiblen Datenschemas.
Ihr Leseschema ist bei Version <readSchema>
<readVersion>
, aber wir haben ein inkompatibles Datenschema bei Version <incompatibleVersion>
gefunden.
Wenn möglich, rufen Sie die Tabellenänderungen mithilfe des Schemas der Endversion ab, indem Sie <config>
auf endVersion
setzen, oder wenden Sie sich an den Support.
DELTA_CHANGE_DATA_FEED_INKOMPATIBLE_SCHEMA_ÄNDERUNG
Fehler beim Abrufen von Tabellenänderungen zwischen Version <start>
und <end>
aufgrund einer inkompatiblen Schemaänderung.
Ihr Leseschema ist bei Version <readSchema>
<readVersion>
, aber wir haben eine inkompatible Schemaänderung bei version <incompatibleVersion>
gefunden.
Wenn möglich, fragen Sie die Tabellenänderungen separat von Version <start>
bis <incompatibleVersion>
- 1 und von Version <incompatibleVersion>
bis <end>
ab.
Delta-Änderungsdatendatei nicht gefunden
Datei <filePath>
, auf die im Transaktionsprotokoll verwiesen wird, wurde nicht gefunden. Dies kann auftreten, wenn Daten manuell aus dem Dateisystem gelöscht wurden, anstatt die Tabelle DELETE
Anweisung zu verwenden. Diese Anforderung scheint auf den Änderungsdaten-Feed ausgerichtet zu sein. Falls dies der Fall ist, kann dieser Fehler auftreten, wenn sich die Änderungsdatendatei außerhalb des Aufbewahrungszeitraums befindet und durch die VACUUM
statement gelöscht wurde. Weitere Informationen finden Sie unter <faqPath>
DELTA ÄNDERUNGSTABELLE-FEED DEAKTIVIERT
Es kann nicht in die Tabelle geschrieben werden, wenn delta.enableChangeDataFeed gesetzt ist. Der Änderungsdatenfeed von Delta ist nicht verfügbar.
DELTA_KONTROLLPUNKT_NICHT_EXISTIERENDE_TABELLE
Eine nicht vorhandene Tabelle <path>
kann keine Überprüfung haben. Haben Sie Dateien im verzeichnis _delta_log manuell gelöscht?
DELTA_KLON_MEHRDEUTIGES_ZIEL
Es wurden zwei Pfade als CLONE
-Ziel bereitgestellt, sodass nicht eindeutig ist, welcher verwendet werden soll. Ein externer
Speicherort für CLONE
wurde bei <externalLocation>
gleichzeitig mit dem Pfad bereitgestellt
<targetIdentifier>
.
DELTA_KLON_UNKOMPATIBLE_QUELLE
Die Klonquelle verfügt über ein gültiges Format, hat aber ein nicht unterstütztes Feature mit Delta.
Weitere Informationen finden Sie unter DELTA_CLONE_INCOMPATIBLE_SOURCE.
DELTA_CLONE_UNVOLLSTÄNDIGE_DATEIKOPIE
Datei (<fileName>
) nicht vollständig kopiert. Erwartete Dateigröße: <expectedSize>
, gefunden: <actualSize>
. Wenn Sie den Vorgang fortsetzen möchten, indem Sie die Dateigrößenüberprüfung ignorieren, legen Sie <config>
auf "false" fest.
DELTA_KLON_UNTERSTÜTZUNGSLOSE_QUELLE
Nicht unterstützte <mode>
Klonquelle '<name>
', deren Format lautet <format>
.
Die unterstützten Formate sind "Delta", "Eisberg" und "Parkett".
DELTA_KLON_MIT_VERLAUF_UNTERSTÜTZTE_QUELLE_NICHT
Nicht unterstützte Quelltabelle:
Weitere Informationen finden Sie unter DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE.
DELTA_KLON_MIT_VERLAUF_NICHT_UNTERSTÜTZTES_ZIEL
Nicht unterstützte Zieltabelle:
Weitere Informationen finden Sie unter DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET.
DELTA_CLUSTERING_KLONTABELLE_NICHT_UNTERSTÜTZT
CLONE
wird für die Delta-Tabelle mit Liquid Clustering für DBR-Version < 14.0
nicht unterstützt.
DELTA_CLUSTERING_SPALTEN_DATENTYP_NICHT_UNTERSTÜTZT
CLUSTER BY
wird nicht unterstützt, da die folgenden Spalten: <columnsWithDataTypes>
das Überspringen von Daten nicht unterstützen.
DELTA_CLUSTERING_SPALTEN_ABWEICHUNG
Die bereitgestellten Clusteringspalten stimmen nicht mit denen der vorhandenen Tabelle überein.
Bereitgestellt:
<providedClusteringColumns>
Vorhanden:
<existingClusteringColumns>
Delta_Clustering_Spalte_Fehlende_Statistiken
Für flüssiges Clustering sind Clusterspalten erforderlich, um Statistiken zu erhalten. Die Clusterspalten "<columns>
" im Statistikschema konnten nicht gefunden werden:
<schema>
DELTA_CLUSTERING_ERSTELLE_EXTERNE_NICHTFLÜSSIGE_TABELLE_AUS_FLÜSSIGER_TABELLE
Das Erstellen einer externen Tabelle ohne Flüssigclustering aus einem Tabellenverzeichnis mit Flüssigclustering ist nicht zulässig; Pfad: <path>
.
DELTA_CLUSTERING_NICHT_UNTERSTÜTZT
"<operation>
" unterstützt keine Clustering.
DELTA_CLUSTERING_PHASE_OUT_FEHLGESCHLAGEN
<phaseOutType>
konnte für die Tabelle mit der <tableFeatureToAdd>
-Tabellenfunktion nicht abgeschlossen werden (Grund: <reason>
). Versuchen Sie es erneut mit dem Befehl OPTIMIZE
.
== Fehler ==
<error>
DELTA_CLUSTERING_TABELLE_DURCH_PARTITIONIERTE_TABELLE_ERSETZEN
REPLACE
Eine Delta-Tabelle mit Liquid Clustering in Kombination mit einer partitionierten Tabelle ist nicht zulässig.
DELTA_CLUSTERING_SHOW_CREATE_TABLE_OHNE_CLUSTERING_SPALTEN
SHOW CREATE TABLE
wird für die Delta-Tabelle mit Liquid Clustering ohne Clusteringspalten nicht unterstützt.
DELTA_CLUSTERING_AUF_PARTITIONIERTE_TABELLE_MIT_NICHT_LEEREN_CLUSTERING_SPALTEN
Der Übergang einer Delta-Tabelle mit liquidem Clustering zu einer partitionierten Tabelle ist für den Vorgang nicht zulässig: <operation>
, wenn die vorhandene Tabelle nicht leere Clusterspalten enthält.
Führen Sie ALTER TABLE CLUSTER BY
NONE aus, um zuerst die Clusteringspalten zu entfernen.
DELTA-CLUSTERING MIT DYNAMISCHEM PARTITIONSÜBERSCHREIBEN
Der Überschreibmodus für dynamische Partitionen ist für die Delta-Tabelle mit Liquid Clustering nicht zulässig.
DELTA_CLUSTERING_MIT_PARTITIONSPRÄDIKAT
OPTIMIZE
Der Befehl für die Delta-Tabelle mit Liquid Clustering unterstützt keine Partitions-Prädikate. Entfernen Sie bitte die Prädikate: <predicates>
.
DELTA-Clusterung mit Z-Order-Sortierung
OPTIMIZE
-Befehl für Delta-Tabelle mit Liquid-Clustering kann ZORDER BY
nicht angeben. Entfernen Sie ZORDER BY (<zOrderBy>
).
DELTA_CLUSTER_NACH_AUTO_MISMATCH
Der bereitgestellte clusterByAuto-Wert stimmt nicht mit der der vorhandenen Tabelle überein.
DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS (Delta-Cluster nach ungültiger Anzahl von Spalten)
CLUSTER BY
für Liquid-Clustering unterstützt bis zu <numColumnsLimit>
Clusteringspalten, aber die Tabelle enthält <actualNumColumns>
Clusteringspalten. Entfernen Sie die überzähligen Clusteringspalten.
Schemacluster des Delta nicht bereitgestellt
Es ist nicht zulässig, CLUSTER BY
anzugeben, wenn das Schema nicht definiert ist. Bitte definieren Sie das Schema für tabellen <tableName>
.
DELTA_CLUSTER_BY_WITH_BUCKETING
Clustering und Bucketing können nicht gleichzeitig angegeben werden. Entfernen Sie CLUSTERED BY INTO BUCKETS
/bucketBy, wenn Sie eine Delta-Tabelle mit Clustering erstellen möchten.
DELTA_GRUPPIERT_NACH_MIT_PARTITIONIERT_NACH
Clustering und Partitionierung können nicht beide angegeben werden. Entfernen Sie PARTITIONED BY
/ partitionBy / partitionedBy, wenn Sie eine Delta-Tabelle mit Clustering erstellen möchten.
DELTA_KOLLATIONEN_NICHT_UNTERSTÜTZT
Sortierungen werden im Delta Lake nicht unterstützt.
DELTA_SPALTE_DATENSATZÜBERSCHREIBUNG_NICHT_UNTERSTÜTZT_PARTITIONIERTE_SPALTE
Das Überspringen von Daten wird für die Partitionsspalte "<column>
" nicht unterstützt.
DELTA_SPALTE_DATENÜBERSPRINGEN_NICHT_UNTERSTÜTZT_TYP
Das Überspringen von Daten wird für spalte "<column>
" vom Typ <type>
nicht unterstützt.
DELTA_SPALTENZUORDNUNG_MAX_SPALTEN_ID_NICHT_FESTGELEGT
Die Eigenschaft für die maximale Spalten-ID (<prop>
) ist bei einer Tabelle mit aktivierter Spaltenzuordnung nicht festgelegt.
DELTA_COLUMN_MAPPING_MAX_SPALTEN_ID_NICHT_KORREKT_FESTGELEGT
Die Eigenschaft für die maximale Spalten-ID (<prop>
) für eine aktivierte Spaltenzuordnung ist <tableMax>
, die nicht kleiner als die maximale Spalten-ID für alle Felder (<fieldMax>
) sein kann.
DELTA_SPALTE_FEHLENDER_DATENTYP
Der Datentyp der Spalte <colName>
wurde nicht bereitgestellt.
DELTA_SPALTE_NICHT_GEFUNDEN
Die Spalte <columnName>
konnte nicht unter der Angabe [<columnList>
] gefunden werden.
DELTA_SPALTE_NICHT_IN_ZUSAMMENFÜHRUNG_GEFUNDEN
Die Spalte '<targetCol>
' der Zieltabelle konnte aus den INSERT
Spalten nicht gefunden werden: <colNames>
.
INSERT
Klausel muss den Wert für alle Spalten der Zieltabelle angeben.
DELTA_SPALTE_NICHT_IM_SCHEMA_GEFUNDEN
Spalte <columnName>
konnte nicht gefunden werden in:
<tableSchema>
DELTA_SPALTENPFAD_NICHT_EINGESETZT
Es wurde erwartet, dass <columnPath>
ein geschachtelter Datentyp sein sollte, aber <other>
wurde gefunden. Es wurde nach dem
Index von <column>
in einem geschachtelten Feld.
Schema:
<schema>
DELTA_SPALTEN_STRUKTUR_TYPEN_UNSTIMMIGKEIT
Strukturspalte <source>
kann nicht in ein <targetType>
-Feld <targetField>
in <targetTable>
eingefügt werden.
DELTA_COMMIT_INTERMEDIATE_REDIRECT_STATE
Der Commit einer Tabelle kann im Umleitungstabellenzustand „<state>
“ nicht bearbeitet werden.
DELTA-KOMPAKTIONSVALIDIERUNG FEHLGESCHLAGEN
Fehler bei der Überprüfung der Komprimierung des Pfads <compactedPath>
zu <newPath>
: Bitte geben Sie einen Fehlerbericht ein.
DELTA_KOMPLEXER_TYP_SPALTE_ENTHÄLT_NULL_TYP
Geschachtelter NullType in Spalte <columName>
vom Typ <dataType>
gefunden. Delta unterstützt das Schreiben von NullType in komplexen Typen nicht.
DELTA_PARALLELE_ANHÄNGEN
ConcurrentAppendException: Dateien wurden durch ein gleichzeitiges Update zu <partition>
hinzugefügt. <retryMsg> <conflictingCommit>
Weitere Informationen finden Sie unter <docLink>
.
DELTA_CONCURRENT_DELETE_DELETE
ConcurrentDeleteDeleteException: Diese Transaktion hat versucht, eine oder mehrere Dateien zu löschen, die durch ein gleichzeitiges Update gelöscht wurden (z. B. <file>
). Versuchen Sie es erneut.<conflictingCommit>
Weitere Informationen finden Sie unter <docLink>
.
Gleichzeitiges_Löschen_und_Lesen_von_DELTA
ConcurrentDeleteReadException: Diese Transaktion hat versucht, eine oder mehrere Dateien zu lesen, die durch eine gleichzeitige Aktualisierung gelöscht wurden (z. B. <file>
). Versuchen Sie es erneut.<conflictingCommit>
Weitere Informationen finden Sie unter <docLink>
.
DELTA_GLEICHZEITIGE_TRANSAKTION
ConcurrentTransactionException: Dieser Fehler tritt auf, wenn mehrere Streamingabfragen denselben Prüfpunkt verwenden, um in diese Tabelle zu schreiben. Haben Sie mehrere Instanzen derselben Streamingabfrage gleichzeitig ausgeführt?<conflictingCommit>
Weitere Informationen finden Sie unter <docLink>
.
DELTA_GLEICHZEITIG_SCHREIBEN
ConcurrentWriteException: Eine gleichzeitige Transaktion hat neue Daten geschrieben, weil die aktuelle Transaktion die Tabelle gelesen hat. Versuchen Sie es erneut.<conflictingCommit>
Weitere Informationen finden Sie unter <docLink>
.
DELTA_KONFLIKT_SET_SPALTE
Es besteht ein Konflikt zwischen diesen SET
-Spalten: <columnList>
.
DELTA_KONFIGURATION_ÜBERSCHREIBUNG_NICHT_UNTERSTÜTZT_IM_BEFEHL
Die Konfiguration "<command>
" kann während <configuration>
nicht durch den Befehl festgelegt werden. Entfernen Sie ihn aus der TBLPROPERTIES
-Klausel, und wiederholen Sie dann den Befehl erneut.
DELTA_CONF_ÜBERSCHREIBUNG_IN_SITZUNG_NICHT_UNTERSTÜTZT
Während <command>
kann die Konfiguration "<configuration>
" nicht über die SparkSession-Einstellungen festgelegt werden. Löschen Sie sie, indem Sie spark.conf.unset("<configuration>")
ausführen, und wiederholen Sie dann den Befehl.
DELTA_EINSCHRÄNKUNG_EXISTIERT_BEREITS
Die Einschränkung "<constraintName>
" ist bereits vorhanden. Löschen Sie zuerst die alte Einschränkung.
Alte Einschränkung:
<oldConstraint>
DELTA_CONSTRAINT_DATENTYPEN_UNSTIMMIGKEIT
Spalte <columnName>
weist den Datentyp <columnType>
auf und kann nicht auf den Datentyp <dataType>
geändert werden, da auf diese Spalte durch die folgenden Prüfeinschränkungen verwiesen wird:
<constraints>
DELTA_EINSCHRÄNKUNG_ABHÄNGIGE_SPALTENÄNDERUNG
Spalte <columnName>
kann nicht geändert werden, da auf diese Spalte durch die folgenden Einschränkungen verwiesen wird:
<constraints>
DELTA_EINSCHRÄNKUNG_EXISTIERT_NICHT
Die nicht vorhandene Einschränkung <constraintName>
kann nicht aus der Tabelle <tableName>
entfernt werden. Um einen Fehler zu vermeiden, geben Sie den Parameter IF EXISTS
an, oder legen Sie die SQL-Sitzungskonfiguration <config>
auf <confValue>
fest.
DELTA_CONVERSION_MERGE_ON_READ_NICHT_UNTERSTÜTZT
Die Konvertierung der beim Lesen zusammengeführten Tabelle <format>
wird nicht unterstützt: <path>
, <hint>
DELTA_KONVERTIERUNG_KEINE_PARTITION_GEFUNDEN
Es wurden keine Partitionsinformationen im Katalog für die Tabelle <tableName>
gefunden. Haben Sie "MSCK REPAIR TABLE
" auf Ihrer Tabelle ausgeführt, um Partitionen zu ermitteln?
DELTA_UMWANDLUNG_UNTERSTÜTZT_NICHT_SORTIERTE_PARTITIONSSPALTE
Parquet-Tabelle mit sortierter Partitionsspalte <colName>
kann nicht in Delta umgewandelt werden.
Delta-Konvertierung_nicht unterstützte Spaltenzuordnung
Die Konfiguration „<config>
“ kann nicht auf <mode>
festgelegt werden, wenn CONVERT
TO DELTA
verwendet wird.
DELTA_CONVERSION_NICHT_UNTERSTÜTZTER_SCHEMA_WECHSEL
Nicht unterstützte Schemaänderungen gefunden: <format>
, <path>
für Tabelle <hint>
DELTA_CONVERT_NON_PARQUET_TABLE
CONVERT
TO DELTA
unterstützt nur Parketttische, aber Sie versuchen, eine <sourceName>
Quelle zu konvertieren: <tableId>
.
DELTA_IN_DELTA-ZEILENVERFOLGUNG_UMWANDLUNG_OHNE_STATISTIKEN
Zeilenverfolgung kann nicht aktiviert werden, ohne Statistiken zu sammeln.
Wenn Sie die Zeilenverfolgung aktivieren möchten, gehen Sie wie folgt vor:
- Aktivieren der Statistiksammlung durch Ausführen des Befehls
SET <statisticsCollectionPropertyKey>
= wahr
- Führen Sie
CONVERT
TODELTA
ohne die Option "NOSTATISTICS
" aus.
Wenn Sie keine Statistiken sammeln möchten, deaktivieren Sie die Zeilenverfolgung:
- Deaktivieren Sie das Aktivieren des Tabellenfeatures standardmäßig, indem Sie den Befehl ausführen:
RESET <rowTrackingTableFeatureDefaultKey>
- Deaktivieren Sie die Tabelleneigenschaft standardmäßig, indem Sie Folgendes ausführen:
SET <rowTrackingDefaultPropertyKey>
= falsch
DELTA_KOPIE_IN_ZIEL_FORMAT
COPY INTO
Ziel muss eine Delta-Tabelle sein.
DELTA_ERSTELLE_EXTERNEN_TABELLE_OHNE_SCHEMA
Sie versuchen, eine externe Tabelle <tableName>
zu erstellen.
mit Delta aus <path>
zu erstellen, aber das Schema wird nicht angegeben, wenn der
Der Eingabepfad ist leer.
Weitere Informationen zu Delta finden Sie unter <docLink>
DELTA_CREATE_EXTERNAL_TABLE_OHNE_TXN_LOG
Sie versuchen, eine externe Tabelle <tableName>
mithilfe von Delta <path>
zu erstellen, aber es ist kein Transaktionsprotokoll unter <logPath>
vorhanden. Überprüfen Sie den Upstreamauftrag, um sicherzustellen, dass er mit format("delta") schreibt und dass der Pfad der Stamm der Tabelle ist.
Weitere Informationen zu Delta finden Sie unter <docLink>
DELTA_ERSTELLEN_TABELLEN_IDENTIFIKATOR_STANDORT_ABWEICHUNG
Das Erstellen einer pfadbasierten Delta-Tabelle mit einem anderen Speicherort wird nicht unterstützt. Bezeichner: <identifier>
, Speicherort: <location>
.
Delta-Tabelle erstellen: Fehlender Tabellenname oder Speicherort
Der Tabellenname oder -speicherort muss angegeben werden.
DELTA_ERSTELLEN_TABELLEN_SCHEMA_ABWEICHUNG
Das angegebene Schema stimmt nicht mit dem vorhandenen Schema bei <path>
überein.
== Angegeben ==
<specifiedSchema>
== Bestehendes ==
<existingSchema>
== Unterschiede ==
<schemaDifferences>
Wenn Sie das vorhandene Schema beibehalten möchten, können Sie es weglassen.
Schema aus dem "CREATE TABLE"-Befehl. Stellen Sie andernfalls sicher, dass
Das Schema passt.
DELTA_ERSTELLEN_TABELLE_SET_CLUSTERING_TABELLE_FEATURE_NICHT_ERLAUBT
Das <tableFeature>
-Tabellenfeature kann nicht mit TBLPROPERTIES
aktiviert werden. Verwenden Sie CREATE
ODER REPLACE TABLE CLUSTER BY
, um eine Delta-Tabelle mit Clustering zu erstellen.
DELTA_TABELLE_MIT_UNTERSCHIEDLICHER_CLUSTERBILDUNG_ERSTELLEN
Die angegebenen Clusterspalten stimmen nicht mit den vorhandenen Clusterspalten bei <path>
überein.
== Angegeben ==
<specifiedColumns>
== Bestehendes ==
<existingColumns>
DELTA_CREATE_TABELLE_MIT_UNTERSCHIEDLICHER_PARTITIONIERUNG
Die angegebene Partitionierung stimmt nicht mit der vorhandenen Partitionierung bei <path>
überein.
== Angegeben ==
<specifiedColumns>
== Bestehendes ==
<existingColumns>
DELTA_TABELLE_MIT_UNTERSCHIEDLICHEN_EIGENSCHAFTEN_ERSTELLEN
Die angegebenen Eigenschaften stimmen nicht mit den vorhandenen Eigenschaften bei <path>
überein.
== Angegeben ==
<specifiedProperties>
== Bestehendes ==
<existingProperties>
DELTA_ERSTELLEN_TABELLE_MIT_NICHT_LEEREM_STANDORT
Tabelle ('<tableId>
') kann nicht erstellt werden. Der zugeordnete Speicherort ('<tableLocation>
') ist nicht leer und auch keine Delta-Tabelle.
DELTA_DATA_CHANGE_FALSE
Tabellenmetadaten können nicht geändert werden, da die Option "dataChange" auf "false" festgelegt ist. Versuchter Vorgang: <op>
.
DELTA_DELETED_PARQUET_FILE_NOT_FOUND - Die gelöschte Parquet-Datei wurde nicht gefunden.
Datei <filePath>
, auf die im Transaktionsprotokoll verwiesen wird, wurde nicht gefunden. Diese Parquet-Datei kann nach der Datenaufbewahrungsrichtlinie von Delta gelöscht werden.
Standardmäßige Aufbewahrungsdauer für Delta-Daten: <logRetentionPeriod>
. Änderungszeit der Parquet-Datei: <modificationTime>
. Löschzeit der Parquet-Datei: <deletionTime>
. Gelöscht in Delta-Version: <deletionVersion>
.
DELTA_LOSCHVEKTOR_FEHLENDE_ANZAHL_SÄTZE
Es ist nicht zulässig, Dateien mit Löschvektoren zu übernehmen, denen die NumRecords-Statistik fehlt.
DELTA_DEAKTIVIEREN_QUELLEN_MATERIALISIERUNG_IN_ZUSAMMENFÜHRUNG_NICHT_ERLAUBT
Die Deaktivierung der Quellmaterialisierung in MERGE
durch das Festlegen von "spark.databricks.delta.merge.materializeSource" auf "none" ist nicht zulässig.
DELTA_DOMAIN_METADATA_NICHT_UNTERSTÜTZT
Erkannte DomainMetadata-Aktion(en) für Domänen <domainNames>
, aber „DomainMetadataTableFeature“ ist nicht aktiviert.
"DELTA_DROP_SPALTE_BEI_INDEX_WENIGER_ALS_NULL"
Index <columnIndex>
zum Löschen der Spalte ist kleiner als 0.
DELTA_SPALTE_BEI_EINZELFELDSCHEMA_ENTFERNEN
Es kann keine Spalte aus einem Schema mit nur einer Spalte entfernt werden. Schema:
<schema>
Delta-Duplikataktionen gefunden
Der Dateivorgang '<actionType>
' für den Pfad <path>
wurde mehrmals angegeben.
Dies steht in Konflikt mit <conflictingPath>
.
Es ist nicht gültig für mehrere Dateivorgänge mit demselben Pfad, der in einem einzigen Commit vorhanden ist.
DELTA_DUPLIKATSPALTEN_GEFUNDEN
Doppelte Spalten <coltype>
gefunden: <duplicateCols>
.
DELTA_DUPLICATE_COLUMNS_BEIM_EINFÜGEN
Doppelte Spaltennamen in INSERT
Klausel.
DELTA_DUPLIKATE_SPALTEN_BEI_TABLE_UPDATE
<message>
Entfernen Sie doppelte Spalten, bevor Sie Die Tabelle aktualisieren.
DELTA_DUPLIZIERTE_DATEN_SPALTEN_ÜBERSPRINGEN
Doppelte Spalten für das Überspringen von Daten gefunden: <columns>
.
DELTA_DUPLIKAT_DOMAIN_METADATA_INTERNE_FEHLER
Interner Fehler: Zwei DomainMetadata-Aktionen innerhalb derselben Transaktion haben dieselbe Domäne <domainName>
.
DELTA_DV_HISTOGRAM_DESERIALIZATION
Das Histogramm für die Anzahl gelöschter Datensätze konnte während der Überprüfung der Tabellenintegrität nicht deserialisiert werden.
DEAKTIVIEREN_DELTA_DYNAMISCHE_PARTITIONSÜBERSCHREIBUNG
Der Modus für dynamische Partitionsüberschreibvorgänge wird durch Sitzungskonfigurations- oder Schreiboptionen angegeben, ist jedoch durch spark.databricks.delta.dynamicPartitionOverwrite.enabled=false
deaktiviert.
DELTA_LEERE_DATEN
Daten, die beim Erstellen der Delta-Tabelle verwendet werden, weisen keine Spalten auf.
DELTA_LEERES_VERZEICHNIS
Keine Datei im Verzeichnis gefunden: <directory>
.
DELTA_CHARAKTER_VARCHAR_LIMIT_ÜBERSCHREITEN
Der Wert "<value>
" überschreitet die Einschränkung der Zeichen-/Varchar-Typlänge. Fehlerhafte Prüfung: <expr>
.
DELTA_FEHLGESCHLAGEN_CAST_PARTITIONIERUNGSWERT
Fehler beim Umwandeln des Partitionswerts <value>
in <dataType>
.
DELTA_FEHLER_BEI_ATTRIBUTSUCHE_IN_AUSGABESPALTEN
Konnte <newAttributeName>
nicht unter der vorhandenen Zielausgabe <targetOutputColumns>
gefunden werden.
Schema-Inferenz von Delta fehlgeschlagen
Fehler beim Ableiten des Schemas aus der angegebenen Liste von Dateien.
DELTA_MERGE_SCHEMA_DATEI_FEHLGESCHLAGEN
Fehler beim Zusammenführen des Dateischemas <file>
:
<schema>
DELTA_FAILED_OPERATION_ON_SHALLOW_CLONE (Operation fehlgeschlagen bei flacher Kopie)
Fehler beim Ausführen des Vorgangs in der Quelltabelle <sourceTable>
, da der flache Klon noch vorhanden ist und der folgende Fehler im flachen Klon <targetTable>
aufgetreten ist: <message>
DELTA_DATEI_FUSSZEILE_KONNTE_NICHT_LESEN
Die Fußzeile für die Datei konnte nicht gelesen werden: <currentFile>
.
DELTA_KONNTE_PRÄDIKAT_NICHT_ERKENNEN
Das Prädikat '<predicate>
' kann nicht erkannt werden.
DELTA_FEHLGESCHLAGEN_SCAN_MIT_HISTORISCHER_VERSION
Es wird ein vollständiger Scan der neuesten Version der Delta-Quelle erwartet, stattdessen wurde ein historischer Scan der Version <historicalVersion>
gefunden.
DELTA_FEHLER_BEIM_ZUSAMMENFÜHREN_VON_FELDERN
Fehler beim Zusammenführen von Feldern '<currentField>
' und '<updateField>
'.
PROTOKOLL METADATEN ABGLEICH DER DELTA-FUNKTIONEN
Diese Tabelle kann nicht ausgeführt werden, da die folgenden Tabellenfeatures in Metadaten aktiviert sind, aber nicht im Protokoll aufgeführt sind: <features>
.
Delta-Funktionen erfordern manuelle Aktivierung
Ihr Tabellenschema erfordert eine manuelle Aktivierung der folgenden Tabellenfeatures: <unsupportedFeatures>
.
Führen Sie dazu den folgenden Befehl für jede der oben aufgeführten Features aus:
ALTER TABLE
SET TBLPROPERTIES
table_name ('delta.feature.feature_name' = 'supported')
Ersetzen Sie "table_name" und "feature_name" durch reale Werte.
Aktuell unterstützte(s) Feature(s): <supportedFeatures>
.
DELTA_FEATURE_KANN_NUR_CHECKPOINT_SCHUTZ_MIT_VERLAUFSKÜRZUNG_ABGELEGT_WERDEN
Die Funktion "Prüfpunktschutz" konnte nicht entfernt werden.
Dieses Feature kann nur durch Abschneiden des Verlaufs getrennt werden.
Versuchen Sie es bitte erneut mit der Option TRUNCATE HISTORY
:
ALTER TABLE
DROP FEATURE
table_name checkpointProtectionTRUNCATE HISTORY
DELTA_FEATURE_FALLBACK_PRÜFPUNKT_FEHLGESCHLAGEN
Fehler beim Ablegen <featureName>
aufgrund eines Fehlers bei der Erstellung des Prüfpunkts.
Versuchen Sie es später erneut. Wenn das Problem weiterhin besteht, wenden Sie sich an den Databricks-Support.
DELTA_FEATURE_DROP_CHECKPOINT_SCHUTZWARTEZEIT_FÜR_AUFBEWAHRUNGSFRIST
Der Vorgang war nicht erfolgreich, da immer noch Spuren von verworfenen Features vorhanden sind.
im Tabellenverlauf. CheckpointProtection kann nicht gelöscht werden, solange diese historischen Daten vorhanden sind.
Versionen abgelaufen sind.
Um die CheckpointProtection zu entfernen, warten Sie, bis die historischen Versionen
ablaufen, und wiederholen Sie dann diesen Befehl. Der Aufbewahrungszeitraum für historische Versionen ist
zurzeit für <truncateHistoryLogRetentionPeriod>
konfiguriert.
DELTA_FEATURE_DROP_KONFLIKT_NEUVALIDIERUNG_FEHLGESCHLAGEN
Die Funktion kann nicht gelöscht werden, weil eine gleichzeitige Transaktion die Tabelle geändert hat.
Versuchen Sie es erneut.
<concurrentCommit>
DELTA_FEATURE_ABHÄNGIGE_FEATURE_VERLUST
Die Tabellenfunktion <feature>
kann nicht entfernt werden, da einige andere Features (<dependentFeatures>
) in dieser Tabelle von <feature>
abhängen.
Erwägen Sie, sie zuerst zu löschen, bevor Sie dieses Feature ablegen.
DELTA_FEATURE_DROP_FEATURE_NICHT_VORHANDEN
Element <feature>
kann nicht aus dieser Tabelle entfernt werden, da es momentan nicht im Protokoll der Tabelle vorhanden ist.
DELTA_FEATURE_ALTE_VERSIONEN_ENTFERNEN_EXISTIEREN
<feature>
kann nicht gelöscht werden, da das Delta-Protokoll historische Versionen enthält, die das Feature verwenden.
Warten Sie, bis der Aufbewahrungszeitraum für den Verlauf (<logRetentionPeriodKey>=<logRetentionPeriod>
)
wurde übergeben, da das Feature zuletzt aktiv war.
Alternativ warten Sie, bis der TRUNCATE HISTORY
Aufbewahrungszeitraum abläuft (<truncateHistoryLogRetentionPeriod>
)
und führen daraufhin Folgendes aus:
ALTER TABLE
Tabellenname DROP FEATURE
Funktionsname TRUNCATE HISTORY
DELTA-FEATURE VERWERFEN VON HISTORIE TRUNKIERUNG NICHT ERLAUBT
Für das bestimmte Feature ist keine Verlaufskürzung erforderlich.
DELTA_FUNKTION_ENTFERNE_NICHTENTFERNBARE_FUNKTION
<feature>
kann nicht gelöscht werden, da das Ablegen dieses Features nicht unterstützt wird.
Wenden Sie sich bitte an den Databricks-Support.
DELTA_FUNKTION_ENTFERNUNG_NICHT_UNTERSTÜTZTE_CLIENT_FUNKTION
<feature>
kann nicht entfernt werden, da sie von dieser Databricks-Version nicht unterstützt wird.
Erwägen Sie die Verwendung von Databricks mit einer höheren Version.
DELTA_FEATURE_ENTFERNUNG_WARTEN_AUF_AUFBEWAHRUNGSZEITRAUM
Das Löschen von <feature>
war teilweise erfolgreich.
Das Feature wird jetzt nicht mehr in der aktuellen Version der Tabelle verwendet. Das Feature ist allerdings
in historischen Versionen der Tabelle noch vorhanden. Das Tabellenfeature kann nicht gelöscht werden.
aus dem Tabellenprotokoll gelöscht werden, nachdem diese Verlaufsversionen abgelaufen sind.
Um die Tabellenfunktion aus dem Protokoll zu löschen, warten Sie bitte, bis die historischen Versionen verfügbar sind.
ablaufen, und wiederholen Sie dann diesen Befehl. Der Aufbewahrungszeitraum für historische Versionen ist
zurzeit als <logRetentionPeriodKey>=<logRetentionPeriod>
konfiguriert.
Alternativ warten Sie, bis der TRUNCATE HISTORY
Aufbewahrungszeitraum abläuft (<truncateHistoryLogRetentionPeriod>
)
und führen daraufhin Folgendes aus:
ALTER TABLE
Tabellenname DROP FEATURE
Funktionsname TRUNCATE HISTORY
DELTA_FUNKTION_ERFORDERT_EINE_HÖHERE_LESERVERSION
Das Tabellenfeature <feature>
kann nicht aktiviert werden, da es eine höhere Leseprotokollversion (aktuelle <current>
) erfordert. Erwägen Sie das Upgrade der Leseprotokollversion der Tabelle auf <required>
oder auf eine Version, die Lesetabellenfeatures unterstützt. Weitere Informationen zu Tabellenprotokollversionen finden Sie unter <docLink>
.
DELTA-FUNKTION ERFORDERT HÖHERE SCHREIBER-VERSION
Das Tabellenfeature <feature>
kann nicht aktiviert werden, da es eine höhere Writer-Protokollversion (aktuelle <current>
) erfordert. Erwägen Sie das Upgrade der Writer-Protokollversion der Tabelle auf <required>
oder auf eine Version, die Writer-Tabellenfeatures unterstützt. Weitere Informationen zu Tabellenprotokollversionen finden Sie unter <docLink>
.
DELTA-DATEI_EXISTIERT_BEREITS
Vorhandener Dateipfad <path>
.
KONFLIKT_ZWISCHEN_DATEILISTE_UND_MUSTERSAITE
Es können nicht sowohl eine Dateiliste als auch eine Musterzeichenfolge angegeben werden.
DELTA_DATEI_NICHT_GEFUNDEN
Dateipfad <path>
.
DELTA_DATEI_NICHT_GEFUNDEN_DETAILS
Datei <filePath>
, auf die im Transaktionsprotokoll verwiesen wird, wurde nicht gefunden. Dies geschieht, wenn Daten manuell aus dem Dateisystem gelöscht wurden, anstatt die Tabelle DELETE
Anweisung zu verwenden. Weitere Informationen finden Sie unter <faqPath>
DELTA_DATEI_ODER_VERZEICHNIS_NICHT_GEFUNDEN
Keine solche Datei oder ein solches Verzeichnis: <path>
.
DELTA_DATEI_ZUM_ÜBERSCHREIBEN_NICHT_GEFUNDEN
Die Datei (<path>
) zum Umschreiben wurde nicht unter den Kandidatendateien gefunden.
<pathList>
DELTA_GEFUNDEN_KARTENTYP_SPALTE
Es wurde ein MapType gefunden. Um auf den Schlüssel oder Wert eines MapType-Typs zuzugreifen, geben Sie einen an.
eine der folgenden Möglichkeiten an:
<key>
oder
<value>
gefolgt vom Namen der Spalte (nur wenn diese Spalte ein Strukturtyp ist).
Beispiel: mymap.key.mykey
Wenn es sich bei der Spalte um einen einfachen Typ handelt, ist mymap.key oder mymap.value ausreichend.
Schema:
<schema>
DELTA_GENERIERTE_SPALTEN_DATENTYP_UNSTIMMIGKEIT
Spalte <columnName>
weist den Datentyp <columnType>
auf und kann nicht auf den Datentyp <dataType>
geändert werden, da auf diese Spalte durch die folgenden generierten Spalten verwiesen wird:
<generatedColumns>
.
DELTA_GENERIERTE_SPALTEN_ABHÄNGIGE_SPALTENÄNDERUNG
Spalten-<columnName>
kann nicht geändert werden, da auf diese Spalte durch die folgenden generierten Spalten verwiesen wird:
<generatedColumns>
.
DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH (Fehler: Ausdruckstyp stimmt nicht überein)
Der Ausdruckstyp der generierten Spalte <columnName>
lautet <expressionType>
, jedoch ist der Spaltentyp <columnType>
.
DELTA_GENERIERTE_SPALTE_AKTUALISIERUNG_TYPENMISSVERHÄLTNIS
Spalte <currentName>
ist eine generierte Spalte oder eine Spalte, die von einer generierten Spalte verwendet wird. Der Datentyp ist <currentDataType>
und kann nicht in den Datentyp <updateDataType>
konvertiert werden.
DELTA_GEOSPATIAL_NICHT_UNTERSTÜTZT
Geospatialtypen werden in dieser Version von Delta Lake nicht unterstützt.
DELTA_GEOSPATIAL_SRID_NICHT_UNTERSTÜTZT
Der räumliche Typ weist eine nicht unterstützte Raumbezugskennung auf: <srid>
. Delta-Tabellen unterstützen nur nicht negative srid-Werte.
DELTA_ICEBERG_COMPAT_VIOLATION (Delta Eisberg Kompatibilitätsverletzung)
Die Validierung von IcebergCompatV<version>
ist fehlgeschlagen.
Weitere Details finden Sie unter DELTA_ICEBERG_COMPAT_VIOLATION.
DELTA_ICEBERG_WRITER_KOMPATIBILITÄTSVERLETZUNG
Die Überprüfung von IcebergWriterCompatV<version>
ist fehlgeschlagen.
Weitere Informationen finden Sie unter DELTA_ICEBERG_WRITER_COMPAT_VIOLATION.
ÄNDERUNG_DELTA_IDENTITY_SPALTEN_NICHT_UNTERSTÜTZT
ALTER TABLE ALTER COLUMN
wird für IDENTITY
-Spalten nicht unterstützt.
DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT
ALTER TABLE ALTER COLUMN SYNC IDENTITY
wird nur von Delta unterstützt.
DELTA_IDENTITÄTSSPALTEN_ÄNDERN_NICHT-IDENTITÄTSSPALTE
ALTER TABLE ALTER COLUMN SYNC IDENTITY
kann nicht für Nicht-IDENTITY
-Spalten aufgerufen werden.
DELTA_IDENTITY_COLUMNS explizite Einfügungen nicht unterstützt
Das Bereitstellen von Werten für GENERATED ALWAYS
AS IDENTITY
in Spalte <colName>
wird nicht unterstützt.
DELTA_IDENTITÄTSSPALTEN_UNZULÄSSIGER_SCHRITT
IDENTITY
Spaltenschritt darf nicht 0 sein.
DELTA_IDENTITÄTSSPALTEN_NICHT_DELTA_FORMAT
IDENTITY
Spalten werden nur von Delta unterstützt.
DELTA_IDENTITÄTSSPALTEN_PARTITION_NICHT_UNTERSTÜTZT
PARTITIONED BY IDENTITY
Spalte <colName>
wird nicht unterstützt.
If we decide to provide an explanation and it’s appropriate for the context: „Ersetzen von Delta-Identitätsspalten wird nicht unterstützt“
ALTER TABLE REPLACE COLUMNS
wird für eine Tabelle mit IDENTITY
-Spalten nicht unterstützt.
DELTA_IDENTITY_SPALTEN_NICHT_UNTERSTÜTZTER_DATENTYP
DataType-<dataType>
wird für IDENTITY
Spalten nicht unterstützt.
DELTA_IDENTITY_COLUMNS_AKTUALISIERUNG_NICHT_UNTERSTÜTZT
UPDATE
für IDENTITY
-Spalte <colName>
wird nicht unterstützt.
DELTA_Identitätsspalten_mit_generiertem_Ausdruck
IDENTITY
Spalte kann nicht mit einem generierten Spaltenausdruck angegeben werden.
DELTA_UNZULÄSSIGE_OPTION
Ungültiger Wert '<input>
' für Option '<name>
', <explain>
DELTA_UNERLAUBTE_NUTZUNG
Die Verwendung von <option>
ist nicht zulässig, wenn für eine Delta-Tabelle <operation>
ausgeführt wird.
DELTA_INKONSISTENTER_EIMER_SPEZIFIKATION
BucketSpec in der zusammengefassten Delta-Tabelle stimmt nicht mit BucketSpec aus Metadaten überein. Erwartet: <expected>
. Aktuell: <actual>
.
DELTA_UNSTIMMIGE_PROTOKOLLSPEICHER_KONFS
(<setKeys>
) kann nicht auf unterschiedliche Werte festgelegt werden. Legen Sie nur einen davon fest, oder legen Sie sie auf denselben Wert fest.
DELTA_FEHLZUGRIFF_AUF_ARRAY
Falscher Zugriff auf einen ArrayType. Verwenden Sie die Position „arrayname.element.elementname“ für das
zu einem Array hinzufügen.
DELTA_UNKORREKTER_ARRAY_ZUGRIFF_NACH_NAME
Ein ArrayType wurde gefunden. Um auf Elemente eines ArrayTyps zuzugreifen, geben Sie Folgendes an.
<rightName>
anstelle von <wrongName>
.
Schema:
<schema>
DELTA_FEHLERHAFT_BEZIEHEN_KONF
Verwenden Sie getConf()
anstelle von conf.getConf()
.
DELTA_FEHLERHAFTE_LOG_SPEICHER_IMPLEMENTIERUNG
Dieser Fehler tritt in der Regel auf, wenn die LogStore-Standardimplementierung,
HDFSLogStore, verwendet wird, um in eine Delta-Tabelle in einem Nicht-HDFS-Speichersystem zu schreiben.
Um die transaktionsrelevanten ACID-Garantien für Tabellenupdates zu erhalten, müssen Sie die
korrekte Implementierung von LogStore, die für Ihr Speichersystem geeignet ist.
Weitere Informationen finden Sie unter <docLink>
.
DELTA_INDEX_GRÖSSER_ODER_GLEICH_WIE_STRUCT
Index <index>
zum Ablegen der Spalte, die gleich oder größer als die Strukturlänge ist: <length>
.
DELTA_INDEX_GRÖßER_ALS_STRUKTUR
Index <index>
zum Hinzufügen einer Spalte <columnName>
ist größer als die Strukturlänge: <length>
.
DELTA_INSERT_COLUMN_ARITY_MISMATCH
Es kann nicht in '<tableName>
' geschrieben werden; die Zieltabelle hat <columnName>
Spalten, und <numColumns>
aber die eingefügten Daten haben <insertColumns>
Spalten.
DELTA_INSERT_SPALTENABSTIMMUNG_FEHLER
Spalte <columnName>
ist in INSERT
nicht angegeben.
DELTA_UNGÜLTIGER_AUTOMATISCHER_COMPACT_TYP
Ungültiger automatisch komprimierter Typ: <value>
. Zulässige Werte sind: <allowed>
.
DELTA_INVALID_BUCKET_COUNT (Ungültige Anzahl von Eimern)
Ungültige Bucketanzahl: <invalidBucketCount>
. Die Bucketanzahl sollte eine positive Zahl, eine Potenz von 2 und mindestens 8 sein. Sie können stattdessen <validBucketCount>
verwenden.
DELTA_INVALID_BUCKET_INDEX
Die Bucket-Spalte in den Partitionsspalten wurde nicht gefunden.
DELTA_UNGÜLTIGER_KALENDERINTERVALL_LEER
Das Intervall darf nicht null oder leer sein.
DELTA_INVALID_CDC_RANGE
Der CDC-Bereich von Anfang <start>
bis Ende <end>
war ungültig. Das Ende kann nicht vor dem Start erfolgen.
DELTA_UNGÜLTIGE_ZEICHEN_IM_SPALTENNAMEN
Der Attributname "<columnName>
" enthält ungültige Zeichen zwischen " ,;{}()\\n\\t="
. Verwenden Sie zum Umbenennen einen Alias.
DELTA_UNGÜLTIGE_ZEICHEN_IN_SPALTENNAMEN
Es wurden ungültige Zeichen zwischen ' ,;{}()\n\t='
in den Spaltennamen Ihres Schemas gefunden.
Ungültige Spaltennamen: <invalidColumnNames>
.
Bitte verwenden Sie andere Zeichen, und versuchen Sie es erneut.
Alternativ können Sie die Spaltenzuordnung aktivieren, um diese Zeichen weiterhin zu verwenden.
DELTA_UNGÜLTIGER_KLONPFAD
Der Zielspeicherort für CLONE
muss ein absoluter Pfad oder ein Tabellenname sein. Verwenden Sie einen
absoluten Pfad anstelle von <path>
.
DELTA_UNGÜLTIGE_SPALTENNAMEN_BEIM_ENTFERNEN_DER_SPALTENZUORDNUNG
Es wurden ungültige Zeichen zwischen ' ,;{}()\n\t='
in den Spaltennamen Ihres Schemas gefunden.
Ungültige Spaltennamen: <invalidColumnNames>
.
Die Spaltenzuordnung kann nicht entfernt werden, wenn in den Spaltennamen ungültige Zeichen vorhanden sind.
Benennen Sie die Spalten um, um die ungültigen Zeichen zu entfernen, und führen Sie diesen Befehl erneut aus.
DELTA_UNGÜLTIGES_FORMAT
Inkompatibles Format erkannt.
Ein Transaktionsprotokoll für Delta wurde gefunden unter <deltaRootPath>/_delta_log
,
aber Sie versuchen <operation> <path>
mithilfe von format("<format>
"). Sie müssen
'format("delta")' beim Lesen und Schreiben in eine Delta-Tabelle verwenden.
Weitere Informationen zu Delta finden Sie unter <docLink>
DELTA_UNGÜLTIGE_GENERIERTE_SPALTENREFERENZEN
Eine generierte Spalte kann keine nicht vorhandene Spalte oder eine andere generierte Spalte verwenden.
DELTA_UNGÜLTIGE_IDEMPOTENTE_SCHREIBOPTIONEN
Ungültige Optionen für idempotente Dataframe-Schreibvorgänge: <reason>
DELTA_UNGÜLTIGES_INTERVALL
<interval>
ist keine gültige INTERVAL
.
DELTA_UNGÜLTIGES_LAGERBESTANDSSCHEMA
Das Schema für die angegebene INVENTORY
enthält nicht alle erforderlichen Felder. Erforderliche Felder sind: <expectedSchema>
DELTA_UNGÜLTIGES_ISOLIERUNGSNIVEAU
ungültige Isolationsstufe '<isolationLevel>
'.
DELTA_UNGÜLTIGE_LOGSTORE_KONFIGURATION
(<classConfig>
) und (<schemeConfig>
) können nicht gleichzeitig festgelegt werden. Bitte legen Sie nur eine Gruppe davon fest.
DELTA_UNGÜLTIGE_VERWALTETE_TABELLENSYNTAX_KEIN_SCHEMA
Sie versuchen, eine verwaltete Tabelle <tableName>
mit Delta zu erstellen, aber das Schema wurde nicht angegeben.
Weitere Informationen zu Delta finden Sie unter <docLink>
DELTA_UNGÜLTIGE_PARTITIONS_SPALTE
<columnName>
ist keine gültige Partitionsspalte in tabelle <tableName>
.
DELTA_UNGÜLTIGER_PARTITIONS_SPALTENNAME
Partitionsspalten mit ungültigen Zeichen zwischen " ,;{}()\n\t="
gefunden. Ändern Sie den Namen in Ihre Partitionsspalten. Diese Überprüfung kann deaktiviert werden, indem spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false) festgelegt wird, dies wird jedoch nicht empfohlen, da andere Features von Delta möglicherweise nicht ordnungsgemäß funktionieren.
DELTA_UNGÜLTIGER_PARTITIONSSPALTE_TYP
Die Verwendung von Spalte <name>
vom Typ <dataType>
als Partitionsspalte wird nicht unterstützt.
UNGÜLTIGER_PARTITIONS_PFAD_DELTA
Ein Partitionspfadfragment sollte das Format wie part1=foo/part2=bar
sein. Der Partitionspfad: <path>
.
DELTA_UNGÜLTIGER_PROTOKOLL_DOWNGRADE
Die Protokollversion kann nicht von (<oldProtocol>
) auf (<newProtocol>
) herabgestuft werden.
DELTA_UNGÜLTIGE_PROTOCOLLVERSION
Nicht unterstützte Delta-Protokollversion: Tabelle "<tableNameOrPath>
" erfordert Leseversion <readerRequired>
und Writer-Version <writerRequired>
, aber diese Version von Databricks unterstützt Leseversionen und Writer-Versionen <supportedReaders>
<supportedWriters>
. Aktualisieren Sie bitte auf eine neuere Version.
DELTA_INVALID_TABLE_VALUE_FUNCTION
Die Funktion <function>
ist eine nicht unterstützte Tabellenwertfunktion für CDC-Lesevorgänge.
ungültiges Zeitstempel-Format
Der angegebene Zeitstempel <timestamp>
stimmt nicht mit der erwarteten Syntax <format>
überein.
DELTA_PROTOKOLL_EXISTIERT_BEREITS
Ein Delta-Protokoll ist bereits vorhanden bei <path>
.
DELTA_LOG_DATEI_FÜR_STREAMING_QUELLE_NICHT_GEFUNDEN
Wenn Sie sie nie gelöscht haben, liegt ihre Abfrage wahrscheinlich hinterher. Löschen Sie den Prüfpunkt, um von Grund auf neu zu starten. Um dies zukünftig zu vermeiden, können Sie Ihre Aufbewahrungsrichtlinie Ihrer Delta-Tabelle aktualisieren.
FEHLER_DELTA_MATERIALISIERTE_ZEILE_TRACKING_SPALTENNAME_FEHLT
Materialisierter Spaltenname für <rowTrackingColumn>
fehlt für <tableName>
.
DELTA_MAX_ARRAY_SIZE_EXCEEDED (DELTA_MAX_ARRAY_GRÖSSENLIMIT ÜBERSCHRITTEN)
Bitte verwenden Sie einen Grenzwert kleiner als Int.MaxValue - 8.
DELTA_MAX_COMMIT_RETRIES_EXCEEDED (Maximale Anzahl an Bestätigungsversuchen überschritten)
Dieser Commit ist fehlgeschlagen, da es <numAttempts>
Mal versucht wurde, aber nicht erfolgreich war.
Dies kann dadurch verursacht werden, dass für die Delta-Tabelle kontinuierlich viele gleichzeitige
Commits ausgeführt werden.
Commit gestartet bei Version <startVersion>
Commit mit Fehler abgebrochen bei Version <failVersion>
Anzahl der Aktionen, die einen Commit versucht haben: <numActions>
Gesamtzeit für den Versuch dieses Commits: <timeSpent>
ms
MAXIMALE ANZAHL DER DATEILISTEN ÜBERSCHRITTEN
Die Dateiliste darf höchstens <maxFileListSize>
Einträge haben, hatte aber <numFiles>
.
DELTA_MERGE_ADD_VOID_COLUMN
Es kann keine Spalte <newColumn>
mit dem Typ VOID hinzugefügt werden. Bitte geben Sie explizit einen anderen als den void-Typ an.
DELTA_MERGE_NICHT_KOMPATIBLER_DATENTYP
Fehler beim Zusammenführen inkompatibler Datentypen <currentDataType>
und <updateDataType>
.
DELTA_MERGE_UNKOMPATIBLE_DEZIMALART
Fehler beim Zusammenführen von Dezimaltypen mit inkompatiblen <decimalRanges>
.
DELTA_MERGE_MATERIALISIERUNG_DER_QUELLE_WIEDERHOLT_FEHLGESCHLAGEN
Die Quelle der MERGE
-Anweisung materialisiert beizubehalten ist wiederholt fehlgeschlagen.
DELTA_MERGE_FEHLT_WENN
Es muss mindestens eine WHEN
-Klausel in einer MERGE
-Anweisung vorhanden sein.
DELTA_MERGE_BEREINIGTES_ATTRIBUT_FEHLT_VOM_EINGANG
Die aufgelösten Attribute <missingAttributes>
fehlen im Operator <input>
<merge>
.
DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY (unerwarteter Zuordnungsschlüssel)
Unerwarteter Zuordnungsschlüssel: <unexpectedKeyClass>
- <unexpectedKeyObject>
.
DELTA_MERGE_UNRESOLVED_EXPRESSION
"<sqlExpr>
kann in <clause>
mit den angegebenen Spalten <cols>
nicht aufgelöst werden."
DELTA_META_DATEN_GEAENDERT
MetadataChangedException: Die Metadaten der Delta-Tabelle wurden durch ein gleichzeitiges Update geändert. Versuchen Sie es erneut.<conflictingCommit>
Weitere Informationen finden Sie unter <docLink>
.
Delta_Fehlende_Änderungsdaten
Fehler beim Abrufen von Änderungsdaten für den Bereich [<startVersion>
, <endVersion>
], da Änderungsdaten nicht verfügbar waren.
für Version [<version>
] nicht aufgezeichnet wurden. Wenn Sie den Änderungsdaten-Feed für diese Tabelle aktiviert haben,
verwenden Sie DESCRIBE HISTORY
, um zu sehen, wann sie zum ersten Mal aktiviert wurde.
Verwenden Sie andernfalls ALTER TABLE table_name SET TBLPROPERTIES
, um die Aufzeichnung der Änderungsdaten zu starten.
(<key>
=true)'.
DELTA_FEHLENDE_SPALTE
<columnName>
konnte nicht in den Tabellenspalten gefunden werden: <columnList>
.
DELTA_FEHLENDE_COMMIT_INFOS
Diese Tabelle verfügt über das Feature <featureName>
aktiviert, das das Vorhandensein der CommitInfo-Aktion in jedem Commit erfordert. Die CommitInfo-Aktion fehlt jedoch in der Commit-Version <version>
.
DELTA_FEHLENDE_COMMIT_ZEITSTEMPEL
Diese Tabelle verfügt über das Feature <featureName>
aktiviert, das das Vorhandensein von commitTimestamp in der CommitInfo-Aktion erfordert. Dieses Feld wurde jedoch nicht in commit-Version <version>
festgelegt.
DELTA_FEHLENDE_DELTA_TABELLE
<tableName>
ist keine Delta-Tabelle.
DELTA_FEHLENDE_DELTA_TABELLE_COPY_INTO
Tabelle ist nicht vorhanden. Erstellen Sie zuerst eine leere Delta-Tabelle mit CREATE TABLE <tableName>
.
DELTA_FEHLENDE_EISBERG_KLASSE
Die Iceberg-Klasse wurde nicht gefunden. Bitte stellen Sie sicher, dass die Delta Iceberg-Unterstützung installiert ist.
Weitere Informationen finden Sie unter <docLink>
.
WERT_FÜR_NICHT_NULL_FELD_FEHLT_DELTA
Spalte <columnName>
, die eine NOT NULL
Einschränkung aufweist, fehlt in den Daten, die in die Tabelle geschrieben werden.
DELTA_FEHLENDE_PARTITIONSSPALTE
Partitionsspalte <columnName>
in Schema-<columnList>
nicht gefunden.
DELTA_FEHLENDE_TEIL_DATEIEN
Alle Teildateien der Prüfpunktversion konnten nicht gefunden werden: <version>
.
DELTA_FEHLENDER_ANBIETER_FÜR_UMWANDLUNG
CONVERT
TO DELTA
unterstützt nur Parquet-Tabellen. Schreiben Sie Ihr Ziel als „parquet.
<path>
“ um, wenn es sich um ein Parquet-Verzeichnis handelt.
DELTA_MISSING_SET_COLUMN
SET
-Spalte <columnName>
wurde in den angegebenen Spalten nicht gefunden: <columnList>
.
DELTA_FEHLENDES_TRANSAKTIONS_PROTOKOLL
Inkompatibles Format erkannt.
Sie versuchen die Ausführung von <operation> <path>
mit Delta, aber es ist kein
Transaktionsprotokoll vorhanden. Überprüfen Sie den Upstreamauftrag, um sicherzustellen, dass er
format("delta") verwendet und dass Sie versuchen, „%1$s“ auf den Basispfad der Tabelle anzuwenden.
Weitere Informationen zu Delta finden Sie unter <docLink>
DELTA_MODUS_NICHT_UNTERSTÜTZT
Der angegebene Modus "<mode>
" wird nicht unterstützt. Unterstützte Modi sind: <supportedModes>
.
DELTA_MULTIPLE_CDC_BEGRENZUNG
Mehrere <startingOrEnding>
-Argumente für CDC-Lesevorgang bereitgestellt. Bitte geben Sie entweder einen <startingOrEnding>
Zeitstempel oder eine <startingOrEnding>
Version an.
DELTA_MEHRFACHE_KONFIGURATION_FÜR_EINE_SPALTE_IM_BLOOM_FILTER
Mehrere Bloom-Filter-Indexkonfigurationen wurden an den Befehl für die Spalte übergeben: <columnName>
.
DELTA_MEHRFACHE_QUELLZEILEN_PASSEN_ZUR_ZIELZEILE_BEI_MERGE
Die Zusammenführung kann nicht durchgeführt werden, da mehrere Quellzeilen übereinstimmen und versucht haben, dieselbe Zielzeile in der Delta-Tabelle auf möglicherweise konfliktträchtige Weise zu ändern. Durch die SQL-Semantik von Merge kann das Ergebnis uneindeutig sein, wenn mehrere Quellzeilen auf dieselbe Zielzeile zutreffen, da unklar ist, welche Quellzeile verwendet werden soll, um die entsprechende Zielzeile zu aktualisieren oder zu löschen. Sie können die Quelltabelle vorverarbeiten, um die Möglichkeit mehrerer Übereinstimmungen auszuschließen. Informationen zu den nächsten Schritten finden Sie im Abschnitt
<usageReference>
DELTA_MUSS_ALLE_KOORDINIERTEN_EINREICHUNGEN_KONFIRMATIONEN_IM_BEFEHL_FESTLEGEN
Während <command>
werden entweder beide Konfigurationen der koordinierten Commits ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview") im Befehl festgelegt oder keine davon. Fehlt: "<configuration>
". Geben Sie diese Konfiguration in der TBLPROPERTIES
-Klausel an, oder entfernen Sie die andere Konfiguration, und wiederholen Sie dann den Befehl erneut.
DELTA_MUSS_ALLE_KOORDINIERTEN_COMMIT_BESTÄTIGUNGEN_IM_SESSION_SETZEN
Während <command>
werden entweder beide Konfigurationen der koordinierten Commits ("coordinatedCommits.commitCoordinator-preview", "coordinatedCommits.commitCoordinatorConf-preview") in den SparkSession-Konfigurationen festgelegt oder keine davon. Fehlt: "<configuration>
". Legen Sie diese Konfiguration in der SparkSession fest, oder deaktivieren Sie die andere Konfiguration, und wiederholen Sie dann den Befehl erneut.
DELTA_NAMENSKONFLIKT_IN_GEFAECHERTEM_TABLLE
Die folgenden Spaltennamen sind nur für die interne Verwendung der delta-zusammengefassten Tabelle reserviert: <names>
DELTA_VERSCHACHTELTE_FELDER_BENÖTIGEN_UMBENENNUNG
Das Eingabeschema enthält geschachtelte Felder, die anders großgeschrieben sind als die Zieltabelle.
Sie müssen umbenannt werden, um den Verlust von Daten in diesen Feldern beim Schreiben in das Delta-System zu vermeiden.
Felder:
<fields>
.
Ursprüngliches Schema:
<schema>
DELTA_NESTED_NOT_NULL_CONSTRAINT (nicht-nulleinschränkung für geschachtelte Felder)
Der <nestType>
Typ des Felds <parent>
enthält eine NOT NULL
Einschränkung. Delta unterstützt keine NOT NULL
-Einschränkungen, die in Arrays oder Maps geschachtelt sind. Um diesen Fehler zu unterdrücken und die angegebenen Einschränkungen stillschweigend zu ignorieren, setzen Sie <configKey>
= true.
Geparster <nestType>
-Typ:
<nestedPrettyJson>
DELTA_VERSCHACHTELTE_UNTERABFRAGE_NICHT_UNTERSTÜTZT
Geschachtelte Unterabfragen werden in der <operation>
-Bedingung nicht unterstützt.
DELTA_NEUE_PRÜFUNG_VORBEDINGUNGSVERLETZUNG
<numRows>
Zeilen in <tableName>
verstoßen gegen die neue CHECK
Beschränkung (<checkConstraint>
).
DELTA_NEUES_NICHTS_NULL_VERLETZUNG
<numRows>
Zeilen in <tableName>
verletzen die neuen NOT NULL
Einschränkungen auf <colName>
.
DELTA_NICHT_BOOLEAN_CHECK_EINSCHRÄNKUNG
CHECK
Einschränkung '<name>
' (<expr>
) sollte ein boolescher Ausdruck sein.
NICHTDETERMINISTISCHER_AUSDRUCK_IN_GENERIERTER_SPALTE
Es wurde <expr>
gefunden. Eine generierte Spalte kann keinen nicht deterministischen Ausdruck verwenden.
DELTA_Nichtdeterministische_Funktion_Nicht_Unterstützt
Nicht-deterministische Funktionen werden in der <operation> <expression>
nicht unterstützt.
DELTA_NICHT_ZULETZT_ÜBEREINSTIMMENDER_KLAUSEL_BEDINGUNG_WEGLASSEN
Wenn es in einer MATCHED
-Anweisung mehr als eine MERGE
-Klausel gibt, kann nur die letzte MATCHED
-Klausel die Bedingung weglassen.
DELTA_NICHT_ZU_LETZTEN_NICHT_VOM_QUELLENABSCHNITT_ABGEGLICHEN_AUSSCHLUSSBEDINGUNG
Wenn es in einer NOT MATCHED BY SOURCE
-Anweisung mehr als eine MERGE
-Klausel gibt, kann nur die letzte NOT MATCHED BY SOURCE
-Klausel die Bedingung weglassen.
DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION
Wenn es in einer NOT MATCHED
-Anweisung mehr als eine MERGE
-Klausel gibt, kann nur die letzte NOT MATCHED
-Klausel die Bedingung weglassen.
DELTA_NON_PARSABLE_TAG
Tag <tag>
konnte nicht analysiert werden.
Dateitags sind: <tagList>
.
DELTA_NICHT_PARTITION_SPALTE_ABWESEND
In Delta geschriebene Daten müssen mindestens eine nicht partitionierte Spalte enthalten.<details>
DELTA_NICHT_PARTITIONS_SPALTENREFERENZ
Prädikat verweist auf nicht partitionierte Spalte '<columnName>
'. Nur auf die Partitionsspalten kann verwiesen werden: [<columnList>
].
DELTA_NICHT_PARTITIONIERTE_SPALTEN_ANGEGEBEN
Nicht partitionierende Spalten <columnList>
werden angegeben, wobei nur Partitionierungsspalten erwartet werden: <fragment>
.
DELTA_NICHT_EINZELNE_TEIL_NAMESPACE_FÜR_KATALOG
Der Delta-Katalog erfordert einen einzelteiligen Namespace, aber <identifier>
ist mehrteilig.
DELTA_NICHT_UC_COMMIT_KOORDINATOR_NICHT_UNTERSTÜTZT_IM_BEFEHL
Das Festlegen des Commit-Koordinators auf "<nonUcCoordinatorName>
" vom Befehl wird nicht unterstützt, da von UC verwaltete Tabellen nur "unity-catalog" als Commit-Koordinator haben können. Ändern Sie sie entweder in "unity-catalog", oder entfernen Sie alle Coordinated Commits-Tabelleneigenschaften aus der TBLPROPERTIES
Klausel, und wiederholen Sie dann den Befehl erneut.
DELTA_NICHT_UND_BESTÄTIGUNGS_KOORDINATOR_IN_DER_SITZUNG_NICHT_UNTERSTÜTZT
Es wird nicht unterstützt, den Commit-Koordinator aus den SparkSession-Konfigurationen auf '<nonUcCoordinatorName>
' festzulegen, da von UC verwaltete Tabellen nur 'unity-catalog' als Commit-Koordinator haben können. Ändern Sie sie entweder in „unity-catalog“, indem Sie spark.conf.set("<coordinatorNameDefaultKey>", "unity-catalog")
ausführen, oder entfernen Sie alle Eigenschaften der Coordinated Commits-Tabelle aus den SparkSession-Konfigurationen, indem Sie spark.conf.unset("<coordinatorNameDefaultKey>")
, spark.conf.unset("<coordinatorConfDefaultKey>")
, spark.conf.unset("<tableConfDefaultKey>")
ausführen und dann den Befehl erneut wiederholen.
DELTA_KEINE_DATABRICKS_DELTA_TABELLE
<table>
ist keine Delta-Tabelle. Löschen Sie bitte zuerst diese Tabelle, wenn Sie sie mit Databricks Delta erstellen möchten.
DELTA_KEINE_DELTA_TABELLE
<tableName>
ist keine Delta-Tabelle. Bitte legen Sie diese Tabelle zuerst ab, wenn Sie sie mit Delta Lake neu erstellen möchten.
DELTA_NICHT_NULL_SPALTE_NICHT_IN_STRUKTUR_GEFUNDEN
Nicht-nullbare Spalte in der Struktur nicht gefunden: <struct>
.
DELTA_NICHT-NULL-BEDINGUNG_VERLETZT
Verstoß gegeben NOT NULL
-Einschränkung für Spalte: <columnName>
.
DELTA_NICHT_NULL_VERSCHACHTELTES_FELD
Ein geschachteltes Feld, das keine Nullwerte zulässt, kann nicht zu einem übergeordneten Element hinzugefügt werden, dass Nullwerte zulässt. Legen Sie die Nullierbarkeit der übergeordneten Spalte entsprechend fest.
KEINE_COMMITS_GEFUNDEN_DELTA
Es wurden keine Commits bei <logPath>
gefunden.
DELTA_KEINE_WIEDERHERSTELLBARE_HISTORY_GEFUNDEN
Es wurden keine reproduzierbaren Commits bei <logPath>
gefunden.
DELTA_KEINE_UMLEITUNGSREGELN_VERLETZT
Vorgang nicht zulässig: <operation>
kann für eine Tabelle mit Umleitungsfunktion nicht ausgeführt werden.
Die Regeln für keine Umleitung werden nicht erfüllt <noRedirectRules>
.
DELTA_KEINE_BEZIEHUNGSTABELLE
Tabelle <tableIdent>
nicht gefunden.
Kein Start für CDC-Read-Operation möglich
Weder „startingVersion“ noch „startTimestamp“ für CDC-Lesezugriff bereitgestellt.
DELTA_NULL_SCHEMA_IN_STREAMING_WRITE (Fehler im Streaming-Schreibvorgang)
Delta akzeptiert nullTypes im Schema für Streaming-Schreibvorgänge nicht.
DELTA_ONEOF_IN_TIMETRAVEL
Geben Sie entweder "timestampAsOf" oder "versionAsOf" für Zeitreisen an.
Nur-Delta-Operation
<operation>
wird nur für Delta-Tabellen unterstützt.
PFAD_FEHLT_BEI_DELTA_OPERATION
Geben Sie den Pfad oder die Tabellen-ID für <operation>
an.
DELTA_OPERATION_NICHT_ERLAUBT
Vorgang nicht zulässig: <operation>
Wird für Delta-Tabellen nicht unterstützt.
DELTA_OPERATION_NICHT_ERLAUBT_DETAIL
Vorgang nicht zulässig: <operation>
wird für Delta-Tabellen: <tableName>
nicht unterstützt.
DELTA_OPERATION_NICHT_UNTERSTÜTZT_FÜR_SPALTE_MIT_SORTIERREIHENFOLGE
<operation>
wird für Spalte <colName>
mit nicht standardmäßiger Sortierung <collation>
nicht unterstützt.
DELTA_VORGANG_NICHT_UNTERSTÜTZT_FÜR_DATENTYPEN
<operation>
wird für Datentypen nicht unterstützt: <dataTypeList>
.
Delta-Operation für Ausdruck mit Sortierung nicht unterstützt.
<operation>
wird für Ausdrücke <exprText>
nicht unterstützt, da sie nicht standardmäßige Sortierung verwendet.
DELTA_OPERATION_ON_TEMPORÄRER_ANSICHT_MIT_GENERIERTEN_SPALTEN_NICHT_UNTERSTÜTZT
Der <operation>
-Befehl, der sich auf eine temporäre Ansicht bezieht und auf eine Delta-Tabelle mit generierten Spalten verweist, wird nicht unterstützt. Führen Sie den <operation>
Befehl in der Delta-Tabelle direkt aus.
DELTA-Operation auf Ansicht nicht erlaubt
Vorgang nicht zulässig: <operation>
kann nicht auf einer Ansicht ausgeführt werden.
DELTA_OPTIMALISIERUNG_VOLL_NICHT_UNTERSTÜTZT
OPTIMIZE FULL
wird nur für gruppierte Tabellen mit nicht leeren Clusterspalten unterstützt.
DELTA_OVERWRITE_MUSS_WAHR_SEIN
Die Kopieroption overwriteSchema kann nicht angegeben werden, ohne OVERWRITE
auf 'true' zu setzen.
DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE
'overwriteSchema' kann nicht im Modus für dynamische Partitionsüberschreibung verwendet werden.
FEHLER_BEI_UMWANDLUNG_DER_DELTA_PARTITIONSSPALTE
Fehler beim Umwandeln des Werts <value>
in <dataType>
für die Partitionsspalte <columnName>
.
DELTA_PARTITION_SPALTE_NICHT_GEFUNDEN
Die Partitionsspalte <columnName>
wurde im Schema [<schemaMap>
] nicht gefunden.
DELTA_PARTITIONS_SCHEMA_IN_ICEBERG_TABELLEN
Das Partitionsschema kann beim Konvertieren von Iceberg-Tabellen nicht angegeben werden. Sie wird automatisch abgeleitet.
DELTA_PFAD_EXISTIERT_NICHT
<path>
ist nicht vorhanden oder ist keine Delta-Tabelle.
DELTA_PFAD_EXISTIERT
Es kann nicht in den bereits vorhandenen Pfad <path>
geschrieben werden, ohne OVERWRITE
= 'true' festzulegen.
DELTA_POST_COMMIT_HOOK_FAILED (Delta-Nachverarbeitungs-Hook fehlgeschlagen)
Das Committen in der Delta-Tabellenversion <version>
war erfolgreich, beim Ausführen des Hooks <name> <message>
nach dem Commit ist jedoch ein Fehler aufgetreten
DELTA_PROTOKOLL_GEÄNDERT
ProtocolChangedException: Die Protokollversion der Delta-Tabelle wurde durch ein gleichzeitiges Update geändert. <additionalInfo> <conflictingCommit>
Weitere Informationen finden Sie unter <docLink>
.
DELTA_PROTOCOL_PROPERTY_NOT_INT
Die Protokolleigenschaft <key>
muss eine ganze Zahl sein. Es wurde <value>
gefunden.
DELTA_LESEFUNKTION_PROTOKOLL_ERFORDERT_SCHREIBEN
Es ist nicht möglich, nur die Version des Leseprotokolls zu aktualisieren, um Tabellenfunktionen zu verwenden. Die Writer-Protokollversion muss mindestens <writerVersion>
sein, um fortzufahren. Weitere Informationen zu Tabellenprotokollversionen finden Sie unter <docLink>
.
DELTA_TABELLE_OHNE_SPALTEN_LESEN
Sie versuchen, eine Delta-Tabelle <tableName>
zu lesen, die keine Spalten enthält.
Schreiben Sie einige neue Daten mit der Option mergeSchema = true
, um die Tabelle lesen zu können.
DELTA_REGEX_OPT_SYNTAX_FEHLER
Überprüfen Sie ihre Syntax erneut auf "<regExpOption>
".
DELTA_BEZIEHUNG_PFAD_ABWEICHUNG
Beziehungspfad '<relation>
' stimmt nicht mit dem Pfad von <targetType>
'<targetPath>
' überein.
DELTA_REPLACE_WHERE_IN_OVERWRITE
Sie können "replaceWhere" nicht in Verbindung mit einem Überschreiben durch Filter verwenden.
DELTA_REPLACE_WHERE_MISMATCH
Die geschriebenen Daten entsprechen nicht der Bedingung zum Überschreiben der partiellen Tabelle oder der Einschränkung „<replaceWhere>
“.
<message>
DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE
Ein „replaceWhere“-Ausdruck und „partitionOverwriteMode’=’dynamic“ können nicht beide in den DataFrameWriter-Optionen festgelegt werden.
DELTA_ERSETZE_WO_MIT_DATENFILTER_ÄNDERUNG_UNGESETZT
'replaceWhere' kann nicht mit Datenfiltern verwendet werden, wenn 'dataChange' auf "false" festgelegt ist. Filter: <dataFilters>
.
DELTA_ZEILEN_ID_ZUWEISUNG_OHNE_STATISTIKEN
Zeilen-IDs ohne Zeilenzählungsstatistiken können nicht zugewiesen werden.
Collect statistics for the table by running the following code in a Scala notebook and retry:
import com.databricks.sql.transaction.tahoe.DeltaLog
import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection
import org.apache.spark.sql.catalyst.TableIdentifier
val log = DeltaLog.forTable(spark, TableIdentifier(table_name))
StatisticsCollection.recompute(spark, log)
DELTA_SCHEMA_GEÄNDERT
Schemaänderung erkannt:
Streamingquellenschema: <readSchema>
Datendateischema: <dataSchema>
Versuchen Sie, die Abfrage neu zu starten. Wenn sich dieses Problem über Abfrageneustarts hinweg wiederholt, ohne
dass es Fortschritte gibt, haben Sie eine inkompatible Schemaänderung vorgenommen und müssen ihre
Abfragen von neuem auf eines neuen Prüfpunktverzeichnisses starten.
DELTA_SCHEMA_MIT_STARTOPTIONEN_GEÄNDERT
Schemaänderung in version <version>
erkannt:
Streamingquellenschema: <readSchema>
Datendateischema: <dataSchema>
Versuchen Sie, die Abfrage neu zu starten. Wenn sich dieses Problem über Abfrageneustarts hinweg wiederholt, ohne
dass es Fortschritte gibt, haben Sie eine inkompatible Schemaänderung vorgenommen und müssen ihre
Abfragen von neuem auf eines neuen Prüfpunktverzeichnisses starten. Wenn das Problem weiterhin besteht,
Wenn Sie zu einem neuen Prüfpunktverzeichnis wechseln, müssen Sie möglicherweise das vorhandene Prüfpunktverzeichnis ändern.
Option für „startingVersion“ oder „startingTimestamp“ ändern, um ab einer neueren Version als
<version>
mit einem neuen Prüfpunktverzeichnis.
DELTA_SCHEMAN_ERWEITERT_MIT_VERSION
Schemaänderung in version <version>
erkannt:
Streamingquellenschema: <readSchema>
Datendateischema: <dataSchema>
Versuchen Sie, die Abfrage neu zu starten. Wenn sich dieses Problem über Abfrageneustarts hinweg wiederholt, ohne
dass es Fortschritte gibt, haben Sie eine inkompatible Schemaänderung vorgenommen und müssen ihre
Abfragen von neuem auf eines neuen Prüfpunktverzeichnisses starten.
DELTA_SCHEMAÄNDERUNG_SEIT_ANALYSE
Das Schema Ihrer Delta-Tabelle hat sich auf inkompatible Weise geändert, weil Ihr DataFrame
oder ein DeltaTable-Objekt wurde erstellt. Bitte definieren Sie Das DataFrame- oder DeltaTable-Objekt neu.
Änderungen:
<schemaDiff> <legacyFlagMessage>
DELTA_SCHEMA_NICHT_BEREITGESTELLT
Das Tabellenschema wird nicht bereitgestellt. Geben Sie das Schema (Spaltendefinition) der Tabelle an, wenn Sie REPLACE
Tabelle verwenden und eine AS-SELECT
Abfrage nicht bereitgestellt wird.
DELTA_SCHEMA_NOT_SET
Das Tabellenschema ist nicht festgelegt. Schreiben Sie Daten in das Schema, oder verwenden Sie CREATE TABLE
, um das Schema festzulegen.
DELTA_SET_STANDORT_SCHEMA_KONFLIKT
Das Schema des neuen Delta-Standorts unterscheidet sich vom aktuellen Tabellenschema.
ursprüngliches Schema:
<original>
Zielschema:
<destination>
Wenn dies eine beabsichtigte Änderung ist, können Sie diese Überprüfung deaktivieren, indem Sie Folgendes ausführen:
%%sql festlegen <config>
= wahr
DELTA_SHALLOW_CLONE_DATEI_NICHT_GEFUNDEN (Datei nicht gefunden)
Datei <filePath>
, auf die im Transaktionsprotokoll verwiesen wird, wurde nicht gefunden. Dies kann auftreten, wenn Daten manuell aus dem Dateisystem gelöscht wurden, anstatt die Tabelle DELETE
Anweisung zu verwenden. Diese Tabelle scheint ein flacher Klon zu sein, wenn dies der Fall ist, kann dieser Fehler auftreten, wenn die ursprüngliche Tabelle, aus der diese Tabelle geklont wurde, eine Datei gelöscht hat, die der Klon noch verwendet. Wenn Klonen unabhängig von der ursprünglichen Tabelle sein sollen, verwenden Sie stattdessen einen DEEP-Klon.
DELTA_SHARING_KANN_RESERVIERTE_EIGENSCHAFT_VON_EMPFAENGER_NICHT_AENDERN
Vordefinierte Eigenschaften, die mit <prefix>
beginnen, können nicht geändert werden.
DELTA_SHARING_EMPFAENGER_EIGENSCHAFT_UNDEFINIERT
Die Daten werden durch die Empfängereigenschaft <property>
eingeschränkt, die nicht für den aktuellen Empfänger in der Sitzung gelten.
Weitere Details finden Sie unter DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED.
DELTA_SHARED_FEHLERHAFTE_OPERATION_IN_EXTERN_GETEILTER_ANSICHT
<operation>
kann nicht in Delta-Sharing-Ansichten verwendet werden, die kontoübergreifend freigegeben sind.
DELTA_SHARING_UNGÜLTIGER_PROVIDER_AUTH
Ungültiger Authentifizierungstyp <authenticationType>
für Anbieter <provider>
.
UNGÜLTIGE_EMPFÄNGER_AUTHENTIFIZIERUNG_DELTA_TEILUNG
Ungültiger Authentifizierungstyp <authenticationType>
für empfänger <recipient>
.
DELTA_SHARING_UNGÜLTIGER_NAME_FÜR_GETEILTEN_DATENOBJEKT
Ungültiger Name, um in einer Freigabe auf <type>
zu verweisen. Sie können entweder den Namen von <type>
innerhalb des Shares im Format [schema].[<type>
] verwenden oder auch den ursprünglichen vollständigen Namen der Tabelle im Format [Katalog].[schema].[>typ>] verwenden.
Wenn Sie sich nicht sicher sind, welchen Namen Sie verwenden sollen, können Sie „SHOW ALL IN SHARE
[Freigabe]“ ausführen und den Namen des zu entfernenden <type>
ermitteln: Spalte „name“ ist der Name von <type>
innerhalb der Freigabe, und Spalte „shared_object“ ist der ursprüngliche vollständige Name von <type>
.
DELTA_SHARING_MAXIMUM_RECIPIENT_TOKENS_ÜBERSCHRITTEN
Es gibt mehr als zwei Tokens für den Empfänger <recipient>
.
DELTA_SHARING_EMPFAENGER_EIGENSCHAFT_NICHT_GEFUNDEN
Empfängereigenschaft <property>
ist nicht vorhanden.
DELTA_SHARING_RECIPIENT_TOKENS_NICHT_GEFUNDEN
Empfängertoken fehlen für Empfänger<recipient>
.
DELTA_PARTITION_ANZEIGEN_IN_NICHT_PARTITIONIERTER_SPALTE
Nicht partitionierende Spalten <badCols>
werden für SHOW PARTITIONS
.
DELTA_ZEIGE_PARTITION_IN_NICHT_PARTITIONIERTER_TABELLE
SHOW PARTITIONS
ist für eine Tabelle, die nicht partitioniert ist, nicht zulässig: <tableName>
.
DELTA_QUELLE_IGNORIERE_LÖSCHEN
Es wurden gelöschte Daten (z. B. <removedFile>
) in der Streamingquelle der Version <version>
erkannt. Dies wird derzeit nicht unterstützt. Wenn Sie Löschlöschungen ignorieren möchten, legen Sie die Option "ignoreDeletes" auf "true" fest. Die Quelltabelle finden Sie unter Pfad <dataPath>
.
DELTA_QUELLTABELLE_ÄNDERUNGEN_IGNORIEREN
Es wurde ein Datenupdate (z. B. <file>
) in der Quelltabelle in version <version>
erkannt. Dies wird derzeit nicht unterstützt. Wenn dies regelmäßig geschieht und Sie bereit sind, Änderungen auszulassen, stellen Sie die Option "skipChangeCommits" auf "true" ein. Wenn die Datenaktualisierung berücksichtigt werden soll, starten Sie diese Abfrage mit einem neuen Prüfpunktverzeichnis neu oder führen Sie eine vollständige Aktualisierung durch, wenn Sie DLT verwenden. Wenn Sie diese Änderungen bearbeiten müssen, wechseln Sie bitte zu MVs. Die Quelltabelle finden Sie unter Pfad <dataPath>
.
DELTA_STARTVERSION_UND_TIMESTAMP_BEIDE_GESETZT
Geben Sie entweder "<version>
" oder "<timestamp>
" an.
DELTA_STATISTIKEN_SAMMLUNGSSPALTE_NICHT_GEFUNDEN
<statsType>
-Statistik für Spalte in Parquet-Metadaten <columnPath>
wurde nicht gefunden: .
DELTA_STREAMING_KANN_NACH_SCHEMA-ENTWICKLUNG_NICHT_WEITER_VERARBEITEN
Wir haben eine oder mehrere nicht additive Schemaänderungen (<opType>
) zwischen Delta-Version <previousSchemaChangeVersion>
und <currentSchemaChangeVersion>
in der Delta-Streamingquelle erkannt.
Änderungen:
<columnChangeDetails>
Überprüfen Sie, ob Sie diese Schemaänderungen manuell an die Senkentabelle weitergeben möchten, bevor wir mit der Streamverarbeitung mithilfe des endgültigen Schemas in Version <currentSchemaChangeVersion>
fortfahren.
Nachdem Sie das Schema der Senkentabelle behoben oder entschieden haben, dass keine Korrektur erforderlich ist, können Sie die folgenden Konfigurationen festlegen, um die Blockierung der nicht-additiven Schemaänderungen aufzuheben und die Datenstromverarbeitung fortzusetzen.
Mithilfe der Dataframe-Reader-Option(en):
Um die Blockierung für diesen bestimmten Stream nur für diese Reihe von Schemaänderungen aufzuheben:
<unblockChangeOptions>
So heben Sie die Blockierung für diesen bestimmten Datenstrom auf:
<unblockStreamOptions>
Verwenden von SQL-Konfigurationen:
Um die Blockierung für diesen bestimmten Stream nur für diese Reihe von Schemaänderungen aufzuheben:
<unblockChangeConfs>
So heben Sie die Blockierung für diesen bestimmten Datenstrom auf:
<unblockStreamConfs>
So heben Sie die Blockierung für alle Datenströme auf:
<unblockAllConfs>
DELTA_STREAMING_PRÜFUNG_SPALTENZUORDNUNG_KEIN_SNAPSHOT
Fehler beim Abrufen einer Delta-Protokollmomentaufnahme für die Startversion, als Schemaänderungen der Spaltenzuordnung überprüft wurden. Wählen Sie eine andere Startversion aus, oder erzwingen Sie die Aktivierung des Streaming-Lesevorgangs auf eigene Gefahr, indem Sie '<config>
' auf 'true' festlegen.
DELTA_STREAMING_INKOMPATIBLE_SCHEMA_AENDERUNG
Streaminglesevorgänge werden für Tabellen mit leseinkompatiblen Schemaänderungen (z. B. Umbenennen, Löschen oder Datentypänderungen) nicht unterstützt.
Weitere Informationen und mögliche nächste Schritte zur Behebung dieses Problems finden Sie in der Dokumentation unter <docLink>
Leseschema: <readSchema>
. Inkompatibles Datenschema: <incompatibleSchema>
.
Delta-Streaming-Kompatibilitätsproblem-bei-Schemaänderungen-bitten-Sie-um-das-Verwendung-von-Schema-Protokoll
Streaminglesevorgänge werden für Tabellen mit leseinkompatiblen Schemaänderungen (z. B. Umbenennen, Löschen oder Datentypänderungen) nicht unterstützt.
Stellen Sie eine 'schemaTrackingLocation' bereit, um die nicht-additive Schemaentwicklung für die Delta-Datenstromverarbeitung zu ermöglichen.
Weitere Informationen finden Sie unter <docLink>
.
Leseschema: <readSchema>
. Inkompatibles Datenschema: <incompatibleSchema>
.
DELTA_STREAMING_METADATA_ENTWICKLUNG
Das Schema, die Tabellenkonfiguration oder das Protokoll Ihrer Delta-Tabelle wurde während des Streamings geändert.
Das Schema- oder Metadatenverfolgungsprotokoll wurde aktualisiert.
Starten Sie den Datenstrom neu, um die Verarbeitung mithilfe der aktualisierten Metadaten fortzusetzen.
Aktualisiertes Schema: <schema>
.
Aktualisierte Tabellenkonfigurationen: <config>
.
Aktualisiertes Tabellenprotokoll: <protocol>
DELTA_STREAMING_SCHEMA_EVOLUTION_UNTERSTÜTZT_ROW_FILTER_COLUMN_MASKS
Das Streamen aus der Quelltabelle <tableId>
mit Schemanachverfolgung unterstützt keine Zeilenfilter oder Spaltenmasken.
Legen Sie die Zeilenfilter oder Spaltenmasken ab, oder deaktivieren Sie die Schemanachverfolgung.
DELTA_STREAMING_SCHEMA_STANDORT_KONFLIKT
Es wurde ein Konflikt mit dem Schemaspeicherort „<loc>
“ beim Streaming aus der Tabelle oder der Tabelle unter „<table>
“ entdeckt.
Ein anderer Datenstrom kann denselben Schemaspeicherort wiederverwenden, der nicht zulässig ist.
Geben Sie einen neuen eindeutigen schemaTrackingLocation
Pfad oder streamingSourceTrackingId
als Leseoption für einen der Datenströme aus dieser Tabelle an.
DELTA_STREAMING_SCHEMA_STANDORT_NICHT_UNTER_KONTROLLPUNKT
Der Schemaspeicherort „<schemaTrackingLocation>
“ muss unter dem Prüfpunktspeicherort „<checkpointLocation>
“ festgelegt werden.
DELTA_STREAMING_SCHEMA_LOG_ENTSERIALISIERUNG_FEHLGESCHLAGEN
Unvollständige Protokolldatei im Delta Streaming-Quellschemaprotokoll unter '<location>
'.
Möglicherweise wurde das Schemaprotokoll beschädigt. Wählen Sie einen neuen Schemaspeicherort aus.
DELTA_STREAMING_SCHEMA_LOG_INKOMPATIBLES_DELTA_TABELLEN_ID
Eine inkompatible Delta-Tabellen-ID wurde erkannt, als versucht wurde, den Delta-Datenstrom zu lesen.
Persistente Tabellen-ID: <persistedId>
, Tabellen-ID: <tableId>
Möglicherweise wurde das Schemaprotokoll wiederverwendet. Wählen Sie einen neuen Schemaspeicherort aus.
DELTA_STREAMING_SCHEMA_LOG_INKOMPATIBLE_PARTITIONSKHEMA
Es wurde ein inkompatibles Partitionsschema beim Lesen des Delta-Datenstroms erkannt.
Beibehaltenes Schema: <persistedSchema>
, Delta-Partitionsschema: <partitionSchema>
Wählen Sie einen neuen Schemaspeicherort aus, um das Schemaprotokoll erneut zu initialisieren, wenn Sie das Partitionsschema der Tabelle kürzlich manuell geändert haben.
DELTA_STREAMING_SCHEMA_LOG_INITIALISIERUNG_FEHLGESCHLAGEN_INKOMPATIBLE_METADATEN
Wir konnten das Delta-Streamingquellschemaprotokoll nicht initialisieren, da
beim Bereitstellen eines Streamingbatches von der Tabellenversion <a>
zu <b>
eine inkompatible Schema- oder Protokolländerung erkannt wurde.
DELTA_STREAMING_SCHEMA_LOG: SCHEMA_FEHLER_BEIM_PARSEN
Fehler beim Analysieren des Schemas aus dem Delta-Streamingquellschemaprotokoll.
Möglicherweise wurde das Schemaprotokoll beschädigt. Wählen Sie einen neuen Schemaspeicherort aus.
DELTA-TABELLE ENTHÄLT BEREITS CDC-SPALTEN
Die Änderungsdatenerfassung kann in der Tabelle nicht aktiviert werden. Die Tabelle enthält bereits
reservierte Spalten <columnList>
, die
intern als Metadaten für den Änderungsdatenfeed der Tabelle verwendet werden. Um
Ändern Sie den Datenfluss in der Tabelle, wenn Sie diese Spalten umbenennen oder löschen.
DELTA-TABELLE_EXISTIERT_BEREITS
Tabelle <tableName>
ist bereits vorhanden.
DELTA-TABELLE_FÜR_PFAD_UNTERSTÜTZT_NICHT_HADOOP_CONF
DeltaTable.forPath unterstützt derzeit nur Hadoop-Konfigurationsschlüssel, die mit <allowedPrefixes>
beginnen, aber <unsupportedOptions>
bekommen.
DELTA_TABELLEN_ID_UNSTIMMIGKEIT
Die Delta-Tabelle bei <tableLocation>
wurde ersetzt, während dieser Befehl die Tabelle verwendet hat.
Die Tabellen-ID war <oldId>
, ist aber jetzt <newId>
.
Wiederholen Sie den aktuellen Befehl, um sicherzustellen, dass er eine konsistente Ansicht der Tabelle liest.
DELTA-TABELLE_UNGÜLTIGES_WEITERLEITUNGSZUSTANDSÜBERGANG
Tabellenumleitungsstatus kann nicht aktualisiert werden: Ungültiger Zustandsübergang wurde versucht.
Die Delta-Tabelle '<table>
' kann nicht von '<oldState>
' in '<newState>
' geändert werden.
DELTA_TABELLE_UNGÜLTIG_SET_UNSET_UMLEITUNG
SET
oder UNSET
für Umleitungseigenschaft in <table>
nicht möglich: Die aktuelle Eigenschaft „<currentProperty>
“ entspricht nicht der neuen Eigenschaft „<newProperty>
“.
DELTA-TABELLEN-STANDORT-NICHTÜBEREINSTIMMUNG
Die Position der vorhandenen Tabelle <tableName>
ist <existingTableLocation>
. Sie stimmt nicht mit der angegebenen Position <tableLocation>
überein.
DELTA-TABELLE NICHT GEFUNDEN
Die Delta-Tabelle <tableName>
ist nicht vorhanden.
DELTA-TABELLE_IN_OP_NICHT_UNTERSTÜTZT
Tabelle wird in <operation>
nicht unterstützt. Verwenden Sie stattdessen einen Pfad.
Delta-Tabellen-Exklusivbetrieb
<tableName>
ist keine Delta-Tabelle.
<operation>
wird nur für Delta-Tabellen unterstützt.
DELTA_TABELLE_NICHT_ERKANNT_UMLEITUNG_SPEZIFIKATION
Das Delta-Protokoll enthält die nicht erkannte Tabellenumleitungsspezifikation „<spec>
“.
DELTA_ZIELTABELLE_ENDSCHEMA_LEER
Das endgültige Schema der Zieltabelle ist leer.
DELTA_TIMESTAMP_GRÖßER_ALS_COMMIT
Der bereitgestellte Zeitstempel (<providedTimestamp>
) liegt nach der aktuellen Version, die verfügbar ist für diese
Tabelle (<tableName>
). Bitte verwenden Sie einen Zeitstempel vor oder bei <maximumTimestamp>
.
DELTA_TIMESTAMP_UNGÜLTIG
Der angegebene Zeitstempel (<expr>
) kann nicht in einen gültigen Zeitstempel konvertiert werden.
DELTA_ZEITREISE_UNGÜLTIGER_ANFANGSWERT
<timeTravelKey>
muss ein gültiger Anfangswert sein.
DELTA_ZU_VIEL_LISTESPEICHER
Fehler beim Auflisten von Dateien (<numFiles>
) in der Delta-Tabelle aufgrund unzureichendem Arbeitsspeicher. Erforderlicher Arbeitsspeicher: <estimatedMemory>
, verfügbarer Arbeitsspeicher: <maxMemory>
.
Protokoll der abgeschnittenen Transaktionen_DELTA
<path>
: Der Zustand der Version <version>
kann nicht rekonstruiert werden, da das Transaktionsprotokoll aufgrund des manuellen Löschens oder der Protokollaufbewahrungsrichtlinie (<logRetentionKey>=<logRetention>
) und der Prüfpunktaufbewahrungsrichtlinie (<checkpointRetentionKey>=<checkpointRetention>
) abgeschnitten wurde.
DELTA_TABELLENPARTITION_TRUNKIEREN_NICHT_UNTERSTÜTZT
Vorgang nicht zulässig: TRUNCATE TABLE
in Delta-Tabellen unterstützt keine Partitions-Prädikate; verwenden Sie DELETE
, um bestimmte Partitionen oder Zeilen zu löschen.
DELTA_UDF_IN_GENERATED_COLUMN
Es wurde <udfExpr>
gefunden. Eine generierte Spalte kann keine benutzerdefinierte Funktion verwenden.
DELTA_UNERWARTETES_AKTIONSAUSDRUCK
Unerwarteter Aktionsausdruck <expression>
.
DELTA_UNERWARTETE_ANZAHL_VON_PARTITIONSSPALTEN_AUS_DATEINAME
Es werden Partitionsspalten erwartet: <expectedColsSize>
, aber es wurden Partitionsspalten gefunden: <expectedCols>
<parsedColsSize>
beim Analysieren des Dateinamens: <parsedCols>
.
DELTA_UNERWARTET_TEILS_SCAN
Es wurde ein vollständiger Scan der Delta-Quellen erwartet, aber nur ein Teilscan gefunden. Pfad: <path>
.
DELTA_UNERWARTETE_PARTITIONSSPALTE_VOM_DATEINAMEN
Partitionsspalte <expectedCol>
erwartet, die Partitionsspalte <parsedCol>
wurde jedoch aus der Analyse des Dateinamens gefunden: <path>
.
DELTA_UNERWARTETES_PARTITIONSSCHEMA_VOM_BENUTZER
CONVERT
TO DELTA
wurde mit einem anderen Partitionsschema aufgerufen als dem, das aus dem Katalog abgeleitet wird. Bitte vermeiden Sie es, das Schema bereitzustellen, damit das Partitionsschema aus dem Katalog ausgewählt werden kann.
Katalogpartitionsschema:
<catalogPartitionSchema>
bereitgestelltes Partitionsschema:
<userPartitionSchema>
DELTA_UNIFORM_KOMPATIBILITÄTSORT_KANN_NICHT_GEÄNDERT_WERDEN
delta.universalFormat.compatibility.location kann nicht geändert werden.
DELTA_UNIFORM_COMPATIBILITÄTSSTANDORT_NICHT_REGISTRIERT
delta.universalFormat.compatibility.location ist nicht im Katalog registriert.
DELTA_UNIFORM_KOMPATIBILITÄT_FEHLENDE_ODER_UNGÜLTIGE_POSITION
Fehlender oder ungültiger Speicherort für das Uniform-Kompatibilitätsformat. Legen Sie ein leeres Verzeichnis für delta.universalFormat.compatibility.location fest.
Fehlerursache:
Weitere Details finden Sie unter DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION.
DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
"Eisberg mit Delta Uniform lesen" ist fehlgeschlagen.
Weitere Informationen finden Sie unter DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
DELTA_UNIFORM_EINLASSSCHLEIERHAFTE_FORMAT
Es werden mehrere Delta Uniform-Eingangsformate (<formats>
) gefunden, höchstens kann eine festgelegt werden.
DELTA_UNIFORM_INGRESS_NICHT_UNTERSTÜTZT
Das Erstellen oder Aktualisieren einer einheitlichen Eingangstabelle wird nicht unterstützt.
DELTA_UNIFORM_INGANG_NICHT_UNTERSTÜTZTES_FORMAT
Format<fileFormat>
wird nicht unterstützt. Nur Eisberg und Hudi als ursprüngliches Dateiformat werden unterstützt.
DELTA_UNIFORM_EINGANGSVERLETZUNG
Fehler beim Lesen von Delta UniForm:
Weitere Informationen finden Sie unter DELTA_UNIFORM_INGRESS_VIOLATION.
DELTA_UNIFORM_NICHT_UNTERSTÜTZT
Universelles Format wird nur in Unity-Katalogtabellen unterstützt.
DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT
REFRESH TABLE
mit ungültigem Argument:
Weitere Informationen finden Sie unter DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT
DELTA_UNIFORM_AKTUALISIERUNG_NICHT_UNTERSTÜTZT
REFRESH
Bezeichner SYNC UNIFORM
wird aus einem Grund nicht unterstützt:
Weitere Details finden Sie unter DELTA_UNIFORM_REFRESH_NOT_SUPPORTED.
DELTA_EINHEITLICHE_AKTUALISIERUNG_UNTERSTÜTZT_FÜR_VERWALTETE_ICEBERG_TABELLE_MIT_METADATA_PFAD_NICHT
REFRESH TABLE
mit METADATA_PATH
wird für verwaltete Iceberg-Tabellen nicht unterstützt.
DELTA_UNIVERSAL_FORMAT_KONVERTIERUNG_FEHLGESCHLAGEN
Fehler beim Konvertieren der Tabellenversion <version>
in das universelle Format <format>
. <message>
DELTA_UNIVERSAL_FORMATVERSTOSS
Die Überprüfung des universellen Formats (<format>
) ist fehlgeschlagen: <violation>
.
DELTA_UNBEKANNTE_KONFIGURATION
Unbekannte Konfiguration wurde angegeben: <config>
.
Um diese Überprüfung zu deaktivieren, legen Sie <disableCheckConfig>
in der Spark-Sitzungskonfiguration "=true" fest.
DELTA_UNBEKANNTES_PRIVILEG
Unbekannte Berechtigungen: <privilege>
.
DELTA_UNBEKANNTE_LESENGRENZE
Unbekanntes Leselimit: <limit>
.
DELTA_NICHT_ERKANNTE_SPALTENÄNDERUNG
Nicht erkannte Spaltenänderung <otherClass>
. Möglicherweise führen Sie eine veraltete Delta Lake-Version aus.
DELTA_NICHT_ERKANNTE_INVARIANTE
Nicht erkannte Invariante. Bitte aktualisieren Sie Ihre Spark-Version.
DELTA_NICHTERKANNTES_LOGDATEI
Nicht erkannte Protokolldatei <filename>
.
DELTA_UNSET_NON_EXISTENT_PROPERTY
Es wurde versucht, eine nicht vorhandene Eigenschaft '<property>
' in der Tabelle <tableName>
zu entfernen.
DELTA_UNTERSTÜTZT_ABS_PATH_DATEI_ADD
<path>
unterstützt das Hinzufügen von Dateien mit einem absoluten Pfad nicht.
DELTA_NICHT_UNTERSTÜTZT_ALTER_TABLE_CHANGE_COL_OP
ALTER TABLE CHANGE COLUMN
wird für das Ändern der Spalte <fieldPath>
von <oldField>
zu " <newField>
nicht unterstützt.
DELTA_NICHT_UNTERSTÜTZTE_ALTER_TABLE_ERSETZEN_SPALTE_OP
Nicht unterstützter ALTER TABLE REPLACE COLUMNS
-Vorgang. Grund: <details>
Fehler beim Ändern des Schemas von:
<oldSchema>
in:
<newSchema>
DELTA_NICHT_UNTERSTÜTZT_CLONE_ERSETZEN_GLEICHE_TABELLE
Sie haben versucht, mit dem Vorgang REPLACE
eine vorhandene Tabelle (<tableName>
) durch CLONE
zu ersetzen. Dieser Vorgang wird
Nicht unterstützt. Probieren Sie ein anderes Ziel für CLONE
aus, oder löschen Sie die Tabelle am aktuellen Ziel.
DELTA_UNTERSTÜTZTER_SPALTENABbildungsmodus_Änderung_UnterstütztNicht
Das Ändern des Spaltenzuordnungsmodus von "<oldMode>
" in "<newMode>
" wird nicht unterstützt.
DELTA_UNTERSTÜTZTE_SPALTENZUORDNUNGSOPERATIONEN_FÜR_SPALTEN_MIT_BLOOM_FILTER_INDEX
Fehler beim Ausführen des Spaltenzuordnungsvorgangs <opName>
für Spalte(n) <quotedColumnNames>
da diese Spalte(n) über Bloom-Filter-Index(e) verfügen.
Wenn Sie den Spaltenzuordnungsvorgang für Spalte(n)
mit Bloom-Filterindex ausführen möchten,
Bitte entfernen Sie zuerst den/die Bloom Filter Index/Indizes:
DROP BLOOMFILTER INDEX ON TABLE
tableName FOR COLUMNS(<columnNames>
)
Wenn Sie stattdessen alle Bloom-Filterindizes in der Tabelle entfernen möchten, verwenden Sie Folgendes:
DROP BLOOMFILTER INDEX ON TABLE
TabellenName
DELTA_Nicht unterstütztes Spalten-Mapping-Protokoll
Die aktuelle Tabellenprotokollversion unterstützt das Ändern von Spaltenzuordnungsmodi nicht.
mittels <config>
.
Erforderliche Delta-Protokollversion für die Spaltenzuordnung:
<requiredVersion>
Die aktuelle Delta-Protokollversion Ihrer Tabelle:
<currentVersion>
<advice>
DELTA_NICHT_UNTERSTÜTZTE_SPALTENZUORDNUNGSSCHEMAÄNDERUNG
Schemaänderung wird erkannt:
altes Schema:
<oldTableSchema>
neues Schema:
<newTableSchema>
Schemaänderungen sind während der Änderung des Spaltenzuordnungsmodus nicht zulässig.
DELTA_UNTERSTÜTZTE_SPALTENZUORDNUNG_SCHREIBEN_NICHT_UNTERSTÜTZT
Das Schreiben von Daten mit dem Spaltenzuordnungsmodus wird nicht unterstützt.
DELTA_NICHT_UNTERSTÜTZTE_SPALTENART_IM_BLOOM_FILTER
Das Erstellen eines Bloom-Filterindex für eine Spalte mit Typ <dataType>
wird nicht unterstützt: <columnName>
.
DELTA_UNTERSTÜTZTES_KOMMENTARKARTEN_ARRAY
Ein Kommentar kann nicht zu <fieldPath>
hinzugefügt werden. Das Hinzufügen eines Kommentars zu einem Kartenschlüssel/Wert oder Arrayelement wird nicht unterstützt.
DELTA_NICHT_UNTERSTÜTZTE_DATENTYPEN
Spalten mit nicht unterstützten Datentypen gefunden: <dataTypeList>
. Sie können '<config>
' auf 'false' festlegen, um die Typüberprüfung zu deaktivieren. Die Deaktivierung dieser Typüberprüfung kann es Benutzern ermöglichen, nicht unterstützte Delta-Tabellen zu erstellen, und sollte nur erfolgen, wenn versucht wird, Legacytabellen zu lesen oder zu schreiben.
DELTA_NICHT_UNTERSTÜTZTER_DATENTYP_IN_GENERIERTER_SPALTE
<dataType>
kann nicht das Ergebnis einer generierten Spalte sein.
DELTA_NICHT_UNTERSTÜTZT_TIEFENKLON
Deep Clone wird von dieser Delta-Version nicht unterstützt.
DELTA_UNTERSTÜTZTES_ANZEIGEN_DETAILANSICHT
<view>
ist eine Ansicht.
DESCRIBE DETAIL
wird nur für Tabellen unterstützt.
DELTA_UNTERSTÜTZTES_DROP_CLUSTERING_Spalten
Das Ablegen von Clusteringspalten (<columnList>
) ist nicht zulässig.
DELTA_NICHT_UNTERSTÜTZTES_SPALTE_LÖSCHEN
DROP COLUMN
wird für Ihre Delta-Tabelle nicht unterstützt. <advice>
Unsupported_Delta_Löschung_Nested_Column_von_Non_Struct_Typ
Geschachtelte Spalten können nur von StructType abgelegt werden. Es wurde <struct>
gefunden.
DELTA_NICHT_UNTERSTÜTZTE_DROP_PARTITION_SPALTE
Das Entfernen von Partitionsspalten (<columnList>
) ist nicht zulässig.
DELTA_NICHT_UNTERSTÜTZTER_AUSDRUCK
Nicht unterstützter Ausdruckstyp(<expType>
) für <causedBy>
. Die unterstützten Typen sind [<supportedTypes>
].
DELTA_UNTERSTÜTZTE_AUSDRUCK_GENERIERTE_SPALTE
<expression>
kann nicht in einer generierten Spalte verwendet werden.
DELTA_NICHT_UNTERSTÜTZTE_FEATURES_FÜR_LESEN
Nicht unterstützte Delta-Lesefunktion: Tabelle "<tableNameOrPath>
" erfordert Lesetabellenfeatures, die von dieser Version von Databricks nicht unterstützt werden: <unsupported>
. Weitere Informationen zur Featurekompatibilität von Delta Lake finden Sie unter <link>
.
FUNKTIONEN_FÜR_SCHREIBEN_NICHT_UNTERSTÜTZT_IN_DELTA
Nicht unterstützte Delta-Schreibfunktion: Tabelle "<tableNameOrPath>
" erfordert Writer-Tabellenfeatures, die von dieser Version von Databricks nicht unterstützt werden: <unsupported>
. Weitere Informationen zur Featurekompatibilität von Delta Lake finden Sie unter <link>
.
DELTA_UNTERSTÜTZTE_FEATURES_IN_KONFIGURATION_NICHT_ENTHALTEN
In den folgenden Spark-Konfigurationen oder Delta-Tabelleneigenschaften konfigurierte Tabellenfunktionen werden von dieser Version von Databricks nicht erkannt: <configs>
.
DELTA_NICHT_UNTERSTÜTZTER_FUNKTIONSSTATUS
Es wird erwartet, dass der Status für das Tabellenfeature <feature>
„supported“ lautet, er lautet aber <status>
.
DELTA_UNTERSTÜTZTES_FELD_UPDATE_NICHT_STRUKTURIERT
Das Aktualisieren geschachtelter Felder wird nur für StructType unterstützt, aber Sie versuchen, ein Feld von <columnName>
zu aktualisieren, dessen Typ: <dataType>
ist.
DELTA_UNTERSTÜTZT_FSCK_NICHT_MIT_DELETION_VEKTORAN
Der Befehl "FSCK REPAIR TABLE
" wird für Tabellenversionen mit fehlenden Vektordateien für Löschvorgänge nicht unterstützt.
Wenden Sie sich an den Support.
DELTA_UNTERSTÜTZT_NICHT_GENERIEREN_MIT_LÖSCHVEKTOREN
Der Befehl 'GENERATE
symlink_format_manifest' wird für Tabellenversionen mit Vektoren zum Löschen nicht unterstützt.
Um eine Version der Tabelle ohne Löschvektoren zu erstellen, führen Sie "REORG TABLE
Tabelle APPLY (PURGE
)" aus. Führen Sie dann den Befehl 'GENERATE
' erneut aus.
Stellen Sie sicher, dass zwischen REORG
und GENERATE
keine gleichzeitigen Transaktionen erneut Löschvektoren hinzufügen.
Wenn Sie Manifeste regelmäßig generieren müssen oder nicht gleichzeitige Transaktionen verhindern können, erwägen Sie das Deaktivieren von Löschvektoren in dieser Tabelle unter Verwendung von "ALTER TABLE
Tabelle SET TBLPROPERTIES
(delta.enableDeletionVectors = false)".
DELTA_NICHT_UNTERSTÜTZTES_INVARIANT_NON_STRUCT
Invarianten in geschachtelten Feldern außer StructTypes werden nicht unterstützt.
DELTA_NICHT_UNTERSTÜTZT_IN_UNTERABFRAGE
Die IN-Unterabfrage wird in der <operation>
-Bedingung nicht unterstützt.
DELTA_UNTERSTÜTZT_UNTERSTRICHT_SCHLÜSSEL_MIT_PRÄFIX_NICHT
listKeywithPrefix nicht verfügbar.
DELTA_NICHT_UNTERSTÜTZTE_MANIFESTERSTELLUNG_MIT_SPALTENZUORDNUNG
Die Manifestgenerierung wird für Tabellen, die die Spaltenzuordnung nutzen, nicht unterstützt, da externe Leser diese Delta-Tabellen nicht lesen können. Weitere Details finden Sie in der Delta-Dokumentation.
DELTA_NICHT_UNTERSTÜTZTE_ZUSAMMENFÜHRUNGS-SCHEMA-ENTWICKLUNG_MIT_CDC
MERGE INTO
-Vorgänge mit Schemaentwicklung unterstützen derzeit nicht das Schreiben von CDC-Ausgaben.
DELTA_UNTERSTÜTZT_KEINE_MEHRFACHSPALTEN_IN_PRÄDIKAT
Mehrspaltige IN-Prädikate werden in der <operation>
-Bedingung nicht unterstützt.
DELTA_UNTERSTÜTZT_NICHT_VERSCHACHTELTE_SPALTE_IN_BLOOM_FILTER
Das Erstellen eines Bloom Filer-Index für eine geschachtelte Spalte wird derzeit nicht unterstützt: <columnName>
.
NICHT_UNTERSTÜTZTES_VERSCHACHTELTES_FELD_IN_OPERATION
Geschachteltes Feld wird im <operation>
(Feld = <fieldName>
) nicht unterstützt.
DELTA_NICHT_UNTERSTÜTZT_NICHT_LEER_KLON
Die Klonzieltabelle ist nicht leer.
TRUNCATE
oder DELETE FROM
Sie die Tabelle, bevor Sie CLONE
ausführen.
DELTA_NICHT_UNTERSTÜTZTER_AUSGABEMODUS
Die Datenquelle <dataSource>
unterstützt den Ausgabemodus <mode>
nicht.
DELTA_NICHT_UNTERSTÜTZTE_PARTITIONS_SPALTE_IM_BLOOM_FILTER
Das Erstellen eines Bloom-Filterindex für eine Partitionierungsspalte wird nicht unterstützt: <columnName>
.
DELTA_UNTERSTÜTZT_UMBENENNUNG_SPALTE_NICHT
Spaltenumbenennung wird für Ihre Delta-Tabelle nicht unterstützt. <advice>
DELTA_NICHT_UNTERSTÜTZTES_SCHEMA_BEIM_LESEN
Delta unterstützt die Angabe des Schemas zur Lesezeit nicht.
DELTA_UNTERSTÜTZT_SORTIERUNG_AUF_BUCKETED_TABELLEN_NICHT
SORTED BY
wird für Delta-gebündelte Tabellen nicht unterstützt.
DELTA_NICHT_UNTERSTÜTZTE_QUELLE
Das <operation>
-Ziel unterstützt nur Delta-Quellen.
<plan>
DELTA_UNTERSTÜTZT_STATIC_PARTITIONEN_NICHT
Das Angeben statischer Partitionen in der Partitionsspezifikation wird derzeit während der Einfügungen nicht unterstützt.
DELTA_UNTERSTÜTZTE_STRATEGIE_NAME_Fehler
Nicht unterstützter Strategiename: <strategy>
.
DELTA_NICHT_UNTERSTÜTZTE_UNTERABFRAGE
Unterabfragen werden in der <operation>
(Bedingung = <cond>
) nicht unterstützt.
DELTA_UNTERSTÜTZTE_UNTERABFRAGE_IN_PARTITIONSPRÄDIKATEN_UNTERSTÜTZUNG_NICHT_ERWEITERT
Unterabfragen werden in Partitionsprädikaten nicht unterstützt.
DELTA_UNTERSTÜTZT_KEIN_ZEITREISEN_MEHRERE_FORMATE
Zeitreisen können nicht in mehreren Formaten spezifiziert werden.
DELTA_UNTERSTÜTZT_KEINE_ZEITREISE_ANSICHTEN
Zeitreisen für Ansichten, Unterabfragen, Streams oder Änderungsdatenfeedabfragen sind nicht möglich.
DELTA_NICHT_UNTERSTÜTZTES_ABSCHNEIDEN_BEISPIELTABELLEN
Abschneiden von Beispieltabellen wird nicht unterstützt.
DELTA_UNTERSTÜTZTER_TYPAENDERUNG_IM_SCHEMA
Diese Tabelle kann nicht ausgeführt werden, da eine nicht unterstützte Typänderung angewendet wurde. Feld-<fieldName>
wurde von <fromType>
in <toType>
geändert.
DELTA_NICHT_UNTERSTÜTZTE_TYPÄNDERUNG_BEI_SPALTEN_MIT_BLOOM_FILTER_INDEX
Fehler beim Ändern des Datentyps der spalten(n) <quotedColumnNames>
da diese Spalten Bloom-Filterindizes aufweisen.
Wenn Sie den Datentyp von Spalten mit Bloom Filter Index(es) ändern möchten,
Bitte entfernen Sie zuerst den/die Bloom Filter Index/Indizes:
DROP BLOOMFILTER INDEX ON TABLE
tableName FOR COLUMNS(<columnNames>
)
Wenn Sie stattdessen alle Bloom-Filterindizes in der Tabelle entfernen möchten, verwenden Sie Folgendes:
DROP BLOOMFILTER INDEX ON TABLE
TabellenName
DELTA_UNTERSTÜTZT_NICHT_VAKUUM_SPEZIFISCHE_PARTITION
Geben Sie den Basispfad (<baseDeltaPath>
) beim Vakuumieren von Delta-Tabellen an. Das Vakuumieren bestimmter Partitionen wird derzeit nicht unterstützt.
DELTA_UNTERSTÜTZT_UNSCHREIBBARE_TABELLEN
Die Tabellenimplementierung unterstützt keine Schreibvorgänge: <tableName>
.
Nicht unterstützte Schreibvorgänge ohne Koordinator
Sie versuchen, Schreibvorgänge für eine Tabelle durchzuführen, die beim Commit-Koordinator <coordinatorName>
registriert wurde. In der aktuellen Umgebung ist jedoch keine Implementierung dieses Koordinators verfügbar und Schreibvorgänge ohne Koordinatoren sind nicht zulässig.
DELTA_UNTERSTÜTZTES_SCHREIBEN_VON_BEISPIELTABELLEN
Schreiben in Beispieltabellen wird nicht unterstützt.
DELTA_UPDATE_SCHEMA_UNSTIMMIGKEIT_AUSDRUCK
<fromCatalog>
kann nicht in <toCatalog>
umgestellt werden. Alle geschachtelten Spalten müssen übereinstimmen.
DELTA_V2_CHECKPOINTS_ERFORDERLICH_FÜR_OPERATION
CHECKPOINT
der Vorgang erfordert, dass V2-Prüfpunkte in der Tabelle aktiviert werden.
DELTA_VAKUUM_KOPIE_IN_ZUSTAND_FEHLGESCHLAGEN
VACUUM
für Datendateien war erfolgreich, aber COPY INTO
Zustands-GC ist fehlgeschlagen.
DELTA_VERSIONEN_NICHT_ZUSAMMENHÄNGEND
Versionen (<versionList>
) sind nicht zusammenhängend.
Beim Versuch, Version <startVersion>
zu laden, wurde eine Lücke im Deltaprotokoll zwischen Version <endVersion>
und <versionToLoad>
erkannt.
Weitere Details finden Sie unter DELTA_VERSIONS_NOT_CONTIGUOUS.
DELTA_VERSION_UNGÜLTIG
Die angegebene Version (<version>
) ist keine gültige Version.
DELTA_EINSCHRÄNKUNG_VERLETZEN_MIT_WERTEN
Verstoß gegen CHECK
-Einschränkung <constraintName> <expression>
durch Zeile mit Werten:
<values>
.
DELTA_VERLETZUNG_EIGENSCHAFT_VALIDIERUNG_FEHLGESCHLAGEN
Die Validierung der Eigenschaften der Tabelle <table>
wurde verletzt:
Weitere Details finden Sie unter DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED.
DELTA_SCHREIBEN_IN_ANZEIGE_NICHT_UNTERSTÜTZT
<viewIdentifier>
ist eine Ansicht. Sie dürfen keine Daten in eine Ansicht schreiben.
DELTA_ZORDER_COLUMN_EXISTIERT_NICHT
Die Spalte "Z-Sortierung" <columnName>
ist im Datenschema nicht vorhanden.
DELTA_ZORDERUNG_AUF_SPALTE_OHNE_STATISTIKEN
Z-Order on <cols>
ist unwirksam, da wir derzeit keine Statistiken für diese Spalten sammeln. Weitere Informationen zum Überspringen von Daten und zur Z-Sortierung finden Sie unter <link>
. Sie können diese Überprüfung deaktivieren, indem Sie eine Einstellung ändern.
SET <zorderColStatKey>
= falsch
DELTA_ZORDERING_AUF_PARTITIONSSPALTE
<colName>
ist eine Partitionsspalte. Z-Sortierung kann nur für Datenspalten ausgeführt werden
Delta-Sharing
DELTA_FREIGABE_AKTIVIERUNG_NONCE_EXISTIERT_NICHT
SQLSTATE: nicht zugewiesen
Aktivierungsnonce nicht gefunden. Der verwendete Aktivierungslink ist ungültig oder abgelaufen. Generieren Sie den Aktivierungslink neu, und versuchen Sie es erneut.
DELTA_SHARING_REGIONENÜBERGREIFENDES_SHARE_NICHT_UNTERSTÜTZT
SQLSTATE: nicht zugewiesen
Die Freigabe zwischen <regionHint>
-Regionen und Regionen außerhalb davon wird nicht unterstützt.
DELTA_SHARING_GET_EMPFÄNGER_EIGENSCHAFTEN_UNGÜLTIGE_ABHÄNGIGKEIT
SQLSTATE: nicht zugewiesen
Die mit der current_recipient
-Funktion definierte Ansicht dient nur der gemeinsamen Nutzung und kann nur von der Datenempfängerseite abgefragt werden. Das bereitgestellte Securable mit der ID <securableId>
ist keine Delta Sharing View.
DELTA_SHARING_MUTABLE_SECURABLE_KIND_NICHT_UNTERSTÜTZT
SQLSTATE: nicht zugewiesen
Die bereitgestellte sicherungsfähige Art <securableKind>
unterstützt keine Veränderlichkeit bei Delta-Freigaben.
Nicht berechtigt, das Token für DELTA_SHARING zu rotieren, im Marktplatz.
SQLSTATE: nicht zugewiesen
Die bereitgestellte sicherungsfähige Art <securableKind>
unterstützt keine Tokenrotationsaktion, die vom Marketplace-Dienst initiiert wird.
DS_AUTH_TYP_NICHT_VERFÜGBAR
SQLSTATE: nicht zugewiesen
<dsError>
: Authentifizierungstyp ist in der Anbieterentität <providerEntity>
nicht verfügbar.
DS_CDF_NICHT_AKTIVIERT
SQLSTATE: nicht zugewiesen
<dsError>
: Der Zugriff auf den Änderungsdaten-Feed für <tableName>
ist nicht möglich. CDF ist für die ursprüngliche Delta-Tabelle für die Version <version>
nicht aktiviert. Wenden Sie sich bitte an Ihren Datenanbieter.
DS_CDF_NICHT_GETEILT
SQLSTATE: nicht zugewiesen
<dsError>
: Der Zugriff auf den Änderungsdaten-Feed für <tableName>
ist nicht möglich. CDF ist für die Tabelle nicht freigegeben. Wenden Sie sich bitte an Ihren Datenanbieter.
DS_CDF_RPC_UNGÜLTIGER_PARAMETER
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_CLIENT_AUTH_FEHLER_FÜR_DB_DS_SERVER
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_CLIENT_ERROR_FOR_DB_DS_SERVER (Client-Fehler bei Datenbank-Server-Verbindung)
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_CLIENT_OAUTH_Token-Austausch-Fehler
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_CLIENT_OAUTH_TOKEN_AUSTAUSCH_NICHT_AUTORISIERT
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_CLOUD_ANBIETER_NICHT_VERFÜGBAR
SQLSTATE: nicht zugewiesen
<dsError>
: Der Cloudanbieter ist vorübergehend für <rpcName>
nicht verfügbar, versuchen Sie es erneut.<traceId>
DS_DATA_MATERIALISIERUNGSBEFEHL_FEHLGESCHLAGEN
SQLSTATE: nicht zugewiesen
<dsError>
: Bei der Ausführung der Datenmaterialisierungsaufgabe <runId>
von Organisation <orgId>
ist bei Befehl <command>
ein Fehler aufgetreten.
Der Befehl "DS_DATA_MATERIALIZATION_COMMAND_NOT_SUPPORTED" wird nicht unterstützt.
SQLSTATE: nicht zugewiesen
<dsError>
: Die Ausführung der Datenmaterialisierungsaufgabe <runId>
von Organisation <orgId>
unterstützt den Befehl <command>
nicht.
DS_Datenmaterialisierung_nicht_unterstützt_ohne_Serverless
SQLSTATE: nicht zugewiesen
<dsError>
: <featureName>
wird nicht unterstützt, da Serverless im Anbieterarbeitsbereich nicht unterstützt oder aktiviert ist. Wenden Sie sich an Ihren Datenanbieter, um serverlos zu aktivieren.
DS_DATEN_MATERIALISIERUNG_KEIN_GÜLTIGER_NAMESPACE
SQLSTATE: nicht zugewiesen
<dsError>
: Der gültige Namespace zum Erstellen der Materialisierung für <tableName>
konnte nicht gefunden werden. Wenden Sie sich an Ihren Datenanbieter, um dies zu beheben.
DS_DATEN_MATERIALISIERUNG_LAUF_EXISTIERT_NICHT
SQLSTATE: nicht zugewiesen
<dsError>
: Die Ausführung der Datenmaterialisierungsaufgabe <runId>
von Organisation <orgId>
ist nicht vorhanden.
DS_DELTA_ILLEGALER_ZUSTAND
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_DELTA_MISSING_CHECKPOINT_FILES (Fehlende Checkpoint-Dateien im Delta)
SQLSTATE: nicht zugewiesen
<dsError>
: Es konnten nicht alle Teildateien der Prüfpunktversion gefunden werden: <version>
. <suggestion>
DS_DELTA_NULL_POINTER
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_DELTA_RUNTIME_EXCEPTION
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_ABGELAUFENES_TOKEN_NICHT_AUTORISIERT_FÜR_MARKTPLATZ
SQLSTATE: nicht zugewiesen
<dsError>
Die bereitgestellte sicherungsfähige Art <securableKind>
unterstützt keine Tokenablaufaktion, die vom Marketplace-Dienst initiiert wird.
DS_ANFRAGE_ZUM_ÖFFNEN_DES_DS_SERVERS_FEHLGESCHLAGEN
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_FEHLGESCHLAGENE_ANFORDERUNG_AN_SAP_DS_SERVER
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_FEATURE_NUR_FÜR_DATABRICKS_ZU_DATABRICKS
SQLSTATE: nicht zugewiesen
<dsError>
: <feature>
ist nur für die Databricks-zu-Databricks-Delta-Freigabe aktiviert.
DS_DATEILISTUNG_AUSNAHME
SQLSTATE: nicht zugewiesen
<dsError>
: : <storage>
<message>
DS_FILE_SIGNING_EXCEPTION (Datei-Signatur-Ausnahme)
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_AUSLÄNDISCHER_TABELLENMETADATEN_REFRESH_FEHLGESCHLAGEN
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_HADOOP_CONFIG_NICHT_GEFUNDEN
SQLSTATE: nicht zugewiesen
<dsError>
: <key>
wird vom Aufrufer nicht festgelegt.
DS_ILLEGAL_STATE
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_INTERNE_FEHLER_VOM_DB_DS_SERVER
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_INVALID_AZURE_PATH - Ungültiger Azure-Pfad
SQLSTATE: nicht zugewiesen
<dsError>
: Ungültiger Azure-Pfad: <path>
.
DS_UNGÜLTIGE_DELTA_AKTIONS_OPERATION
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_UNGÜLTIGES_FELD
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_UNGÜLTIGE_ITERATOR_OPERATION
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_INVALID_PARAMETER_VALUE
SQLSTATE: nicht zugewiesen
<dsError>
: Ungültiger Parameter für <rpcName>
aufgrund von <cause>
.
DS_Ungültige_Partitionierungsspezifikation
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
Ungültige Antwort vom DS-Server
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_MATERIALISIERUNG_ABFRAGE_FEHLGESCHLAGEN
SQLSTATE: nicht zugewiesen
<dsError>
: Abfrage für <schema>
fehlgeschlagen.
<table>
aus Freigabe <share>
.
Zeitüberschreitung bei der DS-Materialisierungsanfrage
SQLSTATE: nicht zugewiesen
<dsError>
: Zeitüberschreitung bei Abfrage für <schema>
.
<table>
von Freigabe <share>
nach <timeoutInSec>
Sekunden.
Fehlende Idempotenzschlüssel
SQLSTATE: nicht zugewiesen
<dsError>
: Der Idempotenzschlüssel ist erforderlich, wenn <schema>
abgefragt wird.
<table>
aus Freigabe <share>
erforderlich.
DS_MEHR_ALS_EIN_RPC_PARAMETER-SATZ
SQLSTATE: nicht zugewiesen
<dsError>
: Bitte geben Sie nur einen davon an: <parameters>
.
DS_NETZWERKVERBINDUNG_GESCHLOSSEN
SQLSTATE: nicht zugewiesen
<dsError>
: Netzwerkverbindung aufgrund von <rpcName>
für <errorCause>
geschlossen, versuchen Sie es erneut.<traceId>
Netzwerkverbindung Zeitüberschreitung
SQLSTATE: nicht zugewiesen
<dsError>
: Netzwerkverbindungstimeout aufgrund von <rpcName>
für <errorCause>
, versuchen Sie es erneut.<traceId>
Netzwerkfehler (DS_NETWORK_ERROR)
SQLSTATE: nicht zugewiesen
<dsError>
: Netzwerkfehler für <rpcName>
aufgrund von <errorCause>
, versuchen Sie es erneut.<traceId>
DS_NO_METASTORE_ZUGEWIESEN
SQLSTATE: nicht zugewiesen
<dsError>
: Kein Metaspeicher für den aktuellen Arbeitsbereich zugewiesen (workspaceId: <workspaceId>
).
DS_O2D_OIDC_ARBEITSLAST_IDENTITÄT_TOKEN_ERZEUGUNG_FEHLGESCHLAGEN
SQLSTATE: nicht zugewiesen
<dsError>
: Fehler beim Generieren des Workload-Identitätstokens für den O2D-OIDC-Anbieter: <message>
.
DS_Paginierung_und_Abfrageargumente_Nichtübereinstimmung
SQLSTATE: nicht zugewiesen
<dsError>
: Nicht übereinstimmende Paginierungs- oder Abfrageargumente.
DS_PARTITIONSTABELLEN_UMBENANNT
SQLSTATE: nicht zugewiesen
<dsError>
: Partitionsspalte [<renamedColumns>
] wurde in der freigegebenen Tabelle umbenannt. Wenden Sie sich an Ihren Datenanbieter, um dies zu beheben.
DS_ABFRAGE_BE VOR_START_VERSION
SQLSTATE: nicht zugewiesen
<dsError>
: Sie können Tabellendaten nur seit version <startVersion>
abfragen.
DS_ABFRAGE_ENDE_VERSION_NACH_NEUESTER_VERSION
SQLSTATE: nicht zugewiesen
<dsError>
: Die bereitgestellte Endversion(<endVersion>
) zum Lesen von Daten ist ungültig. Die Endversion darf nicht größer sein als die neueste Version der Tabelle(<latestVersion>
).
DS_ANFRAGE_START_VERSION_NACH_SPÄTESTER_VERSION
SQLSTATE: nicht zugewiesen
<dsError>
: Die bereitgestellte Startversion(<startVersion>
) zum Lesen von Daten ist ungültig. Die Startversion darf nicht größer als die neueste Version der Tabelle(<latestVersion>
) sein.
DS_Abfrage-Timeout_auf_dem_Server
SQLSTATE: nicht zugewiesen
<dsError>
: Beim Verarbeiten von <queryType>
in <tableName>
nach <numActions>
-Aktualisierungen in <numIter>
-Iterationen ist ein Timeout aufgetreten.<progressUpdate> <suggestion> <traceId>
DS_Ratenbegrenzung_auf_DS_Server
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_EMPFÄNGER_RPC_UNGÜLTIGER_PARAMETER
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_RECON_FAILED_ON_UC_WRITE_RPC
SQLSTATE: nicht zugewiesen
<dsError>
: UC RPC <rpcName>
ist fehlgeschlagen. Wird konvertiert in INTERNAL_ERROR
.
DS_RESOURCE_SCHON_AUF_DS_SERVER_VORHANDEN
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_Ressource_Erschöpft
SQLSTATE: nicht zugewiesen
<dsError>
: Der Grenzwert für <resource>
wurde überschritten: [<limitSize>
]<suggestion>
.<traceId>
DS_RESOURCE_NOT_FOUND_ON_DS_SERVER
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_SCHEMA_NAMENSKONFLIKT_GEFUNDEN
SQLSTATE: nicht zugewiesen
<dsError>
: Katalog <catalogName>
enthält bereits Schemanamen, die in der Freigabe <shareName>
gefunden werden.
<description>
von konfliktverursachenden Schemanamen: <schemaNamesInCommon>
.
DS-SERVER-ZEITÜBERSCHREITUNG
SQLSTATE: nicht zugewiesen
<dsError>
: Servertimeout für <rpcName>
aufgrund von <errorCause>
, versuchen Sie es erneut.<traceId>
DS_SHARE_BEREITS_IM_KATALOG_EINGEHÄNGT
SQLSTATE: nicht zugewiesen
<dsError>
: Freigabe <shareName>
vom Anbieter <providerName>
ist bereits in den Katalog <catalogName>
eingebunden.
DS_SYSTEM_ARBEITSBEREICH_GRUPPENBERECHTIGUNG_NICHT_UNTERSTÜTZT
SQLSTATE: nicht zugewiesen
Es können keine Berechtigungen für <securableType>
an die vom System generierte Gruppe <principal>
gewährt werden.
ZEITREISEN NICHT ERLAUBT
SQLSTATE: nicht zugewiesen
<dsError>
: Zeitreiseabfrage ist nicht zulässig, es sei denn, der Verlauf wird für <tableName>
freigegeben. Wenden Sie sich bitte an Ihren Datenanbieter.
DS_UNAUTORISIERT
SQLSTATE: nicht zugewiesen
<dsError>
: Nicht autorisiert.
DS_UNAUTHORIZED_D2O_OIDC_EMPFÄNGER
SQLSTATE: nicht zugewiesen
<dsError>
: Nicht autorisierter D2O-OIDC-Empfänger: <message>
.
DS_UNBEKANNTE_AUSNAHME
SQLSTATE: nicht zugewiesen
<dsError>
: <traceId>
DS_UNBEKANNTE_ANFRAGE_ID
SQLSTATE: nicht zugewiesen
<dsError>
: Unbekannte Abfrage-ID <queryID>
für <schema>
.
<table>
aus Freigabe <share>
.
DS_UNBEKANNTER ABFRAGESTATUS
SQLSTATE: nicht zugewiesen
<dsError>
: Unbekannter Abfragestatus für die Abfrage-ID <queryID>
für <schema>
.
<table>
aus Freigabe <share>
.
DS_UNKNOWN_RPC (Unbekannter RPC)
SQLSTATE: nicht zugewiesen
<dsError>
: Unbekannter RPC <rpcName>
.
DS_UNSUPPORTED_DELTA_READER_VERSION (Nicht unterstützte Delta-Leser-Version)
SQLSTATE: nicht zugewiesen
<dsError>
: Die Delta-Protokollleserversion <tableReaderVersion>
ist höher als <supportedReaderVersion>
und kann nicht auf dem Delta-Freigabeserver unterstützt werden.
DS_UNTERSTÜTZT_NICHT_DELTA_TABELLEN_FEATURES
SQLSTATE: nicht zugewiesen
<dsError>
: Tabellenfeatures <tableFeatures>
befinden sich in Tabelle<versionStr> <historySharingStatusStr> <optionStr>
DS_NICHT_UNTERSTÜTZTE_OPERATION
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_NICHT_UNTERSTÜTZTES_SPEICHER_FORMAT
SQLSTATE: nicht zugewiesen
<dsError>
: Nicht unterstütztes Speicherschema: <scheme>
.
DS_UNSUPPORTED_TABLE_TYPE (Nicht unterstützter Tabellentyp)
SQLSTATE: nicht zugewiesen
<dsError>
: <schema>
konnte nicht abgerufen werden.
<table>
von Share <share>
da die Tabelle mit Typ [<tableType>
] derzeit in <queryType>
Abfragen nicht unterstützt wird.
DS_Benutzerkontextfehler
SQLSTATE: nicht zugewiesen
<dsError>
: <message>
DS_VIEW_FREIGABE_FUNKTIONEN_NICHT_ERLAUBT
SQLSTATE: nicht zugewiesen
<dsError>
: Die folgenden Funktionen sind in der Ansichtsfreigabeabfrage nicht zulässig: <functions>
Arbeitsbereich-Domäne nicht gesetzt
SQLSTATE: nicht zugewiesen
<dsError>
: Arbeitsbereich <workspaceId>
Domäne ist nicht festgelegt.
DS_ARBEITSBEREICH_NICHT_GEFUNDEN
SQLSTATE: nicht zugewiesen
<dsError>
: Arbeitsbereich <workspaceId>
wurde nicht gefunden.
Automatischer Lader
CF_ADD_NEW_NOT_SUPPORTED
Der Schemaentwicklungsmodus <addNewColumnsMode>
wird beim Angeben des Schemas nicht unterstützt. Um diesen Modus zu verwenden, können Sie stattdessen das Schema über cloudFiles.schemaHints
bereitstellen.
CF_MEHRDEUTIGE_AUTHENTIFIZIERUNGSOPTIONEN_FEHLER
Es wurden Authentifizierungsoptionen für die Benachrichtigungseinrichtung für den (Standard-)Auflistungsmodus des
Eintragsmodus:
<options>
Wenn Sie den Dateibenachrichtigungsmodus verwenden möchten, legen Sie folgendes explizit fest:
.option("cloudFiles.<useNotificationsKey>
", "true")
Alternativ können Sie die Überprüfung Ihrer Optionen überspringen und diese ignorieren.
Authentifizierungsoptionen können Sie festlegen:
.option("cloudFiles.ValidateOptionsKey>", "false")
CF_MEHRDEUTIGER_INKREMENTAL_LISTENMODUS_FEHLER
Inkrementeller Auflistungsmodus (cloudFiles.<useIncrementalListingKey>
)
und Dateibenachrichtigung (cloudFiles.<useNotificationsKey>
)
wurden gleichzeitig aktiviert.
Stellen Sie sicher, dass Sie nur eine auswählen.
CF_AZURE_AUTHENTIFIZIERUNG_FEHLENDE_OPTIONEN
Bitte stellen Sie entweder Databricks-Dienstanmeldeinformationen oder sowohl eine ClientID als auch ein ClientSecret für die Authentifizierung mit Azure bereit.
CF_AZURE_AUTHENTIFIZIERUNG_MEHRERE_OPTIONEN
Wenn eine Databricks-Dienstanmeldeinformation bereitgestellt wird, sollten keine anderen Anmeldeinformationen (z. B. clientId, clientSecret oder connectionString) bereitgestellt werden.
CF_AZURE_STORAGE_SUFFIXES_REQUIRED
Erforderlich sind adlsBlobSuffix und adlsDfsSuffix für Azure
CF_BUCKET_MISMATCH
Der <storeType>
im Dateiereignis <fileEvent>
entspricht nicht der Erwartung der Quelle: <source>
.
CF_KANN_SCHEMA_PROTOKOLL_NICHT_WEITERENTWICKELN_LEER
Schema kann nicht weiterentwickelt werden, wenn das Schemaprotokoll leer ist. Schemaprotokollspeicherort: <logPath>
CF_KANN_QUEUE_NACHRICHT_NICHT_VERARBEITEN
Die folgende Warteschlangenmeldung kann nicht analysiert werden: <message>
CF_NAME_DES_CONTAINER_NICHT_AUFLÖSEN
Der Containername kann nicht vom Pfad <path>
aufgelöst werden, aufgelöster URI: <uri>
CF_KANN_VERZEICHNISAUFLISTUNG_NICHT_AUSFÜHREN
Verzeichnisauflistung kann nicht ausgeführt werden, wenn ein asynchroner Backfill-Thread ausgeführt wird
CF_CLEAN_SOURCE_OVERWRITE_ERLAUBEN_BEIDE_AKTIV
CloudFiles.cleanSource und cloudFiles.allowOverwrites können nicht gleichzeitig aktiviert werden.
CF_CLEAN_SOURCE_KANN_DATEIEN_NICHT_IN_DEN_QUELLPFAD_VERSCHIEBEN
Das Verschieben von Dateien in ein Verzeichnis unter dem Pfad, aus dem aufgenommen wird, wird nicht unterstützt.
CF_CLEAN_SOURCE_NICHT_AKTIVIERT
CleanSource wurde für diesen Arbeitsbereich nicht aktiviert. Wenden Sie sich an den Databricks-Support, um Unterstützung zu erhalten.
CF_CLEAN_SOURCE_UNAUTORISIERTE_SCHREIBERLAUBNIS
Das automatische Laden kann verarbeitete Dateien nicht archivieren, da sie keine Schreibberechtigungen für das Quellverzeichnis oder das Verschiebungsziel besitzt.
<reason>
Um das Problem zu beheben, können Sie entweder:
Erteilen von Schreibberechtigungen für das Quellverzeichnis und Verschieben des Ziels ODER
Set cleanSource to 'OFF'
Sie können die Blockierung Ihres Streams auch aufheben, indem Sie SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors auf 'true' festlegen.
CF_DUPLIZIERTE_SPALTE_IN_DATEN
Fehler beim Ableiten des Partitionsschemas der Tabelle. Sie haben dieselbe Spalte sowohl in Ihren Daten als auch in Ihren Partitionspfaden dupliziert. Um den Partitionswert zu ignorieren, geben Sie Ihre Partitionsspalten explizit mithilfe von: .option("cloudFiles.<partitionColumnsKey>", "{comma-separated-list}")
CF_LEERES_VERZEICHNIS_FÜR_SCHEMA_ERKENNUNG
Das Schema kann nicht abgeleitet werden, wenn der Eingabepfad <path>
leer ist. Versuchen Sie, den Datenstrom zu starten, wenn Dateien im Eingabepfad vorhanden sind, oder geben Sie das Schema an.
CF_EVENT_GRID_AUTHENTIFIZIERUNGSFEHLER
Fehler beim Erstellen eines Event Grid-Abonnements. Stellen Sie sicher, dass Ihr Dienstprinzipal
über <permissionType>
-Event Grid-Abonnements verfügt. Weitere Details finden Sie unter:
<docLink>
CF_Ereignis_Gitter_Erstellung_Fehlgeschlagen
Fehler beim Erstellen des Event Grid-Abonnements. Stellen Sie sicher, dass Microsoft.EventGrid als
Ressourcenanbieter in Ihrem Abonnement registriert ist. Weitere Details finden Sie unter:
<docLink>
CF_EVENT_GRID_NICHT_GEFUNDEN_FEHLER
Fehler beim Erstellen eines Event Grid-Abonnements. Stellen Sie sicher, dass Ihr Speicherkonto
(<storageAccount>
) sich in Ihrer Ressourcengruppe (<resourceGroup>
) befindet und dass
Das Speicherkonto ist ein "StorageV2(general purpose v2)"-Konto. Weitere Details finden Sie unter:
<docLink>
CF_EVENT_NOTIFICATION_NOT_SUPPORTED
Der Modus für Ereignisbenachrichtigungen beim automatischen Laden wird für <cloudStore>
nicht unterstützt.
CF_KONNTE_STREAM_NICHT_ÜBERPRÜFEN_NEU
Fehler beim Überprüfen, ob der Datenstrom neu ist.
CF_FEHLER_BEIM_ERSTELLEN_DER_PUBSUB_ABONNEMENT
Fehler beim Erstellen des Abonnements: <subscriptionName>
. Ein Abonnement mit demselben Namen ist bereits vorhanden und einem anderen Thema zugeordnet: <otherTopicName>
. Das gewünschte Thema ist <proposedTopicName>
. Löschen Sie entweder das vorhandene Abonnement, oder erstellen Sie ein Abonnement mit einem neuen Ressourcensuffix.
CF_FAILED_TO_CREATE_PUBSUB_TOPIC - Fehler beim Erstellen des Pub/Sub-Topics
Fehler: Themenbereich <topicName>
konnte nicht erstellt werden. Ein Thema mit demselben Namen ist bereits vorhanden.
<reason>
Entfernen sie das vorhandene Thema, oder versuchen Sie es erneut mit einem anderen Ressourcensuffix.
Fehler beim Löschen der GCP-Benachrichtigung
Fehler beim Löschen der Benachrichtigung mit der ID <notificationId>
im Bucket <bucketName>
für Thema <topicName>
. Versuchen Sie es erneut, oder entfernen Sie die Benachrichtigung manuell über die GCP-Konsole.
CF_FEHLER_BEI_DESERIALISIERUNG_PERSISTIERTES_SCHEMA
Fehler beim Deserialisieren des persistenten Schemas aus der Zeichenfolge: '<jsonSchema>
'
CF_FAILED_TO_EVOLVE_SCHEMA (Schema konnte nicht weiterentwickelt werden)
Schema kann nicht ohne Schemaprotokoll weiterentwickelt werden.
CF_NICHT_IN_DER_LAGE_ANBIETER_ZU_FINDEN
Der Anbieter für <fileFormatInput>
konnte nicht gefunden werden.
CF_KONNTE_SCHEMA_NICHT_ABLEITEN
Fehler beim Ableiten des Schemas für das Format <fileFormatInput>
aus vorhandenen Dateien im Eingabepfad <path>
.
Weitere Details finden Sie unter CF_FAILED_TO_INFER_SCHEMA.
CF_KonnteNichtInSchemaProtokollSchreiben
Fehler beim Schreiben in das Schemaprotokoll am Speicherort <path>
.
DATEIFORMAT_ERFORDERLICH
Die erforderliche Option wurde nicht gefunden: cloudFiles.format.
Mehrere Autoloader Pub/Sub-Abonnements gefunden
Es wurden mehrere (<num>
) Abonnements mit dem Präfix "Auto Loader" für das Thema <topicName>
gefunden:
<subscriptionList>
Pro Thema sollte nur ein Abonnement vorhanden sein. Stellen Sie bitte manuell sicher, dass Ihr Thema nicht über mehrere Abonnements verfügt.
CF_GCP_AUTHENTIFIZIERUNG
Bitte geben Sie entweder alle folgenden Informationen an: <clientEmail>
, <client>
,
<privateKey>
und <privateKeyId>
, oder geben Sie <serviceCredential>
an, um Ihre Databricks-Dienstanmeldeinformationen zu verwenden.
Geben Sie alternativ nichts davon an, um die standardmäßige GCP-Anmeldeinformationsanbieterkette für die Authentifizierung bei GCP-Ressourcen zu verwenden.
CF_GCP_LABELS_ANZAHL_ÜBERSCHRITTEN
Es wurden zu viele Bezeichnungen (<num>
) für die GCP-Ressource empfangen. Die maximale Bezeichnungsanzahl pro Ressource ist <maxNum>
.
CF_GCP_RESOURCE_TAGS_ANZAHL_ÜBERSCHRITTEN
Sie haben zu viele Ressourcentags (<num>
) für die GCP-Ressource empfangen. Die maximale Anzahl von Ressourcentags pro Ressource ist <maxNum>
, da Ressourcentags als GCP-Bezeichnungen für Ressourcen gespeichert werden, und Databricks-spezifische Tags verbrauchen einige dieser Bezeichnungskontingente.
CF_UNVOLLSTÄNDIGE_PROTOKOLLDATEI_IM_SCHEMA_PROTOKOLL
Unvollständige Protokolldatei im Schemaprotokoll im Pfad <path>
CF_UNVOLLSTÄNDIGE_METADATA_DATEI_IM_CHECKPOINT
Unvollständige Metadatendatei im Prüfpunkt "Auto Loader"
CF_FEHLERHAFTE_BATCH_VERWENDUNG
CloudFiles ist eine Streamingquelle. Verwenden Sie spark.readStream anstelle von spark.read. Um diese Überprüfung zu deaktivieren, legen Sie <cloudFilesFormatValidationEnabled>
auf "false" fest.
CF_FEHLERHAFTE_SQL_PARAMETER
Die cloud_files-Methode akzeptiert zwei erforderliche Zeichenfolgenparameter: den Pfad zum Laden von und das Dateiformat. Dateileseoptionen müssen in einer Zeichenfolgen-Schlüsselwertzuordnung bereitgestellt werden. Beispiel: cloud_files("path", "json", map("option1", "value1")). Empfangen: <params>
CF_FALSCHE_STREAM_VERWENDUNG
Um "cloudFiles" als Streamingquelle zu verwenden, geben Sie das Dateiformat mit der Option "cloudFiles.format" an, und verwenden Sie .load(), um Ihren DataFrame zu erstellen. Um diese Überprüfung zu deaktivieren, legen Sie <cloudFilesFormatValidationEnabled>
auf "false" fest.
CF_INTERNE_FEHLER
Interner Fehler.
Weitere Details finden Sie unter CF_INTERNAL_ERROR.
CF_INVALID_ARN (Ungültige ARN)
Ungültiger ARN: <arn>
CF_UNGÜLTIGES_AZURE_ZERTIFIKAT
Der private Schlüssel, der mit option cloudFiles.certificate bereitgestellt wird, kann nicht analysiert werden. Geben Sie einen gültigen öffentlichen Schlüssel im PEM-Format an.
CF_INVALID_AZURE_CERT_PRIVATE_KEY (Ungültiger privater Schlüssel für Azure-Zertifikat)
Der private Schlüssel, der mit option cloudFiles.certificatePrivateKey bereitgestellt wird, kann nicht analysiert werden. Geben Sie einen gültigen privaten Schlüssel im PEM-Format an.
CF_UNGÜLTIGER_PRÜFPUNKT
Dieser Prüfpunkt ist keine gültige CloudFiles-Quelle.
CF_UNGÜLTIGER_SAUBERER_QUELLENMODUS
Ungültiger Modus für die Option "Saubere Quelle" <value>
.
CF_INVALID_GCP_RESOURCE_TAG_KEY
Ungültiger Ressourcentagschlüssel für GCP-Ressource: <key>
. Schlüssel müssen mit einem Kleinbuchstaben beginnen, innerhalb von 1 bis 63 Zeichen lang sein und nur Kleinbuchstaben, Zahlen, Unterstriche (_) und Bindestriche (-) enthalten.
CF_UNGÜLTIGER_GCP_RESOURCEN_TAG_WERT
Ungültiger Ressourcentagwert für GCP-Ressource: <value>
. Werte müssen innerhalb von 0 bis 63 Zeichen lang sein und dürfen nur Kleinbuchstaben, Zahlen, Unterstriche (_) und Bindestriche (-) enthalten.
CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS (Ungültige verwaltete Dateiereignisse-Optionsschlüssel)
Auto Loader unterstützt die folgenden Optionen bei der Verwendung mit verwalteten Dateievents nicht.
<optionList>
Es wird empfohlen, diese Optionen zu entfernen und dann den Datenstrom neu zu starten.
Fehler bei verwalteten Dateievent-Antworten (CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE)
Ungültige Antwort vom Dienst für verwaltete Dateiereignisse. Wenden Sie sich an den Databricks-Support, um Unterstützung zu erhalten.
Weitere Details finden Sie unter CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE.
CF_INVALID_SCHEMA_EVOLUTION_MODE
cloudFiles.
<schemaEvolutionModeKey>
muss eines der folgende Formate aufweisen
-
<addNewColumns>
-
<failOnNewColumns>
-
<rescue>
-
<noEvolution>
CF_UNGÜLTIGE_SCHEMA_HINTS_OPTION
Schemahinweise können nur einmal eine bestimmte Spalte angeben.
In diesem Fall wird die Spalte neu definiert: <columnName>
mehrmals in „schemaHints“ neu definiert:
<schemaHints>
CF_UNGÜLTIGER_SCHEMAVORSCHLAG_SPALTE
Schemahinweise können nicht verwendet werden, um die geschachtelten Typen von Zuordnungen und Arrays außer Kraft zu setzen.
In Konflikt stehende Spalte: <columnName>
CF_LATEST_OFFSET_READ_LIMIT_ERFORDERLICH
latestOffset sollte mit einem ReadLimit für diese Quelle aufgerufen werden.
CF_LOG_DATEI_FEHLERHAFT
Die Protokolldatei war falsch formatiert: Fehler beim Lesen der richtigen Protokollversion aus <fileName>
.
DATEIEREIGNISSE_WERDEN_RÜCKWÄRTS_BEARBEITET
Sie haben den Auto Loader angewiesen, bestehende Dateien an Ihrem externen Speicherort zu ignorieren, indem Sie "includeExistingFiles" auf "false" setzen. Der Dienst für das Management von Dateivorgängen entdeckt jedoch weiterhin vorhandene Dateien an Ihrem externen Speicherort. Versuchen Sie es erneut, nachdem die Dateiverwaltungsereignisse das Ermitteln aller Dateien an Ihrem externen Speicherort abgeschlossen haben.
CF_VERWALTETE_DATEIEREIGNISENDPUNKT_NICHT_GEFUNDEN
Sie verwenden Auto Loader mit verwalteten Dateiereignissen, aber es scheint, dass der externe Speicherort für Ihren Eingabepfad „<path>
“ keine Dateiereignisse aktiviert hat, oder der Eingabepfad ist ungültig. Bitten Sie Ihren Databricks-Administrator, die Dateivorgänge am externen Speicherort für Ihren Eingabepfad zu aktivieren.
Zugriff auf den verwalteten Datei-Ereignis-Endpunkt verweigert
Sie verwenden Auto Loader mit verwalteten Dateiereignissen, aber Sie haben keinen Zugriff auf den externen Speicherort oder das Volume für den Eingabepfad „<path>
“, oder der Eingabepfad ist ungültig. Bitten Sie Ihren Databricks-Administrator, Leseberechtigungen für den externen Speicherort oder das Volume zu erteilen oder einen gültigen Eingabepfad innerhalb eines vorhandenen externen Speicherorts oder Volumes bereitzustellen.
The original translation appears to be complete and does not require changes if the term is a technical or industry-standard code that should remain in English. Thus, no improvements are made in this case.
Auto Loader mit verwalteten Dateiereignissen ist eine Vorschaufunktion. Um fortzufahren, wenden Sie sich bitte an den Databricks Support oder deaktivieren Sie die Option "cloudFiles.useManagedFileEvents".
CF_MAX_MUSS_POSITIV_SEIN
max muss positiv sein
CF_METADATA_DATEI_GLEICHZEITIG_VERWENDET
Mehrere Streaming-Abfragen werden gleichzeitig mit <metadataFile>
ausgeführt.
CF_MISSING_METADATA_FILE_ERROR - Fehlendes Metadaten-Dateifehler
Die Metadatendatei im Verzeichnis des Streamingquellpunkts fehlt. Diese Metadaten
Datei enthält wichtige Standardoptionen für den Datenstrom, sodass der Datenstrom nicht neu gestartet werden kann.
gerade jetzt. Wenden Sie sich an den Databricks-Support, um Unterstützung zu erhalten.
Fehlende Partition-Spalte-Fehler (CF_MISSING_PARTITION_COLUMN_ERROR)
Die Partitionsspalte <columnName>
ist im bereitgestellten Schema nicht vorhanden:
<schema>
CF_MISSING_SCHEMA_IN_PATHLESS_MODE
Geben Sie mit .schema() ein Schema an, wenn im Dateibenachrichtigungsmodus kein Pfad für die CloudFiles-Quelle bereitgestellt wird. Alternativ können Sie das automatische Ladeprogramm verwenden, um das Schema abzuleiten, bitte geben Sie einen Basispfad in .load() an.
CF_MEHRERE_PUBSUB_BENACHRICHTIGUNGEN_FÜR_THEMEN
Es wurden vorhandene Benachrichtigungen für das Thema <topicName>
im Bucket <bucketName>
gefunden.
Benachrichtigung,ID
<notificationList>
Um das Verunreinigen des Abonnenten mit unbeabsichtigten Ereignissen zu vermeiden, löschen Sie die oben genannten Benachrichtigungen, und versuchen Sie es erneut.
CF_NEW_PARTITION_ERROR
Neue Partitionsspalten wurden von Ihren Dateien abgeleitet: [<filesList>
]. Geben Sie alle Partitionsspalten in Ihrem Schema an, oder geben Sie eine Liste der Partitionsspalten an, für die Sie Werte extrahieren möchten, indem Sie Folgendes verwenden: .option("cloudFiles.partitionColumns", "{comma-separated-list|empty-string}")
CF_PARTITION_INFERENZ_FEHLER
Fehler beim Ableiten des Partitionsschemas des aktuellen Dateibatches. Geben Sie Ihre Partitionsspalten explizit an, indem Sie Folgendes verwenden: .option("cloudFiles.<partitionColumnOption>", "{comma-separated-list}"
)
CF_PFAD_EXISTIERT_NICHT_FÜR_LESEN_DATEIEN
Dateien können nicht gelesen werden, wenn der Eingabepfad <path>
nicht vorhanden ist. Stellen Sie sicher, dass der Eingabepfad vorhanden ist, und versuchen Sie es erneut.
CF_periodisches auffüllen nicht unterstützt
Regelmäßiges Zurückfüllen wird nicht unterstützt, wenn asynchrones Ausfüllen deaktiviert ist. Sie können die asynchrone Nachfüll-/Verzeichnisauflistung aktivieren, indem Sie spark.databricks.cloudFiles.asyncDirListing
auf "true" festlegen.
CF_PREFIX_MISMATCH
Gefundenes nicht übereinstimmendes Event: Schlüssel <key>
hat das Präfix nicht: <prefix>
CF_PROTOKOLL_UNEINSTIMMIGKEIT
<message>
Wenn Sie keine weiteren Änderungen an Ihrem Code vornehmen müssen, legen Sie die SQL-Datei fest.
Konfiguration: '<sourceProtocolVersionKey> = <value>
'
um Ihren Datenstrom fortzusetzen. Weitere Informationen finden Sie unter:
<docLink>
finden Sie weitere Details.
CF_REGION_NICHT_GEFUNDEN_FEHLER
Aws-Standardregion konnte nicht abgerufen werden. Geben Sie eine Region mit der Option "cloudFiles.region" an.
CF_RESOURCE_SUFFIX_FEHLT
Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix darf nicht leer sein.
CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS
Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix kann nur alphanumerische Zeichen, Bindestriche (-) und Unterstriche (_) enthalten.
Now assuming this is a specific technical identifier that does not need to be translated in context, there is no change necessary in the translation. However, if a description is needed, it could be something like "Ungültiges Zeichen im Ressourcen-Suffix für Azure".
Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix kann nur Kleinbuchstaben, Zahlen und Gedankenstriche (-) aufweisen.
CF_RESOURCE_SUFFIX_UNGÜLTIGES_ZEICHEN_GCP
Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix kann nur alphanumerische Zeichen, Bindestriche (-), Unterstriche (_), Punkte (.), Tilden (~) Pluszeichen (+) und Prozentzeichen (<percentSign>
) enthalten.
CF_RESOURCE_SUFFIX_LIMIT
Fehler beim Einrichten von Benachrichtigungsdiensten: Das Ressourcensuffix darf nicht mehr als <limit>
Zeichen enthalten.
CF_RESOURCE_SUFFIX_LIMIT_GCP
Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix muss zwischen den Zeichen <lowerLimit>
und <upperLimit>
liegen.
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY
Tagschlüssel (<key>
) für eingeschränkte GCP-Ressource gefunden. Die folgenden GCP-Ressourcentagschlüssel sind für das automatische Laden eingeschränkt: [<restrictedKeys>
]
CF_Aufbewahrung_Groesser_Als_Maximales_Dateialter
cloudFiles.cleanSource.retentionDuration darf nicht größer als cloudFiles.maxFileAge sein.
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
Fehler beim Erstellen einer Benachrichtigung für das Thema: <topic>
mit präfix: <prefix>
. Es gibt bereits ein Thema mit demselben Namen mit einem anderen Präfix: <oldPrefix>
. Versuchen Sie, ein anderes Ressourcensuffix zum Einrichten zu verwenden oder das vorhandene Setup zu löschen.
Fehlercode: CF_SCHEMA_LOG_DEEP_CLONE_MISSLUNGEN
Fehler beim Klonen und Migrieren von Schemaprotokolleinträgen aus dem Quellschemaprotokoll.
CF_SFTP_FEHLENDES_PASSWORT_ODER_SCHLÜSSELDATEI
Eine Kennwort- oder Schlüsseldatei muss für SFTP angegeben werden.
Geben Sie das Kennwort im Quell-URI oder über <passwordOption>
an, oder geben Sie den Schlüsseldateiinhalt über <keyFileOption>
an.
CF_SFTP_NICHT_AKTIVIERT
Der Zugriff auf SFTP-Dateien ist nicht aktiviert. Wenden Sie sich an den Databricks-Support, um Unterstützung zu erhalten.
CF_SFTP_REQUIRE_UC_CLUSTER
Für den Zugriff auf SFTP-Dateien ist ein UC-fähiger Cluster erforderlich. Wenden Sie sich an den Databricks-Support, um Unterstützung zu erhalten.
CF_SFTP_BENUTZERNAME_NICHT_GEFUNDEN
Der Benutzername muss für SFTP angegeben werden.
Geben Sie den Benutzernamen im Quell-URI oder über <option>
an.
CF_SOURCE_DIRECTORY_PATH_ERFORDERLICH
Geben Sie den Quellverzeichnispfad mit Option path
an.
CF_QUELLE_NICHT_UNTERSTÜTZT
Die Clouddateienquelle unterstützt derzeit nur S3-Pfade, Azure Blob Storage (wasb/wasbs) und Azure Data Lake Gen1 (adl) und Gen2 (abfs/abfss). Pfad: '<path>
', aufgelöster URI: '<uri>
'
CF_STATE_INCORRECT_SQL_PARAMS (Falsche SQL-Parameter)
Die Funktion cloud_files_state akzeptiert einen Zeichenfolgenparameter, der das Prüfpunktverzeichnis eines CloudFiles-Datenstroms oder einen mehrteiligen Tabellennamen darstellt, der eine Streamingtabelle identifiziert. Zudem gibt es einen optionalen zweiten Parameter vom Typ Ganzzahl, der die Prüfpunktversion angibt, für die der Zustand geladen werden soll. Der zweite Parameter kann auch „latest“ sein, um den neuesten Prüfpunkt zu lesen. Empfangen: <params>
CF_ZUSTAND_UNGÜLTIGER_PRÜFPUNKT_PFAD
Der Eingabeprüfpunktpfad <path>
ist ungültig. Entweder ist der Pfad nicht vorhanden oder es wurden keine cloud_files Quellen gefunden.
CF_STATE_UNGÜLTIGE_VERSION
Die angegebene Version <version>
ist nicht vorhanden oder wurde während der Analyse entfernt.
CF_THREAD_IST_TOT
<threadName>
Thread ist tot.
CF_NICHT_IN_DER_LAGE_DIE_STREAM_PRÜFPUNKT_POSITION_ABZULEITEN
Der Prüfpunktspeicherort des Streams kann nicht aus dem Prüfpunktspeicherort der Quelle <checkPointLocation>
abgeleitet werden
CF_DATEIFORMAT_NICHT_ERKENNBAR
Das Quelldateiformat aus <fileSize>
-Stichprobendateien konnte nicht erkannt werden, es wurde <formats>
gefunden. Geben Sie das Format an.
CF_KONNTE_BUCKET_INFORMATIONEN_NICHT_EXTRAHIEREN
Bucketinformationen können nicht extrahiert werden. Pfad: „<path>
“, aufgelöster URI: „<uri>
“
CF_Kann_Schlüsselinformationen_Nicht_Extrahieren
Schlüsselinformationen können nicht extrahiert werden. Pfad: „<path>
“, aufgelöster URI: „<uri>
“
CF_SPEICHERKONTO_INFORMATIONEN_KONNTEN_NICHT_EXTRAHIERT_WERDEN
Speicherkontoinformationen können nicht extrahiert werden; Pfad: '<path>
', aufgelöster URI: '<uri>
'
CF_KANN_NICHT_EFFIZIENT_AUFGEFÜHRT_WERDEN
Es wurde ein Verzeichnisbenennungsereignis für den Pfad <path>
empfangen, aber wir können dieses Verzeichnis nicht effizient auflisten. Damit der Datenstrom fortgesetzt werden kann, legen Sie die Option "cloudFiles.ignoreDirRenames" auf "true" fest, und erwägen Sie, reguläre Backfills mit "cloudFiles.backfillInterval" zu aktivieren, damit diese Daten verarbeitet werden.
CF_UNEXPECTED_READ_LIMIT (Unerwartetes Lese-Limit)
Unerwartetes Leselimit: <readLimit>
CF_UNKNOWN_OPTION_KEYS_FEHLER
Unbekannte Optionstasten gefunden:
<optionList>
Stellen Sie sicher, dass alle bereitgestellten Optionstasten korrekt sind. Wenn Sie die
Überprüfung Ihrer Optionen überspringen und diese unbekannten Optionen ignorieren möchten, können Sie Folgendes festlegen:
.option("cloudFiles.<validateOptions>
", "false")
CF_UNKNOWN_READ_LIMIT
Unbekanntes ReadLimit: <readLimit>
CF_UNSUPPORTED_CLEAN_SOURCE_MOVE
Die Konfiguration des cleanSource-Modus „Verschieben“ wird nicht unterstützt.
Weitere Informationen finden Sie unter CF_UNSUPPORTED_CLEAN_SOURCE_MOVE
CF_NICHT_UNTERSTÜTZTE_CLOUD_FILES_SQL_FUNKTION
Die SQL-Funktion "cloud_files" zum Erstellen einer Streamingquelle für das automatische Laden wird nur in Lakeflow Declarative Pipelines unterstützt. Weitere Details finden Sie unter:
<docLink>
CF_UNTERSTÜTZTES_FORMAT_FÜR_SCHEMA_ABLEITUNG_NICHT_UNTERSTÜTZT
Die Schemaerkennung wird für das Format nicht unterstützt: <format>
. Geben Sie das Schema an.
CF_UNSUPPORTED_LOG_VERSION (Nicht unterstützte Protokollversion)
UnsupportedLogVersion: Die höchste unterstützte Protokollversion ist v<maxVersion>
, es wurde jedoch v<version>
gefunden. Die Protokolldatei wurde von einer neueren Version von DBR erstellt und kann von dieser Version nicht gelesen werden. Bitte aktualisieren.
Nicht unterstützter Schemaentwicklungsmodus
Schema-Evolutionsmodus <mode>
wird für Format <format>
nicht unterstützt. Legen Sie den Schemaentwicklungsmodus auf "none" fest.
CF_USE_DELTA_FORMAT
Das Lesen aus einer Delta-Tabelle wird mit dieser Syntax nicht unterstützt. Wenn Sie Daten aus Delta nutzen möchten, lesen Sie bitte die Dokumente: lesen Sie eine Delta-Tabelle (<deltaDocLink>
) oder lesen Sie eine Delta-Tabelle als Datenstromquelle (<streamDeltaDocLink>
). Die Streamingquelle von Delta ist bereits für den inkrementellen Verbrauch von Daten optimiert.
Geodaten
EWKB_PARSE_ERROR
Fehler beim Parsen von EWKB „<parseError>
“ an Position <pos>
Fehler beim Parsen von GEOJSON
Fehler beim Analysieren von GeoJSON: <parseError>
an Position <pos>
Weitere Informationen finden Sie unter GEOJSON_PARSE_ERROR
GEO_ENCODER_SRID_ÜBEREINSTIMMUNGSFEHLER
Fehler beim Codieren <type>
eines Werts, da die bereitgestellte SRID <valueSrid>
eines zu codierenden Werts nicht mit dem Typ SRID übereinstimmt: <typeSrid>
.
H3_INVALID_CELL_ID
<h3Cell>
ist keine gültige H3-Zell-ID.
Weitere Details finden Sie unter H3_INVALID_CELL_ID.
H3_UNGÜLTIGER_GITTERNETZ_ABSTANDS_WERT
H3-Rasterabstand <k>
darf nicht negativ sein
Weitere Details finden Sie unter H3_INVALID_GRID_DISTANCE_VALUE.
H3_UNGÜLTIGER_AUFLÖSUNGSWERT
Die H3-Auflösung <r>
muss zwischen <minR>
und <maxR>
liegen (inklusive)
Weitere Details finden Sie unter H3_INVALID_RESOLUTION_VALUE.
H3_NICHT_AKTIVIERT
<h3Expression>
ist deaktiviert oder wird nicht unterstützt. Erwägen Sie, zu einer Ebene zu wechseln, die H3-Ausdrücke unterstützt
Weitere Details finden Sie unter H3_NOT_ENABLED.
H3_PENTAGON_FEHLER_AUFGETRETEN
Beim Berechnen des Hexrings von <h3Cell>
mit Rasterabstand <k>
ist ein Fünfeck aufgetreten.
H3_NICHT_DEFINIERTE_GITTERNETZ_ENTFERNUNG
H3-Rasterabstand zwischen <h3Cell1>
und <h3Cell2>
ist nicht definiert
Unterschiedliche SRID-Werte
Argumente für "<sqlFunction>
" müssen denselben SRID-Wert aufweisen. SRID-Werte gefunden: <srid1>
, <srid2>
ST_UNGÜLTIGES_ARGUMENT
"<sqlFunction>
": <reason>
ST_UNGÜLTIGER_ARGUMENT_TYP
Argument für "<sqlFunction>
" muss vom Typ sein <validTypes>
ST_UNGÜLTIGER_CRS_TRANSFORMATIONSFEHLER
<sqlFunction>
: Ungültige oder nicht unterstützte CRS-Transformation von SRID-<srcSrid>
in SRID-<trgSrid>
ST_INVALID_ENDIANNESS_VALUE
Die Byte-Reihenfolge „<e>
“ muss „NDR“ (little-endian) oder „XDR“ (big-endian) sein
ST_UNGÜLTIGER_GEOHASH_WERT
<sqlFunction>
: Ungültiger Geohashwert: '<geohash>
'. Geohash-Werte müssen gültige Base32-Zeichenfolgen in Kleinbuchstaben sein, wie in https://en.wikipedia.org/wiki/Geohash#Textual_representation
ST_INVALID_INDEX_VALUE
<sqlFunction>
: Ungültiger Index <index>
für den bereitgestellten Geospatialwert.
Ungültiger Präzisionswert
Präzisions-<p>
muss zwischen <minP>
und <maxP>
(einschließlich) liegen.
ST_INVALID_SRID_VALUE (Ungültiger SRID-Wert)
Ungültige oder nicht unterstützte SRID <srid>
ST_NICHT_AKTIVIERT
<stExpression>
ist deaktiviert oder wird nicht unterstützt. Erwägen Sie, zu einer Ebene zu wechseln, die ST-Ausdrücke unterstützt
ST_NICHT_UNTERSTÜTZTER_RÜCKGABETYP
Die Datentypen GEOGRAPHY
und GEOMETRY
können in Abfragen nicht zurückgegeben werden. Verwenden Sie einen der folgenden SQL-Ausdrücke, um sie in Standardaustauschformate zu konvertieren: <projectionExprs>
.
WKB_PARSE_ERROR
Fehler beim Analysieren von WKB <parseError>
an Position <pos>
Weitere Informationen finden Sie unter WKB_PARSE_ERROR
WKT_PARSE_ERROR
Fehler beim Parsen von WKT <parseError>
an Position <pos>
Weitere Details finden Sie unter WKT_PARSE_ERROR.
Unity-Katalog
Konfliktfehler bei Spaltennamen
Die Spalte <columnName>
steht im Konflikt mit einer anderen Spalte mit demselben Namen, jedoch mit/ohne nachfolgende Leerzeichen (zum Beispiel eine vorhandene Spalte mit dem Namen <columnName>
). Benennen Sie die Spalte mit einem anderen Namen um.
Verbindungsdaten werden für die Online-Verbindung zu Tabellentabellen nicht unterstützt.
SQLSTATE: nicht zugewiesen
Ungültige Anforderung zum Abrufen von Anmeldeinformationen auf Verbindungsebene für die Verbindung vom Typ <connectionType>
. Solche Anmeldeinformationen sind nur für verwaltete PostgreSQL-Verbindungen verfügbar.
VERBINDUNGSTYP_NICHT_AKTIVIERT
SQLSTATE: nicht zugewiesen
Der Verbindungstyp '<connectionType>
' ist nicht aktiviert. Aktivieren Sie die Verbindung, um sie zu verwenden.
DELTA_SHARING_READ_ONLY_EMPFÄNGER_EXISTIERT
SQLSTATE: nicht zugewiesen
Es ist bereits ein Recipient-Objekt '<existingRecipientName>
' mit demselben Freigabebezeichner '<existingMetastoreId>
' vorhanden.
DELTA_TEILEN_NUR_LESBAR_SICHERBARE_ART
SQLSTATE: nicht zugewiesen
Daten der sicherungsfähigen Delta-Freigabeart <securableKindName>
sind schreibgeschützt und können nicht erstellt, geändert oder gelöscht werden.
EXTERNER_ZUGRIFF_AUF_METASTORE_DEAKTIVIERT
SQLSTATE: nicht zugewiesen
Der Verkauf von Anmeldeinformationen wird für eine Nicht-Databricks-Compute-Umgebung abgelehnt, da der Zugriff auf externe Daten für Metastore <metastoreName>
deaktiviert wurde. Wenden Sie sich an Ihren Metastore-Administrator, um die Konfiguration "Externer Datenzugriff" im Metastore zu aktivieren.
EXTERNER_ZUGRIFF_FÜR_TABELLEN_NICHT_ERLAUBT
SQLSTATE: nicht zugewiesen
Auf die Tabelle mit der ID <tableId>
kann aufgrund ihrer Art <securableKind>
außerhalb der Databricks Compute Environment nicht zugegriffen werden. Nur auf 'TABLE_EXTERNAL
', 'TABLE_DELTA_EXTERNAL
' und 'TABLE_DELTA
' Tabellentypen kann extern zugegriffen werden.
EXTERNE_VERWENDUNGS_SCHEMA_FALSCHER_SICHERBARER_TYP_ZUGEWIESEN
SQLSTATE: nicht zugewiesen
Berechtigungen EXTERNAL
USE SCHEMA
gelten nicht für diese Entität <assignedSecurableType>
und können nur einem Schema oder Katalog zugewiesen werden. Entfernen Sie die Berechtigungen aus dem <assignedSecurableType>
-Objekt, und weisen Sie sie stattdessen einem Schema oder Katalog zu.
Externes Schreiben für Tabelle nicht erlaubt
SQLSTATE: nicht zugewiesen
Tabelle mit ID <tableId>
kann wegen ihres Typs <securableKind>
nicht von außerhalb der "Databricks Compute Environment" beschrieben werden. Nur 'TABLE_EXTERNAL
' und 'TABLE_DELTA_EXTERNAL
' Tabellentypen können extern geschrieben werden.
DER_ROOT_DES_FREMDKATALOGSPEICHERS_MUSS_SCHREIBEN_UNTERSTÜTZEN
SQLSTATE: nicht zugewiesen
Der Speicherort für einen Fremdkatalog vom Typ <catalogType>
wird zum Entladen von Daten verwendet und darf nicht schreibgeschützt sein.
HMS_SICHERBAR_ÜBERLAPPUNGSLIMIT_ÜBERSCHRITTEN
SQLSTATE: nicht zugewiesen
Die Anzahl von <resourceType>
für Eingabepfad <url>
überschreitet den zulässigen Grenzwert (<overlapLimit>
) für überlappende HMS-Ressourcentypen (<resourceType>
).
UNGÜLTIGER_RESOURCE_NAME_DELTA_SHARING
SQLSTATE: nicht zugewiesen
Delta-Freigabeanforderungen werden nicht mit Ressourcennamen unterstützt.
UNGÜLTIGER_RESOURCE_NAME_ENTITY_TYP
SQLSTATE: nicht zugewiesen
Der bereitgestellte Ressourcenname verweist auf den Entitätstyp <provided>
, aber es wurde <expected>
erwartet.
Ungültiger Ressourcenname - INVALID_RESOURCE_NAME_METASTORE_ID
SQLSTATE: nicht zugewiesen
Der bereitgestellte Ressourcenname verweist auf einen Metaspeicher, der für die aktuelle Anforderung nicht im Gültigkeitsbereich ist.
Standortüberlappung
SQLSTATE: nicht zugewiesen
Eingabepfad-URL „<path>
“ überlappt mit <overlappingLocation>
innerhalb des Aufrufs „<caller>
“.
<conflictingSummary>
. <permissionErrorSuggestion>
MONGO_DB_SRV_VERBINDUNGSSTRING_ERLAUBT_KEINEN_PORT
SQLSTATE: nicht zugewiesen
Das Erstellen oder Aktualisieren einer MongoDB-Verbindung ist nicht zulässig, da die MongoDB SRV-Verbindungszeichenfolge keinen Port erfordert.
Entfernen Sie den Port, da für die SRV-Verbindungszeichenfolge kein Port erforderlich ist.
REDSHIFT_AUSLÄNDISCHER_KATALOG_LAGER_WURZEL_MUSS_S3_SEIN
SQLSTATE: nicht zugewiesen
Der Speicherstamm für den Fremdkatalog von Redshift muss AWS S3 sein.
SICHERBARER_TYP_UNTERSTÜTZT_LAKEHOUSE_FÖDERATION_NICHT
SQLSTATE: nicht zugewiesen
Sicherungsfähig mit Art <securableKind>
unterstützt keinen Lakehouse-Verbund.
SICHERBARER_TYP_NICHT_AKTIVIERT
SQLSTATE: nicht zugewiesen
Sicherungsfähige Art <securableKind>
ist nicht aktiviert. Wenn es sich um eine sicherungsfähige Art handelt, die einer Previewfunktion zugeordnet ist, aktivieren Sie sie in den Arbeitsbereichseinstellungen.
SECURABLE_TYPE_UNTERSTÜTZT_KEINE_LAKEHOUSE_FÖDERATION
SQLSTATE: nicht zugewiesen
Sicherungsfähig mit Typ <securableType>
unterstützt keinen Lakehouse-Verbund.
Quelltabelle-Spaltenanzahl überschreitet das Limit
SQLSTATE: nicht zugewiesen
Die Quelltabelle enthält mehr als <columnCount>
Spalten. Bitte reduzieren Sie die Anzahl der Spalten auf <columnLimitation>
oder weniger.
UC_AAD_TOKEN_LEBENSDAUER_ZU_KURZ
SQLSTATE: nicht zugewiesen
Die ausgetauschte AAD-Tokenlebensdauer beträgt <lifetime>
und ist zu kurz konfiguriert. Überprüfen Sie Ihre Azure AD-Einstellung, um sicherzustellen, dass das temporäre Zugriffstoken mindestens eine Stunde lebensdauer hat. https://learn.microsoft.com/azure/active-directory/develop/active-directory-configurable-token-lifetimes
UC_ABAC_DEPENDENZ_UNTERSCHIEDLICHER_RF_CM
SQLSTATE: nicht zugewiesen
Die Abhängigkeit "<dependency>
" wird mehrmals referenziert und führt zu unterschiedlichen ABAC-Zeilenfiltern oder Spaltenmasken.
UC_ABAC_EVALUATION_ERROR
SQLSTATE: nicht zugewiesen
Fehler beim Auswerten von ABAC-Richtlinien für <resource>
.
UC_ABAC_AUSWERTUNG_BENUTZER_FEHLER
SQLSTATE: nicht zugewiesen
Fehler beim Auswerten von ABAC-Richtlinien für "<resource>
". Die Richtlinie '<policyName>
' ist fehlgeschlagen mit der Nachricht: <message>
.
UC_ANSICHT_AUSSERHALB_DEFINIERENDER_PIPELINE_ÄNDERN_LÖSCHEN
SQLSTATE: nicht zugewiesen
Das Ändern der Ansicht "<viewFullName>
" außerhalb der Pipeline, durch die sie definiert wurde, ist nicht zulässig. Aktualisieren Sie stattdessen die Ansichtsdefinition aus der Pipeline, die sie definiert hat (Pipeline-ID: <owningPipelineId>
).
UC_AUTHZ_AKTION_NICHT_UNTERSTÜTZT
SQLSTATE: nicht zugewiesen
Die Autorisierung <actionName>
wird nicht unterstützt; Überprüfen Sie, ob der aufgerufene RPC für diesen Ressourcentyp implementiert ist.
Berechtigung zur Erstellung der HMS-Verbindung verweigert
SQLSTATE: nicht zugewiesen
Es kann keine Verbindung für einen integrierten Hive-Metaspeicher erstellt werden, da der Benutzer: <userId>
nicht der Administrator des Arbeitsbereichs ist: <workspaceId>
UC_EINGEBAUT_HMS_VERBINDUNG_BEARBEITEN_EINGESCHRÄNKTES_FELD
SQLSTATE: nicht zugewiesen
Versuchen Sie, ein eingeschränktes Feld in der integrierten HMS-Verbindung '<connectionName>
' zu ändern. Nur "warehouse_directory" kann aktualisiert werden.
UC_KANN_PARTITIONSFILTER_SPALTE_NICHT_UMBENENNEN
SQLSTATE: nicht zugewiesen
Fehler beim Umbenennen der Tabellenspalte <originalLogicalColumn>
, da sie für die Partitionsfilterung in <sharedTableName>
verwendet wird. Um fortzufahren, können Sie die Tabelle aus der Freigabe entfernen, die Spalte umbenennen und mit den gewünschten Partitionsfilterspalten erneut freigeben. Dies kann jedoch die Streamingabfrage für Ihren Empfänger unterbrechen.
UC_KINDERERSTELLUNG_FÜR_NICHT_UC_CLUSTER_VERBOTEN
SQLSTATE: nicht zugewiesen
<securableType>
'<securable>
' kann nicht unter <parentSecurableType>
'<parentSecurable>
' erstellt werden, da die Anforderung nicht von einem UC-Cluster stammt.
UC_CLOUD_SPEICHERZUGRIFF_FEHLER
SQLSTATE: nicht zugewiesen
Fehler beim Zugriff auf Cloudspeicher: <errMsg>
exceptionTraceId=<exceptionTraceId>
Konfliktierende Verbindungsoptionen
SQLSTATE: nicht zugewiesen
Eine Verbindung mit den Authentifizierungsoptionen "Benutzername/Kennwort" und "Oauth" kann nicht hergestellt werden. Wählen Sie eine aus.
UC_VERBINDUNGSBERECHTIGUNGEN_MAXIMALERREICHT
SQLSTATE: nicht zugewiesen
Die maximale Anzahl von Anmeldeinformationen für den Verbindungsnamen '<connectionName>
' wurde erreicht. Löschen Sie vorhandene Anmeldeinformationen, bevor Sie eine neue erstellen.
UC-Verbindungsinformationen existieren nicht für Benutzer mit diesem Login
SQLSTATE: nicht zugewiesen
Die Anmeldeinformationen für die Benutzeridentität ('<userIdentity>
') wurden für die Verbindung '<connectionName>
' nicht gefunden. Bitte melden Sie sich zuerst bei der Verbindung an, indem Sie <connectionPage>
UC_VERBINDUNGS_ANMELDEDATEN_TYP_NICHT_UNTERSTÜTZT
SQLSTATE: nicht zugewiesen
Das Erstellen von Anmeldeinformationen für den sicherbaren Typ "<securableType>
" wird nicht unterstützt. Unterstützte sicherungsfähige Typen: <allowedSecurableType>
.
UC-Verbindung existiert für Anmeldedaten
SQLSTATE: nicht zugewiesen
Die Anmeldeinformationen „<credentialName>
“ haben mindestens eine abhängige Verbindung. Sie können die Option "Erzwingen" verwenden, um die Anmeldeinformationen weiterhin zu aktualisieren oder zu löschen, aber die Verbindungen, die diese Anmeldeinformationen verwenden, funktionieren möglicherweise nicht mehr.
UC_Verbindung_abgelaufen_Zugriffstoken
SQLSTATE: nicht zugewiesen
Das der Verbindung zugeordnete Zugriffstoken ist abgelaufen. Aktualisieren Sie die Verbindung, um den OAuth-Fluss neu zu starten, um ein Token abzurufen.
UC_VERBINDUNG_ABGELAUFEN_AKTUALISIERE_TOKEN
SQLSTATE: nicht zugewiesen
Das aktualisierungstoken, das der Verbindung zugeordnet ist, ist abgelaufen. Aktualisieren Sie die Verbindung, um den OAuth-Fluss neu zu starten, um ein neues Token abzurufen.
UC_CONNECTION_IN_FAILED_STATE
SQLSTATE: nicht zugewiesen
Die Verbindung befindet sich im FAILED
Zustand. Aktualisieren Sie die Verbindung mit gültigen Anmeldeinformationen, um sie erneut zu aktivieren.
UC_VERBINDUNG_FEHLENDE_OPTION
SQLSTATE: nicht zugewiesen
Verbindungen vom sicherungsfähigen Typ '<securableType>
' müssen die folgenden Optionen enthalten: <requiredOptions>
.
UC_VERBINDUNG_FEHLEN_BEZIEHUNGSTOKEN
SQLSTATE: nicht zugewiesen
Der Verbindung ist kein Aktualisierungstoken zugeordnet. Aktualisieren Sie die OAuth-Client-Integration in Ihrem Identitätsanbieter, um Aktualisierungs-Token zurückzugeben, und aktualisieren oder erstellen Sie die Verbindung neu, um den OAuth-Fluss erneut zu starten und die erforderlichen Token abzurufen.
UC_CONNECTION_DEN_AUSTAUSCH_GESCHEITERT
SQLSTATE: nicht zugewiesen
Fehler beim OAuth-Tokenaustausch mit HTTP-Statuscode <httpStatus>
. Die zurückgegebene Serverantwort oder Ausnahmemeldung lautet: <response>
Die Verbindungsoption wird nicht unterstützt
SQLSTATE: nicht zugewiesen
Verbindungen vom sicherungsfähigen Typ '<securableType>
' unterstützen die folgenden Optionen nicht: <optionsNotSupported>
. Unterstützte Optionen: <allowedOptions>
.
Koordinierte Commits nicht aktiviert
SQLSTATE: nicht zugewiesen
Die Unterstützung für koordinierte Commits ist nicht aktiviert. Wenden Sie sich bitte an den Databricks-Support.
UC_CREATE_VERBOTEN_UNTER_INAKTIV_SICHERBAR
SQLSTATE: nicht zugewiesen
<securableType>
'<securableName>
' kann nicht erstellt werden, da es sich unter <parentSecurableType>
'<parentSecurableName>
' befindet, was nicht aktiv ist. Löschen Sie das übergeordnete sicherungsfähige Element, und erstellen Sie das übergeordnete Element neu.
UC_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FEHLGESCHLAGEN
SQLSTATE: nicht zugewiesen
Fehler beim Parsen der bereitgestellten Zugriffskonnektor-ID: <accessConnectorId>
. Überprüfen Sie die Formatierung, und versuchen Sie es erneut.
UC_BERECHTIGUNGEN_FEHLGESCHLAGEN_BEI_ABRUF_DES_VALIDIERUNGS-TOKENS
SQLSTATE: nicht zugewiesen
Fehler beim Erhalten eines AAD-Tokens zur Überprüfung der Cloud-Berechtigungen für einen Zugriffskonnektor. Wiederholen Sie die Aktion.
UC_ANMELDEDATEN_UNGÜLTIGE_CLOUD_BERECHTIGUNGEN
SQLSTATE: nicht zugewiesen
Für die Registrierung von Anmeldeinformationen ist die Teilnehmerrolle über den entsprechenden Zugriffsconnector mit ID <accessConnectorId>
erforderlich. Wenden Sie sich an Ihren Kontoadministrator.
UC_CREDENTIAL_UNGÜLTIGER_BERECHTIGUNGSTYP_FÜR_ZWECK
SQLSTATE: nicht zugewiesen
Der Anmeldeinformationstyp „<credentialType>
“ wird für den Zweck „<credentialPurpose>
“ nicht unterstützt.
UC_Berechtigung_zur_Credentials_verweigert
SQLSTATE: nicht zugewiesen
Nur der Kontoadministrator kann eine Anmeldeinformation mit dem Typ <storageCredentialType>
erstellen oder aktualisieren.
UC_ZERTIFIKATS_VERTRAUENSRICHTLINIE_OFFEN
SQLSTATE: nicht zugewiesen
Die Vertrauensrichtlinie der IAM-Rolle, um dem Databricks-Konto zu erlauben, die Rolle zu übernehmen, sollte eine externe ID erfordern. Wenden Sie sich an Ihren Kontoadministrator, um die Bedingung für die externe ID hinzuzufügen. Dieses Verhalten dient dazu, das Problem des verwirrten Stellvertreters (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html) zu verhindern.
UC_BENUTZERDATEN_UNPRIVILEGIERTER_DIENSTPRINZIPAL_NICHT_UNTERSTÜTZT
SQLSTATE: nicht zugewiesen
Dienstprinzipale können die CREATE_STORAGE_CREDENTIAL
Berechtigung nicht zum Registrieren verwalteter Identitäten verwenden. Um eine verwaltete Identität zu registrieren, weisen Sie dem Dienstprinzipal die Kontoadministratorrolle zu.
UC_CREDENTIAL_WORKSPACE_API_VERBOTEN
SQLSTATE: nicht zugewiesen
Das Erstellen oder Aktualisieren von Anmeldeinformationen als Nicht-Kontoadministrator wird in der API auf Kontoebene nicht unterstützt. Verwenden Sie stattdessen die API auf Arbeitsbereichsebene.
UC_DBR_VERTRAUENSVERSION_ZU_ALT
SQLSTATE: nicht zugewiesen
Die verwendete Databricks-Runtime unterstützt diesen Vorgang nicht mehr. Verwenden Sie die neueste Version (Möglicherweise müssen Sie den Cluster neu starten).
UC_DELTA_UNIVERSAL_FORMAT_CANNOT_PARSE_ICEBERG_VERSION
SQLSTATE: nicht zugewiesen
Die Iceberg-Tabellenversion kann nicht vom Metadatenstandort <metadataLocation>
ausgelesen werden.
UC_DELTA_ALLGEMEINFORMAT_GLEICHZEITIGES_SCHREIBEN
SQLSTATE: nicht zugewiesen
Es wurde eine gleichzeitige Aktualisierung derselben Iceberg-Metadatenversion erkannt.
UC_DELTA_UNIVERSAL_FORMAT_UNGÜLTIGER_METADATA_STANDORT
SQLSTATE: nicht zugewiesen
Der zugesicherte Metadatenspeicherort <metadataLocation>
ist ungültig. Es handelt sich nicht um ein Unterverzeichnis des Stammverzeichnisses <tableRoot>
der Tabelle.
UC_DELTA_UNIVERSAL_FORMAT_FEHLENDER_FELDEINSCHRÄNKUNG_CONSTRAINT
SQLSTATE: nicht zugewiesen
In den bereitgestellten Informationen zum Delta-Iceberg-Format fehlen erforderliche Felder.
UC_DELTA_UNIVERSAL_FORMAT_NICHT_ERSTELLEN_EINGESCHRÄNKUNG
SQLSTATE: nicht zugewiesen
Das Festlegen von Delta-Iceberg-Formatinformationen beim Erstellen wird nicht unterstützt.
UC_DELTA_UNIVERSAL_FORMAT_ZU_GROß_EINSCHRÄNKUNG
SQLSTATE: nicht zugewiesen
Die Informationen zur Delta-Iceberg-Formatkonvertierung sind zu umfangreich.
UC_DELTA_UNIVERSAL_FORMAT_UPDATE_UNGÜLTIG
SQLSTATE: nicht zugewiesen
Einheitliche Metadaten können nur auf Delta-Tabellen aktualisiert werden, wenn das Uniform-Feature aktiviert ist.
UC_ABHÄNGIGKEIT_TIEFENLIMIT_ÜBERSCHRITTEN
SQLSTATE: nicht zugewiesen
<resourceType>
"<ref>
" Tiefe überschreitet den Grenzwert (oder weist einen Zirkelbezug auf).
UC_Abhängigkeit_existiert_nicht
SQLSTATE: nicht zugewiesen
<resourceType>
'<ref>
' ist ungültig, da eine der zugrunde liegenden Ressourcen nicht vorhanden ist. <cause>
UC_ABHÄNGIGKEITS_BERECHTIGUNG_VERWEIGERT
SQLSTATE: nicht zugewiesen
<resourceType>
"<ref>
" verfügt nicht über ausreichende Berechtigungen zur Ausführung, weil der Besitzer einer der zugrunde liegenden Ressourcen bei einer Autorisierungsprüfung durchgefallen ist. <cause>
UC_DOPPELTE_VERBINDUNG
SQLSTATE: nicht zugewiesen
Eine Verbindung mit dem Namen '<connectionName>
' mit derselben URL ist bereits vorhanden. Bitten Sie den Besitzer, diese Verbindung zu verwenden, anstatt ein Duplikat zu erstellen.
DUPLIKAT_ERSTELLUNG_VON_GEWEBEKATALOG
SQLSTATE: nicht zugewiesen
Es wurde versucht, einen Fabric-Katalog mit der URL "<storageLocation>
" zu erstellen, der einem vorhandenen Katalog entspricht, der nicht zulässig ist.
Doppelte Markierungszuweisungserstellung
SQLSTATE: nicht zugewiesen
Die Tag-Zuweisung mit dem Tagschlüssel <tagKey>
existiert bereits.
UC_ENTITY_VERFÜGT_NICHT_ÜBER_DEN_ENTSPRECHENDEN_ONLINE_CLUSTER
SQLSTATE: nicht zugewiesen
Die Entität <securableType> <entityId>
verfügt nicht über einen entsprechenden Onlinecluster.
UC_ERROR_CODE_XWYEY
SQLSTATE: nicht zugewiesen
Wenn dieses Problem weiterhin besteht, wenden Sie sich an die Databricks-Unterstützung mit dem Fehlercode #UC-XWYEY
.
"UC_ÜBERSCHREITET_MAXIMALE_DATEIGRENZE"
SQLSTATE: nicht zugewiesen
Es sind mehr als <maxFileResults>
Dateien vorhanden. Geben Sie [max_results] an, um die Anzahl der zurückgegebenen Dateien einzuschränken.
UC_EXTERNE_LOCATION_OPERATION_NICHT_ERLAUBT
SQLSTATE: nicht zugewiesen
<opName> <extLoc> <reason>
nicht möglich.
<suggestion>
.
UC_FUNKTION_DEAKTIVIERT
SQLSTATE: nicht zugewiesen
<featureName>
ist derzeit in UC deaktiviert.
UC_FREMDKATALOG_FÜR_VERBINDUNGSTYP_NICHT_UNTERSTÜTZT
SQLSTATE: nicht zugewiesen
Das Erstellen eines fremden Katalogs für den Verbindungstyp '<connectionType>
' wird nicht unterstützt. Dieser Verbindungstyp kann nur zum Erstellen verwalteter Aufnahmepipelines verwendet werden. Weitere Informationen finden Sie in der Databricks-Dokumentation.
UC_FREMDE_BERECHTIGUNG_PRÜFUNG_NUR_FÜR_LESEN_OPERATIONS
SQLSTATE: nicht zugewiesen
Nur Leseberechtigungen können für Fremdtabellen abgerufen werden.
UC_AUSLÄNDISCH_HMS_OBERFLÄCHENKLON_ABWEICHUNG
SQLSTATE: nicht zugewiesen
Die Basistabelle und die Klontabelle müssen sich im gleichen Katalog befinden, damit flache Klone, die in fremden Hive-Metastore-Katalogen erstellt wurden, erstellt werden. Die Basistabelle '<baseTableName>
' befindet sich im Katalog '<baseCatalogName>
' und die Klontabelle '<cloneTableName>
' befindet sich im Katalog '<cloneCatalogName>
'.
UC_FOREIGN_KEY_CHILD_COLUMN_LENGTH_MISMATCH (Fremdschlüssel-Kind-Spaltenlängen-Ungleichheit)
SQLSTATE: nicht zugewiesen
Die unter- und übergeordneten Spalten von Fremdschlüssel <constraintName>
sind unterschiedlich groß.
UC_FREMDSCHLÜSSEL_SPALTEN_ABWEICHUNG
SQLSTATE: nicht zugewiesen
Die übergeordneten Fremdschlüsselspalten stimmen nicht mit den referenzierten untergeordneten Primärschlüsselspalten überein. Übergeordnete Fremdschlüsselspalten sind (<parentColumns>
), und untergeordnete Primärschlüsselspalten sind (<primaryKeyChildColumns>
).
UC_FREMDSCHLÜSSEL_SPALTE_TYP_NICHT_ÜBEREINSTIMMEND
SQLSTATE: nicht zugewiesen
Der untergeordnete Spaltentyp des Fremdschlüssels stimmt nicht mit dem übergeordneten Spaltentyp überein. Untergeordnete Fremdschlüsselspalte <childColumnName>
hat Typ <childColumnType>
, und übergeordnete Spalte <parentColumnName>
hat Typ <parentColumnType>
.
UC_GCP_INVALID_PRIVATE_KEY (Ungültiger privater Schlüssel in UC_GCP)
SQLSTATE: nicht zugewiesen
Zugriff abgelehnt. Ursache: Privater Schlüssel des Dienstkontos ist ungültig.
UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT (Ungültiges JSON-Format des privaten Schlüssels)
SQLSTATE: nicht zugewiesen
Google Server-Konto OAuth Private Key muss ein gültiges JSON-Objekt mit erforderlichen Feldern sein. Stellen Sie bitte sicher, dass Sie die vollständige JSON-Datei bereitstellen, die aus dem Abschnitt "KEYS" der Seite mit den Details des Dienstkontos generiert wird.
UC_GCP_UNGÜLTIGES_PRIVATSCHLÜSSEL_JSON_FORMAT_FEHLENDE_FELDER
SQLSTATE: nicht zugewiesen
Google Server-Konto OAuth Private Key muss ein gültiges JSON-Objekt mit erforderlichen Feldern sein. Stellen Sie bitte sicher, dass Sie die vollständige JSON-Datei bereitstellen, die aus dem Abschnitt "KEYS" der Seite mit den Details des Dienstkontos generiert wird. Fehlende Felder sind <missingFields>
UC_IAM_ROLLE_NICHT_SELBST_ANNEHMEND
SQLSTATE: nicht zugewiesen
Es wurde festgestellt, dass die IAM-Rolle für diese Speicheranmeldeinformationen nicht selbstübernehmend ist. Überprüfen Sie die Vertrauens- und IAM-Richtlinien Ihrer Rolle, um sicherzustellen, dass Ihre IAM-Rolle sich gemäß der Dokumentation zu Unity Catalog-Speicheranmeldeinformationen selbst annehmen kann.
UC_ICEBERG_KOMMITS_KONFLIKT
SQLSTATE: nicht zugewiesen
Commit für <tableName>
nicht möglich: Metadatenspeicherort <baseMetadataLocation>
wurde von <catalogMetadataLocation>
geändert.
UC_ICEBERG_COMMIT_UNGÜLTIGE_TABELLE
SQLSTATE: nicht zugewiesen
Verwaltetes Iceberg-Commit kann nicht für eine unverwaltete Iceberg-Tabelle ausgeführt werden: <tableName>
.
UC_ICEBERG_COMMIT_MISSING_FIELD_CONSTRAINT
SQLSTATE: nicht zugewiesen
In den bereitgestellten Informationen zum verwalteten Iceberg-Commit fehlen erforderliche Felder.
Abgleichsfehler der UC-ID
SQLSTATE: nicht zugewiesen
<type> <name>
hat nicht ID <wrongId>
. Versuchen Sie den Vorgang erneut.
UC_UNGÜLTIGER_ZUGRIFF_BRICKSTORE_PG_VERBINDUNG
SQLSTATE: nicht zugewiesen
Ungültiger Zugriff auf datenbankinstanz. <reason>
UC_UNGÜLTIGER_ZUGRIFF_DBFS_ENTITY
SQLSTATE: nicht zugewiesen
Ungültiger Zugriff auf <securableType> <securableName>
im Verbundkatalog <catalogName>
. <reason>
UC_UNGÜLTIGE_CLOUDFLARE_KONTONUMMER
SQLSTATE: nicht zugewiesen
Ungültige Cloudflare-Konto-ID.
UC_UNGÜLTIGE_ANMELDEINFORMATION_CLOUD
SQLSTATE: nicht zugewiesen
Ungültiger Cloudanbieter <cloud>
für Anmeldeinformationen. Zulässiger Cloudanbieter '<allowedCloud>
'.
Ungültiger Wert für Anmeldezweck
SQLSTATE: nicht zugewiesen
Ungültiger Wert <value>
für den „purpose“ der Anmeldeinformationen. Zulässige Werte '<allowedValues>
'.
Ungültiger Berechtigungsübergang
SQLSTATE: nicht zugewiesen
Es kann keine Verbindung von <startingCredentialType>
auf <endingCredentialType>
aktualisiert werden. Der einzige gültige Übergang besteht aus einer benutzernamen-/kennwortbasierten Verbindung zu einer OAuth-tokenbasierten Verbindung.
UC_UNGÜLTIGE_CRON_STRING_FABRIC
SQLSTATE: nicht zugewiesen
Ungültige Cron-Zeichenfolge. Gefunden: „<cronString>
“ mit Parsingausnahme: „<message>
“
UC_UNGÜLTIGER_DIREKTZUGRIFF_VERWALTETE_TABELLE
SQLSTATE: nicht zugewiesen
Ungültige verwaltete Tabelle für direkten Zugriff <tableName>
. Stellen Sie sicher, dass die Pipelinedefinitionen der Quelltabelle & nicht definiert sind.
Ungültiger leerer Speicherort
SQLSTATE: nicht zugewiesen
Unerwarteter leerer Speicherort für <securableType>
'<securableName>
' im Katalog '<catalogName>
'. Um diesen Fehler zu beheben, führen Sie bitte DESCRIBE SCHEMA <catalogName>
aus.
<securableName>
, und aktualisieren Sie diese Seite.
UC_UNGÜLTIGE_OPTIONEN_AKTUALISIERUNG
SQLSTATE: nicht zugewiesen
Ungültige Optionen wurden für das Update bereitgestellt. Ungültige Optionen: <invalidOptions>
. Zulässige Optionen: <allowedOptions>
.
UNGÜLTIGER_OPTION_WERT
SQLSTATE: nicht zugewiesen
Ungültiger Wert '<value>
' für '<option>
'. Zulässige Werte '<allowedValues>
'.
UC_UNGÜLTIGER_OPTIONSWERT_LEER
SQLSTATE: nicht zugewiesen
'<option>
' darf nicht leer sein. Geben Sie einen nicht leeren Wert ein.
UC_UNGÜLTIGE_RICHTLINIENBEDINGUNG
SQLSTATE: nicht zugewiesen
Ungültige Bedingung in Richtlinie '<policyName>
'. Kompilierungsfehler mit der Meldung '<message>
'.
UC_INVALID_R2_ACCESS_KEY_ID (ungültige Zugangsschlüssel-ID)
SQLSTATE: nicht zugewiesen
Ungültige R2-Zugriffstasten-ID.
UC_INVALID_R2_SECRET_ACCESS_KEY
SQLSTATE: nicht zugewiesen
Ungültiger geheimer R2-Zugriffsschlüssel.
UC_UNGÜLTIGE_AKTUALISIERUNG_BEI_SYSTEM_WORKSPACE_ADMIN_GRUPPE_EIGENES_SICHERUNGSOBJEKT
SQLSTATE: nicht zugewiesen
<securableType>
'<securableName>
' kann nicht aktualisiert werden, da es sich im Besitz einer internen Gruppe befindet. Bitte wenden Sie sich an den Databricks-Support, um weitere Details zu erhalten.
UC_UNGÜLTIGE_WASBS_EXTERNE_SPEICHERFÄHIGKEIT_CREDENTIAL
SQLSTATE: nicht zugewiesen
Die bereitgestellten Speicher-Zugangsdaten <storageCredentialName>
sind nicht mit dem DBFS-Stamm verbunden, daher ist die Erstellung eines wasbs-Externstandorts nicht zulässig.
UC_STANDORT_UNGÜLTIGES_SCHEMATA
SQLSTATE: nicht zugewiesen
Der Speicherort weist ein ungültiges URI-Schema auf: <scheme>
.
UC_FEHLBILDUNG_OAUTH_SERVER_ANTWORT
SQLSTATE: nicht zugewiesen
Die Antwort vom Token-Server enthielt das Feld <missingField>
nicht. Die zurückgegebene Serverantwort lautet: <response>
UC_METASTORE_ASSIGNMENT_STATUS_INVALID
SQLSTATE: nicht zugewiesen
'<metastoreAssignmentStatus>
' kann nicht zugewiesen werden. Nur MANUALLY_ASSIGNABLE
und AUTO_ASSIGNMENT_ENABLED
werden unterstützt.
UC_METASTORE: Zertifizierung nicht aktiviert
SQLSTATE: nicht zugewiesen
Die Metastore-Zertifizierung ist nicht aktiviert.
UC_METASTORE_DB_SHARD_MAPPING_NICHT_GEFUNDEN
SQLSTATE: nicht zugewiesen
Fehler beim Abrufen eines Metastores zur Datenbank-Shardzuordnung für Metastore-ID <metastoreId>
aufgrund eines internen Fehlers. Wenden Sie sich bitte an den Databricks-Support.
UC_METASTORE_HAT_AKTIVE_VERWALTETE_ONLINE_KATALOGE
SQLSTATE: nicht zugewiesen
Der Metastore <metastoreId>
enthält <numberManagedOnlineCatalogs>
verwaltete(n) Onlinekatalog(e). Löschen Sie sie explizit, und wiederholen Sie dann den Metastore-Löschvorgang.
UC_METASTORE_SPEICHER_ROOT_BERECHTIGUNGSAKTUALISIERUNG_UNGÜLTIG
SQLSTATE: nicht zugewiesen
Metastore-Stammanmeldeinformationen können beim Aktualisieren des Metastore-Stammspeicherorts nicht festgelegt werden. Die Anmeldeinformationen werden vom übergeordneten externen Speicherort des Metastores abgerufen.
UC_METASTORE_STORAGE_ROOT_DELETION_INVALID (Ungültige Löschung des Metastore-Speicherstammverzeichnisses)
SQLSTATE: nicht zugewiesen
Das Löschen des Metastore-Speicherwurzelorts ist fehlgeschlagen. <reason>
UC_METASTORE_SPEICHER_ROOT_NUR_LESEN_UNGÜLTIG
SQLSTATE: nicht zugewiesen
Der Stamm <securableType>
für einen Metastore darf nicht schreibgeschützt sein.
UC_METASTORE_SPEICHER_ROOT_UPDATE_UNGÜLTIG
SQLSTATE: nicht zugewiesen
Der Metastore-Speicherstamm kann nicht aktualisiert werden, nachdem er festgelegt wurde.
UC_MODUL_UNGÜLTIGER_ZUSTAND
SQLSTATE: nicht zugewiesen
Temporäre '<opName>
' Anmeldeinformationen für Modellversion <modelVersion>
mit Status <modelVersionStatus>
können nicht generiert werden. '<opName>
' Anmeldeinformationen können nur für Modellversionen mit dem Status <validStatus>
generiert werden.
UC_KEINE_ORG_ID_IM_KONTEXT
SQLSTATE: nicht zugewiesen
Es wurde versucht, auf die Organisations-ID (oder Arbeitsbereichs-ID) zuzugreifen, der Kontext hat jedoch keine.
UC_ONLINE_KATALOG_NICHT_VERÄNDERBAR
SQLSTATE: nicht zugewiesen
Die <rpcName>
-Anforderung aktualisiert <fieldName>
. Verwenden Sie die Computeregisterkarte für den Onlinespeicher, um alles andere als Kommentar, Besitzende und isolationMode eines Onlinekatalogs zu ändern.
UC_ONLINE_KATALOG_KONTINGENT_ÜBERSCHRITTEN
SQLSTATE: nicht zugewiesen
Es können nicht mehr als <quota>
Onlineshops im Metastore erstellt werden, und es gibt bereits <currentCount>
. Möglicherweise haben Sie keinen Zugriff auf vorhandene Online-Stores. Wenden Sie sich an Ihren Metastore-Administrator, um Zugriff oder weitere Anweisungen zu erhalten.
UC_ONLINE_INDEX_KATALOG_UNGÜLTIG_CRUD
SQLSTATE: nicht zugewiesen
Onlineindexkataloge müssen über die API „/vector-search“ <action>
werden.
UC_ONLINE_INDEX_KATALOG_NICHT_VERÄNDERBAR
SQLSTATE: nicht zugewiesen
Die <rpcName>
-Anforderung aktualisiert <fieldName>
. Verwenden Sie die API „/vector-search“, um alles andere als Kommentar, Eigentümer und isolationMode eines Online-Indexkatalogs zu ändern.
Das Kontingent für den UC Online-Indexkatalog wurde überschritten.
SQLSTATE: nicht zugewiesen
Es können höchstens <quota>
Onlineindexkataloge im Metastore erstellt werden, und es gibt bereits <currentCount>
. Möglicherweise haben Sie keinen Zugriff auf vorhandene Onlineindexkataloge. Wenden Sie sich an Ihren Metastore-Administrator, um Zugriff oder weitere Anweisungen zu erhalten.
UC_ONLINE_INDEX_UNGÜLTIG_CRUD
SQLSTATE: nicht zugewiesen
Onlineindizes müssen über die API „/vector-search“ <action>
werden.
UC_ONLINE_STORE_UNGÜLTIGE_CRUD-Operationen
SQLSTATE: nicht zugewiesen
Für Onlinespeicher muss über die Computeregisterkarte des Onlinespeichers <action>
ausgeführt werden.
UC_ONLINE_TABELLENSPALTENAME_ZU_LANG
SQLSTATE: nicht zugewiesen
Der Name der Quelltabellenspalte <columnName>
ist zu lang. Die maximale Länge beträgt <maxLength>
Zeichen.
UC_ONLINE_TABLE_PRIMÄRSCHLÜSSELSPALTE_NICHT_IN_QUELLTABELLE_PRIMÄRSCHLÜSSEL_EINSCHRÄNKUNG
SQLSTATE: nicht zugewiesen
Spalte <columnName>
kann nicht als Primärschlüsselspalte der Onlinetabelle verwendet werden, da sie nicht Teil der vorhandenen PRIMARY KEY
Einschränkung der Quelltabelle ist. Weitere Informationen finden Sie unter <docLink>
UC_ONLINE_TABELLEN_ZEITREIHEN_SCHLÜSSEL_NICHT_IN_QUELLTABELLE_PRIMÄRSCHLÜSSEL_BESCHRÄNKUNG
SQLSTATE: nicht zugewiesen
Spalte <columnName>
kann nicht als Zeitserienschlüssel der Onlinetabelle verwendet werden, da es sich nicht um eine Zeitserienspalte der vorhandenen PRIMARY KEY
Einschränkung der Quelltabelle handelt. Weitere Informationen finden Sie unter <docLink>
UC_ONLINE_VIEWS_PRO_TABELLE_QUOTUM_ÜBERSCHRITTEN
SQLSTATE: nicht zugewiesen
Pro Quelltabelle können nicht mehr als <quota>
Onlinetabellen erstellt werden.
Online-Zugriff verweigert
SQLSTATE: nicht zugewiesen
Für den Zugriff auf Ressourcen <resourceName>
ist die Verwendung eines Serverless SQL Warehouse erforderlich. Stellen Sie sicher, dass das Lager, das verwendet wird, um eine Abfrage auszuführen oder einen Datenbankkatalog in der Benutzeroberfläche anzuzeigen, serverlos ist. Weitere Informationen finden Sie unter <docLink>
Kontingentüberschreitung bei kontinuierlicher Online-Ansicht
SQLSTATE: nicht zugewiesen
Es können höchstens <quota>
fortlaufende Onlineansichten im Onlinespeicher erstellt werden, und es gibt bereits <currentCount>
. Möglicherweise haben Sie keinen Zugriff auf vorhandene Onlineansichten. Wenden Sie sich an Ihren Online-Shop-Administrator, um Zugriff oder weitere Anweisungen zu erhalten.
UC_ONLINE_VIEW_UNTERSTÜTZT_NICHT_DMK
SQLSTATE: nicht zugewiesen
<tableKind>
kann unter einem Speicherort mit von Databricks verwalteten Schlüsseln nicht erstellt werden. Wählen Sie ein anderes Schema/Katalog an einem Speicherort ohne Verschlüsselung für verwaltete Schlüssel von Databricks aus.
Online-Ansicht ungültiger Katalog
SQLSTATE: nicht zugewiesen
Ungültiger Katalog <catalogName>
mit Art <catalogKind>
, um <tableKind>
darin zu erstellen.
<tableKind>
kann nur unter Katalogen der folgenden Arten erstellt werden: <validCatalogKinds>
.
UC_ONLINE_VIEW_UNGÜLTIGES_SCHEMA
SQLSTATE: nicht zugewiesen
Ungültiges Schema <schemaName>
mit Art <schemaKind>
, um <tableKind>
darin zu erstellen.
<tableKind>
kann nur unter Schemas der folgenden Arten erstellt werden: <validSchemaKinds>
.
UC_ONLINE_VIEW_UNGÜLTIGER_TTL_ZEIT_SPALTEN_TYP
SQLSTATE: nicht zugewiesen
Spalten-<columnName>
vom Typ <columnType>
können nicht als TTL-Zeitspalte verwendet werden. Zulässige Typen sind <supportedTypes>
.
UC_OPERATION_NICHT_UNTERSTÜTZT
SQLSTATE: nicht zugewiesen
Der Vorgang wird vom Unity-Katalog nicht unterstützt. <detailedMessage>
UC_AUSSERHALB_AUTORISIERTER_PFAD_SCOPE
SQLSTATE: nicht zugewiesen
Fehler bei autorisiertem Pfad. Der <securableType>
-Speicherort <location>
ist nicht innerhalb der autorisierten Pfade für den Katalog definiert: <catalogName>
. Bitten Sie den Katalogbesitzer, den Pfad zur Liste der autorisierten Pfade hinzuzufügen, die im Katalog definiert sind.
UC_ÜBERLAPPTE_AUTORISIERTE_PFADE
SQLSTATE: nicht zugewiesen
Die Option "authorized_paths" enthält überlappende Pfade: <overlappingPaths>
. Stellen Sie sicher, dass jeder Pfad eindeutig ist und sich nicht mit anderen in der Liste überschneidet.
UC_PAGINIERUNG_UND_ABFRAGE_ARGUMENTE_MISMATCH
SQLSTATE: nicht zugewiesen
Das Abfrageargument '<arg>
' ist auf '<received>
' festgelegt, was sich vom Wert unterscheidet, der im ersten Paginierungsaufruf verwendet wird ('<expected>
)
Path-Filter Erlaubnislisten-Verletzung
SQLSTATE: nicht zugewiesen
Der Pfad '<targetPath>
' mit den Anmeldeinformationen '<credentialName>
' ist nicht zulässig. Stellen Sie sicher, dass der Pfad ein untergeordneter Pfad eines Elements in der folgenden Liste ist: '<allowlist>
'.
UC_PFAD_ZU_LANG
SQLSTATE: nicht zugewiesen
Der Eingabepfad ist zu lang. Zulässige Länge: <maxLength>
. Eingabelänge: <inputLength>
. Eingabe: <path>
...
UC_METASTORE_DATENBANK_GLEICHZEITIGKEITSBEGRENZUNG_ÜBERSCHRITTEN
SQLSTATE: nicht zugewiesen
Die Parallelitätsgrenze wurde für metastore <metastoreId>
überschritten. Versuchen Sie es später erneut. Wenn das Problem weiterhin besteht, wenden Sie sich an den Support. Fehlercode #UC-<errorCodeArbitraryFiveLettersUpperCase>
UC_POSTGRESQL_ONLINE_ANSICHTEN_PRO_QUELLE_TABELLE_QUOTE_ÜBERSCHRITTEN
SQLSTATE: nicht zugewiesen
Pro Quelltabelle können nicht mehr als <quota>
synchronisierte Datenbanktabellen erstellt werden.
UC_PRIMÄRSCHLÜSSEL_AUF_NULLBARE_SPALTE
SQLSTATE: nicht zugewiesen
Der Primärschlüssel <constraintName>
kann nicht erstellt werden, da die untergeordnete Spalte <childColumnNames>
Nullwerte zulässt. Ändern Sie die NULL-Zulässigkeit der Spalte, und versuchen Sie es erneut.
UC_ANFORDERUNGS_ZEITÜBERSCHREITUNG
SQLSTATE: nicht zugewiesen
Dieser Vorgang dauerte zu lange.
UC_ROOT_STORAGE_S3_BUCKET_NAME_CONTAINS_DOT
SQLSTATE: nicht zugewiesen
Der S3-Bucketname des Stammspeichers mit Punkten wird vom Unity-Katalog nicht unterstützt: <uri>
UC_SCHEMA_LEERER_SPEICHERORT
SQLSTATE: nicht zugewiesen
Unerwarteter leerer Speicherort für das Schema "<schemaName>
" im Katalog "<catalogName>
". Stellen Sie sicher, dass das Schema ein Pfadschema von <validPathSchemesListStr>
verwendet.
UC-SERVERLOS-NICHTVERTRAUENSWÜRDIGE-DOMAIN-SPEICHER-TOKEN-AUSSTELLUNG
SQLSTATE: nicht zugewiesen
Serverlose Notizbücher können keine temporären Speicheranmeldeinformationen aus dem Unity-Katalog abrufen.
UC_STORAGE_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED (Parsing-Fehler aufgetreten)
SQLSTATE: nicht zugewiesen
Fehler beim Parsen der bereitgestellten Zugriffskonnektor-ID: <accessConnectorId>
. Überprüfen Sie die Formatierung, und versuchen Sie es erneut.
UC_SPEICHER_BERECHTIGUNG_DBFS_ROOT_ERSTELLUNGS_GENEHMIGUNG_VERWEIGERT
SQLSTATE: nicht zugewiesen
Die Speicheranmeldeinformationen für den DBFS-Stamm können nicht erstellt werden, da der Benutzer: <userId>
nicht der Administrator des Arbeitsbereichs ist: <workspaceId>
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_DBFS_ENABLED
SQLSTATE: nicht zugewiesen
DBFS-Stammspeicher-Anmeldeinformationen werden für Arbeitsbereiche mit DBFS mit Firewallaktivierung noch nicht unterstützt.
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVAT_NICHT_UNTERSTÜTZT
SQLSTATE: nicht zugewiesen
DBFS-Root-Speicherberechtigungen für den aktuellen Arbeitsbereich werden derzeit nicht unterstützt.
UC_STORAGE_CREDENTIAL_DBFS_ROOT_WORKSPACE_DISABLED
SQLSTATE: nicht zugewiesen
Der DBFS-Stamm ist für den Arbeitsbereich <workspaceId>
nicht aktiviert.
UC_LAGER_ANMELDEDATEN_FEHLGESCHLAGEN_BEIM_ERHALTEN_DES_VALIDIERUNGSTOKEN
SQLSTATE: nicht zugewiesen
Fehler beim Erhalten eines AAD-Tokens zur Überprüfung der Cloud-Berechtigungen für einen Zugriffskonnektor. Wiederholen Sie die Aktion.
UC_SPEICHER_ANMELDEINFORMATION_UNGÜLTIGE_CLOUD-BERECHTIGUNGEN
SQLSTATE: nicht zugewiesen
Für die Registrierung von Speicheranmeldeinformationen ist die Teilnehmerrolle über den entsprechenden Zugriffsconnector mit ID <accessConnectorId>
erforderlich. Wenden Sie sich an Ihren Kontoadministrator.
UC_STORAGE_BERECHTIGUNG_FÜR_ZUGRIFFSDATEN_VERWEIGERT
SQLSTATE: nicht zugewiesen
Nur der Kontoadministrator kann eine Speicheranmeldeinformation mit dem Typ <storageCredentialType>
erstellen oder aktualisieren.
UC_STORAGE_CREDENTIAL_SERVICE_PRINCIPAL_FEHLENDES_VALIDIERUNGSTOKEN
SQLSTATE: nicht zugewiesen
Fehlendes Überprüfungstoken für den Dienstprinzipal. Geben Sie bitte ein gültiges Entra ID-ARM-Token im Anforderungsheader „X-Databricks-Azure-SP-Management-Token“ an, und wiederholen Sie den Vorgang. Weitere Informationen finden Sie unter https://docs.databricks.com/api/workspace/storagecredentials
RICHTLINIE FÜR VERTRAUENSWÜRDIGE SPEICHERGUTHABEN IST GEÖFFNET
SQLSTATE: nicht zugewiesen
Die Vertrauensrichtlinie der IAM-Rolle, um dem Databricks-Konto zu erlauben, die Rolle zu übernehmen, sollte eine externe ID erfordern. Wenden Sie sich an Ihren Kontoadministrator, um die Bedingung für die externe ID hinzuzufügen. Dieses Verhalten dient dazu, das Problem des verwirrten Stellvertreters (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html) zu verhindern.
UC_STORAGE_CREDENTIAL_UNPRIVILEGED_SERVICE_PRINZIPAL_NICHT_UNTERSTÜTZT
SQLSTATE: nicht zugewiesen
Dienstprinzipale können die CREATE_STORAGE_CREDENTIAL
Berechtigung nicht zum Registrieren verwalteter Identitäten verwenden. Um eine verwaltete Identität zu registrieren, weisen Sie dem Dienstprinzipal die Kontoadministratorrolle zu.
UC_STORAGE_CREDENTIAL_WASBS_NOT_DBFS_ROOT
SQLSTATE: nicht zugewiesen
Der Speicherort <location>
befindet sich nicht im DBFS-Stamm, da keine Speicheranmeldeinformationen erstellt werden können. <storageCredentialName>
UC_SPEICHER_ANMELDEDATEN_ARBEITSBEREICH_API_VERBOTEN
SQLSTATE: nicht zugewiesen
Das Erstellen oder Aktualisieren von Speicheranmeldeinformationen als Nicht-Kontoadministrator wird in der API auf Kontoebene nicht unterstützt. Verwenden Sie stattdessen die API auf Arbeitsbereichsebene.
UC_STORAGE_CREDENTIAL_WS_BUCKET_UNGÜLTIGER_STANDORT
SQLSTATE: nicht zugewiesen
Der Speicherort <requestedLocation>
befindet sich nicht innerhalb des zulässigen Kontexts. <allowedLocation>
UC_SPEICHER_BERECHTIGUNGS_WS_INTERNE_KATALOG_NICHT_UNTERSTÜTZT
SQLSTATE: nicht zugewiesen
Die Katalogspeicher-Anmeldeinformationen für den aktuellen Arbeitsbereich werden noch nicht unterstützt.
UC_SYSTEM_ARBEITSBEREICH_GRUPPENBERECHTIGUNG_NICHT_UNTERSTÜTZT
SQLSTATE: nicht zugewiesen
Es können keine Berechtigungen für <securableType>
an die vom System generierte Gruppe <principal>
gewährt werden.
UC_TABELLE_IST_NICHT_KATALOG_EIGENTUM
SQLSTATE: nicht zugewiesen
Die Anforderung zum Ausführen von Commit/getCommits für die Tabelle '<tableId>
' erfordert das Aktivieren des Features "Eigentum des Katalogs" für die Tabelle.
UC_Tag-Zuordnung_mit_Schlüssel_existiert_nicht
SQLSTATE: nicht zugewiesen
Tagzuweisung mit Tagschlüssel <tagKey>
ist nicht vorhanden.
Betrieb mit temporären Anmeldeinformationen wird nicht unterstützt
SQLSTATE: nicht zugewiesen
Vorgang mit temporären Anmeldeinformationen wird nicht unterstützt.
UC_UNDROP_RESOURCE_ID_BEREITS_EXISTIERT
SQLSTATE: nicht zugewiesen
Kann '<resourceType>
' nicht wiederherstellen, da bereits ein '<resourceType>
' mit der ID '<resourceId>
' vorhanden ist.
"UC_UNDROP_RESOURCE_NAME_EXISTIERT_BEREITS"
SQLSTATE: nicht zugewiesen
'<resourceType>
' kann nicht rückgängig werden, da bereits ein '<resourceType>
' mit dem Namen '<resourceName>
' vorhanden ist.
UC_RESOURCE_NOT_READY_NICHT_BEREIT
SQLSTATE: nicht zugewiesen
'<resourceType>
' kann nicht wiederhergestellt werden, da die '<resourceType>
' mit der ID '<resourceId>
' noch nicht zur Wiederherstellung bereit ist. Bitte versuchen Sie es später erneut.
UC_RÜCKGABE_RESOURCE_NACH_WIEDERHERSTELLBAREM_FENSTER
SQLSTATE: nicht zugewiesen
'<resourceType>
' kann nicht wiederhergestellt werden, da das '<resourceType>
' mit der ID '<resourceId>
' den unterstützten Wiederherstellungszeitraum von '<maxRestorationPeriodDay>
' Tagen überschreitet.
UC_UNSUPPORTED_HTTP_CONNECTION_BASE_PATH (Nicht unterstützter HTTP-Verbindungspfad)
SQLSTATE: nicht zugewiesen
Ungültiger Basispfad angegeben, Basispfad sollte etwa "/api/resources/v1" sein. Nicht unterstützter Pfad: <path>
NICHT_UNTERSTÜTZTER_HTTP_VERBINDUNG_HOST
SQLSTATE: nicht zugewiesen
Ungültiger Hostname angegeben, Hostname sollte ungefähr wie https://www.databricks.com ohne Pfadsuffix sein. Nicht unterstützter Host: <host>
UC_UNTERSTÜTZTES_LATEINISCHES_ZEICHEN_IM_PFAD
SQLSTATE: nicht zugewiesen
In Pfaden für externe Speicherorte/Volumes/Tabellen werden nur einfache Latin/Latin-1-ASCII
-Zeichen unterstützt. Nicht unterstützter Pfad: <path>
UC_AKTUALISIERUNG_FÜR_BEREITSTELLUNG_SICHERBAREN_VERBOTEN
SQLSTATE: nicht zugewiesen
<securableType>
'<securableName>
' kann nicht aktualisiert werden, da es bereitgestellt wird.
SCHREIBKONFLIKT
SQLSTATE: nicht zugewiesen
<type> <name>
wurde von einer anderen Anforderung geändert. Versuchen Sie den Vorgang erneut.
UNITY_KATALOG_EXTERN_KOORDINIERTE_COMMITS_ANFRAGE_ABGELEHNT
SQLSTATE: nicht zugewiesen
Die Anforderung, Commit/getCommits für die Tabelle "<tableId>
" außerhalb der Databricks Unity Catalog-aktivierten Umgebung auszuführen, wird aus Sicherheitsgründen verweigert. Wenden Sie sich an den Databricks-Support für Integrationen in Unity-Katalog.
Anforderung zur Erstellung einer externen Staging-Tabelle im Unity-Katalog abgelehnt
SQLSTATE: nicht zugewiesen
Die Anforderung zum Erstellen der Staging-Tabelle "<tableFullName>
" außerhalb der Databricks Unity Catalog-aktivierten Compute-Umgebung wird aus Sicherheitsgründen verweigert. Wenden Sie sich an den Databricks-Support für Integrationen in Unity-Katalog.
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_REQUEST_FÜR_NICHT_EXTERNES_TABLE_VERWEIGERT
SQLSTATE: nicht zugewiesen
Die Anforderung zum Erstellen einer nicht externen Tabelle "<tableFullName>
" von außerhalb einer Databricks Unity Catalog aktivierten Compute-Umgebung wird aus Sicherheitsgründen verweigert. Wenden Sie sich an den Databricks-Support für Integrationen in Unity-Katalog.
EINHEITSKATALOG_EXTERNES_LÖSCHEN_TABELLENANFORDERUNG_FÜR_NICHT_EXTERN_TABELLEN_ABGELEHNT
SQLSTATE: nicht zugewiesen
Die Anforderung zum Löschen einer nicht externen Tabelle "<tableFullName>
" außerhalb des Unity-Katalogs mit aktivierter Datenverarbeitungsumgebung wird nicht unterstützt.
UNITY_CATALOG_EXTERNAL_GENERATE_PATH_CREDENTIALS_VERWEIGERT
SQLSTATE: nicht zugewiesen
Die Anforderung zum Generieren von Zugriffsanmeldeinformationen für den Pfad "<path>
" aus einer Umgebung außerhalb der durch den Databricks Unity Catalog aktivierten Compute-Umgebung wird aus Sicherheitsgründen abgelehnt. Wenden Sie sich an den Databricks-Support für Integrationen in Unity-Katalog.
UNITY_CATALOG_EXTERN_GENEREIRE_TABELLEN_BERECHTIGUNGEN_VERWEIGERT
SQLSTATE: nicht zugewiesen
Die Anforderung, um Zugriffsanmeldeinformationen für die Tabelle "<tableId>
" von außerhalb einer durch den Databricks Unity-Katalog aktivierten Compute-Umgebung zu generieren, wird aus Sicherheitsgründen verweigert. Wenden Sie sich an den Databricks-Support für Integrationen in Unity-Katalog.
Zugang zu fremden Anmeldeinformationen über den Unity-Katalog verweigert
SQLSTATE: nicht zugewiesen
Die Anforderung, fremde Anmeldeinformationen für sicherungsfähige Objekte von außerhalb der Databricks Unity Catalog-aktivierten Compute-Umgebung abzurufen, wird aus Sicherheitsgründen verweigert.
UNITY_CATALOG_EXTERNES_UPDATE_METADATA_SNAPSHOT_VERWEIGERT
SQLSTATE: nicht zugewiesen
Die Anforderung, Metadaten-Schnappschüsse von außerhalb der durch Databricks Unity Catalog aktivierten Compute-Umgebung zu aktualisieren, wird aus Sicherheitsgründen verweigert.
SCHREIB_BERECHTIGUNGEN_NICHT_UNTERSTÜTZT_FÜR_ALTE_VERWALTETE_ONLINE_TABELLE
SQLSTATE: nicht zugewiesen
Ungültige Anforderung zum Abrufen von Schreibberechtigungen für die verwaltete Onlinetabelle in einem Onlinekatalog.
Datei-API
DATEIEN_API_API_IST_NICHT_AKTIVIERT
SQLSTATE: nicht zugewiesen
<api_name>
API ist nicht aktiviert
DIE_API_IST_NICHT_FÜR_CLOUD_PFADEN_AKTIVIERT
SQLSTATE: nicht zugewiesen
Die angeforderte Methode der Datei-API wird für Cloudpfade nicht unterstützt.
Dateien_API_AWS_Zugriff_verweigert
SQLSTATE: nicht zugewiesen
Der Zugriff auf den Speicher-Bucket wird von AWS verweigert.
FILES_API_AWS_ALL_ACCESS_DISABLED
SQLSTATE: nicht zugewiesen
Der gesamte Zugriff auf den Speicher-Bucket wurde in AWS deaktiviert.
FILES_API_AWS_BUCKET_EXISTIERT_NICHT
SQLSTATE: nicht zugewiesen
Der Speicher-Bucket ist in AWS nicht vorhanden.
FILES_API_AWS_VERBOTEN
SQLSTATE: nicht zugewiesen
Der Zugriff auf den Speicher-Bucket ist von AWS verboten.
UNGÜLTIGER_AUTORISIERUNGS_HEADER_IN_DATEI_API_AWS
SQLSTATE: nicht zugewiesen
Der Arbeitsbereich ist falsch konfiguriert: Er muss sich in derselben Region wie der AWS-Arbeitsbereich-Stammspeicher-Bucket befinden.
DATEIEN_API_AWS_UNGÜLTIGER_BUCKET_NAME
SQLSTATE: nicht zugewiesen
Der Speicher-Bucketname ist ungültig.
DATEIEN_API_AWS_KMS_SCHLÜSSEL_DEAKTIVIERT
SQLSTATE: nicht zugewiesen
Die konfigurierten KMS-Schlüssel für den Zugriff auf den Speicher-Bucket sind in AWS deaktiviert.
DATEIEN_API_AWS_UNAUTORISIERT
SQLSTATE: nicht zugewiesen
Der Zugriff auf AWS-Ressource ist nicht autorisiert.
FILES_API_AZURE_KONTO_IST_DEAKTIVIERT
SQLSTATE: nicht zugewiesen
Das Speicherkonto ist in Azure deaktiviert.
DATEIEN_API_AZURE_AUTORISIERUNG_BERECHTIGUNGS_UNSTIMMIGKEIT
SQLSTATE: nicht zugewiesen
Die Autorisierungsberechtigung stimmt nicht überein.
DATEIEN_API_AZURE_CONTAINER_EXISTIERT_NICHT
SQLSTATE: nicht zugewiesen
Der Azure-Container ist nicht vorhanden.
FILES_API_AZURE_VERBOTEN
SQLSTATE: nicht zugewiesen
Der Zugriff auf den Speichercontainer ist von Azure verboten.
DATEIEN_API_AZURE_HAT_EINEN_PACHTVERTRAG
SQLSTATE: nicht zugewiesen
Azure hat geantwortet, dass es derzeit eine Lease für die Ressource gibt. Versuchen Sie es später erneut.
DATEIEN_API_AZURE_UNZUREICHENDE_KONTOBERECHTIGUNG
SQLSTATE: nicht zugewiesen
Das Konto, auf das zugegriffen wird, verfügt nicht über ausreichende Berechtigungen, um diesen Vorgang auszuführen.
DATEIEN_API_AZURE_UNGÜLTIGE_SPEICHERKONTO_KONFIGURATION
SQLSTATE: nicht zugewiesen
Die Konfiguration des Kontos, auf das zugegriffen wird, wird nicht unterstützt.
DATEIEN_API_AZURE_UNGÜLTIGER_SPEICHERKONTONAME
SQLSTATE: nicht zugewiesen
Auf das Speicherkonto in Azure kann nicht zugegriffen werden: Ungültiger Speicherkontoname.
DATEIEN_API_AZURE_SCHLÜSSELBASIERTE_AUTHENTIFIZIERUNG_NICHT_ERLAUBT
SQLSTATE: nicht zugewiesen
Der Schlüsseltresor wird in Azure nicht gefunden. Überprüfen Sie die Einstellungen für vom Kunden verwaltete Schlüssel.
DATEIEN_API_AZURE_SCHLÜSSEL_TRESORSCHLÜSSEL_NICHT_GEFUNDEN
SQLSTATE: nicht zugewiesen
Der Azure Key Vault-Schlüssel wurde in Azure nicht gefunden. Überprüfen Sie die Einstellungen für vom Kunden verwaltete Schlüssel.
DATEIEN_API_AZURE_KEY_VAULT_TRESOR_NICHT_GEFUNDEN
SQLSTATE: nicht zugewiesen
Der Schlüsseltresor wird in Azure nicht gefunden. Überprüfen Sie die Einstellungen für vom Kunden verwaltete Schlüssel.
DATEIEN_API_AZURE_MI_ACCESS_CONNECTOR_NICHT_GEFUNDEN
SQLSTATE: nicht zugewiesen
Anmeldeinformationen für verwaltete Azure-Identität mit Zugriffsconnector nicht gefunden. Dies könnte darauf zurückzuführen sein, dass die IP-Zugriffskontrollen Ihre Anforderung abgelehnt haben.
DATEIEN_API_AZURE_OPERATION_TIMEOUT
SQLSTATE: nicht zugewiesen
Der Vorgang konnte nicht innerhalb der zulässigen Zeit abgeschlossen werden.
DATEIEN_API_AZURE_PFAD_UNGÜLTIG
SQLSTATE: nicht zugewiesen
Der angeforderte Pfad ist für Azure ungültig.
DATEIEN_API_AZURE_PFAD_IST_UNVERÄNDERLICH
SQLSTATE: nicht zugewiesen
Der angeforderte Pfad ist unveränderlich.
DATEIEN_API_AZURE_NICHT_UNTERSTÜTZTER_HEADER
SQLSTATE: nicht zugewiesen
Einer der im Vorgang angegebenen Header wird nicht unterstützt.
FILES_API_KANN_URL_PARAMETER_NICHT_PARSEN
SQLSTATE: nicht zugewiesen
Der URL-Parameter kann nicht analysiert werden.
DATEIEN_API_KATALOG_NICHT_GEFUNDEN
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
DATEIEN_API_CLOUD_RESOURCE_AUSGESCHÖPFT
SQLSTATE: nicht zugewiesen
<message>
DATEIEN_API_CLOUD-SPEICHERANBIETER_VERBINDUNGSPROBLEM
SQLSTATE: nicht zugewiesen
Es liegt ein Verbindungsproblem vor, das <cloud_storage_provider>
erreicht. Versuchen Sie es später erneut.
DATEIEN_API_DOPPELPUNKT_WIRD_NICHT_IM_PFAD_UNTERSTÜTZT
SQLSTATE: nicht zugewiesen
Das Zeichen „:“ wird in Pfaden nicht unterstützt.
FILES_API_VERBRAUCHERNETZWERKZONE_NICHT_ERLAUBT
SQLSTATE: nicht zugewiesen
Die Consumer-Netzwerkzone „<consumer_network_zone>
“ ist von der Netzwerkzone „<requester_network_zone>
“ des Anforderernetzwerks nicht zulässig.
FILES_API_CONTROL_PLANE_NETWORK_ZONE_NICHT_ERLAUBT
SQLSTATE: nicht zugewiesen
Netzwerkzone der Databricks-Steuerungsebene nicht zulässig.
Datei-API-Verzeichnisse können keine Inhalte haben.
SQLSTATE: nicht zugewiesen
Ein Textkörper wurde bereitgestellt, Verzeichnisse können jedoch keinen Dateiinhalt haben.
DATEIEN_API_VERZEICHNIS_IST_NICHT_LEER
SQLSTATE: nicht zugewiesen
Das Verzeichnis ist nicht leer. Dieser Vorgang wird für nicht leere Verzeichnisse nicht unterstützt.
Dateien_API_Verzeichnis_ist_nicht_gefunden
SQLSTATE: nicht zugewiesen
Das Verzeichnis, auf das zugegriffen werden soll, wurde nicht gefunden.
DATEIEN_API_DMK_VERSCHLÜSSLUNG_ROOT_KEY_DEAKTIVIERT
SQLSTATE: nicht zugewiesen
Der Stammschlüssel für die vom Kunden verwaltete Verschlüsselung ist deaktiviert.
FILES_API_DOPPELTES_HEADER
SQLSTATE: nicht zugewiesen
Die Anforderung enthielt mehrere Kopien eines Headers, der nur einmal zulässig ist.
FILES_API_DUPLICATE_QUERY_PARAMETER
SQLSTATE: nicht zugewiesen
Der Abfrageparameter '<parameter_name>
' muss genau einmal vorhanden sein, wurde aber mehrmals bereitgestellt.
FILES_API_EMPTY_BUCKET_NAME
SQLSTATE: nicht zugewiesen
Der DbFS-Bucketname ist leer.
FILES_API_VERSCHLÜSSELUNGSSCHLÜSSEL_BERECHTIGUNG_VERWEIGERT
SQLSTATE: nicht zugewiesen
Der Benutzer hat keinen Zugriff auf den Verschlüsselungsschlüssel.
DATEIEN_API_VERSCHLÜSSELUNGSSCHLÜSSEL_ABRUFBETRIEB_ZEITLIMIT
SQLSTATE: nicht zugewiesen
Der Vorgang zum Abrufen des Verschlüsselungsschlüssels konnte nicht innerhalb des zulässigen Zeitraums abgeschlossen werden.
Die Dateiorganisationseinheit ist zu groß
SQLSTATE: nicht zugewiesen
Ihr Objekt überschreitet die maximal zulässige Objektgröße.
FILES_API_FEHLER_ABGELAUFENE_TTL
SQLSTATE: nicht zugewiesen
Die TTL ist abgelaufen.
DATEIEN_API_FEHLER_UNGÜLTIGER_TTL
SQLSTATE: nicht zugewiesen
Die TTL ist ungültig.
FILES_API_FEHLER_SCHLÜSSEL_FÜR_ARBEITSBEREICH_NICHT_GEFUNDEN
SQLSTATE: nicht zugewiesen
Der Schlüssel für den Arbeitsbereich wurde nicht gefunden.
FEHLER_BEI_DATEIAPI_FEHLENDES_ERFORDERLICHES_PARAMETER
SQLSTATE: nicht zugewiesen
Der URL fehlt ein erforderlicher Parameter.
FEHLER_BEI_DATEIEN_API_TTL_IN_DER_ZUKUNFT
SQLSTATE: nicht zugewiesen
Die TTL ist in der Zukunft.
DATEIEN_API_FEHLER_URL_UNGÜLTIG_AUSSTELLER_SHARD_NAME
SQLSTATE: nicht zugewiesen
Der Herausgeber-Shard-Name ist ungültig.
FILES_API_Ablaufzeit_muss_vorhanden_sein
SQLSTATE: nicht zugewiesen
Ablaufzeit muss vorhanden sein
FILES_API_ABGELAUFENES_TOKEN
SQLSTATE: nicht zugewiesen
Das bereitgestellte Token ist abgelaufen.
DATEIEN_API_VERFALLSZEIT_MUSS_IN_DER_ZUKUNFT_LIEGEN
SQLSTATE: nicht zugewiesen
„ExpireTime“ muss in der Zukunft liegen.
DATEIEN_API_ABLAUFZEIT_ZU_WEIT_IN_DER_ZUKUNFT
SQLSTATE: nicht zugewiesen
Die angeforderte TTL überschreitet die unterstützte Dauer (1 Stunde).
The phrase should remain as it is since it appears to be a crucial identifier likely used for coding purposes, and translating it could affect its functional integrity. No translation needed.
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
DATEI_EXISTIERT_BEREITS
SQLSTATE: nicht zugewiesen
Die erstellte Datei ist bereits vorhanden.
DATEIEN_API_DATEI_NICHT_GEFUNDEN
SQLSTATE: nicht zugewiesen
Die zugegriffene Datei wurde nicht gefunden.
DATEIEN_API_DATEI_ODER_VERZEICHNIS_ENDET_MIT_PUNKT
SQLSTATE: nicht zugewiesen
Dateien oder Verzeichnisse, die auf dem Zeichen "." enden, werden nicht unterstützt.
Dateigröße im FILES_API überschritten
SQLSTATE: nicht zugewiesen
Die Dateigröße sollte <max_download_size_in_bytes>
Bytes nicht überschreiten, aber <size_in_bytes>
Bytes wurden gefunden.
Dateien-API: GCP-Konto ist deaktiviert
SQLSTATE: nicht zugewiesen
Der Zugriff auf den Speicher-Bucket wurde in GCP deaktiviert.
DATEIEN_API_GCP_BUCKET_EXISTIERT_NICHT
SQLSTATE: nicht zugewiesen
Der Speicher-Bucket ist in GCP nicht vorhanden.
ZUGRIFF_VERWEIGERT_DATEIEN_API_GCP
SQLSTATE: nicht zugewiesen
Der Zugriff auf den Bucket ist von GCP verboten.
DATEIEN_API_GCP_SCHLÜSSEL_DEAKTIVIERT_ODER_ZERSTÖRT
SQLSTATE: nicht zugewiesen
Der für diesen Speicherort konfigurierte vom Kunden verwaltete Verschlüsselungsschlüssel ist entweder deaktiviert oder zerstört.
DATEIEN_API_GCP_ANFRAGE_DURCH_RICHTLINIE_VERBOTEN
SQLSTATE: nicht zugewiesen
Die GCP-Anforderungen an den Bucket sind per Richtlinie verboten, prüfen Sie die VPC-Dienststeuerungen.
FILES_API_HOST_VORÜBERGEHEND_NICHT_VERFÜGBAR
SQLSTATE: nicht zugewiesen
Cloudanbieterhost ist vorübergehend nicht verfügbar; versuchen Sie es später erneut.
FILES_API_UNGÜLTIGES_FORTSETZUNGSTOKEN
SQLSTATE: nicht zugewiesen
Das bereitgestellte Seitentoken ist ungültig.
DATEIEN_API_UNGÜLTIGER_HOSTNAME
SQLSTATE: nicht zugewiesen
Der Hostname ist ungültig.
UNGÜLTIGE_HTTP-METHODE_IN_DATEI_API
SQLSTATE: nicht zugewiesen
Ungültige HTTP-Methode. „<expected>
“ erwartet, aber „<actual>
“ erhalten.
FILES_API_INVALID_METASTORE_ID_HEADER
SQLSTATE: nicht zugewiesen
Der Metastore-ID-Header ist ungültig.
Ungültiges Seitentoken der FILES_API
SQLSTATE: nicht zugewiesen
Ungültiges Seitentoken
DATEIEN_API_UNGÜLTIGER_PFAD
SQLSTATE: nicht zugewiesen
Ungültiger Pfad: <validation_error>
DATEIEN_API_UNGÜLTIGER_BEREICH
SQLSTATE: nicht zugewiesen
Der Range-Header ist ungültig.
DATEIEN_API_UNGÜLTIGER_RESOURCE_VOLLNAME
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
DATEIEN_API_UNGÜLTIGER_SESSION_TOKEN
SQLSTATE: nicht zugewiesen
Ungültiges Sitzungstoken
FILES_API_UNGÜLTIGER_SITZUNGSTOKEN_TYP
SQLSTATE: nicht zugewiesen
Ungültiger Sitzungstokentyp. „<expected>
“ erwartet, aber „<actual>
“ erhalten.
UNGÜLTIGER_ZEITSTEMPEL_DATEIEN_API
SQLSTATE: nicht zugewiesen
Der Zeitstempel ist ungültig.
UNGÜLTIGER_DATEI_UPLOAD_TYP_API
SQLSTATE: nicht zugewiesen
Ungültiger Uploadtyp. „<expected>
“ erwartet, aber „<actual>
“ erhalten.
Unzulässiger URL-Parameter (FILES_API_INVALID_URL_PARAMETER)
SQLSTATE: nicht zugewiesen
Die als Parameter übergebene URL ist ungültig.
UNGÜLTIGER WERT FÜR ÜBERSCHREIBEN-ABFRAGEPARAMETER DER DATEIEN_API
SQLSTATE: nicht zugewiesen
Der Abfrageparameter „overwrite“ muss „true“ oder „false“ sein, aber war: <got_values>
FILES_API_UNGÜLTIGER_WERT_FÜR_ABFRAGEPARAMETER
SQLSTATE: nicht zugewiesen
Der Abfrageparameter '<parameter_name>
' muss einer der folgenden sein: <expected>
, war jedoch: <actual>
.
FEHLER_BEI_DATEI_API_MALFORMIERTES_ANFORDERUNGSFORMAT
SQLSTATE: nicht zugewiesen
Falsch formatierter Anforderungstext
DATEIEN_API_VERWALTETER_KATALOG_FUNKTION_DEAKTIVIERT
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
FILES_API_METADATENSPEICHER_NICHT_GEFUNDEN
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
DATEIEN_API_METHODE_IST_NICHT_FREIGEGEBEN_FÜR_JOBS_HINTERGRUND_DATENVERARBEITUNG_ARTEFAKT_SPEICHERUNG
SQLSTATE: nicht zugewiesen
Die angeforderte Methode der Dateien-API wird für Artefaktspeicher für Hintergrundberechnungen von Aufträgen nicht unterstützt.
FILES_API_FEHLENDE_INHALTSLÄNGE
SQLSTATE: nicht zugewiesen
Der Header „content-length“ ist in der Anforderung erforderlich.
FILES_API_FEHLENDER_ANFRAGEPARAMETER
SQLSTATE: nicht zugewiesen
Der Abfrageparameter '<parameter_name>
' ist erforderlich, fehlt aber in der Anforderung.
FILES_API_FEHLENDER_ERFORDERLICHER_PARAMETER_IN_ANFRAGE
SQLSTATE: nicht zugewiesen
Bei der Anforderung fehlt ein erforderlicher Parameter.
FILES_API_MLFLOW_Berechtigung_verweigert
SQLSTATE: nicht zugewiesen
<mlflow_error_message>
DATEIEN_API_MODELLVERSION_IST_NICHT_BEREIT
SQLSTATE: nicht zugewiesen
Modellversion ist noch nicht bereit
FILES_API_MULTIPART_UPLOAD_ABORT_VORAB_SIGNIERTE_URL_NICHT_UNTERSTÜTZT
SQLSTATE: nicht zugewiesen
Vorsignierte URLs für das Abbrechen von mehrteiligen Uploads werden für Dateien, die auf <cloud_storage_provider>
gespeichert sind, nicht unterstützt.
FILES_API_MULTIPART_UPLOAD_LEERE_TEILLISTE
SQLSTATE: nicht zugewiesen
Die Liste der Teile muss mindestens ein Element aufweisen, war aber leer.
DATEIEN_API_MEHRTEILIGER_UPLOAD_UNGÜLTIGER_TEIL
SQLSTATE: nicht zugewiesen
Mindestens eine der angegebenen Teile konnte nicht gefunden werden. Das Element wurde möglicherweise nicht hochgeladen, oder das angegebene Entity-Tag stimmt nicht mit dem Entity-Tag des Elements überein.
DATEIEN_API_MULTITEIL_UPLOAD_UNGÜLTIGE_TEILNUMMER
SQLSTATE: nicht zugewiesen
Teilenummern müssen größer oder gleich <min>
und kleiner als oder gleich sein <max>
.
Datei-API: Multipart-Upload fehlt ETag
SQLSTATE: nicht zugewiesen
ETags müssen für Dateien zur Verfügung gestellt werden, die auf <cloud_storage_provider>
gespeichert sind. Mindestens ein ETag wurde nicht bereitgestellt oder leer.
Dateien_API_Multipart_Upload_Modifizierter_Speicher_Entitätszustand
SQLSTATE: nicht zugewiesen
Der interne Status der Speicherentität wurde seit dem Initiieren des Uploads geändert, z. B. weil der Dateipfad nicht auf denselben zugrunde liegenden Cloudspeicherort verweist. Fahren Sie fort, indem Sie eine neue Uploadsitzung initiieren.
DATEIEN_API_MULTIPART_UPLOAD_NICHT_ABSCHLIEßENDE_TEILE_MIT_VERSCHIEDENEN_GRÖßEN
SQLSTATE: nicht zugewiesen
Die Teile, die als Teil einer Sitzung für Mehrfach-Uploads hochgeladen werden, müssen für auf <cloud_storage_provider>
gespeicherte Dateien dieselbe Größe aufweisen, mit Ausnahme des letzten Teils, der kleiner sein kann.
FILES_API_MULTIPART_UPLOAD_TEILGRÖSSE_AUSSERHALB_DES_BEREICHS
SQLSTATE: nicht zugewiesen
Die Größe der teile, die als Teil einer mehrteiligen Uploadsitzung hochgeladen wurden, muss größer oder gleich <min>
und kleiner als oder gleich sein <max>
.
DATEIEN_API_MULTIPART_UPLOAD_SESSION_NICHT_GEFUNDEN
SQLSTATE: nicht zugewiesen
Die Uploadsitzung wurde nicht gefunden. Möglicherweise wurde sie abgebrochen oder abgeschlossen.
DATEIEN_API_MEHRTEILIG_HOCHLADEN_UNGEORDNET_TEIL_LISTE
SQLSTATE: nicht zugewiesen
Die Liste von Teilen muss nach der Teilenummer sortiert werden, war aber ungeordnet.
FILES_API_NICHT_FÜR_ORT_AKTIVIERT
SQLSTATE: nicht zugewiesen
Die Datei-API für <place>
ist für diesen Arbeitsbereich/dieses Konto nicht aktiviert.
DATEIEN-API_NICHT_UNTERSTÜTZT_FÜR_INTERNE_WORKSPACE_SPEICHERUNG
SQLSTATE: nicht zugewiesen
Die angeforderte Methode der Datei-API wird für den internen Arbeitsbereichspeicher nicht unterstützt.
FILES_API_OPERATION_MUSS_VORHANDEN_SEIN
SQLSTATE: nicht zugewiesen
Vorgang muss vorhanden sein.
DATEI_API_BETRIEBSZEITLIMIT
SQLSTATE: nicht zugewiesen
Timeout des Vorgangs.
FILES_API_SEITENGRÖSSE_MUSS_GRÖßER_ODER_GLEICH_NULL_SEIN
SQLSTATE: nicht zugewiesen
page_size muss größer oder gleich 0 sein.
DATEIEN_API_PFAD_ENDEN_MIT_EINEM_SLASH
SQLSTATE: nicht zugewiesen
Pfade, die auf dem Zeichen "/" enden, stellen Verzeichnisse dar. Diese API unterstützt keine Vorgänge in Verzeichnissen.
DATEIPFAD_API_IST_EIN_VERZEICHNIS
SQLSTATE: nicht zugewiesen
Der angegebene Pfad verweist auf ein vorhandenes Verzeichnis. Diese API unterstützt keine Vorgänge in Verzeichnissen.
DATEIPFAD_API_IST_EINE_DATEI
SQLSTATE: nicht zugewiesen
Der angegebene Pfad verweist auf eine vorhandene Datei. Diese API unterstützt keine Vorgänge für Dateien.
DATEIEN_API_PFAD_IST_KEIN_GÜLTIG_UTF8_KODIERTER_URL
SQLSTATE: nicht zugewiesen
Der angegebene Pfad war keine gültige UTF-8-codierte URL.
DATEIPFAD_API_IST_NICHT_FÜR_DATAPLANE_PROXY_AKTIVIERT
SQLSTATE: nicht zugewiesen
Der angegebene Pfad ist für den Datenebenenproxy nicht aktiviert.
DATEIEN_API_PFAD_MUSS_VORHANDEN_SEIN
SQLSTATE: nicht zugewiesen
Pfad muss vorhanden sein.
Der API-Pfad für Dateien wird nicht unterstützt (FILES_API_PATH_NOT_SUPPORTED).
SQLSTATE: nicht zugewiesen
<rejection_message>
Dateien_API_Pfad_zulange
SQLSTATE: nicht zugewiesen
Der bereitgestellte Dateipfad ist zu lang.
VORAUSSETZUNG FÜR DATEIEN_API NICHT ERFÜLLT
SQLSTATE: nicht zugewiesen
Die Anforderung konnte aufgrund einer Vorbedingung nicht ausgeführt werden.
DATEIEN_API_VORAB_SIGNIERTE_URLS_FÜR_MODELLE_NICHT_UNTERSTÜTZT
SQLSTATE: nicht zugewiesen
Die Datei-API für vorsignierte URLs für Modelle wird derzeit nicht unterstützt.
DATEIEN_API_R2_BENUTZERDATEN_DEAKTIVIERT
SQLSTATE: nicht zugewiesen
R2 wird derzeit nicht unterstützt.
DATEIEN_API_BEREICH_NICHT_ERFÜLLBAR
SQLSTATE: nicht zugewiesen
Der angeforderte Bereich ist nicht zufriedenstellend.
DIE_DATEIEN_API_REKURSIVE_LISTE_WIRD_NICHT_UNTERSTÜTZT
SQLSTATE: nicht zugewiesen
Rekursives Auflisten von Dateien wird nicht unterstützt.
DATEIEN_API_ANFRAGER_NETZWERKZONE_UNBEKANNT
SQLSTATE: nicht zugewiesen
Die Netzwerkzone des Anforderers kann nicht abgeleitet werden.
FILES_API_ANFRAGE_WURDE_FALSCH_GELEITET
SQLSTATE: nicht zugewiesen
Anforderung wurde falsch weitergeleitet
DATEI-API-ANFRAGE MUSS KONTOINFORMATIONEN ENTHALTEN
SQLSTATE: nicht zugewiesen
Anforderung muss Kontoinformationen enthalten
DATEIANFORDERUNG_AN_DIE_API_MUSS_BENUTZERINFORMATIONEN_ENTHALTEN
SQLSTATE: nicht zugewiesen
Anforderung muss Benutzerinformationen enthalten
FILES_API_ANFRAGE_MUSS_WORKSPACE_INFORMATION_BEINHALTEN
SQLSTATE: nicht zugewiesen
Anforderung muss Arbeitsbereichsinformationen enthalten
DATEIEN_API_RESOURCE_IST_SCHREIBGESCHÜTZT
SQLSTATE: nicht zugewiesen
Ressource ist schreibgeschützt.
FILES_API_RESOURCE_NICHT_GEFUNDEN
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
DATEIEN_API_SCHEMA_NICHT_GEFUNDEN
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
DATEIEN_API_SICHERE_URL_KANN_NICHT_ERREICHT_WERDEN
SQLSTATE: nicht zugewiesen
Auf die URL kann nicht zugegriffen werden.
FILES_API_SIGNATUR_VERIFIZIERUNG_FEHLGESCHLAGEN
SQLSTATE: nicht zugewiesen
Fehler bei der Signaturüberprüfung.
It may not require improvements unless there is a directive to translate such strings for documentation purposes. In that case, it could be supplemented with a brief explanation in German, if needed, but usually, these should remain unchanged.
SQLSTATE: nicht zugewiesen
Auf die Speicherkonfiguration für diesen Arbeitsbereich kann nicht zugegriffen werden.
DATEIEN_API_SPEICHER_ANMELDEDATEN_NICHT_GEFUNDEN
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
Dateityp in FILES_API_TABLE nicht unterstützt
SQLSTATE: nicht zugewiesen
Die Datei-API wird für <table_type>
nicht unterstützt.
FILES_API_UC_AUTHENTIFIZIERUNGSFEHLER
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
DATEIEN_API_UC_IAM_ROLLE_NICHT_SELBSTÜBERNEHMEND
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
FILES_API_UC_MODEL_UNGÜLTIGER_ZUSTAND
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
FILES_API_UC_BERECHTIGUNG_VERWEIGERT
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
FILES_API_UC_RESOURCE_EXHAUSTED
SQLSTATE: nicht zugewiesen
<message>
DATEIEN_API_NC_NICHT_UNTERSTÜTZTES_LATEINISCHES_ZEICHEN_IM_PFAD
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
DATEIEN_API_UC_VOLUME_NAME_GEÄNDERT
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
UNERWARTETER_FEHLER_BEIM_ANALYSIEREN_DER_URI
SQLSTATE: nicht zugewiesen
Unerwarteter Fehler beim Analysieren des URI
FILES_API_UNERWARTETE_ABFRAGEPARAMETER
SQLSTATE: nicht zugewiesen
Unerwartete Abfrageparameter: <unexpected_query_parameters>
Fehlermeldung_FILES_API_UNBEKANNTE_METHODE
SQLSTATE: nicht zugewiesen
Unbekannte Methode <method>
FILES_API_UNBEKANNTER_SERVERFEHLER
SQLSTATE: nicht zugewiesen
Unbekannter Serverfehler.
FILES_API_UNBEKANNTER_URL_HOST
SQLSTATE: nicht zugewiesen
Der URL-Host ist unbekannt.
NICHT_UNTERSTÜTZTE_AUTHENTIFIZIERUNGSMETHODE_DATEIEN_API
SQLSTATE: nicht zugewiesen
Die Anforderung wurde nicht ordnungsgemäß authentifiziert.
FILES_API_NICHT_UNTERSTÜTZTE_HTTP_METHODE
SQLSTATE: nicht zugewiesen
HttpMethod wird nicht unterstützt.
NICHT_UNTERSTÜTZTE_PARAMETER_KOMBINATION_API_DATEIEN
SQLSTATE: nicht zugewiesen
Die Kombination von Parametern wird nicht unterstützt.
FILES_API_NICHT_UNTERSTÜTZTER_PFAD
SQLSTATE: nicht zugewiesen
Der bereitgestellte Pfad wird von der Datei-API nicht unterstützt. Stellen Sie sicher, dass der angegebene Pfad keine Vorkommen der Sequenzen '../' oder './' enthält. Stellen Sie sicher, dass der angegebene Pfad nicht mehrere aufeinander folgende Schrägstriche verwendet (z. B. '///').
FILES_API_UPLOAD_PARAMETER_ANZAHL_MUSS_GRÖßER_SEIN_ALS_NULL
SQLSTATE: nicht zugewiesen
Der Eingabeparameter 'count' muss größer als 0 sein.
Dateien API-URL-Generierung deaktiviert
SQLSTATE: nicht zugewiesen
Die Vorsignierte URL-Generierung ist für <cloud>
nicht aktiviert.
DATEIEN_API_LAUFWERKSART_NICHT_UNTERSTÜTZT
SQLSTATE: nicht zugewiesen
Die Datei-API wird für <volume_type>
nicht unterstützt.
FILES_API_ARBEITSBEREICH_IST_ABGEBROCHEN
SQLSTATE: nicht zugewiesen
Der Arbeitsbereich wurde abgebrochen.
DATEIEN_API_ARBEITSBEREICH_NICHT_GEFUNDEN
SQLSTATE: nicht zugewiesen
Auf die Speicherkonfiguration für diesen Arbeitsbereich kann nicht zugegriffen werden.
DLT (verteilte Ledger-Technologie)
AKTIVES_UPDATE_EXISTIERT_FÜR_VERKNÜPFTE_PIPELINE
Für die verknüpfte Pipeline '<updateId>
' ist bereits ein aktives Update '<linkedPipelineId>
' vorhanden.
AKTIVES_UPDATE_EXISTIERT_FÜR_PIPELINE
Für die Pipeline '<updateId>
' ist bereits ein aktives Update '<pipelineId>
' vorhanden.
Änderungen für Pipeline-Tabelle nicht erlaubt
ALTER
ist für Tabellen nicht zulässig, die verwaltet werden von
Weitere Informationen finden Sie unter ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE.
ALTER_PLAN_SCHEDULE_EXISTIERT_NICHT
<type>
einer Tabelle kann nicht geändert werden, ohne dass ein vorhandener Zeitplan oder Trigger vorhanden ist. Fügen Sie der Tabelle einen Zeitplan oder Trigger hinzu, bevor Sie versuchen, ihn zu ändern.
API_QUOTA_EXCEEDED (API-Kontingent überschritten)
Sie haben das API-Kontingent für die Datenquelle <sourceName>
überschritten.
Weitere Details finden Sie unter API_QUOTA_EXCEEDED.
FEHLER_BEIM_ANWENDEN_DER_ÄNDERUNGEN
Ein Fehler ist beim AUTO CDC-Vorgang aufgetreten.
Weitere Informationen finden Sie unter APPLY_CHANGES_ERROR.
FEHLER_BEIM_ANWENDEN_DER_ÄNDERUNGEN_AUS_SNAPSHOT
Während des AUTO CDC FROM SNAPSHOT
Vorgangs ist ein Fehler aufgetreten.
Weitere Informationen finden Sie unter APPLY_CHANGES_FROM_SNAPSHOT_ERROR.
ÄNDERUNGEN_AUS_SNAPSHOT_ERWARTUNGEN_NICHT_UNTERSTÜTZT
Im Dataset <datasetName>
sind Erwartungen definiert, aber Erwartungen werden derzeit für Datasets mit AUTO CDC FROM SNAPSHOT
nicht unterstützt.
Entfernen Sie die Erwartungen, um diesen Fehler zu beheben. Als Alternative sollten Sie die folgende Struktur verwenden, um Erwartungen durch die Kombination von AUTO CDC
und AUTO CDC FROM SNAPSHOT
anzuwenden.
Wenden Sie Änderungen von einem Schnappschuss mit SCD-Typ 1 auf eine Zwischentabelle an, ohne besondere Erwartungen.
Lesen von Änderungen aus der Zwischentabelle mithilfe von
spark.readStream.option("readChangeFeed", "true").table
.Anwenden von Änderungen aus der Zwischentabelle auf die endgültige Zieltabelle mithilfe
dlt.create_auto_cdc_flow
der folgenden Parameter zusätzlich zu den derzeit verwendetendlt.acreate_auto_cdc_flow_from_snapshot
Parametern:
So behandeln Sie Änderungen:
apply_as_deletes = "_change_type == 'delete'"
So entfernen Sie Spalten, die vom CDF hinzugefügt wurden:
except_column_list = ["_change_type", "_commit_version", "_commit_timestamp"]
- Fügen Sie die aktuellen Erwartungen in die endgültige Zieltabelle ein, die für
dlt.create_auto_cdc_flow
verwendet wird.
ÄNDERUNGEN_ANWENDEN_TEILAKTUALISIERUNGEN_NICHT_AKTIVIERT
Das Feature COLUMNS
TO UPDATE
befindet sich in der Vorschau und ist für Ihren Arbeitsbereich nicht aktiviert. Wenden Sie sich an Ihren Databricks-Vertreter, um mehr über dieses Feature zu erfahren und auf die private Vorschau zuzugreifen.
ARCHITEKTUR_MIGRATIONSFEHLER
Weitere Details finden Sie unter ARCHITECTURE_MIGRATION_FAILURE.
ARCLIGHT_BENÖTIGT_SERVERLESS
Pipelines für Kataloge, die Standardspeicher verwenden, müssen serverlose Rechenleistung nutzen. Wenn Sie keinen Zugriff auf serverlose Berechnungen haben, wenden Sie sich an Databricks, um dieses Feature für Ihren Arbeitsbereich zu aktivieren.
KANN_SPALTE_NICHT_ZU_EINGESCHLOSSENEN_SPALTEN_HINZUFÜGEN
Neue Spalten (<columnNames>
) werden zum Feld include_columns in der Pipeline-Definition für die Tabelle <qualifiedTableName>
hinzugefügt. Aktualisieren Sie die Tabelle vollständig, um potenzielle Datenverluste zu vermeiden oder diese Spalten aus include_columns zu entfernen.
KANN_SPEICHERORT_NICHT_HINZUFÜGEN
Ein Speicherort kann nicht zu einer bestehenden Pipeline mit definiertem Katalog hinzugefügt werden. Wenn Sie einen Speicherort festlegen möchten, erstellen Sie eine neue Pipeline.
Vorhandener Katalog: '<catalog>
'.
Angeforderter Speicherort: <storageLocation>
.
KANN_DECORATOR_NICHT_ZUSAMMENSETZEN
SQLSTATE: nicht zugewiesen
Der @<decoratorName>
Dekorateur kann nicht mit<otherDecorators>
kombiniert werden.
NICHT_AUSSCHLIESSEN_VON_NICHT_EXISTIERENDER_SPALTE
Die Pipelinedefinition schließt Spalten (<columnNames>
) aus, die in der Tabelle <qualifiedTableName>
der Quell-<sourceType>
nicht vorhanden sind. Entfernen Sie diese Spalten aus dem Feld exclude_columns.
KANN_ERFORDERLICHE_SPALTE_NICHT_AUSFILTERN
Die Pipelinedefinition enthält nicht die erforderlichen Spalten (<columnNames>
) in der Tabelle <qualifiedTableName>
der Quelle <sourceType>
zur Erfassung. Bitte fügen Sie sie zu den `include_columns` hinzu oder entfernen Sie sie aus den `exclude_columns`.
KANN_NICHT_NICHT_EXISTIERENDE_SPALTE_EINSCHLIESSEN
Die Pipelinedefinition enthält Spalten (<columnNames>
), die in der Tabelle <qualifiedTableName>
der Quell-<sourceType>
nicht vorhanden sind. Entfernen Sie diese Spalten aus dem Feld include_columns.
KANN_TABELLE_OHNE_PRIMÄRSCHLÜSSEL_NICHT_EINLESEN
Die Tabelle <qualifiedTableName>
in der <sourceType>
Quelle verfügt nicht über einen Primärschlüssel.
Geben Sie einen Primärschlüssel in der Connectorkonfiguration an, um die Tabelle einzulesen, wenn vorhanden.
PIPELINE-BESITZER FÜR UC-PIPELINES KANN NICHT GEÄNDERT WERDEN
Das Ändern des Besitzers für Nicht-UC-Pipelines wird noch nicht unterstützt.
KANN_PIPELINE_EIGENTÜMER_NICHT_ÄNDERN_BERECHTIGUNG_VERWEIGERT
Nur Arbeitsbereichsadministratoren können den Pipelinebesitzer ändern.
PIPELINE_BESITZER_KANN_NICHT_GEAENDERT_WERDEN_WENN_FEHLEND
Der neue Besitzer existiert nicht.
KANAL_TYP_NICHT_ÄNDERBAR
pipeline_type kann nicht aktualisiert werden.
Aktueller Pipeline-Typ: <currentPipelineType>
.
Aktualisierter Pipeline-Typ: <requestedPipelineType>
.
"Speicherort kann nicht geändert werden"
Der Speicherort einer vorhandenen Pipeline kann nicht geändert werden.
Vorhandener Speicherort: '<existingStorageLocation>
'.
Angeforderter Speicherort: <requestedStorageLocation>
.
KANN_SPALTE_NICHT_AUS_AUSGESCHLOSSENEN_SPALTEN_ENTFERNEN
Spalten (<columnNames>
) werden aus dem exclude_columns-Feld in der Pipeline-Definition für die Tabelle <qualifiedTableName>
entfernt. Aktualisieren Sie die Tabelle vollständig, um potenzielle Datenverluste zu vermeiden oder diese Spalten wieder zu exclude_columns hinzuzufügen.
KANN_KATALOG_FÜR_HMS_PIPELINE_NICHT_FESTLEGEN
Ein Katalog kann einer vorhandenen Pipeline mit definiertem Speicherort nicht hinzugefügt werden. Wenn Sie UC verwenden möchten, erstellen Sie eine neue Pipeline und legen Sie den Katalog fest.
Vorhandener Speicherort: '<storageLocation>
'
Angeforderter Katalog: '<catalog>
'
VERKNÜPFTE_PIPELINE_ID_KANN_NICHT_GESETZT_WERDEN
Pipeline-IDs sind identisch, das Festlegen der verknüpften Pipeline-IDs führt zu Deadlock.
SCHEMA_KANN_NICHT_FÜR_BEREITS_EXISTIERENDE_PIPELINE_FESTGELEGT_WERDEN
Das angegebene Feld "schema" in den Pipelineeinstellungen für die Pipeline "<pipelineName>
" ist unzulässig. Grund:
Weitere Informationen finden Sie unter CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE.
MAN KANN NICHT GLEICHZEITIG BOTH INCLUDE UND EXCLUDE SPALTEN ANGEBEN
Die Pipelinedefinition gibt sowohl include_columns als auch exclude_columns für <identifier>
an. Entfernen Sie eine davon.
KLASSIFIZIERUNSSPALTEN_KÖNNEN_NICHT_AKTUALISIERT_WERDEN
Für die Tabelle <tableName>
können die Clusterspalten nicht aktualisiert werden, da sie Partitionsspalten verwendet. Eine Tabelle kann entweder Partitionsspalten oder Clusterspalten verwenden, aber nicht beide.
Um zwischen flüssiger Clusterung und Partitionierung zu wechseln, lösen Sie eine vollständige Aktualisierung dieser Tabelle aus.
PARTITIONS_SPALTEN_KÖNNEN_NICHT_AKTUALISIERT_WERDEN
Partitionsspalten für streamingtabelle <tableName>
können nicht aktualisiert werden.
Aktuell: <existingPartitionColumns>
Angefordert: <requestedPartitionColumns>
Um diese Partitionsänderung anzuwenden, lösen Sie eine vollständige Aktualisierung dieser Tabelle und aller anderen Streamingtabellen mit aktualisierten Partitionsspalten aus.
Alternativ können Sie diese Änderung wiederherstellen, um weiterhin die vorhandenen Partitionsspalten zu verwenden.
TABELLENSCHEMA_KANN_NICHT_AKTUALISIERT_WERDEN
Fehler beim Zusammenführen der aktuellen und neuen Schemas für die Tabelle <tableName>
.
Um mit dieser Schemaänderung fortzufahren, können Sie eine vollständige Aktualisierung dieser Tabelle auslösen.
Abhängig von Ihrem Anwendungsfall und den Schemaänderungen können Sie die Schemaänderung möglicherweise vermeiden. Sie können Ihre Abfragen so aktualisieren, dass das Ausgabeschema mit dem vorhandenen Schema kompatibel ist (z. B. durch explizites Umwandeln von Spalten in den richtigen Datentyp).
KANN_NICHT_IN_INAKTIVE_SPALTEN_SCHREIBEN
<details>
Die Zieltabelle(n) weist jedoch bereits inaktive Spalten mit diesem Namen auf; die Spalten sind inaktiv, da sie zuvor aus den Quelltabellen gelöscht wurden.
Um mit dem Update fortzufahren, führen Sie eine FULL REFRESH
für die Tabellen aus, oder legen Sie diese inaktiven Spalten mithilfe des ALTER TABLE DROP COLUMN
Befehls ab.
KANN NICHT IN INAKTIVE TABELLEN SCHREIBEN
Die folgenden Tabellen im Ziel sind inaktiv und stehen in Konflikt mit den aktuellen Quelltabellen: <tables>
.
Diese Tabellen bleiben inaktiv, da sie zuvor aus der Quelle gelöscht oder aus dem Connector nicht ausgewählt wurden.
Um mit dem Update fortzufahren, führen Sie bitte eine FULL REFRESH
für die Tabellen aus oder entfernen Sie diese inaktiven Tabellen entweder aus dem Ziel im Katalog-Explorer oder über den Befehl DROP TABLE
, und versuchen Sie das Update erneut.
KANN NICHT IN TABELLEN SCHREIBEN, WARTE AUF ZURÜCKSETZUNG
Die folgenden Tabellen im Ziel wurden in der vorherigen vollständigen Aktualisierung nicht ordnungsgemäß zurückgesetzt: <tables>
.
Lösen Sie eine vollständige Aktualisierung aus, um sie wiederherzustellen.
KATALOG_ZUORDNUNG_NICHT_VERFÜGBAR_IN_UC
Der UC-Katalog verfügt nicht über die Zuordnung für den Katalog „<sourceCatalog>
“.
Überprüfen Sie, ob der Katalog im UC-Katalog registriert ist.
KATALOGSCHEMA-INKOMPATIBILITÄT MIT ZIELPIPELINE
Der Katalog <destPipelineCatalog>
und das Schema <destPipelineSchema>
der Zielpipeline mit der ID '<destPipelineId>
' stimmen nicht mit dem Katalog und Schema der Tabelle <tableName>
überein. Die Zielpipeline sollte denselben Katalog und dasselbe Schema wie die Tabelle haben oder die Zielpipeline muss den Direct Publishing-Modus verwenden.
CATALOG_SPEC_UNTERSTÜTZT_NICHT
CatalogSpecs werden von den Datenbank-Connectors derzeit nicht unterstützt. Entfernen Sie die Katalogspezifikation.
CDC_APPLIER_COLUMN_UOID_NICHT_UNTERSTÜTZT
Spalten mit UOID <columnNames>
für die Tabelle <tableName>
werden in CDC-verwalteten Erfassungspipelines nicht unterstützt.
Überprüfen Sie, ob die Aufnahmepipeline die Spalte UOID unterstützt, oder fordern Sie eine vollständige Aktualisierung an.
CDC_ANWENDER_TÖDLICHER_FEHLER_VOM_GATEWAY
Bei der Gatewaypipeline ist ein schwerwiegender Fehler aufgetreten:
<errorMessage>
Überprüfen Sie hier den Pipelineupdatefehler: <link>
.
CDC_ANWENDER_REPLIZIERTE_TABELLEN_METADATEN_NICHT_BEREIT
Replizierte Tabellenmetadaten für die Tabelle <tableName>
sind nicht bereit.
Der vorhandene Zeitstempel der Auftragsanforderung ist <existingRequestTs>
, aber wir erwarten <expectedRequestTs>
oder später.
CDC_APPLIER_ERFORDERT_VOLLSTÄNDIGEN_REFRESH_ALLER_ZIELTABELLEN
Die vollständige Aktualisierung einer Zieltabelle und die normale Aktualisierung einer anderen Zieltabelle aus derselben Quelle wird nicht unterstützt.
Bitte aktualisieren Sie beide Tabellen vollständig, um nach Möglichkeit fortzufahren.
Tabellen vollständig aktualisieren: <fullRefreshTables>
Zieltabellen für Quelle <sourceTable>
: <destinationTables>
CDC_APPLIKATOR_SCHEMA_BEIM_STREAMING_GEÄNDERT
Die Schemaversion <dataSchemaVersion>
unterscheidet sich von der Leseschemaversion <readSchemaVersion>
.
DLT wird das Update wiederholen.
CDC_APPLIER_SEQUENZ_DURCH_SPALTE_NICHT_GEFUNDEN
Die Spalte <columnName>
für die in sequenceBy angegebene Tabelle <tableName>
existiert nicht in <columns>
.
CDC_ANWENDER_SEQUENZ_NACH_UNGÜLTIGEM_TYP
Die spalte <columnName>
für die in sequenceBy angegebene Tabelle <tableName>
ist vom Typ <typeName>
, der nicht unterstützt wird.
Unterstützte Typen für sequenceBy-Spalten sind <allowedTypes>
.
CDC_ANWENDER_REIHENFOLGE_NACH_MEHREREN_SPALTEN_NICHT_UNTERSTÜTZT
Höchstens eine Spalte kann in sequenceBy der verwalteten Aufnahmepipeline des CDC angegeben werden.
Angegebene Spalten: <columns>
für Tabelle <tableName>
.
CDC_INKOMPATIBLE_SCHEMA_ÄNDERUNGEN
Wir sind auf eine inkompatible Schemaänderung (<cause>
) von der Schemaversion <previousSchemaVersion>
zu <currentSchemaVersion>
gestoßen.
Daher können wir nicht mit der Anwendung von Änderungen für <tableName>
fortfahren. Bitte fordern Sie eine vollständige Aktualisierung der Tabelle an.
Vorheriges Schema: <previousSchema>
Aktuelles Schema: <currentSchema>
CDC_MÖGLICHE_DATENLÜCKEN
Die folgenden Tabellen [<needFullRefreshTableList>
] wurden seit <retention>
Tagen nicht erfolgreich aktualisiert.
Bitte aktualisieren Sie diese Tabellen oder die gesamte Pipeline vollständig.
CDC_GLEICHE_TABELLE_AUS_MEHREREN_QUELLEN
Den gleichen Tabellennamen <table>
bei mehreren Quellen gefunden: <sources>
.
Teilen Sie sie bitte in verschiedene Pipelines auf, um Konflikte zu vermeiden.
MEHRERE_QUELLTABELLEN_WURDEN_ZU_EINER_ZIELTABELLE_ZUGEORDNET
Es wurden mehrere Quelltabellen gefunden: <source_tables>
zugeordnet zu derselben Zieltabelle <destination_table>
.
Ordnen Sie sie einem anderen Zieltabellennamen oder einem anderen Zielschema zu.
CDC_TABELLE_NICHT_IN_ALLEN_TABELLEN_GEFUNDEN
Tabelle <table>
wird in der Momentaufnahme aller Tabellen der Quelldatenbank nicht gefunden.
Tabellenspezifikationsdetails:
<tableSpec>
ÄNDERUNGEN_AN_DER_HMS_PIPELINE_ZU_UC_NICHT_ERLAUBT
Das Ändern einer HMS-Pipeline in eine UC-Pipeline ist nicht zulässig.
ÄNDERUNGEN_AN_UC_PIPELINE_ZU_HMS_NICHT_ERLAUBT
Das Ändern einer UC-Pipeline in eine HMS-Pipeline ist nicht zulässig.
Änderung der Pipeline-ID der Tabelle nicht unterstützt.
Das Ändern der Pipeline von <commandTableType>
wird nicht unterstützt.
KATALOGÄNDERUNG_NICHT_ERLAUBT
Der Katalog einer vorhandenen Pipeline kann nicht geändert werden. Vorhandener Katalog: '<existingCatalog>
'. Angeforderter Katalog: '<requestedCatalog>
'.
ÄNDERUNG_DES_ZIELSCHEMAS_NICHT_ERLAUBT
Das Ändern des Zielschemas ist nicht zulässig. Grund: <reason>
.
Budgetpolitik-Grenze bei Clustereinstellung überschritten
Es konnte kein Cluster erstellt werden, da die Budgetrichtlinie der Pipeline den Grenzwert überschritten hat. Verwenden Sie eine andere Richtlinie, oder wenden Sie sich an Ihren Abrechnungsadministrator.
CLUSTER_CREATION_CLIENT_ERROR
Fehler beim Erstellen eines Pipelineclusters: <errorMessage>
Dieser Fehler ist wahrscheinlich auf eine Fehlkonfiguration in der Pipeline zurückzuführen.
Überprüfen Sie die Pipelineclusterkonfiguration und die zugeordnete Clusterrichtlinie.
Cluster-Erstellungs-Guthaben aufgebraucht
Fehler beim Erstellen eines Clusters, da Sie Ihr verfügbares Guthaben ausgeschöpft haben. Fügen Sie eine Zahlungsmethode hinzu, um Ihr Konto zu aktualisieren.
Erstellung eines Clusters - Ressource erschöpft
Fehler beim Erstellen eines Clusters, da Sie die Ressourcengrenzwerte überschritten haben: <errorMessage>
CLUSTER_LAUNCH_CLIENT_ERROR
Fehler beim Starten des Pipelineclusters <clusterId>
: <clusterStateMessage>
Dieser Fehler ist wahrscheinlich auf eine Fehlkonfiguration in der Pipeline zurückzuführen.
Überprüfen Sie die Pipelineclusterkonfiguration und die zugeordnete Clusterrichtlinie.
CLUSTER_START_CLOUD_FEHLER
Fehler beim Starten des Pipelineclusters <clusterId>
: <clusterStateMessage>
Dieser Fehler kann vorübergehend sein: Starten Sie Die Pipeline neu, und melden Sie, wenn dasselbe Problem weiterhin angezeigt wird.
CLUSTER_SETUP_CLIENT_FEHLER
Weitere Details finden Sie unter CLUSTER_SETUP_CLIENT_ERROR.
CLUSTER_NICHT_ERREICHBAR
Kommunikation mit Fahrer verloren. Cluster <clusterId>
war für <timeoutSeconds>
Sekunden nicht erreichbar.
SPALTENMASKEN_KEINE_SPALTE
Spaltenmaske für Spalte '<columnName>
' gefunden, die im MV/ST-Schema nicht vorhanden ist. Wenn dies auf eine Änderung des Basistabellenschemas zurückzuführen ist,
bitte entfernen Sie die alte Maske mit ALTER TABLE
[table_name] ALTER COLUMN
[Spalte, auf die die Maske angewendet wird] DROP
MASK, oder stellen Sie die Spalte wieder her.
ZU AKTUALISIERENDE SPALTE NICHT GEFUNDEN
Spalte <column>
, die in COLUMNS
bis UPDATE
angegeben ist, wurde im Quelldatenframe nicht gefunden.
GLEICHZEITIGES_UPGRADE_KONNTE_FRÜHERES_UPDATE_NICHT_STOPPEN
Das Update '<upgradedUpdateId>
' für ein Upgrade wurde gestartet, konnte aber das vorherige Update '<oldUpdateId>
' nicht beenden.
Dieser Fehler ist wahrscheinlich vorübergehend. Die Pipeline wird automatisch erneut wiederholt, und das Problem sollte sich von alleine lösen.
Melden Sie diesen Fehler an Databricks, wenn weiterhin dasselbe Problem angezeigt wird.
DATASET_DECORATOR_ZWEIMAL_ANGEWENDET
SQLSTATE: nicht zugewiesen
Dataset <datasetName>
ist bereits vorhanden. Stellen Sie sicher, dass die Abfragefunktion nur einmal als Ansicht oder Tabelle markiert wurde.
DATENSATZ_NICHT_DEFINIERT
Fehler beim Lesen des Datasets '<datasetName>
'. Dieses Dataset ist in der Pipeline nicht definiert.
Wenn diese Tabelle von einer anderen Pipeline verwaltet wird, sollten Sie nicht dlt.read
/ dlt.readStream
verwenden, um die Tabelle zu lesen oder den Namen mit dem LIVE-Schlüsselwort voranzustellen.
DBFS nicht aktiviert
DBFS ist für diesen Arbeitsbereich nicht aktiviert; veröffentlichen Sie den Unity-Katalog, oder geben Sie einen anderen Speicherort für die Pipeline an.
DBSQL_PIPELINE_SOLLTE_NICHT_MEHRERE_TABELLEN_ENTHALTEN
Eine DBSQL
Pipeline muss genau eine materialisierte Ansicht oder Streamingtabelle aufweisen, es wurden jedoch <tablesSize>
Tabellen gefunden: <tables>
ZIEL_PIPELINE_NICHT_GEFUNDEN
Die Zielpipeline mit der ID '<pipelineId>
' wurde nicht gefunden. Stellen Sie sicher, dass Sie sich im gleichen Arbeitsbereich wie die Pipeline befinden, die Pipeline besitzen, und dass die Pipeline mindestens einmal ausgeführt wurde.
If there are no context-specific requirements to alter the term, the translation would remain as it is, maintaining its integrity and meaning.
Die Zielpipeline mit der ID '<pipelineId>
' verwendet nicht den Direct Publishing-Modus.
ZIEL-PIPELINE-BERECHTIGUNG_VERWEIGERT
Sie dürfen diesen Vorgang nicht ausführen, Sie sind nicht der Besitzer der Zielpipeline mit der ID '<pipelineId>
'. Nur Besitzer können die Pipeline einer Tabelle ändern.
DESTINATION_PIPELINE_TYP_NICHT_WORKSPACE_PIPELINE_TYP
Die Zielpipeline mit der ID '<pipelineId>
' ist keine ETL-Pipeline.
AKTION_ZUM_ERSTELLEN_ODER_BEARBEITEN_UNGÜLTIGER_BENUTZER
Fehler beim Behandeln von '<action>
' Anforderung.
PLAN_ENTFERNEN_ZEITPLAN_EXISTIERT_NICHT
SCHEDULE
kann nicht in einer Tabelle ohne vorhandenen Zeitplan oder Trigger abgelegt werden.
DUPLIZIERT_AUS_JSON_SCHEMA_STANDORT
Doppelter from_json-Schemaspeicherortschlüssel: <schemaLocationKey>
.
Wählen Sie für jede from_json-Abfrage in der Pipeline eindeutige Schemaspeicherortschlüssel aus.
Duplizierte_Konfiguration_und_Spezifikationen_für_Datenerfassungstabellen
Die Konfiguration der Aufnahmepipeline enthält doppelte Tabellen. Stellen Sie sicher, dass jede Tabelle eindeutig ist.
LEERE_INGABE_KONFIG_OBJEKTE
Konfigurationsobjekte für Erfassung sind leer.
Verbesserte automatische Skalierung erfordert die erweiterte Edition
Erweiterte Autoscaling-Einstellung "spare_capacity_fraction" wird nur in der Erweiterten Produktedition von Lakeflow Declarative Pipelines unterstützt.
Ändern Sie Ihre Pipeline-Einstellungen, indem Sie die "edition" auf "advanced" setzen, um 'spare_capacity_fraction' verwenden zu können.
Ereignisprotokollauswahlfunktion nicht unterstützt
Das Veröffentlichen des Ereignisprotokolls im Unity-Katalog wird für diese Pipeline nicht unterstützt. Wenn dies unerwartet ist, wenden Sie sich bitte an den Databricks-Support.
ERWARTUNGSVERLETZUNG
Der Flow „<flowName>
“ konnte die Erwartung nicht erfüllen.
Weitere Informationen finden Sie unter EXPECTATION_VIOLATION.
EXPLORE_ONLY_KANN_NICHT_ZUSAMMEN_MIT_VALIDATE_ONLY_EINGESTELLT_WERDEN
explore_only und validate_only können nicht gleichzeitig auf "true" festgelegt werden.
EXPLORE_ONLY_IST_NICHT_AKTIVIERT
explore_only Update ist nicht aktiviert.
NUR_BEIM_NICHT_VORHANDENSEIN_EINER_INGESTION_PIPELINE_ERKUNDEN
explore_only kann nur für Aufnahmepipelines auf "true" festgelegt werden.
FEHLER_BEIM_ERSTELLEN_DES_EVENTPROTOKOLLS
Ereignisprotokoll für Pipeline (ID=<pipelineId>
) mit Bezeichner <eventLogIdentifier>
konnte nicht erstellt werden. Weitere Informationen finden Sie in der nachstehenden Ausnahme.
FEHLER_BEIM_VERÖFFENTLICHEN_DER_VIEW_IM_METASTORE
Fehler beim Veröffentlichen der Ansicht <viewName>
im Metastore, weil <reason>
.
FEHLER_BEIM_AKTUALISIEREN_DES_EREIGNISPROTOKOLLS
Fehler beim Aktualisieren des Pipeline-Ereignisprotokollbezeichners (id=<pipelineId>
) auf <newEventLogIdentifier>
. Weitere Informationen finden Sie in der nachstehenden Ausnahme.
FLUSS-SCHEMA GEÄNDERT
Der Fluss <flowName>
wurde beendet, da während der Ausführung eine Schemaänderung aufgetreten ist.
Die Schemaänderung ist mit dem vorhandenen Zielschema kompatibel, und die nächste Ausführung des Flusses kann mit dem neuen Schema fortgesetzt werden.
FOREACH_BATCH_SINK_NUR_IM_VORSCHAU_KANAL_UNTERSTÜTZT
DLT ForeachBatch Sink wird derzeit nicht unterstützt.
Die private Vorschau für DLT-ForeachBatch-Senke erfordert den PREVIEW
-Kanal.
DLT-Senken: <sinkNames>
GATEWAY_PIPELINE_INIT_SCRIPTS_NICHT_ERLAUBT
Die Gatewaypipeline lässt keine Cluster-Init-Skripts zu. Entfernen Sie es aus <from>
.
GATEWAY_PIPELINE_SPARK_KONFIGURATION_NICHT_ERLAUBT
Die Gateway-Pipeline erlaubt die Spark-Konfiguration [<configs>
] nicht. Entfernen Sie sie aus <from>
.
GET_ORG_UPDATE_KAPAZITÄTSLIMIT_ÜBERSCHRITTEN
Die Anzahl der angeforderten Organisations-IDs überschreitet den maximal zulässigen Grenzwert. <limit>
GOOGLE_ANALYTICS_DATENVERBINDUNG_QUELLE_KATALOG_FEHLT
Fehler im Google Analytics-Rohdatenkonnektor.
Der Quellkatalog für die Ingestion-Spezifikation fehlt. Der Quellkatalog hier ist die Projekt-ID des GCP-Projekts, aus dem Sie ingestieren möchten.
Stellen Sie sicher, dass der Quellkatalog in der Aufnahmespezifikation vorhanden ist, um dieses Problem zu beheben.
HMS_NICHT_AKTIVIERT
Der Hive-Metaspeicher ist für diesen Arbeitsbereich nicht aktiviert; bitte veröffentlichen Sie den Unity-Katalog.
ILLEGAL_COLUMN_TO_UPDATE_DATA_TYPE
Der Datentyp der in COLUMNS
TO UPDATE
angegebenen Spalte muss ein Zeichenfolgenarray sein, es wurde aber <illegalDataType>
gefunden.
ILLEGALER_ID_PARAM_IN_PIPELINEEINSTELLUNGEN
Die Einstellungen dürfen nicht '<fieldName>
' enthalten.
ILLEGAL_SCHEMA_FIELD_IN_PIPELINE_SPEC (Rechtswidriges Schemafeld in der Pipeline-Spezifikation)
Das angegebene Feld "schema" in den Pipelineeinstellungen ist unzulässig. Grund: <reason>
.
FALSCHER_WURZELPFAD_TYP
Der Stammpfad „<rootPath>
“ muss ein Verzeichnis sein, aber es wurde <objectType>
gefunden.
EINGABE_KONFIGURATION_DUPLIZIERTES_SCHEMA
Die Konfiguration der Aufnahmepipeline enthält doppelte Schemas. Stellen Sie sicher, dass jedes Schema eindeutig ist.
INGESTION_GATEWAY_AUTHENTIFIZIERUNGSFEHLER
Authentifizierungsfehler
Weitere Details finden Sie unter INGESTION_GATEWAY_AUTHENTICATION_FAILURE.
INGESTION_GATEWAY_SCHEMA_FEHLER_BEI_BRECHENDER_ÄNDERUNG
Es wurde ein Schemakonflikt zwischen den Quell- und Zieltabellen erkannt. Um dieses Problem zu beheben, ist eine vollständige Aktualisierung der Tabelle "<entityName>
" für die Aufnahmepipeline erforderlich.
None needed as the identifier should likely remain untranslated for technical clarity.
CDC ist nicht aktiviert auf <entityType>
'<entityName>
'. Aktivieren Sie CDC, und führen Sie eine vollständige Tabellenaktualisierung für die Aufnahmepipeline durch. Fehlermeldung: „<errorMessage>
“.
In this case, no improvements are necessary. The translation remains identical to the original.
DDL-Objekte fehlen auf <entityType>
'<entityName>
'. Führen Sie das Skript für DDL-Objekte aus, und aktualisieren Sie die Tabelle in der Ingestion-Pipeline vollständig. Fehlermeldung: „<errorMessage>
“.
INGESTION_GATEWAY_FEHLENDE_VERBINDUNGSREFERENZ
Bei der Konfiguration des Erfassungsgateways fehlt eine Verbindung.
Fügen Sie einen Verweis auf die Unity-Katalogverbindung hinzu, die Ihre Anmeldeinformationen enthält.
Details der Pipelinedefinition des Erfassungsgateways:
<definition>
INGESTION_GATEWAY_FEHLENDER_INTERNE_SPEICHER_KATALOG
Die Konfiguration des Erfassungsgateways fehlt im internen Speicherortkatalog.
Fügen Sie den internen Speicherortkatalog hinzu.
Details der Pipelinedefinition des Erfassungsgateways:
<definition>
INGESTION_GATEWAY_FEHLENDER_NAME_DES_INTERNEN_SPEICHERSYSTEMS
In der Konfiguration des Erfassungsgateways fehlt der Name des internen Speicherorts.
Fügen Sie den Namen des internen Speicherorts hinzu.
Details der Pipelinedefinition des Erfassungsgateways:
<definition>
INGESTION_GATEWAY_FEHLENDES_INTERNE_SPEICHER_SCHEMA
In der Konfiguration des Erfassungsgateways fehlt das Schema des internen Speicherorts.
Fügen Sie das interne Speicherortschema hinzu.
Details der Pipelinedefinition des Erfassungsgateways:
<definition>
EINGABE_GATEWAY_FEHLENDE_TABELLE_IN_QUELLE
Tabelle '<entityName>
' ist in der Quelldatenbank nicht vorhanden oder wurde gelöscht. Beheben Sie das Problem, und aktualisieren Sie die Tabelle in der Pipeline für verwaltete Erfassungen vollständig. Fehlermeldung: „<errorMessage>
“.
INGESTION_GATEWAY_PG_PUBLICATION_ÄNDERUNG_FEHLGESCHLAGEN
Die Replikationsveröffentlichung für <entityType>
'<entityName>
' konnte nicht geändert werden.
Fehlermeldung: <errorMessage>
Weitere Informationen finden Sie unter INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED
Erstellung der Veröffentlichung im Ingestion-Gateway fehlgeschlagen
Fehler beim Erstellen der Replikationspublikation für <entityType>
"<entityName>
"
Fehlermeldung: <errorMessage>
Weitere Informationen finden Sie unter INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED
FEHLER_BEIM_DELEN_DER_VERÖFFENTLICHUNG_IM_INGESTION_GATEWAY_PG
Fehler beim Entfernen der Replikationsveröffentlichung für <entityType>
"<entityName>
"
Fehlermeldung: <errorMessage>
Weitere Informationen finden Sie unter INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED
INGESTION_GATEWAY_PG_SLOT_VON_ANDEREM_PROZESS_VERWENDET
Fehler beim Erstellen des Replikations-Slots für <entityType>
"<entityName>
", da der Replikations-Slot von einer anderen PID verwendet wird.
Fehlermeldung: <errorMessage>
FEHLER_BEI_DER_ERSTELLUNG_DES_INGESTION_GATEWAY_PG_SLOTS
Fehler beim Erstellen des Replikationsplatzes für <entityType>
'<entityName>
'
Fehlermeldung: <errorMessage>
Sie finden weitere Einzelheiten unter INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED
EINGANGS_GATEWAY_QUELLE_UNZUREICHENDE_BERECHTIGUNGSFEHLER
Der Benutzer verfügt nicht über die erforderlichen Berechtigungen, um auf dieses Objekt zuzugreifen oder die gespeicherte Prozedur auszuführen. Stellen Sie sicher, dass alle erforderlichen Berechtigungen gewährt werden. Weitere Informationen finden Sie in der folgenden Dokumentation: https://docs.databricks.com/aws/en/ingestion/lakeflow-connect/sql-server/database-user-requirements.
INGESTION_GATEWAY_NICHT_ERREICHBAR_HOST_ODER_PORT_FEHLER
Fehler bei der Verbindung aufgrund eines falschen Hostnamens <host>
und/oder Port <port>
der Quelldatenbank.
Weitere Details finden Sie unter INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE.
UNGÜLTIGER_BEFEHL_ÄNDERUNGEN_ANWENDEN
AUTO CDC
Befehl ist ungültig.
<reason>
.
UNGÜLTIGER_ARGUMENTTYP
SQLSTATE: nicht zugewiesen
Der Wert des ungültigen Typs, der an den Parameter '<paramName>
' übergeben wird.
<expectedType>
erwartet.
<additionalMsg>
.
UNGÜLTIGE_KOMPATIBILITÄTSOPTIONEN
Die für die Tabelle <table>
angegebenen Tabellenoptionen sind ungültig, da
Weitere Informationen finden Sie unter INVALID_COMPATIBILITY_OPTIONS.
Ungültige Dekoratorverwendung
SQLSTATE: nicht zugewiesen
Das erste positionale Argument, das an @<decoratorName>
übergeben wird, muss aufrufbar sein. Fügen Sie @<decoratorName>
ohne Parameter zu Ihrer Funktion hinzu, oder übergeben Sie Optionen an @<decoratorName>
mithilfe von Schlüsselwortargumenten (z. B. <exampleUsage>
).
UNGÜLTIGE_EREIGNISPROTOKOLLKONFIGURATION
Ungültige Ereignisprotokollkonfiguration in Pipelinespezifikation: <message>
UNGÜLTIGER_NAME_IN_GEBRAUCH_BEFEHL
Ungültiger Name '<name>
' im <command>
Befehl. Grund: <reason>
UNGÜLTIGER_PARAM_FÜR_DBSQL_PIPELINE
Sie können "pipeline_id" und "pipeline_type" nur beim Aufrufen von "dry_run" für eine DBSQL
Pipeline angeben.
UNGÜLTIGE_REFRESH_AUSWAHL
Die für dieses Update angegebenen Aktualisierungsauswahlparameter sind ungültig, da
Weitere Details finden Sie unter INVALID_REFRESH_SELECTION.
UNGÜLTIGE_REFRESH_AUSWAHL_ANFORDERUNG_FÜR_KONTINUIERLICHE_PIPELINE
Die Aktualisierungsauswahl wird für den fortlaufenden Modus nicht unterstützt.
UNGÜLTIGE_AKTUALISIERUNGSAUSWAHL_ANFRAGE_MIT_VOLLSTÄNDIGER_AKTUALISIERUNG
full_refresh sollte für eine Aktualisierungsauswahlanforderung nicht auf "true" festgelegt werden.
UNGÜLTIGER WURZELPFAD
Ungültige root_path '<rootPath>
': Derzeit werden nur absolute Verzeichnispfade unterstützt. Verzeichnispfade müssen mit '/' beginnen und nicht mit '/' enden.
UNGÜLTIGER_SCHEMA_NAME
Ungültiges Schema <schemaName>
in der Pipelineeinstellung angegeben. Grund: <reason>
.
UNGÜLTIGER_SNAPSHOT_UND_VERSION_TYP
SQLSTATE: nicht zugewiesen
snapshot_and_version für den Flow mit Ziel '<target>
' hat einen nicht unterstützten Typ zurückgegeben.
<additionalMsg>
.
UNGÜLTIGES AUSLÖSERINTERVALLFORMAT
Die in der <configurationType>
angegebene Triggerintervallkonfiguration ist ungültig.
JOB_DETAILS_STIMMEN_NICHT_ÜBEREIN
Wenn sowohl "update_cause_details.job_details" als auch "job_task" angegeben werden, müssen sie übereinstimmen, aber sie lauten <details>
und <jobTask>
DETAILS_ZUR_JOB_AUFGABE_FEHLEN
Wenn die "Ursache" JOB_TASK
ist, muss entweder "job_task" oder "update_cause_details.job_details" angegeben werden.
LIVE_REFERENZ_AUSSERHALB_DER_ANFRAGEBESTIMMUNG_KLASSISCH
Das Verweisen auf Datasets mithilfe des virtuellen Schemas LIVE
außerhalb der Dataset-Abfragedefinition (d. h. @dlt.table-Anmerkung) wird nicht unterstützt.
LIVE_REFERENZ_AUSSERHALB_ABFRAGE_DEFINITION_DPM
Das Verweisen auf Datasets mithilfe des virtuellen Schemas LIVE
<identifier>
außerhalb der Definition der Dataset-Abfrage (d. h. @dlt.table Anmerkung) wird nicht unterstützt.
LIVE_REFERENZ_AUSSERHALB_DER_ABFRAGEDEFINITION_SPARK_SQL
Verweise auf Datasets mithilfe LIVE
virtuellen Schemas in der spark.sql(...)- API dürfen nicht außerhalb der Datasetabfragedefinition (d. h. @dlt.table-Anmerkung) aufgerufen werden. Sie kann nur innerhalb der Datasetabfragedefinition aufgerufen werden.
MAX_VERSUCH_ERREICHT_BEVOR_ENZYME_NEU_BERECHNEN
Die maximale Wiederholungsanzahl wurde erreicht. Wiederholungsanzahl:<flowRetryCount>
. maxFlowFailureRetryCountThreshold:<maxFlowRetryAttempts>
. <message>
MESA_PIPELINE_INVALID_DEFINITION_TYPE (Ungültiger Definitionstyp)
Das Starten einer <definitionType>
Pipeline aus der UC-Definition ist nicht zulässig.
MESA_PIPELINE_MISMATCH_PIPELINE_TYPES
Die gespeicherte und aktualisierte Definition muss denselben Pipelinetyp haben, aber es wurden <stored>
und <updated>
erhalten.
MESA_PIPELINE_MISSING_DEFINITION
Die Pipeline verfügt nicht über eine gültige Definition in UC, aber eine Aktualisierung wird angefordert.
MESA_PIPELINE_MISSING_DEFINITION_UNEXPECTED (Fehlende Definition der MESA-Pipeline unerwartet)
Unerwartet fehlende Pipelinedefinition von UC.
METASTORE_OPERATION_TIMED_OUT (Metastore-Operation hat das Zeitlimit überschritten)
Vorgänge, die an der Aktualisierung der Metaspeicherinformationen für <tableName>
beteiligt waren, dauerten länger als <timeout>
.
Dieses Problem kann vorübergehend sein oder auf Fehler im konfigurierten Metastore-Client hinweisen. Versuchen Sie, Die Pipeline neu zu starten, und melden Sie dieses Problem, wenn sie weiterhin besteht.
FEHLENDE_BERECHTIGUNG_ZUM_ERSTELLEN_EINES_SCHEMAS
Der Benutzer "<userName>
" verfügt nicht über die Berechtigung zum Erstellen eines Schemas im Katalog. <catalogName>
FEHLENDE_CREATE_TABLE_BERECHTIGUNG
Der Benutzer "<userName>
" verfügt nicht über die Berechtigung zum Erstellen einer Tabelle im Schema. <schemaName>
FEHLENDER_RUN_AS_USER
Für das Update wurde keine Benutzerausführung angegeben.
Gegenseitig ausschließende Optionen
Sich gegenseitig ausschließende Optionen <options>
. Entfernen Sie eine dieser Optionen.
NEGATIVER_WERT
SQLSTATE: nicht zugewiesen
Der Wert für <arg_name>
muss größer oder gleich 0 sein, ist jedoch „<arg_value>
“.
TABELLE_NICHT_UC_WIRD_BEREITS_VON_ANDERER_PIPELINE_VERWALTET
Tabelle '<tableName>
' wird bereits über die Pipeline <otherPipelineId>
verwaltet.
Wenn die Tabelle "<tableName>
" von dieser Pipeline verwaltet werden soll –
Entfernen Sie die Tabelle aus der Pipeline „
<otherPipelineId>
“.Starten Sie ein vollständiges Aktualisierungsupdate für diese Pipeline.
Wenn Sie die Tabelle weiterhin aus mehreren Pipelines verwalten möchten, deaktivieren Sie diese Überprüfung, indem Sie die Konfiguration pipelines.tableManagedByMultiplePipelinesCheck.enabled
in den Pipelineeinstellungen auf false
festlegen.
Dies wird nicht empfohlen, da gleichzeitige Vorgänge in der Tabelle möglicherweise miteinander in Konflikt stehen und zu unerwarteten Ergebnissen führen.
NOTIZBUCHNAMEN-GRENZE ERREICHT
Ungültiger Notizbuchpfad: '<nameStart>
...<nameEnd>
'. Er ist länger als <maxNotebookPathLength>
Zeichen.
Notebook nicht gefunden
Das Notizbuch '<notebookPath>
' kann nicht geladen werden.
BENACHRICHTIGUNGEN_DOPPELTE_WARNUNGEN
Doppelte Warnungen '<alertsDuplicates>
' sind in [<alerts>
] angegeben
BENACHRICHTIGUNGEN_DUPLIKATE_EMAIL_ADRESSEN
Doppelte E-Mail-Adressen '<emailRecipientsDuplicates>
' in [<emailRecipients>
] angegeben
UNGÜLTIGE_BENACHRICHTIGUNGEN_MELDUNGEN
Ungültige Warnungen wurden angegeben, um Benachrichtigungen zu erhalten: <invalidAlerts>
BENACHRICHTIGUNGEN_UNGÜLTIGE_E-MAIL-ADRESSE
Ungültige E-Mail-Adresse, die zum Empfangen von Benachrichtigungen angegeben wurde: <invalidEmailAddresses>
BENACHRICHTIGUNGEN_FEHLENDE_PARAMETER
Geben Sie mindestens einen Empfänger und eine Warnung in <setting>
Kein Quell-, Snapshot- oder Versionsargument angegeben
SQLSTATE: nicht zugewiesen
Entweder source
oder snapshot_version
muss für create_auto_cdc_flow_from_snapshot
mit dem Ziel '<target>
' festgelegt werden.
KEINE_TABELLEN_IN_PIPELINE
Es wird erwartet, dass Pipelines mindestens eine Tabelle definiert haben, aber in Ihrer Pipeline wurden keine Tabellen gefunden.
Stellen Sie sicher, dass Sie die erwarteten Quelldateien eingeschlossen haben und dass Ihr Quellcode Tabellendefinitionen enthält (z. B. CREATE MATERIALIZED VIEW
in SQL-Code, @dlt.table in Python-Code).
Beachten Sie, dass nur Tabellen zu dieser Prüfung gezählt werden. Dieser Fehler kann auch auftreten, wenn Sie nur Sichten oder Flows in Ihre Pipeline einbinden.
EIGENTÜMER_FEHLT
Der Besitzer ist nicht vorhanden.
SEITENUMBRUCHANFRAGE_HAT_NAMEN_UND_SEITENUMBRUCH
Sie können entweder eine <name>
oder eine Paginierung verwenden, aber nicht beides.
PATCH_PIPELINE_DEFINITION_NICHT_UNTERSTÜTZTES_FELD
PatchPipelineDefinition unterstützt nur das schedule
Feld, aber die bereitgestellte Definition hatte andere aufgefüllte Felder: '<updatedDefinition>
'.
BEHAARTE_ANSICHT_LIEST_AUS_STREAMING_QUELLE
Beibehaltene Ansichten unterstützen das Lesen aus Streamingquellen nicht.
PERSISTIERTE_VIEW_LESEN_VON_TEMPORÄRER_VIEW
Die persistierte Ansicht <persistedViewName>
kann nicht auf die temporäre Ansicht <temporaryViewName>
verweisen, da diese außerhalb des Pipelinebereichs nicht verfügbar ist. Machen Sie entweder die gespeicherte Ansicht temporär oder persistieren Sie die temporäre Ansicht.
PIPELINE-KLONUNG BEREITS IM GANG
Die Pipeline ist bereits mit der ID "<pipelineId>
" geklont worden.
Pipeline-Klonen ist ungültig während eines aktiven Updates.
Die Pipeline mit der ID '<pipelineId>
' kann während eines aktiven Updates nicht geklont werden.
UNGÜLTIGE FELDER BEI PIPELINE-CLONING
Die Anforderung enthielt eine Pipeline-Spezifikation mit ungültigen Feldern zum Klonen. Zulässige Felder sind: Name, Katalog, Ziel, Konfiguration.
PIPELINE_CLONING_UNGÜLTIG_FÜR_FEHLENDES_ZIEL
Die Pipeline mit der ID '<pipelineId>
' wird nicht in einem Zielschema publiziert. Die Quellpipeline muss in einem Zielschema veröffentlicht werden, das geklont werden soll. Versuchen Sie es erneut, nachdem Sie das Feld "Ziel" in der Pipelinespezifikation angegeben haben, und führen Sie ein neues Update aus, um es in einem Zielschema zu veröffentlichen.
Pipeline-Klonen ist ungültig für UC-Pipeline.
Die Pipeline mit der ID '<pipelineId>
' ist bereits eine UC-Pipeline. UC-Pipelines können nicht geklont werden.
PIPELINE_KLONEN_KEIN_MODUS_ANGEGEBEN
Kein angegebener Klonmodus.
PIPELINE_KLONEN_KEIN_ZIEL_ANGEGEBEN
Kein angegebener Zielkatalog zum Klonen.
PIPELINE_ERSTELLUNG_NICHT_FÜR_ARBEITSBEREICH_AKTIVIERT
Die Pipelineerstellung ist für diesen Arbeitsbereich nicht aktiviert.
PIPELINE_EXISTIERT_NICHT
Die Pipeline mit der ID '<pipelineId>
' ist nicht vorhanden.
Weitere Informationen finden Sie unter PIPELINE_DOES_NOT_EXIST
PIPELINE_UMGEBUNG_NICHT_AKTIVIERT
Die Verwendung der Umgebung in DLT ist nicht aktiviert.
PIPELINE_UMGEBUNG_VERSION_NICHT_ERLAUBT
Die Umgebung der Pipeline unterstützt derzeit keine Umgebungsversionen.
PIPELINE_FEHLGESCHLAGEN_BEIM_AKTUALISIEREN_DER_UC_TABELLE_AUFGRUND_PARALLELER_AKTUALISIERUNG
Die Pipeline konnte die UC-Tabelle (<tableName>
) nach <attempts>
Versuchen aufgrund gleichzeitiger Änderungen nicht aktualisieren.
Vergewissern Sie sich, dass keine externen Prozesse die Tabelle ändern, das Update wiederholen und sich an die Databricks-Unterstützung wenden, wenn dieses Problem weiterhin besteht.
PIPELINE_FÜR_TABELLE_BENÖTIGT_AKTUALISIERUNG
Die Tabelle <tableName>
befindet sich nicht im erforderlichen Zustand, die Tabelle wurde kürzlich nicht aktualisiert. Die Pipeline mit der ID '<pipelineId>
' muss erneut ausgeführt werden und dann den Vorgang wiederholen.
PIPELINE_FÜR_TABELLE_NICHT_GEFUNDEN
Die Pipeline mit der ID „<pipelineId>
“, die die Tabelle <tableName>
verwaltet, kann nicht gefunden werden. Stellen Sie sicher, dass Sie sich im gleichen Arbeitsbereich wie die Pipeline befinden, die Pipeline besitzen, und dass die Pipeline mindestens einmal ausgeführt wurde.
PIPELINE_GLOB_BEINHALTET_KONFLIKTE
Entweder das Feld „glob“ oder „notebook/file“ unter „libraries“ in den Pipelineeinstellungen sollte festgelegt sein. Ändern Sie die Pipelineeinstellungen.
GLOBALE EINSCHLÜSSE IN DER PIPELINE WERDEN NICHT UNTERSTÜTZT
Das Verwenden des Glob-Felds zum Einschließen von Quelldateien ist ein Vorschaufeature und ist deaktiviert.
Wählen Sie jede Quelldatei erneut aus, um sie in die Pipeline aufzunehmen und diesen Fehler zu beheben.
Wenden Sie sich an die Databricks-Unterstützung, um mehr über dieses Feature zu erfahren und sich für die Vorschau zu registrieren.
PIPELINE_GLOB_UNTERSTÜTZT_BESONDERES_ZEICHEN_NICHT
Die Sonderzeichen <specialChar>
sind reserviert und sollten nicht in den Pipelineeinstellungen im eingeschlossenen Pfad „<path>
“ verwendet werden. Entfernen Sie diese Zeichen, um den Fehler zu beheben.
PIPELINENAMEN-GRENZE_ERREICHT
Der Name darf nicht länger als <maxPipelineNameLength>
Zeichen sein.
PIPELINE_NICHT_WIEDERHOLBARE_ANALYSE
Die Pipeline konnte die Quelltabellen (<tables>
) aufgrund nicht wiederholbarer Fehler nach einer teilweisen Ausführung nicht analysieren.
Ein neues Pipeline-Update wird nicht erstellt. Überprüfen Sie das Ereignisprotokoll, und beheben Sie die Probleme entsprechend.
PIPELINE_NICHT_IM_DIREKTVERÖFFENTLICHUNGSMODUS
Die Pipeline mit der ID '<pipelineId>
', die die Tabelle <tableName>
verwaltet, verwendet nicht den Direct Publishing-Modus.
PIPELINE_NICHT_BEREIT_FÜR_GEPLANTES_UPDATE
Die Tabelle ist noch nicht für die Aktualisierung bereit.
Weitere Details finden Sie unter PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE.
PIPELINE_BERECHTIGUNG_VERWEIGERT_NICHT_EIGENTÜMER
Sie dürfen diesen Vorgang nicht ausführen. Sie sind weder der Besitzer der Pipeline mit der ID '<pipelineId>
', noch verwalten Sie die Tabelle <tableName>
.
PIPELINE_EINSTELLUNGEN_FELD_KANN_NICHT_BEARBEITET_WERDEN
'<uneditableFieldName>
' kann von Benutzern nicht geändert werden. Wenn Benutzer das <settingName>
Feld hinzufügen oder ändern möchten, verwenden Sie stattdessen das Feld "<editableFieldName>
".
PIPELINE_EINSTELLUNGEN_GLEICHZEITIG_GEÄNDERT
Pipelineeinstellungen wurden gleichzeitig geändert.
Pipeline-Einstellungen_Unterstützte Konfigurationen nicht möglich
Die Konfigurationen <configurations>
werden von Lakeflow Declarative Pipelines nicht unterstützt. Entfernen Sie diese Konfigurationen.
PIPELINE_EINSTELLUNG_SOLLTE_NICHT_ENTWICKLUNG_ANGEGEBEN
Das Starten eines Updates mit der Einstellung "Entwicklung" wird nicht unterstützt.
EIN PIPELINE SOLLTE NICHT MEHRERE TABELLEN HABEN
Die Pipeline muss genau eine Tabelle aufweisen, aber es wurden <tablesSize>
Tabellen gefunden: <tables>
MAXIMALE ANZAHL DER PIPELINE-QUELLDATEIEN ÜBERSCHRITTEN
Die Anzahl der Quelldateien, einschließlich dateien, die in Ordnern deklariert sind, überschreitet den Grenzwert von <limit>
.
Entfernen oder Zusammenführen übermäßiger Dateien und Ändern der entsprechenden Pipelinespezifikation bei Bedarf,
oder wenden Sie sich an den Databricks-Support, um eine Grenzwerterhöhung anzufordern.
PIPELINE_QUELLENORDNER_TIEFE_ÜBERSCHRITTEN
Der Ordner „<folder_path>
“ überschreitet die maximal zulässige Verzeichnisschachtelungsebene von <limit>
. Verringern Sie die Ordnerschachtelungsebene, oder wenden Sie sich an den Databricks-Support, um eine Erhöhung des Grenzwerts zu beantragen.
PIPELINE_SPEZIFIKATION_PARAMETER_KANN_NICHT_GEÄNDERT_WERDEN
Das Ändern des folgenden Parameters <param>
in pipelineeinstellungen ist nicht zulässig.
PIPELINE_TYP_NICHT_UNTERSTÜTZT
Der Pipelinetyp '<pipelineType>
' wird nicht unterstützt.
PIPELINE_TYP_NICHT_ARBEITSBEREICH_PIPELINE_TYP
Die Pipeline mit der ID '<pipelineId>
', die die Tabelle <tableName>
verwaltet, ist keine ETL-Pipeline.
PIPELINE_TYP_QUOTENÜBERSCHREITUNG
Das Update '<updateId>
' kann nicht gestartet werden, da der Grenzwert für aktive Pipelines vom Typ '<pipelineType>
' erreicht wurde.
Die Aktualisierung der Pipeline für die Tabelle läuft.
Die Pipeline mit der ID „<pipelineId>
“, die die Tabelle <tableName>
verwaltet, wird ausgeführt. Beenden Sie die Pipeline, bevor Sie den Vorgang ausführen.
PIPELINE-ARBEITSBEREICH-GRENZE ERREICHT
Die Pipelineerstellung vom Typ '<pipelineType>
' wurde blockiert, da der Arbeitsbereich '<orgId>
' bereits über '<countLimit>
' Pipelines verfügt. Wenden Sie sich an den Databricks-Support, um diesen Grenzwert anzupassen.
PIP_Installationsfehler
Ein Fehler ist beim Aufrufen der %pip-Installation aufgetreten.
PIP-Installation nicht am Anfang des Notizbuchs
Es wurden Zellen gefunden, die „%pip install“ enthalten, die sich nicht am Anfang des Notebooks für <notebookPath>
befinden.
Verschieben Sie alle Zellen mit „%pip install“ an den Anfang des Notebooks.
PY4J_BLOCKED_API (Schnittstelle blockiert)
SQLSTATE: nicht zugewiesen
Sie verwenden eine Python-API, die in der aktuellen Umgebung nicht unterstützt wird.
Bitte überprüfen Sie die Databricks-Dokumentation auf Alternativen.
<additionalInfo>
REFERENZ_DLT_DATENSATZ_AUSSERHALB_DER_ANFRAGEDEFINITION
Das Verweisen auf das DLT-Dataset <identifier>
außerhalb der Definitionsabfrage für das Dataset (d. h., Anmerkung @dlt.table) wird nicht unterstützt. Lesen Sie sie stattdessen innerhalb der Datasetabfragedefinition.
AKTUALISIERUNG_VON_UNGÜLTIGEM_ARBEITSBEREICH_INITIIERT
Die Aktualisierung muss im Arbeitsbereich <homeWorkspaceId>
initiiert werden, in dem die Ressource erstellt wurde.
Die Aktualisierung wurde im Arbeitsbereich <userWorkspaceId>
versucht.
AKTUALISIERUNGSMODUS_BESTEHT_BEREITS
Einer Tabelle, die bereits <type>
hat, kann <existingType>
nicht hinzugefügt werden. Bitte löschen Sie den vorhandenen Zeitplan oder verwenden Sie ALTER TABLE
... ALTER <type>
, um ihn zu ändern.
ERFORDERLICHER_PARAM_NICHT_GEFUNDEN
Der erforderliche Parameter <param>
wurde nicht gefunden.
RESERVIERTES_SCHLÜSSELWORT_IM_VERWENDUNGSKATALOG
USE CATALOG
'<reservedKeyword>
' ist unzulässig, da „<reservedKeyword>
“ ein reserviertes Schlüsselwort in DLT ist.
RESERVIERTES_SCHLÜSSELWORT_IM_GEBRAUCH_SCHEMA
USE SCHEMA
'<reservedKeyword>
' ist unzulässig, da „<reservedKeyword>
“ ein reserviertes Schlüsselwort in DLT ist.
ROOT_PFAD_NICHT_GEFUNDEN
Auf den Stammpfad '<rootPath>
' kann nicht zugegriffen werden. Stellen Sie sicher, dass Sie über die erforderlichen Zugriffsrechte verfügen.
BENUTZER_ZUM_AUSFÜHREN_NICHT_GEFUNDEN
Die angegebene Ausführung als benutzende Person <runAsUserId>
für das Update ist im Arbeitsbereich nicht vorhanden.
SAAS_CONNECTION_ERROR
Fehler beim Herstellen einer Verbindung mit der <sourceName>
Quelle. Fehlercode: <saasConnectionErrorCode>
.
Weitere Informationen finden Sie unter SAAS_CONNECTION_ERROR
SAAS_KONNEKTOR_REFRESH_TOKEN_EXPIRED
Das Aktualisierungstoken für die Verbindung <connectionName>
ist abgelaufen. Bearbeiten Sie die Verbindung, authentifizieren Sie sie erneut, und führen Sie die Pipeline erneut aus.
SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR
In der Tabelle <tableName>
der <sourceName>
Quelle ist eine Schemaänderung aufgetreten.
Weitere Details finden Sie unter SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR.
SAAS_CONNECTOR_SOURCE_API_FEHLER
Fehler im <sourceName>
-API-Aufruf. Quell-API-Typ: <saasSourceApiType>
. Fehlercode: <saasSourceApiErrorCode>
.
Versuchen Sie, die Zieltabelle zu aktualisieren. Wenn das Problem weiterhin besteht, erstellen Sie ein Ticket.
SAAS_CONNECTOR_UNSUPPORTED_ERROR
In der Datenquelle <sourceName>
ist ein nicht unterstützter Fehler aufgetreten.
Weitere Informationen finden Sie unter SAAS_CONNECTOR_UNSUPPORTED_ERROR.
SAAS_INKOMPATIBLE_SCHEMAÄNDERUNGEN_WÄHREND_INITIALISIERUNG
Beim Initialisieren der Pipeline wurden inkompatible Schemaänderungen erkannt:
<details>
Bitte führen Sie eine vollständige Aktualisierung der betroffenen Tabellen durch.
SAAS_TEILWEISE_ANALYSE_EINGABE_ERSTELLUNGSFEHLER
Fehler beim Erstellen von Eingaben für die Teilanalyse. Ein neues Pipeline-Update wird nicht erstellt.
Überprüfen Sie das Ereignisprotokoll, und beheben Sie die Probleme entsprechend.
SAAS_SCHEMA_WEICHTE_WÄHREND_DER_ANALYSE_AB
Das analysierte Schema der Quelltabelle (<table>
) hat sich vom erwarteten Schema abgegrenzt.
Versuchen Sie das Pipelineupdate erneut, und überprüfen Sie, ob das Problem behoben ist.
Wenn dieses Problem weiterhin besteht, führen Sie eine vollständige Aktualisierung der oben genannten Tabellen durch.
Erwartetes Schema:
<expectedSchema>
Tatsächliches Schema:
<actualSchema>
SAAS_UC_VERBINDUNG_UNZUGÄNGLICH
Auf die bereitgestellte Verbindungs-<connectionName>
kann nicht zugegriffen werden. Überprüfen Sie die Verbindung, und versuchen Sie es erneut.
Weitere Informationen finden Sie unter SAAS_UC_CONNECTION_INACCESSIBLE.
SCHEMA_SPEZIFIKATION_LEERER_KATALOG
SchemaSpec weist eine leere Zeichenfolge im Katalogfeld auf.
Entfernen Sie die leere Zeichenfolge, oder fügen Sie den Katalognamen hinzu. (Wenn dieses Schema nicht zu einem Katalog in der Quelle gehört, legen Sie das Feld nicht fest.)
Schemaspezifikationsdetails:
<schemaSpec>
SCHEMA_SPEZIFIKATION_LEERES_SCHEMA
SchemaSpec verfügt über eine leere Zeichenfolge im Schemafeld.
Entfernen Sie die leere Zeichenfolge, oder fügen Sie den Schemanamen hinzu. (Wenn diese Tabelle nicht zu einem Schema in der Quelle gehört, legen Sie das Feld nicht fest.)
Schemaspezifikationsdetails:
<schemaSpec>
SCHEMA_SPEC_REQUIRE_ONE_OF_KATALOG_SCHEMA
Mindestens ein Quellkatalog- und Quellschema muss vorhanden sein. Aber beide sind leer.
Schemaspezifikationsdetails:
<schemaSpec>
SERVERLESS_BUDGET_RICHTLINIE_FEHLERHAFTE_ANFRAGE
Die bereitgestellte Budgetrichtlinie mit der ID "<budgetPolicyId>
" kann in diesem Arbeitsbereich aufgrund von Richtlinienarbeitsbereichsbindungseinschränkungen nicht verwendet werden.
SERVERLESS_BUDGET_RICHTLINIE_IST_UNGÜLTIG
Die Serverlose Budgetrichtlinie mit der ID "<budgetPolicyId>
" ist ungültig.
Fehlende Richtlinie für serverloses Budget
Serverlose Budgetrichtlinie mit der ID '<budgetPolicyId>
' ist nicht vorhanden.
SERVERLESS_BUDGET_RICHTLINIE_NICHT_AKTIVIERT
Die Richtlinie für serverloses Budget ist nicht aktiviert, wenden Sie sich bitte an den Databricks-Support.
Serverless-Budget-Richtlinie für Konto nicht aktiviert.
Die Serverlose Budgetrichtlinie ist für dieses Konto nicht aktiviert. Der Benutzer kann keine Budgetrichtlinie für diese Pipeline angeben. Der Kontoadministrator sollte versuchen, sich über das Featurevorschauportal zu registrieren. Wenn das Problem weiterhin besteht, wenden Sie sich bitte an den Databricks-Support.
SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_NON_SERVERLESS_PIPELINE Note: When certain terms are established or technical, retaining the original English might be preferred, but if a full translation is expected, use the German equivalents suggested.
Serverlose Budgetrichtlinie kann einer nicht serverlosen Pipeline nicht zugewiesen werden.
SERVERLESS_BUDGET_RICHTLINIE_NICHT_UNTERSTÜTZT_FÜR_PIPELINE_TYP
Die Serverlose Budgetrichtlinie wird für den Pipelinetyp <pipelineType>
nicht unterstützt.
SERVERLESS_BUDGET_POLICY_BERECHTIGUNG_VERWEIGERT
Der Benutzer verfügt nicht über die Berechtigung, serverlose Budgetrichtlinien mit der ID "<budgetPolicyId>
" zu verwenden.
SERVERLESS_NOT_AVAILABLE - Serverless-Dienst nicht verfügbar
Serverlose Berechnung ist nicht verfügbar. Weitere Informationen finden Sie unter Databricks.
SERVERLESS_NICHT_AKTIVIERT
Sie können keine serverlosen Berechnungen mit Lakeflow Declarative Pipelines verwenden. Wenden Sie sich an Databricks, um dieses Feature für Ihren Arbeitsbereich zu aktivieren.
SERVERLESS_NICHT_FÜR_BENUTZER_AKTIVIERT
Serverlose Berechnung ist für Den Anrufer nicht aktiviert. Wenden Sie sich an Ihren Arbeitsbereichsadministrator, um dieses Feature zu aktivieren.
SERVERLESS-NICHT-FÜR-ARBEITSBEREICH-AKTIVIERT
Serverlose Berechnung ist für diesen Arbeitsbereich und/oder diese Region nicht verfügbar. Weitere Informationen finden Sie unter Databricks.
SERVERLOS_ERFORDERLICH
Sie müssen in diesem Arbeitsbereich serverloses Berechnen verwenden.
SERVICENOW_CONNECTION_ERROR
In ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>
.
Weitere Informationen finden Sie unter SERVICENOW_CONNECTION_ERROR
SERVICENOW_CONNECTOR_LEERE_CURSOR_KEY_FEHLER
Im ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>
.
Zurzeit kann die Aufnahmepipeline die Tabelle '<tableName>
' nicht aufnehmen, da die Cursortaste in einer Zeile ein leeres Feld enthält.
Um die Pipeline fortzusetzen, entfernen Sie diese Tabelle. Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.
SERVICENOW_CONNECTOR_INSTANZ_RUHEMODUS_FEHLER
In ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>
.
Fehler beim Herstellen einer Verbindung mit der ServiceNow-Instanz. Die Instanz scheint im Schlafmodus oder inaktiv zu sein.
Melden Sie sich bei Ihrem ServiceNow-Verwaltungsportal an, und warten Sie einige Zeit, bis die Instanz vollständig aktiviert ist.
Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.
SERVICENOW_CONNECTOR_INSTANCE_OFFLINE_FEHLER
In ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>
.
Fehler beim Herstellen einer Verbindung mit der ServiceNow-Instanz. Die Instanz ist offline.
Melden Sie sich beim ServiceNow-Verwaltungsportal an, und warten Sie einige Zeit, bis die Instanz wiederhergestellt wird.
Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.
SERVICENOW_CONNECTOR_UNGÜLTIGE_TABELLE_FEHLER
In ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>
.
Fehler beim Abfragen des Schemas der Tabelle '<tableName>
'. Die Tabelle ist im ServiceNow-Konto für diesen Benutzer nicht vorhanden.
Überprüfen Sie den Tabellennamen für alle Tippfehler, und stellen Sie sicher, dass der Benutzer über die erforderlichen Berechtigungen für den Zugriff auf die Tabelle verfügt.
Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.
SERVICENOW_CONNECTOR_IP_ADRESSE_BESCHRÄNKT_FEHLER
In ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>
.
Fehler beim Herstellen einer Verbindung mit der ServiceNow-Instanz. Die Instanz verfügt über Einschränkungen für die IP-Adresszugriffskontrolle.
Um dies zu beheben, deaktivieren Sie entweder die IP-Adresseinschränkungen, indem Sie zu ServiceNow >> All >> System Security >> IP Address Access Control navigieren oder serverlose stabile IPs verwenden.
Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.
SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR
In ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>
.
Ungültige ServiceNow-API-Endpunkt-URL erkannt. Die URL-Struktur stimmt nicht mit dem erwarteten ServiceNow-Format überein.
Überprüfen Sie die ServiceNow-Instanzkonfiguration in den UC-Verbindungsanmeldeinformationen.
Weitere Details finden Sie unter SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR.
As it stands, no translation is advised for this segment as it appears to be a system message identifier that would not typically require translation.
In ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>
.
Dies geschieht häufig, wenn der Datenabruf für eine Tabelle zu lang dauert. Arbeiten Sie als erster Schritt mit Ihrem ServiceNow-Administrator zusammen, um die Indizierung in der Cursorspalte zu aktivieren.
Die Cursorspalte wird aus der folgenden Liste in der Reihenfolge der Verfügbarkeit und Einstellung ausgewählt: sys_updated_on (erste Auswahl), sys_created_on (zweite Auswahl), sys_archived (dritte Auswahl)
Anweisungen zum Aktivieren der Indizierung in ServiceNow finden Sie hier: https://docs.databricks.com/ingestion/lakeflow-connect/servicenow-overview#why-is-my-servicenow-ingestion-performance-slow.
Außerdem wird empfohlen, das TIMEout der REST-API-Abfrage auf mehr als 60 Sekunden zu erhöhen, um mehr Zeit zum Abrufen von Datensätzen zu ermöglichen.
Wiederholen Sie dann die Aufnahmepipeline. Wenn das Problem weiterhin besteht, melden Sie ein Ticket an.
ÜBEREINSTIMMUNGSFEHLER_DES_SERVICENOW_CONNECTOR_SCHEMAS_FIELD_TYPE
Fehler in ServiceNow beim Abrufen des Tabellenschemas.
Es wurden zwei widersprüchliche Datentypen für das Feld '<fieldName>
'<firstDataType>
und '<secondDataType>
' gefunden.
Um die Pipeline fortzusetzen, entfernen Sie diese Tabelle. Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.
SERVICENOW_CONNECTOR_UNBEFUGTER_ZUGRIFFSFEHLER
In ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>
.
Weitere Details finden Sie unter SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR.
SET_EIGENSCHAFTEN_FESTLEGEN_NICHT_ERLAUBT_FÜR_PIPELINE_TABELLE
ALTER <commandTableType>
... SET TBLPROPERTIES
wird nicht unterstützt. Wenn Sie Tabelleneigenschaften ändern möchten, ändern Sie die ursprüngliche Definition, und führen Sie ein Update aus.
SFDC_KONNEKTOR_MASSENABFRAGE_AUFGABE_UNVOLLSTÄNDIG
Die Aufnahme für Objekt-<objName>
ist unvollständig, da der Salesforce-API-Abfrageauftrag zu lang dauerte, fehlgeschlagen oder manuell abgebrochen wurde.
Weitere Details finden Sie unter SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE.
SFDC_CONNECTOR_BULK_QUERY_NICHT_GEFUNDEN
Fehler bei der Erfassung des Objekts <objName>
, da der Salesforce-Massen-API-Abfrageauftrag nicht gefunden wurde.
Führen Sie FULL REFRESH
für die jeweilige Zieltabelle aus.
SFDC_CONNECTOR_ERSTELLEN_BULK_QUERY_API_LIMIT_ÜBERSCHRITTEN
Fehler im Salesforce-API-Aufruf: API-Grenzwert überschritten
Warten Sie, bis Ihre API-Grenzwerte zurückgesetzt werden. Probieren Sie dann, die Zieltabelle neu zu laden.
Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.
SFDC_CONNECTOR_BULK_ABFRAGE_AUFTRAG_ERSTELLEN_FEHLGESCHLAGEN
Die Erfassung von Objekt-<objName>
ist unvollständig, da die Erstellung des Salesforce-Massen-API-Abfrageauftrags fehlgeschlagen ist. Fehlercode: <saasSourceApiErrorCode>
.
<actionText>
.
SENKEN_NICHT_UNTERSTÜTZT_IN_SEG
DLT-Senken in der Pipeline werden in Arbeitsbereichen mit aktivierter serverloser Ausgangssteuerung nicht unterstützt. Unterstützte DLT-Senken sind Kafka und Delta.
Die folgenden nicht unterstützten Senken werden gefunden: <sinkNames>
, die entsprechenden Formate sind: <sinkFormats>
.
QUELLTABELLE_NICHT_MATERIALISIERT
Fehler beim Lesen des abhängigen Datasets "<sourceTableName>
", da es nicht materialisiert ist. Führen Sie die gesamte Pipeline aus, um alle abhängigen Datensätze zu materialisieren.
EIGENSTÄNDIGE_PRIVATE_MVST_NICHT_UNTERSTÜTZT
Das Erstellen eines eigenständigen PRIVATE
MV/ST wird nicht unterstützt. Entfernen Sie den PRIVATE
Modifizierer.
STREAMING-ZIEL_NICHT_DEFINIERT
Die Zieltabelle <target>
für den <command>
Befehl wurde nicht gefunden. Zieltabelle <target>
ist in der Pipeline nicht definiert.
Synchronisierter Tabellen Benutzerfehler
Benutzerfehler der synchronisierten Tabellenpipeline.
Weitere Informationen finden Sie unter SYNCED_TABLE_USER_ERROR
TABELLE_WÄHREND_DES_VORGANGS_GEÄNDERT
Die Tabelle <tableName>
wurde außerhalb dieser Transaktion geändert, und diese Transaktion wurde zurückgesetzt. Wiederholen Sie den Vorgang.
TABELLE_MATERIALISIERUNG_ZYKLISCHE_FREMDSCHLÜSSELABHÄNGIGKEIT
Pipelineupdate für Pipeline: <pipelineId>
hat eine zyklische Kette von Fremdschlüsseleinschränkungen erkannt: <tables>
.
TABLE_SPEC_BEIDE_KATALOG_SCHEMA_ERFORDERLICH
Bei „TableSpec“ fehlt der Quellkatalog und/oder das Quellschema.
Tabellenspezifikationsdetails:
<tableSpec>
TABELLENSPEZIFIKATION_LEERER_KATALOG
TableSpec verfügt über eine leere Zeichenfolge im Katalogfeld.
Entfernen Sie die leere Zeichenfolge, oder fügen Sie den Katalognamen hinzu. (Wenn diese Tabelle nicht zu einem Katalog in der Quelle gehört, legen Sie das Feld nicht fest.)
Tabellenspezifikationsdetails:
<tableSpec>
Tabellenspezifikations_leeres_Schema
TableSpec verfügt über eine leere Zeichenfolge im Schemafeld.
Entfernen Sie die leere Zeichenfolge, oder fügen Sie den Schemanamen hinzu. (Wenn diese Tabelle nicht zu einem Schema in der Quelle gehört, legen Sie das Feld nicht fest.)
Tabellenspezifikationsdetails:
<tableSpec>
Spezifikations-Tabelle leer
Der Tabellenname ist leer. Geben Sie einen Tabellennamen an.
Tabellenspezifikationsdetails:
<tableSpec>
TABLE_TOKEN_NOT_EXIST_FOR_SCHEMA_EVOLUTION_LEGACY_TABLE (Tabellen-Token existiert nicht für Schema-Evolution Legacy-Tabelle)
Die Schemaentwicklung kann aufgrund fehlender Metadaten nicht aktiviert werden. Lösen Sie eine vollständige Aktualisierung aus.
Grund: Snapshot-Tabellentoken muss definiert werden, wenn die Schemaentwicklung aktiviert ist.
TRIGGER_INTERVALL_WERT_UNGÜLTIG
Das Triggerintervall muss eine positive Dauer sein, der maximal zulässige Wert beträgt 2.147.483.647 Sekunden. Empfangen: <actual>
Sekunden.
TRIGGER_BEI_ANZEIGE_LESE_OPERATION_AUS_DATEI_NICHT_UNTERSTÜTZT
Die Quelle <source>
ist eine Ansicht, die aus einem Dateispeicherort liest, der derzeit nicht vom Trigger unterstützt wird.
Auslöserquellentyp nicht unterstützt (TRIGGER_SOURCE_TYPE_NOT_SUPPORTED)
Die Quelle <source>
mit Typ <type>
wird derzeit nicht vom Auslöser unterstützt.
UC_CLEARING_TARGET_SCHEMA_NOT_ERLAUBT
Das Löschen des Zielschemafelds ist für UC-Pipelines nicht zulässig. Grund: <reason>
.
UC_NICHT_AKTIVIERT
Die Verwendung des UC-Katalogs in DLT ist nicht aktiviert.
UC_PIPELINE_KANN_NICHT_AN HMS VERÖFFENTLICHEN
UC-aktivierte Pipelines können nicht im Hive-Metastore veröffentlicht werden. Wählen Sie einen anderen Zielkatalog aus.
UC_TARGET_SCHEMA_ERFORDERLICH
Das Zielschemafeld ist für UC-Pipelines erforderlich. Grund: <reason>
.
UNFÄHIG_ZUR_ABLEITUNG_DER_TABELLENSCHEMA
Fehler beim Ableiten des Schemas für die Tabelle <tableName>
aus den vorgelagerten Flüssen.
Ändern Sie die Flüsse, die in diese Tabelle schreiben, um deren Schemas kompatibel zu machen.
Abgeleitetes Schema bisher:
<inferredDataSchema>
Nicht kompatibles Schema:
<incompatibleDataSchema>
UNERWARTETER_PIPELINE_SCHEMA_BERECHTIGUNGSFEHLER
Unerwarteter Fehler beim Überprüfen von Schemaberechtigungen für Pipeline-<pipelineId>
. Wenden Sie sich bitte an den Databricks-Support.
ROW_FILTERSUNIFORM_COMPATIBILITY_CANNOT_SET_WITH__OR_COLUMN_MASKS
Die einheitliche Kompatibilität kann nicht für materialisierte Ansichten oder Streamingtabellen festgelegt werden, auf die ein Zeilenfilter oder Spaltenmasken angewendet wurden.
UNITY_CATALOG_INITIALISIERUNG_FEHLGESCHLAGEN
Beim Einrichten der Pipeline im Cluster <clusterId>
ist ein Fehler mit Unity Catalog aufgetreten.
Stellen Sie sicher, dass Ihre Unity-Katalogkonfiguration korrekt ist und dass erforderliche Ressourcen (z. B. Katalog, Schema) vorhanden und zugänglich sind.
Überprüfen Sie außerdem, ob der Cluster über entsprechende Berechtigungen für den Zugriff auf den Unity-Katalog verfügt.
Details: <ucErrorMessage>
NICHT_AUFGELOST_SENKE_PFAD
Speicherpfad für Senke <identifier>
kann nicht aufgelöst werden. Wenden Sie sich bitte an den Databricks-Support.
UNAUFGELÖSTE_TABELLEN_ZUR_WARTUNG
Die folgenden Tabellen wurden in der Pipelinedefinition gefunden, konnten aber während der Wartung nicht aufgelöst werden. Führen Sie eine Pipelineupdateausführung mit der neuesten Pipelinedefinition aus, um alle Tabellen in der Pipelinedefinition zu materialisieren und die Wartung aufzuheben, oder wenden Sie sich an die Unterstützung von Databricks, wenn das Problem weiterhin besteht.
<unresolvedTableIdentifiersSet>
NICHT_AUFGELÖSTER_TABELLENPFAD
Der Speicherpfad für tabellen <identifier>
kann nicht aufgelöst werden. Wenden Sie sich bitte an den Databricks-Support.
NICHT_UNTERSTÜTZTER_ALTER_BEFEHL
ALTER <commandTableType>
... <command>
wird nicht unterstützt.
NICHT_UNTERSTÜTZTER_KANAL_FÜR_DPM
Nicht unterstützter Kanal für den Direct Publishing-Modus. Erwartet wurde entweder der Kanal CURRENT
oder PREVIEW
, erhalten wurde jedoch PREVIOUS
.
NICHT UNTERSTÜTZTER BEFEHL IN NICHT-DPM-PIPELINE
<command>
wird nur im aktivierten Direct Publishing-Modus von Lakeflow Declarative Pipelines unterstützt
NICHT_UNTERSTÜTZTER_BEFEHL_IN_ANFRAGEDEFINITION
'<command>
' wird in der Abfragedefinition nicht unterstützt. Verschieben Sie den Befehl außerhalb der Abfragedefinition. Wenn es sich um eine Pipeline in Python handelt, dann verschieben Sie "<command>
" aus dem @dlt.table()/@dlt.view() Dekorator heraus. Wenn es sich um eine Pipeline in Scala handelt, verschieben Sie das '<command>
' außerhalb der 'Abfrage'-Methode.
NICHT_UNTERSTÜTZTE_BENUTZERDEFINIERTE_DBR_VERSION
Benutzerdefinierte DBR-Version '<v>
' wird in SHIELD
und HIPAA
Arbeitsbereichen nicht unterstützt. Eine von [<supportedDbrVersions>
] erwartet
NICHT UNTERSTÜTZTE DBR-VERSION
DBR-Version '<v>
' wird nicht unterstützt. Eine von [<supportedDbrVersions>
] erwartet
NICHT_UNTERSTÜTZTE_FUNKTION_FÜR_ARBEITSBEREICH
<featureName>
wird in Ihrem Arbeitsbereich nicht unterstützt. Wenden Sie sich an den Databricks-Support, um dieses Feature für Ihren Arbeitsbereich zu aktivieren.
NICHT_UNTERSTÜTZTE_SPRACHE
Fehler beim Laden des <language>
Notizbuchs '<notebookPath>
'. Derzeit werden nur <supportedLanguages>
Notizbücher unterstützt.
NICHT UNTERSTÜTZTER BIBLIOTHEKSDATEITYP
Die Datei unter <path>
hat nicht .py oder .sql Suffix. Nur Python- und SQL-Dateien werden in Pipelines unterstützt.
Nicht unterstützte Bibliothek Notizbuchsprache
Nicht unterstützte Sprache <language>
für Notebook <path>
. Nur Python und SQL werden in Pipelines unterstützt.
Nicht unterstützter Bibliotheksobjekttyp
Der im Pfad enthaltene <path>
ist vom Typ <objectType>
, der nicht unterstützt wird. Derzeit können nur Notizbücher und Dateien als Bibliotheken verwendet werden. Um dieses Problem zu beheben, entfernen Sie das nicht unterstützte Objekt, oder aktualisieren Sie die für diese Pipeline konfigurierten Bibliotheken, sodass nur unterstützte Objekttypen enthalten sind.
Nicht unterstützter verwalteter Ingestionsquellentyp
Ungültige Definition einer verwalteten Aufnahmepipeline, nicht unterstützter Quelltyp: <sourceType>
.
NICHT_UNTERSTÜTZTER_SAAS_INGESTIONSTYP
Der bereitgestellte Erfassungstyp <ingestionType>
wird nicht unterstützt.
Wenden Sie sich an den Databricks-Support, wenn dieses Problem weiterhin besteht.
NICHT_UNTERSTÜTZTER_SPARK_SQL_BEFEHL
'<command>
' wird in spark.sql("...")-API in DLT Python nicht unterstützt. Unterstützter Befehl: <supportedCommands>
.
Aktualisierter Definitionssatz für Nicht-DBSQL-Pipeline
Nur DBSQL
Pipelines können eine aktualisierte Definition haben.
VERWENDUNG_KATALOG_IN_HMS
USE CATALOG
wird nur in UC-fähigen Lakeflow Declarative Pipelines unterstützt
TEXT_ANZEIGE_NICHT_IN_UC_GESPEICHERT
Tabelle <tableName>
kann nicht aktualisiert werden, da sie keine Abfrage im Unity-Katalog gespeichert hat. Wenden Sie sich bitte an den Databricks-Support.
WORKDAY_REPORTS_KONNEKTOR_BERICHT_NICHT_GEFUNDEN_FEHLER
In Workday-Berichten ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>
.
Die Berichts-URL '<reportUrl>
' ist falsch. Überprüfen Sie auf Tippfehler in der Basis-URL oder auf den Berichtsnamen, um das Problem zu beheben.
Wenn das Problem weiterhin besteht, melden Sie ein Ticket an.
WORKDAY_BERICHTE_CONNECTOR_UNBEFUGTER_ZUGRIFF_FEHLER
In Workday-Berichten ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>
.
Weitere Informationen finden Sie unter WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR.
WORKDAY_BERICHTS_URL_LEER
Die Url des Workday-Berichts ist leer. Mindestens ein Bericht muss bereitgestellt werden.
ARBEITSBEREICH_QUOTA_ÜBERSCHRITTEN
Update „<updateId>
“ kann nicht gestartet werden, da bereits „<maxActiveUpdates>
“ aktive Pipelines in diesem Arbeitsbereich ausgeführt werden.
Verschiedenes
ABAC_Richtlinien_nicht_unterstützt_für_Laufzeitversion
SQLSTATE: nicht zugewiesen
Abfrage auf Tabelle <tableFullName>
mit ABAC-Richtlinie wird in zugewiesenen Clustern aufgrund von <dbrVersionMessage>
nicht unterstützt. Version <minimumSupportedVersion>
oder höher ist erforderlich.
AZURE_ENTRA_ANMELDEDATEN_FEHLEN
SQLSTATE: nicht zugewiesen
Anmeldeinformationen für Azure Entra (auch als Azure Active Directory bekannt) fehlen.
Stellen Sie sicher, dass Sie entweder mit Ihrem Entra-Konto angemeldet sind.
oder Sie ein persönliches Azure DevOps-Zugriffstoken (PAT) unter „Benutzereinstellungen > Git-Integration“ eingerichtet haben.
Wenn Sie kein PAT verwenden und Azure DevOps mit der Repos-API verwenden,
Sie müssen ein Azure Entra-Zugriffstoken verwenden.
Siehe https://docs.microsoft.com/azure/databricks/dev-tools/api/latest/aad/app-aad-token für Schritte zum Abrufen eines Azure Entra-Zugriffstokens.
AZURE_ENTRA_CREDENTIALS_Parsing-Fehler
SQLSTATE: nicht zugewiesen
Es wurde ein Fehler mit Ihren Azure Entra (Azure Active Directory)-Anmeldeinformationen festgestellt. Bitte versuchen Sie, sich abzumelden von
Entra (https://portal.azure.com) und wieder anzumelden.
Alternativ können Sie auch „Benutzereinstellungen > Git-Integration“ aufrufen, um ein
ein persönliches Azure DevOps-Zugriffstoken einrichten.
AZURE_ENTRA_ANMELDE_FEHLER
SQLSTATE: nicht zugewiesen
Ein Fehler ist bei Ihren Azure Active Directory-Anmeldeinformationen aufgetreten. Bitte versuchen Sie, sich abzumelden von
Azure Active Directory (https://portal.azure.com) und erneute Anmeldung.
AZURE_ENTRA_WORKLOAD_IDENTITY_ERROR
SQLSTATE: nicht zugewiesen
Ein Fehler trat bei der Azure Workload Identity mit einer Azure-Ausnahme auf: <azureWorkloadIdentityExceptionMessage>
SAUBER_RAUM_DELTA_FREIGABE_ENTITÄT_NICHT_AUTORISIERT
SQLSTATE: nicht zugewiesen
Die Generierung von Anmeldeinformationen für sicherungsfähiges Delta Sharing in Reinräumen kann nicht angefordert werden.
REINRAUM_VERSTECKTE_SICHERE_BERECHTIGUNG_VERWEIGERT
SQLSTATE: nicht zugewiesen
Sicherungsfähiges <securableName>
-Element mit Typ <securableType>
und Art <securableKind>
wird vom Reinraumsystem verwaltet, Benutzende haben keinen Zugriff.
BESCHRÄNKUNG_EXISTIERT_BEREITS
SQLSTATE: nicht zugewiesen
Es gibt bereits eine Einschränkung mit dem Namen <constraintName>
, wählen Sie bitte einen anderen Namen.
ZWANGSBEDINGUNG_EXISTIERT_NICHT
SQLSTATE: nicht zugewiesen
Einschränkung <constraintName>
ist nicht vorhanden.
KANN_REMOTE_REPOSITORY_NICHT_LESEN
SQLSTATE: nicht zugewiesen
Konnte Remote-Repository (<repoUrl>
) nicht lesen.
Gehen Sie bitte zu Ihrem Git-Remoteanbieter, um folgendes sicherzustellen:
Ihre Git-Repository-REMOTE-URL ist gültig.
Ihr persönliches Zugriffstoken oder App-Kennwort verfügt über den richtigen Repositoryzugriff.
KANN_REPOSITORY_HOST_NICHT_AUFLÖSEN
SQLSTATE: nicht zugewiesen
Host für <repoUrl>
konnte nicht aufgelöst werden.
CSMS_ANFANG_DER_ZEIT_NICHT_UNTERSTÜTZT
SQLSTATE: nicht zugewiesen
Der Parameter beginning_of_time
kann nicht wahr sein.
CSMS_Fortsetzungstoken_Abgelaufen
SQLSTATE: nicht zugewiesen
Angeforderte Objekte konnten für das Fortsetzungstoken nicht gefunden werden.
CSMS_UNGÜLTIGES_FORTSETZUNGSTOKEN
SQLSTATE: nicht zugewiesen
Fortsetzungstoken ungültig. Ursache: <msg>
CSMS_UNGÜLTIGE_MAX_OBJEKTE
SQLSTATE: nicht zugewiesen
Ungültiger Wert <value>
für Parameter-max_objects, erwarteter Wert in [<minValue>
, <maxValue>
]
UNGÜLTIGE_ABONNEMENT_ID
SQLSTATE: nicht zugewiesen
Die Abonnement-ID ist ungültig. Ursache: <msg>
CSMS_UNGÜLTIGES_URI_FORMAT
SQLSTATE: nicht zugewiesen
Ungültiges URI-Format. Ein Volume (z. B. /Volumes/catalog/schema/volume”) oder Cloudspeicherpfad (z. B. „s3://some-uri“) wurde erwartet.
CSMS_KAFKA_TOPIC_MISSING (Kafka-Topic fehlt)
SQLSTATE: nicht zugewiesen
Muss ein Kafka-Thema bereitstellen
Ortungsfehler (CSMS_LOCATION_ERROR)
SQLSTATE: nicht zugewiesen
Fehler beim Auflisten von Objekten. Es gibt Probleme am Standort, die behoben werden müssen. Details: <msg>
CSMS_STANDORT_NICHT_BEKANNT
SQLSTATE: nicht zugewiesen
Kein Speicherort für URI <path>
gefunden.
CSMS_METASTORE_ID_FEHLT
SQLSTATE: nicht zugewiesen
Muss eine Metastore-UUID bereitstellen
CSMS_METASTORE_RESOLUTION_FAILED
SQLSTATE: nicht zugewiesen
Ein Metaspeicher für die Anforderung kann nicht ermittelt werden.
CSMS_AUFLÖSUNG_DES_LOKALEN_FRAGMENTSNAMENS_GESCHEITERT
SQLSTATE: nicht zugewiesen
CSMS konnte den lokalen Shardnamen nicht auflösen.
CSMS-Dienst deaktiviert
SQLSTATE: nicht zugewiesen
Der Dienst ist deaktiviert.
CSMS_SHARD_NAME_FEHLT_IN_ANFRAGE
SQLSTATE: nicht zugewiesen
Der Shardname fehlt in einer RPC-Anforderung an CSMS.
CSMS_UNITY_CATALOG_ENTITY_NOT_FOUND
SQLSTATE: nicht zugewiesen
Unity Catalog-Entität nicht gefunden. Stellen Sie sicher, dass der Katalog, das Schema, das Volume und/oder der externe Speicherort vorhanden sind.
CSMS_UNITY_CATALOG_EXTERNER_SPEICHERORT_EXISTIERT_NICHT
SQLSTATE: nicht zugewiesen
Der externe Speicherort des Unity-Katalogs ist nicht vorhanden.
Unity-Katalog Externe Speicherüberlappung
SQLSTATE: nicht zugewiesen
URI überlappt mit anderen Volumes
CSMS_UNITY_CATALOG_METASTORE_EXISTIERT_NICHT
SQLSTATE: nicht zugewiesen
Ein Metaspeicher für die Anforderung kann nicht ermittelt werden. Metastore ist nicht vorhanden
Zugriff auf CSMS Unity-Katalog verweigert
SQLSTATE: nicht zugewiesen
Berechtigung verweigert
CSMS_UNITY_KATALOG_TABELLE_EXISTIERT_NICHT
SQLSTATE: nicht zugewiesen
Die Unity-Katalogtabelle ist nicht vorhanden.
CSMS_UNITY_CATALOG_VOLUME_EXISTS_NICHT
SQLSTATE: nicht zugewiesen
Das Unity-Katalogvolumen existiert nicht.
CSMS_UNSUPPORTED_SECURABLE
SQLSTATE: nicht zugewiesen
Nicht unterstütztes Sicherungsobjekt
CSMS_URI_FEHLT
SQLSTATE: nicht zugewiesen
URI muss bereitgestellt werden
CSMS_URI_ZU_LANG
SQLSTATE: nicht zugewiesen
Der angegebene URI ist zu lang. Die maximal zulässige Länge ist <maxLength>
.
DMK_KATALOGE_NICHT_ERLAUBT_AUF_KLASSISCHER_COMPUTE
SQLSTATE: nicht zugewiesen
Auf den Databricks-Standardspeicher kann nicht mithilfe des klassischen Compute zugegriffen werden. Verwenden Sie Serverless Compute, um auf Daten im Standardspeicher zuzugreifen.
Die GitHub-App konnte die Anmeldedaten nicht aktualisieren.
SQLSTATE: nicht zugewiesen
Fehler beim Vorgang, da verknüpfte GitHub-App-Anmeldeinformationen nicht aktualisiert werden konnten.
Versuchen Sie es erneut, oder wechseln Sie zu "Benutzereinstellungen" > Git-Integration, und versuchen Sie erneut, Ihr Git-Anbieterkonto zu verknüpfen.
Wenn das Problem weiterhin besteht, melden Sie bitte ein Supportticket an.
GITHUB_APP_BERECHTIGUNGEN_KEIN_ZUGRIFF
SQLSTATE: nicht zugewiesen
Der Link zu Ihrem GitHub-Konto hat keinen Zugriff. So beheben Sie diesen Fehler:
- Ein Admin des Repositorys muss zu https://github.com/apps/databricks/installations/new wechseln und die GitHub-App „Databricks“ im Repository installieren.
Alternativ kann ein GitHub-Kontobesitzer die App auf dem Konto installieren, um Zugriff auf die Repositorys des Kontos zu gewähren.
- Wenn die App bereits installiert ist, lassen Sie einen Administrator sicherstellen, dass bei der Verwendung von eingeschränktem Zugriff mit der Option "Nur Repositories auswählen", der Zugriff auf dieses Repository eingeschlossen ist, indem er es auswählt.
https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app Weitere Informationen finden Sie unter.
Wenn das Problem weiterhin besteht, melden Sie bitte ein Supportticket an.
GITHUB_APP_ABGELAUFENE_ANMELDEDATEN
SQLSTATE: nicht zugewiesen
Verknüpfte GitHub-App-Anmeldeinformationen sind nach 6 Monaten Inaktivität abgelaufen.
Wechseln Sie zu "Benutzereinstellungen" > Git-Integration, und versuchen Sie, Ihre Anmeldeinformationen erneut zu verknüpfen.
Wenn das Problem weiterhin besteht, melden Sie bitte ein Supportticket an.
GITHUB_APP_AUF_ANDEREM_BENUTZERKONTO_INSTALLIEREN
SQLSTATE: nicht zugewiesen
Der Link zu Ihrem GitHub-Konto hat keinen Zugriff. So beheben Sie diesen Fehler:
GitHub-Benutzer
<gitCredentialUsername>
sollte zu https://github.com/apps/databricks/installations/new gehen und die App auf dem Konto<gitCredentialUsername>
installieren, um den Zugriff zu ermöglichen.Wenn der Benutzer
<gitCredentialUsername>
die App bereits installiert hat und er den bereichsbezogenen Zugriff mit der Option "Nur ausgewählte Repositorys" verwendet, sollte er sicherstellen, dass er Zugriff auf dieses Repository hat, indem er es auswählt.
https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app Weitere Informationen finden Sie unter.
Wenn das Problem weiterhin besteht, melden Sie bitte ein Supportticket an.
GitHub_App_Installation_in_der_Organisation
SQLSTATE: nicht zugewiesen
Der Link zu Ihrem GitHub-Konto hat keinen Zugriff. So beheben Sie diesen Fehler:
Ein Besitzer der GitHub-Organisation
<organizationName>
sollte zu https://github.com/apps/databricks/installations/new gehen und die App in der Organisation<organizationName>
installieren, um den Zugriff zu ermöglichen.Wenn die App bereits in der GitHub-Organisation
<organizationName>
installiert ist, muss ein Besitzer dieser Organisation sicherstellen, dass sie bei der Verwendung von berechtigtem Zugriff mit der Option "Nur ausgewählte Repositorys" den Zugriff auf dieses Repository gewährt haben, indem sie es auswählen.
https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app Weitere Informationen finden Sie unter.
Wenn das Problem weiterhin besteht, melden Sie bitte ein Supportticket an.
GITHUB_APP_INSTALLATION_AUF_IHREM_KONTO
SQLSTATE: nicht zugewiesen
Der Link zu Ihrem GitHub-Konto hat keinen Zugriff. So beheben Sie diesen Fehler:
Wechseln Sie zu https://github.com/apps/databricks/installations/new und installieren Sie die App auf Ihrem Konto
<gitCredentialUsername>
, um den Zugriff zu ermöglichen.Wenn die App bereits installiert ist und Sie den bereichsbezogenen Zugriff mit der Option "Nur Repositorys auswählen" verwenden, stellen Sie sicher, dass Sie Zugriff auf dieses Repository haben, indem Sie sie auswählen.
https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app Weitere Informationen finden Sie unter.
Wenn das Problem weiterhin besteht, melden Sie bitte ein Supportticket an.
GIT_CLUSTER_NOCH_NICHT_BEREIT
SQLSTATE: nicht zugewiesen
Git-Cluster ist nicht bereit.
GIT_Berechtigung_Generisch_Ungültig
SQLSTATE: nicht zugewiesen
Ungültige Git-Anbieteranmeldeinformationen für Repository-URL <repoUrl>
.
Ihr aktueller Git-Anmeldeinformationsanbieter ist <gitCredentialProvider>
und benutzername ist <gitCredentialUsername>
.
Rufen Sie „Benutzereinstellungen > Git-Integration“ auf, um Ihre Anmeldeinformationen anzuzeigen.
Gehen Sie bitte zu Ihrem Git-Remoteanbieter, um folgendes sicherzustellen:
Sie haben die richtige Git-Benutzer-E-Mail oder ihren Benutzernamen mit Ihren Git-Anbieteranmeldeinformationen eingegeben.
Ihr Token- oder App-Kennwort verfügt über den richtigen Repositoryzugriff.
Ihr Token ist nicht abgelaufen.
Wenn Sie SSO mit Ihrem Git-Anbieter aktiviert haben, müssen Sie Ihr Token autorisieren.
GIT_CREDENTIAL_UNGÜLTIGES_PAT
SQLSTATE: nicht zugewiesen
Ungültige Personal Access Token-Anmeldeinformationen des Git-Anbieters für die Repository-URL <repoUrl>
.
Ihr aktueller Git-Anmeldeinformationsanbieter ist <gitCredentialProvider>
und benutzername ist <gitCredentialUsername>
.
Rufen Sie „Benutzereinstellungen > Git-Integration“ auf, um Ihre Anmeldeinformationen anzuzeigen.
Gehen Sie bitte zu Ihrem Git-Remoteanbieter, um folgendes sicherzustellen:
Sie haben die richtige Git-Benutzer-E-Mail oder ihren Benutzernamen mit Ihren Git-Anbieteranmeldeinformationen eingegeben.
Ihr Token- oder App-Kennwort verfügt über den richtigen Repositoryzugriff.
Ihr Token ist nicht abgelaufen.
Wenn Sie SSO mit Ihrem Git-Anbieter aktiviert haben, müssen Sie Ihr Token autorisieren.
GIT_Berechtigungsnachweis_fehlend
SQLSTATE: nicht zugewiesen
Keine Git-Anmeldeinformationen konfiguriert, aber Anmeldeinformationen sind für dieses Repository erforderlich (<repoUrl>
).
Wechseln Sie zu "Benutzereinstellungen" > Git-Integration, um Ihre Git-Anmeldeinformationen einzurichten.
GIT_CREDENTIAL_KEINE_SCHREIBBERECHTIGUNG
SQLSTATE: nicht zugewiesen
Schreibzugriff auf das <gitCredentialProvider>
-Repository (<repoUrl>
) wurde nicht gewährt.
Stellen Sie sicher, dass Sie (<gitCredentialUsername>
) Schreibzugriff auf dieses Remote-Repository haben.
GIT_ANMELDEDATEN_ANBIETER_NICHT_ÜBEREINSTIMMEND
SQLSTATE: nicht zugewiesen
Falscher Git-Anmeldeinformationsanbieter für Repository.
Der Anbieter Ihrer aktuellen Git-Anmeldeinformationen (<gitCredentialProvider>
) stimmt nicht mit dem des Git-Anbieters des Repositorys überein <repoUrl>
.
Probieren Sie ein anderes Repository aus, oder wechseln Sie zu "Benutzereinstellungen" > Git-Integration, um Ihre Git-Anmeldeinformationen zu aktualisieren.
GIT_PROXY_CLUSTER_NOT_READY - Git-Proxy-Cluster ist nicht bereit
SQLSTATE: nicht zugewiesen
Git-Proxycluster ist nicht bereit.
GIT-GEHEIMNIS_IM_CODE
SQLSTATE: nicht zugewiesen
Geheimnisse im Commit gefunden. Detail: <secretDetail>
. So beheben Sie diesen Fehler:
Entfernen Sie das Geheimnis, und committen Sie erneut.
Wenn das Problem weiterhin besteht, melden Sie bitte ein Supportticket an.
Hierarchischer_Namensraum_Nicht_Aktiviert
SQLSTATE: nicht zugewiesen
Das Azure-Speicherkonto hat keinen hierarchischen Namespace aktiviert.
UNGÜLTIGE_FELDLÄNGE
SQLSTATE: nicht zugewiesen
<rpcName> <fieldName>
zu lang. Die maximale Länge beträgt <maxLength>
Zeichen.
INVALID_PARAMETER_VALUE
SQLSTATE: nicht zugewiesen
<msg>
Weitere Details finden Sie unter INVALID_PARAMETER_VALUE.
If required, a possible natural-language alternative might be: "Ausgabe für den Task-Lauf im Aufgabenrahmen wurde nicht gefunden." Otherwise, the original identifier should remain as is in the translation.
SQLSTATE: nicht zugewiesen
Aufgabenframework: Ausgabe der Aufgabenausführung für Aufgabe mit Ausführungs-ID (runId) <runId>
und Organisations-ID (orgId) <orgId>
wurde nicht gefunden.
Zustand des Aufgabenlaufs im JOBS_TASK_FRAMEWORK nicht gefunden (JOBS_TASK_FRAMEWORK_TASK_RUN_STATE_NOT_FOUND)
SQLSTATE: nicht zugewiesen
Aufgabenframework: Status der Aufgabenausführung für Aufgabe mit Ausfühungs-ID (runId) <runId>
und Organisations-ID (orgId) <orgId>
wurde nicht gefunden.
JOBS_TASK_REGISTRY_AUFGABEN_CLIENT_CONFIG_EXISTIERT_NICHT
SQLSTATE: nicht zugewiesen
RPC-ClientConfig für Aufgabe mit ID <taskId>
existiert nicht.
AUFGABEN_REGISTRIE_TASK_EXISTIERT_NICHT
SQLSTATE: nicht zugewiesen
Die Aufgabe mit der ID <taskId>
ist nicht vorhanden.
JOBS_TASK_REGISTRY_NICHT_UNTERSTÜTZTE_JOB_AUFGABE
SQLSTATE: nicht zugewiesen
Aufgabenregistrierung: Nicht unterstützte oder unbekannte JobTask mit Klasse <taskClassName>
.
PFADBASIERTER_ZUGRIFF_NICHT_UNTERSTÜTZT_FÜR_EXTERNES_FLACHES_KLONEN
SQLSTATE: nicht zugewiesen
Pfadbasierter Zugriff auf externe flache Klontabelle <tableFullName>
wird nicht unterstützt. Verwenden Sie stattdessen Tabellennamen, um auf den flachen Klon zuzugreifen.
Pfadbasierter Zugriff wird für Fabric nicht unterstützt
SQLSTATE: nicht zugewiesen
Die Fabric-Tabelle unter der URL '<url>
' wurde nicht gefunden. Verwenden Sie den Befehl REFRESH FOREIGN CATALOG
, um Fabric-Tabellen aufzufüllen.
PFADBASIERTER_ZUGRIFF_NICHT_UNTERSTÜTZT_FÜR_TABELLEN_MIT_ZEILEN-SPALTEN-ZUGRIFFSRICHTLINIEN
SQLSTATE: nicht zugewiesen
Pfadbasierter Zugriff auf Tabelle <tableFullName>
mit Zeilenfilter oder Spaltenmaske nicht unterstützt.
Zugriff verweigert
SQLSTATE: nicht zugewiesen
Benutzende Person verfügt nicht über <msg>
in <resourceType>
'<resourceName>
'.
REDASH_LÖSCHEN_ASSET_HANDLER_UNGÜLTIGE_EINGABE
SQLSTATE: nicht zugewiesen
Die Löschanforderung für das Objekt kann nicht verarbeitet werden: <invalidInputMsg>
REDASH_OBJEKT_NICHT_IM_PAPIERKORB_LÖSCHEN
SQLSTATE: nicht zugewiesen
Objekt <resourceName>
kann nicht gelöscht werden, da es sich nicht im Papierkorb befindet.
REDASH_BERECHTIGUNG_VERWEIGERT
SQLSTATE: nicht zugewiesen
Der Zugriff auf Ressource <resourceId>
konnte nicht gefunden werden oder es fehlen die notwendigen Berechtigungen.
REDASH_ABFRAGE_NICHT_GEFUNDEN
SQLSTATE: nicht zugewiesen
Die Ressource konnte nicht aus der Abfrage-ID <queryId>
gefunden werden.
REDASH_QUERY_SNIPPET_ERSTELLUNG_FEHLGESCHLAGEN
SQLSTATE: nicht zugewiesen
Der neue Abfrageausschnitt kann nicht erstellt werden.
REDASH_ABFRAGE_SNIPPET_KONTINGENT_ÜBERSCHRITTEN
SQLSTATE: nicht zugewiesen
Das Kontingent für die Anzahl der Abfrageausschnitte wurde erreicht. Das aktuelle Kontingent beträgt <quota>
.
REDASH_ABFRAGE_SNIPPET_TRIGGER_BEREITS_IN_VERWENDUNG
SQLSTATE: nicht zugewiesen
Der angegebene Trigger <trigger>
wird bereits von einem anderen Abfrageausschnitt in diesem Arbeitsbereich verwendet.
REDASH_RESOURCE_Nicht_Gefunden
SQLSTATE: nicht zugewiesen
Die angeforderte Ressource <resourceName>
ist nicht vorhanden.
REDASH_RESTORE_ASSET_HANDLER_INVALID_INPUT (Ungültige Eingabe)
SQLSTATE: nicht zugewiesen
Die Löschanforderung für das Objekt kann nicht verarbeitet werden: <invalidInputMsg>
REDASH_RESTORE_OBJECT_NICHT_IM_PAPIERKORB
SQLSTATE: nicht zugewiesen
Objekt <resourceName>
, das sich nicht im Papierkorb befindet, kann nicht wiederhergestellt werden.
REDASH_MÜLLOPTION_OBJEKT_BEREITS_IM_MÜLL
SQLSTATE: nicht zugewiesen
Objekt <resourceName>
befindet sich bereits im Papierkorb und kann nicht erneut in den Papierkorb verschoben werden.
REDASH_KANN_RESOURCE_NAME_NICHT_GENERIEREN
SQLSTATE: nicht zugewiesen
Der Ressourcenname konnte nicht aus id <id>
generiert werden.
Fehler bei der Erstellung der REDASH-Visualisierung
SQLSTATE: nicht zugewiesen
Neue Visualisierung kann nicht erstellt werden.
REDASH_VISUALISIERUNG_NICHT_GEFUNDEN
SQLSTATE: nicht zugewiesen
Visualisierung <visualizationId>
konnte nicht gefunden werden.
Redash-Visualisierungskontingent überschritten
SQLSTATE: nicht zugewiesen
Das Kontingent für die Anzahl der Visualisierungen für die Abfrage <query_id>
wurde erreicht. Das aktuelle Kontingent beträgt <quota>
.
REPOSITORY_URL_NICHT_GEFUNDEN
SQLSTATE: nicht zugewiesen
Remote-Repository (<repoUrl>
) nicht gefunden.
Ihr aktueller Git-Anmeldeinformationsanbieter ist <gitCredentialProvider>
und benutzername ist <gitCredentialUsername>
.
Gehen Sie bitte zu Ihrem Git-Remoteanbieter, um folgendes sicherzustellen:
Ihre Git-Repository-REMOTE-URL ist gültig.
Ihr persönliches Zugriffstoken oder App-Kennwort verfügt über den richtigen Repositoryzugriff.
RESSOURCE_EXISTIERT_BEREITS
SQLSTATE: nicht zugewiesen
<resourceType>
'<resourceIdentifier>
' ist bereits vorhanden.
DIE_RESOURCE_EXISTIERT_NICHT
SQLSTATE: nicht zugewiesen
<resourceType>
'<resourceIdentifier>
' ist nicht vorhanden.
ZEILEN-SPALTEN-ZUGRIFFSRICHTLINIEN WERDEN BEI ZUGEWIESENEN CLUSTERN NICHT UNTERSTÜTZT
SQLSTATE: nicht zugewiesen
Abfrage auf die Tabelle <tableFullName>
mit Zeilenfilter oder Spaltenmaske wird auf zugewiesenen Clustern nicht unterstützt.
ZEILEN_SPALTEN_SICHERHEITNICHT_UNTERSTÜTZT_BEI_TABELLEN_IN_DELTA_SHARING
SQLSTATE: nicht zugewiesen
Tabelle <tableFullName>
wird mit Delta Sharing geteilt und kann keine Zeilen-/Spaltensicherheit verwenden.
DIENST_VORÜBERGEHEND_NICHT_VERFÜGBAR
SQLSTATE: nicht zugewiesen
Der <serviceName>
-Dienst wird vorübergehend gewartet. Versuchen Sie es später erneut.
TABELLE_MIT_ZEILEN_SPALTEN_SICHERHEIT_IM_ONLINE_MODUS_NICHT_UNTERSTÜTZT
SQLSTATE: nicht zugewiesen
Tabelle <tableFullName>
kann nicht gleichzeitig Zeilen-/Spaltensicherheit und online materialisierte Ansichten haben.
ZU_VIELE_ZEILEN_ZUM_AKTUALISIEREN
SQLSTATE: nicht zugewiesen
Zu viele Zeilen zum Aktualisieren, Aktualisierung wird abgebrochen.