Anmerkung
Der Zugriff auf diese Seite erfordert eine Genehmigung. Du kannst versuchen, dich anzumelden oder die Verzeichnisse zu wechseln.
Der Zugriff auf diese Seite erfordert eine Genehmigung. Du kannst versuchen , die Verzeichnisse zu wechseln.
Gilt für:
Databricks SQL
Databricks Runtime 12.2 und höher
Fehlerbedingungen sind beschreibende, lesbare Zeichenfolgen, die für den von ihnen beschriebenen Fehler eindeutig sind.
Sie können Fehlerbedingungen verwenden, um Fehler in Ihrer Anwendung programmgesteuert zu behandeln, ohne die Fehlermeldung zu analysieren.
Dies ist eine Liste allgemeiner, benannter Fehlerbedingungen, die von Azure Databricks zurückgegeben werden.
Databricks Runtime und Databricks SQL
ADD_DEFAULT_UNSUPPORTED
Fehler beim Ausführen des <statementType> Befehls, da DEFAULT Werte beim Hinzufügen neuer Spalten zur zuvor vorhandenen Zieldatenquelle mit Dem Tabellenanbieter nicht unterstützt werden: "<dataSource>".
AGGREGATFUNKTION_IN_VERSCHACHTELTEN_REFERENZEN_NICHT_UNTERSTÜTZT
Erkannte Aggregatfunktionen in äußeren Bereichsreferenzen <expression>, die nicht unterstützt werden.
AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION
Nicht deterministischer Ausdruck <sqlExpr> sollte nicht in den Argumenten einer Aggregatfunktion angezeigt werden.
AI_FUNCTION_HTTP_PARSE_CAST_ERROR
Fehler beim Analysieren der Modellausgabe beim Umwandeln in den angegebenen returnType: "<dataType>", Antwort JSON lautete: "<responseString>". Aktualisieren Sie den returnType so, dass er dem Inhalt des Typs entspricht, der durch die Antwort JSON dargestellt wird, und wiederholen Sie dann die Abfrage erneut. Ausnahme: <errorMessage>
AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR
Die tatsächliche Modellausgabe weist mehr als eine Spalte "<responseString>" auf. Der angegebene Rückgabetyp ["<dataType>"] weist jedoch nur eine Spalte auf. Aktualisieren Sie den returnType so, dass er dieselbe Anzahl von Spalten wie die Modellausgabe enthält, und wiederholen Sie dann die Abfrage erneut.
AI_FUNCTION_HTTP_REQUEST_ERROR
Fehler beim Ausführen einer HTTP-Anforderung für die Funktion <funcName>: <errorMessage>
AI_FUNCTION_INVALID_HTTP_RESPONSE
Ungültige HTTP-Antwort für Funktion <funcName>: <errorMessage>
AI_FUNCTION_INVALID_MAX_WORDS
Die maximale Anzahl von Wörtern muss eine nicht negative ganze Zahl sein, es wurde aber <maxWords> erhalten.
AI_FUNCTION_INVALID_MODEL_PARAMETERS
Die bereitgestellten Modellparameter (<modelParameters>) sind in der AI_QUERY Funktion zum Verarbeiten des Endpunkts "<endpointName>" ungültig.
Weitere Details finden Sie unter AI_FUNCTION_INVALID_MODEL_PARAMETERS
AI_FUNCTION_INVALID_RESPONSE_FORMAT_TYPE
KI-Funktion: "<functionName>" erfordert gültige <format> Zeichenfolge für responseFormat-Parameter, aber das folgende Antwortformat wurde gefunden: "<invalidResponseFormat>". Ausnahme: <errorMessage>
AI_FUNCTION_JSON_PARSE_ERROR
Fehler beim Analysieren der Antwort für die JSON Funktion <funcName>: <errorMessage>
AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR
Fehler beim Analysieren des Schemas für den dienstenden Endpunkt "<endpointName>": <errorMessage>, Antwort JSON lautete: "<responseJson>".
Legen Sie den returnType Parameter manuell in der AI_QUERY-Funktion fest, um die Schemaauflösung außer Kraft zu setzen.
AI_FUNCTION_REGISTRY_LOOKUP_FAILURE
Fehler beim dynamischen Auflösen der Funktion "<functionName>" aus der AI-Funktionsregistrierung.
AI_FUNCTION_UNSUPPORTED_ERROR
Die Funktion <funcName> wird in der aktuellen Umgebung nicht unterstützt. Sie ist nur in Databricks SQL Pro und Serverless verfügbar.
AI_FUNCTION_UNSUPPORTED_REQUEST
Fehler beim Auswerten der SQL-Funktion "<functionName>", da das angegebene Argument von <invalidValue> den Typ "<invalidDataType>" aufweist, aber nur die folgenden Typen unterstützt werden: <supportedDataTypes>. Aktualisieren Sie den Funktionsaufruf, um ein Argument vom Zeichenfolgentyp bereitzustellen, und wiederholen Sie die Abfrage erneut.
AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT
Ein nicht unterstütztes Antwortformat wurde gefunden.
Weitere Details finden Sie unter AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT.
AI_FUNCTION_UNSUPPORTED_RETURN_TYPE
KI-Funktion: "<functionName>" unterstützt den folgenden Typ nicht als Rückgabetyp: "<typeName>". Der Rückgabetyp muss ein gültiger SQL-Typ sein, der von Catalyst verstanden und von der KI-Funktion unterstützt wird. Aktuelle unterstützte Typen umfassen: <supportedValues>
AI_INVALID_ARGUMENT_VALUE_ERROR
Der angegebene Wert "<argValue>" wird von Argument "<argName>" nicht unterstützt. Unterstützte Werte sind: <supportedValues>
AI_QUERY_ENDPOINT_NOT_SUPPORT_STRUCTURED_OUTPUT
Erwartet wurde, dass der Aufgabentyp des Endpunkts „Chat“ für die Unterstützung strukturierter Ausgaben ist, aber es wurde "<taskType>" für den Endpunkt "<endpointName>" gefunden.
AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH
Die bereitgestellte "<sqlExpr>" wird vom Argument returnType nicht unterstützt.
AI_SEARCH_CONFLICTING_QUERY_PARAM_SUPPLY_ERROR
Konfliktierende Parameter für vector_search SQL-Funktion erkannt: <conflictParamNames>.<hint>
AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR
vector_search SQL-Funktion mit eingebettetem Spaltentyp <embeddingColumnType> wird nicht unterstützt.
AI_SEARCH_EMPTY_QUERY_PARAM_ERROR
vector_search Der SQL-Funktion fehlt der Abfrageeingabeparameter, bitte geben Sie mindestens einen von: <parameterNames>an.
AI_SEARCH_HYBRID_QUERY_PARAM_DEPRECATION_ERROR
Der Parameter query für die vector_search SQL-Funktion wird nicht für die hybrid Vektorsuche unterstützt. Verwenden Sie stattdessen query_text.
AI_SEARCH_HYBRID_TEXT_NOT_FOUND_ERROR
Der Abfragetext wurde in der sql-Funktion vector_search für hybrid Vektorsuche nicht gefunden. Geben Sie query_text an.
AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR
vector_search SQL-Funktion mit Indextyp <indexType> wird nicht unterstützt.
AI_SEARCH_MISSING_EMBEDDING_INPUT_ERROR
query_vector muss für index <indexName> angegeben werden, da sie keinem Einbettungsmodellendpunkt zugeordnet ist.
AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR
Fehler beim Materialisieren der SQL-Funktionsabfrage vector_search vom Spark-Typ <dataType> für native Scala-Objekte während der Anforderungscodierung: <errorMessage>.
AI_SEARCH_QUERY_TYPE_UNSUPPORTED_ERROR
vector_search SQL-Funktion mit Abfragetyp <unexpectedQueryType> wird nicht unterstützt. Geben Sie einen Typ aus <supportedQueryTypes> an.
AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR
vector_search SQL-Funktion mit num_results größer als <maxLimit> wird nicht unterstützt. Der angegebene Grenzwert ist <requestedLimit>. Versuchen Sie es bitte erneut mit num_results <= <maxLimit>
AI_TOP_DRIVERS_PARAM_OUT_OF_RANGE
Der Parameter ai_top_drivers<param> muss zwischen <lo> und <hi> liegen.
AI_TOP_DRIVERS_UNSUPPORTED_AGGREGATION_TYPE
ai_top_drivers unterstützt das <aggName> Aggregat nicht. Wählen Sie eines der folgenden unterstützten Aggregate aus: <allowed>.
AI_TOP_DRIVERS_UNSUPPORTED_DIMENSION_TYPE
ai_top_drivers unterstützt keine numerischen, Zuordnungs- oder Strukturdimensionsspalten. Die Spalte <colName> hat Typ <dataType>. Entfernen Sie diese Dimension, oder wandeln Sie sie in einen unterstützten Typ um.
AI_TOP_DRIVERS_UNSUPPORTED_LABEL_TYPE
ai_top_drivers erfordert, dass der Beschriftungsspalten-Typ boolesch ist. Die Spalte <colName> hat Typ <dataType>. Ändern Sie die Bezeichnungsspalte, oder wandeln Sie sie in einen unterstützten Typ um.
AI_TOP_DRIVERS_UNSUPPORTED_METRIC_TYPE
ai_top_drivers erfordert, dass der metrische Spaltentyp numerisch ist. Die Spalte <colName> hat Typ <dataType>. Ändern Sie die Metrikspalte, oder wandeln Sie sie in einen unterstützten Typ um.
ALL_PARAMETERS_MUST_BE_NAMED
Für die Verwendung von parametrisierten Namensabfragen müssen alle Parameter benannt werden. Parameter ohne Namen: <exprs>.
ALL_PARTITION_COLUMNS_NOT_ALLOWED
Nicht alle Spalten können als Partitionsspalten verwendet werden.
ALTER_SCHEDULE_DOES_NOT_EXIST
<scheduleType> einer Tabelle kann nicht geändert werden, ohne dass ein vorhandener Zeitplan oder Trigger vorhanden ist. Fügen Sie der Tabelle einen Zeitplan oder Trigger hinzu, bevor Sie versuchen, ihn zu ändern.
ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
ALTER TABLE <type> Spalte <columnName> gibt den Deskriptor "<optionName>" mehr als einmal an, was ungültig ist.
AMBIGUOUS_ALIAS_IN_NESTED_CTE
Der Name <name> ist im geschachtelten CTE mehrdeutig.
Bitte setzen Sie <config> auf "CORRECTED", damit der in der inneren CTE definierte Name Vorrang hat. Wenn sie auf "LEGACY" festgelegt ist, haben äußere CTE-Definitionen Vorrang.
Siehe „https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine“.
AMBIGUOUS_COLUMN_OR_FIELD
Spalte oder Feld <name> ist mehrdeutig und weist <n> Übereinstimmungen auf.
AMBIGUOUS_COLUMN_REFERENCE
Spalten-<name> ist mehrdeutig. Dies liegt daran, dass Sie mehrere DataFrames miteinander verknüpft haben, und einige dieser DataFrames sind identisch.
Diese Spalte verweist auf einen der DataFrames, aber Spark kann nicht herausfinden, welches element.
Bitte weisen Sie den DataFrames über DataFrame.alias unterschiedliche Namen zu, bevor Sie sie zusammenführen.
und geben Sie die Spalte mit qualifiziertem Namen an, z. B. df.alias("a").join(df.alias("b"), col("a.id") > col("b.id")).
AMBIGUOUS_CONSTRAINT
Mehrdeutige Referenz auf Einschränkung <constraint>.
AMBIGUOUS_LATERAL_COLUMN_ALIAS
Der Alias der Lateral-Spalte <name> ist mehrdeutig und weist <n> Übereinstimmungen auf.
AMBIGUOUS_REFERENCE
Der Verweis <name> ist mehrdeutig, könnte <referenceNames>sein.
AMBIGUOUS_REFERENCE_TO_FIELDS
Mehrdeutiger Verweis auf das Feld <field>. Es erscheint <count> Mal im Schema.
ANALYZE_CONSTRAINTS_NOT_SUPPORTED
ANALYZE CONSTRAINTS wird nicht unterstützt.
ANALYZE_TABLE_COMPUTE_STORAGE_METRICS_NOT_SUPPORTED
ANALYZE TABLE COMPUTE STORAGE METRICS wird nicht unterstützt. Wenden Sie sich an Ihr Databricks-Supportteam, um diesen Arbeitsbereich zu registrieren.
ANSI_CONFIG_CANNOT_BE_DISABLED
Die ANSI SQL-Konfiguration <config> kann in diesem Produkt nicht deaktiviert werden.
EINMAL_ANKETTEN_AUS_BATCH_ABFRAGE
Verwenden Sie den Stream()-Operator.
Das Erstellen einer Streamingtabelle aus einer Batchabfrage verhindert das inkrementelle Laden neuer Daten aus der Quelle. Fehlerhafte Tabelle: '<table>'.
Beispielverwendung:
CREATE STREAMING TABLE <target table name>
...
AS SELECT
...
FROM stream(<source table name>) ...
APPROX_TOP_K_INVALID_NUM_OF_ARGUMENTS
approx_top_kerwartet 1 bis 3 Argumente, hat aber .<argNum>
APPROX_TOP_K_MAX_ITEMS_TRACKED_EXCEEDS_LIMIT
Die maximal nachverfolgten maxItemsTracked(<maxItemsTracked>) approx_top_k Elemente sollten kleiner oder gleich <limit>sein.
APPROX_TOP_K_MAX_ITEMS_TRACKED_LESS_THAN_K
Die maximal nachverfolgten maxItemsTracked(<maxItemsTracked>) approx_top_k Elemente sollten größer oder gleich k(<k>) sein.
APPROX_TOP_K_NON_POSITIVE_ARG
Der Wert von <argName> in approx_top_k muss eine positive ganze Zahl sein, aber erhalten <argValue>.
APPROX_TOP_K_NULL_ARG
Der Wert von <argName> "in approx_top_k " darf nicht sein NULL.
APPROX_TOP_K_SKETCH_SIZE_NOT_MATCH
Das Kombinieren approx_top_k Skizzen unterschiedlicher Größen ist nicht zulässig. Gefundene Skizzen von Größe <size1> und <size2>.
APPROX_TOP_K_SKETCH_TYPE_NOT_MATCH
Das Kombinieren approx_top_k Skizzen verschiedener Typen ist nicht zulässig. Gefundene Skizzen vom Typ <type1> und <type2>.
AQE_THREAD_INTERRUPTED
Der AQE-Thread wird unterbrochen, wahrscheinlich aufgrund des Abbruchs von Abfragen durch den Benutzer.
ARGUMENT_NOT_CONSTANT
Die Funktion <functionName> enthält einen Parameter <parameterName> an position <pos>, der ein konstantes Argument erfordert. Berechnen Sie das Argument <sqlExpr> separat, und übergeben Sie das Ergebnis als Konstante.
ARITHMETIC_OVERFLOW
<message>.
<alternative> Legen Sie <config> bei Bedarf auf "false" fest, um diesen Fehler zu umgehen.
Weitere Details finden Sie unter ARITHMETIC_OVERFLOW.
ARROW_TYPE_MISMATCH
Ungültiges Schema von <operation>: erwartet <outputTypes>, erhalten <actualDataTypes>.
ARTIFACT_ALREADY_EXISTS
Das Artefakt <normalizedRemoteRelativePath> ist bereits vorhanden. Wählen Sie einen anderen Namen für das neue Artefakt aus, da es nicht überschrieben werden kann.
ASSIGNMENT_ARITY_MISMATCH
Die Anzahl der Spalten oder Variablen, die zugewiesen oder aliasiert werden: <numTarget> stimmt nicht mit der Anzahl der Quellausdrücke überein: <numExpr>.
AS_OF_JOIN
Ungültiger As-of-Join.
Weitere Details finden Sie unter AS_OF_JOIN.
ATTEMPT_ANALYSIS_IN_PIPELINE_QUERY_FUNCTION
Vorgänge, die die DataFrame-Analyse oder -Ausführung auslösen, sind in Pipelineabfragefunktionen nicht zulässig. Verschieben von Code außerhalb der Pipelineabfragefunktion.
AUTOCOMMIT_BEGIN_TRANSACTION_DURING_AUTOCOMMIT_TRANSACTION
Eine neue Transaktion kann nicht gestartet werden, während eine implizite Transaktion SET AUTOCOMMIT=FALSE aktiv ist.
COMMIT oder ROLLBACK die aktuelle Transaktion zuerst und SET AUTOCOMMIT=TRUE vor dem Starten einer neuen Transaktion.
AUTOCOMMIT_NOT_SUPPORTED
Das AUTOCOMMIT Modusfeature wird derzeit entwickelt und wird für Databricks noch nicht unterstützt.
AUTOCOMMIT_OLD_SQL_EDITOR_NOT_SUPPORTED
AUTOCOMMIT Im älteren SQL-Editor kann nicht auf sie zugegriffen oder geändert werden. Wechseln Sie zum neuen SQL-Editor (<docLink>) oder verwenden Sie ein Notizbuch, das mit einem Databricks SQL Warehouse verbunden ist.
AUTOCOMMIT_ONLY_SUPPORTED_IN_DBSQL
AUTOCOMMIT kann nur in Databricks SQL Warehouses zugegriffen oder geändert werden.
AUTOCOMMIT_SET_DURING_ACTIVE_TRANSACTION
SET AUTOCOMMIT ist während einer aktiven Transaktion nicht zulässig. Commit oder Rollback zuerst.
AUTOCOMMIT_SET_FALSE_ALREADY_DISABLED
SET AUTOCOMMIT=FALSE ist nicht zulässig, wenn AUTOCOMMIT sie bereits deaktiviert ist. Diese Einschränkung verhindert Verwirrung und hält Transaktionsgrenzen klar.
AUTOCOMMIT_SET_TRUE_DURING_AUTOCOMMIT_TRANSACTION
SET AUTOCOMMIT=TRUE ist nicht zulässig, nachdem Anweisungen in einer impliziten Transaktion ausgeführt wurden, die von SET AUTOCOMMIT=FALSE. Sie ist nur unmittelbar nach SET AUTOCOMMIT=FALSE (vor Anweisungen) oder nach oder ROLLBACKnach COMMIT .
AUTO_TTL_COLUMN_NOT_FOUND
Ungültiges Tabellenschema für Auto-TTL. Die Auto-TTL-Spalte <column> wurde nicht gefunden.
AUTO_TTL_COLUMN_TYPE_NOT_SUPPORTED
Auto-TTL-Spalte <column> hat Typ <type> , der ungültig ist. Der Spaltentyp muss einer von TIMESTAMP, TIMESTAMP_NTZ, oder DATE.
AUTO_TTL_FEATURE_NOT_ENABLED
Wenden Sie sich an Ihren Databricks-Vertreter, um die Auto-TTL-Funktion zu aktivieren.
AUTO_TTL_INCOMPLETE_SETTING
Um auto-TTL für eine Tabelle festzulegen, sind beide Tabelleneigenschaften autottl.timestampColumnautottl.expireInDays erforderlich, fehlen jedoch <missing> .
AUTO_TTL_INVALID_COLUMN_CHANGE
Spalte <column> kann nicht sein <operation> , da sie in der Definition von Auto-TTL verwendet wird.
AUTO_TTL_NOT_SUPPORT_SHALLOW_CLONES
Auto-TTL wird in flachen Klontabellen nicht unterstützt.
AUTO_TTL_NOT_SUPPORT_TABLES_HAVING_SHALLOW_CLONES
Auto-TTL wird für Tabellen mit flachen Klonen nicht unterstützt.
AUTO_TTL_REQUIRES_PREDICTIVE_OPTIMIZATION
Auto-TTL erfordert, dass die Predictive Optimization aktiviert ist.
AUTO_TTL_REQUIRES_UC_MANAGED_TABLE
Auto-TTL wird nur in verwalteten UC-Tabellen unterstützt.
AVRO_CANNOT_WRITE_NULL_FIELD
Der Nullwert für das Feld <name> , das als Nicht-Null-Avro-Datentyp <dataType>definiert ist, kann nicht geschrieben werden.
Um einen Null-Wert für dieses Feld zuzulassen, geben Sie das Avro-Schema als Union-Typ mit „null“ mithilfe der Option avroSchema an.
AVRO_DEFAULT_VALUES_UNSUPPORTED
Die Verwendung von Standardwerten wird nicht unterstützt, wennrescuedDataColumn aktiviert ist. Sie können diese Überprüfung möglicherweise entfernen, indem Sie spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue auf "false" festlegen, die Standardwerte werden jedoch nicht angewendet, und NULL-Werte werden weiterhin verwendet.
AVRO_INCOMPATIBLE_READ_TYPE
Avro <avroPath> kann nicht in SQL <sqlPath> konvertiert werden, da der ursprüngliche codierte Datentyp lautet <avroType>. Sie versuchen jedoch, das Feld als <sqlType>zu lesen, was zu einer falschen Antwort führen würde.
Um das Lesen dieses Felds zuzulassen, aktivieren Sie die SQL-Konfiguration: „spark.sql.legacy.avro.allowIncompatibleSchema”.
AVRO_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE
Die <functionName> SQL-Funktion kann nicht aufgerufen werden, da die Avro-Datenquelle nicht geladen wird.
Starten Sie den Auftrag oder die Sitzung neu, indem Sie das Paket "spark-avro" laden, z. B. mithilfe des Arguments "--packages" in der Befehlszeile, und wiederholen Sie dann die Abfrage oder den Befehl.
AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED
Die Verwendung des Positionsfeldabgleichs wird nicht unterstützt, wenn entweder rescuedDataColumn oder failOnUnknownFields aktiviert ist. Entfernen Sie diese Optionen, um fortzufahren.
AZURE_INVALID_CREDENTIALS_CONFIGURATION
Azure Key Provider oder Anmeldeinformationen sind falsch konfiguriert. Grund: <causedBy>.
BATCH_METADATA_NOT_FOUND
Batch-<batchMetadataFile>konnte nicht gefunden werden.
BIGQUERY_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
Fehler bei der Überprüfung der BigQuery-Datenquellenoption(n).
Weitere Informationen finden Sie unter BIGQUERY_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE
BigQuery-Verbindungsanmeldeinformationen müssen entweder mit dem Parameter „GoogleServiceAccountKeyJson“ oder „projectId“, „OAuthServiceAcctEmail“, „OAuthPvtKey“ angegeben werden.
BINARY_ARITHMETIC_OVERFLOW
<value1> <symbol> <value2> verursachte Überlauf. Verwenden Sie <functionName>, um das Überlaufproblem zu ignorieren und NULLzurückzugeben.
BUILT_IN_CATALOG
<operation> unterstützt keine integrierten Kataloge.
CALL_ON_STREAMING_DATASET_UNSUPPORTED
Die Methode <methodName> kann nicht für Streaming-Dataset/DataFrame aufgerufen werden.
CANNOT_ALTER_COLLATION_BUCKET_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN kann die Sortierung von Typ/Untertypen von Bucket-Spalten nicht ändern, hat aber die Bucketspalte <columnName> in der Tabelle <tableName> gefunden.
CANNOT_ALTER_PARTITION_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN wird für Partitionsspalten nicht unterstützt, aber es wurde die Partitionsspalte <columnName> in der Tabelle <tableName>gefunden.
CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK
Um die Spalte für die Ereigniszeit neu zuzuweisen, muss ein Wasserzeichen definiert werden. Die Wasserzeichendefinition in der Streamingabfrage konnte nicht gefunden werden.
CANNOT_CAST_DATATYPE
<sourceType> kann nicht in <targetType>umgestellt werden.
CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE
Protobuf-<protobufColumn> kann nicht in SQL-<sqlColumn> konvertiert werden, da das Schema nicht kompatibel ist (protobufType = <protobufType>, sqlType = <sqlType>).
CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE
<protobufType> von Protobuf kann nicht in SQL-Typ <toType>konvertiert werden.
CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE
SQL-<sqlColumn> kann nicht in Protobuf-<protobufColumn> konvertiert werden, da das Schema nicht kompatibel ist (protobufType = <protobufType>, sqlType = <sqlType>).
CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE
SQL-<sqlColumn> kann nicht in Protobuf-<protobufColumn> konvertiert werden, da <data> nicht unter den definierten Werten für Enum: <enumString>ist.
CANNOT_COPY_STATE
Der Katalogstatus kann nicht wie aktuelle Datenbank und temporäre Ansichten aus dem Unity-Katalog in einen Legacykatalog kopiert werden.
CANNOT_CREATE_DATA_SOURCE_TABLE
Fehler beim Erstellen der Datenquellentabelle <tableName>:
Weitere Details finden Sie unter CANNOT_CREATE_DATA_SOURCE_TABLE.
CANNOT_DECODE_URL
Die angegebene URL kann nicht decodiert werden: <url>. Stellen Sie sicher, dass die URL ordnungsgemäß formatiert ist, und versuchen Sie es erneut.
CANNOT_DELETE_SYSTEM_OWNED
Der systemeigene <resourceType> kann nicht gelöscht werden.
CANNOT_DROP_AMBIGUOUS_CONSTRAINT
Die Einschränkung mit dem Namen <constraintName>, der gemeinsam mit einer CHECK-Einschränkung
und einer PRIMARY KEY-oder FOREIGN KEY-Einschränkung verwendet wird, kann nicht getrennt werden. Sie können die PRIMARY KEY- oder
FOREIGN KEY-Beschränkung durch folgende Abfragen trennen:
ALTER TABLE ..
DROP PRIMARY KEY oder
ALTER TABLE ..
DROP FOREIGN KEY ..
CANNOT_DROP_BASE_TABLE_REFERENCED_BY_SHALLOW_CLONE (Basis-Tabelle kann nicht gelöscht werden, da sie von einem Shallow Clone referenziert wird)
Tabelle <baseTable> kann nicht abgelegt werden, da sie von einem oder mehreren flachen Klonen referenziert wird: <cloneList>.
DROP alle flachen Klone vor dem Ablegen der Basistabelle. Wenn dies nicht möglich ist, sollten Sie "" verwendenDROP TABLE...FORCE, um die Tabelle erzwungen abzulegen.
WARNING: Dadurch werden alle vorhandenen Shallow-Clone-Verweise sofort abgebrochen und unbrauchbar.
CANNOT_ESTABLISH_CONNECTION
Eine Verbindung zur Remotedatenbank <jdbcDialectName> kann nicht hergestellt werden. Überprüfen Sie Verbindungsinformationen und Anmeldeinformationen, z. B. Host-, Port-, Benutzer-, Kennwort- und Datenbankoptionen. ** Wenn Sie der Meinung sind, dass die Informationen korrekt sind, überprüfen Sie bitte die Netzwerkeinrichtung Ihres Arbeitsbereichs, und stellen Sie sicher, dass sie keine ausgehenden Einschränkungen für den Host hat. Überprüfen Sie auch, ob der Host eingehende Verbindungen nicht vom Netzwerk blockiert, in dem die Spark-Cluster des Arbeitsbereichs bereitgestellt werden. ** Detaillierte Fehlermeldung: <causeErrorMessage>.
CANNOT_ESTABLISH_CONNECTION_SERVERLESS
Eine Verbindung zur Remotedatenbank <jdbcDialectName> kann nicht hergestellt werden. Überprüfen Sie Verbindungsinformationen und Anmeldeinformationen, z. B. Host-, Port-, Benutzer-, Kennwort- und Datenbankoptionen. ** Wenn Sie der Meinung sind, dass die Informationen korrekt sind, lassen Sie den eingehenden Datenverkehr vom Internet an Ihren Host zu, während Sie Serverless Compute verwenden. Wenn Ihre Netzwerkrichtlinien eingehenden Internetdatenverkehr nicht zulassen, verwenden Sie bitte nicht Serverless Compute, oder Wenden Sie sich an Ihren Databricks-Vertreter, um mehr über Serverless Private Networking zu erfahren. ** Detaillierte Fehlermeldung: <causeErrorMessage>.
CANNOT_ESTABLISH_CONNECTION_TO_HOST
Es kann keine Verbindung hergestellt <protocol> werden mit <host>. Überprüfen Sie die Netzwerkeinrichtung Ihres Arbeitsbereichs, und stellen Sie sicher, dass sie keine ausgehenden Einschränkungen für den Host hat. Überprüfen Sie auch, ob der Host eingehende Verbindungen vom Netzwerk, in dem die Cluster des Arbeitsbereichs bereitgestellt werden, nicht blockiert.
CANNOT_INVOKE_IN_TRANSFORMATIONS
Datasettransformationen und -aktionen können nur vom Treiber aufgerufen werden, nicht innerhalb anderer Datasettransformationen; Beispielsweise ist "dataset1.map(x => dataset2.values.count() * x") ungültig, da die Wertetransformation und die Anzahlaktion nicht innerhalb der Dataset1.map-Transformation ausgeführt werden können. Weitere Informationen finden Sie unter SPARK-28702.
CANNOT_LOAD_CHECKPOINT_FILE_MANAGER
Fehler beim Laden des Streaming-Checkpoint-Dateimanagers für path=<path>.
Weitere Informationen finden Sie unter CANNOT_LOAD_CHECKPOINT_FILE_MANAGER
CANNOT_LOAD_FUNCTION_CLASS
Klasse <className> beim Registrieren der Funktion <functionName>kann nicht geladen werden. Stellen Sie sicher, dass sie sich auf dem Klassenpfad befindet.
CANNOT_LOAD_PROTOBUF_CLASS
Die Protobuf-Klasse mit dem Namen <protobufClassName>konnte nicht geladen werden.
<explanation>.
CANNOT_LOAD_STATE_STORE
Beim Laden des Zustands ist ein Fehler aufgetreten.
Weitere Details finden Sie unter CANNOT_LOAD_STATE_STORE.
CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE
Fehler beim Zusammenführen inkompatibler Datentypen <left> und <right>. Überprüfen Sie die Datentypen der zusammengeführten Spalten, und stellen Sie sicher, dass sie kompatibel sind. Ziehen Sie bei Bedarf die Umwandlung der Spalten in kompatible Datentypen in Betracht, bevor Sie die Zusammenführung versuchen.
CANNOT_MERGE_SCHEMAS
Fehler beim Zusammenführen von Schemas:
Anfängliches Schema:
<left>
Schema, das nicht mit dem ursprünglichen Schema zusammengeführt werden kann:
<right>.
CANNOT_MODIFY_CONFIG
Der Wert der Spark-Konfiguration kann nicht geändert werden: <key>.
Siehe auch „https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements“.
CANNOT_MODIFY_STATIC_CONFIG
Der Wert der statischen Spark-Konfiguration kann nicht geändert werden: <key>.
CANNOT_PARSE_DECIMAL
Dezimalwerte können nicht geparst werden. Bitte stellen Sie sicher, dass die Eingabe eine gültige Zahl mit optionalem Dezimalpunkt oder Dezimalkomma ist.
CANNOT_PARSE_INTERVAL
<intervalString> kann nicht analysiert werden. Stellen Sie sicher, dass der angegebene Wert in einem gültigen Format zum Definieren eines Intervalls enthalten ist. Sie können auf die Dokumentation für das richtige Format verweisen. Wenn das Problem weiterhin besteht, überprüfen Sie bitte, ob der Eingabewert nicht null oder leer ist, und versuchen Sie es erneut.
CANNOT_PARSE_JSON_FIELD
Der Feldname <fieldName> und der Wert <fieldValue> des JSON Tokentyps <jsonType> können nicht auf den Spark-Datentyp <dataType>analysiert werden.
CANNOT_PARSE_PROTOBUF_DESCRIPTOR
Fehler beim Analysieren von Deskriptorbytes in Protobuf FileDescriptorSet.
CANNOT_PARSE_TIME
Die Eingabezeichenfolge <input> kann nicht in einen TIME-Wert analysiert werden, da sie nicht mit dem Datetime-Format <format>übereinstimmt.
CANNOT_PARSE_TIMESTAMP
<message>. Verwenden Sie <func>, um eine ungültige Eingabezeichenfolge zu tolerieren und stattdessen NULL zurückzugeben.
CANNOT_QUERY_TABLE_DURING_INITIALIZATION
MV/ST kann während der Initialisierung nicht abgerufen werden.
Weitere Informationen finden Sie unter CANNOT_QUERY_TABLE_DURING_INITIALIZATION.
CANNOT_READ_ARCHIVED_FILE
Die Datei kann nicht im Pfad <path> gelesen werden, da sie archiviert wurde. Passen Sie Die Abfragefilter an, um archivierte Dateien auszuschließen.
CANNOT_READ_FILE
Die <format>-Datei kann nicht gelesen werden unter Pfad: <path>.
Weitere Informationen finden Sie unter CANNOT_READ_FILE
CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER
Vertraulicher Schlüssel "<key>" kann nicht vom sicheren Anbieter gelesen werden.
CANNOT_RECOGNIZE_HIVE_TYPE
Die Strukturtypzeichenfolge kann nicht erkannt werden: <fieldType>, Spalte: <fieldName>. Der angegebene Datentyp für das Feld kann von Spark SQL nicht erkannt werden. Überprüfen Sie den Datentyp des angegebenen Felds, und stellen Sie sicher, dass es sich um einen gültigen Spark SQL-Datentyp handelt. Eine Liste der gültigen Datentypen und deren Format finden Sie in der Spark SQL-Dokumentation. Wenn der Datentyp korrekt ist, stellen Sie sicher, dass Sie eine unterstützte Version von Spark SQL verwenden.
CANNOT_REFERENCE_UC_IN_HMS
Auf einen Unity-Katalog <objType> in Hive-Metastore-Objekten kann nicht verwiesen werden.
CANNOT_REMOVE_RESERVED_PROPERTY
Reservierte Eigenschaft kann nicht entfernt werden: <property>.
CANNOT_RENAME_ACROSS_CATALOG
Das Umbenennen einer <type> über Kataloge hinweg ist nicht zulässig.
CANNOT_RENAME_ACROSS_SCHEMA
Das Umbenennen einer <type> über Schemas hinweg ist nicht zulässig.
CANNOT_RESOLVE_DATAFRAME_COLUMN
DataFrame-Spalte <name>kann nicht identifiziert werden. Es liegt wahrscheinlich an illegalen Verweisen wie df1.select(df2.col("a")).
CANNOT_RESOLVE_STAR_EXPAND
<targetString>.* kann anhand der Eingabespalten <columns> nicht aufgelöst werden. Überprüfen Sie, ob die angegebene Tabelle oder Struktur vorhanden ist und auf die Eingabespalten zugegriffen werden kann.
CANNOT_RESTORE_PERMISSIONS_FOR_PATH
Fehler beim Festlegen von Berechtigungen für den erstellten Pfad <path> zurück zu <permission>.
CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS
Tabellen können zwischen Unity Catalog und Hive-Metastore nicht flach geklont werden.
CANNOT_SHALLOW_CLONE_AUTO_TTL
Eine Tabelle <table> , die auto-TTL aktiviert ist, kann nicht flach geklont werden.
CANNOT_SHALLOW_CLONE_NESTED
Eine Tabelle <table>, die bereits ein flacher Klon ist, kann nicht flach geklont werden.
CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET
Shallow Clone ist nur für den MANAGED Tabellentyp zulässig. Die Tabelle <table> ist nicht MANAGED Tabelle.
CANNOT_UPDATE_FIELD
Das <table>-Feld vom <fieldName>-Typ kann nicht aktualisiert werden:
Weitere Informationen finden Sie unter FELD_NICHT_AKTUALISIERBAR
CANNOT_UPDATE_PARTITION_COLUMNS
Die deklarierte Partitionierung steht <requestedPartitionColumns> in Konflikt mit der vorhandenen Tabellenpartitionierung <existingPartitionColumns>.
Löschen Sie die Tabelle, oder ändern Sie die deklarierte Partitionierung so, dass sie ihren Partitionen entspricht.
CANNOT_UP_CAST_DATATYPE
<expression> kann nicht von <sourceType> in <targetType> umgewandelt werden.
<details>
CANNOT_USE_KRYO
Der Kryo-Serialisierungscodec kann nicht geladen werden. Die Kryo-Serialisierung kann nicht im Spark Connect-Client verwendet werden. Verwenden Sie die Java-Serialisierung, stellen Sie stattdessen einen benutzerdefinierten Codec bereit, oder verwenden Sie stattdessen Spark Classic.
CANNOT_USE_MULTI_ALIASES_IN_WATERMARK_CLAUSE
Mehrere Aliase werden in der Wasserzeichenklausel nicht unterstützt.
KANN_DEN_RESERVIERTEN_STREAMING_ANBIETER_NAME_NICHT_VERWENDEN
Reservierter Streaminganbietername kann nicht verwendet werden: <providerName>.
CANNOT_VALIDATE_CONNECTION
Die Überprüfung der <jdbcDialectName>-Verbindung wird nicht unterstützt. Wenden Sie sich an die Databricks-Unterstützung für alternative Lösungen, oder legen Sie "spark.databricks.testConnectionBeforeCreation" auf "false" fest, um verbindungstests zu überspringen, bevor Sie ein Verbindungsobjekt erstellen.
CANNOT_WRITE_STATE_STORE
Fehler beim Schreiben von Zustandsspeicherdateien für Anbieter <providerClass>.
Weitere Informationen finden Sie unter CANNOT_WRITE_STATE_STORE.
CAST_INVALID_INPUT
Der Wert <expression> des Typs <sourceType> kann nicht in <targetType> umgewandelt werden, da er fehlerhaft ist. Korrigieren Sie den Wert gemäß der Syntax, oder ändern Sie den Zieltyp. Verwenden Sie try_cast, um falsch formatierte Eingaben zu tolerieren und stattdessen NULL zurückzugeben.
Weitere Details finden Sie unter CAST_INVALID_INPUT.
CAST_OVERFLOW
Der Wert <value> des Typs <sourceType> kann aufgrund eines Überlaufs nicht in <targetType> umgewandelt werden. Verwenden Sie try_cast, um Überlauf zu tolerieren und stattdessen NULL zurückzugeben.
CAST_OVERFLOW_IN_TABLE_INSERT
Aufgrund eines Überlaufs konnte kein Wert vom Typ <sourceType> der <targetType>-Typspalte oder Variablen <columnName> zugewiesen werden. Verwenden Sie try_cast für den Eingabewert, um Überlauf zu tolerieren und stattdessen NULL zurückzugeben.
CATALOG_CONVERSION_FOREIGN_ENTITY_PRESENT
Fehler bei der Katalogkonvertierung von UC Foreign in UC Standard, da der Katalog fremde Entitäten enthält (bis zu 10 sind hier dargestellt): <entityNames>. Die vollständige Liste der fremden Entitäten in diesem Katalog finden Sie in der Befehlsdokumentation zu denALTER CATALOG DROP CONNECTION Skripts.
CATALOG_CONVERSION_UNSUPPORTED_CATALOG_TYPE
Der Katalog kann nicht von UC Foreign in UC Standard konvertiert werden. Nur <convertableCatalogTypes> Fremd-UC-Kataloge können in UC Standard konvertiert werden.
CATALOG_NOT_FOUND
Der Katalog <catalogName> nicht gefunden. Erwägen Sie, die SQL-Konfiguration <config> auf ein Katalog-Plug-In festzulegen.
CATALOG_OWNED_TABLE_CREATION_NOT_ALLOWED
Das Erstellen von Delta-Tabellen mit <feature> Tabellenfunktion ist nicht zulässig. Wenden Sie sich bitte an den Databricks-Support.
CHECKPOINT_DIR_NOT_SET
Das Prüfpunktverzeichnis wurde im SparkContext nicht festgelegt.
Bitte legen Sie sie mit SparkContext.setCheckpointDir().
CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND
Prüfpunktblock <rddBlockId> nicht gefunden!
Entweder der Executor, der die Prüfpunkte für diese Partition ursprünglich festgelegt hat, ist nicht mehr aktiv, oder die ursprüngliche RDD wird nicht beständig gespeichert.
Wenn dieses Problem weiterhin besteht, können Sie stattdessen rdd.checkpoint() verwenden, was langsamer ist als lokale Prüfpunkte, aber fehlertoleranter.
CHECK_CONSTRAINT_VIOLATION
Verstoß gegen CHECK-Einschränkung <constraintName> <expression> durch Zeile mit Werten:
<values>
CIRCULAR_CLASS_REFERENCE
In einer Klasse dürfen keine Zirkelbezüge vorhanden sein, aber in Klasse <t> wurde ein Zirkelbezug gefunden.
CLASS_NOT_OVERRIDE_EXPECTED_METHOD
<className> muss entweder <method1> oder <method2>überschreiben.
CLASS_UNSUPPORTED_BY_MAP_OBJECTS
MapObjects unterstützt die Klasse <cls> nicht als resultierende Sammlung.
CLEANROOM_COMMANDS_NOT_SUPPORTED
Clean Room-Befehle werden nicht unterstützt.
CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME
Ungültiger Name, um in einem Reinraum auf einen <type> Verweis zu verweisen. Verwenden Sie einen <type>-Namen innerhalb des Reinraums im Format [Katalog].[Schema].[<type>].
Wenn Sie nicht sicher sind, welchen Namen Sie verwenden sollen, können Sie "SHOW ALL IN CLEANROOM [clean_room]" ausführen und den Wert in der Spalte "Name" verwenden.
CLONING_WITH_HISTORY_INVALID_OPTION
Das Klonen mit Verlauf wird mit einer ungültigen Option angegeben: <invalidOption>.
Gültige Syntax: CREATE (ODER REPLACE) TABLE ... DEEP CLONE...WITH HISTORY.
CLONING_WITH_HISTORY_UNSUPPORTED
Das Klonen mit Verlauf wird nicht unterstützt.
CLOUD_FILE_ALREADY_EXISTS
Clouddatei ist bereits vorhanden. Grund: <causedBy>.
CLOUD_FILE_NOT_FOUND
Die Clouddatei wurde nicht gefunden. Grund: <causedBy>.
CLOUD_FILE_SOURCE_FILE_NOT_FOUND
Für die Datei <filePath> wurde eine Dateibenachrichtigung empfangen, aber sie ist nicht mehr vorhanden. Stellen Sie sicher, dass Dateien nicht gelöscht werden, bevor sie verarbeitet werden. Um den Datenstrom fortzusetzen, können Sie die Spark SQL-Konfiguration <config> auf "true" festlegen.
CLOUD_PROVIDER_ERROR
Cloudanbieterfehler: <message>
CLUSTERING_COLUMNS_MISMATCH
Das angegebene Clustering stimmt nicht mit der der vorhandenen Tabelle <tableName>überein.
Angegebene Clusteringspalten: [<specifiedClusteringString>].
Vorhandene Clusteringspalten: [<existingClusteringString>].
CLUSTERING_NOT_SUPPORTED
"<operation>" unterstützt keine Clustering.
CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED
Wenden Sie sich bitte an Ihren Databricks-Vertreter, um die Cluster-by-Auto-Funktion zu aktivieren.
CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED
Bitte aktivieren Sie clusteringTable.enableClusteringTableFeature, um CLUSTER BY AUTO zu verwenden.
CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION
CLUSTER BY AUTO erfordert, dass die Predictive Optimization aktiviert ist.
CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR
CLUSTER BY AUTO wird nur in verwalteten UC-Tabellen unterstützt.
CODEC_NOT_AVAILABLE
Der Codec <codecName> ist nicht verfügbar.
Weitere Details finden Sie unter CODEC_NOT_AVAILABLE
CODEC_SHORT_NAME_NOT_FOUND
Es wurde kein Kurzname für den Codec <codecName>gefunden.
COLLATION_INVALID_NAME
Der Wert <collationName> stellt keinen korrekten Sortiernamen dar. Vorgeschlagene gültige Sortierungsnamen: [<proposals>].
COLLATION_INVALID_PROVIDER
Der Wert <provider> stellt keinen korrekten Sortieranbieter dar. Unterstützte Anbieter sind: [<supportedProviders>].
COLLATION_MISMATCH
Es konnte nicht ermittelt werden, welche Sortierung für Zeichenfolgenfunktionen und Operatoren verwendet werden soll.
Weitere Details finden Sie unter COLLATION_MISMATCH.
COLLECTION_SIZE_LIMIT_EXCEEDED
Array kann nicht mit <numberOfElements> Elementen erstellt werden, die den Grenzwert für die Arraygröße <maxRoundedArrayLength>überschreiten,
Weitere Details finden Sie unter COLLECTION_SIZE_LIMIT_EXCEEDED.
COLUMN_ALIASES_NOT_ALLOWED
Spaltenaliasen sind in <op>nicht zulässig.
COLUMN_ALREADY_EXISTS
Die Spalte <columnName> ist bereits vorhanden. Wählen Sie einen anderen Namen aus, oder benennen Sie die vorhandene Spalte um.
COLUMN_ARRAY_ELEMENT_TYPE_MISMATCH
Einige Werte im Feld <pos> sind mit dem Spaltenarraytyp nicht kompatibel. Erwarteter Typ <type>.
COLUMN_MASKS_ABAC_MISMATCH
Spaltenformate konnten für <tableName> nicht aufgelöst werden, da zwischen Spaltenformaten, die von Richtlinien geerbt wurden, und explizit definierten Spaltenformaten ein Konflikt aufgetreten ist. Um fortzufahren, deaktivieren Sie bitte die Attributbasierte Zugriffssteuerung (Attribute Based Access Control, ABAC), und wenden Sie sich an den Databricks-Support.
COLUMN_MASKS_Prüfbedingung_nicht_unterstützt
Das Erstellen einer CHECK-Einschränkung für Tabelle <tableName> mit Spaltenmaskenrichtlinien wird nicht unterstützt.
COLUMN_MASKS_DUPLIZIEREN_UNTER_VERWENDUNG_VON_SPALTENNAMEN
Eine <statementType>-Anweisung hat versucht, einer Spalte eine Spaltenmaskenrichtlinie zuzuweisen, die mindestens zwei andere referenzierte Spalten aus der Liste USING COLUMNS mit demselben Namen <columnName> enthielt. Dies ist ungültig.
COLUMN_MASKS_FUNKTION_NICHT_UNTERSTÜTZT
Spaltenmaskierungsrichtlinien für <tableName> werden nicht unterstützt:
Weitere Details finden Sie unter COLUMN_MASKS_FEATURE_NOT_SUPPORTED.
COLUMN_MASKS_INKOMPATIBLE_SCHEMA_ÄNDERUNG
<statementType> <columnName> aus Tabelle <tableName> nicht möglich, da in einer Spaltenmaskenrichtlinie für Spalte <maskedColumn> darauf verwiesen wird. Die Person im Besitz der Tabelle muss vor dem Fortfahren diese Richtlinie entfernen oder ändern.
COLUMN_MASKS_ZUSAMMENFÜHRUNG_NICHT_UNTERSTÜTZTE_QUELLE
MERGE INTO-Vorgänge unterstützen keine Spaltenmaskenrichtlinien in der Quelltabelle <tableName>.
COLUMN_MASKS_MERGE_UNTERSTÜTZTES_ZIEL_NICHT_MÖGLICH
MERGE INTO-Vorgänge unterstützen das Schreiben in die Tabelle <tableName> mit Spaltenmaskenrichtlinien nicht.
COLUMN_MASKS_MULTI_PART_ZIELSPALTENNAME
Diese Anweisung versuchte, einer Spalte <columnName> mit mehreren Namensbestandteilen eine Spaltenmaskenrichtlinie zuzuweisen, was ungültig ist.
COLUMN_MASKS_MEHRTEIL_UNTER_VERWENDUNG_VON_SPALTENNAMEN
Diese Anweisung versucht, einer Spalte eine Spaltenmaskenrichtlinie zuzuweisen, und in der USING COLUMNS-Liste ist der Name <columnName> mit mehreren Namensbestandteilen enthalten, was ungültig ist.
COLUMN_MASKS_NICHT_AKTIVIERT
Die Unterstützung für das Definieren von Spaltenmasken ist nicht aktiviert.
COLUMN_MASKS_REQUIRE_UNITY_CATALOG
Spaltenmaskenrichtlinien werden nur im Unity Catalog unterstützt.
COLUMN_MASKS_SECONDARY_INDEX_CREATION_UNSUPPORTED
Sekundärer Index ON TABLE <tableName> kann nicht erstellt werden, da die Tabelle Spaltenformatrichtlinien definiert hat.
COLUMN_MASKS_ANZEIGE_PARTITIONEN_NICHT_UNTERSTÜTZT
SHOW PARTITIONS Befehl wird für<format> Tabellen mit Spaltenmasken nicht unterstützt.
COLUMN_MASKS_TABELLE_KLON_QUELLE_NICHT_UNTERSTÜTZT
Ein <mode>-Klon aus der Tabelle <tableName> mit Spaltenmaskenrichtlinien wird nicht unterstützt.
COLUMN_MASKS_TABELLENKLONZIEL_NICHT_UNTERSTÜTZT
Ein <mode>-Klon in die Tabelle <tableName> mit Spaltenmaskenrichtlinien wird nicht unterstützt.
COLUMN_MASKS_NICHT_UNTERSTÜTZTE_KONSTANTE_ALS_PARAMETER
Die Verwendung einer Konstante als Parameter in einer Spaltenmaskenrichtlinie wird nicht unterstützt. Aktualisieren Sie den SQL-Befehl, um die Konstante aus der Spaltenformatdefinition zu entfernen, und wiederholen Sie dann den Befehl erneut.
COLUMN_MASKS_NICHT_UNTERSTÜTZTER_DATENTYP
Funktion <functionName> , die als Spaltenformatrichtlinie verwendet wird, enthält Parameter mit nicht unterstützten Datentypen <dataType>.
COLUMN_MASKS_NICHT_UNTERSTÜTZTER_ANBIETER
Fehler beim Ausführen des <statementType>-Befehls, da das Zuweisen von Spaltenmaskenrichlinien für eine Zieldatenquelle mit dem Tabellenanbieter <provider> nicht unterstützt wird.
COLUMN_MASKS_VERWENDET_SPALTENNAMEN_GLEICH_WIE_ZIELSPALTE
Die Spalte <columnName> denselben Namen wie die Zielspalte hatte, was ungültig ist; entfernen Sie die Spalte aus der liste USING COLUMNS, und wiederholen Sie den Befehl.
COLUMN_NOT_DEFINED_IN_TABLE
<colType> Spalte <colName> ist in Tabelle <tableName>nicht definiert, definierte Tabellenspalten sind: <tableCols>.
COLUMN_NOT_FOUND
Die Spalte <colName> wurde nicht gefunden. Überprüfen Sie die Schreib- und Korrektheit des Spaltennamens gemäß der SQL-Konfiguration <caseSensitiveConfig>.
COLUMN_NOT_FOUND_IN_TABLE
Spalte <columnName> in Tabelle <tableFullName>nicht gefunden.
COLUMN_ORDINAL_OUT_OF_BOUNDS
Spaltenordnungszahl liegt außerhalb der Grenzen. Die Anzahl der Spalten in der Tabelle ist <attributesLength>, die Spaltenordnungszahl ist jedoch <ordinal>.
Attribute sind die folgenden: <attributes>.
BEFEHL_NICHT_AKTIVIERT
<command> der Befehl ist nicht aktiviert.
COMMA_PRECEDING_CONSTRAINT_ERROR
Unerwartetes „,“ vor Einschränkungsdefinition. Stellen Sie sicher, dass die Einschränkungsklausel nicht mit einem Komma beginnt, wenn Spalten (und Erwartungen) nicht definiert sind.
COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET
Der Befehl COMMENT ON CONNECTION ist noch nicht implementiert.
COMPARATOR_RETURNS_NULL
Der Vergleichsoperator hat NULL für einen Vergleich zwischen <firstValue> und <secondValue> zurückgegeben.
Es sollte eine positive ganze Zahl für "größer als", 0 für "gleich" und eine negative ganze Zahl für "kleiner als" zurückgeben.
Wenn Sie zu dem veralteten Verhalten zurückkehren möchten, bei dem NULL als 0 (gleich) behandelt wird, müssen Sie "spark.sql.legacy.allowNullComparisonResultInArraySort" auf "true" setzen.
COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
Eingabedatentypen für den Ausdruck können nicht verarbeitet werden: <expression>.
Weitere Details finden Sie unter COMPLEX_EXPRESSION_UNSUPPORTED_INPUT.
CONCURRENT_QUERY
Eine weitere Instanz dieser Abfrage [ID: <queryId>] wurde gerade mit einer gleichzeitigen Sitzung gestartet [vorhandene runId: <existingQueryRunId> neue runId: <newQueryRunId>].
CONCURRENT_SCHEDULER_INSUFFICIENT_SLOT
Die Mindestanzahl der im Cluster erforderlichen kostenlosen Slots ist <numTasks>, der Cluster verfügt jedoch nur über <numSlots> Slots kostenlos. Die Abfrage zögert oder schlägt fehl. Erhöhen Sie die Clustergröße, um fortzufahren.
CONCURRENT_STREAM_LOG_UPDATE
Gleichzeitiges Aktualisieren des Protokolls. Für <batchId> wurden mehrere Streamingaufträge erkannt.
Stellen Sie sicher, dass jeweils nur ein Streamingauftrag an einem bestimmten Prüfpunktstandort ausgeführt wird.
CONFIG_NOT_AVAILABLE
Die Konfiguration <config> ist nicht verfügbar.
CONFLICTING_CLUSTER_CONFIGURATION
Die folgenden Konfigurationen verursachen einen Konflikt mit spark.databricks.streaming.realTimeMode.enabled: <confNames>. Entfernen Sie diese Konfigurationen aus der Clusterkonfiguration, und starten Sie den Spark-Cluster neu.
CONFLICTING_DIRECTORY_STRUCTURES
Konfliktierende Verzeichnisstrukturen erkannt.
Verdächtige Pfade:
<discoveredBasePaths>
Wenn bereitgestellte Pfade Partitionsverzeichnisse sind, legen Sie "basePath" in den Optionen der Datenquelle fest, um das Stammverzeichnis der Tabelle anzugeben.
Wenn mehrere Stammverzeichnisse vorhanden sind, laden Sie sie bitte separat, und trennen Sie sie dann.
CONFLICTING_PARTITION_COLUMN_NAMES
In Konflikt stehende Partitionsspaltennamen wurden erkannt:
<distinctPartColLists>
Bei partitionierten Tabellenverzeichnissen sollten Datendateien nur in Blattverzeichnissen vorhanden sein.
Und Ordner auf derselben Ebene sollten denselben Partitionsspaltennamen haben.
Überprüfen Sie die folgenden Verzeichnisse auf unerwartete Dateien oder inkonsistente Partitionsspaltennamen:
<suspiciousPaths>
CONFLICTING_PARTITION_COLUMN_NAME_WITH_RESERVED
Der Partitionsspaltenname "<partitionColumnName>" ist mit dem reservierten Spaltennamen in Konflikt.
Das Schema von <tableName> ist Hive-inkompatibel, daher generiert Spark automatisch eine reservierte Spalte "<partitionColumnName>", um die Tabelle in einer bestimmten Form zu speichern.
Verwenden Sie einen anderen Namen für die Partitionsspalte.
CONFLICTING_PROVIDER
Der angegebene Anbieter <provider> ist mit dem vorhandenen Kataloganbieter <expectedProvider>inkonsistent. Verwenden Sie "USING <expectedProvider>" und wiederholen Sie den Befehl.
CONFLICTING_SQL_CONFIGURATION
Die folgenden Konfigurationen verursachen einen Konflikt mit spark.databricks.streaming.realTimeMode.enabled: <confNames>. Entfernen Sie diese Konfigurationen aus Ihrer SparkSession-Konfiguration.
CONNECT
Generischer Spark Connect-Fehler.
Weitere Details finden Sie unter CONNECT
CONNECTION_ALREADY_EXISTS
Es kann keine Verbindung <connectionName> erstellt werden, da sie bereits vorhanden ist.
Wählen Sie einen anderen Namen, legen Sie die vorhandene Verbindung ab, oder ersetzen Sie die vorhandene Verbindung, oder fügen Sie die IF NOT EXISTS Klausel hinzu, um bereits vorhandene Verbindungen zu tolerieren.
CONNECTION_NAME_CANNOT_BE_EMPTY
Dieser Befehl kann nicht ausgeführt werden, da der Verbindungsname nicht leer sein muss.
CONNECTION_NOT_FOUND
Dieser Befehl kann nicht ausgeführt werden, da der Verbindungsname <connectionName> nicht gefunden wurde.
CONNECTION_OPTION_NOT_SUPPORTED
Verbindungen vom Typ "<connectionType>" unterstützen die folgenden Optionen nicht: <optionsNotSupported>. Unterstützte Optionen: <allowedOptions>.
CONNECTION_TYPE_NOT_SUPPORTED
Die Verbindung vom Typ '<connectionType>' kann nicht erstellt werden. Unterstützte Verbindungstypen: <allowedTypes>.
VERBINDUNGSTYP_NICHT_UNTERSTÜTZT_FÜR_OPTIONSINJEKTION
Die Verbindung mit Name <connectionName> und Typ <connectionType> wird in den Datenframeoptionen nicht unterstützt.
VERBINDUNGSTYP_WIRD_NICHT_FÜR_FERABFRAGEFUNKTION_UNTERSTÜTZT
Die Verbindung mit dem Namen '<connectionName>' und vom Typ '<connectionType>' wird für die Ausführung der Funktion der Remoteabfrage nicht unterstützt.
CONNECT_INVALID_PLAN
Der Spark Connect-Plan ist ungültig.
Weitere Informationen finden Sie unter CONNECT_INVALID_PLAN
CONNECT_SESSION_MIGRATION
Generischer Sitzungsmigrationsfehler (userId: <userId>, sessionId: <sessionId>, serverSessionId: <serverSessionId>).
Weitere Details finden Sie unter CONNECT_SESSION_MIGRATION.
CONSTRAINTS_REQUIRE_UNITY_CATALOG
Tabelleneinschränkungen werden nur im Unity-Katalog unterstützt.
CONSTRAINT_ALREADY_EXISTS
Die Einschränkung "<constraintName>" ist bereits vorhanden. Löschen Sie zuerst die vorhandene Einschränkung.
Vorhandene Einschränkung:
<oldConstraint>
CONSTRAINT_ALREADY_EXISTS_IN_SCHEMA
Die Einschränkung <constraintName> ist bereits in der Datenbank <schemaName>vorhanden.
CONSTRAINT_ALREADY_EXISTS_WITH_SERVER_MESSAGE
<serverMessage>
CONSTRAINT_DOES_NOT_EXIST
Die nicht vorhandene Einschränkung <constraintName> kann nicht aus der Tabelle <tableName>entfernt werden.
CONVERSION_INVALID_INPUT
Der Wert <str> (<fmt>) kann nicht konvertiert <targetType> werden, weil er falsch formatiert ist. Korrigieren Sie den Wert gemäß der Syntax, oder ändern Sie das Format. Verwenden Sie <suggestion>, um falsch formatierte Eingaben zu tolerieren und stattdessen NULL zurückzugeben.
COPY_INTO_COLUMN_ARITY_MISMATCH
In <tableName> kann nicht geschrieben werden. Ursache:
Weitere Details finden Sie unter COPY_INTO_COLUMN_ARITY_MISMATCH.
COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON
Ungültiges Schema <scheme>.
COPY INTO-Quellanmeldeinformationen unterstützen derzeit nur s3/s3n/s3a/wasbs/abfss.
COPY_INTO_CREDENTIALS_REQUIRED
COPY INTO-Quellanmeldeinformationen müssen <keyList> angeben.
COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED
Duplizierte Dateien wurden in einem gleichzeitigen COPY INTO-Vorgang committet. Versuchen Sie es später erneut.
COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON
Ungültiges Schema <scheme>.
COPY INTO Quellverschlüsselung unterstützt derzeit nur s3/s3n/s3a/abfss.
COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE
COPY INTO Verschlüsselung unterstützt nur ADLS Gen2 oder abfss:// Dateischema
COPY_INTO_ENCRYPTION_REQUIRED
COPY INTO Die Quellverschlüsselung muss '<key>' angeben.
COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED
Ungültige Verschlüsselungsoption <requiredKey>.
COPY INTO Die Quellverschlüsselung muss '<requiredKey>' = '<keyValue>' angeben.
COPY_INTO_FEATURE_INCOMPATIBLE_SETTING
Das COPY INTO Feature '<feature>' ist nicht kompatibel mit '<incompatibleSetting>'.
COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED
COPY INTO Mit Ausnahme des Anfügens von Daten ist ein gleichzeitiges Ausführen mit anderen Transaktionen nicht erlaubt. Versuchen Sie es später erneut.
COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED
COPY INTO konnte den Zustand nicht laden, die maximal zulässigen Wiederholungsversuche wurden überschritten.
COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE
Beim Kopieren in die Delta-Tabelle (Tabelle: <table>) wurde ein Schemakonflikt erkannt.
Dies kann auf ein Problem mit den eingehenden Daten hinweisen, oder das Delta-Tabellenschema kann automatisch entsprechend den eingehenden Daten weiterentwickelt werden, indem Sie Folgendes festlegen:
COPY_OPTIONS ('mergeSchema' = 'wahr')
Schemaunterschied:
<schemaDiff>
COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED
Das Format der Quelldateien muss eine von CSV, JSONAVRO, ORC, , PARQUETTEXT oder BINARYFILE. Die Verwendung von COPY INTO in Delta-Tabellen als Quelle wird nicht unterstützt, da nach OPTIMIZE-Vorgängen doppelte Daten erfasst werden können. Diese Überprüfung kann durch Ausführen des SQL-Befehls set spark.databricks.delta.copyInto.formatCheck.enabled = falsedeaktiviert werden.
COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED
Das Quellverzeichnis enthielt keine parsierbaren Dateien vom Typ <format>. Bitte überprüfen Sie den Inhalt von '<source>'.
Der Fehler kann stummgehalten werden, indem "<config>" auf "false" festgelegt wird.
COPY_INTO_STATE_INTERNAL_ERROR
Ein interner Fehler ist bei der Verarbeitung des Zustands COPY INTO aufgetreten.
Weitere Details finden Sie unter COPY_INTO_STATE_INTERNAL_ERROR.
COPY_INTO_SYNTAX_ERROR
Fehler beim Analysieren des befehls "COPY INTO".
Weitere Details finden Sie unter COPY_INTO_SYNTAX_ERROR.
COPY_INTO_UNSUPPORTED_FEATURE
Das COPY INTO Feature '<feature>' wird nicht unterstützt.
COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED
Daten können nicht im Format '<formatType>' entladen werden. Unterstützte Formate für <connectionType> sind: <allowedFormats>.
CORRUPTED_CATALOG_FUNCTION
Die Katalogfunktion "<identifier>" kann aufgrund beschädigter Funktionsinformationen im Katalog nicht in eine SQL-Funktion konvertiert werden. Wenn die Funktion keine SQL-Funktion ist, stellen Sie sicher, dass der Klassenname "<className>" geladen werden kann.
CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET
Der Befehl CREATE FOREIGN SCHEMA ist noch nicht implementiert.
CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET
Der Befehl CREATE FOREIGN TABLE ist noch nicht implementiert.
CREATE_OR_REFRESH_MV_NOT_SUPPORTED
CREATE OR REFRESH MATERIALIZED VIEW wird nicht unterstützt. Verwenden Sie CREATE stattdessen OR REPLACE MATERIALIZED VIEW .
CREATE_OR_REFRESH_MV_ST_ASYNC
CREATE ODER REFRESH von materialisierten Ansichten oder Streamingtabellen bei Angabe von ASYNC nicht möglich. Entfernen Sie ASYNC aus der CREATE OR REFRESH-Anweisung, oder verwenden Sie REFRESH ASYNC, um vorhandene materialisierte Ansichten oder Streamingtabellen asynchron zu aktualisieren.
CREATE_PERMANENT_VIEW_WITHOUT_ALIAS
Es ist nicht zulässig, die permanente Ansicht <name> zu erstellen, ohne dem Ausdruck <attr>explizit einen Alias zuzuweisen.
CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
CREATE TABLE Spalte <columnName> gibt den Deskriptor "<optionName>" mehr als einmal an, was ungültig ist.
CREATE_VIEW_COLUMN_ARITY_MISMATCH
Ansicht <viewName>kann nicht erstellt werden, der Grund ist
Weitere Details finden Sie unter CREATE_VIEW_COLUMN_ARITY_MISMATCH.
CREDENTIAL_MISSING
Geben Sie beim Erstellen oder Aktualisieren externer Speicherorte Anmeldeinformationen an.
CREDENTIAL_PURPOSE_MISMATCH
Die Anmeldeinformationen <credentialName> haben den Verwendungszweck <actualPurpose>, aber der im Befehl angegebene Verwendungszweck ist <expectedPurpose>.
CSV_ENFORCE_SCHEMA_NOT_SUPPORTED
Die CSV-Option enforceSchema kann nicht festgelegt werden, wenn rescuedDataColumn oder failOnUnknownFieldsverwendet wird, da Spalten anstelle von Ordnungszahlen nach Namen gelesen werden.
CYCLIC_FUNCTION_REFERENCE
Zyklische Funktionsreferenz wurde erkannt: <path>.
DATABRICKS_DELTA_NOT_ENABLED
Databricks Delta ist in Ihrem Konto nicht aktiviert.<hints>
DATAFLOW_GRAPH_NOT_FOUND
Datenflussdiagramm mit ID <graphId> konnte nicht gefunden werden
DATENTYP_KANN_NICHT_SORTIEREN
Der Typ <dataType> unterstützt keine sortierten Vorgänge.
DATATYPE_MISMATCH
<sqlExpr> kann aufgrund eines Datentypkonflikts nicht aufgelöst werden:
Weitere Details finden Sie unter DATATYPE_MISMATCH.
DATATYPE_MISSING_SIZE
DataType <type> erfordert einen Längenparameter, z. B. <type>(10). Geben Sie die Länge an.
DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION
Schreibzeile nicht erfolgreich: Fehlende entsprechende Beziehung zu Richtlinien für CLM/RLS.
DATA_SOURCE_ALREADY_EXISTS
Die Datenquelle '<provider>' ist bereits vorhanden. Wählen Sie einen anderen Namen für die neue Datenquelle aus.
DATA_SOURCE_CONNECTION_MISSING_ALLOW_LIST
Die Verbindung <connectionName> wird in diesem Kontext nicht unterstützt, da keine externen Optionen für die Zulassungsliste konfiguriert sind. Bitte aktualisieren Sie die Verbindung, um eine gültige <optionName>.
DATA_SOURCE_EXTERNAL_ERROR
Fehler beim Speichern in externer Datenquelle.
DATA_SOURCE_NOT_EXIST
Datenquelle '<provider>' nicht gefunden. Stellen Sie sicher, dass die Datenquelle registriert ist.
DATA_SOURCE_NOT_FOUND
Fehler beim Auffinden der Datenquelle: <provider>. Stellen Sie sicher, dass der Anbietername korrekt ist und das Paket ordnungsgemäß registriert und mit Ihrer Spark-Version kompatibel ist.
DATA_SOURCE_OPTIONS_VALIDATION_FAILED
Fehler bei der Überprüfung der <dataSource> Datenquellenoption(n).
Weitere Informationen finden Sie unter DATA_SOURCE_OPTIONS_VALIDATION_FAILED
DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS
Option <option> darf nicht leer sein und darf keine ungültigen Zeichen, Abfragezeichenfolgen oder Parameter enthalten.
DATA_SOURCE_OPTION_IS_REQUIRED
Option <option> ist erforderlich.
DATA_SOURCE_OPTION_NOT_ALLOWED_BY_CONNECTION
Option <optionName> ist nicht durch Verbindung <connectionName> zulässig und kann nicht extern bereitgestellt werden.
DATA_SOURCE_OPTION_VALUE_NOT_VALID
Die bereitgestellte Datenquellenoption '<option>' enthält einen ungültigen Wert ('<value>').
Weitere Informationen finden Sie unter DATA_SOURCE_OPTION_VALUE_NOT_VALID
DATA_SOURCE_SYNTAX_ERROR_DURING_QUERY_EXECUTION
Das Externe Datenquellenmodul <dataSourceEngine> hat während der Ausführung der Abfrage "<query>" Syntaxfehler ausgelöst.
<externalEngineError>.
DATA_SOURCE_TABLE_SCHEMA_MISMATCH
Das Schema der Datenquellentabelle stimmt nicht mit dem erwarteten Schema überein. Wenn Sie die DataFrameReader.schema-API verwenden oder eine Tabelle erstellen, vermeiden Sie die Angabe des Schemas.
Datenquellenschema: <dsSchema>
Erwartetes Schema: <expectedSchema>
DATA_SOURCE_URL_NOT_ALLOWED
Die JDBC-URL ist in den Datenquellenoptionen nicht zulässig. Bitte geben Sie stattdessen die Optionen "Host", "Port" und "Datenbank" an.
DATETIME_FIELD_OUT_OF_BOUNDS
<rangeMessage>.
Weitere Einzelheiten finden Sie unter DATETIME_FIELD_OUT_OF_BOUNDS
DATETIME_OVERFLOW
Überlauf beim datetime-Vorgang: <operation>.
DC_API_QUOTA_EXCEEDED
Sie haben das API-Kontingent für die Datenquelle <sourceName>überschritten.
Weitere Details finden Sie unter DC_API_QUOTA_EXCEEDED.
DC_CONNECTION_ERROR
Fehler beim Herstellen einer Verbindung mit der <sourceName> Quelle. Fehlercode: <errorCode>.
Weitere Informationen finden Sie unter DC_CONNECTION_ERROR
DC_DYNAMICS_API_ERROR
Fehler in Dynamics-API-Aufrufen, errorCode: <errorCode>.
Weitere Informationen finden Sie unter DC_DYNAMICS_API_ERROR
DC_NETSUITE_ERROR
Fehler bei Netsuite JDBC-Anrufen, Fehlercode: <errorCode>.
Weitere Informationen finden Sie unter DC_NETSUITE_ERROR
DC_SCHEMA_CHANGE_ERROR
SQLSTATE: nicht zugewiesen
In der Tabelle <tableName> der <sourceName> Quelle ist eine Schemaänderung aufgetreten.
Weitere Details finden Sie unter DC_SCHEMA_CHANGE_ERROR
DC_SERVICENOW_API_ERROR
Fehler in ServiceNow-API-Aufrufen, errorCode: <errorCode>.
Weitere Informationen finden Sie unter DC_SERVICENOW_API_ERROR
DC_SFDC_BULK_QUERY_JOB_INCOMPLETE
Die Aufnahme für Objekt-<objName> ist unvollständig, da der Salesforce-API-Abfrageauftrag zu lang dauerte, fehlgeschlagen oder manuell abgebrochen wurde.
Um es erneut zu versuchen, können Sie entweder die gesamte Pipeline erneut ausführen oder diese bestimmte Zieltabelle aktualisieren. Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein. Auftrags-ID: <jobId>. Auftragsstatus: <jobStatus>.
DC_SHAREPOINT_API_ERROR
Fehler in SharePoint-API-Aufrufen, errorCode: <errorCode>.
Weitere Informationen finden Sie unter DC_SHAREPOINT_API_ERROR
DC_SOURCE_API_ERROR
Fehler im <sourceName>-API-Aufruf. Quell-API-Typ: <apiType>. Fehlercode: <errorCode>.
Dies kann manchmal passieren, wenn Sie einen <sourceName> API-Grenzwert erreicht haben. Wenn Sie Ihren API-Grenzwert nicht überschritten haben, versuchen Sie, den Connector erneut auszuführen. Wenn das Problem weiterhin besteht, erstellen Sie ein Ticket.
DC_UNSUPPORTED_ERROR
In der Datenquelle <sourceName>ist ein nicht unterstützter Fehler aufgetreten.
Weitere Details finden Sie unter DC_UNSUPPORTED_ERROR.
DC_WORKDAY_RAAS_API_ERROR
Fehler in Workday RAAS-API-Aufrufen, errorCode: <errorCode>.
Weitere Details finden Sie unter DC_WORKDAY_RAAS_API_ERROR.
DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION
Die Dezimalgenauigkeit <precision> die maximale Genauigkeit <maxPrecision>überschreitet.
DEFAULT_DATABASE_NOT_EXISTS
Die Standarddatenbank <defaultDatabase> ist nicht vorhanden, erstellen Sie sie zuerst, oder ändern Sie die Standarddatenbank in <defaultDatabase>.
DEFAULT_FILE_NOT_FOUND
Es ist möglich, dass die zugrunde liegenden Dateien aktualisiert wurden. Sie können den Cache in Spark explizit ungültig machen, indem Sie den Befehl "REFRESH TABLE tableName" in SQL ausführen oder das dataset/DataFrame neu erstellen. Wenn der Festplattencache veraltet ist oder die zugrunde liegenden Dateien entfernt wurden, können Sie den Festplattencache manuell ungültig machen, indem Sie den Cluster neu starten.
DEFAULT_PLACEMENT_INVALID
Ein DEFAULT Schlüsselwort in einem MERGE, INSERT, UPDATEOder SET VARIABLE Befehl konnte einer Zielspalte nicht direkt zugewiesen werden, da es Teil eines Ausdrucks war.
Beispiel: UPDATE SET c1 = DEFAULT ist zulässig, ist aber UPDATE T SET c1 = DEFAULT + 1 nicht zulässig.
DEFAULT_UNSUPPORTED
Fehler beim Ausführen <statementType>-Befehls, da DEFAULT-Werte für die Zieldatenquelle mit dem folgenden Tabellenanbieter nicht unterstützt werden: <dataSource>.
DEFINE_FLOW_ONCE_OPTION_NOT_SUPPORTED
Das Definieren eines einmaligen Flusses <flowName> mit der Option "einmal" wird nicht unterstützt.
DESCRIBE_JSON_NOT_EXTENDED
DESCRIBE TABLE
...
AS JSON wird nur unterstützt, wenn [EXTENDED|FORMATTED] angegeben wird.
Beispiel: DESCRIBE EXTENDED <tableName> AS JSON wird unterstützt, DESCRIBE <tableName> AS JSON aber nicht.
DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE
Die Streamingabfrage las aus einer unerwarteten Delta-Tabelle (id = '<newTableId>').
Gemäß Prüfpunkt las sie ursprünglich aus einer anderen Delta-Tabelle (id = '<oldTableId>').
Dies kann passieren, wenn Sie den Code so geändert haben, dass er aus einer neuen Tabelle gelesen oder gelöscht wurde und
Eine Tabelle neu erstellt. Bitte setzen Sie Ihre Änderung zurück oder löschen Sie Ihren Streamingabfrageprüfpunkt.
um noch einmal von vorn zu beginnen.
DISTINCT_WINDOW_FUNCTION_UNSUPPORTED
Verschiedene Fensterfunktionen werden nicht unterstützt: <windowExpr>.
DIVIDE_BY_ZERO
Division durch Null. Verwenden Sie try_divide, um divisor 0 zu tolerieren und stattdessen NULL zurückzugeben. Legen Sie <config> bei Bedarf auf "false" fest, um diesen Fehler zu umgehen.
Weitere Details finden Sie unter DIVIDE_BY_ZERO
DLT_EXPECTATIONS_NOT_SUPPORTED
Erwartungen werden nur in einer Lakeflow Spark Declarative Pipeliness-Pipeline unterstützt.
DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED
MATERIALIZED VIEWs mit einer CLUSTER BY Klausel werden nur in einer Lakeflow Spark Declarative Pipeliness-Pipeline unterstützt.
DLT_VIEW_LOCATION_NOT_SUPPORTED
MATERIALIZED VIEW Standorte werden nur in einer Lakeflow Spark Declarative Pipeliness-Pipeline unterstützt.
DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED
MATERIALIZED VIEW Schemas mit einem angegebenen Typ werden nur in einer Lakeflow Spark Declarative Pipeliness-Pipeline unterstützt.
TABLE_CONSTRAINTSDLT_VIEW__NOT_SUPPORTED
CONSTRAINT Klauseln in einer Ansicht werden nur in einer Lakeflow Spark Declarative Pipeliness-Pipeline unterstützt.
DML_OPERATIONS_NOT_SUPPORTED_FOR_REMOTE_QUERY_FUNCTION
Die Remoteabfragefunktion unterstützt keine DML-Abfragen.
DROP_COMMAND_TYPE_MISMATCH
Ein "Mit" DROP <commandType>kann nicht abzulegen <metadataType> sein.
Verwenden Sie stattdessen DROP <metadataTypeUpper>.
DROP_SCHEDULE_DOES_NOT_EXIST
SCHEDULE kann nicht in einer Tabelle ohne vorhandenen Zeitplan oder Trigger abgelegt werden.
DUPLICATED_CTE_NAMES
Die CTE-Definition darf keine doppelten Namen haben: <duplicateNames>.
DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT
Doppelte Feldnamen in Arrow Struct sind nicht zulässig, <fieldNames> abgerufen.
DUPLICATED_MAP_KEY
Duplizierter Zuordnungsschlüssel <key> wurde gefunden, bitte überprüfen Sie die Eingabedaten.
Wenn Sie die duplizierten Schlüssel entfernen möchten, können Sie <mapKeyDedupPolicy> auf "LAST_WIN" festlegen, sodass der zuletzt eingefügte Schlüssel Vorrang hat.
DUPLICATED_METRICS_NAME
Der Metrikname ist nicht eindeutig: <metricName>. Derselbe Name kann nicht für Metriken mit unterschiedlichen Ergebnissen verwendet werden.
Mehrere Instanzen von Metriken mit demselben Ergebnis und Namen sind jedoch zulässig (z. B. Selbstverknüpfungen).
DUPLICATE_ASSIGNMENTS
Die Spalten oder Variablen <nameList> werden mehr als einmal als Zuweisungsziele verwendet.
DUPLICATE_CLAUSES
Doppelte Klauseln gefunden: <clauseName>. Entfernen Sie eine davon.
DUPLICATE_CONDITION_IN_SCOPE
Es wurde eine duplizierte Bedingung <condition> im Bereich gefunden. Entfernen Sie eine davon.
DUPLICATE_EXCEPTION_HANDLER
Es wurden doppelte Handler gefunden. Entfernen Sie eine davon.
Weitere Informationen finden Sie unter DUPLICATE_EXCEPTION_HANDLER
DUPLICATE_FLOW_SQL_CONF
Gefundene doppelte SQL-Konfiguration für das Dataset '<datasetName>': '<key>' wird sowohl von '<flowName1>' als auch von '<flowName2>' definiert.
DUPLICATE_KEY
Doppelte Schlüssel <keyColumn>gefunden.
DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
Der Aufruf an routine <routineName> ist ungültig, da er mehrere Argumentzuweisungen zum gleichen Parameternamen <parameterName>enthält.
Weitere Details finden Sie unter DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT.
DUPLICATE_ROUTINE_PARAMETER_NAMES
Doppelte Namen in der Parameterliste der benutzerdefinierten Routine gefunden <routineName>: <names>.
DUPLICATE_ROUTINE_RETURNS_COLUMNS
Doppelte Spalten in der RETURNS Klauselspaltenliste der benutzerdefinierten Routine <routineName>gefunden: <columns>.
DUPLIZIERTER_VARIABLENNAME_IN_DECLARE
Doppelte Variable <variableName> in der Deklarationsvariablenliste gefunden. Entfernen Sie eine davon.
EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED
Vorheriger Knoten hat eine Zeile mit eventTime=<emittedRowEventTime> ausgegeben, die älter als current_watermark_value=<currentWatermark> ist.
Dies kann zu Problemen bei der Korrektheit in den zustandsbehafteten Operatoren führen, die in der Ausführungspipeline nachgelagert sind.
Korrigieren Sie die Operatorlogik, um Zeilen nach dem aktuellen globalen Wasserzeichenwert auszugeben.
EMPTY_JSON_FIELD_VALUE
Fehler beim Analysieren einer leeren Zeichenfolge für den Datentyp <dataType>.
EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY
Leere lokale Datei in Staging-<operation>-Abfrage
EMPTY_SCHEMA_NOT_SUPPORTED_FOR_DATASOURCE
Die <format>-Datenquelle unterstützt das Schreiben leerer oder geschachtelter leerer Schemas nicht. Stellen Sie sicher, dass das Datenschema mindestens eine Spalte(n) aufweist.
ENCODER_NOT_FOUND
Es wurde kein Encoder des Typs <typeName> für die interne Darstellung von Spark SQL gefunden.
Erwägen Sie, den Eingabetyp in einen der unterstützten Werte unter '<docroot>/sql-ref-datatypes.html' zu ändern.
END_LABEL_WITHOUT_BEGIN_LABEL
Die Endmarke <endLabel> kann nicht ohne eine Anfangsmarke existieren.
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW
Einige Partitionen in Kafka-Topic(s) berichten über einen verfügbaren Offset, der kleiner ist als der End-Offset, während eine Abfrage mit Trigger.AvailableNow ausgeführt wird. Der Fehler kann vorübergehend sein: Starten Sie Die Abfrage neu, und melden Sie, wenn dasselbe Problem weiterhin angezeigt wird.
Neuester Offset: <latestOffset>, Endoffset: <endOffset>
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED
Für die Kafka-Datenquelle mit „Trigger.AvailableNow“ sollte der Endoffset pro Themenpartition über einen geringeren oder gleichen Offset verfügen als der vorab abgerufene Offset. Der Fehler kann vorübergehend sein: Starten Sie Die Abfrage neu, und melden Sie, wenn dasselbe Problem weiterhin angezeigt wird.
Vorab abgerufener Offset: <prefetchedOffset>, Endoffset: <endOffset>.
ERROR_READING_AVRO_UNKNOWN_FINGERPRINT
Fehler beim Lesen von Avro-Daten : Unbekannter Fingerabdruck: <fingerprint>, nicht sicher, welches Schema verwendet werden soll.
Dies kann passieren, wenn Sie nach dem Starten des Spark-Kontexts zusätzliche Schemas registriert haben.
EVENT_LOG_EMPTY
Das Ereignisprotokoll von <tableOrPipeline> hat kein Schema und enthält keine Ereignisse. Versuchen Sie es später erneut, nachdem Ereignisse generiert wurden.
EVENT_LOG_REQUIRES_SHARED_COMPUTE
Ereignisprotokolle können nicht aus einem Cluster vom Typ „Zugewiesen“ oder „Keine Isolation freigegeben“ abgefragt werden. Bitte verwenden Sie stattdessen einen Cluster vom Typ „Freigegeben“ oder ein Databricks SQL-Warehouse.
EVENT_LOG_TVF_UNSUPPORTED_FOR_PIPELINE
Die TVF EVENT_LOG wird für Pipelines mit dem Feld „schema“ oder der Pipelines, die im Standardspeicher veröffentlicht werden, nicht unterstützt.
Um das Ereignisprotokoll abzufragen, veröffentlichen Sie es im Metastore, indem Sie das Feld event_log in den Pipelineeinstellungen angeben.
Weitere Informationen finden Sie in der Dokumentation zu Monitor Lakeflow Spark Declarative Pipeliness:For more information, see the Monitor Lakeflow Spark Declarative Pipeliness pipelines documentation: https://docs.databricks.com/aws/en/delta-live-tables/observability
EVENT_LOG_UNAVAILABLE
Für <tableOrPipeline>sind keine Ereignisprotokolle verfügbar. Versuchen Sie es später erneut, nachdem die Ereignisse generiert worden sind.
EVENT_LOG_UNSUPPORTED_TABLE_TYPE
Der Tabellentyp von <tableIdentifier> ist <tableType>.
Das Abfragen von Ereignisprotokollen unterstützt nur materialisierte Ansichten, Streamingtabellen oder Lakeflow Spark Declarative Pipeliness-Pipelines
EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE
Die Ereigniszeit <eventName> weist den ungültigen Typ <eventType>auf, erwartet aber "TIMESTAMP".
EXCEED_LIMIT_LENGTH
Überschreitet die Einschränkung der Zeichen-/Varchar-Typlänge: <limit>.
EXCEL_DATENQUELLE_NICHT_AKTIVIERT
Die Excel-Datenquelle ist in diesem Cluster nicht aktiviert.
EXCEL_FILE_ERROR
Fehler beim Verarbeiten der Excel-Datei '<filePath>'.
Weitere Details finden Sie unter EXCEL_FILE_ERROR
EXCEL_INVALID_READ_OPTION_VALUE
Ungültiger Leseoptionswert für excel-Datenquelle.
Weitere Informationen finden Sie unter EXCEL_INVALID_READ_OPTION_VALUE
EXCEL_UNGÜLTIGER_SCHREIBOPTION_WERT
Die Excel-Datenquelle unterstützt den Wert '<value>' für die Schreiboption '<option>' nicht.
Weitere Informationen finden Sie unter EXCEL_INVALID_WRITE_OPTION_VALUE
UNGÜLTIGES SCHREIBSCHEMA IN EXCEL
Die Excel-Datenquelle unterstützt das Schema "<schema>" nicht für Schreibvorgänge.
<hint>
EXCEL_PARSING_ERROR
Fehler beim Analysieren von Excel-Daten.
Weitere Details finden Sie unter EXCEL_PARSING_ERROR
EXCEL_UNSUPPORTED_WRITE_OPTION
Die Excel-Datenquelle unterstützt nicht die Schreiboption '<option>'.
<hint>
EXCEPT_NESTED_COLUMN_INVALID_TYPE
EXCEPT Spalte <columnName> wurde gelöst und es wurde erwartet, dass es sich um StructType handelt, es wurde jedoch Typ <dataType>gefunden.
EXCEPT_OVERLAPPING_COLUMNS
Spalten in einer EXCEPT-Liste müssen eindeutig und nicht überlappend sein, empfangen wurde aber (<columns>).
EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH
EXCEPT-Spalten [<exceptColumns>] wurden aufgelöst, entsprechen jedoch keiner der Spalten [<expandedColumns>] aus der Sternerweiterung.
EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION
Der Spalten-/Feldname <objectName> in der EXCEPT-Klausel kann nicht aufgelöst werden. Meinten Sie eine der folgenden: [<objectList>]?
Hinweis: Geschachtelte Spalten in der EXCEPT-Klausel dürfen während einer struct-Erweiterung keine Qualifizierer (Tabellenname, Name der übergeordneten struct-Spalte usw.) enthalten. Versuchen Sie, Qualifizierer zu entfernen, wenn sie mit geschachtelten Spalten verwendet werden.
EXECUTOR_DISK_OUT_OF_SPACE
Executor disk out of space. Erhöhen Sie die Datenträgerkapazität, falls verfügbar. Wenn Sie Serverless verwenden, wenden Sie sich bitte an unser Supportteam.
EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES
Die USING Klausel dieses EXECUTE IMMEDIATE Befehls enthielt mehrere Argumente mit demselben Alias (<aliases>), was ungültig ist; Aktualisieren Sie den Befehl, um eindeutige Aliase anzugeben, und versuchen Sie es dann erneut.
EXPECT_PERMANENT_TABLE_NOT_TEMP
"<operation>" erwartet eine permanente Tabelle, ist aber <tableName> eine temporäre Tabelle. Geben Sie stattdessen eine permanente Tabelle an.
EXPECT_PERMANENT_VIEW_NOT_TEMP
"<operation>" erwartet eine permanente Ansicht, aber <viewName> ist eine temporäre Ansicht.
EXPECT_TABLE_NOT_VIEW
"<operation>" erwartet eine Tabelle, aber <viewName> ist eine Ansicht.
Weitere Informationen finden Sie unter EXPECT_TABLE_NOT_VIEW
EXPECT_VIEW_NOT_TABLE
Die Tabelle <tableName> unterstützt <operation>nicht.
Weitere Informationen finden Sie unter EXPECT_TABLE_NOT_TABLE
EXPRESSION_DECODING_FAILED
Fehler beim Decodieren einer Zeile in einen Wert der Ausdrücke: <expressions>.
EXPRESSION_ENCODING_FAILED
Fehler beim Codieren eines Werts der Ausdrücke: <expressions> in eine Zeile.
EXPRESSION_TRANSLATION_TO_V2_IS_NOT_SUPPORTED
Ausdruck <expr> kann nicht in v2-Ausdruck übersetzt werden.
EXPRESSION_TYPE_IS_NOT_ORDERABLE
Der Spaltenausdruck <expr> kann nicht sortiert werden, da der Typ <exprType> nicht sortiert werden kann.
EXTERNAL_METASTORE_CLIENT_ERROR
Fehler beim Clientvorgang:
Weitere Details finden Sie unter EXTERNAL_METASTORE_CLIENT_ERROR
EXTERNAL_SHALLOW_CLONE_STILL_EXISTS
Fehler beim Ausführen des Vorgangs an der Quelltabelle <sourceTable>, da der flache Klon <targetTable> noch vorhanden ist und dessen Status ungültig ist. Wenn Sie diesen Vorgang tatsächlich fortsetzen möchten, bereinigen Sie den flachen Klon, indem Sie explizit den DROP-Befehl ausführen.
EXTERNAL_TABLE_INVALID_SCHEME
Externe Tabellen unterstützen das <scheme> Schema nicht.
FABRIC_REFRESH_INVALID_SCOPE
Fehler beim Ausführen von 'REFRESH FOREIGN <scope> <name>'. Ein Fabric <scope> kann nicht direkt aktualisiert werden. Verwenden Sie stattdessen 'REFRESH FOREIGN CATALOG <catalogName>' zum Aktualisieren des Fabric-Katalogs.
FAILED_EXECUTE_UDF
Fehler der benutzerdefinierten Funktion (: (<functionName><signature>) => <result>aufgrund von: <reason>.
FAILED_FUNCTION_CALL
Fehler beim Vorbereiten der Funktion <funcName> für den Aufruf. Bitte überprüfen Sie die Argumente der Funktion.
FAILED_JDBC
Fehler beim JDBC-Operator <url> im Vorgang:
Weitere Informationen finden Sie unter FAILED_JDBC
FAILED_PARSE_STRUCT_TYPE
Fehler beim Analysieren der Struktur: <raw>.
FAILED_READ_FILE
Fehler beim Lesen der Datei <path>.
Weitere Details finden Sie unter FAILED_READ_FILE.
FAILED_REGISTER_CLASS_WITH_KRYO
Fehler beim Registrieren von Klassen bei Kryo.
FAILED_RENAME_PATH
Fehler beim Umbenennen von <sourcePath> in <targetPath>, da das Ziel bereits vorhanden ist.
FAILED_RENAME_TEMP_FILE
Fehler beim Umbenennen der temporären Datei <srcPath> in <dstPath>, da FileSystem.rename den Wert "false" zurückgegeben hat.
FAILED_ROW_TO_JSON
Fehler beim Konvertieren des Zeilenwerts <value> der Klasse <class> in den SQL-Zieltyp <sqlType> im JSON Format.
FAILED_TO_CREATE_PLAN_FOR_DIRECT_QUERY
Fehler beim Erstellen eines Plans für direkte Abfrage für Dateien: <dataSourceType>
FAILED_TO_LOAD_ROUTINE
Fehler beim Laden der Routine-<routineName>.
FAILED_TO_PARSE_TOO_COMPLEX
Die Anweisung, einschließlich potenzieller SQL-Funktionen und referenzierter Ansichten, war zu komplex, um zu analysieren.
Um diesen Fehler zu vermeiden, teilen Sie die Anweisung in mehrere, weniger komplexe Blöcke auf.
FEATURE_NOT_ENABLED
Das Feature <featureName> ist nicht aktiviert. Erwägen Sie, die Konfiguration <configKey> auf <configValue> festzulegen, um diese Funktion zu aktivieren.
FEATURE_NOT_ON_CLASSIC_WAREHOUSE
<feature> wird für klassische SQL-Lagerhäuser nicht unterstützt. Um dieses Feature zu verwenden, verwenden Sie ein Pro- oder Serverless SQL Warehouse.
FEATURE_REQUIRES_UC
<feature> wird ohne Unity-Katalog nicht unterstützt. Um dieses Feature zu verwenden, aktivieren Sie Unity-Katalog.
FEATURE_UNAVAILABLE
<feature> wird in Ihrer Umgebung nicht unterstützt. Wenden Sie sich an den Databricks-Support, um dieses Feature zu verwenden.
FETCH_FAILED
Fehler beim Abrufen von Shuffle-Daten oder Metadaten: <errorString>.
FGAC_ON_DEDICATED_COMPUTE_FAILED
Feingranulare Zugriffssteuerung (FGAC) für dedizierte Berechnungen ist aufgrund der folgenden Ausnahme fehlgeschlagen: <message>
FIELD_ALREADY_EXISTS
<op> für Spalte nicht möglich, da <fieldNames> bereits in <struct> vorhanden ist.
FIELD_NOT_FOUND
Kein solches Strukturfeld <fieldName> in <fields>.
FILE_IN_STAGING_PATH_ALREADY_EXISTS
Die Datei im Stagingpfad <path> ist bereits vorhanden, aber OVERWRITE ist nicht festgelegt
FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR
Fehler in der vom Benutzer bereitgestellten Funktion in flatMapGroupsWithState. Grund: <reason>
FORBIDDEN_DATASOURCE_IN_SERVERLESS
Das Abfragen der Datenquelle <source> in serverloser Berechnung ist nicht zulässig. Nur <allowlist> Datenquellen werden in serverloser Berechnung unterstützt.
FORBIDDEN_KEYWORD_IN_JDBC_QUERY
Die Abfrageoption <queryOption> darf keine unzulässigen Schlüsselwörter enthalten. Entfernen Sie die folgenden Schlüsselwörter aus der Abfrage: <keywords>
FORBIDDEN_OPERATION
Der Vorgang <statement> ist für den <objectType>nicht zulässig: <objectName>.
FOREACH_BATCH_USER_FUNCTION_ERROR
Fehler in der benutzerseitig bereitgestellten Funktion in der foreach-Batchsenke. Grund: <reason>
FOREACH_USER_FUNCTION_ERROR
Fehler in der benutzerseitig bereitgestellten Funktion in der foreach-Senke. Grund: <reason>
FOREIGN_KEY_MISMATCH
Übergeordnete Fremdschlüsselspalten <parentColumns> stimmen nicht mit untergeordneten Primärschlüsselspalten <childColumns> überein.
FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY
Dieser Befehl kann nicht ausgeführt werden, da der Fremdname <objectType> nicht leer sein darf.
FOREIGN_TABLE_CONVERSION_UNSUPPORTED
Die Tabelle ist nicht für das Upgrade von UC Foreign auf UC External berechtigt. Reason:
Weitere Einzelheiten finden Sie unter FOREIGN_TABLE_CONVERSION_UNSUPPORTED
FOREIGN_VIEW_CONVERSION_UNSUPPORTED
Objekt <objectName> ist nicht für die Konvertierung in eine verwaltete UC-Ansicht berechtigt. Reason:
Weitere Informationen finden Sie unter FOREIGN_VIEW_CONVERSION_UNSUPPORTED
FROM_JSON_CONFLICTING_SCHEMA_UPDATES
Bei einem from_json-Rückschluss wurden an folgender Stelle widersprüchliche Schemaaktualisierungen festgestellt: <location>
FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA
from_json gefunden columnNameOfCorruptRecord (<columnNameOfCorruptRecord>) in einem
in einem JSON Objekt und kann nicht mehr fortgesetzt werden. Bitte konfigurieren Sie einen anderen Wert für
die Option „columnNameOfCorruptRecord“.
FROM_JSON_CORRUPT_SCHEMA
from_json Inference konnte das unter <location> gespeicherte Schema nicht lesen.
FROM_JSON_INFERENCE_FAILED
from_json konnte das Schema nicht ableiten. Bitte geben Sie stattdessen eine an.
FROM_JSON_INFERENCE_NOT_SUPPORTED
Ein from_json Rückschluss wird nur beim Definieren von Streamingtabellen unterstützt.
FROM_JSON_INVALID_CONFIGURATION
from_json Konfiguration ist ungültig:
Weitere Details finden Sie unter FROM_JSON_INVALID_CONFIGURATION.
FROM_JSON_SCHEMA_EVOLUTION_FAILED
from_json konnte sich nicht von <old> zu <new> entwickeln.
FUNCTION_PARAMETERS_MUST_BE_NAMED
Für die Funktion <function> sind benannte Parameter erforderlich. Parameter ohne Namen: <exprs>. Aktualisieren Sie den Funktionsaufruf, um Namen für alle Parameter hinzuzufügen, <function>z. B. (param_name => ...).
GENERATED_COLUMN_WITH_DEFAULT_VALUE
Eine Spalte kann nicht sowohl einen Standardwert als auch einen Generierungsausdruck aufweisen, aber <colName> hat Standardwert: (<defaultValue>) und Generierungsausdruck: (<genExpr>).
GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION
Hive 2.2 und niedrigere Versionen unterstützen getTablesByType nicht. Verwenden Sie hive 2.3 oder höher.
GET_WARMUP_TRACING_FAILED
Fehler beim Abrufen der Aufwärmablaufverfolgung. Ursache: <cause>.
GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED
Funktion „get_warmup_tracing()“ nicht zulässig.
GRAPHITE_SINK_INVALID_PROTOCOL
Ungültiges Graphite-Protokoll: <protocol>.
GRAPHITE_SINK_PROPERTY_MISSING
Graphite-Senke erfordert die „<property>“-Eigenschaft.
GROUPING_COLUMN_MISMATCH
Die Spalte der Gruppierung (<grouping>) kann in den Gruppierungsspalten <groupingColumns> nicht gefunden werden.
GROUPING_ID_COLUMN_MISMATCH
Spalten von grouping_id (<groupingIdColumn>) stimmen nicht mit den Gruppierungsspalten (<groupByColumns>) überein.
GROUPING_SIZE_LIMIT_EXCEEDED
Die Größe der Gruppierungssätze darf nicht größer sein als <maxSize>.
GROUP_BY_AGGREGATE
Aggregatfunktionen sind in GROUP BYnicht zulässig, doch wurden sie in <sqlExpr>gefunden.
Weitere Details finden Sie unter GROUP_BY_AGGREGATE.
GROUP_BY_POS_AGGREGATE
GROUP BY <index> bezieht sich auf einen Ausdruck <aggExpr>, der eine Aggregatfunktion enthält. Aggregatfunktionen sind in GROUP BYnicht zulässig.
GROUP_BY_POS_OUT_OF_RANGE
Position GROUP BY<index> ist nicht in der Auswahlliste enthalten (gültiger Bereich ist [1, <size>]).
GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE
Der Ausdruck <sqlExpr> kann nicht als Gruppierungsausdruck verwendet werden, da der Datentyp <dataType> kein geordneter Datentyp ist.
HDFS_HTTP_ERROR
Beim Versuch, aus HDFS zu lesen, ist die HTTP-Anforderung fehlgeschlagen.
Weitere Informationen finden Sie unter HDFS_HTTP_ERROR
HINT_UNSUPPORTED_FOR_JDBC_DIALECT
Die Option hint wird für <jdbcDialect> in der JDBC-Datenquelle nicht unterstützt. Unterstützte Dialekte sind MySQLDialect, OracleDialect und DatabricksDialect.
HIVE_METASTORE_INVALID_PLACEHOLDER_PATH
Die Abfrage oder der Befehl konnte nicht ausgeführt werden, da die Konfiguration "spark.databricks.hive.metastore.tablePlaceholderPath" einen ungültigen Pfad für den Hive-Metastore-Tabellenplatzhalter bereitgestellt hat. Aktualisieren Sie diese Konfiguration mit einem neuen Wert, um einen gültigen Pfad bereitzustellen, und führen Sie dann die Abfrage oder den Befehl erneut aus.
HIVE_METASTORE_TABLE_PLACEHOLDER_PATH_NOT_SET
Fehler bei der Abfrage oder dem Befehl, da der Platzhalterpfad der Hive-Metastore-Tabelle nicht festgelegt ist, was erforderlich ist, wenn sich der Schemaspeicherort auf DBFS befindet und der Tabellenspeicherort ein Objekt/eine Datei ist. Legen Sie "spark.databricks.hive.metastore.tablePlaceholderPath" auf einen Pfad fest, auf den Sie Zugriff haben, und führen Sie dann die Abfrage oder den Befehl erneut aus.
HLL_INVALID_INPUT_SKETCH_BUFFER
Ungültiger Aufruf von <function>; nur gültige HLL-Skizzenpuffer werden als Eingaben (z. B. von der hll_sketch_agg-Funktion erzeugte) unterstützt.
HLL_INVALID_LG_K
Ungültiger Aufruf von <function>; der Wert lgConfigK muss zwischen <min> und <max> liegen (einschließlich): <value>.
HLL_K_MUST_BE_CONSTANT
Ungültiger Aufruf von <function>; der K Wert muss ein Konstantenwert sein, aber es wurde ein nicht konstanter Ausdruck abgerufen.
HLL_UNION_DIFFERENT_LG_K
Skizzen weisen unterschiedliche lgConfigK Werte auf: <left> und <right>. Legen Sie den parameter allowDifferentLgConfigK auf "true" fest, um <function> mit unterschiedlichen lgConfigK Werten aufzurufen.
HMS_FEDERATION_SHALLOW_CLONE_NOT_FOUND_IN_UC
Der flache Klonpfad "<path>" konnte nicht in eine Tabelle im Unity-Katalog aufgelöst werden. Stellen Sie sicher, dass die Tabelle vorhanden ist und mit dem Unity-Katalog verbunden ist.
HYBRID_ANALYZER_EXCEPTION
Es trat ein Fehler auf, als versucht wurde, eine Abfrage oder einen Befehl sowohl mit dem veralteten Fixed-Point-Analyzer als auch mit dem Single-Pass-Resolver zu verarbeiten.
Weitere Details finden Sie in HYBRID_ANALYZER_EXCEPTION.
IDENTIFIER_TOO_MANY_NAME_PARTS
<identifier> ist kein gültiger Bezeichner, da er mehr als <limit> Namensteile enthält.
IDENTITY_COLUMNS_DUPLICATED_SEQUENCE_GENERATOR_OPTION
Duplizierte Option für Sequenzgenerator für IDENTITY-Spalte: <sequenceGeneratorOption>.
IDENTITY_COLUMNS_ILLEGAL_STEP
IDENTITY Spaltenschritt darf nicht 0 sein.
IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
DataType-<dataType> wird für IDENTITY Spalten nicht unterstützt.
ILLEGAL_DAY_OF_WEEK
Unzulässige Eingabe für Wochentag: <string>.
ILLEGAL_STATE_STORE_VALUE
Ungültiger Wert, der für den Zustandsspeicher bereitgestellt wird
Weitere Details finden Sie unter ILLEGAL_STATE_STORE_VALUE.
INAPPROPRIATE_URI_SCHEME_OF_CONNECTION_OPTION
Die Verbindung kann aufgrund eines unangemessenen URI-Schemas <uri> nicht erstellt werden, das für die Verbindungsoption '<option>' bereitgestellt wurde.
Zulässige(s) Schema(s): <allowedSchemes>.
Fügen Sie ein Schema hinzu, wenn es nicht im URI vorhanden ist, oder geben Sie ein Schema aus den zulässigen Werten an.
INCOMPARABLE_PIVOT_COLUMN
Ungültige Pivotspalte <columnName>. Pivotspalten müssen vergleichbar sein.
INCOMPATIBLE_BATCH_VIEW_READ
Die Ansicht <datasetIdentifier> ist eine Batchansicht und muss mit SparkSession#read referenziert werden. Diese Überprüfung kann durch Festlegen der Spark-Konfiguration pipelines.incompatibleViewCheck.enabled = false deaktiviert werden.
INCOMPATIBLE_COLUMN_TYPE
<operator> kann nur für Tabellen mit kompatiblen Spaltentypen ausgeführt werden. Die <columnOrdinalNumber>-Spalte der <tableOrdinalNumber>-Tabelle hat den Typ <dataType1>, welcher nicht mit <dataType2> in der gleichen Spalte der ersten Tabelle kompatibel ist.<hint>.
INCOMPATIBLE_DATASOURCE_REGISTER
Es wurde ein inkompatibles DataSourceRegister erkannt. Entfernen Sie die inkompatible Bibliothek aus dem Klassenpfad, oder aktualisieren Sie sie. Fehler: <message>
INCOMPATIBLE_DATA_FOR_TABLE
Inkompatible Daten für die Tabelle <tableName>können nicht geschrieben werden:
Weitere Details finden Sie unter INCOMPATIBLE_DATA_FOR_TABLE.
INCOMPATIBLE_JOIN_TYPES
Die Verknüpfungstypen <joinType1> und <joinType2> sind inkompatibel.
INCOMPATIBLE_STREAMING_VIEW_READ
Die Ansicht <datasetIdentifier> ist eine Streamingansicht und muss mit SparkSession#readStream referenziert werden. Diese Überprüfung kann durch Festlegen der Spark-Konfiguration pipelines.incompatibleViewCheck.enabled = false deaktiviert werden.
INCOMPATIBLE_VIEW_SCHEMA_CHANGE
Die SQL-Abfrage der Ansicht <viewName> weist eine inkompatible Schemaänderung auf und die Spalte <colName> kann nicht aufgelöst werden. Es wurden <expectedNum>-Spalten mit dem Namen <colName> erwartet, es wurde aber <actualCols> erhalten.
Versuchen Sie, die Ansicht erneut zu erstellen, indem Sie folgendes ausführen: <suggestion>.
INCOMPLETE_TYPE_DEFINITION
Unvollständiger komplexer Typ:
Weitere Details finden Sie unter INCOMPLETE_TYPE_DEFINITION.
INCONSISTENT_BEHAVIOR_CROSS_VERSION
Möglicherweise erhalten Sie aufgrund des Upgrades ein anderes Ergebnis
Weitere Details finden Sie unter INCONSISTENT_BEHAVIOR_CROSS_VERSION.
INCORRECT_NUMBER_OF_ARGUMENTS
<failure>, <functionName> erfordert mindestens <minArgs> Argumente und die meisten <maxArgs> Argumente.
INCORRECT_RAMP_UP_RATE
Der maximale Versatz mit <rowsPerSecond> rowsPerSecond ist <maxSeconds>, aber „rampUpTimeSeconds“ ist <rampUpTimeSeconds>.
INDETERMINATE_COLLATION
Es konnte nicht ermittelt werden, welche Sortierung für den Zeichenfolgevorgang verwendet werden soll. Verwenden Sie die COLLATE-Klausel, um die Sortierung explizit festzulegen.
INDETERMINATE_COLLATION_IN_EXPRESSION
Der Datentyp von <expr> hat eine unbestimmte Sortierung. Verwenden Sie die COLLATE-Klausel, um die Sortierung explizit festzulegen.
INDETERMINATE_COLLATION_IN_SCHEMA
Das Schema enthält unbestimmte Sortierung bei: [<columnPaths>]. Verwenden Sie die COLLATE-Klausel, um die Sortierung explizit festzulegen.
INDEX_ALREADY_EXISTS
Der Index <indexName> kann für die Tabelle <tableName> nicht erstellt werden, da er bereits existiert.
INDEX_NOT_FOUND
Der Index <indexName> in tabelle <tableName>wurde nicht gefunden.
INET_FUNCTIONS_NOT_ENABLED
<functionName> ist deaktiviert oder wird nicht unterstützt. INET-Funktionen sind noch nicht öffentlich verfügbar.
INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED
Der Triggertyp <trigger> wird für diesen Clustertyp nicht unterstützt.
Verwenden Sie einen anderen Triggertyp, z. B. AvailableNow, Once.
INSERT_COLUMN_ARITY_MISMATCH
In <tableName> kann nicht geschrieben werden. Ursache:
Weitere Informationen finden Sie unter INSERT_COLUMN_ARITY_MISMATCH.
INSERT_PARTITION_COLUMN_ARITY_MISMATCH
In <tableName> kann nicht geschrieben werden. <reason>:
Tabellenspalten: <tableColumns>.
Partitionsspalten mit statischen Werten: <staticPartCols>.
Datenspalten: <dataColumns>.
INSERT_REPLACE_USING_DISALLOW_MISALIGNED_COLUMNS
Alle Spalten in der USING Klausel müssen in den Ziel- und Quellschemas an derselben Position angezeigt werden.
USING Klausel mit falsch ausgerichteten Spalten wird nicht unterstützt.
Die folgenden Spalten sind falsch ausgerichtet: <misalignedReplaceUsingCols>
INSERT_REPLACE_USING_INVALID_SET_OF_COLUMNS
Tabelle muss partitioniert werden, und alle angegebenen Spalten müssen den vollständigen Satz der Partitionsspalten der Tabelle darstellen.
Die folgenden Spalten sind keine Partitionsspalten: <nonPartitionColumns>
Die folgenden Partitionsspalten fehlen: <missingPartitionsColumns>
INSERT_REPLACE_USING_NOT_ENABLED
Wenden Sie sich an Ihren Databricks-Vertreter, um das INSERT INTO...REPLACE USING Feature (...) zu aktivieren.
INSUFFICIENT_PERMISSIONS
Unzureichende Berechtigungen:
<report>
INSUFFICIENT_PERMISSIONS_EXT_LOC
Der Benutzer <user> verfügt über unzureichende Berechtigungen für externe Speicherorte <location>.
INSUFFICIENT_PERMISSIONS_NO_OWNER
Für <securableName>gibt es keinen Besitzer. Bitten Sie Ihren Administrator, einen Besitzer festzulegen.
INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE
Die benutzende Person besitzt <securableName> nicht.
INSUFFICIENT_PERMISSIONS_SECURABLE
Der Benutzer verfügt nicht über die Berechtigung <action> für <securableName>.
INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER
Der Besitzer von <securableName> unterscheidet sich vom Besitzer von <parentSecurableName>.
INSUFFICIENT_PERMISSIONS_SPARK_CONNECT_CLIENT_SET_CLOUDFETCH_RETENTION_TIMEOUT
Der Client verfügt nicht über die Berechtigung zum Festlegen eines benutzerdefinierten Aufbewahrungstimeouts für CloudFetch-Ergebnisse.
INSUFFICIENT_PERMISSIONS_STORAGE_CRED
Die Speicheranmeldeinformation <credentialName> verfügt nicht über ausreichend Berechtigungen.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES
Die benutzende Person kann <action> auf <securableName> aufgrund von Berechtigungen für zugrunde liegende sicherungsfähige Elemente nicht ausführen.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE
Die benutzende Person kann <action> auf <securableName> aufgrund von Berechtigungen für zugrunde liegende sicherungsfähige Elemente nicht ausführen:
<underlyingReport>
INTERVAL_ARITHMETIC_OVERFLOW
Ganzzahlüberlauf beim Betrieb mit Intervallen.
Weitere Details finden Sie unter INTERVAL_ARITHMETIC_OVERFLOW.
INTERVAL_DIVIDED_BY_ZERO
Division durch Null. Verwenden Sie try_divide, um divisor 0 zu tolerieren und stattdessen NULL zurückzugeben.
INVALID_AGGREGATE_FILTER
Der FILTER Ausdruck <filterExpr> in einer Aggregatfunktion ist ungültig.
Weitere Details finden Sie unter INVALID_AGGREGATE_FILTER.
INVALID_AGNOSTIC_ENCODER
Es wurde ein ungültiger agnostischer Encoder gefunden. Erwartet wird eine Instanz von AgnosticEncoder, stattdessen lag <encoderType> vor. Weitere Informationen finden Sie unter '<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html'.
INVALID_ARRAY_INDEX
Der Index <indexValue>liegt außerhalb der Begrenzung. Das Array verfügt über <arraySize> Elemente. Verwenden Sie die SQL-Funktion get(), um den Zugriff auf Elemente bei ungültigen Indexen zu tolerieren und stattdessen NULL zurückzugeben.
Weitere Details finden Sie unter INVALID_ARRAY_INDEX.
INVALID_ARRAY_INDEX_IN_ELEMENT_AT
Der Index <indexValue>liegt außerhalb der Begrenzung. Das Array verfügt über <arraySize> Elemente. Verwenden Sie try_element_at, um den Zugriff auf Elemente bei ungültigen Index zu tolerieren und stattdessen NULL zurückzugeben.
Weitere Details finden Sie unter INVALID_ARRAY_INDEX_IN_ELEMENT_AT.
INVALID_ARTIFACT_PATH
Das Artefakt mit dem Namen <name> ist ungültig. Der Name muss ein relativer Pfad sein und kann nicht auf übergeordnete/gleichgeordnete/nephew-Verzeichnisse verweisen.
INVALID_ATTRIBUTE_NAME_SYNTAX
Syntaxfehler im Attributnamen: <name>. Überprüfen Sie, ob Backticks paarweise vorkommen, eine in Anführungszeichen gesetzte Zeichenfolge ein vollständiger Namensteil ist, und verwenden Sie einen Backtick nur innerhalb von Namensteilen in Anführungszeichen.
INVALID_AUTO_TTL_EXPIRE_IN_DAYS
Die Anzahl der Tage, die für Auto-TTL angegeben sind, muss nicht negativ sein.
INVALID_AWS_AUTHENTICATION
Wählen Sie genau eine der folgenden Authentifizierungsmethoden aus:
Geben Sie den Namen Ihrer Databricks-Dienstanmeldeinformationen (
<serviceCredential>) (als Sparkstreamoption oder als Clusterumgebungsvariable) an.Stellen Sie sowohl aws AccessKey (
<awsAccessKey>) als auch SecretAccessKey (<awsSecretKey>) bereit, um AWS-Schlüssel zu verwenden.Stellen Sie weder die AWS-Schlüssel noch die Databricks-Dienstanmeldeinformationen bereit, um die standardmäßige AWS-Anmeldeinformationsanbieterkette für die Kinesis-Authentifizierung zu verwenden.
INVALID_AWS_AUTHENTICATION_EXPLICIT_OPTIONS
Geben Sie entweder den Namen Ihres Databricks-Serviceberechtigungsnachweises an (<serviceCredential>)
ODER sowohl <awsAccessKey> als auch <awsSecretKey>
INVALID_BITMAP_POSITION
Die mit 0 indizierte Bitmapposition <bitPosition> liegt außerhalb der zulässigen Grenzen. Die Bitmap verfügt über <bitmapNumBits> Bits (<bitmapNumBytes> Bytes).
INVALID_BOOLEAN_STATEMENT
In der Bedingung wird ein boolescher Ausdruck erwartet, aber <invalidStatement> wurde gefunden.
INVALID_BOUNDARY
Die Grenze <boundary> ist ungültig: <invalidValue>.
Weitere Informationen finden Sie unter UNGÜLTIGE_GRENZE
INVALID_BUCKET_COLUMN_DATA_TYPE
Für Bucketspalte kann nicht <type> verwendet werden. Sortierte Datentypen werden für die Bucketerstellung nicht unterstützt.
UNGÜLTIGE_BUCKET_ANZAHL
Die Anzahl der Buckets sollte größer als 0 und kleiner oder gleich Bucketing.maxBuckets (<bucketingMaxBuckets>) sein. Erhalten <numBuckets>.
INVALID_BUCKET_FILE
Ungültige Bucketdatei: <path>.
INVALID_BYTE_STRING
Das erwartete Format ist ByteString, aber war <unsupported> (<class>).
INVALID_CIDR_RANGE
Die Funktion <functionName> hat einen ungültigen CIDR-Bereich empfangen: <value>.
INVALID_CLONE_SESSION_REQUEST
Ungültige Sitzungs klonenanforderung.
Weitere Details finden Sie unter INVALID_CLONE_SESSION_REQUEST
INVALID_COLUMN_NAME_AS_PATH
Die Datenquelle <datasource> die Spalte <columnName> nicht speichern kann, da ihr Name einige Zeichen enthält, die in Dateipfaden nicht zulässig sind. Verwenden Sie einen Alias, um ihn umzubenennen.
INVALID_COLUMN_OR_FIELD_DATA_TYPE
Die Spalte oder das Feld <name> ist vom Typ <type>, obwohl <expectedType> erforderlich ist.
INVALID_CONF_VALUE
Der Wert '<confValue>' in der Konfiguration "<confName>" ist ungültig.
Weitere Details finden Sie unter INVALID_CONF_VALUE.
INVALID_CONSTRAINT_CHARACTERISTICS
Einschränkungsmerkmale [<characteristics>] werden dupliziert oder stehen miteinander in Konflikt.
INVALID_CORRUPT_RECORD_TYPE
Die Spalte <columnName> für beschädigte Datensätze muss den Nullwerte zulassenden STRING Typ besitzen, aber hat <actualType> erhalten.
INVALID_CURRENT_RECIPIENT_USAGE
Die current_recipient-Funktion kann nur in der CREATE VIEW-Anweisung oder der ALTER VIEW-Anweisung verwendet werden, um in Unity Catalog eine Ansicht nur für die Freigabe zu definieren.
INVALID_CURSOR
Der Cursor ist ungültig.
Weitere Details finden Sie unter INVALID_CURSOR.
UNGÜLTIGES_DATENQUELLEN_FORMAT_FÜR_VERBINDUNGSOPTIONEN_INJEKTION
Die Verbindung mit Name <connectionName> und Typ <connectionType> unterstützt das Format <actualFormat>nicht. Unterstütztes Format: <expectedFormat>.
UNGÜLTIGER_DATENQUELLEN_OPTIONEN_OVERSCHREIBUNGS_VERSUCH
Option <optionName> ist bereits für die Verbindung <connectionName> vorhanden und kann nicht überschrieben werden.
INVALID_DATETIME_PATTERN
Unbekanntes Datetime-Muster: <pattern>.
Weitere Details finden Sie in INVALID_DATETIME_PATTERN.
INVALID_DBFS_MOUNT
Auf die DBFS-Bereitstellung kann nicht zugegriffen werden.
Weitere Informationen finden Sie unter INVALID_DBFS_MOUNT
INVALID_DBSQL_CONFIG
<confValue> wird für SQL-Konfigurationsschlüssel nicht unterstützt. <confKey>
INVALID_DEFAULT_VALUE
Fehler beim Ausführen des Befehls <statement>, da die Zielspalte oder Variable <colName> einen DEFAULT-Wert <defaultValue>hat.
Weitere Details finden Sie unter INVALID_DEFAULT_VALUE.
INVALID_DELIMITER_VALUE
Ungültiger Wert für Trennzeichen.
Weitere Details finden Sie unter INVALID_DELIMITER_VALUE.
INVALID_DEST_CATALOG
Der Zielkatalog des Befehls SYNC muss sich im Unity-Katalog befinden. Es wurde <catalog> gefunden.
INVALID_DRIVER_MEMORY
Systemspeicher <systemMemory> muss mindestens <minSystemMemory>sein.
Erhöhen Sie die Heapgröße mithilfe der Option „--driver-memory“ oder <config> in der Spark-Konfiguration.
INVALID_DROP_TABLE_OPTIONS
Es können nicht sowohl die PURGE- als auch die FORCE-Optionen in dem DROP TABLE-Befehl angegeben werden. Verwenden Sie entweder PURGE oder FORCE, aber nicht beide.
INVALID_DYNAMIC_OPTIONS
Die übergebenen <option_list> Optionen sind für die Fremdtabelle <table_name> verboten.
INVALID_EMPTY_LOCATION
Der Speicherortname darf keine leere Zeichenfolge sein, aber <location> wurde angegeben.
UNGÜLTIGE_UMGEBUNGSEINSTELLUNGEN_ABHÄNGIGKEITEN
Der Parameter für Abhängigkeiten der Umgebungseinstellungen ist nicht vorhanden oder konnte nicht in eine Liste von Zeichenfolgen umgewandelt werden. Erwartetes Format: ["dep1", "dep2"]
INVALID_ENVIRONMENT_SETTINGS_ENVIRONMENT_VERSION
Diese Laufzeitversion unterstützt keine Umgebungsversion für Datenquellen. Wert: <environmentVersion>.
INVALID_ERROR_CONDITION_DECLARATION
Ungültige Bedingungsdeklaration.
Weitere Informationen finden Sie unter INVALID_ERROR_CONDITION_DECLARATION.
INVALID_ESC
Es wurde eine ungültige Escapezeichenfolge gefunden: <invalidEscape>. Die Escapezeichenfolge darf nur ein Zeichen enthalten.
INVALID_ESCAPE_CHAR
EscapeChar muss ein Zeichenfolgenliteral der Länge 1 sein, enthielt jedoch <sqlExpr>.
INVALID_EXECUTOR_MEMORY
Der Speicher des Executors <executorMemory> muss mindestens <minSystemMemory>sein.
Erhöhen Sie den Ausführungsspeicher mithilfe der Option "--executor-memory" oder "<config>" in der Spark-Konfiguration.
INVALID_EXPRESSION_ENCODER
Es wurde ein ungültiger Ausdrucksencoder gefunden. Erwartet eine Instanz von „ExpressionEncoder“, erhielt aber <encoderType>. Weitere Informationen finden Sie unter '<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html'.
INVALID_EXPR_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE
Der Ausdruckstyp muss Zeichenfolgentyp sein, aber erhalten <exprType>.
INVALID_EXTERNAL_TYPE
Der externe Typ <externalType> ist für den Typ <type> im Ausdruck <expr>ungültig.
INVALID_EXTRACT_BASE_FIELD_TYPE
Ein Wert kann nicht aus <base> extrahiert werden. Benötigen Sie einen komplexen Typ [STRUCT, ARRAY, MAP] aber erhalten <other>.
INVALID_EXTRACT_FIELD
<field> kann nicht aus <expr>extrahiert werden.
INVALID_EXTRACT_FIELD_TYPE
Der Feldname muss ein Zeichenfolgenliteral ungleich NULL sein, aber er ist <extraction>.
INVALID_FIELD_NAME
Der Feldname <fieldName> ist ungültig: <path> ist keine Struktur.
INVALID_FLOW_QUERY_TYPE
Der Fluss <flowIdentifier> gibt einen ungültigen Beziehungstyp zurück.
Weitere Informationen finden Sie unter INVALID_FLOW_QUERY_TYPE
INVALID_FORMAT
Das Format ist ungültig: <format>.
Weitere Details finden Sie unter INVALID_FORMAT.
INVALID_FRACTION_OF_SECOND
Gültiger Bereich für Sekunden ist [0, 60] (einschließlich), der angegebene Wert ist jedoch <secAndMicros>. Um diesen Fehler zu vermeiden, verwenden Sie try_make_timestamp, die NULL beim Fehler zurückgibt.
Wenn Sie nicht die Standardeinstellung der Sitzung für die Zeitstempelversion dieser Funktion verwenden möchten, nutzen Sie try_make_timestamp_ntz oder try_make_timestamp_ltz.
INVALID_GET_DIAGNOSTICS_USAGE
Ungültige Verwendung der GETDIAGNOSTICS Anweisung.
Weitere Informationen finden Sie unter INVALID_GET_DIAGNOSTICS_USAGE.
INVALID_GET_DIAGNOSTICS_USAGE_CONDITION_NUMBER_MUST_BE_ONE
Ungültige Verwendung der GETDIAGNOSTICS Anweisung. Der einzige unterstützte Wert für eine Bedingungsnummer in der GETDIAGNOSTICS Anweisung ist 1.
INVALID_HANDLE
Das Handle <handle> ist ungültig.
Weitere Informationen finden Sie unter INVALID_HANDLE
INVALID_HANDLER_DECLARATION
Ungültige Handlerdeklaration.
Weitere Informationen finden Sie unter INVALID_HANDLER_DECLARATION
INVALID_HTTP_REQUEST_METHOD
Der Eingabeparameter: Methode, Wert: <paramValue> ist kein gültiger Parameter für http_request, da es sich nicht um eine gültige HTTP-Methode handelt.
INVALID_HTTP_REQUEST_PATH
Der Eingabeparameter: Pfad, Wert: <paramValue> ist kein gültiger Parameter für http_request, da der Pfad-Traversal nicht zulässig ist.
INVALID_IDENTIFIER
Der nicht zitierte Bezeichner <ident> ist ungültig und muss wie folgt in Anführungszeichen gesetzt werden: <ident>.
Nicht zitierte Bezeichner können nur ASCII-Buchstaben („a“ bis „z“, „A“ bis „Z“), Ziffern („0“ bis „9“) und Unterstrich („_“) enthalten.
Nicht zitierte Bezeichner dürfen auch nicht mit einer Ziffer beginnen.
Unterschiedliche Datenquellen und Metaspeicher können zusätzliche Einschränkungen für gültige Bezeichner erzwingen.
INVALID_INDEX_OF_ZERO
Der Index 0 ist ungültig. Ein Index muss entweder < 0 or > 0 sein (das erste Element hat Index 1).
INVALID_INLINE_TABLE
Ungültige Inlinetabelle.
Weitere Details finden Sie unter INVALID_INLINE_TABLE.
INVALID_INTERVAL_FORMAT
Fehler beim Parsen von „<input>” in das Intervall. Stellen Sie sicher, dass der angegebene Wert in einem gültigen Format zum Definieren eines Intervalls enthalten ist. Sie können auf die Dokumentation für das richtige Format verweisen.
Weitere Details finden Sie unter INVALID_INTERVAL_FORMAT.
INVALID_INTERVAL_WITH_MICROSECONDS_ADDITION
Ein Intervall zu einem Datum kann nicht hinzugefügt werden, da sein Mikrosekundenteil nicht 0 ist. Um dies zu beheben, wandeln Sie das Eingabedatum in einen Zeitstempel um, der das Hinzufügen von Intervallen mit nicht null Mikrosekunden unterstützt.
INVALID_IP_ADDRESS
Die Funktion <functionName> hat eine ungültige IP-Adresse erhalten: <value>.
INVALID_IP_ADDRESS_OR_CIDR_RANGE
Die Funktion <functionName> hat eine ungültige IP-Adresse oder einen CIDR-Bereich empfangen: <value>.
INVALID_JAVA_IDENTIFIER_AS_FIELD_NAME
<fieldName> ist kein gültiger Bezeichner von Java und kann nicht als Feldname verwendet werden.
<walkedTypePath>.
INVALID_JDBC_CONNECTION_OPTION
Die Option <optionKey> ist kein gültiger Parameter für diese JDBC-Verbindung.
INVALID_JDBC_CONNECTION_OPTION_VALUE
Die Option <optionKey> mit dem Wert <optionValue> ist keine gültige Option für diese JDBC-Verbindung.
INVALID_JOIN_TYPE_FOR_JOINWITH
Ungültiger Verknüpfungstyp in joinWith: <joinType>.
INVALID_JSON_DATA_TYPE
Fehler beim Konvertieren der JSON Zeichenfolge "<invalidType>" in einen Datentyp. Geben Sie einen gültigen Datentyp ein.
INVALID_JSON_DATA_TYPE_FOR_COLLATIONS
Sortierungen können nur auf Zeichenfolgentypen angewendet werden, der JSON Datentyp ist <jsonType>jedoch .
INVALID_JSON_RECORD_TYPE
Es wurde ein ungültiger Typ eines JSON Datensatzes erkannt, während ein allgemeines Schema im Modus <failFastMode>ableiten. Ein STRUCT-Typ wurde erwartet, jedoch wurde ein <invalidType>gefunden.
INVALID_JSON_ROOT_FIELD
Das Stammfeld kann nicht in den Spark-Zieltyp konvertiert werden JSON .
INVALID_JSON_SCHEMA_MAP_TYPE
Eingabeschema-<jsonSchema> kann nur STRING als Schlüsseltyp für eine MAPenthalten.
INVALID_KRYO_SERIALIZER_BUFFER_SIZE
Der Wert der Konfiguration „<bufferSizeConfKey>“ muss kleiner als 2048 MiB sein, enthält jedoch <bufferSizeConfValue> MiB.
INVALID_KRYO_SERIALIZER_NO_DATA
Das Objekt '<obj>' ist ungültig oder falsch formatiert für die Verwendung mit <serdeOp> unter Einsatz von <serdeClass>.
INVALID_LABEL_USAGE
Die Verwendung der Bezeichnung <labelName> ist ungültig.
Weitere Details finden Sie unter INVALID_LABEL_USAGE.
INVALID_LAMBDA_FUNCTION_CALL
Ungültiger Lambda-Funktionsaufruf.
Weitere Details finden Sie unter INVALID_LAMBDA_FUNCTION_CALL.
INVALID_LATERAL_JOIN_TYPE
<joinType>
JOIN mit LATERAL-Korrelation ist nicht zulässig, da eine OUTER-Unterabfrage nicht mit ihrem Joinpartner korrelieren kann. Entfernen Sie die LATERAL-Korrelation, oder verwenden Sie stattdessen einen INNERJOIN oder LEFT OUTERJOIN.
INVALID_LIMIT_LIKE_EXPRESSION
Der limit-ähnliche Ausdruck <expr> ist ungültig.
Weitere Details finden Sie unter INVALID_LIMIT_LIKE_EXPRESSION.
INVALID_LOG_VERSION
UnsupportedLogVersion.
Weitere Informationen finden Sie unter INVALID_LOG_VERSION
INVALID_NAME_IN_USE_COMMAND
Ungültiger Name '<name>' im <command> Befehl. Grund: <reason>
INVALID_NON_ABSOLUTE_PATH
Der bereitgestellte, nicht absolute Pfad <path> kann nicht qualifiziert werden. Aktualisieren Sie den Pfad zu einem gültigen DBFS-Bereitstellungsspeicherort.
INVALID_NON_DETERMINISTIC_EXPRESSIONS
Der Operator erwartet einen deterministischen Ausdruck, aber der tatsächliche Ausdruck ist <sqlExprs>.
INVALID_NUMERIC_LITERAL_RANGE
Numerisches Literal <rawStrippedQualifier> liegt außerhalb des gültigen Bereichs für <typeName>, mit einem Minimalwert von <minValue> und einem Maximalwert von <maxValue>. Bitte passen Sie den Wert entsprechend an.
INVALID_OBSERVED_METRICS
Ungültige beobachtete Metriken.
Weitere Informationen finden Sie unter INVALID_OBSERVED_METRICS
INVALID_OPTIONS
Ungültige Optionen:
Weitere Einzelheiten siehe UNGÜLTIGE_OPTIONEN
INVALID_PANDAS_UDF_PLACEMENT
Die pandas-UDF <functionList> für die Gruppenaggregierung kann nicht zusammen mit anderen Nicht-pandas-Aggregatfunktionen aufgerufen werden.
INVALID_PARAMETER_MARKER_VALUE
Es wurde eine ungültige Parameterzuordnung bereitgestellt:
Weitere Details finden Sie unter INVALID_PARAMETER_MARKER_VALUE.
INVALID_PARAMETER_VALUE
Der Wert der parameter(n) <parameter> in <functionName> ist ungültig:
Weitere Details finden Sie unter INVALID_PARAMETER_VALUE.
INVALID_PARTITION_COLUMN_DATA_TYPE
<type> kann nicht für die Partitionsspalte verwendet werden.
INVALID_PARTITION_OPERATION
Der Partitionsbefehl ist ungültig.
Weitere Details finden Sie unter INVALID_PARTITION_OPERATION.
INVALID_PARTITION_VALUE
Fehler beim Umwandeln des Werts <value> in den Datentyp <dataType> für Partitionsspalte <columnName>. Stellen Sie sicher, dass der Wert dem erwarteten Datentyp für diese Partitionsspalte entspricht.
INVALID_PIPELINE_ID
Die Pipeline-ID <pipelineId> ist ungültig.
Eine Pipeline-ID sollte eine UUID im Format "xx-xxxx-xxxx-xxxx-xxxx-xxxx" sein.
INVALID_PRIVILEGE
Berechtigung <privilege> ist für <securable>ungültig.
INVALID_PROPERTY_KEY
<key> ist ein ungültiger Eigenschaftsschlüssel, verwenden Sie z. B. Anführungszeichen SET <key>=<value>.
INVALID_PROPERTY_VALUE
<value> ist ein ungültiger Eigenschaftswert, verwenden Sie z. B. Anführungszeichen. SET <key>=<value>
INVALID_QUALIFIED_COLUMN_NAME
Der Spaltenname <columnName> ist ungültig, da er nicht mit einem Tabellennamen qualifiziert ist oder aus mehr als 4 Namenteilen besteht.
INVALID_QUERY_MIXED_QUERY_PARAMETERS
Parametrisierte Abfragen müssen entweder Positionsparameter oder benannte Parameter verwenden, aber nicht beide.
INVALID_RECURSIVE_CTE
Ungültige rekursive Definition gefunden. Rekursive Abfragen müssen eine UNION- oder UNION ALL -Anweisung mit zwei untergeordneten Elementen enthalten. Das erste untergeordnete Element muss der Ankerausdruck ohne rekursive Bezüge sein. Alle inneren CTE der obersten Ebene dürfen keine Selbstverweise enthalten.
INVALID_RECURSIVE_REFERENCE
Ungültiger rekursiver Verweis, der innerhalb WITH RECURSIVE einer Klausel gefunden wurde.
Weitere Informationen finden Sie unter INVALID_RECURSIVE_REFERENCE.
INVALID_REGEXP_REPLACE
Für source = "<source>", pattern = "<pattern>", replacement = "<replacement>" und position = <position> konnte „regexp_replace“ nicht ausgeführt werden.
UNGÜLTIGE ZURÜCKSETZBARE ABHÄNGIGKEIT
Tabellen <upstreamResettableTables> sind zurücksetzbar, verfügen jedoch über eine nicht zurücksetzbare nachgelagerte Abhängigkeit "<downstreamTable>".
reset wird fehlschlagen, da Spark Streaming gelöschte Quelldaten nicht unterstützt. Sie können entweder die <resetAllowedKey>Eigenschaft "=false" aus '<downstreamTable>' entfernen oder sie zu den upstream-Abhängigkeiten hinzufügen.
INVALID_RESET_COMMAND_FORMAT
Das erwartete Format lautet "RESET" oder "RESET-Element". Wenn Sie Sonderzeichen in die Taste aufnehmen möchten, verwenden Sie z. B. Anführungszeichen RESET key.
INVALID_RESIGNAL_USAGE
RESIGNAL wenn der Handler nicht aktiv ist. Die RESIGNAL-Anweisung kann nur im Textkörper des Ausnahmehandlers verwendet werden.
INVALID_S3_COPY_CREDENTIALS
COPY INTO Anmeldeinformationen müssen enthalten AWS_ACCESS_KEY, AWS_SECRET_KEYund AWS_SESSION_TOKEN.
INVALID_SAVE_MODE
Der angegebene Speichermodus <mode> ist ungültig. Gültige Speichermodi umfassen „anhängen“, „überschreiben“, „ignorieren“, „Fehler“, „Fehler, falls vorhanden“ und „Standard“.
INVALID_SCHEMA
Das Eingabeschema <inputSchema> ist keine gültige Schemazeichenfolge.
Weitere Details finden Sie unter INVALID_SCHEMA.
INVALID_SCHEMA_OR_RELATION_NAME
<name> ist kein gültiger Name für Tabellen/Schemas. Gültige Namen enthalten nur Alphabetzeichen, Zahlen und _.
INVALID_SCHEMA_TYPE_NON_STRUCT
Ungültiger Schematyp. Es wurde ein Strukturtyp erwartet, aber <dataType>wurde erhalten.
INVALID_SCHEME
Der Unity-Katalog unterstützt <name> nicht als Standarddateischema.
INVALID_SECRET_LOOKUP
Geheimnislookup ungültig:
Weitere Details finden Sie unter INVALID_SECRET_LOOKUP.
INVALID_SET_SYNTAX
Das erwartete Format ist 'SET', 'SET key' oder 'SET key=value'. Wenn Sie Sonderzeichen in die Taste aufnehmen oder semikolon in den Wert einschließen möchten, verwenden Sie z. B. Backquotes SET key=value.
INVALID_SHARED_ALIAS_NAME
Der <sharedObjectType> Aliasname muss das Format "schema.name" aufweisen.
INVALID_SINGLE_VARIANT_COLUMN
Das vom Benutzer angegebene Schema <schema> ist ungültig, wenn die singleVariantColumn Option aktiviert ist. Das Schema muss entweder ein Variant-Feld oder ein Variant-Feld sowie ein beschädigtes Spaltenfeld sein.
INVALID_SOURCE_CATALOG
Der Quellkatalog darf nicht im Unity-Katalog für den Befehl SYNC sein. Es wurde <catalog> gefunden.
INVALID_SOURCE_FOR_FILTERING_SERVICE_MERGE_COMMAND
Die Quelle des Filterdienstvorgangs MERGE kann nur Projektionen und Filter enthalten.
Passen Sie den MERGE Befehl an, oder verwenden Sie stattdessen eine Stagingtabelle als Quelle.
<stmt>
INVALID_SPARK_CONFIG
Ungültige Spark-Konfiguration:
Weitere Informationen finden Sie unter INVALID_SPARK_CONFIG
INVALID_SQLSTATE
Ungültiger SQLSTATE Wert: '<sqlState>'.
SQLSTATE darf genau 5 Zeichen lang sein und nur A-Z und 0-9 enthalten.
SQLSTATE darf nicht mit '00', '01' oder 'XX' beginnen.
INVALID_SQL_ARG
Das Argument <name> von sql() ist ungültig. Erwägen Sie, sie entweder durch ein SQL-Literal oder durch Sammlungskonstruktorfunktionen wie z map(), array(), struct(). B. zu ersetzen.
INVALID_SQL_FUNCTION_DATA_ACCESS
Eine SQL-Funktion mit CONTAINS SQL kann nicht erstellt werden, die auf eine Tabelle/Ansicht oder eine SQL-Funktion zugreift, die SQL-Daten liest. Verwenden READS Sie stattdessen SQL DATA.
INVALID_SQL_SYNTAX
Ungültige SQL-Syntax:
Weitere Details finden Sie unter INVALID_SQL_SYNTAX.
INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY
Ungültiger Stagingpfad in der Staging-<operation>-Abfrage: <path>
INVALID_STATEMENT_FOR_EXECUTE_INTO
Die INTO-Klausel von EXECUTE IMMEDIATE ist nur für Abfragen gültig, aber die angegebene Anweisung ist keine Abfrage: <sqlString>.
INVALID_STATEMENT_OR_CLAUSE
Die Anweisung oder Klausel: <operation> ist ungültig.
INVALID_STREAMING_RATE_SOURCE_VERSION
Ungültige Version für Zinsquelle: <version>. Die Version muss entweder 1 oder 2 sein.
INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_INTERVAL
Das Echtzeittriggerintervall ist auf <interval> ms festgelegt. Dies ist kleiner als das Minimum von <minBatchDuration> ms, das durch „spark.databricks.streaming.realTimeMode.minBatchDuration“ angegeben wird.
INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_OVERRIDE_INTERVAL
Das Prüfpunktintervall <interval> des Echtzeittriggers konnte nicht analysiert werden. Bitte überprüfen Sie, ob Sie eine positive ganze Zahl eingegeben haben.
INVALID_SUBQUERY_EXPRESSION
Ungültige Unterabfrage:
Weitere Details finden Sie unter INVALID_SUBQUERY_EXPRESSION.
INVALID_TARGET_FOR_ALTER_COMMAND
ALTER <commandTableType>
...
<command> unterstützt nicht <tableName>. Verwenden ALTER <targetTableType>...<command> Sie stattdessen.
INVALID_TARGET_FOR_SET_TBLPROPERTIES_COMMAND
ALTER <commandTableType>
...
SET TBLPROPERTIES unterstützt nicht <tableName>. Verwenden ALTER <targetTableType>...SET TBLPROPERTIES Sie stattdessen.
INVALID_TEMP_OBJ_REFERENCE
Das persistente Objekt <objName> des Typs <obj> kann nicht erstellt werden, da es auf das temporäre Objekt <tempObjName> des Typs <tempObj>verweist. Stellen Sie das temporäre Objekt <tempObjName> beständig, oder stellen Sie das persistente Objekt <objName> temporär.
INVALID_TIMESTAMP_FORMAT
Der angegebene Zeitstempel <timestamp> stimmt nicht mit der erwarteten Syntax <format>überein.
INVALID_TIMEZONE
Die Zeitzone: <timeZone> ist ungültig. Die Zeitzone muss entweder eine regionsbasierte Zonen-ID oder ein Zonenoffset sein. Regions-IDs müssen das Formular "Fläche/Stadt" aufweisen, z. B. "Amerika/Los_Angeles". Zonenoffsets müssen im Format '(+|-)HH', '(+|-)HH:mm' oder '(+|-)HH:mm:ss' vorliegen, z. B. '-08', '+01:00' oder '-13:33:33', und muss sich im Bereich von -18:00 bis +18:00 befinden. "Z" und "UTC" werden als Synonyme für "+00:00" akzeptiert.
INVALID_TIME_TRAVEL_SPEC
Bei einer Zeitreise der Tabelle können nicht sowohl die Version als auch der Zeitstempel angegeben werden.
INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
Der Zeitreisezeitstempelausdruck <expr> ist ungültig.
Weitere Details finden Sie unter INVALID_TIME_TRAVEL_TIMESTAMP_EXPR.
INVALID_TYPED_LITERAL
Der Wert des typierten Literals <valueType> ist ungültig: <value>.
INVALID_UDF_IMPLEMENTATION
Funktion <funcName> implementiert keine ScalarFunction oder AggregateFunction.
INVALID_UPGRADE_SYNTAX
<command> <supportedOrNot> Die Quelltabelle befindet sich im Hive-Metastore und die Zieltabelle in Unity Catalog.
INVALID_URL
Die URL ist ungültig: <url>. Verwenden Sie try_parse_url, um ungültige URL zu tolerieren und stattdessen NULL zurückzugeben.
INVALID_USAGE_OF_STAR_OR_REGEX
Ungültige Verwendung von <elem> in <prettyName>.
INVALID_UTF8_STRING
Ungültige UTF8-Bytesequenz in Zeichenfolge: <str>.
INVALID_UUID
Eingabe-<uuidInput> ist keine gültige UUID.
Die UUID sollte im Format "xx-xxxx-xxxx-xxxx-xxxx-xxxxxxxxxx" vorliegen.
Bitte überprüfen Sie das Format der UUID.
INVALID_VARIABLE_DECLARATION
Ungültige Variablendeklaration.
Weitere Details finden Sie unter INVALID_VARIABLE_DECLARATION.
INVALID_VARIANT_CAST
Der Variant-Wert <value> kann nicht in <dataType>umgewandelt werden. Verwenden Sie stattdessen try_variant_get.
INVALID_VARIANT_FROM_PARQUET
Ungültige Variante.
Weitere Details finden Sie unter INVALID_VARIANT_FROM_PARQUET.
INVALID_VARIANT_GET_PATH
Der Pfad <path> ist kein gültiger Variant-Extraktionspfad in <functionName>.
Ein gültiger Pfad sollte mit $ null oder mehr Segmenten beginnen und folgt wie [123], .name, ['name'], oder ["name"].
INVALID_VARIANT_SHREDDING_SCHEMA
Das Schema <schema> ist kein gültiges Variant-Shredding-Schema.
INVALID_WHERE_CONDITION
Die WHERE Bedingung <condition> enthält ungültige Ausdrücke: <expressionList>.
Schreiben Sie die Abfrage neu, um Fensterfunktionen, Aggregatfunktionen und Generatorfunktionen in der WHERE-Klausel zu vermeiden.
INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC
Es kann weder ORDER BY noch ein Fensterrahmen für <aggFunc> angegeben werden.
INVALID_WITHIN_GROUP_EXPRESSION
Ungültige Funktion <funcName> mit WITHIN GROUP.
Weitere Einzelheiten finden Sie unter INVALID_WITHIN_GROUP_EXPRESSION
INVALID_WRITER_COMMIT_MESSAGE
Der Datenquellen-Schreiber hat eine ungültige Anzahl von Commit-Nachrichten generiert. Es wurde genau eine Commitnachricht für jede Aufgabe vom Writer erwartet, aber <detail> empfangen.
INVALID_WRITE_DISTRIBUTION
Die angeforderte Schreibverteilung ist ungültig.
Weitere Details finden Sie unter INVALID_WRITE_DISTRIBUTION.
IRC_CREDENTIAL_VENDING_ERROR
Fehler beim Herstellen einer Verbindung mit dem IRC-Host, der keine Anmeldeinformationen für die Tabelle <tableIdentifier>angibt.
Weitere Informationen finden Sie unter IRC_CREDENTIAL_VENDING_ERROR
ISOLATED_COMMAND_FAILURE
Fehler beim Ausführen von <command>. Befehlsausgabe:
<output>
ISOLATED_COMMAND_UNKNOWN_FAILURE
Fehler beim Ausführen von <command>.
ISOLATION_ENVIRONMENT_ERROR
Fehler beim Installieren von Umgebungsabhängigkeiten <name> aufgrund eines Systemfehlers.
Weitere Informationen finden Sie unter ISOLATION_ENVIRONMENT_ERROR
ISOLATION_ENVIRONMENT_USER_ERROR
Fehler beim Installieren von Umgebungsabhängigkeiten für <name>.
Weitere Informationen finden Sie unter ISOLATION_ENVIRONMENT_USER_ERROR
JDBC_EXTERNAL_ENGINE_SYNTAX_ERROR
JDBC-Syntaxfehler der externen Engine. Der Fehler wurde durch die Abfrage <jdbcQuery>verursacht.
<externalEngineError>.
Weitere Details finden Sie unter JDBC_EXTERNAL_ENGINE_SYNTAX_ERROR
JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE
Die Verknüpfungsbedingung <joinCondition> hat den ungültigen Typ <conditionType>, erwartet "BOOLEAN".
KAFKA_DATA_LOSS
Einige Daten sind möglicherweise verloren gegangen, weil sie in Kafka nicht mehr verfügbar sind;
entweder die Daten wurden von Kafka ausgelöscht, oder das Thema wurde möglicherweise gelöscht, bevor alle Daten im
Thema verarbeitet wurden.
Wenn Ihre Streaming-Abfrage in solchen Fällen nicht fehlschlagen soll, legen Sie die Quelloption "failOnDataLoss" auf "false" fest.
Reason:
Weitere Informationen finden Sie unter KAFKA_DATA_LOSS
KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET
Konnte nicht bis zur gewünschten Sequenznummer <endSeqNum> für Shard <shardId> im
kinesis-Stream <stream> mit Consumermodus <consumerMode>. Die Abfrage wird fehlschlagen aufgrund von
potenzieller Datenverlust. Der letzte gelesene Datensatz war bei Sequenznummer <lastSeqNum>.
Dies kann passieren, wenn die Daten mit endSeqNum bereits veraltet sind oder der Kinesis-Datenstrom abgelaufen war.
gelöscht und mit demselben Namen neu erstellt wurde. Das Fehlerverhalten kann außer Kraft gesetzt werden.
durch Festlegen von spark.databricks.kinesis.failOnDataLoss auf "false" in der Spark-Konfiguration.
KINESIS_EFO_CONSUMER_NOT_FOUND
Für den Kinesis-Stream <streamId>wurde der zuvor registrierte EFO-Nutzer <consumerId> des Datenstroms gelöscht.
Starten Sie die Abfrage neu, damit ein neuer Consumer registriert wird.
KINESIS_EFO_SUBSCRIBE_LIMIT_EXCEEDED
Für Shard <shard>erfolgte der vorherige Aufruf der subscribeToShard-API innerhalb von 5 Sekunden vor dem nächsten Aufruf.
Starten Sie die Abfrage nach 5 Sekunden oder mehr neu.
KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD
Die abgerufene Mindest-ShardId von Kinesis (<fetchedShardId>)
ist kleiner als die nachverfolgte Mindest-shardId (<trackedShardId>).
Dies ist unerwartet und tritt auf, wenn ein Kinesis-Datenstrom gelöscht und mit demselben Namen neu erstellt wird.
und eine Streamingabfrage mit diesem Kinesis-Stream mithilfe eines vorhandenen Prüfpunktorts neu gestartet wird.
Starten Sie die Streamingabfrage mit einem neuen Prüfpunktort neu, oder erstellen Sie einen Stream mit einem neuen Namen.
KINESIS_POLLING_MODE_UNSUPPORTED
Der Kinesis-Abrufmodus wird nicht unterstützt.
KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION
Bei Shard <shard>hatte der letzte Datensatz, der in vorherigen Abrufen von Kinesis gelesen wurde, die Sequenznummer <lastSeqNum>.
der größer als der Datensatz ist, der im aktuellen Abruf mit Sequenznummer <recordSeqNum> gelesen wird.
Dies ist unerwartet und kann auftreten, wenn die Startposition des Wiederholungs- oder nächsten Abrufszyklus falsch initialisiert ist und dies kann zu doppelten Datensätzen im weiteren Verlauf führen.
KINESIS_SOURCE_MUST_BE_IN_EFO_MODE_TO_CONFIGURE_CONSUMERS
Um aus Kinesis Streams mit Consumerkonfigurationen (consumerName, consumerNamePrefixoder registeredConsumerId) zu lesen, consumerMode muss es sich um efo.
KINESIS_SOURCE_MUST_SPECIFY_REGISTERED_CONSUMER_ID_AND_TYPE
Um aus Kinesis-Streams mit registrierten Consumern zu lesen, müssen Sie sowohl die Option registeredConsumerId als auch registeredConsumerIdType angeben.
KINESIS_SOURCE_MUST_SPECIFY_STREAM_NAMES_OR_ARNS
Zum Lesen aus Kinesis Streams müssen Sie entweder die streamName- oder streamARN-Option als durch Kommas getrennte Liste von Datenstromnamen/ARNs konfigurieren, aber nicht beide gleichzeitig.
KINESIS_SOURCE_NO_CONSUMER_OPTIONS_WITH_REGISTERED_CONSUMERS
Um aus Kinesis-Streams mit registrierten Consumern zu lesen, konfigurieren Sie nicht die Option consumerName oder consumerNamePrefix, da diese nicht wirksam werden.
KINESIS_SOURCE_REGISTERED_CONSUMER_ID_COUNT_MISMATCH
Die Anzahl der registrierten Consumer-IDs muss der Anzahl der Kinesis-Streams entsprechen, es wurden jedoch <numConsumerIds> Consumer-IDs und <numStreams> Streams erkannt.
KINESIS_SOURCE_REGISTERED_CONSUMER_NOT_FOUND
Der von <consumerId> angegebene registrierte Consumer kann für streamARN <streamARN> nicht gefunden werden. Stellen Sie sicher, dass Sie den Verbraucher registriert haben, oder stellen Sie die option registeredConsumerId nicht bereit.
KINESIS_SOURCE_REGISTERED_CONSUMER_TYPE_INVALID
Der registrierte Consumertyp <consumerType> ist ungültig. Es muss entweder name oder ARNsein.
KLL_SKETCH_INCOMPATIBLE_MERGE
Für Funktion <functionName>können KLL-Skizzen nicht zusammengeführt werden: <reason>
KLL_SKETCH_INVALID_INPUT
Für Funktion <functionName>, ungültige KLL-Skizzen-Binärdaten: <reason>
KLL_SKETCH_INVALID_QUANTILE_RANGE
Für die Funktion <functionName>muss der Quantilewert zwischen 0,0 und 1,0 (einschließlich) liegen, aber erhalten <quantile>.
KLL_SKETCH_K_MUST_BE_CONSTANT
Für die Funktion <functionName>muss der k-Parameter ein Konstantenwert sein, aber es wurde ein nicht konstanter Ausdruck abgerufen.
KLL_SKETCH_K_OUT_OF_RANGE
Für die Funktion <functionName>muss der k-Parameter zwischen 8 und 65535 (einschließlich) liegen, aber erhalten <k>.
KRYO_BUFFER_OVERFLOW
Fehler bei der Kryo-Serialisierung: <exceptionMsg>. Um dies zu vermeiden, erhöhen Sie den Wert "<bufferSizeConfKey>".
LABELS_MISMATCH
Begin label <beginLabel> stimmt nicht mit der Endbezeichnung <endLabel>überein.
LABEL_ORDER_FÜR_VARIABLE_EXISTIERT_BEREITS
Die Bezeichnung oder FOR Variable <label> ist bereits vorhanden. Wählen Sie einen anderen Namen aus, oder benennen Sie den vorhandenen Namen um.
LABEL_ODER_FÜR_VARIABLENNAME_VERBOTEN
"Das Label oder der Variablenname FOR<label> ist unzulässig."
LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION
Die Lakehouse-Verbunddatenquelle "<provider>" erfordert eine neuere Databricks-Runtime-Version.
Weitere Einzelheiten finden Sie unter LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION
LATERAL_JOIN_WITH_ARROW_UDTF_UNSUPPORTED (Lateral-Join mit Arrow-UDTF nicht unterstützt)
LATERAL
JOIN mit pfeiloptimierten benutzerdefinierten Tabellenfunktionen (UDTFs) wird nicht unterstützt. Pfeil-UDTFs können nicht auf der rechten Seite einer lateralen Verknüpfung verwendet werden.
Verwenden Sie stattdessen eine normale UDTF, oder strukturieren Sie Ihre Abfrage, um die laterale Verknüpfung zu vermeiden.
LEGACY_CREATE_TEMP_TABLE_WITHOUT_PROVIDER_NOT_SUPPORTED
CREATE TEMPORARY TABLE ohne anbieter ist nicht zulässig.
LOAD_DATA_PATH_NOT_EXISTS
LOAD DATA Eingabepfad existiert nicht: <path>.
LOCAL_MUST_WITH_SCHEMA_FILE
LOCAL muss zusammen mit dem Schema von file verwendet werden, enthielt jedoch Folgendes: <actualSchema>.
LOCATION_ALREADY_EXISTS
Die verwaltete Tabelle kann nicht als <identifier>benannt werden, da der zugeordnete Speicherort <location> bereits vorhanden ist. Wählen Sie einen anderen Tabellennamen aus, oder entfernen Sie zuerst den vorhandenen Speicherort.
LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW
Einige Partitionen in Kafka-Themen sind während der Ausführung der Abfrage mit Trigger.AvailableNow verloren gegangen. Der Fehler kann vorübergehend sein: Starten Sie Die Abfrage neu, und melden Sie, wenn dasselbe Problem weiterhin angezeigt wird.
Themenpartitionen für den neuesten Offset: <tpsForLatestOffset>, Themenpartitionen für den Endoffset: <tpsForEndOffset>
MALFORMED_AVRO_MESSAGE
Falsch formatierte Avro-Nachrichten werden in der Deserialisierung von Nachrichten erkannt. Parsemodus: <mode>. Um falsch formatierte Avro-Nachricht als NULL-Ergebnis zu verarbeiten, versuchen Sie, die Option "Modus" als "PERMISSIVE" festzulegen.
MALFORMED_CHARACTER_CODING
Ungültiger Wert beim Ausführen von <function> mit <charset> gefunden
MALFORMED_CSV_RECORD
Falsch formatierter CSV-Eintrag: <badRecord>
MALFORMED_LOG_FILE
Die Protokolldatei war falsch formatiert: Fehler beim Lesen der richtigen Protokollversion aus <text>.
MALFORMED_PROTOBUF_MESSAGE
Falsch formatierte Protobuf-Nachrichten werden bei der Nachrichtendeserialisierung erkannt. Parsemodus: <failFastMode>. Um falsch formatierte Protobuf-Nachricht als NULL-Ergebnis zu verarbeiten, versuchen Sie, die Option "Modus" als "PERMISSIVE' festzulegen.
MALFORMED_RECORD_IN_PARSING
Beim Parsen von Datensätzen werden nicht wohlgeformte Datensätze erkannt: <badRecord>.
Parsemodus: <failFastMode>. Um falsch formatierte Datensätze als NULL-Ergebnis zu verarbeiten, versuchen Sie, die Option "Modus" als "PERMISSIVE" festzulegen.
Weitere Details finden Sie unter MALFORMED_RECORD_IN_PARSING.
MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE
Nicht wohlgeformter Zustand in RatePerMicroBatch-Quelle.
Weitere Einzelheiten finden Sie unter MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE
MALFORMED_VARIANT
Die Variant-Binärdatei ist falsch formatiert. Überprüfen Sie, ob die Datenquelle gültig ist.
MANAGED_ICEBERG_ATTEMPTED_TO_ENABLE_CLUSTERING_WITHOUT_DISABLING_DVS_OR_ROW_TRACKING
Es wurde versucht, liquid clustering auf einer Verwalteten Apache Iceberg-Tabelle zu aktivieren, ohne sowohl Löschvektoren als auch Zeilenverfolgung zu deaktivieren. Löschvektoren und Zeilenverfolgung werden für verwaltete Apache Iceberg-Tabellen nicht unterstützt, sind jedoch für die Parallelität auf Zeilenebene mit Liquid-Tabellen erforderlich. Um liquid clustering auf einer verwalteten Apache Iceberg-Tabelle mit reduzierter Parallelitätssteuerung zu aktivieren, müssen Löschvektoren und Zeilenverfolgung für diese Tabelle deaktiviert werden.
MANAGED_ICEBERG_OPERATION_NOT_SUPPORTED
Verwaltete Apache-Iceberg-Tabellen unterstützen <operation> nicht.
MANAGED_TABLE_WITH_CRED
Das Erstellen einer verwalteten Tabelle mit Speicheranmeldeinformationen wird nicht unterstützt.
MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID
Die materialisierte Sicht kann nicht <refreshType> werden, da sie vor „pipelineId“ vorhanden war. Um <refreshType> zu aktivieren, löschen Sie bitte die materialisierte Sicht und erstellen sie neu.
MATERIALIZED_VIEW_NOT_INCREMENTALIZABLE
Die materialisierte Ansicht kann nicht mit <refreshPolicy> der Aktualisierungsrichtlinie erstellt werden, da sie für die inkrementelle Aktualisierung nicht unterstützt wird. Reason:
Weitere Informationen finden Sie unter MATERIALIZED_VIEW_NOT_INCREMENTALIZABLE
MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
Der materialisierte Ansichtsvorgang <operation> ist nicht zulässig:
Weitere Details finden Sie unter MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED.
MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS
Der Ausgabeausdruck <expression> in einer materialisierten Sicht muss explizit mit einem Alias erstellt werden.
MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID
materialisierte Ansicht <name> konnte nicht mit Streaming-Abfrage erstellt werden. Verwenden CREATE Sie [OR REFRESH] STREAMING TABLE oder entfernen Sie das STREAM Schlüsselwort für Ihre FROM Klausel, um diese Beziehung stattdessen in eine Batchabfrage umzuwandeln.
MATERIALIZED_VIEW_UNSUPPORTED_OPERATION
Vorgang <operation> wird für materialisierte Ansichten derzeit nicht unterstützt.
MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED
Die neue Variable <variableName> kann nicht erstellt werden, da die Anzahl der Variablen in der Sitzung die maximal zulässige Anzahl (<maxNumVariables>) überschreitet.
MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE
maxRecordsPerFetch muss eine positive ganze Zahl kleiner oder gleich <kinesisRecordLimit> sein.
MCV_INVALID_INPUT_SKETCH_BUFFER
Ungültiger Aufruf von <function>; nur gültige MCV-Skizzenpuffer werden als Eingaben unterstützt (z. B. die von der mcv_collect_internal Funktion erzeugten).
MERGE_CARDINALITY_VIOLATION
Die ON-Suchbedingung der MERGE-Anweisung stimmt überein mit einer einzelnen Zeile der Zieltabelle, die sich mit mehreren Zeilen der Quelltabelle deckt.
Dies kann dazu führen, dass die Zielzeile mehrmals mit einem Aktualisierungs- oder Löschvorgang bearbeitet wird, was nicht zulässig ist.
MERGE_WITHOUT_WHEN
Es muss mindestens eine WHEN-Klausel in einer MERGE-Anweisung vorhanden sein.
METRIC_CONSTRAINT_NOT_SUPPORTED
METRIC CONSTRAINT ist nicht aktiviert.
METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
Der bereitgestellte Wert "<argValue>" wird von Argument "<argName>" für die METRIC_STORE Tabellenfunktion nicht unterstützt.
Weitere Details finden Sie unter METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR.
METRIC_STORE_UNSUPPORTED_ERROR
Die metrische Store-Routine <routineName> ist derzeit in dieser Umgebung deaktiviert.
METRIC_VIEW_AMBIGUOUS_JOIN_CRITERIA
Die Definition der Metrikansicht enthält eine Verknüpfung mit mehrdeutigen Kriterien: <expr>. [Verwenden Sie entweder die using Verknüpfungskriterien, oder qualifizieren Sie Spalten explizit mit dem <sourceAlias> Alias.]
METRIC_VIEW_CACHE_TABLE_NOT_SUPPORTED
Die Metrikansicht darf keine Cachetabellen verwenden.
METRIC_VIEW_FEATURE_DISABLED
Das Feature "Metrikansicht" ist deaktiviert. Stellen Sie sicher, dass "spark.databricks.sql.metricView.enabled" auf "true" festgelegt ist.
METRIC_VIEW_INVALID_MEASURE_FUNCTION_INPUT
Die funktion MEASURE() akzeptiert nur ein Attribut als Eingabe, hat aber <expr>
METRIC_VIEW_INVALID_VIEW_DEFINITION
Die Definition der Metrikansicht ist ungültig. Grund: <reason>.
METRIC_VIEW_IN_CTE_NOT_SUPPORTED
Die Metrikansicht ist in CTE-Definitionen nicht zulässig. Plan: <plan>
METRIC_VIEW_JOIN_NOT_SUPPORTED
Die Metrikansicht darf Verknüpfungen nicht verwenden. Plan: <plan>
METRIC_VIEW_MATERIALIZATIONS_DISABLED
Metrische Ansichtsmaterialisierungen sind deaktiviert. Stellen Sie sicher, dass "spark.databricks.sql.metricView.materializations.enabled" auf "true" festgelegt ist.
METRIC_VIEW_MATERIALIZATIONS_UNAGGREGATED_WITH_METRIC_VIEW
Die nicht aggregierte Materialisierung wird nicht unterstützt, wenn die Metrikansicht auf andere Metrikansichten verweist.
METRIKANSICHTSMATERIALISIERUNG_AUF_TEMPORÄRE_ANSICHT_NICHT_UNTERSTÜTZT
Die Materialisierung wird für temporäre Metrikansichten nicht unterstützt.
METRIC_VIEW_MATERIALIZATION_WITH_INVOKER_DEPENDENT_EXPRESSIONS_NOT_SUPPORTED
Die Materialisierung wird für metrische Ansichten, die aufruferabhängige Ausdrücke enthalten, nicht unterstützt. Diese Ausdrücke verhindern die Wiederverwendung von Materialisierungen.
METRIC_VIEW_MEASURE_IN_GROUP_BY
<measureColumns> Measurespalten können nicht in GROUP BY Klauseln oder als kategorisierte Werte verwendet werden. Es wird empfohlen, sie mit einer Aggregatfunktion wie SUMME() für das erwartete Verhalten umzuschließen.
METRIC_VIEW_MISSING_MEASURE_FUNCTION
Die Verwendung der Messspalte <column> einer Metrikansicht erfordert eine MEASURE() Funktion, um Ergebnisse zu erhalten.
METRIC_VIEW_NOT_MATERIALIZED
Der Befehl 'Materialisierte Ansicht' in der Metrikansicht ohne definierte Materialisierungen
Weitere Informationen finden Sie unter METRIC_VIEW_NOT_MATERIALIZED
METRISCHE_ANSICHT_NICHT_UNTERSTÜTZT_IN_HMS
Metrikansichten werden in HMS nicht unterstützt.
METRIC_VIEW_RENAME_DIFFERENT_CATALOG_AND_SCHEMA
Die Metrikansicht <oldName> darf nicht in einen anderen Katalog oder ein anderes Schema umbenannt werden: <newName>
METRIC_VIEW_SNOWFLAKE_JOIN_FEATURE deaktiviert
Die Metrikansicht im Snowflake-Join-Feature ist deaktiviert. Stellen Sie sicher, dass "spark.databricks.sql.metricView.snowflake.join.enable" auf "true" festgelegt ist.
METRIC_VIEW_UNSUPPORTED_USAGE
Die Verwendung der Metrikansicht wird nicht unterstützt. Plan: <plan>
METRIC_VIEW_WINDOW_FUNCTION_NOT_SUPPORTED
Die Metrikansicht darf die Fensterfunktion <expr> nicht verwenden.
METRIC_VIEW_YAML_V11_DISABLED
Die Metrikansicht YAML v1.1 ist deaktiviert. Stellen Sie sicher, dass "spark.databricks.sql.metricView.yaml.v11.enabled" auf "true" festgelegt ist.
MIGRATION_NOT_SUPPORTED
<table> wird für die Migration zur verwalteten UC-Tabelle nicht unterstützt, da es sich nicht um eine <tableKind> Tabelle handelt.
Stellen Sie sicher, dass die zu migrierende Tabelle eine externe UC-Delta-Tabelle ist und
es wird auf den Namen anstatt auf den Pfad verwiesen.
MIGRATION_ROLLBACK_NOT_SUPPORTED
<table> wird für den Rollback von zu verwalteter zu externer Tabelle nicht unterstützt, da es sich nicht um eine <tableKind>-Tabelle handelt.
MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED
Die Kafka-Datenquelle in „Trigger.AvailableNow“ muss die gleichen Themenpartitionen im vorab abgerufenen Offset bis zum End-Offset für jeden Mikrobatch bereitstellen. Der Fehler kann vorübergehend sein: Starten Sie Die Abfrage neu, und melden Sie, wenn dasselbe Problem weiterhin angezeigt wird.
Themenpartitionen für den vorab abgerufenen Offset: <tpsForPrefetched>, Themenpartitionen für den Endoffset: <tpsForEndOffset>.
MISSING_AGGREGATION
Der nicht aggregierende Ausdruck <expression> basiert auf Spalten, die nicht an der GROUP BY-Klausel teilnehmen.
Fügen Sie dem GROUP BYdie Spalten oder den Ausdruck hinzu, aggregieren Sie den Ausdruck, oder verwenden Sie <expressionAnyValue>, wenn es Ihnen egal ist, welcher Wert innerhalb einer Gruppe zurückgegeben wird.
Weitere Details finden Sie unter MISSING_AGGREGATION.
MISSING_CATALOG_ABILITY
Katalog <plugin> unterstützt nicht
Weitere Details finden Sie unter MISSING_CATALOG_ABILITY
MISSING_CLAUSES_FOR_OPERATION
Fehlende Klausel <clauses> für den Vorgang <operation>. Fügen Sie die erforderlichen Klauseln hinzu.
MISSING_CONNECTION_OPTION
Verbindungen vom Typ '<connectionType>' müssen die folgenden Optionen enthalten: <requiredOptions>.
MISSING_DATABASE_FOR_V1_SESSION_CATALOG
Der Datenbankname wird im v1-Sitzungskatalog nicht angegeben. Stellen Sie sicher, dass Sie beim Interagieren mit dem v1-Katalog einen gültigen Datenbanknamen angeben.
MISSING_GROUP_BY
Die Abfrage enthält keine GROUP BY Klausel. Fügen Sie GROUP BY hinzu, oder bauen Sie es mithilfe von OVER-Klauseln in Fensterfunktionen um.
MISSING_NAME_FOR_CHECK_CONSTRAINT
CHECK Constraint muss einen Namen haben.
MISSING_PARAMETER_FOR_KAFKA
Parameter <parameterName> ist für Kafka erforderlich, wird jedoch in <functionName>nicht angegeben.
MISSING_PARAMETER_FOR_ROUTINE
Parameter <parameterName> ist erforderlich, wird jedoch in <functionName>nicht angegeben.
MISSING_SCHEDULE_DEFINITION
Die Bereitstellung einer Zeitplandefinition muss gemäß SCHEDULE erfolgen.
MISSING_TIMEOUT_CONFIGURATION
Der Vorgang ist abgelaufen, es ist jedoch kein Timeout-Zeitraum konfiguriert. Verwenden Sie zum Festlegen eines zeitbasierten Verarbeitungstimeouts "GroupState.setTimeoutDuration()" in Ihrem 'mapGroupsWithState'- oder 'flatMapGroupsWithState'-Vorgang. Verwenden Sie für ereigniszeitbasiertes Timeout "GroupState.setTimeoutTimestamp()" und definieren Sie ein Wasserzeichen mithilfe von "Dataset.withWatermark()".
MISSING_WINDOW_SPECIFICATION
Die Fensterspezifikation ist in der WINDOW-Klausel für <windowName>nicht definiert. Weitere Informationen zu WINDOW Klauseln finden Sie unter "<docroot>/sql-ref-syntax-qry-select-window.html".
MODIFY_BUILTIN_CATALOG
Das Ändern des integrierten Katalogs <catalogName> wird nicht unterstützt.
MULTIPART_FLOW_NAME_NOT_SUPPORTED
Der Fluss mit mehrteiligen Namen '<flowName>' wird nicht unterstützt.
MULTIPLE_EXCEL_DATA_SOURCE
Es wurden mehrere Excel-Datenquellen mit dem Namen <provider> (<sourceNames>)erkannt. Geben Sie den vollqualifizierten Klassennamen an, oder entfernen Sie <externalSource> aus dem Klassenpfad.
MULTIPLE_LOAD_PATH
Databricks Delta unterstützt nicht mehrere Eingabepfade in der load()-API.
Pfade: <pathList>. So erstellen Sie einen einzelnen DataFrame durch Laden
mehrere Pfade aus derselben Delta-Tabelle laden, sollten Sie den Stammpfad der
die Delta-Tabelle mit den entsprechenden Partitionsfiltern. Wenn mehrere Pfade
aus verschiedenen Delta-Tabellen stammen, verwenden Sie die APIs union() oder unionByName() des Datasets,
um die DataFrames zu kombinieren, die durch separate load()-API-Aufrufe generiert werden.
MULTIPLE_MATCHING_CONSTRAINTS
Es wurden mindestens zwei übereinstimmende Einschränkungen mit der angegebenen Bedingung gefunden.
MULTIPLE_QUERY_RESULT_CLAUSES_WITH_PIPE_OPERATORS
<clause1> und <clause2> kann nicht im gleichen SQL-Pipeoperator mit '|>' koexistieren. Trennen Sie die mehreren Ergebnisklauseln in separate Pipeoperatoren, und wiederholen Sie dann die Abfrage erneut.
MULTIPLE_TIME_TRAVEL_SPEC
Die Zeitreise kann nicht sowohl in der Zeitreiseklausel als auch in den Optionen angegeben werden.
MULTIPLE_XML_DATA_SOURCE
Mehrere Datenquellen mit dem Namen <provider> (<sourceNames>)erkannt. Geben Sie den vollqualifizierten Klassennamen an, oder entfernen Sie <externalSource> aus dem Klassenpfad.
MULTI_ALIAS_WITHOUT_GENERATOR
Mehrteiliges Aliasing (<names>) wird mit <expr> nicht unterstützt, da es sich nicht um eine Generatorfunktion handelt.
MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION
Der Ausdruck <expr> unterstützt nicht mehr als eine Quelle.
MULTI_SOURCE_METRIC_VIEW_MEASURE_REFERENCING_DIMENSION
Die Measurespalte <measureColumn> in der Metrikansicht kann nicht auf Bemaßungsspalten (<dimensionColumn>) verweisen.
MULTI_SOURCE_METRIC_VIEW_UNQUALIFIED_MEASURE_REF
Nicht qualifizierter Measurespaltenverweis <measureColumn> in der Metrikansicht mit mehreren Quellen ist nicht zulässig. Qualifizieren Sie die Measurespalte mit dem Quellalias.
MULTI_SOURCE_METRIC_VIEW_UNSUPPORTED_EXPRESSION
Aggregationsausdruck über mehreren Quellen in der Metrikansicht wird nicht unterstützt: <expr>.
MULTI_UDF_INTERFACE_ERROR
Nicht zulässig, mehrere UDF-Schnittstellen zu implementieren, UDF-Klasse <className>.
MUTUALLY_EXCLUSIVE_CLAUSES
Sich gegenseitig ausschließende Klauseln oder Optionen <clauses>. Entfernen Sie eine dieser Klauseln.
MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE
Die Eingabeabfrage erwartet eine <expectedType>, die zugrunde liegende Tabelle ist jedoch eine <givenType>.
NAMED_PARAMETERS_NOT_SUPPORTED
Benannte Parameter werden für die Funktion <functionName>nicht unterstützt; bitte versuchen Sie es erneut, indem Sie Positionsargumente für den Funktionsaufruf verwenden.
NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS
Funktion <functionName> kann nicht aufgerufen werden, weil benannte Argumentverweise nicht unterstützt werden. In diesem Fall wurde der benannte Argumentverweis <argument>verwendet.
NAMED_PARAMETER_SUPPORT_DISABLED
Die Funktion <functionName> kann nicht aufgerufen werden, da hier keine benannten Argumentverweise aktiviert sind.
In diesem Fall wurde der benannte Argumentverweis <argument>verwendet.
Legen Sie "spark.sql.allowNamedFunctionArguments" auf "true" fest, um das Feature zu aktivieren.
NAMESPACE_ALREADY_EXISTS
Namespace-<nameSpaceName> kann nicht erstellt werden, da er bereits vorhanden ist.
Wählen Sie einen anderen Namen aus, legen Sie den vorhandenen Namespace ab, oder fügen Sie die IF NOT EXISTS Klausel hinzu, um bereits vorhandene Namespaces zu tolerieren.
NAMESPACE_NOT_EMPTY
Ein Namespace-<nameSpaceNameName> kann nicht gelöscht werden, da er Objekte enthält.
Wird DROP NAMESPACE...CASCADE verwendet, um den Namespace und alle zugehörigen Objekte abzulegen.
NAMESPACE_NOT_FOUND
Der Namespace <nameSpaceName> kann nicht gefunden werden. Überprüfen Sie die Schreib- und Korrektheit des Namespaces.
Wenn Sie den Namen nicht mit einem qualifiziert haben, überprüfen Sie die current_schema()-Ausgabe, oder qualifizieren Sie den Namen mit dem richtigen.
Um den Fehler beim Trennen zu tolerieren, verwenden Sie DROP NAMESPACE IF EXISTS.
NATIVE_IO_ERROR
Fehler bei der nativen Anforderung. RequestId: <requestId>, Cloud: <cloud>, Vorgang: <operation>
Anforderung: [https: <https>, method = <method>, path = <path>, params = <params>, host = <host>, headers = <headers>, bodyLen = <bodyLen>],
fehler: <error>
NATIVE_XML_DATA_SOURCE_NOT_ENABLED
Native XML-Datenquelle ist in diesem Cluster nicht aktiviert.
NEGATIVE_SCALE_DISALLOWED
Negative Skalierung ist nicht zulässig: '<scale>'. Legen Sie die Konfiguration <sqlConf> auf "true" fest, um sie zuzulassen.
NEGATIVE_VALUES_IN_FREQUENCY_EXPRESSION
Es wurde ein negativer Wert in <frequencyExpression> gefunden: <negativeValue>, aber ein positiver Integralwert wurde erwartet.
NESTED_AGGREGATE_FUNCTION
Es ist nicht zulässig, eine Aggregatfunktion im Argument einer anderen Aggregatfunktion zu verwenden. Verwenden Sie die innere Aggregatfunktion in einer Unterabfrage.
NESTED_EXECUTE_IMMEDIATE
Geschachtelte EXECUTE IMMEDIATE Befehle sind nicht zulässig. Stellen Sie sicher, dass die bereitgestellte SQL-Abfrage (<sqlString>) keinen anderen EXECUTE IMMEDIATE Befehl enthält.
NESTED_REFERENCES_IN_LATERAL_SUBQUERY_NOT_SUPPORTED
Es wurden äußere Bereichsverweise <expression> in der lateralen Unterabfrage erkannt, die nicht unterstützt wird. Stellen Sie sicher, dass die laterale Unterabfrage keine Unterabfragen enthält, die auf Attribute aus geschachtelten äußeren Bereichen verweisen.
VERSCHACHTELTE_REFERENZEN_IN_UNTERABFRAGE_NICHT_UNTERSTÜTZT
Es wurden äußere Bereichsverweise <expression> in der Unterabfrage erkannt, die nicht unterstützt wird.
NEUE_ÜBERPRÜFUNGSEINSCHRÄNKUNGSVERLETZUNG
Die neue Check-Einschränkung (<expression>) kann nicht hinzugefügt werden, da sie durch vorhandene Daten in der Tabelle <tableName>verletzt würde. Stellen Sie sicher, dass alle vorhandenen Zeilen die Einschränkung erfüllen, bevor Sie sie hinzufügen.
NONEXISTENT_FIELD_NAME_IN_LIST
Feld(er) <nonExistFields> ist/sind nicht vorhanden. Verfügbare Felder: <fieldNames>
NICHT_DETERMINISTISCHE_PRÜFUNGSEINSCHRÄNKUNG
Die Check-Einschränkung <checkCondition> ist nicht deterministisch. Check-Einschränkungen dürfen nur deterministische Ausdrücke enthalten.
NON_FOLDABLE_ARGUMENT
Für die Funktion <funcName> muss der Parameter <paramName> ein faltbarer Ausdruck des Typs <paramType>sein, das tatsächliche Argument ist jedoch nicht faltbar.
NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Wenn es in einer MATCHED-Anweisung mehr als eine MERGE-Klausel gibt, kann nur die letzte MATCHED-Klausel die Bedingung weglassen.
NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Wenn es in einer NOT MATCHED BY SOURCE-Anweisung mehr als eine MERGE-Klausel gibt, kann nur die letzte NOT MATCHED BY SOURCE-Klausel die Bedingung weglassen.
NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION
Wenn es in einer NOT MATCHED [BY TARGET]-Anweisung mehr als eine MERGE-Klausel gibt, kann nur die letzte NOT MATCHED [BY TARGET]-Klausel die Bedingung weglassen.
NON_LITERAL_PIVOT_VALUES
Literalausdrücke sind für Pivotwerte erforderlich, es wurde <expression> gefunden.
NON_PARTITION_COLUMN
PARTITION-Klausel darf keine Nicht-Partitionsspalten enthalten: <columnName>.
NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING
Die WINDOW-Funktion wird in <windowFunc> (als Spalte <columnName>) für Streaming-DataFrames/Datasets nicht unterstützt.
Strukturiertes Streaming unterstützt nur die Zeitfensteraggregation mithilfe der WINDOW-Funktion. (Fensterspezifikation: <windowSpec>)
NOT_ALLOWED_IN_FROM
In der FROM-Klausel nicht zulässig:
Weitere Details finden Sie unter NOT_ALLOWED_IN_FROM.
NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE
In der Pipe-WHERE-Klausel nicht zulässig:
Weitere Details finden Sie unter NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE.
NOT_A_CONSTANT_STRING
Der Ausdruck <expr>, der für die Routine- oder Klausel <name> verwendet wird, muss eine Konstante STRING sein, die NOT NULList.
Weitere Details finden Sie unter NOT_A_CONSTANT_STRING.
NOT_A_PARTITIONED_TABLE
Der Vorgang <operation> ist für <tableIdentWithDB> nicht zulässig, da es sich nicht um eine partitionierte Tabelle handelt.
NOT_A_SCALAR_FUNCTION
<functionName> wird hier als skalarer Ausdruck angezeigt, aber die Funktion wurde als Tabellenfunktion definiert. Aktualisieren Sie die Abfrage, um den Funktionsaufruf in die FROM-Klausel zu verschieben, oder definieren Sie stattdessen <functionName> als skalare Funktion neu.
NOT_A_TABLE_FUNCTION
<functionName> wird hier als Tabellenfunktion angezeigt, aber die Funktion wurde als skalare Funktion definiert. Aktualisieren Sie die Abfrage, um den Funktionsaufruf außerhalb der FROM-Klausel zu verschieben, oder definieren Sie stattdessen <functionName> als Tabellenfunktion neu.
NOT_ENOUGH_ARGS
Funktion <functionName> erwartet mindestens <minNum> Parameter, aber empfangen <actualNum> (<actualArgs>).
NOT_NULL_ASSERT_VIOLATION
NULL-Wert in Non-Nullable-Feld: <walkedTypePath>Wenn das Schema aus einem Scala-Tupel/einer Scala-Fallklasse oder einem Java-Bean abgeleitet wird, versuchen Sie, „scala.Option[_]“ oder andere Nullwerte zulassende Typen (z. B. „java.lang.Integer“ anstelle von „int/scala.Int“) zu verwenden.
NOT_NULL_CONSTRAINT_VIOLATION
Das Zuweisen eines NULL-Werts ist hier nicht zulässig.
Weitere Details finden Sie unter NOT_NULL_CONSTRAINT_VIOLATION.
NOT_SUPPORTED_CHANGE_COLUMN
ALTER TABLE ALTER
/
CHANGE COLUMN wird nicht unterstützt, um die Spalte <table> von <originName> mit dem Typ <originType> in <newName> mit dem Typ <newType> zu ändern.
NOT_SUPPORTED_CHANGE_SAME_COLUMN
ALTER TABLE ALTER
/
CHANGE COLUMN wird nicht unterstützt, um die Spalte <table> von <fieldName> einschließlich ihrer geschachtelten Felder mehrfach im selben Befehl zu ändern.
NOT_SUPPORTED_COMMAND_FOR_V2_TABLE
<cmd> wird für v2-Tabellen nicht unterstützt.
NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT
<cmd> wird nicht unterstützt, wenn Sie es aktivieren möchten, legen Sie bitte "spark.sql.catalogImplementation" auf "hive" fest.
NOT_SUPPORTED_IN_JDBC_CATALOG
Nicht unterstützter Befehl im JDBC-Katalog:
Weitere Informationen finden Sie unter NOT_SUPPORTED_IN_JDBC_CATALOG
NOT_SUPPORTED_WITH_DB_SQL
<operation> wird in einer SQL <endpoint> nicht unterstützt.
NOT_SUPPORTED_WITH_SERVERLESS
<operation> wird auf serverloser Berechnung nicht unterstützt.
NOT_UNRESOLVED_ENCODER
Nicht aufgelöster Encoder erwartet, aber <attr> wurde gefunden.
NO_ACTIVE_TRANSACTION
Es ist keine aktive Transaktion zu <action> vorhanden.
NO_DEFAULT_COLUMN_VALUE_AVAILABLE
Der Standardwert <colName> kann nicht bestimmt werden, da er nicht nullfähig ist und keinen Standardwert aufweist.
NO_HANDLER_FOR_UDAF
Kein Handler für UDAF „<functionName>“. Verwenden Sie stattdessen sparkSession.udf.register(...)
NO_MERGE_ACTION_SPECIFIED
Nach „df.mergeInto“ muss mindestens eine der folgenden Optionen folgen:whenMatched, whenNotMatched, whenNotMatchedBySource.
NO_PARENT_EXTERNAL_LOCATION_FOR_PATH
Für den Pfad '<path>' wurde kein übergeordneter externer Speicherort gefunden. Erstellen Sie einen externen Speicherort auf einem der übergeordneten Pfade, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
NO_PRIMARY_KEY_CONSTRAINT_EXCEPTION
TABLE <table> hat keine Primärschlüsseleinschränkung.
NO_SQL_TYPE_IN_PROTOBUF_SCHEMA
<catalystFieldPath> im Protobuf-Schema wurde nicht gefunden.
NO_STORAGE_LOCATION_FOR_TABLE
SQLSTATE: nicht zugewiesen
Beim Generieren von Tabellenanmeldeinformationen wurde kein Speicherort für die Tabelle '<tableId>' gefunden. Überprüfen Sie den Tabellentyp und die Tabellenspeicherort-URL, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
NO_SUCH_CATALOG_EXCEPTION
Katalog '<catalog>' wurde nicht gefunden. Überprüfen Sie den Katalognamen, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
NO_SUCH_CLEANROOM_EXCEPTION
SQLSTATE: nicht zugewiesen
Der Reinraum "<cleanroom>" ist nicht vorhanden. Überprüfen Sie, ob der Name des Reinraums richtig geschrieben ist und dem Namen eines gültigen vorhandenen Reinraums entspricht, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
NO_SUCH_CONSTRAINT_EXCEPTION
Die Einschränkung <constraint> wurde in <identifier>.
NO_SUCH_CREDENTIAL_EXCEPTION
Die Anmeldeinformationen „<credential>“ sind nicht vorhanden. Vergewissern Sie sich, dass der Anmeldeinformationsname richtig geschrieben ist und dem Namen einer gültigen vorhandenen Anmeldeinformation entspricht, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
NO_SUCH_EXTERNAL_LOCATION_EXCEPTION
SQLSTATE: nicht zugewiesen
Der externe Speicherort '<externalLocation>' ist nicht vorhanden. Vergewissern Sie sich, dass der Name des externen Speicherorts korrekt ist, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
NO_SUCH_METASTORE_EXCEPTION
SQLSTATE: nicht zugewiesen
Der Metaspeicher wurde nicht gefunden. Bitten Sie Ihren Kontoadministrator, dem aktuellen Arbeitsbereich einen Metastore zuzuweisen, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
NO_SUCH_PROVIDER_EXCEPTION
SQLSTATE: nicht zugewiesen
Der Freigabeanbieter <providerName> ist nicht vorhanden. Überprüfen Sie, ob der Name des Freigabeanbieters richtig geschrieben ist und dem Namen eines gültigen vorhandenen Anbieternamens entspricht, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
NO_SUCH_RECIPIENT_EXCEPTION
SQLSTATE: nicht zugewiesen
Der Empfänger '<recipient>' ist nicht vorhanden. Vergewissern Sie sich, dass der Empfängername richtig geschrieben ist und dem Namen eines gültigen vorhandenen Empfängers entspricht, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
NO_SUCH_SHARE_EXCEPTION
SQLSTATE: nicht zugewiesen
Die Freigabe <share> ist nicht vorhanden. Überprüfen Sie, ob der Freigabename richtig geschrieben ist und dem Namen einer gültigen vorhandenen Freigabe entspricht, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION
SQLSTATE: nicht zugewiesen
Die Speicheranmeldeinformationen <storageCredential> sind nicht vorhanden. Überprüfen Sie, ob der Name der Speicheranmeldeinformationen richtig geschrieben ist und dem Namen einer gültigen vorhandenen Speicheranmeldeinformation entspricht, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
NO_SUCH_USER_EXCEPTION
SQLSTATE: nicht zugewiesen
Der Benutzer '<userName>' ist nicht vorhanden. Vergewissern Sie sich, dass der Benutzer, dem Sie die Berechtigung erteilen oder den Besitz ändern, richtig geschrieben ist und dem Namen eines gültigen vorhandenen Benutzers entspricht, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
NO_UDF_INTERFACE
UDF-Klasse <className> implementiert keine UDF-Schnittstelle.
NULLABLE_COLUMN_OR_FIELD
Die Spalte oder das Feld <name> lässt Nullwerte zu, obwohl keine Nullwerte zugelassen werden dürfen.
NULLABLE_ROW_ID_ATTRIBUTES
Zeilen-ID-Attribute dürfen nicht nullfähig sein: <nullableRowIdAttrs>.
NULL_DATA_SOURCE_OPTION
Die Option "Lese-/Schreibzugriff der Datenquelle" <option> darf keinen Nullwert aufweisen.
NULL_MAP_KEY
Null kann nicht als Schlüssel in einer Map verwendet werden.
NULL_QUERY_STRING_EXECUTE_IMMEDIATE
"Direkt ausführen" erfordert eine Nicht-NULL-Variable als Abfragezeichenfolge, die bereitgestellte Variable <varName> ist jedoch NULL.
NULL_VALUE_SIGNAL_STATEMENT
Signalargumente erfordern Nicht-Null-Werte, aber <argument> erhielt einen Nullwert.
NUMERIC_OUT_OF_SUPPORTED_RANGE
Der Wert kann nicht als numerischer Wert <value> interpretiert werden, da er mehr als 38 Ziffern aufweist.
NUMERIC_VALUE_OUT_OF_RANGE
Weitere Details finden Sie unter NUMERIC_VALUE_OUT_OF_RANGE.
NUM_COLUMNS_MISMATCH
<operator> kann nur bei Eingaben mit der gleichen Anzahl von Spalten ausgeführt werden, aber die erste Eingabe hat <firstNumColumns> Spalten und die <invalidOrdinalNum> Eingabe hat <invalidNumColumns> Spalten.
NUM_TABLE_VALUE_ALIASES_MISMATCH
Die Anzahl der angegebenen Aliase stimmt nicht mit der Anzahl der Ausgabespalten überein.
Funktionsname: <funcName>; Anzahl der Aliase: <aliasesNum>; Anzahl der Ausgabespalten: <outColsNum>.
OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED
Es wurde kein benutzerdefinierter Identitätsanspruch bereitgestellt.
ONLY_SECRET_FUNCTION_SUPPORTED_HERE
Das Aufrufen der Funktion <functionName> wird in diesem <location> nicht unterstützt. <supportedFunctions> wird hier unterstützt.
ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR
SQL-Vorgang <operation> wird nur für Databricks SQL-Connectors mit Unity-Katalogunterstützung unterstützt.
OPERATION_CANCELED
Der Vorgang wurde abgebrochen.
OPERATION_REQUIRES_UNITY_CATALOG
Für den Vorgang <operation> muss der Unity-Katalog aktiviert sein.
OP_NOT_SUPPORTED_READ_ONLY
<plan> wird im schreibgeschützten Sitzungsmodus nicht unterstützt.
ORDER_BY_POS_OUT_OF_RANGE
Position ORDER BY<index> ist nicht in der Auswahlliste enthalten (gültiger Bereich ist [1, <size>]).
PARQUET_CONVERSION_FAILURE
Für den Datentyp <dataType>, dessen Parketttyp <parquetType>ist, kann kein Parkettkonverter erstellt werden.
Weitere Details finden Sie unter PARQUET_CONVERSION_FAILURE.
PARQUET_TYPE_ILLEGAL
Unzulässiger Parquet-Typ: <parquetType>.
PARQUET_TYPE_NOT_RECOGNIZED
Unbekannter Parketttyp: <field>.
PARQUET_TYPE_NOT_SUPPORTED
Der Parketttyp <parquetType>wird noch nicht unterstützt.
PARSE_EMPTY_STATEMENT
Syntaxfehler, unerwartete leere Anweisung.
PARSE_MODE_UNSUPPORTED
Die Funktion <funcName> unterstützt den <mode> Modus nicht. Akzeptable Modi sind PERMISSIVE und FAILFAST.
PARSE_SYNTAX_ERROR
Syntaxfehler bei oder in der Nähe von <error> <hint>.
PARTITIONS_ALREADY_EXIST
Partitionen können nicht mit ADD oder RENAME TO <partitionList> zu Tabelle <tableName> hinzugefügt werden, da sie bereits vorhanden sind.
Wählen Sie einen anderen Namen aus, legen Sie die vorhandene Partition ab, oder fügen Sie die IF NOT EXISTS Klausel hinzu, um eine bereits vorhandene Partition zu tolerieren.
PARTITIONS_NOT_FOUND
Die Partition(en) <partitionList> können in Tabelle <tableName>nicht gefunden werden.
Überprüfen Sie die Partitionsspezifikation und den Tabellennamen.
Um den Fehler beim „Drop“ zu tolerieren, verwenden Sie ALTER TABLE ...
DROP IF EXISTS PARTITION.
PARTITION_COLUMN_NOT_FOUND_IN_SCHEMA
Partitionsspalte <column> in Schema-<schema>nicht gefunden. Geben Sie die vorhandene Spalte für die Partitionierung an.
PARTITION_LOCATION_ALREADY_EXISTS
Partitionsspeicherort <locationPath> ist bereits in Tabelle <tableName>vorhanden.
PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY
Fehler beim Ausführen der ALTER TABLE SET PARTITION LOCATION-Anweisung, da der
Der Partitionsspeicherort <location> befindet sich nicht unter dem Tabellenverzeichnis <table>.
Um dies zu beheben, legen Sie den Speicherort der Partition auf ein Unterverzeichnis von <table>fest.
PARTITION_METADATA
<action> ist für die Tabelle <tableName> nicht zulässig, da das Speichern von Partitionsmetadaten im Unity-Katalog nicht unterstützt wird.
PARTITION_NUMBER_MISMATCH
Die Anzahl der Werte (<partitionNumber>) stimmt nicht mit der Schemagröße überein (<partitionSchemaSize>): Werte sind <partitionValues>, Schema ist <partitionSchema>, Dateipfad ist <urlEncodedPath>.
Materialisieren Sie die Tabelle neu, oder wenden Sie sich an die Person, die sie besitzt.
PARTITION_TRANSFORM_EXPRESSION_NOT_IN_PARTITIONED_BY
Der Ausdruck <expression> muss sich innerhalb von "partitionedBy" befinden.
PATH_ALREADY_EXISTS
Der Pfad <outputPath> ist bereits vorhanden. Legen Sie den Modus als "überschreiben" fest, um den vorhandenen Pfad zu überschreiben.
PATH_NOT_FOUND
Pfad ist nicht vorhanden: <path>.
PATH_RESOLUTION_ERROR
Pfad <path>konnte nicht aufgelöst werden. Verursacht durch: <causedBy>
PHOTON_DESERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED
Die Deserialisierung des Photon-protobuf-Plans erfordert mindestens <size> Bytes, was den
Grenzwert von <limit> Bytes überschreitet. Dies könnte auf einen sehr großen Plan oder das Vorhandensein eines solchen zurückzuführen sein.
breites Schema. Versuchen Sie, die Abfrage zu vereinfachen, unnötige Spalten zu entfernen oder Photon zu deaktivieren.
PHOTON_SERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED
Der serialisierte Photon-protobuf-Plan hat eine Größe von <size> Bytes, die den Grenzwert von
<limit> Bytes überschreitet. Die serialisierte Größe von Datentypen im Plan ist <dataTypeSize> Bytes.
Dies kann auf einen sehr großen Plan oder das Vorhandensein eines sehr breiten Schemas zurückzuführen sein.
Erwägen Sie das Umschreiben der Abfrage, um unerwünschte Vorgänge und Spalten zu entfernen oder Photon zu deaktivieren.
PIPELINE_DATASET_WITHOUT_FLOW
Das Pipeline-Dataset <identifier> enthält keine definierten Flüsse. Fügen Sie eine Abfrage mit der Definition des Datasets an, oder definieren Sie explizit mindestens einen Fluss, der in das Dataset schreibt.
PIPELINE_DOES_NOT_EXIST
Pipeline „<pipelineId>“ existiert nicht
Weitere Informationen finden Sie unter PIPELINE_DOES_NOT_EXIST
PIPELINE_DUPLICATE_IDENTIFIERS
Für Elemente, die im Datenflussdiagramm der Pipeline registriert sind, wurde ein doppelter Bezeichner gefunden.
Weitere Informationen finden Sie unter PIPELINE_DUPLICATE_IDENTIFIERS
FEHLER BEI DER REGISTRIERUNG DES PIPELINE-SQL-GRAPH-ELEMENTS
<message>
<offendingQuery>
<codeLocation>
PIPELINE_STORAGE_ROOT_INVALID
Der Pipelinespeicherstamm muss ein absoluter Pfad mit einem URI-Schema sein (z. B. file://, s3a://, hdfs://). Got: <storage_root>.
PIPE_OPERATOR_AGGREGATE_EXPRESSION_CONTAINS_NO_AGGREGATE_FUNCTION
Der nicht-gruppierende Ausdruck <expr> wird als Argument an den |>AGGREGATE Pipe-Operator übergeben, enthält jedoch keine Aggregatfunktion. Bitte aktualisieren Sie den Ausdruck, um eine Aggregatfunktion einzuschließen, und wiederholen Sie die Abfrage.
PIPE_OPERATOR_CONTAINS_AGGREGATE_FUNCTION
Die Aggregatfunktion <expr> ist nicht zulässig, wenn Sie den Pipeoperator |><clause> -Klausel verwenden. Verwenden Sie stattdessen den Pipeoperator |>AGGREGATE -Klausel.
PIVOT_VALUE_DATA_TYPE_MISMATCH
Ungültiger Pivotwert '<value>':Datentyp des Werts <valueType> stimmt nicht mit dem Datentyp der Pivotspalte überein <pivotType>.
POLICY_ALREADY_EXISTS
Richtlinie <policyName> kann nicht erstellt werden, da sie bereits vorhanden ist.
Wählen Sie einen anderen Namen aus, oder legen Sie die vorhandene Richtlinie ab, um bereits vorhandene Verbindungen zu tolerieren.
POLICY_NOT_FOUND
Der Befehl <commandType> kann nicht ausgeführt werden, da die Richtlinie <policyName> auf <securableFullname> nicht gefunden werden kann.
Überprüfen Sie die Rechtschreibung und Korrektheit.
POLICY_ON_SECURABLE_TYPE_NOT_SUPPORTED
Die Richtlinie für den sicherungsfähigen Typ <securableType> kann nicht erstellt werden. Unterstützte sicherungsfähige Typen: <allowedTypes>.
PREVIEW_FEATURE_NOT_ENABLED
Das Vorschaufeature <featureName> ist nicht aktiviert. Wenden Sie sich an Ihren Arbeitsbereichsadministrator, um dieses Feature über das Vorschauportal zu aktivieren.
PROCEDURE_ARGUMENT_NUMBER_MISMATCH
Die Prozedur <procedureName> erwartet <expected> Argumente, <actual> wurden jedoch bereitgestellt.
PROCEDURE_CREATION_EMPTY_ROUTINE
CREATE PROCEDURE mit einer leeren Routinedefinition ist nicht zulässig.
PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT
Der Parameter <parameterName> wird mit dem Parametermodus <parameterMode>definiert. OUT und INOUT Parameter können beim Aufrufen einer Routine nicht weggelassen werden und unterstützen DEFAULT daher keinen Ausdruck. Um fortzufahren, entfernen Sie die DEFAULT-Klausel, oder ändern Sie den Parametermodus in IN.
PROCEDURE_NOT_SUPPORTED
Die gespeicherte Prozedur wird nicht unterstützt
PROCEDURE_NOT_SUPPORTED_WITH_HMS
Gespeicherte Prozeduren werden vom Hive-Metastore nicht unterstützt. Verwenden Sie stattdessen Unity-Katalog.
PROTOBUF_DEPENDENCY_NOT_FOUND
Die Abhängigkeit <dependencyName> wurde nicht gefunden.
PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND
Fehler beim Lesen der Protobuf-Deskriptordatei unter Pfad: <filePath>.
PROTOBUF_FIELD_MISSING
Die Suche nach <field> im Protobuf-Schema bei <protobufSchema> hat <matchSize> Übereinstimmungen ergeben. Kandidaten: <matches>.
PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA
Es wurde <field> im Protobuf-Schema gefunden, aber es gibt keine Übereinstimmung im SQL-Schema.
PROTOBUF_FIELD_TYPE_MISMATCH
Für Feld <field> wurde ein Typenkonflikt gefunden.
PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED
Java-Klassen werden für <protobufFunction>nicht unterstützt. Wenden Sie sich an den Databricks-Support über alternative Optionen.
PROTOBUF_MESSAGE_NOT_FOUND
Die Nachricht <messageName> konnte im Deskriptor nicht gefunden werden.
PROTOBUF_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE
Die <functionName> SQL-Funktion kann nicht aufgerufen werden, da die Protobuf-Datenquelle nicht geladen wird.
Starten Sie den Auftrag oder die Sitzung neu, indem Sie das Paket "spark-protobuf" laden, zum Beispiel mit dem Argument "--packages" in der Befehlszeile, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
PROTOBUF_TYPE_NOT_SUPPORT
Der Protobuf-Typ <protobufType> wird noch nicht unterstützt.
PS_FETCH_RETRY_EXCEPTION
Die Aufgabe in der PubSub-Abrufstage kann nicht wiederholt werden. Partition <partitionInfo> in Stage <stageInfo>, TID <taskId>.
PS_INVALID_EMPTY_OPTION
<key> kann keine leere Zeichenfolge sein.
PS_INVALID_KEY_TYPE
Ungültiger Schlüsseltyp für PubSub Dedup: <key>.
PS_INVALID_OPTION
Die Option <key> wird von PubSub nicht unterstützt. Sie kann nur in Tests verwendet werden.
PS_INVALID_OPTION_TYPE
Ungültiger Typ für <key>. Erwarteter Typ von <key> soll Typ <type>sein.
PS_INVALID_READ_LIMIT
Ungültiger Lesegrenzwert für PubSub-Datenstrom: <limit>.
PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO
Ungültige UnsafeRow zum Decodieren in PubSubMessageMetadata. Gewünschtes Protokollschema: <protoSchema>. Die Eingabe "UnsafeRow" ist möglicherweise beschädigt: <unsafeRow>.
PS_INVALID_WORKLOAD_IDENTITY_FEDERATION_AUDIENCE_OPTION
Die Abfrage oder der Befehl ist aufgrund einer ungültigen Leseoption fehlgeschlagen: in spark.readStream.format("pubsub").option(„workloadIdentityFederation.audience“, <audience>). Aktualisieren Sie <audience> , um dem folgenden Format zu entsprechen: //iam.googleapis.com/projects/{PROJECT_NUMBER}/locations/global/workloadIdentityPools/{POOL_ID}/providers/{PROVIDER_ID} und wiederholen Sie dann die Abfrage oder den Befehl erneut.
PS_MISSING_AUTH_INFO
Fehler beim Auffinden vollständiger PubSub-Authentifizierungsinformationen.
PS_MISSING_REQUIRED_OPTION
Erforderliche Option konnte nicht gefunden werden: <key>.
PS_MOVING_CHECKPOINT_FAILURE
Fehler beim Verschieben von Rohdaten-Prüfpunktdateien aus <src> in das Zielverzeichnis: <dest>.
PS_MULTIPLE_AUTH_OPTIONS
Geben Sie entweder Ihre Databricks-Dienstanmeldeinformationen oder Ihre GCP-Dienstkontoanmeldeinformationen an.
PS_MULTIPLE_FAILED_EPOCHS
Der PubSub-Stream kann nicht gestartet werden, da mehr als ein fehler beim Abrufen vorhanden ist: <failedEpochs>.
PS_OPTION_NOT_IN_BOUNDS
<key> muss innerhalb der folgenden Grenzen (<min>, <max>) ausschließlich der beiden Grenzen stehen.
PS_PROVIDE_CREDENTIALS_WITH_OPTION
Freigegebene Cluster unterstützen keine Authentifizierung mit Instanzprofilen. Geben Sie Anmeldeinformationen mithilfe von „.option()“ direkt für den Stream an.
PS_SPARK_SPECULATION_NOT_SUPPORTED
Der PubSub-Quell-Connector ist nur in einem Cluster verfügbar, in dem spark.speculation deaktiviert ist.
PS_UNABLE_TO_CREATE_SUBSCRIPTION
Fehler beim Versuch, ein Abonnement <subId> zu Thema <topicId>zu erstellen. Überprüfen Sie, ob ausreichende Berechtigungen zum Erstellen eines Abonnements vorhanden sind, und versuchen Sie es erneut.
PS_UNABLE_TO_PARSE_PROTO
Serialisierte Bytes können nicht geparst werden, um das Protokoll zu generieren.
PS_UNSUPPORTED_GET_OFFSET_CALL
getOffset wird nicht unterstützt, ohne einen Grenzwert zu liefern.
PYTHON_DATA_SOURCE_ERROR
Fehler bei der <action>-Python-Datenquelle <type>: <msg>
PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR
Fehler beim Ausführen der Python-Streamingdatenquelle <action>: <msg>
QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
Auf die referenzierte Tabelle kann nicht zugegriffen werden, da eine zuvor zugewiesene Spaltenmaske derzeit mit dem Tabellenschema nicht kompatibel ist; um den Vorgang fortzusetzen, wenden Sie sich bitte an den Eigentümer der Tabelle, um die Richtlinie zu aktualisieren.
Weitere Details finden Sie unter QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY.
QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
Auf referenzierte Tabelle kann nicht zugegriffen werden, da derzeit eine zuvor zugewiesene Sicherheitsrichtlinie auf Zeilenebene mit dem Tabellenschema nicht kompatibel ist. um den Vorgang fortzusetzen, wenden Sie sich bitte an den Besitzer der Tabelle, um die Richtlinie zu aktualisieren:
Weitere Details finden Sie unter QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY.
QUERY_EXECUTION_TIMEOUT_EXCEEDED
Die Abfrageausführung wurde aufgrund einer Überschreitung des Timeouts (<timeoutSec>s) abgebrochen. Sie können den Grenzwert in Sekunden erhöhen, indem Sie <config>festlegen.
QUERY_INCOMPATIBLE_WITH_RLSCM_POLICY
Siehe go/rowcolumncontrols-allowlist. LogicalPlan <unknownLogicalPlan> ist nicht mit der RLS/CM-Richtlinie kompatibel.
QUERY_REJECTED
Die Abfrageausführung wurde abgelehnt.
QUERY_RESULT_WRITE_TO_CLOUD_STORE_PERMISSION_ERROR
Die interne Speicherkonfiguration des Arbeitsbereichs verhindert, dass Databricks auf den Cloudspeicher zugreift.
QUERY_TAGS_NOT_IMPLEMENTED_ERROR
Abfragetags werden in SQL noch nicht unterstützt.
QUERY_TAGS_SYNTAX_INVALID
Ungültiges Format für SET QUERY_TAGS Befehl.
QUERY_TAG_KEY_INVALID
Fehler bei der Überprüfung des Abfragetagschlüssels "<key>".
QUERY_TAG_KEY_MAY_NOT_BE_EMPTY
Der Abfragetagschlüssel ist möglicherweise nicht null oder leer. Führende und nachfolgende Leerzeichen werden auf Schlüssel und Werte gekürzt.
QUERY_TAG_MAX_COUNT_EXCEEDED
Die Anzahl der Abfragetags wurde pro Sitzungslimit von <tagLimit> Tags maximal überschritten.
QUERY_TAG_VALUE_INVALID
Fehler bei der Überprüfung des Abfragetagwerts '<value>'.
QUERY_WATCHDOG_CHECK_FAILED
Fehler bei der Abfrageüberwachungsüberprüfung.
Weitere Informationen finden Sie unter QUERY_WATCHDOG_CHECK_FAILED
READ_CURRENT_FILE_NOT_FOUND
<message>
Es ist möglich, dass die zugrunde liegenden Dateien aktualisiert wurden. Sie können den Cache in Spark explizit ungültig machen, indem Sie den Befehl "REFRESH TABLE tableName" in SQL ausführen oder das dataset/DataFrame neu erstellen.
READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS
Der Aufruf der Funktion <functionName> hat <parameterName> und <alternativeName> festgelegt, die gegenseitige Aliase sind. Bitte legen Sie nur einen davon fest.
READ_FILES_CREDENTIALS_PARSE_ERROR
Fehler beim Analysieren der temporären Anmeldeinformationen der funktion read_files()
Weitere Informationen finden Sie unter READ_FILES_CREDENTIALS_PARSE_ERROR.
READ_TVF_UNEXPECTED_REQUIRED_PARAMETER
Der erforderliche Parameter <functionName> für die Funktion <parameterName> muss an der Position <expectedPos> ohne den Namen zugewiesen werden.
RECIPIENT_EXPIRATION_NOT_SUPPORTED
Nur TIMESTAMP/TIMESTAMP_LTZ/TIMESTAMP_NTZ-Typen werden für den Ablaufzeitstempel des Empfängers unterstützt.
RECURSION_LEVEL_LIMIT_EXCEEDED
Der Grenzwert für rekursionsebene <levelLimit> wurde erreicht, aber die Abfrage ist nicht erschöpft, versuchen Sie, sie wie 'WITH RECURSIVE t(col) MAX RECURSION LEVEL 200' zu erhöhen.
RECURSION_ROW_LIMIT_EXCEEDED
Rekursionszeilenlimit <rowLimit> erreicht, Abfrage jedoch nicht erschöpft, versuchen Sie, einen größeren LIMIT-Wert festzulegen, wenn Sie die CTE-Relation abfragen.
RECURSIVE_CTE_IN_LEGACY_MODE
Rekursive Definitionen können nicht im älteren CTE-Rangfolgemodus (spark.sql.legacy.ctePrecedencePolicy=LEGACY) verwendet werden.
RECURSIVE_CTE_WITH_LEGACY_INLINE_FLAG
Rekursive Definitionen können nicht verwendet werden, wenn das Legacy-Inlinekennzeichen auf "true" festgelegt ist (spark.sql.legacy.inlineCTEInCommands=true).
RECURSIVE_PROTOBUF_SCHEMA
Rekursive Referenz im Protobuf-Schema gefunden, das von Spark standardmäßig nicht verarbeitet werden kann: <fieldDescriptor>. versuchen Sie, die Option recursive.fields.max.depth 1 bis 10 festzulegen. Es ist nicht zulässig, über 10 Rekursionsebenen hinauszugehen.
RECURSIVE_VIEW
Rekursive Ansicht <viewIdent> erkannt (Zyklus: <newPath>).
REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION
Verweise auf DEFAULT Spaltenwerte sind in der PARTITION-Klausel nicht zulässig.
RELATION_LARGER_THAN_8G
Eine <relationName>, die größer als 8G ist, kann nicht erstellt werden.
REMAINDER_BY_ZERO
Rest um Null. Verwenden Sie try_mod, um divisor 0 zu tolerieren und stattdessen NULL zurückzugeben. Legen Sie <config> bei Bedarf auf "false" fest, um diesen Fehler zu umgehen.
REMOTE_FUNCTION_HTTP_FAILED_ERROR
Fehler bei der Remote-HTTP-Anforderung mit code <errorCode>und Fehlermeldung <errorMessage>
REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR
Fehler beim Auswerten der <functionName> SQL-Funktion aufgrund der Unfähigkeit, das JSON Ergebnis aus der Remote-HTTP-Antwort zu analysieren; die Fehlermeldung lautet <errorMessage>. Überprüfen Sie die API-Dokumentation: <docUrl>. Beheben Sie das in der Fehlermeldung angegebene Problem, und wiederholen Sie die Abfrage erneut.
REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR
Fehler beim Auswerten der <functionName> SQL-Funktion, weil die unerwartete Remote-HTTP-Antwort nicht verarbeitet werden konnte. Die Fehlermeldung ist <errorMessage>. Überprüfen Sie die API-Dokumentation: <docUrl>. Beheben Sie das in der Fehlermeldung angegebene Problem, und wiederholen Sie die Abfrage erneut.
REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT
Fehler bei der Remoteanforderung nach <N> Wiederholungsversuchen. Der letzte HTTP-Fehlercode war <errorCode>, und die Meldung lautete <errorMessage>
REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR
Fehler beim Auswerten der SQL-Funktion <functionName> aufgrund von <errorMessage>. Überprüfen Sie die Anforderungen in <docUrl>. Beheben Sie das in der Fehlermeldung angegebene Problem, und wiederholen Sie die Abfrage erneut.
REMOTE_QUERY_FUNCTION_UNSUPPORTED_CONNECTOR_PARAMETERS
Parameter <parameterNames> werden für die remote_query-Funktion nicht unterstützt, die eine Verbindung vom Typ "" vom Typ "<connectionName><connectionType>" abfragt.
Weitere Informationen finden Sie unter REMOTE_QUERY_FUNCTION_UNSUPPORTED_CONNECTOR_PARAMETERS.
RENAME_SRC_PATH_NOT_FOUND
Fehler beim Umbenennen, da <sourcePath> nicht gefunden wurde.
REPEATED_CLAUSE
Die <clause>-Klausel kann höchstens einmal pro <operation> Vorgang verwendet werden.
REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY
Der erforderliche Parameter <routineName> der Routine <parameterName> wurde an Position <positionalIndex> ohne den Namen zugewiesen.
Aktualisieren Sie den Funktionsaufruf, um entweder das benannte Argument mit <parameterName> für diesen Parameter zu entfernen oder das positionsbezogene Argument zu entfernen.
Positionsargument bei <positionalIndex> und versuchen Sie es dann nochmal.
REQUIRED_PARAMETER_NOT_FOUND
Routine-<routineName> kann nicht aufgerufen werden, da der Parameter mit dem Namen <parameterName> erforderlich ist, aber der Routineaufruf hat keinen Wert angegeben. Aktualisieren Sie den Routineaufruf, um einen Argumentwert anzugeben (entweder positional bei Index <index> oder nach Name), und wiederholen Sie die Abfrage erneut.
REQUIRES_EXPLICIT_NAME_IN_WATERMARK_CLAUSE
Für die Wasserzeichenklausel ist ein expliziter Name erforderlich, wenn der Ausdruck angegeben ist, aber erhalten <sqlExpr>.
REQUIRES_SINGLE_PART_NAMESPACE
<sessionCatalog> erfordert einen einzelteiligen Namespace, hat aber <namespace>.
RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT
Die DataFrame-API-Leseoption „rescuedDataColumn“ und die DataFrame-API-Option „singleVariantColumn“ schließen sich gegenseitig aus.
Entfernen Sie einen dieser Elemente, und wiederholen Sie dann den DataFrame-Vorgang erneut.
RESERVED_CDC_COLUMNS_ON_WRITE
Der Schreibvorgang umfasst reservierte Spalten <columnList>, die genutzt werden.
intern als Metadaten für den Änderungsdatenfeed verwendet werden. Zum Schreiben in die Tabelle müssen Sie diese Spalten entweder umbenennen/entfernen
oder den Änderungsdatenfeed in der Tabelle deaktivieren, indem
<config> auf FALSCH festgelegt wird.
RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
Die Option <option> hat eingeschränkte Werte bei gemeinsamen Clustern für die Quelle <source>.
Weitere Details finden Sie unter RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED.
ROUTINE_ALREADY_EXISTS
Die <newRoutineType> <routineName> kann nicht erstellt werden, da bereits ein <existingRoutineType> mit diesem Namen vorhanden ist.
Wählen Sie einen anderen Namen aus, legen Sie den vorhandenen <existingRoutineType>ab, oder fügen Sie die IF NOT EXISTS Klausel hinzu, um eine bereits vorhandene <newRoutineType>zu tolerieren.
ROUTINE_NOT_FOUND
Die Routine <routineName> kann nicht gefunden werden. Überprüfen Sie die Rechtschreibung und Korrektheit des Schemas und Katalogs.
Wenn Sie den Namen nicht mit einem Schema und Katalog qualifiziert haben, überprüfen Sie die ausgabe current_schema() oder qualifizieren Sie den Namen mit dem richtigen Schema und Katalog.
Tolerieren sie den Fehler bei der Drop-Verwendung DROP...IF EXISTS.
ROUTINE_PARAMETER_NOT_FOUND
Die Routine <routineName> unterstützt den an Position <parameterName>angegebenen Parameter <pos> nicht.<suggestion>
ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME
Die Funktion <routineName> kann nicht erstellt werden, da der angegebene Klassenname '<className>' für die Systemverwendung reserviert ist. Benennen Sie den Kurs um, und versuchen Sie es erneut.
ROW_LEVEL_SECURITY_ABAC_MISMATCH
Für <tableName> konnten die Zeilenfilter nicht aufgelöst werden, weil es einen Unterschied zwischen den von Richtlinien geerbten Zeilenfiltern und den explizit definierten Zeilenfiltern gab. Um fortzufahren, deaktivieren Sie bitte die Attributbasierte Zugriffssteuerung (Attribute Based Access Control, ABAC), und wenden Sie sich an den Databricks-Support.
ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED
Das Erstellen einer CHECK-Einschränkung an der Tabelle <tableName> mit Sicherheitsrichtlinien auf Zeilenebene wird nicht unterstützt.
ROW_LEVEL_SECURITY_COLUMN_MASK_UNRESOLVED_REFERENCE_COLUMN
Eine Spalte mit Namen <objectName>, auf die in einem Zeilenfilter- oder Spaltenmaskenfunktionsparameter verwiesen wird, kann nicht aufgelöst werden.
Dies kann passieren, wenn sich das zugrunde liegende Tabellenschema geändert hat und die spalte, auf die verwiesen wird, nicht mehr vorhanden ist.
Dies kann beispielsweise auftreten, wenn die Spalte in einem externen System entfernt wurde (z. B. eine Verbundtabelle), oder wenn ein REPLACE Vorgang in der Tabelle die Spalte gelöscht hat.
Um dies zu beheben, können Benutzer mit Verwaltungsrechten in der Tabelle die aktuellen Zeilenfilter und Spaltenmasken mithilfe DESCRIBE TABLE EXTENDEDvon Und ablegen oder erneut erstellen, die auf nicht vorhandene Spalten verweisen, indem SIE ZEILE FILTER oder MASK verwenden/ALTER TABLESET...DROP.
Hinweis: Databricks hat eine Sicherheitsverbesserung eingeführt, um Spaltenmasken während des REPLACE Betriebs beizubehalten, wenn das neue Schema dieselbe Spalte enthält, auch wenn die Maske nicht angegeben ist. Dadurch wird ein unbeabsichtigter Richtlinienverlust in Tabellen verhindert.
ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME
Eine <statementType>-Anweisung hat versucht, einer Tabelle eine Sicherheitsrichtlinie auf Zeilenebene zuzuweisen, aber zwei oder mehr spalten, auf die verwiesen wird, weisen denselben Namen <columnName>auf, was ungültig ist.
ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
Sicherheitsrichtlinien auf Zeilenebene für <tableName> werden nicht unterstützt:
Weitere Details finden Sie unter ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED.
ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE
<statementType> <columnName> in Tabelle <tableName> ist nicht möglich, da in einer Sicherheitsrichtlinie auf Zeilenebene darauf verwiesen wird. Die Person im Besitz der Tabelle muss vor dem Fortfahren diese Richtlinie entfernen oder ändern.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE
MERGE INTO-Vorgänge unterstützen keine Sicherheitsrichtlinien auf Zeilenebene in Quelltabelle <tableName>.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET
MERGE INTO-Vorgänge unterstützen das Schreiben in die Tabelle <tableName> mit Sicherheitsrichtlinien auf Zeilenebene nicht.
ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME
Diese Anweisung versuchte, einer Tabelle eine Sicherheitsrichtlinie auf Zeilenebene zuzuweisen, aber der Verweis auf Spalte <columnName> hatte mehrere Namensbestandteile, was ungültig ist.
ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG
Sicherheitsrichtlinien auf Zeilenebene werden nur im Unity-Katalog unterstützt.
ROW_LEVEL_SECURITY_SECONDARY_INDEX_CREATION_UNSUPPORTED
Sekundärer Index ON TABLE <tableName> kann nicht erstellt werden, da die Tabelle eine Sicherheitsrichtlinie auf Zeilenebene definiert hat.
ROW_LEVEL_SECURITY_SHOW_PARTITIONS_UNSUPPORTED
SHOW PARTITIONS Befehl wird für<format> Tabellen mit Sicherheitsrichtlinie auf Zeilenebene nicht unterstützt.
ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED
Ein <mode>-Klon aus der Tabelle <tableName> mit Sicherheitsrichtlinien auf Zeilenebene wird nicht unterstützt.
ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED
Ein <mode>-Klon in die Tabelle <tableName> mit Sicherheitsrichtlinien auf Zeilenebene wird nicht unterstützt.
ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER
Die Verwendung einer Konstante als Parameter in einer Sicherheitsrichtlinie auf Zeilenebene wird nicht unterstützt. Aktualisieren Sie den SQL-Befehl, um die Konstante aus der Zeilenfilterdefinition zu entfernen, und wiederholen Sie dann den Befehl erneut.
ROW_LEVEL_SECURITY_UNSUPPORTED_DATA_TYPE
Funktion <functionName> , die für die Sicherheitsrichtlinie auf Zeilenebene verwendet wird, hat Parameter mit nicht unterstützten Datentypen <dataType>.
ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER
Fehler beim Ausführen des <statementType> Befehls, da die Zuweisung einer Sicherheitsrichtlinie auf Zeilenebene für die Zieldatenquelle mit dem Tabellenanbieter nicht unterstützt wird: "<provider>".
ROW_SUBQUERY_TOO_MANY_ROWS
Mehr als eine Zeile, die von einer Teilabfrage zurückgegeben wurden, werden als Zeile verwendet.
ROW_VALUE_IS_NULL
NULL wurde in einer Reihe beim Index <index> gefunden, erwartet wurde ein Wert, der nicht NULL ist.
RULE_ID_NOT_FOUND
Es wurde keine ID für den Regelnamen "<ruleName>" gefunden. Ändern Sie "RuleIdCollection.scala", wenn Sie eine neue Regel hinzufügen.
RUN_EMPTY_PIPELINE
Es wird erwartet, dass Pipelines mindestens ein nicht temporäres Dataset definiert haben (Tabellen, persistente Ansichten), aber keine nicht temporären Datasets in Ihrer Pipeline gefunden wurden.
Stellen Sie sicher, dass Sie die erwarteten Quelldateien eingeschlossen haben und dass Ihr Quellcode Tabellendefinitionen enthält (z CREATE MATERIALIZED VIEW . B. in SQL-Code, @dp.table in Python-Code).
SALESFORCE_DATA_SHARE_API_UNAUTHORIZED
Fehler bei der Autorisierung der Salesforce-Datenfreigabe-API. Stellen Sie sicher, dass die Verbindungsdetails von Databricks an das entsprechende Salesforce-Datenfreigabeziel bereitgestellt werden.
SAMPLE_TABLE_PERMISSIONS
Berechtigungen werden in Beispieldatenbanken/-tabellen nicht unterstützt.
SCALAR_FUNCTION_NOT_COMPATIBLE
ScalarFunction <scalarFunc> überschreibt die Methode „produceResult(InternalRow)“ nicht mit einer benutzerdefinierten Implementierung.
SCALAR_FUNCTION_NOT_FULLY_IMPLEMENTED
ScalarFunction <scalarFunc> implementiert oder überschreibt die Methode "produceResult(InternalRow)" nicht.
SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION
Die korrelierte skalare Unterabfrage '<sqlExpr>' ist weder in GROUP BY vorhanden, noch in einer Aggregatfunktion.
Fügen Sie sie GROUP BY anhand der Ordnungsposition hinzu, oder umschließen Sie sie in first() (oder first_value), wenn der Ergebniswert nicht relevant ist.
SCALAR_SUBQUERY_TOO_MANY_ROWS
Mehrere Zeilen, die von einer Teilabfrage zurückgegeben wurden, werden als Ausdruck verwendet.
SCDS_COMMIT_LOG_UNAVAILABLE
Das Commitprotokoll ist nicht mit Prüfpunktspeicherort=<checkpointLocation>vorhanden.
SCDS_INVALID_OPTION_VALUE
Ungültiger Wert für Quelloption=<optionName> mit Fehlermeldung=<message>.
SCDS_OFFSET_LOG_UNAVAILABLE
Das Offsetprotokoll ist nicht mit Prüfpunktposition=<checkpointLocation>vorhanden.
SCDS_REQUIRED_OPTION_UNSPECIFIED
Fehler beim Angeben der erforderlichen Option=<optionName>.
SCHEDULE_ALREADY_EXISTS
Einer Tabelle, die bereits <scheduleType>hat, kann <existingScheduleType> nicht hinzugefügt werden. Bitte legen Sie den vorhandenen Zeitplan ab oder verwenden Sie ALTER TABLE...ALTER <scheduleType> ... sie zu ändern.
SCHEDULE_PERIOD_INVALID
Der Zeitplanzeitraum für <timeUnit> muss ein ganzzahliger Wert zwischen 1 und <upperBound> (einschließlich) sein. Empfangen: <actual>.
SCHEMA_ALREADY_EXISTS
Schema-<schemaName> kann nicht erstellt werden, da es bereits vorhanden ist.
Wählen Sie einen anderen Namen aus, legen Sie das vorhandene Schema ab, oder fügen Sie die IF NOT EXISTS Klausel hinzu, um bereits vorhandene Schemas zu tolerieren.
SCHEMA_NOT_EMPTY
Ein Schema <schemaName> kann nicht gelöscht werden, da es Objekte enthält.
Wird verwendet DROP SCHEMA...CASCADE , um das Schema und alle zugehörigen Objekte abzulegen.
SCHEMA_NOT_FOUND
Das Schema <schemaName> wurde nicht gefunden. Überprüfen Sie die Rechtschreibung und Korrektheit des Schemas und Katalogs.
Wenn Sie den Namen nicht mit einem Katalog qualifiziert haben, überprüfen Sie die ausgabe current_schema() oder qualifizieren Sie den Namen mit dem richtigen Katalog.
Um den Fehler beim Trennen zu tolerieren, verwenden Sie DROP SCHEMA IF EXISTS.
SCHEMA_REGISTRY_CONFIGURATION_ERROR
Das Schema aus der Schemaregistrierung konnte nicht initialisiert werden.
<reason>.
SEARCH_INDEX_CATALOG_SCHEMA_MISMATCH
Suchindex <indexName> im Katalog <indexCatalog> und Schema <indexSchema>kann nicht erstellt werden. Index muss im selben Katalog und Schema wie die Basistabelle <tableName> (<tableCatalog>erstellt werden.<tableSchema>).
SEARCH_INDEX_INVALID_PARAMETERS
Suchindex kann nicht erstellt werden, ungültiger Parameter wird angegeben:
Weitere Informationen finden Sie unter SEARCH_INDEX_INVALID_PARAMETERS
SEARCH_INDEX_NAME_CONFLICTS_WITH_TABLE
Die Tabelle mit dem Indexnamen <indexName> ist bereits vorhanden. Geben Sie einen benutzerdefinierten Indexnamen an, der nicht mit vorhandenen Tabellen in Konflikt steht.
SEARCH_INDEX_OUTDATED_SCHEMA
Der Suchindex <indexName> weist ein veraltetes Schema auf. Erstellen Sie den Index neu, indem Sie Folgendes verwenden:
DROP SEARCH INDEX <indexName>;
CREATE SEARCH INDEX <indexName> ON <tableName>(<columnsList>);
SEARCH_REQUIRES_SEARCHABLE_COLUMNS
<context> erfordert Spalten mit durchsuchbaren Typen (STRING COLLATE UTF8_BINARY, VARIANToder ARRAY).
Weitere Informationen finden Sie unter SEARCH_REQUIRES_SEARCHABLE_COLUMNS
SEARCH_REQUIRES_STRING_LITERALS_ARGUMENTS
SEARCH erfordert <argument> , dass das Argument Zeichenfolgenliterale sein muss, aber <actualExpr> angegeben wurde. <possibleOptionsMessage>
SECONDARY_INDEX_REQUIRES_MANAGED_TABLE
<operation> ON TABLE <tableName> nicht möglich. Der Vorgang kann nur für verwaltete Tabellen ausgeführt werden.
Verwenden Sie den ALTER TABLE <tableName> SET MANAGED Befehl, um eine Tabelle in eine verwaltete Tabelle zu konvertieren.
Weitere Informationen finden Sie unter https://docs.databricks.com/aws/en/tables/convert-external-managed
SECONDARY_INDEX_UNSUPPORTED_TABLE_FORMAT
Kann nicht <operation> ON TABLE <tableName>
Der Vorgang kann nur für Tabellen mit den folgenden Formaten ausgeführt werden: <supportedFormats>
Überprüfen Sie das Tabellenformat mit DESCRIBE DETAIL <tableName>.
Wenn das aktuelle Format Parkett oder Apache Iceberg ist, können Sie es dauerhaft mit CONVERT TO DELTA <tableName>konvertieren ; siehe https://docs.databricks.com/aws/en/sql/language-manual/delta-convert-to-delta
Erstellen Sie andernfalls die Tabelle in einem der unterstützten Formate neu.
SECOND_FUNCTION_ARGUMENT_NOT_INTEGER
Das zweite Argument der funktion <functionName> muss eine ganze Zahl sein.
SECRET_FUNCTION_INVALID_LOCATION
<commandType> Befehl mit mindestens einem nicht verschlüsselten Verweis auf die SECRET-Funktion kann nicht ausgeführt werden. verschlüsseln Sie das Ergebnis jedes solchen Funktionsaufrufs mit AES_ENCRYPT, und versuchen Sie es erneut.
SICHERBARES_ELEMENT_EXISTIERT_NICHT
<securable> ist nicht vorhanden.
SEED_EXPRESSION_IS_UNFOLDABLE
Der Ausgangsausdruck <seedExpr> des Ausdrucks <exprWithSeed> muss faltbar sein.
SERVER_IS_BUSY
Der Server ist ausgelastet und konnte die Anforderung nicht verarbeiten. Bitte warten Sie einen Moment, und versuchen Sie es erneut.
SET_QUERY_TAGS_SYNTAX_INVALID
Fehler beim Ausführen des SET Befehls, da die Syntax ungültig war. Die erwartete Syntax für diesen Befehl ist SET QUERY_TAGS oder SET QUERY_TAGS['key'] = 'value'. Korrigieren Sie den Befehl, um dieser Syntax zu entsprechen, und führen Sie ihn dann erneut aus.
SFTP_DEPRECATED_SSH_RSA_KEY_ALGORITHM
Der SFTP-Server <host>:<port> verwendet den veralteten SSH RSA-Algorithmus für den Schlüsselaustausch.
Erwägen Sie ein Upgrade des SFTP-Servers, um einen sichereren Algorithmus wie ECDSA z. B. ED25519 zu verwenden.
Alternativ können Sie diesen Fehler umgehen, indem Sie <escapeHatchConf> auf true setzen.
SFTP_UNABLE_TO_CONNECT
Fehler beim Herstellen einer Verbindung mit dem SFTP-Server <host> am Port <port> mit Benutzername <user>.
<error>
SFTP_UNKNOWN_HOST_KEY
Der Hostschlüssel des SFTP-Servers <host> ist unbekannt oder hat sich geändert.
Überprüfen Sie die folgende Fehlermeldung, und geben Sie dann den Schlüsselfingerabdruck im Key fingerprint Feld an.
Wenn die Nachricht beispielsweise denECDSA Schlüsselabdruck SHA256:XXX/YYY hat, übermitteln Sie 'SHA256:XXX/YYY' als Schlüsselabdruck.
Verbindungsfehlermeldung:
<error>
SFTP_USER_DOES_NOT_MATCH
Der Benutzer, der aus den Anmeldeinformationen <credentialUser> abgerufen wurde, stimmt nicht mit dem im SFTP-Pfad <path> angegebenen Benutzer überein.
SHOW_COLUMNS_WITH_CONFLICT_NAMESPACE
SHOW COLUMNS mit widersprüchlichen Namespaces: <namespaceA> != <namespaceB>.
SNOWFLAKE_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
Die Validierung der Snowflake-Datenquellenoption(en) ist fehlgeschlagen.
Weitere Details finden Sie unter SNOWFLAKE_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
SORT_BY_WITHOUT_BUCKETING
"sortBy" muss zusammen mit bucketBy verwendet werden.
SPARK_JOB_CANCELLED
Auftrag <jobId> abgebrochen <reason>
SPECIFY_BUCKETING_IS_NOT_ALLOWED
CREATE TABLE ohne explizite Spaltenliste kann keine Bucketing-Informationen angeben.
Verwenden Sie die Form mit expliziter Spaltenliste, und geben Sie Bucketing-Informationen an.
Alternativ können Sie zulassen, dass die Bucketing-Informationen durch das Weglassen der Klausel abgeleitet werden.
SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED
Sowohl CLUSTER BY als auch CLUSTERED BY INTO BUCKETSkönnen nicht angegeben werden.
SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED
Sowohl CLUSTER BY als auch PARTITIONED BYkönnen nicht angegeben werden.
SPECIFY_PARTITION_IS_NOT_ALLOWED
Eine CREATE TABLE ohne explizite Spaltenliste kann PARTITIONED BYnicht angeben.
Verwenden Sie das Formular mit expliziter Spaltenliste, und geben Sie PARTITIONED BYan.
Alternativ können Sie zulassen, dass die Partitionierung durch das Weglassen der PARTITION BY-Klausel abgeleitet wird.
SQL_CONF_NOT_FOUND
Die SQL-Konfigurationskonfiguration <sqlConf> konnte nicht gefunden werden. Überprüfen Sie, ob die Konfiguration vorhanden ist.
SQL_SCRIPT_IN_EXECUTE_IMMEDIATE
SQL-Skripts in EXECUTE IMMEDIATE Befehlen sind nicht zulässig. Stellen Sie sicher, dass die bereitgestellte SQL-Abfrage (<sqlString>) kein SQL-Skript ist. Stellen Sie sicher, dass die sql_string eine wohlgeformte SQL-Anweisung ist und nicht enthält BEGIN und END.
SQL_SCRIPT_MAX_NUMBER_OF_CHARACTERS_EXCEEDED
Die maximale Anzahl von Zeichen in einem SQL-Skript (id: <scriptId>) wurde überschritten. Die maximale Anzahl zulässiger Zeichen ist <maxChars>, und das Skript hatte <chars> Zeichen.
SQL_SCRIPT_MAX_NUMBER_OF_LINES_EXCEEDED
Die maximale Anzahl von Zeilen in einem SQL-Skript (id: <scriptId>) wurde überschritten. Die maximale Anzahl zulässiger Zeilen ist <maxLines>, und das Skript hatte <lines> Zeilen.
SQL_SCRIPT_MAX_NUMBER_OF_LOCAL_VARIABLE_DECLARATIONS_EXCEEDED
Die maximale Anzahl von lokalen Variablendeklarationen in einem SQL-Skript (ID: <scriptId>) wurde überschritten. Die maximale Anzahl zulässiger Deklarationen ist <maxDeclarations>, und das Skript hatte <declarations>.
SQL_STORED_PROCEDURES_NESTED_CALLS_LIMIT_EXCEEDED
Die maximale Anzahl geschachtelter Prozeduraufrufe wurde mit der Prozedur überschritten (Name: <procedureName>, callId: <procedureCallId>). Die maximal zulässige Anzahl von geschachtelten Prozeduraufrufen ist <limit>.
STAGING_PATH_CURRENTLY_INACCESSIBLE
Vorübergehender Fehler beim Zugriff auf den Ziel-Stagingpfad <path>. Versuchen Sie es in einigen Minuten.
STAR_GROUP_BY_POS
Das Sternchen (*) ist in einer Auswahlliste nicht zulässig, wenn eine Ordinalposition verwendet wird.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE
Fehler beim Ausführen eines zustandsbehafteten Prozessorvorgangs=<operationType> mit ungültigem Handle-Zustand=<handleState>.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE
Fehler beim Ausführen des zustandsbehafteten Prozessorvorgangs=<operationType> mit ungültigem timeMode=<timeMode>
STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED
Statusvariable mit dem Namen <stateVarName> wurde bereits im StatefulProcessor definiert.
STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL
TTL kann nicht für state=<stateName> in timeMode=<timeMode>verwendet werden, verwenden Sie stattdessen TimeMode.ProcessingTime().
STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE
Die TTL-Dauer muss größer als Null für den Zustandsspeichervorgang=<operationType> für "state=<stateName>" sein.
STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE
Unbekannter Zeitmodus <timeMode>. Akzeptierte TimeMode-Modi sind 'none', 'processingTime', 'eventTime'
STATE_REPARTITION_INVALID_CHECKPOINT
Der angegebene Prüfpunktspeicherort "<checkpointLocation>" befindet sich in einem ungültigen Zustand.
Weitere Informationen finden Sie unter STATE_REPARTITION_INVALID_CHECKPOINT
STATE_REPARTITION_INVALID_PARAMETER
Der Parameter <parameter> "Repartition" ist ungültig:
Weitere Informationen finden Sie unter STATE_REPARTITION_INVALID_PARAMETER
STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS
Fehler beim Erstellen einer Spaltenfamilie mit nicht unterstütztem Anfangszeichen und Name=<colFamilyName>.
STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME
Fehler beim Ausführen des Spaltenfamilienvorgangs=<operationName> mit ungültiger Name=<colFamilyName>. Spaltenfamilienname darf nicht leer sein oder führende/nachfolgende Leerzeichen enthalten oder das reservierte Schlüsselwort=Standard verwenden
STATE_STORE_CHECKPOINT_IDS_NOT_SUPPORTED
<msg>
STATE_STORE_CHECKPOINT_LOCATION_NOT_EMPTY
Der Prüfpunktspeicherort <checkpointLocation> sollte auf Batch 0 leer sein.
Verwenden Sie entweder einen neuen Prüfpunktspeicherort, oder löschen Sie die vorhandenen Daten am Prüfpunktspeicherort.
STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE
Inkompatible Schematransformation mit Spaltenfamilie=<colFamilyName>, oldSchema=<oldSchema>, newSchema=<newSchema>.
STATE_STORE_DOES_NOT_SUPPORT_REUSABLE_ITERATOR
StateStore-<inputClass> unterstützt keinen wiederverwendbaren Iterator.
STATE_STORE_HANDLE_NOT_INITIALIZED
Das Handle wurde für diesen StatefulProcessor nicht initialisiert.
Verwenden Sie den StatefulProcessor nur im Operator transformWithState.
STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN
Falsche Anzahl von Ordnungszahlen=<numOrderingCols> für Bereichsscan-Encoder. Die Anzahl der Ordnungszahlen darf nicht null oder größer als die Anzahl der Schemaspalten sein.
STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN
Falsche Anzahl von Präfixspalten=<numPrefixCols> für Präfixscan-Encoder. Präfixspalten dürfen nicht null oder größer oder gleich der Anzahl der Schemaspalten sein.
STATE_STORE_INVALID_AVRO_SCHEMA (Ungültiges Avro-Schema im State Store)
Es wurde ein ungültiges Schema für die Avro-Codierung erkannt.
Weitere Informationen finden Sie unter STATE_STORE_INVALID_AVRO_SCHEMA
STATE_STORE_INVALID_CONFIG_AFTER_RESTART
<configName> kann zwischen Neustarts nicht von <oldConfig> in <newConfig> geändert werden. Legen Sie <configName> auf <oldConfig>fest, oder starten Sie es mit einem neuen Prüfpunktverzeichnis neu.
STATE_STORE_INVALID_PROVIDER
Der angegebene State Store-Anbieter <inputClass> erweitert nicht org.apache.spark.sql.execution.streaming.state.StateStoreProvider.
STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE
<stateVarName> kann zwischen Neustarts der Abfrage nicht in <newType> geändert werden. Legen Sie <stateVarName> auf <oldType>fest, oder starten Sie es mit einem neuen Prüfpunktverzeichnis neu.
STATE_STORE_KEY_SCHEMA_NICHT_KOMPATIBEL
Das bereitgestellte Schlüsselschema stimmt nicht mit dem vorhandenen Schema im Operatorstatus überein.
Vorhandenes Schema=<storedKeySchema>; bereitgestelltes Schema=<newKeySchema>.
Wenn Sie die Abfrage ohne Schemaüberprüfung ausführen möchten, legen Sie spark.sql.streaming.stateStore.stateSchemaCheck auf "false" fest.
Beachten Sie, dass das Ausführen ohne Schemaüberprüfung nicht deterministisches Verhalten aufweisen kann.
STATE_STORE_NATIVE_ROCKSDB_TIMEOUT
Beim Zugriff auf den RocksDB-Zustandsspeicher für den zustandsbehafteten Streamingvorgang ist beim Aufrufen der nativen RocksDB-Funktion <funcName> nach dem Warten auf „timeout=<timeoutMs> ms“ ein Timeout aufgetreten. Versuchen Sie es erneut, und starten Sie den Cluster neu, wenn ein Fehler weiterhin auftritt.
STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED
Nulltyp-Sortierspalte mit name=<fieldName> bei index=<index> wird für Bereichsscan-Encoder nicht unterstützt.
STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY
Der angegebene Zustandsspeicheranbieter <inputClass> erweitert „org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay“ nicht.
Daher werden die Optionen "snapshotStartBatchId" oder "readChangeFeed" in der Status-Datenquelle nicht unterstützt.
STATE_STORE_ROCKSDB_ZIP_ALREADY_EXISTS
Die RocksDB-Snapshot-ZIP-Datei <zipFilePath> ist bereits vorhanden. Dies bedeutet, dass die Momentaufnahme bereits in DFS hochgeladen wurde.
(allowVersionOverwrite=<allowVersionOverwrite>, shouldUseCommitService=<shouldUseCommitService>)
STATE_STORE_STATE_SCHEMA_FILES_THRESHOLD_EXCEEDED
Die Anzahl der Zustandsschemadateien <numStateSchemaFiles> überschreitet die maximale Anzahl von Zustandsschemadateien für diese Abfrage: <maxStateSchemaFiles>.
Hinzugefügt: <addedColumnFamilies>, Entfernt: <removedColumnFamilies>
Legen Sie "spark.sql.streaming.stateStore.stateSchemaFilesThreshold" auf eine höhere Zahl fest, oder setzen Sie Zustandsschemaänderungen zurück.
STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY
Zustandsspeichervorgang=<operationType> wird für fehlende Spaltenfamilie=<colFamilyName>nicht unterstützt.
STATE_STORE_VALUE_SCHEMA_EVOLUTION_THRESHOLD_EXCEEDED
Die Anzahl der Zustandsschemaentwicklungen <numSchemaEvolutions> überschreitet die maximale Anzahl von Zustandsschemaentwicklungen, <maxSchemaEvolutions>, die für diese Spaltenfamilie zulässig sind.
Fehlerhafte Spaltenfamilie: <colFamilyName>
Legen Sie "spark.sql.streaming.stateStore.valueStateSchemaEvolutionThreshold" auf eine höhere Zahl fest, oder setzen Sie Zustandsschemaänderungen zurück.
STATE_STORE_VALUE_SCHEMA_NOT_COMPATIBLE
Das bereitgestellte Wertschema stimmt nicht mit dem vorhandenen Schema im Operatorstatus überein.
Vorhandenes Schema=<storedValueSchema>; bereitgestelltes Schema=<newValueSchema>.
Wenn Sie die Abfrage ohne Schemaüberprüfung ausführen möchten, legen Sie spark.sql.streaming.stateStore.stateSchemaCheck auf "false" fest.
Beachten Sie, dass das Ausführen ohne Schemaüberprüfung nicht deterministisches Verhalten aufweisen kann.
STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED
Die Sortierspalte variabler Größe mit name=<fieldName> bei index=<index> wird für Bereichsscan-Encoder nicht unterstützt.
STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST
Statische Partitionsspalte <staticName> wird auch in der Spaltenliste angegeben.
STDS_COMMITTED_BATCH_UNAVAILABLE
Es wurde kein committeter Batch gefunden, Prüfpunktspeicherort: <checkpointLocation>. Stellen Sie sicher, dass die Abfrage ausgeführt wurde und alle Microbatches vor dem Beenden festgeschrieben wurden.
STDS_CONFLICT_OPTIONS
Die Optionen <options> können nicht zusammen angegeben werden. Bitte geben Sie den einen an.
STDS_FAILED_TO_READ_OPERATOR_METADATA
Fehler beim Lesen der Operatormetadaten für checkpointLocation=<checkpointLocation> und batchId=<batchId>.
Entweder ist die Datei nicht vorhanden, oder die Datei ist beschädigt.
Führen Sie die Streamingabfrage erneut aus, um die Operatormetadaten zu erstellen. Sollten weiterhin Fehler auftreten, berichten Sie dies den entsprechenden Gemeinschaften oder Anbietern.
STDS_FAILED_TO_READ_STATE_SCHEMA
Fehler beim Lesen des Statusschemas. Entweder ist die Datei nicht vorhanden, oder die Datei ist beschädigt. Optionen: <sourceOptions>.
Führen Sie die Streamingabfrage erneut aus, um das Statusschema zu erstellen, und melden Sie den entsprechenden Communities oder Anbietern, wenn der Fehler weiterhin besteht.
STDS_INVALID_OPTION_VALUE
Ungültiger Wert für die Quelloption '<optionName>':
Weitere Details finden Sie unter STDS_INVALID_OPTION_VALUE.
STDS_MIXED_CHECKPOINT_FORMAT_VERSIONS_NOT_SUPPORTED
Der Lesezustand in verschiedenen Formatversionen des Prüfpunktformats wird nicht unterstützt.
startBatchId=<startBatchId>, endBatchId=<endBatchId>.
startFormatVersion=<startFormatVersion>, endFormatVersion=<endFormatVersion>.
STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE
Der Staat hat keine Partition. Überprüfen Sie bitte, ob die Abfrage auf den gültigen Zustand verweist. optionen: <sourceOptions>
STDS_OFFSET_LOG_UNAVAILABLE
Das Offsetprotokoll für <batchId> ist nicht vorhanden, Prüfpunktspeicherort: <checkpointLocation>.
Geben Sie die Batch-ID an, die für die Abfrage verfügbar ist . Sie können die verfügbaren Batch-IDs mithilfe der Zustandsmetadatenquelle abfragen.
STDS_OFFSET_METADATA_LOG_UNAVAILABLE
Für das Offsetprotokoll für <batchId> sind keine Metadaten vorhanden, Prüfpunktspeicherort: <checkpointLocation>.
Der Prüfpunkt scheint nur mit älteren Spark-Versionen ausgeführt zu werden. Führen Sie die Streamingabfrage mit der aktuellen Spark-Version aus, sodass Spark die Statusmetadaten erstellt.
STDS_REQUIRED_OPTION_UNSPECIFIED
'<optionName>' muss angegeben werden.
STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS
Die Ausführung adaptiver Abfragen wird für zustandsbehaftete Operatoren im strukturierten Streaming nicht unterstützt.
STREAMING_CHECKPOINT_METADATA_ERROR
Fehler bei den Metadaten des Stream-Checkpoints.
Weitere Informationen finden Sie unter STREAMING_CHECKPOINT_METADATA_ERROR
STREAMING_CHECKPOINT_PIN_BATCH_ERROR
Fehler beim Ausführen des Pin-Vorgangs für die Streamingabfrage mit Prüfpunktspeicherort=<checkpointLocation> at batchId=<batchId>.
Weitere Informationen finden Sie unter STREAMING_CHECKPOINT_PIN_BATCH_ERROR
STREAMING_CHECKPOINT_REWIND_ERROR
Fehler beim Ausführen des Rückspulenvorgangs für die Streamingabfrage mit Prüfpunktspeicherort=<checkpointLocation>.
Weitere Informationen finden Sie unter STREAMING_CHECKPOINT_REWIND_ERROR
STREAMING_CHECKPOINT_REWIND_OPTIONS_ERROR
Fehler beim Zurückspulen des Streamingprüfpunkts.
Weitere Informationen finden Sie unter STREAMING_CHECKPOINT_REWIND_OPTIONS_ERROR
STREAMING_FROM_MATERIALIZED_VIEW
Aus der materialisierten Ansicht <viewName> kann nicht gestreamt werden. Das Streaming von materialisierten Sichten wird nicht unterstützt.
STREAMING_OUTPUT_MODE
Ungültiger Streamingausgabemodus: <outputMode>.
Weitere Details finden Sie unter STREAMING_OUTPUT_MODE.
STREAMING_QUERY_EVOLUTION_ERROR
Fehler bei der Streamingabfrageentwicklung:
Weitere Informationen finden Sie unter STREAMING_QUERY_EVOLUTION_ERROR
STREAMING_RATE_SOURCE_OFFSET_VERSION_MISMATCH
Erwarte Rate-Source-Offset-Version <expectedVersion>, aber erhielt Version <actualVersion>. Um den Vorgang fortzusetzen, legen Sie die Option "Version" <expectedVersion> in den Zinsquellenoptionen fest. Beispiel: spark.readStream.format("rate").option("version", "<expectedVersion>").
ÄNDERUNG DER PARTITIONSNUMMER FÜR STREAMING-RATE-QUELLE V2 NICHT UNTERSTÜTZT.
Die Anzahl der Partitionen (<prevNum>) in früheren Mikrobatchs unterscheidet sich von der aktuellen Anzahl von Partitionen (<currNum>). Es könnte zwei mögliche Gründe geben:
Option "numPartitions" der Rate-Quelle wird während des Abfrage-Neustarts geändert.
Die Größe des Clusters kann sich beim Neustart der Abfrage ändern.
Legen Sie explizit die Option "numPartitions" der Quelle "Rate" fest, um dieses Problem zu <prevNum> beheben.
STREAMING_RATE_SOURCE_V2_RAMPUP_TIME_UNTERSTÜTZT_NICHT
Die Option "rampUpTime" wird von Rate Version 2 nicht unterstützt. Um diese Option zu verwenden, legen Sie die Option "Version" auf 1 fest. Beispiel: spark.readStream.format("rate"). option("version", "1").
STREAMING_REAL_TIME_MODE
Der Streaming-Echtzeitmodus hat die folgende Einschränkung:
Weitere Details finden Sie unter STREAMING_REAL_TIME_MODE.
STREAMING_ECHTZEIT_WASSERZEICHEN_AUSBREITUNG
Die Verteilung von Wasserzeichen in Echtzeit hat die folgende Einschränkung:
Weitere Details finden Sie unter STREAMING_REAL_TIME_WATERMARK_PROPAGATION
STREAMING_SINK_DELIVERY_MODE
Ungültiger Streaming-Sink-Übermittlungsmodus: <deliveryMode>.
Weitere Details finden Sie unter STREAMING_SINK_DELIVERY_MODE
STREAMING_SKIP_OFFSETS_INVALID_RANGE
Ungültiger Offsetbereich zum Überspringen: Der Endoffset ist kleiner als der Startoffset <endOffset><startOffset>. Korrigieren Sie diesen Offsetbereich, und versuchen Sie es erneut.
STREAMING_STATEFUL_OPERATOR_MISSING_STATE_DIRECTORY
Die Streamingabfrage kann nicht mit zustandsbehafteten Operatoren neu gestartet werden, da das Statusverzeichnis leer oder fehlt.
Dies tritt in der Regel auf, wenn Zustandsdateien gelöscht wurden oder die Streamingabfrage zuvor ohne zustandsbehaftete Operatoren ausgeführt wurde, aber mit zustandsbehafteten Operatoren neu gestartet wurde.
Entfernen Sie die zustandsbehafteten Operatoren, verwenden Sie einen neuen Prüfpunktspeicherort, oder stellen Sie die fehlenden Zustandsdateien wieder her.
STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA
Der Name des Streamingstatusoperators stimmt nicht mit dem Operator in Zustandsmetadaten überein. Dies geschieht wahrscheinlich, wenn der Benutzer den zustandsbehafteten Operator einer vorhandenen Streamingabfrage hinzufügt/entfernt/ändert.
Zustandsbehaftete Operatoren in den Metadaten: [<OpsInMetadataSeq>]; Zustandsbehaftete Operatoren im aktuellen Batch: [<OpsInCurBatchSeq>].
STREAMING_TABLE_NEEDS_REFRESH
Die Streamingtabelle <tableName> muss aktualisiert werden, um <operation>auszuführen.
Wenn die Tabelle aus DBSQLerstellt wird, führen Sie bitte REFRESH STREAMING TABLEaus.
Wenn die Tabelle von einer Pipeline in Lakeflow Spark Declarative Pipeliness erstellt wird, führen Sie bitte ein Pipelineupdate aus.
STREAMING_TABLE_NOT_SUPPORTED
Streamingtabellen können nur in Lakeflow Spark Declarative Pipeliness und Databricks SQL Warehouses erstellt und aktualisiert werden.
STREAMING_TABLE_OPERATION_NOT_ALLOWED
Der Vorgang <operation> ist nicht zulässig:
Weitere Details finden Sie unter STREAMING_TABLE_OPERATION_NOT_ALLOWED.
STREAMING_TABLE_QUERY_INVALID
Streamingtabelle <tableName> kann nur aus einer Streamingabfrage erstellt werden. Fügen Sie Ihrer STREAM-Klausel das Schlüsselwort FROM hinzu, um diese Beziehung in eine Streamingabfrage umzuwandeln.
STREAM_NOT_FOUND_FOR_KINESIS_SOURCE
Kinesis-Stream <streamName> in <region> nicht gefunden.
Beginnen Sie eine neue Abfrage, die auf den richtigen Streamnamen zeigt.
STRUCT_ARRAY_LENGTH_MISMATCH
Die Eingabezeile hat nicht die erwartete Anzahl von Werten, die für das Schema erforderlich sind.
<expected> Felder sind erforderlich, während <actual> Werte bereitgestellt werden.
ST_INVALID_ALGORITHM_VALUE
Ungültiger oder nicht unterstützter Wert des Edgeinterpolationsalgorithmus: '<alg>'.
ST_INVALID_CRS_VALUE
Ungültiger oder nicht unterstützter CRS-Wert (Koordinatenverweissystem): '<crs>'.
ST_INVALID_SRID_VALUE
Ungültiger oder nicht unterstützter SRID-Wert (Spatial Reference Identifier): <srid>.
SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT
Die Summe der LIMIT-Klausel und der OFFSET-Klausel darf nicht größer als der maximal zulässige ganzzahlige 32-Bit-Wert (2.147.483.647) sein, aber der gefundene Grenzwert = <limit>. Offset = <offset>.
SYNC_METADATA_DELTA_ONLY
Der Befehl "Tabellensynchronisierungsmetadaten reparieren" wird nur für die Delta-Tabelle unterstützt.
SYNC_SRC_TARGET_TBL_NOT_SAME
Der Name der Quelltabelle <srcTable> muss mit dem Namen der Zieltabelle <destTable>übereinstimmen.
SYNTAX_DISCONTINUED
Die Unterstützung der Klausel oder des Schlüsselworts <clause> wurde in diesem Kontext eingestellt.
Weitere Details finden Sie unter SYNTAX_DISCONTINUED.
TABLE_ARGUMENTS_NOT_ALLOWED
TABLE Parameter werden in <routineType> nicht unterstützt.
TABLE_NOT_VALID_SECONDARY_INDEX
Fehler beim Ausführen des DESCRIBE SEARCH INDEX Befehls, da die Tabelle <tableName> kein gültiger <indexType> Index ist. Aktualisieren Sie den Befehl, um einen gültigen Index zu verwenden, und wiederholen Sie ihn erneut.
TABLE_OR_VIEW_ALREADY_EXISTS
Tabelle oder Ansicht <relationName> kann nicht erstellt werden, da sie bereits vorhanden ist.
Wählen Sie einen anderen Namen aus, legen Sie das vorhandene Objekt ab, fügen Sie die IF NOT EXISTS Klausel hinzu, um bereits vorhandene Objekte zu tolerieren, die OR-REPLACE-Klausel hinzuzufügen, um die vorhandene materialisierte Ansicht zu ersetzen, oder fügen Sie die OR-REFRESH-Klausel hinzu, um die vorhandene Streamingtabelle zu aktualisieren.
TABLE_OR_VIEW_NOT_FOUND
Die Tabelle oder Ansicht <relationName> kann nicht gefunden werden. Überprüfen Sie die Rechtschreibung und Korrektheit des Schemas und Katalogs.
Wenn Sie den Namen nicht mit einem Schema qualifiziert haben, überprüfen Sie die ausgabe current_schema() oder qualifizieren Sie den Namen mit dem richtigen Schema und Katalog.
Um den Fehler beim Löschen zu tolerieren, verwenden Sie DROP VIEW IF EXISTS oder DROP TABLE IF EXISTS.
Weitere Details finden Sie unter TABLE_OR_VIEW_NOT_FOUND.
TABLE_TYPE_INCOMPATIBLE_WITH_ABAC_POLICY
Der Tabellentyp von <tableName>, <tableType>, unterstützt keine ABAC-Richtlinien.
Entfernen Sie die Richtlinien, und versuchen Sie es erneut.
TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS
Die Aktion <action> ist für die benutzerdefinierte SQL-Funktion <functionName> mit TABLE-Argumenten nicht möglich, weil diese Funktionalität noch nicht implementiert ist.
TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON
Fehler beim Analysieren der benutzerdefinierten Tabellenfunktion python: <msg>
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL
Fehler beim Auswerten der Tabellenfunktion <functionName>, da die Tabellenmetadaten <requestedMetadata> sind, aber der Funktionsaufruf <invalidFunctionCallProperty>.
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID
Fehler beim Auswerten der Tabellenfunktion <functionName>, da die Tabellenmetadaten ungültig waren; <reason>.
TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS
Es gibt zu viele Tabellenargumente für die Tabellenwertfunktion.
Ein Tabellenargument ist zulässig, sie enthielt jedoch Folgendes: <num>.
Wenn Sie dies zulassen möchten, legen Sie "spark.sql.allowMultipleTableArguments.enabled" auf "true" fest.
TABLE_WITH_ID_NOT_FOUND
Tabelle mit ID <tableId> kann nicht gefunden werden. Überprüfen Sie die Richtigkeit der UUID.
TASK_WRITE_FAILED
Aufgabenfehler beim Schreiben von Zeilen in <path>.
TEMP_CHECKPOINT_LOCATION_NOT_SUPPORTED
Implizite temporäre Streaming-Prüfpunktspeicherorte werden in der aktuellen Arbeitsumgebung nicht unterstützt, bitte geben Sie einen Prüfpunktspeicherort explizit an.
Legen Sie für display() den Prüfpunktort mithilfe von fest:
display(df, checkpointLocation = „your_path“)
Verwenden Sie für alle anderen Streamingabfragen Folgendes:
.option("checkpointLocation", "your_path").
TEMP_TABLE_CREATION_LEGACY_WITH_QUERY
CREATE TEMPORARY TABLE
...
AS ... wird hier nicht unterstützt. Verwenden CREATE TEMPORARY VIEW Sie stattdessen
TEMP_TABLE_CREATION_MUTUAL_EXCLUSIVE_SPECS
CREATE TEMPORARY TABLE die Angabe <unsupportedSpec>wird nicht unterstützt.
Weitere Informationen finden Sie unter TEMP_TABLE_CREATION_MUTUAL_EXCLUSIVE_SPECS
TEMP_TABLE_CREATION_NAME_RESERVED
Temporäre Tabelle <tableName> kann nicht erstellt werden, da sie mit einem reservierten Namenspräfix <reservedPrefix>beginnt. Wählen Sie einen anderen Namen aus, und versuchen Sie es erneut.
TEMP_TABLE_CREATION_NOT_SUPPORTED_IN_COMPUTE
CREATE TEMPORARY TABLE [AS ... ] wird mit dem aktuellen Computetyp nicht unterstützt. Verwenden Sie databricks SQL (DBSQL) stattdessen, um sitzungslokale temporäre Tabellen zu erstellen.
TEMP_TABLE_CREATION_REQUIRES_SINGLE_PART_NAME
Zum Erstellen einer sitzungslokalen temporären Tabelle ist ein einzelner Teiltabellenname erforderlich, es wurde jedoch <tableName> erhalten. Aktualisieren Sie den Befehl so, dass ein einzelner Tabellenname verwendet wird, und wiederholen Sie den Vorgang.
TEMP_TABLE_CREATION_UNSUPPORTED_LEGACY_SYNTAX_WITH_HINTS
CREATE TEMPORARY TABLE
...
USING
...
AS ... wird nicht unterstützt. Um eine temporäre Tabelle zu erstellen, entfernen Sie die USING Klausel, und versuchen Sie es erneut.
TEMP_TABLE_DELETION_MUTUAL_EXCLUSIVE_SPECS
DROP TEMPORARY TABLE unterstützt nicht die Angabe von <unsupportedSpec>, entfernen Sie diese Spezifikation, oder legen Sie stattdessen eine permanente Tabelle mithilfe des Befehls DROP TABLE ab.
TEMP_TABLE_DELETION_REQUIRES_SINGLE_PART_NAME
Zum Ablegen einer sitzungslokalen temporären Tabelle ist ein einzelner Teiltabellenname erforderlich, es wurde jedoch <tableName> erhalten. Aktualisieren Sie den DROP TEMPORARY TABLE Befehl so, dass ein einzelner Tabellenname verwendet wird, um eine temporäre Tabelle abzulegen, oder verwenden DROP TABLE Sie stattdessen den Befehl, um eine permanente Tabelle abzulegen.
TEMP_TABLE_NOT_FOUND
Die temporäre Tabelle <tableName> wurde in der aktuellen Sitzung nicht gefunden. Überprüfen Sie die Schreib- und Korrektheit des Tabellennamens, und wiederholen Sie die Abfrage oder den Befehl erneut.
Um den Fehler beim Drop zu tolerieren, verwenden Sie DROP TEMP TABLE IF EXISTS.
TEMP_TABLE_NICHT_UNTERSTÜTZT_BEI_DATABRICKS_JOBS
Die temporäre Tabelle wird in Databricks-Aufträgen noch nicht unterstützt. Verwenden Sie stattdessen Databricks-Notebooks und wenden Sie sich an den Databricks Support, um weitere Informationen zu erhalten.
TEMP_TABLE_NOT_SUPPORTED_WITH_HMS
Der temporäre Tabellenvorgang <operation> wird im Hive-Metastore nicht unterstützt.
TEMP_TABLE_OPERATION_NOT_SUPPORTED
Vorgänge in der sitzungslokalen temporären Tabelle <tableName> werden nicht unterstützt:
Weitere Einzelheiten finden Sie unter TEMP_TABLE_OPERATION_NOT_SUPPORTED
TEMP_TABLE_OPERATION_NOT_SUPPORTED_IN_V1_COMMAND
<operation> in temporären Tabellen wird mit V1-Befehlen nicht unterstützt. Legen Sie "spark.sql.legacy.useV1Command" auf "false" fest, und wiederholen Sie den Vorgang.
TEMP_TABLE_OR_VIEW_ALREADY_EXISTS
Die temporäre Tabelle oder Ansicht kann nicht erstellt werden <relationName> , da sie bereits vorhanden ist.
Wählen Sie einen anderen Namen aus, legen Sie es ab, oder ersetzen Sie das vorhandene Objekt.
TEMP_TABLE_REPLACE_NOT_SUPPORTED
[CREATE ODER] REPLACE TEMPORARY TABLE wird nicht unterstützt. Um eine vorhandene temporäre Tabelle zu ersetzen, legen Sie sie mit DROP TEMPORARY TABLE ... [IF EXISTS] und erstellen Sie es mit CREATE TEMPORARY TABLE ... neu.
TEMP_TABLE_REQUIRES_DATABRICKS_ENV
Vorgänge in sitzungslokalen temporären Tabellen erfordern databricks-Umgebung.
TEMP_TABLE_REQUIRES_DELTA
Vorgänge in sitzungslokalen temporären Tabellen erfordern die Aktivierung des Delta-Katalogs. Aktivieren Sie den Delta-Katalog, und versuchen Sie es erneut.
TEMP_TABLE_REQUIRES_UC
Vorgänge bei sitzungslokalen temporären Tabellen erfordern den Unity Catalog. Aktivieren Sie den Unity-Katalog in Ihrer ausgeführten Umgebung, und versuchen Sie es erneut.
TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS
CREATE TEMPORARY VIEW oder die entsprechenden Dataset-APIs akzeptieren nur einteilige Ansichtsnamen, erhielten aber: <actualName>.
THETA_INVALID_INPUT_SKETCH_BUFFER
Ungültiger Aufruf von <function>; nur gültige Theta-Skizzenpuffer werden als Eingaben (z. B. von der theta_sketch_agg Funktion erzeugte) unterstützt.
THETA_INVALID_LG_NOM_ENTRIES
Ungültiger Aufruf von <function>; der Wert lgNomEntries muss zwischen <min> und <max> liegen (einschließlich): <value>.
THETA_LG_NOM_ENTRIES_MUST_BE_CONSTANT
Ungültiger Aufruf von <function>; der lgNomEntries Wert muss ein Konstantenwert sein, aber es wurde ein nicht konstanter Ausdruck abgerufen.
TRAILING_COMMA_IN_SELECT
Nachstehendes Komma in SELECT-Klausel erkannt. Entfernen Sie das nachfolgende Komma vor der FROM-Klausel.
TRANSACTION_CDF_SCHEMA_WITH_RESERVED_COLUMN_NAME
"Datenfeed ändern" kann in einer Transaktion nicht aktiviert werden, da eine Tabelle einen reservierten Spaltennamen (<column_name>) enthält.
Um fortzufahren, stellen Sie sicher, dass die Tabelle nur nicht reservierte Spaltennamen verwendet.
TRANSACTION_CDF_SETTING_HIGH_WATERMARK_NOT_ALLOWED
Das manuelle Festlegen des hohen Grenzwerts für CDC-Identitäten ist nicht zulässig.
TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE
Für das Objekt <table>wurde eine gleichzeitige Metadatenänderung erkannt. Führen Sie ROLLBACK aus und versuchen Sie diese Transaktion dann erneut. Details:
Weitere Informationen finden Sie unter TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE
TRANSACTION_CONTEXT_MISMATCH
Die Inkonsistenz des Transaktionskontexts wurde zwischen dem aktuellen Thread und der Spark-Sitzung erkannt. Dies tritt in der Regel auf, wenn eine Spark-Sitzung über mehrere Threads hinweg freigegeben wird. Verwenden Sie für jede Transaktion eine dedizierte Sitzung und einen dedizierten Thread, und führen Sie einen Commit/Rollback der Transaktion im Thread durch, bevor Sie die Sitzung und den Thread für eine neue Transaktion wiederverwenden. Details:
Weitere Informationen finden Sie unter TRANSACTION_CONTEXT_MISMATCH
TRANSACTION_MAX_COMMIT_TIMESTAMP_EXCEEDED
Die Transaktion kann nicht commiten, da der maximale Commit-Zeitstempel überschritten wird. maxCommitTimestamp: commitTimestamp:<maxCommitTimestampMs><commitTimestampMs>
TRANSACTION_NOT_SUPPORTED
Fehler beim Ausführen der Anweisung.
Weitere Informationen finden Sie unter TRANSACTION_NOT_SUPPORTED
TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT
Die aktuelle Transaktion wurde abgebrochen. Bitte führen Sie ROLLBACK TRANSACTION aus, bevor Sie fortfahren. Abbruchgrund:
Weitere Informationen finden Sie unter TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT
TRANSFORM_WITH_STATE_USER_FUNCTION_ERROR
Fehler in der benutzerdefinierten Funktion <function> des StatefulProcessor. Grund: <reason>.
TRANSPOSE_EXCEED_ROW_LIMIT
Die Anzahl der Zeilen überschreitet den zulässigen Grenzwert für <maxValues>TRANSPOSE. Wenn dies beabsichtigt ist, legen Sie <config> mindestens auf die aktuelle Zeilenanzahl fest.
TRANSPOSE_INVALID_INDEX_COLUMN
Ungültige Indexspalte für TRANSPOSE, weil: <reason>
TRANSPOSE_NO_LEAST_COMMON_TYPE
Das Transponieren erfordert, dass Nicht-Index-Spalten mindestens einen gemeinsamen Typ verwenden, doch <dt1> und <dt2> tun das nicht.
TRIGGER_INTERVAL_INVALID
Das Triggerintervall muss eine positive Dauer sein, die in ganze Sekunden konvertiert werden kann. Empfangen: <actual> Sekunden.
TUPLE_IS_EMPTY
Da Scala nur eingeschränkte Unterstützung für Tupel bietet, wird ein leeres Tupel nicht unterstützt.
TUPLE_SIZE_EXCEEDS_LIMIT
Da Scala nur eingeschränkte Unterstützung für Tupel bietet, werden Tupel mit mehr als 22 Elementen nicht unterstützt.
UC_BUCKETED_TABLES
Zusammengefasste Tabellen werden im Unity-Katalog nicht unterstützt.
UC_CATALOG_NAME_NOT_PROVIDED
Geben Sie für Unity-Katalog den Katalognamen explizit an. z. B. SHOW GRANT your.address@email.com ON CATALOG Haupt.
UC_COMMAND_NOT_SUPPORTED
Die Befehle: <commandName> werden im Unity-Katalog nicht unterstützt.
Weitere Details finden Sie unter UC_COMMAND_NOT_SUPPORTED.
UC_COMMAND_NOT_SUPPORTED_IN_SERVERLESS
Die Befehle: <commandName> werden für Unity-Katalogcluster ohne Server nicht unterstützt. Verwenden Sie stattdessen Einzelbenutzercluster oder gemeinsam verwendete Cluster.
UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE
Die Befehle: <commandName> werden für Unity-Katalogcluster im Modus für gemeinsam genutzten Zugriff nicht unterstützt. Verwenden Sie stattdessen den Einzelbenutzerzugriffsmodus.
UC_CONNECTION_NOT_FOUND_FOR_FILE_SYSTEM_SOURCE_ACCESS
Es konnte keine gültige UC-Verbindung zum Zugriff auf <path> gefunden werden, nachdem <connectionNames> ausgewertet wurde.
Stellen Sie sicher, dass mindestens eine gültige UC-Verbindung für den Zugriff auf den Zielpfad verfügbar ist.
Detaillierte Fehler für die ausgewerteten Verbindungen:
<connectionErrors>
UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED
Die angegebene Anmeldeinformationsart wird nicht unterstützt.
UC_DATASOURCE_NOT_SUPPORTED
Das Datenquellenformat <dataSourceFormatName> wird im Unity-Katalog nicht unterstützt.
UC_DATASOURCE_OPTIONS_NOT_SUPPORTED
Datenquellenoptionen werden im Unity-Katalog nicht unterstützt.
UC_DEPENDENCY_DOES_NOT_EXIST
Die Abhängigkeit ist im Unity-Katalog nicht vorhanden:
<errorMessage>
UC_EXTERNAL_VOLUME_MISSING_LOCATION
LOCATION-Klausel muss für externes Volume vorhanden sein. Bitte überprüfen Sie die Syntax 'CREATE EXTERNAL VOLUME...LOCATION ...' zum Erstellen eines externen Volumes.
UC_FAILED_PROVISIONING_STATE
Fehler bei der Abfrage, da versucht wurde, auf tabelle <tableName> zu verweisen, dies aber nicht möglich war: <failureReason>. Aktualisieren Sie die Tabelle <tableName>, um sicherzustellen, dass sie sich in einem aktiven Bereitstellungsstatus befindet, und wiederholen Sie dann die Abfrage erneut.
UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED
Das Erstellen einer Tabelle im Unity-Katalog mit dateischema <schemeName> wird nicht unterstützt.
Erstellen Sie stattdessen eine Verbunddatenquellenverbindung mit dem Befehl CREATE CONNECTION für denselben Tabellenanbieter, und erstellen Sie dann einen Katalog basierend auf der Verbindung mit einem CREATE FOREIGN CATALOG-Befehl, um auf die darin enthaltenen Tabellen zu verweisen.
UC_HIVE_METASTORE_DISABLED_EXCEPTION
Der Vorgang hat versucht, hive Metastore<identifier> zu verwenden, der aufgrund des deaktivierten Legacyzugriffs in Ihrem Konto oder Arbeitsbereich deaktiviert ist. Überprüfen Sie den Standardkatalog und die Standard-Namespace-Einstellung in der aktuellen Sitzung. Wenn Sie auf den Hive-Metastore zugreifen müssen, bitten Sie Ihren Administrator, den Hive-Metastore-Partnerverbund über den Unity-Katalog einzurichten.
UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED
Die Hive Metastore Federationsansicht unterstützt keine Abhängigkeiten über mehrere Kataloge hinweg. Ansicht <view> im Hive-Metastore-Verbundkatalog muss Abhängigkeiten aus dem hive_metastore- oder dem spark_catalog-Katalog verwenden, aber die Abhängigkeit <dependency> befindet sich in einem anderen Katalog <referencedCatalog>. Aktualisieren Sie die Abhängigkeiten, um diese Einschränkung zu erfüllen, und wiederholen Sie dann die Abfrage oder den Befehl erneut.
UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED
Der Hive-Metastore-Partnerverbund ist für diesen Cluster nicht aktiviert.
Der Zugriff auf den Katalog <catalogName> wird in diesem Cluster nicht unterstützt.
UC_INVALID_DEPENDENCIES
Abhängigkeiten von <securable> werden als <storedDeps> aufgezeichnet, während sie als <parsedDeps>geparst werden. Dies ist wahrscheinlich durch falsche Verwendung einer NICHT-SQL-API aufgetreten.
Weitere Informationen finden Sie unter UC_INVALID_DEPENDENCIES
UC_INVALID_NAMESPACE
Geschachtelte oder leere Namespaces werden im Unity-Katalog nicht unterstützt.
UC_INVALID_REFERENCE
Nicht-Unity-Catalog-Objekt <name> kann in Unity Catalog-Objekten nicht referenziert werden.
UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED
Die Unity Catalog Lakehouse Federation-Schreibunterstützung ist für den Anbieter <provider> in diesem Cluster nicht aktiviert.
UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED
Das verwaltete Volume akzeptiert keine LOCATION-Klausel. Bitte überprüfen Sie die Syntax 'CREATE VOLUME ...' zum Erstellen eines verwalteten Volumes.
UC_NOT_ENABLED
Unity-Katalog ist für diesen Cluster nicht aktiviert.
UC_QUERY_FEDERATION_NOT_ENABLED
Unity Catalog Query Federation ist für diesen Cluster nicht aktiviert.
UC_RESOLVED_DBFS_PATH_MISMATCH
Fehler bei der Abfrage, weil versucht wurde, auf <objectType> <name> zu verweisen, dies aber nicht möglich war: Der aufgelöste DBFS-Pfad <resolvedHmsPath> stimmt nicht mit dem Unity-Katalogspeicherort <ucStorageLocation> überein.
UC_SECRETS_NICHT_AKTIVIERT
Die Unterstützung für Geheimnisse des Unity-Katalogs ist nicht aktiviert.
UC_GEHEIMNIS_EXISTIERT_BEREITS
Geheimer Schlüssel <name> kann nicht erstellt werden, da er bereits vorhanden ist.
Wählen Sie einen anderen Namen aus, legen Sie das vorhandene Objekt ab, oder ersetzen Sie das vorhandene Objekt, oder fügen Sie die IF NOT EXISTS Klausel hinzu, um bereits vorhandene Objekte zu tolerieren.
UC_SECRET_NOT_FOUND
Geheimer Schlüssel <name> ist nicht vorhanden. Verwenden Sie 'SHOW SECRETS' zum Auflisten verfügbarer geheimer Schlüssel.
UC_SERVICE_CREDENTIALS_NOT_ENABLED
Dienstanmeldedaten sind für diesen Cluster nicht aktiviert.
UC_TABLE_METADATA_OUT_OF_SYNC
Tabelle <tableName> kann nicht abgefragt werden, da Tabellenmetadaten im Katalog nicht synchronisiert sind. Reparieren Sie die Tabelle, indem Sie zuerst 'MSK REPAIR TABLE <tableName> SYNC METADATA' ausführen, um Metadaten zu synchronisieren.
UC_UNCAUGHT_CLIENT_EXCEPTION
Unerwarteter HTTP-Fehler beim Kommunizieren mit dem Databricks Unity Catalog-Back-End. Fehlercode: <errCode>. Meldung: <message>
UC_VOLUMES_NOT_ENABLED
Die Unterstützung für Unity-Katalogvolumes ist für diese Instanz nicht aktiviert.
UC_VOLUMES_NOT_SUPPORTED
Volumes werden für diesen Vorgang nicht unterstützt. Der angegebene Pfad war '<path>'.
UC_VOLUMES_SHARING_NOT_ENABLED
Die Unterstützung für Volume-Sharing ist für diese Instanz nicht aktiviert.
UC_VOLUME_NOT_FOUND
Volume <name> existiert nicht. Verwenden Sie "SHOW VOLUMES" zum Auflisten der verfügbaren Volumes.
UDF_ENVIRONMENT_ERROR
Konnte UDF-Abhängigkeiten für <udfName> aufgrund eines Systemfehlers nicht installieren.
Weitere Details finden Sie unter UDF_ENVIRONMENT_ERROR.
UDF_ENVIRONMENT_USER_ERROR
Fehler beim Installieren von UDF-Abhängigkeiten für <udfName>.
Weitere Details finden Sie unter UDF_ENVIRONMENT_USER_ERROR
UDF_ERROR
SQLSTATE: nicht zugewiesen
Fehler bei der Ausführung der Funktion <fn>
Weitere Details finden Sie unter UDF_ERROR
UDF_LIMITS
Mindestens ein UDF-Grenzwert wurde verletzt.
Weitere Informationen finden Sie unter UDF_LIMITS
UDF_MAX_COUNT_EXCEEDED
Der abfrageweite UDF-Grenzwert von <maxNumUdfs> UDFs wurde überschritten (während der öffentlichen Vorschau beschränkt). Es wurde <numUdfs> gefunden. Die UDFs waren: <udfNames>.
UDF_PYSPARK_ERROR
Python-Worker unerwartet beendet
Weitere Informationen finden Sie unter UDF_PYSPARK_ERROR
UDF_PYSPARK_UNSUPPORTED_TYPE
PySpark UDF <udf> (<eval-type>) wird für Cluster im Modus für den freigegebenen Zugriff nicht unterstützt.
UDF_PYSPARK_USER_CODE_ERROR
Fehler bei der Ausführung.
Weitere Details finden Sie unter UDF_PYSPARK_USER_CODE_ERROR.
UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE
Der Parameterstandardwert wird für benutzerdefinierte <functionType>-Funktion nicht unterstützt.
UDF_USER_CODE_ERROR
Fehler bei der Ausführung der Funktion <fn>.
Weitere Informationen finden Sie unter UDF_USER_CODE_ERROR
UDTF_ALIAS_NUMBER_MISMATCH
Die Anzahl der in der AS Klausel angegebenen Aliase stimmt nicht mit der Anzahl der Spalten überein, die vom UDTF ausgegeben werden.
Es wurden <aliasesSize> Aliase erwartet, aber <aliasesNames> erhalten.
Stellen Sie sicher, dass die Anzahl der bereitgestellten Aliase mit der Anzahl der von der UDTF ausgegebenen Spalten übereinstimmt.
UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD
Fehler beim Auswerten der benutzerdefinierten Tabellenfunktion, da die 'analyze'-Methode eine angeforderte OrderingColumn zurückgegeben hat, deren Spaltenname-Ausdruck einen unnötigen Alias <aliasName> enthält. Bitte entfernen Sie diesen Alias und versuchen Sie die Abfrage dann erneut.
UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS
Fehler beim Auswerten der benutzerdefinierten Tabellenfunktion, da die 'analyze'-Methode einen angeforderten 'select'-Ausdruck (<expression>) zurückgegeben hat, der keinen entsprechenden Alias enthält. Aktualisieren Sie die UDTF, um dort einen Alias anzugeben, und versuchen Sie es dann erneut.
UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE
Sql-Typ-<toType> kann nicht in den Protobuf-Typ <protobufType>konvertiert werden.
UNABLE_TO_FETCH_HIVE_TABLES
Das Abrufen von Tabellen der Hive-Datenbank ist nicht möglich: <dbName>. Fehlerklassenname: <className>.
UNABLE_TO_INFER_PIPELINE_TABLE_SCHEMA
Fehler beim Ableiten des Schemas für die Tabelle <tableName> aus den vorgelagerten Flüssen.
Ändern Sie die Flüsse, die in diese Tabelle schreiben, um deren Schemas kompatibel zu machen.
Abgeleitetes Schema bisher:
<inferredDataSchema>
Inkompatibles Schema:
<incompatibleDataSchema>
UNABLE_TO_INFER_SCHEMA
Es war nicht möglich, das Schema für <format>zu ermitteln. Sie muss manuell angegeben werden.
NICHT AUTHENTIFIZIERT
Die Anfrage verfügt nicht über gültige Authentifizierungsdaten für den Vorgang.
UNAUTHORIZED_ACCESS
Nicht autorisierter Zugriff:
<report>
UNBOUND_SQL_PARAMETER
Der ungebundene Parameter wurde gefunden: <name>. Korrigieren args Sie den Parameter, und stellen Sie eine Zuordnung des Parameters zu einer SQL-Literal- oder Sammlungskonstruktorfunktion bereit, z map(), array(), struct(). B. .
UNCLOSED_BRACKETED_COMMENT
Es wurde ein nicht eingeschlossener Kommentar in Klammern gefunden. Fügen Sie */am Ende des Kommentars an.
UNEXPECTED_INPUT_TYPE
Parameter <paramIndex> funktion <functionName> erfordert den typ <requiredType>, <inputSql> hat jedoch den Typ <inputType>.
UNEXPECTED_INPUT_TYPE_OF_NAMED_PARAMETER
Der <namedParamKey> Parameter der Funktion <functionName> erfordert den <requiredType> Typ, <inputSql> jedoch den Typ <inputType>hat.<hint>
UNEXPECTED_OPERATOR_IN_STREAMING_VIEW
Unerwarteter Operator <op> in der CREATE VIEW-Anweisung als Streamingquelle.
Eine Streamingansichtsabfrage darf nur aus Vorgängen SELECT, WHEREbestehen UNION ALL .
UNEXPECTED_POSITIONAL_ARGUMENT
Routine <routineName> kann nicht aufgerufen werden, weil sie positionelle Argumente enthält, die dem benannten Argument folgen, das <parameterName> zugewiesen ist. Ordnen Sie sie neu an, sodass die positionellen Argumente am Anfang stehen, und wiederholen Sie dann die Abfrage.
UNEXPECTED_SERIALIZER_FOR_CLASS
Die Klasse <className> verfügt über einen unerwarteten Expressionsserialisierer. Erwartet wurde „STRUCT“ oder „IF“ (gibt „STRUCT“ zurück), gefunden wurde aber <expr>.
UNION_NOT_SUPPORTED_IN_RECURSIVE_CTE
Der UNION Operator wird in rekursiven allgemeinen Tabellenausdrücken (WITH Klauseln, die direkt oder indirekt auf sich selbst verweisen) noch nicht unterstützt. Verwenden Sie stattdessen UNION ALL.
EINDEUTIGKEITSBEDINGUNG_DEAKTIVIERT
Das Feature "Eindeutige Einschränkung" ist deaktiviert. Legen Sie zum Aktivieren "spark.databricks.sql.dsv2.unique.enabled" als "true" fest.
UNKNOWN_FIELD_EXCEPTION
<changeType> während dem Parsen von <unknownFieldBlob>, was durch eine automatische Wiederholung behoben werden kann: <isRetryable>
Weitere Details finden Sie unter UNKNOWN_FIELD_EXCEPTION.
UNKNOWN_POSITIONAL_ARGUMENT
Der Aufruf von Routine-<routineName> enthält ein unbekanntes Positionsargument <sqlExpr> an Position <pos>. Dies ist ungültig.
UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT
Unbekannter Grundtyp mit id <id> wurde in einem Variant-Wert gefunden.
UNKNOWN_PROTOBUF_MESSAGE_TYPE
Es wurde versucht, <descriptorName> als Nachricht zu behandeln, aber es war <containingType>.
UNPIVOT_REQUIRES_ATTRIBUTES
UNPIVOT erfordert, dass alle angegebenen <given> Ausdrücke Spalten sein müssen, wenn keine <empty> Ausdrücke angegeben werden. Dies sind keine Spalten: [<expressions>].
UNPIVOT_REQUIRES_VALUE_COLUMNS
Mindestens eine Wertspalte muss für UNPIVOTangegeben werden, während alle anderen Spalten als IDs angegeben werden.
UNPIVOT_VALUE_DATA_TYPE_MISMATCH
UNPIVOT-Wertspalten müssen mindestens einen allgemeinen Typ teilen, dies ist für einige Typen nicht der Fall: [<types>].
UNPIVOT_VALUE_SIZE_MISMATCH
Alle UNPIVOT-Wertspalten müssen dieselbe Größe aufweisen wie Wertspaltennamen (<names>).
UNRECOGNIZED_PARAMETER_NAME
Routine-<routineName> kann nicht aufgerufen werden, da der Routineaufruf einen benannten Argumentverweis für das Argument namens <argumentName>enthält, aber diese Routine enthält keine Signatur, die ein Argument mit diesem Namen enthält. Meinten Sie einen der folgenden Punkte? [<proposal>].
UNRECOGNIZED_SQL_TYPE
Unbekannter SQL-Typ - Name: <typeName>, ID: <jdbcType>.
UNRECOGNIZED_STATISTIC
Die Statistik <stats> wird nicht erkannt. Gültige Statistiken enthalten count, count_distinct, approx_count_distinct, mean, stddev, min, max, und Quantilwerte. Perzentil muss ein numerischer Wert und gefolgt von '%' innerhalb des Bereichs 0% bis 100%sein.
UNRESOLVABLE_TABLE_VALUED_FUNCTION
<name> konnte nicht in eine Tabellenwertfunktion aufgelöst werden.
Stellen Sie sicher, dass <name> als Tabellenwertfunktion definiert ist und dass alle erforderlichen Parameter korrekt bereitgestellt werden.
Wenn <name> nicht definiert ist, erstellen Sie die Tabellenwertfunktion, bevor Sie sie verwenden.
Weitere Informationen zum Definieren von Tabellenwertfunktionen finden Sie in der Apache Spark-Dokumentation.
UNRESOLVED_ALL_IN_GROUP_BY
Die Gruppierung von Spalten für GROUP BY ALL kann nicht basierend auf der Auswahlklausel abgeleitet werden. Geben Sie die Gruppierungsspalten explizit an.
UNRESOLVED_COLUMN
Ein Spalten-, Variablen- oder Funktionsparameter mit dem Namen <objectName> kann nicht aufgelöst werden.
Weitere Informationen finden Sie unter UNRESOLVED_COLUMN
UNRESOLVED_COLUMN_AMONG_FIELD_NAMES
Der Spaltenname "<colName>" zwischen (<fieldNames>) kann nicht aufgelöst werden.
UNRESOLVED_FIELD
Ein Feld mit dem Namen <fieldName> kann nicht mit der Strukturspalte <columnPath>aufgelöst werden.
Weitere Informationen finden Sie unter UNRESOLVED_FIELD
UNRESOLVED_INSERT_REPLACE_USING_COLUMN
Die REPLACE USING-Spalte <colName> kann nicht in <relationType>aufgelöst werden.
Haben Sie eine der folgenden Spalten gemeint? [<suggestion>].
UNRESOLVED_MAP_KEY
Spalte <objectName> kann nicht als Kartenschlüssel aufgelöst werden. Wenn der Schlüssel ein Zeichenfolgenliteral ist, schließen Sie ihn in einzelne Anführungszeichen (“)ein.
Weitere Details finden Sie unter UNRESOLVED_MAP_KEY.
UNRESOLVED_ROUTINE
Routine <routineName> im Suchpfad <searchPath>kann nicht aufgelöst werden.
Überprüfen Sie die Schreibweise von <routineName>, überprüfen Sie, ob die Routine vorhanden ist, und bestätigen Sie, dass Sie über USE Berechtigungen für den Katalog und das Schema verfügen, und EXECUTE für die Routine.
Weitere Informationen finden Sie unter UNRESOLVED_ROUTINE
UNRESOLVED_TABLE_PATH
Der Speicherpfad für tabellen <identifier> kann nicht aufgelöst werden.
UNRESOLVED_USING_COLUMN_FOR_JOIN
USING-Spalte <colName> kann nicht auf der <side>-Seite des Join aufgelöst werden. Die <side>-seitigen Spalten: [<suggestion>].
UNRESOLVED_VARIABLE
Die Variable <variableName> für suchpfad <searchPath>kann nicht aufgelöst werden.
UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_FILE_FORMAT
Unstrukturiertes Dateiformat <format> wird nicht unterstützt. Unterstützte Dateiformate sind <supportedFormats>.
Aktualisieren Sie format in Ihrem <expr>-Ausdruck auf eines der unterstützten Formate, und wiederholen Sie dann die Abfrage erneut.
UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_MODEL_OPTION
Unstrukturierte Modelloption ('<option>' -> '<value>') wird nicht unterstützt. Unterstützte Werte sind: <supportedValues>.
Wechseln Sie zu einem der unterstützten Werte, und wiederholen Sie dann die Abfrage erneut.
UNSTRUCTURED_OCR_COLUMN_NOT_ALLOWED_WITH_METADATA_MODEL_OPTION
Der Funktionsparameter „ocrText“ muss NULL sein oder weggelassen werden, wenn die Option „metadataModel“ angegeben wird. Eine angegebene 'metadataModel'-Option löst die Metadatenextraktion aus, wobei ein bereitgestellter "ocrText" verboten ist.
UNSUPPORTED_ADD_FILE
Unterstützen Sie das Hinzufügen von Dateien nicht.
Weitere Details finden Sie unter UNSUPPORTED_ADD_FILE.
UNSUPPORTED_ALTER_COLUMN_PARAMETER
Das Angeben von <parameter> mit ALTER <commandTableType> wird nicht unterstützt.
UNSUPPORTED_ARROWTYPE
Nicht unterstützter Pfeiltyp <typeName>.
UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION
Die Funktion <funcName> unterstützt keine Batchabfragen.
UNSUPPORTED_CALL
Die Methode "<methodName>" der Klasse "<className>" kann nicht aufgerufen werden.
Weitere Details finden Sie unter UNSUPPORTED_CALL.
UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING
Der Char-/VARCHAR-Typ kann nicht im Tabellenschema verwendet werden.
Wenn Spark diese als Zeichenfolgentyp wie Spark 3.0 und früher behandeln soll, legen Sie "spark.sql.legacy.charVarcharAsString" auf "true" fest.
UNSUPPORTED_CHAR_OR_VARCHAR_COLLATION
Der Zeichen-/Varchar-Typ <type> darf keine Sortierung angegeben haben.
UNSUPPORTED_CLAUSE_FOR_OPERATION
<clause> wird für <operation> nicht unterstützt.
UNSUPPORTED_COLLATION
Die <collationName>-Sortierung wird nicht unterstützt für:
Weitere Details finden Sie unter UNSUPPORTED_COLLATION.
UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE
Der gemeinsame Vorgänger des Quellpfads und der sourceArchiveDir sollte bei UC registriert werden.
Wenn diese Fehlermeldung angezeigt wird, ist es wahrscheinlich, dass Sie den Quellpfad und den sourceArchiveDir an verschiedenen externen Speicherorten registrieren.
Platzieren Sie sie in einem einzigen externen Speicherort.
UNSUPPORTED_CONNECT_FEATURE
Das Feature wird in Spark Connect nicht unterstützt:
Weitere Einzelheiten finden Sie unter UNSUPPORTED_CONNECT_FEATURE
UNSUPPORTED_CONSTRAINT_CHARACTERISTIC
Das Einschränkungsmerkmal '<characteristic>' wird für den Einschränkungstyp '<constraintType>' nicht unterstützt.
UNSUPPORTED_CONSTRAINT_CLAUSES
Einschränkungsklauseln <clauses> werden nicht unterstützt.
UNSUPPORTED_CONSTRAINT_TYPE
Nicht unterstützter Einschränkungstyp. Nur <supportedConstraintTypes> werden unterstützt
UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY
Nicht unterstützter Datenquellentyp für direkte Abfrage für Dateien: <dataSourceType>
UNSUPPORTED_DATATYPE
Nicht unterstützter Datentyp <typeName>.
UNSUPPORTED_DATA_SOURCE_SAVE_MODE
Die Datenquelle "<source>" kann nicht im <createMode> Modus geschrieben werden. Verwenden Sie stattdessen den Modus "Anfügen" oder "Überschreiben".
UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE
Die <format> Datenquelle unterstützt die Spalte <columnName> des Typs <columnType>nicht.
UNSUPPORTED_DATA_TYPE_FOR_ENCODER
Encoder für <dataType>kann nicht erstellt werden. Verwenden Sie einen anderen Ausgabedatentyp für Ihre UDF oder DataFrame.
UNSUPPORTED_DEFAULT_VALUE
DEFAULT-Spaltenwerte werden nicht unterstützt.
Weitere Details finden Sie unter UNSUPPORTED_DEFAULT_VALUE.
UNSUPPORTED_DESERIALIZER
Der Deserialisierer wird nicht unterstützt:
Weitere Details finden Sie unter UNSUPPORTED_DESERIALIZER.
UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
Die generierte Spalte <fieldName> mit Generierungsausdruck <expressionStr> kann nicht erstellt werden, da <reason>.
UNSUPPORTED_EXPR_FOR_OPERATOR
Ein Abfrageoperator enthält einen oder mehrere nicht unterstützte Ausdrücke.
Erwägen Sie, sie neu zu schreiben, um Fensterfunktionen, Aggregatfunktionen und Generatorfunktionen in der WHERE-Klausel zu vermeiden.
Ungültige Ausdrücke: [<invalidExprSqls>]
UNSUPPORTED_EXPR_FOR_PARAMETER
Ein Abfrageparameter enthält einen nicht unterstützten Ausdruck.
Parameter können Variablen oder Literale sein.
Ungültiger Ausdruck: [<invalidExprSql>]
UNSUPPORTED_EXPR_FOR_WINDOW
Ausdruck <sqlExpr> wird in einer Fensterfunktion nicht unterstützt.
UNSUPPORTED_FEATURE
Das Feature wird nicht unterstützt:
Weitere Details finden Sie unter UNSUPPORTED_FEATURE.
UNSUPPORTED_FN_TYPE
Nicht unterstützter benutzerdefinierter Funktionstyp: <language>
UNSUPPORTED_GENERATOR
Der Generator wird nicht unterstützt:
Weitere Details finden Sie unter UNSUPPORTED_GENERATOR.
UNSUPPORTED_GROUPING_EXPRESSION
grouping()/grouping_id() kann nur mit GroupingSets/Cube/Rollup verwendet werden.
UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE
<trigger> mit der initialen Position <initialPosition> wird mit der Kinesis-Quelle nicht unterstützt
UNSUPPORTED_INSERT
Das Einfügen in das Ziel ist nicht möglich.
Weitere Details finden Sie unter UNSUPPORTED_INSERT.
UNSUPPORTED_JOIN_TYPE
Nicht unterstützter Verknüpfungstyp '<typ>'. Unterstützte Verknüpfungstypen sind: <supported>.
UNSUPPORTED_MANAGED_TABLE_CREATION
Das Erstellen einer verwalteten Tabelle <tableName> mithilfe von Datenquellen <dataSource> wird nicht unterstützt. Sie müssen Datenquelle DELTA verwenden oder eine externe Tabelle mit...CREATE EXTERNAL TABLE <tableName>USING <dataSource> ...
UNSUPPORTED_MERGE_CONDITION
Der MERGE-Vorgang enthält eine nicht unterstützte <condName>-Bedingung.
Weitere Informationen finden Sie unter UNSUPPORTED_MERGE_CONDITION.
UNSUPPORTED_METADATA_KEY
Nicht unterstützter Metadatenschlüssel: <key>. Unterstützte Schlüssel: <supportedKeys>.
UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY
Tabelle <tableName> weist eine Sicherheitsrichtlinie oder Spaltenmaske auf Zeilenebene auf, die indirekt auf eine andere Tabelle mit einer Sicherheitsrichtlinie oder Spaltenmaske auf Zeilenebene verweist; dies wird nicht unterstützt. Anrufsequenz: <callSequence>
UNSUPPORTED_OPERATION_FOR_CONTINUOUS_MEMORY_SINK
Der Vorgang <operation> wird für eine kontinuierliche Speichersenke nicht unterstützt. Wenn Sie einen Test für den Modus für Streaming in Echtzeit schreiben, erwägen Sie den Einsatz von CheckAnswerWithTimeout anstatt anderer Prüfungen.
UNSUPPORTED_OVERWRITE
Das Ziel, aus dem ebenfalls gelesen wird, kann nicht überschrieben werden.
Weitere Details finden Sie unter UNSUPPORTED_OVERWRITE.
UNSUPPORTED_PARTITION_TRANSFORM
Nicht unterstützte Partitionstransformation: <transform>. Die unterstützten Transformationen sind identity, bucketund clusterBy. Stellen Sie sicher, dass ihr Transformationsausdruck eine dieser Ausdrücke verwendet.
UNSUPPORTED_PIPELINE_SPARK_SQL_COMMAND
'<command>' wird in spark.sql("...")-API in Spark Declarative Pipeline nicht unterstützt.
UNSUPPORTED_PROCEDURE_COLLATION
Die Prozedur <procedureName> muss DEFAULT COLLATION UTF8_BINARY angeben oder erben. Verwenden Sie CREATE PROCEDURE <procedureName> (...) DEFAULT COLLATION UTF_BINARY ....
UNSUPPORTED_SAVE_MODE
Der Speichermodus <saveMode> wird für Folgendes nicht unterstützt:
Weitere Details finden Sie unter UNSUPPORTED_SAVE_MODE.
UNSUPPORTED_SHOW_CREATE_TABLE
Unterstützung für einen SHOW CREATE TABLE-Befehl aufgehoben.
Weitere Details finden Sie unter UNSUPPORTED_SHOW_CREATE_TABLE.
UNSUPPORTED_SINGLE_PASS_ANALYZER_FEATURE
Die Single-Pass-Analyse kann diese Abfrage oder diesen Befehl nicht verarbeiten, da sie <feature>noch nicht unterstützt.
UNSUPPORTED_SQL_UDF_USAGE
Die Verwendung der SQL-Funktion <functionName> in <nodeName> wird nicht unterstützt.
UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK
<outputMode>-Ausgabemodus wird für <statefulOperator> beim Streamen von DataFrames/DataSets ohne Wasserzeichen nicht unterstützt.
UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
Streaming einer Ansicht wird nicht unterstützt. Reason:
Weitere Details finden Sie unter UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW.
UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED
Die Streamingoptionen <options> werden für eine Datenquelle <source> in einem freigegebenen Cluster nicht unterstützt. Vergewissern Sie sich, dass die Optionen richtig<prefixHint> angegeben und richtig geschrieben sind, und überprüfen Sie auf https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode Einschränkungen.
UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED
Die Datenquelle <sink> wird nicht als Streamingsenke in einem freigegebenen Cluster unterstützt.
UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED
Datenquelle <source> wird nicht als Streamingquelle auf einem freigegebenen Cluster unterstützt.
UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION
Die Funktion <funcName> unterstützt kein Streaming. Entfernen Sie das Schlüsselwort STREAM
UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE
<streamReadLimit> wird mit der Kinesis-Quelle nicht unterstützt.
UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
Nicht unterstützter Unterabfrageausdruck:
Weitere Details finden Sie unter UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY.
UNSUPPORTED_TABLE_CHANGE_IN_AUTO_SCHEMA_EVOLUTION
Die Tabellenänderungen <changes> werden vom Katalog der Tabelle <tableName>nicht unterstützt.
UNSUPPORTED_TABLE_CHANGE_IN_JDBC_CATALOG
Die Tabellenänderung <change> wird für den JDBC-Katalog in Tabelle <tableName> nicht unterstützt. Unterstützte Änderungen sind: AddColumn, RenameColumn, DeleteColumn, UpdateColumnType, UpdateColumnNullability.
UNSUPPORTED_TIMESERIES_COLUMNS
Das Erstellen eines Primärschlüssels mit Zeitserienspalten wird nicht unterstützt.
UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN
Das Erstellen eines Primärschlüssels mit mehr als einer Zeitserienspalte <colSeq> wird nicht unterstützt.
UNSUPPORTED_TIME_PRECISION
Die Sekundengenauigkeit <precision> des TIME-Datentyps liegt außerhalb des unterstützten Bereichs [0, 6].
UNSUPPORTED_TIME_TYPE
Der Datentyp TIME wird nicht unterstützt.
UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE
<trigger> wird mit der Kinesis-Quelle nicht unterstützt.
UNSUPPORTED_TYPED_LITERAL
Literale des Typs <unsupportedType> werden nicht unterstützt. Folgende Typen werden unterstützt: <supportedTypes>.
UNSUPPORTED_UDF_FEATURE
Die Funktion <function> verwendet die folgenden Features, die eine neuere Version der Databricks-Laufzeit erfordern: <features>. Weitere Informationen finden Sie in <docLink>.
UNSUPPORTED_UDF_TYPES_IN_SAME_PLACE
UDF-Typen können nicht zusammen verwendet werden: <types>
UNTYPED_SCALA_UDF
Sie verwenden nicht typisierte Scala UDF, die keine Eingabetypinformationen enthält.
Spark übergibt möglicherweise blind NULL an die Skala-Schließung mit dem Argument "Grundtyp", und beim Schließen wird der Standardwert des Java-Typs für das Null-Argument angezeigt, udf((x: Int) => x, IntegerType)z. B. ist das Ergebnis 0 für null-Eingabe. Um diesen Fehler zu entfernen, können Sie folgende Aktionen ausführen:
verwenden Sie typisierte Scala-UDF-APIs (ohne Rückgabetypparameter), zum Beispiel
udf((x: Int) => x).Verwenden Sie Java-UDF-APIs, z. B.
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType), wenn Eingabetypen alle nicht primitiv sind.legen Sie "spark.sql.legacy.allowUntypedScalaUDF" auf "true" fest, und verwenden Sie diese API vorsichtig.
UPGRADE_NOT_SUPPORTED
Die Tabelle ist nicht berechtigt, ein Upgrade von Hive Metastore auf den Unity-Katalog durchzuführen. Reason:
Weitere Details finden Sie unter UPGRADE_NOT_SUPPORTED.
USER_DEFINED_FUNCTIONS
Benutzerdefinierte Funktion ist ungültig:
Weitere Details finden Sie unter USER_DEFINED_FUNCTIONS.
USER_RAISED_EXCEPTION
<errorMessage>
USER_RAISED_EXCEPTION_PARAMETER_MISMATCH
Die raise_error()-Funktion wurde zum Auslösen der Fehlerklasse verwendet: <errorClass>, die Parameter erwartet: <expectedParms>.
Die bereitgestellten Parameter <providedParms> entsprechen nicht den erwarteten Parametern.
Stellen Sie sicher, dass Sie alle erwarteten Parameter angeben.
USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS
Die raise_error()-Funktion wurde verwendet, um eine unbekannte Fehlerklasse auszuheben: <errorClass>
USER_SPECIFIED_AND_ACTUAL_SCHEMA_MISMATCH
Das vom Benutzer angegebene Schema stimmt nicht mit dem tatsächlichen Schema überein:
vom Benutzer angegeben: , ist: <schema><actualSchema>. Wenn Sie dies verwenden
Die DataFrameReader.schema-API oder das Erstellen einer Tabelle geben Sie das Schema nicht an.
Oder wenn Sie eine vorhandene Tabelle scannen, legen Sie sie ab, und erstellen Sie sie erneut.
BENUTZER_SPEZIFIZIERTES_UND_FESTGESTELLTES_SCHEMA_NICHT_KOMPATIBEL
Tabelle '<tableName>' weist ein vom Benutzer angegebenes Schema auf, das nicht mit dem Schema kompatibel ist.
abgeleitet von der Abfrage.
<streamingTableHint>
Deklariertes Schema:
<specifiedSchema>
Abgeleitetes Schema:
<inferredDataSchema>
USE_CATALOG_SCHEMA_IN_DEFINER_STORED_PROCEDURE_NOT_SUPPORTED
Das Festlegen des Katalogs oder Schemas innerhalb der gespeicherten SQL-Prozedur SECURITY DEFINER wird nicht unterstützt.
VARIABLE_ALREADY_EXISTS
Die Variable <variableName> kann nicht erstellt werden, da sie bereits vorhanden ist.
Wählen Sie einen anderen Namen aus, oder legen Sie die vorhandene Variable ab, oder ersetzen Sie sie.
VARIABLE_NOT_FOUND
Die Variable <variableName> wurde nicht gefunden. Überprüfen Sie die Rechtschreibung und Korrektheit des Schemas und Katalogs.
Wenn Sie den Namen nicht mit einem Schema und Katalog qualifiziert haben, überprüfen Sie die ausgabe current_schema() oder qualifizieren Sie den Namen mit dem richtigen Schema und Katalog.
Um den Fehler beim Trennen zu tolerieren, verwenden Sie DROP VARIABLE IF EXISTS.
VARIANT_CONSTRUCTOR_SIZE_LIMIT
Es kann kein Variant-Wert erstellt werden, der größer als 16 MiB ist. Die maximal zulässige Größe eines Variant-Werts beträgt 16 MiB.
VARIANT_DUPLICATE_KEY
Fehler beim Erstellen der Variante aufgrund eines doppelten Objektschlüssels <key>.
VARIANT_SIZE_LIMIT
Es kann keine Variante erstellt werden, die größer als <sizeLimit> in <functionName>ist.
Vermeiden Sie große Eingabezeichenfolgen für diesen Ausdruck (z. B. fügen Sie Funktionsaufrufe hinzu, um die Größe des Ausdrucks zu überprüfen und sie zuerst in NULL zu konvertieren, wenn sie zu groß ist).
VERSIONED_CLONE_UNSUPPORTED_TABLE_FEATURE
Der Quelltabellenverlauf enthält (ein) Tabellenfeature(s), das/die in dieser DBR-Version von der versionsgesteuerten Kopie nicht unterstützt wird/werden: <unsupportedFeatureNames>.
Aktualisieren Sie bitte auf eine neuere DBR-Version.
VIEW_ALREADY_EXISTS
Die Ansicht <relationName> kann nicht erstellt werden, da sie bereits existiert.
Wählen Sie einen anderen Namen aus, legen Sie das vorhandene Objekt ab, oder ersetzen Sie das vorhandene Objekt, oder fügen Sie die IF NOT EXISTS Klausel hinzu, um bereits vorhandene Objekte zu tolerieren.
VIEW_EXCEED_MAX_NESTED_DEPTH
Die Tiefe der Ansicht <viewName> überschreitet die maximale Auflösungstiefe (<maxNestedDepth>).
Die Analyse wird abgebrochen, um Fehler zu vermeiden. Wenn Sie dies umgehen möchten, versuchen Sie, den Wert von "spark.sql.view.maxNestedViewDepth" zu erhöhen.
VIEW_NOT_FOUND
Die Ansicht <relationName> kann nicht gefunden werden. Überprüfen Sie die Rechtschreibung und Korrektheit des Schemas und Katalogs.
Wenn Sie den Namen nicht mit einem Schema qualifiziert haben, überprüfen Sie die ausgabe current_schema() oder qualifizieren Sie den Namen mit dem richtigen Schema und Katalog.
Um den Fehler beim Trennen zu tolerieren, verwenden Sie DROP VIEW IF EXISTS.
VOLUME_ALREADY_EXISTS
Volume-<relationName> kann nicht erstellt werden, da es bereits vorhanden ist.
Wählen Sie einen anderen Namen aus, legen Sie das vorhandene Objekt ab, oder ersetzen Sie das vorhandene Objekt, oder fügen Sie die IF NOT EXISTS Klausel hinzu, um bereits vorhandene Objekte zu tolerieren.
WATERMARK_ADVANCEMENT_STRATEGY
Die Strategie zur Entwicklung von Streamingwasserzeichen hat die folgende Einschränkung:
Weitere Informationen finden Sie unter WATERMARK_ADVANCEMENT_STRATEGY
WINDOW_FUNCTION_AND_FRAME_MISMATCH
Die Funktion <funcName> kann nur in einem sortierten zeilenbasierten Fensterrahmen mit einem einzigen Offset ausgewertet werden: <windowExpr>.
WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE
Für die Fensterfunktion <funcName> ist eine OVER-Klausel erforderlich.
WITH_CREDENTIAL
WITH CREDENTIAL Syntax wird für <type>nicht unterstützt.
WRITE_STREAM_NOT_ALLOWED
writeStream kann nur für ein Streaming-Dataset/DataFrame aufgerufen werden.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED
Fehler beim Ausführen des Befehls, da DEFAULT-Werte beim Hinzufügen neuer Elemente nicht unterstützt werden.
Spalten zu bereits vorhandenen Delta-Tabellen nicht unterstützt werden. Fügen Sie die Spalte zunächst ohne Standardwert
und führen Sie dann stattdessen einen zweiten ALTER TABLE ALTER COLUMN SET DEFAULT-Befehl aus, um
an zukünftige eingefügte Zeilen anzufügen.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED
Fehler beim Ausführen des Befehls <commandType>, da ihm ein DEFAULT-Wert zugewiesen wurde,
die entsprechende Tabellenfunktion wurde jedoch nicht aktiviert. Wiederholen Sie den Befehl erneut.
nach Ausführung von ALTER TABLE tableName SET
TBLPROPERTIES('delta.feature.allowColumnDefaults' = 'unterstützt').
WRONG_COMMAND_FOR_OBJECT_TYPE
Für den Vorgang <operation> ist ein <requiredType> erforderlich. Aber <objectName> ist ein <foundType>. Verwenden Sie stattdessen <alternative>.
WRONG_NUM_ARGS
Der <functionName> erfordert <expectedNum> Parameter, aber die tatsächliche Anzahl ist <actualNum>.
Weitere Details finden Sie unter WRONG_NUM_ARGS.
XML_ROW_TAG_MISSING
<rowTag> Die Option ist für das Lesen/Schreiben von Dateien im XML-Format erforderlich.
XML_UNSUPPORTED_NESTED_TYPES
XML unterstützt <innerDataType> nicht als inneren Typ von <dataType>. Umschließen Sie den <innerDataType> innerhalb eines StructType-Felds, wenn Sie ihn in <dataType> verwenden.
XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR
Wiederhergestellte Daten und Platzhalterspalten können nicht gleichzeitig aktiviert werden. Entfernen Sie die wildcardColumnName-Option.
ZORDERBY_COLUMN_DOES_NOT_EXIST
Die Spalte <columnName> "ZOrderBy" ist nicht vorhanden.
Deltasee
DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND
Aktive SparkSession konnte nicht gefunden werden.
DELTA_ACTIVE_TRANSACTION_ALREADY_SET
Ein neuer txn kann nicht als aktiv festgelegt werden, wenn eins bereits aktiv ist.
DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED
Fehler beim Hinzufügen von Spalte <colName>, da der Name reserviert ist.
DELTA_ADDING_DELETION_VECTORS_DISALLOWED
Der aktuelle Vorgang hat versucht, einer Tabelle einen Löschvektor hinzuzufügen, der die Erstellung neuer Löschvektoren nicht zulässt. Bitte geben Sie einen Fehlerbericht an.
DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED
Alle Vorgänge, die Löschvektoren hinzufügen, sollten die "tightBounds"-Spalte in Statistiken auf "false" festlegen. Bitte geben Sie einen Fehlerbericht an.
DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO
Index <columnIndex> zum Hinzufügen von Spalten <columnName> ist niedriger als 0.
DELTA_ADD_COLUMN_PARENT_NOT_STRUCT
<columnName> kann nicht hinzugefügt werden, da das übergeordnete Element kein StructType ist. Es wurde <other> gefunden.
DELTA_ADD_COLUMN_STRUCT_NOT_FOUND
Die Struktur wurde an Position <position> nicht gefunden.
DELTA_ADD_CONSTRAINTS
Verwenden Sie ALTER TABLE ADD CONSTRAINT, um CHECK-Einschränkungen hinzuzufügen.
DELTA_AGGREGATE_IN_CHECK_CONSTRAINT
In einer CHECK Einschränkung gefunden<sqlExpr>. Aggregatausdrücke sind in CHECK Einschränkungen nicht zulässig.
DELTA_AGGREGATE_IN_GENERATED_COLUMN
Es wurde <sqlExpr> gefunden. Eine generierte Spalte kann keinen Aggregatausdruck verwenden.
DELTA_AGGREGATION_NOT_SUPPORTED
Aggregatfunktionen werden in der <operation> <predicate>nicht unterstützt.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER
Fehler beim Ändern der Sortierung der Spalte <column>, da sie einen Bloom-Filterindex enthält. Bitte behalten Sie entweder die vorhandene Sortierung bei, oder legen Sie den Bloom-Filterindex ab, und wiederholen Sie dann den Befehl erneut, um die Sortierung zu ändern.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY
Fehler beim Ändern der Sortierung der Spalte <column>, da es sich um eine Clusteringspalte handelt. Bitte behalten Sie entweder die vorhandene Sortierung bei, oder ändern Sie die Spalte in eine Spalte ohne Clustering mit einem ALTER TABLE Befehl, und wiederholen Sie dann den Befehl erneut, um die Sortierung zu ändern.
DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED
ALTER TABLE CHANGE COLUMN wird nicht unterstützt, um die Spalte von <currentType> zu <newType> zu ändern.
DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED
ALTER TABLE CLUSTER BY wird nur für die Delta-Tabelle mit Liquid Clustering unterstützt.
DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED
ALTER TABLE CLUSTER BY kann nicht auf eine partitionierte Tabelle angewendet werden.
DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED
Vorgang nicht zulässig: ALTER TABLE RENAME TO ist für verwaltete Delta-Tabellen auf S3 nicht zulässig, da die schlussendliche Konsistenz in S3 das Delta-Transaktionsprotokoll beschädigen kann. Wenn Sie darauf bestehen und sicher sind, dass noch nie eine Delta-Tabelle mit dem neuen Namen <newName> vorhanden ist, können Sie dies aktivieren, indem Sie <key> auf "true" festlegen.
DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
Das <tableFeature>-Tabellenfeature kann nicht mit ALTER TABLE SET TBLPROPERTIES aktiviert werden. Verwenden Sie CREATE ODER REPLACE TABLE CLUSTER BY, um eine Delta-Tabelle mit Clustering zu erstellen.
DELTA_ALTER_TABLE_SET_MANAGED_COPY_OR_MOVE_REQUIRED
ALTER TABLE ... SET MANAGED erfordert COPY , dass MOVE für fremdtabelle <table>angegeben wird.
DELTA_ALTER_TABLE_SET_MANAGED_DOES_NOT_SUPPORT_UNIFORM_ICEBERG
ALTER TABLE ... SET MANAGED unterstützt keine Uniform Apache Iceberg-Tabelle. Uniform deaktivieren oder SET MANAGED TRUNCATE UNIFORM HISTORY verwenden.
DELTA_ALTER_TABLE_SET_MANAGED_FAILED
ALTER TABLE <table> SET MANAGED fehlgeschlagen.
Weitere Einzelheiten finden Sie unter DELTA_ALTER_TABLE_SET_MANAGED_FAILED
DELTA_ALTER_TABLE_SET_MANAGED_NOT_ENABLED
ALTER TABLE
...
SET MANAGED der Befehl ist nicht aktiviert. Wenden Sie sich an Ihr Databricks-Supportteam, um Unterstützung zu erhalten.
DELTA_ALTER_TABLE_SET_MANAGED_TABLE_NOT_MIGRATABLE
ALTER TABLE <table> SET MANAGED die angegebene Tabelle kann nicht migriert werden.
Stellen Sie sicher, dass sich die Tabelle in einem gültigen Zustand befindet, und wiederholen Sie den Befehl. Wenn das Problem weiterhin besteht, wenden Sie sich an den Databricks-Support.
Weitere Informationen finden Sie unter DELTA_ALTER_TABLE_SET_MANAGED_TABLE_NOT_MIGRATABLE
DELTA_ALTER_TABLE_SET_MANAGED_UNSUPPORTED_COPY_MOVE_SYNTAX
ALTER TABLE ... SET MANAGED [COPY | MOVE] Die Syntax wird für Die Tabelle <table>nicht unterstützt. Verwenden Sie stattdessen ALTER TABLE ... SET MANAGED.
DELTA_ALTER_TABLE_SET_MANAGED_UNSUPPORTED_FOREIGN_TABLE
Fremdtabelle <table> wird für die Migration zur UC-verwalteten Tabelle nicht unterstützt: <errorMessage>.
DELTA_ALTER_TABLE_UNSET_MANAGED_DOES_NOT_SUPPORT_COMPATIBILITY_MODE
ALTER TABLE ... UNSET MANAGED unterstützt keine Tabelle mit aktivierter Kompatibilitätsmodus.
Deaktivieren Sie den Kompatibilitätsmodus in der Tabelle, bevor Sie diesen Befehl ausführen.
DELTA_ALTER_TABLE_UNSET_MANAGED_DOES_NOT_SUPPORT_UNIFORM
ALTER TABLE ... UNSET MANAGED unterstützt Uniform nicht. Uniform deaktivieren oder UNSET MANAGED TRUNCATE UNIFORM HISTORY verwenden.
DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED
Für <table> kann kein Rollback von einer verwalteten auf eine externe Tabelle durchgeführt werden.
Weitere Einzelheiten finden Sie unter DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED
DELTA_ALTER_TABLE_UNSET_MANAGED_NOT_ENABLED
ALTER TABLE
...
UNSET MANAGED der Befehl ist nicht aktiviert. Wenden Sie sich an Ihr Databricks-Supportteam, um Unterstützung zu erhalten.
DELTA_AMBIGUOUS_DATA_TYPE_CHANGE
Der Datentyp der <column> kann von <from> in <to>nicht geändert werden. Diese Änderung enthält Spaltenentfernungen und Ergänzungen, daher sind sie mehrdeutig. Bitte nehmen Sie diese Änderungen einzeln mit ALTER TABLE [ADD | DROP | RENAME] COLUMNvor.
DELTA_AMBIGUOUS_PARTITION_COLUMN
Die mehrdeutige Partitionsspalte <column> kann <colMatches> sein.
DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE
CREATE TABLE enthält zwei verschiedene Speicherorte: <identifier> und <location>.
Sie können die LOCATION-Klausel aus der CREATE TABLE-Anweisung entfernen oder Folgendes festlegen
<config> auf TRUE festlegen, um diese Überprüfung zu überspringen.
DELTA_ARCHIVED_FILES_IN_LIMIT
Tabelle <table> enthält nicht genügend Datensätze in nicht archivierten Dateien, um das angegebene LIMIT von <limit> Datensätzen zu erfüllen.
DELTA_ARCHIVED_FILES_IN_SCAN
Es wurden <numArchivedFiles> potenziell archivierte Dateien in der Tabelle <table> gefunden, die im Rahmen dieser Abfrage gescannt werden müssen.
Auf archivierte Dateien kann nicht zugegriffen werden. Die aktuelle Zeit, bis die Archivierung als <archivalTime>konfiguriert ist.
Passen Sie Die Abfragefilter an, um archivierte Dateien auszuschließen.
DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION
Der Vorgang "<opName>" ist nicht zulässig, wenn die Tabelle den Change Data Feed (CDF) aktiviert hat und Schemaänderungen unter Verwendung von DROP COLUMN oder RENAME COLUMN vorgenommen wurden.
DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS
Bloomfilterindizes für die folgende(n) nicht vorhandene(n) Spalte(n) können nicht abgelegt werden: <unknownColumns>
DELTA_BLOOM_FILTER_OOM_ON_WRITE
OutOfMemoryError ist beim Schreiben von Bloom-Filterindizes für die folgenden Spalten aufgetreten: <columnsWithBloomFilterIndices>.
Sie können den Speicherbedarf von Bloom-Filterindizes reduzieren, indem Sie einen kleineren Wert für die Option "numItems", einen größeren Wert für die Option "fpp" auswählen oder weniger Spalten indizieren.
DELTA_CANNOT_CHANGE_DATA_TYPE
Datentyp kann nicht geändert werden: <dataType>.
DELTA_CANNOT_CHANGE_LOCATION
Der Speicherort der Delta-Tabelle kann nicht mit SET TBLPROPERTIES geändert werden. Verwenden Sie stattdessen ALTER TABLE SET LOCATION.
DELTA_CANNOT_CHANGE_PROVIDER
"provider" ist eine reservierte Tabelleneigenschaft und kann nicht geändert werden.
DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL
Bloom-Filterindizes für die folgenden nicht vorhandenen Spalten können nicht erstellt werden: <unknownCols>.
DELTA_CANNOT_CREATE_LOG_PATH
<path> kann nicht erstellt werden.
DELTA_CANNOT_DESCRIBE_VIEW_HISTORY
Der Verlauf einer Sicht kann nicht beschrieben werden.
DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN
Der Bloomfilterindex kann in einer nicht indizierten Spalte nicht abgelegt werden: <columnName>.
DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE
Die CHECK-Einschränkungstabellenfunktion kann nicht getrennt werden.
Die folgenden Einschränkungen müssen zuerst gelöscht werden: <constraints>.
DELTA_CANNOT_DROP_COLLATIONS_FEATURE
Die Sortierungstabellenfunktion kann nicht getrennt werden.
Spalten mit nicht standardmäßigen Kollationen müssen zuerst auf die Verwendung von UTF8_BINARY geändert werden: <colNames>.
DELTA_CANNOT_DROP_DOMAIN_METADATA_FEATURE_VON_VERWALTETER_ICEBERG_TABELLE
Das DomainMetadata-Tabellen-Feature kann nicht gelöscht werden. Tabelle ist eine verwaltete Apache Iceberg-Tabelle <name> . DomainMetadata kann nicht aus verwalteten Apache Iceberg-Tabellen gelöscht werden.
DELTA_KANN_GEORÄUMLICHE_FUNKTION_NICHT_ENTFERNEN
Das Geospatialtabellen-Feature kann nicht gelöscht werden. Rekonstruieren Sie die Tabelle oder löschen Sie die Spalten mit Geometrie-/Geografietypen: <colNames> und versuchen Sie es erneut.
DELTA_CANNOT_DROP_VARIANT_FEATURE
DROP FEATURE <feature> war nicht erfolgreich. Die Variant-Tabellenfunktion kann nicht abzulegen sein. Variant-Spalten müssen zuerst gelöscht werden: <colNames>.
DELTA_CANNOT_EVALUATE_EXPRESSION
Ausdruck kann nicht ausgewertet werden: <expression>.
DELTA_CANNOT_FIND_BUCKET_SPEC
Es wird eine Delta-Bucket-Tabelle erwartet, aber die Bucketspezifikation kann in der Tabelle nicht gefunden werden.
DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION
Code für Ausdruck: <expression> kann nicht generiert werden.
DELTA_CANNOT_MODIFY_APPEND_ONLY
Diese Tabelle ist so konfiguriert, dass nur Anfüge zulässig sind. Wenn Sie Aktualisierungen oder Löschungen zulassen möchten, verwenden Sie "ALTER TABLE <table_name> SET TBLPROPERTIES (<config>=false)".
DELTA_CANNOT_MODIFY_CATALOG_OWNED_DEPENDENCIES
Die Eigenschaften der In-Commit-Zeitstempeltabelle können nicht überschrieben oder aufgehoben werden, da diese Tabelle Eigentum des Katalogs ist. Entfernen Sie „delta.enableInCommitTimestamps“, „delta.inCommitTimestampEnablementVersion“ und „delta.inCommitTimestampEnablementTimestamp“ aus der TBLPROPERTIES-Klausel, und wiederholen Sie dann den Befehl.
DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES
<Command> kann die Eigenschaften der In-Commit-Zeitstempeltabelle nicht außer Kraft setzen oder löschen, da koordinierte Commits in dieser Tabelle aktiviert und von diesen abhängig sind. Entfernen Sie sie ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") aus der TBLPROPERTIES-Klausel, und wiederholen Sie dann den Befehl erneut.
DELTA_CANNOT_MODIFY_TABLE_PROPERTY
Die Delta-Tabellenkonfiguration <prop> kann vom Benutzer nicht angegeben werden.
DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS
<Command> kann die Konfigurationen für koordinierte Commits in einer vorhandenen Zieltabelle nicht außer Kraft setzen. Entfernen Sie sie aus der TBLPROPERTIES-Klausel ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview", "delta.coordinatedCommits.tableConf-preview").
DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI
Ein URI (<uri>), der nicht in einen relativen Pfad umgewandelt werden kann, wurde im Transaktionsprotokoll gefunden.
DELTA_CANNOT_RELATIVIZE_PATH
Ein Pfad (<path>), der nicht mit der aktuellen Eingabe relativiert werden kann, wurde gefunden im
Transaktionsprotokoll. Führen Sie dies wie folgt erneut aus:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<userPath>", true)
Führen Sie dann auch Folgendes aus:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<path>")
DELTA_CANNOT_RENAME_PATH
Kann <currentPath> nicht in <newPath> umbenannt werden.
DELTA_CANNOT_REPLACE_MISSING_TABLE
Tabelle <tableName> kann nicht ersetzt werden, da sie nicht vorhanden ist. Verwenden Sie CREATE ODER-REPLACE TABLE, um die Tabelle zu erstellen.
DELTA_CANNOT_RESOLVE_CLUSTERING_COLUMN
Die Clusterspalte <columnName> in <schema> kann aufgrund eines unerwarteten Fehlers nicht aufgelöst werden. Ausführen ALTER TABLE...CLUSTER BY ... zum Reparieren von Delta-Clusteringmetadaten.
DELTA_CANNOT_RESOLVE_COLUMN
Spalte <columnName> kann nicht aufgelöst werden in <schema>
DELTA_CANNOT_RESTORE_TABLE_VERSION
Die Tabelle kann nicht in version <version>wiederhergestellt werden. Verfügbare Versionen: [<startVersion>, <endVersion>].
DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER
Die Tabelle kann nicht auf den Zeitstempel (<requestedTimestamp>) wiederhergestellt werden, da er vor der frühesten verfügbaren Version liegt. Bitte verwenden Sie einen Zeitstempel nach (<earliestTimestamp>)
DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER
Die Tabelle kann nicht auf den Zeitstempel (<requestedTimestamp>) wiederhergestellt werden, da dieser nach der neuesten verfügbaren Version liegt. Bitte verwenden Sie einen Zeitstempel vor (<latestTimestamp>).
DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES
<Command> kann keine Eigenschaften der In-Commit-Zeitstempeltabelle zusammen mit koordinierten Commits festlegen, da letztere von ersteren abhängen und erstere intern festlegen. Entfernen Sie sie ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") aus der TBLPROPERTIES-Klausel, und wiederholen Sie dann den Befehl erneut.
DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER
Die Position einer pfadbasierten Tabelle kann nicht geändert werden.
DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY
"delta.managedDataSkippingStatsColumns" kann nicht in einer Nicht-Lakeflow "Spark Declarative Pipelines"-Tabelle festgelegt werden.
DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_COMMAND
Wenn 'unity-catalog' als Commit-Koordinator aktiviert wird, kann die Konfiguration "<configuration>" nicht über den Befehl festgelegt werden. Entfernen Sie ihn aus der TBLPROPERTIES-Klausel, und wiederholen Sie dann den Befehl erneut.
DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_SESSION
Wenn "unity-catalog" als Commit-Koordinator aktiviert wird, kann die Konfiguration "<configuration>" nicht aus den SparkSession-Konfigurationen festgelegt werden. Löschen Sie sie, indem Sie spark.conf.unset("<configuration>") ausführen, und wiederholen Sie dann den Befehl.
DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS
ALTER kann Koordinationseinstellungen für Commits nicht aufheben. Wenn Sie eine Tabelle von koordinierten Commits herabstufen möchten, versuchen Sie es bitte erneut.ALTER TABLE [table-name] DROP FEATURE 'coordinatedCommits-preview'
DELTA_CANNOT_UPDATE_ARRAY_FIELD
Feldtyp <fieldName> kann nicht aktualisiert werden<tableName>: Aktualisieren des Elements durch Aktualisieren<fieldName>.element.
DELTA_CANNOT_UPDATE_MAP_FIELD
Feldtyp <fieldName> kann nicht aktualisiert werden<tableName>: Aktualisieren einer Karte durch Aktualisieren <fieldName>.key oder <fieldName>.value.
DELTA_CANNOT_UPDATE_OTHER_FIELD
Das <tableName>-Feld des Typs <typeName> kann nicht aktualisiert werden.
DELTA_CANNOT_UPDATE_STRUCT_FIELD
Feld <tableName> vom Typ <fieldName> kann nicht aktualisiert werden: Aktualisieren Sie die Struktur, indem Sie Felder hinzufügen, löschen oder aktualisieren.
DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION
Nicht alle Spalten können als Partitionsspalten verwendet werden.
DELTA_CANNOT_VACUUM_LITE
VACUUM LITE kann nicht alle berechtigten Dateien löschen, da einige Dateien nicht im Delta-Protokoll referenziert sind. Führen Sie VACUUM FULL aus.
DELTA_CANNOT_WRITE_INTO_VIEW
<table> ist eine Ansicht. Schreibvorgänge in eine Ansicht werden nicht unterstützt.
DELTA_CAST_OVERFLOW_IN_TABLE_WRITE
Fehler beim Schreiben eines Werts vom Typ <sourceType> in die Spalte <targetType> vom Typ <columnName> aufgrund eines Überlaufs.
Verwenden Sie try_cast für den Eingabewert, um Überlauf zu tolerieren und stattdessen NULL zurückzugeben.
Setzen Sie bei Bedarf <storeAssignmentPolicyFlag> auf "LEGACY", um diesen Fehler zu umgehen, oder setzen Sie <updateAndMergeCastingFollowsAnsiEnabledFlag> auf "true", um zum alten Verhalten zurückzukehren und in <ansiEnabledFlag>, UPDATE und MERGE zu folgen.
DELTA_CATALOG_MANAGED_TABLE_UPGRADE_OR_DOWNGRADE_NOT_SUPPORTED
Das Aktualisieren oder Herabstufen einer katalogverwalteten Tabelle wird nicht unterstützt. Erstellen Sie stattdessen eine neue Tabelle mit den gewünschten Tabellenfeatures.
DELTA_CATALOG_MANAGED_TABLE_UPGRADE_WITH_OTHER_PROPERTIES
Die Aktualisierungstabelle <tableName> kann nicht mit anderen Eigenschaftsänderungen auf katalogverwaltete Tabellen kombiniert werden.
Bereitgestellte Eigenschaften: <properties>.
DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION
Configuration delta.enableChangeDataFeed kann nicht festgelegt werden. Der Änderungsdatenfeed von Delta ist noch nicht verfügbar.
DELTA_CDC_READ_NULL_RANGE_BOUNDARY
Die Start-/End-Parameter des CDC-Lesevorgangs dürfen nicht null sein. Bitte geben Sie eine gültige Version oder einen Zeitstempel an.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA
Fehler beim Abrufen von Tabellenänderungen zwischen Version <start> und <end> aufgrund eines inkompatiblen Datenschemas.
Ihr Leseschema ist bei Version <readSchema><readVersion>, aber wir haben ein inkompatibles Datenschema bei Version <incompatibleVersion>gefunden.
Wenn möglich, rufen Sie die Tabellenänderungen mithilfe des Schemas der Endversion ab, indem Sie <config> auf endVersion setzen, oder wenden Sie sich an den Support.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE
Fehler beim Abrufen von Tabellenänderungen zwischen Version <start> und <end> aufgrund einer inkompatiblen Schemaänderung.
Ihr Leseschema ist bei Version <readSchema><readVersion>, aber wir haben eine inkompatible Schemaänderung bei version <incompatibleVersion>gefunden.
Wenn möglich, fragen Sie die Tabellenänderungen separat von Version <start> bis <incompatibleVersion> - 1 und von Version <incompatibleVersion> bis <end>ab.
DELTA_CHANGE_DATA_FILE_NOT_FOUND
Datei <filePath>, auf die im Transaktionsprotokoll verwiesen wird, wurde nicht gefunden. Dies kann auftreten, wenn Daten manuell aus dem Dateisystem gelöscht wurden, anstatt die Tabelle DELETE Anweisung zu verwenden. Diese Anforderung scheint auf den Änderungsdaten-Feed ausgerichtet zu sein. Falls dies der Fall ist, kann dieser Fehler auftreten, wenn sich die Änderungsdatendatei außerhalb des Aufbewahrungszeitraums befindet und durch die VACUUM statement gelöscht wurde. Weitere Informationen finden Sie unter <faqPath>
DELTA_CHANGE_TABLE_FEED_DISABLED
Es kann nicht in die Tabelle geschrieben werden, wenn delta.enableChangeDataFeed gesetzt ist. Der Änderungsdatenfeed von Delta ist nicht verfügbar.
DELTA_CHECKPOINT_NON_EXIST_TABLE
Eine nicht vorhandene Tabelle <path> kann keine Überprüfung haben. Haben Sie Dateien im verzeichnis _delta_log manuell gelöscht?
DELTA_CLONE_AMBIGUOUS_TARGET
Es wurden zwei Pfade als CLONE-Ziel bereitgestellt, sodass nicht eindeutig ist, welcher verwendet werden soll. Ein externes
Speicherort für CLONE wurde bei <externalLocation> gleichzeitig mit dem Pfad bereitgestellt
<targetIdentifier>.
DELTA_CLONE_INCOMPATIBLE_SOURCE
Die Klonquelle verfügt über ein gültiges Format, hat aber ein nicht unterstütztes Feature mit Delta.
Weitere Informationen finden Sie unter DELTA_CLONE_INCOMPATIBLE_SOURCE.
DELTA_CLONE_INCOMPLETE_FILE_COPY
Datei (<fileName>) nicht vollständig kopiert. Erwartete Dateigröße: <expectedSize>, gefunden: <actualSize>. Wenn Sie den Vorgang fortsetzen möchten, indem Sie die Dateigrößenüberprüfung ignorieren, legen Sie <config> auf "false" fest.
DELTA_CLONE_UNSUPPORTED_SOURCE
Nicht unterstützte <mode> Klonquelle '<name>', deren Format lautet <format>.
Die unterstützten Formate sind "delta", "Apache Iceberg" und "Parkett".
DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE
Nicht unterstützte Quelltabelle:
Weitere Informationen finden Sie unter DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE.
DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET
Nicht unterstützte Zieltabelle:
Weitere Informationen finden Sie unter DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET.
DELTA_CLONE_WITH_ROW_TRACKING_WITHOUT_STATS
Es ist nicht möglich, eine Tabelle seicht zu klonen, wenn keine Statistiken vorhanden sind und die Zeilenverfolgung aktiviert ist.
Wenn Sie die Zeilenverfolgung aktivieren möchten, müssen Sie zunächst Statistiken zur Quelltabelle sammeln, indem Sie Folgendes ausführen:
ANALYZE TABLE table_name COMPUTE DELTA STATISTICS
DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED
CLONE wird für die Delta-Tabelle mit Liquid Clustering für DBR Version < 14.0 nicht unterstützt.
DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED
CLUSTER BY wird nicht unterstützt, da die folgenden Spalten: <columnsWithDataTypes> das Überspringen von Daten nicht unterstützen.
DELTA_CLUSTERING_COLUMNS_MISMATCH
Die bereitgestellten Clusteringspalten stimmen nicht mit denen der vorhandenen Tabelle überein.
Bereitgestellt:
<providedClusteringColumns>Vorhanden:
<existingClusteringColumns>
DELTA_CLUSTERING_COLUMN_MISSING_STATS
Für flüssiges Clustering sind Clusterspalten erforderlich, um Statistiken zu erhalten. Die Clusterspalten "<columns>" im Statistikschema konnten nicht gefunden werden:
<schema>
DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE
Das Erstellen einer externen Tabelle ohne Flüssigclustering aus einem Tabellenverzeichnis mit Flüssigclustering ist nicht zulässig; Pfad: <path>.
DELTA_CLUSTERING_NOT_SUPPORTED
"<operation>" unterstützt keine Clustering.
DELTA_CLUSTERING_PHASE_OUT_FAILED
<phaseOutType> konnte für die Tabelle mit der <tableFeatureToAdd>-Tabellenfunktion nicht abgeschlossen werden (Grund: <reason>). Versuchen Sie es erneut mit dem Befehl OPTIMIZE.
== Fehler ==
<error>
DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE
REPLACE Eine Delta-Tabelle mit Liquid Clustering in Kombination mit einer partitionierten Tabelle ist nicht zulässig.
DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS
SHOW CREATE TABLE wird für die Delta-Tabelle mit Liquid Clustering ohne Clusteringspalten nicht unterstützt.
DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS
Der Übergang einer Delta-Tabelle mit liquidem Clustering zu einer partitionierten Tabelle ist für den Vorgang nicht zulässig: <operation>, wenn die vorhandene Tabelle nicht leere Clusterspalten enthält.
Führen Sie ALTER TABLE CLUSTER BY NONE aus, um zuerst die Clusteringspalten zu entfernen.
DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE
Der Überschreibmodus für dynamische Partitionen ist für die Delta-Tabelle mit Liquid Clustering nicht zulässig.
DELTA_CLUSTERING_WITH_PARTITION_PREDICATE
OPTIMIZE Der Befehl für die Delta-Tabelle mit Liquid Clustering unterstützt keine Partitions-Prädikate. Entfernen Sie bitte die Prädikate: <predicates>.
DELTA_CLUSTERING_WITH_ZORDER_BY
OPTIMIZE-Befehl für Delta-Tabelle mit Liquid-Clustering kann ZORDER BYnicht angeben. Bitte ZORDER BY (<zOrderBy>) entfernen.
DELTA_CLUSTER_BY_AUTO_MISMATCH
Der bereitgestellte clusterByAuto-Wert stimmt nicht mit der der vorhandenen Tabelle überein.
DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS
CLUSTER BY für Liquid-Clustering unterstützt bis zu <numColumnsLimit> Clusteringspalten, aber die Tabelle enthält <actualNumColumns> Clusteringspalten. Entfernen Sie die überzähligen Clusteringspalten.
DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED
Es ist nicht zulässig, CLUSTER BY anzugeben, wenn das Schema nicht definiert ist. Bitte definieren Sie das Schema für tabellen <tableName>.
DELTA_CLUSTER_BY_WITH_BUCKETING
Clustering und Bucketing können nicht gleichzeitig angegeben werden. Entfernen Sie CLUSTERED BY INTO BUCKETS/bucketBy, wenn Sie eine Delta-Tabelle mit Clustering erstellen möchten.
DELTA_CLUSTER_BY_WITH_PARTITIONED_BY
Clustering und Partitionierung können nicht beide angegeben werden. Entfernen Sie PARTITIONED BY / partitionBy / partitionedBy, wenn Sie eine Delta-Tabelle mit Clustering erstellen möchten.
DELTA_COLLATIONS_NOT_SUPPORTED
Sortierungen werden im Delta Lake nicht unterstützt.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN
Das Überspringen von Daten wird für die Partitionsspalte "<column>" nicht unterstützt.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE
Das Überspringen von Daten wird für spalte "<column>" vom Typ <type>nicht unterstützt.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET
Die Eigenschaft für die maximale Spalten-ID (<prop>) ist bei einer Tabelle mit aktivierter Spaltenzuordnung nicht festgelegt.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY
Die Eigenschaft für die maximale Spalten-ID (<prop>) für eine aktivierte Spaltenzuordnung ist <tableMax>, die nicht kleiner als die maximale Spalten-ID für alle Felder (<fieldMax>) sein kann.
DELTA_COLUMN_MISSING_DATA_TYPE
Der Datentyp der Spalte <colName> wurde nicht bereitgestellt.
DELTA_COLUMN_NOT_FOUND
Die Spalte <columnName> konnte mit der Angabe [<columnList>] nicht gefunden werden.
DELTA_COLUMN_NOT_FOUND_IN_MERGE
Die Spalte '<targetCol>' der Zieltabelle konnte aus den INSERT Spalten nicht gefunden werden: <colNames>.
INSERT Klausel muss den Wert für alle Spalten der Zieltabelle angeben.
DELTA_COLUMN_NOT_FOUND_IN_SCHEMA
Spalte <columnName> konnte nicht gefunden werden in:
<tableSchema>
DELTA_COLUMN_PATH_NOT_NESTED
Es wurde erwartet, dass <columnPath> ein geschachtelter Datentyp sein sollte, aber <other>wurde gefunden. Es wurde nach dem
Index von <column> in einem geschachtelten Feld.
Schema:
<schema>
DELTA_COLUMN_STRUCT_TYPE_MISMATCH
Strukturspalte <source> kann nicht in ein <targetType>-Feld <targetField> in <targetTable> eingefügt werden.
DELTA_COMMIT_INTERMEDIATE_REDIRECT_STATE
Der Commit einer Tabelle kann im Umleitungstabellenzustand „<state>“ nicht bearbeitet werden.
DELTA_COMPACTION_VALIDATION_FAILED
Fehler bei der Überprüfung der Komprimierung des Pfads <compactedPath> zu <newPath>: Bitte geben Sie einen Fehlerbericht ein.
DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE
Geschachtelter NullType in Spalte <columName> vom Typ <dataType> gefunden. Delta unterstützt das Schreiben von NullType in komplexen Typen nicht.
DELTA_CONCURRENT_APPEND
ConcurrentAppendException: Dateien wurden durch ein gleichzeitiges Update zu <partition> hinzugefügt. <retryMsg> <conflictingCommit>
Weitere Informationen finden Sie unter <docLink>.
DELTA_CONCURRENT_DELETE_DELETE
ConcurrentDeleteDeleteException: Diese Transaktion hat versucht, eine oder mehrere Dateien zu löschen, die durch ein gleichzeitiges Update gelöscht wurden (z. B. <file>). Versuchen Sie es erneut.<conflictingCommit>
Weitere Informationen finden Sie unter <docLink>.
DELTA_CONCURRENT_DELETE_READ
ConcurrentDeleteReadException: Diese Transaktion hat versucht, eine oder mehrere Dateien zu lesen, die durch eine gleichzeitige Aktualisierung gelöscht wurden (z. B. <file>). Versuchen Sie es erneut.<conflictingCommit>
Weitere Informationen finden Sie unter <docLink>.
DELTA_CONCURRENT_TRANSACTION
ConcurrentTransactionException: Dieser Fehler tritt auf, wenn mehrere Streamingabfragen denselben Prüfpunkt verwenden, um in diese Tabelle zu schreiben. Haben Sie mehrere Instanzen derselben Streamingabfrage gleichzeitig ausgeführt?<conflictingCommit>
Weitere Informationen finden Sie unter <docLink>.
DELTA_CONCURRENT_WRITE
GleichzeitigeWriteException: Eine gleichzeitige Transaktion hat neue Daten geschrieben, seit die aktuelle Transaktion die Tabelle liest. Versuchen Sie es erneut.<conflictingCommit>
Weitere Informationen finden Sie unter <docLink>.
DELTA_CONFLICT_SET_COLUMN
Es besteht ein Konflikt zwischen diesen SET-Spalten: <columnList>.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND
Die Konfiguration "<command>" kann während <configuration> nicht durch den Befehl festgelegt werden. Entfernen Sie ihn aus der TBLPROPERTIES-Klausel, und wiederholen Sie dann den Befehl erneut.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION
Während <command> kann die Konfiguration "<configuration>" nicht über die SparkSession-Einstellungen festgelegt werden. Löschen Sie sie, indem Sie spark.conf.unset("<configuration>") ausführen, und wiederholen Sie dann den Befehl.
DELTA_CONSTRAINT_ALREADY_EXISTS
Die Einschränkung "<constraintName>" ist bereits vorhanden. Löschen Sie zuerst die alte Einschränkung.
Alte Einschränkung:
<oldConstraint>
DELTA_CONSTRAINT_DATA_TYPE_MISMATCH
Spalte <columnName> weist den Datentyp <columnType> auf und kann nicht auf den Datentyp <dataType> geändert werden, da auf diese Spalte durch die folgenden Prüfeinschränkungen verwiesen wird:
<constraints>
DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE
Spalte <columnName> kann nicht geändert werden, da auf diese Spalte durch die folgenden Einschränkungen verwiesen wird:
<constraints>
DELTA_CONSTRAINT_DOES_NOT_EXIST
Die nicht vorhandene Einschränkung <constraintName> kann nicht aus der Tabelle <tableName>entfernt werden. Um einen Fehler zu vermeiden, geben Sie den Parameter IF EXISTS an, oder legen Sie die SQL-Sitzungskonfiguration <config> auf <confValue>fest.
DELTA_CONVERSION_MERGE_ON_READ_NOT_SUPPORTED
Die Konvertierung der Zusammenführungs-On-Read-Tabelle <format> wird nicht unterstützt: <path>, <hint>
DELTA_CONVERSION_NO_PARTITION_FOUND
Es wurden keine Partitionsinformationen im Katalog für die Tabelle <tableName>gefunden. Haben Sie "MSCK REPAIR TABLE" auf Ihrer Tabelle ausgeführt, um Partitionen zu ermitteln?
DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN
Parquet-Tabelle mit sortierter Partitionsspalte <colName> kann nicht in Delta umgewandelt werden.
DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING
Die Konfiguration „<config>“ kann nicht auf <mode> festgelegt werden, wenn CONVERT TO DELTA verwendet wird.
DELTA_CONVERSION_UNSUPPORTED_SCHEMA_CHANGE
Nicht unterstützte Schemaänderungen für <format> die Tabelle: <path>, <hint>
DELTA_CONVERT_NON_PARQUET_TABLE
CONVERT TO DELTA unterstützt nur Parquet-Tabellen. Sie versuchen jedoch, eine <sourceName>-Quelle zu konvertieren: <tableId>.
DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS
Zeilenverfolgung kann nicht aktiviert werden, ohne Statistiken zu sammeln.
Wenn Sie die Zeilenverfolgung aktivieren möchten, gehen Sie wie folgt vor:
- Aktivieren der Statistiksammlung durch Ausführen des Befehls
SET <statisticsCollectionPropertyKey> = wahr
- Führen Sie
CONVERTTODELTAohne die Option "NOSTATISTICS" aus.
Wenn Sie keine Statistiken sammeln möchten, deaktivieren Sie die Zeilenverfolgung:
- Deaktivieren Sie das Aktivieren des Tabellenfeatures standardmäßig, indem Sie den Befehl ausführen:
RESET <rowTrackingTableFeatureDefaultKey>
- Deaktivieren Sie die Tabelleneigenschaft standardmäßig, indem Sie Folgendes ausführen:
SET <rowTrackingDefaultPropertyKey> = falsch
DELTA_COPY_INTO_TARGET_FORMAT
COPY INTO Ziel muss eine Delta-Tabelle sein.
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA
Sie versuchen, eine externe Tabelle <tableName> zu erstellen.
mit Delta aus <path> zu erstellen, aber das Schema wird nicht angegeben, wenn der
Der Eingabepfad ist leer.
Weitere Informationen zu Delta finden Sie unter <docLink>
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG
Sie versuchen, eine externe Tabelle <tableName> mithilfe von Delta von <path> zu erstellen, es ist jedoch kein Transaktionsprotokoll unter <logPath> vorhanden. Überprüfen Sie den vorgelagerten Einzelvorgang, um sicherzustellen, dass er mit format("delta") schreibt, und dass der Pfad der Stamm der Tabelle ist.
Weitere Informationen zu Delta finden Sie unter <docLink>
DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH
Das Erstellen einer pfadbasierten Delta-Tabelle mit einem anderen Speicherort wird nicht unterstützt. Bezeichner: <identifier>, Speicherort: <location>.
DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION
Der Tabellenname oder -speicherort muss angegeben werden.
DELTA_CREATE_TABLE_SCHEME_MISMATCH
Das angegebene Schema stimmt nicht mit dem vorhandenen Schema bei <path>überein.
== Angegeben ==
<specifiedSchema>
== Bestehendes ==
<existingSchema>
== Unterschiede ==
<schemaDifferences>
Wenn Sie das vorhandene Schema beibehalten möchten, können Sie es weglassen.
Schema aus dem "CREATE TABLE"-Befehl. Stellen Sie andernfalls sicher, dass
Das Schema passt.
DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
Das <tableFeature>-Tabellenfeature kann nicht mit TBLPROPERTIES aktiviert werden. Verwenden Sie CREATE ODER REPLACE TABLE CLUSTER BY, um eine Delta-Tabelle mit Clustering zu erstellen.
DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING
Die angegebenen Clusterspalten stimmen nicht mit den vorhandenen Clusterspalten bei <path>überein.
== Angegeben ==
<specifiedColumns>
== Bestehendes ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING
Die angegebene Partitionierung stimmt nicht mit der vorhandenen Partitionierung bei <path>überein.
== Angegeben ==
<specifiedColumns>
== Bestehendes ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY
Die angegebenen Eigenschaften stimmen nicht mit den vorhandenen Eigenschaften bei <path>überein.
== Angegeben ==
<specifiedProperties>
== Bestehendes ==
<existingProperties>
DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION
Tabelle ('<tableId>') kann nicht erstellt werden. Der zugeordnete Speicherort ('<tableLocation>') ist nicht leer und auch keine Delta-Tabelle.
DELTA_DATA_CHANGE_FALSE
Tabellenmetadaten können nicht geändert werden, da die Option "dataChange" auf "false" festgelegt ist. Versuchter Vorgang: <op>.
DELTA_DELETED_PARQUET_FILE_NOT_FOUND
Datei <filePath>, auf die im Transaktionsprotokoll verwiesen wird, wurde nicht gefunden. Diese Parquet-Datei kann nach der Datenaufbewahrungsrichtlinie von Delta gelöscht werden.
Standardmäßige Aufbewahrungsdauer für Delta-Daten: <logRetentionPeriod>. Änderungszeit der Parquet-Datei: <modificationTime>. Löschzeit der Parquet-Datei: <deletionTime>. Gelöscht in Delta-Version: <deletionVersion>.
DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS
Es ist nicht zulässig, Dateien mit Löschvektoren zu übernehmen, denen die NumRecords-Statistik fehlt.
DELTA_DISABLE_SOURCE_MATERIALIZATION_IN_INSERT_REPLACE_ON_OR_USING_NOT_ALLOWED
Das Deaktivieren der Materialisierung der Quelle in INSERT REPLACE ON/USING durch das Festlegen von "spark.databricks.delta.insertReplaceOnOrUsing.materializeSource" auf "none" ist nicht zulässig.
DELTA_DISABLE_SOURCE_MATERIALIZATION_IN_MERGE_NOT_ALLOWED
Die Deaktivierung der Quellmaterialisierung in MERGE durch das Festlegen von "spark.databricks.delta.merge.materializeSource" auf "none" ist nicht zulässig.
DELTA_DOMAIN_METADATA_NOT_SUPPORTED
Erkannte DomainMetadata-Aktion(en) für Domänen <domainNames>, aber „DomainMetadataTableFeature“ ist nicht aktiviert.
DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO
Index <columnIndex> zum Löschen der Spalte ist kleiner als 0.
DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA
Es kann keine Spalte aus einem Schema mit nur einer Spalte entfernt werden. Schema:
<schema>
DELTA_DUPLICATE_ACTIONS_FOUND
Der Dateivorgang '<actionType>' für den Pfad <path> wurde mehrmals angegeben.
Dies steht in Konflikt mit <conflictingPath>.
Es ist nicht gültig für mehrere Dateivorgänge mit demselben Pfad, der in einem einzigen Commit vorhanden ist.
DELTA_DUPLICATE_COLUMNS_FOUND
Doppelte Spalten <coltype>gefunden: <duplicateCols>.
DELTA_DUPLICATE_COLUMNS_ON_INSERT
Doppelte Spaltennamen in INSERT-Klausel.
DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE
<message>
Entfernen Sie doppelte Spalten, bevor Sie Die Tabelle aktualisieren.
DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS
Doppelte Spalten für das Überspringen von Daten gefunden: <columns>.
DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR
Interner Fehler: Zwei DomainMetadata-Aktionen innerhalb derselben Transaktion haben dieselbe Domäne <domainName>.
DELTA_DUPLICATE_LOG_ENTRIES_FOUND
Das Delta-Protokoll befindet sich in einem unzulässigen Zustand: <numDuplicates> Pfade weisen doppelte Einträge in der Version <version>auf.
RESTORE auf eine Version vor dem Commit, der die Duplizierung verursacht hat, zurück oder wenden Sie sich an den Support für Unterstützung.
DELTA_DV_HISTOGRAM_DESERIALIZATON
Das Histogramm für die Anzahl gelöschter Datensätze konnte während der Überprüfung der Tabellenintegrität nicht deserialisiert werden.
DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED
Der Modus für dynamische Partitionsüberschreibvorgänge wird durch Sitzungskonfigurations- oder Schreiboptionen angegeben, ist jedoch durch spark.databricks.delta.dynamicPartitionOverwrite.enabled=falsedeaktiviert.
DELTA_EMPTY_DATA
Daten, die beim Erstellen der Delta-Tabelle verwendet werden, weisen keine Spalten auf.
DELTA_EMPTY_DIRECTORY
Keine Datei im Verzeichnis gefunden: <directory>.
DELTA_EXCEED_CHAR_VARCHAR_LIMIT
Der Wert "<value>" überschreitet die Einschränkung der Zeichen-/Varchar-Typlänge. Fehlerhafte Prüfung: <expr>.
DELTA_EXTERNAL_METADATA_UNRESOLVED_PROJECTION
Die Projektionsabfrage '<query>' kann im Schema nicht aufgelöst werden: <schemaTreeString>
DELTA_EXTERNAL_METADATA_UNSUPPORTED_SOURCE
Externe Metadaten unterstützen die Quelle nicht.
Weitere Informationen finden Sie unter DELTA_EXTERNAL_METADATA_UNSUPPORTED_SOURCE
DELTA_FAILED_CAST_PARTITION_VALUE
Fehler beim Umwandeln des Partitionswerts <value> in <dataType>.
DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS
<newAttributeName> konnte unter der vorhandenen Zielausgabe <targetOutputColumns> nicht gefunden werden.
DELTA_FAILED_INFER_SCHEMA
Fehler beim Ableiten des Schemas aus der angegebenen Liste von Dateien.
DELTA_FAILED_MERGE_SCHEMA_FILE
Fehler beim Zusammenführen des Dateischemas <file>:
<schema>
DELTA_FAILED_OPERATION_ON_SHALLOW_CLONE
Fehler beim Ausführen des Vorgangs in der Quelltabelle <sourceTable> , da der flache Klon noch vorhanden ist und der folgende Fehler im flachen Klon <targetTable> aufgetreten ist: <message>
DELTA_FAILED_READ_FILE_FOOTER
Die Fußzeile für die Datei konnte nicht gelesen werden: <currentFile>.
DELTA_FAILED_RECOGNIZE_PREDICATE
Das Prädikat '<predicate>' kann nicht erkannt werden.
DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION
Es wird ein vollständiger Scan der neuesten Version der Delta-Quelle erwartet, stattdessen wurde ein historischer Scan der Version <historicalVersion> gefunden.
DELTA_FAILED_TO_MERGE_FIELDS
Fehler beim Zusammenführen von Feldern '<currentField>' und '<updateField>'.
DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH
Diese Tabelle kann nicht ausgeführt werden, da die folgenden Tabellenfeatures in Metadaten aktiviert sind, aber nicht im Protokoll aufgeführt sind: <features>.
DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT
Ihr Tabellenschema erfordert eine manuelle Aktivierung der folgenden Tabellenfeatures: <unsupportedFeatures>.
Führen Sie dazu den folgenden Befehl für jede der oben aufgeführten Features aus:
ALTER TABLE
SET TBLPROPERTIES table_name ('delta.feature.feature_name' = 'supported')
Ersetzen Sie "table_name" und "feature_name" durch reale Werte.
Aktuell unterstützte(s) Feature(s): <supportedFeatures>.
DELTA_FEATURE_CAN_ONLY_DROP_CHECKPOINT_PROTECTION_WITH_HISTORY_TRUNCATION
Die Funktion "Prüfpunktschutz" konnte nicht entfernt werden.
Dieses Feature kann nur durch Abschneiden des Verlaufs getrennt werden.
Versuchen Sie es bitte erneut mit der Option TRUNCATE HISTORY:
ALTER TABLE
DROP FEATURE table_name checkpointProtectionTRUNCATE HISTORY
DELTA_FEATURE_DROP_CHECKPOINT_FAILED
Fehler beim Ablegen <featureName> aufgrund eines Fehlers bei der Erstellung des Prüfpunkts.
Versuchen Sie es später erneut. Wenn das Problem weiterhin besteht, wenden Sie sich an den Databricks-Support.
DELTA_FEATURE_DROP_CHECKPOINT_PROTECTION_WAIT_FOR_RETENTION_PERIOD
Der Vorgang war nicht erfolgreich, da immer noch Spuren von verworfenen Features vorhanden sind.
im Tabellenverlauf. CheckpointProtection kann nicht gelöscht werden, solange diese historischen Daten vorhanden sind.
Versionen abgelaufen sind.
Um die CheckpointProtection zu entfernen, warten Sie, bis die historischen Versionen
ablaufen, und wiederholen Sie dann diesen Befehl. Der Aufbewahrungszeitraum für historische Versionen ist
zurzeit für <truncateHistoryLogRetentionPeriod>konfiguriert.
DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL
Die Funktion kann nicht gelöscht werden, weil eine gleichzeitige Transaktion die Tabelle geändert hat.
Versuchen Sie es erneut.
<concurrentCommit>
DELTA_FEATURE_DROP_DEPENDENT_FEATURE
Die Tabellenfunktion <feature> kann nicht entfernt werden, da einige andere Features (<dependentFeatures>) in dieser Tabelle von <feature>abhängen.
Erwägen Sie, sie zuerst zu löschen, bevor Sie dieses Feature ablegen.
DELTA_FEATURE_DROP_FEATURE_IS_DELTA_PROPERTY
Die Eigenschaft <property> kann nicht aus dieser Tabelle entfernt werden, da es sich um eine Delta-Tabelleneigenschaft und nicht um ein Tabellenmerkmal handelt.
DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT
Element <feature> kann nicht aus dieser Tabelle entfernt werden, da es momentan nicht im Protokoll der Tabelle vorhanden ist.
DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST
<feature> kann nicht gelöscht werden, da das Delta-Protokoll historische Versionen enthält, die das Feature verwenden.
Warten Sie, bis der Aufbewahrungszeitraum für den Verlauf (<logRetentionPeriodKey>=<logRetentionPeriod>)
wurde seit der letzten Aktiven des Features übergeben.
Alternativ warten Sie, bis der TRUNCATE HISTORY Aufbewahrungszeitraum abläuft (<truncateHistoryLogRetentionPeriod>)
und führen daraufhin Folgendes aus:
ALTER TABLE Tabellenname DROP FEATURE Funktionsname TRUNCATE HISTORY
DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED
Für das bestimmte Feature ist keine Verlaufskürzung erforderlich.
DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE
<feature> kann nicht gelöscht werden, da das Ablegen dieses Features nicht unterstützt wird.
Wenden Sie sich bitte an den Databricks-Support.
DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE
<feature> kann nicht entfernt werden, da sie von dieser Databricks-Version nicht unterstützt wird.
Erwägen Sie die Verwendung von Databricks mit einer höheren Version.
DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD
Das Löschen von <feature> war teilweise erfolgreich.
Das Feature wird jetzt nicht mehr in der aktuellen Version der Tabelle verwendet. Das Feature ist allerdings
in historischen Versionen der Tabelle noch vorhanden. Das Tabellenfeature kann nicht gelöscht werden.
aus dem Tabellenprotokoll gelöscht werden, nachdem diese Verlaufsversionen abgelaufen sind.
Um die Tabellenfunktion aus dem Protokoll zu löschen, warten Sie bitte, bis die historischen Versionen verfügbar sind.
ablaufen, und wiederholen Sie dann diesen Befehl. Der Aufbewahrungszeitraum für historische Versionen ist
zurzeit als <logRetentionPeriodKey>=<logRetentionPeriod>konfiguriert.
Alternativ warten Sie, bis der TRUNCATE HISTORY Aufbewahrungszeitraum abläuft (<truncateHistoryLogRetentionPeriod>)
und führen daraufhin Folgendes aus:
ALTER TABLE Tabellenname DROP FEATURE Funktionsname TRUNCATE HISTORY
DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION
Das Tabellenfeature <feature> kann nicht aktiviert werden, da es eine höhere Leseprotokollversion (aktuelle <current>) erfordert. Erwägen Sie das Upgrade der Leseprotokollversion der Tabelle auf <required>oder auf eine Version, die Lesetabellenfeatures unterstützt. Weitere Informationen zu Tabellenprotokollversionen finden Sie unter <docLink>.
DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION
Das Tabellenfeature <feature> kann nicht aktiviert werden, da es eine höhere Writer-Protokollversion (aktuelle <current>) erfordert. Erwägen Sie das Upgrade der Writer-Protokollversion der Tabelle auf <required>oder auf eine Version, die Writer-Tabellenfeatures unterstützt. Weitere Informationen zu Tabellenprotokollversionen finden Sie unter <docLink>.
DELTA_FILE_ALREADY_EXISTS
Vorhandener Dateipfad <path>.
DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT
Es können nicht sowohl eine Dateiliste als auch eine Musterzeichenfolge angegeben werden.
DELTA_FILE_NOT_FOUND
Dateipfad <path>.
DELTA_FILE_NOT_FOUND_DETAILED
Datei <filePath>, auf die im Transaktionsprotokoll verwiesen wird, wurde nicht gefunden. Dies geschieht, wenn Daten manuell aus dem Dateisystem gelöscht wurden, anstatt die Tabelle DELETE Anweisung zu verwenden. Weitere Informationen finden Sie unter <faqPath>
DELTA_FILE_OR_DIR_NOT_FOUND
Keine solche Datei oder ein solches Verzeichnis: <path>.
DELTA_FILE_TO_OVERWRITE_NOT_FOUND
Die Datei (<path>) zum Umschreiben wurde nicht unter den Kandidatendateien gefunden.
<pathList>
DELTA_FOUND_MAP_TYPE_COLUMN
Es wurde ein MapType gefunden. Um auf den Schlüssel oder Wert eines MapType-Typs zuzugreifen, geben Sie einen an.
of:
<key> oder
<value>
gefolgt vom Namen der Spalte (nur wenn diese Spalte ein Strukturtyp ist).
Beispiel: mymap.key.mykey
Wenn es sich bei der Spalte um einen einfachen Typ handelt, ist mymap.key oder mymap.value ausreichend.
Schema:
<schema>
DELTA_FSCK_CANNOT_REPAIR_DELTA_LOG
FSCK kann die Tabelle nicht reparieren. Die Tabelle hat keinen gültigen Prüfpunkt, um die Protokollwiedergabe zu starten, und es ist kein ausreichender Protokollverlauf vorhanden, der von der ersten Version wiedergegeben werden kann.
DELTA_FSCK_CONCURRENT_MODIFICATION
Gleichzeitige Änderung der Tabelle, die beim Ausführen von FSCK erkannt wurde. Wiederholen Sie den FSCK-Befehl, und stellen Sie sicher, dass während des Reparaturvorgangs keine anderen Vorgänge in die Tabelle geschrieben werden.
DELTA_FSCK_DRY_RUN_CANNOT_PROCEED_WITH_INVALID_CHECKPOINTS
FSCK DRY RUN kann nicht fortgesetzt werden, weil ungültige Prüfpunkte erkannt wurden. Führen Sie zuerst "FSCK-Tabelle REPAIR TABLEMETADATA ONLY" aus, um die Prüfpunkte zu reparieren.
DELTA_FSCK_DRY_RUN_CANNOT_PROCEED_WITH_MISSING_OR_INVALID_PARTITION_FILES
FSCK DRY RUN kann nicht fortgesetzt werden, weil fehlende Dateien oder Dateien mit ungültigen Partitionswerten erkannt wurden. Führen Sie zuerst "FSCK-Tabelle REPAIR TABLE " aus, um die Tabelle zu reparieren.
DELTA_FSCK_INVALID_BARRIER_CHECKPOINT
FSCK kann die Tabelle nicht reparieren. Einige ungültige Prüfpunkte sind geschützt und können nicht entfernt werden. Wenden Sie sich bitte an den Databricks-Support.
DELTA_FSCK_NO_VALID_CHECKPOINT
FSCK kann die Tabelle nicht reparieren. Alle Prüfpunkte dieser Tabelle sind ungültig. Wenden Sie sich bitte an den Databricks-Support.
DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH
Spalte <columnName> weist den Datentyp <columnType> auf und kann nicht auf den Datentyp <dataType> geändert werden, da auf diese Spalte durch die folgenden generierten Spalten verwiesen wird:
<generatedColumns>.
DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE
Spalten-<columnName> kann nicht geändert werden, da auf diese Spalte durch die folgenden generierten Spalten verwiesen wird:
<generatedColumns>.
DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH
Der Ausdruckstyp der generierten Spalte <columnName> lautet <expressionType>, jedoch ist der Spaltentyp <columnType>.
DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH
Spalte <currentName> ist eine generierte Spalte oder eine Spalte, die von einer generierten Spalte verwendet wird. Der Datentyp ist <currentDataType> und kann nicht in den Datentyp <updateDataType>konvertiert werden.
DELTA_GEOSPATIAL_NOT_SUPPORTED
Geospatialtypen werden in dieser Version von Delta Lake nicht unterstützt.
DELTA_GEOSPATIAL_SRID_NOT_SUPPORTED
Der räumliche Typ weist eine nicht unterstützte Raumbezugskennung auf: <srid>. Delta-Tabellen unterstützen nur nicht negative srid-Werte.
DELTA_ICEBERG_COMPAT_VIOLATION
Die Validierung von IcebergCompatV<version> ist fehlgeschlagen.
Weitere Details finden Sie unter DELTA_ICEBERG_COMPAT_VIOLATION.
DELTA_ICEBERG_WRITER_COMPAT_VIOLATION
Die Überprüfung von IcebergWriterCompatV<version> ist fehlgeschlagen.
Weitere Informationen finden Sie unter DELTA_ICEBERG_WRITER_COMPAT_VIOLATION.
DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED
ALTER TABLE ALTER COLUMN wird für IDENTITY-Spalten nicht unterstützt.
DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT
ALTER TABLE ALTER COLUMN SYNC IDENTITY wird nur von Delta unterstützt.
DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN
ALTER TABLE ALTER COLUMN SYNC IDENTITY kann nicht für Nicht-IDENTITY-Spalten aufgerufen werden.
DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED
Das Bereitstellen von Werten für GENERATED ALWAYS AS IDENTITY die Spalte <colName> wird nicht unterstützt.
DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP
IDENTITY Spaltenschritt darf nicht 0 sein.
DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT
IDENTITY Spalten werden nur von Delta unterstützt.
DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED
PARTITIONED BY IDENTITY Spalte <colName> wird nicht unterstützt.
DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED
ALTER TABLE REPLACE COLUMNS wird für eine Tabelle mit IDENTITY-Spalten nicht unterstützt.
DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
DataType-<dataType> wird für IDENTITY Spalten nicht unterstützt.
DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED
UPDATE für IDENTITY-Spalte <colName> wird nicht unterstützt.
DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION
IDENTITY Spalte kann nicht mit einem generierten Spaltenausdruck angegeben werden.
DELTA_ILLEGAL_OPTION
Ungültiger Wert '<input>' für Option '<name>', <explain>
DELTA_ILLEGAL_USAGE
Die Verwendung von <option> ist nicht zulässig, wenn für eine Delta-Tabelle <operation> ausgeführt wird.
DELTA_INCONSISTENT_BUCKET_SPEC
BucketSpec in der zusammengefassten Delta-Tabelle stimmt nicht mit BucketSpec aus Metadaten überein. Erwartet: <expected>. Aktuell: <actual>.
DELTA_INCONSISTENT_LOGSTORE_CONFS
(<setKeys>) kann nicht auf unterschiedliche Werte festgelegt werden. Legen Sie nur einen davon fest, oder legen Sie sie auf denselben Wert fest.
DELTA_INCORRECT_ARRAY_ACCESS
Falscher Zugriff auf einen ArrayType. Verwenden Sie die Position „arrayname.element.elementname“ für das
zu einem Array hinzufügen.
DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME
Ein ArrayType wurde gefunden. Um auf Elemente eines ArrayTyps zuzugreifen, geben Sie Folgendes an.
<rightName> anstelle von <wrongName>.
Schema:
<schema>
DELTA_INCORRECT_GET_CONF
Verwenden Sie getConf() anstelle von conf.getConf().
DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION
Dieser Fehler tritt in der Regel auf, wenn die LogStore-Standardimplementierung,
HDFSLogStore, verwendet wird, um in eine Delta-Tabelle in einem Nicht-HDFS-Speichersystem zu schreiben.
Um die transaktionsrelevanten ACID-Garantien für Tabellenupdates zu erhalten, müssen Sie die
korrekte Implementierung von LogStore, die für Ihr Speichersystem geeignet ist.
Weitere Informationen finden Sie unter <docLink>.
DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT
Der Index <index> zum Ablegen der Spalte ist gleich oder größer als die Strukturlänge: <length>.
DELTA_INDEX_LARGER_THAN_STRUCT
Index <index> zum Hinzufügen einer Spalte <columnName> ist größer als die Strukturlänge: <length>.
DELTA_INSERT_COLUMN_ARITY_MISMATCH
Schreiben in „<tableName>“ nicht möglich, <columnName>, die Zieltabelle hat <numColumns> Spalte(n), aber die eingefügten Daten haben <insertColumns> Spalte(n).
DELTA_INSERT_COLUMN_MISMATCH
Spalte <columnName> ist in INSERT nicht angegeben.
DELTA_INSERT_REPLACE_ON_AMBIGUOUS_COLUMNS_IN_CONDITION
Spalten <columnNames> sind in der Bedingung von INSERT REPLACE ON mehrdeutig. Erwägen Sie die Angabe eines Alias für diese Spalten.
DELTA_EINFÜGEN_ERSETZEN_NICHT_AKTIVIERT
Wenden Sie sich bitte an Ihren Databricks-Vertreter, um die INSERT INTO...REPLACE ON ... SQL- und DataFrame-APIs.
If the identifier is meant to stay consistent with the original English due to technical precision and domain-specific norms, the translation remains as: DELTA_INSERT_REPLACE_ON_UNRESOLVED_COLUMNS_IN_CONDITION
Spalten <columnNames> können in der Bedingung von INSERT REPLACE ON nicht aufgelöst werden.
DELTA_INVALID_AUTO_COMPACT_TYPE
Ungültiger automatisch komprimierter Typ: <value>. Zulässige Werte sind: <allowed>.
DELTA_INVALID_BUCKET_COUNT
Ungültige Bucketanzahl: <invalidBucketCount>. Die Bucketanzahl sollte eine positive Zahl, eine Potenz von 2 und mindestens 8 sein. Sie können stattdessen <validBucketCount> verwenden.
DELTA_INVALID_BUCKET_INDEX
Die Bucketspalte kann in den Partitionsspalten nicht gefunden werden.
DELTA_INVALID_CALENDAR_INTERVAL_EMPTY
Das Intervall darf nicht null oder leer sein.
DELTA_INVALID_CDC_RANGE
Der CDC-Bereich von Anfang <start> bis Ende <end> war ungültig. Das Ende kann nicht vor dem Start erfolgen.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME
Attributname "<columnName>" enthält ungültige Zeichen zwischen " ;;{}()\n\t=". Verwenden Sie zum Umbenennen einen Alias.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES
Ungültige Zeichen zwischen ' gefunden;{}()\n\t=" in den Spaltennamen Ihres Schemas.
Ungültige Spaltennamen: <invalidColumnNames>.
Bitte verwenden Sie andere Zeichen, und versuchen Sie es erneut.
Alternativ können Sie die Spaltenzuordnung aktivieren, um diese Zeichen weiterhin zu verwenden.
DELTA_INVALID_CHECK_CONSTRAINT_REFERENCES
In CHECK Einschränkung gefunden<colName>. Eine Check-Einschränkung kann keine nicht vorhandene Spalte verwenden.
DELTA_INVALID_CLONE_PATH
Der Zielspeicherort für CLONE muss ein absoluter Pfad oder ein Tabellenname sein. Verwenden Sie ein/eine
absoluten Pfad anstelle von <path>.
DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING
Ungültige Zeichen zwischen ' gefunden;{}()\n\t=" in den Spaltennamen Ihres Schemas.
Ungültige Spaltennamen: <invalidColumnNames>.
Die Spaltenzuordnung kann nicht entfernt werden, wenn in den Spaltennamen ungültige Zeichen vorhanden sind.
Benennen Sie die Spalten um, um die ungültigen Zeichen zu entfernen, und führen Sie diesen Befehl erneut aus.
DELTA_INVALID_FORMAT
Inkompatibles Format erkannt.
Ein Transaktionsprotokoll für Delta wurde gefunden unter <deltaRootPath>/_delta_log,
aber Sie versuchen <operation> <path> mithilfe von format("<format>"). Sie müssen
'format("delta")' beim Lesen und Schreiben in eine Delta-Tabelle verwenden.
Weitere Informationen zu Delta finden Sie unter <docLink>
DELTA_INVALID_GENERATED_COLUMN_REFERENCES
Eine generierte Spalte kann keine nicht vorhandene Spalte oder eine andere generierte Spalte verwenden.
DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS
Ungültige Optionen für idempotente Dataframe-Schreibvorgänge: <reason>
DELTA_INVALID_INTERVAL
<interval> ist keine gültige INTERVAL.
DELTA_INVALID_INVENTORY_SCHEMA
Das Schema für die angegebene INVENTORY enthält nicht alle erforderlichen Felder. Erforderliche Felder sind: <expectedSchema>
DELTA_INVALID_ISOLATION_LEVEL
ungültige Isolationsstufe '<isolationLevel>'.
DELTA_INVALID_LOGSTORE_CONF
(<classConfig>) und (<schemeConfig>) können nicht gleichzeitig festgelegt werden. Bitte legen Sie nur eine Gruppe davon fest.
DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA
Sie versuchen, eine verwaltete Tabelle <tableName>
mit Delta zu erstellen, aber das Schema wurde nicht angegeben.
Weitere Informationen zu Delta finden Sie unter <docLink>
DELTA_INVALID_PARTITION_COLUMN
<columnName> ist keine gültige Partitionsspalte in tabelle <tableName>.
DELTA_INVALID_PARTITION_COLUMN_NAME
Gefundene Partitionsspalten mit ungültigen Zeichen zwischen " ;;{}()\n\t=". Ändern Sie den Namen in Ihre Partitionsspalten. Diese Überprüfung kann deaktiviert werden, indem spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false) festgelegt wird, dies wird jedoch nicht empfohlen, da andere Features von Delta möglicherweise nicht ordnungsgemäß funktionieren.
DELTA_INVALID_PARTITION_COLUMN_TYPE
Die Verwendung von Spalte <name> vom Typ <dataType> als Partitionsspalte wird nicht unterstützt.
DELTA_INVALID_PARTITION_PATH
Ein Partitionspfadfragment sollte das Format wie part1=foo/part2=barsein. Der Partitionspfad: <path>.
DELTA_INVALID_PROTOCOL_DOWNGRADE
Die Protokollversion kann nicht von (<oldProtocol>) auf (<newProtocol>) herabgestuft werden.
DELTA_INVALID_PROTOCOL_VERSION
Nicht unterstützte Delta-Protokollversion: Tabelle "<tableNameOrPath>" erfordert Leseversion <readerRequired> und Writer-Version <writerRequired>, aber diese Version von Databricks unterstützt Leseversionen und Writer-Versionen <supportedReaders><supportedWriters>. Aktualisieren Sie bitte auf eine neuere Version.
DELTA_INVALID_TABLE_VALUE_FUNCTION
Die Funktion <function> ist eine nicht unterstützte Tabellenwertfunktion für CDC-Lesevorgänge.
DELTA_INVALID_TIMESTAMP_FORMAT
Der angegebene Zeitstempel <timestamp> stimmt nicht mit der erwarteten Syntax <format>überein.
DELTA_LOG_ALREADY_EXISTS
Ein Delta-Protokoll ist bereits vorhanden bei <path>.
DELTA_LOG_FILE_NOT_FOUND
Die Delta-Protokolldateien können nicht abgerufen werden, um die Tabellenversion <version> ab Prüfpunktversion <checkpointVersion> zu erstellen.<logPath>
DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE
Wenn Sie sie nie gelöscht haben, liegt ihre Abfrage wahrscheinlich hinterher. Löschen Sie den Prüfpunkt, um von Grund auf neu zu starten. Um dies zukünftig zu vermeiden, können Sie Ihre Aufbewahrungsrichtlinie Ihrer Delta-Tabelle aktualisieren.
DELTA_LOG_JSON_FILE_ACCESS_DENIED
Zugriff verweigert beim Lesen der Delta-Protokolldatei JSON : <filePath>. Überprüfen Sie, ob Sie über Leseberechtigungen für den Speicherort der Delta-Tabelle verfügen.
DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING
Materialisierter Spaltenname für <rowTrackingColumn> fehlt für <tableName>.
DELTA_MAX_ARRAY_SIZE_EXCEEDED
Bitte verwenden Sie einen Grenzwert kleiner als Int.MaxValue - 8.
DELTA_MAX_COMMIT_RETRIES_EXCEEDED
Dieser Commit ist fehlgeschlagen, da es <numAttempts> Mal versucht wurde, aber nicht erfolgreich war.
Dies kann dadurch verursacht werden, dass für die Delta-Tabelle kontinuierlich viele gleichzeitige
commits.
Commit gestartet bei Version <startVersion>
Commit mit Fehler abgebrochen bei Version <failVersion>
Anzahl der Aktionen, die einen Commit versucht haben: <numActions>
Gesamtzeit für den Versuch dieses Commits: <timeSpent> ms
DELTA_MAX_LIST_FILE_EXCEEDED
Die Dateiliste darf höchstens <maxFileListSize> Einträge haben, hatte aber <numFiles>.
DELTA_MERGE_ADD_VOID_COLUMN
Es kann keine Spalte <newColumn> mit dem Typ VOID hinzugefügt werden. Bitte geben Sie explizit einen anderen als den void-Typ an.
DELTA_MERGE_INCOMPATIBLE_DATATYPE
Fehler beim Zusammenführen inkompatibler Datentypen <currentDataType> und <updateDataType>.
DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE
Fehler beim Zusammenführen von Dezimaltypen mit inkompatiblen <decimalRanges>.
DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY
Die Quelle der MERGE-Anweisung materialisiert beizubehalten ist wiederholt fehlgeschlagen.
DELTA_MERGE_MISSING_WHEN
Es muss mindestens eine WHEN-Klausel in einer MERGE-Anweisung vorhanden sein.
DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT
Aufgelöste Attribute <missingAttributes> fehlen in <input> im <merge>-Operator.
DELTA_MERGE_SOURCE_CACHED_DURING_EXECUTION
Fehler beim MERGE Vorgang, da (Teil) des Quellplans während der Ausführung des MERGE Vorgangs zwischengespeichert wurde.
DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY
Unerwarteter Zuordnungsschlüssel: <unexpectedKeyClass> - <unexpectedKeyObject>.
DELTA_MERGE_UNRESOLVED_EXPRESSION
Auflösung von <sqlExpr> in <clause> vorhandenen Spalten <cols> nicht möglich.
DELTA_METADATA_CHANGED
MetadataChangedException: Die Metadaten der Delta-Tabelle wurden durch ein gleichzeitiges Update geändert. Versuchen Sie es erneut.<conflictingCommit>
Weitere Informationen finden Sie unter <docLink>.
DELTA_MISSING_CHANGE_DATA
Fehler beim Abrufen von Änderungsdaten für den Bereich [<startVersion> , <endVersion>] als Änderungsdaten nicht
für Version [<version>] nicht aufgezeichnet wurden. Wenn Sie den Änderungsdaten-Feed für diese Tabelle aktiviert haben,
verwenden Sie DESCRIBE HISTORY, um zu sehen, wann sie zum ersten Mal aktiviert wurde.
Verwenden Sie andernfalls ALTER TABLE table_name SET TBLPROPERTIES, um die Aufzeichnung der Änderungsdaten zu starten.
(<key>=true).
DELTA_MISSING_COLUMN
<columnName> konnte nicht in den Tabellenspalten gefunden werden: <columnList>.
DELTA_MISSING_COMMIT_INFO
Diese Tabelle verfügt über das Feature <featureName> aktiviert, das das Vorhandensein der CommitInfo-Aktion in jedem Commit erfordert. Die CommitInfo-Aktion fehlt jedoch in der Commit-Version <version>.
DELTA_MISSING_COMMIT_TIMESTAMP
Diese Tabelle verfügt über das Feature <featureName> aktiviert, das das Vorhandensein von commitTimestamp in der CommitInfo-Aktion erfordert. Dieses Feld wurde jedoch nicht in commit-Version <version>festgelegt.
DELTA_MISSING_DELTA_TABLE
<tableName> ist keine Delta-Tabelle.
DELTA_MISSING_DELTA_TABLE_COPY_INTO
Tabelle ist nicht vorhanden. Erstellen Sie zuerst eine leere Delta-Tabelle mit CREATE TABLE <tableName>.
DELTA_MISSING_ICEBERG_CLASS
Die Apache Iceberg-Klasse wurde nicht gefunden. Bitte stellen Sie sicher, dass die Delta Apache Iceberg-Unterstützung installiert ist.
Weitere Informationen finden Sie unter <docLink>.
DELTA_MISSING_NOT_NULL_COLUMN_VALUE
Spalte <columnName>, die eine NOT NULL Einschränkung aufweist, fehlt in den Daten, die in die Tabelle geschrieben werden.
DELTA_MISSING_PARTITION_COLUMN
Partitionsspalte <columnName> in Schema-<columnList>nicht gefunden.
DELTA_MISSING_PART_FILES
Alle Teildateien der Prüfpunktversion konnten nicht gefunden werden: <version>.
DELTA_MISSING_PROVIDER_FOR_CONVERT
CONVERT TO DELTA unterstützt nur Parquet-Tabellen. Schreiben Sie Ihr Ziel als „parquet.
<path>“ um, wenn es sich um ein Parquet-Verzeichnis handelt.
DELTA_MISSING_ROW_TRACKING_FOR_CDC
Fehler beim Abrufen von Änderungsdaten für <tableName> das Nachverfolgen von Zeilen war nicht aktiviert. Um die Zeilenverfolgung zu aktivieren, verwenden Sie ALTER TABLE table_name SET TBLPROPERTIES (<key>=true).
DELTA_MISSING_SET_COLUMN
SET-Spalte <columnName> wurde in den angegebenen Spalten nicht gefunden: <columnList>.
DELTA_MISSING_TRANSACTION_LOG
Inkompatibles Format erkannt.
Sie versuchen die Ausführung von <operation> <path> mit Delta, aber es ist kein
Transaktionsprotokoll vorhanden. Überprüfen Sie den Upstreamauftrag, um sicherzustellen, dass er
format("delta") verwendet und dass Sie versuchen, „%1$s“ auf den Basispfad der Tabelle anzuwenden.
Weitere Informationen zu Delta finden Sie unter <docLink>
DELTA_MODE_NOT_SUPPORTED
Der angegebene Modus "<mode>" wird nicht unterstützt. Unterstützte Modi sind: <supportedModes>.
DELTA_MULTIPLE_CDC_BOUNDARY
Mehrere <startingOrEnding>-Argumente für CDC-Lesevorgang bereitgestellt. Bitte geben Sie entweder einen <startingOrEnding>Zeitstempel oder eine <startingOrEnding>Version an.
DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER
Es wurden mehrere Bloomfilterindex-Konfigurationen an den Befehl für Spalte <columnName> übergeben.
DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE
Die Zusammenführung kann nicht als mehrere Quellzeilen übereinstimmen und versucht haben, dasselbe zu ändern.
Zielzeile in der Delta-Tabelle auf möglicherweise widersprüchliche Weise. Durch DIE SQL-Semantik des Zusammenführens,
Wenn mehrere Quellzeilen in derselben Zielzeile übereinstimmen, kann das Ergebnis mehrdeutig sein.
da unklar ist, welche Quellzeile verwendet werden soll, um den Abgleich zu aktualisieren oder zu löschen
Zielzeile. Sie können die Quelltabelle vorverarbeiten, um die Möglichkeit zu beseitigen
mehrere Übereinstimmungen. Informationen zu den nächsten Schritten finden Sie im Abschnitt
<usageReference>
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND
Während <command> werden entweder beide Konfigurationen der koordinierten Commits ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview") im Befehl festgelegt oder keine davon. Fehlt: "<configuration>". Geben Sie diese Konfiguration in der TBLPROPERTIES-Klausel an, oder entfernen Sie die andere Konfiguration, und wiederholen Sie dann den Befehl erneut.
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION
Während <command> werden entweder beide Konfigurationen der koordinierten Commits ("coordinatedCommits.commitCoordinator-preview", "coordinatedCommits.commitCoordinatorConf-preview") in den SparkSession-Konfigurationen festgelegt oder keine davon. Fehlt: "<configuration>". Legen Sie diese Konfiguration in der SparkSession fest, oder deaktivieren Sie die andere Konfiguration, und wiederholen Sie dann den Befehl erneut.
DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE
Die folgenden Spaltennamen sind nur für die interne Verwendung der delta-zusammengefassten Tabelle reserviert: <names>
DELTA_NESTED_FIELDS_NEED_RENAME
Das Eingabeschema enthält geschachtelte Felder, die anders großgeschrieben sind als die Zieltabelle.
Sie müssen umbenannt werden, um den Verlust von Daten in diesen Feldern beim Schreiben in das Delta-System zu vermeiden.
Fields:
<fields>.
Ursprüngliches Schema:
<schema>
DELTA_NESTED_NOT_NULL_CONSTRAINT
Der <nestType> Typ des Felds <parent> enthält eine NOT NULL Einschränkung. Delta unterstützt keine NOT NULL-Einschränkungen, die in Arrays oder Maps geschachtelt sind. Um diesen Fehler zu unterdrücken und die angegebenen Einschränkungen stillschweigend zu ignorieren, setzen Sie <configKey> = true.
Geparster <nestType>-Typ:
<nestedPrettyJson>
DELTA_NESTED_SUBQUERY_NOT_SUPPORTED
Geschachtelte Unterabfragen werden in der <operation>-Bedingung nicht unterstützt.
DELTA_NEW_CHECK_CONSTRAINT_VIOLATION
<numRows> Zeilen in <tableName> verstoßen gegen die neue CHECK Beschränkung (<checkConstraint>).
DELTA_NEW_NOT_NULL_VIOLATION
<numRows> Zeilen in <tableName> verstoßen gegen die neue NOT NULL-Einschränkung in <colName>.
DELTA_NON_BOOLEAN_CHECK_CONSTRAINT
CHECK Einschränkung '<name>' (<expr>) sollte ein boolescher Ausdruck sein.
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_CHECK_CONSTRAINT
In einer CHECK Einschränkung gefunden<expr>. Eine CHECK Einschränkung kann keinen nicht deterministischen Ausdruck verwenden.
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN
Es wurde <expr> gefunden. Eine generierte Spalte kann keinen nicht deterministischen Ausdruck verwenden.
DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED
Nicht-deterministische Funktionen werden in der <operation> <expression> nicht unterstützt.
DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Wenn es in einer MATCHED-Anweisung mehr als eine MERGE-Klausel gibt, kann nur die letzte MATCHED-Klausel die Bedingung weglassen.
DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Wenn es in einer NOT MATCHED BY SOURCE-Anweisung mehr als eine MERGE-Klausel gibt, kann nur die letzte NOT MATCHED BY SOURCE-Klausel die Bedingung weglassen.
DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION
Wenn es in einer NOT MATCHED-Anweisung mehr als eine MERGE-Klausel gibt, kann nur die letzte NOT MATCHED-Klausel die Bedingung weglassen.
DELTA_NON_PARSABLE_TAG
Tag <tag>konnte nicht analysiert werden.
Dateitags sind: <tagList>.
DELTA_NON_PARTITION_COLUMN_ABSENT
In Delta geschriebene Daten müssen mindestens eine nicht partitionierte Spalte enthalten.<details>
DELTA_NON_PARTITION_COLUMN_REFERENCE
Prädikat verweist auf nicht partitionierte Spalte '<columnName>'. Nur auf die Partitionsspalten kann verwiesen werden: [<columnList>].
DELTA_NON_PARTITION_COLUMN_SPECIFIED
Nicht partitionierende Spalten <columnList> werden angegeben, wobei nur Partitionierungsspalten erwartet werden: <fragment>.
DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG
Der Delta-Katalog erfordert einen einzelteiligen Namespace, aber <identifier> ist mehrteilig.
DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_COMMAND
Das Festlegen des Commit-Koordinators auf "<nonUcCoordinatorName>" vom Befehl wird nicht unterstützt, da von UC verwaltete Tabellen nur "unity-catalog" als Commit-Koordinator haben können. Ändern Sie sie entweder in "unity-catalog", oder entfernen Sie alle Coordinated Commits-Tabelleneigenschaften aus der TBLPROPERTIES Klausel, und wiederholen Sie dann den Befehl erneut.
DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_SESSION
Es wird nicht unterstützt, den Commit-Koordinator aus den SparkSession-Konfigurationen auf '<nonUcCoordinatorName>' festzulegen, da von UC verwaltete Tabellen nur 'unity-catalog' als Commit-Koordinator haben können. Ändern Sie sie entweder in "unity-catalog", indem Sie ausführen spark.conf.set("<coordinatorNameDefaultKey>", "unity-catalog"), oder entfernen Sie alle Coordinated Commits-Tabelleneigenschaften aus den SparkSession-Konfigurationen, indem Sie den Befehl ausführen spark.conf.unset("<coordinatorNameDefaultKey>"), spark.conf.unset("<coordinatorConfDefaultKey>"), spark.conf.unset("<tableConfDefaultKey>"), und wiederholen Sie dann den Befehl erneut.
DELTA_NON_UC_MANAGED_TABLE_UPGRADE_OR_DOWNGRADE_NOT_SUPPORTED
Tabelle <tableName> ist nicht UC-verwaltet. Nur von UC verwaltete Tabellen können auf katalogverwaltete Tabellen aktualisiert oder herabgestuft werden.
DELTA_NOT_A_DATABRICKS_DELTA_TABLE
<table> ist keine Delta-Tabelle. Löschen Sie bitte zuerst diese Tabelle, wenn Sie sie mit Databricks Delta erstellen möchten.
DELTA_NOT_A_DELTA_TABLE
<tableName> ist keine Delta-Tabelle. Bitte legen Sie diese Tabelle zuerst ab, wenn Sie sie mit Delta Lake neu erstellen möchten.
DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT
Eine Spalte, die keine Nullwerte zulässt, wurde in der Struktur: <struct> gefunden.
DELTA_NOT_NULL_CONSTRAINT_VIOLATED
Verstoß gegeben NOT NULL-Einschränkung für Spalte: <columnName>.
DELTA_NOT_NULL_NESTED_FIELD
Ein geschachteltes Feld, das keine Nullwerte zulässt, kann nicht zu einem übergeordneten Element hinzugefügt werden, dass Nullwerte zulässt. Legen Sie die Nullierbarkeit der übergeordneten Spalte entsprechend fest.
DELTA_NO_COMMITS_FOUND
Keine Commits gefunden bei <logPath>.
DELTA_NO_RECREATABLE_HISTORY_FOUND
Es wurden keine reproduzierbaren Commits bei <logPath> gefunden.
DELTA_NO_REDIRECT_RULES_VIOLATED
Vorgang nicht zulässig: <operation> kann für eine Tabelle mit Umleitungsfunktion nicht ausgeführt werden.
Die Regeln für keine Umleitung werden nicht erfüllt <noRedirectRules>.
DELTA_NO_RELATION_TABLE
Tabelle <tableIdent> nicht gefunden.
DELTA_NO_START_FOR_CDC_READ
Weder „startingVersion“ noch „startTimestamp“ für CDC-Lesezugriff bereitgestellt.
DELTA_NULL_SCHEMA_IN_STREAMING_WRITE
Delta akzeptiert nullTypes im Schema für Streaming-Schreibvorgänge nicht.
DELTA_ONEOF_IN_TIMETRAVEL
Geben Sie entweder "timestampAsOf" oder "versionAsOf" für Zeitreisen an.
DELTA_ONLY_OPERATION
<operation> wird nur für Delta-Tabellen unterstützt.
DELTA_OPERATION_MISSING_PATH
Geben Sie den Pfad oder die Tabellen-ID für <operation>an.
DELTA_OPERATION_NOT_ALLOWED
Vorgang nicht zulässig: <operation> Wird für Delta-Tabellen nicht unterstützt.
DELTA_OPERATION_NOT_ALLOWED_DETAIL
Vorgang nicht zulässig: <operation> wird für Delta-Tabellen: <tableName> nicht unterstützt.
DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION
<operation> wird für Spalte <colName> mit nicht standardmäßiger Sortierung <collation> nicht unterstützt.
DELTA_OPERATION_NOT_SUPPORTED_FOR_DATATYPES
<operation> wird für Datentypen nicht unterstützt: <dataTypeList>.
DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION
<operation> wird für Ausdrücke <exprText> nicht unterstützt, da sie nicht standardmäßige Sortierung verwendet.
DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED
Der <operation>-Befehl, der sich auf eine temporäre Ansicht bezieht und auf eine Delta-Tabelle mit generierten Spalten verweist, wird nicht unterstützt. Führen Sie den <operation> Befehl in der Delta-Tabelle direkt aus.
DELTA_OPERATION_ON_VIEW_NOT_ALLOWED
Vorgang nicht zulässig: <operation> kann nicht auf einer Ansicht ausgeführt werden.
DELTA_OPTIMIZE_FULL_NOT_SUPPORTED
OPTIMIZE FULL wird nur für gruppierte Tabellen mit nicht leeren Clusterspalten unterstützt.
DELTA_OVERWRITE_MUST_BE_TRUE
Die Kopieroption overwriteSchema kann nicht angegeben werden, ohne OVERWRITE auf 'true' zu setzen.
DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE
'overwriteSchema' kann nicht im Modus für dynamische Partitionsüberschreibung verwendet werden.
DELTA_PARTITION_COLUMN_CAST_FAILED
Fehler beim Umwandeln des Werts <value> in <dataType> für die Partitionsspalte <columnName>.
DELTA_PARTITION_COLUMN_NOT_FOUND
Die Partitionsspalte <columnName> wurde im Schema [<schemaMap>] nicht gefunden.
DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES
Das Partitionsschema kann beim Konvertieren von Apache Iceberg-Tabellen nicht angegeben werden. Sie wird automatisch abgeleitet.
DELTA_PATH_BASED_ACCESS_TO_CATALOG_MANAGED_TABLE_BLOCKED
Pfadbasierter Zugriff ist für Catalog-Managed Tabelle nicht zulässig: <path>. Bitte greifen Sie über ihren Namen auf die Tabelle zu, und versuchen Sie es erneut.
DELTA_PFAD_BASIERTER_ZUGRIFF_AUF_TABELLE_BLOCKIERT
Die Tabelle unter <path> '' wurde zu einer verwalteten Unity-Katalog-Tabelle migriert und kann nicht mehr über den Pfad zugegriffen werden. Aktualisieren Sie den Client, um auf die Tabelle anhand des Namens zuzugreifen.
DELTA_PATH_DOES_NOT_EXIST
<path> ist nicht vorhanden oder ist keine Delta-Tabelle.
DELTA_PATH_EXISTS
Es kann nicht in den bereits vorhandenen Pfad <path> geschrieben werden, ohne OVERWRITE = 'true' festzulegen.
DELTA_POST_COMMIT_HOOK_FAILED
Das Committen in der Delta-Tabellenversion <version> war erfolgreich, beim Ausführen des Hooks <name> <message> nach dem Commit ist jedoch ein Fehler aufgetreten
DELTA_PROTOCOL_CHANGED
ProtocolChangedException: Die Protokollversion der Delta-Tabelle wurde durch ein gleichzeitiges Update geändert. <additionalInfo> <conflictingCommit>
Weitere Informationen finden Sie unter <docLink>.
DELTA_PROTOCOL_PROPERTY_NOT_INT
Die Protokolleigenschaft <key> muss eine ganze Zahl sein. Es wurde <value> gefunden.
DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE
Es ist nicht möglich, nur die Version des Leseprotokolls zu aktualisieren, um Tabellenfunktionen zu verwenden. Die Writer-Protokollversion muss mindestens <writerVersion> sein, um fortzufahren. Weitere Informationen zu Tabellenprotokollversionen finden Sie unter <docLink>.
DELTA_READ_TABLE_WITHOUT_COLUMNS
Sie versuchen, eine Delta-Tabelle <tableName> zu lesen, die keine Spalten enthält.
Schreiben Sie einige neue Daten mit der Option mergeSchema = true, um die Tabelle lesen zu können.
DELTA_READ_TIME_CDC_NOT_SUPPORTED_FOR_TABLES_WITH_ACCESS_POLICIES
Sie versuchen, "Datenfeed ändern" zu berechnen, für <tableName> den Zugriffsrichtlinien definiert sind. Lesezeitänderungsdatenfeed befindet sich derzeit in der Vorschau und unterstützt CDF für Tabellen mit Zugriffsrichtlinien nicht. Aktivieren Sie das leseoptimierte CDF, indem Sie die Tabelleneigenschaft "" auf "<cdfTableProperty>true" in der Tabelle festlegen.
DELTA_REDIRECT_TARGET_ROW_FILTER_COLUMN_MASK_UNSUPPORTED
Die Umleitung zu einer Tabelle mit Zeilenfilter oder Spaltenformat wird nicht unterstützt. Aktualisieren Sie Ihren Code, um direkt auf die Zieltabelle <tableIdent> zu verweisen.
DELTA_REGEX_OPT_SYNTAX_ERROR
Überprüfen Sie ihre Syntax erneut auf "<regExpOption>".
DELTA_RELATION_PATH_MISMATCH
Beziehungspfad '<relation>' stimmt nicht mit dem Pfad von <targetType> '<targetPath>' überein.
DELTA_REORG_MATERIALIZATION_NOT_SUPPORTED_ON_UNPARTITIONED_TABLE
Liquid Conversion using reorg command is not supported on an unpartitioned table.
DELTA_REORG_PARTITION_MATERIALIZATION_CONFLICT
Spalten können nicht <action> partitionieren.
<instruction> Partitionsspaltenmaterialisierung durch Festlegen der Tabelleneigenschaft '<tableProperty>' auf <value> oder die SQL-Konfiguration '<sqlConfig>' auf <value>.
DELTA_REORG_UNKNOWN_MODE
Unbekannter REORG TABLE Modus: <mode>.
DELTA_REPLACE_WHERE_IN_OVERWRITE
Sie können „replaceWhere“ nicht in Verbindung mit einer Überschreibung durch einen Filter verwenden.
DELTA_REPLACE_WHERE_MISMATCH
Die geschriebenen Daten entsprechen nicht der Bedingung zum Überschreiben der partiellen Tabelle oder der Einschränkung „<replaceWhere>“.
<message>
DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE
Ein „replaceWhere“-Ausdruck und „partitionOverwriteMode’=’dynamic“ können nicht beide in den DataFrameWriter-Optionen festgelegt werden.
DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET
'replaceWhere' kann nicht mit Datenfiltern verwendet werden, wenn 'dataChange' auf "false" festgelegt ist. Filter: <dataFilters>.
DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS
Zeilen-IDs ohne Zeilenzählungsstatistiken können nicht zugewiesen werden.
Sammeln Sie Statistiken für die Tabelle, indem Sie den ANALYZE TABLE Befehl ausführen:
ANALYZE TABLE Tabellenname COMPUTE DELTA STATISTICS
DELTA-Reihenverfolgung: Backfill läuft gleichzeitig mit Nicht-Backfill
Ein Aktivierungsvorgang für die Zeilenverfolgung wurde erkannt, der gleichzeitig mit einer Deaktivierung der Zeilenverfolgung ausgeführt wird. Abbrechen des Deaktivierungsvorgangs. Versuchen Sie den Deaktivierungsvorgang bei Bedarf erneut, wenn der Aktivierungsvorgang abgeschlossen ist.
DELTA_ROW_TRACKING_ILLEGAL_PROPERTY_COMBINATION
Ungültiger Tabellenstatus wurde erkannt. Tabelleneigenschaften <property1> und <property2> sind beide auf "true" festgelegt. Das Problem kann behoben werden, indem eine der beiden Tabelleneigenschaften deaktiviert wird.
Bitte wenden Sie sich an den Databricks-Support, um weitere Unterstützung zu erhalten.
DELTA_SCHEMA_CHANGED
Schemaänderung erkannt:
Streamingquellenschema: <readSchema>
Datendateischema: <dataSchema>
Versuchen Sie, die Abfrage neu zu starten. Wenn sich dieses Problem über Abfrageneustarts hinweg wiederholt, ohne
dass es Fortschritte gibt, haben Sie eine inkompatible Schemaänderung vorgenommen und müssen ihre
Abfragen von neuem auf eines neuen Prüfpunktverzeichnisses starten.
DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS
Schemaänderung in version <version>erkannt:
Streamingquellenschema: <readSchema>
Datendateischema: <dataSchema>
Versuchen Sie, die Abfrage neu zu starten. Wenn sich dieses Problem über Abfrageneustarts hinweg wiederholt, ohne
dass es Fortschritte gibt, haben Sie eine inkompatible Schemaänderung vorgenommen und müssen ihre
Abfragen von neuem auf eines neuen Prüfpunktverzeichnisses starten. Wenn das Problem weiterhin besteht,
Wenn Sie zu einem neuen Prüfpunktverzeichnis wechseln, müssen Sie möglicherweise das vorhandene Prüfpunktverzeichnis ändern.
Option für „startingVersion“ oder „startingTimestamp“ ändern, um ab einer neueren Version als
<version> mit einem neuen Prüfpunktverzeichnis.
DELTA_SCHEMA_CHANGED_WITH_VERSION
Schemaänderung in version <version>erkannt:
Streamingquellenschema: <readSchema>
Datendateischema: <dataSchema>
Versuchen Sie, die Abfrage neu zu starten. Wenn sich dieses Problem über Abfrageneustarts hinweg wiederholt, ohne
dass es Fortschritte gibt, haben Sie eine inkompatible Schemaänderung vorgenommen und müssen ihre
Abfragen von neuem auf eines neuen Prüfpunktverzeichnisses starten.
DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS
Das Schema Ihrer Delta-Tabelle hat sich seit Dem DataFrame nicht kompatibel geändert
oder ein DeltaTable-Objekt wurde erstellt. Bitte definieren Sie Das DataFrame- oder DeltaTable-Objekt neu.
Changes:
<schemaDiff> <legacyFlagMessage>
DELTA_SCHEMA_NOT_PROVIDED
Das Tabellenschema wird nicht bereitgestellt. Geben Sie das Schema (Spaltendefinition) der Tabelle bei Verwendung REPLACE der Tabelle an, und es AS SELECT wird keine Abfrage angegeben.
DELTA_SCHEMA_NOT_SET
Das Tabellenschema ist nicht festgelegt. Schreiben Sie Daten in das Schema, oder verwenden Sie CREATE TABLE, um das Schema festzulegen.
DELTA_SET_LOCATION_SCHEMA_MISMATCH
Das Schema des neuen Delta-Standorts unterscheidet sich vom aktuellen Tabellenschema.
ursprüngliches Schema:
<original>
Zielschema:
<destination>
Wenn dies eine beabsichtigte Änderung ist, können Sie diese Überprüfung deaktivieren, indem Sie Folgendes ausführen:
%%sql festlegen <config> = wahr
DELTA_SHALLOW_CLONE_FILE_NOT_FOUND
Datei <filePath>, auf die im Transaktionsprotokoll verwiesen wird, wurde nicht gefunden. Dies kann auftreten, wenn Daten manuell aus dem Dateisystem gelöscht wurden, anstatt die Tabelle DELETE Anweisung zu verwenden. Diese Tabelle scheint ein flacher Klon zu sein, wenn dies der Fall ist, kann dieser Fehler auftreten, wenn die ursprüngliche Tabelle, aus der diese Tabelle geklont wurde, eine Datei gelöscht hat, die der Klon noch verwendet. Wenn Klonen unabhängig von der ursprünglichen Tabelle sein sollen, verwenden Sie stattdessen einen DEEP-Klon.
DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY
Vordefinierte Eigenschaften, die mit <prefix> beginnen, können nicht geändert werden.
DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
Die Daten werden durch die Empfängereigenschaft <property> eingeschränkt, die nicht für den aktuellen Empfänger in der Sitzung gelten.
Weitere Details finden Sie unter DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED.
DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW
<operation> kann nicht in Delta-Sharing-Ansichten verwendet werden, die kontoübergreifend freigegeben sind.
DELTA_SHARING_INVALID_PROVIDER_AUTH
Ungültiger Authentifizierungstyp <authenticationType> für Anbieter <provider>.
DELTA_SHARING_INVALID_RECIPIENT_AUTH
Ungültiger Authentifizierungstyp <authenticationType> für empfänger <recipient>.
DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME
Ungültiger Name, um in einer Freigabe auf <type> zu verweisen. Sie können entweder den Namen von <type> innerhalb des Shares im Format [schema].[<type>] verwenden oder auch den ursprünglichen vollständigen Namen der Tabelle im Format [Katalog].[schema].[>typ>] verwenden.
Wenn Sie sich nicht sicher sind, welchen Namen Sie verwenden sollen, können Sie „SHOW ALL IN SHARE [Freigabe]“ ausführen und den Namen des zu entfernenden <type> ermitteln: Spalte „name“ ist der Name von <type> innerhalb der Freigabe, und Spalte „shared_object“ ist der ursprüngliche vollständige Name von <type>.
DELTA_SHARING_MAXIMUM_RECIPIENT_TOKENS_ÜBERSCHRITTEN
Es gibt mehr als zwei Tokens für den Empfänger <recipient>.
DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND
Empfängereigenschaft <property> ist nicht vorhanden.
RECIPIENT_TOKENSDELTA_SHARING__NOT_FOUND
Empfängertoken fehlen für Empfänger<recipient>.
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN
Nicht partitionierende Spalte(n) <badCols> für SHOW PARTITIONS angegeben.
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE
SHOW PARTITIONS ist für eine Tabelle, die nicht partitioniert ist, nicht zulässig: <tableName>.
DELTA_SHREDDED_WRITES_DISABLED
Der Vorgang kann nicht ausgeführt REORG APPLY(SHRED) werden, da geschredderte Schreibvorgänge deaktiviert sind.
DELTA_SHREDDING_TABLE_PROPERTY_DISABLED
Es wurde versucht, Shredded Variants zu schreiben, die Tabelle unterstützt jedoch keine zerkleinerten Schreibvorgänge. Erwägen Sie, die Tabelleneigenschaft enableVariantShredding auf "true" festzulegen.
DELTA_SOURCE_IGNORE_DELETE
Es wurden gelöschte Daten (z. B. <removedFile>) in der Streamingquelle der Version <version> erkannt. Dies wird derzeit nicht unterstützt. Wenn Sie Löschlöschungen ignorieren möchten, legen Sie die Option "ignoreDeletes" auf "true" fest. Die Quelltabelle finden Sie unter Pfad <dataPath>.
DELTA_SOURCE_TABLE_IGNORE_CHANGES
Es wurde ein Datenupdate (z. B. <file>) in der Quelltabelle in version <version>erkannt. Dies wird derzeit nicht unterstützt. Wenn dies regelmäßig geschieht und Sie bereit sind, Änderungen auszulassen, stellen Sie die Option "skipChangeCommits" auf "true" ein. Wenn die Datenaktualisierung berücksichtigt werden soll, starten Sie diese Abfrage mit einem neuen Prüfpunktverzeichnis neu oder führen Sie eine vollständige Aktualisierung durch, falls Sie die Lakeflow Spark Declarative Pipelines verwenden. Wenn Sie diese Änderungen bearbeiten müssen, wechseln Sie bitte zu MVs. Die Quelltabelle finden Sie unter Pfad <dataPath>.
DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET
Geben Sie entweder "<version>" oder "<timestamp>" an.
DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND
<statsType>-Statistik für Spalte in Parquet-Metadaten <columnPath> wurde nicht gefunden: .
DELTA_STATS_NOT_FOUND_IN_FILE
Statistiken wurden in Datei nicht gefunden: <filePath>. Führen Sie 'ANALYZE TABLE [tableName]' COMPUTE DELTA STATISTICSaus, um Statistiken zu berechnen.
DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION
Wir haben eine oder mehrere nicht additive Schemaänderungen (<opType>) zwischen Delta-Version <previousSchemaChangeVersion> und <currentSchemaChangeVersion> in der Delta-Streamingquelle erkannt.
Changes:
<columnChangeDetails>
Überprüfen Sie, ob Sie diese Schemaänderungen manuell an die Senkentabelle weitergeben möchten, bevor wir mit der Streamverarbeitung mithilfe des endgültigen Schemas in Version <currentSchemaChangeVersion> fortfahren.
Nachdem Sie das Schema der Senkentabelle behoben oder entschieden haben, dass keine Korrektur erforderlich ist, können Sie die folgenden Konfigurationen festlegen, um die Blockierung der nicht-additiven Schemaänderungen aufzuheben und die Datenstromverarbeitung fortzusetzen.
Mithilfe der Dataframe-Reader-Option(en):
Um die Blockierung für diesen bestimmten Stream nur für diese Reihe von Schemaänderungen aufzuheben:
<unblockChangeOptions>
So heben Sie die Blockierung für diesen bestimmten Datenstrom auf:
<unblockStreamOptions>
Verwenden von SQL-Konfigurationen:
Um die Blockierung für diesen bestimmten Stream nur für diese Reihe von Schemaänderungen aufzuheben:
<unblockChangeConfs>
So heben Sie die Blockierung für diesen bestimmten Datenstrom auf:
<unblockStreamConfs>
So heben Sie die Blockierung für alle Datenströme auf:
<unblockAllConfs>
DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT
Fehler beim Abrufen einer Delta-Protokollmomentaufnahme für die Startversion, als Schemaänderungen der Spaltenzuordnung überprüft wurden. Wählen Sie eine andere Startversion aus, oder erzwingen Sie die Aktivierung des Streaming-Lesevorgangs auf eigene Gefahr, indem Sie '<config>' auf 'true' festlegen.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE
Streaminglesevorgänge werden für Tabellen mit inkompatiblen Schemaänderungen (z. B. Umbenennen oder Ablegen oder Datentypänderungen) nicht unterstützt.
Weitere Informationen und mögliche nächste Schritte zur Behebung dieses Problems finden Sie in der Dokumentation unter <docLink>
Leseschema: <readSchema>. Inkompatibles Datenschema: <incompatibleSchema>.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG
Streaminglesevorgänge werden für Tabellen mit inkompatiblen Schemaänderungen (z. B. Umbenennen oder Ablegen oder Datentypänderungen) nicht unterstützt.
Stellen Sie eine 'schemaTrackingLocation' bereit, um die nicht-additive Schemaentwicklung für die Delta-Datenstromverarbeitung zu ermöglichen.
Weitere Informationen finden Sie unter <docLink>.
Leseschema: <readSchema>. Inkompatibles Datenschema: <incompatibleSchema>.
DELTA_STREAMING_METADATA_EVOLUTION
Das Schema, die Tabellenkonfiguration oder das Protokoll Ihrer Delta-Tabelle wurde während des Streamings geändert.
Das Schema- oder Metadatenverfolgungsprotokoll wurde aktualisiert.
Starten Sie den Datenstrom neu, um die Verarbeitung mithilfe der aktualisierten Metadaten fortzusetzen.
Aktualisiertes Schema: <schema>.
Aktualisierte Tabellenkonfigurationen: <config>.
Aktualisiertes Tabellenprotokoll: <protocol>
DELTA_STREAMING_SCHEMA_EVOLUTION_NICHT_UNTERSTÜTZTER_ZEILENFILTER_COLUMN_MASKS
Das Streamen aus der Quelltabelle <tableId> mit Schemanachverfolgung unterstützt keine Zeilenfilter oder Spaltenmasken.
Legen Sie die Zeilenfilter oder Spaltenmasken ab, oder deaktivieren Sie die Schemanachverfolgung.
DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT
Es wurde ein Konflikt mit dem Schemaspeicherort „<loc>“ beim Streaming aus der Tabelle oder der Tabelle unter „<table>“ entdeckt.
Ein anderer Datenstrom kann denselben Schemaspeicherort wiederverwenden, der nicht zulässig ist.
Geben Sie einen neuen eindeutigen schemaTrackingLocation Pfad oder streamingSourceTrackingId als Leseoption für einen der Datenströme aus dieser Tabelle an.
DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT
Der Schemaspeicherort „<schemaTrackingLocation>“ muss unter dem Prüfpunktspeicherort „<checkpointLocation>“ festgelegt werden.
DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED
Unvollständige Protokolldatei im Delta Streaming-Quellschemaprotokoll unter '<location>'.
Möglicherweise wurde das Schemaprotokoll beschädigt. Wählen Sie einen neuen Schemaspeicherort aus.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID
Eine inkompatible Delta-Tabellen-ID wurde erkannt, als versucht wurde, den Delta-Datenstrom zu lesen.
Persistente Tabellen-ID: <persistedId>, Tabellen-ID: <tableId>
Möglicherweise wurde das Schemaprotokoll wiederverwendet. Wählen Sie einen neuen Schemaspeicherort aus.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA
Es wurde ein inkompatibles Partitionsschema beim Lesen des Delta-Datenstroms erkannt.
Beibehaltenes Schema: <persistedSchema>, Delta-Partitionsschema: <partitionSchema>
Wählen Sie einen neuen Schemaspeicherort aus, um das Schemaprotokoll erneut zu initialisieren, wenn Sie das Partitionsschema der Tabelle kürzlich manuell geändert haben.
DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA
Wir konnten das Delta-Streamingquellschemaprotokoll nicht initialisieren, da
beim Bereitstellen eines Streamingbatches von der Tabellenversion <a> zu <b>eine inkompatible Schema- oder Protokolländerung erkannt wurde.
DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED
Fehler beim Analysieren des Schemas aus dem Delta-Streamingquellschemaprotokoll.
Möglicherweise wurde das Schemaprotokoll beschädigt. Wählen Sie einen neuen Schemaspeicherort aus.
DELTA_STREAMING_SINK_TRANSACTION_NOT_FOUND
In den letzten <versionLimit> Versionen wurde keine Transaktion für batch <batchId> in der Delta-Spüle gefunden.
DELTA_STREAMING_SKIP_OFFSETS_INVALID_OFFSET_RANGE
Ungültiger Offsetbereich für delta source range=[<startOffset>, <endOffset>). Korrigieren Sie diesen Offsetbereich, und versuchen Sie es erneut.
Weitere Informationen finden Sie unter DELTA_STREAMING_SKIP_OFFSETS_INVALID_OFFSET_RANGE
DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS
Die Änderungsdatenerfassung kann in der Tabelle nicht aktiviert werden. Die Tabelle enthält bereits
reservierte Spalten <columnList>, die
intern als Metadaten für den Änderungsdatenfeed der Tabelle verwendet werden. So aktivieren Sie
Ändern Sie den Datenfluss in der Tabelle, wenn Sie diese Spalten umbenennen oder löschen.
DELTA_TABLE_ALREADY_EXISTS
Tabelle <tableName> ist bereits vorhanden.
DELTA_TABLE_CONTAINS_RESERVED_CDC_COLUMNS
Der Datenfeed kann in der Tabelle nicht berechnet werden. Die Tabelle enthält reservierte Spaltennamen <columnList> , die als Ausgabespalten für den Datenfeed der Tabelle verwendet werden. Zum Berechnen des Änderungsdatenfeeds in der Tabelle benennen/ablegen Sie diese Spalten um.To compute Change Data Feed on the table rename/drop these columns.
DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF
DeltaTable.forPath unterstützt derzeit nur Hadoop-Konfigurationsschlüssel, die mit <allowedPrefixes> beginnen, aber <unsupportedOptions> bekommen.
DELTA_TABLE_ID_MISMATCH
Die Delta-Tabelle bei <tableLocation> wurde ersetzt, während dieser Befehl die Tabelle verwendet hat.
Die Tabellen-ID war <oldId>, ist aber jetzt <newId>.
Wiederholen Sie den aktuellen Befehl, um sicherzustellen, dass er eine konsistente Ansicht der Tabelle liest.
DELTA_TABLE_INVALID_REDIRECT_STATE_TRANSITION
Tabellenumleitungsstatus kann nicht aktualisiert werden: Ungültiger Zustandsübergang wurde versucht.
Die Delta-Tabelle '<table>' kann nicht von '<oldState>' in '<newState>' geändert werden.
DELTA_TABLE_INVALID_SET_UNSET_REDIRECT
SET oder UNSET für Umleitungseigenschaft in <table> nicht möglich: Die aktuelle Eigenschaft „<currentProperty>“ entspricht nicht der neuen Eigenschaft „<newProperty>“.
DELTA_TABLE_LOCATION_MISMATCH
Die Position der vorhandenen Tabelle <tableName> ist <existingTableLocation>. Sie stimmt nicht mit der angegebenen Position <tableLocation>überein.
DELTA_TABLE_NOT_FOUND
Die Delta-Tabelle <tableName> ist nicht vorhanden.
DELTA_TABLE_NOT_SUPPORTED_IN_OP
Tabelle wird in <operation> nicht unterstützt. Verwenden Sie stattdessen einen Pfad.
DELTA_TABLE_ONLY_OPERATION
<tableName> ist keine Delta-Tabelle.
<operation> wird nur für Delta-Tabellen unterstützt.
DELTA_TABLE_UNRECOGNIZED_REDIRECT_SPEC
Das Delta-Protokoll enthält die nicht erkannte Tabellenumleitungsspezifikation „<spec>“.
DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY
Das endgültige Schema der Zieltabelle ist leer.
DELTA_TIMESTAMP_EARLIER_THAN_COMMIT_RETENTION
Der angegebene Zeitstempel (<userTimestamp>) liegt vor der frühesten Version, die für
diese Tabelle (<commitTs>). Bitte verwenden Sie einen Zeitstempel nach <timestampString>.
DELTA_TIMESTAMP_GREATER_THAN_COMMIT
Der bereitgestellte Zeitstempel (<providedTimestamp>) liegt nach der aktuellen Version, die verfügbar ist für diese
Tabelle (<tableName>). Bitte verwenden Sie einen Zeitstempel vor oder bei <maximumTimestamp>.
DELTA_TIMESTAMP_INVALID
Der angegebene Zeitstempel (<expr>) kann nicht in einen gültigen Zeitstempel konvertiert werden.
DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE
<timeTravelKey> muss ein gültiger Anfangswert sein.
DELTA_TOO_MUCH_LISTING_MEMORY
Fehler beim Auflisten von Dateien (<numFiles>) in der Delta-Tabelle aufgrund unzureichendem Arbeitsspeicher. Erforderlicher Arbeitsspeicher: <estimatedMemory>, verfügbarer Arbeitsspeicher: <maxMemory>.
DELTA_TRUNCATED_TRANSACTION_LOG
<path>: Der Zustand kann in der Version <version> nicht rekonstruiert werden, da das Transaktionsprotokoll aufgrund manueller Löschung oder der Protokollaufbewahrungsrichtlinie (<logRetentionKey>=<logRetention>) und der Prüfpunktaufbewahrungsrichtlinie (<checkpointRetentionKey>=<checkpointRetention>) abgeschnitten wurde.
DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED
Vorgang nicht zulässig: TRUNCATE TABLE in Delta-Tabellen unterstützt keine Partitions-Prädikate; verwenden Sie DELETE, um bestimmte Partitionen oder Zeilen zu löschen.
DELTA_UDF_IN_CHECK_CONSTRAINT
In einer CHECK Einschränkung gefunden<expr>. Eine CHECK Einschränkung kann keine benutzerdefinierte Funktion verwenden.
DELTA_UDF_IN_GENERATED_COLUMN
Es wurde <udfExpr> gefunden. Eine generierte Spalte kann keine benutzerdefinierte Funktion verwenden.
DELTA_UNEXPECTED_ACTION_EXPRESSION
Unerwarteter Aktionsausdruck <expression>.
DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME
Es werden die <expectedColsSize>-Partitionsspalten <expectedCols> erwartet, es wurden jedoch <parsedColsSize>-Partitionsspalten <parsedCols> beim Parsen des Dateinamens <path> gefunden.
DELTA_UNEXPECTED_PARTIAL_SCAN
Es wurde ein vollständiger Scan der Delta-Quellen erwartet, aber nur ein Teilscan gefunden. Pfad: <path>.
DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME
Partitionsspalte <expectedCol>erwartet, die Partitionsspalte <parsedCol> wurde jedoch aus der Analyse des Dateinamens gefunden: <path>.
DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER
CONVERT TO DELTA wurde mit einem anderen Partitionsschema aufgerufen als dem, das aus dem Katalog abgeleitet wird. Bitte vermeiden Sie es, das Schema bereitzustellen, damit das Partitionsschema aus dem Katalog ausgewählt werden kann.
Katalogpartitionsschema:
<catalogPartitionSchema>
bereitgestelltes Partitionsschema:
<userPartitionSchema>
DELTA_UNIFORM_COMPATIBILITY_LOCATION_CANNOT_BE_CHANGED
delta.universalFormat.compatibility.location kann nicht geändert werden.
DELTA_UNIFORM_COMPATIBILITY_LOCATION_NOT_REGISTERED
delta.universalFormat.compatibility.location ist nicht im Katalog registriert.
DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
Fehlender oder ungültiger Speicherort für das Uniform-Kompatibilitätsformat. Legen Sie ein leeres Verzeichnis für delta.universalFormat.compatibility.location fest.
Fehlerursache:
Weitere Details finden Sie unter DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION.
DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
Das Lesen von Apache Iceberg mit Delta Uniform ist fehlgeschlagen.
Weitere Informationen finden Sie unter DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
DELTA_UNIFORM_INGRESS_AMBIGUOUS_FORMAT
Es werden mehrere Delta Uniform-Eingangsformate (<formats>) gefunden, höchstens kann eine festgelegt werden.
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED
Das Erstellen oder Aktualisieren einer einheitlichen Eingangstabelle wird nicht unterstützt.
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT
Format<fileFormat> wird nicht unterstützt. Nur Apache Iceberg und Hudi als originales Dateiformat werden unterstützt.
DELTA_UNIFORM_INGRESS_VIOLATION
Fehler beim Lesen von Delta UniForm:
Weitere Informationen finden Sie unter DELTA_UNIFORM_INGRESS_VIOLATION.
DELTA_UNIFORM_NOT_SUPPORTED
Universelles Format wird nur in Unity-Katalogtabellen unterstützt.
DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT
REFRESH TABLE mit ungültigem Argument:
Weitere Informationen finden Sie unter DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
REFRESH Bezeichner SYNC UNIFORM wird aus einem Grund nicht unterstützt:
Weitere Details finden Sie unter DELTA_UNIFORM_REFRESH_NOT_SUPPORTED.
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED_FOR_MANAGED_ICEBERG_TABLE_WITH_METADATA_PATH
REFRESH TABLE mit METADATA_PATH wird nicht für verwaltete Apache-Iceberg-Tabellen unterstützt.
DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED
Fehler beim Konvertieren der Tabellenversion <version> in das universelle Format <format>. <message>
DELTA_UNIVERSAL_FORMAT_VIOLATION
Die Überprüfung des universellen Formats (<format>) ist fehlgeschlagen: <violation>.
DELTA_UNKNOWN_CONFIGURATION
Unbekannte Konfiguration wurde angegeben: <config>.
Um diese Überprüfung zu deaktivieren, legen Sie <disableCheckConfig>in der Spark-Sitzungskonfiguration "=true" fest.
DELTA_UNKNOWN_PRIVILEGE
Unbekannte Berechtigungen: <privilege>.
DELTA_UNKNOWN_READ_LIMIT
Unbekanntes Leselimit: <limit>.
DELTA_UNRECOGNIZED_COLUMN_CHANGE
Nicht erkannte Spaltenänderung <otherClass>. Möglicherweise führen Sie eine veraltete Delta Lake-Version aus.
DELTA_UNRECOGNIZED_INVARIANT
Nicht erkannte Invariante. Bitte aktualisieren Sie Ihre Spark-Version.
DELTA_UNRECOGNIZED_LOGFILE
Nicht erkannte Protokolldatei <filename>.
DELTA_UNSET_NON_EXISTENT_PROPERTY
Es wurde versucht, eine nicht vorhandene Eigenschaft '<property>' in der Tabelle <tableName> zu entfernen.
DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE
<path> unterstützt das Hinzufügen von Dateien mit einem absoluten Pfad nicht.
DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP
ALTER TABLE CHANGE COLUMN wird für das Ändern der Spalte <fieldPath> von <oldField> zu " <newField>nicht unterstützt.
DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP
Nicht unterstützter ALTER TABLE REPLACE COLUMNS-Vorgang. Grund: <details>
Fehler beim Ändern des Schemas von:
<oldSchema>
to:
<newSchema>
DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE
Sie haben versucht, mit dem Vorgang REPLACE eine vorhandene Tabelle (<tableName>) durch CLONE zu ersetzen. Dieser Vorgang wird
unsupported. Probieren Sie ein anderes Ziel für CLONE aus, oder löschen Sie die Tabelle am aktuellen Ziel.
DELTA_UNSUPPORTED_CLUSTERING_COLUMN_PREDICATES
OPTIMIZE
...
FULL WHERE Der Befehl für Liquid-Tabellen unterstützt die bereitgestellten Prädikate nicht:
Weitere Informationen finden Sie unter DELTA_UNSUPPORTED_CLUSTERING_COLUMN_PREDICATES
DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE
Das Ändern des Spaltenzuordnungsmodus von "<oldMode>" in "<newMode>" wird nicht unterstützt.
DELTA_UNSUPPORTED_COLUMN_MAPPING_OPERATIONS_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX
Fehler beim Ausführen des Spaltenzuordnungsvorgangs <opName> für Spalte(n) <quotedColumnNames>
da diese Spalte(n) über Bloom-Filter-Index(e) verfügen.
Wenn Sie den Spaltenzuordnungsvorgang für Spalte(n)
mit Bloom-Filterindex ausführen möchten,
Bitte entfernen Sie zuerst den/die Bloom Filter Index/Indizes:
DROP BLOOMFILTER INDEX ON TABLE Tabellenname FOR COLUMNS(<columnNames>)
Wenn Sie stattdessen alle Bloom-Filterindizes in der Tabelle entfernen möchten, verwenden Sie Folgendes:
DROP BLOOMFILTER INDEX ON TABLE TabellenName
DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL
Die aktuelle Tabellenprotokollversion unterstützt das Ändern von Spaltenzuordnungsmodi nicht.
mittels <config>.
Erforderliche Delta-Protokollversion für die Spaltenzuordnung:
<requiredVersion>
Die aktuelle Delta-Protokollversion Ihrer Tabelle:
<currentVersion>
<advice>
DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE
Schemaänderung wird erkannt:
altes Schema:
<oldTableSchema>
neues Schema:
<newTableSchema>
Schemaänderungen sind während der Änderung des Spaltenzuordnungsmodus nicht zulässig.
DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE
Das Schreiben von Daten mit dem Spaltenzuordnungsmodus wird nicht unterstützt.
DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER
Das Erstellen eines Bloom-Filterindex für eine Spalte mit Typ <dataType> wird nicht unterstützt: <columnName>.
DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY
Ein Kommentar kann nicht zu <fieldPath> hinzugefügt werden. Das Hinzufügen eines Kommentars zu einem Kartenschlüssel/Wert oder Arrayelement wird nicht unterstützt.
DELTA_UNSUPPORTED_DATA_TYPES
Spalten mit nicht unterstützten Datentypen gefunden: <dataTypeList>. Sie können '<config>' auf 'false' festlegen, um die Typüberprüfung zu deaktivieren. Die Deaktivierung dieser Typüberprüfung kann es Benutzern ermöglichen, nicht unterstützte Delta-Tabellen zu erstellen, und sollte nur erfolgen, wenn versucht wird, Legacytabellen zu lesen oder zu schreiben.
DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN
<dataType> kann nicht das Ergebnis einer generierten Spalte sein.
DELTA_UNSUPPORTED_DEEP_CLONE
Deep Clone wird von dieser Delta-Version nicht unterstützt.
DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW
<view> ist eine Ansicht.
DESCRIBE DETAIL wird nur für Tabellen unterstützt.
DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN
Das Ablegen von Clusteringspalten (<columnList>) ist nicht zulässig.
DELTA_UNSUPPORTED_DROP_COLUMN
DROP COLUMN wird für Ihre Delta-Tabelle nicht unterstützt. <advice>
DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE
Geschachtelte Spalten können nur von StructType abgelegt werden. Es wurde <struct> gefunden.
DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN
Das Entfernen von Partitionsspalten (<columnList>) ist nicht zulässig.
DELTA_UNSUPPORTED_EXPRESSION
Nicht unterstützter Ausdruckstyp(<expType>) für <causedBy>. Die unterstützten Typen sind [<supportedTypes>].
DELTA_UNSUPPORTED_EXPRESSION_CHECK_CONSTRAINT
In einer CHECK Einschränkung gefunden<expression>.
<expression> kann nicht in einer CHECK Einschränkung verwendet werden.
DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
<expression> kann nicht in einer generierten Spalte verwendet werden.
DELTA_UNSUPPORTED_FEATURES_FOR_READ
Nicht unterstützte Delta-Lesefunktion: Tabelle "<tableNameOrPath>" erfordert Lesetabellenfeatures, die von dieser Version von Databricks nicht unterstützt werden: <unsupported>. Weitere Informationen zur Featurekompatibilität von Delta Lake finden Sie unter <link>.
DELTA_UNSUPPORTED_FEATURES_FOR_WRITE
Nicht unterstützte Delta-Schreibfunktion: Tabelle "<tableNameOrPath>" erfordert Writer-Tabellenfeatures, die von dieser Version von Databricks nicht unterstützt werden: <unsupported>. Weitere Informationen zur Featurekompatibilität von Delta Lake finden Sie unter <link>.
DELTA_UNSUPPORTED_FEATURES_IN_CONFIG
In den folgenden Spark-Konfigurationen oder Delta-Tabelleneigenschaften konfigurierte Tabellenfunktionen werden von dieser Version von Databricks nicht erkannt: <configs>.
DELTA_UNSUPPORTED_FEATURE_STATUS
Es wird erwartet, dass der Status für das Tabellenfeature <feature> „supported“ lautet, er lautet aber <status>.
DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT
Das Aktualisieren geschachtelter Felder wird nur für StructType unterstützt, aber Sie versuchen, ein Feld von <columnName>zu aktualisieren, dessen Typ: <dataType>ist.
DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS
Der Befehl "FSCK REPAIR TABLE" wird für Tabellenversionen mit fehlenden Vektordateien für Löschvorgänge nicht unterstützt.
Wenden Sie sich an den Support.
DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS
Der Befehl 'GENERATE symlink_format_manifest' wird für Tabellenversionen mit Vektoren zum Löschen nicht unterstützt.
Um eine Version der Tabelle ohne Vektoren zum Löschen zu erstellen, führen Sie "TabelleAPPLY (PURGE)"REORG TABLE aus. Führen Sie dann den Befehl 'GENERATE' erneut aus.
Stellen Sie sicher, dass zwischen REORG und GENERATEkeine gleichzeitigen Transaktionen erneut Löschvektoren hinzufügen.
Wenn Sie Manifeste regelmäßig generieren müssen oder nicht gleichzeitige Transaktionen verhindern können, erwägen Sie das Deaktivieren von Löschvektoren in dieser Tabelle unter Verwendung von "ALTER TABLE Tabelle SET TBLPROPERTIES (delta.enableDeletionVectors = false)".
DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT
Invarianten in geschachtelten Feldern außer StructTypes werden nicht unterstützt.
DELTA_UNSUPPORTED_IN_SUBQUERY
Die IN-Unterabfrage wird in der <operation>-Bedingung nicht unterstützt.
DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX
listKeywithPrefix nicht verfügbar.
DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING
Die Manifestgenerierung wird für Tabellen, die die Spaltenzuordnung nutzen, nicht unterstützt, da externe Leser diese Delta-Tabellen nicht lesen können. Weitere Details finden Sie in der Delta-Dokumentation.
DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC
MERGE INTO-Vorgänge mit Schemaentwicklung unterstützen derzeit nicht das Schreiben von CDC-Ausgaben.
DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE
Mehrspaltige IN-Prädikate werden in der <operation>-Bedingung nicht unterstützt.
DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER
Das Erstellen eines Bloomfilterindexes in einer geschachtelten Spalte wird derzeit nicht unterstützt: <columnName>.
DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION
Geschachteltes Feld wird im <operation> (Feld = <fieldName>) nicht unterstützt.
DELTA_UNSUPPORTED_NON_EMPTY_CLONE
Die Klonzieltabelle ist nicht leer.
TRUNCATE oder DELETE FROM Sie die Tabelle, bevor Sie CLONE ausführen.
DELTA_UNSUPPORTED_OUTPUT_MODE
Die Datenquelle <dataSource> unterstützt den Ausgabemodus <mode> nicht.
DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER
Das Erstellen eines Bloomfilterindexes für eine Partitionierungsspalte wird nicht unterstützt: <columnName>.
DELTA_UNSUPPORTED_RENAME_COLUMN
Spaltenumbenennung wird für Ihre Delta-Tabelle nicht unterstützt. <advice>
DELTA_UNSUPPORTED_SCHEMA_DURING_READ
Delta unterstützt die Angabe des Schemas zur Lesezeit nicht.
DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES
SORTED BY wird für Delta-gebündelte Tabellen nicht unterstützt.
DELTA_UNSUPPORTED_SOURCE
Das <operation>-Ziel unterstützt nur Delta-Quellen.
<plan>
DELTA_UNSUPPORTED_STATIC_PARTITIONS
Das Angeben statischer Partitionen in der Partitionsspezifikation wird derzeit während der Einfügungen nicht unterstützt.
DELTA_UNSUPPORTED_STRATEGY_NAME
Nicht unterstützter Strategiename: <strategy>.
DELTA_UNSUPPORTED_SUBQUERY
Unterabfragen werden in der <operation> (Bedingung = <cond>) nicht unterstützt.
DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES
Unterabfragen werden in Partitionsprädikaten nicht unterstützt.
DELTA_UNTERSTÜTZTE_ZEITREISE_JENSEITS_DER_GELÖSCHTEN_DATEIAUFBEWAHRUNGSDATUM
Zeitreiseoperationen können nicht über die delta.deletedFileRetentionDuration (<deletedFileRetention> HOURS) hinausgehen, die für die Tabelle festgelegt ist.
DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS
Zeitreisen können nicht in mehreren Formaten spezifiziert werden.
DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS
Zeitreisen für Ansichten, Unterabfragen, Streams oder Änderungsdatenfeedabfragen sind nicht möglich.
DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES
Abschneiden von Beispieltabellen wird nicht unterstützt.
DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA
Diese Tabelle kann nicht ausgeführt werden, da eine nicht unterstützte Typänderung angewendet wurde. Feld-<fieldName> wurde von <fromType> in <toType>geändert.
DELTA_UNSUPPORTED_TYPE_CHANGE_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX
Fehler beim Ändern des Datentyps der Spalte(n) <quotedColumnNames>
da diese Spalten Bloom-Filterindizes aufweisen.
Wenn Sie den Datentyp von Spalten mit Bloom Filter Index(es) ändern möchten,
Bitte entfernen Sie zuerst den/die Bloom Filter Index/Indizes:
DROP BLOOMFILTER INDEX ON TABLE Tabellenname FOR COLUMNS(<columnNames>)
Wenn Sie stattdessen alle Bloom-Filterindizes in der Tabelle entfernen möchten, verwenden Sie Folgendes:
DROP BLOOMFILTER INDEX ON TABLE TabellenName
DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION
Geben Sie den Basispfad (<baseDeltaPath>) beim Vakuumieren von Delta-Tabellen an. Das Vakuumieren bestimmter Partitionen wird derzeit nicht unterstützt.
DELTA_UNSUPPORTED_WRITES_STAGED_TABLE
Die Tabellenimplementierung unterstützt keine Schreibvorgänge: <tableName>.
DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR
Sie versuchen, Schreibvorgänge für eine Tabelle durchzuführen, die beim Commit-Koordinator <coordinatorName>registriert wurde. In der aktuellen Umgebung ist jedoch keine Implementierung dieses Koordinators verfügbar und Schreibvorgänge ohne Koordinatoren sind nicht zulässig.
DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES
Schreiben in Beispieltabellen wird nicht unterstützt.
DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION
<fromCatalog> kann nicht in <toCatalog>umgestellt werden. Alle geschachtelten Spalten müssen übereinstimmen.
DELTA_V2_CHECKPOINTS_REQUIRED_FOR_OPERATION
CHECKPOINT der Vorgang erfordert, dass V2-Prüfpunkte in der Tabelle aktiviert werden.
DELTA_VACUUM_COPY_INTO_STATE_FAILED
VACUUM für Datendateien war erfolgreich, aber COPY INTO Zustands-GC ist fehlgeschlagen.
DELTA_VERSIONS_NOT_CONTIGUOUS
Versionen (<versionList>) sind nicht zusammenhängend.
Beim Versuch, Version <startVersion> zu laden, wurde eine Lücke im Deltaprotokoll zwischen Version <endVersion> und <versionToLoad> erkannt.
Weitere Details finden Sie unter DELTA_VERSIONS_NOT_CONTIGUOUS.
DELTA_VERSION_INVALID
Die angegebene Version (<version>) ist keine gültige Version.
DELTA_VERSION_NOT_FOUND
Die Delta-Tabelle kann nicht in die Version <userVersion>reisen. Verfügbare Versionen: [<earliest>, <latest>].
DELTA_VIOLATE_CONSTRAINT_WITH_VALUES
Verstoß gegen CHECK-Einschränkung <constraintName> <expression> durch Zeile mit Werten:
<values>.
DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
Die Validierung der Eigenschaften der Tabelle <table> wurde verletzt:
Weitere Details finden Sie unter DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED.
DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED
<viewIdentifier> ist eine Ansicht. Sie dürfen keine Daten in eine Ansicht schreiben.
DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST
Die Spalte "Z-Sortierung" <columnName> ist im Datenschema nicht vorhanden.
DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS
Z-Order on <cols> ist unwirksam, da wir derzeit keine Statistiken für diese Spalten sammeln. Weitere Informationen zum Überspringen von Daten und zur Z-Sortierung finden Sie unter <link> . Sie können diese Überprüfung deaktivieren, indem Sie eine Einstellung ändern.
SET <zorderColStatKey> = falsch
DELTA_ZORDERING_ON_PARTITION_COLUMN
<colName> ist eine Partitionsspalte. Z-Sortierung kann nur für Datenspalten ausgeführt werden.
Delta-Sharing
DELTA_SHARING_ACTIVATION_NONCE_DOES_NOT_EXIST
SQLSTATE: nicht zugewiesen
Aktivierungsnonce nicht gefunden. Der verwendete Aktivierungslink ist ungültig oder abgelaufen. Generieren Sie den Aktivierungslink neu, und versuchen Sie es erneut.
DELTA_SHARING_CROSS_REGION_SHARE_UNSUPPORTED
SQLSTATE: nicht zugewiesen
Die Freigabe zwischen <regionHint>-Regionen und Regionen außerhalb davon wird nicht unterstützt.
DELTA_SHARING_GET_RECIPIENT_PROPERTIES_INVALID_DEPENDENT
SQLSTATE: nicht zugewiesen
Die mit der current_recipient-Funktion definierte Ansicht dient nur der gemeinsamen Nutzung und kann nur von der Datenempfängerseite abgefragt werden. Das bereitgestellte Securable mit der ID <securableId> ist keine Delta Sharing View.
DELTA_SHARING_MUTABLE_SECURABLE_KIND_NOT_SUPPORTED
SQLSTATE: nicht zugewiesen
Die bereitgestellte sicherungsfähige Art <securableKind> unterstützt keine Veränderlichkeit bei Delta-Freigaben.
DELTA_SHARING_ROTATE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE
SQLSTATE: nicht zugewiesen
Die bereitgestellte sicherungsfähige Art <securableKind> unterstützt keine Tokenrotationsaktion, die vom Marketplace-Dienst initiiert wird.
DS_AUTH_TYPE_NOT_AVAILABLE
SQLSTATE: nicht zugewiesen
<dsError>: Authentifizierungstyp ist in der Anbieterentität <providerEntity>nicht verfügbar.
DS_CDF_NOT_ENABLED
SQLSTATE: nicht zugewiesen
<dsError>: Der Zugriff auf den Änderungsdaten-Feed für <tableName>ist nicht möglich. CDF ist für die ursprüngliche Delta-Tabelle für die Version <version> nicht aktiviert. Wenden Sie sich bitte an Ihren Datenanbieter.
DS_CDF_NOT_SHARED
SQLSTATE: nicht zugewiesen
<dsError>: Der Zugriff auf den Änderungsdaten-Feed für <tableName>ist nicht möglich. CDF ist für die Tabelle nicht freigegeben. Wenden Sie sich bitte an Ihren Datenanbieter.
DS_CDF_RPC_INVALID_PARAMETER
SQLSTATE: nicht zugewiesen
<dsError>: <message>
DS_CLIENT_AUTH_ERROR_FOR_DB_DS_SERVER
SQLSTATE: nicht zugewiesen
<dsError>: <message>
DS_CLIENT_ERROR_FOR_DB_DS_SERVER
SQLSTATE: nicht zugewiesen
<dsError>: <message>
DS_CLIENT_OAUTH_TOKEN_EXCHANGE_FAILURE
SQLSTATE: nicht zugewiesen
<dsError>: <message>
DS_CLIENT_OAUTH_TOKEN_EXCHANGE_UNAUTHORIZED
SQLSTATE: nicht zugewiesen
<dsError>: <message>
DS_CLOUD_VENDOR_UNAVAILABLE
SQLSTATE: nicht zugewiesen
<dsError>: Der Cloudanbieter ist vorübergehend für <rpcName>nicht verfügbar, versuchen Sie es erneut.<traceId>
DS_DATA_MATERIALIZATION_COMMAND_FAILED
SQLSTATE: nicht zugewiesen
<dsError>: Bei der Ausführung der Datenmaterialisierungsaufgabe <runId> von Organisation <orgId> ist bei Befehl <command> ein Fehler aufgetreten.
DS_DATA_MATERIALIZATION_COMMAND_NOT_SUPPORTED
SQLSTATE: nicht zugewiesen
<dsError>: Die Ausführung der Datenmaterialisierungsaufgabe <runId> von Organisation <orgId> unterstützt den Befehl <command> nicht.
DS_DATA_MATERIALIZATION_NOT_SUPPORTED_WITHOUT_SERVERLESS
SQLSTATE: nicht zugewiesen
<dsError>: <featureName> wird nicht unterstützt, da Serverless im Anbieterarbeitsbereich nicht unterstützt oder aktiviert ist. Wenden Sie sich an Ihren Datenanbieter, um serverlos zu aktivieren.
DS_DATA_MATERIALIZATION_NO_VALID_NAMESPACE
SQLSTATE: nicht zugewiesen
<dsError>: Der gültige Namespace zum Erstellen der Materialisierung für <tableName>konnte nicht gefunden werden. Wenden Sie sich an Ihren Datenanbieter, um dies zu beheben.
DS_DATA_MATERIALIZATION_RECIPIENT_MISSING_WORKSPACE_ID
SQLSTATE: nicht zugewiesen
<dsError>: Es wurde kein geeigneter Arbeitsbereich gefunden, um gemeinsam genutzte Ressourcen zu materialisieren. Wenden Sie sich an Ihren Datenanbieter, um den Empfänger in einem Arbeitsbereich erneut zu erstellen, in dem schreibgeschützter Zugriff auf den Katalog der freigegebenen Ressource zulässig ist.
DS_DATA_MATERIALIZATION_RUN_DOES_NOT_EXIST
SQLSTATE: nicht zugewiesen
<dsError>: Die Ausführung der Datenmaterialisierungsaufgabe <runId> von Organisation <orgId> ist nicht vorhanden.
DS_DELTA_ILLEGAL_STATE
SQLSTATE: nicht zugewiesen
<dsError>: <message>
DS_DELTA_MISSING_CHECKPOINT_FILES
SQLSTATE: nicht zugewiesen
<dsError>: Es konnten nicht alle Teildateien der Prüfpunktversion gefunden werden: <version>. <suggestion>
DS_DELTA_NULL_POINTER
SQLSTATE: nicht zugewiesen
<dsError>: <message>
DS_DELTA_RUNTIME_EXCEPTION
SQLSTATE: nicht zugewiesen
<dsError>: <message>
DS_EXPIRE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE
SQLSTATE: nicht zugewiesen
<dsError> Die bereitgestellte sicherungsfähige Art <securableKind> unterstützt keine Tokenablaufaktion, die vom Marketplace-Dienst initiiert wird.
DS_FAILED_REQUEST_TO_OPEN_DS_SERVER
SQLSTATE: nicht zugewiesen
<dsError>: <message>
DS_FAILED_REQUEST_TO_SAP_DS_SERVER
SQLSTATE: nicht zugewiesen
<dsError>: <message>
DS_FEATURE_ONLY_FOR_DATABRICKS_TO_DATABRICKS
SQLSTATE: nicht zugewiesen
<dsError>: <feature> ist nur für die Databricks-zu-Databricks-Delta-Freigabe aktiviert.
DS_FILE_LISTING_EXCEPTION
SQLSTATE: nicht zugewiesen
<dsError>: : <storage><message>
DS_FILE_SIGNING_EXCEPTION
SQLSTATE: nicht zugewiesen
<dsError>: <message>
DS_FOREIGN_TABLE_METADATA_REFRESH_FAILED
SQLSTATE: nicht zugewiesen
<dsError>: <message>
DS_GATEKEEPER_DISABLED
SQLSTATE: nicht zugewiesen
<dsError>: Dieses Feature ist für das Konto deaktiviert. Wenden Sie sich bitte an Ihren Datenanbieter.
DS_HADOOP_CONFIG_NOT_SET
SQLSTATE: nicht zugewiesen
<dsError>: <key> wird vom Aufrufer nicht festgelegt.
DS_ILLEGAL_STATE
SQLSTATE: nicht zugewiesen
<dsError>: <message>
DS_INTERNAL_ERROR_FROM_DB_DS_SERVER
SQLSTATE: nicht zugewiesen
<dsError>: <message>
DS_INVALID_AZURE_PATH
SQLSTATE: nicht zugewiesen
<dsError>: Ungültiger Azure-Pfad: <path>.
DS_INVALID_DELTA_ACTION_OPERATION
SQLSTATE: nicht zugewiesen
<dsError>: <message>
DS_INVALID_FIELD
SQLSTATE: nicht zugewiesen
<dsError>: <message>
DS_INVALID_ITERATOR_OPERATION
SQLSTATE: nicht zugewiesen
<dsError>: <message>
DS_INVALID_PARAMETER_VALUE
SQLSTATE: nicht zugewiesen
<dsError>: Ungültiger Parameter für <rpcName> aufgrund von <cause>.
DS_INVALID_PARTITION_SPEC
SQLSTATE: nicht zugewiesen
<dsError>: <message>
DS_INVALID_RESPONSE_FROM_DS_SERVER
SQLSTATE: nicht zugewiesen
<dsError>: <message>
DS_MATERIALIZATION_QUERY_FAILED
SQLSTATE: nicht zugewiesen
<dsError>: Abfrage für <schema>fehlgeschlagen.
<table> aus Freigabe <share>.
DS_MATERIALIZATION_QUERY_TIMEDOUT
SQLSTATE: nicht zugewiesen
<dsError>: Zeitüberschreitung bei Abfrage für <schema>.
<table> von Freigabe <share> nach <timeoutInSec> Sekunden.
DS_MIGRATED_MANAGEMENT_API_AUFGERUFEN
SQLSTATE: nicht zugewiesen
<dsError>: Der UC RPC <rpcName> ist fehlgeschlagen.
DS_MISSING_IDEMPOTENCY_KEY
SQLSTATE: nicht zugewiesen
<dsError>: Der Idempotenzschlüssel ist erforderlich, wenn <schema> abgefragt wird.
<table> aus Freigabe <share> erforderlich.
DS_MISSING_SERVERLESS_BUDGET_POLICY
SQLSTATE: nicht zugewiesen
<dsError>: Der Vorgang verwendet Serverless bei den Databricks des Anbieters, aber die Freigabe hat keine serverlose Budgetrichtlinie. Wenden Sie sich an den Datenanbieter, um eine serverlose Budgetrichtlinie zur gemeinsamen Nutzung hinzuzufügen.
DS_MORE_THAN_ONE_RPC_PARAMETER_SET
SQLSTATE: nicht zugewiesen
<dsError>: Bitte geben Sie nur einen davon an: <parameters>.
DS_NETWORK_CONNECTION_CLOSED
SQLSTATE: nicht zugewiesen
<dsError>: Netzwerkverbindung aufgrund von <rpcName> für <errorCause> geschlossen, versuchen Sie es erneut.<traceId>
DS_NETWORK_CONNECTION_TIMEOUT
SQLSTATE: nicht zugewiesen
<dsError>: Netzwerkverbindungstimeout aufgrund von <rpcName> für <errorCause>, versuchen Sie es erneut.<traceId>
DS_NETWORK_ERROR
SQLSTATE: nicht zugewiesen
<dsError>: Netzwerkfehler für <rpcName> aufgrund von <errorCause>, versuchen Sie es erneut.<traceId>
DS_NO_METASTORE_ASSIGNED
SQLSTATE: nicht zugewiesen
<dsError>: Kein Metaspeicher für den aktuellen Arbeitsbereich zugewiesen (workspaceId: <workspaceId>).
DS_O2D_OIDC_WORKLOAD_IDENTITY_TOKEN_GENERATION_FAILED
SQLSTATE: nicht zugewiesen
<dsError>: Fehler beim Generieren des Workload-Identitätstokens für den O2D-OIDC-Anbieter: <message>.
DS_PAGINATION_AND_QUERY_ARGS_MISMATCH
SQLSTATE: nicht zugewiesen
<dsError>: Nicht übereinstimmende Paginierungs- oder Abfrageargumente.
DS_PARTITION_COLUMNS_RENAMED
SQLSTATE: nicht zugewiesen
<dsError>: Partitionsspalte [<renamedColumns>] wurde in der freigegebenen Tabelle umbenannt. Wenden Sie sich an Ihren Datenanbieter, um dies zu beheben.
DS_QUERY_BEFORE_START_VERSION
SQLSTATE: nicht zugewiesen
<dsError>: Sie können Tabellendaten nur seit version <startVersion>abfragen.
DS_QUERY_END_VERSION_AFTER_LATEST_VERSION
SQLSTATE: nicht zugewiesen
<dsError>: Die bereitgestellte Endversion(<endVersion>) zum Lesen von Daten ist ungültig. Die Endversion darf nicht größer sein als die neueste Version der Tabelle(<latestVersion>).
DS_QUERY_START_VERSION_AFTER_LATEST_VERSION
SQLSTATE: nicht zugewiesen
<dsError>: Die bereitgestellte Startversion(<startVersion>) zum Lesen von Daten ist ungültig. Die Startversion darf nicht größer als die neueste Version der Tabelle(<latestVersion>) sein.
DS_QUERY_TIMEOUT_ON_SERVER
SQLSTATE: nicht zugewiesen
<dsError>: Beim Verarbeiten von <queryType> in <tableName> nach <numActions>-Aktualisierungen in <numIter>-Iterationen ist ein Timeout aufgetreten.<progressUpdate> <suggestion> <traceId>
DS_RATE_LIMIT_ON_DS_SERVER
SQLSTATE: nicht zugewiesen
<dsError>: <message>
DS_RECIPIENT_RPC_INVALID_PARAMETER
SQLSTATE: nicht zugewiesen
<dsError>: <message>
DS_RECON_FAILED_ON_UC_WRITE_RPC
SQLSTATE: nicht zugewiesen
<dsError>: UC RPC <rpcName> ist fehlgeschlagen, wird konvertiert zu INTERNAL_ERROR.
DS_RESOURCE_ALREADY_EXIST_ON_DS_SERVER
SQLSTATE: nicht zugewiesen
<dsError>: <message>
DS_RESOURCE_EXHAUSTED
SQLSTATE: nicht zugewiesen
<dsError>: Der Grenzwert für <resource> wurde überschritten: [<limitSize>]<suggestion>.<traceId>
DS_RESOURCE_NOT_FOUND_ON_DS_SERVER
SQLSTATE: nicht zugewiesen
<dsError>: <message>
DS_SAP_UNSUPPORTED_DBR_VERSION
SQLSTATE: nicht zugewiesen
<dsError>: Delta Sharing SAP Connector wird für DBR <dbrVersion>nicht unterstützt. Die mindestens unterstützten Versionen sind: <supportedVersions>.
DS_SCHEMA_NAME_CONFLICT_FOUND
SQLSTATE: nicht zugewiesen
<dsError>: Katalog <catalogName> enthält bereits Schemanamen, die in der Freigabe <shareName> gefunden werden.
<description> von konfliktverursachenden Schemanamen: <schemaNamesInCommon>.
DS_SERVER_TIMEOUT
SQLSTATE: nicht zugewiesen
<dsError>: Servertimeout für <rpcName> aufgrund von <errorCause>, versuchen Sie es erneut.<traceId>
DS_SERVICE_DENIED
SQLSTATE: nicht zugewiesen
<dsError>: Die Anforderung wurde verweigert, da der Dienst zu viel Auslastung hat. Bitte versuchen Sie es später nach einer Weile erneut.
DS_SHARE_ALREADY_MOUNTED_TO_CATALOG
SQLSTATE: nicht zugewiesen
<dsError>: Freigabe <shareName> vom Anbieter <providerName> ist bereits in den Katalog <catalogName> eingebunden.
DS_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED
SQLSTATE: nicht zugewiesen
Es können keine Berechtigungen für <securableType> an die vom System generierte Gruppe <principal>gewährt werden.
DS_TABLE_METADATA_TEMPORARILY_UNAVAILABLE
SQLSTATE: nicht zugewiesen
<dsError>: Tabellenmetadaten sind nicht verfügbar. Versuchen Sie es in einigen Momenten erneut.
DS_TIME_TRAVEL_NOT_PERMITTED
SQLSTATE: nicht zugewiesen
<dsError>: Zeitreiseabfrage ist nicht zulässig, es sei denn, der Verlauf wird für <tableName> freigegeben. Wenden Sie sich bitte an Ihren Datenanbieter.
DS_UNAUTHORIZED
SQLSTATE: nicht zugewiesen
<dsError>: Nicht autorisiert.
DS_UNAUTHORIZED_D2O_OIDC_RECIPIENT
SQLSTATE: nicht zugewiesen
<dsError>: Nicht autorisierter D2O-OIDC-Empfänger: <message>.
DS_UNKNOWN_EXCEPTION
SQLSTATE: nicht zugewiesen
<dsError>: <traceId>
DS_UNKNOWN_QUERY_ID
SQLSTATE: nicht zugewiesen
<dsError>: Unbekannte Abfrage-ID <queryID> für <schema>.
<table> aus Freigabe <share>.
DS_UNKNOWN_QUERY_STATUS
SQLSTATE: nicht zugewiesen
<dsError>: Unbekannter Abfragestatus für die Abfrage-ID <queryID> für <schema>.
<table> aus Freigabe <share>.
DS_UNKNOWN_RPC
SQLSTATE: nicht zugewiesen
<dsError>: Unbekannter RPC <rpcName>.
DS_UNSUPPORTED_DELTA_READER_VERSION
SQLSTATE: nicht zugewiesen
<dsError>: Die Delta-Protokollleserversion <tableReaderVersion> ist höher als <supportedReaderVersion> und kann nicht auf dem Delta-Freigabeserver unterstützt werden.
DS_UNSUPPORTED_DELTA_TABLE_FEATURES
SQLSTATE: nicht zugewiesen
<dsError>: Tabellenfeatures <tableFeatures> befinden sich in Tabelle<versionStr> <historySharingStatusStr> <optionStr>
DS_UNSUPPORTED_OPERATION
SQLSTATE: nicht zugewiesen
<dsError>: <message>
DS_UNSUPPORTED_STORAGE_SCHEME
SQLSTATE: nicht zugewiesen
<dsError>: Nicht unterstütztes Speicherschema: <scheme>.
DS_UNSUPPORTED_TABLE_TYPE
SQLSTATE: nicht zugewiesen
<dsError>: <schema>konnte nicht abgerufen werden.
<table> von Share <share>, da die Tabelle mit dem Typ [<tableType>] derzeit in <queryType>-Abfragen nicht unterstützt wird.
DS_UNSUPPORTED_TABLE_TYPE_IN_MST
SQLSTATE: nicht zugewiesen
<dsError>: Das Abfragen des Tabellentyps [<tableType>] wird in der MST-Abfrage (Multi-Statement Transaction) nicht unterstützt.
DS_USER_CONTEXT_ERROR
SQLSTATE: nicht zugewiesen
<dsError>: <message>
DS_VIEW_SHARING_FUNCTIONS_NOT_ALLOWED
SQLSTATE: nicht zugewiesen
<dsError>: Die folgenden Funktionen sind in der Ansichtsfreigabeabfrage nicht zulässig: <functions>
DS_WORKSPACE_DOMAIN_NOT_SET
SQLSTATE: nicht zugewiesen
<dsError>: Arbeitsbereich <workspaceId> Domäne ist nicht festgelegt.
DS_WORKSPACE_NOT_FOUND
SQLSTATE: nicht zugewiesen
<dsError>: Arbeitsbereich <workspaceId> wurde nicht gefunden.
Autoloader
CF_ADD_NEW_NOT_SUPPORTED
Der Schemaentwicklungsmodus <addNewColumnsMode> wird beim Angeben des Schemas nicht unterstützt. Um diesen Modus zu verwenden, können Sie stattdessen das Schema über cloudFiles.schemaHints bereitstellen.
CF_AMBIGUOUS_AUTH_OPTIONS_ERROR
Es wurden Authentifizierungsoptionen für die Benachrichtigungseinrichtung für den (Standard-)Auflistungsmodus des
Eintragsmodus:
<options>
Wenn Sie den Dateibenachrichtigungsmodus verwenden möchten, legen Sie folgendes explizit fest:
.option("cloudFiles.<useNotificationsKey>", "true")
Alternativ können Sie die Überprüfung Ihrer Optionen überspringen und diese ignorieren.
Authentifizierungsoptionen können Sie festlegen:
.option("cloudFiles.ValidateOptionsKey>", "false")
CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR
Inkrementeller Auflistungsmodus (cloudFiles.<useIncrementalListingKey>)
und Dateibenachrichtigung (cloudFiles.<useNotificationsKey>)
wurden gleichzeitig aktiviert.
Stellen Sie sicher, dass Sie nur eine auswählen.
CF_AZURE_AUTHENTICATION_MISSING_OPTIONS
Bitte stellen Sie entweder Databricks-Dienstanmeldeinformationen oder sowohl eine ClientID als auch ein ClientSecret für die Authentifizierung mit Azure bereit.
CF_AZURE_AUTHENTICATION_MULTIPLE_OPTIONS
Wenn eine Databricks-Dienstanmeldeinformation bereitgestellt wird, sollten keine anderen Anmeldeinformationen (z. B. clientId, clientSecret oder connectionString) bereitgestellt werden.
CF_AZURE_STORAGE_SUFFIXES_REQUIRED
Erforderlich sind adlsBlobSuffix und adlsDfsSuffix für Azure
CF_BUCKET_MISMATCH
Der <storeType> im Dateiereignis <fileEvent> entspricht nicht der Erwartung der Quelle: <source>.
CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY
Schema kann nicht weiterentwickelt werden, wenn das Schemaprotokoll leer ist. Schemaprotokollspeicherort: <logPath>
CF_CANNOT_PARSE_QUEUE_MESSAGE
Die folgende Warteschlangenmeldung kann nicht analysiert werden: <message>
CF_CANNOT_RESOLVE_CONTAINER_NAME
Der Containername kann nicht vom Pfad <path>aufgelöst werden, aufgelöster URI: <uri>
CF_CANNOT_RUN_DIRECTORY_LISTING
Verzeichnisauflistung kann nicht ausgeführt werden, wenn ein asynchroner Backfill-Thread ausgeführt wird
CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON
CloudFiles.cleanSource und cloudFiles.allowOverwrites können nicht gleichzeitig aktiviert werden.
CF_CLEAN_SOURCE_CANNOT_MOVE_FILES_INSIDE_SOURCE_PATH
Das Verschieben von Dateien in ein Verzeichnis unter dem Pfad, aus dem Daten erfasst werden, wird nicht unterstützt.
CF_CLEAN_SOURCE_NOT_ENABLED
CleanSource wurde für diesen Arbeitsbereich nicht aktiviert. Wenden Sie sich an den Databricks-Support, um Unterstützung zu erhalten.
CF_CLEAN_SOURCE_NOT_SUPPORTED
CleanSource wird für <op> nicht unterstützt.
CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
Das automatische Laden kann verarbeitete Dateien nicht archivieren, da sie keine Schreibberechtigungen für das Quellverzeichnis oder das Verschiebungsziel besitzt.
Weitere Informationen finden Sie unter CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
CF_DUPLICATE_COLUMN_IN_DATA
Fehler beim Ableiten des Partitionsschemas der Tabelle. Sie haben dieselbe Spalte sowohl in Ihren Daten als auch in Ihren Partitionspfaden dupliziert. Um den Partitionswert zu ignorieren, geben Sie Ihre Partitionsspalten explizit mithilfe von ".option("cloudFiles.<partitionColumnsKey>", "{comma-separated-list}") an.
CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE
Das Schema kann nicht abgeleitet werden, wenn der Eingabepfad <path> leer ist. Versuchen Sie, den Datenstrom zu starten, wenn Dateien im Eingabepfad vorhanden sind, oder geben Sie das Schema an.
CF_EVENT_GRID_AUTH_ERROR
Fehler beim Erstellen eines Event Grid-Abonnements. Stellen Sie sicher, dass Ihr Dienstprinzipal
über <permissionType>-Event Grid-Abonnements verfügt. Weitere Details finden Sie unter:
<docLink>
CF_EVENT_GRID_CREATION_FAILED
Fehler beim Erstellen des Event Grid-Abonnements. Stellen Sie sicher, dass Microsoft.EventGrid als
Ressourcenanbieter in Ihrem Abonnement registriert ist. Weitere Details finden Sie unter:
<docLink>
CF_EVENT_GRID_NOT_FOUND_ERROR
Fehler beim Erstellen eines Event Grid-Abonnements. Stellen Sie sicher, dass Ihr Speicherkonto
(<storageAccount>) sich in Ihrer Ressourcengruppe (<resourceGroup>) befindet und dass
Das Speicherkonto ist ein "StorageV2(general purpose v2)"-Konto. Weitere Details finden Sie unter:
<docLink>
CF_EVENT_NOTIFICATION_NOT_SUPPORTED
Der Modus für Ereignisbenachrichtigungen beim automatischen Laden wird für <cloudStore>nicht unterstützt.
CF_EVENT_NOTIFICATION_SETUP_FAILED
Fehler beim Einrichten von Dateibenachrichtigungsressourcen für das automatische Laden.
Weitere Informationen finden Sie unter CF_EVENT_NOTIFICATION_SETUP_FAILED
CF_FAILED_TO_CHECK_STREAM_NEW
Fehler beim Überprüfen, ob der Datenstrom neu ist.
CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION
Fehler beim Erstellen des Abonnements: <subscriptionName>. Ein Abonnement mit demselben Namen ist bereits vorhanden und einem anderen Thema zugeordnet: <otherTopicName>. Das gewünschte Thema ist <proposedTopicName>. Löschen Sie entweder das vorhandene Abonnement, oder erstellen Sie ein Abonnement mit einem neuen Ressourcensuffix.
CF_FAILED_TO_CREATED_PUBSUB_TOPIC
Fehler: Themenbereich <topicName> konnte nicht erstellt werden. Ein Thema mit demselben Namen ist bereits vorhanden.
<reason> Entfernen sie das vorhandene Thema, oder versuchen Sie es erneut mit einem anderen Ressourcensuffix.
CF_FAILED_TO_DELETE_GCP_NOTIFICATION
Fehler beim Löschen der Benachrichtigung mit der ID <notificationId> im Bucket <bucketName> für Thema <topicName>. Versuchen Sie es erneut, oder entfernen Sie die Benachrichtigung manuell über die GCP-Konsole.
CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA
Fehler beim Deserialisieren des persistenten Schemas aus der Zeichenfolge: '<jsonSchema>'
CF_FAILED_TO_EVOLVE_SCHEMA
Schema kann nicht ohne Schemaprotokoll weiterentwickelt werden.
CF_FAILED_TO_FIND_PROVIDER
Der Anbieter für <fileFormatInput> konnte nicht gefunden werden.
CF_FAILED_TO_INFER_SCHEMA
Fehler beim Ableiten des Schemas für das Format <fileFormatInput> aus vorhandenen Dateien im Eingabepfad <path>.
Weitere Details finden Sie unter CF_FAILED_TO_INFER_SCHEMA.
CF_FAILED_TO_WRITE_TO_SCHEMA_LOG
Fehler beim Schreiben in das Schemaprotokoll am Speicherort <path>.
CF_FILE_FORMAT_REQUIRED
Die erforderliche Option wurde nicht gefunden: cloudFiles.format.
CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS
Es wurden mehrere (<num>) Abonnements mit dem Präfix "Auto Loader" für das Thema <topicName>gefunden:
<subscriptionList>
Pro Thema sollte nur ein Abonnement vorhanden sein. Stellen Sie bitte manuell sicher, dass Ihr Thema nicht über mehrere Abonnements verfügt.
CF_GCP_AUTHENTICATION
Geben Sie entweder folgendes an: <clientEmail>, <client>,
<privateKey> und <privateKeyId>, oder geben Sie <serviceCredential> an, um Ihre Databricks-Dienstanmeldeinformationen zu verwenden.
Geben Sie alternativ nichts davon an, um die standardmäßige GCP-Anmeldeinformationsanbieterkette für die Authentifizierung bei GCP-Ressourcen zu verwenden.
CF_GCP_LABELS_COUNT_EXCEEDED
Es wurden zu viele Bezeichnungen (<num>) für die GCP-Ressource empfangen. Die maximale Bezeichnungsanzahl pro Ressource ist <maxNum>.
CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED
Sie haben zu viele Ressourcentags (<num>) für die GCP-Ressource empfangen. Die maximale Anzahl von Ressourcentags pro Ressource ist <maxNum>, da Ressourcentags als GCP-Bezeichnungen für Ressourcen gespeichert werden, und Databricks-spezifische Tags verbrauchen einige dieser Bezeichnungskontingente.
CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG
Unvollständige Protokolldatei im Schemaprotokoll im Pfad <path>
CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT
Unvollständige Metadatendatei im Prüfpunkt "Auto Loader"
CF_INCORRECT_BATCH_USAGE
CloudFiles ist eine Streamingquelle. Verwenden Sie spark.readStream anstelle von spark.read. Um diese Überprüfung zu deaktivieren, legen Sie <cloudFilesFormatValidationEnabled> auf "false" fest.
CF_INCORRECT_SQL_PARAMS
Die cloud_files-Methode akzeptiert zwei erforderliche Zeichenfolgenparameter: den Pfad zum Laden von und das Dateiformat. Dateileseoptionen müssen in einer Zeichenfolgen-Schlüsselwertzuordnung bereitgestellt werden. beispiel: cloud_files("path", "json", map("option1", "value1")). Empfangen: <params>
CF_INCORRECT_STREAM_USAGE
Um "cloudFiles" als Streamingquelle zu verwenden, geben Sie das Dateiformat mit der Option "cloudFiles.format" an, und verwenden Sie .load(), um Ihren DataFrame zu erstellen. Um diese Überprüfung zu deaktivieren, legen Sie <cloudFilesFormatValidationEnabled> auf "false" fest.
CF_INTERNAL_ERROR
Beim automatischen Laden ist ein interner Fehler aufgetreten. Wenden Sie sich an den Databricks-Support, um Unterstützung zu erhalten.
Weitere Details finden Sie unter CF_INTERNAL_ERROR.
CF_INVALID_ARN
Ungültiger ARN: <arn>
CF_INVALID_AZURE_CERTIFICATE
Der private Schlüssel, der mit option cloudFiles.certificate bereitgestellt wird, kann nicht analysiert werden. Geben Sie einen gültigen öffentlichen Schlüssel im PEM-Format an.
CF_INVALID_AZURE_CERT_PRIVATE_KEY
Der private Schlüssel, der mit option cloudFiles.certificatePrivateKey bereitgestellt wird, kann nicht analysiert werden. Geben Sie einen gültigen privaten Schlüssel im PEM-Format an.
CF_INVALID_CHECKPOINT
Dieser Prüfpunkt ist keine gültige CloudFiles-Quelle.
CF_INVALID_CLEAN_SOURCE_MODE
Ungültiger Modus für die Option "Saubere Quelle" <value>.
CF_INVALID_GCP_RESOURCE_TAG_KEY
Ungültiger Ressourcentagschlüssel für GCP-Ressource: <key>. Schlüssel müssen mit einem Kleinbuchstaben beginnen, innerhalb von 1 bis 63 Zeichen lang sein und nur Kleinbuchstaben, Zahlen, Unterstriche (_) und Bindestriche (-) enthalten.
CF_INVALID_GCP_RESOURCE_TAG_VALUE
Ungültiger Ressourcentagwert für GCP-Ressource: <value>. Werte müssen innerhalb von 0 bis 63 Zeichen lang sein und dürfen nur Kleinbuchstaben, Zahlen, Unterstriche (_) und Bindestriche (-) enthalten.
CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS
Auto Loader unterstützt die folgenden Optionen bei der Verwendung mit verwalteten Dateievents nicht.
<optionList>
Es wird empfohlen, diese Optionen zu entfernen und dann den Datenstrom neu zu starten.
CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
Ungültige Antwort vom Dienst für verwaltete Dateiereignisse. Wenden Sie sich an den Databricks-Support, um Unterstützung zu erhalten.
Weitere Details finden Sie unter CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE.
CF_INVALID_SCHEMA_EVOLUTION_MODE
cloudFiles.
<schemaEvolutionModeKey> muss eine von { sein
<addNewColumnsWithTypeWidening>
<addNewColumns>
<failOnNewColumns>
<rescue>
"<noEvolution>"}
CF_INVALID_SCHEMA_HINTS_OPTION
Schemahinweise können nur einmal eine bestimmte Spalte angeben.
In diesem Fall wird die Spalte neu definiert: <columnName>
mehrmals in „schemaHints“ neu definiert:
<schemaHints>
CF_INVALID_SCHEMA_HINT_COLUMN
Schemahinweise können nicht verwendet werden, um die geschachtelten Typen von Zuordnungen und Arrays außer Kraft zu setzen.
In Konflikt stehende Spalte: <columnName>
CF_LATEST_OFFSET_READ_LIMIT_REQUIRED
latestOffset sollte mit einem ReadLimit für diese Quelle aufgerufen werden.
CF_LOG_FILE_MALFORMED
Die Protokolldatei war falsch formatiert: Fehler beim Lesen der richtigen Protokollversion aus <fileName>.
CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS
Sie haben den Auto Loader angewiesen, bestehende Dateien an Ihrem externen Speicherort zu ignorieren, indem Sie "includeExistingFiles" auf "false" setzen. Der Dienst für das Management von Dateivorgängen entdeckt jedoch weiterhin vorhandene Dateien an Ihrem externen Speicherort. Versuchen Sie es erneut, nachdem die Dateiverwaltungsereignisse das Ermitteln aller Dateien an Ihrem externen Speicherort abgeschlossen haben.
CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND
Sie verwenden Auto Loader mit verwalteten Dateiereignissen, aber es scheint, dass der externe Speicherort für Ihren Eingabepfad „<path>“ keine Dateiereignisse aktiviert hat, oder der Eingabepfad ist ungültig. Bitten Sie Ihren Databricks-Administrator, die Dateivorgänge am externen Speicherort für Ihren Eingabepfad zu aktivieren.
CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED
Sie verwenden Auto Loader mit verwalteten Dateiereignissen, aber Sie haben keinen Zugriff auf den externen Speicherort oder das Volume für den Eingabepfad „<path>“, oder der Eingabepfad ist ungültig. Bitten Sie Ihren Databricks-Administrator, Leseberechtigungen für den externen Speicherort oder das Volume zu erteilen oder einen gültigen Eingabepfad innerhalb eines vorhandenen externen Speicherorts oder Volumes bereitzustellen.
CF_MANAGED_FILE_EVENTS_INVALID_CONTINUATION_TOKEN
Die Leseposition des Datenstroms im Cache für Dateiereignisse wurde ungültig. Dies kann passieren, weil die Konfiguration von Dateiereignissen aktualisiert wurde (z. B. die bereitgestellte Warteschlangen-URL wurde geändert, oder Dateiereignisse wurden deaktiviert und erneut aktiviert). Wenden Sie sich an den Databricks-Support, um Unterstützung zu erhalten.
CF_MANAGED_FILE_EVENTS_IS_PREVIEW
Auto Loader mit verwalteten Dateiereignissen befindet sich in der Vorschauversion. Um fortzufahren, wenden Sie sich bitte an den Databricks Support oder deaktivieren Sie die Option "cloudFiles.useManagedFileEvents".
CF_MANAGED_FILE_EVENTS_RATE_LIMIT_EXCEEDED
Zu viele gleichzeitige Datenströme für das automatische Laden werden ausgeführt. Reduzieren Sie die Parallelität des Datenstroms, wenn möglich, oder erstellen Sie separate Volumes für jedes Unterverzeichnis, wenn sie von mehreren Unterverzeichnissen an einem externen Speicherort geladen werden. Wenden Sie sich an Ihren Databricks-Vertreter, wenn das Problem weiterhin besteht.
CF_MAX_MUST_BE_POSITIVE
max muss positiv sein
CF_METADATA_FILE_CONCURRENTLY_USED
Mehrere Streaming-Abfragen werden gleichzeitig mit <metadataFile> ausgeführt.
CF_MISSING_METADATA_FILE_ERROR
Die Metadatendatei im Verzeichnis des Streamingquellpunkts fehlt. Diese Metadaten
Datei enthält wichtige Standardoptionen für den Datenstrom, sodass der Datenstrom nicht neu gestartet werden kann.
Gerade jetzt. Wenden Sie sich an den Databricks-Support, um Unterstützung zu erhalten.
CF_MISSING_PARTITION_COLUMN_ERROR
Die Partitionsspalte <columnName> ist im bereitgestellten Schema nicht vorhanden:
<schema>
CF_MISSING_SCHEMA_IN_PATHLESS_MODE
Geben Sie mit .schema() ein Schema an, wenn im Dateibenachrichtigungsmodus kein Pfad für die CloudFiles-Quelle bereitgestellt wird. Alternativ können Sie das automatische Ladeprogramm verwenden, um das Schema abzuleiten, bitte geben Sie einen Basispfad in .load() an.
CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC
Es wurden vorhandene Benachrichtigungen für das Thema <topicName> im Bucket <bucketName>gefunden.
notification,id
<notificationList>
Um das Verunreinigen des Abonnenten mit unbeabsichtigten Ereignissen zu vermeiden, löschen Sie die oben genannten Benachrichtigungen, und versuchen Sie es erneut.
CF_NEW_PARTITION_ERROR
Neue Partitionsspalten wurden von Ihren Dateien abgeleitet: [<filesList>]. Geben Sie alle Partitionsspalten in Ihrem Schema an, oder geben Sie eine Liste der Partitionsspalten an, für die Sie Werte extrahieren möchten, indem Sie folgendes verwenden: .option("cloudFiles.partitionColumns", "{comma-separated-list|empty-string}")
CF_PARTITON_INFERENCE_ERROR
Fehler beim Ableiten des Partitionsschemas des aktuellen Dateibatches. Geben Sie Ihre Partitionsspalten explizit mithilfe von ".option("cloudFiles.<partitionColumnOption>", "{comma-separated-list}") an.
CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES
Dateien können nicht gelesen werden, wenn der Eingabepfad <path> nicht vorhanden ist. Stellen Sie sicher, dass der Eingabepfad vorhanden ist, und versuchen Sie es erneut.
CF_PERIODIC_BACKFILL_NOT_SUPPORTED
Regelmäßiges Zurückfüllen wird nicht unterstützt, wenn asynchrones Ausfüllen deaktiviert ist. Sie können die asynchrone Nachfüll-/Verzeichnisauflistung aktivieren, indem Sie spark.databricks.cloudFiles.asyncDirListing auf "true" festlegen.
CF_PREFIX_MISMATCH
Gefundenes nicht übereinstimmendes Event: Schlüssel <key> hat das Präfix nicht: <prefix>
CF_PROTOCOL_MISMATCH
<message>
Wenn Sie keine weiteren Änderungen an Ihrem Code vornehmen müssen, legen Sie die SQL-Datei fest.
Konfiguration: '<sourceProtocolVersionKey> = <value>'
um Ihren Datenstrom fortzusetzen. Weitere Informationen finden Sie unter:
<docLink>
finden Sie weitere Details.
CF_REGION_NOT_FOUND_ERROR
Aws-Standardregion konnte nicht abgerufen werden. Geben Sie eine Region mit der Option "cloudFiles.region" an.
CF_RESOURCE_SUFFIX_EMPTY
Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix darf nicht leer sein.
CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS
Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix kann nur alphanumerische Zeichen, Bindestriche (-) und Unterstriche (_) enthalten.
CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE
Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix kann nur Kleinbuchstaben, Zahlen und Gedankenstriche (-) aufweisen.
CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP
Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix kann nur alphanumerische Zeichen, Bindestriche (-), Unterstriche (_), Punkte (.), Tilden (~) Pluszeichen (+) und Prozentzeichen (<percentSign>) enthalten.
CF_RESOURCE_SUFFIX_LIMIT
Fehler beim Einrichten von Benachrichtigungsdiensten: Das Ressourcensuffix darf nicht mehr als <limit> Zeichen enthalten.
CF_RESOURCE_SUFFIX_LIMIT_GCP
Fehler beim Erstellen von Benachrichtigungsdiensten: Das Ressourcensuffix muss zwischen den Zeichen <lowerLimit> und <upperLimit> liegen.
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY
Tagschlüssel (<key>) für eingeschränkte GCP-Ressource gefunden. Die folgenden GCP-Ressourcentagschlüssel sind für das automatische Laden eingeschränkt: [<restrictedKeys>]
CF_RETENTION_GREATER_THAN_MAX_FILE_AGE
cloudFiles.cleanSource.retentionDuration darf nicht größer als cloudFiles.maxFileAge sein.
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
Fehler beim Erstellen einer Benachrichtigung für das Thema: <topic> mit präfix: <prefix>. Es gibt bereits ein Thema mit demselben Namen mit einem anderen Präfix: <oldPrefix>. Versuchen Sie, ein anderes Ressourcensuffix zum Einrichten zu verwenden oder das vorhandene Setup zu löschen.
CF_SCHEMA_LOG_DEEP_CLONE_FAILED
Fehler beim Klonen und Migrieren von Schemaprotokolleinträgen aus dem Quellschemaprotokoll.
CF_SFTP_MISSING_PASSWORD_OR_KEY_FILE
Eine Kennwort- oder Schlüsseldatei muss für SFTP angegeben werden.
Geben Sie das Kennwort im Quell-URI oder über <passwordOption>an, oder geben Sie den Schlüsseldateiinhalt über <keyFileOption>an.
CF_SFTP_NOT_ENABLED
Der Zugriff auf SFTP-Dateien ist nicht aktiviert. Wenden Sie sich an den Databricks-Support, um Unterstützung zu erhalten.
CF_SFTP_REQUIRE_FULL_PATH
Geben Sie die vollständigen Pfadkomponenten für eine SFTP-Quelle in der Form von sftp://$user@$host:$port/$path an, um eine exakte UC-Verbindungsrecherche sicherzustellen.
CF_SFTP_REQUIRE_UC_CLUSTER
Für den Zugriff auf SFTP-Dateien ist ein UC-fähiger Cluster erforderlich. Wenden Sie sich an den Databricks-Support, um Unterstützung zu erhalten.
CF_SFTP_USERNAME_NOT_FOUND
Der Benutzername muss für SFTP angegeben werden.
Geben Sie den Benutzernamen im Quell-URI oder über <option>an.
CF_SOURCE_DIRECTORY_PATH_REQUIRED
Geben Sie den Quellverzeichnispfad mit Option path an.
CF_SOURCE_UNSUPPORTED
Die Clouddateienquelle unterstützt derzeit nur S3-Pfade, Azure Blob Storage (wasb/wasbs) und Azure Data Lake Gen1 (adl) und Gen2 (abfs/abfss). Pfad: '<path>', aufgelöster URI: '<uri>'
CF_STATE_INCORRECT_SQL_PARAMS
Die Funktion cloud_files_state akzeptiert einen Zeichenfolgenparameter, der das Prüfpunktverzeichnis eines CloudFiles-Datenstroms oder einen mehrteiligen Tabellennamen darstellt, der eine Streamingtabelle identifiziert. Zudem gibt es einen optionalen zweiten Parameter vom Typ Ganzzahl, der die Prüfpunktversion angibt, für die der Zustand geladen werden soll. Der zweite Parameter kann auch „latest“ sein, um den neuesten Prüfpunkt zu lesen. Empfangen: <params>
CF_STATE_INVALID_CHECKPOINT_PATH
Der Eingabeprüfpunktpfad <path> ist ungültig. Entweder ist der Pfad nicht vorhanden oder es wurden keine cloud_files Quellen gefunden.
CF_STATE_INVALID_VERSION
Die angegebene Version <version> ist nicht vorhanden oder wurde während der Analyse entfernt.
CF_THREAD_IS_DEAD
<threadName> Thread ist tot.
CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION
Der Prüfpunktspeicherort des Streams kann nicht aus dem Prüfpunktspeicherort der Quelle <checkPointLocation> abgeleitet werden
CF_UNABLE_TO_DETECT_FILE_FORMAT
Das Quelldateiformat aus <fileSize>-Stichprobendateien konnte nicht erkannt werden, es wurde <formats> gefunden. Geben Sie das Format an.
CF_UNABLE_TO_EXTRACT_BUCKET_INFO
Bucketinformationen können nicht extrahiert werden. Pfad: „<path>“, aufgelöster URI: „<uri>“
CF_UNABLE_TO_EXTRACT_KEY_INFO
Schlüsselinformationen können nicht extrahiert werden. Pfad: „<path>“, aufgelöster URI: „<uri>“
CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO
Speicherkontoinformationen können nicht extrahiert werden; Pfad: '<path>', aufgelöster URI: '<uri>'
CF_UNABLE_TO_LIST_EFFICIENTLY
Es wurde ein Verzeichnisbenennungsereignis für den Pfad <path>empfangen, aber wir können dieses Verzeichnis nicht effizient auflisten. Damit der Datenstrom fortgesetzt werden kann, legen Sie die Option "cloudFiles.ignoreDirRenames" auf "true" fest, und erwägen Sie, reguläre Backfills mit "cloudFiles.backfillInterval" zu aktivieren, damit diese Daten verarbeitet werden.
CF_UNEXPECTED_READ_LIMIT
Unerwartetes Leselimit: <readLimit>
CF_UNKNOWN_OPTION_KEYS_ERROR
Unbekannte Optionstasten gefunden:
<optionList>
Stellen Sie sicher, dass alle bereitgestellten Optionstasten korrekt sind. Wenn Sie die
Überprüfung Ihrer Optionen überspringen und diese unbekannten Optionen ignorieren möchten, können Sie Folgendes festlegen:
.option("cloudFiles.<validateOptions>", "false")
CF_UNKNOWN_READ_LIMIT
Unbekanntes ReadLimit: <readLimit>
CF_UNSUPPORTED_CLEAN_SOURCE_MOVE
Die Konfiguration des cleanSource-Modus „Verschieben“ wird nicht unterstützt.
Weitere Einzelheiten finden Sie unter CF_UNSUPPORTED_CLEAN_SOURCE_MOVE
CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION
Die SQL-Funktion "cloud_files" zum Erstellen einer Streamingquelle für das automatische Laden wird nur in einer Lakeflow Spark Declarative Pipeliness-Pipeline unterstützt. Weitere Details finden Sie unter:
<docLink>
CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE
Die Schemaerkennung wird für das Format nicht unterstützt: <format>. Geben Sie das Schema an.
CF_UNSUPPORTED_LOG_VERSION
UnsupportedLogVersion: Die höchste unterstützte Protokollversion ist v<maxVersion>, es wurde jedoch v<version> gefunden. Die Protokolldatei wurde von einer neueren Version von DBR erstellt und kann von dieser Version nicht gelesen werden. Bitte aktualisieren Sie.
CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE
Schema-Evolutionsmodus <mode> wird für Format <format>nicht unterstützt. Legen Sie den Schemaentwicklungsmodus auf "none" fest.
CF_USE_DELTA_FORMAT
Das Lesen aus einer Delta-Tabelle wird mit dieser Syntax nicht unterstützt. Wenn Sie Daten aus Delta nutzen möchten, lesen Sie bitte die Dokumente: lesen Sie eine Delta-Tabelle (<deltaDocLink>) oder lesen Sie eine Delta-Tabelle als Datenstromquelle (<streamDeltaDocLink>). Die Streamingquelle von Delta ist bereits für den inkrementellen Verbrauch von Daten optimiert.
Geospatial
EWKB_PARSE_ERROR
Fehler beim Parsen von EWKB „<parseError>“ an Position <pos>
Weitere Informationen finden Sie unter EWKB_PARSE_ERROR
EWKT_PARSE_ERROR
Fehler beim Analysieren von EWKT: <parseError> an position <pos>
GEOJSON_PARSE_ERROR
Fehler beim Analysieren von GeoJSON: <parseError> an Position <pos>
Weitere Informationen finden Sie unter GEOJSON_PARSE_ERROR
GEO_ENCODER_SRID_MISMATCH_ERROR
Fehler beim Codieren <type> eines Werts, da die bereitgestellte SRID <valueSrid> eines zu codierenden Werts nicht mit dem Typ SRID übereinstimmt: <typeSrid>.
H3_INVALID_CELL_ID
<h3Cell> ist keine gültige H3-Zell-ID.
Weitere Details finden Sie unter H3_INVALID_CELL_ID.
H3_INVALID_GRID_DISTANCE_VALUE
H3-Rasterabstand <k> darf nicht negativ sein
Weitere Details finden Sie unter H3_INVALID_GRID_DISTANCE_VALUE.
H3_INVALID_RESOLUTION_VALUE
Die H3-Auflösung <r> muss zwischen <minR> und <maxR> liegen (inklusive)
Weitere Details finden Sie unter H3_INVALID_RESOLUTION_VALUE.
H3_NOT_ENABLED
<h3Expression> ist deaktiviert oder wird nicht unterstützt. Erwägen Sie, zu einer Ebene zu wechseln, die H3-Ausdrücke unterstützt
Weitere Details finden Sie unter H3_NOT_ENABLED.
H3_PENTAGON_ENCOUNTERED_ERROR
Beim Berechnen des Hexrings von <h3Cell> mit Rasterabstand <k> ist ein Fünfeck aufgetreten.
H3_UNDEFINED_GRID_DISTANCE
H3-Rasterabstand zwischen <h3Cell1> und <h3Cell2> ist nicht definiert
ST_DIFFERENT_SRID_VALUES
Argumente für "<sqlFunction>" müssen denselben SRID-Wert aufweisen. SRID-Werte gefunden: <srid1>, <srid2>
ST_INVALID_ARGUMENT
"<sqlFunction>":
Weitere Details finden Sie unter ST_INVALID_ARGUMENT
ST_INVALID_CRS_TRANSFORMATION_ERROR
<sqlFunction>: Ungültige oder nicht unterstützte CRS-Transformation von SRID-<srcSrid> in SRID-<trgSrid>
ST_INVALID_PRECISION_VALUE
Präzisions-<p> muss zwischen <minP> und <maxP>(einschließlich) liegen.
ST_NOT_ENABLED
<stExpression> ist deaktiviert oder wird nicht unterstützt. Erwägen Sie, zu einer Ebene zu wechseln, die ST-Ausdrücke unterstützt
WKB_PARSE_ERROR
Fehler beim Analysieren von WKB <parseError> an Position <pos>
Weitere Informationen finden Sie unter WKB_PARSE_ERROR
WKT_PARSE_ERROR
Fehler beim Parsen von WKT <parseError> an Position <pos>
Weitere Details finden Sie unter WKT_PARSE_ERROR.
Unity-Katalog
CANNOT_DROP_TAGGED_COLUMN
Spalte kann nicht gelöscht werden, da ihr ein oder mehrere verwaltete Tags zugewiesen wurden. Entfernen Sie die Tags, bevor Sie die Spalte ablegen. Anleitungen finden Sie in der Dokumentation <docLink>.
ERSTELLUNG_VON_UNTERELEMENTEN_FÜR_FREMDE_SICHERBARE_VERBOTEN
Sicherheitsobjekt <childSecurableName> des Typs <childSecurableType> kann nicht im übergeordneten Element <parentSecurableName> der Art <parentSecurableKind> erstellt werden.
SPALTENFORMAT_NICHT_KOMPATIBEL_MIT_SPALTENTYP
Spalte <columnName> weist ein Format auf <formatType> , das nicht mit dem Spaltentyp <columnType>kompatibel ist.
CONFLICTING_COLUMN_NAMES_ERROR
Spaltenkonflikt <columnName> mit einer anderen Spalte mit demselben Namen, aber ohne nachfolgende Leerzeichen (z. B. eine vorhandene Spalte mit dem Namen <columnName> ). Benennen Sie die Spalte mit einem anderen Namen um.
CONNECTION_CREDENTIALS_NOT_SUPPORTED_FOR_ONLINE_TABLE_CONNECTION
Ungültige Anforderung zum Abrufen von Anmeldeinformationen auf Verbindungsebene für die Verbindung vom Typ <connectionType>. Solche Anmeldeinformationen sind nur für verwaltete PostgreSQL-Verbindungen verfügbar.
CONNECTION_TYPE_NOT_ENABLED
Der Verbindungstyp '<connectionType>' ist nicht aktiviert. Aktivieren Sie die Verbindung, um sie zu verwenden.
DELTA_SHARING_BEREITSTELLUNGSSTATUS_NICHT_AKTIV
Die freigegebene Entität "<securableFullName>" kann derzeit nicht verwendet werden, da sie noch nicht vollständig mit der entsprechenden Quellentität synchronisiert wurde. Verursacht von: <reason>.
DELTA_SHARING_READ_ONLY_RECIPIENT_EXISTS
Es ist bereits ein Recipient-Objekt '<existingRecipientName>' mit demselben Freigabebezeichner '<existingMetastoreId>' vorhanden.
DELTA_SHARING_READ_ONLY_SECURABLE_KIND
Daten der sicherungsfähigen Delta-Freigabeart <securableKindName> sind schreibgeschützt und können nicht erstellt, geändert oder gelöscht werden.
DISASTER_RECOVERY_READ_ONLY
Daten innerhalb eines Replikatkatalogs <catalogName> , der von der Notfallwiederherstellung verwaltet wird, sind schreibgeschützt und können nicht erstellt, geändert oder gelöscht werden.
EXTERNAL_ACCESS_DISABLED_ON_METASTORE
Der Verkauf von Anmeldeinformationen wird für eine Nicht-Databricks-Compute-Umgebung abgelehnt, da der Zugriff auf externe Daten für Metastore <metastoreName> deaktiviert wurde. Wenden Sie sich an Ihren Metastore-Administrator, um die Konfiguration "Externer Datenzugriff" im Metastore zu aktivieren.
EXTERNAL_ACCESS_NOT_ALLOWED_FOR_TABLE
Auf die Tabelle mit der ID <tableId> kann aufgrund ihrer Art <securableKind>außerhalb der Databricks Compute Environment nicht zugegriffen werden. Nur auf 'TABLE_EXTERNAL', 'TABLE_DELTA_EXTERNAL' und 'TABLE_DELTA' Tabellentypen kann extern zugegriffen werden.
EXTERNAL_USE_SCHEMA_ASSIGNED_TO_INCORRECT_SECURABLE_TYPE
Berechtigungen EXTERNAL USE SCHEMA gelten nicht für diese Entität <assignedSecurableType> und können nur einem Schema oder Katalog zugewiesen werden. Entfernen Sie die Berechtigungen aus dem <assignedSecurableType>-Objekt, und weisen Sie sie stattdessen einem Schema oder Katalog zu.
EXTERNAL_WRITE_NOT_ALLOWED_FOR_TABLE
Tabelle mit ID <tableId> kann wegen ihres Typs <securableKind>nicht von außerhalb der "Databricks Compute Environment" beschrieben werden. Nur 'TABLE_EXTERNAL' und 'TABLE_DELTA_EXTERNAL' Tabellentypen können extern geschrieben werden.
FOREIGN_CATALOG_STORAGE_ROOT_MUST_SUPPORT_WRITES
Der Speicherort für einen Fremdkatalog vom Typ <catalogType> wird zum Entladen von Daten verwendet und darf nicht schreibgeschützt sein.
HMS_SECURABLE_OVERLAP_LIMIT_EXCEEDED
Die Anzahl von <resourceType> für Eingabepfad <url> überschreitet den zulässigen Grenzwert (<overlapLimit>) für überlappende HMS-Ressourcentypen (<resourceType>).
UNGÜLTIGES_DATENQUELLEN_FORMAT
Das Datenquellenformat '<datasourceFormat>' wird nicht unterstützt<tableTypeSuffix> <catalogKindSuffix>.
INVALID_NAME_FORMAT
<fieldDescription> ist kein gültiger Name. Gültige Namen dürfen nur alphanumerische Zeichen und Unterstriche enthalten und dürfen keine Leerzeichen, Punkte, Schrägstriche oder Steuerzeichen enthalten.
INVALID_RESOURCE_NAME_DELTA_SHARING
Delta-Freigabeanforderungen werden nicht mit Ressourcennamen unterstützt.
INVALID_RESOURCE_NAME_ENTITY_TYPE
Der bereitgestellte Ressourcenname verweist auf den Entitätstyp <provided>, aber es wurde <expected> erwartet.
INVALID_RESOURCE_NAME_METASTORE_ID
Der bereitgestellte Ressourcenname verweist auf einen Metaspeicher, der für die aktuelle Anforderung nicht im Gültigkeitsbereich ist.
INVALID_SECURABLE_NAME
<rpcName> ungültiger <securableType> Name: '<securableFullName>'
LOCATION_OVERLAP
Eingabepfad-URL „<path>“ überlappt mit <overlappingLocation> innerhalb des Aufrufs „<caller>“.
<conflictingSummary>. <permissionErrorSuggestion>
LOCATION_OVERLAP_STORAGE_CONFLICT_WITH_WORKSPACE_STORAGE
Der vom Kunden definierte Speicherort ist während des Vorgangs "<path><caller>" des Arbeitsbereichs mit dem Standardspeicher "" des Arbeitsbereichs in Konflikt. Dadurch wird verhindert, dass Features, die auf arbeitsbereichsspeichern, nicht mehr ausgeführt werden. Konfliktzusammenfassung: <conflictingSummary>. Weitere Informationen finden Sie https://docs.databricks.com/aws/en/data-governance/unity-catalog/storage-conflicts in den Korrekturschritten.
VERWALTETES_TABELLENFORMAT
Nur Delta wird für verwaltete Tabellen unterstützt. Das bereitgestellte Datenquellenformat ist <datasourceFormat>.
MONGO_DB_SRV_CONNECTION_STRING_DOES_NOT_ALLOW_PORT
Das Erstellen oder Aktualisieren einer MongoDB-Verbindung ist nicht zulässig, da die MongoDB SRV-Verbindungszeichenfolge keinen Port erfordert.
Entfernen Sie den Port, da für die SRV-Verbindungszeichenfolge kein Port erforderlich ist.
PRINCIPAL_EXISTIERT_NICHT
Der Hauptbenutzer mit dem Namen <principalName> konnte nicht gefunden werden.
PRIVILEGES_SUPPORT_NOT_ENABLED
Die Unterstützung von Berechtigungen ist für den Typ [<typeString>] nicht aktiviert.
PRIVILEGE_NOT_APPLICABLE_TO_ENTITY
Berechtigungen <privilege> gelten nicht für diese Entität [<classifier>]. Wenn dies unerwartet erscheint, überprüfen Sie bitte die Berechtigungsversion des Metastores, der verwendet wird [<privilegeVersion>].
READ_ONLY_CATALOG
Innerhalb eines Delta-Freigabekatalogs können Daten nur gelesen werden und nicht erstellt, geändert oder gelöscht werden. Katalog '<catalogName>' ist ein Delta-Sharing-Katalog.
REDSHIFT_FOREIGN_CATALOG_STORAGE_ROOT_MUST_BE_S3
Der Speicherstamm für den Fremdkatalog von Redshift muss AWS S3 sein.
SCHEMA_NOT_EMPTY
Das Schema "<fullName>" ist nicht leer. <extraInfo>
SECURABLE_KIND_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION
Sicherungsfähig mit Art <securableKind> unterstützt keinen Lakehouse-Verbund.
SECURABLE_KIND_NOT_ENABLED
Sicherungsfähige Art <securableKind> ist nicht aktiviert. Wenn es sich um eine sicherungsfähige Art handelt, die einer Previewfunktion zugeordnet ist, aktivieren Sie sie in den Arbeitsbereichseinstellungen.
SECURABLE_TYPE_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION
Sicherungsfähig mit Typ <securableType> unterstützt keinen Lakehouse-Verbund.
SOURCE_TABLE_COLUMN_COUNT_EXCEEDS_LIMIT
Die Quelltabelle enthält mehr als <columnCount> Spalten. Bitte reduzieren Sie die Anzahl der Spalten auf <columnLimitation> oder weniger.
SYSTEMDIENSTPRINZIPAL_IST_NICHT_REGISTRIERT
Der registrierte Systemdienstprinzipal mit dem Ressourcennamen <servicePrincipalResource>konnte nicht gefunden werden.
TABELLENTYP_UNTERSTÜTZT_KEINE_SPALTENMETADATEN
Der Tabellentyp <tableType> unterstützt keine Spaltenmetadaten.
UC_AAD_CLIENT_SECRET_EXPIRED_FOR_SERVICE_PRINCIPAL
Die geheimen Clientschlüssel für den Dienstprinzipal mit Anwendungs-ID <applicationId> sind abgelaufen. Besuchen Sie das Azure-Portal, um neue Schlüssel für Ihren Dienstprinzipal zu erstellen.
UC_AAD_CLIENT_SECRET_EXPIRED_FOR_STORAGE_CREDENTIAL
Die geheimen Clientschlüssel für Speicheranmeldeinformationen <storageCredentialName> sind abgelaufen. Wenden Sie sich an den Besitzer oder Ihren Kontoadministrator, um die Speicheranmeldeinformationen zu aktualisieren.
UC_AAD_CLIENT_SECRET_INVALID_FOR_SERVICE_PRINCIPAL
Der geheime Clientschlüssel für den Dienstprinzipal mit Anwendungs-ID <applicationId> ist ungültig.
UC_AAD_SERVICE_PRINCIPAL_CONFIG_INVALID
Die Dienstprinzipalkonfiguration ist ungültig. Überprüfen Sie die Verzeichnis-ID, Anwendungs-ID und den geheimen Clientschlüssel.
UC_AAD_TOKEN_EXCHANGE_GENERIC_FAILURE
Fehler beim Abrufen von Anmeldeinformationen: Die Speicheranmeldeinformationen <storageCredentialName> sind nicht ordnungsgemäß konfiguriert. Wenden Sie sich an den Besitzer oder Ihren Kontoadministrator, um die Konfiguration zu aktualisieren.
UC_AAD_TOKEN_LIFETIME_TOO_SHORT
Die ausgetauschte AAD-Tokenlebensdauer beträgt <lifetime> und ist zu kurz konfiguriert. Überprüfen Sie Ihre Azure AD-Einstellung, um sicherzustellen, dass das temporäre Zugriffstoken mindestens eine Stunde lebensdauer hat. https://learn.microsoft.com/azure/active-directory/develop/active-directory-configurable-token-lifetimes
UC_ABAC_MEHRDEUTIGE_SPALTENZUORDNUNG
Fehler beim Auswerten der ABAC-Richtlinien für „<resource>“. Ein Fehler bei der Richtlinie '<policyName>' mit Meldung: Die Verwendung des Alias '<alias>' ergab <size> Übereinstimmungen, genau 1 Übereinstimmung ist zulässig.
UC_ABAC_DEPENDENCY_COMPLEXITY_LIMIT_EXCEEDED
<resourceType> "<ref>" hat zu viele <resolverType> Abac-Abhängigkeiten.
UC_ABAC_DEPENDENCY_DIFFERING_RF_CM
Die Abhängigkeit "<dependency>" wird mehrmals referenziert und führt zu unterschiedlichen ABAC-Zeilenfiltern oder Spaltenmasken.
UC_ABAC_EVALUATION_USER_ERROR
Fehler beim Auswerten der ABAC-Richtlinien für „<resource>“. Die Richtlinie „<policyName>“ ist fehlgeschlagen mit der Meldung: <message>.
UC_ABAC_INVALID_TAG_POLICY_VALUE
Fehler beim Auswerten der ABAC-Richtlinien für „<resource>“. Fehler bei Nachricht: Ungültiger Tag-Richtlinienwert <tagValue> für Den Schlüssel <tagKey>.
UC_ABAC_MULTIPLE_ROW_FILTERS
Die Auswertung von ABAC-Richtlinien für "<resource>" führte zu mehreren Zeilenfiltern. Maximal ein Zeilenfilter ist zulässig.
UC_ABAC_UNKNOWN_TAG_POLICY
Fehler beim Auswerten der ABAC-Richtlinien für „<resource>“. Fehler bei Nachricht: Unbekannte Tagrichtlinie: <tagKey>.
UC_ABAC_UNMATCHED_ALIAS_IN_USING_COLUMNS
Fehler beim Auswerten der ABAC-Richtlinien für „<resource>“. Fehlgeschlagen mit der Meldung: Alias '<alias>', verwendet in USING COLUMNS, hat mit keiner Spalte übereingestimmt.
UC_ABAC_UNMATCHED_ON_COLUMN_ALIAS
Fehler beim Auswerten der ABAC-Richtlinien für „<resource>“. Die Richtlinie '<policyName>' schlug fehl mit der Meldung: Der Alias '<alias>', der in ON COLUMN verwendet wurde, entspricht keiner Spalte.
UC_ABAC_UNÜBEREINGESTIMMT_UNTER_VERWENDUNG_VON_ALIAS
Fehler beim Auswerten der ABAC-Richtlinien für „<resource>“. Richtlinie '<policyName>' ist fehlgeschlagen mit der Meldung: Die Verwendung des Alias '<alias>' stimmt mit keiner Spalte überein.
UC_ABAC_USING_REF_OF_NATIVE_MASKED_COLUMNS
Fehler beim Auswerten der ABAC-Richtlinien für „<resource>“. Fehler bei meldung: Spalte '<usingCol>' wurde von der systemeigenen RLS/CM-Richtlinie maskiert und kann nicht als Eingabe für die ABAC-Richtlinie '<policyName>' verwendet werden.
UC_ZUGRIFF_ERFORDERT_ARBEITSBEREICH
Es kann nicht auf das arbeitsbereichsgebundene Sicherheitsobjekt zugegriffen werden, da der Benutzer dem Arbeitsbereich nicht zugewiesen ist.
UC_ALTER_DLT_VIEW_OUTSIDE_DEFINING_PIPELINE
Das Ändern der Ansicht "<viewFullName>" außerhalb der Pipeline, durch die sie definiert wurde, ist nicht zulässig. Aktualisieren Sie stattdessen die Ansichtsdefinition aus der Pipeline, die sie definiert hat (Pipeline-ID: <owningPipelineId>).
UC_ATLAS_NOT_ENABLED_FOR_CALLING_SERVICE
Atlas ist für den Anrufdienst <serviceName>nicht aktiviert.
UC_AUTHZ_ACTION_NOT_SUPPORTED
Die Autorisierung <actionName> wird nicht unterstützt; Überprüfen Sie, ob der aufgerufene RPC für diesen Ressourcentyp implementiert ist.
UC_AWS_ASSUME_ROLE_FAILED
Fehler beim Abrufen von Anmeldeinformationen: Die AWS IAM-Rolle in den Unity-Katalog-Anmeldeinformationen ist nicht ordnungsgemäß konfiguriert. Wenden Sie sich an Ihren Metastore-Administrator oder den Anmeldeinformationsbesitzer, um die Konfiguration in AWS zu aktualisieren.
UC_AWS_EMPTY_STORAGE_LOCATION
Leerer Speicherort.
UC_AWS_INVALID_S3_POLICY_PREFIX
Ungültiger s3-Pfad für den Speicherort: Der S3-Pfad <providedPath> beginnt nicht mit dem erwarteten Präfix: <expectedPrefix>.
UC_AWS_UNSUPPORTED_S3_SCHEME
Ungültiger Pfad für speicherort: Nicht unterstütztes Schema gefunden: <providedScheme>. Unterstützte Schemas sind: <supportedS3Schemes>.
UC_AZURE_BLOB_SERVICE_UNAVAILABLE
Der Azure Blob-Dienst ist vorübergehend nicht verfügbar. Versuchen Sie es später erneut.
UC_AZURE_UDK_UNAUTHORIZED
Die Anforderung für den Benutzerdelegierungsschlüssel ist nicht autorisiert. Details: <details>
UC_BUILTIN_HMS_CONNECTION_CREATION_PERMISSION_DENIED
Es kann keine Verbindung für einen integrierten Hive-Metaspeicher erstellt werden, da der Benutzer: <userId> nicht der Administrator des Arbeitsbereichs ist: <workspaceId>
UC_BUILTIN_HMS_CONNECTION_MODIFY_RESTRICTED_FIELD
Versuchen Sie, ein eingeschränktes Feld in der integrierten HMS-Verbindung '<connectionName>' zu ändern. Nur "warehouse_directory" kann aktualisiert werden.
UC_CANNOT_RENAME_PARTITION_FILTERING_COLUMN
Fehler beim Umbenennen der Tabellenspalte <originalLogicalColumn>, da sie für die Partitionsfilterung in <sharedTableName> verwendet wird. Um fortzufahren, können Sie die Tabelle aus der Freigabe entfernen, die Spalte umbenennen und mit den gewünschten Partitionsfilterspalten erneut freigeben. Dies kann jedoch die Streamingabfrage für Ihren Empfänger unterbrechen.
UC_CHILD_CREATION_FORBIDDEN_FOR_NON_UC_CLUSTER
<securableType> '<securable>' kann nicht unter <parentSecurableType> '<parentSecurable>' erstellt werden, da die Anforderung nicht von einem UC-Cluster stammt.
UC_CONFLICTING_CONNECTION_ALLOW_LIST_OPTIONS
Eine Verbindung mit einer Zulassungsliste, die sich mit einer Verbindungsoption überlappt, kann nicht erstellt werden. Wert: <conflictingOptions>
UC_CONFLICTING_CONNECTION_OPTIONS
Eine Verbindung mit den Authentifizierungsoptionen "Benutzername/Kennwort" und "Oauth" kann nicht hergestellt werden. Wählen Sie eine aus.
UC_CONNECTION_CREDENTIALS_MAXIMUM_REACHED
Die maximale Anzahl von Anmeldeinformationen für den Verbindungsnamen „<connectionName>“ wurde erreicht. Löschen Sie vorhandene Anmeldeinformationen, bevor Sie eine neue erstellen.
UC_CONNECTION_CREDENTIALS_NOT_EXIST_FOR_USER_WITH_LOGIN
Die Anmeldeinformationen für die Benutzeridentität („<userIdentity>“) für die Verbindung „<connectionName>“ wurden nicht gefunden. Bitte melden Sie sich zuerst bei der Verbindung an, indem Sie <connectionPage> besuchen
UC_CONNECTION_CREDENTIALS_TYPE_NOT_SUPPORTED
Das Erstellen von Anmeldeinformationen für den sicherbaren Typ "<securableType>" wird nicht unterstützt. Unterstützte sicherungsfähige Typen: <allowedSecurableType>.
UC_CONNECTION_EXISTS_FOR_CREDENTIAL
Die Anmeldeinformationen „<credentialName>“ haben mindestens eine abhängige Verbindung. Sie können die Option "Erzwingen" verwenden, um die Anmeldeinformationen weiterhin zu aktualisieren oder zu löschen, aber die Verbindungen, die diese Anmeldeinformationen verwenden, funktionieren möglicherweise nicht mehr.
UC_CONNECTION_EXPIRED_ACCESS_TOKEN
Das der Verbindung zugeordnete Zugriffstoken ist abgelaufen. Aktualisieren Sie die Verbindung, um den OAuth-Fluss neu zu starten, um ein Token abzurufen.
UC_CONNECTION_EXPIRED_REFRESH_TOKEN
Das aktualisierungstoken, das der Verbindung zugeordnet ist, ist abgelaufen. Aktualisieren Sie die Verbindung, um den OAuth-Fluss neu zu starten, um ein neues Token abzurufen.
UC_CONNECTION_IN_FAILED_STATE
Die Verbindung befindet sich im FAILED Zustand. Aktualisieren Sie die Verbindung mit gültigen Anmeldeinformationen, um sie erneut zu aktivieren.
UC_CONNECTION_MISSING_OPTION
Verbindungen vom sicherungsfähigen Typ '<securableType>' müssen die folgenden Optionen enthalten: <requiredOptions>.
UC_CONNECTION_MISSING_REFRESH_TOKEN
Der Verbindung ist kein Aktualisierungstoken zugeordnet. Aktualisieren Sie die OAuth-Client-Integration in Ihrem Identitätsanbieter, um Aktualisierungs-Token zurückzugeben, und aktualisieren oder erstellen Sie die Verbindung neu, um den OAuth-Fluss erneut zu starten und die erforderlichen Token abzurufen.
UC_CONNECTION_OAUTH_EXCHANGE_FAILED
Fehler beim OAuth-Tokenaustausch mit HTTP-Statuscode <httpStatus>. Die zurückgegebene Serverantwort oder Ausnahmemeldung lautet: <response>
UC_CONNECTION_OPTION_NOT_SUPPORTED
Verbindungen vom sicherungsfähigen Typ '<securableType>' unterstützen die folgenden Optionen nicht: <optionsNotSupported>. Unterstützte Optionen: <allowedOptions>.
UC_COORDINATED_COMMITS_NOT_ENABLED
Die Unterstützung für koordinierte Commits ist nicht aktiviert. Wenden Sie sich bitte an den Databricks-Support.
UC_CREATE_FORBIDDEN_UNDER_INACTIVE_SECURABLE
<securableType> '<securableName>' kann nicht erstellt werden, da es sich unter <parentSecurableType> '<parentSecurableName>' befindet, was nicht aktiv ist. Löschen Sie das übergeordnete sicherungsfähige Element, und erstellen Sie das übergeordnete Element neu.
UC_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED
Fehler beim Parsen der bereitgestellten Zugriffskonnektor-ID: <accessConnectorId>. Überprüfen Sie die Formatierung, und versuchen Sie es erneut.
UC_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN
Fehler beim Erhalten eines AAD-Tokens zur Überprüfung der Cloud-Berechtigungen für einen Zugriffskonnektor. Wiederholen Sie die Aktion.
UC_CREDENTIAL_INVALID_CLOUD_PERMISSIONS
SQLSTATE: nicht zugewiesen
Für die Registrierung von Anmeldeinformationen ist die Teilnehmerrolle über den entsprechenden Zugriffsconnector mit ID <accessConnectorId> erforderlich. Wenden Sie sich an Ihren Kontoadministrator.
UC_CREDENTIAL_INVALID_CREDENTIAL_TYPE_FOR_PURPOSE
Der Anmeldeinformationstyp „<credentialType>“ wird für den Zweck „<credentialPurpose>“ nicht unterstützt.
UC_CREDENTIAL_PERMISSION_DENIED
SQLSTATE: nicht zugewiesen
Nur der Kontoadministrator kann eine Anmeldeinformation mit dem Typ <storageCredentialType>erstellen oder aktualisieren.
UC_CREDENTIAL_TRUST_POLICY_IS_OPEN
Die Vertrauensrichtlinie der IAM-Rolle, um dem Databricks-Konto zu erlauben, die Rolle zu übernehmen, sollte eine externe ID erfordern. Wenden Sie sich an Ihren Kontoadministrator, um die Bedingung für die externe ID hinzuzufügen. Dieses Verhalten dient dazu, das Problem des verwirrten Stellvertreters (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html) zu verhindern.
UC_CREDENTIAL_WORKSPACE_API_PROHIBITED
Das Erstellen oder Aktualisieren von Anmeldeinformationen als Nicht-Kontoadministrator wird in der API auf Kontoebene nicht unterstützt. Verwenden Sie stattdessen die API auf Arbeitsbereichsebene.
UC_DBR_TRUST_VERSION_TOO_OLD
Die verwendete Databricks-Runtime unterstützt diesen Vorgang nicht mehr. Verwenden Sie die neueste Version (Möglicherweise müssen Sie den Cluster neu starten).
UC_DELTA_ILLEGAL_BACKFILLED_VERSION
Unerwartetes latestBackfilledVersion <latestBackfilledVersion> für den Commit (<version>, <commitType>).
UC_DELTA_ILLEGAL_CONCURRENT_MIGRATION
Gleichzeitiges Upgrade oder Downgrade von einer katalogverwalteten Tabelle wird nicht unterstützt. Stellen Sie sicher, dass jeweils nur eine Transaktion den Migrationsbefehl ausführt. Es wurde ein Duplikat <commitType> erkannt.
UC_DELTA_ILLEGAL_MIGRATION_STATE_CHANGE
Ungültiger Zustandsübergang vom alten Commit-Typ <lastCommitType> in "Neu <commitType>".
UC_DELTA_MIGRATION_STATE_CHANGE_VERSION_MISMATCH
Versionen stimmen nicht für den Zustandsübergang von alter (<lastVersion>, <lastCommitType>) zu neuer (<version>, <commitType>) überein.
UC_DELTA_UNIVERSAL_FORMAT_CANNOT_PARSE_ICEBERG_VERSION
Die Apache Iceberg-Tabellenversion kann vom Metadatenspeicherort <metadataLocation> nicht geparst werden.
UC_DELTA_UNIVERSAL_FORMAT_CONCURRENT_WRITE
Es wurde ein gleichzeitiges Update auf dieselbe Apache Iceberg-Metadatenversion erkannt.
UC_DELTA_UNIVERSAL_FORMAT_INVALID_METADATA_LOCATION
Der zugesicherte Metadatenspeicherort <metadataLocation> ist ungültig. Es handelt sich nicht um ein Unterverzeichnis des Stammverzeichnisses <tableRoot>der Tabelle.
UC_DELTA_UNIVERSAL_FORMAT_MISSING_FIELD_CONSTRAINT
Die bereitgestellten Delta Apache Iceberg Format Konvertierungsinformationen fehlen erforderliche Felder.
UC_DELTA_UNIVERSAL_FORMAT_NON_CREATE_CONSTRAINT
Das Festlegen von Delta Apache Iceberg-Formatinformationen zum Erstellen wird nicht unterstützt.
UC_DELTA_UNIVERSAL_FORMAT_TOO_LARGE_CONSTRAINT
Die bereitgestellten Delta Apache Iceberg Format Konvertierungsinformationen sind zu groß.
UC_DELTA_UNIVERSAL_FORMAT_UPDATE_INVALID
Einheitliche Metadaten können nur auf Delta-Tabellen aktualisiert werden, wenn das Uniform-Feature aktiviert ist.
UC_DEPENDENCY_DEPTH_LIMIT_EXCEEDED
<resourceType> "<ref>" Tiefe überschreitet den Grenzwert (oder weist einen Zirkelbezug auf).
UC_DEPENDENCY_DOES_NOT_EXIST
<resourceType> '<ref>' ist ungültig, da eine der zugrunde liegenden Ressourcen nicht vorhanden ist. <cause>
UC_DEPENDENCY_PERMISSION_DENIED
<resourceType> "<ref>" verfügt nicht über ausreichende Berechtigungen zur Ausführung, weil der Besitzer einer der zugrunde liegenden Ressourcen bei einer Autorisierungsprüfung durchgefallen ist. <cause>
UC_DUPLICATE_CONNECTION
Eine Verbindung mit dem Namen '<connectionName>' mit derselben URL ist bereits vorhanden. Bitten Sie den Besitzer, diese Verbindung zu verwenden, anstatt ein Duplikat zu erstellen.
UC_DUPLICATE_FABRIC_CATALOG_CREATION
Es wurde versucht, einen Fabric-Katalog mit der URL "<storageLocation>" zu erstellen, der einem vorhandenen Katalog entspricht, der nicht zulässig ist.
UC_DUPLICATE_TAG_ASSIGNMENT_CREATION
Die Tag-Zuweisung mit dem Tagschlüssel <tagKey> existiert bereits.
UC_ENTITY_DOES_NOT_HAVE_CORRESPONDING_ONLINE_CLUSTER
Die Entität <securableType> <entityId> verfügt nicht über einen entsprechenden Onlinecluster.
UC_ETAG_MISMATCH
Ressource wurde geändert. Rufen Sie das neueste eTag ab, und versuchen Sie es erneut. Etag-Wert erwartet: <expectedTokenValue> mit Protokollversion <expectedTokenVersion>, empfangener etag-Wert: <providedTokenValue> mit Protokollversion <providedTokenVersion>
UC_EXCEEDS_MAX_FILE_LIMIT
Es sind mehr als <maxFileResults> Dateien vorhanden. Geben Sie [max_results] an, um die Anzahl der zurückgegebenen Dateien einzuschränken.
UC_EXTERNAL_HMS_SCHEMA_LOCATION_NOT_FEDERATED
Das Schema <schemaName> befindet sich im DEGRADED Bereitstellungsstatus, der erwartet wird, da der Speicherort des eHMS/Glue-Schemas nicht verbunden wird.
UC_EXTERNAL_LOCATION_OP_NOT_ALLOWED
<opName> <extLoc> <reason> nicht möglich.
<suggestion>.
UC_FEATURE_DISABLED
<featureName> ist derzeit in UC deaktiviert.
UC_FOREIGN_CATALOG_FOR_CONNECTION_TYPE_NOT_SUPPORTED
Das Erstellen eines fremden Katalogs für den Verbindungstyp '<connectionType>' wird nicht unterstützt. Dieser Verbindungstyp kann nur zum Erstellen verwalteter Aufnahmepipelines verwendet werden. Weitere Informationen finden Sie in der Databricks-Dokumentation.
UC_FOREIGN_CREDENTIAL_CHECK_ONLY_FOR_READ_OPERATIONS
Nur Leseberechtigungen können für Fremdtabellen abgerufen werden.
UC_FOREIGN_ENTITY_CREATION_FORBIDDEN_DURING_CONVERSION
Das Erstellen FOREIGN <securableType> von '<entityName>' unter Katalog '<catalogName>' ist verboten, während der Katalog in FOREIGNSTANDARD. konvertiert wird.
UC_FOREIGN_HMS_SHALLOW_CLONE_MISMATCH
Die Basistabelle und die Klontabelle müssen sich im gleichen Katalog befinden, damit flache Klone, die in fremden Hive-Metastore-Katalogen erstellt wurden, erstellt werden. Die Basistabelle '<baseTableName>' befindet sich im Katalog '<baseCatalogName>' und die Klontabelle '<cloneTableName>' befindet sich im Katalog '<cloneCatalogName>'.
UC_FOREIGN_KEY_CHILD_COLUMN_LENGTH_MISMATCH
Die unter- und übergeordneten Spalten von Fremdschlüssel <constraintName> sind unterschiedlich groß.
UC_FOREIGN_KEY_COLUMN_MISMATCH
Die übergeordneten Fremdschlüsselspalten stimmen nicht mit den referenzierten untergeordneten Primärschlüsselspalten überein. Übergeordnete Fremdschlüsselspalten sind (<parentColumns>), und untergeordnete Primärschlüsselspalten sind (<primaryKeyChildColumns>).
UC_FOREIGN_KEY_COLUMN_TYPE_MISMATCH
Der untergeordnete Spaltentyp des Fremdschlüssels stimmt nicht mit dem übergeordneten Spaltentyp überein. Untergeordnete Fremdschlüsselspalte <childColumnName> hat Typ <childColumnType>, und übergeordnete Spalte <parentColumnName> hat Typ <parentColumnType>.
UC_GCP_INVALID_PRIVATE_KEY
Zugriff abgelehnt. Ursache: Privater Schlüssel des Dienstkontos ist ungültig.
UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT
Google Server-Konto OAuth Private Key muss ein gültiges JSON Objekt mit erforderlichen Feldern sein. Stellen Sie bitte sicher, dass sie die vollständige JSON Datei bereitstellen, die aus dem Abschnitt "KEYS" des Dienstkontodetails generiert wurde.
UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT_MISSING_FIELDS
Google Server-Konto OAuth Private Key muss ein gültiges JSON Objekt mit erforderlichen Feldern sein. Stellen Sie bitte sicher, dass sie die vollständige JSON Datei bereitstellen, die aus dem Abschnitt "KEYS" des Dienstkontodetails generiert wurde. Fehlende Felder sind <missingFields>
UC_IAM_ROLE_NON_SELF_ASSUMING
Es wurde festgestellt, dass die IAM-Rolle für diese Speicheranmeldeinformationen nicht selbstübernehmend ist. Überprüfen Sie die Vertrauens- und IAM-Richtlinien Ihrer Rolle, um sicherzustellen, dass Ihre IAM-Rolle sich gemäß der Dokumentation zu Unity Catalog-Speicheranmeldeinformationen selbst annehmen kann.
UC_ICEBERG_COMMIT_CONFLICT
Commit für <tableName> nicht möglich: Metadatenspeicherort <baseMetadataLocation> wurde von <catalogMetadataLocation> geändert.
UC_ICEBERG_COMMIT_INVALID_TABLE
Es kann kein Commit einer verwalteten Apache Iceberg-Tabelle auf eine nicht verwaltete Apache Iceberg-Tabelle durchgeführt werden: <tableName>.
UC_ICEBERG_COMMIT_MISSING_FIELD_CONSTRAINT
Den bereitgestellten Managed Apache Iceberg Commit-Informationen fehlen erforderliche Felder.
UC_ID_MISMATCH
<type> <name> hat nicht ID <wrongId>. Versuchen Sie den Vorgang erneut.
UC_INFORMATION_SCHEMA_PER_METASTORE_DB_RATE_LIMIT_EXCEEDED
Zu viele Informationsschemaanforderungen für den Metaspeicher. Bitte warten Sie einen Moment, und versuchen Sie es erneut. Wenn das Problem weiterhin besteht, sollten Sie in Erwägung ziehen, die Selektivität Ihrer Abfragen anzupassen oder den Support zu kontaktieren.
UC_UNGÜLTIGER_ZUGRIFF_BRICKSTORE_ONLINE_TABELLEN_ABSCHALTUNG
Die Onlinetabelle ist veraltet. Der Erwerb des Zugriffs auf die Onlinetabelle <securableName> wird nicht mehr unterstützt.
UC_INVALID_ACCESS_BRICKSTORE_PG_CONNECTION
Ungültiger Zugriff auf datenbankinstanz. <reason>
UC_INVALID_ACCESS_DBFS_ENTITY
Ungültiger Zugriff auf <securableType> <securableName> im Verbundkatalog <catalogName>. <reason>
UC_INVALID_AZURE_PATH
Ungültiger Azure-Pfad: <path>
UC_INVALID_CLOUDFLARE_ACCOUNT_ID
Ungültige Cloudflare-Konto-ID.
UC_INVALID_CREDENTIAL_CLOUD
Ungültiger Cloudanbieter <cloud> für Anmeldeinformationen. Zulässiger Cloudanbieter '<allowedCloud>'.
UC_INVALID_CREDENTIAL_PURPOSE_VALUE
Ungültiger Wert <value> für den „purpose“ der Anmeldeinformationen. Zulässige Werte '<allowedValues>'.
UC_INVALID_CREDENTIAL_TRANSITION
Es kann keine Verbindung von <startingCredentialType> auf <endingCredentialType>aktualisiert werden. Der einzige gültige Übergang besteht aus einer benutzernamen-/kennwortbasierten Verbindung zu einer OAuth-tokenbasierten Verbindung.
UC_INVALID_CRON_STRING_FABRIC
Ungültige Cron-Zeichenfolge. Gefunden: „<cronString>“ mit Parsingausnahme: „<message>“
UC_INVALID_DIRECT_ACCESS_MANAGED_TABLE
Ungültige verwaltete Tabelle für direkten Zugriff <tableName>. Stellen Sie sicher, dass die Pipelinedefinitionen der Quelltabelle & nicht definiert sind.
UC_INVALID_EMPTY_STORAGE_LOCATION
Unerwarteter leerer Speicherort für <securableType> '<securableName>' im Katalog '<catalogName>'. Um diesen Fehler zu beheben, führen Sie bitte DESCRIBE SCHEMA <catalogName>aus.
<securableName>, und aktualisieren Sie diese Seite.
UC_INVALID_OPTIONS_UPDATE
Ungültige Optionen wurden für das Update bereitgestellt. Ungültige Optionen: <invalidOptions>. Zulässige Optionen: <allowedOptions>.
UC_INVALID_OPTION_VALUE
Ungültiger Wert '<value>' für '<option>'. Zulässige Werte '<allowedValues>'.
UC_INVALID_OPTION_VALUE_EMPTY
'<option>' darf nicht leer sein. Geben Sie einen nicht leeren Wert ein.
UC_INVALID_POLICY_CONDITION
Ungültige Bedingung in Richtlinie '<policyName>'. Kompilierungsfehler mit der Meldung '<message>'.
UC_INVALID_R2_ACCESS_KEY_ID
Ungültige R2-Zugriffstasten-ID.
UC_INVALID_R2_SECRET_ACCESS_KEY
Ungültiger geheimer R2-Zugriffsschlüssel.
UC_INVALID_UPDATE_ON_SYSTEM_WORKSPACE_ADMIN_GROUP_OWNED_SECURABLE
<securableType> '<securableName>' kann nicht aktualisiert werden, da es sich im Besitz einer internen Gruppe befindet. Bitte wenden Sie sich an den Databricks-Support, um weitere Details zu erhalten.
UC_INVALID_WASBS_EXTERNAL_LOCATION_STORAGE_CREDENTIAL
Die bereitgestellten Speicher-Zugangsdaten <storageCredentialName> sind nicht mit dem DBFS-Stamm verbunden, daher ist die Erstellung eines wasbs-Externstandorts nicht zulässig.
UC_LOCATION_INVALID_SCHEME
Der Speicherort weist ein ungültiges URI-Schema auf: <scheme>.
UC_MALFORMED_OAUTH_SERVER_RESPONSE
Die Antwort vom Token-Server enthielt das Feld <missingField>nicht. Die zurückgegebene Serverantwort lautet: <response>
UC_MANAGED_ICEBERG_UNSUPPORTED
Die verwaltete Apache Iceberg-Tabelle auf dem aktuellen Endpunkt kann nicht unterstützt werden.
UC_METASTORE_ASSIGNMENT_STATUS_INVALID
'<metastoreAssignmentStatus>' kann nicht zugewiesen werden. Nur MANUALLY_ASSIGNABLE und AUTO_ASSIGNMENT_ENABLED werden unterstützt.
UC_METASTORE_CERTIFICATION_NOT_ENABLED
Die Metastore-Zertifizierung ist nicht aktiviert.
UC_METASTORE_HAS_ACTIVE_MANAGED_ONLINE_CATALOGS
SQLSTATE: nicht zugewiesen
Der Metastore <metastoreId> enthält <numberManagedOnlineCatalogs> verwaltete(n) Onlinekatalog(e). Löschen Sie sie explizit, und wiederholen Sie dann den Metastore-Löschvorgang.
UC_METASTORE_QUOTA_EXCEEDED
Dieses Konto mit id <accountId> hat den Grenzwert für Metastores in der Region <region>erreicht.
UC_METASTORE_STORAGE_ROOT_CREDENTIAL_UPDATE_INVALID
Metastore-Stammanmeldeinformationen können beim Aktualisieren des Metastore-Stammspeicherorts nicht festgelegt werden. Die Anmeldeinformationen werden vom übergeordneten externen Speicherort des Metastores abgerufen.
UC_METASTORE_STORAGE_ROOT_DELETION_INVALID
Das Löschen des Metastore-Speicherwurzelorts ist fehlgeschlagen. <reason>
UC_METASTORE_STORAGE_ROOT_READ_ONLY_INVALID
Der Stamm <securableType> für einen Metastore darf nicht schreibgeschützt sein.
UC_METASTORE_STORAGE_ROOT_UPDATE_INVALID
Der Metastore-Speicherstamm kann nicht aktualisiert werden, nachdem er festgelegt wurde.
UC_MODEL_INVALID_STATE
Temporäre '<opName>' Anmeldeinformationen für Modellversion <modelVersion> mit Status <modelVersionStatus> können nicht generiert werden. '<opName>' Anmeldeinformationen können nur für Modellversionen mit dem Status <validStatus> generiert werden.
UC_NATIVE_USING_REF_OF_ABAC_MASKED_COLUMNS
Fehler beim Auswerten der ABAC-Richtlinien für „<resource>“. Fehler bei meldung: Spalte '<usingCol>' wurde von der ABAC-Richtlinie '<policyName>' maskiert und kann nicht als Eingabe für eine systemeigene RLS/CM-Richtlinie verwendet werden.
UC_NO_ORG_ID_IN_CONTEXT
Es wurde versucht, auf die Organisations-ID (oder Arbeitsbereichs-ID) zuzugreifen, der Kontext hat jedoch keine.
UC_ONELAKE_PATH_BAD_DOMAIN
Der Azure OneLake-Pfad "<path>" muss den Domänennamen "<expectedHost>" aufweisen.
UC_ONELAKE_PATH_BAD_FORMAT
Der Azure OneLake-Pfad "<path>" muss das Format "abfss://_WORKSPACE_@<host>/" aufweisen.
UC_ONELAKE_PATH_MISSING_AT
Der Azure OneLake-Pfad '<path>' enthält nicht '@'.
UC_ONELAKE_PATH_MISSING_WORKSPACE
Der Azure OneLake-Pfad "<path>" muss einen Arbeitsbereichsnamen enthalten.
UC_ONLINE_CATALOG_NOT_MUTABLE
SQLSTATE: nicht zugewiesen
Die <rpcName>-Anforderung aktualisiert <fieldName>. Verwenden Sie die Computeregisterkarte für den Onlinespeicher, um alles andere als Kommentar, Besitzende und isolationMode eines Onlinekatalogs zu ändern.
UC_ONLINE_CATALOG_QUOTA_EXCEEDED
Es können nicht mehr als <quota> Onlineshops im Metastore erstellt werden, und es gibt bereits <currentCount>. Möglicherweise haben Sie keinen Zugriff auf vorhandene Online-Stores. Wenden Sie sich an Ihren Metastore-Administrator, um Zugriff oder weitere Anweisungen zu erhalten.
UC_ONLINE_INDEX_CATALOG_INVALID_CRUD
SQLSTATE: nicht zugewiesen
Onlineindexkataloge müssen über die API „/vector-search“ <action> werden.
UC_ONLINE_INDEX_CATALOG_NOT_MUTABLE
SQLSTATE: nicht zugewiesen
Die <rpcName>-Anforderung aktualisiert <fieldName>. Verwenden Sie die API „/vector-search“, um alles andere als Kommentar, Eigentümer und isolationMode eines Online-Indexkatalogs zu ändern.
UC_ONLINE_INDEX_CATALOG_QUOTA_EXCEEDED
Es können höchstens <quota> Onlineindexkataloge im Metastore erstellt werden, und es gibt bereits <currentCount>. Möglicherweise haben Sie keinen Zugriff auf vorhandene Onlineindexkataloge. Wenden Sie sich an Ihren Metastore-Administrator, um Zugriff oder weitere Anweisungen zu erhalten.
UC_ONLINE_INDEX_INVALID_CRUD
Onlineindizes müssen über die API „/vector-search“ <action> werden.
UC_ONLINE_STORE_INVALID_CRUD
SQLSTATE: nicht zugewiesen
Für Onlinespeicher muss über die Computeregisterkarte des Onlinespeichers <action> ausgeführt werden.
UC_ONLINE_TABLE_COLUMN_NAME_TOO_LONG
Der Name der Quelltabellenspalte <columnName> ist zu lang. Die maximale Länge beträgt <maxLength> Zeichen.
UC_ONLINE_TABLE_PRIMARY_KEY_COLUMN_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT
Spalte <columnName> kann nicht als Primärschlüsselspalte der Onlinetabelle verwendet werden, da sie nicht Teil der vorhandenen PRIMARY KEY Einschränkung der Quelltabelle ist. Weitere Informationen finden Sie unter <docLink>
UC_ONLINE_TABLE_TIMESERIES_KEY_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT
Spalte <columnName> kann nicht als Zeitserienschlüssel der Onlinetabelle verwendet werden, da es sich nicht um eine Zeitserienspalte der vorhandenen PRIMARY KEY Einschränkung der Quelltabelle handelt. Weitere Informationen finden Sie unter <docLink>
UC_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED
Pro Quelltabelle können nicht mehr als <quota> Onlinetabellen erstellt werden.
UC_ONLINE_VIEW_ACCESS_DENIED
Für den Zugriff auf Ressourcen <resourceName> ist die Verwendung eines Serverless SQL Warehouse erforderlich. Stellen Sie sicher, dass das Lager, das verwendet wird, um eine Abfrage auszuführen oder einen Datenbankkatalog in der Benutzeroberfläche anzuzeigen, serverlos ist. Weitere Informationen finden Sie unter <docLink>
UC_ONLINE_VIEW_CONTINUOUS_QUOTA_EXCEEDED
Es können höchstens <quota> fortlaufende Onlineansichten im Onlinespeicher erstellt werden, und es gibt bereits <currentCount>. Möglicherweise haben Sie keinen Zugriff auf vorhandene Onlineansichten. Wenden Sie sich an Ihren Online-Shop-Administrator, um Zugriff oder weitere Anweisungen zu erhalten.
UC_ONLINE_VIEW_DOES_NOT_SUPPORT_DMK
SQLSTATE: nicht zugewiesen
<tableKind> kann unter einem Speicherort mit von Databricks verwalteten Schlüsseln nicht erstellt werden. Wählen Sie ein anderes Schema/Katalog an einem Speicherort ohne Verschlüsselung für verwaltete Schlüssel von Databricks aus.
UC_ONLINE_VIEW_INVALID_CATALOG
Ungültiger Katalog <catalogName> mit Art <catalogKind>, um <tableKind> darin zu erstellen.
<tableKind> kann nur unter Katalogen der folgenden Arten erstellt werden: <validCatalogKinds>.
UC_ONLINE_VIEW_INVALID_SCHEMA
Ungültiges Schema <schemaName> mit Art <schemaKind>, um <tableKind> darin zu erstellen.
<tableKind> kann nur unter Schemas der folgenden Arten erstellt werden: <validSchemaKinds>.
UC_ONLINE_VIEW_INVALID_TTL_TIME_COLUMN_TYPE
Spalten-<columnName> vom Typ <columnType> können nicht als TTL-Zeitspalte verwendet werden. Zulässige Typen sind <supportedTypes>.
UC_OPERATION_NOT_SUPPORTED
Der Vorgang wird vom Unity-Katalog nicht unterstützt. <detailedMessage>
UC_OUT_OF_AUTHORIZED_PATHS_SCOPE
Fehler bei autorisiertem Pfad. Der <securableType>-Speicherort <location> ist nicht innerhalb der autorisierten Pfade für den Katalog definiert: <catalogName>. Bitten Sie den Katalogbesitzer, den Pfad zur Liste der autorisierten Pfade hinzuzufügen, die im Katalog definiert sind.
UC_OVERLAPPED_AUTHORIZED_PATHS
Die Option "authorized_paths" enthält überlappende Pfade: <overlappingPaths>. Stellen Sie sicher, dass jeder Pfad eindeutig ist und sich nicht mit anderen in der Liste überschneidet.
UC_PAGINATION_AND_QUERY_ARGS_MISMATCH
Das Abfrageargument '<arg>' ist auf '<received>' festgelegt, was sich vom Wert unterscheidet, der im ersten Paginierungsaufruf verwendet wird ('<expected>)
UC_PATH_FILTER_ALLOWLIST_VIOLATION
Die Anmeldeinformationen "<credentialName>" sind standardanmeldeinformationen des Arbeitsbereichs, die nur auf Daten in den folgenden Pfaden zugreifen dürfen: '<allowlist>'. Stellen Sie sicher, dass sich jeder Pfad, auf den mit diesen Anmeldeinformationen zugegriffen wird, unter einem dieser Pfade befindet.
UC_PATH_FILTER_DENYLIST_VIOLATION
Die Zugangsdaten '<credentialName>' sind die Standard-Zugangsdaten des Arbeitsbereichs und können nicht auf Daten im folgenden eingeschränkten Pfad zugreifen: '<targetPath>'.
UC_PATH_TOO_LONG
Der Eingabepfad ist zu lang. Zulässige Länge: <maxLength>. Eingabelänge: <inputLength>. Eingabe: <path>...
UC_PER_METASTORE_DATABASE_CONCURRENCY_LIMIT_EXCEEDED
Die Parallelitätsgrenze für metastore <metastoreId> wurde überschritten. Versuchen Sie es später erneut. Wenn das Problem weiterhin besteht, wenden Sie sich an den Support. Fehlercode #UC-<errorCodeArbitraryFiveLettersUpperCase>
UC_POSTGRESQL_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED
Pro Quelltabelle können nicht mehr als <quota> synchronisierte Datenbanktabellen erstellt werden.
UC_PRIMARY_KEY_ON_NULLABLE_COLUMN
Der Primärschlüssel <constraintName> kann nicht erstellt werden, da die untergeordnete Spalte <childColumnNames> Nullwerte zulässt. Ändern Sie die NULL-Zulässigkeit der Spalte, und versuchen Sie es erneut.
UC_REQUEST_LIMIT_EXCEEDED
Ihre Anforderung wurde abgelehnt, da Ihre Organisation das Zinslimit überschritten hat. Wiederholen Sie Ihre Anforderung später noch mal.
UC_REQUEST_TIMEOUT
Dieser Vorgang dauerte zu lange.
UC_RESOURCE_QUOTA_EXCEEDED
(s) kann nicht in <parentResourceType> <parentResourceId> (geschätzte Anzahl: <currentCount>, Limit: ) erstellt werden<amount> <resourceType>. <quotaLimit>
UC_ROOT_STORAGE_S3_BUCKET_NAME_CONTAINS_DOT
Der S3-Bucketname des Stammspeichers mit Punkten wird vom Unity-Katalog nicht unterstützt: <uri>
UC_SCHEMA_EMPTY_STORAGE_LOCATION
Unerwarteter leerer Speicherort für das Schema "<schemaName>" im Katalog "<catalogName>". Stellen Sie sicher, dass das Schema ein Pfadschema von <validPathSchemesListStr>verwendet.
UC_SERVERLESS_UNTRUSTED_DOMAIN_STORAGE_TOKEN_MINTING
In netzwerkeingeschränkten Arbeitsbereichen ist es serverlosen Python- und Scala-Notizbüchern untersagt, temporäre Speicheranmeldeinformationen aus dem Unity-Katalog abzurufen.
UC_SHALLOW_CLONE_BASE_TABLE_DELETED
Auf den flachen Klon '<tableFullName>' kann nicht zugegriffen werden, weil die Basistabelle '<baseTableName>' gelöscht wurde.
STORAGE_CREDENTIALSUC__WITH_EXTERNAL_LOCATION_DELETION_DENIED
Die Speicheranmeldeinformationen "<credentialName>" haben <extTablesCount> direkt abhängige externe Tabellen und <extLocationsCount> abhängige Speicherorte. Sie können die Option "Erzwingen" verwenden, um sie zu löschen, aber die verwalteten Speicherdaten, die diese Speicheranmeldeinformationen verwenden, können nicht mehr vom Unity-Katalog gelöscht werden.
STORAGE_CREDENTIALSUC__WITH_EXTERNAL_LOCATION_UPDATE_DENIED
Speicheranmeldeinformationen "<credentialName>" haben <extTablesCount> direkt abhängige externe Tabellen und <extLocationsCount> abhängige Speicherorte. Verwenden Sie die Erzwingungsoption, um trotzdem zu aktualisieren.
UC_STORAGE_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED
Fehler beim Parsen der bereitgestellten Zugriffskonnektor-ID: <accessConnectorId>. Überprüfen Sie die Formatierung, und versuchen Sie es erneut.
UC_STORAGE_CREDENTIAL_DBFS_ROOT_CREATION_PERMISSION_DENIED
Die Speicheranmeldeinformationen für den DBFS-Stamm können nicht erstellt werden, da der Benutzer: <userId> nicht der Administrator des Arbeitsbereichs ist: <workspaceId>
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_DBFS_ENABLED
DBFS-Stammspeicher-Anmeldeinformationen werden für Arbeitsbereiche mit DBFS mit Firewallaktivierung noch nicht unterstützt.
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_NOT_SUPPORTED
DBFS-Root-Speicherberechtigungen für den aktuellen Arbeitsbereich werden derzeit nicht unterstützt.
UC_STORAGE_CREDENTIAL_DBFS_ROOT_WORKSPACE_DISABLED
Der DBFS-Stamm ist für den Arbeitsbereich <workspaceId> nicht aktiviert.
UC_STORAGE_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN
Fehler beim Erhalten eines AAD-Tokens zur Überprüfung der Cloud-Berechtigungen für einen Zugriffskonnektor. Wiederholen Sie die Aktion.
UC_STORAGE_CREDENTIAL_INVALID_CLOUD_PERMISSIONS
Für die Registrierung von Speicheranmeldeinformationen ist die Teilnehmerrolle über den entsprechenden Zugriffsconnector mit ID <accessConnectorId> erforderlich. Wenden Sie sich an Ihren Kontoadministrator.
UC_SPEICHER_CREDENTIAL_METADATENSPEICHER_ROOT_LÖSCHUNG_VERWEIGERT
Speicheranmeldeinformationen '<credentialName>' können nicht gelöscht werden, da sie als Stammanmeldeinformationen dieses Metastores konfiguriert ist. Aktualisieren Sie die Stammanmeldeinformationen des Metastores, bevor Sie den Löschvorgang versuchen.
UC_STORAGE_CREDENTIAL_PERMISSION_DENIED
Nur der Kontoadministrator kann eine Speicheranmeldeinformation mit dem Typ <storageCredentialType>erstellen oder aktualisieren.
UC_STORAGE_CREDENTIAL_SERVICE_PRINCIPAL_MISSING_VALIDATION_TOKEN
Fehlendes Überprüfungstoken für den Dienstprinzipal. Geben Sie bitte ein gültiges Entra ID-ARM-Token im Anforderungsheader „X-Databricks-Azure-SP-Management-Token“ an, und wiederholen Sie den Vorgang. Weitere Informationen finden Sie unter https://docs.databricks.com/api/workspace/storagecredentials
UC_STORAGE_CREDENTIAL_TRUST_POLICY_IS_OPEN
Die Vertrauensrichtlinie der IAM-Rolle, um dem Databricks-Konto zu erlauben, die Rolle zu übernehmen, sollte eine externe ID erfordern. Wenden Sie sich an Ihren Kontoadministrator, um die Bedingung für die externe ID hinzuzufügen. Dieses Verhalten dient dazu, das Problem des verwirrten Stellvertreters (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html) zu verhindern.
UC_STORAGE_CREDENTIAL_WASBS_NOT_DBFS_ROOT
Der Speicherort <location> befindet sich nicht im DBFS-Stamm, da keine Speicheranmeldeinformationen erstellt werden können. <storageCredentialName>
UC_STORAGE_CREDENTIAL_WORKSPACE_API_PROHIBITED
Das Erstellen oder Aktualisieren von Speicheranmeldeinformationen als Nicht-Kontoadministrator wird in der API auf Kontoebene nicht unterstützt. Verwenden Sie stattdessen die API auf Arbeitsbereichsebene.
UC_STORAGE_CREDENTIAL_WS_BUCKET_INVALID_LOCATION
Der Speicherort <requestedLocation> befindet sich nicht innerhalb des zulässigen Kontexts. <allowedLocation>
UC_STORAGE_CREDENTIAL_WS_INTERNAL_CATALOG_NOT_SUPPORTED
Die Katalogspeicher-Anmeldeinformationen für den aktuellen Arbeitsbereich werden noch nicht unterstützt.
UC_SYSTEM_SCHEMA_NICHT_VERFÜGBAR_FÜR_AKTIVIERUNG
Das Systemschema <systemSchema> ist zurzeit nicht für die Aktivierung verfügbar. Versuchen Sie es später erneut.
UC_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED
Es können keine Berechtigungen für <securableType> an die vom System generierte Gruppe <principal>gewährt werden.
UC_TABLE_IS_LOCKED_FOR_CATALOG_MANAGED_TABLE_MIGRATION
Die Tabelle "<tableId>" ist vorübergehend für eine katalogverwaltete Tabellenmigration gesperrt. Transaktionen in dieser Tabelle werden blockiert, bis die Migration abgeschlossen ist. Versuchen Sie die Transaktion in Kürze erneut.
UC_TABLE_IS_NOT_CATALOG_OWNED
Die Anforderung zum Ausführen von Commit/getCommits für die Tabelle „<tableId>“ erfordert das Aktivieren des Features „Eigentum des Katalogs“ für die Tabelle.
UC_TAG_ASSIGNMENT_WITH_KEY_DOES_NOT_EXIST
Tagzuweisung mit Tagschlüssel <tagKey> ist nicht vorhanden.
UC_TEMPORARY_CREDENTIAL_OPERATION_NOT_SUPPORTED
Vorgang mit temporären Anmeldeinformationen wird nicht unterstützt.
UC_UNDROP_RESOURCE_ID_ALREADY_EXISTS
Kann '<resourceType>' nicht wiederherstellen, da bereits ein '<resourceType>' mit der ID '<resourceId>' vorhanden ist.
UC_UNDROP_RESOURCE_NAME_ALREADY_EXISTS
'<resourceType>' kann nicht rückgängig werden, da bereits ein '<resourceType>' mit dem Namen '<resourceName>' vorhanden ist.
UC_UNDROP_RESOURCE_NOT_READY
„<resourceType>“ kann nicht wiederhergestellt werden, da „<resourceType>“ mit der ID „<resourceId>“ noch nicht zur Wiederherstellung bereit ist. Bitte versuchen Sie es später erneut.
UC_UNDROP_RESOURCE_PAST_CUSTOM_RETENTION_PERIOD (Ein Zeitraum, der über die benutzerdefinierte Aufbewahrungsfrist hinausgeht)
'<resourceType>' kann nicht rückgängig gemacht werden, da das '<resourceType>' mit der ID '<resourceId>' außerhalb seines benutzerdefinierten Wiederherstellungszeitraums liegt.
UC_UNDROP_RESOURCE_PAST_RECOVERABLE_WINDOW
„<resourceType>“ kann nicht wiederhergestellt werden, da „<resourceType>“ mit der ID „<resourceId>“ den unterstützten Wiederherstellungszeitraum von „<maxRestorationPeriodDay>“ Tagen überschreitet.
UC_EINZIGARTIGKEITSBEDINGUNG_KINDERSPALTEN_EXISTIEREN_BEREITS
Fehler beim Erstellen der UNIQUE-Einschränkung <newConstraintName>: Die Tabelle <tableName> hat bereits eine UNIQUE-Einschränkung: <existingConstraintName>, die denselben Satz von untergeordneten Spalten enthält.
UC_UNIQUE_CONSTRAINT_NOT_SUPPORTED
Fehler beim Arbeiten mit UNIQUE Einschränkung <constraintName>: UNIQUE Einschränkung ist nicht aktiviert.
UC_UNSUPPORTED_HTTP_CONNECTION_BASE_PATH
Ungültiger Basispfad angegeben, Basispfad sollte etwa "/api/resources/v1" sein. Nicht unterstützter Pfad: <path>
UC_UNSUPPORTED_HTTP_CONNECTION_HOST
Ungültiger Hostname angegeben, Hostname sollte ungefähr wie https://www.databricks.com ohne Pfadsuffix sein. Nicht unterstützter Host: <host>
UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH
In Pfaden für externe Speicherorte/Volumes/Tabellen werden nur einfache Latin/Latin-1-ASCII-Zeichen unterstützt. Nicht unterstützter Pfad: <path>
UC_UPDATE_FORBIDDEN_FOR_PROVISIONING_SECURABLE
<securableType> '<securableName>' kann nicht aktualisiert werden, da es bereitgestellt wird.
UC_USING_REF_OF_MASKED_COLUMNS
Fehler beim Auswerten der ABAC-Richtlinien für „<resource>“. Fehler bei Meldung: Spalte '<usingCol>' wurde von der ABAC-Richtlinie '<existingMaskingPolicy>' maskiert und kann nicht in der Richtlinie '<policyName>' verwendet werden.
UC_WRITE_CONFLICT
<type> <name> wurde von einer anderen Anforderung geändert. Versuchen Sie den Vorgang erneut.
UNDROP_TABLE_NOT_FOUND
Tabelle kann nicht rückgängig werden, da keine Tabelle mit Namen <tableFullName> für "Rückgängigmachen" qualifiziert ist. Diese Tabelle kann bereits abgeschnitten, über den maximalen Wiederherstellungszeitraum hinaus gelöscht oder nie vorhanden sein.
UNITY_CATALOG_EXTERNAL_COORDINATED_COMMITS_REQUEST_DENIED
Die Anforderung, Commit/getCommits für die Tabelle "<tableId>" außerhalb der Databricks Unity Catalog-aktivierten Umgebung auszuführen, wird aus Sicherheitsgründen verweigert. Wenden Sie sich an den Databricks-Support für Integrationen in Unity-Katalog.
UNITY_CATALOG_EXTERNAL_CREATE_STAGING_TABLE_REQUEST_DENIED
Die Anforderung zum Erstellen der Staging-Tabelle "<tableFullName>" außerhalb der Databricks Unity Catalog-aktivierten Compute-Umgebung wird aus Sicherheitsgründen verweigert. Wenden Sie sich an den Databricks-Support für Integrationen in Unity-Katalog.
COLUMN_MASKSUNITY_CATALOG_EXTERNAL_CREATE_TABLE_FAILED_VALIDATION__DEFINED
Die Anforderung zum Erstellen einer Tabelle "<tableFullName>" außerhalb von Databricks Unity Catalog aktivierter Computeumgebung wird verweigert. Spaltenmasken werden beim externen Erstellen von Tabellen nicht unterstützt.
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_FEHLGESCHLAGENE_VALIDIERUNG_DATENQUELLENFORMAT_NICHT_DELTA
Die Anforderung zum Erstellen einer Tabelle "<tableFullName>" außerhalb von Databricks Unity Catalog aktivierter Computeumgebung wird verweigert. Das Datenquellenformat muss sein DELTA , eine Tabelle extern zu erstellen, sondern es lautet "<dataSourceFormat>".
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_FAILED_VALIDATION_TABLE_TYPE_NOT_EXTERNAL (Fehler: Tabellentyp ist nicht externer Typ)
Die Anforderung zum Erstellen einer Tabelle "<tableFullName>" außerhalb von Databricks Unity Catalog aktivierter Computeumgebung wird verweigert. Der Tabellentyp muss EXTERNAL sein, um eine Tabelle extern zu erstellen, aber er ist stattdessen "<tableType>".
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_INFO_ENTHÄLT_UNGÜLTIGE_FELDER
Die Erstellung externer Tabellen ermöglicht nur die folgenden Felder: [Name, catalog_name, schema_name, table_type, data_source_format, Spalten, storage_location und Eigenschaften].
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED
Die Anforderung zum Erstellen einer nicht externen Tabelle "<tableFullName>" von außerhalb einer Databricks Unity Catalog aktivierten Compute-Umgebung wird aus Sicherheitsgründen verweigert. Wenden Sie sich an den Databricks-Support für Integrationen in Unity-Katalog.
UNITY_CATALOG_EXTERNAL_DELETE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED
Die Anforderung zum Löschen einer nicht externen Tabelle „<tableFullName>“ außerhalb des Unity-Katalogs mit aktivierter Compute-Umgebung wird nicht unterstützt.
UNITY_CATALOG_EXTERNAL_GENERATE_PATH_CREDENTIALS_DENIED
Die Anforderung zum Generieren von Zugriffsanmeldeinformationen für den Pfad "<path>" aus einer Umgebung außerhalb der durch den Databricks Unity Catalog aktivierten Compute-Umgebung wird aus Sicherheitsgründen abgelehnt. Wenden Sie sich an den Databricks-Support für Integrationen in Unity-Katalog.
UNITY_CATALOG_EXTERNAL_GENERATE_TABLE_CREDENTIALS_DENIED
Die Anforderung, um Zugriffsanmeldeinformationen für die Tabelle "<tableId>" von außerhalb einer durch den Databricks Unity-Katalog aktivierten Compute-Umgebung zu generieren, wird aus Sicherheitsgründen verweigert. Wenden Sie sich an den Databricks-Support für Integrationen in Unity-Katalog.
UNITY_CATALOG_EXTERNAL_GENERATE_TEMP_PATH_CRED_FAILED_VALIDATION_CREDENTIAL_ID_DEFINED - Die vom System angegebene Anmeldeinformationen konnten nicht überprüft werden.
Die Anforderung zum Erstellen temporärer Zugangsdaten für Pfade von außerhalb der Databricks Unity-Katalog-fähigen Rechenumgebung wird abgelehnt. Die Anmeldeinformations-ID darf beim externen Generieren temporärer Pfadanmeldeinformationen nicht definiert werden.
UNITY_KATALOG_EXTERN_ERZEUGEN_TEMPORÄRER_PFAD_CRED_FEHLGESCHLAGENE_VALIDIERUNG_NUR_ELTERNPFAD_DEFINIERT
Die Anforderung zum Erstellen temporärer Zugangsdaten für Pfade von außerhalb der Databricks Unity-Katalog-fähigen Rechenumgebung wird abgelehnt. make_path_only_parent darf beim externen Generieren temporärer Pfadanmeldeinformationen nicht definiert werden.
UNITY_CATALOG_EXTERNAL_GENERATE_VOLUME_CREDENTIALS_DENIED
Die Anforderung zum Generieren von Zugriffsanmeldeinformationen für das Volume "<volumeId>" von außerhalb des Databricks Unity-Katalogs aktivierten Computeumgebung wird zur Sicherheit verweigert. Wenden Sie sich an den Databricks-Support für Integrationen in Unity-Katalog.
UNITY_CATALOG_EXTERNAL_GENERATE_VOLUME_CREDENTIALS_FOR_SECURABLE_KIND_NOT_SUPPORTED
Die Anforderung zum Generieren von Zugriffsanmeldeinformationen für "<volumeSecurableKind>" außerhalb des Databricks-Unity-Katalogs aktivierter Computeumgebung wird zur Sicherheit verweigert. Wenden Sie sich an den Databricks-Support für Integrationen in Unity-Katalog.
UNITY_CATALOG_EXTERNAL_GET_FOREIGN_CREDENTIALS_DENIED
Die Anforderung, fremde Anmeldeinformationen für sicherungsfähige Objekte von außerhalb der Databricks Unity Catalog-aktivierten Compute-Umgebung abzurufen, wird aus Sicherheitsgründen verweigert.
UNITY_CATALOG_EXTERNAL_UPDATA_METADATA_SNAPSHOT_DENIED
Die Anforderung, Metadaten-Schnappschüsse von außerhalb der durch Databricks Unity Catalog aktivierten Compute-Umgebung zu aktualisieren, wird aus Sicherheitsgründen verweigert.
Nicht unterstütztes Standort-Schema
<fieldName> hat ein ungültiges URI-Schema <scheme>. Gültige URI-Schemas umfassen <validSchemes>. Ungültiger Pfad: <path>.
UPDATE_SYSTEM_TABLE
Systemeigene Tabelle kann nicht geändert werden. Tabelle '<tableName>' ist eine systemeigene Tabelle.
WRITE_CREDENTIALS_NOT_SUPPORTED_FOR_LEGACY_MANAGED_ONLINE_TABLE
Ungültige Anforderung zum Abrufen von Schreibberechtigungen für die verwaltete Onlinetabelle in einem Onlinekatalog.
Datei-API
FILES_API_API_IS_NOT_ENABLED
SQLSTATE: nicht zugewiesen
<api_name> API ist nicht aktiviert
FILES_API_API_IS_NOT_ENABLED_FOR_CLOUD_PATHS
SQLSTATE: nicht zugewiesen
Die angeforderte Methode der Datei-API wird für Cloudpfade nicht unterstützt.
FILES_API_AWS_ACCESS_DENIED
SQLSTATE: nicht zugewiesen
Der Zugriff auf den Speicher-Bucket wird von AWS verweigert.
FILES_API_AWS_ALL_ACCESS_DISABLED
SQLSTATE: nicht zugewiesen
Der gesamte Zugriff auf den Speicher-Bucket wurde in AWS deaktiviert.
FILES_API_AWS_BUCKET_DOES_NOT_EXIST
SQLSTATE: nicht zugewiesen
Der Speicher-Bucket ist in AWS nicht vorhanden.
FILES_API_AWS_FORBIDDEN
SQLSTATE: nicht zugewiesen
Der Zugriff auf den Speicher-Bucket ist von AWS verboten.
FILES_API_AWS_INVALID_AUTHORIZATION_HEADER
SQLSTATE: nicht zugewiesen
Der Arbeitsbereich ist falsch konfiguriert: Er muss sich in derselben Region wie der AWS-Arbeitsbereich-Stammspeicher-Bucket befinden.
FILES_API_AWS_INVALID_BUCKET_NAME
SQLSTATE: nicht zugewiesen
Der Speicher-Bucketname ist ungültig.
FILES_API_AWS_KMS_KEY_DISABLED
SQLSTATE: nicht zugewiesen
Die konfigurierten KMS-Schlüssel für den Zugriff auf den Speicher-Bucket sind in AWS deaktiviert.
FILES_API_AWS_UNAUTHORIZED
SQLSTATE: nicht zugewiesen
Der Zugriff auf AWS-Ressource ist nicht autorisiert.
FILES_API_AZURE_ACCOUNT_IS_DISABLED
SQLSTATE: nicht zugewiesen
Das Speicherkonto ist in Azure deaktiviert.
FILES_API_AZURE_AUTHORIZATION_PERMISSION_MISMATCH
SQLSTATE: nicht zugewiesen
Fehlende Übereinstimmung bei der Autorisierungsberechtigung.
FILES_API_AZURE_CMK_NOT_FOUND
SQLSTATE: nicht zugewiesen
Der verwaltete Verschlüsselungsschlüssel kann nicht gefunden werden.
FILES_API_AZURE_CMK_SOFT_DELETED
SQLSTATE: nicht zugewiesen
Der verwaltete Verschlüsselungsschlüssel wurde vorläufig gelöscht.
FILES_API_AZURE_CONTAINER_DOES_NOT_EXIST
SQLSTATE: nicht zugewiesen
Der Azure-Container ist nicht vorhanden.
FILES_API_AZURE_CREDENTIAL_NOT_FOUND
SQLSTATE: nicht zugewiesen
Azure-Anmeldeinformationen wurden nicht gefunden. Die Azure-Anmeldeinformationen könnten fehlen oder unzugänglich sein.
FILES_API_AZURE_FORBIDDEN
SQLSTATE: nicht zugewiesen
Der Zugriff auf den Speichercontainer ist von Azure verboten.
FILES_API_AZURE_HAS_A_LEASE
SQLSTATE: nicht zugewiesen
Azure hat geantwortet, dass es derzeit eine Lease für die Ressource gibt. Versuchen Sie es später erneut.
FILES_API_AZURE_INSUFFICIENT_ACCOUNT_PERMISSION
SQLSTATE: nicht zugewiesen
Das Konto, auf das zugegriffen wird, verfügt nicht über ausreichende Berechtigungen, um diesen Vorgang auszuführen.
FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_CONFIGURATION
SQLSTATE: nicht zugewiesen
Die Konfiguration des Kontos, auf das zugegriffen wird, wird nicht unterstützt.
FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_NAME
SQLSTATE: nicht zugewiesen
Auf das Speicherkonto in Azure kann nicht zugegriffen werden: Ungültiger Speicherkontoname.
FILES_API_AZURE_KEY_BASED_AUTHENTICATION_NOT_PERMITTED
SQLSTATE: nicht zugewiesen
Der Schlüsseltresor wird in Azure nicht gefunden. Überprüfen Sie die Einstellungen für vom Kunden verwaltete Schlüssel.
FILES_API_AZURE_KEY_VAULT_KEY_NOT_FOUND
SQLSTATE: nicht zugewiesen
Der Azure Key Vault-Schlüssel wurde in Azure nicht gefunden. Überprüfen Sie die Einstellungen für vom Kunden verwaltete Schlüssel.
FILES_API_AZURE_KEY_VAULT_VAULT_NOT_FOUND
SQLSTATE: nicht zugewiesen
Der Schlüsseltresor wird in Azure nicht gefunden. Überprüfen Sie die Einstellungen für vom Kunden verwaltete Schlüssel.
FILES_API_AZURE_MI_ACCESS_CONNECTOR_NOT_FOUND
SQLSTATE: nicht zugewiesen
Anmeldeinformationen für verwaltete Azure-Identität mit Zugriffsconnector nicht gefunden. Dies könnte darauf zurückzuführen sein, dass die IP-Zugriffskontrollen Ihre Anforderung abgelehnt haben.
FILES_API_AZURE_OPERATION_TIMEOUT
SQLSTATE: nicht zugewiesen
Der Vorgang konnte nicht innerhalb der zulässigen Zeit abgeschlossen werden.
FILES_API_AZURE_PATH_INVALID
SQLSTATE: nicht zugewiesen
Der angeforderte Pfad ist für Azure ungültig.
FILES_API_AZURE_PATH_IS_IMMUTABLE
SQLSTATE: nicht zugewiesen
Der angeforderte Pfad ist unveränderlich.
FILES_API_AZURE_UNSUPPORTED_HEADER
SQLSTATE: nicht zugewiesen
Einer der im Vorgang angegebenen Header wird nicht unterstützt.
FILES_API_CANNOT_PARSE_URL_PARAMETER
SQLSTATE: nicht zugewiesen
Der URL-Parameter kann nicht analysiert werden.
FILES_API_CATALOG_NOT_FOUND
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
FILES_API_CLOUD_RESOURCE_EXHAUSTED
SQLSTATE: nicht zugewiesen
<message>
FILES_API_CLOUD_STORAGE_PROVIDER_CONNECTION_ISSUE
SQLSTATE: nicht zugewiesen
Es liegt ein Verbindungsproblem vor, das <cloud_storage_provider> erreicht. Versuchen Sie es später erneut.
FILES_API_COLON_IS_NOT_SUPPORTED_IN_PATH
SQLSTATE: nicht zugewiesen
Das Zeichen „:“ wird in Pfaden nicht unterstützt.
FILES_API_CONSUMER_NETWORK_ZONE_NOT_ALLOWED
SQLSTATE: nicht zugewiesen
Die Consumer-Netzwerkzone „<consumer_network_zone>“ ist von der Netzwerkzone „<requester_network_zone>“ des Anforderernetzwerks nicht zulässig.
FILES_API_CONTROL_PLANE_NETWORK_ZONE_NOT_ALLOWED
SQLSTATE: nicht zugewiesen
Netzwerkzone der Databricks-Steuerungsebene nicht zulässig.
FILES_API_ZUGANGSDATEN_NICHT_GEFUNDEN
SQLSTATE: nicht zugewiesen
Die Anmeldeinformationen wurden nicht gefunden.
FILES_API_DIRECTORIES_CANNOT_HAVE_BODIES
SQLSTATE: nicht zugewiesen
Ein Textkörper wurde bereitgestellt, Verzeichnisse können jedoch keinen Dateiinhalt haben.
FILES_API_DIRECTORY_IS_NOT_EMPTY
SQLSTATE: nicht zugewiesen
Das Verzeichnis ist nicht leer. Dieser Vorgang wird für nicht leere Verzeichnisse nicht unterstützt.
FILES_API_DIRECTORY_IS_NOT_FOUND
SQLSTATE: nicht zugewiesen
Das Verzeichnis, auf das zugegriffen werden soll, wurde nicht gefunden.
DATEIEN_API_VERZEICHNIS_ZIP_DOWNLOAD_DATEIGRENZE_ÜBERSCHRITTEN
SQLSTATE: nicht zugewiesen
Verzeichnis enthält zu viele Dateien zum ZIP-Download. Maximal <max_file_count> Dateien erlaubt.
FILES_API_DMK_ENCRYPTION_ROOT_KEY_DISABLED
SQLSTATE: nicht zugewiesen
Der Stammschlüssel für die vom Kunden verwaltete Verschlüsselung ist deaktiviert.
FILES_API_DUPLICATED_HEADER
SQLSTATE: nicht zugewiesen
Die Anforderung enthielt mehrere Kopien eines Headers, der nur einmal zulässig ist.
FILES_API_DUPLICATE_QUERY_PARAMETER
SQLSTATE: nicht zugewiesen
Der Abfrageparameter '<parameter_name>' muss genau einmal vorhanden sein, wurde aber mehrmals bereitgestellt.
FILES_API_EMPTY_BUCKET_NAME
SQLSTATE: nicht zugewiesen
Der DbFS-Bucketname ist leer.
FILES_API_ENCRYPTION_KEY_PERMISSION_DENIED
SQLSTATE: nicht zugewiesen
Der Benutzer hat keinen Zugriff auf den Verschlüsselungsschlüssel.
FILES_API_ENCRYPTION_KEY_RETRIEVAL_OPERATION_TIMEOUT
SQLSTATE: nicht zugewiesen
Der Vorgang zum Abrufen des Verschlüsselungsschlüssels konnte nicht innerhalb des zulässigen Zeitraums abgeschlossen werden.
FILES_API_ENTITY_TOO_LARGE
SQLSTATE: nicht zugewiesen
Ihr Objekt überschreitet die maximal zulässige Objektgröße.
FILES_API_ERROR_EXPIRED_TTL
SQLSTATE: nicht zugewiesen
Die TTL ist abgelaufen.
FILES_API_ERROR_INVALID_TTL
SQLSTATE: nicht zugewiesen
Die TTL ist ungültig.
FILES_API_ERROR_KEY_FOR_WORKSPACE_IS_NOT_FOUND
SQLSTATE: nicht zugewiesen
Der Schlüssel für den Arbeitsbereich wurde nicht gefunden.
FILES_API_ERROR_MISSING_REQUIRED_PARAM
SQLSTATE: nicht zugewiesen
Der URL fehlt ein erforderlicher Parameter.
FILES_API_ERROR_TTL_IN_THE_FUTURE
SQLSTATE: nicht zugewiesen
TTL liegt in der Zukunft.
FILES_API_ERROR_URL_INVALID_ISSUER_SHARD_NAME
SQLSTATE: nicht zugewiesen
Der Herausgeber-Shard-Name ist ungültig.
FILES_API_EXPIRATION_TIME_MUST_BE_PRESENT
SQLSTATE: nicht zugewiesen
Ablaufzeit muss vorhanden sein
FILES_API_EXPIRED_TOKEN
SQLSTATE: nicht zugewiesen
Das bereitgestellte Token ist abgelaufen.
FILES_API_EXPIRE_TIME_MUST_BE_IN_THE_FUTURE
SQLSTATE: nicht zugewiesen
„ExpireTime“ muss in der Zukunft liegen.
FILES_API_EXPIRE_TIME_TOO_FAR_IN_FUTURE
SQLSTATE: nicht zugewiesen
Die angeforderte TTL überschreitet die unterstützte Dauer (1 Stunde).
FILES_API_EXTERNAL_LOCATION_PATH_OVERLAP_OTHER_UC_STORAGE_ENTITY
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
FILES_API_FILE_ALREADY_EXISTS
SQLSTATE: nicht zugewiesen
Die erstellte Datei ist bereits vorhanden.
FILES_API_FILE_NOT_FOUND
SQLSTATE: nicht zugewiesen
Die zugegriffene Datei wurde nicht gefunden.
FILES_API_FILE_OR_DIRECTORY_ENDS_IN_DOT
SQLSTATE: nicht zugewiesen
Dateien oder Verzeichnisse, die auf dem Zeichen "." enden, werden nicht unterstützt.
FILES_API_FILE_SIZE_EXCEEDED
SQLSTATE: nicht zugewiesen
Die Dateigröße sollte <max_download_size_in_bytes> Bytes nicht überschreiten, aber <size_in_bytes> Bytes wurden gefunden.
FILES_API_GCP_ACCOUNT_IS_DISABLED
SQLSTATE: nicht zugewiesen
Der Zugriff auf den Speicher-Bucket wurde in GCP deaktiviert.
FILES_API_GCP_BUCKET_DOES_NOT_EXIST
SQLSTATE: nicht zugewiesen
Der Speicher-Bucket ist in GCP nicht vorhanden.
FILES_API_GCP_FORBIDDEN
SQLSTATE: nicht zugewiesen
Der Zugriff auf den Bucket ist von GCP verboten.
FILES_API_GCP_IAM_AUTHENTICATION_FAILURE
SQLSTATE: nicht zugewiesen
Fehler bei der Authentifizierung für den GCP IAM-Vorgang.
FILES_API_GCP_IAM_CREDENTIALS_NOT_FOUND
SQLSTATE: nicht zugewiesen
Die angegebenen GCP-Anmeldeinformationen sind nicht vorhanden oder können nicht aufgerufen werden.
FILES_API_GCP_IAM_PERMISSION_DENIED
SQLSTATE: nicht zugewiesen
Berechtigung verweigert für GCP IAM-Vorgang.
FILES_API_GCP_KEY_DELETED
SQLSTATE: nicht zugewiesen
Der Verschlüsselungsschlüssel wurde gelöscht oder ist nicht mehr zugänglich.
FILES_API_GCP_KEY_DISABLED_OR_DESTROYED
SQLSTATE: nicht zugewiesen
Der für diesen Speicherort konfigurierte vom Kunden verwaltete Verschlüsselungsschlüssel ist entweder deaktiviert oder zerstört.
FILES_API_GCP_REQUEST_IS_PROHIBITED_BY_POLICY
SQLSTATE: nicht zugewiesen
Die GCP-Anforderungen an den Bucket sind per Richtlinie verboten, prüfen Sie die VPC-Dienststeuerungen.
FILES_API_GCP_USER_PROJECT_ACCOUNT_PROBLEM
SQLSTATE: nicht zugewiesen
Es besteht ein Problem mit dem in der Anforderung verwendeten GCP-Projekt, das verhindert, dass der Vorgang erfolgreich abgeschlossen wird.
FILES_API_HOST_TEMPORARILY_NOT_AVAILABLE
SQLSTATE: nicht zugewiesen
Cloudanbieterhost ist vorübergehend nicht verfügbar; versuchen Sie es später erneut.
DATEIEN_API_UNGÜLTIGE_INHALTSLÄNGE
SQLSTATE: nicht zugewiesen
Der Wert des Content-Length-Headers muss eine ganze Zahl sein, die größer oder gleich 0 ist.
FILES_API_INVALID_CONTINUATION_TOKEN
SQLSTATE: nicht zugewiesen
Das bereitgestellte Seitentoken ist ungültig.
FILES_API_INVALID_HEADER_VALUE
SQLSTATE: nicht zugewiesen
Der Wert der Kopfzeile '<header_name>' ist ungültig.
FILES_API_INVALID_HOSTNAME
SQLSTATE: nicht zugewiesen
Der Hostname ist ungültig.
FILES_API_INVALID_HTTP_METHOD
SQLSTATE: nicht zugewiesen
Ungültige HTTP-Methode. „<expected>“ erwartet, aber „<actual>“ erhalten.
FILES_API_INVALID_METASTORE_ID_HEADER
SQLSTATE: nicht zugewiesen
Der Metastore-ID-Header ist ungültig.
FILES_API_INVALID_PAGE_TOKEN
SQLSTATE: nicht zugewiesen
Ungültiges Seitentoken
FILES_API_INVALID_PATH
SQLSTATE: nicht zugewiesen
Ungültiger Pfad: <validation_error>
FILES_API_INVALID_RANGE
SQLSTATE: nicht zugewiesen
Der Range-Header ist ungültig.
FILES_API_INVALID_RESOURCE_FULL_NAME
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
FILES_API_INVALID_SESSION_TOKEN
SQLSTATE: nicht zugewiesen
Ungültiges Sitzungstoken
FILES_API_INVALID_SESSION_TOKEN_TYPE
SQLSTATE: nicht zugewiesen
Ungültiger Sitzungstokentyp. „<expected>“ erwartet, aber „<actual>“ erhalten.
FILES_API_INVALID_TIMESTAMP
SQLSTATE: nicht zugewiesen
Der Zeitstempel ist ungültig.
FILES_API_INVALID_UPLOAD_TYPE
SQLSTATE: nicht zugewiesen
Ungültiger Uploadtyp. „<expected>“ erwartet, aber „<actual>“ erhalten.
FILES_API_INVALID_URL
SQLSTATE: nicht zugewiesen
Ungültige URL
FILES_API_INVALID_URL_PARAMETER
SQLSTATE: nicht zugewiesen
Die als Parameter übergebene URL ist ungültig.
FILES_API_INVALID_VALUE_FOR_OVERWRITE_QUERY_PARAMETER
SQLSTATE: nicht zugewiesen
Der Abfrageparameter „overwrite“ muss „true“ oder „false“ sein, aber war: <got_values>
FILES_API_INVALID_VALUE_FOR_QUERY_PARAMETER
SQLSTATE: nicht zugewiesen
Der Abfrageparameter '<parameter_name>' muss einer der folgenden sein: <expected>, war jedoch: <actual>.
FILES_API_MALFORMED_REQUEST_BODY
SQLSTATE: nicht zugewiesen
Falsch formatierter Anforderungstext
FILES_API_MANAGED_CATALOG_FEATURE_DISABLED
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
FILES_API_METASTORE_NOT_FOUND
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
FILES_API_METHOD_IS_NOT_ENABLED_FOR_JOBS_BACKGROUND_COMPUTE_ARTIFACT_STORAGE
SQLSTATE: nicht zugewiesen
Die angeforderte Methode der Dateien-API wird für Artefaktspeicher für Hintergrundberechnungen von Aufträgen nicht unterstützt.
FILES_API_MISSING_CONTENT_LENGTH
SQLSTATE: nicht zugewiesen
Der Header „content-length“ ist in der Anforderung erforderlich.
FILES_API_MISSING_QUERY_PARAMETER
SQLSTATE: nicht zugewiesen
Der Abfrageparameter '<parameter_name>' ist erforderlich, fehlt aber in der Anforderung.
FILES_API_MISSING_REQUIRED_PARAMETER_IN_REQUEST
SQLSTATE: nicht zugewiesen
Bei der Anforderung fehlt ein erforderlicher Parameter.
FILES_API_MLFLOW_PERMISSION_DENIED
SQLSTATE: nicht zugewiesen
<mlflow_error_message>
FILES_API_MLFLOW_RESOURCE_EXHAUSTED
SQLSTATE: nicht zugewiesen
Die Anforderungsgrenze beim Kontakt mit dem mlflow-Dienst wurde überschritten.
FILES_API_MODEL_VERSION_IS_NOT_READY
SQLSTATE: nicht zugewiesen
Modellversion ist noch nicht bereit
FILES_API_MULTIPART_UPLOAD_ABORT_PRESIGNED_URL_NOT_SUPPORTED
SQLSTATE: nicht zugewiesen
Vorsignierte URLs für das Abbrechen von mehrteiligen Uploads werden für Dateien, die auf <cloud_storage_provider> gespeichert sind, nicht unterstützt.
FILES_API_MULTIPART_UPLOAD_ABORT_UPLOAD_NOT_SUPPORTED
SQLSTATE: nicht zugewiesen
Das Abbrechen von mehrteiligen Uploads wird für dateien, die auf <cloud_storage_provider>gespeichert sind, nicht unterstützt.
FILES_API_MULTIPART_UPLOAD_EMPTY_PART_LIST
SQLSTATE: nicht zugewiesen
Die Liste der Teile muss mindestens ein Element aufweisen, war aber leer.
FILES_API_MULTIPART_UPLOAD_INVALID_PART
SQLSTATE: nicht zugewiesen
Mindestens eine der angegebenen Teile konnte nicht gefunden werden. Das Element wurde möglicherweise nicht hochgeladen, oder das angegebene Entity-Tag stimmt nicht mit dem Entity-Tag des Elements überein.
FILES_API_MULTIPART_UPLOAD_INVALID_PART_NUMBER
SQLSTATE: nicht zugewiesen
Teilenummern müssen größer oder gleich <min> und kleiner als oder gleich sein <max>.
FILES_API_MULTIPART_UPLOAD_MISSING_ETAG
SQLSTATE: nicht zugewiesen
ETags müssen für Dateien zur Verfügung gestellt werden, die auf <cloud_storage_provider> gespeichert sind. Mindestens ein ETag wurde nicht bereitgestellt oder leer.
FILES_API_MULTIPART_UPLOAD_MODIFIED_STORAGE_ENTITY_STATE
SQLSTATE: nicht zugewiesen
Der interne Status der Speicherentität wurde seit dem Initiieren des Uploads geändert, z. B. weil der Dateipfad nicht auf denselben zugrunde liegenden Cloudspeicherort verweist. Fahren Sie fort, indem Sie eine neue Uploadsitzung initiieren.
FILES_API_MULTIPART_UPLOAD_NON_TRAILING_PARTS_WITH_DIFFERENT_SIZES
SQLSTATE: nicht zugewiesen
Die Teile, die als Teil einer Sitzung für Mehrfach-Uploads hochgeladen werden, müssen für auf <cloud_storage_provider> gespeicherte Dateien dieselbe Größe aufweisen, mit Ausnahme des letzten Teils, der kleiner sein kann.
FILES_API_MULTIPART_UPLOAD_PART_SIZE_OUT_OF_RANGE
SQLSTATE: nicht zugewiesen
Die Größe der teile, die als Teil einer mehrteiligen Uploadsitzung hochgeladen wurden, muss größer oder gleich <min> und kleiner als oder gleich sein <max>.
FILES_API_MULTIPART_UPLOAD_SESSION_NOT_FOUND
SQLSTATE: nicht zugewiesen
Die Uploadsitzung wurde nicht gefunden. Möglicherweise wurde sie abgebrochen oder abgeschlossen.
FILES_API_MULTIPART_UPLOAD_UNORDERED_PART_LIST
SQLSTATE: nicht zugewiesen
Die Liste von Teilen muss nach der Teilenummer sortiert werden, war aber ungeordnet.
FILES_API_NON_ZERO_CONTENT_LENGTH
SQLSTATE: nicht zugewiesen
Der Content-Length-Header muss für diese Anforderung 0 sein.
FILES_API_NOT_ENABLED_FOR_PLACE
SQLSTATE: nicht zugewiesen
Die Datei-API für <place> ist für diesen Arbeitsbereich/dieses Konto nicht aktiviert.
FILES_API_NOT_SUPPORTED_FOR_INTERNAL_WORKSPACE_STORAGE
SQLSTATE: nicht zugewiesen
Die angeforderte Methode der Datei-API wird für den internen Arbeitsbereichspeicher nicht unterstützt.
FILES_API_OPERATION_MUST_BE_PRESENT
SQLSTATE: nicht zugewiesen
Vorgang muss vorhanden sein.
FILES_API_OPERATION_TIMEOUT
SQLSTATE: nicht zugewiesen
Beim Vorgang ist ein Timeout aufgetreten.
FILES_API_PAGE_SIZE_MUST_BE_GREATER_OR_EQUAL_TO_ZERO
SQLSTATE: nicht zugewiesen
page_size muss größer oder gleich 0 sein.
DATEIEN_API_PFADBASIERTER_ZUGRIFF_AUF_TABELLE_MIT_FILTER_NICHT_ERLAUBT
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
FILES_API_PATH_END_WITH_A_SLASH
SQLSTATE: nicht zugewiesen
Pfade, die auf dem Zeichen "/" enden, stellen Verzeichnisse dar. Diese API unterstützt keine Vorgänge in Verzeichnissen.
FILES_API_PATH_IS_A_DIRECTORY
SQLSTATE: nicht zugewiesen
Der angegebene Pfad verweist auf ein vorhandenes Verzeichnis. Diese API unterstützt keine Vorgänge in Verzeichnissen.
FILES_API_PATH_IS_A_FILE
SQLSTATE: nicht zugewiesen
Der angegebene Pfad verweist auf eine vorhandene Datei. Diese API unterstützt keine Vorgänge für Dateien.
FILES_API_PATH_IS_NOT_A_VALID_UTF8_ENCODED_URL
SQLSTATE: nicht zugewiesen
Der angegebene Pfad war keine gültige UTF-8-codierte URL.
FILES_API_PATH_IS_NOT_ENABLED_FOR_DATAPLANE_PROXY
SQLSTATE: nicht zugewiesen
Der angegebene Pfad ist für den Datenebenenproxy nicht aktiviert.
FILES_API_PATH_MUST_BE_PRESENT
SQLSTATE: nicht zugewiesen
Pfad muss vorhanden sein.
FILES_API_PATH_NOT_SUPPORTED
SQLSTATE: nicht zugewiesen
<rejection_message>
FILES_API_PATH_TOO_LONG
SQLSTATE: nicht zugewiesen
Der bereitgestellte Dateipfad ist zu lang.
FILES_API_PRECONDITION_FAILED
SQLSTATE: nicht zugewiesen
Die Anforderung konnte aufgrund einer Vorbedingung nicht ausgeführt werden.
FILES_API_PRESIGNED_URLS_FOR_MODELS_NOT_SUPPORTED
SQLSTATE: nicht zugewiesen
Die Datei-API für vorsignierte URLs für Modelle wird derzeit nicht unterstützt.
FILES_API_R2_CREDENTIALS_DISABLED
SQLSTATE: nicht zugewiesen
R2 wird derzeit nicht unterstützt.
FILES_API_RANGE_NOT_SATISFIABLE
SQLSTATE: nicht zugewiesen
Der angeforderte Bereich ist nicht zufriedenstellend.
FILES_API_RECURSIVE_LIST_IS_NOT_SUPPORTED
SQLSTATE: nicht zugewiesen
Rekursives Auflisten von Dateien wird nicht unterstützt.
FILES_API_REQUESTER_NETWORK_ZONE_UNKNOWN
SQLSTATE: nicht zugewiesen
Die Netzwerkzone des Anforderers kann nicht abgeleitet werden.
FILES_API_REQUEST_GOT_ROUTED_INCORRECTLY
SQLSTATE: nicht zugewiesen
Anforderung wurde falsch weitergeleitet
FILES_API_REQUEST_MUST_INCLUDE_ACCOUNT_INFORMATION
SQLSTATE: nicht zugewiesen
Anforderung muss Kontoinformationen enthalten
FILES_API_ANFRAGE_MUSS_EMPFÄNGERINFORMATIONEN_ENTHALTEN
SQLSTATE: nicht zugewiesen
Die Anforderung muss Empfängerinformationen enthalten.
FILES_API_REQUEST_MUST_INCLUDE_USER_INFORMATION
SQLSTATE: nicht zugewiesen
Anforderung muss Benutzerinformationen enthalten
FILES_API_REQUEST_MUST_INCLUDE_WORKSPACE_INFORMATION
SQLSTATE: nicht zugewiesen
Anforderung muss Arbeitsbereichsinformationen enthalten
FILES_API_RESOURCE_IS_READONLY
SQLSTATE: nicht zugewiesen
Ressource ist schreibgeschützt.
FILES_API_RESOURCE_NOT_FOUND
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
FILES_API_SCHEMA_NOT_FOUND
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
FILES_API_SECURE_URL_CANT_BE_ACCESSED
SQLSTATE: nicht zugewiesen
Auf die URL kann nicht zugegriffen werden.
FILES_API_SIGNATURE_VERIFICATION_FAILED
SQLSTATE: nicht zugewiesen
Fehler bei der Signaturüberprüfung.
FILES_API_STORAGE_ACCESS_CONTEXT_INVALID
SQLSTATE: nicht zugewiesen
Der Speicherzugriffskontext ist ungültig.
FILES_API_STORAGE_CONTEXT_IS_NOT_SET
SQLSTATE: nicht zugewiesen
Auf die Speicherkonfiguration für diesen Arbeitsbereich kann nicht zugegriffen werden.
FILES_API_STORAGE_CREDENTIAL_NOT_FOUND
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
FILES_API_TABLE_TYPE_NOT_SUPPORTED
SQLSTATE: nicht zugewiesen
Die Datei-API wird für <table_type> nicht unterstützt.
FILES_API_UC_AUTHENTICATION_FAILURE
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
FILES_API_UC_IAM_ROLE_NON_SELF_ASSUMING
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
FILES_API_UC_MODEL_INVALID_STATE
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
FILES_API_UC_PERMISSION_DENIED
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
FILES_API_UC_RESOURCE_EXHAUSTED
SQLSTATE: nicht zugewiesen
<message>
FILES_API_UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
FILES_API_UC_VOLUME_NAME_CHANGED
SQLSTATE: nicht zugewiesen
<unity_catalog_error_message>
FILES_API_UNABLE_TO_RENEW_AZURE_MANAGED_IDENTITIES
SQLSTATE: nicht zugewiesen
Die verwaltete Azure-Identität kann nicht verlängert werden.
FILES_API_UNEXPECTED_ERROR_WHILE_PARSING_URI
SQLSTATE: nicht zugewiesen
Unerwarteter Fehler beim Analysieren des URI
FILES_API_UNEXPECTED_QUERY_PARAMETERS
SQLSTATE: nicht zugewiesen
Unerwartete Abfrageparameter: <unexpected_query_parameters>
FILES_API_UNKNOWN_METHOD
SQLSTATE: nicht zugewiesen
Unbekannte Methode <method>
FILES_API_UNKNOWN_SERVER_ERROR
SQLSTATE: nicht zugewiesen
Unbekannter Serverfehler.
FILES_API_UNKNOWN_URL_HOST
SQLSTATE: nicht zugewiesen
Der URL-Host ist unbekannt.
FILES_API_UNSUPPORTED_AUTHENTICATION_METHOD
SQLSTATE: nicht zugewiesen
Die Anforderung wurde nicht ordnungsgemäß authentifiziert.
FILES_API_UNSUPPORTED_HTTP_METHOD
SQLSTATE: nicht zugewiesen
HttpMethod wird nicht unterstützt.
FILES_API_UNSUPPORTED_PARAMETERS_COMBINATION
SQLSTATE: nicht zugewiesen
Die Kombination von Parametern wird nicht unterstützt.
FILES_API_UNSUPPORTED_PATH
SQLSTATE: nicht zugewiesen
Der bereitgestellte Pfad wird von der Datei-API nicht unterstützt. Stellen Sie sicher, dass der angegebene Pfad keine Vorkommen der Sequenzen '../' oder './' enthält. Stellen Sie sicher, dass der angegebene Pfad nicht mehrere aufeinander folgende Schrägstriche verwendet (z. B. '////').
FILES_API_UPLOAD_PART_URLS_COUNT_MUST_BE_GREATER_THAN_ZERO
SQLSTATE: nicht zugewiesen
Der Eingabeparameter 'count' muss größer als 0 sein.
FILES_API_URL_GENERATION_DISABLED
SQLSTATE: nicht zugewiesen
Die Vorsignierte URL-Generierung ist für <cloud>nicht aktiviert.
FILES_API_VOLUME_TYPE_NOT_SUPPORTED
SQLSTATE: nicht zugewiesen
Die Datei-API wird für <volume_type> nicht unterstützt.
FILES_API_WORKSPACE_IS_CANCELED
SQLSTATE: nicht zugewiesen
Der Arbeitsbereich wurde abgebrochen.
FILES_API_WORKSPACE_IS_NOT_FOUND
SQLSTATE: nicht zugewiesen
Auf die Speicherkonfiguration für diesen Arbeitsbereich kann nicht zugegriffen werden.
Lakeflow Spark Declarative Pipelines
ABAC-Richtlinien werden nicht unterstützt
ABAC-Richtlinien werden für Tabellen, die in einer Pipeline definiert sind, nicht unterstützt.
Entfernen Sie die Richtlinien, oder wenden Sie sich an den Databricks-Support.
ABNORMAL_DRIVER_TERMINATION
Der Treiber auf dem Cluster <clusterId> wurde aufgrund von <terminationCause> abnormal beendet. Weitere Details finden Sie in den Treiberprotokollen.
ACTIVE_UPDATE_EXISTS_FOR_LINKED_PIPELINE
Für die verknüpfte Pipeline '<updateId>' ist bereits ein aktives Update '<linkedPipelineId>' vorhanden.
ACTIVE_UPDATE_EXISTS_FOR_PIPELINE
Für die Pipeline '<updateId>' ist bereits ein aktives Update '<pipelineId>' vorhanden.
ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE
ALTER ist für Tabellen nicht zulässig, die verwaltet werden von
Weitere Informationen finden Sie unter ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE.
ALTER_SCHEDULE_SCHEDULE_DOES_NOT_EXIST
<type> einer Tabelle kann nicht geändert werden, ohne dass ein vorhandener Zeitplan oder Trigger vorhanden ist. Fügen Sie der Tabelle einen Zeitplan oder Trigger hinzu, bevor Sie versuchen, ihn zu ändern.
API_QUOTA_EXCEEDED
Sie haben das API-Kontingent für die Datenquelle <sourceName>überschritten.
Weitere Details finden Sie unter API_QUOTA_EXCEEDED.
APPLY_CHANGES_ERROR
Während des AUTO CDC Vorgangs ist ein Fehler aufgetreten.
Weitere Informationen finden Sie unter APPLY_CHANGES_ERROR.
APPLY_CHANGES_FROM_SNAPSHOT_ERROR
Während des AUTO CDC FROM SNAPSHOT Vorgangs ist ein Fehler aufgetreten.
Weitere Informationen finden Sie unter APPLY_CHANGES_FROM_SNAPSHOT_ERROR.
APPLY_CHANGES_FROM_SNAPSHOT_EXPECTATIONS_NOT_SUPPORTED
Im Dataset <datasetName> sind Erwartungen definiert, aber Erwartungen werden derzeit für Datasets mit AUTO CDC FROM SNAPSHOT nicht unterstützt.
Entfernen Sie die Erwartungen, um diesen Fehler zu beheben. Als Alternative sollten Sie die folgende Struktur verwenden, um Erwartungen durch die Kombination von AUTO CDC und AUTO CDC FROM SNAPSHOT anzuwenden.
Wenden Sie Änderungen von einem Schnappschuss mit SCD-Typ 1 auf eine Zwischentabelle an, ohne besondere Erwartungen.
Lesen von Änderungen aus der Zwischentabelle mithilfe von
spark.readStream.option("readChangeFeed", "true").table.Anwenden von Änderungen aus der Zwischentabelle auf die endgültige Zieltabelle mithilfe
dlt.apply_changesder folgenden Parameter zusätzlich zu den derzeit verwendetendlt.apply_changes_from_snapshotParametern:
So behandeln Sie Änderungen:
apply_as_deletes = "_change_type == 'delete'"So entfernen Sie Spalten, die vom CDF hinzugefügt wurden:
except_column_list = ["_change_type", "_commit_version", "_commit_timestamp"]
- Fügen Sie die aktuellen Erwartungen in die endgültige Zieltabelle ein, die für
dlt.apply_changesverwendet wird.
APPLY_CHANGES_PARTIAL_UPDATES_NOT_ENABLED
Das Feature COLUMNS TO UPDATE befindet sich in der Vorschau und ist für Ihren Arbeitsbereich nicht aktiviert. Wenden Sie sich an Ihren Databricks-Vertreter, um mehr über dieses Feature zu erfahren und auf die private Vorschau zuzugreifen.
UMGEBUNG_ANWENDEN_CLUSTER_NICHT_VERFÜGBAR
Die Pipelineberechnung für <pipelineId> ist nicht verfügbar. Die Pipelineberechnung könnte gestoppt worden sein oder wird noch gestartet.
Versuchen Sie es später erneut, wenn die Berechnung vollständig verfügbar ist. Wenn das Problem weiterhin besteht, wenden Sie sich bitte an den Databricks-Support.
APPLY_ENVIRONMENT_CLUSTER_NOT_FOUND
Die Pipeline-Berechnung für <pipelineId> wurde nicht gefunden. Die Pipeline-Berechnung wurde möglicherweise nie gestartet oder ist bereits gestoppt worden. Starten Sie die Pipeline
vor dem Anwenden der Umgebung.
UMGEBUNG_ANWENDEN_NICHT_UNTERSTÜTZT
ApplyEnvironment-Endpunkt wird nicht unterstützt.
ARCHITECTURE_MIGRATION_FAILURE
Weitere Details finden Sie unter ARCHITECTURE_MIGRATION_FAILURE.
ARCLIGHT_REQUIRES_SERVERLESS
Pipelines für Kataloge, die Standardspeicher verwenden, müssen serverloses Computing verwenden. Wenn Sie keinen Zugriff auf serverlose Berechnungen haben, wenden Sie sich an Databricks, um dieses Feature für Ihren Arbeitsbereich zu aktivieren.
AUTO_FULL_REFRESH_DISABLED
Die automatische vollständige Aktualisierung ist für die Tabelle <tableName>deaktiviert.
AUTO_FULL_REFRESH_NOT_ALLOWED
Fehler bei der automatischen vollständigen Aktualisierung für die Tabelle <tableName> , da <reason>.
AUTO_FULL_REFRESH_THROTTLED
Fehler bei der automatischen vollständigen Aktualisierung. Die Tabelle <tableName> wurde automatisch <timestamp> vollständig aktualisiert, und das Mindestintervall vor der nächsten automatischen vollständigen Aktualisierung lautet: <minInterval> Minuten.
AZURE_ACTIVE_DIRECTORY_AUTHENTICATION_FAILED
Fehler bei der Azure Active Directory-Authentifizierung (AADSTS5000224).
Ablaufverfolgungs-ID: <traceId>, Korrelations-ID: <correlationId>.
Stellen Sie sicher, dass Azure Active Directory ordnungsgemäß konfiguriert und zugänglich ist. Wenn das Problem weiterhin besteht, wenden Sie sich an den Microsoft-Support.
AZURE_MANAGED_IDENTITY_CREDENTIAL_NOT_FOUND
Azure Managed Identity-Anmeldeinformationen mit Access Connector-ID <accessConnectorId> wurden für das Konto <accountId>nicht gefunden.
Stellen Sie sicher, dass die Anmeldeinformationen vorhanden sind und ordnungsgemäß konfiguriert sind.
AZURE_STORAGE_HOSTNAME_RESOLUTION_FAILED
Fehler beim Auflösen des Azure Storage-Hostnamens: <hostname>.
Überprüfen Sie, ob DNS ordnungsgemäß konfiguriert ist und auf das Speicherkonto über Ihr Netzwerk zugegriffen werden kann.
AZURE_STORAGE_REQUEST_NOT_AUTHORIZED
Die Anforderung an Azure Storage wurde nicht vom Netzwerksicherheitsperimeter autorisiert.
Stellen Sie sicher, dass der Speicher ordnungsgemäß konfiguriert und barrierefrei ist.
FEHLENDER_BIGQUERY_DATENVERBINDER_QUELLKATALOG
Fehler im BigQuery-Datenconnector.
Die 'source catalog' (GCP-Projekt-ID) fehlt in Ihrer Einspeisungsspezifikation.
Geben Sie den Quellkatalog (Projekt-ID) in Ihrer Aufnahmespezifikation an, um dieses Problem zu beheben.
CANNOT_ADD_COLUMN_TO_INCLUDE_COLUMNS
Neue Spalten (<columnNames>) werden zum Feld include_columns in der Pipeline-Definition für die Tabelle <qualifiedTableName>hinzugefügt. Aktualisieren Sie die Tabelle vollständig, um potenzielle Datenverluste zu vermeiden oder diese Spalten aus include_columns zu entfernen.
CANNOT_ADD_STORAGE_LOCATION
Ein Speicherort kann nicht zu einer bestehenden Pipeline mit definiertem Katalog hinzugefügt werden. Wenn Sie einen Speicherort festlegen möchten, erstellen Sie eine neue Pipeline.
Vorhandener Katalog: '<catalog>'.
Angeforderter Speicherort: <storageLocation>.
CANNOT_COMPOSE_DECORATOR
SQLSTATE: nicht zugewiesen
Der @<decoratorName> Dekorateur kann nicht mit <otherDecorators>.
CANNOT_EXCLUDE_NON_EXISTENT_COLUMN
Die Pipelinedefinition schließt Spalten (<columnNames>) aus, die in der Tabelle <qualifiedTableName> der Quell-<sourceType>nicht vorhanden sind. Entfernen Sie diese Spalten aus dem Feld exclude_columns.
CANNOT_FILTER_OUT_REQUIRED_COLUMN
Die Pipelinedefinition enthält nicht die erforderlichen Spalten (<columnNames>) in der Tabelle <qualifiedTableName> der Quelle <sourceType> zur Erfassung. Bitte fügen Sie sie zu den `include_columns` hinzu oder entfernen Sie sie aus den `exclude_columns`.
CANNOT_INCLUDE_NON_EXISTENT_COLUMN
Die Pipelinedefinition enthält Spalten (<columnNames>), die nicht vorhanden sind oder nicht in der Quelltabelle <qualifiedTableName><sourceType>verfügbar sind. Entfernen Sie diese Spalten aus dem Feld include_columns.
CANNOT_INGEST_TABLE_WITHOUT_PRIMARY_KEY
Die Tabelle <qualifiedTableName> in der <sourceType> Quelle verfügt nicht über einen Primärschlüssel.
Geben Sie einen Primärschlüssel in der Connectorkonfiguration an, um die Tabelle einzulesen, wenn vorhanden.
CANNOT_MODIFY_PIPELINE_OWNER_FOR_UC_PIPELINES
Das Ändern des Besitzers für Nicht-UC-Pipelines wird noch nicht unterstützt.
CANNOT_MODIFY_PIPELINE_OWNER_PERMISSION_DENIED
Nur Arbeitsbereichsadministratoren können den Pipelinebesitzer ändern.
CANNOT_MODIFY_PIPELINE_OWNER_WHEN_MISSING
Der neue Besitzer existiert nicht.
CANNOT_MODIFY_PIPELINE_TYPE
pipeline_type kann nicht aktualisiert werden.
Aktueller Pipeline-Typ: <currentPipelineType>.
Aktualisierter Pipeline-Typ: <requestedPipelineType>.
CANNOT_MODIFY_STORAGE_LOCATION
Der Speicherort einer vorhandenen Pipeline kann nicht geändert werden.
Vorhandener Speicherort: '<existingStorageLocation>'.
Angeforderter Speicherort: <requestedStorageLocation>.
CANNOT_REMOVE_COLUMN_FROM_EXCLUDE_COLUMNS
Spalten (<columnNames>) werden aus dem exclude_columns-Feld in der Pipeline-Definition für die Tabelle <qualifiedTableName>entfernt. Aktualisieren Sie die Tabelle vollständig, um potenzielle Datenverluste zu vermeiden oder diese Spalten wieder zu exclude_columns hinzuzufügen.
CANNOT_SET_CATALOG_FOR_HMS_PIPELINE
Ein Katalog kann einer vorhandenen Pipeline mit definiertem Speicherort nicht hinzugefügt werden. Wenn Sie UC verwenden möchten, erstellen Sie eine neue Pipeline und legen Sie den Katalog fest.
Vorhandener Speicherort: '<storageLocation>'
Angeforderter Katalog: '<catalog>'
CANNOT_SET_LINKED_PIPELINE_ID
Pipeline-IDs sind identisch, das Festlegen der verknüpften Pipeline-IDs führt zu Deadlock.
CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE
Das angegebene Feld "schema" in den Pipelineeinstellungen für die Pipeline "<pipelineName>" ist unzulässig. Reason:
Weitere Informationen finden Sie unter CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE.
NICHT_ZUSAMMEN_SETZEN_
SQLSTATE: nicht zugewiesen
<argList> schließen sich gegenseitig aus und können nicht zusammengesetzt werden.
CANNOT_SPECIFY_BOTH_INCLUDE_EXCLUDE_COLUMNS
Die Pipelinedefinition gibt sowohl include_columns als auch exclude_columns für <identifier>an. Entfernen Sie eine davon.
CANNOT_UPDATE_CLUSTERING_COLUMNS
Clusterspalten für Die Tabelle <tableName> können nicht aktualisiert werden, da sie Partitionsspalten verwendet. Eine Tabelle kann entweder Partitionsspalten oder Clusterspalten verwenden, aber nicht beide.
Um zwischen flüssiger Clusterung und Partitionierung zu wechseln, lösen Sie eine vollständige Aktualisierung dieser Tabelle aus.
CANNOT_UPDATE_PARTITION_COLUMNS
Partitionsspalten für streamingtabelle <tableName>können nicht aktualisiert werden.
Aktuell: <existingPartitionColumns>
Angefordert: <requestedPartitionColumns>
Um diese Partitionsänderung anzuwenden, lösen Sie eine vollständige Aktualisierung dieser Tabelle und aller anderen Streamingtabellen mit aktualisierten Partitionsspalten aus.
Alternativ können Sie diese Änderung wiederherstellen, um weiterhin die vorhandenen Partitionsspalten zu verwenden.
CANNOT_UPDATE_TABLE_SCHEMA
Fehler beim Zusammenführen der aktuellen und neuen Schemas für die Tabelle <tableName>.
Um mit dieser Schemaänderung fortzufahren, können Sie eine vollständige Aktualisierung dieser Tabelle auslösen.
Abhängig von Ihrem Anwendungsfall und den Schemaänderungen können Sie die Schemaänderung möglicherweise vermeiden. Sie können Ihre Abfragen so aktualisieren, dass das Ausgabeschema mit dem vorhandenen Schema kompatibel ist (z. B. durch explizites Umwandeln von Spalten in den richtigen Datentyp).
CANNOT_WRITE_TO_INACTIVE_COLUMNS
<details>
Die Zieltabelle(n) weist jedoch bereits inaktive Spalten mit diesem Namen auf; die Spalten sind inaktiv, da sie zuvor aus den Quelltabellen gelöscht wurden.
Führen Sie eine FULL REFRESH der Tabellen aus, um mit dem Update fortzufahren.
CANNOT_WRITE_TO_INACTIVE_TABLES
Die folgenden Tabellen im Ziel sind inaktiv und stehen in Konflikt mit den aktuellen Quelltabellen: <tables>.
Diese Tabellen bleiben inaktiv, da sie zuvor aus der Quelle gelöscht oder aus dem Connector nicht ausgewählt wurden.
Um mit der Aktualisierung fortzufahren, ändern Sie bitte den Namen der Zieltabelle, oder führen Sie eine FULL REFRESH dieser Tabellen aus, oder legen Sie diese inaktiven Tabellen aus dem Ziel im Katalog-Explorer oder über DROP TABLE befehl ab, und wiederholen Sie die Aktualisierung.
CANNOT_WRITE_TO_TABLES_PENDING_RESET
Die folgenden Tabellen im Ziel wurden in der vorherigen vollständigen Aktualisierung nicht ordnungsgemäß zurückgesetzt: <tables>.
Lösen Sie eine vollständige Aktualisierung aus, um sie wiederherzustellen.
CATALOG_MAPPING_NOT_AVAILABLE_IN_UC
Der UC-Katalog verfügt nicht über die Zuordnung für den Katalog „<sourceCatalog>“.
Überprüfen Sie, ob der Katalog im UC-Katalog registriert ist.
CATALOG_SCHEMA_MISMATCH_WITH_DESTINATION_PIPELINE
Der Katalog <destPipelineCatalog> und das Schema <destPipelineSchema> der Zielpipeline mit der ID '<destPipelineId>' stimmen nicht mit dem Katalog und Schema der Tabelle <tableName>überein. Die Zielpipeline sollte denselben Katalog und dasselbe Schema wie die Tabelle haben oder die Zielpipeline muss den Direct Publishing-Modus verwenden.
CATALOG_SPEC_UNSUPPORTED
CatalogSpecs werden von den Datenbank-Connectors derzeit nicht unterstützt. Entfernen Sie die Katalogspezifikation.
CDC_APPLIER_AUTO_FULL_REFRESH_POLICY_MUST_BE_SAME_FOR_ALL_DESTINATION_TABLES
Die Richtlinie für die automatische vollständige Aktualisierung aller Zieltabellen, die mit derselben Quelltabelle verbunden sind, muss identisch sein.
Ändern Sie die Richtlinie für die folgenden Zieltabellen <destinationTables> , die mit der Quelle <sourceTable>verbunden sind.
CDC_APPLIER_COLUMN_UOID_NOT_SUPPORTED
Spalten mit UOID <columnNames> für die Tabelle <tableName> werden in CDC-verwalteten Erfassungspipelines nicht unterstützt.
Überprüfen Sie, ob die Aufnahmepipeline die Spalte UOID unterstützt, oder fordern Sie eine vollständige Aktualisierung der Tabelle an.
CDC_APPLIER_FATAL_FAILURE_FROM_GATEWAY
Bei der Gatewaypipeline ist ein schwerwiegender Fehler aufgetreten:
<errorMessage>
Überprüfen Sie hier den Pipelineupdatefehler: <link>.
CDC_APPLIER_INGESTION_GATEWAY_REMOVED
Die Aufnahmegatewaypipeline, die mit der verwalteten Aufnahmepipeline <pipelineId> verknüpft ist, wurde entfernt.
Entfernen Sie die Pipeline für verwaltete Erfassungen, und erstellen Sie sowohl Ingestion-Gateway als auch verwaltete Aufnahmepipelinen.
CDC_APPLIER_REPLICATED_TABLE_METADATA_NOT_READY
Replizierte Tabellenmetadaten für die Tabelle <tableName> sind nicht bereit.
Der vorhandene Zeitstempel der Auftragsanforderung ist <existingRequestTs>, aber wir erwarten <expectedRequestTs> oder später.
CDC_APPLIER_REQUIRES_ALL_DESTINATION_TABLES_FULL_REFRESH
Die vollständige Aktualisierung einer Zieltabelle und die normale Aktualisierung einer anderen Zieltabelle aus derselben Quelle wird nicht unterstützt.
Bitte aktualisieren Sie beide Tabellen vollständig, um nach Möglichkeit fortzufahren.
Tabellen vollständig aktualisieren: <fullRefreshTables>
Zieltabellen für Quelle <sourceTable>: <destinationTables>
CDC_APPLIER_SCHEMA_CHANGED_DURING_STREAMING
Die Schemaversion <dataSchemaVersion> unterscheidet sich von der Leseschemaversion <readSchemaVersion>.
Lakeflow Spark Declarative Pipelines wiederholen das Update.
CDC_APPLIER_SEQUENCE_BY_COLUMN_NOT_FOUND
Die Spalte <columnName> für die in sequenceBy angegebene Tabelle <tableName> existiert nicht in <columns>.
CDC_APPLIER_SEQUENCE_BY_INVALID_TYPE
Die spalte <columnName> für die in sequenceBy angegebene Tabelle <tableName> ist vom Typ <typeName> , der nicht unterstützt wird.
Unterstützte Typen für sequenceBy-Spalten sind <allowedTypes>.
CDC_APPLIER_SEQUENCE_BY_MULTIPLE_COLUMNS_NOT_SUPPORTED
Höchstens eine Spalte kann in sequenceBy der verwalteten Erfassungspipeline des CDC angegeben werden.
Angegebene Spalten: <columns> für Tabelle <tableName>.
CDC_INCOMPATIBLE_SCHEMA_CHANGES
Wir sind auf eine inkompatible Schemaänderung (<cause>) von der Schemaversion <previousSchemaVersion> zu <currentSchemaVersion>gestoßen.
Daher können wir nicht mit der Anwendung von Änderungen für <tableName>fortfahren. Bitte fordern Sie eine vollständige Aktualisierung der Tabelle an.
Vorheriges Schema: <previousSchema>
Aktuelles Schema: <currentSchema>
CDC_MULTIPLE_SOURCE_TABLES_MAPPED_TO_SAME_DESTINATION_TABLE
Es wurden mehrere Quelltabellen gefunden: <source_tables> zugeordnet zu derselben Zieltabelle <destination_table>.
Ordnen Sie sie einem anderen Zieltabellennamen oder einem anderen Zielschema zu.
CDC_POTENTIAL_DATA_GAPS
Die folgenden Tabellen [<needFullRefreshTableList>] wurden seit <retention> Tagen nicht erfolgreich aktualisiert.
Bitte aktualisieren Sie diese Tabellen oder die gesamte Pipeline vollständig.
CDC_SAME_TABLE_FROM_MULTIPLE_SOURCES
Den gleichen Tabellennamen <table> bei mehreren Quellen gefunden: <sources>.
Teilen Sie sie bitte in verschiedene Pipelines auf, um Konflikte zu vermeiden.
CDC_SOURCE_VALIDATION_FAILURE
Fehler bei der Quelldatenbanküberprüfung <errorCount> . Detaillierte Ergebnisse und Korrekturschritte finden Sie in den Ereignisprotokollberichten.
CDC_TABLE_NOT_FOUND_IN_ALL_TABLES
Tabelle <table> wird in der Momentaufnahme aller Tabellen der Quelldatenbank nicht gefunden.
Tabellenspezifikationsdetails:
<tableSpec>
CHANGES_HMS_PIPELINE_TO_UC_NOT_ALLOWED
Das Ändern einer HMS-Pipeline in eine UC-Pipeline ist nicht zulässig.
CHANGES_UC_PIPELINE_TO_HMS_NOT_ALLOWED
Das Ändern einer UC-Pipeline in eine HMS-Pipeline ist nicht zulässig.
CHANGING_CATALOG_NOT_ALLOWED
Der Katalog einer vorhandenen Pipeline kann nicht geändert werden. Vorhandener Katalog: '<existingCatalog>'. Angeforderter Katalog: '<requestedCatalog>'.
CHANGING_TARGET_SCHEMA_NOT_ALLOWED
Das Ändern des Zielschemas ist nicht zulässig. Grund: <reason>.
CLUSTER_CREATION_BUDGET_POLICY_LIMIT_EXCEEDED
Es konnte kein Cluster erstellt werden, da die Budgetrichtlinie der Pipeline den Grenzwert überschritten hat. Verwenden Sie eine andere Richtlinie, oder wenden Sie sich an Ihren Abrechnungsadministrator.
CLUSTER_CREATION_CLIENT_ERROR
Fehler beim Erstellen eines Pipelineclusters: <errorMessage>
Dieser Fehler ist wahrscheinlich auf eine Fehlkonfiguration in der Pipeline zurückzuführen.
Überprüfen Sie die Pipelineclusterkonfiguration und die zugeordnete Clusterrichtlinie.
CLUSTER_CREATION_CLUSTER_POLICY_LIMIT_EXCEEDED
Fehler beim Erstellen eines Clusters, da die Anzahl der ausgeführten Cluster pro Benutzer für die Richtlinie "<clusterPolicy>" den Grenzwert überschritten <clusterLimit>hat. Verwenden Sie eine andere Richtlinie, oder wenden Sie sich an Ihren Administrator.
CLUSTER_CREATION_CREDITS_EXHAUSTED
Fehler beim Erstellen eines Clusters, da Sie Ihr verfügbares Guthaben ausgeschöpft haben. Fügen Sie eine Zahlungsmethode hinzu, um Ihr Konto zu aktualisieren.
CLUSTER_CREATION_RESOURCE_EXHAUSTED
Fehler beim Erstellen eines Clusters, da Sie die Ressourcengrenzwerte überschritten haben: <errorMessage>
CLUSTER_CREATION_SECRETS_FETCH_FAILED
Geheime Schlüssel, die in der Spark-Konfiguration bezeichnet werden, können nicht abgerufen werden.
Überprüfen Sie, ob die geheimen Schlüssel vorhanden sind, und der Besitzer des Clusters verfügt über Leseberechtigungen.
CLUSTER_LAUNCH_CLIENT_ERROR
Fehler beim Starten des Pipelineclusters <clusterId>: <clusterStateMessage>
Dieser Fehler ist wahrscheinlich auf eine Fehlkonfiguration in der Pipeline zurückzuführen.
Überprüfen Sie die Pipelineclusterkonfiguration und die zugeordnete Clusterrichtlinie.
CLUSTER_LAUNCH_CLOUD_FAILURE
Fehler beim Starten des Pipelineclusters <clusterId>: <clusterStateMessage>
Dieser Fehler kann vorübergehend sein: Starten Sie Die Pipeline neu, und melden Sie, wenn dasselbe Problem weiterhin angezeigt wird.
CLUSTER_LAUNCH_RESOURCE_EXHAUSTED
Fehler beim Starten des Pipelineclusters <clusterId> aufgrund erschöpfter Ressourcengrenzwerte: <clusterStateMessage>.
CLUSTER_START_RESOURCE_MANGEL
Fehler beim Starten des Pipelineclusters <clusterId>: <clusterStateMessage>
Der angeforderte Instanztyp konnte vom Cloudanbieter nicht bereitgestellt werden.
Überprüfen Sie Ihr Cloudanbieterabonnement, oder versuchen Sie es erneut mit einem anderen Instanztyp.
CLUSTER_SETUP_CLIENT_ERROR
Der Cluster <clusterId> kann für die Ausführung von Pipelineupdates nicht erfolgreich eingerichtet werden. Reason:
Weitere Details finden Sie unter CLUSTER_SETUP_CLIENT_ERROR.
CLUSTER_UNREACHABLE
Kommunikation mit Fahrer verloren. Cluster <clusterId> war für <timeoutSeconds> Sekunden nicht erreichbar.
COLUMN_MASK_WITH_NO_COLUMN
Spaltenmaske für Spalte '<columnName>' gefunden, die im MV/ST-Schema nicht vorhanden ist. Wenn dies auf eine Änderung des Basistabellenschemas zurückzuführen ist,
bitte entfernen Sie die alte Maske mit ALTER TABLE [table_name] ALTER COLUMN [Spalte, auf die die Maske angewendet wird] DROP MASK, oder stellen Sie die Spalte wieder her.
COLUMN_TO_UPDATE_NOT_FOUND
Spalte <column>, die in COLUMNS bis UPDATE angegeben ist, wurde im Quelldatenframe nicht gefunden.
CONCURRENT_UPGRADE_FAILED_TO_STOP_PREVIOUS_UPDATE
Das Update '<upgradedUpdateId>' für ein Upgrade wurde gestartet, konnte aber das vorherige Update '<oldUpdateId>' nicht beenden.
Dieser Fehler ist wahrscheinlich vorübergehend. Die Pipeline wird automatisch erneut wiederholt, und das Problem sollte sich von alleine lösen.
Melden Sie diesen Fehler an Databricks, wenn weiterhin dasselbe Problem angezeigt wird.
ERSTELLUNG_EINMALIGER_APPEND_FLOW_AUS_BATCH_ABFRAGE_NICHT_ERLAUBT
Eine Anfügeoperation im Append-once-Modus für eine Streamingtabelle kann nicht aus einer Batch-Abfrage erstellt werden.
Dies verhindert die inkrementelle Aufnahme aus der Quelle und kann zu einem falschen Verhalten führen.
Fehlerhafte Tabelle: '<table>'.
Um dies zu beheben, verwenden Sie den STREAM() oder readStream-Operator, um die Quelle als Streamingeingabe zu deklarieren.
Beispiel: SELECT...FROM STREAM(<source table name>) oder spark.readStream.table('<source table name>')
DATASET_DECORATOR_APPLIED_TWICE
SQLSTATE: nicht zugewiesen
Dataset <datasetName> ist bereits vorhanden. Stellen Sie sicher, dass die Abfragefunktion nur einmal als Ansicht oder Tabelle markiert wurde.
DATASET_NOT_DEFINED
Fehler beim Lesen des Datasets '<datasetName>'. Dieses Dataset ist in der Pipeline nicht definiert.
Wenn diese Tabelle von einer anderen Pipeline verwaltet wird, sollten Sie nicht dlt.read / dlt.readStream verwenden, um die Tabelle zu lesen oder den Namen mit dem LIVE-Schlüsselwort voranzustellen.
DATASET_NOT_FOUND_FOR_EXPECTATIONS
Es wurde versucht, Erwartungen für ein Dataset zu<datasetName> definieren, das nicht vorhanden ist.
DATASET_NOT_REGISTERED_FOR_FLOW
Es wurde versucht, einen Fluss für das Dataset "<datasetName>" zu registrieren, aber das Dataset ist nicht registriert.
DBFS_NOT_ENABLED
DBFS ist für diesen Arbeitsbereich nicht aktiviert; veröffentlichen Sie den Unity-Katalog, oder geben Sie einen anderen Speicherort für die Pipeline an.
DBSQL_INCONSISTENT_SCHEDULE_IN_PIPELINE
Pipeline <pipelineId> verfügt über mehrere Produktionstabellen mit unterschiedlichen Zeitplaneinstellungen: [<tableScheduleInfo>]. Alle Produktionstabellen müssen denselben Zeitplan aufweisen.
DBSQL_INVALID_CHANNEL_VALUE
Ungültiger Kanal, der mit pipelines.channel Eigenschaft angegeben wurde: <channel>. Gültige Werte sind: <validChannels>.
DBSQL_INVALID_SCHEDULE_TYPE
Ungültiger Zeitplantyp, der mit der Zeitplaneigenschaft angegeben ist: <scheduleValue>.
DBSQL_MISSING_SCHEDULE_PROPERTY
Fehlende erforderliche Zeitplaneigenschaft in Tabelleneigenschaften.
DBSQL_PIPELINE_IS_MISSING
Eine DBSQL Pipeline fehlt. Bitte aktualisieren Sie Ihre materialisierte Ansicht oder Streamingtabelle, um die DBSQL Pipeline zu erstellen.
DBSQL_PIPELINE_SHOULD_NOT_HAVE_MULTIPLE_TABLES
Eine DBSQL-Pipeline muss genau eine materialisierte Ansicht oder Streamingtabelle haben, es wurden jedoch <tablesSize> Tabellen gefunden: <tables>
DELETE_PIPELINE_DEAKTIVIERT
Die Pipeline kann zurzeit nicht gelöscht werden.
Wenden Sie sich an den Databricks-Support, um Unterstützung beim Löschen der Pipeline "<pipelineId>" zu erhalten.
DESTINATION_PIPELINE_NOT_FOUND
Die Zielpipeline mit der ID '<pipelineId>' wurde nicht gefunden. Stellen Sie sicher, dass Sie sich im gleichen Arbeitsbereich wie die Pipeline befinden, die Pipeline besitzen, und dass die Pipeline mindestens einmal ausgeführt wurde.
DESTINATION_PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE
Die Zielpipeline mit der ID '<pipelineId>' verwendet nicht den Direct Publishing-Modus.
DESTINATION_PIPELINE_PERMISSION_DENIED
Sie dürfen diesen Vorgang nicht ausführen, Sie sind nicht der Besitzer der Zielpipeline mit der ID '<pipelineId>'. Nur Besitzer können die Pipeline einer Tabelle ändern.
DESTINATION_PIPELINE_TYPE_NOT_WORKSPACE_PIPELINE_TYPE
Die Zielpipeline mit der ID '<pipelineId>' ist keine ETL-Pipeline.
DIRECTORY_PATH_REQUIRES_GLOB
Der Pfad <path> ist ein Verzeichnis. Um alle Dateien in ein Verzeichnis einzuschließen, verwenden Sie das Glob-Muster mit dem Suffix '**' '<path>/**' in Ihrer Pipelinekonfiguration.
NICHT_ERLAUBTE_ANFRAGE_ZUM_WIEDERHERSTELLEN_DER_PIPELINE
Die Anforderung <request> ist für die Pipeline "<pipelineId>" im RESTORING Zustand nicht zulässig.
DO_CREATE_OR_EDIT_INVALID_USER_ACTION
Fehler beim Behandeln von '<action>' Anforderung.
DROP_SCHEDULE_SCHEDULE_DOES_NOT_EXIST
SCHEDULE kann nicht in einer Tabelle ohne vorhandenen Zeitplan oder Trigger abgelegt werden.
DUPLICATED_FROM_JSON_SCHEMA_LOCATION
Doppelter from_json-Schemaspeicherortschlüssel: <schemaLocationKey>.
Wählen Sie für jede from_json-Abfrage in der Pipeline eindeutige Schemaspeicherortschlüssel aus.
DUPLICATED_INGESTION_CONFIG_TABLE_SPECS
Die Konfiguration der Aufnahmepipeline enthält doppelte Tabellen. Stellen Sie sicher, dass jede Tabelle eindeutig ist.
EMPTY_INGESTION_CONFIG_OBJECTS
Konfigurationsobjekte für Erfassung sind leer.
ENHANCED_AUTOSCALING_REQUIRES_ADVANCED_EDITION
Erweiterte Autocaling-Einstellung "spare_capacity_fraction" wird nur in der Erweiterten Produktedition von Lakeflow Spark Declarative Pipeliness unterstützt.
Ändern Sie Ihre Pipeline-Einstellungen, indem Sie die "edition" auf "advanced" setzen, um 'spare_capacity_fraction' verwenden zu können.
ENVIRONMENT_PIP_INSTALL_ERROR
Fehler beim Installieren der Umgebungsabhängigkeit: '<pipDependency>'. Weitere Details finden Sie in den stdout-Protokolldateien des Treibers im Cluster.
EVENT_LOG_PICKER_FEATURE_NOT_SUPPORTED
Das Veröffentlichen des Ereignisprotokolls im Unity-Katalog wird im älteren Veröffentlichungsmodus nicht unterstützt. Um dieses Feature zu aktivieren, migrieren Sie Ihre Pipeline in den Standardmäßigen Veröffentlichungsmodus, indem Sie die Schritte im Migrationshandbuch ausführen https://docs.databricks.com/aws/en/dlt/migrate-to-dpm. Wenn Sie den Legacy-Veröffentlichungsmodus weiterhin verwenden möchten, entfernen Sie die Konfiguration "event_log" aus Ihrer Pipelinespezifikation.
EXPECTATION_VIOLATION
Der Flow „<flowName>“ konnte die Erwartung nicht erfüllen.
Weitere Informationen finden Sie unter EXPECTATION_VIOLATION.
EXPLORE_ONLY_CANNOT_BE_SET_WITH_VALIDATE_ONLY
explore_only und validate_only können nicht gleichzeitig auf "true" festgelegt werden.
EXPLORE_ONLY_IS_NOT_ENABLED
explore_only Update ist nicht aktiviert. Wenden Sie sich bitte an den Databricks-Support.
FAILED_TO_CREATE_EVENT_LOG
Ereignisprotokoll für Pipeline (ID=<pipelineId>) mit Bezeichner <eventLogIdentifier> konnte nicht erstellt werden. Weitere Informationen finden Sie in der nachstehenden Ausnahme.
FAILED_TO_PUBLISH_VIEW_TO_METASTORE
Veröffentlichen der Ansicht <viewName> im Metastore fehlgeschlagen, weil <reason>.
FAILED_TO_UPDATE_EVENT_LOG
Fehler beim Aktualisieren des Pipeline-Ereignisprotokollbezeichners (id=<pipelineId>) auf <newEventLogIdentifier>. Weitere Informationen finden Sie in der nachstehenden Ausnahme.
FLOW_SCHEMA_CHANGED
Der Fluss <flowName> wurde beendet, da während der Ausführung eine Schemaänderung aufgetreten ist.
Die Schemaänderung ist mit dem vorhandenen Zielschema kompatibel, und die nächste Ausführung des Flusses kann mit dem neuen Schema fortgesetzt werden.
FOREACH_BATCH_SINK_ONLY_SUPPORTED_IN_PREVIEW_CHANNEL
Lakeflow Spark Declarative Pipelines ForeachBatch Sink wird derzeit nicht unterstützt.
Die private Vorschau für Lakeflow Spark Declarative Pipelines ForeachBatch Spüle erfordert den PREVIEW Kanal.
Lakeflow Spark Declarative Pipelines senken: <sinkNames>
GATEWAY_PIPELINE_INIT_SCRIPTS_NOT_ALLOWED
Die Gatewaypipeline lässt keine Cluster-Init-Skripts zu. Entfernen Sie es aus <from>.
GATEWAY_PIPELINE_SPARK_CONF_NOT_ALLOWED
Die Gateway-Pipeline erlaubt die Spark-Konfiguration [<configs>] nicht. Entfernen Sie sie aus <from>.
GET_ORG_UPDATE_CAPACITY_LIMIT_EXCEEDED
Die Anzahl der angeforderten Organisations-IDs überschreitet den maximal zulässigen Grenzwert. <limit>
GOOGLE_ANALYTICS_RAW_DATA_CONNECTOR_SOURCE_CATALOG_MISSING
Fehler im Google Analytics-Rohdatenkonnektor.
Die 'source catalog' (GCP-Projekt-ID) fehlt in Ihrer Einspeisungsspezifikation.
Geben Sie den Quellkatalog (Projekt-ID) in Ihrer Aufnahmespezifikation an, um dieses Problem zu beheben.
HMS_NOT_ENABLED
Der Hive-Metastore ist für diesen Arbeitsbereich nicht aktiviert; bitte veröffentlichen Sie im Unity-Katalog.
ILLEGAL_COLUMN_TO_UPDATE_DATA_TYPE
Der Datentyp der in COLUMNS TO UPDATE angegebenen Spalte muss ein Zeichenfolgenarray sein, es wurde aber <illegalDataType> gefunden.
ILLEGAL_ID_PARAM_IN_PIPELINE_SETTINGS
Die Einstellungen dürfen nicht '<fieldName>' enthalten.
ILLEGAL_SCHEMA_FIELD_IN_PIPELINE_SPEC
Das angegebene Feld "schema" in den Pipelineeinstellungen ist unzulässig. Grund: <reason>.
INCORRECT_ROOT_PATH_TYPE
Der Stammpfad „<rootPath>“ muss ein Verzeichnis sein, aber es wurde <objectType> gefunden.
INCREMENTAL_REFRESH_UNAVAILABLE_WITH_STRICT_REFRESH_POLICY
Die materialisierte Ansicht verfügt über eine Aktualisierungsrichtlinie, INCREMENTAL_STRICT kann aber nicht inkrementellisiert werden.
INFRASTRUKTUR_WARTUNG
Der Treiber auf dem Cluster <clusterId> wurde aufgrund der Infrastrukturwartung gestoppt.
INGESTION_CONFIG_DUPLICATED_SCHEMA
Die Konfiguration der Aufnahmepipeline enthält doppelte Schemas. Stellen Sie sicher, dass jedes Schema eindeutig ist.
INGESTION_GATEWAY_AUTHENTICATION_FAILURE
Authentifizierungsfehler
Weitere Details finden Sie unter INGESTION_GATEWAY_AUTHENTICATION_FAILURE.
INGESTION_GATEWAY_BREAKING_SCHEMA_CHANGE_FAILURE
Es wurde ein Schemakonflikt zwischen den Quell- und Zieltabellen erkannt. Um dieses Problem zu beheben, ist eine vollständige Aktualisierung der Tabelle "<entityName>" für die Aufnahmepipeline erforderlich.
INGESTION_GATEWAY_CAPTURE_INSTANCE_UNAVAILABLE
Die Aufnahmeinstanz ist <entityName> für die Quelle nicht mehr verfügbar.
Lösen Sie eine vollständige Aktualisierung aus, nachdem SIE CDC oder CT auf der Tabelle aktiviert haben.
INGESTION_GATEWAY_CDC_LOG_TRUNCATED
DAS CDC-Protokoll wurde aus Tabelle '<entityName>' abgeschnitten, Grund: <errorMessage>.
Dies kann durch das Abschneiden von Änderungsnachverfolgungsprotokollen durch die CDC-Protokollaufbewahrungsrichtlinie verursacht werden, bevor sie verarbeitet werden können.
Die Tabelle wird von der Verarbeitung übersprungen. Um die Verarbeitung erneut zu aktivieren, aktualisieren Sie die Tabelle vollständig.
INGESTION_GATEWAY_CDC_NOT_ENABLED
CDC ist nicht aktiviert auf <entityType> '<entityName>'. Aktivieren Sie CDC, und aktualisieren Sie die Tabelle in der Aufnahmepipeline vollständig. Fehlermeldung: „<errorMessage>“.
INGESTION_GATEWAY_DB_VERSION_NOT_SUPPORTED
Datenbankversion wird nicht unterstützt.
Weitere Informationen finden Sie unter INGESTION_GATEWAY_DB_VERSION_NOT_SUPPORTED
INGESTION_GATEWAY_DDL_OBJECTS_MISSING
DDL-Objekte fehlen auf <entityType> '<entityName>'. Führen Sie das Skript für DDL-Objekte aus, und aktualisieren Sie die Tabelle in der Ingestion-Pipeline vollständig. Fehlermeldung: „<errorMessage>“.
INGESTION_GATEWAY_HEALTH_CHECKER_VALIDATION_CYCLE_FAILED
Fehler beim Überprüfungszyklus der internen Integritätsprüfung. Wird im nächsten Zyklus erneut versuchen, wenn das Problem weiterhin besteht, geben Sie ein Ticket an.
Fehlermeldung: <errorMessage>
INGESTION_GATEWAY_MISSING_CONNECTION_REFERENCE
Bei der Konfiguration des Erfassungsgateways fehlt eine Verbindung.
Fügen Sie einen Verweis auf die Unity-Katalogverbindung hinzu, die Ihre Anmeldeinformationen enthält.
Details der Pipelinedefinition des Erfassungsgateways:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_CATALOG
Die Konfiguration des Erfassungsgateways fehlt im internen Speicherortkatalog.
Fügen Sie den internen Speicherortkatalog hinzu.
Details der Pipelinedefinition des Erfassungsgateways:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_NAME
In der Konfiguration des Erfassungsgateways fehlt der Name des internen Speicherorts.
Fügen Sie den Namen des internen Speicherorts hinzu.
Details der Pipelinedefinition des Erfassungsgateways:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_SCHEMA
In der Konfiguration des Erfassungsgateways fehlt das Schema des internen Speicherorts.
Fügen Sie das interne Speicherortschema hinzu.
Details der Pipelinedefinition des Erfassungsgateways:
<definition>
INGESTION_GATEWAY_MISSING_TABLE_IN_SOURCE
Tabelle '<entityName>' ist in der Quelldatenbank nicht vorhanden oder wurde gelöscht. Beheben Sie das Problem, und aktualisieren Sie die Tabelle in der verwalteten Erfassungspipeline vollständig. Fehlermeldung: „<errorMessage>“.
INGESTION_GATEWAY_MYSQL_BINLOG_FILE_DELETED
Die erforderliche MySQL-Binlogdatei(n) wurde in der Quelldatenbank gelöscht. Dies geschieht in der Regel, wenn der Binlog-Aufbewahrungszeitraum zu niedrig ist oder wenn die Aufnahme nach dem Übergeben des Aufbewahrungsfensters neu gestartet wird. Führen Sie zur Entschärfung eine vollständige Aktualisierung aller Tabellen aus, und erhöhen Sie die Binlogaufbewahrung auf der Quelle.
Fehlermeldung: <errorMessage>
INGESTION_GATEWAY_MYSQL_MISSED_BINLOG_FILES_DETECTED
Verpasste Erkennung von MySQL Binlog-Dateien. Bitte führen Sie eine vollständige Aktualisierung durch <entityName>.
Fehlermeldung: <errorMessage>
INGESTION_GATEWAY_ORACLE_ARCHIVE_LOG_FILES_UNAVAILABLE
Oracle-Archivprotokolldateien, die für die CDC-Replikation erforderlich sind, sind nicht mehr in der Quelldatenbank verfügbar. Dies kann passieren, wenn Archivprotokolle den Aufbewahrungszeitraum überschreiten oder manuell gelöscht werden. Bitte führen Sie eine vollständige Aktualisierung aller Zieltabellen aus, die dem Katalog "<catalogName>" zugeordnet sind. Wenn dieses Problem weiterhin besteht, sollten Sie die Aufbewahrungsdauer des Archivprotokolls in der Quelldatenbank erhöhen, um sicherzustellen, dass Protokolle während der Verarbeitung verfügbar bleiben.
Fehlermeldung: <errorMessage>
INGESTION_GATEWAY_ORACLE_MISSING_CONFIGURATION
Die Oracle-Verbindungskonfiguration ist unvollständig.
Weitere Informationen finden Sie unter INGESTION_GATEWAY_ORACLE_MISSING_CONFIGURATION
INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED
Die Replikationsveröffentlichung für <entityType> „<entityName>“ konnte nicht geändert werden.
Fehlermeldung: <errorMessage>
Weitere Einzelheiten finden Sie unter INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED
INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED
Fehler beim Erstellen der Replikationspublikation für <entityType> "<entityName>"
Fehlermeldung: <errorMessage>
Weitere Einzelheiten finden Sie unter INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED
INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED
Die Replikationsveröffentlichung für <entityType> „<entityName>“ konnte nicht abgelegt werden.
Fehlermeldung: <errorMessage>
Weitere Einzelheiten finden Sie unter INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED
INGESTION_GATEWAY_PG_SLOT_CONFIG_IS_INVALIDATED
Die Konfiguration des Replikationsplatzes befindet <entityType> <entityName> sich nicht im fehlerfreien Zustand. Um dieses Problem zu beheben, lösen Sie eine vollständige Aktualisierung aller Zieltabellen aus, die dem Katalog <catalogName>zugeordnet sind.
Fehlermeldung: <errorMessage>
INGESTION_GATEWAY_PG_SLOT_CONSUMED_BY_OTHER_PROCESS
Fehler beim Erstellen des Replikations-Slots für <entityType> "<entityName>", da der Replikations-Slot von einer anderen PID verwendet wird.
Fehlermeldung: <errorMessage>
INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED
Fehler beim Erstellen des Replikationsplatzes für <entityType> '<entityName>'
Fehlermeldung: <errorMessage>
Weitere Einzelheiten finden Sie unter INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED
INGESTION_GATEWAY_PG_SLOT_DROP_FAILED
Fehler beim Ablegen des Replikationsplatzes für <entityType> "<entityName>"
Fehlermeldung: <errorMessage>
Weitere Informationen finden Sie unter INGESTION_GATEWAY_PG_SLOT_DROP_FAILED
INGESTION_GATEWAY_PG_SLOT_HAS_BEEN_DELETED
Der Replikationsplatz für <entityType> "<entityName>" wurde gelöscht. Lösen Sie eine vollständige Aktualisierung aller Zieltabellen aus, die dem Katalog "<catalogName>" zugeordnet sind.
Fehlermeldung: <errorMessage>
INGESTION_GATEWAY_PG_SLOT_IS_INVALIDATED
Der Replikationsplatz für <entityType> "<entityName>" befindet sich nicht im fehlerfreien Zustand. Legen Sie den Steckplatz ab, und lösen Sie eine vollständige Aktualisierung aller Zieltabellen aus, die dem Katalog "<catalogName>" zugeordnet sind.
Fehlermeldung: <errorMessage>
INGESTION_GATEWAY_SOURCE_INSUFFICIENT_PERMISSION_FAILURE
Der Benutzer verfügt nicht über die erforderlichen Berechtigungen, um auf dieses Objekt zuzugreifen oder die gespeicherte Prozedur auszuführen. Stellen Sie sicher, dass alle erforderlichen Berechtigungen gewährt werden. Weitere Informationen finden Sie in der folgenden Dokumentation: https://docs.databricks.com/aws/en/ingestion/lakeflow-connect/sql-server/database-user-requirements.
INGESTION_GATEWAY_SOURCE_SCHEMA_MISSING_ENTITY
Für die Replikation aus der Quelle sind keine Tabellen verfügbar.
Stellen Sie sicher, dass die Tabellen ordnungsgemäß ausgewählt und in der Aufnahmepipeline definiert sind.
und der Benutzer verfügt über den erforderlichen Katalog- und Schemazugriff.
INGESTION_GATEWAY_SQL_SERVER_CT_DISABLED
Die Änderungsnachverfolgung für die Tabelle <entityName> wurde für die Quelle deaktiviert.
Lösen Sie eine vollständige Aktualisierung aus, nachdem SIE CDC oder CT auf der Tabelle aktiviert haben.
INGESTION_GATEWAY_TABELLE_GELÖSCHT
Die Quelltabelle '<entityName>' wurde im Quell-System gelöscht. Fehlermeldung: <errorMessage>
INGESTION_GATEWAY_TABLE_RENAMED
Die Quelltabelle '<entityName>' wurde in der Quelle umbenannt. Fehlermeldung: <errorMessage>
DATENIMPORT_ZUGANGSPUNKT_TABELLE_IGNORIERT_AUFGRUND_EINES_NICHT_UNTERSTÜTZTEN_SPALTENDATENTYPS
Tabelle '<entityName>' wurde aufgrund nicht unterstützter Datentypspalten übersprungen. Beheben Sie das Problem, und aktualisieren Sie die Tabelle in der verwalteten Erfassungspipeline vollständig. Fehlermeldung: „<errorMessage>“.
No changes necessary, as placeholders and specific identifiers are generally left untranslated in technical contexts for accuracy and clarity.
Die Tabelle "<entityName>" wurde übersprungen, da den Spalten eine unerwartete UOID zugewiesen wurde. Führen Sie eine vollständige Aktualisierung der Tabelle aus, um das Problem zu beheben. Fehler: <errorMessage>.
INGESTION_GATEWAY_UNEXPECTED_TABLE_UOID
Die Tabelle '<entityName>' wurde aufgrund einer unerwartet zugeordneten UOID übersprungen. Führen Sie eine vollständige Aktualisierung der Tabelle aus, um das Problem zu beheben. Fehler: <errorMessage>.
INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE
Fehler bei der Verbindung aufgrund eines falschen Hostnamens <host> und/oder Port <port> der Quelldatenbank.
Weitere Details finden Sie unter INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE.
INGESTION_GATEWAY_UNSUPPORTED_CHARS_IN_OBJECT_NAME
Nicht unterstützte Zeichen, die in Objekten für Tabelle <entityName>gefunden wurden, Grund: <errorMessage>. Die Tabelle wird übersprungen. Wenden Sie sich an den Support, um die Aufnahme von Sonderzeichen zu aktivieren.
INGESTION_GATEWAY_UNSUPPORTED_OBJECT_TYPE
Objekt '<entityName>' wird nicht unterstützt und wurde übersprungen. Entfernen Sie dieses Objekt zur Auflösung aus der Aufnahmepipeline. Fehlermeldung: „<errorMessage>“.
INGESTION_GATEWAY_UNTRACEABLE_TABLE_MODIFICATION
Nicht nachvollziehbare Tabellenänderung für Tabelle <entityName> erkannt, Grund: <errorMessage>.
Dies kann durch einen Tabellenkürzungsvorgang, einen CDC-Protokollüberlauf oder einen anderen nicht erkennbaren Vorgang verursacht werden.
Die Tabelle wird von der Verarbeitung übersprungen. Um die Verarbeitung erneut zu aktivieren, aktualisieren Sie die Tabelle vollständig.
INGESTION_GATEWAY_XA_TRANSAKTION_NICHT_UNTERSTÜTZT
Replizieren von <entityType> '<entityName>' fehlgeschlagen, da es Teil einer XA-Transaktion ist.
Fehlermeldung: <errorMessage>
INVALID_APPLY_CHANGES_COMMAND
AUTO CDC Befehl ist ungültig.
<reason>.
INVALID_ARGUMENT_TYPE
SQLSTATE: nicht zugewiesen
Der Wert des ungültigen Typs, der an den Parameter '<paramName>' übergeben wird.
<expectedType> erwartet.
<additionalMsg>.
INVALID_COMPATIBILITY_OPTIONS
Die für die Tabelle <table> angegebenen Tabellenoptionen sind ungültig, da
Weitere Informationen finden Sie unter INVALID_COMPATIBILITY_OPTIONS.
INVALID_CONFIG_FOR_UC_PIPELINE
UC-Pipelines unterstützen das Festlegen von "<configKey>" auf "<configValue>" nicht. Entfernen Sie diese Konfiguration aus den Pipelineeinstellungen.
INVALID_DECORATOR_USAGE
SQLSTATE: nicht zugewiesen
Das erste positionale Argument, das an @<decoratorName> übergeben wird, muss aufrufbar sein. Fügen Sie @<decoratorName> ohne Parameter zu Ihrer Funktion hinzu, oder übergeben Sie Optionen an @<decoratorName> , indem Sie Schlüsselwortargumente verwenden (z. B <exampleUsage>. ).
INVALID_DESTINATION_PIPELINE_ID
Ungültige Zielpipeline-ID: '<pipelineId>'. Pipeline-IDs müssen gültige UUIDs sein.
Stellen Sie sicher, dass Sie die richtige Pipeline-ID und nicht den Pipelinenamen verwenden.
INVALID_EVENT_LOG_CONFIGURATION
Ungültige Ereignisprotokollkonfiguration in Pipelinespezifikation: <message>
INVALID_NAME_IN_USE_COMMAND
Ungültiger Name '<name>' im <command> Befehl. Grund: <reason>
INVALID_PARAM_FOR_DBSQL_PIPELINE
Sie können "pipeline_id" und "pipeline_type" nur beim Aufrufen von "dry_run" für eine DBSQL Pipeline angeben.
INVALID_REFRESH_SELECTION
Weitere Details finden Sie unter INVALID_REFRESH_SELECTION.
INVALID_REFRESH_SELECTION_REQUEST_FOR_CONTINUOUS_PIPELINE
Die Aktualisierungsauswahl wird für den fortlaufenden Modus nicht unterstützt.
INVALID_REFRESH_SELECTION_REQUEST_WITH_FULL_REFRESH
full_refresh sollte für eine Aktualisierungsauswahlanforderung nicht auf "true" festgelegt werden.
INVALID_REWIND_SPECIFICATION
Die Zurückspulenspezifikation ist ungültig.
Weitere Informationen finden Sie unter INVALID_REWIND_SPECIFICATION
INVALID_ROOT_PATH
Ungültige root_path '<rootPath>': Derzeit werden nur absolute Verzeichnispfade unterstützt. Verzeichnispfade müssen mit '/' beginnen und nicht mit '/' enden.
INVALID_SCHEMA_NAME
Ungültiges Schema <schemaName> in der Pipelineeinstellung angegeben. Grund: <reason>.
INVALID_SNAPSHOT_AND_VERSION_TYPE
SQLSTATE: nicht zugewiesen
snapshot_and_version für den Flow mit Ziel '<target>' hat einen nicht unterstützten Typ zurückgegeben.
<additionalMsg>.
INVALID_TRIGGER_INTERVAL_FORMAT
Die in der <configurationType> angegebene Triggerintervallkonfiguration ist ungültig.
JIRA_ACCESS_FORBIDDEN
Der Verbindungsbenutzer hat keinen Zugriff. Überprüfen Sie die Berechtigungen des Benutzers erneut, und versuchen Sie es erneut.
JIRA_ADMIN_BERECHTIGUNG_FEHLT
Fehler beim Aufrufen von Jira-APIs. Bitte stellen Sie sicher, dass Sie
der Verbindungsbenutzer die Jira-Administratorberechtigungen für Ihre Jira-Instanz.
JIRA_AUTORISIERUNG_FEHLGESCHLAGEN
Fehler bei der Autorisierung beim Aufrufen von Jira-APIs. Freundlich erneut authentifizieren
Die UC-Verbindung wurde erstellt, und versuchen Sie es erneut.
JIRA_CONNECTOR_ENTITY_MAPPING_PARSING_FAILED
Fehler im Jira-Connector.
Beim Analysieren der Entitätszuordnung für den Entitätstyp ist ein Problem aufgetreten: <entityType> Überprüfen Sie, ob Ihre Entität Teil der unterstützten Typen ist.
Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.
JIRA_MISSING_REQUIRED_FIELD
Das erforderliche Feld "<fieldName>" fehlt in der Jira-API-Antwort.
JSON Knoten: <jsonNode>
JIRA_SITE_MISSING
CloudId wurde nicht gefunden, die der bereitgestellten Jira-Domäne <domain>entspricht.
Stellen Sie sicher, dass der verbindende Benutzer auf diese Website zugreifen kann.
JOB_DETAILS_DO_NOT_MATCH
Wenn sowohl „update_cause_details.job_details“ als auch „job_task“ angegeben werden, müssen sie übereinstimmen, sie lauten jedoch <details> und <jobTask>
JOB_TASK_DETAILS_MISSING
Wenn die „Ursache“ JOB_TASK ist, muss entweder „job_task“ oder „update_cause_details.job_details“ angegeben werden.
LEGACY_PIPELINE_CREATION_DISABLED
Das Erstellen von Pipelines im Legacy-Veröffentlichungsmodus ist standardmäßig in Arbeitsbereichen deaktiviert. Wenden Sie sich an den Databricks-Support, wenn eine Ausnahme erforderlich ist.
LIBRARY_FILE_FETCH_PERMISSION_DENIED
Auf die Bibliotheksdatei kann unter '<path>' nicht zugegriffen werden. Stellen Sie sicher, dass der Benutzer über die erforderlichen Berechtigungen zum Lesen dieser Datei verfügt.
Grund: <reason>
LIBRARY_FILE_NOT_FOUND
Die Datei "<path>" wurde nicht gefunden, oder der run_as Benutzer verfügt nicht über berechtigungen für den Zugriff darauf.
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_CLASSIC
Das Verweisen auf Datasets mithilfe des virtuellen Schemas LIVE außerhalb der Dataset-Abfragedefinition (d. h. @dlt.table-Anmerkung) wird nicht unterstützt.
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_DPM
Das Verweisen auf Datasets mithilfe des virtuellen Schemas LIVE<identifier> außerhalb der Definition der Dataset-Abfrage (d. h. @dlt.table Anmerkung) wird nicht unterstützt.
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_SPARK_SQL
Verweise auf Datasets mithilfe LIVE virtuellen Schemas in der spark.sql(...)- API dürfen nicht außerhalb der Datasetabfragedefinition (d. h. @dlt.table-Anmerkung) aufgerufen werden. Sie kann nur innerhalb der Datasetabfragedefinition aufgerufen werden.
MANAGED_INGESTION_PIPELINE_SPEC_VALIDATION_ERROR
Weitere Details finden Sie unter MANAGED_INGESTION_PIPELINE_SPEC_VALIDATION_ERROR
MATERIALISIERTE_SICHT_ZURÜCKGEGEBEN_GESTREAMTES_DATENRAHMEN
SQLSTATE: nicht zugewiesen
Die Abfragefunktion für die materialisierte Ansicht "<datasetName>" hat einen Streaming-DataFrame zurückgegeben.
Es muss einen Nicht-Streaming-DataFrame zurückgeben.
MAX_RETRY_REACHED_BEFORE_ENZYME_RECOMPUTE
Die maximale Wiederholungsanzahl wurde erreicht. Wiederholungsanzahl:<flowRetryCount>. maxFlowFailureRetryCountThreshold:<maxFlowRetryAttempts>. <message>
MESA_PIPELINE_INVALID_DEFINITION_TYPE
Das Starten einer <definitionType>-Pipeline aus der UC-Definition ist nicht zulässig.
MESA_PIPELINE_MISMATCH_PIPELINE_TYPES
Die gespeicherte und aktualisierte Definition muss denselben Pipelinetyp haben, es wurden jedoch <stored> und <updated> erhalten.
MESA_PIPELINE_MISSING_DEFINITION
Die Pipeline verfügt nicht über eine gültige Definition in UC, aber eine Aktualisierung wird angefordert.
MESA_PIPELINE_MISSING_DEFINITION_UNEXPECTED
Unerwartet fehlende Pipelinedefinition von UC.
METASTORE_OPERATION_TIMED_OUT
Vorgänge, die an der Aktualisierung der Metaspeicherinformationen für <tableName> beteiligt waren, dauerten länger als <timeout>.
Dieses Problem kann vorübergehend sein oder auf Fehler im konfigurierten Metastore-Client hinweisen. Versuchen Sie, Die Pipeline neu zu starten, und melden Sie dieses Problem, wenn sie weiterhin besteht.
META_ADS_PARAMETERS_CHANGED
Fehler im Metamarketingconnector. Die Eingabeparameter für die ad_insights Tabelle wurden geändert.
Bitte führen Sie eine vollständige Aktualisierung der betroffenen Tabellen durch.
META_ADS_SOURCE_API_ERROR
Fehler im Metamarketing-API-Aufruf. Facebook-Ablaufverfolgungs-ID zur Ablaufverfolgung mit Meta-Unterstützung: <trace_id>.
Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.
META_MARKETING_INSIGHTS_LEVEL_INVALID
Fehler im Metamarketingconnector beim Abrufen von Einblicken für die ad_insights Tabelle.
Der bereitgestellte Levelparameter <level> ist ungültig. Bitte übergeben Sie eine von (Anzeigen, Anzeigen, Kampagne, Konto).
META_MARKETING_INSIGHTS_PARAM_BREAKDOWNS_INVALID
Fehler im Metamarketingconnector beim Abrufen von Einblicken für die ad_insights Tabelle.
Die bereitgestellten Aufschlüsselungen <breakdowns> sind ungültig. Bitte überprüfen Sie die Meta-API-Dokumentation, um eine gültige Liste der Aufschlüsselungen zu finden.
Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.
META_MARKETING_INSIGHTS_PARAM_TIME_INCREMENT_INVALID
Fehler im Metamarketingconnector beim Abrufen von Einblicken für die ad_insights Tabelle.
Der angegebene Zeitinkrementierungsparameter <timeInc> konnte nicht analysiert werden. Geben Sie eine gültige ganzzahlige Zahl ein.
META_MARKETING_INSIGHTS_START_DATE_INVALID
Fehler im Metamarketingconnector beim Abrufen von Einblicken für die ad_insights Tabelle.
Der angegebene Startdatumsparameter <startDate> konnte nicht analysiert werden. Bitte überprüfen und ändern Sie es im korrekten YYYY-MM-DD-Format.
META_MARKETING_INSIGHTS_START_DATE_TOO_OLD
Fehler im Metamarketingconnector beim Abrufen von Einblicken für die ad_insights Tabelle.
Das angegebene Startdatum kann nicht mehr als 37 Monate ab dem aktuellen Synchronisierungsdatum betragen. Bitte überprüfen und ändern Sie sie in den bereitgestellten Params.
Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.
META_MARKETING_RATE_LIMIT_EXCEEDED
Das Meta-API-Ratelimit für dieses Anzeigenkonto wurde erschöpft. Versuchen Sie das Pipelineupdate nach einiger Zeit erneut. Es wird empfohlen, weniger Anzahl von Tabellen parallel aufzunehmen, um das Erreichen der Grenzwerte zu vermeiden.
Wenn Sie häufig auf Fehler bei der Häufigkeitsbegrenzung stoßen, sollten Sie ein Upgrade auf den erweiterten Zugriff in Betracht ziehen, wenn dies noch nicht geschehen ist, wie in der Metadokumentation beschrieben: https://developers.facebook.com/docs/marketing-api/get-started/authorization
META_MARKETING_REQUESTED_DATA_LIMIT_EXCEEDED
Fehler bei der Meta-API, da die angeforderte Datenmenge den Grenzwert überschreitet, den die Metaserver verarbeiten können.
Versuchen Sie, die Anzahl der felder zu verringern, die in dieser Tabelle aufgenommen werden sollen, indem Sie die Spaltenauswahllogik verwenden. Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.
MIGRATION_TO_UNITY_CATALOG
Weitere Informationen finden Sie unter MIGRATION_TO_UNITY_CATALOG
Fehlende Katalog- oder Schema-Berechtigung
Der Benutzer "<userName>" verfügt nicht über Berechtigungen für "<schemaName>". Details: <reason>
MISSING_CREATE_SCHEMA_PRIVILEGE
Der Benutzer "<userName>" verfügt nicht über die Berechtigung zum Erstellen eines Schemas im Katalog. <catalogName>
MISSING_CREATE_TABLE_PRIVILEGE
Der Benutzer "<userName>" verfügt nicht über die Berechtigung zum Erstellen einer Tabelle im Schema. <schemaName>
MISSING_RUN_AS_USER
Für das Update wurde keine Benutzerausführung angegeben.
MULTI_QUERY_SNAPSHOT_TARGET_NOT_SUPPORTED (Mehrfachabfrage-Snapshot-Ziel nicht unterstützt)
'<tableName>' enthält bereits eine AUTO CDC FROM SNAPSHOT Abfrage '<flowName>'. Derzeit unterstützt diese API nur einen Fluss pro Ziel.
MUTUALLY_EXCLUSIVE_OPTIONS
Sich gegenseitig ausschließende Optionen <options>. Entfernen Sie eine dieser Optionen.
NEGATIVE_VALUE
SQLSTATE: nicht zugewiesen
Der Wert für <arg_name> muss größer oder gleich 0 sein, ist jedoch „<arg_value>“.
NON_UC_TABLE_ALREADY_MANAGED_BY_OTHER_PIPELINE
Tabelle '<tableName>' wird bereits über die Pipeline <otherPipelineId>verwaltet.
Wenn die Tabelle "<tableName>" von dieser Pipeline verwaltet werden soll –
Entfernen Sie die Tabelle aus der Pipeline „
<otherPipelineId>“.Starten Sie ein vollständiges Aktualisierungsupdate für diese Pipeline.
Wenn Sie die Tabelle weiterhin aus mehreren Pipelines verwalten möchten, deaktivieren Sie diese Überprüfung, indem Sie die Konfiguration pipelines.tableManagedByMultiplePipelinesCheck.enabled in den Pipelineeinstellungen auf false festlegen.
Dies wird nicht empfohlen, da gleichzeitige Vorgänge in der Tabelle möglicherweise miteinander in Konflikt stehen und zu unerwarteten Ergebnissen führen.
NOTEBOOK_NAME_LIMIT_REACHED
Ungültiger Notizbuchpfad: '<nameStart>...<nameEnd>'. Er ist länger als <maxNotebookPathLength> Zeichen.
NOTEBOOK_NOT_FOUND
Auf das Notizbuch '<notebookPath>' kann nicht zugegriffen werden. Es ist entweder nicht vorhanden, oder die Zum Ausführen dieser Pipeline <identity>verwendete Identität fehlt den erforderlichen Berechtigungen.
NOTEBOOK_PIP_INSTALL_ERROR
Fehler beim Ausführen von '<pipInstallCommand>' aus dem Notizbuch: <notebookPath>. Weitere Details finden Sie in den stdout-Protokolldateien des Treibers im Cluster.
NOTEBOOK_TOO_LARGE
Der aufgelöste Notizbuchinhalt bei '<notebookPath>' ist zu groß, bitte verringern Sie die Größe des Notizbuchs.
NOTIFICATIONS_DUPLICATE_ALERTS
Doppelte Warnungen '<alertsDuplicates>' sind in [<alerts>] angegeben
NOTIFICATIONS_DUPLICATE_EMAIL_ADDRESSES
Doppelte E-Mail-Adressen '<emailRecipientsDuplicates>' in [<emailRecipients>] angegeben
NOTIFICATIONS_INVALID_ALERTS
Ungültige Warnungen wurden angegeben, um Benachrichtigungen zu erhalten auf: <invalidAlerts>
NOTIFICATIONS_INVALID_EMAIL_ADDRESS
Ungültige E-Mail-Adresse, die zum Empfangen von Benachrichtigungen angegeben wurde: <invalidEmailAddresses>
NOTIFICATIONS_MISSING_PARAMS
Geben Sie mindestens einen Empfänger und eine Warnung in <setting>
NO_SOURCE_OR_SNAPSHOT_AND_VERSION_ARGUMENT_PROVIDED
SQLSTATE: nicht zugewiesen
Entweder source oder snapshot_version muss für apply_changes_from_snapshot mit dem Ziel '<target>' festgelegt werden.
NO_TABLES_IN_PIPELINE
Es wird erwartet, dass Pipelines mindestens eine Tabelle definiert haben, aber in Ihrer Pipeline wurden keine Tabellen gefunden.
Vergewissern Sie sich, dass Sie "Run As is configured", die erwarteten Quelldateien und/oder Verzeichnisse enthalten und dass Ihr Quellcode Tabellendefinitionen enthält (z CREATE MATERIALIZED VIEW . B. in SQL-Code, @dlt.table in Python-Code).
Beachten Sie, dass nur Tabellen zu dieser Prüfung gezählt werden. Dieser Fehler kann auch auftreten, wenn Sie nur Sichten oder Flows in Ihre Pipeline einbinden.
OUTPUT_MODE_NOT_SUPPORTED_FOR_TABLE_FLOW
Der Ausgabemodus '<outputMode>' wird für den Tabellenfluss '<flowName>' für die Zieltabelle '<target>' nicht unterstützt. Der Modus "Anfüge" wird nur für Tabellenflüsse unterstützt.
OWNER_IS_MISSING
Der Besitzer ist nicht vorhanden.
PAGINATION_REQUEST_HAS_NAME_AND_PAGINATION
Sie können entweder eine <name> oder eine Paginierung angeben, aber nicht beides.
PATCH_PIPELINE_DEFINITION_UNSUPPORTED_FIELD
PatchPipelineDefinition unterstützt nur das schedule Feld, aber die bereitgestellte Definition hatte andere aufgefüllte Felder: '<updatedDefinition>'.
PERSISTED_VIEW_READS_FROM_STREAMING_SOURCE
Beibehaltene Ansichten unterstützen das Lesen aus Streamingquellen nicht.
PERSISTED_VIEW_READS_FROM_TEMPORARY_VIEW
Die persistierte Ansicht <persistedViewName> kann nicht auf die temporäre Ansicht <temporaryViewName> verweisen, da diese außerhalb des Pipelinebereichs nicht verfügbar ist. Machen Sie entweder die gespeicherte Ansicht temporär oder persistieren Sie die temporäre Ansicht.
PIPELINE_CLONING_ALREADY_IN_PROGRESS
Die Pipeline ist bereits mit der ID „<pipelineId>“ geklont worden.
PIPELINE_CLONING_BOTH_TARGET_AND_SCHEMA_SPECIFIED
Beim Klonen einer Pipeline können weder 'target' noch 'schema' angegeben werden. Geben Sie nur eine an.
PIPELINE_CLONING_CANNOT_CHANGE_SCHEMA_TO_TARGET
Eine Pipeline mit 'schema' kann nicht mit einer Pipeline mit 'Target' geklont werden. Die geklonte Pipeline muss auch "schema" verwenden oder beide auslassen, um den ursprünglichen Wert zu erben.
PIPELINE_CLONING_INVALID_DURING_ACTIVE_UPDATE
Die Pipeline mit der ID '<pipelineId>' kann während eines aktiven Updates nicht geklont werden.
PIPELINE_CLONING_INVALID_FIELDS
Die Anforderung enthielt eine Pipeline-Spezifikation mit ungültigen Feldern zum Klonen. Zulässige Felder sind: Name, Katalog, Ziel, Konfiguration.
PIPELINE_CLONING_INVALID_FOR_MISSING_TARGET
Die Pipeline mit der ID „<pipelineId>“ wird nicht in einem Zielschema publiziert. Die Quellpipeline muss in einem Zielschema veröffentlicht werden, das geklont werden soll. Versuchen Sie es erneut, nachdem Sie das Feld "Ziel" in der Pipelinespezifikation angegeben haben, und führen Sie ein neues Update aus, um es in einem Zielschema zu veröffentlichen.
PIPELINE_CLONING_INVALID_FOR_UC_PIPELINE
Die Pipeline mit der ID '<pipelineId>' ist bereits eine UC-Pipeline. UC-Pipelines können nicht geklont werden.
PIPELINE_CLONING_NO_CATALOG_SPECIFIED
Kein angegebener Katalog zum Klonen.
PIPELINE_CLONING_NO_MODE_SPECIFIED
Kein angegebener Klonmodus.
PIPELINE_CLONING_NO_TARGET_SPECIFIED
Kein angegebener Zielkatalog zum Klonen.
PIPELINE_CREATION_NOT_ENABLED_FOR_WORKSPACE
Die Pipelineerstellung ist für diesen Arbeitsbereich nicht aktiviert.
PIPELINE_DOES_NOT_EXIST
Die Pipeline mit der ID '<pipelineId>' ist nicht vorhanden.
Weitere Informationen finden Sie unter PIPELINE_DOES_NOT_EXIST
PIPELINE_ENVIRONMENT_NOT_ENABLED
Die Verwendung der Umgebung in Lakeflow Spark Declarative Pipelines ist nicht aktiviert.
PIPELINE_ENVIRONMENT_VERSION_NOT_ALLOWED
Die Umgebung der Pipeline unterstützt derzeit keine Umgebungsversionen.
PIPELINE_FAILED_TO_UPDATE_UC_TABLE_DUE_TO_CONCURRENT_UPDATE
Die Pipeline konnte die UC-Tabelle (<tableName>) nach <attempts> Versuchen aufgrund gleichzeitiger Änderungen nicht aktualisieren.
Vergewissern Sie sich, dass keine externen Prozesse die Tabelle ändern, das Update wiederholen und sich an die Databricks-Unterstützung wenden, wenn dieses Problem weiterhin besteht.
PIPELINE_FAILED_TO_UPDATE_UC_TABLE_DUE_TO_EXTERNAL_DELETE
Die Tabelle <tableName> wurde von einem externen Vorgang gelöscht, während die Pipeline sie aktualisiert hat.
Stellen Sie sicher, dass keine externen Prozesse die Tabelle ändern, und wiederholen Sie dann die Aktualisierung.
Wenn das Problem weiterhin besteht, wenden Sie sich an den Databricks-Support.
PIPELINE_FOR_TABLE_NEEDS_REFRESH
Die Tabelle <tableName> befindet sich nicht im erforderlichen Zustand, die Tabelle wurde kürzlich nicht aktualisiert. Die Pipeline mit der ID '<pipelineId>' muss erneut ausgeführt werden und dann den Vorgang wiederholen.
PIPELINE_FOR_TABLE_NOT_FOUND
Die Pipeline mit der ID „<pipelineId>“, die die Tabelle <tableName> verwaltet, kann nicht gefunden werden. Stellen Sie sicher, dass Sie sich im gleichen Arbeitsbereich wie die Pipeline befinden, die Pipeline besitzen, und dass die Pipeline mindestens einmal ausgeführt wurde.
PIPELINE_GLOB_INCLUDES_CONFLICTS
Entweder das Feld „glob“ oder „notebook/file“ unter „libraries“ in den Pipelineeinstellungen sollte festgelegt sein. Ändern Sie die Pipelineeinstellungen.
PIPELINE_GLOB_INCLUDES_NOT_SUPPORTED
Das Verwenden des Glob-Felds zum Einschließen von Quelldateien ist ein Vorschaufeature und ist deaktiviert.
Wählen Sie jede Quelldatei erneut aus, um sie in die Pipeline aufzunehmen und diesen Fehler zu beheben.
Wenden Sie sich an die Databricks-Unterstützung, um mehr über dieses Feature zu erfahren und sich für die Vorschau zu registrieren.
PIPELINE_GLOB_UNSUPPORTED_SPECIAL_CHARACTER
Die Sonderzeichen <specialChar> sind reserviert und sollten nicht in den Pipelineeinstellungen im eingeschlossenen Pfad „<path>“ verwendet werden. Entfernen Sie diese Zeichen, um den Fehler zu beheben.
PIPELINE_NAME_LIMIT_REACHED
Der Name darf nicht länger als <maxPipelineNameLength> Zeichen sein.
PIPELINE_NON_RETRYABLE_ANALYSIS_CLIENT_ERROR
Die Pipeline konnte die Quelltabellen (<tables>) aufgrund nicht wiederholbarer Fehler nach einer teilweisen Ausführung nicht analysieren.
Ein neues Pipeline-Update wird nicht erstellt.
<flowErrors>
Überprüfen Sie das Ereignisprotokoll, und beheben Sie die Probleme entsprechend.
PIPELINE_NOT_ELIGIBLE_FOR_RESTORATION
Pipeline '<pipelineId>' liegt außerhalb des Wiederherstellungsfensters.
PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE
Die Pipeline mit der ID '<pipelineId>', die die Tabelle <tableName>verwaltet, verwendet nicht den Direct Publishing-Modus.
PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE
Die Tabelle ist noch nicht für die Aktualisierung bereit.
Weitere Details finden Sie unter PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE.
PIPELINE_PERMISSION_DENIED_NOT_OWNER
Sie dürfen diesen Vorgang nicht ausführen. Sie sind weder der Besitzer der Pipeline mit der ID '<pipelineId>', noch verwalten Sie die Tabelle <tableName>.
PIPELINE_WIEDERHOLBARE_ANALYSE
Fehler bei der Pipeline beim Analysieren der Quelltabellen (<tables>) aufgrund wiederholbarer Fehler nach einer teilweisen Ausführung.
Zum Wiederholen der Verarbeitung wird ein neues Pipelineupdate erstellt. Wenn der Fehler weiterhin besteht, überprüfen Sie das Ereignisprotokoll, und beheben Sie die Probleme entsprechend.
PIPELINE_SETTINGS_FIELD_CANNOT_BE_EDITED
'<uneditableFieldName>' kann von Benutzern nicht geändert werden. Wenn Benutzer das <settingName>Feld hinzufügen oder ändern möchten, verwenden Sie stattdessen das Feld "<editableFieldName>".
PIPELINE_SETTINGS_MODIFIED_CONCURRENTLY
Pipelineeinstellungen wurden gleichzeitig geändert.
PIPELINE_SETTINGS_UNSUPPORTED_CONFIGURATIONS
Die Konfigurationen <configurations> werden von Lakeflow Spark Declarative Pipelines nicht unterstützt. Entfernen Sie diese Konfigurationen.
PIPELINE_SETTING_SHOULD_NOT_SPECIFY_DEVELOPMENT
Das Starten eines Updates mit der Einstellung "Entwicklung" wird nicht unterstützt.
PIPELINE_SHOULD_NOT_HAVE_MULTIPLE_TABLES
Die Pipeline muss genau eine Tabelle haben, es wurden jedoch <tablesSize> Tabellen gefunden: <tables>
PIPELINE_SOURCE_FILE_NUMBER_EXCEEDED
Die Anzahl der Quelldateien, einschließlich dateien, die in Ordnern deklariert sind, überschreitet den Grenzwert von <limit>.
Entfernen oder Zusammenführen übermäßiger Dateien und Ändern der entsprechenden Pipelinespezifikation bei Bedarf,
oder wenden Sie sich an den Databricks-Support, um eine Grenzwerterhöhung anzufordern.
PIPELINE_SOURCE_FOLDER_DEPTH_EXCEEDED
Der Ordner „<folder_path>“ überschreitet die maximal zulässige Verzeichnisschachtelungsebene von <limit>. Verringern Sie die Ordnerschachtelungsebene, oder wenden Sie sich an den Databricks-Support, um eine Erhöhung des Grenzwerts zu beantragen.
PIPELINE_SPEC_PARAM_CANNOT_BE_CHANGED
Das Ändern des folgenden Parameters <param> in pipelineeinstellungen ist nicht zulässig.
PIPELINE_TYPE_NOT_SUPPORTED
Der Pipelinetyp '<pipelineType>' wird nicht unterstützt.
PIPELINE_TYPE_NOT_WORKSPACE_PIPELINE_TYPE
Die Pipeline mit der ID '<pipelineId>', die die Tabelle <tableName>verwaltet, ist keine ETL-Pipeline.
PIPELINE_TYPE_QUOTA_EXCEEDED
Das Update '<updateId>' kann nicht gestartet werden, da der Grenzwert für aktive Pipelines vom Typ '<pipelineType>' erreicht wurde.
PIPELINE_UPDATE_FOR_TABLE_IS_RUNNING
Die Pipeline mit der ID „<pipelineId>“, die die Tabelle <tableName> verwaltet, wird ausgeführt. Beenden Sie die Pipeline, bevor Sie den Vorgang ausführen.
PIPELINE_WORKSPACE_LIMIT_REACHED
Die Pipelineerstellung vom Typ '<pipelineType>' wurde blockiert, da der Arbeitsbereich '<orgId>' bereits über '<countLimit>' Pipelines verfügt. Löschen Sie nicht verwendete Pipelines.
PIP_INSTALL_NOT_AT_TOP_OF_NOTEBOOK
Es wurden Zellen gefunden, die „%pip install“ enthalten, die sich nicht am Anfang des Notebooks für <notebookPath> befinden.
Verschieben Sie alle Zellen mit „%pip install“ an den Anfang des Notebooks.
PY4J_BLOCKED_API
SQLSTATE: nicht zugewiesen
Sie verwenden eine Python-API, die in der aktuellen Umgebung nicht unterstützt wird.
Bitte überprüfen Sie die Databricks-Dokumentation auf Alternativen.
<additionalInfo>
QUERY_BASED_CONNECTOR_SOURCE_API_ERROR
Fehler im <sourceName>-API-Aufruf. Quell-API-Typ: <qbcSourceApiType>.
Versuchen Sie, die Zieltabelle zu aktualisieren. Wenn das Problem weiterhin besteht, erstellen Sie ein Ticket.
QUERY_BASED_INGESTION_CONNECTOR_ERROR
Fehler im abfragebasierten Aufnahmeconnector für <sourceName>.
Weitere Informationen finden Sie unter QUERY_BASED_INGESTION_CONNECTOR_ERROR
REFERENCE_DLT_DATASET_OUTSIDE_QUERY_DEFINITION
Das Verweisen auf das Lakeflow Spark Declarative Pipelines-Dataset <identifier> außerhalb der Dataset-Abfragedefinition (d. h @dlt.table . Anmerkung) wird nicht unterstützt. Lesen Sie sie stattdessen innerhalb der Datasetabfragedefinition.
REFRESH_INITIATED_FROM_INVALID_WORKSPACE
Die Aktualisierung muss im Arbeitsbereich <homeWorkspaceId>initiiert werden, in dem die Ressource erstellt wurde.
Die Aktualisierung wurde im Arbeitsbereich <userWorkspaceId>versucht.
REFRESH_MODE_ALREADY_EXISTS
Einer Tabelle, die bereits <type>hat, kann <existingType> nicht hinzugefügt werden. Bitte legen Sie den vorhandenen Zeitplan ab oder verwenden Sie ALTER TABLE...ALTER <type> ... sie zu ändern.
REQUIRED_PARAM_NOT_FOUND
Der erforderliche Parameter <param> wurde nicht gefunden.
RESERVED_KEYWORD_IN_USE_CATALOG
USE CATALOG '' ist unzulässig, da '<reservedKeyword><reservedKeyword>' ein reserviertes Schlüsselwort in Lakeflow Spark Declarative Pipelines ist.
RESERVED_KEYWORD_IN_USE_SCHEMA
USE SCHEMA '' ist unzulässig, da '<reservedKeyword><reservedKeyword>' ein reserviertes Schlüsselwort in Lakeflow Spark Declarative Pipelines ist.
RESSOURCEN_WERDEN_BEREITGESTELLT
Pipeline-Ressourcen werden für die Pipeline "<pipelineId>" bereitgestellt.
RESOURCE_READ_ONLY_IN_WORKSPACE
<resourceType> "<resourceName>" wurde im aktuellen Arbeitsbereich schreibgeschützt festgelegt.
WIEDERHERSTELLEN_NICHT_GELÖSCHTE_PIPELINE
Die Pipeline "<pipelineId>" wird nicht gelöscht. Die Wiederherstellung gilt nur für gelöschte Pipelines.
WIEDERHERSTELLUNGSPIPELINE_DEAKTIVIERT
RestorePipeline ist für den Pipelinetyp nicht aktiviert. <pipelineType>
Wenden Sie sich an den Databricks-Support, um Unterstützung bei der Wiederherstellung der Pipeline "<pipelineId>" zu erhalten.
ROOT_PATH_NOT_FOUND
Auf den Stammpfad '<rootPath>' kann nicht zugegriffen werden. Stellen Sie sicher, dass Sie über die erforderlichen Zugriffsrechte verfügen.
RUN_AS_USER_NOT_FOUND
Die angegebene Ausführung als benutzende Person <runAsUserId> für das Update ist im Arbeitsbereich nicht vorhanden.
SAAS_CONNECTION_ERROR
Fehler beim Herstellen einer Verbindung mit der <sourceName> Quelle. Fehlercode: <saasConnectionErrorCode>.
Weitere Informationen finden Sie unter SAAS_CONNECTION_ERROR
SAAS_CONNECTOR_DUPLICATE_DATA
Doppelte Daten in der Tabelle <tableName>gefunden. Quelltyp: <sourceName>.
Weitere Informationen finden Sie unter SAAS_CONNECTOR_DUPLICATE_DATA
SAAS_CONNECTOR_INVALID_INCLUDE_COLUMNS
Ungültige include_columns für die Tabelle <qualifiedTableName>angegeben. Grund: <reason>
SAAS_CONNECTOR_INVALID_PRIMARY_KEY_CONFIGURATION
Ungültige Primärschlüsselkonfiguration für Tabelle <qualifiedTableName>. Grund: <reason>
SAAS_CONNECTOR_MUTUAL_AUTHENTICATION_FAILED
Diese Sitzung konnte nicht für die Verwendung mit <sourceName>sich gegenseitig authentifiziert werden. Quell-API-Typ: <saasSourceApiType>. Fehlercode: <saasSourceApiErrorCode>.
Stellen Sie sicher, dass das Clientzertifikat und der private Schlüssel ein gültiges Paar und vertrauenswürdig sind.<sourceName>
SAAS_CONNECTOR_REFRESH_TOKEN_EXPIRED
Das Aktualisierungstoken für die Verbindung <connectionName> ist abgelaufen. Bearbeiten Sie die Verbindung, authentifizieren Sie sie erneut, und führen Sie die Pipeline erneut aus.
SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR
In der Tabelle <tableName> der <sourceName> Quelle ist eine Schemaänderung aufgetreten.
Weitere Details finden Sie unter SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR.
SAAS_CONNECTOR_SOURCE_API_ERROR
Fehler im <sourceName>-API-Aufruf. Quell-API-Typ: <saasSourceApiType>. Fehlercode: <saasSourceApiErrorCode>.
Versuchen Sie, die Zieltabelle zu aktualisieren. Wenn das Problem weiterhin besteht, erstellen Sie ein Ticket.
SAAS_CONNECTOR_UC_CONNECTION_OAUTH_EXCHANGE_FAILED
Fehler beim OAuth-Tokenaustausch für uc-Verbindung: <connectionName>.
Dies kann durch Probleme mit Ihren UC-Anmeldeinformationen verursacht werden. Überprüfen Sie die Fehlerablaufverfolgung, bearbeiten Sie die UC-Verbindung, authentifizieren Sie sie erneut, und führen Sie die Pipeline erneut aus. Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.
SAAS_CONNECTOR_UNSUPPORTED_ERROR
In der Datenquelle <sourceName>ist ein nicht unterstützter Fehler aufgetreten.
Weitere Informationen finden Sie unter SAAS_CONNECTOR_UNSUPPORTED_ERROR.
SAAS_INCOMPATIBLE_SCHEMA_CHANGES_DURING_INIT
Beim Initialisieren der Pipeline wurden inkompatible Schemaänderungen erkannt:
<details>
Bitte führen Sie eine vollständige Aktualisierung der betroffenen Tabellen durch.
SAAS_PARTIAL_ANALYSIS_INPUT_CREATION_ERROR
Fehler beim Erstellen von Eingaben für die Teilanalyse. Ein neues Pipeline-Update wird nicht erstellt.
Überprüfen Sie das Ereignisprotokoll, und beheben Sie die Probleme entsprechend.
SAAS_SCHEMA_DIVERGED_DURING_ANALYSIS
Das analysierte Schema der Quelltabelle (<table>) hat sich vom erwarteten Schema abgegrenzt.
Versuchen Sie das Pipelineupdate erneut, und überprüfen Sie, ob das Problem behoben ist.
Wenn dieses Problem weiterhin besteht, führen Sie eine vollständige Aktualisierung der oben genannten Tabellen durch.
Schema erwartet:
<expectedSchema>
Tatsächliches Schema:
<actualSchema>
SAAS_UC_CONNECTION_INACCESSIBLE
Auf die bereitgestellte Verbindungs-<connectionName> kann nicht zugegriffen werden. Überprüfen Sie die Verbindung, und versuchen Sie es erneut.
Weitere Informationen finden Sie unter SAAS_UC_CONNECTION_INACCESSIBLE.
SCHEMA_SPEC_EMPTY_CATALOG
SchemaSpec weist eine leere Zeichenfolge im Katalogfeld auf.
Entfernen Sie die leere Zeichenfolge, oder fügen Sie den Katalognamen hinzu. (Wenn dieses Schema nicht zu einem Katalog in der Quelle gehört, legen Sie das Feld nicht fest.)
Schemaspezifikationsdetails:
<schemaSpec>
SCHEMA_SPEC_EMPTY_SCHEMA
SchemaSpec verfügt über eine leere Zeichenfolge im Schemafeld.
Entfernen Sie die leere Zeichenfolge, oder fügen Sie den Schemanamen hinzu. (Wenn diese Tabelle nicht zu einem Schema in der Quelle gehört, legen Sie das Feld nicht fest.)
Schemaspezifikationsdetails:
<schemaSpec>
SCHEMA_SPEC_REQUIRE_ONE_OF_CATALOG_SCHEMA
Mindestens ein Quellkatalog- und Quellschema muss vorhanden sein. Aber beide sind leer.
Schemaspezifikationsdetails:
<schemaSpec>
SEQUENZ_NACH_SPALTE_NICHT_GEFUNDEN
Die Definition der Pipeline enthält sequence_by-Spalte(n) (<columnNames>), die in der Tabelle <qualifiedTableName> des Quellcodes <sourceType> nicht vorhanden sind. Entfernen Sie diese Spalten aus dem Feld sequence_by.
SERVERLESS_BUDGET_POLICY_AND_USAGE_POLICY_BOTH_SET
Es kann weder budget_policy_id noch usage_policy_id festgelegt werden. Bitte budget_policy_id entfernen.
SERVERLESS_BUDGET_POLICY_BAD_REQUEST
Die bereitgestellte Budgetrichtlinie mit der ID "<budgetPolicyId>" kann in diesem Arbeitsbereich aufgrund von Richtlinienarbeitsbereichsbindungseinschränkungen nicht verwendet werden.
SERVERLESS_BUDGET_POLICY_IS_INVALID
Die Serverlose Budgetrichtlinie mit der ID "<budgetPolicyId>" ist ungültig.
SERVERLESS_BUDGET_POLICY_MISSING
Serverlose Budgetrichtlinie mit der ID '<budgetPolicyId>' ist nicht vorhanden.
SERVERLESS_BUDGET_POLICY_NOT_ENABLED
Die Richtlinie für serverloses Budget ist nicht aktiviert, wenden Sie sich bitte an den Databricks-Support.
SERVERLESS_BUDGET_POLICY_NOT_ENABLED_FOR_ACCOUNT
Die Serverlose Budgetrichtlinie ist für dieses Konto nicht aktiviert. Der Benutzer kann keine Budgetrichtlinie für diese Pipeline angeben. Der Kontoadministrator sollte versuchen, sich über das Featurevorschauportal zu registrieren. Wenn das Problem weiterhin besteht, wenden Sie sich bitte an den Databricks-Support.
SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_NON_SERVERLESS_PIPELINE
Die Serverless-Budgetrichtlinie kann nicht einer Nicht-Serverless-Pipeline zugewiesen werden.
SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_PIPELINE_TYPE
Die Serverlose Budgetrichtlinie wird für den Pipelinetyp <pipelineType>nicht unterstützt.
SERVERLESS_BUDGET_POLICY_PERMISSION_DENIED
Der Benutzer verfügt nicht über die Berechtigung, serverlose Budgetrichtlinien mit der ID "<budgetPolicyId>" zu verwenden.
SERVERLESS_NOT_AVAILABLE
Serverlose Berechnung ist nicht verfügbar. Weitere Informationen finden Sie unter Databricks.
SERVERLESS_NOT_ENABLED
Sie können keine serverlose Berechnung mit Lakeflow Spark Declarative Pipeliness verwenden. Wenden Sie sich an Databricks, um dieses Feature für Ihren Arbeitsbereich zu aktivieren.
SERVERLESS_NOT_ENABLED_FOR_USER
Serverlose Berechnung ist für Den Anrufer nicht aktiviert. Wenden Sie sich an Ihren Arbeitsbereichsadministrator, um dieses Feature zu aktivieren.
SERVERLESS_NOT_ENABLED_FOR_WORKSPACE
Serverlose Berechnung ist für diesen Arbeitsbereich und/oder diese Region nicht verfügbar. Weitere Informationen finden Sie unter Databricks.
SERVERLESS_REQUIRED
Sie müssen in diesem Arbeitsbereich serverloses Berechnen verwenden.
SERVICENOW_CONNECTION_ERROR
In ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>.
Weitere Informationen finden Sie unter SERVICENOW_CONNECTION_ERROR
SERVICENOW_CONNECTOR_EMPTY_CURSOR_KEY_ERROR
Im ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>.
Zurzeit kann die Aufnahmepipeline die Tabelle '<tableName>' nicht aufnehmen, da die Cursortaste in einer Zeile ein leeres Feld enthält.
Um die Ausführung der Pipeline fortzusetzen, entfernen Sie diese Tabelle. Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.
SERVICENOW_CONNECTOR_INSTANCE_HIBERNATION_ERROR
In ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>.
Fehler beim Herstellen einer Verbindung mit der ServiceNow-Instanz. Die Instanz scheint im Schlafmodus oder inaktiv zu sein.
Melden Sie sich bei Ihrem ServiceNow-Verwaltungsportal an, und warten Sie einige Zeit, bis die Instanz vollständig aktiviert ist.
Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.
SERVICENOW_CONNECTOR_INSTANCE_OFFLINE_ERROR
In ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>.
Fehler beim Herstellen einer Verbindung mit der ServiceNow-Instanz. Die Instanz ist offline.
Melden Sie sich beim ServiceNow-Verwaltungsportal an, und warten Sie einige Zeit, bis die Instanz wiederhergestellt wird.
Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.
SERVICENOW_CONNECTOR_INVALID_TABLE_ERROR
In ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>.
Fehler beim Abfragen des Schemas der Tabelle '<tableName>'. Die Tabelle ist im ServiceNow-Konto für diesen Benutzer nicht vorhanden.
Überprüfen Sie den Tabellennamen für alle Tippfehler, und stellen Sie sicher, dass der Benutzer über die erforderlichen Berechtigungen für den Zugriff auf die Tabelle verfügt.
Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.
SERVICENOW_CONNECTOR_IP_ADDRESS_RESTRICTED_ERROR
In ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>.
Fehler beim Herstellen einer Verbindung mit der ServiceNow-Instanz. Die Instanz verfügt über Einschränkungen für die IP-Adresszugriffskontrolle.
Um dies zu beheben, deaktivieren Sie entweder die IP-Adresseinschränkungen, indem Sie zu ServiceNow >> All >> System Security >> IP Address Access Control navigieren oder serverlose stabile IPs verwenden.
Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.
SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR
In ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>.
Ungültige ServiceNow-API-Endpunkt-URL erkannt. Die URL-Struktur stimmt nicht mit dem erwarteten ServiceNow-Format überein.
Überprüfen Sie die ServiceNow-Instanzkonfiguration in den UC-Verbindungsanmeldeinformationen.
Weitere Details finden Sie unter SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR.
SERVICENOW_CONNECTOR_MAX_FAILED_ATTEMPTS_REACHED
In ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>.
Dies geschieht häufig, wenn der Datenabruf für eine Tabelle zu lang dauert. Arbeiten Sie als erster Schritt mit Ihrem ServiceNow-Administrator zusammen, um die Indizierung in der Cursorspalte zu aktivieren.
Die Cursorspalte wird aus der folgenden Liste in der Reihenfolge der Verfügbarkeit und Einstellung ausgewählt: sys_updated_on (erste Auswahl), sys_created_on (zweite Auswahl), sys_archived (dritte Auswahl)
Anweisungen zum Aktivieren der Indizierung in ServiceNow finden Sie hier: https://docs.databricks.com/ingestion/lakeflow-connect/servicenow-overview#why-is-my-servicenow-ingestion-performance-slow.
Außerdem wird empfohlen, das TIMEout der REST-API-Abfrage auf mehr als 60 Sekunden zu erhöhen, um mehr Zeit zum Abrufen von Datensätzen zu ermöglichen.
Versuchen Sie es dann erneut mit der Erfassungspipeline. Wenn das Problem weiterhin auftritt, reichen Sie ein Ticket ein.
SERVICENOW_CONNECTOR_SCHEMA_FIELD_TYPE_INACCESSIBLE
Im ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>.
Beim Abrufen des Tabellenschemas ohne Administratorrechte kann nicht auf den internal_type der Schemaspalten zugegriffen werden.
Um dies zu beheben, erteilen Sie dem aktuellen Benutzer Leseberechtigungen für die Tabelle "sys_glide_object".
Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.
SERVICENOW_CONNECTOR_SCHEMA_FIELD_TYPE_MISMATCH
Fehler in ServiceNow beim Abrufen des Tabellenschemas.
Es wurden zwei widersprüchliche Datentypen für das Feld '<fieldName>'<firstDataType> und '<secondDataType>' gefunden.
Um die Ausführung der Pipeline fortzusetzen, entfernen Sie diese Tabelle. Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.
SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
In ServiceNow ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>.
Weitere Details finden Sie unter SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR.
SET_TBLPROPERTIES_NOT_ALLOWED_FOR_PIPELINE_TABLE
ALTER <commandTableType>
...
SET TBLPROPERTIES wird nicht unterstützt. Wenn Sie Tabelleneigenschaften ändern möchten, ändern Sie die ursprüngliche Definition, und führen Sie ein Update aus.
SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE
Die Aufnahme für Objekt-<objName> ist unvollständig, da der Salesforce-API-Abfrageauftrag zu lang dauerte, fehlgeschlagen oder manuell abgebrochen wurde.
Weitere Details finden Sie unter SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE.
SFDC_CONNECTOR_BULK_QUERY_NOT_FOUND
Fehler beim Import des Objekts <objName> da der Salesforce-Massen-API-Abfrageauftrag nicht gefunden wurde.
Dies liegt wahrscheinlich daran, dass der Auftrag in der Salesforce-Benutzeroberfläche gelöscht wurde oder weil er seit dem letzten Pipelineupdate mehr als 7 Tage vergangen ist, nach dem Salesforce den Auftrag automatisch löscht.
Um einen neuen Massenauftrag auszulösen, führen Sie bitte eine FULL REFRESH für die spezifische Zieltabelle aus.
SFDC_CONNECTOR_CREATE_BULK_QUERY_API_LIMIT_EXCEEDED
Fehler im Salesforce-API-Aufruf: API-Grenzwert überschritten
Warten Sie, bis Ihre API-Grenzwerte zurückgesetzt werden. Probieren Sie dann, die Zieltabelle neu zu laden.
Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.
SFDC_CONNECTOR_CREATE_BULK_QUERY_JOB_FAILED
Die Erfassung von Objekt-<objName> ist unvollständig, da die Erstellung des Salesforce-Massen-API-Abfrageauftrags fehlgeschlagen ist. Fehlercode: <saasSourceApiErrorCode>.
<actionText>.
SFDC_CONNECTOR_MALFORMED_RECORDS
Fehler beim Aufnehmen des Salesforce-Objekts "<objName>", da Salesforce <saasSourceApiType> falsch formatierte Datensätze zurückgegeben hat.
Weitere Details finden Sie im Stacktrace.
Überprüfen Sie die Daten in Salesforce, und führen Sie die Pipeline erneut aus.
SINKS_NOT_SUPPORTED_IN_SEG
Lakeflow Spark Declarative Pipelines Sinks in Pipeline werden in aktivierten Arbeitsbereichen für serverlose Übergabesteuerelemente nicht unterstützt. Unterstützte Lakeflow Spark Declarative Pipelines Senken sind Kafka und Delta.
Die folgenden nicht unterstützten Senken werden gefunden: <sinkNames>, die entsprechenden Formate sind: <sinkFormats>.
SOURCE_TABLE_NOT_MATERIALIZED
Fehler beim Lesen des abhängigen Datasets "<sourceTableName>", da es nicht materialisiert ist. Führen Sie die gesamte Pipeline aus, um alle abhängigen Datensätze zu materialisieren.
SPARK_CONNECT_DEFINITION_PATH_NOT_FOUND
Der Definitionspfad für das Diagrammelement '<graphElementName>' wurde nicht gefunden. Wenden Sie sich bitte an den Databricks-Support.
SPARK_CONNECT_DEFINITION_PATH_NOT_FOUND_SPARK_SQL
Im aktuellen Spark SQL-Ausführungskontext ist kein Pipelinedefinitionspfad verfügbar. Wenden Sie sich bitte an den Databricks-Support.
SPARK_CONNECT_UNSUPPORTED_FLOW_DEFINITION_ERROR
Die Ablaufdefinition wird nicht unterstützt. Wenden Sie sich bitte an den Databricks-Support. Befehl: <defineFlowCommand>
SPARK_CONNECT_UNSUPPORTED_OUTPUT_TYPE
Der Ausgabetyp '<outputType>' wird in Spark Connect nicht unterstützt. Wenden Sie sich bitte an den Databricks-Support.
STANDALONE_PRIVATE_MVST_NOT_SUPPORTED
Das Erstellen eines eigenständigen PRIVATE MV/ST wird nicht unterstützt. Entfernen Sie den PRIVATE Modifizierer.
START_PYTHON-REPL-ZEITÜBERSCHREITUNG
Timeout beim Warten darauf, dass die Python REPL startet. Dauerte länger als <timeoutSeconds> Sekunden.
STREAMING_TARGET_NOT_DEFINED
Die Zieltabelle <target> für den <command> Befehl wurde nicht gefunden. Zieltabelle <target> ist in der Pipeline nicht definiert.
SYNCED_TABLE_USER_ERROR
Benutzerfehler der synchronisierten Tabellenpipeline.
Weitere Informationen finden Sie unter SYNCED_TABLE_USER_ERROR
TABLE_CHANGED_DURING_OPERATION
Die Tabelle <tableName> wurde außerhalb dieser Transaktion geändert, und diese Transaktion wurde zurückgesetzt. Wiederholen Sie den Vorgang.
TABLE_MATERIALIZATION_CYCLIC_FOREIGN_KEY_DEPENDENCY
Pipelineupdate für Pipeline: <pipelineId> hat eine zyklische Kette von Fremdschlüsseleinschränkungen erkannt: <tables>.
TABLE_SPEC_BOTH_CATALOG_SCHEMA_REQUIRED
Bei „TableSpec“ fehlt der Quellkatalog und/oder das Quellschema.
Tabellenspezifikationsdetails:
<tableSpec>
TABLE_SPEC_EMPTY_CATALOG
TableSpec verfügt über eine leere Zeichenfolge im Katalogfeld.
Entfernen Sie die leere Zeichenfolge, oder fügen Sie den Katalognamen hinzu. (Wenn diese Tabelle nicht zu einem Katalog in der Quelle gehört, legen Sie das Feld nicht fest.)
Tabellenspezifikationsdetails:
<tableSpec>
TABLE_SPEC_EMPTY_SCHEMA
TableSpec verfügt über eine leere Zeichenfolge im Schemafeld.
Entfernen Sie die leere Zeichenfolge, oder fügen Sie den Schemanamen hinzu. (Wenn diese Tabelle nicht zu einem Schema in der Quelle gehört, legen Sie das Feld nicht fest.)
Tabellenspezifikationsdetails:
<tableSpec>
TABLE_SPEC_EMPTY_TABLE
Der Tabellenname ist leer. Geben Sie einen Tabellennamen an.
Tabellenspezifikationsdetails:
<tableSpec>
TABLE_TOKEN_NOT_EXIST_FOR_SCHEMA_EVOLUTION_LEGACY_TABLE
Die Schemaentwicklung kann aufgrund fehlender Metadaten nicht aktiviert werden. Lösen Sie eine vollständige Aktualisierung aus.
Grund: Snapshot-Tabellentoken muss definiert werden, wenn die Schemaentwicklung aktiviert ist.
TRASHED_PIPELINE_IN_WORKSPACE
Die Pipeline kann nicht gestartet werden, da sie in den Papierkorb verschoben oder gelöscht wurde.
TRIGGER_INTERVAL_VALUE_INVALID
Das Triggerintervall muss eine positive Dauer sein, der maximal zulässige Wert beträgt 2.147.483.647 Sekunden. Empfangen: <actual> Sekunden.
TRIGGER_NOT_ENABLED
Trigger sind für diesen Arbeitsbereich nicht aktiviert. Bitte aktivieren Sie die Tabellenauslöser auf der Seite "Vorschau".
TRIGGER_ON_VIEW_READ_FROM_FILE_NOT_SUPPORTED
Die Quelle <source> ist eine Ansicht, die aus einem Dateispeicherort liest, der derzeit nicht vom Trigger unterstützt wird.
TRIGGER_REQUEST_SERIALIZATION_ERROR
Es gab ein Problem bei der Verarbeitung Ihrer Anforderung. Wenden Sie sich bitte an den Databricks-Support.
TRIGGER_SECURABLE_KIND_NOT_SUPPORTED (Sichere Art des Auslösers wird nicht unterstützt)
Fehler beim Auslösen des Setups: Nicht unterstützter Tabellentyp. Weitere Informationen finden Sie in der Dokumentation zu unterstützten Typen.
TRIGGER_SOURCE_TYPE_NOT_SUPPORTED
Die Quelle <source> mit Typ <type> wird derzeit nicht vom Auslöser unterstützt.
AUSLÖSER_ZUSTAND_SERIALISIERUNGSFEHLER
Es gab ein Problem bei der Verarbeitung Ihrer Anforderung. Wenden Sie sich bitte an den Databricks-Support.
TRIGGER_TABLE_LIMIT_EXCEEDED
Fehler beim Auslösen des Setups: Der Trigger enthält mehr Tabellen als das zulässige Limit. Ausführliche Informationen zu Tabellenbeschränkungen und zur Behebung dieses Problems finden Sie in der Dokumentation.
TRIGGER_TABLE_TYPE_NOT_SUPPORTED
Fehler beim Auslösen des Setups: Nicht unterstützter Tabellentyp. Weitere Informationen finden Sie in der Dokumentation zu unterstützten Typen.
UC_CLEARING_TARGET_SCHEMA_NOT_ALLOWED
Das Löschen des Zielschemafelds ist für UC-Pipelines nicht zulässig. Grund: <reason>.
UC_IAM_ROLE_NON_SELF_ASSUMING
Die IAM-Rolle für die Speicheranmeldeinformationen wurde als nicht selbst angenommen gefunden.
Überprüfen Sie die Vertrauens- und IAM-Richtlinien Ihrer Rolle, um sicherzustellen, dass Ihre IAM-Rolle sich gemäß der Dokumentation zu Unity Catalog-Speicheranmeldeinformationen selbst annehmen kann.
UC_NOT_ENABLED
Die Verwendung des UC-Katalogs in Lakeflow Spark Declarative Pipelines ist nicht aktiviert.
UC_PIPELINE_CANNOT_PUBLISH_TO_HMS
UC-aktivierte Pipelines können nicht im Hive-Metastore veröffentlicht werden. Wählen Sie einen anderen Zielkatalog aus.
UC_TARGET_SCHEMA_REQUIRED
Das Zielschemafeld ist für UC-Pipelines erforderlich. Grund: <reason>.
UNABLE_TO_INFER_TABLE_SCHEMA
Fehler beim Ableiten des Schemas für die Tabelle <tableName> aus den vorgelagerten Flüssen.
Ändern Sie die Flüsse, die in diese Tabelle schreiben, um deren Schemas kompatibel zu machen.
Abgeleitetes Schema bisher:
<inferredDataSchema>
Inkompatibles Schema:
<incompatibleDataSchema>
UNEXPECTED_PIPELINE_SCHEMA_PERMISSION_ERROR
Unerwarteter Fehler beim Überprüfen von Schemaberechtigungen für Pipeline-<pipelineId>. Wenden Sie sich bitte an den Databricks-Support.
ROW_FILTERSUNIFORM_COMPATIBILITY_CANNOT_SET_WITH__OR_COLUMN_MASKS
Die einheitliche Kompatibilität kann nicht für materialisierte Ansichten oder Streamingtabellen festgelegt werden, auf die ein Zeilenfilter oder Spaltenmasken angewendet wurden.
UNITY_CATALOG_INITIALIZATION_FAILED
Beim Einrichten der Pipeline im Cluster <clusterId> ist ein Fehler mit Unity Catalog aufgetreten.
Stellen Sie sicher, dass Ihre Unity-Katalogkonfiguration korrekt ist und dass erforderliche Ressourcen (z. B. Katalog, Schema) vorhanden sind und darauf zugegriffen werden kann.
Überprüfen Sie außerdem, ob der Cluster über entsprechende Berechtigungen für den Zugriff auf den Unity-Katalog verfügt.
Details: <ucErrorMessage>
UNRESOLVED_SINK_PATH
Speicherpfad für Senke <identifier> kann nicht aufgelöst werden. Wenden Sie sich bitte an den Databricks-Support.
UNRESOLVED_TABLES_FOR_MAINTENANCE
Die folgenden Tabellen wurden in der Pipelinedefinition gefunden, konnten aber während der Wartung nicht aufgelöst werden. Führen Sie eine Pipelineupdateausführung mit der neuesten Pipelinedefinition aus, um alle Tabellen in der Pipelinedefinition zu materialisieren und die Wartung aufzuheben, oder wenden Sie sich an die Unterstützung von Databricks, wenn das Problem weiterhin besteht.
<unresolvedTableIdentifiersSet>
UNRESOLVED_TABLE_PATH
Der Speicherpfad für tabellen <identifier> kann nicht aufgelöst werden. Wenden Sie sich bitte an den Databricks-Support.
UNSUPPORTED_ALTER_COMMAND
ALTER <commandTableType>
...
<command> wird nicht unterstützt.
UNSUPPORTED_CHANNEL_FOR_DPM
Nicht unterstützter Kanal für den Direct Publishing-Modus. Erwartet wurde entweder der Kanal CURRENT oder PREVIEW, erhalten wurde jedoch PREVIOUS.
UNSUPPORTED_COMMAND_IN_NON_DPM_PIPELINE
<command> nur unterstützt im Direct Publishing-Modus aktiviert Spark Declarative Pipeline
UNSUPPORTED_COMMAND_IN_QUERY_DEFINITION
'<command>' wird in der Abfragedefinition nicht unterstützt. Verschieben Sie den Befehl außerhalb der Abfragedefinition. Wenn es sich um eine Spark Declarative Pipeline in Python handelt, verschieben Sie das "<command>" außerhalb des @dlt.table()/@dlt.view() Dekorators. Wenn es sich um eine Spark Declarative Pipeline in Scala handelt, verschieben Sie das "<command>" außerhalb der Abfragemethode.
UNSUPPORTED_CUSTOM_DBR_VERSION
Benutzerdefinierte DBR-Version '<v>' wird in SHIELD und HIPAA Arbeitsbereichen nicht unterstützt. Eine von [<supportedDbrVersions>] erwartet
Nicht unterstützte benutzerdefinierte Schema-Vorschau
Die private Vorschau des benutzerdefinierten Schemas ist deaktiviert.
Erstellen Sie eine neue Pipeline mit standardmäßigem Veröffentlichungsmodus mithilfe des Felds "Schema"
in der Pipelinespezifikation, und verschieben Sie die Datasets aus dieser Pipeline in die neue Pipeline.
NICHT_UNTERSTÜTZTE_BENUTZERDEFINIERTE_SCHEMA_VORSCHAU_AKTIVIERUNG
Die private Vorschau des benutzerdefinierten Schemas ist deaktiviert, und Sie können die Vorschau nicht zu einer Pipeline hinzufügen.
Entfernen <sparkConfKeys> Sie die Pipelinekonfiguration.
UNSUPPORTED_DBR_VERSION
DBR-Version '<v>' wird nicht unterstützt. Eine von [<supportedDbrVersions>] erwartet
UNSUPPORTED_FEATURE_FOR_WORKSPACE
<featureName> wird in Ihrem Arbeitsbereich nicht unterstützt. Wenden Sie sich an den Databricks-Support, um dieses Feature für Ihren Arbeitsbereich zu aktivieren.
UNSUPPORTED_LANGUAGE
Fehler beim Laden des <language> Notizbuchs '<notebookPath>'. Derzeit werden nur <supportedLanguages> Notizbücher unterstützt.
UNSUPPORTED_LIBRARY_FILE_TYPE
Die Datei unter <path> hat nicht .py oder .sql Suffix. Nur Python- und SQL-Dateien werden in Pipelines unterstützt.
UNSUPPORTED_LIBRARY_NOTEBOOK_LANGUAGE
Nicht unterstützte Sprache <language> für Notebook <path>. Nur Python und SQL werden in Pipelines unterstützt.
UNSUPPORTED_LIBRARY_OBJECT_TYPE
Der im Pfad enthaltene <path> ist vom Typ <objectType>, der nicht unterstützt wird. Derzeit können nur Notizbücher und Dateien als Bibliotheken verwendet werden. Um dieses Problem zu beheben, entfernen Sie das nicht unterstützte Objekt, oder aktualisieren Sie die für diese Pipeline konfigurierten Bibliotheken, sodass nur unterstützte Objekttypen enthalten sind.
UNSUPPORTED_MANAGED_INGESTION_SOURCE_TYPE
Ungültige Definition einer verwalteten Aufnahmepipeline, nicht unterstützter Quelltyp: <sourceType>.
UNSUPPORTED_MULTIPLE_UPDATE_TYPE
Nur überprüfen, nur erkunden und Zurückspulen von Updates schließen sich gegenseitig aus. Es sollte höchstens eine festgelegt werden.
UNSUPPORTED_REWIND
Zurückspulenvorgänge sind für diesen Arbeitsbereich noch nicht aktiviert.
UNSUPPORTED_SAAS_INGESTION_TYPE
Der bereitgestellte Erfassungstyp <ingestionType> wird nicht unterstützt.
Wenden Sie sich an den Databricks-Support, wenn dieses Problem weiterhin besteht.
UNSUPPORTED_SPARK_SQL_COMMAND
'<command>' wird in spark.sql("...")-API in Lakeflow Spark Declarative Pipelines Python nicht unterstützt. Unterstützter Befehl: <supportedCommands>.
UNSUPPORTED_SQL_STATEMENT
Nicht unterstützte SQL-Anweisung für <datasetType> '<datasetName>': <operation> wird nicht unterstützt.
UPDATED_DEFINITION_SET_FOR_NON_DBSQL_PIPELINE
Nur DBSQL-Pipelines können eine aktualisierte Definition haben.
USE_CATALOG_IN_HMS
USE CATALOG only supported in UC-enabled Spark Declarative Pipeline
VIEW_TEXT_NOT_SAVED_IN_UC
Tabelle <tableName> kann nicht aktualisiert werden, da sie keine Abfrage im Unity-Katalog gespeichert hat. Wenden Sie sich bitte an den Databricks-Support.
WORKDAY_HCM_CONNECTOR_FETCH_BATCH_FAILED
Fehler in Workday HCM. Quell-API-Typ: <saasSourceApiType>.
Fehler beim Abrufen des Batches beim Offset '<offset>'.
Versuchen Sie, die Zieltabelle zu aktualisieren. Wenn das Problem weiterhin besteht, erstellen Sie ein Ticket.
WORKDAY_REPORTS_CONNECTOR_INSUFFICIENT_OAUTH_SCOPE_ERROR
In Workday-Berichten ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>.
Fehler beim Abrufen von Daten für den Bericht '<reportUrl>'. Der OAuth-Client verfügt nicht über ausreichenden Bereichszugriff, um den Bericht abzurufen.
Um dies zu beheben, stellen Sie sicher, dass der OAuth-Client die erforderlichen Bereiche in Workday konfiguriert hat.
Wenn der Fehler weiterhin besteht, geben Sie ein Ticket ein.
WORKDAY_REPORTS_CONNECTOR_MISSING_REQUIRED_PARAMS_ERROR
In Workday-Berichten ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>.
Der Workday-Bericht '<reportUrl>' erwartet den Parameter '<missingParam>'.
Stellen Sie sicher, dass alle Parameter des Berichts in der URL enthalten sind; Sie können die Workday-Berichtskonfiguration überprüfen, um zu ermitteln, welche Parameter obligatorisch sind.
Wenn das Problem weiterhin auftritt, reichen Sie ein Ticket ein.
WORKDAY_REPORTS_CONNECTOR_REPORT_NOT_FOUND_ERROR
In Workday-Berichten ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>.
Die Berichts-URL '<reportUrl>' ist falsch. Überprüfen Sie auf Tippfehler in der Basis-URL oder auf den Berichtsnamen, um das Problem zu beheben.
Wenn das Problem weiterhin auftritt, reichen Sie ein Ticket ein.
- WORKDAY_REPORTS_CONNECTOR_BERICHTSGRÖSSENÜBERSCHREITUNGSFEHLER
In Workday-Berichten ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>.
Die Größe des Berichts mit der URL '<reportUrl>' ist größer als 2 GB. Stellen Sie sicher, dass die Berichtsgröße diesen Grenzwert nicht überschreitet.
Wenn das Problem weiterhin auftritt, reichen Sie ein Ticket ein.
WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
In Workday-Berichten ist ein Fehler aufgetreten. Quell-API-Typ: <saasSourceApiType>.
Weitere Informationen finden Sie unter WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR.
WORKDAY_REPORT_URL_EMPTY
Die Url des Workday-Berichts ist leer. Mindestens ein Bericht muss bereitgestellt werden.
WORKSPACE_QUOTA_EXCEEDED
Update „<updateId>“ kann nicht gestartet werden, da bereits „<maxActiveUpdates>“ aktive Pipelines in diesem Arbeitsbereich ausgeführt werden.
Installation
ERROR_BASE_ENVIRONMENT_FILE_NOT_FOUND – Die Datei für die Basisumgebung wurde nicht gefunden.
SQLSTATE: nicht zugewiesen
Die YAML-Datei der Basisumgebung fehlt. Stellen Sie sicher, dass die Datei im angegebenen Pfad vorhanden ist.
Beschreibung: Tritt auf, wenn die erforderliche Basisumgebungs-YAML-Datei am erwarteten Speicherort nicht gefunden werden kann.
Vorgeschlagene Aktion: Stellen Sie sicher, dass die YAML-Basisumgebungsdatei im angegebenen Pfad vorhanden ist, und wiederholen Sie die Installation.
ERROR_BASE_ENVIRONMENT_FILE_READ
SQLSTATE: nicht zugewiesen
Fehler beim Lesen der Basisumgebungsdatei aufgrund einer falschen Syntax oder eines falschen Formats der YAML-Datei. Bitte überprüfen Sie den Dateiinhalt.
Beschreibung: Tritt auf, wenn die YAML-Basisumgebung Syntax- oder Formatfehler enthält.
Vorgeschlagene Aktion: Überprüfen und beheben Sie die YAML-Syntax in der Umgebungsdatei, und wiederholen Sie dann die Installation.
FEHLER_VERBINDUNG_ABGELEHNT
SQLSTATE: nicht zugewiesen
Es kann keine Verbindung mit dem Paket-Repository hergestellt werden. Überprüfen Sie die Verfügbarkeit von Netzwerkkonnektivität, Firewalleinstellungen oder Repositorys.
Beschreibung: Tritt auf, wenn pip aufgrund von Netzwerkproblemen, Firewalleinschränkungen oder Repositoryausfallzeiten keine Verbindung mit dem Remotepaket-Repository herstellen kann.
Vorgeschlagene Aktion: Überprüfen Sie die Netzwerkkonnektivität, überprüfen Sie die Firewall- oder Proxyeinstellungen, bestätigen Sie, dass auf die Repository-URL zugegriffen werden kann, und versuchen Sie es später erneut, wenn das Repository vorübergehend nicht verfügbar ist.
ERROR_CORE_PACKAGE_VERSION_CHANGE
SQLSTATE: nicht zugewiesen
Das installierte Paket ist nicht mit Databricks-Kernpaketen kompatibel. Richten Sie die Paketversionen an den vorinstallierten Bibliotheksversionen aus, und wiederholen Sie die Installationen.
Beschreibung: Tritt auf, wenn eine Databricks-Kernabhängigkeit (z. B. pyspark)-Version geändert wird.
Vorgeschlagene Aktion: Richten Sie die installierten Paketversionen mit den vorinstallierten Bibliotheken aus, und wiederholen Sie die Installation.
ERROR_CRAN_PACKAGE_NOT_AVAILABLE
SQLSTATE: nicht zugewiesen
Das CRAN-Paket ist für die vorinstallierte R-Version auf dieser Berechnung nicht verfügbar.
Beschreibung: Tritt auf, wenn ein R-Paket für die installierte R-Version auf dem Computersystem nicht verfügbar ist.
Vorgeschlagene Aktion: Wechseln Sie zu einer Berechnung mit einer kompatiblen R-Version, oder wählen Sie eine andere Paketversion aus.
ERROR_DBFS_DISABLED
SQLSTATE: nicht zugewiesen
Der öffentliche DBFS-Stammzugriff ist deaktiviert. Bitte verwenden Sie einen alternativen Speicher.
Beschreibung: Tritt auf, wenn Sie versuchen, Bibliotheken aus DBFS zu installieren, aber der öffentliche DBFS-Stamm ist im Arbeitsbereich deaktiviert.
Vorgeschlagene Aktion: Verwenden Sie alternative Speicherorte wie UC-Volumes, Arbeitsbereichsdateien oder Remotespeicher.
ERROR_DIRECTORY_NOT_INSTALLABLE
SQLSTATE: nicht zugewiesen
Das Verzeichnis ist aufgrund einer ungültigen Python-Paketstruktur nicht installiert. Überprüfen Sie, ob das Verzeichnis ordnungsgemäß eingerichtet ist.
Beschreibung: Tritt auf, wenn die Pip-Installation für ein Verzeichnis ohne gültige Python-Paketstruktur ausgeführt wird.
Vorgeschlagene Aktion: Stellen Sie sicher, dass das Verzeichnis ein setup.py oder pyproject.toml enthält, und versuchen Sie es erneut, oder verpacken Sie es als Rad.
Fehler: Doppelte Installation
SQLSTATE: nicht zugewiesen
Doppelte Paketinstallation wurde erkannt. Versuchen Sie, den doppelten Paketeintrag für das Paket zu entfernen und den Cluster neu zu starten.
Beschreibung: Tritt auf, wenn dasselbe Paket bereits auf dem Cluster installiert ist und eine duplizierte Installation versucht wird.
Vorgeschlagene Aktion: Entfernen Sie die doppelten Paketeinträge, und starten Sie den Cluster neu.
ERROR_FEATURE_DISABLED
SQLSTATE: nicht zugewiesen
Unity-Katalogvolumes sind im Arbeitsbereich deaktiviert. Wenden Sie sich an den Arbeitsbereichsadministrator, um dieses Feature zu aktivieren.
Beschreibung: Tritt auf, wenn Unity-Katalogvolumes im Arbeitsbereich deaktiviert sind und die Installation von UC-Volumes verhindert wird.
Vorgeschlagene Aktion: Wenden Sie sich an Ihren Arbeitsbereichsadministrator, um Unity-Katalogvolumes zu aktivieren oder alternativen Speicher zu verwenden.
ERROR_HASH_MISMATCH
SQLSTATE: nicht zugewiesen
Pakethashkonflikt erkannt. Der Hash des heruntergeladenen Pakets stimmt nicht mit dem erwarteten Hash überein.
Beschreibung: Tritt auf, wenn der Hash eines heruntergeladenen Pakets nicht mit dem erwarteten Hash übereinstimmt.
Vorgeschlagene Aktion: Wiederholen Sie die Installation, starten Sie den Cluster neu, und/oder verschieben Sie große Paketinstallationen in Arbeitsbereichsdateien, UC Volumes oder ein privates PyPI-Repository.
ERROR_INVALID_FILE
SQLSTATE: nicht zugewiesen
Die angegebene Datei kann aufgrund eines falschen Dateityps nicht installiert werden. Überprüfen Sie, ob Sie den gültigen und unterstützten Dateityp verwenden.
Beschreibung: Tritt auf, wenn die angegebene Bibliotheksdatei aufgrund eines falschen Dateityps oder -formats nicht installiert werden kann.
Vorgeschlagene Aktion: Verwenden Sie einen unterstützten Bibliotheksdateityp (z. B. Rad, Jar), und überprüfen Sie die Pfadgültigkeit.
ERROR_INVALID_REQUIREMENT
SQLSTATE: nicht zugewiesen
Falsche Syntax oder falsch formatierte Einträge in Anforderungsdatei- oder Paketabhängigkeiten. Überprüfen und korrigieren Sie den Inhalt der Anforderungsdatei und der Paketabhängigkeiten.
Beschreibung: Ungültiges oder falsch formatiertes Anforderungsformat, das entweder in Der Anforderungsdatei oder in den Abhängigkeitsspezifikationen eines Pakets erkannt wurde.
Vorgeschlagene Aktion: Verwenden Sie das richtige Format (z. B. "Bibliotheksname==Version")in Anforderungsdateien, überprüfen Sie, ob die Paketabhängigkeitsformate gültig sind, und überprüfen Sie, ob Tippfehler oder nicht unterstützte Versionsbezeichner vorhanden sind.
ERROR_INVALID_SCRIPT_ENTRY_POINT
SQLSTATE: nicht zugewiesen
Ungültiger Skripteinstiegspunkt. Bitte überprüfen Sie die Einstiegspunkte des Pakets oder die setup.py Datei.
Beschreibung: Tritt auf, wenn der angegebene Einstiegspunkt des Konsolenskripts in den Paketmetadaten nicht vorhanden ist.
Vorgeschlagene Aktion: Überprüfen Sie den Namen des Einstiegspunkts in setup.py oder pyproject.toml, oder wenden Sie sich an den Paketbetreuer.
FEHLER_UNGÜLTIGE_SPEICHERKONFIGURATION
SQLSTATE: nicht zugewiesen
Ungültiger Speicherkonfigurationswert, der für das Cloudspeicherkonto erkannt wurde. Überprüfen Sie die Speicherkonfiguration, Kontoeinstellungen und Anmeldeinformationen.
Beschreibung: Tritt auf, wenn die Konfiguration des Cloudspeicherkontos fehlerhaft oder falsch ist.
Vorgeschlagene Aktion: Korrigieren Sie die Speicherkonfiguration für das Konto, und wiederholen Sie die Installation.
FEHLER_UNGÜLTIGE_BENUTZER_EINGABE
SQLSTATE: nicht zugewiesen
Ungültige Paketsyntax oder bereitgestellte Argumente. Überprüfen Sie, ob die Eingabe und Optionen für die Bibliotheksinstallation gültig sind.
Beschreibung: Tritt auf, wenn pip mit ungültigen Optionen oder Argumenten aufgerufen wird.
Vorgeschlagene Aktion: Überprüfen Sie Pip-Optionen und Befehlssyntax, korrigieren Sie die Eingabe, und wiederholen Sie die Installation.
Fehler: Ungültiges Rad
SQLSTATE: nicht zugewiesen
Beschädigte, falsch formatierte oder ungültige Wheel-Datei wurde erkannt. Überprüfen Sie die Raddatei, oder wiederholen Sie die Installation.
Beschreibung: Tritt auf, wenn pip während der Installation eine beschädigte, unvollständige oder falsch formatierte Raddatei findet.
Vorgeschlagene Aktion: Löschen Sie den Pip-Cache, laden Sie das Rad erneut herunter oder bauen Sie es neu auf, installieren Sie es erneut und überprüfen Sie die Integrität, bevor Sie den Vorgang wiederholen.
ERROR_JAR_EVICTED
SQLSTATE: nicht zugewiesen
Das JAR-Paket wurde aufgrund von Versionskonflikten vom Resolver entfernt. Beheben Sie Abhängigkeitsversionskonflikte.
Beschreibung: Tritt auf, wenn Maven bei der Auflösung von Abhängigkeiten eine JAR-Datei wegen Versionskonflikten mit anderen Abhängigkeiten verdrängt.
Vorgeschlagene Aktion: Lösen Sie Konflikte in Ihrer Abhängigkeitskonfiguration, oder verwenden Sie explizite Versionsüberschreibungen.
ERROR_MAVEN_LIBRARY_RESOLUTION
SQLSTATE: nicht zugewiesen
Maven-Bibliothekskoordinaten können nicht aufgelöst werden. Überprüfen Sie Bibliotheksinformationen, Zugriff auf Repositories oder die Verfügbarkeit von Maven-Repositories.
Beschreibung: Tritt auf, wenn Maven die angegebene Bibliothek aufgrund falscher Koordinaten, Netzwerkprobleme oder Repositoryausfallzeiten nicht finden oder beheben kann.
Vorgeschlagene Aktion: Überprüfen Sie das Format "groupId:artifactId:version", überprüfen Sie Repository-URLs und Anmeldeinformationen, versuchen Sie es mit alternativen Repositorys, oder versuchen Sie es später erneut, wenn das Repository möglicherweise vorübergehend nicht verfügbar ist.
ERROR_NO_MATCHING_DISTRIBUTION
SQLSTATE: nicht zugewiesen
Das Herunterladen oder Zugreifen auf die angegebenen Cloudspeicherressourcen ist in der Regel aufgrund von Fehlkonfigurationen, fehlenden Abhängigkeiten oder Verbindungsproblemen nicht möglich. Überprüfen Sie die Einrichtung des Cloudspeichers.
Beschreibung: Tritt auf, wenn cluster keine Bibliotheksdateien aus dem Cloudspeicher herunterladen oder installieren kann, in der Regel aufgrund von Fehlkonfigurationen, fehlenden Abhängigkeiten oder Netzwerkproblemen.
Vorgeschlagene Aktion: Stellen Sie sicher, dass die Cloudspeicher-URIs korrekt sind, Anmeldeinformationen gültig sind und alle erforderlichen Netzwerkproxys oder Bibliotheken ordnungsgemäß konfiguriert sind, und wiederholen Sie dann die Installation.
ERROR_NO_SUCH_FILE_OR_DIRECTORY (FEHLER_KEINE_DATEI_ODER_VERZEICHNIS_VORHANDEN)
SQLSTATE: nicht zugewiesen
Die Bibliotheksdatei ist nicht vorhanden, oder der Benutzer verfügt nicht über die Berechtigung zum Lesen der Bibliotheksdatei. Überprüfen Sie, ob die Bibliotheksdatei vorhanden ist und der Benutzer über die richtigen Berechtigungen für den Zugriff auf die Datei verfügt.
Beschreibung: Tritt auf, wenn die angegebene Datei während der Bibliotheksinstallation fehlt oder nicht auf den angegebenen Pfad zugegriffen werden kann.
Vorgeschlagene Aktion: Überprüfen Sie, ob die Datei im angegebenen Pfad vorhanden ist, korrigieren Sie den Pfad, oder laden Sie die fehlende Datei hoch, und stellen Sie die richtigen Berechtigungen sicher.
ERROR_OPERATION_NOT_SUPPORTED
SQLSTATE: nicht zugewiesen
Die Bibliotheksinstallation wird für diesen Dateityp vom angeforderten Dateisystem nicht unterstützt. Überprüfen Sie den Bibliothekstyp, und lesen Sie das Benutzerhandbuch zur unterstützten Bibliothek auf der aktuellen Berechnung.
Beschreibung: Tritt auf, wenn das Zieldateisystem, der Dateityp oder der Computetyp den angeforderten Vorgang während der Installation nicht unterstützt.
Vorgeschlagene Aktion: Verwenden Sie ein unterstütztes Dateisystem, Dateityp oder Computetyp, oder passen Sie das Installationsziel an einen unterstützten Speicherort an.
ERROR_BERECHTIGUNG_VERWEIGERT
SQLSTATE: nicht zugewiesen
Der Benutzer verfügt nicht über die ausreichende Berechtigung zum Installieren des Pakets. Überprüfen Sie die Datei- und Verzeichniszugriffsrechte für den Benutzer.
Beschreibung: Tritt auf, wenn der Installationsbenutzer während der Installation nicht berechtigt ist, eine Datei oder ein Verzeichnis zu lesen oder zu schreiben.
Vorgeschlagene Aktion: Überprüfen und erteilen Sie die richtigen Berechtigungen für das Zielverzeichnis, oder wenden Sie sich an den Systemadministrator.
ERROR_PIP_CONFIG
SQLSTATE: nicht zugewiesen
Der Benutzer hat versucht, eine Python-Bibliothek zu installieren, aber die Konfigurationsdatei auf Arbeitsbereichsebene oder die Pip-Konfigurationsdatei auf Arbeitsbereichsebene weist Syntaxfehler auf oder ist fehlerhaft. Überprüfen Sie die Pip-Konfigurationsdatei, und korrigieren Sie sie.
Beschreibung: Tritt auf, wenn die Konfigurationsdatei von Pip Syntaxfehler aufweist oder falsch formatiert ist.
Vorgeschlagene Aktion: Beheben Sie die Syntaxfehler in der Pip-Konfigurationsdatei, entfernen Sie die Konfigurationsdatei, um Standardeinstellungen zu verwenden, starten Sie den Cluster neu, und wiederholen Sie die Installation.
ERROR_PYTHON_REPL_RESTORE_FAILURE
SQLSTATE: nicht zugewiesen
Fehler bei der Python REPL-Wiederherstellung nach der Paketinstallation.
Beschreibung: Tritt in der Regel auf, wenn kerne Python-Pakete so aktualisiert werden, dass die Laufzeitumgebung während der Wiederherstellung unterbrochen wird.
Vorgeschlagene Aktion: Überprüfen Sie kürzlich installierte Pakete und Installationspakete, die mit Databricks Environment-Standardeinstellungen wie Numpy, Pandas, Pyspark und anderen Standardbibliotheken kompatibel sind. Stellen Sie sicher, dass Versionen mit Ihrer Databricks-Runtime-Version kompatibel sind. Wenn der Fehler weiterhin auftritt, wenden Sie sich bitte an den Databricks-Support.
ERROR_REQUIREMENTS_FILE_INSTALLATION
SQLSTATE: nicht zugewiesen
requirements.txt Dateien, die einen Unity Catalog-Volume- oder Arbeitsbereichsdateiverweis enthalten, werden für nicht UC-aktivierte Cluster nicht unterstützt. Verwenden Sie einen UC-aktivierten Cluster, um requirements.txt zu installieren, die sich auf ein UC-Volume oder eine Arbeitsbereichsdatei bezieht.
Beschreibung: Tritt auf, wenn requirements.txt UC-Volumes oder Arbeitsbereichsdatei-Verweise auf einem nicht UC-aktivierten Cluster enthält.
Vorgeschlagene Aktion: Verwenden Sie einen UC-aktivierten Cluster für eine requirements.txt-Datei, die auf Arbeitsbereichs- oder UC-Dateien verweist, oder entfernen Sie diese Verweise.
ERROR_BENÖTIGT_HASHES
SQLSTATE: nicht zugewiesen
Fehlende Hashes, wenn pip im Modus "-require-hashes" ausgeführt wird und eine Anforderung keinen Hash enthält. Beachten Sie die Hashanforderungen, oder deaktivieren Sie die Hashüberprüfung.
Beschreibung: Tritt auf, wenn pip im Modus "-require-hashes" ausgeführt wird und eine Anforderung keinen Hash aufweist.
Vorgeschlagene Aktion: Fügen Sie die Hashes für alle Pakete in requirements.txt hinzu oder entfernen Sie die --require-hashes Flagge.
ERROR_RESTART_PYTHON
SQLSTATE: nicht zugewiesen
Fehler beim Neustart des Python-Prozesses. Dies kann darauf zurückzuführen sein, dass die Version eines Pakets aktualisiert wird, das mit den vorinstallierten Laufzeitbibliotheken in Konflikt steht. Überprüfen und ausrichten Sie die Paketabhängigkeiten und deren Versionen.
Beschreibung: Tritt auf, wenn die Python-Umgebung nach der Bibliotheksinstallation nicht neu gestartet werden kann, häufig aufgrund von Konflikten zwischen installierten Paketen und vorinstallierten Databricks-Runtime-Bibliotheken.
Vorgeschlagene Aktion: Richten Sie installierte Paketversionen mit den vorinstallierten Databricks-Runtime-Bibliotheken aus, um Konflikte und Python-Neustartfehler zu vermeiden.
ERROR_RESTART_SCALA
SQLSTATE: nicht zugewiesen
Fehler beim Neustart des Scala-Prozesses. Dies kann darauf zurückzuführen sein, dass skalare JARs nicht übereinstimmen (z. B. das Ausführen von 2.12 jar auf einem 2.13-Kernel). Bitte überprüfen und ausrichten Sie die Scala-Versionen.
Beschreibung: Tritt auf, wenn die Scala-Umgebung nicht neu gestartet werden kann, häufig aufgrund von Konflikten der Scala-Version in Scala-JARs.
Vorgeschlagene Aktion: Richten Sie JAR Skala-Versionen mit Kernel-Skala-Version aus, um Konflikte und Scala-Neustartfehler zu vermeiden.
ERROR_S3_FORBIDDEN
SQLSTATE: nicht zugewiesen
Der Zugriff auf die S3-Ressource wurde verweigert. Überprüfen Sie die IAM-Berechtigungen und Bucket-Richtlinien.
Beschreibung: Die AWS-Anmeldeinformationen des Clusters verfügen nicht über ausreichende Berechtigungen für den Zugriff auf die angegebene S3-Ressource.
Vorgeschlagene Aktion: Überprüfen und aktualisieren Sie die S3-Bucketrichtlinien oder IAM-Rollen, um den erforderlichen Lesezugriff auf den Cluster zu gewähren.
ERROR_SCALA_INSTALLATION
SQLSTATE: nicht zugewiesen
Fehler beim Installieren von Java-Abhängigkeiten aufgrund von Berechtigungsproblemen oder fehlenden Dateien.
Beschreibung: Tritt auf, wenn Java-Abhängigkeiten nicht installiert werden können, häufig aufgrund ungültiger Pfade, URLs oder unzureichender Dateiberechtigungen.
Vorgeschlagene Aktion: Überprüfen Sie Dateipfade und URLs, stellen Sie die richtigen Berechtigungen sicher, und wiederholen Sie die Installation.
ERROR_SETUP_PY_FAILURE (Fehler beim Einrichten von setup.py)
SQLSTATE: nicht zugewiesen
Die setup.py des Python-Pakets wurde aufgrund von Kompatibilitätsproblemen, fehlenden Abhängigkeiten oder Konfigurationsfehlern nicht erfolgreich ausgeführt. Überprüfen Sie die Konfigurationsdatei Ihrer Abhängigkeiten.
Beschreibung: Tritt auf, wenn das setup.py Skript des Pakets aufgrund von Kompatibilitätsproblemen, fehlenden Abhängigkeiten oder Konfigurationsfehlern fehlschlägt.
Vorgeschlagene Aktion: Aktualisieren Sie Paketversionen, installieren Sie fehlende Abhängigkeiten, ersetzen Sie veraltete Pakete, und überprüfen Sie das setup.py Skript.
ERROR_SSL_VIOLATION (SSL-Verletzung)
SQLSTATE: nicht zugewiesen
Pip hat SSL-Handshake- oder Zertifikatüberprüfungsprobleme festgestellt. Überprüfen Sie die SSL-Konfigurationen und Zertifikate in Ihrem Compute- oder Arbeitsbereich.
Beschreibung: Tritt auf, wenn pip auf SSL-Handshake- oder Zertifikatüberprüfungsprobleme beim Herstellen einer Verbindung mit Paketrepositorys stößt.
Vorgeschlagene Aktion: Überprüfen Sie, ob SSL-Zertifikate gültig sind, vertrauenswürdige Hosts in Pip konfigurieren oder die SSL-Einstellung des Netzwerks überprüfen.
ERROR_UC_ASSET_NOT_FOUND (Asset nicht gefunden)
SQLSTATE: nicht zugewiesen
Das Unity Catalog-Objekt wurde nicht gefunden. Überprüfen Sie, ob Katalog, Schema und Volumen vorhanden sind.
Beschreibung: Tritt auf, wenn das angegebene Unity-Katalogvolume, -Katalog oder -Schema nicht vorhanden oder nicht zugänglich ist.
Vorgeschlagene Aktion: Überprüfen Sie, ob der Unity Catalog-Objektpfad korrekt ist und das Objekt in Ihrem Konto vorhanden ist.
ERROR_UNSUPPORTED_LIBRARY_TYPE
SQLSTATE: nicht zugewiesen
Der Bibliothekstyp wird für diese Berechnung nicht unterstützt. Überprüfen Sie die unterstützten Bibliotheken für den Rechentyp.
Beschreibung: Tritt auf, wenn Sie versuchen, einen Bibliothekstyp zu installieren, der nicht mit dem ausgewählten Compute kompatibel ist.
Vorgeschlagene Aktion: Verwenden Sie einen unterstützten Bibliothekstyp für diese Berechnung, oder wechseln Sie zu einem Compute, der diesen libraryType unterstützt.
ERROR_UNSUPPORTED_PYTHON_VERSION
SQLSTATE: nicht zugewiesen
Die Python-Bibliothek ist mit der Python-Version auf dieser Berechnung nicht kompatibel. Verwenden Sie einen Compute mit einer kompatiblen Python-Version.
Beschreibung: Tritt auf, wenn die Einschränkung eines Pakets python_requires nicht mit der Python-Version übereinstimmt, die auf der Berechnung ausgeführt wird.
Vorgeschlagene Aktion: Installieren Sie eine Paketversion, die die aktuelle Python-Version unterstützt, oder ändern Sie die Computeversion.
ERROR_UNSUPPORTED_SSL_ENABLED
SQLSTATE: nicht zugewiesen
Die Installation schlägt fehl, wenn spark.ssl.enabled-Konfiguration aktiviert ist, was für die Bibliotheksinstallation nicht unterstützt wird. Deaktivieren Sie die SSL-Konfiguration, und starten Sie den Cluster neu.
Beschreibung: Tritt auf, wenn die Spark.ssl.enabled-Konfiguration aktiviert ist, die für die Bibliotheksinstallation nicht unterstützt wird.
Vorgeschlagene Aktion: Deaktivieren Sie die SSL-Konfiguration (z. B. "spark.ssl.enabled=false" oder "spark.databricks.libraries.ignoreSSL=true"), und starten Sie den Cluster neu.
FEHLER_BENUTZER_NICHT_IM_ARBEITSBEREICH_GEFUNDEN
SQLSTATE: nicht zugewiesen
Fehler bei der Bibliotheksinstallation, da der Benutzer im Arbeitsbereich nicht gefunden wurde. Dies geschieht in der Regel, wenn ein Benutzer aus dem Arbeitsbereich entfernt wurde, aber sein Token weiterhin verwendet wird.
Beschreibung: Tritt auf, wenn das Zugriffstoken eines Benutzers verwendet wird, der Benutzer aber nicht mehr im angegebenen Arbeitsbereich vorhanden ist.
Vorgeschlagene Aktion: Stellen Sie sicher, dass der Benutzer Zugriff auf den Arbeitsbereich hat, oder aktualisieren Sie die Clusterkonfiguration, um die Anmeldeinformationen eines gültigen Benutzers zu verwenden.
ERROR_VOLUME_PERMISSION_DENIED
SQLSTATE: nicht zugewiesen
Unzureichende Berechtigungen für das Unity Catalog Volume. Überprüfen Sie die Zugriffsrechte auf das UC-Volume oder beantragen Sie den Zugriff beim Eigentümer des UC-Volumes.
Beschreibung: Tritt auf, wenn der Benutzer über keine Berechtigungen für das angegebene UC-Volume verfügt.
Vorgeschlagene Aktion: Anfordern von LESEberechtigungen für das Unity-Katalogvolume vom Volumebesitzer oder Administrator.
ERROR_WHEEL_BUILD
SQLSTATE: nicht zugewiesen
Pip konnte das Rad aufgrund fehlender Buildabhängigkeiten oder Fehler nicht erfolgreich erstellen. Bitte überprüfen Sie den Inhalt und die Abhängigkeiten des Radpakets.
Beschreibung: Tritt auf, wenn pip ein Wheel für das Paket aufgrund fehlender Build-Abhängigkeiten oder Fehler nicht erstellt.
Vorgeschlagene Aktion: Stellen Sie sicher, dass Buildtools und Header installiert sind, oder installieren Sie ein vordefiniertes Rad mit --no-binary.
FEHLER_BEI_DER_RADEINBAU
SQLSTATE: nicht zugewiesen
Das Rad ist aufgrund eines nicht übereinstimmenden Plattformtags oder einer ungültigen Raddatei nicht mit dem aktuellen Compute kompatibel. Überprüfen Sie den Inhalt des Wheel-Pakets, die Abhängigkeiten und die Kompatibilität mit dem Computersystem.
Beschreibung: Tritt auf, wenn die Wheel-Datei ungültig ist oder die Plattform-Tags nicht übereinstimmen.
Vorgeschlagene Aktion: Verwenden Sie ein Rad, das für die aktuelle Plattform erstellt wurde, oder erstellen Sie das Rad mit den entsprechenden Tags neu.
FEHLER_CLOUD_STORAGE_INSTALLATION
SQLSTATE: nicht zugewiesen
Das Herunterladen oder Zugreifen auf die angegebenen Cloudspeicherressourcen ist in der Regel aufgrund von Fehlkonfigurationen oder Verbindungsproblemen nicht möglich. Bitte überprüfen Sie die Einrichtung des Cloudspeichers.
Beschreibung: Tritt auf, wenn die Berechnung keine Bibliotheksdateien aus dem Cloudspeicher herunterladen oder installieren kann, in der Regel aufgrund von Fehlkonfigurationen oder Netzwerkproblemen.
Vorgeschlagene Aktion: Stellen Sie sicher, dass die Cloudspeicher-URIs korrekt sind, Anmeldeinformationen gültig sind und alle erforderlichen Netzwerkproxys oder Bibliotheken ordnungsgemäß konfiguriert sind, und wiederholen Sie dann die Installation.
FAULT_DBR_VERSION_EOS
SQLSTATE: nicht zugewiesen
Die Databricks-Runtime-Version auf dem Rechner hat das Supportende erreicht und wird nicht mehr unterstützt. Verwenden Sie eine unterstützte Databricks-Laufzeitversion.
Beschreibung: Tritt auf, wenn die Bibliothek auf einer Databricks-Runtime-Version installiert wird, die keine Updates oder Support mehr empfängt.
Vorgeschlagene Aktion: Aktualisieren Sie den Cluster auf eine unterstützte Databricks-Runtime-Version, und wiederholen Sie die Installation.
FAULT_POLLER_ALLOWLIST_VALIDATION
SQLSTATE: nicht zugewiesen
Die Bibliotheksinstallation ist aufgrund fehlender Zulassungsliste blockiert. Dies kann passieren, wenn eine Bibliothek nach dem Hinzufügen zu einem Cluster aus der Zulassungsliste entfernt wird. Überprüfen Sie die Zulassungsliste der Bibliothek, bitten Sie den Administrator, der Zulassungsliste Bibliotheken hinzuzufügen oder nicht autorisierte Pakete aus dem Cluster zu entfernen.
Beschreibung: Tritt auf, wenn eine oder mehrere angeforderte Bibliotheken in der Metastore-Zulassungsliste nicht genehmigt werden und von der Installation blockiert werden. Dies kann auch passieren, wenn eine Bibliothek zuvor zulässig, aber später aus der Zulassungsliste entfernt wurde.
Vorgeschlagene Aktion: Überprüfen Sie die Metastore-Zulassungsliste, fordern Sie Ihren Administrator an, die fehlenden Bibliotheken zur Zulassungsliste hinzuzufügen oder nicht autorisierte Bibliotheken aus dem Cluster zu entfernen.
FAULT_POLLER_DBR_UNSUPPORTED
SQLSTATE: nicht zugewiesen
Die Databricks-Runtime-Version auf dem Cluster hat das Ende der Unterstützung erreicht und wird nicht mehr unterstützt. Verwenden Sie eine unterstützte Databricks-Laufzeitversion.
Beschreibung: Tritt auf, wenn die Bibliothek auf einer Databricks-Runtime-Version installiert wird, die keine Updates oder Support mehr empfängt.
Vorgeschlagene Aktion: Ändern Sie den Cluster so, dass eine unterstützte Databricks-Runtime-Version verwendet wird, und wiederholen Sie die Installation.
FAULT_POLLER_BIBLIOTHEK_SPEICHERFORMAT_NICHT_UNTERSTÜTZT
SQLSTATE: nicht zugewiesen
Die ausgewählte Databricks-Runtime-Version unterstützt möglicherweise keine bestimmten Bibliotheksspeicherformate, z. B. gs:// oder abfss:// Pfade. Bitte aktualisieren Sie Databricks Runtime, oder lesen Sie das Benutzerhandbuch zu den Funktionen für verschiedene Databricks-Runtime-Versionen.
Beschreibung: Tritt auf, wenn die Databricks-Runtime-Version das angegebene Bibliotheksspeicherformat oder -protokoll nicht unterstützt.
Vorgeschlagene Aktion: Verwenden Sie ein unterstütztes Speicherschema oder aktualisieren Sie auf eine Databricks-Runtime-Version, die das gewünschte Speicherformat unterstützt.
FAULT_POLLER_UNITY_CATALOG_NOT_AVAILABLE_ERROR
SQLSTATE: nicht zugewiesen
Die Bibliotheksinstallation erfordert Unity-Katalog, aber Unity-Katalog ist im Cluster oder Arbeitsbereich nicht verfügbar. Wenden Sie sich an den Arbeitsbereichsadministrator, um dieses Feature zu aktivieren.
Beschreibung: Tritt auf, wenn für eine Bibliotheksinstallation Unity-Katalog erforderlich ist, der Unity-Katalog jedoch im Arbeitsbereich nicht verfügbar ist.
Vorgeschlagene Aktion: Anfordern der Verwaltung, um Unity-Katalog in Ihrem Arbeitsbereich zu aktivieren oder einen Cluster zu verwenden, der Unity-Katalog unterstützt.
SPEICHERZUGRIFFSFEHLER
SQLSTATE: nicht zugewiesen
Aufgrund von Anmeldeinformationen, Netzwerk- oder Berechtigungsproblemen kann nicht auf Cloudspeicherressourcen zugegriffen werden. Überprüfen Sie die Konfiguration des Cloudspeicherzugriffs.
Beschreibung: Tritt auf, wenn die Berechnung aufgrund von Anmeldeinformationen, Netzwerk- oder Berechtigungsproblemen nicht auf die Cloudspeicherressourcen zugreifen kann.
Vorgeschlagene Aktion: Überprüfen Sie Speicheranmeldeinformationen, Netzwerkkonnektivität und Zugriffsberechtigungen, und wiederholen Sie dann die Installation.
Miscellaneous
ABAC_POLICIES_NOT_SUPPORTED_FOR_RUNTIME_VERSION
SQLSTATE: nicht zugewiesen
DBR-Version <abacDBRMajorVersion>.
<abacDBRMinorVersion> oder höher ist erforderlich, um eine Tabelle <tableFullName>abzufragen, da sie durch eine ABAC-Richtlinie geschützt ist.
AZURE_ENTRA_CREDENTIALS_MISSING
SQLSTATE: nicht zugewiesen
Anmeldeinformationen für Azure Entra (auch als Azure Active Directory bekannt) fehlen.
Stellen Sie sicher, dass Sie entweder mit Ihrem Entra-Konto angemeldet sind.
oder Sie ein persönliches Azure DevOps-Zugriffstoken (PAT) unter „Benutzereinstellungen > Git-Integration“ eingerichtet haben.
Wenn Sie kein PAT verwenden und Azure DevOps mit der Repos-API verwenden,
Sie müssen ein Azure Entra-Zugriffstoken verwenden.
Siehe https://docs.microsoft.com/azure/databricks/dev-tools/api/latest/aad/app-aad-token für Schritte zum Abrufen eines Azure Entra-Zugriffstokens.
<pickOrCreateNewCredential>
AZURE_ENTRA_CREDENTIALS_PARSE_FAILURE
SQLSTATE: nicht zugewiesen
Es wurde ein Fehler mit Ihren Azure Entra (Azure Active Directory)-Anmeldeinformationen festgestellt. Bitte versuchen Sie, sich abzumelden von
Entra (https://portal.azure.com) und wieder anzumelden.
Alternativ können Sie auch „Benutzereinstellungen > Git-Integration“ aufrufen, um ein
ein persönliches Azure DevOps-Zugriffstoken einrichten.
<pickOrCreateNewCredential>
AZURE_ENTRA_LOGIN_ERROR
SQLSTATE: nicht zugewiesen
Ein Fehler ist bei Ihren Azure Active Directory-Anmeldeinformationen aufgetreten. Bitte versuchen Sie, sich abzumelden von
Azure Active Directory (https://portal.azure.com) und erneute Anmeldung.
<pickOrCreateNewCredential>
AZURE_ENTRA_WORKLOAD_IDENTITY_ERROR
SQLSTATE: nicht zugewiesen
Bei Azure Workload Identity trat ein Fehler mit einer Azure-Ausnahme auf: <azureWorkloadIdentityExceptionMessage>
CLEAN_ROOM_DELTA_SHARING_ENTITY_NOT_AUTHORIZED
SQLSTATE: nicht zugewiesen
Die Generierung von Anmeldeinformationen für sicherungsfähiges Delta Sharing in Reinräumen kann nicht angefordert werden.
CLEAN_ROOM_HIDDEN_SECURABLE_PERMISSION_DENIED
SQLSTATE: nicht zugewiesen
Sicherungsfähiges <securableName>-Element mit Typ <securableType> und Art <securableKind> wird vom Reinraumsystem verwaltet, Benutzende haben keinen Zugriff.
CONSTRAINT_ALREADY_EXISTS
SQLSTATE: nicht zugewiesen
Es gibt bereits eine Einschränkung mit dem Namen <constraintName>, wählen Sie bitte einen anderen Namen.
CONSTRAINT_DOES_NOT_EXIST
SQLSTATE: nicht zugewiesen
Einschränkung <constraintName> ist nicht vorhanden.
COULD_NOT_READ_REMOTE_REPOSITORY
SQLSTATE: nicht zugewiesen
Konnte Remote-Repository (<repoUrl>) nicht lesen.
Anmeldeinformationen <credentialName> (<credentialId>) wurden verwendet<because>.
Der Anbieter dieser Git-Anmeldeinformationen ist <gitCredentialProvider> und E-Mail/Benutzername lautet <gitCredentialUsername>.
Gehen Sie bitte zu Ihrem Git-Remoteanbieter, um folgendes sicherzustellen:
Ihre Git-Repository-REMOTE-URL ist gültig.
Ihr persönliches Zugriffstoken oder App-Kennwort verfügt über den richtigen Repositoryzugriff.
<pickOrCreateNewCredential>
COULD_NOT_RESOLVE_REPOSITORY_HOST
SQLSTATE: nicht zugewiesen
Host für <repoUrl> konnte nicht aufgelöst werden.
Anmeldeinformationen <credentialName> (<credentialId>) wurden verwendet<because>.
Der Anbieter dieser Git-Anmeldeinformationen ist <gitCredentialProvider> und E-Mail/Benutzername lautet <gitCredentialUsername>.
CSMS_BEGINNING_OF_TIME_NOT_SUPPORTED
SQLSTATE: nicht zugewiesen
Der Parameter beginning_of_time kann nicht wahr sein.
CSMS_CONTINUATION_TOKEN_EXPIRED
SQLSTATE: nicht zugewiesen
Fortsetzungstoken ist abgelaufen. Ursache: <msg>
CSMS_CREDENTIAL_NAME_MISSING
SQLSTATE: nicht zugewiesen
Der Anmeldeinformationsname fehlt in der Anforderung.
CSMS_FILE_EVENTS_VALIDATION_USER_ERROR
SQLSTATE: nicht zugewiesen
Fehler bei der Dateiereignisseüberprüfung für den Vorgang <operation>: <message>
CSMS_INVALID_CONTINUATION_TOKEN
SQLSTATE: nicht zugewiesen
Fortsetzungstoken ungültig. Ursache: <msg>
CSMS_INVALID_FILE_EVENTS_QUEUE
SQLSTATE: nicht zugewiesen
<missingField> fehlt in <queueType> der Anforderung
CSMS_INVALID_MAX_OBJECTS
SQLSTATE: nicht zugewiesen
Ungültiger Wert <value> für Parameter max_objects, erwarteter Wert in [<minValue>, <maxValue>]
CSMS_INVALID_SUBSCRIPTION_ID
SQLSTATE: nicht zugewiesen
Die Abonnement-ID ist ungültig. Ursache: <msg>
CSMS_INVALID_URI_FORMAT
SQLSTATE: nicht zugewiesen
Ungültiges URI-Format. Ein Volume oder ein Cloudspeicherpfad (z. B. "/Volumes/catalog/schema/volume" oder "s3://some-uri") wird erwartet.
CSMS_KAFKA_TOPIC_MISSING
SQLSTATE: nicht zugewiesen
Muss ein Kafka-Thema bereitstellen
CSMS_LOCATION_ERROR
SQLSTATE: nicht zugewiesen
Fehler beim Auflisten von Objekten. Es gibt Probleme am Standort, die behoben werden müssen. Details: <msg>
CSMS_LOCATION_NOT_KNOWN
SQLSTATE: nicht zugewiesen
Kein Speicherort für URI <path> gefunden.
CSMS_METASTORE_ID_MISSING
SQLSTATE: nicht zugewiesen
Muss eine Metastore-UUID bereitstellen
CSMS_METASTORE_RESOLUTION_FAILED
SQLSTATE: nicht zugewiesen
Ein Metaspeicher für die Anforderung kann nicht ermittelt werden.
CSMS_RESOLVE_CREDENTIAL_ID_FAILED
SQLSTATE: nicht zugewiesen
Fehler beim Auflösen der Anmeldeinformations-ID für Anmeldeinformationen: <credentialName>
CSMS_RESOLVE_LOCAL_SHARD_NAME_FAILED
SQLSTATE: nicht zugewiesen
CSMS konnte den lokalen Shardnamen nicht auflösen.
CSMS_SERVICE_DISABLED
SQLSTATE: nicht zugewiesen
Der Dienst ist deaktiviert.
CSMS_SHARD_NAME_MISSING_IN_REQUEST
SQLSTATE: nicht zugewiesen
Der Shardname fehlt in einer RPC-Anforderung an CSMS.
CSMS_STORAGE_CREDENTIAL_DOES_NOT_EXIST
SQLSTATE: nicht zugewiesen
Speicheranmeldeinformationen sind nicht vorhanden.
CSMS_SUBSCRIPTION_ID_MISSING_IN_REQUEST
SQLSTATE: nicht zugewiesen
Die Abonnement-ID fehlt in der Anforderung.
CSMS_ABONNEMENT_NICHT_GEFUNDEN
SQLSTATE: nicht zugewiesen
Abonnement mit ID <id> nicht gefunden.
CSMS_UNITY_CATALOG_DISABLED
SQLSTATE: nicht zugewiesen
Unity-Katalog ist für diesen Arbeitsbereich deaktiviert.
CSMS_UNITY_CATALOG_ENTITY_NOT_FOUND
SQLSTATE: nicht zugewiesen
Unity Catalog-Entität nicht gefunden. Stellen Sie sicher, dass der Katalog, das Schema, das Volume und/oder der externe Speicherort vorhanden sind.
CSMS_UNITY_CATALOG_EXTERNAL_LOCATION_DOES_NOT_EXIST
SQLSTATE: nicht zugewiesen
Der externe Speicherort des Unity-Katalogs ist nicht vorhanden.
CSMS_UNITY_CATALOG_EXTERNAL_STORAGE_OVERLAP
SQLSTATE: nicht zugewiesen
URI überlappt mit anderen Volumes
CSMS_UNITY_CATALOG_METASTORE_DOES_NOT_EXIST
SQLSTATE: nicht zugewiesen
Ein Metaspeicher für die Anforderung kann nicht ermittelt werden. Metastore ist nicht vorhanden
Zugriff auf Tabelle mit Filter auf Grundlage des Pfads im Unity-Katalog nicht erlaubt
SQLSTATE: nicht zugewiesen
URI verweist auf eine Tabelle mit Zeilenfilter oder Spaltenmaske. Der pfadbasierte Zugriff auf diese Tabelle ist nicht zulässig.
CSMS_UNITY_CATALOG_PERMISSION_DENIED
SQLSTATE: nicht zugewiesen
Berechtigung verweigert
CSMS_UNITY_CATALOG_RATE_LIMITED
SQLSTATE: nicht zugewiesen
Die Anforderungsratengrenze wurde überschritten. Versuchen Sie es nach einiger Zeit erneut.
CSMS_UNITY_CATALOG_TABLE_DOES_NOT_EXIST
SQLSTATE: nicht zugewiesen
Die Unity-Katalogtabelle ist nicht vorhanden.
CSMS_UNITY_CATALOG_VOLUME_DOES_NOT_EXIST
SQLSTATE: nicht zugewiesen
Das Unity-Katalogvolumen existiert nicht.
CSMS_UNSUPPORTED_FILE_EVENTS_QUEUE
SQLSTATE: nicht zugewiesen
Unbekannte Dateiereigniswarteschlange in Anforderung
CSMS_UNSUPPORTED_MANAGED_RESOURCE_TYPE
SQLSTATE: nicht zugewiesen
Verwalteter Ressourcentyp <resourceType> wird nicht unterstützt.
CSMS_UNSUPPORTED_SECURABLE
SQLSTATE: nicht zugewiesen
Nicht unterstütztes Sicherungsobjekt
CSMS_URI_MISSING
SQLSTATE: nicht zugewiesen
URI muss bereitgestellt werden
CSMS_URI_TOO_LONG
SQLSTATE: nicht zugewiesen
Der angegebene URI ist zu lang. Die maximal zulässige Länge ist <maxLength>.
CSMS_USER_CONTEXT_MISSING_IN_REQUEST
SQLSTATE: nicht zugewiesen
Der Benutzerkontext fehlt in einer RPC-Anforderung an CSMS.
DMK_CATALOGS_DISALLOWED_ON_CLASSIC_COMPUTE
SQLSTATE: nicht zugewiesen
Auf den Databricks-Standardspeicher kann nicht mithilfe des klassischen Compute zugegriffen werden. Verwenden Sie Serverless Compute, um auf Daten im Standardspeicher zuzugreifen.
GITHUB_APP_COULD_NOT_REFRESH_CREDENTIALS
SQLSTATE: nicht zugewiesen
Fehler beim Vorgang, da verknüpfte GitHub-App-Anmeldeinformationen nicht aktualisiert werden konnten.
Versuchen Sie es erneut, oder wechseln Sie zu "Benutzereinstellungen" > Git-Integration, und versuchen Sie erneut, Ihr Git-Anbieterkonto zu verknüpfen.
Wenn das Problem weiterhin besteht, melden Sie bitte ein Supportticket an.
<pickOrCreateNewCredential>
GITHUB_APP_CREDENTIALS_NO_ACCESS
SQLSTATE: nicht zugewiesen
Der Link zu Ihrem GitHub-Konto hat keinen Zugriff. So beheben Sie diesen Fehler:
- Ein Admin des Repositorys muss zu https://github.com/apps/databricks/installations/new wechseln und die GitHub-App „Databricks“ im Repository installieren.
Alternativ kann ein GitHub-Kontobesitzer die App auf dem Konto installieren, um Zugriff auf die Repositorys des Kontos zu gewähren.
- Wenn die App bereits installiert ist, lassen Sie einen Administrator sicherstellen, dass bei der Verwendung von eingeschränktem Zugriff mit der Option "Nur Repositories auswählen", der Zugriff auf dieses Repository eingeschlossen ist, indem er es auswählt.
https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app Weitere Informationen finden Sie unter.
<pickOrCreateNewCredential>
GITHUB_APP_EXPIRED_CREDENTIALS
SQLSTATE: nicht zugewiesen
Verknüpfte GitHub-App-Anmeldeinformationen sind nach 6 Monaten Inaktivität abgelaufen.
Wechseln Sie zu "Benutzereinstellungen" > Git-Integration, und versuchen Sie, Ihre Anmeldeinformationen erneut zu verknüpfen.
Wenn das Problem weiterhin besteht, melden Sie bitte ein Supportticket an.
<pickOrCreateNewCredential>
GITHUB_APP_INSTALL_ON_DIFFERENT_USER_ACCOUNT
SQLSTATE: nicht zugewiesen
Der Link zu Ihrem GitHub-Konto hat keinen Zugriff. So beheben Sie diesen Fehler:
GitHub-Benutzer
<gitCredentialUsername>sollte zu https://github.com/apps/databricks/installations/new gehen und die App auf dem Konto<gitCredentialUsername>installieren, um den Zugriff zu ermöglichen.Wenn der Benutzer
<gitCredentialUsername>die App bereits installiert hat und er den bereichsbezogenen Zugriff mit der Option "Nur ausgewählte Repositorys" verwendet, sollte er sicherstellen, dass er Zugriff auf dieses Repository hat, indem er es auswählt.
https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app Weitere Informationen finden Sie unter.
<pickOrCreateNewCredential>
GITHUB_APP_INSTALL_ON_ORGANIZATION
SQLSTATE: nicht zugewiesen
Der Link zu Ihrem GitHub-Konto hat keinen Zugriff. So beheben Sie diesen Fehler:
Ein Besitzer der GitHub-Organisation
<organizationName>sollte zu https://github.com/apps/databricks/installations/new gehen und die App in der Organisation<organizationName>installieren, um den Zugriff zu ermöglichen.Wenn die App bereits in der GitHub-Organisation
<organizationName>installiert ist, muss ein Besitzer dieser Organisation sicherstellen, dass sie bei der Verwendung von berechtigtem Zugriff mit der Option "Nur ausgewählte Repositorys" den Zugriff auf dieses Repository gewährt haben, indem sie es auswählen.
https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app Weitere Informationen finden Sie unter.
<pickOrCreateNewCredential>
GITHUB_APP_INSTALL_ON_YOUR_ACCOUNT
SQLSTATE: nicht zugewiesen
Der Link zu Ihrem GitHub-Konto hat keinen Zugriff. So beheben Sie diesen Fehler:
Wechseln Sie zu https://github.com/apps/databricks/installations/new und installieren Sie die App auf Ihrem Konto
<gitCredentialUsername>, um den Zugriff zu ermöglichen.Wenn die App bereits installiert ist und Sie den bereichsbezogenen Zugriff mit der Option "Nur Repositorys auswählen" verwenden, stellen Sie sicher, dass Sie Zugriff auf dieses Repository haben, indem Sie sie auswählen.
https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app Weitere Informationen finden Sie unter.
<pickOrCreateNewCredential>
GIT_CLUSTER_NOT_READY
SQLSTATE: nicht zugewiesen
Git-Cluster ist nicht bereit.
GIT_CREDENTIAL_GENERIC_INVALID
SQLSTATE: nicht zugewiesen
Ungültige Git-Anbieteranmeldeinformationen für Repository-URL <repoUrl>.
Anmeldeinformationen <credentialName> (<credentialId>) wurden verwendet<because>.
Der Anbieter dieser Git-Anmeldeinformationen ist <gitCredentialProvider> und E-Mail/Benutzername lautet <gitCredentialUsername>.
Gehen Sie bitte zu Ihrem Git-Remoteanbieter, um folgendes sicherzustellen:
Sie haben die richtige Git-Benutzer-E-Mail oder ihren Benutzernamen mit Ihren Git-Anbieteranmeldeinformationen eingegeben.
Ihr Token verfügt über den richtigen Repositoryzugriff.
Ihr Token ist nicht abgelaufen.
Wenn Sie SSO mit Ihrem Git-Anbieter aktiviert haben, müssen Sie Ihr Token autorisieren.
<pickOrCreateNewCredential>
GIT_CREDENTIAL_INVALID_PAT
SQLSTATE: nicht zugewiesen
Ungültige Personal Access Token-Anmeldeinformationen des Git-Anbieters für die Repository-URL <repoUrl>.
Anmeldeinformationen <credentialName> (<credentialId>) wurden verwendet<because>.
Der Anbieter dieser Git-Anmeldeinformationen ist <gitCredentialProvider> und E-Mail/Benutzername lautet <gitCredentialUsername>.
Gehen Sie bitte zu Ihrem Git-Remoteanbieter, um folgendes sicherzustellen:
Sie haben die richtige Git-Benutzer-E-Mail oder ihren Benutzernamen mit Ihren Git-Anbieteranmeldeinformationen eingegeben.
Ihr Token verfügt über den richtigen Repositoryzugriff.
Ihr Token ist nicht abgelaufen.
Wenn Sie SSO mit Ihrem Git-Anbieter aktiviert haben, müssen Sie Ihr Token autorisieren.
<pickOrCreateNewCredential>
.
GIT_CREDENTIAL_MISSING
SQLSTATE: nicht zugewiesen
Keine Git-Anmeldeinformationen konfiguriert, aber Anmeldeinformationen sind für dieses Repository erforderlich (<repoUrl>).
Wechseln Sie zu "Benutzereinstellungen" > Git-Integration, um Ihre Git-Anmeldeinformationen einzurichten.
GIT_CREDENTIAL_NO_WRITE_PERMISSION
SQLSTATE: nicht zugewiesen
Schreibzugriff auf das <gitCredentialProvider>-Repository (<repoUrl>) wurde nicht gewährt.
Anmeldeinformationen <credentialName> (<credentialId>) wurden verwendet<because>.
Der Anbieter dieser Git-Anmeldeinformationen ist <gitCredentialProvider> und E-Mail/Benutzername lautet <gitCredentialUsername>.
Stellen Sie sicher, dass Sie (<gitCredentialUsername>) Schreibzugriff auf dieses Remote-Repository haben.
GIT_CREDENTIAL_PROVIDER_MISMATCHED
SQLSTATE: nicht zugewiesen
Falscher Git-Anmeldeinformationsanbieter für Repository.
Sie haben keine Git-Anmeldeinformationen mit einem Git-Anbieter (<repositoryGitProvider>), der mit dem des Git-Anbieters <repoUrl>des Repositorys übereinstimmt.
Wechseln Sie zu Git Integration für Benutzereinstellungen > , um eine neue Anmeldeinformationen für Git-Anbieter <repositoryGitProvider>zu erstellen.
GIT_DATEINAME_ZU_LANG
SQLSTATE: nicht zugewiesen
Der Datei- oder Ordnername(n) im Pfad <path> überschreitet das Maximum " <maxComponentBytes>-byte" pro Komponente.
Unixbasierte Systeme unterstützen nur bis zu <maxComponentBytes> Bytes pro Datei- oder Ordnername.
Verletzungen: <violations>
Kürzen Sie die beleidigenden Komponenten, um fortzufahren.
GIT_PROVIDER_INFO_MISSING
SQLSTATE: nicht zugewiesen
Git-Anbieterinformationen fehlen oder sind leer.
Fügen Sie die Git-Anmeldeinformationsinformationen hinzu, und versuchen Sie es erneut.
Wenn das Problem weiterhin besteht, melden Sie bitte ein Supportticket an.
GIT_PROXY_CLUSTER_NOT_READY
SQLSTATE: nicht zugewiesen
Git-Proxycluster ist nicht bereit.
GIT_PROXY_CONNECTION_FAILED
SQLSTATE: nicht zugewiesen
Fehler beim Herstellen einer Verbindung mit Git Proxy. Überprüfen Sie, ob Git Proxy ausgeführt wird.
Fehler: <error>
GIT_SECRET_IN_CODE
SQLSTATE: nicht zugewiesen
Geheimnisse im Commit gefunden. Detail: <secretDetail>. So beheben Sie diesen Fehler:
Entfernen Sie das Geheimnis, und committen Sie erneut.
Wenn das Problem weiterhin besteht, melden Sie bitte ein Supportticket an.
GIT_STALE_REMOTE_REFS
SQLSTATE: nicht zugewiesen
Git fetch completed but could not update stale remote references due to filesystem path conflicts (for example, deleted branches or 'feature' vs 'feature/sub').
Git-Fehler: <gitErrorMessage>
HIERARCHICAL_NAMESPACE_NOT_ENABLED
SQLSTATE: nicht zugewiesen
Das Azure-Speicherkonto hat keinen hierarchischen Namespace aktiviert.
INVALID_FIELD_LENGTH
<rpcName> <fieldName> zu lang. Die maximale Länge beträgt <maxLength> Zeichen.
INVALID_PARAMETER_VALUE
<msg>
Weitere Details finden Sie unter INVALID_PARAMETER_VALUE.
JOBS_TASK_FRAMEWORK_TASK_RUN_OUTPUT_NOT_FOUND
SQLSTATE: nicht zugewiesen
Aufgabenframework: Ausgabe der Aufgabenausführung für Aufgabe mit Ausführungs-ID (runId) <runId> und Organisations-ID (orgId) <orgId> wurde nicht gefunden.
JOBS_TASK_FRAMEWORK_TASK_RUN_STATE_NOT_FOUND
SQLSTATE: nicht zugewiesen
Aufgabenframework: Status der Aufgabenausführung für Aufgabe mit Ausfühungs-ID (runId) <runId> und Organisations-ID (orgId) <orgId> wurde nicht gefunden.
JOBS_TASK_REGISTRY_TASK_CLIENT_CONFIG_DOES_NOT_EXIST
SQLSTATE: nicht zugewiesen
RPC-ClientConfig für Aufgabe mit ID <taskId> existiert nicht.
JOBS_TASK_REGISTRY_TASK_DOES_NOT_EXIST
SQLSTATE: nicht zugewiesen
Die Aufgabe mit der ID <taskId> ist nicht vorhanden.
JOBS_TASK_REGISTRY_UNSUPPORTED_JOB_TASK
SQLSTATE: nicht zugewiesen
Aufgabenregistrierung: Nicht unterstützte oder unbekannte JobTask mit Klasse <taskClassName>.
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_EXTERNAL_SHALLOW_CLONE
SQLSTATE: nicht zugewiesen
Pfadbasierter Zugriff auf externe flache Klontabelle <tableFullName> wird nicht unterstützt. Verwenden Sie stattdessen Tabellennamen, um auf den flachen Klon zuzugreifen.
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_FABRIC
SQLSTATE: nicht zugewiesen
Die Fabric-Tabelle unter der URL '<url>' wurde nicht gefunden. Verwenden Sie den Befehl REFRESH FOREIGN CATALOG, um Fabric-Tabellen aufzufüllen.
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_TABLES_WITH_ROW_COLUMN_ACCESS_POLICIES
SQLSTATE: nicht zugewiesen
Pfadbasierter Zugriff auf Tabelle <tableFullName> mit Zeilenfilter oder Spaltenmaske nicht unterstützt.
PERMISSION_DENIED
SQLSTATE: nicht zugewiesen
<principalName> hat <msg> nicht auf <resourceType> '<resourceName>'.
REDASH_DELETE_ASSET_HANDLER_INVALID_INPUT
SQLSTATE: nicht zugewiesen
Die Löschanforderung für das Objekt kann nicht verarbeitet werden: <invalidInputMsg>
REDASH_DELETE_OBJECT_NOT_IN_TRASH
SQLSTATE: nicht zugewiesen
Objekt <resourceName> kann nicht gelöscht werden, da es sich nicht im Papierkorb befindet.
REDASH_PERMISSION_DENIED
SQLSTATE: nicht zugewiesen
Der Zugriff auf Ressource <resourceId> konnte nicht gefunden werden oder es fehlen die notwendigen Berechtigungen.
REDASH_QUERY_NOT_FOUND
SQLSTATE: nicht zugewiesen
Die Ressource konnte nicht aus der Abfrage-ID <queryId> gefunden werden.
REDASH_QUERY_SNIPPET_CREATION_FAILED
SQLSTATE: nicht zugewiesen
Der neue Abfrageausschnitt kann nicht erstellt werden.
REDASH_QUERY_SNIPPET_QUOTA_EXCEEDED
SQLSTATE: nicht zugewiesen
Das Kontingent für die Anzahl der Abfrageausschnitte wurde erreicht. Das aktuelle Kontingent beträgt <quota>.
REDASH_QUERY_SNIPPET_TRIGGER_ALREADY_IN_USE
SQLSTATE: nicht zugewiesen
Der angegebene Trigger <trigger> wird bereits von einem anderen Abfrageausschnitt in diesem Arbeitsbereich verwendet.
REDASH_RESOURCE_NOT_FOUND
SQLSTATE: nicht zugewiesen
Die angeforderte Ressource <resourceName> ist nicht vorhanden.
REDASH_RESTORE_ASSET_HANDLER_INVALID_INPUT
SQLSTATE: nicht zugewiesen
Die Löschanforderung für das Objekt kann nicht verarbeitet werden: <invalidInputMsg>
REDASH_RESTORE_OBJECT_NOT_IN_TRASH
SQLSTATE: nicht zugewiesen
Objekt <resourceName>, das sich nicht im Papierkorb befindet, kann nicht wiederhergestellt werden.
REDASH_TRASH_OBJECT_ALREADY_IN_TRASH
SQLSTATE: nicht zugewiesen
Objekt <resourceName> befindet sich bereits im Papierkorb und kann nicht erneut in den Papierkorb verschoben werden.
REDASH_UNABLE_TO_GENERATE_RESOURCE_NAME
SQLSTATE: nicht zugewiesen
Der Ressourcenname konnte nicht aus id <id> generiert werden.
REDASH_VISUALIZATION_CREATION_FAILED
SQLSTATE: nicht zugewiesen
Neue Visualisierung kann nicht erstellt werden.
REDASH_VISUALIZATION_NOT_FOUND
SQLSTATE: nicht zugewiesen
Visualisierung <visualizationId> konnte nicht gefunden werden.
REDASH_VISUALIZATION_QUOTA_EXCEEDED
SQLSTATE: nicht zugewiesen
Das Kontingent für die Anzahl der Visualisierungen für die Abfrage <query_id> wurde erreicht. Das aktuelle Kontingent beträgt <quota>.
REPOSITORY_URL_NOT_FOUND
SQLSTATE: nicht zugewiesen
Remote-Repository (<repoUrl>) nicht gefunden.
Anmeldeinformationen <credentialName> (<credentialId>) wurden verwendet<because>.
Der Anbieter dieser Git-Anmeldeinformationen ist <gitCredentialProvider> und E-Mail/Benutzername lautet <gitCredentialUsername>.
Gehen Sie bitte zu Ihrem Git-Remoteanbieter, um folgendes sicherzustellen:
Ihre Git-Repository-REMOTE-URL ist gültig.
Ihr persönliches Zugriffstoken oder App-Kennwort verfügt über den richtigen Repositoryzugriff.
<pickOrCreateNewCredential>
RESOURCE_ALREADY_EXISTS
<resourceType> '<resourceIdentifier>' ist bereits vorhanden.
RESOURCE_DOES_NOT_EXIST
<resourceType> '<resourceIdentifier>' ist nicht vorhanden.
ROW_COLUMN_ACCESS_POLICIES_NOT_SUPPORTED_ON_ASSIGNED_CLUSTERS
SQLSTATE: nicht zugewiesen
Abfrage auf die Tabelle <tableFullName> mit Zeilenfilter oder Spaltenmaske wird auf zugewiesenen Clustern nicht unterstützt.
ROW_COLUMN_SECURITY_NOT_SUPPORTED_WITH_TABLE_IN_DELTA_SHARING
SQLSTATE: nicht zugewiesen
Tabelle <tableFullName> wird mit Delta Sharing geteilt und kann keine Zeilen-/Spaltensicherheit verwenden.
SERVICE_TEMPORARILY_UNAVAILABLE
SQLSTATE: nicht zugewiesen
Der <serviceName>-Dienst wird vorübergehend gewartet. Versuchen Sie es später erneut.
TABLE_WITH_ROW_COLUMN_SECURITY_NOT_SUPPORTED_IN_ONLINE_MODE
SQLSTATE: nicht zugewiesen
Tabelle <tableFullName> kann nicht gleichzeitig Zeilen-/Spaltensicherheit und online materialisierte Ansichten haben.
TOO_MANY_ROWS_TO_UPDATE
SQLSTATE: nicht zugewiesen
Zu viele Zeilen zum Aktualisieren, Aktualisierung wird abgebrochen.
UC_ABAC_UNSUPPORTED_TABLE_TYPE
SQLSTATE: nicht zugewiesen
ABAC-Richtlinien werden für den Tabellentyp <tableType>nicht unterstützt.