Compartir a través de


Condiciones de error en Azure Databricks

Se aplica a:casilla marcada como Sí Databricks SQL casilla marcada como sí Databricks Runtime 12.2 y versiones posteriores

Las condiciones de error son cadenas descriptivas y legibles que son exclusivas del error que describen.

Puede usar condiciones de error para controlar mediante programación los errores de la aplicación sin necesidad de analizar el mensaje de error.

Se trata de una lista de condiciones de error comunes y con nombre devueltas por Azure Databricks.

Databricks Runtime y Databricks SQL

ADD_DEFAULT_UNSUPPORTED

SQLSTATE: 42623

No se pudo ejecutar el comando <statementType> porque los valores de DEFAULT no se admiten al agregar nuevas columnas a la fuente de datos de destino existente por el proveedor de tablas: "<dataSource>".

AGGREGATE_FUNCTION_IN_NESTED_REFERENCES_NOT_SUPPORTED

SQLSTATE: 0A000

Se detectaron funciones de agregado en referencias <expression> de ámbito externo que no se admiten.

AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION

SQLSTATE: 42845

La expresión <sqlExpr> no determinista no debe aparecer en los argumentos de una función de agregado.

AI_FUNCTION_HTTP_PARSE_CAST_ERROR

SQLSTATE: 2203G

No se pudo analizar la salida del modelo al convertir en el returnType especificado: "<dataType>", la respuesta JSON era: "<responseString>". Actualice returnType para que coincida con el contenido del tipo representado por la respuesta JSON y vuelva a intentar la consulta. Excepción: <errorMessage>

AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR

SQLSTATE: 2203G

La salida del modelo real tiene más de una columna "<responseString>". Sin embargo, el tipo de valor devuelto especificado["<dataType>"] solo tiene una columna. Actualice returnType para que contenga el mismo número de columnas que la salida del modelo y vuelva a intentar la consulta.

AI_FUNCTION_HTTP_REQUEST_ERROR

SQLSTATE: 08000

Error al realizar una solicitud HTTP para la función <funcName>: <errorMessage>

AI_FUNCTION_INVALID_HTTP_RESPONSE

SQLSTATE: 08000

Respuesta HTTP no válida para la función <funcName>: <errorMessage>

AI_FUNCTION_INVALID_MAX_WORDS

SQLSTATE: 22032

El número máximo de palabras debe ser un entero no negativo, pero se obtuvo <maxWords>.

AI_FUNCTION_INVALID_MODEL_PARAMETERS

SQLSTATE: 22023

Los parámetros del modelo proporcionados (<modelParameters>) no son válidos en la AI_QUERY función para servir el punto de conexión "<endpointName>".

Para obtener más información, consulte AI_FUNCTION_INVALID_MODEL_PARAMETERS

AI_FUNCTION_INVALID_RESPONSE_FORMAT_TYPE

SQLSTATE: 0A000

Función de IA: "<functionName>" requiere una cadena válida <format> para el responseFormat parámetro, pero encontró el siguiente formato de respuesta: "<invalidResponseFormat>". Excepción: <errorMessage>

AI_FUNCTION_JSON_PARSE_ERROR

SQLSTATE: 22000

Error al analizar la respuesta de la JSON función <funcName>: <errorMessage>

AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR

SQLSTATE: 2203G

No se pudo analizar el esquema del punto de conexión de servicio "<endpointName>": <errorMessage>, la respuesta JSON era: "<responseJson>".

Establezca el parámetro returnType de forma manual en la función AI_QUERY para anular la resolución del esquema.

AI_FUNCTION_REGISTRY_LOOKUP_FAILURE

SQLSTATE: 42883

No se pudo resolver dinámicamente la función "<functionName>" del Registro de funciones de IA.

AI_FUNCTION_UNSUPPORTED_ERROR

SQLSTATE: 56038

La función <funcName> no se admite en el entorno actual. Solo está disponible en Databricks SQL Pro y sin servidor.

AI_FUNCTION_UNSUPPORTED_REQUEST

SQLSTATE: 0A000

No se pudo evaluar la función SQL "<functionName>" porque el argumento proporcionado de <invalidValue> tiene "<invalidDataType>", pero solo se admiten los siguientes tipos: <supportedDataTypes>. Actualice la llamada de función para proporcionar un argumento de tipo de cadena y vuelva a intentar la consulta.

AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT

SQLSTATE: 0A000

Formato de respuesta no admitido encontrado.

Para obtener más información, consulte AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT.

AI_FUNCTION_UNSUPPORTED_RETURN_TYPE

SQLSTATE: 0A000

Función de IA: "<functionName>" no admite el siguiente tipo como tipo de valor devuelto: "<typeName>". El tipo de valor devuelto debe ser un tipo SQL válido comprendido por Catalyst y compatible con la función de IA. Los tipos admitidos actuales incluyen: <supportedValues>

AI_INVALID_ARGUMENT_VALUE_ERROR

SQLSTATE: 22032

El valor proporcionado "<argValue>" no es compatible con el argumento "<argName>". Los valores admitidos son: <supportedValues>

AI_QUERY_ENDPOINT_NOT_SUPPORT_STRUCTURED_OUTPUT

SQLSTATE: 0A000

Se esperaba que el tipo de tarea de puntos de conexión de servicio fuera "Chat" por la compatibilidad con la salida estructurada, pero se encontró "<taskType>" para el punto de conexión "<endpointName>".

AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH

SQLSTATE: 0A000

El elemento "<sqlExpr>" proporcionado no es compatible con el argumento returnType.

AI_SEARCH_CONFLICTING_QUERY_PARAM_SUPPLY_ERROR

SQLSTATE: 0A000

Parámetros en conflicto detectados para vector_search la función SQL: <conflictParamNames>.<hint>

AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR

SQLSTATE: 0A000

vector_search No se admite la función SQL con el tipo <embeddingColumnType> de columna de inserción.

AI_SEARCH_EMPTY_QUERY_PARAM_ERROR

SQLSTATE: 0A000

vector_search Falta el parámetro de entrada de consulta de la función SQL; especifique al menos uno de: <parameterNames>.

AI_SEARCH_HYBRID_QUERY_PARAM_DEPRECATION_ERROR

SQLSTATE: 0A000

El parámetro query para la función SQL vector_search no se admite para la búsqueda de vectores hybrid. Utilice query_text en su lugar.

AI_SEARCH_HYBRID_TEXT_NOT_FOUND_ERROR

SQLSTATE: 0A000

Texto de consulta no encontrado en la función de SQL vector_search para la búsqueda de vectores hybrid. Proporcione query_text.

AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR

SQLSTATE: 0A000

vector_search No se admite la función SQL con tipo <indexType> de índice.

AI_SEARCH_MISSING_EMBEDDING_INPUT_ERROR

SQLSTATE: 0A000

query_vector debe especificarse para el índice <indexName> porque no está asociado a un punto de conexión del modelo de inserción.

AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR

SQLSTATE: 0A000

Error vector_search al materializar la consulta de la función SQL <dataType> del tipo Spark <errorMessage> a objetos nativos de Scala durante la codificación de la solicitud.

AI_SEARCH_QUERY_TYPE_UNSUPPORTED_ERROR

SQLSTATE: 0A000

vector_search No se admite la función SQL con tipo <unexpectedQueryType> de consulta. Seleccione uno de: <supportedQueryTypes>.

AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR

SQLSTATE: 0A000

vector_search Función SQL con num_results mayor que <maxLimit> no se admite. El límite especificado era <requestedLimit>. Inténtelo de nuevo con num_results <= <maxLimit>

AI_TOP_DRIVERS_PARAM_OUT_OF_RANGE

SQLSTATE: 22003

El ai_top_drivers parámetro <param> debe estar entre <lo> y <hi>.

AI_TOP_DRIVERS_UNSUPPORTED_AGGREGATION_TYPE

SQLSTATE: 0A000

ai_top_drivers no admite el agregado <aggName>. Elija uno de los siguientes agregados admitidos: <allowed>.

AI_TOP_DRIVERS_UNSUPPORTED_DIMENSION_TYPE

SQLSTATE: 0A000

ai_top_drivers no admite columnas de dimensión numéricas, de mapa ni de estructura. La columna <colName> tiene el tipo <dataType>. Quite esta dimensión o conviértala a un tipo admitido.

AI_TOP_DRIVERS_UNSUPPORTED_LABEL_TYPE

SQLSTATE: 0A000

ai_top_drivers requiere que el tipo de columna de etiqueta sea booleano. La columna <colName> tiene el tipo <dataType>. Cambie la columna de etiqueta o conviértala a un tipo admitido.

AI_TOP_DRIVERS_UNSUPPORTED_METRIC_TYPE

SQLSTATE: 0A000

ai_top_drivers requiere que el tipo de columna de métrica sea numérico. La columna <colName> tiene el tipo <dataType>. Cambie la columna de métricas o conviértala a un tipo admitido.

ALL_PARAMETERS_MUST_BE_NAMED

SQLSTATE: 07001

El uso de consultas con parámetros de nombre requiere que se asigne un nombre a todos los parámetros. Faltan nombres de parámetros: <exprs>.

ALL_PARTITION_COLUMNS_NOT_ALLOWED

SQLSTATE: KD005

No se pueden usar todas las columnas para las columnas de partición.

ALTER_SCHEDULE_DOES_NOT_EXIST

SQLSTATE: 42704

No se puede modificar <scheduleType> en una tabla sin una programación o desencadenador existente. Agregue una programación o un desencadenador a la tabla antes de intentar modificarla.

ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE

SQLSTATE: 42710

ALTER TABLE <type> column <columnName> especifica el descriptor "<optionName>" más de una vez, que no es válido.

AMBIGUOUS_ALIAS_IN_NESTED_CTE

SQLSTATE: 42KD0

El nombre <name> es ambiguo en la CTE anidada.

Por favor configure <config> a "CORRECTED" de manera que el nombre definido en la CTE interna tenga prioridad. Si se establece en "LEGACY", las definiciones de CTE externas tendrán prioridad.

Vea "https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine".

AMBIGUOUS_COLUMN_OR_FIELD

SQLSTATE: 42702

La columna o el campo <name> son ambiguos y tienen <n> coincidencias.

AMBIGUOUS_COLUMN_REFERENCE

SQLSTATE: 42702

La columna <name> es ambigua. Es porque has unido varios DataFrames, y algunos de estos DataFrames son los mismos.

Esta columna apunta a uno de los dataframes, pero Spark no puede averiguar cuál.

Por favor, asigne alias a los DataFrames con nombres diferentes mediante DataFrame.alias antes de unirlos.

y especifique la columna con el nombre calificado, por ejemplo, df.alias("a").join(df.alias("b"), col("a.id") > col("b.id")).

AMBIGUOUS_CONSTRAINT

SQLSTATE: 42K0C

Referencia ambigua a la restricción <constraint>.

AMBIGUOUS_LATERAL_COLUMN_ALIAS

SQLSTATE: 42702

El alias <name> de la columna lateral es ambiguo y tiene <n> coincidencias.

AMBIGUOUS_REFERENCE

SQLSTATE: 42704

La referencia <name> es ambigua, podría ser: <referenceNames>.

AMBIGUOUS_REFERENCE_TO_FIELDS

SQLSTATE: 42000

Referencia ambigua al campo <field>. Aparece <count> veces en el esquema.

ANALYZE_CONSTRAINTS_NOT_SUPPORTED

SQLSTATE: 0A000

No se admite ANALYZE CONSTRAINTS.

ANALYZE_TABLE_COMPUTE_STORAGE_METRICS_NOT_SUPPORTED

SQLSTATE: 0A000

No se admite ANALYZE TABLE COMPUTE STORAGE METRICS. Póngase en contacto con el equipo de soporte técnico de Databricks para inscribir esta área de trabajo.

ANSI_CONFIG_CANNOT_BE_DISABLED

SQLSTATE: 56038

La configuración <config> de ANSI SQL no se puede deshabilitar en este producto.

APPEND_ONCE_FROM_BATCH_QUERY

SQLSTATE: 42000

Use el operador stream().

La creación de una tabla de streaming desde una consulta por lotes impide la carga incremental de nuevos datos desde el origen. Tabla ofendida: '<table>'.

Uso de ejemplo:

CREATE STREAMING TABLE <target table name> ... AS SELECT ... FROM stream(<source table name>) ...

APPROX_TOP_K_INVALID_NUM_OF_ARGUMENTS

SQLSTATE: 42605

approx_top_k espera de 1 a 3 argumentos, pero tiene <argNum>.

APPROX_TOP_K_MAX_ITEMS_TRACKED_EXCEEDS_LIMIT

SQLSTATE: 22023

Los elementos máximos de los que se realiza maxItemsTrackedel seguimiento (<maxItemsTracked>) approx_top_k de deben ser menores o iguales que <limit>.

APPROX_TOP_K_MAX_ITEMS_TRACKED_LESS_THAN_K

SQLSTATE: 22023

Los elementos máximos de los que se realiza maxItemsTrackedel seguimiento (<maxItemsTracked>) approx_top_k de deben ser mayores o iguales que k(<k>).

APPROX_TOP_K_NON_POSITIVE_ARG

SQLSTATE: 22023

El valor de <argName> en approx_top_k debe ser un entero positivo, pero tiene <argValue>.

APPROX_TOP_K_NULL_ARG

SQLSTATE: 22004

El valor de <argName> en approx_top_k no puede ser NULL.

APPROX_TOP_K_SKETCH_SIZE_NOT_MATCH

SQLSTATE: 42846

No se permite combinar approx_top_k bocetos de diferentes tamaños. Se encontraron bocetos de tamaño <size1> y <size2>.

APPROX_TOP_K_SKETCH_TYPE_NOT_MATCH

SQLSTATE: 42846

No se permite combinar approx_top_k bocetos de diferentes tipos. Se encontraron bocetos de tipo <type1> y <type2>.

AQE_THREAD_INTERRUPTED

SQLSTATE: HY008

Se ha interrumpido el subproceso de AQE, probablemente debido a la cancelación de la consulta por parte del usuario.

ARGUMENT_NOT_CONSTANT

SQLSTATE: 42K08

La función <functionName> incluye un parámetro <parameterName> en posición <pos> que requiere un argumento constante. Calcule el argumento <sqlExpr> por separado y pase el resultado como una constante.

ARITHMETIC_OVERFLOW

SQLSTATE: 22003

<message>. <alternative> Si es necesario, establezca <config> en "false" para omitir este error.

Para obtener más información, consulte ARITHMETIC_OVERFLOW

ARROW_TYPE_MISMATCH

SQLSTATE: 42K0G

Esquema no válido de <operation>: se esperaba <outputTypes>, obtuvo <actualDataTypes>.

ARTIFACT_ALREADY_EXISTS

SQLSTATE: 42713

El artefacto <normalizedRemoteRelativePath> ya existe. Elija otro nombre para el nuevo artefacto porque no se puede sobrescribir.

ASSIGNMENT_ARITY_MISMATCH

SQLSTATE: 42802

Número de columnas o variables asignadas o con alias: <numTarget> no coincide con el número de expresiones de origen: <numExpr>.

AS_OF_JOIN

SQLSTATE: 42604

No es válido como combinación as-of.

Para obtener más información, consulte AS_OF_JOIN

ATTEMPT_ANALYSIS_IN_PIPELINE_QUERY_FUNCTION

SQLSTATE: 0A000

Las operaciones que desencadenan el análisis o la ejecución de DataFrame no se permiten en las funciones de consulta de canalización. Mueva el código fuera de la función de consulta de canalización.

AUTOCOMMIT_BEGIN_TRANSACTION_DURING_AUTOCOMMIT_TRANSACTION

SQLSTATE: 25000

No se puede iniciar una nueva transacción mientras una transacción implícita iniciada por SET AUTOCOMMIT=FALSE está activa. COMMIT o ROLLBACK la transacción actual primero y SET AUTOCOMMIT=TRUE antes de iniciar una nueva transacción.

AUTOCOMMIT_NOT_SUPPORTED

SQLSTATE: 0A000

La AUTOCOMMIT característica de modo está actualmente en desarrollo y aún no se admite en Databricks.

AUTOCOMMIT_OLD_SQL_EDITOR_NOT_SUPPORTED

SQLSTATE: 0A000

AUTOCOMMIT no se puede acceder ni modificar en el Editor de SQL heredado. Cambie al nuevo Editor de SQL (<docLink>) o use un cuaderno conectado con un almacenamiento de SQL de Databricks.

AUTOCOMMIT_ONLY_SUPPORTED_IN_DBSQL

SQLSTATE: 0A000

AUTOCOMMIT Solo se puede acceder o modificar en almacenes de SQL de Databricks.

AUTOCOMMIT_SET_DURING_ACTIVE_TRANSACTION

SQLSTATE: 25000

SET AUTOCOMMIT no se permite durante una transacción activa. Confirme o reversión primero.

AUTOCOMMIT_SET_FALSE_ALREADY_DISABLED

SQLSTATE: 25000

SET AUTOCOMMIT=FALSE no se permite cuando AUTOCOMMIT ya está deshabilitado. Esta restricción evita confusiones y mantiene claros los límites de transacción.

AUTOCOMMIT_SET_TRUE_DURING_AUTOCOMMIT_TRANSACTION

SQLSTATE: 25000

SET AUTOCOMMIT=TRUE no se permite después de que las instrucciones se hayan ejecutado en una transacción implícita iniciada por SET AUTOCOMMIT=FALSE. Solo se permite inmediatamente después SET AUTOCOMMIT=FALSE (antes de las instrucciones) o después COMMIT de o ROLLBACK.

AUTO_TTL_COLUMN_NOT_FOUND

SQLSTATE: 42703

Esquema de tabla no válido para Auto-TTL. No se encuentra la columna <column> TTL automática.

AUTO_TTL_COLUMN_TYPE_NOT_SUPPORTED

SQLSTATE: 42K09

La columna <column> TTL automática tiene el tipo <type> que no es válido. El tipo de columna debe ser uno de TIMESTAMP, TIMESTAMP_NTZo DATE.

AUTO_TTL_FEATURE_NOT_ENABLED

SQLSTATE: 0A000

Póngase en contacto con su representante de Databricks para habilitar la característica Auto-TTL.

AUTO_TTL_INCOMPLETE_SETTING

SQLSTATE: 42601

Para establecer Auto-TTL en una tabla, se requieren las propiedades autottl.timestampColumn de la tabla y autottl.expireInDays , pero <missing> falta.

AUTO_TTL_INVALID_COLUMN_CHANGE

SQLSTATE: 42703

La columna <column> no puede ser <operation> porque se usa en la definición de Auto-TTL.

AUTO_TTL_NOT_SUPPORT_SHALLOW_CLONES

SQLSTATE: 56038

El TTL automático no se admite en tablas clonadas poco profundas.

AUTO_TTL_NOT_SUPPORT_TABLES_HAVING_SHALLOW_CLONES

SQLSTATE: 56038

El TTL automático no se admite en tablas que tienen clones poco profundos.

AUTO_TTL_REQUIRES_PREDICTIVE_OPTIMIZATION

SQLSTATE: 56038

Auto-TTL requiere que la optimización predictiva esté habilitada.

AUTO_TTL_REQUIRES_UC_MANAGED_TABLE

SQLSTATE: 56038

El TTL automático solo se admite en tablas administradas por UC.

AVRO_CANNOT_WRITE_NULL_FIELD

SQLSTATE: 22004

No se puede asignar un valor NULL para el campo <name> definido como un tipo de datos Avro no nulo <dataType>.

Para permitir el valor null en este campo, especifique su esquema de avro como un tipo de unión con "null" mediante la opción avroSchema.

AVRO_DEFAULT_VALUES_UNSUPPORTED

SQLSTATE: 0A000

No se admite el uso de valores predeterminados cuandorescuedDataColumn está habilitado. Puede quitar esta comprobación estableciendo spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue en false, pero los valores predeterminados no se aplicarán y se seguirán usando valores NULL.

AVRO_INCOMPATIBLE_READ_TYPE

SQLSTATE: 22KD3

No se puede convertir Avro <avroPath> a SQL <sqlPath> porque el tipo de datos codificado original es <avroType>, pero está intentando leer el campo como <sqlType>, lo que provocaría una respuesta incorrecta.

Para permitir la lectura de este campo, habilite la configuración de SQL: "spark.sql.legacy.avro.allowIncompatibleSchema".

AVRO_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE

SQLSTATE: 22KD3

No se puede llamar a la función SQL <functionName> porque el origen de datos Avro no está cargado.

Reinicie el trabajo o la sesión con el paquete "spark-avro" cargado, como mediante el argumento --packages en la línea de comandos y vuelva a intentar la consulta o el comando.

AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED

SQLSTATE: 0A000

No se admite el uso de la coincidencia de campos posicionales cuando rescuedDataColumn o failOnUnknownFields están habilitados. Quite estas opciones para continuar.

AZURE_INVALID_CREDENTIALS_CONFIGURATION

SQLSTATE: 42KDK

El proveedor de claves de Azure o las credenciales se configuran incorrectamente. Motivo: <causedBy>.

BATCH_METADATA_NOT_FOUND

SQLSTATE: 42K03

No se encuentra el lote <batchMetadataFile>.

BIGQUERY_DATA_SOURCE_OPTIONS_VALIDATION_FAILED (Error en la validación de las opciones de fuente de datos de BigQuery)

SQLSTATE: 42616

Error en la validación del origen de datos bigQuery.

Para obtener más información, consulte BIGQUERY_DATA_SOURCE_OPTIONS_VALIDATION_FAILED

BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE

SQLSTATE: 42616

Las credenciales de conexión de BigQuery deben especificarse con el parámetro "GoogleServiceAccountKeyJson" o con todos los valores "projectId", "OAuthServiceAcctEmail", "OAuthPvtKey".

BINARY_ARITHMETIC_OVERFLOW

SQLSTATE: 22003

<value1> <symbol> <value2> causó desbordamiento. Use <functionName> para omitir el problema de desbordamiento y devolver NULL.

BUILT_IN_CATALOG

SQLSTATE: 42832

<operation> no admite catálogos integrados.

CALL_ON_STREAMING_DATASET_UNSUPPORTED

SQLSTATE: 42KDE

No se puede llamar al método <methodName> en un Dataset/DataFrame de transmisión.

CANNOT_ALTER_COLLATION_BUCKET_COLUMN

SQLSTATE: 428FR

ALTER TABLE (ALTER|CHANGE) COLUMN no puede cambiar la intercalación de tipos o subtipos de columnas de cubo, pero encontró la columna de cubo <columnName> en la tabla <tableName>.

CANNOT_ALTER_PARTITION_COLUMN

SQLSTATE: 428FR

ALTER TABLE (ALTER|CHANGE) COLUMN no se admite para las columnas de partición, pero encontró la columna <columnName> de partición en la tabla <tableName>.

CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK

SQLSTATE: 42611

La marca de agua debe definirse para reasignar la columna de tiempo del evento. No se pudo encontrar la definición de marca de agua en la consulta de streaming.

CANNOT_CAST_DATATYPE

SQLSTATE: 42846

No se puede convertir <sourceType> a <targetType>.

CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE

SQLSTATE: 42846

No se puede convertir Protobuf <protobufColumn> a SQL <sqlColumn> porque el esquema no es compatible (protobufType = <protobufType>, sqlType = <sqlType>).

CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE

SQLSTATE: 42846

No se puede convertir <protobufType> Protobuf al tipo SQL <toType>.

CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE

SQLSTATE: 42846

No se puede convertir SQL <sqlColumn> a Protobuf <protobufColumn> porque el esquema no es compatible (protobufType = <protobufType>, sqlType = <sqlType>).

CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE

SQLSTATE: 42846

No se puede convertir SQL <sqlColumn> a Protobuf <protobufColumn> porque <data> no está en valores definidos para la enumeración: <enumString>.

CANNOT_COPY_STATE

SQLSTATE: 0AKD0

No se puede copiar el estado del catálogo como la base de datos actual y las vistas temporales del catálogo de Unity a un catálogo heredado.

CANNOT_CREATE_DATA_SOURCE_TABLE

SQLSTATE: 42KDE

No se pudo crear la tabla <tableName>de origen de datos :

Para más información, consulte CANNOT_CREATE_DATA_SOURCE_TABLE.

CANNOT_DECODE_URL

SQLSTATE: 22546

No se puede descodificar la dirección URL proporcionada: <url>. Asegúrese de que la dirección URL tiene el formato correcto e inténtelo de nuevo.

CANNOT_DELETE_SYSTEM_OWNED

SQLSTATE: 42832

No se puede eliminar la propiedad <resourceType> del sistema.

CANNOT_DROP_AMBIGUOUS_CONSTRAINT

SQLSTATE: 42K0C

No se puede eliminar la restricción con el nombre <constraintName> compartida con una restricción CHECK.

y una restricción PRIMARY KEY o FOREIGN KEY. Puede omitir el PRIMARY KEY o ...

FOREIGN KEY por consultas:

ALTER TABLE .. DROP PRIMARY KEY o

ALTER TABLE .. DROP FOREIGN KEY ..

NO_SE_PUEDE_ELIMINAR_TABLA_BASE_REQUERIDA_POR_CLON_SUPERFICIAL

SQLSTATE: 42893

No se puede quitar la tabla <baseTable> porque se hace referencia a ella mediante uno o varios clones poco profundos: <cloneList>. DROP todos los clones superficiales antes de eliminar la tabla base. Si esto no es posible, considere la posibilidad de usar "DROP TABLE...FORCE" para quitar la tabla de forma forzada. WARNING: esto interrumpirá inmediatamente todas las referencias de clon superficial existentes y las hará inutilizables.

CANNOT_ESTABLISH_CONNECTION

SQLSTATE: 08001

No se puede establecer la conexión a la base de datos remota <jdbcDialectName> . Compruebe la información de conexión y las credenciales, por ejemplo, host, puerto, usuario, contraseña y opciones de base de datos. ** Si cree que la información es correcta, compruebe la configuración de red del área de trabajo y asegúrese de que no tiene restricciones de salida para el host. Compruebe también que el host no bloquea las conexiones entrantes de la red donde se implementan los clústeres de Spark del área de trabajo. ** Mensaje de error detallado: <causeErrorMessage>.

CANNOT_ESTABLISH_CONNECTION_SERVERLESS

SQLSTATE: 08001

No se puede establecer la conexión a la base de datos remota <jdbcDialectName> . Compruebe la información de conexión y las credenciales, por ejemplo, host, puerto, usuario, contraseña y opciones de base de datos. ** Si cree que la información es correcta, permita el tráfico entrante de Internet a su host, ya que está usando Proceso sin servidor. Si las directivas de red no permiten el tráfico entrante de Internet, use un proceso sin servidor o puede ponerse en contacto con su representante de Databricks para obtener información sobre las redes privadas sin servidor. ** Mensaje de error detallado: <causeErrorMessage>.

CANNOT_ESTABLISH_CONNECTION_TO_HOST

SQLSTATE: 08001

No se puede establecer <protocol> la conexión a <host>. Compruebe la configuración de red del área de trabajo y asegúrese de que no tiene restricciones de salida para el host. Compruebe también que el host no bloquea las conexiones entrantes de la red donde se implementan los clústeres del área de trabajo.

CANNOT_INVOKE_IN_TRANSFORMATIONS

SQLSTATE: 0A000

El controlador solo puede invocar las transformaciones y acciones del conjunto de datos, no dentro de otras transformaciones del conjunto de datos; Por ejemplo, dataset1.map(x => dataset2.values.count() * x) no es válido porque la transformación de valores y la acción count no se pueden realizar dentro de la transformación dataset1.map. Para obtener más información, vea SPARK-28702.

CANNOT_LOAD_CHECKPOINT_FILE_MANAGER

SQLSTATE: 58030

Error al cargar el administrador de archivos de punto de control de streaming para path=<path>.

Para obtener más información, consulte CANNOT_LOAD_CHECKPOINT_FILE_MANAGER

CANNOT_LOAD_FUNCTION_CLASS

SQLSTATE: 46103

No se puede cargar la clase <className> al registrar la función <functionName>, asegúrese de que se encuentra en la ruta de clase.

CANNOT_LOAD_PROTOBUF_CLASS

SQLSTATE: 42K03

No se pudo cargar la clase Protobuf con el nombre <protobufClassName>. <explanation>.

CANNOT_LOAD_STATE_STORE

SQLSTATE: 58030

Error durante el estado de carga.

Para obtener más información, consulte CANNOT_LOAD_STATE_STORE

CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE

SQLSTATE: 42825

No se pudieron combinar tipos de datos incompatibles <left> y <right>. Compruebe los tipos de datos de las columnas que se combinan y asegúrese de que son compatibles. Si es necesario, considere la posibilidad de convertir las columnas en tipos de datos compatibles antes de intentar la combinación.

CANNOT_MERGE_SCHEMAS

SQLSTATE: 42KD9

Error al combinar esquemas

Esquema inicial:

<left>

Esquema que no se puede combinar con el esquema inicial:

<right>.

CANNOT_MODIFY_CONFIG

SQLSTATE: 46110

No se puede modificar el valor de la configuración de Spark: <key>.

Vea también 'https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements'.

CANNOT_MODIFY_STATIC_CONFIG

SQLSTATE: 46110

No se puede modificar el valor de la configuración estática de Spark: <key>.

CANNOT_PARSE_DECIMAL

SQLSTATE: 22018

No se puede analizar el decimal. Asegúrese de que la entrada es un número válido con separadores decimales o separadores de coma opcionales.

CANNOT_PARSE_INTERVAL

SQLSTATE: 22006

No se puede analizar <intervalString>. Asegúrese de que el valor proporcionado está en un formato válido para definir un intervalo. Puede hacer referencia a la documentación del formato correcto. Si el problema persiste, compruebe que el valor de entrada no es NULO o está vacío e inténtelo de nuevo.

CANNOT_PARSE_JSON_FIELD

SQLSTATE: 2203G

No se puede analizar el nombre <fieldName> del campo y el valor <fieldValue> del JSON tipo <jsonType> de token para establecer como destino el tipo <dataType>de datos de Spark.

CANNOT_PARSE_PROTOBUF_DESCRIPTOR

SQLSTATE: 22018

Error al analizar los bytes del descriptor en Protobuf FileDescriptorSet.

CANNOT_PARSE_TIME

SQLSTATE: 22010

La cadena de entrada <input> no se puede analizar a un valor de TIME porque no coincide con el formato datetime <format>.

CANNOT_PARSE_TIMESTAMP

SQLSTATE: 22007

<message>. Use <func> para tolerar cadenas de entrada no válidas y devolver NULL en su lugar.

CANNOT_QUERY_TABLE_DURING_INITIALIZATION

SQLSTATE: 55019

No se puede consultar MV/ST durante la inicialización.

Para más información, consulte CANNOT_QUERY_TABLE_DURING_INITIALIZATION.

CANNOT_READ_ARCHIVED_FILE

SQLSTATE: KD003

No se puede leer el archivo en la ruta de acceso <path> porque se ha archivado. Ajuste los filtros de consulta para excluir archivos archivados.

CANNOT_READ_FILE

SQLSTATE: KD003

No se puede leer <format> archivo en la ruta de acceso: <path>.

Para obtener más información, consulte CANNOT_READ_FILE

CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER

SQLSTATE: 42501

No se puede leer la clave confidencial '<key>' del proveedor seguro.

CANNOT_RECOGNIZE_HIVE_TYPE

SQLSTATE: 429BB

No se puede reconocer la cadena de tipo de subárbol <fieldType>, columna: <fieldName>. Spark SQL no puede reconocer el tipo de datos especificado para el campo. Compruebe el tipo de datos del campo especificado y asegúrese de que es un tipo de datos de Spark SQL válido. Consulte la documentación de Spark SQL para obtener una lista de tipos de datos válidos y su formato. Si el tipo de datos es correcto, asegúrese de que usa una versión compatible de Spark SQL.

CANNOT_REFERENCE_UC_IN_HMS

SQLSTATE: 0AKD0

No se puede hacer referencia a un catálogo <objType> de Unity en objetos de Metastore de Hive.

CANNOT_REMOVE_RESERVED_PROPERTY

SQLSTATE: 42000

No se puede quitar la propiedad reservada <property>.

CANNOT_RENAME_ACROSS_CATALOG

SQLSTATE: 0AKD0

No se permite cambiar el nombre de un elemento <type> entre catálogos.

CANNOT_RENAME_ACROSS_SCHEMA

SQLSTATE: 0AKD0

No se permite cambiar el nombre de un elemento <type> entre esquemas.

CANNOT_RESOLVE_DATAFRAME_COLUMN

SQLSTATE: 42704

No se puede resolver la columna <name> del cuadro de datos. Probablemente se deba a referencias ilegales como df1.select(df2.col("a")).

CANNOT_RESOLVE_STAR_EXPAND

SQLSTATE: 42704

No se pueden resolver las columnas de entrada especificadas <targetString>* <columns>. Compruebe que la tabla o estructura especificada existe y que es accesible en las columnas de entrada.

CANNOT_RESTORE_PERMISSIONS_FOR_PATH

SQLSTATE: 58030

No se pudieron establecer permisos en la ruta creada <path> de vuelta a <permission>.

CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS

SQLSTATE: 0AKD0

No se pueden clonar tablas de manera superficial en el Catálogo de Unity y el Metastore de Hive.

CANNOT_SHALLOW_CLONE_AUTO_TTL

SQLSTATE: 0AKUC

No se puede clonar superficialmente una tabla <table> que tenga habilitado el TTL automático.

CANNOT_SHALLOW_CLONE_NESTED

SQLSTATE: 0AKUC

No puedes clonar superficialmente una tabla <table> que ya es un clon superficial.

CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET

SQLSTATE: 0AKUC

El clon superficial solo se admite para el tipo de tabla MANAGED. La tabla <table> no es la tabla MANAGED.

CANNOT_UPDATE_FIELD

SQLSTATE: 0A000

No se puede actualizar el tipo de<table> campo <fieldName>:

Para obtener más información, consulte CANNOT_UPDATE_FIELD

CANNOT_UPDATE_PARTITION_COLUMNS

SQLSTATE: 42000

El particionamiento declarado <requestedPartitionColumns> entra en conflicto con el particionamiento de la tabla existente <existingPartitionColumns>.

Elimine la tabla o cambie la partición declarada para que coincida con sus particiones.

CANNOT_UP_CAST_DATATYPE

SQLSTATE: 42846

No se puede convertir <expression> de <sourceType> a <targetType>.

<details>

CANNOT_USE_KRYO

SQLSTATE: 22KD3

No se puede cargar el códec de serialización kryo. La serialización kryo no se puede usar en el cliente de Spark Connect. Use la serialización de Java, proporcione un códec personalizado o use Spark Classic en su lugar.

CANNOT_USE_MULTI_ALIASES_IN_WATERMARK_CLAUSE

SQLSTATE: 42000

No se admiten varios alias en la cláusula watermark.

NO_SE_PUEDE_USAR_NOMBRE_DE_PROVEEDOR_DE_STREAMING_RESERVADO

SQLSTATE: 42000

No se puede usar el nombre del proveedor de streaming reservado: <providerName>.

CANNOT_VALIDATE_CONNECTION

SQLSTATE: 08000

No se admite la validación de la conexión <jdbcDialectName>. Póngase en contacto con el soporte técnico de Databricks para soluciones alternativas o establezca "spark.databricks.testConnectionBeforeCreation" en "false" para omitir las pruebas de conexión antes de crear un objeto de conexión.

CANNOT_WRITE_STATE_STORE

SQLSTATE: 58030

Error al escribir archivos de almacén de estado para el proveedor <providerClass>.

Para obtener más información, consulte CANNOT_WRITE_STATE_STORE.

CAST_INVALID_INPUT

SQLSTATE: 22018

No se puede convertir el valor <expression> del tipo <sourceType> en <targetType> porque tiene un formato incorrecto. Corrija el valor según la sintaxis o cambie su tipo de destino. Use try_cast para tolerar entradas con formato incorrecto y devolver NULL en su lugar.

Para obtener más información, consulte CAST_INVALID_INPUT

CAST_OVERFLOW

SQLSTATE: 22003

El valor <value> del tipo <sourceType> no se puede convertir a <targetType> debido a un desbordamiento. Usa try_cast para tolerar el desbordamiento y devolver NULL en su lugar.

CAST_OVERFLOW_IN_TABLE_INSERT

SQLSTATE: 22003

Error al asignar un valor de tipo <sourceType> a la columna de tipo <targetType> o la variable <columnName> debido a un desbordamiento. Use try_cast en el valor de entrada para tolerar el desbordamiento y devolver NULL en su lugar.

CATALOG_CONVERSION_FOREIGN_ENTITY_PRESENT

SQLSTATE: 55019

Error de conversión de catálogo de UC Foreign a UC Standard porque el catálogo contiene entidades externas (se muestran hasta 10 aquí): <entityNames>. Para ver la lista completa de entidades externas de este catálogo, consulte la documentación del comando "ALTER CATALOG DROP CONNECTION".

CATALOG_CONVERSION_UNSUPPORTED_CATALOG_TYPE

SQLSTATE: 0AKUC

El catálogo no se puede convertir de UC Foreign a UC Standard. Solo los <convertableCatalogTypes> catálogos de UC extranjeros se pueden convertir a UC Standard.

CATALOG_NOT_FOUND

SQLSTATE: 42P08

No se encontró el catálogo <catalogName> . Considere la posibilidad de establecer la configuración <config> de SQL en un complemento de catálogo.

CATALOG_OWNED_TABLE_CREATION_NOT_ALLOWED

SQLSTATE: 0A000

No se permite crear tablas Delta con la función de tabla <feature>. Póngase en contacto con el soporte técnico de Databricks.

CHECKPOINT_DIR_NOT_SET

SQLSTATE: 42K0I

El directorio de punto de control no se ha establecido en SparkContext.

Establézcalo con SparkContext.setCheckpointDir().

CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND

SQLSTATE: 56000

¡No se encuentra el bloque de punto de comprobación <rddBlockId>!

El ejecutor que originalmente ha marcado esta partición como punto de control ya no está activo o el RDD original no está disponible.

Si este problema persiste, puede considerar la posibilidad de usar rdd.checkpoint() en su lugar, que es más lento que el punto de control local, pero más tolerante a errores.

VIOLACIÓN_DE_CONSTRAINT_DE_COMPROBACIÓN

SQLSTATE: 23001

CHECK restricción <constraintName> <expression> infringida por fila con valores:

<values>

CIRCULAR_CLASS_REFERENCE

SQLSTATE: 42602

No se pueden tener referencias circulares en la clase; sin embargo, se tiene la referencia circular de la clase <t>.

CLASS_NOT_OVERRIDE_EXPECTED_METHOD

SQLSTATE: 38000

<className> debe invalidar o <method1> o <method2>.

CLASS_UNSUPPORTED_BY_MAP_OBJECTS

SQLSTATE: 0A000

MapObjects no admite la clase <cls> como colección resultante.

CLEANROOM_COMMANDS_NOT_SUPPORTED

SQLSTATE: 0A000

No se admiten comandos clean Room

CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME

SQLSTATE: 42K05

Nombre no válido para hacer referencia a un <type> dentro de una sala limpia. Use un nombre de <type> dentro de la sala limpia siguiendo el formato de [catálogo].[esquema].[<type>].

Si no está seguro de qué nombre usar, puede ejecutar "SHOW ALL IN CLEANROOM [clean_room]" y usar el valor en la columna "name".

CLONING_WITH_HISTORY_INVALID_OPTION

SQLSTATE: 42613

La clonación con historial se especifica con una opción no válida: <invalidOption>.

Sintaxis válida: CREATE (OR REPLACE) TABLE ... DEEP CLONE...WITH HISTORY.

CLONING_WITH_HISTORY_UNSUPPORTED

SQLSTATE: 0A000

No se admite la clonación con historial.

CLOUD_FILE_ALREADY_EXISTS

SQLSTATE: 42K04

El archivo en la nube ya existe. Motivo: <causedBy>.

CLOUD_FILE_NOT_FOUND

SQLSTATE: 42K03

No se encuentra el archivo en la nube. Motivo: <causedBy>.

CLOUD_FILE_SOURCE_FILE_NOT_FOUND

SQLSTATE: 42K03

Se recibió una notificación de archivo para el archivo: <filePath> pero ya no existe. Asegúrese de que los archivos no se eliminan antes de que se procesen. Para continuar la secuencia, puede establecer la configuración <config> de Spark SQL en true.

CLOUD_PROVIDER_ERROR

SQLSTATE: 58000

Error del proveedor de nube: <message>

CLUSTERING_COLUMNS_MISMATCH

SQLSTATE: 42P10

La agrupación en clústeres especificada no coincide con la de la tabla <tableName>existente.

Columnas de agrupación en clústeres especificadas: [<specifiedClusteringString>].

Columnas de agrupación existentes: [<existingClusteringString>].

CLUSTERING_NOT_SUPPORTED

SQLSTATE: 42000

'<operation>' no admite la agrupación en clústeres.

CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED

SQLSTATE: 0A000

Póngase en contacto con el representante de Databricks para habilitar la característica cluster-by-auto.

CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED

SQLSTATE: 56038

Habilite clusteringTable.enableClusteringTableFeature para usar CLUSTER BY AUTO.

CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION

SQLSTATE: 56038

CLUSTER BY AUTO requiere que la optimización predictiva esté habilitada.

CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR

SQLSTATE: 56038

CLUSTER BY AUTO solo se admite en tablas administradas por UC.

CODEC_NOT_AVAILABLE

SQLSTATE: 56038

El códec <codecName> no está disponible.

Para obtener más información, consulte CODEC_NOT_AVAILABLE

CODEC_SHORT_NAME_NOT_FOUND

SQLSTATE: 42704

No se encuentra un nombre corto para el códec <codecName>.

COLLATION_INVALID_NAME

SQLSTATE: 42704

El valor <collationName> no representa un nombre de intercalación correcto. Nombres de intercalación válidos sugeridos: [<proposals>].

COLLATION_INVALID_PROVIDER

SQLSTATE: 42704

El valor <provider> no representa un proveedor de intercalación correcto. Los proveedores admitidos son: [<supportedProviders>].

COLLATION_MISMATCH

SQLSTATE: 42P21

No se pudo determinar qué intercalación se va a usar para las funciones y los operadores de cadena.

Para obtener más información, consulte COLLATION_MISMATCH

COLLECTION_SIZE_LIMIT_EXCEEDED

SQLSTATE: 54000

No se puede crear una matriz con elementos <numberOfElements> que superen el límite de tamaño de matriz <maxRoundedArrayLength>,

Para obtener más información, consulte COLLECTION_SIZE_LIMIT_EXCEEDED

COLUMN_ALIASES_NOT_ALLOWED

SQLSTATE: 42601

No se permiten alias de columna en <op>.

COLUMN_ALREADY_EXISTS

SQLSTATE: 42711

La columna <columnName> ya existe. Elija otro nombre o cambie el nombre de la columna existente.

COLUMN_ARRAY_ELEMENT_TYPE_MISMATCH

SQLSTATE: 0A000

Algunos valores del campo <pos> no son compatibles con el tipo de matriz de columnas. Se esperaba el tipo <type>.

COLUMN_MASKS_ABAC_MISMATCH

SQLSTATE: 0A000

No se pudieron resolver las máscaras de columna porque había una discrepancia entre las máscaras de columna heredadas de las directivas y las máscaras de columna definidas explícitamente en <tableName>. Para continuar, deshabilite el control de acceso basado en atributos (ABAC) y póngase en contacto con el soporte técnico de Databricks.

COLUMN_MASKS_CHECK_CONSTRAINT_NO_SOPORTADO

SQLSTATE: 0A000

No se admite la creación de una restricción CHECK en la tabla <tableName> con políticas de máscara de columna.

COLUMN_MASKS_DUPLICADO_USANDO_NOMBRE_DE_COLUMNA

SQLSTATE: 42734

Una <statementType> instrucción intentó asignar una política de máscara de columna a una columna que incluía dos o más columnas referenciadas de la lista USING COLUMNS con el mismo nombre <columnName>, lo cual no es válido.

COLUMN_MASKS_FUNCION_NO_SOPORTADA

SQLSTATE: 0A000

No se admiten directivas de máscara de columna para <tableName>:

Para obtener más información, consulte COLUMN_MASKS_FEATURE_NOT_SUPPORTED

COLUMN_MASKS_INCOMPATIBLE_SCHEMA_CHANGE (Cambio de esquema incompatible)

SQLSTATE: 0A000

No se puede realizar la operación <statementType> <columnName> en la tabla <tableName> porque se hace referencia a ella en una política de máscara de columna para la columna <maskedColumn>. El propietario de la tabla debe quitar o modificar esta directiva antes de continuar.

COLUMN_MASKS_MERGE_FUENTE_NO_ADMITIDA

SQLSTATE: 0A000

Las operaciones MERGE INTO no admiten directivas de máscara de columna en la tabla de origen <tableName>.

COLUMN_MASKS_DESTINO_NO_SOPORTADO_PARA_FUSIÓN

SQLSTATE: 0A000

Las operaciones MERGE INTO no admiten la escritura en la tabla <tableName> con directivas de máscara de columna.

COLUMN_MASKS_NOMBRE_DE_COLUMNA_DE_DESTINO_DE_MULTIPARTES

SQLSTATE: 42K05

Esta instrucción intentó asignar una directiva de máscara de columna a una columna <columnName> con varias partes del nombre, lo que no es válido.

COLUMN_MASKS_MULTI_PART_USANDO_NOMBRE_DE_COLUMNA

SQLSTATE: 42K05

Esta instrucción intentó asignar una directiva de máscara de columna a una columna y la USING COLUMNS lista incluía el nombre <columnName> con varias partes de nombre, que no son válidas.

COLUMN_MASKS_NO_ACTIVADO

SQLSTATE: 56038

La compatibilidad con la definición de máscaras de columna no está habilitada

COLUMN_MASKS_REQUIRE_UNITY_CATALOG

SQLSTATE: 0A000

Las políticas de enmascaramiento de columnas solo se admiten en el Catálogo de Unity.

COLUMN_MASKS_SECONDARY_INDEX_CREATION_UNSUPPORTED

SQLSTATE: 0A000

No se puede crear el índice ON TABLE <tableName> secundario porque la tabla tiene definidas directivas de máscara de columna.

COLUMN_MASKS_MOSTRAR_PARTICIONES_NO_ADMITIDO

SQLSTATE: 0A000

El comando SHOW PARTITIONS no es compatible con <format> tablas con máscaras de columna.

COLUMN_MASKS_ORIGEN_DE_CLONACIÓN_DE_TABLA_NO_ADMITIDO

SQLSTATE: 0A000

No se admite el clon <mode> de la tabla <tableName> con directivas de máscara de columna.

COLUMN_MASKS_OBJETIVO_CLONACIÓN_TABLA_NO_SOPORTADO

SQLSTATE: 0A000

No se admite el clon <mode> en la tabla <tableName> con directivas de máscara de columna.

COLUMN_MASKS_CONSTANTE_NO_SOPORTADA_COMO_PARAMETRO

SQLSTATE: 0AKD1

No se admite el uso de una constante como parámetro en una directiva de máscara de columna. Actualice el comando SQL para quitar la constante de la definición de máscara de columna y vuelva a intentarlo.

COLUMN_MASKS_TIPO_DE_DATO_NO_ADMITIDO

SQLSTATE: 0AKDC

La función <functionName> usada como directiva de máscara de columna contiene un parámetro con el tipo de datos no admitido <dataType>.

COLUMN_MASKS_PROVEEDOR_NO_COMPATIBLE

SQLSTATE: 0A000

No se pudo ejecutar <statementType> el comando porque no se admite la asignación de directivas de máscara de columna para el origen de datos de destino con el proveedor de tablas: "<provider>".

COLUMN_MASKS_USANDO_NOMBRE_DE_COLUMNA_IGUAL_QUE_COLUMNA_OBJETIVO

SQLSTATE: 42734

La columna <columnName> tenía el mismo nombre que la columna de destino, que no es válida; quite la columna de la USING COLUMNS lista y vuelva a intentar el comando.

COLUMN_NOT_DEFINED_IN_TABLE

SQLSTATE: 42703

<colType> la columna <colName> no está definida en la tabla <tableName>, las columnas de tabla definidas son: <tableCols>.

COLUMN_NOT_FOUND

SQLSTATE: 42703

No se encuentra la columna <colName> . Compruebe la ortografía y corrección del nombre de columna según la configuración <caseSensitiveConfig>de SQL.

COLUMN_NOT_FOUND_IN_TABLE

SQLSTATE: 42703

Columna <columnName> no encontrada en la tabla <tableFullName>.

COLUMN_ORDINAL_OUT_OF_BOUNDS

SQLSTATE: 22003

Ordinal de columna fuera de los límites. El número de columnas de la tabla es <attributesLength>, pero el ordinal de columna es <ordinal>.

Los atributos son los siguientes: <attributes>.

COMANDO_NO_HABILITADO

SQLSTATE: 0A000

<command> el comando no está habilitado.

COMMA_PRECEDING_CONSTRAINT_ERROR

SQLSTATE: 42601

Carácter "," inesperado delante de la definición de restricciones. Asegúrese de que la cláusula de restricción no comience con una coma cuando no se definan las columnas (y expectativas).

COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET

SQLSTATE: 42000

El COMMENT ON CONNECTION comando aún no está implementado

COMPARATOR_RETURNS_NULL

SQLSTATE: 22004

El comparador ha devuelto un NULL para una comparación entre <firstValue> y <secondValue>.

Debe devolver un entero positivo para "mayor que", 0 para "igual" y un entero negativo para "menor que".

Para revertir al comportamiento en desuso en el que NULL se trata como 0 (igual), debe establecer "spark.sql.legacy.allowNullComparisonResultInArraySort" en "true".

COMPLEX_EXPRESSION_UNSUPPORTED_INPUT

SQLSTATE: 42K09

No se pueden procesar tipos de datos de entrada para la expresión: <expression>.

Para obtener más información, consulte COMPLEX_EXPRESSION_UNSUPPORTED_INPUT.

CONCURRENT_QUERY

SQLSTATE: 0A000

Otra instancia de esta consulta [id: <queryId>] se acaba de iniciar mediante una sesión simultánea [runId existente: <existingQueryRunId> new runId: <newQueryRunId>].

CONCURRENT_SCHEDULER_INSUFFICIENT_SLOT

SQLSTATE: 53000

El número mínimo de ranuras libres necesarias en el clúster es <numTasks>, sin embargo, el clúster solo tiene <numSlots> ranuras libres. La consulta se detendrá o producirá un error. Aumente el tamaño del clúster para continuar.

CONCURRENT_STREAM_LOG_UPDATE

SQLSTATE: 40000

Actualización simultánea del log. Se detectaron varios trabajos de streaming para <batchId>.

Asegúrese de que solo se ejecuta un trabajo de streaming en una ubicación de punto de comprobación específica a la vez.

CONFIG_NOT_AVAILABLE

SQLSTATE: 42K0I

La configuración <config> no está disponible.

CONFLICTING_CLUSTER_CONFIGURATION

SQLSTATE: 22023

Las siguientes configuraciones entran en conflicto con spark.databricks.streaming.realTimeMode.enabled: <confNames>. Quite estas configuraciones de la configuración del clúster y reinicie el clúster de Spark.

CONFLICTING_DIRECTORY_STRUCTURES

SQLSTATE: KD009

Se detectaron estructuras de directorio en conflicto.

Rutas de acceso sospechosas:

<discoveredBasePaths>

Si las rutas de acceso proporcionadas son directorios de partición, establezca "basePath" en las opciones del origen de datos para especificar el directorio raíz de la tabla.

Si hay varios directorios raíz, cárguelos por separado y luego únelos.

CONFLICTING_PARTITION_COLUMN_NAMES

SQLSTATE: KD009

Se detectaron nombres de columna de partición en conflicto:

<distinctPartColLists>

En el caso de los directorios de tabla con particiones, los archivos de datos solo deben residir en directorios hoja.

Y los directorios en el mismo nivel deben tener el mismo nombre de columna de partición.

Compruebe los siguientes directorios para ver archivos inesperados o nombres de columna de partición incoherentes:

<suspiciousPaths>

CONFLICTING_PARTITION_COLUMN_NAME_WITH_RESERVED

SQLSTATE: KD009

El nombre de columna de partición '<partitionColumnName>' entra en conflicto con el nombre de columna reservado.

El esquema de <tableName> es incompatible con Hive, Spark genera automáticamente una columna reservada "<partitionColumnName>" para almacenar la tabla de forma específica.

Use otro nombre para la columna de partición.

CONFLICTING_PROVIDER

SQLSTATE: 22023

El proveedor <provider> especificado es incoherente con el proveedor <expectedProvider>de catálogo existente. Use 'USING <expectedProvider>' y vuelva a intentar el comando.

CONFLICTING_SQL_CONFIGURATION

SQLSTATE: 22023

Las siguientes configuraciones entran en conflicto con spark.databricks.streaming.realTimeMode.enabled: <confNames>. Quite estas configuraciones de la configuración de SparkSession.

CONNECT

SQLSTATE: 56K00

Error genérico de Spark Connect.

Para obtener más información, consulte CONNECT

CONNECTION_ALREADY_EXISTS

SQLSTATE: 42000

No se puede crear la conexión <connectionName> porque ya existe.

Elija otro nombre, quite o reemplace la conexión existente o agregue la IF NOT EXISTS cláusula para tolerar conexiones preexistentes.

CONNECTION_NAME_CANNOT_BE_EMPTY

SQLSTATE: 42000

No se puede ejecutar este comando porque el nombre de la conexión debe no estar vacío.

CONNECTION_NOT_FOUND

SQLSTATE: 42000

No se puede ejecutar este comando porque no se encontró el nombre <connectionName> de conexión.

CONNECTION_OPTION_NOT_SUPPORTED

SQLSTATE: 42000

Las conexiones de tipo '<connectionType>' no admiten las siguientes opciones: <optionsNotSupported>. Opciones admitidas: <allowedOptions>.

CONNECTION_TYPE_NOT_SUPPORTED

SQLSTATE: 42000

No se puede crear la conexión de tipo '<connectionType>'. Tipos de conexión admitidos: <allowedTypes>.

CONNECTION_TYPE_NOT_SUPPORTED_FOR_OPTIONS_INJECTION

SQLSTATE: 42000

La conexión con el nombre <connectionName> y el tipo <connectionType> no se admiten en las opciones de trama de datos.

CONNECTION_TYPE_NOT_SUPPORTED_FOR_REMOTE_QUERY_FUNCTION

SQLSTATE: 42000

No se admite la conexión con el nombre '<connectionName>' del tipo '<connectionType>' para la ejecución de funciones de consulta remota.

CONNECT_INVALID_PLAN

SQLSTATE: 56K00

El plan de Spark Connect no es válido.

Para obtener más información, consulte CONNECT_INVALID_PLAN

CONNECT_SESSION_MIGRATION

SQLSTATE: 56K00

Error genérico de migración de sesión (userId: <userId>, sessionId: <sessionId>, serverSessionId: <serverSessionId>).

Para obtener más información, consulte CONNECT_SESSION_MIGRATION.

CONSTRAINTS_REQUIRE_UNITY_CATALOG

SQLSTATE: 0A000

Las restricciones de tabla solo se admiten en el catálogo de Unity.

CONSTRAINT_ALREADY_EXISTS

SQLSTATE: 42710

La restricción '<constraintName>' ya existe. Elimine primero la restricción existente.

Restricción existente:

<oldConstraint>

CONSTRAINT_ALREADY_EXISTS_IN_SCHEMA

SQLSTATE: 42710

La restricción <constraintName> ya existe en la base de datos <schemaName>.

CONSTRAINT_ALREADY_EXISTS_WITH_SERVER_MESSAGE

SQLSTATE: 42710

<serverMessage>

CONSTRAINT_DOES_NOT_EXIST

SQLSTATE: 42704

No se puede quitar la restricción <constraintName> inexistente de la tabla <tableName>.

CONVERSION_INVALID_INPUT

SQLSTATE: 22018

No se puede convertir el valor <str> (<fmt>) en <targetType> porque tiene un formato incorrecto. Corrija el valor según la sintaxis o cambie su formato. Use <suggestion> para tolerar entradas con formato incorrecto y devolver NULL en su lugar.

COPY_INTO_COLUMN_ARITY_MISMATCH

SQLSTATE: 21S01

No se puede escribir en <tableName>, el motivo es

Para obtener más información, consulte COPY_INTO_COLUMN_ARITY_MISMATCH.

COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON

SQLSTATE: 0A000

Esquema <scheme>no válido. Las credenciales de origen COPY INTO actualmente solo admiten s3/s3n/s3a/wasbs/abfss.

COPY_INTO_CREDENTIALS_REQUIRED

SQLSTATE: 42601

COPY INTO las credenciales de origen deben especificar <keyList>.

COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED

SQLSTATE: 25000

Se confirmaron archivos duplicados en una operación COPY INTO simultánea. Inténtelo de nuevo más tarde.

COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON

SQLSTATE: 0A000

Esquema <scheme>no válido. COPY INTO el cifrado de origen actualmente solo admite s3/s3n/s3a/abfss.

COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE

SQLSTATE: 0A000

COPY INTO el cifrado solo admite el ADLS Gen2 o el esquema de archivos abfss://

COPY_INTO_ENCRYPTION_REQUIRED

SQLSTATE: 42601

COPY INTO el cifrado de origen debe especificar "<key>".

COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED

SQLSTATE: 42601

Opción <requiredKey>de cifrado no válida. COPY INTO el cifrado de origen debe especificar '<requiredKey>' = '<keyValue>'.

COPY_INTO_FEATURE_INCOMPATIBLE_SETTING

SQLSTATE: 42613

La COPY INTO característica '<feature>' no es compatible con '<incompatibleSetting>'.

COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED

SQLSTATE: 25000

COPY INTO a excepción de cuando anexa datos no puede ejecutarse simultáneamente con otras transacciones. Inténtelo de nuevo más tarde.

COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED

SQLSTATE: 25000

COPY INTO no ha podido cargar su estado, se han superado los reintentos máximos.

COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE

SQLSTATE: 42KDG

Se detectó una falta de coincidencia de esquema al copiar en la tabla Delta (Tabla: <table>).

Esto puede indicar un problema con los datos entrantes o el esquema de la tabla Delta puede evolucionar automáticamente según los datos entrantes estableciendo:

COPY_OPTIONS ('mergeSchema' = 'verdadero')

Diferencia de esquema:

<schemaDiff>

COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED

SQLSTATE: 0A000

El formato de los archivos de origen debe ser uno de CSV, JSON, AVRO, ORC, PARQUET, TEXT o BINARYFILE. El uso de COPY INTO en tablas delta, ya que el origen no se admite, ya que los datos duplicados se pueden ingerir después de las operaciones OPTIMIZE. Esta comprobación se puede desactivar ejecutando el comando set spark.databricks.delta.copyInto.formatCheck.enabled = falseSQL .

COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED

SQLSTATE: 42KD9

El directorio de origen no contenía ningún archivo analizable de tipo <format>. Compruebe el contenido de "<source>".

El error se puede silenciar estableciendo "<config>" en "false".

COPY_INTO_STATE_INTERNAL_ERROR

SQLSTATE: 55019

Se produjo un error interno al procesar el estado COPY INTO.

Para obtener más información, consulte COPY_INTO_STATE_INTERNAL_ERROR.

COPY_INTO_SYNTAX_ERROR

SQLSTATE: 42601

No se pudo analizar el COPY INTO comando.

Para obtener más información, consulte COPY_INTO_SYNTAX_ERROR.

COPY_INTO_UNSUPPORTED_FEATURE

SQLSTATE: 0A000

No se admite la COPY INTO característica '<feature>'.

COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED

SQLSTATE: 42000

No se pueden descargar datos con el formato '<formatType>'. Los formatos admitidos para <connectionType> son: <allowedFormats>.

CORRUPTED_CATALOG_FUNCTION

SQLSTATE: 0A000

No se puede convertir la función de catálogo '<identifier>' en una función SQL debido a la información de función dañada en el catálogo. Si la función no es una función SQL, asegúrese de que el nombre de clase "<className>" se puede cargar.

CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET

SQLSTATE: 42000

El CREATE FOREIGN SCHEMA comando aún no está implementado

CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET

SQLSTATE: 42000

El CREATE FOREIGN TABLE comando aún no está implementado

CREATE_OR_REFRESH_MV_NOT_SUPPORTED

SQLSTATE: 42601

CREATE O REFRESH MATERIALIZED VIEW no se soportan. Use CREATE OR REPLACE MATERIALIZED VIEW en su lugar.

CREATE_OR_REFRESH_MV_ST_ASYNC

SQLSTATE: 0A000

No se pueden CREATE o REFRESH vistas materializadas o tablas de streaming que tengan ASYNC especificado. Quite ASYNC de la instrucción CREATE O REFRESH o use REFRESH ASYNC para actualizar las vistas materializadas o las tablas de streaming existentes de forma asincrónica.

CREATE_PERMANENT_VIEW_WITHOUT_ALIAS

SQLSTATE: 0A000

No se permite crear la vista <name> permanente sin asignar explícitamente un alias para la expresión <attr>.

CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE

SQLSTATE: 42710

CREATE TABLE column <columnName> especifica el descriptor "<optionName>" más de una vez, que no es válido.

CREATE_VIEW_COLUMN_ARITY_MISMATCH

SQLSTATE: 21S01

No se puede crear la vista <viewName>, el motivo es

Para obtener más información, consulte CREATE_VIEW_COLUMN_ARITY_MISMATCH

CREDENTIAL_MISSING

SQLSTATE: 42601

Proporcione las credenciales al crear o actualizar ubicaciones externas.

CREDENTIAL_PURPOSE_MISMATCH

SQLSTATE: 42809

La credencial <credentialName> tiene un propósito <actualPurpose> , pero el propósito proporcionado en el comando es <expectedPurpose>.

CSV_ENFORCE_SCHEMA_NOT_SUPPORTED

SQLSTATE: 0A000

No se puede establecer la opción enforceSchema CSV cuando se usa rescuedDataColumn o failOnUnknownFields, ya que las columnas se leen por nombre en lugar de ordinal.

CYCLIC_FUNCTION_REFERENCE

SQLSTATE: 42887

Se detectó una referencia de función cíclica: <path>.

DATABRICKS_DELTA_NOT_ENABLED

SQLSTATE: 56038

Databricks Delta no está habilitado en su cuenta.<hints>

DATAFLOW_GRAPH_NOT_FOUND (NO SE ENCONTRÓ EL GRÁFICO DE FLUJO DE DATOS)

SQLSTATE: KD012

No se encontró el gráfico de flujo de datos con id.<graphId>

TIPO_DE_DATO_NO_SE_PUEDE_ORDENAR

SQLSTATE: 0A000

El tipo <dataType> no admite operaciones ordenadas.

DATATYPE_MISMATCH

SQLSTATE: 42K09

No se puede resolver <sqlExpr> debido a que el tipo de datos no coincide:

Para obtener más información, consulte DATATYPE_MISMATCH

DATATYPE_MISSING_SIZE

SQLSTATE: 42K01

DataType <type> requiere un parámetro de longitud, por ejemplo <type>(10). Especifique la longitud.

DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION

SQLSTATE: 25000

Escritura de linaje incorrecta: falta la relación correspondiente con las directivas de CLM/RLS.

DATA_SOURCE_ALREADY_EXISTS

SQLSTATE: 42710

El origen de datos '<provider>' ya existe. Elija otro nombre para el nuevo origen de datos.

DATA_SOURCE_CONNECTION_MISSING_ALLOW_LIST

SQLSTATE: 42000

La conexión <connectionName> no se admite en este contexto porque no tiene configurada una lista de opciones externas permitidas. Actualice la conexión para incluir un valor válido <optionName>.

DATA_SOURCE_EXTERNAL_ERROR

SQLSTATE: KD010

Se encontró un error al guardar en el origen de datos externo.

DATA_SOURCE_NOT_EXIST

SQLSTATE: 42704

No se encontró el origen de datos '<provider>'. Asegúrese de que el origen de datos está registrado.

DATA_SOURCE_NOT_FOUND

SQLSTATE: 42K02

No se pudo encontrar el origen de datos: <provider>. Asegúrese de que el nombre del proveedor sea correcto y que el paquete esté registrado correctamente y sea compatible con la versión de Spark.

DATA_SOURCE_OPTIONS_VALIDATION_FAILED

SQLSTATE: 42616

Error en la <dataSource> validación del origen de datos.

Para obtener más información, consulte DATA_SOURCE_OPTIONS_VALIDATION_FAILED

DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS

SQLSTATE: 42602

La opción <option> no debe estar vacía y no debe contener caracteres no válidos, cadenas de consulta o parámetros.

DATA_SOURCE_OPTION_IS_REQUIRED

SQLSTATE: 42601

Se requiere la opción <option> .

DATA_SOURCE_OPTION_NOT_ALLOWED_BY_CONNECTION

SQLSTATE: 42000

La opción <optionName> no está permitida por la conexión <connectionName> y no se puede proporcionar externamente.

DATA_SOURCE_OPTION_VALUE_NOT_VALID

SQLSTATE: 42602

La opción de origen de datos proporcionada '<option>' contiene un valor no válido ('<value>').

Para obtener más información, consulte DATA_SOURCE_OPTION_VALUE_NOT_VALID

DATA_SOURCE_SYNTAX_ERROR_DURING_QUERY_EXECUTION

SQLSTATE: 42000

El motor <dataSourceEngine> de origen de datos externo produjo un error de sintaxis durante la ejecución de la consulta "<query>". <externalEngineError>.

DATA_SOURCE_TABLE_SCHEMA_MISMATCH

SQLSTATE: 42K03

El esquema de la tabla de origen de datos no coincide con el esquema esperado. Si usa la API DataFrameReader.schema o crea una tabla, evite especificar el esquema.

Esquema del origen de datos: <dsSchema>

Esquema esperado: <expectedSchema>

DATA_SOURCE_URL_NOT_ALLOWED

SQLSTATE: 42KDB

No se permite la dirección URL de JDBC en las opciones del origen de datos, especifique las opciones "host", "puerto" y "base de datos".

DATETIME_FIELD_OUT_OF_BOUNDS

SQLSTATE: 22023

<rangeMessage>.

Para obtener más información, consulte DATETIME_FIELD_OUT_OF_BOUNDS

DATETIME_OVERFLOW

SQLSTATE: 22008

Desbordamiento de la operación datetime: <operation>.

DC_API_QUOTA_EXCEEDED

SQLSTATE: KD000

Ha superado la cuota de API del origen de datos <sourceName>.

Para más información, consulte DC_API_QUOTA_EXCEEDED.

DC_CONNECTION_ERROR

SQLSTATE: KD000

No se pudo establecer una conexión con la fuente <sourceName>. Código de error: <errorCode>.

Para obtener más información, consulte DC_CONNECTION_ERROR

DC_DYNAMICS_API_ERROR

SQLSTATE: KD000

Error al llamar a la API de Dynamics, errorCode: <errorCode>.

Para obtener más información, consulte DC_DYNAMICS_API_ERROR

DC_NETSUITE_ERROR

SQLSTATE: KD000

Se produjo un error en las llamadas JDBC de Netsuite, errorCode: <errorCode>.

Para obtener más información, consulte DC_NETSUITE_ERROR

DC_SCHEMA_CHANGE_ERROR

SQLSTATE: ninguno asignado

Se ha producido un cambio de esquema en la tabla <tableName> del origen de <sourceName>.

Para obtener más información, consulte DC_SCHEMA_CHANGE_ERROR

DC_SERVICENOW_API_ERROR

SQLSTATE: KD000

Se ha producido un error en las llamadas API de ServiceNow, errorCode: <errorCode>.

Para obtener más información, consulte DC_SERVICENOW_API_ERROR

DC_SFDC_BULK_QUERY_JOB_INCOMPLETE

SQLSTATE: KD000

La ingesta del objeto <objName> está incompleta porque el trabajo de consulta de la API de Salesforce tardó demasiado tiempo, produjo un error o se canceló manualmente.

Para volver a intentarlo, puede volver a ejecutar toda la canalización o actualizar esta tabla de destino específica. Si el error persiste, presente un ticket. Id. de trabajo: <jobId>. Estado del trabajo: <jobStatus>.

DC_SHAREPOINT_API_ERROR

SQLSTATE: KD000

Error ocurrido en llamadas API de Sharepoint, errorCode: <errorCode>.

Para obtener más información, consulte DC_SHAREPOINT_API_ERROR

DC_SOURCE_API_ERROR

SQLSTATE: KD000

Ocurrió un error en la llamada a la API <sourceName>. Tipo de API de origen: <apiType>. Código de error: <errorCode>.

Esto puede ocurrir a veces cuando se ha alcanzado un <sourceName> límite de API. Si no ha superado el límite de API, intente volver a ejecutar el conector. Si el problema persiste, cree una incidencia.

DC_UNSUPPORTED_ERROR

SQLSTATE: 0A000

Error no admitido en el origen de datos <sourceName>.

Para obtener más información, consulte DC_UNSUPPORTED_ERROR

DC_WORKDAY_RAAS_API_ERROR

SQLSTATE: KD000

Se produjo un error en las llamadas API de RAAS de Workday, errorCode: <errorCode>.

Para obtener más información, consulte DC_WORKDAY_RAAS_API_ERROR

DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION

SQLSTATE: 22003

La precisión decimal <precision> supera la precisión máxima <maxPrecision>.

DEFAULT_DATABASE_NOT_EXISTS

SQLSTATE: 42704

La base de datos <defaultDatabase> predeterminada no existe, créela primero o cambie la base de datos predeterminada a <defaultDatabase>.

DEFAULT_FILE_NOT_FOUND

SQLSTATE: 42K03

Es posible que se hayan actualizado los archivos subyacentes. Puede invalidar explícitamente la memoria caché en Spark ejecutando el comando "REFRESH TABLE tableName" en SQL o volviendo a crear el conjunto de datos o dataframe implicado. Si la caché de disco está obsoleta o se han quitado los archivos subyacentes, puede invalidar manualmente la caché del disco reiniciando el clúster.

DEFAULT_PLACEMENT_INVALID

SQLSTATE: 42608

No DEFAULT se pudo asignar directamente una palabra clave en un MERGE, INSERT, UPDATEcomando o SET VARIABLE a una columna de destino porque formaba parte de una expresión.

Por ejemplo: UPDATE SET c1 = DEFAULT se permite, pero UPDATE T SET c1 = DEFAULT + 1 no se permite.

DEFAULT_UNSUPPORTED

SQLSTATE: 42623

No se pudo ejecutar el comando <statementType> porque los valores DEFAULT no son compatibles con el origen de datos de destino del proveedor de tablas: "<dataSource>".

DEFINE_FLOW_ONCE_OPTION_NOT_SUPPORTED

SQLSTATE: 0A000

No se admite la definición de un flujo <flowName> único con la opción "una vez".

DESCRIBE_JSON_NOT_EXTENDED

SQLSTATE: 0A000

DESCRIBE TABLE ... AS JSON solo se admite cuando se especifica [EXTENDED|FORMATTED].

Por ejemplo: DESCRIBE EXTENDED <tableName> AS JSON se admite, pero DESCRIBE <tableName> AS JSON no lo es.

DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE

SQLSTATE: 55019

La consulta de streaming estaba leyendo desde una tabla Delta inesperada (id = "<newTableId>").

Se usa para leer desde otra tabla Delta (id = "<oldTableId>") según el punto de control.

Esto puede ocurrir cuando cambiaste el código para leer de una nueva tabla o eliminaste y

se vuelve a crear una tabla. Revierta el cambio o elimine el punto de control de consulta de streaming

volver a empezar desde cero

DISTINCT_WINDOW_FUNCTION_UNSUPPORTED

SQLSTATE: 0A000

No se admiten funciones de ventana distintas: <windowExpr>.

DIVIDE_BY_ZERO

SQLSTATE: 22012

División por cero. Use try_divide para tolerar que el divisor sea 0 y devuelva NULL en su lugar. Si es necesario, establezca <config> en "false" para omitir este error.

Para obtener más información, consulte DIVIDE_BY_ZERO

DLT_EXPECTATIONS_NOT_SUPPORTED

SQLSTATE: 56038

Las expectativas solo se admiten en una canalización de canalizaciones declarativas de Spark de Lakeflow.

DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED

SQLSTATE: 56038

MATERIALIZED Las VIEW con una CLUSTER BY cláusula solo se admiten en una canalización de Canalizaciones declarativas de Spark de Lakeflow.

DLT_VIEW_LOCATION_NOT_SUPPORTED

SQLSTATE: 56038

MATERIALIZED VIEW las ubicaciones solo se admiten en una canalización de canalizaciones declarativas de Spark de Lakeflow.

DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED

SQLSTATE: 56038

MATERIALIZED VIEW Los esquemas con un tipo especificado solo se admiten en una canalización de canalizaciones declarativas de Spark de Lakeflow.

TABLE_CONSTRAINTSDLT_VIEW__NOT_SUPPORTED

SQLSTATE: 56038

CONSTRAINT Las cláusulas de una vista solo se admiten en una canalización de canalizaciones declarativas de Spark de Lakeflow.

DML_OPERATIONS_NOT_SUPPORTED_FOR_REMOTE_QUERY_FUNCTION

SQLSTATE: 0A000

La función de consulta remota no admite consultas DML.

DROP_COMMAND_TYPE_MISMATCH

SQLSTATE: 42809

No se puede quitar un <metadataType> objeto con DROP <commandType>.

En su lugar, use DROP <metadataTypeUpper>.

DROP_SCHEDULE_DOES_NOT_EXIST

SQLSTATE: 42000

No se puede quitar SCHEDULE en una tabla sin una programación o desencadenador existente.

DUPLICATED_CTE_NAMES

SQLSTATE: 42602

La definición de CTE no puede tener nombres duplicados: <duplicateNames>.

DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT

SQLSTATE: 42713

No se permiten nombres de campo duplicados en la estructura de flecha. Se obtuvo <fieldNames>.

DUPLICATED_MAP_KEY

SQLSTATE: 23505

Se encontró una clave <key> de mapa duplicada, compruebe los datos de entrada.

Si desea quitar las claves duplicadas, puede establecer en <mapKeyDedupPolicy> "LAST_WIN" para que la clave insertada al final tenga prioridad.

DUPLICATED_METRICS_NAME

SQLSTATE: 42710

El nombre de la métrica no es único: <metricName>. No se puede usar el mismo nombre para las métricas con resultados diferentes.

Sin embargo, se permiten varias instancias de métricas con el mismo resultado y nombre (por ejemplo, autocombinaciones).

DUPLICATE_ASSIGNMENTS

SQLSTATE: 42701

Las columnas o variables <nameList> aparecen más de una vez como destinos de asignación.

DUPLICATE_CLAUSES

SQLSTATE: 42614

Se encontraron cláusulas duplicadas: <clauseName>. Por favor, retire uno de ellos.

DUPLICATE_CONDITION_IN_SCOPE

SQLSTATE: 42734

Se ha encontrado una condición <condition> duplicada en el ámbito. Por favor, retire uno de ellos.

DUPLICATE_EXCEPTION_HANDLER

SQLSTATE: 42734

Se encontraron controladores duplicados. Por favor, retire uno de ellos.

Para obtener más información, consulte DUPLICATE_EXCEPTION_HANDLER

DUPLICATE_FLOW_SQL_CONF

SQLSTATE: 42710

Se encontró una configuración de SQL duplicada para el conjunto de datos '<datasetName>': '<key>' es definida por '<flowName1>' y '<flowName2>'

DUPLICATE_KEY

SQLSTATE: 23505

Se encontraron claves <keyColumn>duplicadas.

DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT

SQLSTATE: 4274K

La llamada a rutina <routineName> no es válida porque incluye varias asignaciones de argumentos al mismo nombre <parameterName>de parámetro .

Para obtener más información, consulte DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT

DUPLICATE_ROUTINE_PARAMETER_NAMES

SQLSTATE: 42734

Se encontraron nombres duplicados en la lista de parámetros de la rutina <routineName>definida por el usuario: <names>.

DUPLICATE_ROUTINE_RETURNS_COLUMNS

SQLSTATE: 42711

Se encontraron columnas duplicadas en la lista de columnas de cláusulas RETURNS de la rutina <routineName>definida por el usuario: <columns>.

DUPLICATE_VARIABLE_NAME_INSIDE_DECLARE

SQLSTATE: 42734

Se encontró la variable <variableName> duplicada en la lista de declaración de variables. Por favor, retire uno de ellos.

EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED

SQLSTATE: 42815

El nodo anterior emitió una fila con eventTime=<emittedRowEventTime> que es anterior a current_watermark_value=<currentWatermark>

Esto puede provocar problemas de corrección en los operadores con estado de bajada en la canalización de ejecución.

Corrija la lógica del operador para emitir filas después del valor actual de marca de agua global.

EMPTY_JSON_FIELD_VALUE

SQLSTATE: 42604

No se pudo analizar una cadena vacía para el tipo <dataType>de datos .

EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY

SQLSTATE: 22023

Archivo local vacío en la consulta de almacenamiento provisional <operation>

EMPTY_SCHEMA_NOT_SUPPORTED_FOR_DATASOURCE

SQLSTATE: 0A000

El origen de datos <format> no admite la creación de esquemas vacíos ni anidados. Asegúrese de que el esquema de datos tenga al menos una o varias columnas.

ENCODER_NOT_FOUND

SQLSTATE: 42704

No se encontró un codificador del tipo <typeName> en la representación interna de Spark SQL.

Considere la posibilidad de cambiar el tipo de entrada a uno de los admitidos en "<docroot>/sql-ref-datatypes.html".

END_LABEL_WITHOUT_BEGIN_LABEL

SQLSTATE: 42K0L

La etiqueta <endLabel> final no puede existir sin etiqueta begin.

END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW

SQLSTATE: KD000

Algunas de las particiones de los temas de Kafka informan sobre el desplazamiento disponible, que es menor que el desplazamiento final durante la ejecución de la consulta con Trigger.AvailableNow. El error podría ser transitorio: reinicie la consulta e informe si sigue viendo el mismo problema.

desplazamiento más reciente: <latestOffset>, desplazamiento final: <endOffset>

END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED

SQLSTATE: KD000

Para el origen de datos de Kafka con Trigger.AvailableNow, el desplazamiento final debe tener un desplazamiento inferior o igual por cada partición de tema que el desplazamiento capturado previamente. El error podría ser transitorio: reinicie la consulta e informe si sigue viendo el mismo problema.

desplazamiento capturado previamente: <prefetchedOffset>, desplazamiento final: <endOffset>.

ERROR_READING_AVRO_UNKNOWN_FINGERPRINT

SQLSTATE: KD00B

Error al leer datos avro: encontró una huella digital desconocida: <fingerprint>, no está seguro de qué esquema usar.

Esto podría ocurrir si registró esquemas adicionales después de iniciar el contexto de Spark.

EVENT_LOG_EMPTY

SQLSTATE: 55019

El registro de eventos de <tableOrPipeline> no tiene ningún esquema y no contiene ningún evento. Inténtelo de nuevo más tarde después de generar eventos

EVENT_LOG_REQUIRES_SHARED_COMPUTE

SQLSTATE: 42601

No se pueden consultar registros de eventos desde un clúster compartido asignado o sin aislamiento, use un clúster compartido o un almacenamiento de SQL de Databricks en su lugar.

EVENT_LOG_TVF_UNSUPPORTED_FOR_PIPELINE

SQLSTATE: 0A000

La TVF EVENT_LOG no se admite para canalizaciones que usan el campo "esquema" ni las que se publican en el almacenamiento predeterminado.

Para consultar el registro de eventos, publíquelo en el metastore especificando el campo event_log en la configuración de la canalización.

Para más información, consulte la documentación sobre canalizaciones declarativas de Spark de Monitor Lakeflow: https://docs.databricks.com/aws/en/delta-live-tables/observability

EVENT_LOG_UNAVAILABLE

SQLSTATE: 55019

No hay registros de eventos disponibles para <tableOrPipeline>. Por favor, inténtelo de nuevo más tarde, después de que los eventos sean generados.

EVENT_LOG_UNSUPPORTED_TABLE_TYPE

SQLSTATE: 42832

El tipo de tabla de <tableIdentifier> es <tableType>.

La consulta de registros de eventos solo admite vistas materializadas, tablas de streaming o canalizaciones declarativas de Spark de Lakeflow

EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE

SQLSTATE: 42K09

La hora <eventName> del evento tiene un tipo <eventType> inválido, pero se esperaba "TIMESTAMP".

EXCEED_LIMIT_LENGTH

SQLSTATE: 54006

Supera la limitación de longitud de tipo char/varchar: <limit>.

FUENTE_DE_DATOS_DE_EXCEL_NO_ACTIVADA

SQLSTATE: 56038

El origen de datos de Excel no está habilitado en este clúster.

EXCEL_FILE_ERROR

SQLSTATE: 58030

Error al procesar el archivo de Excel '<filePath>'.

Para obtener más información, consulte EXCEL_FILE_ERROR

EXCEL_VALOR_INVÁLIDO_OPCIÓN_LECTURA

SQLSTATE: 42000

Valor de opción de lectura no válido para el origen de datos de Excel.

Para obtener más información, consulte EXCEL_INVALID_READ_OPTION_VALUE

EXCEL_INVALID_WRITE_OPTION_VALUE

SQLSTATE: 0A000

El origen de datos de Excel no admite el valor '<value>' para la opción de escritura '<option>'.

Para obtener más información, consulte EXCEL_INVALID_WRITE_OPTION_VALUE

EXCEL_INVALID_WRITE_SCHEMA

SQLSTATE: 42000

El origen de datos de Excel no admite el esquema "<schema>" para escrituras.

<hint>

EXCEL_PARSING_ERROR

SQLSTATE: 22000

Error al analizar los datos de Excel.

Para obtener más información, consulte EXCEL_PARSING_ERROR

EXCEL_UNSUPPORTED_WRITE_OPTION

SQLSTATE: 42616

El origen de datos de Excel no admite la opción de escritura '<option>'.

<hint>

EXCEPT_NESTED_COLUMN_INVALID_TYPE

SQLSTATE: 428H2

EXCEPT se resolvió la columna <columnName> y se esperaba que fuera StructType, pero se encontró el tipo <dataType>.

EXCEPT_OVERLAPPING_COLUMNS

SQLSTATE: 42702

Las columnas de una lista EXCEPT deben ser distintas y no estar superpuestas, pero se obtuvo (<columns>).

EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH

SQLSTATE: 42703

Las columnas EXCEPT [<exceptColumns>] se resolvieron, pero no coinciden con ninguna de las columnas [<expandedColumns>] de la expansión en estrella.

EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION

SQLSTATE: 42703

No se puede resolver el nombre de columna/campo <objectName> en la cláusula EXCEPT. ¿Querías decir lo siguiente: [<objectList>]?

Nota: Es posible que las columnas anidadas de la cláusula EXCEPT no incluyan qualifadores (nombre de tabla, nombre de columna de estructura padre, etc.) durante la expansión de una estructura; intente eliminarlos si se usan en columnas anidadas.

EXECUTOR_DISK_OUT_OF_SPACE

SQLSTATE: 53100

Disco del ejecutor sin espacio. Aumente la capacidad del disco si está disponible. Si usa Serverless, póngase en contacto con nuestro equipo de soporte técnico.

EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES

SQLSTATE: 42701

La USING cláusula de este EXECUTE IMMEDIATE comando contenía varios argumentos con el mismo alias (<aliases>), que no es válido; actualice el comando para especificar alias únicos y vuelva a intentarlo.

EXPECT_PERMANENT_TABLE_NOT_TEMP

SQLSTATE: 42809

'<operation>' espera una tabla permanente, pero <tableName> es una tabla temporal. Especifique en su lugar una tabla permanente.

EXPECT_PERMANENT_VIEW_NOT_TEMP

SQLSTATE: 42809

'<operation>' espera una vista permanente, pero <viewName> es una vista temporal.

EXPECT_TABLE_NOT_VIEW

SQLSTATE: 42809

"<operation>" espera una tabla, pero <viewName> es una vista.

Para obtener más información, consulte EXPECT_TABLE_NOT_VIEW

EXPECT_VIEW_NOT_TABLE

SQLSTATE: 42809

La tabla <tableName> no admite <operation>.

Para más información, consulte EXPECT_VIEW_NOT_TABLE

EXPRESSION_DECODING_FAILED

SQLSTATE: 42846

No se pudo convertir una fila en un valor de las expresiones: <expressions>.

EXPRESSION_ENCODING_FAILED

SQLSTATE: 42846

No se pudo codificar un valor de las expresiones: <expressions> en una fila.

EXPRESSION_TRANSLATION_TO_V2_IS_NOT_SUPPORTED

SQLSTATE: 0A000

La expresión <expr> no se puede traducir a la expresión v2.

EXPRESSION_TYPE_IS_NOT_ORDERABLE

SQLSTATE: 42822

No se puede ordenar la expresión de columna <expr> porque su tipo <exprType> no se puede ordenar.

EXTERNAL_METASTORE_CLIENT_ERROR

SQLSTATE: 58000

Error en la operación de cliente:

Para obtener más información, consulte EXTERNAL_METASTORE_CLIENT_ERROR

EXTERNAL_SHALLOW_CLONE_STILL_EXISTS

SQLSTATE: 42893

No se pudo ejecutar la operación en la tabla <sourceTable> de origen porque el clon <targetTable> superficial todavía existe y su estado no es válido. Si su intención es continuar con esta operación, limpie el clon superficial. Para ello, ejecute explícitamente el comando DROP.

EXTERNAL_TABLE_INVALID_SCHEME

SQLSTATE: 0A000

Las tablas externas no admiten el <scheme> esquema.

FABRIC_REFRESH_INVALID_SCOPE

SQLSTATE: 0A000

Error al ejecutar "REFRESH FOREIGN <scope> <name>". No se puede actualizar un Fabric <scope> directamente, use "REFRESH FOREIGN CATALOG <catalogName>" para actualizar el catálogo de Fabric en vez de eso.

FAILED_EXECUTE_UDF

SQLSTATE: 39000

Error de función definida por el usuario (: (<functionName><signature>) => <result>debido a: <reason>.

FAILED_FUNCTION_CALL

SQLSTATE: 38000

No se pudo preparar la función <funcName> para la llamada. Compruebe los argumentos de la función.

FAILED_JDBC

SQLSTATE: HV000

Error de JDBC <url> en la operación:

Para obtener más información, consulte FAILED_JDBC

FAILED_PARSE_STRUCT_TYPE

SQLSTATE: 22018

Estructura de análisis con errores: <raw>.

FAILED_READ_FILE

SQLSTATE: KD001

Error al leer el archivo <path>.

Para obtener más información, consulte FAILED_READ_FILE

FAILED_REGISTER_CLASS_WITH_KRYO

SQLSTATE: KD000

No se pudieron registrar clases con Kryo.

FAILED_RENAME_PATH

SQLSTATE: 42K04

No se pudo cambiar el nombre de <sourcePath> a <targetPath> porque el destino ya existe.

FAILED_RENAME_TEMP_FILE

SQLSTATE: 58030

No se pudo cambiar el nombre del archivo temporal <srcPath> a <dstPath> porque FileSystem.rename devolvió false.

FAILED_ROW_TO_JSON

SQLSTATE: 2203G

No se pudo convertir el valor <value> de fila de la clase <class> al tipo <sqlType> SQL de destino en el JSON formato .

FAILED_TO_CREATE_PLAN_FOR_DIRECT_QUERY

SQLSTATE: 58030

No se pudo crear el plan de consulta directa en los archivos: <dataSourceType>

FAILED_TO_LOAD_ROUTINE

SQLSTATE: 38000

No se pudo cargar la rutina <routineName>.

FAILED_TO_PARSE_TOO_COMPLEX

SQLSTATE: 54001

La instrucción , incluidas las posibles funciones SQL y las vistas a las que se hace referencia, era demasiado compleja para analizar.

Para mitigar este error, divida la instrucción en varios fragmentos menos complejos.

FEATURE_NOT_ENABLED

SQLSTATE: 56038

La característica <featureName> no está habilitada. Considere establecer la configuración <configKey> en <configValue> para habilitar esta capacidad.

FEATURE_NOT_ON_CLASSIC_WAREHOUSE

SQLSTATE: 56038

<feature> no se admite en almacenes de SQL clásicos. Para usar esta característica, use una instancia de SQL Warehouse Pro o sin servidor.

FEATURE_REQUIRES_UC

SQLSTATE: 0AKUD

<feature> no se admite sin Unity Catalog. Para usar esta característica, habilite El catálogo de Unity.

FEATURE_UNAVAILABLE

SQLSTATE: 56038

<feature> no se admite en su entorno. Para usar esta característica, póngase en contacto con el soporte técnico de Databricks.

FETCH_FAILED

SQLSTATE: 58000

Error de tarea al capturar datos aleatorios o metadatos: <errorString>.

FGAC_ON_DEDICATED_COMPUTE_FAILED

SQLSTATE: KD011

Error de control de acceso detallado (FGAC) en la computación dedicada debido a la siguiente excepción: <message>

FIELD_ALREADY_EXISTS

SQLSTATE: 42710

No se puede <op> columna, porque <fieldNames> ya existe en <struct>.

FIELD_NOT_FOUND

SQLSTATE: 42704

Ningún campo <fieldName> de estructura de este tipo en <fields>.

FILE_IN_STAGING_PATH_ALREADY_EXISTS

SQLSTATE: 42K04

El archivo en la ruta provisional <path> ya existe, pero OVERWRITE no está configurado

FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR

SQLSTATE: 39000

Error en la función proporcionada por el usuario en flatMapGroupsWithState. Motivo: <reason>

FORBIDDEN_DATASOURCE_IN_SERVERLESS

SQLSTATE: 0A000

No se permite consultar el origen <source> de datos en computación sin servidor. Solo se admiten los orígenes de datos de <allowlist> en proceso sin servidor.

FORBIDDEN_KEYWORD_IN_JDBC_QUERY

SQLSTATE: 42000

La opción <queryOption> de consulta no puede contener palabras clave prohibidas. Quite las siguientes palabras clave de la consulta: <keywords>

FORBIDDEN_OPERATION

SQLSTATE: 42809

No se permite la operación <statement> en el <objectType>: <objectName>.

FOREACH_BATCH_USER_FUNCTION_ERROR

SQLSTATE: 39000

Error en la función proporcionada por el usuario en el receptor de lotes foreach. Motivo: <reason>

FOREACH_USER_FUNCTION_ERROR

SQLSTATE: 39000

Error en la función proporcionada por el usuario en el receptor foreach. Motivo: <reason>

FOREIGN_KEY_MISMATCH

SQLSTATE: 42830

Las columnas primarias de clave externa <parentColumns> no coinciden con las columnas secundarias de clave principal <childColumns>.

FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY

SQLSTATE: 42000

No se puede ejecutar este comando porque el nombre externo <objectType> debe no estar vacío.

FOREIGN_TABLE_CONVERSION_UNSUPPORTED

SQLSTATE: 0AKUC

La tabla no es apta para la actualización de UC Foreign a UC External. Reason:

Para más información, consulte FOREIGN_TABLE_CONVERSION_UNSUPPORTED

FOREIGN_VIEW_CONVERSION_UNSUPPORTED

SQLSTATE: 0AKUC

El objeto <objectName> no es apto para la conversión a una vista administrada de UC. Reason:

Para obtener más información, consulte FOREIGN_VIEW_CONVERSION_UNSUPPORTED

FROM_JSON_CONFLICTING_SCHEMA_UPDATES

SQLSTATE: 42601

inferencia de from_json encontró actualizaciones de esquema en conflicto en: <location>

FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA

SQLSTATE: 42601

from_json encontró columnNameOfCorruptRecord (<columnNameOfCorruptRecord>) presente

en un JSON objeto y ya no puede continuar. Configure un valor diferente para

la opción "columnNameOfCorruptRecord".

FROM_JSON_CORRUPT_SCHEMA

SQLSTATE: 42601

la inferencia from_json no pudo leer el esquema almacenado en: <location>

FROM_JSON_INFERENCE_FAILED

SQLSTATE: 42601

from_json no pudo deducir el esquema. Proporcione uno en su lugar.

FROM_JSON_INFERENCE_NOT_SUPPORTED

SQLSTATE: 0A000

La inferencia de from_json solo se admite al definir tablas de transmisión

FROM_JSON_INVALID_CONFIGURATION

SQLSTATE: 42601

from_json configuración no es válida:

Para obtener más información, consulte FROM_JSON_INVALID_CONFIGURATION.

FROM_JSON_SCHEMA_EVOLUTION_FAILED

SQLSTATE: 22KD3

from_json no pudo evolucionar de <old> a <new>

FUNCTION_PARAMETERS_MUST_BE_NAMED

SQLSTATE: 07001

La función <function> requiere parámetros con nombre. Faltan nombres de parámetros: <exprs>. Actualice la llamada de función para agregar nombres para todos los parámetros, por ejemplo, <function>(param_name => ...).

GENERATED_COLUMN_WITH_DEFAULT_VALUE

SQLSTATE: 42623

Una columna no puede tener un valor predeterminado y una expresión de generación, pero la columna <colName> tiene el valor predeterminado: () y la expresión de generación: (<defaultValue><genExpr>).

GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION

SQLSTATE: 56038

Hive 2.2 y versiones anteriores no admiten getTablesByType. Use Hive 2.3 o una versión posterior.

GET_WARMUP_TRACING_FAILED

SQLSTATE: 42601

No se pudo obtener el seguimiento de preparación. Causa: <cause>.

GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED

SQLSTATE: 42601

No se permite la función get_warmup_tracing().

GRAPHITE_SINK_INVALID_PROTOCOL

SQLSTATE: KD000

Protocolo Graphite no válido: <protocol>.

GRAPHITE_SINK_PROPERTY_MISSING

SQLSTATE: KD000

El receptor de Graphite requiere la propiedad "<property>".

GROUPING_COLUMN_MISMATCH

SQLSTATE: 42803

No se encuentra la columna de agrupación (<grouping>) en las columnas de agrupación <groupingColumns>.

GROUPING_ID_COLUMN_MISMATCH

SQLSTATE: 42803

Las columnas de grouping_id (<groupingIdColumn>) no coinciden con las columnas de agrupación (<groupByColumns>).

GROUPING_SIZE_LIMIT_EXCEEDED

SQLSTATE: 54000

El tamaño de los conjuntos de agrupación no puede ser mayor que <maxSize>.

GROUP_BY_AGGREGATE

SQLSTATE: 42903

No se permiten funciones de agregado en GROUP BY, pero se ha encontrado <sqlExpr>.

Para obtener más información, consulte GROUP_BY_AGGREGATE

GROUP_BY_POS_AGGREGATE

SQLSTATE: 42903

GROUP BY <index> hace referencia a una expresión <aggExpr> que contiene una función de agregado. No se permiten funciones de agregado en GROUP BY.

GROUP_BY_POS_OUT_OF_RANGE

SQLSTATE: 42805

GROUP BY position <index> no está en la lista de selección (el intervalo válido es [1, <size>]).

GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE

SQLSTATE: 42822

La expresión <sqlExpr> no se puede usar como expresión de agrupación porque su tipo <dataType> de datos no es un tipo de datos ordenable.

HDFS_HTTP_ERROR

SQLSTATE: KD00F

Al intentar leer desde HDFS, se produjo un error en la solicitud HTTP.

Para obtener más información, consulte HDFS_HTTP_ERROR

HINT_UNSUPPORTED_FOR_JDBC_DIALECT

SQLSTATE: 42822

La opción hint no se admite para el origen de datos JDBC <jdbcDialect>. Los dialectos admitidos son MySQLDialect, OracleDialect y DatabricksDialect.

HIVE_METASTORE_INVALID_PLACEHOLDER_PATH

SQLSTATE: 42K06

La consulta o el comando no se pudieron ejecutar porque la configuración 'spark.databricks.hive.metastore.tablePlaceholderPath' proporcionó una ruta de marcador de posición de tabla de Hive Metastore no válida. Actualice esta configuración con un nuevo valor para proporcionar una ruta de acceso válida y vuelva a ejecutar la consulta o el comando.

HIVE_METASTORE_TABLE_PLACEHOLDER_PATH_NOT_SET

SQLSTATE: 42000

Error en la consulta o comando porque no se establece la ruta de acceso del marcador de posición de la tabla de Metastore de Hive, que es necesaria cuando la ubicación del esquema está en DBFS y la ubicación de la tabla es un objeto o archivo. Establezca spark.databricks.hive.metastore.tablePlaceholderPath en una ruta de acceso a la que tiene acceso y vuelva a ejecutar la consulta o comando.

HLL_INVALID_INPUT_SKETCH_BUFFER

SQLSTATE: 22546

Llamada no válida a <function>; solo se admiten búferes de croquis HLL válidos como entradas (como las producidas por la hll_sketch_agg función).

HLL_INVALID_LG_K

SQLSTATE: 22546

Llamada no válida a <function>; el lgConfigK valor debe estar entre <min> y <max>, ambos incluidos: <value>.

HLL_K_MUST_BE_CONSTANT

SQLSTATE: 42K0E

Llamada no válida a <function>; el K valor debe ser un valor constante, pero tiene una expresión no constante.

HLL_UNION_DIFFERENT_LG_K

SQLSTATE: 22000

Los bocetos tienen valores diferentes lgConfigK : <left> y <right>. Establezca el parámetro allowDifferentLgConfigK a true para llamar a <function> con diferentes valores lgConfigK.

HMS_FEDERATION_SHALLOW_CLONE_NOT_FOUND_IN_UC

SQLSTATE: 22KD1

No se ha podido resolver la ruta de la clonación superficial "<path>" en una tabla de Unity Catalog. Asegúrese de que la tabla existe y está federada en el catálogo de Unity.

HYBRID_ANALYZER_EXCEPTION

SQLSTATE: 0A000

Se produjo un error al intentar resolver una consulta o comando con el analizador de punto fijo heredado, así como con la resolución de un solo paso.

Para obtener más información, consulte HYBRID_ANALYZER_EXCEPTION

IDENTIFIER_TOO_MANY_NAME_PARTS

SQLSTATE: 42601

<identifier> no es un identificador válido, ya que tiene más de <limit> elementos de nombre.

IDENTITY_COLUMNS_DUPLICATED_SEQUENCE_GENERATOR_OPTION

SQLSTATE: 42601

Opción del generador de secuencia de columnas IDENTITY duplicada: <sequenceGeneratorOption>.

IDENTITY_COLUMNS_ILLEGAL_STEP

SQLSTATE: 42611

El paso de columna IDENTITY no puede ser 0.

IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE

SQLSTATE: 428H2

DataType <dataType> no se admite para columnas IDENTITY.

ILLEGAL_DAY_OF_WEEK

SQLSTATE: 22009

Entrada no válida para el día de la semana: <string>.

ILLEGAL_STATE_STORE_VALUE

SQLSTATE: 42601

Valor no válido proporcionado al Almacén de estado

Para obtener más información, consulte ILLEGAL_STATE_STORE_VALUE.

INAPPROPRIATE_URI_SCHEME_OF_CONNECTION_OPTION

SQLSTATE: 42616

No se puede crear la conexión debido a un esquema inadecuado de URI <uri> proporcionado para la opción de conexión '<option>'.

Esquemas permitidos: <allowedSchemes>.

Agregue un esquema si no está presente en el URI o especifique un esquema de los valores permitidos.

INCOMPARABLE_PIVOT_COLUMN

SQLSTATE: 42818

Columna dinámica no válida <columnName>. Las columnas dinámicas deben ser comparables.

LECTURA_DE_VISTA_DE_LOTE_INCOMPATIBLE

SQLSTATE: 42000

View <datasetIdentifier> es una vista por lotes a la que se debe hacer referencia mediante SparkSession#read. Esta comprobación se puede deshabilitar estableciendo spark conf pipelines.incompatibleViewCheck.enabled = false.

INCOMPATIBLE_COLUMN_TYPE

SQLSTATE: 42825

<operator> solo se puede realizar en tablas con tipos de columna compatibles. La columna <columnOrdinalNumber> de la tabla <tableOrdinalNumber> es de tipo <dataType1>, el cual no es compatible con <dataType2> en la misma columna de la primera tabla.<hint>

INCOMPATIBLE_DATASOURCE_REGISTER

SQLSTATE: 56038

Se detectó un DataSourceRegister incompatible. Quita la biblioteca incompatible del classpath o actualízala. Error: <message>

INCOMPATIBLE_DATA_FOR_TABLE

SQLSTATE: KD000

No se pueden escribir datos incompatibles para la tabla <tableName>:

Para obtener más información, consulteINCOMPATIBLE_DATA_FOR_TABLE.

INCOMPATIBLE_JOIN_TYPES

SQLSTATE: 42613

Los tipos de combinación <joinType1> y <joinType2> son incompatibles.

LECTURA_DE_VISTA_DE_STREAMING_INCOMPATIBLE

SQLSTATE: 42000

View <datasetIdentifier> es una vista de streaming y se debe hacer referencia a esta mediante SparkSession#readStream. Esta comprobación se puede deshabilitar estableciendo spark conf pipelines.incompatibleViewCheck.enabled = false.

INCOMPATIBLE_VIEW_SCHEMA_CHANGE

SQLSTATE: 51024

La consulta SQL de la vista <viewName> tiene un cambio de esquema incompatible y no se puede resolver la columna <colName> . Se esperaban <expectedNum> columnas denominadas <colName>, pero se obtuvo <actualCols>.

Intente volver a crear la vista ejecutando: <suggestion>.

INCOMPLETE_TYPE_DEFINITION

SQLSTATE: 42K01

Tipo complejo incompleto:

Para obtener más información, consulte INCOMPLETE_TYPE_DEFINITION

INCONSISTENT_BEHAVIOR_CROSS_VERSION

SQLSTATE: 42K0B

Puede obtener un resultado diferente debido a la actualización a

Para más información, consulte INCONSISTENT_BEHAVIOR_CROSS_VERSION.

INCORRECT_NUMBER_OF_ARGUMENTS

SQLSTATE: 42605

<failure>, <functionName> requiere al menos <minArgs> argumentos y como máximo <maxArgs> argumentos.

INCORRECT_RAMP_UP_RATE

SQLSTATE: 22003

El desplazamiento máximo con <rowsPerSecond> rowsPerSecond es <maxSeconds>, pero "rampUpTimeSeconds" es <rampUpTimeSeconds>.

INDETERMINATE_COLLATION

SQLSTATE: 42P22

No se pudo determinar qué intercalación se va a usar para la operación de cadena. Use la cláusula COLLATE para establecer la intercalación explícitamente.

INDETERMINATE_COLLATION_IN_EXPRESSION

SQLSTATE: 42P22

El tipo de datos de <expr> tiene intercalación indeterminada. Use la cláusula COLLATE para establecer la intercalación explícitamente.

INDETERMINATE_COLLATION_IN_SCHEMA

SQLSTATE: 42P22

El esquema contiene una intercalación indeterminada en: [<columnPaths>]. Use la cláusula COLLATE para establecer la intercalación explícitamente.

INDEX_ALREADY_EXISTS

SQLSTATE: 42710

No se puede crear el índice <indexName> en la tabla <tableName> porque ya existe.

INDEX_NOT_FOUND

SQLSTATE: 42704

No se encuentra el índice <indexName> en la tabla <tableName>.

INET_FUNCTIONS_NOT_ENABLED

SQLSTATE: 0A000

<functionName> está deshabilitado o no es compatible. Las funciones INET aún no están disponibles públicamente.

INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED

SQLSTATE: 0A000

El tipo <trigger> de desencadenador no se admite para este tipo de clúster.

Use un tipo de desencadenador diferente, por ejemplo, AvailableNow, Once.

INSERT_COLUMN_ARITY_MISMATCH

SQLSTATE: 21S01

No se puede escribir en <tableName>, el motivo es

Para obtener más información, consulte INSERT_COLUMN_ARITY_MISMATCH.

INSERT_PARTITION_COLUMN_ARITY_MISMATCH

SQLSTATE: 21S01

No se puede escribir en "<tableName>", <reason>:

Columnas de tabla: <tableColumns>.

Particione columnas con valores estáticos: <staticPartCols>.

Columnas de datos: <dataColumns>.

INSERT_REPLACE_USING_DISALLOW_MISALIGNED_COLUMNS

SQLSTATE: 42000

Todas las columnas de la USING cláusula deben aparecer en la misma posición en los esquemas de destino y de origen. USING No se admite la cláusula que contiene columnas desalineadas.

Las columnas siguientes están mal alineadas: <misalignedReplaceUsingCols>

INSERT_REPLACE_USING_INVALID_SET_OF_COLUMNS

SQLSTATE: 42000

La tabla debe tener particiones y todas las columnas especificadas deben representar el conjunto completo de las columnas de partición de la tabla.

Las columnas siguientes no son columnas de partición: <nonPartitionColumns>

Faltan las siguientes columnas de particiones: <missingPartitionsColumns>

INSERT_REPLACE_USING_NOT_ENABLED

SQLSTATE: 0A000

Póngase en contacto con su representante de Databricks para habilitar la INSERT INTO...REPLACE USING característica (...) .

INSUFFICIENT_PERMISSIONS

SQLSTATE: 42501

Privilegios insuficientes:

<report>

INSUFFICIENT_PERMISSIONS_EXT_LOC

SQLSTATE: 42501

El usuario <user> no tiene privilegios suficientes para la ubicación <location>externa.

INSUFFICIENT_PERMISSIONS_NO_OWNER

SQLSTATE: 42501

No hay ningún propietario para <securableName>. Pida al administrador que establezca un propietario.

INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE

SQLSTATE: 42501

El usuario no es propietario de <securableName>.

INSUFFICIENT_PERMISSIONS_SECURABLE

SQLSTATE: 42501

El usuario no tiene permiso <action> en <securableName>.

INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER

SQLSTATE: 42501

El propietario de <securableName> es diferente del propietario de <parentSecurableName>.

INSUFFICIENT_PERMISSIONS_SPARK_CONNECT_CLIENT_SET_CLOUDFETCH_RETENTION_TIMEOUT

SQLSTATE: 42501

El cliente no tiene permiso para establecer un tiempo de espera de retención personalizado para los resultados de CloudFetch.

INSUFFICIENT_PERMISSIONS_STORAGE_CRED

SQLSTATE: 42501

La credencial <credentialName> de almacenamiento no tiene privilegios suficientes.

INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES

SQLSTATE: 42501

El usuario no puede <action> en <securableName> debido a los permisos que hay en elementos protegibles subyacentes.

INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE

SQLSTATE: 42501

El usuario no puede <action> en <securableName> debido a los permisos que hay en elementos protegibles subyacentes:

<underlyingReport>

INTERVAL_ARITHMETIC_OVERFLOW

SQLSTATE: 22015

Desbordamiento de enteros mientras se trabaja con intervalos.

Para obtener más información, consulte INTERVAL_ARITHMETIC_OVERFLOW

INTERVAL_DIVIDED_BY_ZERO

SQLSTATE: 22012

División por cero. Use try_divide para tolerar que el divisor sea 0 y devuelva NULL en su lugar.

INVALID_AGGREGATE_FILTER

SQLSTATE: 42903

La FILTER expresión <filterExpr> de una función de agregado no es válida.

Para obtener más información, consulte INVALID_AGGREGATE_FILTER

INVALID_AGNOSTIC_ENCODER

SQLSTATE: 42001

Se encontró un codificador independiente no válido. Espera una instancia de AgnosticEncoder, pero tiene <encoderType>. Para obtener más información, consulte '<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html'.

INVALID_ARRAY_INDEX

SQLSTATE: 22003

El índice <indexValue> está fuera de los límites. La matriz tiene <arraySize> elementos. Use la función SQL get() para tolerar el acceso al elemento en un índice no válido y devolver NULL en su lugar.

Para obtener más información, consulte INVALID_ARRAY_INDEX

INVALID_ARRAY_INDEX_IN_ELEMENT_AT

SQLSTATE: 22003

El índice <indexValue> está fuera de los límites. La matriz tiene <arraySize> elementos. Use try_element_at para tolerar el acceso al elemento en un índice no válido y devolver NULL en su lugar.

Para obtener más información, consulte INVALID_ARRAY_INDEX_IN_ELEMENT_AT

INVALID_ARTIFACT_PATH

SQLSTATE: 22023

El artefacto con el nombre <name> no es válido. El nombre debe ser una ruta de acceso relativa y no puede hacer referencia a directorios primarios, relacionados o sobrinos.

INVALID_ATTRIBUTE_NAME_SYNTAX

SQLSTATE: 42601

Error de sintaxis en el nombre del atributo: <name>. Compruebe que los acentos graves aparecen en pares (una cadena entre comillas es una parte completa de un nombre) y use un acento grave solo dentro de las partes del nombre entre comillas.

INVALID_AUTO_TTL_EXPIRE_IN_DAYS

SQLSTATE: 22003

El número de días especificado para el TTL automático debe ser no negativo.

INVALID_AWS_AUTHENTICATION

SQLSTATE: 42000

Elija exactamente uno de los métodos de autenticación siguientes:

  • Proporcione el nombre de la credencial de servicio de Databricks () (<serviceCredential>como una opción de flujo de Spark o como una variable de entorno de clúster).

  • Proporcione tanto AccessKey de AWS (<awsAccessKey>) como SecretAccessKey (<awsSecretKey>) para usar claves de AWS.

  • No proporcione ni las claves de AWS ni una credencial de servicio de Databricks para usar la cadena predeterminada de proveedores de credenciales de AWS para la autenticación de Kinesis.

INVALID_AWS_AUTHENTICATION_EXPLICIT_OPTIONS

SQLSTATE: 42000

Proporcione el nombre de la credencial de servicio de Databricks (<serviceCredential>).

O tanto <awsAccessKey> como <awsSecretKey>

INVALID_BITMAP_POSITION

SQLSTATE: 22003

La posición <bitPosition> del mapa de bits indizado 0 está fuera de los límites. El mapa de bits tiene <bitmapNumBits> bits (<bitmapNumBytes> bytes).

INVALID_BOOLEAN_STATEMENT

SQLSTATE: 22546

Se espera una expresión booleana en la condición, pero <invalidStatement> fue encontrado.

INVALID_BOUNDARY

SQLSTATE: 22003

El límite <boundary> no es válido: <invalidValue>.

Para obtener más información, consulte INVALID_BOUNDARY

INVALID_BUCKET_COLUMN_DATA_TYPE

SQLSTATE: 42601

No se puede usar <type> para la columna bucket. No se admiten tipos de datos intercalados para la creación de cubos.

INVALID_BUCKET_COUNT

SQLSTATE: 22003

El número de cubos debe ser mayor que 0, pero menor o igual que bucketing.maxBuckets (<bucketingMaxBuckets>). Tiene <numBuckets>.

INVALID_BUCKET_FILE

SQLSTATE: 58030

Archivo de contenedor no válido: <path>.

INVALID_BYTE_STRING

SQLSTATE: 22P03

El formato esperado es ByteString, pero era <unsupported> (<class>).

INVALID_CIDR_RANGE

SQLSTATE: 22023

La función <functionName> recibió un intervalo CIDR no válido: <value>.

INVALID_CLONE_SESSION_REQUEST

SQLSTATE: 42K04

Solicitud de clonación de sesión no válida.

Para obtener más información, consulte INVALID_CLONE_SESSION_REQUEST

INVALID_COLUMN_NAME_AS_PATH

SQLSTATE: 46121

El origen de datos <datasource> no puede guardar la columna <columnName> porque su nombre contiene algunos caracteres que no están permitidos en las rutas de archivos. Use un alias para cambiarle el nombre.

INVALID_COLUMN_OR_FIELD_DATA_TYPE

SQLSTATE: 42000

La columna o el campo <name> es de tipo <type> mientras es necesario que sea <expectedType>.

INVALID_CONF_VALUE

SQLSTATE: 22022

El valor '<confValue>' de la configuración "<confName>" no es válido.

Para obtener más información, consulte INVALID_CONF_VALUE

INVALID_CONSTRAINT_CHARACTERISTICS

SQLSTATE: 42613

Las características de restricción [<characteristics>] se duplican o entran en conflicto entre sí.

INVALID_CORRUPT_RECORD_TYPE

SQLSTATE: 42804

La columna <columnName> de los registros dañados debe tener el tipo STRING que admite un valor NULL, pero se obtuvo <actualType>.

INVALID_CURRENT_RECIPIENT_USAGE

SQLSTATE: 42887

La función current_recipient solo se puede usar en la instrucción CREATE VIEW o en la instrucción ALTER VIEW para definir una vista de recurso compartido solo en Unity Catalog.

INVALID_CURSOR

SQLSTATE: HY109

El cursor no es válido.

Para obtener más información, consulte INVALID_CURSOR

INVALID_DATASOURCE_FORMAT_FOR_CONNECTION_OPTIONS_INJECTION

SQLSTATE: 42000

La conexión con el nombre <connectionName> y el tipo <connectionType> no admiten el formato <actualFormat>. Formato admitido: <expectedFormat>.

INVALID_DATASOURCE_OPTION_OVERRIDE_ATTEMPT

SQLSTATE: 42000

La opción <optionName> ya existe en la conexión <connectionName> y no se puede invalidar.

INVALID_DATETIME_PATTERN

SQLSTATE: 22007

Patrón de fecha y hora no reconocido: <pattern>.

Para obtener más información, consulte INVALID_DATETIME_PATTERN

INVALID_DBFS_MOUNT

SQLSTATE: 42KDL

No se puede acceder al montaje de DBFS.

Para obtener más información, consulte INVALID_DBFS_MOUNT

INVALID_DBSQL_CONFIG

SQLSTATE: 42616

<confValue> no se admite para la clave de configuración de SQL. <confKey>

INVALID_DEFAULT_VALUE

SQLSTATE: 42623

No se pudo ejecutar el comando <statement> porque la columna o variable de destino <colName> tiene un valor DEFAULT<defaultValue>,

Para obtener más información, consulte INVALID_DEFAULT_VALUE

INVALID_DELIMITER_VALUE

SQLSTATE: 42602

Valor no válido para el delimitador.

Para obtener más información, consulte INVALID_DELIMITER_VALUE

INVALID_DEST_CATALOG

SQLSTATE: 42809

El catálogo de destino del SYNC comando debe estar dentro del catálogo de Unity. Se encontró <catalog>.

INVALID_DRIVER_MEMORY

SQLSTATE: F0000

La memoria <systemMemory> del sistema debe ser al menos <minSystemMemory>.

Aumente el tamaño del montón mediante la opción --driver-memory o "<config>" en la configuración de Spark.

OPCIONES_INVÁLIDAS_PARA_ELIMINAR_TABLA

SQLSTATE: 42601

No se pueden especificar las opciones PURGE y FORCE en el comando DROP TABLE. Use PURGE o FORCE, pero no ambos.

INVALID_DYNAMIC_OPTIONS

SQLSTATE: 42K10

Las opciones pasadas <option_list> están prohibidas para la tabla externa <table_name>.

INVALID_EMPTY_LOCATION

SQLSTATE: 42K05

El nombre de ubicación no puede ser una cadena vacía, pero <location> se ha proporcionado.

INVALID_ENVIRONMENT_SETTINGS_DEPENDENCIES

SQLSTATE: 42000

Falta el parámetro de dependencias de configuración del entorno o no se pudo analizar en una lista de cadenas. Formato esperado: ["dep1", "dep2"]

INVALID_ENVIRONMENT_SETTINGS_ENVIRONMENT_VERSION

SQLSTATE: 42000

Esta versión en tiempo de ejecución no admite una versión de entorno para orígenes de datos. Valor: <environmentVersion>.

INVALID_ERROR_CONDITION_DECLARATION

SQLSTATE: 42K0R

Declaración de condición no válida.

Para más información, consulte INVALID_ERROR_CONDITION_DECLARATION

INVALID_ESC

SQLSTATE: 42604

Se encontró una cadena de escape no válida: <invalidEscape>. La cadena de escape solo debe contener un carácter.

INVALID_ESCAPE_CHAR

SQLSTATE: 42604

EscapeChar debería ser un literal de cadena de longitud uno, pero se obtuvo <sqlExpr>.

INVALID_EXECUTOR_MEMORY

SQLSTATE: F0000

La memoria <executorMemory> del ejecutor debe ser al menos <minSystemMemory>.

Aumente la memoria del ejecutor mediante la opción --executor-memory o "<config>" en la configuración de Spark.

INVALID_EXPRESSION_ENCODER

SQLSTATE: 42001

Se encontró un codificador de expresiones no válido. Se esperaba una instancia de ExpressionEncoder, pero se obtuvo <encoderType>. Para obtener más información, consulte '<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html'.

INVALID_EXPR_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE

SQLSTATE: 42K09

El tipo de expresión debe ser de tipo de cadena, pero tiene <exprType>.

INVALID_EXTERNAL_TYPE

SQLSTATE: 42K0N

El tipo <externalType> externo no es válido para el tipo <type> en la expresión <expr>.

INVALID_EXTRACT_BASE_FIELD_TYPE

SQLSTATE: 42000

No se puede extraer un valor de <base>. Necesita un tipo complejo [STRUCT, ARRAY, MAP] pero tiene <other>.

INVALID_EXTRACT_FIELD

SQLSTATE: 42601

No se puede extraer <field> de <expr>.

INVALID_EXTRACT_FIELD_TYPE

SQLSTATE: 42000

El nombre del campo debe ser un literal de cadena no NULL, pero es <extraction>.

INVALID_FIELD_NAME

SQLSTATE: 42000

El nombre del campo <fieldName> no es válido: <path> no es una estructura.

INVALID_FLOW_QUERY_TYPE

SQLSTATE: 42000

Flow <flowIdentifier> devuelve un tipo de relación no válido.

Para obtener más información, consulte INVALID_FLOW_QUERY_TYPE

INVALID_FORMAT

SQLSTATE: 42601

El formato no es válido: <format>.

Para obtener más información, consulte INVALID_FORMAT

INVALID_FRACTION_OF_SECOND

SQLSTATE: 22023

El intervalo válido para segundos es [0, 60] (incluido), pero el valor proporcionado es <secAndMicros>. Para evitar este error, use try_make_timestamp, que devuelve NULL si ocurre un error.

Si no desea usar la versión de marca de tiempo predeterminada de la sesión de esta función, use try_make_timestamp_ntz o try_make_timestamp_ltz.

INVALID_GET_DIAGNOSTICS_USAGE

SQLSTATE: 42612

Uso no válido de la instrucción GETDIAGNOSTICS.

Para más información, consulte INVALID_GET_DIAGNOSTICS_USAGE

INVALID_GET_DIAGNOSTICS_USAGE_CONDITION_NUMBER_MUST_BE_ONE

SQLSTATE: 35000

Uso no válido de la instrucción GETDIAGNOSTICS. El único valor admitido para un número de condición en la GETDIAGNOSTICS instrucción es 1.

INVALID_HANDLE

SQLSTATE: HY000

El identificador <handle> no es válido.

Para obtener más información, consulte INVALID_HANDLE

INVALID_HANDLER_DECLARATION

SQLSTATE: 42K0Q

Declaración de controlador no válida.

Para más información, consulte INVALID_HANDLER_DECLARATION

INVALID_HTTP_REQUEST_METHOD

SQLSTATE: 22023

El parámetro de entrada: método, valor: <paramValue> no es un parámetro válido para http_request porque no es un método HTTP válido.

INVALID_HTTP_REQUEST_PATH

SQLSTATE: 22023

El parámetro de entrada: path, value: <paramValue> no es un parámetro válido para http_request porque no se permite el recorrido de ruta de acceso.

INVALID_IDENTIFIER

SQLSTATE: 42602

El identificador <ident> sin comillas no es válido y debe estar entre comillas como: <ident>.

Los identificadores sin comillas solo pueden contener letras ASCII ("a" - "z", "A" - "Z"), dígitos ("0" - "9") y guion bajo ('_').

Los identificadores sin comillas tampoco deben comenzar con un dígito.

Los distintos orígenes de datos y metastores pueden imponer restricciones adicionales a los identificadores válidos.

INVALID_INDEX_OF_ZERO

SQLSTATE: 22003

El índice 0 no es válido. Un índice será < 0 or > 0 (el primer elemento tiene el índice 1).

INVALID_INLINE_TABLE

SQLSTATE: 42000

Tabla insertada no válida.

Para obtener más información, consulte INVALID_INLINE_TABLE

INVALID_INTERVAL_FORMAT

SQLSTATE: 22006

Error al analizar "<input>" para el intervalo. Asegúrese de que el valor proporcionado está en un formato válido para definir un intervalo. Puede hacer referencia a la documentación del formato correcto.

Para obtener más información, consulte INVALID_INTERVAL_FORMAT

INVALID_INTERVAL_WITH_MICROSECONDS_ADDITION

SQLSTATE: 22006

No se puede agregar un intervalo a una fecha porque su parte de microsegundos no es 0. Para resolverlo, convierta la fecha de entrada en una marca de tiempo, que admite la adición de intervalos con microsegundos distintos de cero.

INVALID_IP_ADDRESS

SQLSTATE: 22023

La función <functionName> recibió una dirección IP no válida: <value>.

INVALID_IP_ADDRESS_OR_CIDR_RANGE

SQLSTATE: 22023

La función <functionName> recibió una dirección IP no válida o un intervalo CIDR: <value>.

INVALID_JAVA_IDENTIFIER_AS_FIELD_NAME

SQLSTATE: 46121

<fieldName> no es un identificador válido de Java y no se puede usar como nombre de campo

<walkedTypePath>.

INVALID_JDBC_CONNECTION_OPTION

SQLSTATE: 42616

La opción <optionKey> no es un parámetro válido para esta conexión jdbc.

INVALID_JDBC_CONNECTION_OPTION_VALUE

SQLSTATE: 42616

La opción <optionKey> con un valor <optionValue> no es una opción válida para esta conexión jdbc.

INVALID_JOIN_TYPE_FOR_JOINWITH

SQLSTATE: 42613

Tipo de combinación no válido en joinWith: <joinType>.

INVALID_JSON_DATA_TYPE

SQLSTATE: 2203G

No se pudo convertir la JSON cadena '<invalidType>' en un tipo de datos. Escriba un tipo de datos válido.

INVALID_JSON_DATA_TYPE_FOR_COLLATIONS

SQLSTATE: 2203G

Las intercalaciones solo se pueden aplicar a los tipos de cadena, pero el JSON tipo de datos es <jsonType>.

INVALID_JSON_RECORD_TYPE

SQLSTATE: 22023

Se detectó un tipo no válido de un JSON registro al deducir un esquema común en el modo <failFastMode>. Se esperaba un STRUCT tipo, pero se encontró <invalidType>.

INVALID_JSON_ROOT_FIELD

SQLSTATE: 22032

No se puede convertir el JSON campo raíz al tipo de Spark de destino.

INVALID_JSON_SCHEMA_MAP_TYPE

SQLSTATE: 22032

El esquema de entrada <jsonSchema> solo puede contener STRING como un tipo de clave para un MAP.

INVALID_KRYO_SERIALIZER_BUFFER_SIZE

SQLSTATE: F0000

El valor de la configuración "<bufferSizeConfKey>" debe ser inferior a 2048 MiB, pero tiene <bufferSizeConfValue> MiB.

INVALID_KRYO_SERIALIZER_NO_DATA (Serializador Kryo inválido, sin datos)

SQLSTATE: 22002

El objeto '<obj>' no es válido o tiene un formato incorrecto para usar en <serdeOp> con <serdeClass>.

INVALID_LABEL_USAGE

SQLSTATE: 42K0L

El uso de la etiqueta <labelName> no es válido.

Para obtener más información, consulte INVALID_LABEL_USAGE

INVALID_LAMBDA_FUNCTION_CALL

SQLSTATE: 42K0D

Llamada de función lambda no válida.

Para más información, consulte INVALID_LAMBDA_FUNCTION_CALL.

INVALID_LATERAL_JOIN_TYPE

SQLSTATE: 42613

No se permite <joinType>JOIN con la correlación LATERAL porque una subconsulta OUTER no se puede correlacionar con su asociado de combinación. Quite la correlación LATERAL o use INNERJOIN o LEFT OUTERJOIN en su lugar.

INVALID_LIMIT_LIKE_EXPRESSION

SQLSTATE: 42K0E

El límite como la expresión <expr> no es válido.

Para más información, consulte INVALID_LIMIT_LIKE_EXPRESSION.

INVALID_LOG_VERSION

SQLSTATE: KD002

UnsupportedLogVersion.

Para obtener más información, consulte INVALID_LOG_VERSION

INVALID_NAME_IN_USE_COMMAND

SQLSTATE: 42000

Nombre '<name>' no válido en el comando <command>. Motivo: <reason>

INVALID_NON_ABSOLUTE_PATH

SQLSTATE: 22KD1

No se puede calificar la ruta de acceso no absoluta <path> proporcionada. Actualice la ruta de acceso para que sea una ubicación de montaje de dbfs válida.

INVALID_NON_DETERMINISTIC_EXPRESSIONS

SQLSTATE: 42K0E

El operador espera una expresión determinista, pero la expresión real es <sqlExprs>.

INVALID_NUMERIC_LITERAL_RANGE

SQLSTATE: 22003

El literal <rawStrippedQualifier> numérico está fuera del intervalo válido para <typeName> con el valor mínimo de <minValue> y el valor máximo de <maxValue>. Ajuste el valor en consecuencia.

INVALID_OBSERVED_METRICS

SQLSTATE: 42K0E

Métricas observadas no válidas.

Para más información, consulte INVALID_OBSERVED_METRICS

INVALID_OPTIONS

SQLSTATE: 42K06

Opciones no válidas:

Para obtener más información, consulte INVALID_OPTIONS

INVALID_PANDAS_UDF_PLACEMENT

SQLSTATE: 0A000

La función UDF de agregación de grupo de Pandas <functionList> no se puede invocar junto con otras funciones de agregación que no sean de Pandas.

INVALID_PARAMETER_MARKER_VALUE

SQLSTATE: 22023

Se proporcionó una asignación de parámetros no válida:

Para obtener más información, consulte INVALID_PARAMETER_MARKER_VALUE

INVALID_PARAMETER_VALUE

SQLSTATE: 22023

El valor del parámetro o parámetros <parameter> en<functionName> no es válido:

Para obtener más información, consulte INVALID_PARAMETER_VALUE

INVALID_PARTITION_COLUMN_DATA_TYPE

SQLSTATE: 0A000

No se puede usar <type> para la columna de partición.

INVALID_PARTITION_OPERATION

SQLSTATE: 42601

El comando de partición no es válido.

Para obtener más información, consulte INVALID_PARTITION_OPERATION.

INVALID_PARTITION_VALUE

SQLSTATE: 42846

No se pudo convertir el valor <value> al tipo <dataType> de datos para la columna <columnName>de partición . Asegúrese de que el valor coincide con el tipo de datos esperado para esta columna de partición.

INVALID_PIPELINE_ID

SQLSTATE: 42604

El identificador <pipelineId> de canalización no es válido.

Un identificador de canalización debe ser un UUID en el formato "xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx".

INVALID_PRIVILEGE

SQLSTATE: 42852

El privilegio <privilege> no es válido para <securable>.

INVALID_PROPERTY_KEY

SQLSTATE: 42602

<key> es una clave de propiedad no válida, use comillas, por ejemplo, SET <key>=<value>.

INVALID_PROPERTY_VALUE

SQLSTATE: 42602

<value> es un valor de propiedad no válido, use comillas, por ejemplo, SET <key>=<value>

INVALID_QUALIFIED_COLUMN_NAME

SQLSTATE: 42000

El nombre <columnName> de columna no es válido porque no está calificado con un nombre de tabla o consta de más de 4 partes de nombre.

INVALID_QUERY_MIXED_QUERY_PARAMETERS

SQLSTATE: 42613

La consulta con parámetros debe usar parámetros posicionales o con nombre, pero no ambos.

INVALID_RECURSIVE_CTE

SQLSTATE: 42836

Se encontró una definición recursiva no válida. Las consultas recursivas deben contener una instrucción UNION o una instrucción UNION ALL con 2 elementos secundarios. El primer elemento secundario debe ser el término marcador sin referencias recursivas. Cualquier CTE interno de nivel superior no debe contener referencias independientes.

INVALID_RECURSIVE_REFERENCE

SQLSTATE: 42836

Referencia recursiva no válida encontrada dentro WITH RECURSIVE de la cláusula .

Para obtener más información, consulte INVALID_RECURSIVE_REFERENCE

INVALID_REGEXP_REPLACE

SQLSTATE: 22023

No se pudo realizar regexp_replace para source = "<source>", pattern = "<pattern>", replacement = "<replacement>" y position = <position>.

DEPENDENCIA_REINICIABLE_INVÁLIDA

SQLSTATE: 42000

Las tablas <upstreamResettableTables> se pueden restablecer, pero tienen una dependencia descendente que no se puede restablecer "<downstreamTable>". reset producirá un error, ya que Spark Streaming no admite los datos de origen eliminados. Puede quitar la <resetAllowedKey> propiedad =false de "<downstreamTable>" o agregarla a sus dependencias superiores.

INVALID_RESET_COMMAND_FORMAT

SQLSTATE: 42000

El formato esperado es "RESET" o "clave RESET". Si desea incluir caracteres especiales en la clave, use comillas, por ejemplo, RESET key.

INVALID_RESIGNAL_USAGE

SQLSTATE: 0K000

RESIGNAL cuando el controlador no está activo. La instrucción RESIGNAL solo se puede usar dentro del cuerpo del controlador de excepciones.

INVALID_S3_COPY_CREDENTIALS

SQLSTATE: 42501

COPY INTO Las credenciales deben incluir AWS_ACCESS_KEY, AWS_SECRET_KEY, y AWS_SESSION_TOKEN.

INVALID_SAVE_MODE

SQLSTATE: 42000

El modo <mode> de guardado especificado no es válido. Los modos de guardado válidos incluyen "append" (añadir), "overwrite" (sobrescribir), "ignore" (ignorar), "error", "errorifexists" y "default".

INVALID_SCHEMA

SQLSTATE: 42K07

El esquema <inputSchema> de entrada no es una cadena de esquema válida.

Para obtener más información, consulte INVALID_SCHEMA

INVALID_SCHEMA_OR_RELATION_NAME

SQLSTATE: 42602

<name> no es un nombre válido para tablas o esquemas. Solo se admiten nombres con caracteres alfabéticos, números y _.

INVALID_SCHEMA_TYPE_NON_STRUCT

SQLSTATE: 42K09

Tipo de esquema no válido. Espere un tipo de estructura, pero tenga <dataType>.

INVALID_SCHEME

SQLSTATE: 0AKUC

El catálogo de Unity no admite <name> como esquema de archivo predeterminado.

INVALID_SECRET_LOOKUP

SQLSTATE: 22531

Búsqueda de secretos no válida:

Para obtener más información, consulte INVALID_SECRET_LOOKUP

INVALID_SET_SYNTAX

SQLSTATE: 42000

El formato esperado es "SET", "SET key" o "SET key=value". Si desea incluir caracteres especiales en la clave o incluir punto y coma en el valor, use comillas inversas, por ejemplo, SET key=value.

INVALID_SHARED_ALIAS_NAME

SQLSTATE: 42601

El <sharedObjectType> nombre del alias debe tener el formato "schema.name".

INVALID_SINGLE_VARIANT_COLUMN

SQLSTATE: 42613

El esquema <schema> especificado por el usuario no es válido cuando la singleVariantColumn opción está habilitada. El esquema debe ser un campo variable o un campo variable más un campo de columna corrupto.

INVALID_SOURCE_CATALOG

SQLSTATE: 42809

El catálogo de origen no debe estar dentro del catálogo de Unity para el SYNC comando. Se encontró <catalog>.

INVALID_SOURCE_FOR_FILTERING_SERVICE_MERGE_COMMAND

SQLSTATE: 42KDH

El origen de la operación del servicio MERGE de filtrado solo puede contener proyecciones y filtros.

Ajuste el comando MERGE o utilice una tabla de almacenamiento provisional como fuente.

<stmt>

INVALID_SPARK_CONFIG

SQLSTATE: 42616

Configuración de Spark no válida:

Para obtener más información, consulte INVALID_SPARK_CONFIG

INVALID_SQLSTATE

SQLSTATE: 428B3

Valor no válido SQLSTATE : '<sqlState>'. SQLSTATE debe tener exactamente 5 caracteres y contener solo A-Z y 0-9. SQLSTATE no debe empezar por '00', '01' ni 'XX'.

INVALID_SQL_ARG

SQLSTATE: 42K08

El argumento <name> de sql() no es válido. Considere la posibilidad de reemplazarlo por un literal de SQL o por funciones de constructor de colección como map(), array(), struct().

INVALID_SQL_FUNCTION_DATA_ACCESS

SQLSTATE: 42K0E

No se puede crear una función SQL con CONTAINS SQL que tenga acceso a una tabla o vista o una función SQL que lea datos SQL. READS Use SQL DATA en su lugar.

INVALID_SQL_SYNTAX

SQLSTATE: 42000

Sintaxis SQL no válida:

Para obtener más información, consulte INVALID_SQL_SYNTAX

INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY

SQLSTATE: 42604

Ruta de acceso de almacenamiento provisional no válida en la consulta <operation> de almacenamiento provisional: <path>

INVALID_STATEMENT_FOR_EXECUTE_INTO

SQLSTATE: 07501

La INTO cláusula de EXECUTE IMMEDIATE solo es válida para las consultas, pero la declaración dada no es una consulta: <sqlString>.

INVALID_STATEMENT_OR_CLAUSE

SQLSTATE: 42601

La instrucción o cláusula : <operation> no es válida.

INVALID_STREAMING_RATE_SOURCE_VERSION

SQLSTATE: 22023

Versión no válida para la fuente de tarifa: <version>. La versión debe ser 1 o 2.

INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_INTERVAL

SQLSTATE: 22023

El intervalo de desencadenador en tiempo real se ha establecido en <interval> ms. Esto es menor que el <minBatchDuration> mínimo de ms especificado por spark.databricks.streaming.realTimeMode.minBatchDuration.

INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_OVERRIDE_INTERVAL

SQLSTATE: 22023

No se ha podido analizar el intervalo de puntos de control del desencadenador en tiempo real de <interval>. Compruebe que ha pasado un entero positivo.

INVALID_SUBQUERY_EXPRESSION

SQLSTATE: 42823

Subconsulta no válida:

Para obtener más información, consulte INVALID_SUBQUERY_EXPRESSION

INVALID_TARGET_FOR_ALTER_COMMAND

SQLSTATE: 42809

ALTER <commandTableType> ... <command> no admite <tableName>. ALTER <targetTableType> ... <command> Use en su lugar.

INVALID_TARGET_FOR_SET_TBLPROPERTIES_COMMAND

SQLSTATE: 42809

ALTER <commandTableType> ... SET TBLPROPERTIES no admite <tableName>. ALTER <targetTableType> ... SET TBLPROPERTIES Use en su lugar.

INVALID_TEMP_OBJ_REFERENCE

SQLSTATE: 42K0F

No se puede crear el objeto <objName> persistente del tipo <obj> porque hace referencia al objeto <tempObjName> temporal del tipo <tempObj>. Haga que el objeto <tempObjName> temporal sea persistente o que el objeto <objName> persistente sea temporal.

INVALID_TIMESTAMP_FORMAT

SQLSTATE: 22000

La marca <timestamp> de tiempo proporcionada no coincide con la sintaxis <format>esperada.

INVALID_TIMEZONE

SQLSTATE: 22009

La zona horaria: <timeZone> no es válida. La zona horaria debe ser un identificador de zona basado en una región o un desplazamiento de zona. Los identificadores de región deben tener el formato "área/ciudad", como "América/Los_Angeles". Los desplazamientos de zona deben estar en el formato '(+|-)HH', '(+|-)HH:mm' o '(+|-)HH:mm:ss', por ejemplo '-08', '+01:00' o '-13:33:33', y deben estar en el intervalo de -18:00 a +18:00. 'Z' y 'UTC' se aceptan como sinónimos de '+00:00'.

INVALID_TIME_TRAVEL_SPEC

SQLSTATE: 42K0E

No se puede especificar ni la versión ni la marca de tiempo al hacer viajes en el tiempo con la tabla.

INVALID_TIME_TRAVEL_TIMESTAMP_EXPR

SQLSTATE: 42K0E

La expresión <expr> de marca de tiempo de viaje en el tiempo no es válida.

Para más información, consulte INVALID_TIME_TRAVEL_TIMESTAMP_EXPR.

INVALID_TYPED_LITERAL

SQLSTATE: 42604

El valor del literal con tipo <valueType> no es válido: <value>.

INVALID_UDF_IMPLEMENTATION

SQLSTATE: 38000

La función <funcName> no implementa scalarFunction ni AggregateFunction.

INVALID_UPGRADE_SYNTAX

SQLSTATE: 42809

<command> <supportedOrNot> la tabla de origen está en Metastore de Hive y la tabla de destino está en el catálogo de Unity.

INVALID_URL

SQLSTATE: 22P02

La dirección URL no es válida: <url>. Use try_parse_url para tolerar direcciones URL no válidas y devolver NULL en su lugar.

INVALID_USAGE_OF_STAR_OR_REGEX

SQLSTATE: 42000

Uso no válido de <elem> en <prettyName>.

INVALID_UTF8_STRING

SQLSTATE: 22029

Secuencia de bytes UTF-8 no válida encontrada en la cadena: <str>.

INVALID_UUID

SQLSTATE: 42604

La entrada <uuidInput> no es un UUID válido.

El UUID debe tener el formato "xxxxxxxx-xxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx".

Compruebe el formato del UUID.

INVALID_VARIABLE_DECLARATION

SQLSTATE: 42K0M

Declaración de variable no válida.

Para obtener más información, consulte INVALID_VARIABLE_DECLARATION.

INVALID_VARIANT_CAST

SQLSTATE: 22023

El valor variante <value> no se puede convertir en <dataType>. Utilice try_variant_get en su lugar.

INVALID_VARIANT_FROM_PARQUET

SQLSTATE: 22023

Variante no válida.

Para obtener más información, consulte INVALID_VARIANT_FROM_PARQUET.

INVALID_VARIANT_GET_PATH

SQLSTATE: 22023

La ruta de acceso <path> no es una ruta de extracción de variantes válida en <functionName>.

Una ruta de acceso válida debe comenzar con $ y va seguida de cero o más segmentos como [123], .name, ['name'], o ["name"].

INVALID_VARIANT_SHREDDING_SCHEMA

SQLSTATE: 22023

El esquema no es un esquema <schema> de fragmentación de variantes válido.

INVALID_WHERE_CONDITION

SQLSTATE: 42903

La WHERE condición <condition> contiene expresiones no válidas: <expressionList>.

Reescriba la consulta para evitar funciones de ventana, funciones de agregado y funciones de generador en la cláusula WHERE.

INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC

SQLSTATE: 42601

No se puede especificar ORDER BY ni un marco de ventana para <aggFunc>.

INVALID_WITHIN_GROUP_EXPRESSION

SQLSTATE: 42K0K

Función <funcName> no válida con WITHIN GROUP.

Para más información, consulte INVALID_WITHIN_GROUP_EXPRESSION

INVALID_WRITER_COMMIT_MESSAGE

SQLSTATE: 42KDE

El escritor del origen de datos ha generado un número no válido de mensajes de confirmación. Se esperaba exactamente un mensaje de confirmación de escritor de cada tarea, pero se recibió <detail>.

INVALID_WRITE_DISTRIBUTION

SQLSTATE: 42000

La distribución de escritura solicitada no es válida.

Para más información, consulte INVALID_WRITE_DISTRIBUTION.

IRC_CREDENTIAL_VENDING_ERROR

SQLSTATE: 08006

Error al conectarse al host IRC, no se pueden vender las credenciales de la tabla <tableIdentifier>.

Para obtener más información, consulte IRC_CREDENTIAL_VENDING_ERROR

ISOLATED_COMMAND_FAILURE

SQLSTATE: 39000

No se pudo ejecutar <command>. Salida del comando:

<output>

ISOLATED_COMMAND_UNKNOWN_FAILURE

SQLSTATE: 39000

No se pudo ejecutar <command>.

ISOLATION_ENVIRONMENT_ERROR

SQLSTATE: 39000

No se pudieron instalar las dependencias del entorno para <name> debido a un error del sistema.

Para obtener más información, consulte ISOLATION_ENVIRONMENT_ERROR

ISOLATION_ENVIRONMENT_USER_ERROR

SQLSTATE: 39000

No se pudieron instalar las dependencias del entorno para <name>.

Para obtener más información, consulte ISOLATION_ENVIRONMENT_USER_ERROR

JDBC_EXTERNAL_ENGINE_SYNTAX_ERROR

SQLSTATE: 42000

Error de sintaxis del motor externo JDBC. El error se debió a la consulta <jdbcQuery>. <externalEngineError>.

Para obtener más información, consulte JDBC_EXTERNAL_ENGINE_SYNTAX_ERROR

JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE

SQLSTATE: 42K0E

La condición de combinación <joinCondition> tiene el tipo <conditionType> no válido, se esperaba "BOOLEAN".

KAFKA_DATA_LOSS

SQLSTATE: 22000

Es posible que algunos datos se hayan perdido porque ya no están disponibles en Kafka;

o Kafka ha eliminado los datos o el tema puede haberse eliminado antes de que se

procesaran todos sus datos.

Si no desea que se produzca un error en la consulta de streaming en estos casos, establezca la opción de origen failOnDataLoss en false.

Reason:

Para obtener más información, consulte KAFKA_DATA_LOSS

KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET

SQLSTATE: 22000

No se pudo leer hasta el número de secuencia deseado <endSeqNum> para la partición <shardId> en

la secuencia de Kinesis <stream> con el modo de consumidor <consumerMode>. Se producirá un error en la consulta debido a

posible pérdida de datos. El último registro leído estaba en el número de secuencia <lastSeqNum>.

Esto puede ocurrir si los datos con endSeqNum ya se han eliminado, o si la secuencia de Kinesis se había

eliminado y reconstruido con el mismo nombre. El comportamiento del error se puede invalidar

estableciendo spark.databricks.kinesis.failOnDataLoss en false en la configuración de Spark.

KINESIS_EFO_CONSUMER_NOT_FOUND

SQLSTATE: 51000

En el caso de la secuencia de Kinesis <streamId>, se ha eliminado de la secuencia el consumidor EFO <consumerId> registrado anteriormente.

Reinicie la consulta para que se registre un nuevo consumidor.

KINESIS_EFO_SUBSCRIBE_LIMIT_EXCEEDED

SQLSTATE: 51000

En el caso de la partición <shard>, la llamada anterior de subscribeToShard API estaba dentro de los 5 segundos de la siguiente llamada.

Reinicie la consulta después de 5 segundos o más.

KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD

SQLSTATE: 42K04

El shardId mínimo capturado de Kinesis (<fetchedShardId>)

es menor que el shardId mínimo de seguimiento (<trackedShardId>).

Esto es inesperado y se produce cuando se elimina una secuencia de Kinesis y se vuelve a crear con el mismo nombre,

y una consulta de streaming mediante esta secuencia de Kinesis se reinicia usando una ubicación de punto de control existente.

Reinicie la consulta de streaming con una nueva ubicación de punto de control o cree una secuencia con un nuevo nombre.

KINESIS_POLLING_MODE_UNSUPPORTED

SQLSTATE: 0A000

No se admite el modo de sondeo de Kinesis.

KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION

SQLSTATE: 22000

Para la partición <shard>, el último registro leído de Kinesis en las capturas anteriores tiene el número de secuencia <lastSeqNum>,

que es mayor que el registro leído en la captura actual con el número de secuencia <recordSeqNum>.

Esto es inesperado y puede ocurrir cuando la posición inicial del reintento o la siguiente captura se inicializa incorrectamente y puede dar lugar a registros duplicados de bajada.

KINESIS_SOURCE_MUST_BE_IN_EFO_MODE_TO_CONFIGURE_CONSUMERS

SQLSTATE: 42KDF

Para leer de Kinesis Streams con configuraciones de consumidor (consumerName, consumerNamePrefix, o registeredConsumerId), consumerMode debe ser efo.

KINESIS_SOURCE_MUST_SPECIFY_REGISTERED_CONSUMER_ID_AND_TYPE

SQLSTATE: 42KDF

Para leer de Kinesis Streams con consumidores registrados, debe especificar las opciones registeredConsumerId y registeredConsumerIdType.

KINESIS_SOURCE_MUST_SPECIFY_STREAM_NAMES_OR_ARNS

SQLSTATE: 42KDF

Para leer desde Kinesis Streams, debe configurar una de las opciones streamName o streamARN, pero no ambas, como una lista separada por comas de nombres de secuencias o ARN.

KINESIS_SOURCE_NO_CONSUMER_OPTIONS_WITH_REGISTERED_CONSUMERS

SQLSTATE: 42KDF

Para leer de Kinesis Streams con consumidores registrados, no configure las opciones consumerName y consumerNamePrefix, ya que no surtirán efecto.

KINESIS_SOURCE_REGISTERED_CONSUMER_ID_COUNT_MISMATCH

SQLSTATE: 22023

El número de identificadores de consumidor registrados debe ser igual al número de secuencias de Kinesis, pero tiene <numConsumerIds> identificadores de consumidor y <numStreams> secuencias.

KINESIS_SOURCE_REGISTERED_CONSUMER_NOT_FOUND

SQLSTATE: 22023

No se puede encontrar el consumidor registrado <consumerId> proporcionado para streamARN <streamARN>. Compruebe que ha registrado al consumidor o que no se proporciona la opción registeredConsumerId.

KINESIS_SOURCE_REGISTERED_CONSUMER_TYPE_INVALID

SQLSTATE: 22023

El tipo <consumerType> de consumidor registrado no es válido. Debe ser o nameARN.

KLL_SKETCH_INCOMPATIBLE_MERGE

SQLSTATE: 22000

Para la función <functionName>, no se pueden combinar bocetos KLL: <reason>

KLL_SKETCH_INVALID_INPUT

SQLSTATE: 22000

Para la función <functionName>, datos binarios de croquis KLL no válidos: <reason>

KLL_SKETCH_INVALID_QUANTILE_RANGE

SQLSTATE: 22003

Para la función <functionName>, el valor cuantil debe estar comprendido entre 0,0 y 1,0 (ambos incluidos), pero tiene <quantile>.

KLL_SKETCH_K_MUST_BE_CONSTANT

SQLSTATE: 42K0E

Para la función <functionName>, el parámetro k debe ser un valor constante, pero tiene una expresión no constante.

KLL_SKETCH_K_OUT_OF_RANGE

SQLSTATE: 22003

Para la función <functionName>, el parámetro k debe estar comprendido entre 8 y 65535 (ambos incluidos), pero tiene <k>.

KRYO_BUFFER_OVERFLOW

SQLSTATE: 54006

Error de serialización de Kryo: <exceptionMsg>. Para evitar esto, aumente el valor "<bufferSizeConfKey>".

LABELS_MISMATCH

SQLSTATE: 42K0L

Etiqueta de inicio <beginLabel> no coincide con la etiqueta final <endLabel>.

ETIQUETA_O_PARA_VARIABLE_YA_EXISTE

SQLSTATE: 42K0L

La etiqueta o FOR variable <label> ya existe. Elija otro nombre o cambie el nombre del existente.

LABEL_OR_FOR_VARIABLE_NAME_FORBIDDEN

SQLSTATE: 42K0L

Se prohíbe el nombre de la etiqueta o de la variable FOR<label>.

LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION

SQLSTATE: 0A000

El origen de datos de federación de Lakehouse '<provider>' requiere una versión más reciente de Databricks Runtime.

Para más información, consulte LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION

LATERAL_JOIN_WITH_ARROW_UDTF_UNSUPPORTED

SQLSTATE: 0A000

LATERAL JOIN No se admiten las funciones de tabla definidas por el usuario (UDTF) optimizadas para Arrow. Las UDTF de Arrow no se pueden usar en el lado derecho de una combinación lateral.

Utilice un UDTF normal en su lugar o reestructure la consulta para evitar la unión lateral.

LEGACY_CREATE_TEMP_TABLE_WITHOUT_PROVIDER_NOT_SUPPORTED

SQLSTATE: 0A000

CREATE TEMPORARY TABLE sin un proveedor no está permitido.

LOAD_DATA_PATH_NOT_EXISTS

SQLSTATE: 42K03

La ruta de acceso de entrada de LOAD DATA no existe: <path>.

LOCAL_MUST_WITH_SCHEMA_FILE

SQLSTATE: 42601

LOCAL debe usarse junto con el esquema de file, pero obtuvo: <actualSchema>.

LOCATION_ALREADY_EXISTS

SQLSTATE: 42710

No se puede asignar un nombre a la tabla administrada como <identifier>, ya que su ubicación <location> asociada ya existe. Elija un nombre de tabla diferente o quite primero la ubicación existente.

LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW

SQLSTATE: KD000

Algunas de las particiones de los temas de Kafka se han perdido durante la ejecución de la consulta con Trigger.AvailableNow. El error podría ser transitorio: reinicie la consulta e informe si sigue viendo el mismo problema.

particiones de temas para el desplazamiento más reciente: <tpsForLatestOffset>, particiones de temas para el desplazamiento final: <tpsForEndOffset>

MALFORMED_AVRO_MESSAGE

SQLSTATE: KD000

Se detectan mensajes Avro con formato incorrecto durante la deserialización. Modo de análisis: <mode>. Para procesar el mensaje Avro con formato incorrecto como un resultado null, intente establecer la opción "mode" como "PERMISSIVE".

MALFORMED_CHARACTER_CODING

SQLSTATE: 22000

Se encontró un valor no válido al realizar <function> con <charset>

MALFORMED_CSV_RECORD

SQLSTATE: KD000

Registro CSV con formato incorrecto: <badRecord>

MALFORMED_LOG_FILE

SQLSTATE: KD002

Archivo de registro con formato incorrecto: no se pudo leer la versión de registro correcta de <text>.

MALFORMED_PROTOBUF_MESSAGE

SQLSTATE: 42K0G

Los mensajes de Protobuf con formato incorrecto se detectan durante la deserialización de mensajes. Modo de análisis: <failFastMode>. Para procesar el mensaje de Protobuf con formato incorrecto con un resultado null, intente establecer la opción "mode" en "PERMISSIVE".

MALFORMED_RECORD_IN_PARSING

SQLSTATE: 22023

Se detectan registros con formato incorrecto en el análisis de registros: <badRecord>.

Modo de análisis: <failFastMode>. Para procesar registros con un formato incorrecto como un resultado null, pruebe a establecer la opción "mode" como "PERMISSIVE".

Para más información, consulte MALFORMED_RECORD_IN_PARSING.

MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE

SQLSTATE: 22000

Estado con formato incorrecto en el origen RatePerMicroBatch.

Para más información, consulte MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE

MALFORMED_VARIANT

SQLSTATE: 22023

El binario variante tiene un formato incorrecto. Compruebe que el origen de datos es válido.

MANAGED_ICEBERG_ATTEMPTED_TO_ENABLE_CLUSTERING_WITHOUT_DISABLING_DVS_OR_ROW_TRACKING

SQLSTATE: 0A000

Se intentó habilitar los clústeres de Liquid en una tabla administrada de Apache Iceberg sin desactivar los vectores de eliminación ni el seguimiento de filas. Los vectores de eliminación y el seguimiento de filas no son compatibles con las tablas administradas de Apache Iceberg, pero son necesarios para la simultaneidad a nivel de fila con las tablas Liquid. Para habilitar el clustering líquido en una tabla de Apache Iceberg gestionado con un control de concurrencia reducido, los vectores de eliminación y el seguimiento de filas deben deshabilitarse para esta tabla.

MANAGED_ICEBERG_OPERATION_NOT_SUPPORTED

SQLSTATE: 0A000

Las tablas de Apache Iceberg administradas no admiten <operation>.

MANAGED_TABLE_WITH_CRED

SQLSTATE: 42613

No se admite la creación de una tabla administrada con credenciales de almacenamiento.

MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID

SQLSTATE: 55019

No se puede <refreshType> la vista materializada porque es anterior a la existencia de una propiedad pipelineId. Para habilitar <refreshType>, quite y vuelva a crear la vista materializada.

MATERIALIZED_VIEW_NOT_INCREMENTALIZABLE

SQLSTATE: 42601

No se puede crear la vista materializada con <refreshPolicy> la directiva de actualización porque no se admite para la actualización incremental. Reason:

Para obtener más información, consulte MATERIALIZED_VIEW_NOT_INCREMENTALIZABLE

MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED

SQLSTATE: 56038

No se permite la operación <operation> de vista materializada:

Para más información, consulte MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED

MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS

SQLSTATE: 0A000

La expresión <expression> de salida de una vista materializada debe tener un alias explícito.

MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID

SQLSTATE: 42000

No se pudo crear la vista materializada <name> con la consulta de streaming. CREATE Use [OR REFRESH] STREAMING TABLE o quite la palabra clave de FROM la STREAM cláusula para convertir esta relación en una consulta por lotes en su lugar.

MATERIALIZED_VIEW_UNSUPPORTED_OPERATION

SQLSTATE: 0A000

La operación <operation> no se admite actualmente en vistas materializadas.

MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED

SQLSTATE: 54KD1

No se puede crear la nueva variable <variableName> porque el número de variables de la sesión supera el número máximo permitido (<maxNumVariables>).

MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE

SQLSTATE: 22023

maxRecordsPerFetch debe ser un entero positivo menor o igual que <kinesisRecordLimit>

MCV_INVALID_INPUT_SKETCH_BUFFER

SQLSTATE: 22546

Llamada no válida a <function>; solo se admiten búferes de boceto de MCV válidos como entradas (como las producidas por la mcv_collect_internal función).

MERGE_CARDINALITY_VIOLATION

SQLSTATE: 23K01

La condición de búsqueda ON de la instrucción MERGE asoció una sola fila de la tabla de destino con varias filas de la tabla de origen.

Esto podría dar lugar a que la fila de destino se procese más de una vez durante una operación de actualización o eliminación, lo cual no está permitido.

MERGE_WITHOUT_WHEN

SQLSTATE: 42601

Debe haber al menos una cláusula WHEN en una instrucción MERGE.

METRIC_CONSTRAINT_NOT_SUPPORTED

SQLSTATE: 0A000

METRIC CONSTRAINT no está habilitado.

METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR

SQLSTATE: 22023

El valor proporcionado "<argValue>" no es compatible con el argumento "<argName>" para la METRIC_STORE función de tabla.

Para obtener más información, consulte METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR

METRIC_STORE_UNSUPPORTED_ERROR

SQLSTATE: 56038

La rutina <routineName> del almacén de métricas está deshabilitada actualmente en este entorno.

METRIC_VIEW_AMBIGUOUS_JOIN_CRITERIA

SQLSTATE: 42K0E

La definición de la vista de métrica contiene una combinación con criterios ambiguos: <expr>. [Use los using criterios de combinación o califique explícitamente las columnas con el <sourceAlias> alias.]

METRIC_VIEW_CACHE_TABLE_NOT_SUPPORTED

SQLSTATE: 42K0E

No se permite que la vista de métrica use tablas de caché.

METRIC_VIEW_FEATURE_DISABLED

SQLSTATE: 42K0E

La característica de vista de métricas está deshabilitada. Asegúrese de que "spark.databricks.sql.metricView.enabled" está establecido en true.

METRIC_VIEW_INVALID_MEASURE_FUNCTION_INPUT

SQLSTATE: 42K0E

La MEASUREfunción () solo toma un atributo como entrada, pero tiene <expr>

METRIC_VIEW_INVALID_VIEW_DEFINITION

SQLSTATE: 42K0E

La definición de la vista de métrica no es válida. Motivo: <reason>.

METRIC_VIEW_IN_CTE_NOT_SUPPORTED

SQLSTATE: 42K0E

No se permite la vista de métricas en las definiciones de CTE. plan: <plan>

METRIC_VIEW_JOIN_NOT_SUPPORTED

SQLSTATE: 42K0E

No se permite que la vista de métrica use combinaciones. plan: <plan>

METRIC_VIEW_MATERIALIZATIONS_DISABLED

SQLSTATE: 42K0E

Las materializaciones de la vista de métricas están deshabilitadas. Asegúrese de que "spark.databricks.sql.metricView.materializations.enabled" está establecido en true.

VISTA_DE_MÉTRICA_MATERIALIZACIONES_NO_AGREGADAS_CON_VISTA_DE_MÉTRICA

SQLSTATE: 42K0E

No se admite la materialización no agregada cuando la vista de métricas hace referencia a otras vistas de métricas.

MATERIALIZACIÓN_DE_VISTA_MÉTRICA_EN_VISTA_TEMPORAL_NO_SOPORTADA

SQLSTATE: 42K0E

La materialización no se admite en vistas de métricas temporales.

METRIC_VIEW_MATERIALIZATION_WITH_INVOKER_DEPENDENT_EXPRESSIONS_NOT_SUPPORTED

SQLSTATE: 42K0E

No se admite la materialización para las vistas de métricas que contienen expresiones dependientes del invocador. Estas expresiones impiden la reutilización de la materialización.

METRIC_VIEW_MEASURE_IN_GROUP_BY

SQLSTATE: 42K0E

<measureColumns> las columnas de medida no se pueden usar en GROUP BY la cláusula ni como valores de categorías. Se recomienda encapsularlos con una función de agregado como SUM() para el comportamiento esperado.

METRIC_VIEW_MISSING_MEASURE_FUNCTION

SQLSTATE: 42K0E

El uso de la columna <column> de medida de una vista de métrica requiere la función MEASURE() para generar resultados.

METRIC_VIEW_NOT_MATERIALIZED

SQLSTATE: 42K0E

Comando materialized view en la vista de métricas sin materializaciones definidas

Para obtener más información, consulte METRIC_VIEW_NOT_MATERIALIZED

VISTA_METRICA_NO_ES_COMPATIBLE_CON_HMS

SQLSTATE: 42K0E

Las vistas de métricas no se admiten en HMS.

METRIC_VIEW_RENAME_DIFFERENT_CATALOG_AND_SCHEMA

SQLSTATE: 42602

No se permite cambiar el nombre de la vista <oldName> de métrica a otro catálogo o esquema: <newName>.

METRIC_VIEW_SNOWFLAKE_JOIN_FEATURE_DISABLED

SQLSTATE: 42K0E

La característica de combinación de copos de nieve de la vista métrica está deshabilitada. Asegúrese de que "spark.databricks.sql.metricView.snowflake.join.enable" está establecido en true.

METRIC_VIEW_UNSUPPORTED_USAGE

SQLSTATE: 42K0E

No se admite el uso de la vista de métricas. plan: <plan>

METRIC_VIEW_WINDOW_FUNCTION_NOT_SUPPORTED

SQLSTATE: 42K0E

No se permite que la vista de métricas use la función <expr>.

METRIC_VIEW_YAML_V11_DISABLED

SQLSTATE: 42K0E

La vista de métricas YAML v1.1 está deshabilitada. Asegúrese de que "spark.databricks.sql.metricView.yaml.v11.enabled" está establecido en true.

MIGRATION_NOT_SUPPORTED

SQLSTATE: 42601

<table> no es compatible con la migración a la tabla administrada de UC porque no es una tabla <tableKind>.

Asegúrese de que la tabla que se va a migrar es una tabla delta externa de UC y

se hace referencia a él por su nombre en lugar de por la ruta.

MIGRATION_ROLLBACK_NOT_SUPPORTED

SQLSTATE: 42809

<table> no se admite para la reversión de una tabla administrada a una tabla externa porque no es una tabla <tableKind>.

MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED

SQLSTATE: KD000

El origen de datos de Kafka en Trigger.AvailableNow debe proporcionar las mismas particiones de tema en el desplazamiento capturado previamente que en el desplazamiento final para cada microlote. El error podría ser transitorio: reinicie la consulta e informe si sigue viendo el mismo problema.

particiones de tema para el desplazamiento capturado previamente: <tpsForPrefetched>, particiones de tema para el desplazamiento final: <tpsForEndOffset>.

MISSING_AGGREGATION

SQLSTATE: 42803

La expresión no agregada <expression> se basa en columnas que no participan en la cláusula GROUP BY.

Agregue las columnas o la expresión a GROUP BY, agregue la expresión, o use <expressionAnyValue> si no importa cuál de los valores de un grupo se devuelve.

Para obtener más información, consulte MISSING_AGGREGATION

MISSING_CATALOG_ABILITY

SQLSTATE: 0A000

El catálogo <plugin> no admite

Para obtener más información, consulte MISSING_CATALOG_ABILITY

MISSING_CLAUSES_FOR_OPERATION

SQLSTATE: 42601

Falta la cláusula <clauses> para la operación <operation>. Agregue las cláusulas necesarias.

MISSING_CONNECTION_OPTION

SQLSTATE: 42000

Las conexiones de tipo '<connectionType>' deben incluir las siguientes opciones: <requiredOptions>.

MISSING_DATABASE_FOR_V1_SESSION_CATALOG

SQLSTATE: 3F000

El nombre de la base de datos no se especifica en el catálogo de sesiones v1. Asegúrese de proporcionar un nombre de base de datos válido al interactuar con el catálogo v1.

MISSING_GROUP_BY

SQLSTATE: 42803

La consulta no incluye una GROUP BY cláusula . Agregue GROUP BY o conviértalo en funciones de ventana mediante cláusulas OVER.

MISSING_NAME_FOR_CHECK_CONSTRAINT

SQLSTATE: 42000

CHECK la restricción debe tener un nombre.

MISSING_PARAMETER_FOR_KAFKA

SQLSTATE: 42KDF

El parámetro <parameterName> es necesario para Kafka, pero no se especifica en <functionName>.

MISSING_PARAMETER_FOR_ROUTINE

SQLSTATE: 42KDF

El parámetro <parameterName> es obligatorio, pero no se especifica en <functionName>.

MISSING_SCHEDULE_DEFINITION

SQLSTATE: 42000

Se debe proporcionar una definición de programación después de SCHEDULE.

MISSING_TIMEOUT_CONFIGURATION

SQLSTATE: HY000

La operación ha agotado el tiempo de espera, pero no se ha configurado ninguna duración de tiempo de espera. Para establecer un tiempo de espera basado en el tiempo de procesamiento, use "GroupState.setTimeoutDuration()" en la operación "mapGroupsWithState" o "flatMapGroupsWithState". Para el tiempo de espera basado en eventos, use "GroupState.setTimeoutTimestamp()" y defina una marca de agua mediante "Dataset.withWatermark()".

MISSING_WINDOW_SPECIFICATION

SQLSTATE: 42P20

La especificación de ventana no se define en la WINDOW cláusula para <windowName>. Para obtener más información sobre WINDOW cláusulas, consulte "<docroot>/sql-ref-syntax-qry-select-window.html".

MODIFY_BUILTIN_CATALOG

SQLSTATE: 42832

No se admite la modificación del catálogo <catalogName> integrado.

NOMBRE_DE_FLUJO_MULTIPARTE_NO_SOPORTADO

SQLSTATE: 0A000

No se admite el flujo con el nombre de varias partes '<flowName>'.

MULTIPLE_EXCEL_DATA_SOURCE

SQLSTATE: 42710

Se detectaron varios orígenes de datos de Excel con el nombre <provider> (<sourceNames>). Especifique el nombre de clase completo o quite <externalSource> de la ruta de clase.

MULTIPLE_LOAD_PATH

SQLSTATE: 42000

Databricks Delta no admite varias rutas de acceso de entrada en la API load().

rutas de acceso: <pathList>. Para compilar un único DataFrame cargando

varias rutas de acceso de la misma tabla Delta, cargue la ruta de acceso raíz de

la tabla Delta con los filtros de partición correspondientes. Si las múltiples rutas de acceso

son de tablas Delta diferentes, utilice las API union()/unionByName() de Dataset.

para combinar los objetos DataFrame generados por llamadas API de carga() independientes.

MULTIPLE_MATCHING_CONSTRAINTS

SQLSTATE: 42891

Se encontraron al menos dos restricciones coincidentes con la condición especificada.

MULTIPLE_QUERY_RESULT_CLAUSES_WITH_PIPE_OPERATORS

SQLSTATE: 42000

<clause1> y <clause2> no pueden coexistir en el mismo operador de canalización de SQL con '|'>. Separe las cláusulas de varios resultados en operadores de canalización independientes y vuelva a intentar la consulta.

MULTIPLE_TIME_TRAVEL_SPEC

SQLSTATE: 42K0E

No se puede especificar el viaje de tiempo tanto en la cláusula de viaje en el tiempo como en las opciones.

MULTIPLE_XML_DATA_SOURCE

SQLSTATE: 42710

Se detectaron varios orígenes de datos con el nombre <provider> (<sourceNames>). Especifique el nombre de clase completo o quite <externalSource> de la ruta de clase.

MULTI_ALIAS_WITHOUT_GENERATOR

SQLSTATE: 42K0E

El alias de varias partes (<names>) no es compatible con <expr> porque no es una función generadora.

MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION

SQLSTATE: 42K0E

La expresión <expr> no admite más de un origen.

MULTI_SOURCE_METRIC_VIEW_MEASURE_REFERENCING_DIMENSION

SQLSTATE: 42K0E

La columna <measureColumn> de medida en la vista de métricas no puede hacer referencia a columnas de dimensión (<dimensionColumn>).

MULTI_SOURCE_METRIC_VIEW_UNQUALIFIED_MEASURE_REF

SQLSTATE: 42K0E

No se permite la referencia <measureColumn> de columna de medida no calificada en la vista de métricas de varios orígenes. Califica la columna de medida con el alias de origen.

MULTI_SOURCE_METRIC_VIEW_UNSUPPORTED_EXPRESSION

SQLSTATE: 42K0E

No se admite la expresión de agregación sobre varios orígenes en la vista de métricas: <expr>.

MULTI_UDF_INTERFACE_ERROR

SQLSTATE: 0A000

No se permite implementar varias interfaces UDF en la clase <className>.

MUTUALLY_EXCLUSIVE_CLAUSES

SQLSTATE: 42613

Cláusulas o opciones <clauses>mutuamente excluyentes. Quite una de estas cláusulas.

MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE

SQLSTATE: 42601

La consulta de entrada espera un <expectedType>, pero la tabla subyacente es .<givenType>

NAMED_PARAMETERS_NOT_SUPPORTED

SQLSTATE: 4274K

No se admiten parámetros con nombre para la función <functionName>; vuelva a intentar la consulta con argumentos posicionales en la llamada de función en su lugar.

NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS

SQLSTATE: 0A000

No se puede llamar a la función <functionName> porque no se admiten referencias a argumentos con nombre. En este caso, la referencia de argumento con nombre era <argument>.

NAMED_PARAMETER_SUPPORT_DISABLED

SQLSTATE: 0A000

No se puede llamar a la función <functionName> porque las referencias de argumento con nombre no están habilitadas aquí.

En este caso, la referencia de argumento con nombre era <argument>.

Establezca "spark.sql.allowNamedFunctionArguments" en "true" para activar la característica.

NAMESPACE_ALREADY_EXISTS

SQLSTATE: 42000

No se puede crear el espacio de nombres <nameSpaceName> porque ya existe.

Elija otro nombre, quite el espacio de nombres existente o agregue la cláusula para tolerar el IF NOT EXISTS espacio de nombres preexistente.

NAMESPACE_NOT_EMPTY

SQLSTATE: 42000

No se puede eliminar un espacio de nombres <nameSpaceNameName> porque contiene objetos.

Use DROP NAMESPACE...CASCADE para quitar el espacio de nombres y todos sus objetos.

NAMESPACE_NOT_FOUND

SQLSTATE: 42000

No se encuentra el espacio de nombres <nameSpaceName> . Compruebe la ortografía y que el espacio de nombres es correcto.

Si no ha calificado el nombre, compruebe la salida de current_schema() o califique el nombre correctamente.

Para tolerar el error en la operación de eliminación, use DROP NAMESPACE IF EXISTS.

NATIVE_IO_ERROR

SQLSTATE: KD00F

Error en la solicitud nativa. idSolicitud: <requestId>, nube: <cloud>, operación: <operation>

request: [https: <https>, method = <method>, path = <path>, params = <params>, host = <host>, headers = <headers>, bodyLen = <bodyLen>]

error: <error>

NATIVE_XML_DATA_SOURCE_NOT_ENABLED

SQLSTATE: 56038

El origen de datos XML nativo no está habilitado en este clúster.

NEGATIVE_SCALE_DISALLOWED

SQLSTATE: 0A000

No se permite la escala negativa: '<scale>'. Establezca la configuración <sqlConf> en "true" para permitirla.

NEGATIVE_VALUES_IN_FREQUENCY_EXPRESSION

SQLSTATE: 22003

Se encontró el valor negativo en <frequencyExpression>: <negativeValue>, pero se esperaba un valor entero positivo.

NESTED_AGGREGATE_FUNCTION

SQLSTATE: 42607

No se permite usar una función de agregado en el argumento de otra función de agregado. Use la función de agregado interno en una subconsulta.

NESTED_EXECUTE_IMMEDIATE

SQLSTATE: 07501

No se permiten los comandos anidados EXECUTE IMMEDIATE. Asegúrese de que la consulta SQL proporcionada (<sqlString>) no contiene otro EXECUTE IMMEDIATE comando.

NESTED_REFERENCES_IN_LATERAL_SUBQUERY_NOT_SUPPORTED

SQLSTATE: 0A000

Se detectaron referencias <expression> de ámbito externo en la subconsulta lateral que no se admite. Asegúrese de que la subconsulta lateral no contiene subconsultas que hacen referencia a atributos de ámbitos externos anidados.

NESTED_REFERENCES_IN_SUBQUERY_NOT_SUPPORTED

SQLSTATE: 0A000

Se detectaron referencias <expression> de ámbito externo en la subconsulta que no se admiten.

VIOLACIÓN_DE_RESTRICCIÓN_DE_COMPROBACIÓN_NUEVA

SQLSTATE: 23512

No se puede agregar la nueva restricción de chequeo (<expression>) porque los datos existentes en la tabla <tableName> la infringirían. Asegúrese de que todas las filas existentes cumplen la restricción antes de agregarla.

NONEXISTENT_FIELD_NAME_IN_LIST

SQLSTATE: HV091

Campo(s) <nonExistFields> no existe(n). Campos disponibles: <fieldNames>

RESTRICCIÓN_DE_VERIFICACIÓN_NO_DETERMINISTA

SQLSTATE: 42621

La restricción de verificación <checkCondition> no es determinista. Las restricciones Check solo deben contener expresiones deterministas.

NON_FOLDABLE_ARGUMENT

SQLSTATE: 42K08

La función <funcName> requiere que el parámetro <paramName> sea una expresión plegable del tipo <paramType>, pero el argumento real es un no plegable.

NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE: 42613

Cuando hay más de una cláusula MATCHED en una instrucción MERGE, solo la última cláusula MATCHED puede omitir la condición.

NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION

SQLSTATE: 42613

Cuando hay más de una cláusula NOT MATCHED BY SOURCE en una instrucción MERGE, solo la última cláusula NOT MATCHED BY SOURCE puede omitir la condición.

NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION

SQLSTATE: 42613

Cuando hay más de una cláusula NOT MATCHED [BY TARGET] en una instrucción MERGE, solo la última cláusula NOT MATCHED [BY TARGET] puede omitir la condición.

NON_LITERAL_PIVOT_VALUES

SQLSTATE: 42K08

Se requieren expresiones literales para los valores dinámicos; se encontró <expression>.

NON_PARTITION_COLUMN

SQLSTATE: 42000

La cláusula PARTITION no puede contener la columna que no es de partición: <columnName>.

NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING

SQLSTATE: 42KDE

La función Window no se admite en <windowFunc> (como columna <columnName>) en dataframes o conjuntos de datos de streaming.

Structured Streaming solo admite la agregación de período de tiempo mediante la WINDOW función . (especificación de ventana: <windowSpec>)

NOT_ALLOWED_IN_FROM

SQLSTATE: 42601

No se permite en la cláusula FROM:

Para más información, consulte NOT_ALLOWED_IN_FROM

NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE

SQLSTATE: 42601

No se permite en la cláusula WHERE de la canalización:

Para obtener más información, consulte NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE.

NOT_A_CONSTANT_STRING

SQLSTATE: 42601

La expresión <expr> usada para la rutina o cláusula <name> debe ser una constante STRING que es NOT NULL.

Para obtener más información, consulte NOT_A_CONSTANT_STRING.

NOT_A_PARTITIONED_TABLE

SQLSTATE: 42809

No se permite la operación <operation> porque <tableIdentWithDB> no es una tabla con particiones.

NOT_A_SCALAR_FUNCTION

SQLSTATE: 42887

<functionName> aparece como una expresión escalar aquí, pero la función se definió como una función de tabla. Actualice la consulta para mover la llamada de función a la FROM cláusula o volver a definirla <functionName> como una función escalar en su lugar.

NOT_A_TABLE_FUNCTION

SQLSTATE: 42887

<functionName> aparece como una función de tabla aquí, pero la función se definió como una función escalar. Actualice la consulta para mover la llamada de función fuera de la FROM cláusula o volver a definirla <functionName> como una función de tabla en su lugar.

NOT_ENOUGH_ARGS

SQLSTATE: 42605

Function <functionName> espera al menos <minNum> parámetros, pero se ha recibido <actualNum> (<actualArgs>).

NOT_NULL_ASSERT_VIOLATION

SQLSTATE: 42000

El valor NULL apareció en un campo que no acepta valores NULL: <walkedTypePath>Si el esquema se deduce de una clase de tupla/caso de Scala o un bean de Java, pruebe a usar scala.Option[_] u otros tipos que aceptan valores NULL (como java.lang.Integer en lugar de int/scala.Int).

NOT_NULL_CONSTRAINT_VIOLATION

SQLSTATE: 42000

No se permite asignar un NULL aquí.

Para obtener más información, consulte NOT_NULL_CONSTRAINT_VIOLATION.

NOT_SUPPORTED_CHANGE_COLUMN

SQLSTATE: 0A000

ALTER TABLE ALTER / CHANGE COLUMN no admite cambiar la columna <table> de <originName> de tipo <originType> a <newName> de tipo <newType>.

NOT_SUPPORTED_CHANGE_SAME_COLUMN

SQLSTATE: 0A000

ALTER TABLE ALTER / CHANGE COLUMN no se admite que cambie la columna <table><fieldName>, incluyendo sus campos anidados varias veces en el mismo comando.

NOT_SUPPORTED_COMMAND_FOR_V2_TABLE

SQLSTATE: 0A000

<cmd> no se admite para las tablas v2.

NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT

SQLSTATE: 0A000

<cmd> no se admite, si desea habilitarlo, establezca "spark.sql.catalogImplementation" en "hive".

NOT_SUPPORTED_IN_JDBC_CATALOG

SQLSTATE: 0A000

Comando no compatible en el catálogo JDBC:

Para obtener más información, consulte NOT_SUPPORTED_IN_JDBC_CATALOG

NOT_SUPPORTED_WITH_DB_SQL

SQLSTATE: 0A000

<operation> no se admite en una instancia de SQL <endpoint>.

NOT_SUPPORTED_WITH_SERVERLESS

SQLSTATE: 0A000

<operation> no es compatible con la computación sin servidor.

NOT_UNRESOLVED_ENCODER

SQLSTATE: 42601

Se esperaba un codificador sin resolver, pero se encontró <attr>.

NO_ACTIVE_TRANSACTION

SQLSTATE: 25000

No hay ninguna transacción activa en <action>.

NO_DEFAULT_COLUMN_VALUE_AVAILABLE

SQLSTATE: 42608

No se puede determinar el valor predeterminado de <colName> , ya que no admite valores NULL y no tiene ningún valor predeterminado.

NO_HANDLER_FOR_UDAF

SQLSTATE: 42000

No hay controlador para UDAF "<functionName>". Use sparkSession.udf.register(...) en su lugar.

NO_MERGE_ACTION_SPECIFIED

SQLSTATE: 42K0E

df.mergeInto debe ir seguido de al menos uno de estos elementos whenMatched/whenNotMatched/whenNotMatchedBySource.

NO_PARENT_EXTERNAL_LOCATION_FOR_PATH

SQLSTATE: 22KD1

No se encontró ninguna ubicación externa primaria para la ruta de acceso '<path>'. Cree una ubicación externa en una de las rutas de acceso primarias y vuelva a intentar la consulta o comando.

NO_PRIMARY_KEY_CONSTRAINT_EXCEPTION

SQLSTATE: 42704

TABLE <table> no tiene una restricción de clave principal.

NO_SQL_TYPE_IN_PROTOBUF_SCHEMA

SQLSTATE: 42S22

No se encuentra <catalystFieldPath> en el esquema Protobuf.

NO_STORAGE_LOCATION_FOR_TABLE

SQLSTATE: ninguno asignado

No se encontró ninguna ubicación de almacenamiento para la tabla '<tableId>' al generar credenciales de tabla. Compruebe el tipo de tabla y la dirección URL de ubicación de la tabla y vuelva a intentar la consulta o el comando.

NO_SUCH_CATALOG_EXCEPTION

SQLSTATE: 42704

No se encontró el catálogo '<catalog>'. Compruebe el nombre del catálogo y vuelva a intentar la consulta o comando.

NO_SUCH_CLEANROOM_EXCEPTION

SQLSTATE: ninguno asignado

La sala limpia '<cleanroom>' no existe. Compruebe que el nombre de la sala limpia está escrito correctamente y coincide con el nombre de una sala limpia existente válida y vuelva a intentar la consulta o comando.

NO_SUCH_CONSTRAINT_EXCEPTION

SQLSTATE: 42704

Restricción <constraint> no encontrada en <identifier>.

NO_SUCH_CREDENTIAL_EXCEPTION

SQLSTATE: KD000

La credencial '<credential>' no existe. Compruebe que el nombre de la credencial está escrito correctamente y coincide con el nombre de una credencial existente válida y vuelva a intentar la consulta o comando.

NO_SUCH_EXTERNAL_LOCATION_EXCEPTION

SQLSTATE: ninguno asignado

La ubicación externa '<externalLocation>' no existe. Compruebe que el nombre de la ubicación externa es correcto y vuelva a intentar la consulta o comando.

NO_SUCH_METASTORE_EXCEPTION

SQLSTATE: ninguno asignado

No se encontró el metastore. Pida al administrador de la cuenta que asigne un metastore al área de trabajo actual y vuelva a intentar la consulta o comando.

NO_SUCH_PROVIDER_EXCEPTION

SQLSTATE: ninguno asignado

El proveedor de recursos compartidos '<providerName>' no existe. Compruebe que el nombre del proveedor de recursos compartidos está escrito correctamente y coincide con el nombre de un nombre de proveedor existente válido y vuelva a intentar la consulta o comando.

NO_SUCH_RECIPIENT_EXCEPTION

SQLSTATE: ninguno asignado

El destinatario '<recipient>' no existe. Compruebe que el nombre del destinatario está escrito correctamente y coincide con el nombre de un destinatario existente válido y vuelva a intentar la consulta o comando.

NO_SUCH_SHARE_EXCEPTION

SQLSTATE: ninguno asignado

El recurso compartido '<share>' no existe. Compruebe que el nombre del recurso compartido está escrito correctamente y coincide con el nombre de un recurso compartido existente válido y vuelva a intentar la consulta o comando.

NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION

SQLSTATE: ninguno asignado

La credencial de almacenamiento '<storageCredential>' no existe. Compruebe que el nombre de la credencial de almacenamiento está escrito correctamente y coincide con el nombre de una credencial de almacenamiento existente válida y vuelva a intentar la consulta o el comando.

NO_SUCH_USER_EXCEPTION

SQLSTATE: ninguno asignado

El usuario '<userName>' no existe. Compruebe que el usuario al que concede permiso o modificar la propiedad está escrito correctamente y coincide con el nombre de un usuario existente válido y vuelva a intentar la consulta o comando.

NO_UDF_INTERFACE

SQLSTATE: 38000

La clase <className> UDF no implementa ninguna interfaz UDF.

NULLABLE_COLUMN_OR_FIELD

SQLSTATE: 42000

La columna o el campo <name> admite valores NULL, pero se requiere que no lo haga.

NULLABLE_ROW_ID_ATTRIBUTES

SQLSTATE: 42000

Los atributos de ID de fila no pueden ser nulos: <nullableRowIdAttrs>.

NULL_DATA_SOURCE_OPTION

SQLSTATE: 22024

La opción <option> de lectura y escritura del origen de datos no puede tener un valor NULL.

NULL_MAP_KEY

SQLSTATE: 2200E

No se puede usar null como clave de mapa.

NULL_QUERY_STRING_EXECUTE_IMMEDIATE

SQLSTATE: 22004

Ejecutar inmediato requiere una variable que no sea NULL como cadena de consulta, pero la variable <varName> proporcionada es NULL.

NULL_VALUE_SIGNAL_STATEMENT

SQLSTATE: 22004

Los argumentos de la instrucción Signal requieren valores que no son NULL, pero <argument> reciben un valor NULL.

NUMERIC_OUT_OF_SUPPORTED_RANGE

SQLSTATE: 22003

El valor <value> no se puede interpretar como numérico, ya que tiene más de 38 dígitos.

NUMERIC_VALUE_OUT_OF_RANGE

SQLSTATE: 22003

Para obtener más información, consulte NUMERIC_VALUE_OUT_OF_RANGE

NUM_COLUMNS_MISMATCH

SQLSTATE: 42826

<operator> solo se puede realizar en entradas con el mismo número de columnas, pero la primera entrada tiene <firstNumColumns> columnas y la <invalidOrdinalNum> entrada tiene <invalidNumColumns> columnas.

NUM_TABLE_VALUE_ALIASES_MISMATCH

SQLSTATE: 42826

El número de alias especificados no coincide con el número de columnas de salida.

Nombre de función: <funcName>; número de alias: <aliasesNum>; número de columnas de salida: <outColsNum>.

OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED

SQLSTATE: 22KD2

No se proporcionó ninguna reclamación de identidad personalizada.

ONLY_SECRET_FUNCTION_SUPPORTED_HERE

SQLSTATE: 42K0E

La función <functionName> de llamada no se admite en este <location>; <supportedFunctions> se admite aquí.

ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR

SQLSTATE: 0A000

La operación <operation> SQL solo se admite en los conectores SQL de Databricks con compatibilidad con Unity Catalog.

OPERATION_CANCELED

SQLSTATE: HY008

Se ha cancelado la operación.

OPERATION_REQUIRES_UNITY_CATALOG

SQLSTATE: 0AKUD

La operación <operation> requiere el catálogo de Unity habilitado.

OP_NOT_SUPPORTED_READ_ONLY

SQLSTATE: 42KD1

<plan> no se admite en el modo de sesión de solo lectura.

ORDER_BY_POS_OUT_OF_RANGE

SQLSTATE: 42805

ORDER BY position <index> no está en la lista de selección (el intervalo válido es [1, <size>]).

PARQUET_CONVERSION_FAILURE

SQLSTATE: 42846

No se puede crear un convertidor de Parquet para el tipo de datos <dataType> cuyo tipo Parquet es <parquetType>.

Para obtener más información, consulte PARQUET_CONVERSION_FAILURE

PARQUET_TYPE_ILLEGAL

SQLSTATE: 42846

Tipo Parquet no válido: <parquetType>.

PARQUET_TYPE_NOT_RECOGNIZED

SQLSTATE: 42846

Tipo Parquet no reconocido: <field>.

PARQUET_TYPE_NOT_SUPPORTED

SQLSTATE: 42846

Tipo Parquet aún no admitido: <parquetType>.

PARSE_EMPTY_STATEMENT

SQLSTATE: 42617

Error de sintaxis, declaración vacía inesperada.

PARSE_MODE_UNSUPPORTED

SQLSTATE: 42601

La función <funcName> no admite el <mode> modo . Los modos aceptables son PERMISSIVE y FAILFAST.

PARSE_SYNTAX_ERROR

SQLSTATE: 42601

Error de sintaxis en o cerca de <error> <hint>.

PARTITIONS_ALREADY_EXIST

SQLSTATE: 428FT

No se puede usar ADD o RENAME TO con las particiones <partitionList> de la tabla <tableName> porque ya existen.

Elija otro nombre, quite la partición existente o agregue la IF NOT EXISTS cláusula para tolerar una partición preexistente.

PARTITIONS_NOT_FOUND

SQLSTATE: 428FT

Las particiones <partitionList> no se pueden encontrar en la tabla <tableName>.

Compruebe la especificación de partición y el nombre de la tabla.

Para tolerar el error en la operación de eliminación, use ALTER TABLEDROP IF EXISTS PARTITION.

PARTITION_COLUMN_NOT_FOUND_IN_SCHEMA

SQLSTATE: 42000

<column> Columna de partición no encontrada en el esquema <schema>. Proporcione la columna existente para la creación de particiones.

PARTITION_LOCATION_ALREADY_EXISTS

SQLSTATE: 42K04

La ubicación <locationPath> de partición ya existe en la tabla <tableName>.

PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY

SQLSTATE: 42KD5

No se pudo ejecutar la ALTER TABLE SET PARTITION LOCATION instrucción, porque

La ubicación de partición <location> no está dentro del directorio <table> de tabla.

Para corregirlo, establezca la ubicación de la partición en un subdirectorio de <table>.

PARTITION_METADATA

SQLSTATE: 0AKUC

<action> no se permite en la tabla <tableName> , ya que no se admite el almacenamiento de metadatos de partición en el catálogo de Unity.

PARTITION_NUMBER_MISMATCH

SQLSTATE: KD009

El número de valores (<partitionNumber>) no coincide con el tamaño del esquema (<partitionSchemaSize>): los valores son <partitionValues>, el esquema es <partitionSchema>, la ruta de acceso de archivo es <urlEncodedPath>.

Vuelva a materializar la tabla o póngase en contacto con el propietario.

PARTITION_TRANSFORM_EXPRESSION_NOT_IN_PARTITIONED_BY

SQLSTATE: 42S23

La expresión <expression> debe estar dentro de "partitionedBy".

PATH_ALREADY_EXISTS

SQLSTATE: 42K04

La ruta de acceso <outputPath> ya existe. Establezca el modo en "sobrescribir" para sobrescribir la ruta de acceso existente.

PATH_NOT_FOUND

SQLSTATE: 42K03

La ruta de acceso <path> no existe.

PATH_RESOLUTION_ERROR

SQLSTATE: KD013

No se pudo resolver la ruta de acceso <path>. Causado por: <causedBy>

PHOTON_DESERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED

SQLSTATE: 54000

La deserialización del plan protobuf de Photon requiere al menos <size> bytes, lo que supera el

límite de <limit> bytes. Esto podría deberse a un plan muy grande o a la presencia de un

esquema ancho. Intente simplificar la consulta, quitar columnas innecesarias o deshabilitar Photon.

PHOTON_SERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED

SQLSTATE: 54000

El plan protobuf de Photon serializado tiene <size> bytes de tamaño, lo que supera el límite de

<limit> bytes. El tamaño serializado de los tipos de datos del plan es <dataTypeSize> bytes.

Esto podría deberse a un plan muy grande o a la presencia de un esquema muy amplio.

Considere la posibilidad de volver a escribir la consulta para quitar las operaciones y columnas no deseadas o deshabilitar Photon.

Conjunto_de_datos_sin_flujo_de_pipe

SQLSTATE: 0A000

El conjunto de datos <identifier> de canalización no tiene flujos definidos. Adjunte una consulta con la definición del conjunto de datos o defina explícitamente al menos un flujo que escriba en el conjunto de datos.

PIPELINE_DOES_NOT_EXIST

SQLSTATE: 42K03

La canalización '<pipelineId>' no existe

Para obtener más información, consulte PIPELINE_DOES_NOT_EXIST

IDENTIFICADORES_DUPLICADOS_DEL_PIPELINE

SQLSTATE: 42710

Se encontró un identificador duplicado para los elementos registrados en el gráfico de flujo de datos de la canalización.

Para obtener más información, consulte PIPELINE_DUPLICATE_IDENTIFIERS

PIPELINE_SQL_GRAPH_ELEMENT_REGISTRATION_ERROR

SQLSTATE: 42000

<message>

<offendingQuery>

<codeLocation>

PIPELINE_STORAGE_ROOT_INVALID

SQLSTATE: 42K03

La raíz de almacenamiento de canalización debe ser una ruta de acceso absoluta con un esquema de URI (por ejemplo, file://, s3a://, hdfs://). Tiene: <storage_root>.

PIPE_OPERATOR_AGGREGATE_EXPRESSION_CONTAINS_NO_AGGREGATE_FUNCTION

SQLSTATE: 0A000

La expresión <expr> no agrupada se proporciona como argumento para el operador |>AGGREGATE pipe pero no contiene ninguna función de agregado; actualícela para incluir una función de agregado y vuelva a intentar la consulta.

PIPE_OPERATOR_CONTAINS_AGGREGATE_FUNCTION

SQLSTATE: 0A000

No se permite la función de agregación <expr> al usar la cláusula con el operador de canalización |><clause>; use la cláusula con el operador de canalización |>AGGREGATE en su lugar.

PIVOT_VALUE_DATA_TYPE_MISMATCH

SQLSTATE: 42K09

Valor dinámico no válido "<value>": el valor del tipo de datos <valueType> no coincide con el tipo de datos de columna dinámica <pivotType>.

POLICY_ALREADY_EXISTS

SQLSTATE: 42000

No se puede crear la directiva <policyName> porque ya existe.

Elija otro nombre o elimine la política existente para tolerar conexiones preexistentes.

POLICY_NOT_FOUND

SQLSTATE: 22023

No se puede ejecutar el comando <commandType> porque no se encuentra la directiva <policyName> en <securableFullname>.

Compruebe la ortografía y la corrección.

POLICY_ON_SECURABLE_TYPE_NOT_SUPPORTED

SQLSTATE: 42000

No se puede crear la política en el tipo <securableType> protegible. Tipos protegibles admitidos: <allowedTypes>.

PREVIEW_FEATURE_NOT_ENABLED

SQLSTATE: 56038

La característica <featureName> de vista previa no está habilitada. Póngase en contacto con el administrador del área de trabajo para habilitar esta característica mediante el portal de versión preliminar.

PROCEDURE_ARGUMENT_NUMBER_MISMATCH

SQLSTATE: 42605

El procedimiento <procedureName> espera <expected> argumentos, pero se proporcionó <actual>.

PROCEDURE_CREATION_EMPTY_ROUTINE

SQLSTATE: 0A000

CREATE PROCEDURE no se permite una definición de rutina vacía.

PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT

SQLSTATE: 42601

El parámetro <parameterName> se define con modo de parámetro <parameterMode>. No se puede omitir OUT y INOUT el parámetro al invocar una rutina y, por tanto, no admiten una DEFAULT expresión. Para continuar, quite la DEFAULT cláusula o cambie el modo de parámetro a IN.

PROCEDURE_NOT_SUPPORTED

SQLSTATE: 0A000

No se admite el procedimiento almacenado.

PROCEDURE_NOT_SUPPORTED_WITH_HMS

SQLSTATE: 0A000

El procedimiento almacenado no se admite con el metastore de Hive. Use el catálogo de Unity en su lugar.

PROTOBUF_DEPENDENCY_NOT_FOUND

SQLSTATE: 42K0G

No se pudo encontrar la dependencia: <dependencyName>.

PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND

SQLSTATE: 42K0G

Error al leer el archivo de descriptor de Protobuf en la ruta de acceso <filePath>.

PROTOBUF_FIELD_MISSING

SQLSTATE: 42K0G

Al buscar <field> en el esquema de Protobuf en <protobufSchema>, se obtuvieron <matchSize> coincidencias. Candidatos: <matches>.

PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA

SQLSTATE: 42K0G

Se encuentra <field> en el esquema Protobuf, pero no hay ninguna coincidencia en el esquema SQL.

PROTOBUF_FIELD_TYPE_MISMATCH

SQLSTATE: 42K0G

Error de coincidencia de tipos encontrado para el campo: <field>.

PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED

SQLSTATE: 0A000

Las clases de Java no se admiten para <protobufFunction>. Póngase en contacto con el soporte técnico de Databricks sobre las opciones alternativas.

PROTOBUF_MESSAGE_NOT_FOUND

SQLSTATE: 42K0G

No se puede encontrar el mensaje <messageName> en descriptor.

PROTOBUF_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE

SQLSTATE: 22KD3

No se puede llamar a la <functionName> función SQL porque no se ha cargado el origen de datos Protobuf.

Reinicie el trabajo o la sesión con el paquete "spark-protobuf" cargado, como mediante el argumento --packages en la línea de comandos y vuelva a intentar la consulta o comando.

PROTOBUF_TYPE_NOT_SUPPORT

SQLSTATE: 42K0G

Tipo Protobuf aún no admitido: <protobufType>.

PS_FETCH_RETRY_EXCEPTION

SQLSTATE: 22000

No se puede reintentar la tarea en la fase de captura de pubsub. Partición <partitionInfo> en la fase <stageInfo>, TID <taskId>.

PS_INVALID_EMPTY_OPTION

SQLSTATE: 42000

<key> no puede ser una cadena vacía.

PS_INVALID_KEY_TYPE

SQLSTATE: 22000

Tipo de clave no válido para la desduplicación de PubSub: <key>.

PS_INVALID_OPTION

SQLSTATE: 42000

PubSub no admite la opción <key> . Solo se puede usar en las pruebas.

PS_INVALID_OPTION_TYPE

SQLSTATE: 42000

Tipo no válido para <key>. Se esperaba que el tipo de <key> fuera del tipo <type>.

PS_INVALID_READ_LIMIT

SQLSTATE: 42000

Límite de lectura no válido en la secuencia PubSub: <limit>.

PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO

SQLSTATE: 22000

UnsafeRow no válido para descodificar en PubSubMessageMetadata, el esquema proto deseado es <protoSchema>. La entrada UnsafeRow puede estar dañada: <unsafeRow>.

PS_INVALID_WORKLOAD_IDENTITY_FEDERATION_AUDIENCE_OPTION

SQLSTATE: 42000

Error en la consulta o comando debido a una opción de lectura no válida: en spark.readStream.format("pubsub").option("workloadIdentityFederation.audience", <audience>). Actualice <audience> para que coincida con el formato siguiente: //iam.googleapis.com/projects/{PROJECT_NUMBER}/locations/global/workloadIdentityPools/{POOL_ID}/providers/{PROVIDER_ID} y vuelva a intentar la consulta o comando.

PS_MISSING_AUTH_INFO

SQLSTATE: 42000

No se pudo encontrar información completa de autenticación de PubSub.

PS_MISSING_REQUIRED_OPTION

SQLSTATE: 42000

No se pudo encontrar la opción necesaria: <key>.

PS_MOVING_CHECKPOINT_FAILURE

SQLSTATE: 22000

No se pueden mover los archivos de punto de control de datos sin procesar de <src> al directorio de destino <dest>.

PS_MULTIPLE_AUTH_OPTIONS

SQLSTATE: 42000

Proporcione sus credenciales de servicio de Databricks o las credenciales de la cuenta de servicio de GCP.

PS_MULTIPLE_FAILED_EPOCHS

SQLSTATE: 22000

No se puede iniciar la secuencia de PubSub, ya que hay más de una captura errónea: <failedEpochs>.

PS_OPTION_NOT_IN_BOUNDS

SQLSTATE: 22000

<key> debe estar dentro de los siguientes límites (<min>, <max>) exclusivos de ambos límites.

PS_PROVIDE_CREDENTIALS_WITH_OPTION

SQLSTATE: 42000

Los clústeres compartidos no admiten la autenticación con perfiles de instancia. Proporcione credenciales al flujo directamente mediante .option().

PS_SPARK_SPECULATION_NOT_SUPPORTED

SQLSTATE: 0A000

El conector de origen de PubSub solo está disponible en el clúster con spark.speculation deshabilitado.

PS_UNABLE_TO_CREATE_SUBSCRIPTION

SQLSTATE: 42000

Error al intentar crear una suscripción <subId> en el tema <topicId>. Compruebe que hay permisos suficientes para crear una suscripción e inténtelo de nuevo.

PS_UNABLE_TO_PARSE_PROTO

SQLSTATE: 22000

No se pueden analizar los bytes serializados para generar proto.

PS_UNSUPPORTED_GET_OFFSET_CALL

SQLSTATE: 0A000

getOffset no es compatible sin que se suministre un límite.

PYTHON_DATA_SOURCE_ERROR

SQLSTATE: 38000

No se pudo <action> el origen de datos de Python <type>: <msg>

PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR

SQLSTATE: 38000

Error cuando el origen de datos de streaming de Python realiza <action>: <msg>

QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY

SQLSTATE: 428HD

No se puede acceder a la tabla a la que se hace referencia porque una máscara de columna asignada previamente no es compatible con el esquema de tabla; para continuar, póngase en contacto con el propietario de la tabla para actualizar la directiva:

Para obtener más información, consulte QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY.

QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY

SQLSTATE: 428HD

No se puede acceder a la tabla a la que se hace referencia porque una directiva de seguridad de nivel de fila asignada previamente no es compatible con el esquema de tabla; para continuar, póngase en contacto con el propietario de la tabla para actualizar la directiva:

Para obtener más información, consulte QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY.

QUERY_EXECUTION_TIMEOUT_EXCEEDED

SQLSTATE: 57KD0

Se canceló la ejecución de la consulta debido a que se superó el tiempo de espera (<timeoutSec>s). Puede aumentar el límite en segundos estableciendo <config>.

QUERY_INCOMPATIBLE_WITH_RLSCM_POLICY

SQLSTATE: 0AKUC

Consulte go/rowcolumncontrols-allowlist. LogicalPlan <unknownLogicalPlan> no es compatible con la directiva RLS/CM.

QUERY_REJECTED

SQLSTATE: 08004

Se rechazó la ejecución de la consulta.

QUERY_RESULT_WRITE_TO_CLOUD_STORE_PERMISSION_ERROR

SQLSTATE: 42501

La configuración de almacenamiento interno del área de trabajo impide que Databricks acceda al almacén en la nube.

QUERY_TAGS_NOT_IMPLEMENTED_ERROR

SQLSTATE: 0A000

Las etiquetas de consulta aún no se admiten en SQL.

QUERY_TAGS_SYNTAX_INVALID

SQLSTATE: 42000

Formato no válido para el SET QUERY_TAGS comando.

QUERY_TAG_KEY_INVALID

SQLSTATE: 42000

Error en la validación de la clave de etiqueta de consulta '<key>'.

QUERY_TAG_KEY_MAY_NOT_BE_EMPTY

SQLSTATE: 2200E

Es posible que la clave de etiqueta de consulta no sea nula o esté vacía. El espacio en blanco inicial y final se recorta en claves y valores.

QUERY_TAG_MAX_COUNT_EXCEEDED

SQLSTATE: 54KD1

El número de etiquetas de consulta superó el límite por sesión de <tagLimit> las etiquetas máximas.

QUERY_TAG_VALUE_INVALID

SQLSTATE: 42000

Error de validación del valor de etiqueta de consulta '<value>'.

QUERY_WATCHDOG_CHECK_FAILED

SQLSTATE: 42000

Error en la comprobación del guardián de consultas.

Para obtener más información, consulte QUERY_WATCHDOG_CHECK_FAILED

READ_CURRENT_FILE_NOT_FOUND

SQLSTATE: 42K03

<message>

Es posible que se hayan actualizado los archivos subyacentes. Puede invalidar explícitamente la memoria caché en Spark ejecutando el comando "REFRESH TABLE tableName" en SQL o volviendo a crear el conjunto de datos o dataframe implicado.

READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS

SQLSTATE: 4274K

La invocación de la función <functionName> tiene a <parameterName> y <alternativeName> establecidos, que son alias entre sí. Por favor, establezca solo uno de ellos.

READ_FILES_CREDENTIALS_PARSE_ERROR

SQLSTATE: 42000

Error al analizar las credenciales temporales de la función read_files().

Para más información, consulte READ_FILES_CREDENTIALS_PARSE_ERROR

READ_TVF_UNEXPECTED_REQUIRED_PARAMETER

SQLSTATE: 4274K

El parámetro <functionName> requerido de la función <parameterName> debe asignarse en la posición <expectedPos> sin el nombre.

RECIPIENT_EXPIRATION_NOT_SUPPORTED

SQLSTATE: 0A000

Solo se admiten los tipos TIMESTAMP/TIMESTAMP_LTZ/TIMESTAMP_NTZ para la marca de tiempo de expiración del destinatario.

RECURSION_LEVEL_LIMIT_EXCEEDED

SQLSTATE: 42836

Se ha alcanzado el límite <levelLimit> de nivel de recursión, pero la consulta no se ha agotado, intente aumentarlo como "WITH RECURSIVE t(col) MAX RECURSION LEVEL 200".

RECURSION_ROW_LIMIT_EXCEEDED

SQLSTATE: 42836

Se ha alcanzado el límite <rowLimit> de filas de recursividad, pero la consulta no se ha agotado, intente establecer un valor mayor LIMIT al consultar la relación de CTE.

RECURSIVE_CTE_IN_LEGACY_MODE

SQLSTATE: 42836

Las definiciones recursivas no se pueden usar en el modo de precedencia de CTE heredado (spark.sql.legacy.ctePrecedencePolicy=LEGACY).

RECURSIVE_CTE_WITH_LEGACY_INLINE_FLAG

SQLSTATE: 42836

Las definiciones recursivas no se pueden usar cuando el indicador heredado en línea está configurado a true (spark.sql.legacy.inlineCTEInCommands=true).

RECURSIVE_PROTOBUF_SCHEMA

SQLSTATE: 42K0G

Se encontró una referencia recursiva en el esquema Protobuf, que no se puede procesar mediante Spark de forma predeterminada: <fieldDescriptor>. pruebe a establecer la opción recursive.fields.max.depth 1 a 10. No se permite ir más allá de 10 niveles de recursividad.

RECURSIVE_VIEW

SQLSTATE: 42K0H

Vista recursiva <viewIdent> detectada (ciclo: <newPath>).

REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION

SQLSTATE: 42601

No se permiten referencias a valores de columna DEFAULT dentro de la cláusula PARTITION.

RELATION_LARGER_THAN_8G

SQLSTATE: 54000

No se puede construir un <relationName> que sea mayor que 8 gigabytes.

REMAINDER_BY_ZERO

SQLSTATE: 22012

Resto en cero. Use try_mod para tolerar que el divisor sea 0 y devuelva NULL en su lugar. Si es necesario, establezca <config> en "false" para omitir este error.

REMOTE_FUNCTION_HTTP_FAILED_ERROR

SQLSTATE: 57012

Error en la solicitud HTTP remota con el código <errorCode>y el mensaje de error <errorMessage>

REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR

SQLSTATE: 22032

No se pudo evaluar la <functionName> función SQL debido a la incapacidad de analizar el JSON resultado de la respuesta HTTP remota; el mensaje de error es <errorMessage>. Consulte la documentación de la API: <docUrl>. Corrija el problema indicado en el mensaje de error y vuelva a intentar la consulta.

REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR

SQLSTATE: 57012

No se pudo evaluar la <functionName> función SQL debido a la incapacidad de procesar la respuesta HTTP remota inesperada; el mensaje de error es <errorMessage>. Consulte la documentación de la API: <docUrl>. Corrija el problema indicado en el mensaje de error y vuelva a intentar la consulta.

REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT

SQLSTATE: 57012

Error en la solicitud remota después de <N> reintentos; el último código de error HTTP con error fue <errorCode> y el mensaje fue <errorMessage>

REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR

SQLSTATE: 57012

No se pudo evaluar la <functionName> función SQL porque <errorMessage>. Compruebe los requisitos en <docUrl>. Corrija el problema indicado en el mensaje de error y vuelva a intentar la consulta.

REMOTE_QUERY_FUNCTION_UNSUPPORTED_CONNECTOR_PARAMETERS

SQLSTATE: 4274K

No se admiten parámetros <parameterNames> para la función remote_query, que consulta una conexión "<connectionName>" de tipo "<connectionType>".

Para obtener más información, consulte REMOTE_QUERY_FUNCTION_UNSUPPORTED_CONNECTOR_PARAMETERS

RENAME_SRC_PATH_NOT_FOUND

SQLSTATE: 42K03

No se pudo cambiar el nombre porque no se encontró <sourcePath>.

REPEATED_CLAUSE

SQLSTATE: 42614

La <clause> cláusula se puede usar como máximo una vez por <operation> operación.

REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY

SQLSTATE: 4274K

El parámetro obligatorio <routineName> de la rutina <parameterName> se ha asignado en la posición <positionalIndex> sin el nombre.

Actualice la llamada de función para quitar el argumento con nombre con <parameterName> para este parámetro o quite el

argumento posicional en <positionalIndex> y, a continuación, vuelva a intentar la consulta.

REQUIRED_PARAMETER_NOT_FOUND

SQLSTATE: 4274K

No se puede invocar la rutina <routineName> porque se requiere el parámetro denominado <parameterName> , pero la llamada de rutina no ha proporcionado un valor. Actualice la llamada rutinaria para proporcionar un valor de argumento (ya sea posicionalmente en el índice <index> o por nombre) y vuelva a intentar la consulta.

REQUIRES_EXPLICIT_NAME_IN_WATERMARK_CLAUSE

SQLSTATE: 42000

La cláusula watermark requiere un nombre explícito si se especifica la expresión, pero tiene <sqlExpr>.

REQUIRES_SINGLE_PART_NAMESPACE

SQLSTATE: 42K05

<sessionCatalog> requiere un espacio de nombres de un solo elemento, pero se obtuvo <namespace>.

RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT

SQLSTATE: 4274K

La opción de lector de API de DataFrame "rescuedDataColumn" es mutuamente excluyente con la opción de API de DataFrame "singleVariantColumn".

Quite uno de ellos y vuelva a intentar la operación DataFrame.

RESERVED_CDC_COLUMNS_ON_WRITE

SQLSTATE: 42939

La operación de escritura contiene columnas reservadas <columnList> que son utilizadas.

internamente como metadatos para el cambio de fuente de distribución de datos. Para escribir en la tabla, cambie el nombre o quite

estas columnas o deshabilite la fuente de distribución de datos modificados en la tabla estableciendo

<config> en false.

RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED

SQLSTATE: 0A000

La opción <option> tiene valores restringidos en clústeres compartidos para el origen <source>.

Para más información, consulte RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED.

ROUTINE_ALREADY_EXISTS

SQLSTATE: 42723

No se puede crear <newRoutineType> <routineName> porque ya existe un <existingRoutineType> de ese nombre.

Elija un nombre diferente, quite o reemplace el <existingRoutineType> existente, o agregue la cláusula IF NOT EXISTS para tolerar un <newRoutineType> existente previamente.

ROUTINE_NOT_FOUND

SQLSTATE: 42883

No se encuentra la rutina <routineName> . Compruebe la ortografía y corrección del esquema y el catálogo.

Si no ha calificado el nombre con un esquema y un catálogo, compruebe la salida de current_schema() o califique el nombre con el esquema y el catálogo correctos.

Para tolerar el error al quitar use DROP...IF EXISTS.

ROUTINE_PARAMETER_NOT_FOUND

SQLSTATE: 42000

La rutina <routineName> no admite el parámetro <parameterName> especificado en la posición <pos>.<suggestion>

ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME

SQLSTATE: 42939

No se puede crear la función <routineName> porque el nombre de clase especificado '<className>' está reservado para uso del sistema. Cambie el nombre de la clase e inténtelo de nuevo.

ROW_LEVEL_SECURITY_ABAC_MISMATCH

SQLSTATE: 0A000

No se pudieron resolver los filtros de fila en <tableName> porque había una incongruencia entre los filtros de fila heredados de las políticas y los filtros de fila definidos explícitamente. Para continuar, deshabilite el control de acceso basado en atributos (ABAC) y póngase en contacto con el soporte técnico de Databricks.

ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED

SQLSTATE: 0A000

No se admite la creación de CHECK restricciones en la tabla <tableName> con políticas de seguridad a nivel de fila.

ROW_LEVEL_SECURITY_COLUMN_MASK_UNRESOLVED_REFERENCE_COLUMN

SQLSTATE: 42703

No se puede resolver una columna con el nombre <objectName> al que se hace referencia en un parámetro de función de filtro de fila o máscara de columna.

Esto puede ocurrir si el esquema de tabla subyacente ha cambiado y la columna a la que se hace referencia ya no existe.

Por ejemplo, esto puede ocurrir si la columna se quitó en un sistema externo (por ejemplo, una tabla federada) o si una REPLACE operación en la tabla quitó la columna.

Para resolverlo, los usuarios con privilegios de administración en la tabla pueden inspeccionar los filtros de fila y las máscaras de columna actuales mediante DESCRIBE TABLE EXTENDEDy quitar o volver a crear cualquier columna que haga referencia a columnas inexistentes medianteSET.../ALTER TABLEDROP ROW FILTER o MASK.

Nota: Databricks introdujo una mejora de seguridad para conservar las máscaras de columna durante las operaciones de REPLACE cuando el nuevo esquema incluye la misma columna, incluso si no se especifica la máscara. Esto evita la pérdida involuntaria de políticas en las tablas.

ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME

SQLSTATE: 42734

Una <statementType> instrucción intentó asignar una directiva de seguridad de nivel de fila a una tabla, pero dos o más columnas a las que se hace referencia tenían el mismo nombre <columnName>, que no es válido.

ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED

SQLSTATE: 0A000

No se admiten directivas de seguridad de nivel de fila para <tableName> :

Para más información, consulte ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED.

ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 0A000

No se puede <statementType> <columnName> de la tabla <tableName> porque se hace referencia a ella en una directiva de seguridad de nivel de fila. El propietario de la tabla debe quitar o modificar esta directiva antes de continuar.

ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE

SQLSTATE: 0A000

Las operaciones MERGE INTO no admiten directivas de seguridad de nivel de fila en la tabla de origen <tableName>.

ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET

SQLSTATE: 0A000

Las operaciones MERGE INTO no admiten la escritura en la tabla <tableName> con directivas de seguridad de nivel de fila.

ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME

SQLSTATE: 42K05

Esta instrucción intentó asignar una directiva de seguridad de nivel de fila a una tabla, pero la columna <columnName> a la que se hace referencia tenía varias partes de nombre, que no son válidas.

ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG

SQLSTATE: 0A000

Las políticas de seguridad a nivel de fila solo se admiten en Unity Catalog.

ROW_LEVEL_SECURITY_SECONDARY_INDEX_CREATION_UNSUPPORTED

SQLSTATE: 0A000

No se puede crear un índice ON TABLE <tableName> secundario porque la tabla tiene definida una directiva de seguridad de nivel de fila.

ROW_LEVEL_SECURITY_SHOW_PARTITIONS_UNSUPPORTED

SQLSTATE: 0A000

El comando SHOW PARTITIONS no se admite para tablas <format> con directiva de seguridad de nivel de fila.

ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED

SQLSTATE: 0A000

No se admite la clonación <mode> de la tabla <tableName> con directiva de seguridad de nivel de fila.

ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED

SQLSTATE: 0A000

No se admite la clonación <mode> a la tabla <tableName> con directivas de seguridad de nivel de fila.

ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER

SQLSTATE: 0AKD1

No se admite el uso de una constante como parámetro en una directiva de seguridad de nivel de fila. Actualice el comando SQL para quitar la constante de la definición del filtro de fila y vuelva a intentarlo.

ROW_LEVEL_SECURITY_UNSUPPORTED_DATA_TYPE

SQLSTATE: 0AKDC

La función <functionName> que se usa para la directiva de seguridad de nivel de fila tiene un parámetro con el tipo <dataType>de datos no admitido .

ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER

SQLSTATE: 0A000

No se pudo ejecutar el comando <statementType> porque no se admite la aplicación de la política de seguridad de nivel de filas para el origen de datos de destino con el proveedor de tablas: "<provider>".

ROW_SUBQUERY_TOO_MANY_ROWS

SQLSTATE: 21000

Se devolvió más de una fila por una subconsulta usada como fila.

ROW_VALUE_IS_NULL

SQLSTATE: 22023

Se encontró NULL en una fila en el índice <index>; se esperaba un valor distinto deNULL.

RULE_ID_NOT_FOUND

SQLSTATE: 22023

No se encontró un identificador para el nombre de la regla "<ruleName>". Modifique RuleIdCollection.scala si va a agregar una nueva regla.

RUN_EMPTY_PIPELINE

SQLSTATE: 42617

Se espera que las canalizaciones tengan al menos un conjunto de datos no temporal definido (tablas, vistas persistentes), pero no se encontraron conjuntos de datos no temporales en la canalización.

Compruebe que ha incluido los archivos de código fuente esperados y que el código fuente incluye definiciones de tabla (por ejemplo, CREATE MATERIALIZED VIEW en código SQL, @dp.table en código python).

SALESFORCE_DATA_SHARE_API_UNAUTHORIZED

SQLSTATE: 42505

Error de autorización en salesforce Data Share API. Compruebe que se proporcionan los detalles de conexión de Databricks al destino de uso compartido de datos adecuado de Salesforce.

SAMPLE_TABLE_PERMISSIONS

SQLSTATE: 42832

Permisos no admitidos en bases de datos o tablas de ejemplo.

SCALAR_FUNCTION_NOT_COMPATIBLE

SQLSTATE: 42K0O

ScalarFunction <scalarFunc> no invalida el método "produceResult(InternalRow)" con la implementación personalizada.

SCALAR_FUNCTION_NOT_FULLY_IMPLEMENTED

SQLSTATE: 42K0P

ScalarFunction <scalarFunc> no implementa ni invalida el método "produceResult(InternalRow)".

SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION

SQLSTATE: 0A000

La subconsulta escalar correlacionada '<sqlExpr>' no está presente ni en GROUP BY ni en una función de agregado.

Agrégalo a GROUP BY usando la posición ordinal o envuélvelo en first() (o first_value) si no te importa qué valor obtienes.

SCALAR_SUBQUERY_TOO_MANY_ROWS

SQLSTATE: 21000

Se devolvió más de una fila por una subconsulta usada como expresión.

SCDS_COMMIT_LOG_UNAVAILABLE

SQLSTATE: KD006

El registro de confirmación no existe con checkpoint location=<checkpointLocation>.

SCDS_INVALID_OPTION_VALUE (valor de opción inválido)

SQLSTATE: 42616

Valor no válido para source option=<optionName> con errorMsg=<message>.

SCDS_OFFSET_LOG_UNAVAILABLE

SQLSTATE: KD006

El registro de desplazamiento no existe con checkpoint location=<checkpointLocation>.

SCDS_REQUIRED_OPTION_UNSPECIFIED

SQLSTATE: 42601

No se pudo especificar la opción requerida=<optionName>.

SCHEDULE_ALREADY_EXISTS

SQLSTATE: 42710

No se puede agregar <scheduleType> a una tabla que ya tenga <existingScheduleType>. Quite la programación existente o use ALTER TABLE...ALTER <scheduleType> ... para modificarlo.

SCHEDULE_PERIOD_INVALID

SQLSTATE: 22003

El período de programación de <timeUnit> debe ser un valor entero comprendido entre 1 y <upperBound> (inclusivo). Se recibió <actual>.

SCHEMA_ALREADY_EXISTS

SQLSTATE: 42P06

No se puede crear el esquema <schemaName> porque ya existe.

Elija otro nombre, quite el esquema existente o agregue la IF NOT EXISTS cláusula para tolerar el esquema preexistente.

SCHEMA_NOT_EMPTY

SQLSTATE: 2BP01

No se puede quitar un esquema <schemaName> porque contiene objetos .

Use DROP SCHEMA...CASCADE para quitar el esquema y todos sus objetos.

SCHEMA_NOT_FOUND

SQLSTATE: 42704

No se encuentra el esquema <schemaName> . Compruebe la ortografía y corrección del esquema y el catálogo.

Si no ha calificado el nombre con un catálogo, compruebe la salida de current_schema() o califique el nombre con el catálogo correcto.

Para tolerar el error en la operación de eliminación, use DROP SCHEMA IF EXISTS.

SCHEMA_REGISTRY_CONFIGURATION_ERROR

SQLSTATE: 42K0G

No se pudo inicializar el esquema del registro de esquema. <reason>.

SEARCH_INDEX_CATALOG_SCHEMA_MISMATCH

SQLSTATE: 42000

No se puede crear un índice <indexName> de búsqueda en el catálogo <indexCatalog> y el esquema <indexSchema>. El índice debe crearse en el mismo catálogo y esquema que la tabla <tableName> (<tableCatalog>base .<tableSchema>

SEARCH_INDEX_INVALID_PARAMETERS

SQLSTATE: 42K06

No se puede crear el índice de búsqueda, se da un parámetro no válido:

Para obtener más información, consulte SEARCH_INDEX_INVALID_PARAMETERS

SEARCH_INDEX_NAME_CONFLICTS_WITH_TABLE

SQLSTATE: 42P07

La tabla con nombre <indexName> de índice ya existe. Proporcione un nombre de índice personalizado que no entre en conflicto con las tablas existentes.

SEARCH_INDEX_OUTDATED_SCHEMA

SQLSTATE: KD007

El índice de búsqueda <indexName> tiene un esquema obsoleto. Vuelva a crear el índice mediante:

DROP SEARCH INDEX <indexName>;

CREATE SEARCH INDEX <indexName> ON <tableName>(<columnsList>);

SEARCH_REQUIRES_SEARCHABLE_COLUMNS

SQLSTATE: 42809

<context> requiere columnas con tipos que se pueden buscar (STRING COLLATE UTF8_BINARY, VARIANT, o ARRAY).

Para obtener más información, consulte SEARCH_REQUIRES_SEARCHABLE_COLUMNS

SEARCH_REQUIRES_STRING_LITERALS_ARGUMENTS

SQLSTATE: 42804

SEARCH requiere <argument> que el argumento sea literales de cadena, pero <actualExpr> se ha proporcionado. <possibleOptionsMessage>

SECONDARY_INDEX_REQUIRES_MANAGED_TABLE

SQLSTATE: 42809

No se puede <operation> ON TABLE <tableName> La operación solo se puede realizar en tablas administradas.

Para convertir una tabla en una tabla administrada, use el ALTER TABLE <tableName> SET MANAGED comando .

Para obtener más información, consulte: https://docs.databricks.com/aws/en/tables/convert-external-managed

SECONDARY_INDEX_UNSUPPORTED_TABLE_FORMAT

SQLSTATE: 42809

No <operation> ON TABLE <tableName>

La operación solo se puede realizar en tablas con los siguientes formatos: <supportedFormats>.

Compruebe el formato de tabla con DESCRIBE DETAIL <tableName>.

Si el formato actual es Parquet o Apache Iceberg, puede convertirlo permanentemente en su lugar con CONVERT TO DELTA <tableName>; vea https://docs.databricks.com/aws/en/sql/language-manual/delta-convert-to-delta

De lo contrario, vuelva a crear la tabla en uno de los formatos admitidos.

SECOND_FUNCTION_ARGUMENT_NOT_INTEGER

SQLSTATE: 22023

El segundo argumento de la <functionName> función debe ser un entero.

SECRET_FUNCTION_INVALID_LOCATION

SQLSTATE: 42K0E

No se puede ejecutar el comando <commandType> con una o varias referencias SECRET no cifradas a la función; por favor, cifre el resultado de cada llamada de función con AES_ENCRYPT e intente ejecutar el comando de nuevo.

SECURABLE_DOES_NOT_EXIST

SQLSTATE: 42P01

<securable> no existe.

SEED_EXPRESSION_IS_UNFOLDABLE

SQLSTATE: 42K08

La expresión <seedExpr> de inicialización de la expresión <exprWithSeed> debe ser plegable.

SERVER_IS_BUSY

SQLSTATE: 08KD1

El servidor está ocupado y no pudo controlar la solicitud. Espere un momento y vuelva a intentarlo.

SET_QUERY_TAGS_SYNTAX_INVALID

SQLSTATE: 42000

No se pudo ejecutar el SET comando porque la sintaxis no era válida. La sintaxis esperada para este comando es SET QUERY_TAGS o SET QUERY_TAGS['key'] = 'value'. Corrija el comando para que se ajuste a esta sintaxis y vuelva a ejecutarlo.

SFTP_DEPRECATED_SSH_RSA_KEY_ALGORITHM

SQLSTATE: 08006

El servidor <host>SFTP:<port> usa el algoritmo RSA SSH en desuso para el intercambio de claves.

Considere la posibilidad de actualizar el servidor SFTP para usar un algoritmo más seguro, como ECDSA o ED25519.

Como alternativa, omita este error estableciendo <escapeHatchConf> en true.

SFTP_UNABLE_TO_CONNECT

SQLSTATE: 08006

No se pudo conectar al servidor <host> SFTP en el puerto <port> con el nombre de usuario <user>.

<error>

SFTP_UNKNOWN_HOST_KEY

SQLSTATE: 08006

La clave de host del servidor <host> SFTP es desconocida o ha cambiado.

Compruebe el mensaje de error siguiente y proporcione la huella digital de la clave en el Key fingerprint campo.

Por ejemplo, si el mensaje indica "ECDSA la huella digital de la clave es SHA256:XXX/AAAA", envíe "SHA256:XXX/AAAA" como huella digital de la clave.

Mensaje de error de conexión:

<error>

SFTP_USER_DOES_NOT_MATCH

SQLSTATE: 08006

El usuario recuperado de la credencial <credentialUser> no coincide con el especificado en la ruta SFTP <path>.

SHOW_COLUMNS_WITH_CONFLICT_NAMESPACE

SQLSTATE: 42K05

SHOW COLUMNS con espacios de nombres en conflicto: <namespaceA> != <namespaceB>.

SNOWFLAKE_DATA_SOURCE_OPTIONS_VALIDATION_FAILED

SQLSTATE: 42616

Error en la validación del origen de datos de Snowflake.

Para obtener más información, consulte SNOWFLAKE_DATA_SOURCE_OPTIONS_VALIDATION_FAILED

SORT_BY_WITHOUT_BUCKETING

SQLSTATE: 42601

sortBy debe usarse junto con bucketBy.

SPARK_JOB_CANCELLED

SQLSTATE: HY008

Trabajo <jobId> cancelado <reason>

SPECIFY_BUCKETING_IS_NOT_ALLOWED

SQLSTATE: 42601

Una función CREATE TABLE sin lista de columnas explícita no puede especificar información de creación de cubos.

Use el formato con lista de columnas explícita y especifique la información de creación de cubos.

Como alternativa, permita que se infiera la información de creación de cubos omitiendo la cláusula.

SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED

SQLSTATE: 42908

No se pueden especificar ambos CLUSTER BY y CLUSTERED BY INTO BUCKETS.

SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED

SQLSTATE: 42908

No se pueden especificar ambos CLUSTER BY y PARTITIONED BY.

SPECIFY_PARTITION_IS_NOT_ALLOWED

SQLSTATE: 42601

Una CREATE TABLE sin lista de columnas explícita no puede especificar PARTITIONED BY.

Use el formulario con la lista de columnas explícita y especifique PARTITIONED BY.

Como alternativa, permita que se infiera la creación de particiones omitiendo la cláusula PARTITION BY.

SQL_CONF_NOT_FOUND

SQLSTATE: 42K0I

No se encuentra la configuración <sqlConf> de SQL. Compruebe que la configuración existe.

SQL_SCRIPT_IN_EXECUTE_IMMEDIATE

SQLSTATE: 07501

No se permiten scripts SQL en EXECUTE IMMEDIATE comandos. Asegúrese de que la consulta SQL proporcionada (<sqlString>) no sea SQL Script. Asegúrese de que el sql_string es una instrucción SQL bien formada y no contiene BEGIN y END.

SQL_SCRIPT_MAX_NUMBER_OF_CHARACTERS_EXCEEDED

SQLSTATE: 54000

Se ha superado el número máximo de caracteres de un script SQL (id: <scriptId>). El número máximo de caracteres permitido es <maxChars>y el script tenía <chars> caracteres.

SQL_SCRIPT_MAX_NUMBER_OF_LINES_EXCEEDED

SQLSTATE: 54000

Se ha superado el número máximo de líneas de un script SQL (id: <scriptId>). El número máximo de líneas permitidas es <maxLines>y el script tenía <lines> líneas.

SQL_SCRIPT_MAX_NUMBER_OF_LOCAL_VARIABLE_DECLARATIONS_EXCEEDED

SQLSTATE: 54KD1

Se ha superado el número máximo de declaraciones de variables locales en un script SQL (id: <scriptId>). El número máximo de declaraciones permitidas es <maxDeclarations>y el script tenía <declarations>.

SQL_STORED_PROCEDURES_NESTED_CALLS_LIMIT_EXCEEDED

SQLSTATE: 54000

Se ha superado el número máximo de llamadas a procedimientos anidados con el procedimiento (nombre: <procedureName>, callId: <procedureCallId>). El número máximo permitido de llamadas a procedimientos anidados es <limit>.

STAGING_PATH_CURRENTLY_INACCESSIBLE

SQLSTATE: 22000

Error transitorio al acceder a la ruta de acceso provisional de destino <path>, por favor, inténtelo dentro de unos minutos.

STAR_GROUP_BY_POS

SQLSTATE: 0A000

El asterisco (*) no se permite en una lista de selección cuando GROUP BY se usa una posición ordinal.

STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE

SQLSTATE: 42802

No se pudo realizar la operación del procesador con estado=<operationType> con un estado de identificador no válido=<handleState>.

STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE

SQLSTATE: 42802

No se pudo realizar la operación del procesador con estado=<operationType> con timeMode no válido=<timeMode>

STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED

SQLSTATE: 42802

La variable de estado con el nombre <stateVarName> ya se ha definido en StatefulProcessor.

STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL

SQLSTATE: 42802

No se puede usar TTL para state=<stateName> en timeMode=<timeMode>, use TimeMode.ProcessingTime() en su lugar.

STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE

SQLSTATE: 42802

La duración de TTL debe ser mayor que cero para la operación del almacén de estado=<operationType> en el estado=<stateName>.

STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE

SQLSTATE: 42802

Modo de hora desconocido <timeMode>. Los modos timeMode aceptados son "none", "processingTime", "eventTime"

STATE_REPARTITION_INVALID_CHECKPOINT

SQLSTATE: 55019

La ubicación de punto de control proporcionada '<checkpointLocation>' está en un estado no válido.

Para obtener más información, consulte STATE_REPARTITION_INVALID_CHECKPOINT

STATE_REPARTITION_INVALID_PARAMETER

SQLSTATE: 42616

El parámetro <parameter> de repartición no es válido:

Para obtener más información, consulte STATE_REPARTITION_INVALID_PARAMETER

STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS

SQLSTATE: 42802

No se pudo crear la familia de columnas con caracteres iniciales no admitidos y name=<colFamilyName>.

STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME

SQLSTATE: 42802

No se pudo realizar la operación de familia de columnas=<operationName> debido a un nombre=<colFamilyName> no válido. El nombre de familia de columnas no puede estar vacío ni incluir espacios iniciales o finales ni usar la palabra clave reservada=default

STATE_STORE_CHECKPOINT_IDS_NOT_SUPPORTED

SQLSTATE: KD002

<msg>

STATE_STORE_CHECKPOINT_LOCATION_NOT_EMPTY

SQLSTATE: 42K03

La ubicación <checkpointLocation> del punto de comprobación debe estar vacía en el lote 0

Use una nueva ubicación de punto de control o elimine los datos existentes en la ubicación del punto de control.

STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE

SQLSTATE: 42802

Transformación de esquema incompatible con column family=<colFamilyName>, oldSchema=<oldSchema>, newSchema=<newSchema>.

STATE_STORE_DOES_NOT_SUPPORT_REUSABLE_ITERATOR

SQLSTATE: 42K06

StateStore <inputClass> no admite iterador reutilizable.

STATE_STORE_HANDLE_NOT_INITIALIZED

SQLSTATE: 42802

El identificador no se ha inicializado para este elemento StatefulProcessor.

Use solo StatefulProcessor dentro del operador transformWithState.

STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN

SQLSTATE: 42802

Número incorrecto de ordinales de ordenación=<numOrderingCols> para el codificador de detección de intervalos. El número de ordinales de ordenación no puede ser cero o mayor que el número de columnas de esquema.

STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN

SQLSTATE: 42802

Número incorrecto de columnas de prefijo=<numPrefixCols> para el codificador de detección de prefijos. Las columnas de prefijo no pueden ser cero o mayores o iguales que el número de columnas de esquema.

STATE_STORE_INVALID_AVRO_SCHEMA

SQLSTATE: 3F000

Se detectó un esquema no válido para la codificación Avro.

Para obtener más información, consulte STATE_STORE_INVALID_AVRO_SCHEMA

STATE_STORE_INVALID_CONFIG_AFTER_RESTART

SQLSTATE: 42K06

No se puede cambiar <configName> de <oldConfig> a <newConfig> entre reinicios. Establezca <configName> a <oldConfig>, o reinicie con un nuevo directorio de punto de control.

STATE_STORE_INVALID_PROVIDER

SQLSTATE: 42K06

El proveedor de almacén de estado <inputClass> especificado no extiende org.apache.spark.sql.execution.streaming.state.StateStoreProvider.

STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE

SQLSTATE: 42K06

No se puede cambiar <stateVarName> a <newType> entre reinicios de consulta. Establezca <stateVarName> a <oldType>, o reinicie con un nuevo directorio de punto de control.

STATE_STORE_KEY_SCHEMA_NOT_COMPATIBLE

SQLSTATE: 42000

El esquema de clave proporcionado no coincide con el esquema existente en el estado del operador.

Esquema existente=<storedKeySchema>; esquema proporcionado=<newKeySchema>.

Para ejecutar la consulta sin validación de esquema, establezca spark.sql.streaming.stateStore.stateSchemaCheck en false.

Tenga en cuenta que la ejecución sin validación de esquemas puede tener un comportamiento no determinista.

STATE_STORE_NATIVE_ROCKSDB_TIMEOUT

SQLSTATE: 58030

Al acceder al almacén de estados de RocksDB para una operación de streaming con estado, se ha agotado el tiempo de espera de la llamada a la función nativa de RocksDB <funcName> después de esperar <timeoutMs> ms. Inténtelo de nuevo y reinicie el clúster si el error persiste.

STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED

SQLSTATE: 42802

No se admite la columna de ordenación de tipos NULL con nombre=<fieldName> en el índice=<index> para el codificador de detección de intervalos.

STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY

SQLSTATE: 42K06

El proveedor de almacén de estado <inputClass> especificado no extiende org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay.

Por lo tanto, no admite la opción snapshotStartBatchId ni readChangeFeed en el origen de datos de estado.

STATE_STORE_ROCKSDB_ZIP_ALREADY_EXISTS

SQLSTATE: 42K04

El archivo <zipFilePath> ZIP de instantáneas de RocksDB ya existe. Esto significa que la instantánea ya se ha cargado en DFS.

(allowVersionOverwrite=<allowVersionOverwrite>, shouldUseCommitService=<shouldUseCommitService>)

STATE_STORE_STATE_SCHEMA_FILES_THRESHOLD_EXCEEDED

SQLSTATE: 42K06

El número de archivos <numStateSchemaFiles> de esquema de estado supera el número máximo de archivos de esquema de estado para esta consulta: <maxStateSchemaFiles>.

Agregado: <addedColumnFamilies>, Quitado: <removedColumnFamilies>

Establezca "spark.sql.streaming.stateStore.stateSchemaFilesThreshold" en un número mayor o revierta las modificaciones del esquema de estado.

STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY

SQLSTATE: 42802

La operación del almacén de estado=<operationType> no se admite en la familia de columnas que faltan=<colFamilyName>.

STATE_STORE_VALUE_SCHEMA_EVOLUTION_THRESHOLD_EXCEEDED

SQLSTATE: 42K06

El número de evoluciones del esquema de estado supera el número máximo de evoluciones <numSchemaEvolutions> de esquema de estado, <maxSchemaEvolutions>, permitidas para esta familia de columnas.

Familia de columnas incorrecta: <colFamilyName>

Establezca "spark.sql.streaming.stateStore.valueStateSchemaEvolutionThreshold" en un número mayor o revierta las modificaciones del esquema de estado.

STATE_STORE_VALUE_SCHEMA_NOT_COMPATIBLE

SQLSTATE: 42000

El esquema de valor proporcionado no coincide con el esquema existente en el estado del operador.

Esquema existente=<storedValueSchema>; esquema proporcionado=<newValueSchema>.

Para ejecutar la consulta sin validación de esquema, establezca spark.sql.streaming.stateStore.stateSchemaCheck en false.

Tenga en cuenta que la ejecución sin validación de esquemas puede tener un comportamiento no determinista.

STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED

SQLSTATE: 42802

No se admite la columna de ordenación de tamaño variable con name=<fieldName> en index=<index> para el codificador de análisis de intervalos.

STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST

SQLSTATE: 42713

La columna <staticName> de partición estática también se especifica en la lista de columnas.

STDS_COMMITTED_BATCH_UNAVAILABLE

SQLSTATE: KD006

No se encontró ningún lote confirmado, ubicación del punto de control: <checkpointLocation>. Asegúrese de que la consulta se ha ejecutado y ha confirmado todos los microlotes antes de detenerla.

STDS_CONFLICT_OPTIONS

SQLSTATE: 42613

Las opciones <options> no se pueden especificar juntas. Especifique la opción.

STDS_FAILED_TO_READ_OPERATOR_METADATA

SQLSTATE: 42K03

No se pudieron leer los metadatos del operador para checkpointLocation=<checkpointLocation> y batchId=<batchId>.

El archivo no existe o el archivo está dañado.

Vuelva a ejecutar la consulta de streaming para construir los metadatos del operador e informe a las comunidades o proveedores correspondientes si el error persiste.

STDS_FAILED_TO_READ_STATE_SCHEMA

SQLSTATE: 42K03

No se pudo leer el esquema de estado. El archivo no existe o el archivo está dañado. opciones: <sourceOptions>.

Vuelva a ejecutar la consulta de streaming para construir el esquema de estado e informe a las comunidades o proveedores correspondientes si el error persiste.

STDS_INVALID_OPTION_VALUE

SQLSTATE: 42616

Valor no válido para la opción de origen '<optionName>':

Para obtener más información, consulte STDS_INVALID_OPTION_VALUE.

STDS_MIXED_CHECKPOINT_FORMAT_VERSIONS_NOT_SUPPORTED

SQLSTATE: KD002

No se admite la lectura del estado en distintas versiones de formato de punto de control.

startBatchId=<startBatchId>, endBatchId=<endBatchId>.

startFormatVersion=<startFormatVersion>, endFormatVersion=<endFormatVersion>.

STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE

SQLSTATE: KD006

El estado no tiene ninguna partición. Compruebe que la consulta apunta al estado válido. Opciones: <sourceOptions>

STDS_OFFSET_LOG_UNAVAILABLE

SQLSTATE: KD006

El registro de desplazamiento de <batchId> no existe, ubicación del punto de control: <checkpointLocation>.

Especifique el identificador de lote que está disponible para realizar consultas: puede consultar los identificadores de lote disponibles mediante el origen de datos de metadatos de estado.

STDS_OFFSET_METADATA_LOG_UNAVAILABLE

SQLSTATE: KD006

Los metadatos no están disponibles para el registro de desplazamiento de <batchId>; ubicación del punto de control: <checkpointLocation>.

Parece que el punto de control solo se ejecuta con versiones anteriores de Spark. Ejecute la consulta de streaming con la versión reciente de Spark para que Spark construya los metadatos de estado.

STDS_REQUIRED_OPTION_UNSPECIFIED

SQLSTATE: 42601

Se debe especificar '<optionName>'.

STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS

SQLSTATE: 0A000

La Ejecución Adaptable de Consultas no está soportada para operadores con estado en Structured Streaming.

STREAMING_CHECKPOINT_METADATA_ERROR

SQLSTATE: 42616

Error con metadatos de punto de control de streaming.

Para obtener más información, consulte STREAMING_CHECKPOINT_METADATA_ERROR

STREAMING_CHECKPOINT_PIN_BATCH_ERROR

SQLSTATE: 42000

No se pudo realizar la operación de anclaje para la consulta de streaming con la ubicación del punto de comprobación=<checkpointLocation> en batchId=<batchId>.

Para obtener más información, consulte STREAMING_CHECKPOINT_PIN_BATCH_ERROR

STREAMING_CHECKPOINT_REWIND_ERROR

SQLSTATE: 42000

No se pudo realizar la operación de rebobinado para la consulta de streaming con la ubicación del punto de comprobación=<checkpointLocation>.

Para obtener más información, consulte STREAMING_CHECKPOINT_REWIND_ERROR

STREAMING_CHECKPOINT_REWIND_OPTIONS_ERROR

SQLSTATE: 42616

Error durante la operación de rebobinado del punto de control de streaming.

Para obtener más información, consulte STREAMING_CHECKPOINT_REWIND_OPTIONS_ERROR

STREAMING_FROM_MATERIALIZED_VIEW

SQLSTATE: 0A000

No se puede transmitir desde la vista materializada <viewName>. No se admite el streaming desde vistas materializadas.

STREAMING_OUTPUT_MODE

SQLSTATE: 42KDE

Modo de salida de streaming no válido: <outputMode>.

Para obtener más información, consulte STREAMING_OUTPUT_MODE

STREAMING_QUERY_EVOLUTION_ERROR

SQLSTATE: 42000

Error de evolución de consultas de streaming:

Para obtener más información, consulte STREAMING_QUERY_EVOLUTION_ERROR

STREAMING_RATE_SOURCE_OFFSET_VERSION_MISMATCH

SQLSTATE: KD002

Espere la versión <expectedVersion> de la compensación de origen de tasa, pero obtuvo la versión <actualVersion>. Para continuar, establezca la opción "version" en <expectedVersion> en las opciones de origen de tarifas. Por ejemplo, spark.readStream.format("rate").option("version", "<expectedVersion>").

STREAMING_RATE_SOURCE_V2_CAMBIO_NO_SOPORTADO_ENTRE_PARTICIONES

SQLSTATE: 0A000

El número de particiones (<prevNum>) usadas en el microbatch anterior es diferente del número actual de particiones (<currNum>). Puede haber dos razones posibles:

  1. La opción "numPartitions" del origen de velocidad se cambia durante el reinicio de la consulta.

  2. El tamaño del clúster puede cambiar durante el reinicio de la consulta.

Establezca explícitamente la opción "numPartitions" del origen de velocidad a <prevNum> para corregir este problema.

STREAMING_RATE_SOURCE_V2_RAMPUP_TIME_UNSUPPORTED

SQLSTATE: 0A000

La opción "rampUpTime" no es compatible con la versión 2 de la tarifa. Para usar esta opción, establezca la opción "version" en 1. Por ejemplo, spark.readStream.format("rate").option("version", "1").

STREAMING_REAL_TIME_MODE

SQLSTATE: 0A000

El modo en tiempo real de streaming tiene la siguiente limitación:

Para obtener más información, consulte STREAMING_REAL_TIME_MODE

PROPAGACIÓN_DE_MARCADO_DE_AGUA_EN_FLUJO_TIEMPO_REAL

SQLSTATE: 0A000

La propagación de marcas de agua en tiempo real de streaming tiene la siguiente limitación:

Para obtener más información, consulte STREAMING_REAL_TIME_WATERMARK_PROPAGATION

STREAMING_SINK_DELIVERY_MODE

SQLSTATE: 42KDE

Modo de entrega del receptor de streaming no válido: <deliveryMode>.

Para obtener más información, consulte STREAMING_SINK_DELIVERY_MODE

STREAMING_SKIP_OFFSETS_INVALID_RANGE

SQLSTATE: 42616

Intervalo de desplazamiento de omisión no válido: el desplazamiento <endOffset> final es menor que el desplazamiento <startOffset>inicial. Corrija este intervalo de desplazamiento e inténtelo de nuevo.

STREAMING_STATEFUL_OPERATOR_MISSING_STATE_DIRECTORY

SQLSTATE: 42K03

No se puede reiniciar la consulta de streaming con operadores con estado porque el directorio de estado está vacío o falta.

Esto suele ocurrir cuando se han eliminado los archivos de estado o la consulta de streaming se ejecutó anteriormente sin operadores con estado, pero se reiniciaron con operadores con estado.

Quite los operadores con estado, use una nueva ubicación de punto de control o restaure los archivos de estado que faltan.

STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA

SQLSTATE: 42K03

El nombre del operador con estado de streaming no coincide con el operador en los metadatos de estado. Es probable que esto ocurra si el usuario agrega, quita o cambia el operador con estado de la consulta de streaming existente.

Operadores con estado en los metadatos: [<OpsInMetadataSeq>]; Operadores con estado en el lote actual: [<OpsInCurBatchSeq>].

STREAMING_TABLE_NEEDS_REFRESH

SQLSTATE: 55019

la tabla de streaming <tableName> debe actualizarse para ejecutar <operation>.

Si la tabla se crea a partir de DBSQL, ejecute REFRESH STREAMING TABLE.

Si una canalización crea la tabla en Canalizaciones declarativas de Spark de Lakeflow, ejecute una actualización de canalización.

STREAMING_TABLE_NOT_SUPPORTED

SQLSTATE: 56038

Las tablas de streaming solo se pueden crear y actualizar en Canalizaciones declarativas de Spark de Lakeflow y Databricks SQL Warehouse.

STREAMING_TABLE_OPERATION_NOT_ALLOWED

SQLSTATE: 42601

No se permite la operación <operation>:

Para obtener más información, consulte STREAMING_TABLE_OPERATION_NOT_ALLOWED.

STREAMING_TABLE_QUERY_INVALID

SQLSTATE: 42000

la tabla de streaming <tableName> solo se puede crear desde una consulta de streaming. Agregue la palabra clave STREAM a la cláusula FROM para convertir esta relación en una consulta de streaming.

STREAM_NOT_FOUND_FOR_KINESIS_SOURCE

SQLSTATE: 42K02

No se encuentra la secuencia de Kinesis <streamName> en <region>.

Inicie una nueva consulta que apunte al nombre de secuencia correcto.

STRUCT_ARRAY_LENGTH_MISMATCH

SQLSTATE: 2201E

La fila de entrada no tiene el número esperado de valores requeridos por el esquema. Los campos <expected> son obligatorios mientras se proporcionan valores <actual>.

ST_INVALID_ALGORITHM_VALUE

SQLSTATE: 22023

Valor del algoritmo de interpolación perimetral no válido o no admitido: '<alg>'.

ST_INVALID_CRS_VALUE

SQLSTATE: 22023

Valor CRS (sistema de referencia de coordenadas) no válido o no admitido: '<crs>'.

ST_INVALID_SRID_VALUE

SQLSTATE: 22023

Valor SRID (identificador de referencia espacial) no válido o no admitido: <srid>.

SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT

SQLSTATE: 22003

La suma de la LIMIT cláusula y la OFFSET cláusula no deben ser mayores que el valor entero máximo de 32 bits (2.147.483.647), pero se encontró el límite = <limit>, offset = <offset>.

SYNC_METADATA_DELTA_ONLY

SQLSTATE: 0AKDD

El comando reparar metadatos de sincronización de tablas solo se admite para la tabla delta.

SYNC_SRC_TARGET_TBL_NOT_SAME

SQLSTATE: 42KD2

El nombre <srcTable> de la tabla de origen debe ser el mismo que el nombre <destTable>de la tabla de destino.

SYNTAX_DISCONTINUED

SQLSTATE: 42601

Compatibilidad con la cláusula o palabra clave: <clause> se ha interrumpido en este contexto.

Para obtener más información, consulte SYNTAX_DISCONTINUED

ARGUMENTOS_TABLA_NO_PERMITIDOS

SQLSTATE: 42601

TABLE Los parámetros no se admiten en <routineType>.

TABLE_NOT_VALID_SECONDARY_INDEX

SQLSTATE: 42809

No se pudo ejecutar el DESCRIBE SEARCH INDEX comando porque la tabla <tableName> no es un índice válido <indexType> . Actualice el comando para usar un índice válido y vuelva a intentarlo.

TABLE_OR_VIEW_ALREADY_EXISTS

SQLSTATE: 42P07

No se puede crear una tabla o vista <relationName> porque ya existe.

Elija otro nombre, quite el objeto existente, agregue la IF NOT EXISTS cláusula para tolerar objetos preexistentes, agregue la cláusula OR REPLACE para reemplazar la vista materializada existente o agregue la cláusula OR REFRESH para actualizar la tabla de streaming existente.

TABLE_OR_VIEW_NOT_FOUND

SQLSTATE: 42P01

No se encuentra la tabla o vista <relationName> . Compruebe la ortografía y corrección del esquema y el catálogo.

Si no ha calificado el nombre con un esquema, compruebe la salida de current_schema() o califique el nombre con el esquema y el catálogo correctos.

Para tolerar el error al quitarlo, use DROP VIEW IF EXISTS o DROP TABLE IF EXISTS.

Para obtener más información, consulte TABLE_OR_VIEW_NOT_FOUND

TABLE_TYPE_INCOMPATIBLE_WITH_ABAC_POLICY

SQLSTATE: 0AKUC

El tipo de tabla de <tableName>, <tableType>, no admite directivas de ABAC.

Quite las directivas y vuelva a intentarlo.

TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS

SQLSTATE: 0A000

No se puede <action> la función SQL definida por el usuario <functionName> con argumentos TABLE porque esta funcionalidad aún no se ha implementado.

TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON

SQLSTATE: 38000

No se pudo analizar la función de tabla definida por el usuario de Python: <msg>

TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL

SQLSTATE: 22023

Error al evaluar la función de tabla <functionName> porque sus metadatos de tabla <requestedMetadata>, pero la llamada de función <invalidFunctionCallProperty>.

TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID

SQLSTATE: 22023

No se pudo evaluar la función <functionName> de tabla porque sus metadatos de tabla no eran válidos; <reason>.

TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS

SQLSTATE: 54023

Hay demasiados argumentos de tabla para la función con valores de tabla.

Permite un argumento de tabla, pero se obtuvo <num>.

Si quiere permitirlo, establezca "spark.sql.allowMultipleTableArguments.enabled" en "true"

TABLE_WITH_ID_NOT_FOUND

SQLSTATE: 42P01

No se encuentra la tabla con identificador <tableId> . Compruebe la corrección del UUID.

TASK_WRITE_FAILED

SQLSTATE: 58030

Error de tarea al escribir filas en <path>.

TEMP_CHECKPOINT_LOCATION_NOT_SUPPORTED

SQLSTATE: 0A000

No se admiten ubicaciones implícitas para puntos de control temporales de streaming en el área de trabajo actual; por favor, especifique una ubicación de punto de control explícitamente.

Para display(), establezca la ubicación del punto de control mediante:

display(df, checkpointLocation = "your_path")

Para todas las demás consultas de streaming, use:

.option("checkpointLocation", "your_path").

TEMP_TABLE_CREATION_LEGACY_WITH_QUERY

SQLSTATE: 0A000

CREATE TEMPORARY TABLE ... AS ... no se admite aquí, use CREATE TEMPORARY VIEW en su lugar.

TEMP_TABLE_CREATION_MUTUAL_EXCLUSIVE_SPECS

SQLSTATE: 0A000

CREATE TEMPORARY TABLE no admite la especificación <unsupportedSpec>de .

Para obtener más información, consulte TEMP_TABLE_CREATION_MUTUAL_EXCLUSIVE_SPECS

TEMP_TABLE_CREATION_NAME_RESERVED

SQLSTATE: 42K05

No se puede crear una tabla <tableName> temporal porque comienza con un prefijo <reservedPrefix>de nombre reservado. Elija otro nombre y vuelva a intentarlo.

TEMP_TABLE_CREATION_NOT_SUPPORTED_IN_COMPUTE

SQLSTATE: 0A000

CREATE TEMPORARY TABLE [AS ... ] no se admite con el tipo de proceso actual. Use Databricks SQL (DBSQL) para crear tablas temporales locales de sesión en su lugar.

TEMP_TABLE_CREATION_REQUIRES_SINGLE_PART_NAME

SQLSTATE: 42K05

La creación de una tabla temporal local de sesión requiere un nombre de tabla compuesto por una sola parte, pero tiene <tableName>. Actualice el comando para usar un solo nombre de tabla de partes y vuelva a intentarlo.

TEMP_TABLE_CREATION_UNSUPPORTED_LEGACY_SYNTAX_WITH_HINTS

SQLSTATE: 0A000

CREATE TEMPORARY TABLE ... USING ... AS ... no se admite. Para crear una tabla temporal, quite la USING cláusula y vuelva a intentarlo.

TEMP_TABLE_DELETION_MUTUAL_EXCLUSIVE_SPECS

SQLSTATE: 0A000

DROP TEMPORARY TABLE no admite especificar <unsupportedSpec>, quite esta especificación o elimine una tabla permanente en su lugar mediante el comando DROP TABLE.

TEMP_TABLE_DELETION_REQUIRES_SINGLE_PART_NAME

SQLSTATE: 42K05

Eliminar una tabla temporal local de sesión requiere un nombre de tabla de una sola parte, pero tiene <tableName>. Actualice el DROP TEMPORARY TABLE comando para usar un nombre de tabla de una sola parte para quitar una tabla temporal o use DROP TABLE el comando en su lugar para quitar una tabla permanente.

TEMP_TABLE_NOT_FOUND

SQLSTATE: 42P01

No se encuentra la tabla <tableName> temporal en la sesión actual. Compruebe la ortografía y la corrección del nombre de la tabla y vuelva a intentar la consulta o comando.

Para tolerar el error al soltar, use DROP TEMP TABLE IF EXISTS.

TEMP_TABLE_NOT_SUPPORTED_WITH_DATABRICKS_JOBS

SQLSTATE: 0A000

Todavía no se admiten las tablas temporales en Databricks Jobs. Use en Databricks Notebooks en su lugar y póngase en contacto con el soporte técnico de Databricks para obtener más información.

TEMP_TABLE_NOT_SUPPORTED_WITH_HMS

SQLSTATE: 0A000

No se admite la operación <operation> de tabla temporal en Metastore de Hive.

TEMP_TABLE_OPERATION_NOT_SUPPORTED

SQLSTATE: 0A000

Las operaciones en la tabla <tableName> temporal local de sesión no están permitidas.

Para obtener más información, consulte TEMP_TABLE_OPERATION_NOT_SUPPORTED

TEMP_TABLE_OPERATION_NOT_SUPPORTED_IN_V1_COMMAND

SQLSTATE: 0A000

<operation> en tablas temporales no se admite con comandos V1. Establezca "spark.sql.legacy.useV1Command" en false y vuelva a intentarlo.

TEMP_TABLE_OR_VIEW_ALREADY_EXISTS

SQLSTATE: 42P07

No se puede crear la tabla o vista <relationName> temporal porque ya existe.

Elija otro nombre, quite o reemplace el objeto existente.

TEMP_TABLE_REPLACE_NOT_SUPPORTED

SQLSTATE: 0A000

[CREATE OR] REPLACE TEMPORARY TABLE no se admite. Para reemplazar una tabla temporal existente, colóquela con DROP TEMPORARY TABLE ... [IF EXISTS] y vuelva a crearlo con CREATE TEMPORARY TABLE ... .

TEMP_TABLE_REQUIRES_DATABRICKS_ENV

SQLSTATE: 0AKDD

Las operaciones en tablas temporales locales de sesión requieren el entorno de Databricks.

TEMP_TABLE_REQUIRES_DELTA

SQLSTATE: 0AKDD

Las operaciones en tablas temporales locales de sesión requieren que se habilite el catálogo delta. Por favor, active el catálogo Delta y vuelva a intentarlo.

TEMP_TABLE_REQUIRES_UC

SQLSTATE: 0AKUD

Las operaciones en tablas temporales locales de sesión requieren unity Catalog. Habilite el catálogo de Unity en el entorno en ejecución y vuelva a intentarlo.

TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS

SQLSTATE: 428EK

CREATE TEMPORARY VIEW o las API de conjunto de datos correspondientes solo aceptan nombres de vista de una sola parte, pero se obtuvo <actualName>.

THETA_INVALID_INPUT_SKETCH_BUFFER

SQLSTATE: 22546

Llamada no válida a <function>; solo se admiten búferes de croquis de Theta válidos como entradas (como las producidas por la theta_sketch_agg función).

THETA_INVALID_LG_NOM_ENTRIES

SQLSTATE: 22546

Llamada no válida a <function>; el lgNomEntries valor debe estar entre <min> y <max>, ambos incluidos: <value>.

THETA_LG_NOM_ENTRIES_MUST_BE_CONSTANT

SQLSTATE: 42K0E

Llamada no válida a <function>; el lgNomEntries valor debe ser un valor constante, pero tiene una expresión no constante.

TRAILING_COMMA_IN_SELECT

SQLSTATE: 42601

Coma final detectada en la cláusula SELECT. Quite la coma final antes de la FROM cláusula .

TRANSACTION_CDF_SCHEMA_WITH_RESERVED_COLUMN_NAME

SQLSTATE: 42939

La fuente de distribución de datos modificados no se puede habilitar en una transacción porque una tabla contiene un nombre de columna reservado (<column_name>).

Para continuar, asegúrese de que la tabla usa solo nombres de columna no reservados.

TRANSACTION_CDF_SETTING_HIGH_WATERMARK_NOT_ALLOWED

SQLSTATE: 25000

No se permite establecer manualmente el límite máximo de las identidades de CDC.

TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE

SQLSTATE: 40000

Se ha detectado un cambio simultáneo de metadatos en el objeto <table>. ROLLBACK Ejecute y vuelva a intentar esta transacción. Details:

Para obtener más información, consulte TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE

TRANSACTION_CONTEXT_MISMATCH

SQLSTATE: 25000

Se detectó una inconsistencia en el contexto de transacción entre el hilo actual y la sesión de Spark. Esto suele ocurrir cuando una sesión de Spark se comparte entre varios subprocesos. Por favor, use una sesión y un hilo dedicados para cada transacción, y confirme o revierta la transacción en su hilo antes de reutilizar la sesión y el hilo para una nueva transacción. Details:

Para obtener más información, consulte TRANSACTION_CONTEXT_MISMATCH

TRANSACTION_MAX_COMMIT_TIMESTAMP_EXCEEDED

SQLSTATE: 25000

La transacción no se puede confirmar porque se supera la marca de tiempo máxima de confirmación. maxCommitTimestamp:<maxCommitTimestampMs> commitTimestamp:<commitTimestampMs>

TRANSACTION_NOT_SUPPORTED

SQLSTATE: 0A000

Error al ejecutar la instrucción.

Para obtener más información, consulte TRANSACTION_NOT_SUPPORTED

TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT

SQLSTATE: 40000

Se ha anulado la transacción actual. ROLLBACK TRANSACTION Ejecute antes de continuar. Motivo de anulación:

Para obtener más información, consulte TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT

TRANSFORM_WITH_STATE_USER_FUNCTION_ERROR

SQLSTATE: 39000

Error en la función <function> definida por el usuario de StatefulProcessor. Motivo: <reason>.

TRANSPOSE_EXCEED_ROW_LIMIT

SQLSTATE: 54006

El número de filas supera el límite permitido de <maxValues> para TRANSPOSE. Si esto era intencionado, configure <config> en al menos el número actual de filas.

TRANSPOSE_INVALID_INDEX_COLUMN

SQLSTATE: 42804

Columna de índice no válida para TRANSPOSE porque: <reason>

TRANSPOSE_NO_LEAST_COMMON_TYPE

SQLSTATE: 42K09

La transposición requiere que las columnas que no sean de índice compartan un tipo común mínimo, pero <dt1> y <dt2> no lo hacen.

TRIGGER_INTERVAL_INVALID

SQLSTATE: 22003

El intervalo del desencadenador debe ser una duración positiva que se puede convertir en segundos enteros. Se recibió: <actual> segundos.

TUPLE_IS_EMPTY

SQLSTATE: 22004

Debido a la compatibilidad limitada de la tupla de Scala, no se admite la tupla vacía.

TUPLE_SIZE_EXCEEDS_LIMIT

SQLSTATE: 54011

Debido a la compatibilidad limitada de la tupla de Scala, no se admiten tuplas con más de 22 elementos.

UC_BUCKETED_TABLES

SQLSTATE: 0AKUC

Las tablas con cubos no se admiten en el catálogo de Unity.

UC_CATALOG_NAME_NOT_PROVIDED

SQLSTATE: 3D000

En el caso del catálogo de Unity, especifique explícitamente el nombre del catálogo. Por ejemplo, SHOW GRANT your.address@email.com ON CATALOG principal.

UC_COMMAND_NOT_SUPPORTED

SQLSTATE: 0AKUC

Los comandos: <commandName> no se admiten en el catálogo de Unity.

Para obtener más información, consulte UC_COMMAND_NOT_SUPPORTED

UC_COMMAND_NOT_SUPPORTED_IN_SERVERLESS

SQLSTATE: 0AKUC

Los comandos <commandName> no son compatibles con los clústeres del catálogo de Unity en un entorno sin servidor. En su lugar, use clústeres compartidos o de usuario único.

UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE

SQLSTATE: 0AKUC

Los comandos <commandName> no son compatibles con los clústeres de Unity Catalog en modo de acceso compartido. En su lugar, use el modo de acceso de usuario único.

UC_CONNECTION_NOT_FOUND_FOR_FILE_SYSTEM_SOURCE_ACCESS

SQLSTATE: 42704

No se pudo encontrar una conexión UC válida para acceder <path> después de evaluar <connectionNames>.

Asegúrese de que al menos una conexión UC válida esté disponible para acceder a la ruta de acceso de destino.

Errores detallados para las conexiones evaluadas:

<connectionErrors>

UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED

SQLSTATE: 0AKUC

No se admite el tipo de credencial especificado.

UC_DATASOURCE_NOT_SUPPORTED

SQLSTATE: 0AKUC

El formato del origen <dataSourceFormatName> de datos no se admite en el Catálogo de Unity.

UC_DATASOURCE_OPTIONS_NOT_SUPPORTED

SQLSTATE: 0AKUC

Las opciones del origen de datos no se admiten en el Catálogo de Unity.

UC_DEPENDENCY_DOES_NOT_EXIST

SQLSTATE: 42P01

La dependencia no existe en el catálogo de Unity:

<errorMessage>

UC_EXTERNAL_VOLUME_MISSING_LOCATION

SQLSTATE: 42601

La cláusula LOCATION debe estar presente para el volumen externo. Compruebe la sintaxis 'CREATE EXTERNAL VOLUME...LOCATION ...' para crear un volumen externo.

UC_FAILED_PROVISIONING_STATE

SQLSTATE: 0AKUC

Error en la consulta porque intentó hacer referencia a la tabla <tableName> , pero no pudo hacerlo: <failureReason>. Actualice la tabla <tableName> para asegurarse de que está en un estado de aprovisionamiento activo y vuelva a intentar la consulta.

UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED

SQLSTATE: 0AKUC

No se admite la creación de una tabla en el catálogo de Unity con esquema <schemeName> de archivos.

En su lugar, cree una conexión de origen de datos federado mediante el CREATE CONNECTION comando para el mismo proveedor de tablas y, a continuación, cree un catálogo basado en la conexión con un CREATE FOREIGN CATALOG comando para hacer referencia a las tablas que contiene.

UC_HIVE_METASTORE_DISABLED_EXCEPTION

SQLSTATE: 0A000

La operación intentó usar Metastore<identifier> de Hive, que está deshabilitada debido a que el acceso heredado está desactivado en su cuenta o área de trabajo. Compruebe el catálogo predeterminado en la sesión actual y la configuración predeterminada del espacio de nombres. Si necesita acceder a Hive Metastore, pida al administrador que configure la federación de Metastore de Hive a través del catálogo de Unity.

UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED

SQLSTATE: 56038

La vista de federación de Metastore de Hive no admite dependencias en varios catálogos. La vista <view> del catálogo de federación del metastore de Hive debe usar dependencias del catálogo hive_metastore o spark_catalog, pero su dependencia <dependency> está en otro catálogo <referencedCatalog>. Actualice las dependencias para satisfacer esta restricción y vuelva a intentar la consulta o comando.

UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED

SQLSTATE: 0A000

La federación de Metastore de Hive no está habilitada en este clúster.

No se admite el acceso al catálogo <catalogName> en este clúster

UC_INVALID_DEPENDENCIES

SQLSTATE: 56098

Las dependencias de <securable> se registran como <storedDeps> mientras se analizan como <parsedDeps>. Esto probablemente se produjo mediante un uso incorrecto de una API que no es de SQL.

Para obtener más información, consulte UC_INVALID_DEPENDENCIES

UC_INVALID_NAMESPACE

SQLSTATE: 0AKUC

Los espacios de nombres anidados o vacíos no se admiten en el catálogo de Unity.

UC_INVALID_REFERENCE

SQLSTATE: 0AKUC

Un objeto no-Unity-Catalog <name> no puede ser referenciado en objetos del Catálogo de Unity.

UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED

SQLSTATE: 56038

La función de escritura de Unity Catalog Lakehouse Federation no está habilitada para el proveedor <provider> en este clúster.

UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED

SQLSTATE: 42601

El volumen administrado no acepta la cláusula LOCATION. Compruebe la sintaxis 'CREATE VOLUME ...' para crear un volumen administrado.

UC_NOT_ENABLED

SQLSTATE: 56038

El catálogo de Unity no está habilitado en este clúster.

UC_QUERY_FEDERATION_NOT_ENABLED

SQLSTATE: 56038

La federación de consultas del catálogo de Unity no está habilitada en este clúster.

UC_RESOLVED_DBFS_PATH_MISMATCH

SQLSTATE: 0AKUC

Error en la consulta porque intentó hacer referencia a <objectType> <name> pero no pudo hacerlo: la ruta <resolvedHmsPath> de acceso de DBFS resuelta no coincide con la ubicación <ucStorageLocation>de almacenamiento del catálogo de Unity.

SECRETO_UC_NO_ACTIVADO

SQLSTATE: 56038

La compatibilidad con los secretos del Unity Catalog no está habilitada.

UC_SECRETO_YA_EXISTE

SQLSTATE: 42713

No se puede crear el secreto <name> porque ya existe.

Elija otro nombre, quite o reemplace el objeto existente o agregue la IF NOT EXISTS cláusula para tolerar objetos preexistentes.

UC_SECRET_NOT_FOUND

SQLSTATE: 42704

El secreto <name> no existe. Use "SHOW SECRETS" para enumerar los secretos disponibles.

UC_SERVICE_CREDENTIALS_NOT_ENABLED

SQLSTATE: 56038

Las credenciales de servicio no están habilitadas en este clúster.

UC_TABLE_METADATA_OUT_OF_SYNC

SQLSTATE: 55019

No se puede consultar la tabla <tableName> porque los metadatos de la tabla no están sincronizados en el catálogo. Repare la tabla ejecutando "MSK REPAIR TABLE <tableName> SYNC METADATA" para sincronizar primero los metadatos.

UC_UNCAUGHT_CLIENT_EXCEPTION

SQLSTATE: KCUC4

Se encontró un error HTTP inesperado al comunicarse con el back-end del catálogo de Unity de Databricks. Código de error: <errCode>. Mensaje: <message>

UC_VOLUMES_NOT_ENABLED

SQLSTATE: 56038

La compatibilidad con volúmenes de catálogo de Unity no está habilitada en esta instancia.

UC_VOLUMES_NOT_SUPPORTED

SQLSTATE: 0A000

No se admiten volúmenes para esta operación. La ruta de acceso especificada era "<path>".

UC_VOLUMES_SHARING_NOT_ENABLED

SQLSTATE: 56038

La compatibilidad con el uso compartido de volúmenes no está habilitada en esta instancia.

UC_VOLUME_NOT_FOUND

SQLSTATE: 42704

El volumen <name> no existe. Use "SHOW VOLUMES" para enumerar los volúmenes disponibles.

UDF_ENVIRONMENT_ERROR

SQLSTATE: 39000

No se pudieron instalar las dependencias de UDF para <udfName> debido a un error del sistema.

Para obtener más información, consulte UDF_ENVIRONMENT_ERROR

UDF_ENVIRONMENT_USER_ERROR

SQLSTATE: 39000

No se pudieron instalar dependencias de UDF para <udfName>.

Para obtener más información, consulte UDF_ENVIRONMENT_USER_ERROR

UDF_ERROR

SQLSTATE: ninguno asignado

Error en la ejecución de la función <fn>

Para obtener más información, consulte UDF_ERROR

UDF_LIMITS

SQLSTATE: 54KD0

Se infringieron uno o varios límites de UDF.

Para obtener más información, consulte UDF_LIMITS

UDF_MAX_COUNT_EXCEEDED

SQLSTATE: 54KD0

Se superó el límite de UDF para toda la consulta de <maxNumUdfs> UDF (limitado durante la versión preliminar pública). Se encontró <numUdfs>. Las UDF eran: <udfNames>.

UDF_PYSPARK_ERROR

SQLSTATE: 39000

El trabajo de Python se abandonó inesperadamente

Para obtener más información, consulte UDF_PYSPARK_ERROR

UDF_PYSPARK_UNSUPPORTED_TYPE

SQLSTATE: 0A000

PySpark UDF <udf> (<eval-type>) no se admite en clústeres en modo de acceso compartido.

UDF_PYSPARK_USER_CODE_ERROR

SQLSTATE: 39000

Error de ejecución.

Para obtener más información, consulte UDF_PYSPARK_USER_CODE_ERROR

UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE

SQLSTATE: 0A000

El valor predeterminado del parámetro no se admite para la función definida por el <functionType> usuario.

UDF_USER_CODE_ERROR

SQLSTATE: 39000

Error en la ejecución de la función <fn> .

Para obtener más información, consulte UDF_USER_CODE_ERROR

UDTF_ALIAS_NUMBER_MISMATCH

SQLSTATE: 42802

El número de alias proporcionados en la AS cláusula no coincide con el número de columnas de salida por el UDTF.

Número de alias esperado: <aliasesSize>, pero obtuvo <aliasesNames>.

Asegúrese de que el número de alias proporcionados coincide con el número de columnas que genera el UDTF.

UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD

SQLSTATE: 42802

No se pudo evaluar la función de tabla definida por el usuario porque su método "analyze" devolvió una orderingColumn solicitada cuya expresión de nombre de columna incluía un alias innecesario; quite este alias <aliasName>y vuelva a intentar la consulta.

UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS

SQLSTATE: 42802

No se pudo evaluar la función de tabla definida por el usuario porque su método "analyze" devolvió una expresión "select" solicitada (<expression>) que no incluye un alias correspondiente; actualice el UDTF para especificar un alias allí y vuelva a intentar la consulta.

UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE

SQLSTATE: 42K0G

No se puede convertir el tipo SQL <toType> al tipo Protobuf <protobufType>.

UNABLE_TO_FETCH_HIVE_TABLES

SQLSTATE: 58030

No se pueden capturar tablas de la base de datos de Hive: <dbName>. Nombre de clase de error: <className>.

UNABLE_TO_INFER_PIPELINE_TABLE_SCHEMA

SQLSTATE: 42KD9

No se pudo deducir el esquema de la tabla <tableName> de sus flujos ascendentes.

Modifique los flujos que escriben en esta tabla para que sus esquemas sean compatibles.

Esquema inferido hasta ahora:

<inferredDataSchema>

Esquema incompatible:

<incompatibleDataSchema>

UNABLE_TO_INFER_SCHEMA

SQLSTATE: 42KD9

No se puede deducir el esquema para <format>. Debe especificarse manualmente.

No autenticado

SQLSTATE: 08000

La solicitud no tiene credenciales de autenticación válidas para la operación.

UNAUTHORIZED_ACCESS

SQLSTATE: 42501

Acceso no autorizado:

<report>

UNBOUND_SQL_PARAMETER

SQLSTATE: 42P02

Se encontró el parámetro unbound: <name>. Corrija args y proporcione una asignación del parámetro a funciones de constructor de colección o literal de SQL, como map(), array(), struct().

UNCLOSED_BRACKETED_COMMENT

SQLSTATE: 42601

Se encontró un comentario entre corchetes no cerrado. Por favor, anexe */ al final del comentario.

UNEXPECTED_INPUT_TYPE

SQLSTATE: 42K09

El parámetro <paramIndex> de la función <functionName> requiere el <requiredType> tipo , pero <inputSql> tiene el tipo <inputType>.

UNEXPECTED_INPUT_TYPE_OF_NAMED_PARAMETER

SQLSTATE: 42K09

El <namedParamKey> parámetro de la función <functionName> requiere el <requiredType> tipo , pero <inputSql> tiene el tipo <inputType>.<hint>

UNEXPECTED_OPERATOR_IN_STREAMING_VIEW

SQLSTATE: 42KDD

Operador <op> inesperado en la instrucción CREATE VIEW como origen de streaming.

Una consulta de vista de streaming debe constar solo de SELECT, WHERElas operaciones , y UNION ALL .

UNEXPECTED_POSITIONAL_ARGUMENT

SQLSTATE: 4274K

No se puede invocar la rutina <routineName> porque contiene argumentos posicionales después de los argumentos con nombre asignados a <parameterName>; por favor, reorganice los argumentos para que los posicionales vengan primero, y luego intente realizar la consulta nuevamente.

UNEXPECTED_SERIALIZER_FOR_CLASS

SQLSTATE: 42846

La clase <className> tiene un serializador de expresiones inesperado. Se esperaba "STRUCT" o "IF", que devuelve "STRUCT" pero se encontró <expr>.

UNION_NOT_SUPPORTED_IN_RECURSIVE_CTE

SQLSTATE: 42836

El operador UNION aún no se admite en expresiones de tabla comunes recursivas (las cláusulas WITH que hacen referencia a sí mismas, directa o indirectamente). Utilice UNION ALL en su lugar.

UNIQUE_CONSTRAINT_DISABLED

SQLSTATE: 0A000

La característica de restricción única está deshabilitada. Para habilitarlo, establezca "spark.databricks.sql.dsv2.unique.enabled" como true.

UNKNOWN_FIELD_EXCEPTION

SQLSTATE: KD003

Se encontró <changeType> durante el análisis sintáctico: <unknownFieldBlob>, que se puede corregir con un reintento automático: <isRetryable>

Para obtener más información, consulte UNKNOWN_FIELD_EXCEPTION

UNKNOWN_POSITIONAL_ARGUMENT

SQLSTATE: 4274K

La invocación de rutina <routineName> contiene un argumento <sqlExpr> posicional desconocido en la posición <pos>. Esto no es válido.

UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT

SQLSTATE: 22023

Se encontró un tipo primitivo desconocido con id <id> en un valor variante.

UNKNOWN_PROTOBUF_MESSAGE_TYPE

SQLSTATE: 42K0G

Intentando tratar <descriptorName> como un mensaje, pero resultó ser <containingType>.

UNPIVOT_REQUIRES_ATTRIBUTES

SQLSTATE: 42K0A

UNPIVOT requiere que todas las expresiones <given> especificadas sean columnas cuando no se aportan expresiones <empty>. Estas no son columnas: [<expressions>].

UNPIVOT_REQUIRES_VALUE_COLUMNS

SQLSTATE: 42K0A

Debe especificarse al menos una columna de valor para UNPIVOT, todas las columnas especificadas como identificadores.

UNPIVOT_VALUE_DATA_TYPE_MISMATCH

SQLSTATE: 42K09

Las columnas de valor anulación de dinamización deben compartir al menos un tipo menos común; algunos tipos no lo hacen: [<types>].

UNPIVOT_VALUE_SIZE_MISMATCH

SQLSTATE: 428C4

Todas las columnas de valor anulación de dinamización deben tener el mismo tamaño que los nombres de columna de valor (<names>).

UNRECOGNIZED_PARAMETER_NAME

SQLSTATE: 4274K

No se puede invocar la rutina <routineName> porque la llamada rutinaria incluía una referencia de argumento con nombre para el argumento denominado <argumentName>, pero esta rutina no incluye ninguna firma que contenga un argumento con este nombre. ¿Te refieres a uno de los siguientes? [<proposal>].

UNRECOGNIZED_SQL_TYPE

SQLSTATE: 42704

Tipo de SQL no reconocido: nombre: <typeName>, id: <jdbcType>.

UNRECOGNIZED_STATISTIC

SQLSTATE: 42704

No se reconoce la estadística <stats> . Las estadísticas válidas incluyen count, count_distinct, approx_count_distinct, mean, stddev, min, maxlos valores de percentil y . Percentil debe ser un valor numérico seguido de "%" , dentro del intervalo 0% a 100%.

UNRESOLVABLE_TABLE_VALUED_FUNCTION

SQLSTATE: 42883

No se pudo resolver <name> en una función con valores de tabla.

Asegúrese de que <name> se define como una función con valores de tabla y de que todos los parámetros necesarios se proporcionan correctamente.

Si <name> no está definido, cree la función con valores de tabla antes de usarla.

Para más información sobre cómo definir funciones con valores de tabla, consulte la documentación de Apache Spark.

UNRESOLVED_ALL_IN_GROUP_BY

SQLSTATE: 42803

No se pueden deducir columnas de agrupación para GROUP BY ALL en función de la cláusula select. Especifique explícitamente las columnas de agrupación.

UNRESOLVED_COLUMN

SQLSTATE: 42703

No se puede resolver una columna, variable o parámetro de función con nombre <objectName> .

Para obtener más información, consulte UNRESOLVED_COLUMN

UNRESOLVED_COLUMN_AMONG_FIELD_NAMES

SQLSTATE: 42703

No se puede resolver el nombre de columna "<colName>" entre (<fieldNames>).

UNRESOLVED_FIELD

SQLSTATE: 42703

No se puede resolver un campo con el nombre <fieldName> con la columna de tipo struct <columnPath>.

Para obtener más información, consulte UNRESOLVED_FIELD

UNRESOLVED_INSERT_REPLACE_USING_COLUMN

SQLSTATE: 42703

La columna de REPLACE USING<colName> no se puede resolver en <relationType>.

¿Se refiere a una de las columnas siguientes? [<suggestion>].

UNRESOLVED_MAP_KEY

SQLSTATE: 42703

No se puede resolver la columna <objectName> como una clave de asignación. Si la clave es un literal de cadena, inclúyala entre comillas simples (').

Para obtener más información, consulte UNRESOLVED_MAP_KEY

UNRESOLVED_ROUTINE

SQLSTATE: 42883

No se puede resolver la rutina <routineName> en la ruta <searchPath>de búsqueda .

Compruebe la ortografía de <routineName>, compruebe que la rutina existe y confirme que tiene USE privilegios en el catálogo y el esquema, y EXECUTE en la rutina.

Para obtener más información, consulte UNRESOLVED_ROUTINE

UNRESOLVED_TABLE_PATH

SQLSTATE: 22KD1

No se puede resolver la ruta de acceso de almacenamiento de la tabla <identifier> .

UNRESOLVED_USING_COLUMN_FOR_JOIN

SQLSTATE: 42703

USING No se puede resolver la columna <colName> en el lado <side> de la unión. Las columnas de lado <side>: [<suggestion>].

UNRESOLVED_VARIABLE

SQLSTATE: 42883

No se puede resolver la variable <variableName> en la ruta de búsqueda <searchPath>.

UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_FILE_FORMAT

SQLSTATE: 0A000

No se admite el formato <format> de archivo no estructurado. Los formatos de archivo admitidos son <supportedFormats>.

Actualice format en la expresión <expr> a uno de los formatos admitidos y vuelva a intentar la consulta.

UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_MODEL_OPTION

SQLSTATE: 0A000

No se admite la opción de modelo no estructurado ('<option>' -> '<value>'). Los valores admitidos son: <supportedValues>.

Cambie a uno de los valores admitidos y vuelva a intentar la consulta.

UNSTRUCTURED_OCR_COLUMN_NOT_ALLOWED_WITH_METADATA_MODEL_OPTION

SQLSTATE: 42000

El parámetro de función 'ocrText' debe ser o omitirse NULL cuando se especifica la opción 'metadataModel'. Una opción "metadataModel" especificada desencadena la extracción de metadatos, donde se prohíbe una "ocrText" proporcionada.

UNSUPPORTED_ADD_FILE

SQLSTATE: 0A000

No admita agregar archivo.

Para obtener más información, consulte UNSUPPORTED_ADD_FILE

UNSUPPORTED_ALTER_COLUMN_PARAMETER

SQLSTATE: 0A000

No se admite especificar <parameter> con ALTER <commandTableType> .

UNSUPPORTED_ARROWTYPE

SQLSTATE: 0A000

Tipo de flecha <typeName> no compatible.

UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION

SQLSTATE: 42000

La función <funcName> no admite consultas por lotes.

UNSUPPORTED_CALL

SQLSTATE: 0A000

No se puede llamar al método "<methodName>" de la clase "<className>".

Para obtener más información, consulte UNSUPPORTED_CALL

UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING

SQLSTATE: 0A000

El tipo char/varchar no se puede usar en el esquema de tabla.

Si quiere que Spark los trate como tipo de cadena igual que Spark 3.0 y versiones anteriores, establezca "spark.sql.legacy.charVarcharAsString" en "true".

UNSUPPORTED_CHAR_OR_VARCHAR_COLLATION

SQLSTATE: 0A000

El tipo char/varchar <type> no puede tener intercalación especificada.

UNSUPPORTED_CLAUSE_FOR_OPERATION

SQLSTATE: 0A000

No se admite <clause> para <operation>.

UNSUPPORTED_COLLATION

SQLSTATE: 0A000

No se admite la intercalación <collationName> para:

Para obtener más información, consulte UNSUPPORTED_COLLATION.

UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE

SQLSTATE: 42616

El antecesor común de la ruta de acceso de origen y sourceArchiveDir debe registrarse con UC.

Si ve este mensaje de error, es probable que haya registrado la ruta de acceso de origen y el directorio de archivo de origen en diferentes ubicaciones externas.

Por favor, colóquelos en una sola ubicación externa.

UNSUPPORTED_CONNECT_FEATURE

SQLSTATE: 0A000

La característica no se admite en Spark Connect:

Para obtener más información, consulte UNSUPPORTED_CONNECT_FEATURE

UNSUPPORTED_CONSTRAINT_CHARACTERISTIC

SQLSTATE: 0A000

La característica de restricción '<characteristic>' no se admite para el tipo de restricción '<constraintType>'.

UNSUPPORTED_CONSTRAINT_CLAUSES

SQLSTATE: 0A000

Las cláusulas <clauses> de restricción no se admiten.

UNSUPPORTED_CONSTRAINT_TYPE

SQLSTATE: 42000

Tipo de restricción no admitido. Solo se admiten <supportedConstraintTypes>.

UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY

SQLSTATE: 0A000

Tipo de origen de datos no admitido para consultas directas en archivos: <dataSourceType>

UNSUPPORTED_DATATYPE

SQLSTATE: 0A000

Tipo de datos <typeName>no admitido.

UNSUPPORTED_DATA_SOURCE_SAVE_MODE

SQLSTATE: 0A000

El origen de datos "<source>" no se puede escribir en el modo <createMode>. Por favor, usa el modo "Append" o "Overwrite" en su lugar.

UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE

SQLSTATE: 0A000

El <format> origen de datos no admite la columna <columnName> del tipo <columnType>.

UNSUPPORTED_DATA_TYPE_FOR_ENCODER

SQLSTATE: 0A000

No se puede crear el codificador para <dataType>. Use otro tipo de datos de salida para UDF o DataFrame.

UNSUPPORTED_DEFAULT_VALUE

SQLSTATE: 0A000

DEFAULT No se admiten los valores de columna.

Para obtener más información, consulte UNSUPPORTED_DEFAULT_VALUE

UNSUPPORTED_DESERIALIZER

SQLSTATE: 0A000

No se admite el deserializador:

Para obtener más información, consulte UNSUPPORTED_DESERIALIZER

UNSUPPORTED_EXPRESSION_GENERATED_COLUMN

SQLSTATE: 42621

No se puede crear una columna <fieldName> generada con la expresión de generación <expressionStr> porque <reason>.

UNSUPPORTED_EXPR_FOR_OPERATOR

SQLSTATE: 42K0E

Un operador de consulta contiene una o varias expresiones no admitidas.

Considere reescribirlo para evitar funciones de ventana, funciones de agregación y funciones de generador en la cláusula WHERE.

Expresiones no válidas: [<invalidExprSqls>]

UNSUPPORTED_EXPR_FOR_PARAMETER

SQLSTATE: 42K0E

Un parámetro de consulta contiene una expresión no admitida.

Los parámetros pueden ser variables o literales.

Expresión no válida: [<invalidExprSql>]

UNSUPPORTED_EXPR_FOR_WINDOW

SQLSTATE: 42P20

Expresión <sqlExpr> no admitida dentro de una función de ventana.

UNSUPPORTED_FEATURE

SQLSTATE: 0A000

Característica no compatible:

Para obtener más información, consulte UNSUPPORTED_FEATURE

UNSUPPORTED_FN_TYPE

SQLSTATE: 0A000

Tipo de función definida por el usuario no compatible: <language>

UNSUPPORTED_GENERATOR

SQLSTATE: 42K0E

No se admite el generador:

Para obtener más información, consulte UNSUPPORTED_GENERATOR

UNSUPPORTED_GROUPING_EXPRESSION

SQLSTATE: 42K0E

grouping()/grouping_id() solo se puede usar con GroupingSets/Cube/Rollup.

UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE

SQLSTATE: 42616

<trigger> con la posición inicial <initialPosition> no se admite con el origen de Kinesis.

UNSUPPORTED_INSERT

SQLSTATE: 42809

No se puede insertar en el destino.

Para obtener más información, consulte UNSUPPORTED_INSERT

UNSUPPORTED_JOIN_TYPE

SQLSTATE: 0A000

Tipo de combinación no admitido '<typ>'. Entre los tipos de combinación admitidos se incluyen: <supported>.

UNSUPPORTED_MANAGED_TABLE_CREATION

SQLSTATE: 0AKDD

No se admite la creación de una tabla <tableName> administrada mediante el origen de <dataSource> datos. Debe usar el origen de DELTA datos o crear una tabla externa mediante CREATE EXTERNAL TABLE <tableName>...USING <dataSource> ...

UNSUPPORTED_MERGE_CONDITION

SQLSTATE: 42K0E

La operación MERGE contiene una condición <condName> no admitida.

Para obtener más información, consulte UNSUPPORTED_MERGE_CONDITION.

UNSUPPORTED_METADATA_KEY

SQLSTATE: 42K0E

Clave de metadatos no admitida: <key>. Claves admitidas: <supportedKeys>.

UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY

SQLSTATE: 0A000

La tabla <tableName> tiene una directiva de seguridad de nivel de fila o una máscara de columna que hace referencia indirectamente a otra tabla con una directiva de seguridad de nivel de fila o una máscara de columna; esto no se admite. Secuencia de llamadas: <callSequence>

UNSUPPORTED_OPERATION_FOR_CONTINUOUS_MEMORY_SINK

SQLSTATE: 0A000

No se admite la operación <operation> para el sumidero de memoria continua. Si está escribiendo una prueba para el modo de transmisión en tiempo real, considere la posibilidad de usar CheckAnswerWithTimeout frente a otras comprobaciones.

UNSUPPORTED_OVERWRITE

SQLSTATE: 42902

No se puede sobrescribir aquel destino desde el que también se esté leyendo.

Para más información, consulte UNSUPPORTED_OVERWRITE.

UNSUPPORTED_PARTITION_TRANSFORM

SQLSTATE: 0A000

Transformación de partición no admitida: <transform>. Las transformaciones admitidas son identity, bucket, y clusterBy. Asegúrese de que la expresión de transformación usa una de estas.

UNSUPPORTED_PIPELINE_SPARK_SQL_COMMAND

SQLSTATE: 0A000

'<command>' no se admite en la API spark.sql("...") en la canalización declarativa de Spark.

UNSUPPORTED_PROCEDURE_COLLATION

SQLSTATE: 0A000

El procedimiento <procedureName> debe especificar o heredar DEFAULT COLLATION UTF8_BINARY. Utilice CREATE PROCEDURE <procedureName> (...) DEFAULT COLLATION UTF_BINARY ....

UNSUPPORTED_SAVE_MODE

SQLSTATE: 0A000

No se admite el modo <saveMode> de guardado para:

Para obtener más información, consulte UNSUPPORTED_SAVE_MODE

UNSUPPORTED_SHOW_CREATE_TABLE

SQLSTATE: 0A000

No se admite un SHOW CREATE TABLE comando.

Para obtener más información, consulte UNSUPPORTED_SHOW_CREATE_TABLE.

UNSUPPORTED_SINGLE_PASS_ANALYZER_FEATURE

SQLSTATE: 0A000

El analizador de paso único no puede procesar esta consulta o comando porque aún no admite <feature>.

UNSUPPORTED_SQL_UDF_USAGE

SQLSTATE: 0A000

No se admite el uso de la función <functionName> SQL en <nodeName> .

UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK

SQLSTATE: 0A000

No se admite el modo de salida <outputMode> para <statefulOperator> en los objetos DataFrames y conjuntos de datos de streaming sin marca de agua.

UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW

SQLSTATE: 0A000

No se admite para transmitir una vista. Reason:

Para más información, consulte UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW.

UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED

SQLSTATE: 0A000

No se admiten opciones <options> de streaming para el origen de datos <source> en un clúster compartido. Confirme que las opciones se especifican y se escriben correctamente<prefixHint> y comprueban https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode si hay limitaciones.

UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED

SQLSTATE: 0A000

El origen de datos <sink> no se admite como destino de transmisión en un clúster compartido.

UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED

SQLSTATE: 0A000

El origen <source> de datos no se admite como origen de streaming en un clúster compartido.

UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION

SQLSTATE: 42000

La función <funcName> no admite el streaming. Quite la STREAM palabra clave .

UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE

SQLSTATE: 0A000

<streamReadLimit> no es compatible con la fuente de Kinesis.

UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY

SQLSTATE: 0A000

Expresión de subconsulta no admitida:

Para más información, consulte UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY.

UNSUPPORTED_TABLE_CHANGE_IN_AUTO_SCHEMA_EVOLUTION

SQLSTATE: 42000

El catálogo de la tabla no admite los cambios <changes> de tabla en la tabla <tableName>.

UNSUPPORTED_TABLE_CHANGE_IN_JDBC_CATALOG

SQLSTATE: 42000

El cambio <change> de tabla no se admite para el catálogo JDBC en la tabla <tableName>. Los cambios admitidos incluyen: AddColumn, RenameColumn, DeleteColumn, UpdateColumnType, UpdateColumnNullability.

UNSUPPORTED_TIMESERIES_COLUMNS

SQLSTATE: 56038

No se admite la creación de una clave principal con columnas timeseries

UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN

SQLSTATE: 0A000

No se admite la creación de una clave principal con más de una columna de serie temporal <colSeq>.

UNSUPPORTED_TIME_PRECISION

SQLSTATE: 0A001

La precisión <precision> de segundos del tipo de datos TIME está fuera del intervalo admitido [0, 6].

UNSUPPORTED_TIME_TYPE

SQLSTATE: 0A000

No se admite el tipo de datos TIME.

UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE

SQLSTATE: 0A000

<trigger> no es compatible con la fuente de Kinesis.

UNSUPPORTED_TYPED_LITERAL

SQLSTATE: 0A000

No se admiten literales del tipo <unsupportedType> . Estos son los tipos que se admiten: <supportedTypes>.

UNSUPPORTED_UDF_FEATURE

SQLSTATE: 0A000

La función <function> usa las siguientes características que requieren una versión más reciente del entorno de ejecución de Databricks: <features>. <docLink> Consulte para obtener más información.

UNSUPPORTED_UDF_TYPES_IN_SAME_PLACE

SQLSTATE: 0A000

Los tipos de UDF no se pueden usar juntos: <types>

UNTYPED_SCALA_UDF

SQLSTATE: 42K0E

Está usando UDF de Scala sin tipo, que no tiene la información de tipo de entrada.

Spark puede pasar ciegamente null a la clausura de Scala con un argumento de tipo primitivo, y la clausura verá el valor predeterminado del tipo Java para el argumento null, por ejemplo, udf((x: Int) => x, IntegerType), si la entrada es null, el resultado es 0. Para deshacerse de este error, puede:

  1. Usar las APIs tipadas de Scala UDF (sin incluir el tipo de retorno), por ejemplo, udf((x: Int) => x).

  2. use las API de UDF de Java, por ejemplo, udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType), si los tipos de entrada no son primitivos.

  3. establezca "spark.sql.legacy.allowUntypedScalaUDF" en "true" y use esta API con precaución.

UPGRADE_NOT_SUPPORTED

SQLSTATE: 0AKUC

La tabla no es apta para la actualización de Hive Metastore al catálogo de Unity. Reason:

Para obtener más información, consulte UPGRADE_NOT_SUPPORTED

USER_DEFINED_FUNCTIONS

SQLSTATE: 42601

La función definida por el usuario no es válida:

Para obtener más información, consulte USER_DEFINED_FUNCTIONS

USER_RAISED_EXCEPTION

SQLSTATE: P0001

<errorMessage>

USER_RAISED_EXCEPTION_PARAMETER_MISMATCH

SQLSTATE: P0001

La raise_error() función se usó para generar la clase de error: <errorClass> que espera parámetros: <expectedParms>.

Los parámetros proporcionados <providedParms> no coinciden con los parámetros esperados.

Asegúrese de proporcionar todos los parámetros esperados.

USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS

SQLSTATE: P0001

La raise_error() función se usó para generar una clase de error desconocida: <errorClass>

USER_SPECIFIED_AND_ACTUAL_SCHEMA_MISMATCH

SQLSTATE: 42K03

El esquema especificado por el usuario no coincide con el esquema real:

especificado por el usuario: <schema>, real: <actualSchema>. Si usa

La API DataFrameReader.schema o la creación de una tabla no especifican el esquema.

O bien, si está examinando una tabla existente, colóquela y vuelva a crearla.

ESQUEMA_ESPECIFICADO_POR_EL_USUARIO_Y_ESQUEMA_INFERIDO_NO_COMPATIBLES

SQLSTATE: 42000

La tabla '<tableName>' tiene un esquema especificado por el usuario que no es compatible con el esquema

inferido a partir de su consulta.

<streamingTableHint>

Esquema declarado:

<specifiedSchema>

Esquema inferido:

<inferredDataSchema>

USE_CATALOG_SCHEMA_IN_DEFINER_STORED_PROCEDURE_NOT_SUPPORTED

SQLSTATE: 0A000

No se admite la configuración del catálogo o esquema en el procedimiento almacenado de SQL SECURITY DEFINER .

VARIABLE_ALREADY_EXISTS

SQLSTATE: 42723

No se puede crear la variable <variableName> porque ya existe.

Elija un nombre diferente, o elimine o reemplace la variable existente.

VARIABLE_NOT_FOUND

SQLSTATE: 42883

No se encuentra la variable <variableName> . Compruebe la ortografía y corrección del esquema y el catálogo.

Si no ha calificado el nombre con un esquema y un catálogo, compruebe la salida de current_schema() o califique el nombre con el esquema y el catálogo correctos.

Para tolerar el error en la operación de eliminación, use DROP VARIABLE IF EXISTS.

VARIANT_CONSTRUCTOR_SIZE_LIMIT

SQLSTATE: 22023

No se puede construir un valor Variant mayor que 16 MiB. El tamaño máximo permitido de un valor Variant es 16 MiB.

VARIANT_DUPLICATE_KEY

SQLSTATE: 22023

No se pudo compilar la variante debido a una clave <key>de objeto duplicada .

VARIANT_SIZE_LIMIT

SQLSTATE: 22023

No se puede compilar una variante mayor que <sizeLimit> en <functionName>.

Evite cadenas de entrada grandes en esta expresión (por ejemplo, agregue llamadas de función para comprobar el tamaño de la expresión y convertirlo a NULL primero si es demasiado grande).

VERSIONED_CLONE_UNSUPPORTED_TABLE_FEATURE

SQLSTATE: 56038

El historial de la tabla de origen contiene características de tabla no compatibles con el clon versionado en esta versión de DBR: <unsupportedFeatureNames>.

Actualice a una versión más reciente de DBR.

VIEW_ALREADY_EXISTS

SQLSTATE: 42P07

No se puede crear la vista <relationName> porque ya existe.

Elija otro nombre, quite o reemplace el objeto existente o agregue la IF NOT EXISTS cláusula para tolerar objetos preexistentes.

VIEW_EXCEED_MAX_NESTED_DEPTH

SQLSTATE: 54K00

La profundidad de la vista <viewName> supera la profundidad máxima de resolución de vista (<maxNestedDepth>).

El análisis se anula para evitar errores. Si desea solucionar esto, intente aumentar el valor de "spark.sql.view.maxNestedViewDepth".

VIEW_NOT_FOUND

SQLSTATE: 42P01

No se encuentra la vista <relationName>. Compruebe la ortografía y corrección del esquema y el catálogo.

Si no ha calificado el nombre con un esquema, compruebe la salida de current_schema() o califique el nombre con el esquema y el catálogo correctos.

Para tolerar el error en la operación de eliminación, use DROP VIEW IF EXISTS.

VOLUME_ALREADY_EXISTS

SQLSTATE: 42000

No se puede crear el volumen <relationName> porque ya existe.

Elija otro nombre, quite o reemplace el objeto existente o agregue la IF NOT EXISTS cláusula para tolerar objetos preexistentes.

WATERMARK_ADVANCEMENT_STRATEGY

SQLSTATE: 0A000

La estrategia de avance de marcas de agua para streaming tiene la siguiente limitación:

Para obtener más información, consulte WATERMARK_ADVANCEMENT_STRATEGY

WINDOW_FUNCTION_AND_FRAME_MISMATCH

SQLSTATE: 42K0E

La función <funcName> solo se puede evaluar en un marco de ventana ordenado basado en filas con un único desplazamiento: <windowExpr>.

WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE

SQLSTATE: 42601

La función de ventana <funcName> requiere una cláusula OVER.

WITH_CREDENTIAL

SQLSTATE: 42601

WITH CREDENTIAL No se admite la sintaxis para <type>.

WRITE_STREAM_NOT_ALLOWED

SQLSTATE: 42601

Solo se puede llamar a writeStream en conjuntos de datos u objetos DataFrame de streaming.

WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED

SQLSTATE: 0AKDC

No se pudo ejecutar el comando porque DEFAULT no se admiten valores al agregar nuevo

columnas a tablas Delta existentes previamente; agregue la columna sin un valor predeterminado

primero y, a continuación, ejecute un segundo comando ALTER TABLE ALTER COLUMN SET DEFAULT para aplicarlo

a las futuras filas insertadas.

WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED

SQLSTATE: 0AKDE

No se pudo ejecutar el comando <commandType> porque asignó un valor DEFAULT de columna,

pero no se ha habilitado la característica de tabla correspondiente. Vuelva a intentar el comando.

después de ejecutar ALTER TABLE tableName SET

TBLPROPERTIES('delta.feature.allowColumnDefaults' = 'supported').

WRONG_COMMAND_FOR_OBJECT_TYPE

SQLSTATE: 42809

La operación <operation> requiere un <requiredType>. Pero <objectName> es un valor <foundType>. En su lugar, use <alternative>.

WRONG_NUM_ARGS

SQLSTATE: 42605

El <functionName> requiere <expectedNum> parámetros, pero el número real es <actualNum>.

Para obtener más información, consulte WRONG_NUM_ARGS

XML_ROW_TAG_MISSING

SQLSTATE: 42KDF

<rowTag> la opción es necesaria para leer y escribir archivos en formato XML.

XML_UNSUPPORTED_NESTED_TYPES

SQLSTATE: 0N000

XML no admite <innerDataType> como tipo interno de <dataType>. Envuelve el <innerDataType> dentro de un campo StructType cuando lo uses dentro de <dataType>.

XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR

SQLSTATE: 22023

Los datos rescatados y la columna comodín no pueden activarse al mismo tiempo. Elimine la opción wildcardColumnName.

ZORDERBY_COLUMN_DOES_NOT_EXIST

SQLSTATE: 42703

La columna <columnName> ZOrderBy no existe.

Delta Lake

DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND

SQLSTATE: 08003

No se encontró SparkSession activo.

DELTA_ACTIVE_TRANSACTION_ALREADY_SET

SQLSTATE: 0B000

No se puede establecer un nuevo txn como activo cuando ya está activo uno.

DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED

SQLSTATE: 42000

No se pudo agregar la columna <colName> porque el nombre está reservado.

DELTA_ADDING_DELETION_VECTORS_DISALLOWED

SQLSTATE: 0A000

La operación actual intentó agregar un vector de eliminación a una tabla que no permite la creación de nuevos vectores de eliminación. Envíe un informe de errores.

DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED

SQLSTATE: 42000

Todas las operaciones que agregan vectores de eliminación deben establecer la columna tightBounds en las estadísticas como false. Envíe un informe de errores.

DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO

SQLSTATE: 42KD3

El índice <columnIndex> para agregar columna <columnName> es inferior a 0.

DELTA_ADD_COLUMN_PARENT_NOT_STRUCT

SQLSTATE: 42KD3

No se puede agregar <columnName> porque su elemento primario no es StructType. Se encontró <other>.

DELTA_ADD_COLUMN_STRUCT_NOT_FOUND

SQLSTATE: 42KD3

Estructura no encontrada en la posición <position>.

DELTA_ADD_CONSTRAINTS

SQLSTATE: 0A000

Utilice ALTER TABLE ADD CONSTRAINT para añadir CHECK restricciones.

DELTA_AGGREGATE_IN_CHECK_CONSTRAINT

SQLSTATE: 42621

Se encuentra <sqlExpr> en una CHECK restricción. No se permiten expresiones de agregado en CHECK restricciones.

DELTA_AGGREGATE_IN_GENERATED_COLUMN

SQLSTATE: 42621

Se encontró <sqlExpr>. Una columna generada no puede usar una expresión de agregado.

DELTA_AGGREGATION_NOT_SUPPORTED

SQLSTATE: 42903

Las funciones de agregación no se admiten en el <operation> <predicate>.

DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER

SQLSTATE: 428FR

No se pudo cambiar la intercalación de la columna <column> porque tiene un índice de filtro de Bloom. Conserve la intercalación existente o quite el índice del filtro de Bloom y después vuelva a intentar el comando para cambiar la intercalación.

DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY

SQLSTATE: 428FR

No se pudo cambiar la intercalación de la columna <column> porque es una columna de agrupación en clústeres. Conserve la intercalación existente o cambie la columna a una columna que no sea agrupada con un ALTER TABLE comando y vuelva a intentarlo para cambiar la intercalación.

DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED

SQLSTATE: 42837

ALTER TABLE CHANGE COLUMN no se admite para cambiar la columna <currentType> a <newType>.

DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED

SQLSTATE: 42000

ALTER TABLE CLUSTER BY solo se admite para la tabla Delta con la agrupación en clústeres Liquid.

DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED

SQLSTATE: 42000

ALTER TABLE CLUSTER BY no se puede aplicar a una tabla con particiones.

DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED

SQLSTATE: 42000

Operación no permitida: ALTER TABLE RENAME no se permite TO para las tablas Delta administradas en S3, ya que la coherencia final en S3 puede dañar el registro de transacciones delta. Si insiste en hacerlo y está seguro de que nunca ha habido una tabla Delta con el nuevo nombre <newName> antes, puede habilitarlo estableciendo <key> para que sea true.

DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED

SQLSTATE: 42000

No se puede habilitar la característica de tabla <tableFeature> mediante ALTER TABLE SET TBLPROPERTIES. CREATE Use OR REPLACE TABLE CLUSTER BY para crear una tabla Delta con agrupación en clústeres.

DELTA_ALTER_TABLE_SET_MANAGED_COPY_OR_MOVE_REQUIRED

SQLSTATE: 42809

ALTER TABLE ... SET MANAGED requiere COPY que se especifique o MOVE para la tabla <table>externa .

DELTA_ALTER_TABLE_SET_MANAGED_DOES_NOT_SUPPORT_UNIFORM_ICEBERG

SQLSTATE: 0A000

ALTER TABLE ... SET MANAGED no es compatible con la tabla Uniforme de Apache Iceberg. Deshabilite Uniforme o use SET MANAGED TRUNCATE UNIFORM HISTORY.

DELTA_ALTER_TABLE_SET_MANAGED_FAILED

SQLSTATE: 42809

ALTER TABLE <table> SET MANAGED fracasado.

Para obtener más información, consulte DELTA_ALTER_TABLE_SET_MANAGED_FAILED

DELTA_ALTER_TABLE_SET_MANAGED_NOT_ENABLED

SQLSTATE: 0AKDC

ALTER TABLE ... SET MANAGED el comando no está habilitado. Póngase en contacto con el equipo de soporte técnico de Databricks para obtener ayuda.

DELTA_ALTER_TABLE_SET_MANAGED_TABLE_NOT_MIGRATABLE

SQLSTATE: 55019

ALTER TABLE <table> SET MANAGED no puede migrar la tabla especificada.

Asegúrese de que la tabla está en un estado válido y vuelva a intentar el comando. Si el problema persiste, póngase en contacto con el soporte técnico de Databricks.

Para obtener más información, consulte DELTA_ALTER_TABLE_SET_MANAGED_TABLE_NOT_MIGRATABLE

DELTA_ALTER_TABLE_SET_MANAGED_UNSUPPORTED_COPY_MOVE_SYNTAX

SQLSTATE: 42809

ALTER TABLE ... SET MANAGED [COPY | MOVE] No se admite la sintaxis para la tabla <table>. En su lugar, use ALTER TABLE ... SET MANAGED.

DELTA_ALTER_TABLE_SET_MANAGED_UNSUPPORTED_FOREIGN_TABLE

SQLSTATE: 42809

La tabla extranjera <table> no se admite para la migración a la tabla administrada por UC: <errorMessage>.

DELTA_ALTER_TABLE_UNSET_MANAGED_DOES_NOT_SUPPORT_COMPATIBILITY_MODE

SQLSTATE: 0AKDC

ALTER TABLE ... UNSET MANAGED no admite la tabla con el modo de compatibilidad habilitado.

Deshabilite el modo de compatibilidad en la tabla antes de ejecutar este comando.

DELTA_ALTER_TABLE_UNSET_MANAGED_DOES_NOT_SUPPORT_UNIFORM

SQLSTATE: 0AKDC

ALTER TABLE ... UNSET MANAGED no admite Uniforme. Deshabilite Uniforme o use UNSET MANAGED TRUNCATE UNIFORM HISTORY.

DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED

SQLSTATE: 42809

<table> no se puede revertir de tabla administrada a tabla externa.

Para más información, consulte DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED

DELTA_ALTER_TABLE_UNSET_MANAGED_NOT_ENABLED

SQLSTATE: 0AKDC

ALTER TABLE ... UNSET MANAGED el comando no está habilitado. Póngase en contacto con el equipo de soporte técnico de Databricks para obtener ayuda.

DELTA_AMBIGUOUS_DATA_TYPE_CHANGE

SQLSTATE: 429BQ

No se puede cambiar el tipo de datos de <column> de <from> a <to>. Este cambio contiene eliminaciones de columnas y adiciones, por lo que son ambiguas. Realice estos cambios individualmente mediante ALTER TABLE [ADD | DROP | RENAME] COLUMN.

DELTA_AMBIGUOUS_PARTITION_COLUMN

SQLSTATE: 42702

La columna <column> de partición ambigua puede ser <colMatches>.

DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE

SQLSTATE: 42613

CREATE TABLE contiene dos ubicaciones diferentes: <identifier> y <location>.

Puede quitar la cláusula LOCATION de la instrucción CREATE TABLE o establecer

<config> en true para omitir esta comprobación.

DELTA_ARCHIVED_FILES_IN_LIMIT

SQLSTATE: 42KDC

La tabla <table> no contiene suficientes registros en archivos no archivados para satisfacer los registros especificados LIMIT<limit> .

DELTA_ARCHIVED_FILES_IN_SCAN

SQLSTATE: 42KDC

Se encontraron <numArchivedFiles> archivos potencialmente archivados en la tabla <table> que se deben examinar como parte de esta consulta.

No se puede acceder a los archivos archivados. Hora actual hasta que el archivo se configure como <archivalTime>.

Ajuste los filtros de consulta para excluir los archivos archivados.

DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION

SQLSTATE: 42KD4

No se permite la operación "<opName>" cuando la tabla ha habilitado la fuente de distribución de datos de cambios (CDF) y ha sufrido cambios de esquema mediante DROP COLUMN o RENAME COLUMN.

DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS

SQLSTATE: 42703

No se pueden eliminar los índices de filtro de Bloom para las siguientes columnas no existentes: <unknownColumns>.

DELTA_BLOOM_FILTER_OOM_ON_WRITE

SQLSTATE: 82100

Se ha producido el error OutOfMemoryError al escribir índices de filtro de Bloom para las columnas siguientes: <columnsWithBloomFilterIndices>.

Puede reducir la superficie de memoria de los índices de filtro bloom seleccionando un valor más pequeño para la opción "numItems", un valor mayor para la opción "fpp" o indizando menos columnas.

DELTA_CANNOT_CHANGE_DATA_TYPE

SQLSTATE: 429BQ

No se puede cambiar el tipo de datos: <dataType>.

DELTA_CANNOT_CHANGE_LOCATION

SQLSTATE: 42601

No se puede cambiar la "ubicación" de la tabla Delta mediante SET TBLPROPERTIES. Utilice ALTER TABLE SET LOCATION en su lugar.

DELTA_CANNOT_CHANGE_PROVIDER

SQLSTATE: 42939

'provider' es una propiedad de tabla reservada y no se puede modificar.

DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL

SQLSTATE: 42703

No se pueden crear índices de filtro bloom para las siguientes columnas no existentes: <unknownCols>.

DELTA_CANNOT_CREATE_LOG_PATH

SQLSTATE: 42KD5

No se puede crear <path>.

DELTA_CANNOT_DESCRIBE_VIEW_HISTORY

SQLSTATE: 42809

No se puede describir el historial de una vista.

DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN

SQLSTATE: 42703

No se puede eliminar el índice de filtro bloom en una columna no indexada: <columnName>.

DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE

SQLSTATE: 0AKDE

No se puede eliminar la característica de tabla de restricciones CHECK.

Las restricciones siguientes deben quitarse primero: <constraints>.

DELTA_CANNOT_DROP_COLLATIONS_FEATURE

SQLSTATE: 0AKDE

No se puede quitar la característica de tabla de intercalaciones.

Las columnas con intercalaciones no predeterminadas deben modificarse para usar UTF8_BINARY primero: <colNames>.

DELTA_NO_PUEDE_ELIMINAR_LA_CARACTERÍSTICA_DE_METADATOS_DEL_DOMINIO_DESDE_LA_TABLA_ICEBERG_GESTIONADA

SQLSTATE: 0AKDE

No se puede eliminar la característica de la tabla domainMetadata. La tabla <name> es una tabla de Apache Iceberg administrada. DomainMetadata no se puede quitar de las tablas administradas de Apache Iceberg.

DELTA_CANNOT_DROP_GEOSPATIAL_FEATURE

SQLSTATE: 0AKDE

No se puede quitar la característica de tabla geoespacial. Vuelva a crear la tabla o coloque columnas con tipos geometry/geography: <colNames> e inténtelo de nuevo.

DELTA_CANNOT_DROP_VARIANT_FEATURE

SQLSTATE: 55000

DROP FEATURE <feature> no se realizó correctamente. No se puede quitar la característica de tabla variant. Las columnas variant deben quitarse primero: <colNames>.

DELTA_CANNOT_EVALUATE_EXPRESSION

SQLSTATE: 0AKDC

No se puede evaluar la expresión: <expression>.

DELTA_CANNOT_FIND_BUCKET_SPEC

SQLSTATE: 22000

Se espera una tabla Delta con particionamiento, pero no se puede encontrar la especificación del particionamiento en la tabla.

DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION

SQLSTATE: 0AKDC

No se puede generar código para la expresión: <expression>.

DELTA_CANNOT_MODIFY_APPEND_ONLY

SQLSTATE: 42809

Esta tabla está configurada para permitir solo los anexos. Si desea permitir actualizaciones o eliminaciones, use 'ALTER TABLE <table_name> SET TBLPROPERTIES (<config>=false)'.

DELTA_CANNOT_MODIFY_CATALOG_OWNED_DEPENDENCIES

SQLSTATE: 42616

No se pueden invalidar ni anular las propiedades de la tabla de marca de tiempo de confirmación porque esta tabla es propiedad del catálogo. Elimina "delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion" y "delta.inCommitTimestampEnablementTimestamp" de la TBLPROPERTIES cláusula y reintente el comando.

DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES

SQLSTATE: 42616

<Command> no puede modificar ni eliminar las propiedades de la tabla de marcas de tiempo en la confirmación porque las confirmaciones coordinadas están activadas en esta tabla y dependen de ellas. Por favor, quítelos ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") de la TBLPROPERTIES cláusula y luego intente de nuevo el comando.

DELTA_CANNOT_MODIFY_TABLE_PROPERTY

SQLSTATE: 42939

El usuario no puede especificar la configuración <prop> de la tabla Delta.

DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS

SQLSTATE: 42616

<Command> no puede invalidar las configuraciones de confirmaciones coordinadas para una tabla de destino existente. Elimínelos ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview", "delta.coordinatedCommits.tableConf-preview") de la cláusula TBLPROPERTIES y vuelva a intentar el comando.

DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI

SQLSTATE: 22KD1

Se encontró un URI (<uri>) que no se puede convertir en una ruta de acceso relativa en el registro de transacciones.

DELTA_CANNOT_RELATIVIZE_PATH

SQLSTATE: 42000

Una ruta de acceso (<path>) que no se puede relativizar con la entrada actual que se encuentra en

registro de transacciones. Vuelva a ejecutarlo como:

%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<userPath>", true)

y, a continuación, también ejecute:

%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<path>")

DELTA_CANNOT_RENAME_PATH

SQLSTATE: 22KD1

No se puede cambiar el nombre <currentPath> a <newPath>.

DELTA_CANNOT_REPLACE_MISSING_TABLE

SQLSTATE: 42P01

La tabla <tableName> no se puede reemplazar porque no existe. Use CREATE OR REPLACE TABLE para crear la tabla.

DELTA_CANNOT_RESOLVE_CLUSTERING_COLUMN

SQLSTATE: 42703

No se puede resolver la columna <columnName> de clúster en <schema> debido a un error inesperado. Ejecutar ALTER TABLE...CLUSTER BY ... para reparar los metadatos de agrupación en clústeres delta.

DELTA_CANNOT_RESOLVE_COLUMN

SQLSTATE: 42703

No se puede resolver la columna <columnName> en <schema>

DELTA_CANNOT_RESTORE_TABLE_VERSION

SQLSTATE: 22003

No se puede restaurar la tabla a la versión <version>. Versiones disponibles: [<startVersion>, <endVersion>].

DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER

SQLSTATE: 22003

No se puede restaurar la tabla a la marca de tiempo (<requestedTimestamp>), ya que es anterior a la versión más antigua disponible. Por favor, use una marca de tiempo después de (<earliestTimestamp>).

DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER

SQLSTATE: 22003

No se puede restaurar la tabla a la marca de tiempo (<requestedTimestamp>), ya que es después de la versión más reciente disponible. Use una marca de tiempo antes de (<latestTimestamp>).

DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES

SQLSTATE: 42616

<Command> no puede establecer propiedades de tabla de marca de tiempo en confirmación junto con confirmaciones coordinadas, ya que esta última depende de la anterior y establece la anterior internamente. Por favor, quítelos ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") de la TBLPROPERTIES cláusula y luego intente de nuevo el comando.

DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER

SQLSTATE: 42613

No se puede cambiar la ubicación de una tabla que se basa en una ruta de acceso.

DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY

SQLSTATE: 42616

No se puede establecer delta.managedDataSkippingStatsColumns en una tabla de canalizaciones declarativas de Spark que no sea de Lakeflow.

DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_COMMAND

SQLSTATE: 42616

Al habilitar "unity-catalog" como coordinador de confirmaciones, no se puede establecer la configuración "<configuration>" desde el comando . Quítelo de la TBLPROPERTIES cláusula y vuelva a intentarlo.

DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_SESSION

SQLSTATE: 42616

Al habilitar "unity-catalog" como coordinador de confirmación, no se puede establecer la configuración "<configuration>" desde las configuraciones de SparkSession. Desconténtelo ejecutando spark.conf.unset("<configuration>") y vuelva a intentarlo.

DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS

SQLSTATE: 42616

ALTER no puede desactivar las configuraciones de confirmaciones coordinadas. Para degradar una tabla de confirmaciones coordinadas, inténtelo de nuevo con ALTER TABLE [table-name] DROP FEATURE 'coordinatedCommits-preview'.

DELTA_CANNOT_UPDATE_ARRAY_FIELD

SQLSTATE: 429BQ

No se puede actualizar <tableName> el tipo de campo <fieldName> : actualice el elemento mediante la actualización <fieldName>.elementde .

DELTA_CANNOT_UPDATE_MAP_FIELD

SQLSTATE: 429BQ

No se puede actualizar <tableName> el tipo de campo <fieldName> : actualice un mapa mediante la actualización <fieldName>.key o <fieldName>.value.

DELTA_CANNOT_UPDATE_OTHER_FIELD

SQLSTATE: 429BQ

No se puede actualizar el campo <tableName> de tipo <typeName>.

DELTA_CANNOT_UPDATE_STRUCT_FIELD

SQLSTATE: 429BQ

No es posible actualizar el tipo de campo <tableName><fieldName>, actualice la estructura agregando, eliminando o actualizando sus campos.

DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION

SQLSTATE: 428FT

No se pueden usar todas las columnas para las columnas de partición.

DELTA_CANNOT_VACUUM_LITE

SQLSTATE: 55000

VACUUM LITE no puede eliminar todos los archivos aptos, ya que el registro delta no hace referencia a ellos. Por favor, ejecute VACUUM FULL.

DELTA_CANNOT_WRITE_INTO_VIEW

SQLSTATE: 0A000

<table> es una vista. No se admiten escrituras en una vista.

DELTA_CAST_OVERFLOW_IN_TABLE_WRITE

SQLSTATE: 22003

No se pudo escribir un valor de tipo <sourceType> en la columna <targetType> de tipo <columnName> debido a un desbordamiento.

Use try_cast en el valor de entrada para tolerar el desbordamiento y devolver NULL en su lugar.

Si es necesario, establezca <storeAssignmentPolicyFlag> en "LEGACY" para omitir este error o establezca <updateAndMergeCastingFollowsAnsiEnabledFlag> como verdadero para revertir al comportamiento anterior y seguir <ansiEnabledFlag> en UPDATE y MERGE.

DELTA_CATALOG_MANAGED_TABLE_UPGRADE_OR_DOWNGRADE_NOT_SUPPORTED

SQLSTATE: 0A000

No se admite la actualización o degradación de una tabla administrada por catálogos. Cree una nueva tabla con las características de tabla deseadas en su lugar.

DELTA_CATALOG_MANAGED_TABLE_UPGRADE_WITH_OTHER_PROPERTIES

SQLSTATE: 429BQ

No se puede combinar la actualización de la tabla <tableName> a administrada por catálogos con otros cambios de propiedad.

Propiedades proporcionadas: <properties>.

DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION

SQLSTATE: 0AKDC

No se puede establecer la configuración delta.enableChangeDataFeed. El cambio de la fuente de distribución de datos desde Delta aún no está disponible.

DELTA_CDC_READ_NULL_RANGE_BOUNDARY

SQLSTATE: 22004

Los parámetros de inicio y finalización de lectura CDC no pueden ser NULL. Proporcione una versión o marca de tiempo válida.

DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA

SQLSTATE: 0AKDC

La recuperación de cambios de tabla entre la versión <start> y la versión <end> falló debido a un esquema de datos incompatible.

El esquema de lectura está <readSchema> en la versión <readVersion>, pero hemos encontrado un esquema de datos incompatible en la versión <incompatibleVersion>.

Si es posible, recupere los cambios de tabla mediante el esquema de la versión final estableciendo <config> en endVersion, o póngase en contacto con el soporte técnico.

DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 0AKDC

Falló la recuperación de cambios de tabla entre la versión <start> y <end> debido a un cambio de esquema incompatible.

El esquema de lectura está <readSchema> en la versión <readVersion>, pero hemos encontrado un cambio de esquema incompatible en la versión <incompatibleVersion>.

Si es posible, consulte los cambios de tabla por separado de la versión <start> a <incompatibleVersion> - 1 y de la versión <incompatibleVersion> a <end>.

DELTA_CHANGE_DATA_FILE_NOT_FOUND

SQLSTATE: 42K03

No se encuentra el archivo <filePath> al que se hace referencia en el registro de transacciones. Esto puede ocurrir cuando los datos se han eliminado manualmente del sistema de archivos en lugar de usar la instrucción table DELETE . Esta solicitud parece dirigirse al Flujo de Datos de Cambios. Si ese es el caso, este error puede ocurrir cuando el archivo de datos de cambios está fuera del período de retención y ha sido eliminado por la instrucción VACUUM. Para obtener más información, consulte: <faqPath>

DELTA_CHANGE_TABLE_FEED_DISABLED

SQLSTATE: 42807

No se puede escribir en la tabla con el conjunto delta.enableChangeDataFeed. El cambio de la fuente de distribución de datos desde Delta no está disponible.

DELTA_CHECKPOINT_NON_EXIST_TABLE

SQLSTATE: 42K03

No se puede establecer un punto de control para una tabla <path> no existente. ¿Ha eliminado manualmente los archivos en el directorio _delta_log?

DELTA_CLONE_AMBIGUOUS_TARGET

SQLSTATE: 42613

Se proporcionaron dos rutas de acceso como destino CLONE , por lo que es ambiguo cuál usar. Un externo

ubicación externa para CLONE se proporcionó en <externalLocation> al mismo tiempo que la ruta de acceso

<targetIdentifier>.

DELTA_CLONE_INCOMPATIBLE_SOURCE

SQLSTATE: 0AKDC

El origen del clon tiene un formato válido, pero tiene una característica no compatible con Delta.

Para obtener más información, consulte DELTA_CLONE_INCOMPATIBLE_SOURCE

DELTA_CLONE_INCOMPLETE_FILE_COPY

SQLSTATE: 42000

El archivo (<fileName>) no se copió completamente. Tamaño de archivo esperado: <expectedSize>, encontrado: <actualSize>. Para continuar con la operación ignorando la comprobación del tamaño de archivo, establece <config> en falso.

DELTA_CLONE_UNSUPPORTED_SOURCE

SQLSTATE: 0AKDC

Origen de clon "<mode>" no admitido <name>, cuyo formato es <format>.

Los formatos admitidos son "delta", "Apache Incremental" y "parquet".

DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE

SQLSTATE: 0AKDC

Tabla de origen no admitida:

Para más información, consulte DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE

DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET

SQLSTATE: 0AKDC

Tabla de destino no admitida:

Para más información, consulte DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET

DELTA_CLONE_WITH_ROW_TRACKING_WITHOUT_STATS

SQLSTATE: 22000

No se puede clonar superficialmente una tabla sin estadísticas y con el seguimiento de filas habilitado.

Si desea habilitar el seguimiento de filas, primero debe recopilar estadísticas en la tabla de origen mediante la ejecución de:

ANALYZE TABLE nombre_de_tabla COMPUTE DELTA STATISTICS

DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED

SQLSTATE: 0A000

CLONE no se admite para la tabla Delta con la agrupación en clústeres liquid para DBR versión < 14.0.

DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED

SQLSTATE: 0A000

CLUSTER BY no se admite porque las columnas siguientes: <columnsWithDataTypes> no admiten la omisión de datos.

DELTA_CLUSTERING_COLUMNS_MISMATCH

SQLSTATE: 42P10

Las columnas de agrupación en clústeres proporcionadas no coinciden con las de la tabla existente.

  • proporcionadas: <providedClusteringColumns>

  • existente: <existingClusteringColumns>

DELTA_CLUSTERING_COLUMN_MISSING_STATS

SQLSTATE: 22000

La agrupación en clústeres líquidos requiere que las columnas de agrupación en clústeres tengan estadísticas. No se encontraron columnas de agrupación en clústeres '<columns>' en el esquema de estadísticas:

<schema>

DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE

SQLSTATE: 22000

No se permite crear una tabla externa sin agrupación en clústeres líquidos desde un directorio de tabla con agrupación en clústeres líquidos; path: <path>.

DELTA_CLUSTERING_NOT_SUPPORTED

SQLSTATE: 42000

'<operation>' no admite la agrupación en clústeres.

DELTA_CLUSTERING_PHASE_OUT_FAILED

SQLSTATE: 0AKDE

No se puede finalizar el valor <phaseOutType> de la tabla con la característica de tabla <tableFeatureToAdd> (motivo: <reason>). Vuelva a intentar el OPTIMIZE comando.

== Error ==

<error>

DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE

SQLSTATE: 42000

No se permite usar REPLACE para reemplazar una tabla Delta con agrupación en clústeres de Liquid por una tabla con particiones.

DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS

SQLSTATE: 0A000

SHOW CREATE TABLE no es compatible con la tabla Delta con agrupación en clústeres de Liquid sin ninguna columna de agrupación en clústeres.

DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS

SQLSTATE: 42000

No se permite la transición de una tabla Delta con agrupación en clústeres de Liquid a una tabla con particiones para la operación <operation>, cuando la tabla existente tiene columnas de agrupación en clústeres no vacías.

ALTER TABLE CLUSTER BY Ejecute NONE para quitar primero las columnas de agrupación en clústeres.

DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE: 42000

No se permite el modo de sobrescritura de particiones dinámicas para una tabla Delta con agrupamiento Liquid.

DELTA_CLUSTERING_WITH_PARTITION_PREDICATE

SQLSTATE: 0A000

OPTIMIZE el comando para la tabla Delta con Liquid clustering no admite predicados de partición. Quite los predicados: <predicates>.

DELTA_CLUSTERING_WITH_ZORDER_BY

SQLSTATE: 42613

El comando OPTIMIZE de la tabla Delta con agrupación en clústeres de Liquid no puede especificar ZORDER BY. Por favor, quite ZORDER BY (<zOrderBy>).

DELTA_CLUSTER_BY_AUTO_MISMATCH

SQLSTATE: 42000

El valor clusterByAuto proporcionado no coincide con el de la tabla existente.

DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS

SQLSTATE: 54000

CLUSTER BY para agrupación en clústeres de Liquid admite hasta <numColumnsLimit> columnas de agrupación en clústeres, pero la tabla tiene <actualNumColumns> columnas de agrupación en clústeres. Elimine las columnas de agrupación adicionales.

DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED

SQLSTATE: 42908

No se permite especificar CLUSTER BY cuándo no se define el esquema. Defina el esquema de la tabla <tableName>.

DELTA_CLUSTER_BY_WITH_BUCKETING

SQLSTATE: 42613

No se puede especificar la creación de cubos ni la agrupación en clústeres. Elimine CLUSTERED BY INTO BUCKETS / bucketBy si desea crear una tabla Delta con clustering.

DELTA_CLUSTER_BY_WITH_PARTITIONED_BY

SQLSTATE: 42613

No se pueden especificar la agrupación en clústeres ni la creación de particiones. Quite PARTITIONED BY / partitionBy / partitionedBy si desea crear una tabla Delta con agrupación en clústeres.

DELTA_COLLATIONS_NOT_SUPPORTED

SQLSTATE: 0AKDC

No se admiten intercalaciones en Delta Lake.

DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN

SQLSTATE: 0AKDC

No se admite la omisión de datos para la columna de partición "<column>".

DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE

SQLSTATE: 0AKDC

No se admite la omisión de datos para la columna "<column>" de tipo <type>.

DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET

SQLSTATE: 42703

La propiedad max column id (<prop>) no está establecida en una tabla habilitada para la asignación de columnas.

DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY

SQLSTATE: 42703

La propiedad max column id (<prop>) en una tabla habilitada para la asignación de columnas es <tableMax>, que no puede ser menor que el identificador máximo de columna para todos los campos (<fieldMax>).

DELTA_COLUMN_MISSING_DATA_TYPE

SQLSTATE: 42601

No se proporcionó el tipo de datos de la columna <colName> .

DELTA_COLUMN_NOT_FOUND

SQLSTATE: 42703

No se puede encontrar la columna <columnName> dada [<columnList>].

DELTA_COLUMN_NOT_FOUND_IN_MERGE

SQLSTATE: 42703

No se puede encontrar la columna "<targetCol>" de la tabla de destino de las columnas INSERT: <colNames>. INSERT la cláusula debe especificar el valor de todas las columnas de la tabla de destino.

DELTA_COLUMN_NOT_FOUND_IN_SCHEMA

SQLSTATE: 42703

No se pudo encontrar la columna <columnName> en:

<tableSchema>

DELTA_COLUMN_PATH_NOT_NESTED

SQLSTATE: 42704

Se esperaba que <columnPath> fuera un tipo de datos anidado, pero se encontró <other>. Se estaba buscando este

índice de <column> en un campo anidado.

Schema:

<schema>

DELTA_COLUMN_STRUCT_TYPE_MISMATCH

SQLSTATE: 2200G

La columna <source> estructurada no se puede insertar en el campo <targetType><targetField> en <targetTable>.

DELTA_COMMIT_INTERMEDIATE_REDIRECT_STATE

SQLSTATE: 42P01

No se puede gestionar la confirmación de la tabla dentro del estado de la tabla de redireccionamiento "<state>".

DELTA_COMPACTION_VALIDATION_FAILED

SQLSTATE: 22000

Error en la validación de la compactación de la ruta de acceso <compactedPath> como <newPath>: envíe un informe de errores.

DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE

SQLSTATE: 22005

Se encontró NullType anidado en la columna <columName> que es de <dataType>. Delta no admite la escritura de NullType en tipos complejos.

DELTA_CONCURRENT_APPEND

SQLSTATE: 2D521

ConcurrentAppendException: se agregaron archivos a <partition> mediante una actualización simultánea. <retryMsg> <conflictingCommit>

Consulte <docLink> para obtener más detalles.

DELTA_CONCURRENT_DELETE_DELETE

SQLSTATE: 2D521

ConcurrentDeleteDeleteException: esta transacción intentó eliminar uno o varios archivos que se eliminaron (por ejemplo <file>) mediante una actualización simultánea. Vuelva a intentar la operación.<conflictingCommit>

Consulte <docLink> para obtener más detalles.

DELTA_CONCURRENT_DELETE_READ

SQLSTATE: 2D521

ConcurrentDeleteReadException: esta transacción intentó leer uno o varios archivos que se eliminaron (por ejemplo <file>) mediante una actualización simultánea. Vuelva a intentar la operación.<conflictingCommit>

Consulte <docLink> para obtener más detalles.

DELTA_CONCURRENT_TRANSACTION

SQLSTATE: 2D521

ConcurrentTransactionException: este error se produce cuando varias consultas de streaming usan el mismo punto de control para escribir en esta tabla. ¿Ha ejecutado varias instancias de la misma consulta de streaming al mismo tiempo?<conflictingCommit>

Consulte <docLink> para obtener más detalles.

DELTA_CONCURRENT_WRITE

SQLSTATE: 2D521

ConcurrentWriteException: una transacción simultánea ha escrito nuevos datos desde que la transacción actual leyó la tabla. Vuelva a intentar la operación.<conflictingCommit>

Consulte <docLink> para obtener más detalles.

DELTA_CONFLICT_SET_COLUMN

SQLSTATE: 42701

Hay un conflicto de estas columnas SET: <columnList>.

DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND

SQLSTATE: 42616

Durante <command>, no se puede establecer la configuración "<configuration>" desde el comando . Quítelo de la TBLPROPERTIES cláusula y vuelva a intentarlo.

DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION

SQLSTATE: 42616

Durante <command>, no se puede establecer la configuración "<configuration>" desde las configuraciones de SparkSession. Desconténtelo ejecutando spark.conf.unset("<configuration>") y vuelva a intentarlo.

DELTA_CONSTRAINT_ALREADY_EXISTS

SQLSTATE: 42710

La restricción '<constraintName>' ya existe. Elimine primero la restricción anterior.

Restricción antigua:

<oldConstraint>

DELTA_CONSTRAINT_DATA_TYPE_MISMATCH

SQLSTATE: 42K09

Column <columnName> tiene el tipo de datos <columnType> y no se puede alterar al tipo de datos <dataType> porque las siguientes restricciones de comprobación hacen referencia a esta columna.

<constraints>

DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE

SQLSTATE: 42K09

No se puede modificar la columna <columnName> porque se hace referencia a esta columna mediante las restricciones check siguientes:

<constraints>

DELTA_CONSTRAINT_DOES_NOT_EXIST

SQLSTATE: 42704

No se puede quitar la restricción <constraintName> inexistente de la tabla <tableName>. Para evitar que se produzca un error, proporcione el parámetro IF EXISTS o establezca la configuración <config> de sesión de SQL en <confValue>.

DELTA_CONVERSION_MERGE_ON_READ_NOT_SUPPORTED

SQLSTATE: 0AKDC

No se admite la conversión de la tabla Merge-On-Read <format> : <path>, <hint>

DELTA_CONVERSION_NO_PARTITION_FOUND

SQLSTATE: 42KD6

No se encontró información de partición en el catálogo para la tabla <tableName>. ¿Ha ejecutado "MSCK REPAIR TABLE" en la tabla para detectar particiones?

DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN

SQLSTATE: 0AKDC

No se puede convertir la tabla Parquet con la columna de partición intercalada <colName> en Delta.

DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING

SQLSTATE: 0AKDC

La configuración '<config>' no se puede establecer en <mode> cuando se usa CONVERT TO DELTA.

DELTA_CONVERSION_UNSUPPORTED_SCHEMA_CHANGE

SQLSTATE: 0AKDC

Cambios de esquema no admitidos encontrados para <format> la tabla: <path>, <hint>

DELTA_CONVERT_NON_PARQUET_TABLE

SQLSTATE: 0AKDC

CONVERT TO DELTA solo admite tablas en formato parquet, pero estás intentando convertir el origen: <sourceName><tableId>.

DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS

SQLSTATE: 22000

No se puede habilitar el seguimiento de filas sin recopilar estadísticas.

Si desea habilitar el seguimiento de filas, haga lo siguiente:

  1. Habilitación de la recopilación de estadísticas mediante la ejecución del comando

SET <statisticsCollectionPropertyKey> = verdadero

  1. Ejecute CONVERT TO DELTA sin la opción NO STATISTICS .

Si no desea recopilar estadísticas, deshabilite el seguimiento de filas:

  1. Desactive la habilitación de la característica de tabla de forma predeterminada mediante la ejecución del comando :

RESET <rowTrackingTableFeatureDefaultKey>

  1. Desactiva la propiedad de la tabla de forma predeterminada mediante la ejecución de:

SET <rowTrackingDefaultPropertyKey> = falso

DELTA_COPY_INTO_TARGET_FORMAT

SQLSTATE: 0AKDD

COPY INTO target debe ser una tabla Delta.

DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA

SQLSTATE: 42601

Está intentando crear una tabla externa. <tableName>

desde <path> con Delta, pero el esquema no se especifica cuando

El directorio de entrada está vacío.

Para más información sobre Delta, consulte <docLink>

DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG

SQLSTATE: 42K03

Está intentando crear una tabla externa <tableName> desde <path> utilizando Delta, pero no hay ningún registro de transacciones presente en <logPath>. Compruebe la tarea anterior para asegurarse de que está escribiendo con formato("delta") y que la ruta de acceso es la raíz de la tabla.

Para más información sobre Delta, consulte <docLink>

DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH

SQLSTATE: 0AKDC

No se admite la creación de una tabla Delta basada en rutas de acceso con una ubicación diferente. Identificador: <identifier>, Ubicación: <location>.

DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION

SQLSTATE: 42601

Debe especificarse el nombre o la ubicación de la tabla.

DELTA_CREATE_TABLE_SCHEME_MISMATCH

SQLSTATE: 42KD7

El esquema especificado no coincide con el esquema existente en <path>.

== Especificado ==

<specifiedSchema>

== Existente ==

<existingSchema>

== Diferencias ==

<schemaDifferences>

Si su intención es mantener el esquema existente, puede omitir el

esquema del comando create table. De lo contrario, asegúrese de que

el esquema coincida.

DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED

SQLSTATE: 42000

No se puede habilitar la característica de tabla <tableFeature> mediante TBLPROPERTIES. CREATE Use OR REPLACE TABLE CLUSTER BY para crear una tabla Delta con agrupación en clústeres.

DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING

SQLSTATE: 42KD7

Las columnas de agrupación en clústeres especificadas no coinciden con las columnas de agrupación en clústeres existentes en <path>.

== Especificado ==

<specifiedColumns>

== Existente ==

<existingColumns>

DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING

SQLSTATE: 42KD7

La creación de particiones especificada no coincide con la creación de particiones existente en <path>.

== Especificado ==

<specifiedColumns>

== Existente ==

<existingColumns>

DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY

SQLSTATE: 42KD7

Las propiedades especificadas no coinciden con las propiedades existentes en <path>.

== Especificado ==

<specifiedProperties>

== Existente ==

<existingProperties>

DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION

SQLSTATE: 42601

No se puede crear la tabla ('<tableId>'). La ubicación asociada ('<tableLocation>') no está vacía y tampoco una tabla Delta.

DELTA_DATA_CHANGE_FALSE

SQLSTATE: 0AKDE

No se pueden cambiar los metadatos de la tabla porque la opción "dataChange" está establecida en false. Operación intentada: "<op>".

DELTA_DELETED_PARQUET_FILE_NOT_FOUND

SQLSTATE: 42K03

No se encuentra el archivo <filePath> al que se hace referencia en el registro de transacciones. Este archivo Parquet se podría eliminar por la directiva de retención de datos de Delta.

Duración predeterminada de retención de datos delta: <logRetentionPeriod>. Hora de modificación del archivo Parquet: <modificationTime>. Hora de eliminación del archivo parquet: <deletionTime>. Eliminado en la versión de Delta: <deletionVersion>.

DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS

SQLSTATE: 2D521

No es válido confirmar archivos con vectores de eliminación que faltan en la estadística numRecords.

DELTA_DISABLE_SOURCE_MATERIALIZATION_IN_INSERT_REPLACE_ON_OR_USING_NOT_ALLOWED

SQLSTATE: 0AKDC

No se permite deshabilitar la materialización de origen en INSERT REPLACE ON/USING estableciendo "spark.databricks.delta.insertReplaceOnOrUsing.materializeSource" en "none".

DELTA_DISABLE_SOURCE_MATERIALIZATION_IN_MERGE_NOT_ALLOWED

SQLSTATE: 0AKDC

No se permite deshabilitar la materialización del origen en MERGE estableciendo "spark.databricks.delta.merge.materializeSource" en "none".

DELTA_DOMAIN_METADATA_NOT_SUPPORTED

SQLSTATE: 0A000

Se detectaron acciones DomainMetadata para los dominios <domainNames>, pero DomainMetadataTableFeature no está habilitada.

DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO

SQLSTATE: 42KD8

El índice <columnIndex> para eliminar columna es inferior a 0.

DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA

SQLSTATE: 0AKDC

No se puede eliminar una columna de un esquema que tiene una sola columna. Schema:

<schema>

DELTA_DUPLICATE_ACTIONS_FOUND

SQLSTATE: 2D521

La operación de fichero '<actionType>' para la ruta <path> se especificó varias veces.

Entra en conflicto con <conflictingPath>.

No es válido que existan múltiples operaciones de archivos con la misma ruta en una sola confirmación.

DELTA_DUPLICATE_COLUMNS_FOUND

SQLSTATE: 42711

Se encontraron columnas <coltype>duplicadas: <duplicateCols>.

DELTA_DUPLICATE_COLUMNS_ON_INSERT

SQLSTATE: 42701

Nombres de columna duplicados en la cláusula INSERT.

DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE

SQLSTATE: 42701

<message>

Quite las columnas duplicadas antes de actualizar la tabla.

DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS

SQLSTATE: 42701

Se encontraron columnas de omisión de datos duplicados: <columns>.

DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR

SQLSTATE: 42601

Error interno: dos acciones DomainMetadata dentro de la misma transacción tienen el mismo dominio <domainName>.

DELTA_DUPLICATE_LOG_ENTRIES_FOUND

SQLSTATE: 55019

El registro Delta está en un estado no válido: <numDuplicates> las rutas de acceso tienen entradas duplicadas en la versión <version>. RESTORE a una versión antes de la confirmación que introdujo la duplicación o póngase en contacto con el soporte técnico para obtener ayuda.

DELTA_DV_HISTOGRAM_DESERIALIZATON

SQLSTATE: 22000

No se pudo deserializar el histograma de recuentos de registros eliminados durante la comprobación de la integridad de la tabla.

DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED

SQLSTATE: 0A000

El modo de sobrescritura de partición dinámica se especifica mediante las opciones de configuración de sesión o escritura, pero está deshabilitado por spark.databricks.delta.dynamicPartitionOverwrite.enabled=false.

DELTA_EMPTY_DATA

SQLSTATE: 428GU

Los datos usados en la creación de la tabla Delta no tienen ninguna columna.

DELTA_EMPTY_DIRECTORY

SQLSTATE: 42K03

No se encontró ningún archivo en el directorio : <directory>.

DELTA_EXCEED_CHAR_VARCHAR_LIMIT

SQLSTATE: 22001

El valor "<value>" supera la limitación de longitud de tipo char/varchar. Error de comprobación: <expr>.

DELTA_EXTERNAL_METADATA_UNRESOLVED_PROJECTION

SQLSTATE: 42703

La consulta de proyección '<query>' no se puede resolver en el esquema: <schemaTreeString>

DELTA_EXTERNAL_METADATA_UNSUPPORTED_SOURCE

SQLSTATE: 0AKDC

Los metadatos externos no admiten el origen:

Para obtener más información, consulte DELTA_EXTERNAL_METADATA_UNSUPPORTED_SOURCE

DELTA_FAILED_CAST_PARTITION_VALUE

SQLSTATE: 22018

No se pudo convertir el valor <value> de partición en <dataType>.

DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS

SQLSTATE: 42703

No se pudo encontrar <newAttributeName> entre la salida <targetOutputColumns> de destino existente.

DELTA_FAILED_INFER_SCHEMA

SQLSTATE: 42KD9

No se pudo deducir el esquema de la lista de archivos especificada.

DELTA_FAILED_MERGE_SCHEMA_FILE

SQLSTATE: 42KDA

No se pudo combinar el esquema del archivo <file>:

<schema>

DELTA_FAILED_OPERATION_ON_SHALLOW_CLONE

SQLSTATE: 42893

No se pudo ejecutar la operación en la tabla <sourceTable> de origen porque el clon superficial todavía existe y se produjo el siguiente error en el clon <targetTable> superficial: <message>

SQLSTATE: KD001

No se pudo leer el pie de página del archivo: <currentFile>.

DELTA_FAILED_RECOGNIZE_PREDICATE

SQLSTATE: 42601

No se puede reconocer el predicado '<predicate>'.

DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION

SQLSTATE: KD002

Espere un escaneo completo de la versión más reciente de la fuente Delta, pero se encontró un escaneo histórico de la versión <historicalVersion>.

DELTA_FAILED_TO_MERGE_FIELDS

SQLSTATE: 22005

No se pudieron combinar los campos '<currentField>' y ''<updateField>.

DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH

SQLSTATE: KD004

No se puede operar en esta tabla porque las siguientes características de tabla están habilitadas en metadatos, pero no se muestran en el protocolo: <features>.

DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT

SQLSTATE: 42000

El esquema de tabla requiere la habilitación manual de las siguientes características de tabla: <unsupportedFeatures>.

Para ello, ejecute el siguiente comando para cada una de las características enumeradas anteriormente:

ALTER TABLE SET TBLPROPERTIES table_name ("delta.feature.feature_name" = "supported")

Reemplace "table_name" y "feature_name" por valores reales.

Características admitidas actuales: <supportedFeatures>.

DELTA_FEATURE_CAN_ONLY_DROP_CHECKPOINT_PROTECTION_WITH_HISTORY_TRUNCATION

SQLSTATE: 55000

No se pudo quitar la funcionalidad Protección de puntos de control.

Esta característica solo se puede quitar truncando el historial.

Inténtelo de nuevo con la TRUNCATE HISTORY opción :

ALTER TABLE DROP FEATURE table_name checkpointProtectionTRUNCATE HISTORY

DELTA_FEATURE_DROP_CHECKPOINT_FAILED

SQLSTATE: 22KD0

Error al quitar <featureName> debido a un error en la creación del punto de control.

Inténtelo de nuevo más tarde. El problema persiste, póngase en contacto con el soporte técnico de Databricks.

DELTA_FEATURE_DROP_CHECKPOINT_PROTECTION_WAIT_FOR_RETENTION_PERIOD

SQLSTATE: 22KD0

La operación no se realizó correctamente porque todavía hay rastros de funciones descartadas.

en el historial de tablas. CheckpointProtection no se puede quitar hasta que estas versiones históricas

hayan expirado.

Para quitar CheckpointProtection, espere a que las versiones históricas

expire y, a continuación, repita este comando. El período de retención de las versiones históricas es

configurado actualmente en <truncateHistoryLogRetentionPeriod>.

DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL

SQLSTATE: 40000

No se puede quitar la característica porque una transacción simultánea modificó la tabla.

Vuelva a intentar la operación.

<concurrentCommit>

DELTA_FEATURE_DROP_DEPENDENT_FEATURE

SQLSTATE: 55000

No se puede quitar la característica <feature> de tabla porque algunas otras características (<dependentFeatures>) de esta tabla dependen de <feature>.

Considere la posibilidad de quitarlos primero antes de quitar esta característica.

DELTA_FEATURE_DROP_FEATURE_IS_DELTA_PROPERTY

SQLSTATE: 42000

No se puede quitar <property> de esta tabla porque se trata de una propiedad de tabla delta y no de una característica de tabla.

DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT

SQLSTATE: 55000

No se puede quitar <feature> de esta tabla porque no está presente actualmente en el protocolo de la tabla.

DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST

SQLSTATE: 22KD0

No se puede quitar <feature> porque el registro delta contiene versiones históricas que usan la característica.

Espere hasta el período de retención del historial (<logRetentionPeriodKey>=<logRetentionPeriod>)

ha pasado desde que la característica estaba activa por última vez.

Como alternativa, espere a que expire el TRUNCATE HISTORY período de retención (<truncateHistoryLogRetentionPeriod>)

y, a continuación, ejecute:

ALTER TABLE DROP FEATURE table_name feature_name TRUNCATE HISTORY

DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED

SQLSTATE: 42000

La característica concreta no requiere truncamiento del historial.

DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE

SQLSTATE: 0AKDC

No se puede quitar <feature> porque no se admite quitar esta característica.

Póngase en contacto con el soporte técnico de Databricks.

DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE

SQLSTATE: 0AKDC

No se puede quitar <feature> porque no es compatible con esta versión de Databricks.

Considere la posibilidad de usar Databricks con una versión superior.

DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD

SQLSTATE: 22KD0

La eliminación <feature> se realizó de forma correcta parcialmente.

La característica ya no se usa en la versión actual de la tabla. Sin embargo, la característica

todavía está presente en versiones históricas de la tabla. No se puede eliminar la función de tabla

del protocolo de tabla hasta que hayan expirado estas versiones históricas.

Para quitar la característica de tabla del protocolo, espere a que las versiones históricas

expire y, a continuación, repita este comando. El período de retención de las versiones históricas es

actualmente configurado como <logRetentionPeriodKey>=<logRetentionPeriod>.

Como alternativa, espere a que expire el TRUNCATE HISTORY período de retención (<truncateHistoryLogRetentionPeriod>)

y, a continuación, ejecute:

ALTER TABLE DROP FEATURE table_name feature_name TRUNCATE HISTORY

DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION

SQLSTATE: 55000

No se puede habilitar la característica <feature> de tabla porque requiere una versión de protocolo de lectura superior (actual <current>). Considere la posibilidad de actualizar la versión del protocolo de lectura de la tabla a <required>o a una versión que admita características de tabla de lectura. Consulte <docLink> para más información sobre las versiones de protocolo de tabla.

DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION

SQLSTATE: 55000

No se puede habilitar la característica <feature> de tabla porque requiere una versión de protocolo de escritura superior (actual <current>). Considere la posibilidad de actualizar la versión del protocolo de escritura de la tabla a <required>o a una versión que admita características de tabla de escritura. Consulte <docLink> para más información sobre las versiones de protocolo de tabla.

DELTA_FILE_ALREADY_EXISTS

SQLSTATE: 42K04

Ruta de acceso del archivo <path>existente.

DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT

SQLSTATE: 42613

No se puede especificar la lista de archivos y la cadena de patrón.

DELTA_FILE_NOT_FOUND

SQLSTATE: 42K03

Ruta de acceso del <path>archivo .

DELTA_FILE_NOT_FOUND_DETAILED

SQLSTATE: 42K03

No se encuentra el archivo <filePath> al que se hace referencia en el registro de transacciones. Esto ocurre cuando los datos se han eliminado manualmente del sistema de archivos en lugar de usar la instrucción table DELETE . Para obtener más información, consulte: <faqPath>

DELTA_FILE_OR_DIR_NOT_FOUND

SQLSTATE: 42K03

Ningún archivo o directorio de este tipo: <path>.

DELTA_FILE_TO_OVERWRITE_NOT_FOUND

SQLSTATE: 42K03

Archivo (<path>) que se va a reescribir no se encuentra entre los archivos candidatos:

<pathList>

DELTA_FOUND_MAP_TYPE_COLUMN

SQLSTATE: KD003

Se encontró un elemento MapType. Para tener acceso a la clave o el valor de mapType, especifique una.

of:

<key> o

<value>

seguido del nombre de la columna (solo si esa columna es un tipo de estructura).

por ejemplo, mymap.key.mykey

Si la columna es un tipo básico, mymap.key o mymap.value es suficiente.

Schema:

<schema>

DELTA_FSCK_CANNOT_REPAIR_DELTA_LOG

SQLSTATE: 55000

FSCK no puede reparar la tabla. La tabla no tiene ningún punto de control válido para iniciar la reproducción de registros y no hay suficiente historial de registros para reproducir desde la primera versión.

DELTA_FSCK_CONCURRENT_MODIFICATION

SQLSTATE: 2D521

Se detectó una modificación simultánea en la tabla mientras se ejecuta FSCK. Vuelva a intentar el comando FSCK y asegúrese de que ninguna otra operación esté escribiendo en la tabla durante el proceso de reparación.

DELTA_FSCK_DRY_RUN_CANNOT_PROCEED_WITH_INVALID_CHECKPOINTS

SQLSTATE: 55000

FSCK DRY RUN no puede continuar porque se detectaron puntos de control no válidos. Ejecute primero "TABLA FSCK REPAIR TABLEMETADATA SOLO" para reparar los puntos de control.

DELTA_FSCK_DRY_RUN_CANNOT_PROCEED_WITH_MISSING_OR_INVALID_PARTITION_FILES

SQLSTATE: 55000

FSCK DRY RUN no puede continuar porque se detectaron archivos o archivos que faltan con valores de partición no válidos. Ejecute primero "tabla FSCK REPAIR TABLE " para reparar la tabla.

DELTA_FSCK_INVALID_BARRIER_CHECKPOINT

SQLSTATE: 55000

FSCK no puede reparar la tabla. Algunos de los puntos de control no válidos están protegidos y no se pueden quitar. Póngase en contacto con el soporte técnico de Databricks.

DELTA_FSCK_NO_VALID_CHECKPOINT

SQLSTATE: 55000

FSCK no puede reparar la tabla. Todos los puntos de control de esta tabla no son válidos. Póngase en contacto con el soporte técnico de Databricks.

DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH

SQLSTATE: 42K09

La columna <columnName> tiene el tipo de datos <columnType> y no se puede modificar al tipo de datos <dataType> porque esta columna es referida por las siguientes columnas generadas:

<generatedColumns>.

DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE

SQLSTATE: 42K09

No se puede modificar la columna <columnName> porque está referenciada por las siguientes columnas generadas:

<generatedColumns>.

DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH

SQLSTATE: 42K09

El tipo de expresión de la columna <columnName> generada es <expressionType>, pero el tipo de columna es <columnType>.

DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH

SQLSTATE: 42K09

Column <currentName> es una columna generada o una columna usada por una columna generada. El tipo de datos es <currentDataType> y no se puede convertir en el tipo <updateDataType>de datos .

DELTA_GEOSPATIAL_NOT_SUPPORTED

SQLSTATE: 0AKDC

Los tipos geoespaciales no se admiten en esta versión de Delta Lake.

DELTA_GEOSPATIAL_SRID_NOT_SUPPORTED

SQLSTATE: 0AKDC

El tipo geoespacial tiene un SRID no admitido: <srid>. Las tablas delta solo admiten valores srid no negativos.

DELTA_ICEBERG_COMPAT_VIOLATION

SQLSTATE: KD00E

Se ha producido un error en la validación de IcebergCompatV<version>.

Para obtener más información, consulte DELTA_ICEBERG_COMPAT_VIOLATION

DELTA_ICEBERG_WRITER_COMPAT_VIOLATION

SQLSTATE: KD00E

Error en la validación de IcebergWriterCompatV<version> .

Para más información, consulte DELTA_ICEBERG_WRITER_COMPAT_VIOLATION

DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED

SQLSTATE: 429BQ

ALTER TABLE ALTER COLUMN no se admite para las columnas IDENTITY.

DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT

SQLSTATE: 0AKDD

ALTER TABLE ALTER COLUMN SYNC IDENTITY solo es compatible con Delta.

DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN

SQLSTATE: 429BQ

No se puede llamar a ALTER TABLE ALTER COLUMN SYNC IDENTITY en columnas que no sean IDENTITY.

DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED

SQLSTATE: 42808

No se admite proporcionar valores para GENERATED ALWAYS AS IDENTITY la columna <colName> .

DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP

SQLSTATE: 42611

El paso de columna IDENTITY no puede ser 0.

DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT

SQLSTATE: 0AKDD

Las columnas IDENTITY solo se admiten con Delta.

DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED

SQLSTATE: 42601

PARTITIONED BY IDENTITY no se admite la columna <colName> .

DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED

SQLSTATE: 429BQ

ALTER TABLE REPLACE COLUMNS no se admite para la tabla con IDENTITY columnas.

DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE

SQLSTATE: 428H2

DataType <dataType> no se admite para columnas IDENTITY.

DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED

SQLSTATE: 42808

UPDATE no se admite en columnas IDENTITY<colName>.

DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION

SQLSTATE: 42613

No se puede especificar la columna IDENTITY con una expresión de columna generada.

DELTA_ILLEGAL_OPTION

SQLSTATE: 42616

Valor '<input>' no válido para la opción '<name>', <explain>

DELTA_ILLEGAL_USAGE

SQLSTATE: 42601

No se permite el uso de <option> cuando <operation> una tabla Delta.

DELTA_INCONSISTENT_BUCKET_SPEC

SQLSTATE: 42000

BucketSpec en la tabla particionada Delta no coincide con BucketSpec de los metadatos. Se esperaba: <expected>. Real: <actual>.

DELTA_INCONSISTENT_LOGSTORE_CONFS

SQLSTATE: F0000

(<setKeys>) no se puede establecer en valores diferentes. Establezca solo uno de ellos o establézcalos en el mismo valor.

DELTA_INCORRECT_ARRAY_ACCESS

SQLSTATE: KD003

Acceder incorrectamente a un ArrayType. Use la posición arrayname.element.elementname para

agregarla a una matriz.

DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME

SQLSTATE: KD003

Se encontró un elemento ArrayType. Para acceder a los elementos de un ArrayType, especifique

<rightName> en lugar de <wrongName>.

Schema:

<schema>

DELTA_INCORRECT_GET_CONF

SQLSTATE: 42000

Use getConf() en lugar de conf.getConf().

DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION

SQLSTATE: 0AKDC

El error se produce normalmente cuando la implementación predeterminada de LogStore, que

es, HDFSLogStore, se usa para escribir en una tabla Delta en un sistema de almacenamiento que no es de HDFS.

Para obtener las garantías ACID transaccionales en las actualizaciones de tabla, debe usar la

Implementación correcta de LogStore que es adecuada para su sistema de almacenamiento.

Consulte <docLink> para obtener más información.

DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT

SQLSTATE: 42KD8

El índice <index> para eliminar columna es igual o mayor que la longitud de estructura: <length>.

DELTA_INDEX_LARGER_THAN_STRUCT

SQLSTATE: 42KD8

El índice <index> para agregar columna <columnName> es mayor que la longitud de estructura: <length>.

DELTA_INSERT_COLUMN_ARITY_MISMATCH

SQLSTATE: 42802

No se puede escribir en '<tableName>', <columnName>; la tabla de destino tiene <numColumns> columnas y los datos insertados tienen <insertColumns> columnas.

DELTA_INSERT_COLUMN_MISMATCH

SQLSTATE: 42802

La columna <columnName> no se especifica en INSERT.

DELTA_INSERT_REPLACE_ON_AMBIGUOUS_COLUMNS_IN_CONDITION

SQLSTATE: 42702

Las columnas <columnNames> son ambiguas en la condición de INSERT REPLACE ON. Considere la posibilidad de especificar un alias para estas columnas.

DELTA_INSERT_REPLACE_ON_NOT_ENABLED

SQLSTATE: 0A000

Póngase en contacto con su representante de Databricks para habilitar ... INSERT INTO...REPLACE ON API de SQL y DataFrame.

DELTA_INSERT_REPLACE_ON_UNRESOLVED_COLUMNS_IN_CONDITION

SQLSTATE: 42703

Las columnas <columnNames> no se pueden resolver en la condición de INSERT REPLACE ON.

DELTA_INVALID_AUTO_COMPACT_TYPE

SQLSTATE: 22023

Tipo de compactación automática no válido: <value>. Los valores permitidos son: <allowed>.

DELTA_INVALID_BUCKET_COUNT

SQLSTATE: 22023

Número de cubos no válido: <invalidBucketCount>. El número de cubos debe ser un número positivo que sea potencia de 2 y al menos 8. Puede usar <validBucketCount> en su lugar.

DELTA_INVALID_BUCKET_INDEX

SQLSTATE: 22023

No se puede encontrar la columna bucket entre las columnas de partición.

DELTA_INVALID_CALENDAR_INTERVAL_EMPTY

SQLSTATE: 2200P

El intervalo no puede ser nulo o en blanco.

DELTA_INVALID_CDC_RANGE

SQLSTATE: 22003

El intervalo CDC de principio <start> a fin <end> no era válido. El final no puede ser antes de empezar.

DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME

SQLSTATE: 42K05

El nombre de atributo "<columnName>" contiene caracteres no válidos entre " ,;{}()\n\t=". Use alias para cambiarle el nombre.

DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES

SQLSTATE: 42K05

Se encontraron caracteres no válidos entre ' , ;{}()\n\t=' en los nombres de columna del esquema.

Nombres de columna no válidos: <invalidColumnNames>.

Use otros caracteres e inténtelo de nuevo.

Como alternativa, habilite Column Mapping para seguir usando estos caracteres.

DELTA_INVALID_CHECK_CONSTRAINT_REFERENCES

SQLSTATE: 42621

Se encuentra <colName> en CHECK la restricción . Una restricción check no puede usar una columna inexistente.

DELTA_INVALID_CLONE_PATH

SQLSTATE: 22KD1

La ubicación de destino de CLONE debe ser una ruta de acceso absoluta o un nombre de tabla. Usar un

ruta de acceso absoluta en lugar de <path>.

DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING

SQLSTATE: 42K05

Se encontraron caracteres no válidos entre ' , ;{}()\n\t=' en los nombres de columna del esquema.

Nombres de columna no válidos: <invalidColumnNames>.

No se puede quitar la asignación de columnas cuando hay caracteres no válidos en los nombres de columna.

Cambie el nombre de las columnas para quitar los caracteres no válidos y vuelva a ejecutar este comando.

DELTA_INVALID_FORMAT

SQLSTATE: 22000

Se detectó un formato incompatible.

Se encontró un registro de transacciones para Delta en <deltaRootPath>/_delta_log,

pero está intentando <operation> <path> usando format("<format>"). Debe usar

'format("delta")' al leer y escribir en una tabla delta.

Para más información sobre Delta, consulte <docLink>

DELTA_INVALID_GENERATED_COLUMN_REFERENCES

SQLSTATE: 42621

Una columna generada no puede usar una columna inexistente u otra columna generada.

DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS

SQLSTATE: 42616

Opciones no válidas para escrituras de datos idempotentes: <reason>

DELTA_INVALID_INTERVAL

SQLSTATE: 22006

<interval> no es un valor válido INTERVAL.

DELTA_INVALID_INVENTORY_SCHEMA

SQLSTATE: 42000

El esquema del especificado INVENTORY no contiene todos los campos obligatorios. Los campos obligatorios son: <expectedSchema>

DELTA_INVALID_ISOLATION_LEVEL

SQLSTATE: 25000

nivel de aislamiento '<isolationLevel>' no válido.

DELTA_INVALID_LOGSTORE_CONF

SQLSTATE: F0000

() y (<classConfig><schemeConfig>) no se pueden establecer al mismo tiempo. Establezca solo un grupo de ellos.

DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA

SQLSTATE: 42000

Está intentando crear una tabla administrada. <tableName>

con Delta, pero no se especifica el esquema.

Para más información sobre Delta, consulte <docLink>

DELTA_INVALID_PARTITION_COLUMN

SQLSTATE: 42996

<columnName> no es una columna de partición válida en la tabla <tableName>.

DELTA_INVALID_PARTITION_COLUMN_NAME

SQLSTATE: 42996

Se encontraron columnas de partición que tienen caracteres no válidos entre " , ;{}()\n\t=". Cambie el nombre a las columnas de partición. Esta comprobación se puede desactivar estableciendo spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false), pero esto no se recomienda porque es posible que otras características de Delta no funcionen correctamente.

DELTA_INVALID_PARTITION_COLUMN_TYPE

SQLSTATE: 42996

No se admite el uso de la columna <name> de tipo <dataType> como columna de partición.

DELTA_INVALID_PARTITION_PATH

SQLSTATE: 22KD1

Un fragmento de ruta de acceso de partición debe tener el formato part1=foo/part2=bar. Ruta de acceso de partición: <path>.

DELTA_INVALID_PROTOCOL_DOWNGRADE

SQLSTATE: KD004

La versión del protocolo no se puede cambiar de (<oldProtocol>) a (<newProtocol>).

DELTA_INVALID_PROTOCOL_VERSION

SQLSTATE: KD004

Versión del protocolo Delta no compatible: la tabla "<tableNameOrPath>" requiere la versión del lector <readerRequired> y la versión del escritor <writerRequired>, pero esta versión de Databricks admite versiones <supportedReaders> de lector y versiones <supportedWriters> de escritor. Actualice a una versión más reciente.

DELTA_INVALID_TABLE_VALUE_FUNCTION

SQLSTATE: 22000

La función <function> es una función con valores de tabla no admitida para las lecturas CDC.

DELTA_INVALID_TIMESTAMP_FORMAT

SQLSTATE: 22007

La marca <timestamp> de tiempo proporcionada no coincide con la sintaxis <format>esperada.

DELTA_LOG_ALREADY_EXISTS

SQLSTATE: 42K04

Ya existe un registro delta en <path>.

DELTA_LOG_FILE_NOT_FOUND

SQLSTATE: 42K03

No se pueden obtener los archivos de registro delta para construir la versión de la tabla <version> comenzando desde la versión de punto de control <checkpointVersion> en <logPath>.

DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE

SQLSTATE: 42K03

Si nunca la eliminó, es probable que la consulta esté retrasada. Elimine su punto de control para reiniciarse desde cero. Para evitar que esto suceda de nuevo, puede actualizar la directiva de retención de la tabla Delta.

DELTA_LOG_JSON_FILE_ACCESS_DENIED

SQLSTATE: 58000

Acceso denegado al leer el archivo de registro JSON delta: <filePath>. Compruebe que tiene permisos de lectura para la ubicación de la tabla Delta.

DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING

SQLSTATE: 22000

Falta el nombre de columna materializado <rowTrackingColumn> para <tableName>.

DELTA_MAX_ARRAY_SIZE_EXCEEDED

SQLSTATE: 42000

Use un límite menor que Int.MaxValue - 8.

DELTA_MAX_COMMIT_RETRIES_EXCEEDED

SQLSTATE: 40000

Se ha producido un error en esta confirmación, ya que se ha intentado <numAttempts> veces, pero no se ha realizado correctamente.

Esto puede deberse a que la tabla Delta se confirma continuamente por muchas confirmaciones

commits.

Confirmación iniciada en la versión: <startVersion>

Error de confirmación en la versión: <failVersion>

Número de acciones que se intentaron confirmar: <numActions>

Tiempo total invertido en intentar esta confirmación: <timeSpent> ms

DELTA_MAX_LIST_FILE_EXCEEDED

SQLSTATE: 42000

La lista de archivos debe tener como máximo <maxFileListSize> entradas, tenía <numFiles>.

DELTA_MERGE_ADD_VOID_COLUMN

SQLSTATE: 42K09

No se puede agregar columna <newColumn> con el tipo VOID. Especifique explícitamente un tipo no nulo.

DELTA_MERGE_INCOMPATIBLE_DATATYPE

SQLSTATE: 42K09

No se pudieron combinar tipos de datos incompatibles <currentDataType> y <updateDataType>.

DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE

SQLSTATE: 42806

No se pudieron combinar tipos decimales incompatibles con <decimalRanges>.

DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY

SQLSTATE: 25000

Se ha producido un error al mantener el origen de la instrucción materializada MERGE repetidamente.

DELTA_MERGE_MISSING_WHEN

SQLSTATE: 42601

Debe haber al menos una cláusula WHEN en una instrucción MERGE.

DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT

SQLSTATE: 42601

Faltan atributos resueltos <missingAttributes> en <input> el operador <merge>.

DELTA_MERGE_SOURCE_CACHED_DURING_EXECUTION

SQLSTATE: 25000

Error MERGE en la operación porque (parte del) plan de origen fue almacenada en caché mientras se ejecutaba la MERGE operación.

DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY

SQLSTATE: 22005

Clave de asignación inesperada: <unexpectedKeyClass> - <unexpectedKeyObject>.

DELTA_MERGE_UNRESOLVED_EXPRESSION

SQLSTATE: 42601

No se puede resolver <sqlExpr> en <clause> dadas las columnas <cols>.

DELTA_METADATA_CHANGED

SQLSTATE: 2D521

MetadataChangedException: la actualización simultánea ha cambiado los metadatos de la tabla Delta. Vuelva a intentar la operación.<conflictingCommit>

Consulte <docLink> para obtener más detalles.

DELTA_MISSING_CHANGE_DATA

SQLSTATE: KD002

Error al obtener datos modificados para el intervalo [<startVersion> , <endVersion>] ya que los datos modificados no eran

registró para la versión [<version>]. Si ha habilitado el flujo de datos de cambios en esta tabla,

use DESCRIBE HISTORY para ver cuándo se ha habilitado por primera vez.

De lo contrario, para iniciar la grabación de datos modificados, use ALTER TABLE table_name SET TBLPROPERTIES

(<key>=true).

DELTA_MISSING_COLUMN

SQLSTATE: 42703

No se encuentra <columnName> en columnas de tabla: <columnList>.

DELTA_MISSING_COMMIT_INFO

SQLSTATE: KD004

Esta tabla tiene habilitada la característica <featureName> que requiere la presencia de la acción CommitInfo en cada confirmación. Sin embargo, falta la acción CommitInfo en la versión de confirmación <version>.

DELTA_MISSING_COMMIT_TIMESTAMP

SQLSTATE: KD004

Esta tabla tiene habilitada la característica <featureName> que requiere la presencia de commitTimestamp en la acción CommitInfo. Sin embargo, este campo no se ha establecido en la versión de commit <version>.

DELTA_MISSING_DELTA_TABLE

SQLSTATE: 42P01

<tableName> no es una tabla Delta.

DELTA_MISSING_DELTA_TABLE_COPY_INTO

SQLSTATE: 42P01

La tabla no existe. Cree primero una tabla Delta vacía mediante CREATE TABLE <tableName>.

DELTA_MISSING_ICEBERG_CLASS

SQLSTATE: 56038

No se encontró la clase Apache Iceberg. Asegúrese de que está instalada la compatibilidad con Delta Apache Iceberg.

Consulte <docLink> para obtener más detalles.

DELTA_MISSING_NOT_NULL_COLUMN_VALUE

SQLSTATE: 23502

La columna <columnName>, que tiene una restricción NOT NULL, falta en los datos que se están escribiendo en la tabla.

DELTA_MISSING_PARTITION_COLUMN

SQLSTATE: 42KD6

<columnName> Columna de partición no encontrada en el esquema <columnList>.

DELTA_MISSING_PART_FILES

SQLSTATE: 42KD6

No se encontraron todos los archivos de partes de la versión de punto de control: <version>.

DELTA_MISSING_PROVIDER_FOR_CONVERT

SQLSTATE: 0AKDC

CONVERT TO DELTA solo admite tablas Parquet. Vuelva a escribir el destino como Parquet. <path> si es un directorio Parquet.

DELTA_MISSING_ROW_TRACKING_FOR_CDC

SQLSTATE: 0AKDE

Error al obtener los datos modificados para <tableName> ya que no se ha habilitado el seguimiento de filas. Para habilitar el seguimiento de filas, use ALTER TABLE table_name SET TBLPROPERTIES (<key>=true).

DELTA_MISSING_SET_COLUMN

SQLSTATE: 42703

No se encontró la columna SET<columnName> dadas las columnas <columnList>.

DELTA_MISSING_TRANSACTION_LOG

SQLSTATE: 42000

Se detectó un formato incompatible.

Está intentando <operation> <path> usando Delta, pero no hay

registro de transacciones presente. Compruebe el trabajo ascendente para asegurarse de que está escribiendo

usando format("delta") y que está intentando %1$s en la ruta de acceso base de la tabla.

Para más información sobre Delta, consulte <docLink>

DELTA_MODE_NOT_SUPPORTED

SQLSTATE: 0AKDC

No se admite el modo especificado '<mode>'. Los modos admitidos son: <supportedModes>.

DELTA_MULTIPLE_CDC_BOUNDARY

SQLSTATE: 42614

Se proporcionan varios argumentos <startingOrEnding> para la lectura CDC. Proporcione una de las marcas de tiempo <startingOrEnding> o la versión <startingOrEnding>.

DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER

SQLSTATE: 42614

Varias configuraciones de índice de filtro bloom pasadas al comando para la columna: <columnName>.

DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE

SQLSTATE: 21506

No se puede realizar la combinación como varias filas de origen coincidentes e intenta modificar el mismo

fila de destino de la tabla Delta de maneras posiblemente conflictivas. Mediante la semántica de SQL de Merge,

cuando varias filas de origen coinciden en la misma fila de destino, el resultado puede ser ambiguo.

como no está claro qué fila de origen se debe usar para actualizar o eliminar la coincidencia

fila de destino. Puede preprocesar la tabla de origen para eliminar la posibilidad de

varias coincidencias. Consulte la sección

<usageReference>

DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND

SQLSTATE: 42616

Durante <command>, ambas configuraciones de confirmaciones coordinadas ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview") se establecen en el comando o ninguna de ellas. Falta: "<configuration>". Especifique esta configuración en la TBLPROPERTIES cláusula o quite la otra configuración y vuelva a intentar el comando.

DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION

SQLSTATE: 42616

Durante <command>, ambas configuraciones de confirmaciones coordinadas ("coordinatedCommits.commitCoordinator-preview", "coordinatedCommits.commitCoordinatorConf-preview") se establecen en las configuraciones de SparkSession o ninguna de ellas. Falta: "<configuration>". Establezca esta configuración en SparkSession o desconjunte la otra configuración y vuelva a intentar el comando.

DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE

SQLSTATE: 42000

Los siguientes nombres de columna se reservan solo para el uso interno de la tabla en cubos delta: <names>.

DELTA_NESTED_FIELDS_NEED_RENAME

SQLSTATE: 42K05

El esquema de entrada contiene campos anidados que se capitalizan de forma diferente a la tabla de destino.

Deben cambiarse de nombre para evitar la pérdida de datos en estos campos mientras escriben en Delta.

Fields:

<fields>.

Esquema original:

<schema>

DELTA_NESTED_NOT_NULL_CONSTRAINT

SQLSTATE: 0AKDC

El <nestType> tipo del campo <parent> contiene una NOT NULL restricción. Delta no admite NOT NULL restricciones anidadas dentro de matrices o mapas. Para suprimir este error y omitir silenciosamente las restricciones especificadas, establezca <configKey> = true.

Tipo <nestType> analizado:

<nestedPrettyJson>

DELTA_NESTED_SUBQUERY_NOT_SUPPORTED

SQLSTATE: 0A000

La subconsulta anidada no se admite en la condición <operation>.

DELTA_NEW_CHECK_CONSTRAINT_VIOLATION

SQLSTATE: 23512

<numRows> las filas de <tableName> infringen la nueva CHECK restricción (<checkConstraint>).

DELTA_NEW_NOT_NULL_VIOLATION

SQLSTATE: 23512

<numRows> las filas de <tableName> infringen la nueva NOT NULL restricción en <colName>.

DELTA_NON_BOOLEAN_CHECK_CONSTRAINT

SQLSTATE: 42621

CHECK la restricción '<name>' (<expr>) debe ser una expresión booleana.

DELTA_NON_DETERMINISTIC_EXPRESSION_IN_CHECK_CONSTRAINT

SQLSTATE: 42621

Se encuentra <expr> en una CHECK restricción. Una CHECK restricción no puede usar una expresión no determinista.

DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN

SQLSTATE: 42621

Se encontró <expr>. Una columna generada no puede usar una expresión no determinista.

DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED

SQLSTATE: 0AKDC

No se admiten funciones no deterministas en .<operation> <expression>

DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE: 42601

Cuando hay más de una cláusula MATCHED en una instrucción MERGE, solo la última cláusula MATCHED puede omitir la condición.

DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION

SQLSTATE: 42601

Cuando hay más de una cláusula NOT MATCHED BY SOURCE en una instrucción MERGE, solo la última cláusula NOT MATCHED BY SOURCE puede omitir la condición.

DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE: 42601

Cuando hay más de una cláusula NOT MATCHED en una instrucción MERGE, solo la última cláusula NOT MATCHED puede omitir la condición.

DELTA_NON_PARSABLE_TAG

SQLSTATE: 42601

No se pudo analizar la etiqueta <tag>.

Las etiquetas de archivo son: <tagList>.

DELTA_NON_PARTITION_COLUMN_ABSENT

SQLSTATE: KD005

Los datos escritos en Delta deben contener al menos una columna sin particiones.<details>

DELTA_NON_PARTITION_COLUMN_REFERENCE

SQLSTATE: 42P10

El predicado hace referencia a la columna "<columnName>" que no es de partición. Solo se puede hacer referencia a las columnas de partición: [<columnList>].

DELTA_NON_PARTITION_COLUMN_SPECIFIED

SQLSTATE: 42P10

Las columnas <columnList> que no tienen particiones se especifican donde solo se esperan columnas de partición: <fragment>.

DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG

SQLSTATE: 42K05

El catálogo delta requiere un espacio de nombres de una sola parte, pero <identifier> es de varias partes.

DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_COMMAND

SQLSTATE: 42616

No se admite establecer el coordinador de confirmaciones en "<nonUcCoordinatorName>" desde el comando, ya que las tablas administradas por UC solo pueden tener "unity-catalog" como coordinador de confirmación. Por favor, cambie a "unity-catalog" o quite todas las propiedades de la tabla de confirmaciones coordinadas de la cláusula TBLPROPERTIES y luego vuelva a intentar el comando nuevamente.

DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_SESSION

SQLSTATE: 42616

No se admite establecer el coordinador de confirmaciones en "<nonUcCoordinatorName>" desde las configuraciones de SparkSession, ya que las tablas administradas por UC solo pueden tener "unity-catalog" como coordinador de confirmaciones. Cambie a "unity-catalog" ejecutando spark.conf.set("<coordinatorNameDefaultKey>", "unity-catalog")o quite todas las propiedades de la tabla Confirmaciones coordinadas de las configuraciones de SparkSession ejecutando spark.conf.unset("<coordinatorNameDefaultKey>"), spark.conf.unset("<coordinatorConfDefaultKey>"), spark.conf.unset("<tableConfDefaultKey>")y, a continuación, vuelva a intentar el comando.

DELTA_NON_UC_MANAGED_TABLE_UPGRADE_OR_DOWNGRADE_NOT_SUPPORTED

SQLSTATE: 0A000

La tabla <tableName> no está administrada por UC. Solo las tablas administradas por UC se pueden actualizar o degradar a las tablas administradas por catálogos.

DELTA_NOT_A_DATABRICKS_DELTA_TABLE

SQLSTATE: 42000

<table> no es una tabla Delta. Quite primero esta tabla si desea crearla con Databricks Delta.

DELTA_NOT_A_DELTA_TABLE

SQLSTATE: 0AKDD

<tableName> no es una tabla Delta. Quite primero esta tabla si desea volver a crearla con Delta Lake.

DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT

SQLSTATE: 42K09

No se encuentra una columna que acepta valores NULL en la estructura: <struct>.

DELTA_NOT_NULL_CONSTRAINT_VIOLATED

SQLSTATE: 23502

NOT NULL restricción infringida para la columna: <columnName>.

DELTA_NOT_NULL_NESTED_FIELD

SQLSTATE: 0A000

No se puede agregar un campo anidado que no acepta valores NULL a un elemento primario que admite un valor NULL. Establezca la nulabilidad de la columna primaria en consecuencia.

DELTA_NO_COMMITS_FOUND

SQLSTATE: KD006

No se encontraron confirmaciones en <logPath>.

DELTA_NO_RECREATABLE_HISTORY_FOUND

SQLSTATE: KD006

No se encontraron confirmaciones recreables en <logPath>.

DELTA_NO_REDIRECT_RULES_VIOLATED

SQLSTATE: 42P01

Operación no permitida: <operation> no se puede realizar en una tabla con característica de redirección.

No se cumplen las reglas de no redireccionamiento <noRedirectRules>.

DELTA_NO_RELATION_TABLE

SQLSTATE: 42P01

No se encontró la tabla <tableIdent> .

DELTA_NO_START_FOR_CDC_READ

SQLSTATE: 42601

No se proporciona startingVersion ni startingTimestamp para la lectura CDC.

DELTA_NULL_SCHEMA_IN_STREAMING_WRITE

SQLSTATE: 42P18

Delta no acepta NullTypes en el esquema para escrituras de streaming.

DELTA_ONEOF_IN_TIMETRAVEL

SQLSTATE: 42601

Proporcione "timestampAsOf" o "versionAsOf" para el viaje en el tiempo.

DELTA_ONLY_OPERATION

SQLSTATE: 0AKDD

<operation> solo se admite para las tablas Delta.

DELTA_OPERATION_MISSING_PATH

SQLSTATE: 42601

Proporcione la ruta de acceso o el identificador de tabla para <operation>.

DELTA_OPERATION_NOT_ALLOWED

SQLSTATE: 0AKDC

Operación no permitida: <operation> no se admite para las tablas Delta.

DELTA_OPERATION_NOT_ALLOWED_DETAIL

SQLSTATE: 0AKDC

Operación no permitida: <operation> no se admite para las tablas Delta: <tableName>.

DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION

SQLSTATE: 0AKDC

<operation> no se admite para la columna <colName> con intercalación no predeterminada <collation>.

DELTA_OPERATION_NOT_SUPPORTED_FOR_DATATYPES

SQLSTATE: 0AKDC

<operation> no se admite para los tipos de datos: <dataTypeList>.

DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION

SQLSTATE: 0AKDC

<operation> no se admite para la expresión <exprText> porque usa intercalación no predeterminada.

DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED

SQLSTATE: 0A000

<operation> no se admite el comando en una vista temporal que hace referencia a una tabla Delta que contiene columnas generadas. Ejecute el <operation> comando directamente en la tabla Delta.

DELTA_OPERATION_ON_VIEW_NOT_ALLOWED

SQLSTATE: 0AKDC

Operación no permitida: <operation> no se puede realizar en una vista.

DELTA_OPTIMIZE_FULL_NOT_SUPPORTED

SQLSTATE: 42601

OPTIMIZE FULL solo se admite para tablas agrupadas con columnas de agrupación en clústeres no vacías.

DELTA_OVERWRITE_MUST_BE_TRUE

SQLSTATE: 42000

No se puede especificar la opción de copia overwriteSchema sin establecer OVERWRITE = 'true'.

DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE: 42613

'overwriteSchema' no se puede usar en el modo de sobrescritura de particiones dinámicas.

DELTA_PARTITION_COLUMN_CAST_FAILED

SQLSTATE: 22525

No se pudo convertir el valor <value> a <dataType> para la columna <columnName>de partición .

DELTA_PARTITION_COLUMN_NOT_FOUND

SQLSTATE: 42703

<columnName> Columna de partición no encontrada en el esquema [<schemaMap>].

DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES

SQLSTATE: 42613

No se puede especificar el esquema de partición al convertir tablas de Apache Iceberg. Se deduce automáticamente.

DELTA_PATH_BASED_ACCESS_TO_CATALOG_MANAGED_TABLE_BLOCKED

SQLSTATE: KD00G

No se permite el acceso basado en rutas de acceso para Catalog-Managed tabla: <path>. Acceda a la tabla a través de su nombre y vuelva a intentarlo.

DELTA_PATH_BASED_ACCESS_TO_TABLE_BLOCKED

SQLSTATE: 42P01

La tabla en <path> se ha migrado a una tabla administrada del catálogo de Unity y ya no se puede acceder a ella por ruta de acceso. Actualice el cliente para acceder a la tabla por nombre.

DELTA_PATH_DOES_NOT_EXIST

SQLSTATE: 42K03

<path> no existe o no es una tabla Delta.

DELTA_PATH_EXISTS

SQLSTATE: 42K04

No se puede escribir en la ruta de acceso existente <path> sin establecer OVERWRITE = "true".

DELTA_POST_COMMIT_HOOK_FAILED

SQLSTATE: 2DKD0

La confirmación de la versión de la tabla Delta <version> se realizó correctamente, pero se produjo un error al ejecutar el enlace posterior a la confirmación <name> <message>

DELTA_PROTOCOL_CHANGED

SQLSTATE: 2D521

ProtocolChangedException: una actualización simultánea ha cambiado la versión del protocolo de la tabla Delta. <additionalInfo> <conflictingCommit>

Consulte <docLink> para obtener más detalles.

DELTA_PROTOCOL_PROPERTY_NOT_INT

SQLSTATE: 42K06

La propiedad de protocolo <key> debe ser un entero. Se encontró <value>.

DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE

SQLSTATE: KD004

No se puede actualizar solo la versión del protocolo de lectura para usar las características de la tabla. La versión del protocolo de escritura debe ser al menos <writerVersion> para continuar. Consulte <docLink> para más información sobre las versiones de protocolo de tabla.

DELTA_READ_TABLE_WITHOUT_COLUMNS

SQLSTATE: 428GU

Está intentando leer una tabla <tableName> Delta que no tiene ninguna columna.

Escriba algunos datos nuevos con la opción mergeSchema = true para poder leer la tabla.

DELTA_READ_TIME_CDC_NOT_SUPPORTED_FOR_TABLES_WITH_ACCESS_POLICIES

SQLSTATE: 56038

Está intentando calcular la fuente de datos modificados en <tableName> que tiene definidas las directivas de acceso. La fuente de distribución de datos de cambio de hora de lectura se encuentra actualmente en versión preliminar y no admite CDF en tablas con directivas de acceso. Habilite CDF optimizado para lectura estableciendo la propiedad de tabla "<cdfTableProperty>" en "true" en la tabla.

DELTA_REDIRECT_TARGET_ROW_FILTER_COLUMN_MASK_UNSUPPORTED

SQLSTATE: 0AKDC

No se admite la redirección a una tabla con filtro de fila o máscara de columna. Actualice el código para hacer referencia directamente a la tabla <tableIdent> de destino.

DELTA_REGEX_OPT_SYNTAX_ERROR

SQLSTATE: 2201B

Vuelva a comprobar la sintaxis de "<regExpOption>".

DELTA_RELATION_PATH_MISMATCH

SQLSTATE: 2201B

La ruta de acceso de relación "<relation>" no coincide con la ruta de acceso de <targetType> "<targetPath>".

DELTA_REORG_MATERIALIZATION_NOT_SUPPORTED_ON_UNPARTITIONED_TABLE

SQLSTATE: 22000

La conversión liquida mediante el comando reorg no se admite en una tabla sin particiones.

DELTA_REORG_PARTITION_MATERIALIZATION_CONFLICT

SQLSTATE: 22000

No se pueden <action> crear particiones de columnas. <instruction> materialización de columna de partición estableciendo la propiedad de tabla "<tableProperty>" en <value> o la configuración de SQL "<sqlConfig>" en <value>.

DELTA_REORG_UNKNOWN_MODE

SQLSTATE: 0AKDC

Modo desconocido REORG TABLE : <mode>.

DELTA_REPLACE_WHERE_IN_OVERWRITE

SQLSTATE: 42613

No puede usar replaceWhere junto con una sobrescritura por filtro.

DELTA_REPLACE_WHERE_MISMATCH

SQLSTATE: 44000

Los datos escritos no se ajustan a la condición o restricción "<replaceWhere>" de sobrescritura parcial de la tabla.

<message>

DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE: 42613

No se puede establecer simultáneamente una expresión 'replaceWhere' y 'partitionOverwriteMode'='dynamic' en las opciones de DataFrameWriter.

DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET

SQLSTATE: 42613

'replaceWhere' no se puede usar con filtros de datos cuando 'dataChange' está establecido en false. Filtros: <dataFilters>.

DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS

SQLSTATE: 22000

No se pueden asignar identificadores de fila sin estadísticas de recuento de filas.

Para recopilar estadísticas de la tabla, ejecute el ANALYZE TABLE comando :

ANALYZE TABLE tableName COMPUTE DELTA STATISTICS

DELTA_ROW_TRACKING_BACKFILL_RUNNING_CONCURRENTLY_WITH_UNBACKFILL

SQLSTATE: 22KD0

Se detectó una operación de habilitación del seguimiento de filas que se estaba ejecutando simultáneamente con una operación de deshabilitación del seguimiento de filas. Anulación de la operación de deshabilitación. Vuelva a intentar la operación de deshabilitación si es necesario cuando se complete la operación de habilitación.

DELTA_ROW_TRACKING_ILLEGAL_PROPERTY_COMBINATION

SQLSTATE: 55000

Se detectó un estado de tabla no válido. Las propiedades <property1> de la tabla y <property2> se establecen en true. El problema se puede resolver deshabilitando cualquiera de las dos propiedades de la tabla.

Póngase en contacto con el soporte técnico de Databricks para obtener más ayuda.

DELTA_SCHEMA_CHANGED

SQLSTATE: KD007

Se detectó un cambio de esquema:

esquema de origen de streaming: <readSchema>

esquema de archivo de datos: <dataSchema>

Intente reiniciar la consulta. Si este problema se repite en los reinicios de la consulta sin

que se produzcan avances, significa que ha realizado un cambio de esquema incompatible y tiene que iniciar la

consulta desde cero mediante un nuevo directorio de punto de comprobación.

DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS

SQLSTATE: KD007

Se detectó un cambio de esquema en la versión <version>:

esquema de origen de streaming: <readSchema>

esquema de archivo de datos: <dataSchema>

Intente reiniciar la consulta. Si este problema se repite en los reinicios de la consulta sin

que se produzcan avances, significa que ha realizado un cambio de esquema incompatible y tiene que iniciar la

consulta desde cero mediante un nuevo directorio de punto de comprobación. Si el problema persiste después de

Al cambiar a un nuevo directorio de punto de control, es posible que tenga que modificar el existente.

Opción "startingVersion" o "startingTimestamp" para empezar desde una versión más reciente que

<version> con un nuevo directorio de punto de control.

DELTA_SCHEMA_CHANGED_WITH_VERSION

SQLSTATE: KD007

Se detectó un cambio de esquema en la versión <version>:

esquema de origen de streaming: <readSchema>

esquema de archivo de datos: <dataSchema>

Intente reiniciar la consulta. Si este problema se repite en los reinicios de la consulta sin

que se produzcan avances, significa que ha realizado un cambio de esquema incompatible y tiene que iniciar la

consulta desde cero mediante un nuevo directorio de punto de comprobación.

DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS

SQLSTATE: KD007

El esquema de la tabla Delta ha cambiado de forma incompatible desde dataframe

o se creó el objeto DeltaTable. Vuelva a definir el objeto DataFrame o DeltaTable.

Changes:

<schemaDiff> <legacyFlagMessage>

DELTA_SCHEMA_NOT_PROVIDED

SQLSTATE: 42908

No se proporciona el esquema de tabla. Proporcione el esquema (definición de columna) de la tabla al usar REPLACE la tabla y no se proporciona una AS SELECT consulta.

DELTA_SCHEMA_NOT_SET

SQLSTATE: KD008

No se ha establecido el esquema de tabla. Escriba datos en él o use CREATE TABLE para establecer el esquema.

DELTA_SET_LOCATION_SCHEMA_MISMATCH

SQLSTATE: 42KD7

El esquema de la nueva ubicación delta es diferente del esquema de tabla actual.

esquema original:

<original>

esquema de destino:

<destination>

Si se trata de un cambio previsto, puede desactivar esta comprobación mediante la ejecución de:

%%sql set <config> = true

DELTA_SHALLOW_CLONE_FILE_NOT_FOUND

SQLSTATE: 42K03

No se encuentra el archivo <filePath> al que se hace referencia en el registro de transacciones. Esto puede ocurrir cuando los datos se han eliminado manualmente del sistema de archivos en lugar de usar la instrucción table DELETE . Esta tabla parece ser un clon superficial, si es así, este error puede producirse cuando la tabla original de la que se clonó esta tabla ha eliminado un archivo que el clon sigue usando. Si desea que los clones sean independientes de la tabla original, use un clon DEEP en su lugar.

DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY

SQLSTATE: 42939

Las propiedades predefinidas que comienzan por <prefix> no se pueden modificar.

DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED

SQLSTATE: 42704

La propiedad de destinatario <property> restringe los datos que no se aplican al destinatario actual de la sesión.

Para más información, consulte DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED.

DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW

SQLSTATE: 42887

<operation> no se puede usar en vistas de Delta Sharing compartidas entre cuentas.

DELTA_SHARING_INVALID_PROVIDER_AUTH

SQLSTATE: 28000

Tipo <authenticationType> de autenticación no válido para el proveedor <provider>.

DELTA_SHARING_INVALID_RECIPIENT_AUTH

SQLSTATE: 28000

Tipo <authenticationType> de autenticación no válido para el destinatario <recipient>.

DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME

SQLSTATE: 42K05

Nombre no válido para hacer referencia a un elemento <type> dentro de un recurso compartido. Puede usar el nombre de <type> dentro del recurso compartido siguiendo el formato de [esquema].[<type>], o también puede usar el nombre completo original de la tabla siguiendo el formato de [catálogo].[esquema].[>tipo>].

Si no está seguro de qué nombre utilizar, puede ejecutar "SHOW ALL IN SHARE [share]" para encontrar el nombre del <type> que desea eliminar: la columna "name" tiene el nombre del <type> dentro del recurso compartido y la columna "shared_object" tiene el nombre completo original del <type>.

RECIPIENT_TOKENSDELTA_SHARING_MAXIMUM__EXCEEDED

SQLSTATE: 54000

Hay más de dos tokens para el destinatario <recipient>.

DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND

SQLSTATE: 42704

La propiedad Recipient <property> no existe.

RECIPIENT_TOKENSDELTA_SHARING__NOT_FOUND

SQLSTATE: 42704

Faltan tokens de destinatario para el destinatario <recipient>.

DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN

SQLSTATE: 42P10

Las columnas sin particionar <badCols> se especifican para SHOW PARTITIONS.

DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE

SQLSTATE: 42809

SHOW PARTITIONS no se permite en una tabla que no tenga particiones: <tableName>.

DELTA_SHREDDED_WRITES_DISABLED

SQLSTATE: 55000

No se puede ejecutar la REORG APPLY(SHRED) operación porque las escrituras fragmentadas están deshabilitadas.

DELTA_SHREDDING_TABLE_PROPERTY_DISABLED

SQLSTATE: 0A000

Se intentó escribir variantes fragmentadas, pero la tabla no admite escrituras fragmentadas. Considere la posibilidad de establecer la propiedad table enableVariantShredding en true.

DELTA_SOURCE_IGNORE_DELETE

SQLSTATE: 0A000

Se detectaron datos eliminados (por ejemplo <removedFile>) del origen de streaming en la versión <version>. Actualmente no se admite. Si desea omitir eliminaciones, establezca la opción "ignoreDeletes" en "true". La tabla de origen se puede encontrar en la ubicación <dataPath>.

DELTA_SOURCE_TABLE_IGNORE_CHANGES

SQLSTATE: 0A000

Se detectó una actualización de datos (por ejemplo <file>) en la tabla de origen en la versión <version>. Actualmente no se admite. Si esto va a ocurrir con regularidad y está bien omitir los cambios, establezca la opción "skipChangeCommits" en "true". Si desea que se refleje la actualización de datos, reinicie esta consulta con un directorio de punto de control nuevo o realice una actualización completa si usa canalizaciones declarativas de Spark de Lakeflow. Si necesita controlar estos cambios, cambie a MV. La tabla de origen se puede encontrar en la ubicación <dataPath>.

DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET

SQLSTATE: 42613

Proporcione "<version>" o "<timestamp>".

DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND

SQLSTATE: 42000

<statsType> No se encontraron estadísticas para la columna en los metadatos de Parquet: <columnPath>.

DELTA_STATS_NOT_FOUND_IN_FILE

SQLSTATE: 22000

Estadísticas no encontradas en el archivo: <filePath>. Ejecute 'ANALYZE TABLE [tableName] COMPUTE DELTA STATISTICS' para calcular estadísticas.

DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION

SQLSTATE: KD002

Hemos detectado uno o varios cambios de esquema no aditivos (<opType>) entre la versión Delta <previousSchemaChangeVersion> y <currentSchemaChangeVersion> en la fuente de transmisión Delta.

Changes:

<columnChangeDetails>

Compruebe si desea propagar manualmente los cambios de esquema a la tabla receptora antes de continuar con el procesamiento de flujos mediante el esquema finalizado en la versión <currentSchemaChangeVersion>.

Una vez que haya corregido el esquema de la tabla de receptor o haya decidido que no es necesario corregirlo, puede establecer las siguientes configuraciones para desbloquear los cambios de esquema no aditivos y continuar el procesamiento de flujos.

Uso de las opciones del lector de DataFrame:

Para desbloquear esta transmisión concreta solo para esta serie de cambios de esquema:

<unblockChangeOptions>

Para desbloquear esta transmisión específica:

<unblockStreamOptions>

Uso de configuraciones de SQL:

Para desbloquear esta transmisión concreta solo para esta serie de cambios de esquema:

<unblockChangeConfs>

Para desbloquear esta transmisión específica:

<unblockStreamConfs>

Para desbloquear todas las transmisiones:

<unblockAllConfs>

DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT

SQLSTATE: KD002

No se pudo obtener la instantánea del log de Delta para la versión inicial al comprobar los cambios en el esquema de asignación de columnas. Elija otra versión de inicio o habilite a la fuerza la lectura en streaming bajo su propio riesgo estableciendo "<config>" en "true".

DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 42KD4

La lectura en streaming no se admite en tablas con cambios de esquema incompatibles con la lectura (por ejemplo, cambiar el nombre, eliminar o modificar el tipo de datos).

Para obtener más información y posibles pasos siguientes para resolver este problema, revise la documentación en . <docLink>

Esquema de lectura: <readSchema> Esquema de datos incompatible: <incompatibleSchema>.

DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG

SQLSTATE: 42KD4

La lectura en streaming no se admite en tablas con cambios de esquema incompatibles con la lectura (por ejemplo, cambiar el nombre, eliminar o modificar el tipo de datos).

Proporcione una "schemaTrackingLocation" para habilitar la evolución no aditiva del esquema para el procesamiento de corriente Delta.

Consulte <docLink> para obtener más detalles.

Esquema de lectura: <readSchema> Esquema de datos incompatible: <incompatibleSchema>.

DELTA_STREAMING_METADATA_EVOLUTION

SQLSTATE: 22000

El esquema, la configuración de tabla o el protocolo de la tabla Delta ha cambiado durante el streaming.

Se ha actualizado el esquema o el registro de seguimiento de metadatos.

Reinicie la secuencia para continuar con el procesamiento mediante los metadatos actualizados.

Esquema actualizado: <schema>.

Configuraciones de tabla actualizadas: <config>.

Protocolo de tabla actualizado: <protocol>

DELTA_STREAMING_SCHEMA_EVOLUTION_NO_SOPORTADO_FILTRO_DE_FILA_COLUMN_MASKS

SQLSTATE: 22000

El streaming desde la tabla <tableId> de origen con el seguimiento de esquemas no admite filtros de fila ni máscaras de columna.

Quite los filtros de fila o las máscaras de columna o deshabilite el seguimiento de esquemas.

DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT

SQLSTATE: 22000

Se detectó una ubicación de esquema en conflicto "<loc>" mientras se transmitía desde la tabla o la tabla ubicada en "<table>".

Otra secuencia puede reutilizar la misma ubicación de esquema, lo que no está permitido.

Proporcione una nueva ruta de acceso única schemaTrackingLocation o streamingSourceTrackingId como opción para el lector para una de las secuencias de esta tabla.

DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT

SQLSTATE: 22000

La ubicación del esquema '<schemaTrackingLocation>' debe colocarse en la ubicación del punto de control '<checkpointLocation>'.

DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED

SQLSTATE: 22000

Archivo de registro incompleto en el registro de esquema de origen de streaming Delta en "<location>".

Es posible que el registro de esquema esté dañado. Elija una nueva ubicación de esquema.

DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID

SQLSTATE: 22000

Se detectó un identificador de tabla Delta incompatible al intentar leer la secuencia Delta.

Id. de tabla persistente: <persistedId>, Id. de tabla: <tableId>

Es posible que se haya reutilizado el registro de esquema. Elija una nueva ubicación de esquema.

DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA

SQLSTATE: 22000

Se detectó un esquema de partición incompatible al intentar leer la secuencia delta.

Esquema persistente: <persistedSchema>, esquema de partición delta: <partitionSchema>

Elija una nueva ubicación de esquema para reinicializar el registro de esquema si ha cambiado manualmente el esquema de partición de la tabla recientemente.

DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA

SQLSTATE: 22000

No se pudo inicializar el registro de esquema de origen de streaming Delta porque

Hemos detectado un cambio de esquema o protocolo incompatible al ejecutar un lote de transmisión desde la versión <a> de la tabla a <b>.

DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED

SQLSTATE: 22000

No se pudo analizar el esquema del registro de esquema de origen de streaming Delta.

Es posible que el registro de esquema esté dañado. Elija una nueva ubicación de esquema.

DELTA_STREAMING_SINK_TRANSACTION_NOT_FOUND

SQLSTATE: 56000

No se encontró ninguna transacción para el lote <batchId> en el receptor delta de streaming en las últimas <versionLimit> versiones.

DELTA_STREAMING_SKIP_OFFSETS_INVALID_OFFSET_RANGE

SQLSTATE: 42616

Intervalo de desplazamiento de omisión no válido para delta source range=[<startOffset>, <endOffset>). Corrija este intervalo de desplazamiento e inténtelo de nuevo.

Para obtener más información, consulte DELTA_STREAMING_SKIP_OFFSETS_INVALID_OFFSET_RANGE

DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS

SQLSTATE: 42711

No se puede habilitar la captura de datos modificados en la tabla. La tabla ya contiene

columnas reservadas <columnList> que se

usarán internamente como metadatos para el cambio de la fuente de distribución de datos de la tabla. Para habilitar

Cambie el flujo de datos en la tabla para renombrar o eliminar estas columnas.

DELTA_TABLE_ALREADY_EXISTS

SQLSTATE: 42P07

La tabla <tableName> ya existe.

DELTA_TABLE_CONTAINS_RESERVED_CDC_COLUMNS

SQLSTATE: 42939

No se puede calcular la fuente de datos modificados en la tabla. La tabla contiene nombres <columnList> de columna reservados que se usan como columnas de salida para la fuente de distribución de datos modificados de la tabla. Para calcular la fuente de datos modificados en la tabla, cambie el nombre o quite estas columnas.

DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF

SQLSTATE: 0AKDC

Actualmente, DeltaTable.forPath solo admite claves de configuración de Hadoop que comienzan con <allowedPrefixes>, pero recibió <unsupportedOptions>.

DELTA_TABLE_ID_MISMATCH

SQLSTATE: KD007

La tabla Delta en <tableLocation> se ha reemplazado mientras este comando usaba la tabla.

El identificador de tabla era <oldId>, pero ahora es <newId>.

Vuelva a intentar el comando actual para asegurarse de que lee una vista coherente de la tabla.

DELTA_TABLE_INVALID_REDIRECT_STATE_TRANSITION

SQLSTATE: 22023

No es posible actualizar el estado de redirección de la tabla: se ha intentado una transición de estado no válida.

La tabla Delta '<table>' no puede cambiar de '<oldState>' a ''<newState>.

DELTA_TABLE_INVALID_SET_UNSET_REDIRECT

SQLSTATE: 22023

No se puede SET ni UNSET la propiedad de redireccionamiento en <table>: la propiedad actual "<currentProperty>" no coincide con la nueva propiedad "<newProperty>".

DELTA_TABLE_LOCATION_MISMATCH

SQLSTATE: 42613

La ubicación de la tabla <tableName> existente es <existingTableLocation>. No coincide con la ubicación <tableLocation>especificada.

DELTA_TABLE_NOT_FOUND

SQLSTATE: 42P01

La tabla <tableName> Delta no existe.

DELTA_TABLE_NOT_SUPPORTED_IN_OP

SQLSTATE: 42809

La tabla no es compatible en <operation>. Por favor, utilice una ruta en su lugar.

DELTA_TABLE_ONLY_OPERATION

SQLSTATE: 0AKDD

<tableName> no es una tabla Delta. <operation> solo se admite para las tablas Delta.

DELTA_TABLE_UNRECOGNIZED_REDIRECT_SPEC

SQLSTATE: 42704

El registro Delta contiene la especificación de redireccionamiento de tabla no reconocida "<spec>".

DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY

SQLSTATE: 428GU

El esquema final de la tabla de destino está vacío.

DELTA_TIMESTAMP_EARLIER_THAN_COMMIT_RETENTION

SQLSTATE: 42816

La marca de tiempo proporcionada (<userTimestamp>) es antes de la versión más antigua disponible para

esta tabla (<commitTs>). Use una marca de tiempo después de <timestampString>.

DELTA_TIMESTAMP_GREATER_THAN_COMMIT

SQLSTATE: 42816

La marca de tiempo proporcionada (<providedTimestamp>) es posterior a la versión más reciente disponible.

tabla (<tableName>). Use una marca de tiempo antes o en <maximumTimestamp>.

DELTA_TIMESTAMP_INVALID

SQLSTATE: 42816

La marca de tiempo proporcionada (<expr>) no se puede convertir en una marca de tiempo válida.

DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE

SQLSTATE: 42604

<timeTravelKey> debe ser un valor de inicio válido.

DELTA_TOO_MUCH_LISTING_MEMORY

SQLSTATE: 53000

No se pudieron enumerar los archivos (<numFiles>) de la tabla Delta debido a una memoria insuficiente. Memoria necesaria: <estimatedMemory>, memoria disponible: <maxMemory>.

DELTA_TRUNCATED_TRANSACTION_LOG

SQLSTATE: 42K03

<path>: no se puede reconstruir el estado en la versión <version> , ya que el registro de transacciones se ha truncado debido a la eliminación manual o a la directiva de retención de registros (<logRetentionKey>=<logRetention>) y a la directiva de retención de puntos de comprobación (<checkpointRetentionKey>=<checkpointRetention>).

DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED

SQLSTATE: 0AKDC

Operación no permitida: TRUNCATE TABLE en las tablas Delta no admite predicados de partición; use DELETE para eliminar particiones o filas específicas.

DELTA_UDF_IN_CHECK_CONSTRAINT

SQLSTATE: 42621

Se encuentra <expr> en una CHECK restricción. Una CHECK restricción no puede usar una función definida por el usuario.

DELTA_UDF_IN_GENERATED_COLUMN

SQLSTATE: 42621

Se encontró <udfExpr>. Una columna generada no puede usar una función definida por el usuario.

DELTA_UNEXPECTED_ACTION_EXPRESSION

SQLSTATE: 42601

Expresión de acción <expression> inesperada.

DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME

SQLSTATE: KD009

Se esperaban <expectedColsSize> columnas de partición: <expectedCols>, pero se encontraron <parsedColsSize> columnas de partición: <parsedCols> a partir del análisis del nombre de archivo: <path>.

DELTA_UNEXPECTED_PARTIAL_SCAN

SQLSTATE: KD00A

Se esperaba un examen completo de los orígenes Delta, pero se encontró un examen parcial. Ruta de acceso: <path>.

DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME

SQLSTATE: KD009

Esperaba la columna de partición <expectedCol>, pero encontró la columna de partición <parsedCol> al analizar el nombre de archivo: <path>.

DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER

SQLSTATE: KD009

Se llamó a CONVERT TO DELTA con un esquema de partición diferente del esquema de partición inferido del catálogo. Evite proporcionar el esquema de forma que el esquema de partición se pueda elegir del catálogo.

esquema de partición de catálogo:

<catalogPartitionSchema>

esquema de partición proporcionado:

<userPartitionSchema>

DELTA_UNIFORM_COMPATIBILITY_LOCATION_CANNOT_BE_CHANGED

SQLSTATE: 0AKDC

No se puede cambiar delta.universalFormat.compatibility.location.

DELTA_UNIFORM_COMPATIBILITY_LOCATION_NOT_REGISTERED

SQLSTATE: 42K0I

delta.universalFormat.compatibility.location no está registrado en el catálogo.

DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION

SQLSTATE: 42601

Falta la ubicación, o esta no es válida, del formato de compatibilidad con Uniform Establezca un directorio vacío para delta.universalFormat.compatibility.location.

Motivo de error:

Para obtener más información, consulte DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION.

DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION

SQLSTATE: KD00E

Se ha producido un error en la lectura de Apache Iceberg con Delta Uniform.

Para más información, consulte DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION

DELTA_UNIFORM_INGRESS_AMBIGUOUS_FORMAT

SQLSTATE: KD00E

Se encuentran varios formatos de entrada uniforme delta (<formats>), como máximo se puede establecer uno.

DELTA_UNIFORM_INGRESS_NOT_SUPPORTED

SQLSTATE: 0A000

No se admite la creación o actualización de la tabla de entrada uniforme.

DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT

SQLSTATE: 0AKDC

No se admite el formato <fileFormat> . Solo se admiten Apache Iceberg y hudi como formato de archivo original.

DELTA_UNIFORM_INGRESS_VIOLATION

SQLSTATE: KD00E

No se puede leer Delta Uniform:

Para más información, consulte DELTA_UNIFORM_INGRESS_VIOLATION

DELTA_UNIFORM_NOT_SUPPORTED

SQLSTATE: 0AKDC

El formato universal solo se admite en tablas de Catálogo de Unity.

DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT

SQLSTATE: 42616

REFRESH TABLE con argumento no válido:

Para más información, consulte DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT

DELTA_UNIFORM_REFRESH_NOT_SUPPORTED

SQLSTATE: 0AKDC

REFRESH El identificador SYNC UNIFORM no se admite por motivos:

Para obtener más información, consulte DELTA_UNIFORM_REFRESH_NOT_SUPPORTED

DELTA_UNIFORM_REFRESH_NOT_SUPPORTED_FOR_MANAGED_ICEBERG_TABLE_WITH_METADATA_PATH

SQLSTATE: 0AKDC

REFRESH TABLE con METADATA_PATH no se admite para tablas de Apache Iceberg administradas.

DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED

SQLSTATE: KD00E

No se pudo convertir la versión <version> de la tabla al formato <format>universal . <message>

DELTA_UNIVERSAL_FORMAT_VIOLATION

SQLSTATE: KD00E

Error en la validación del formato universal (<format>): <violation>.

DELTA_UNKNOWN_CONFIGURATION

SQLSTATE: F0000

Se especificó una configuración desconocida: <config>.

Para deshabilitar esta comprobación, establezca <disableCheckConfig>=true en la configuración de la sesión de Spark.

DELTA_UNKNOWN_PRIVILEGE

SQLSTATE: 42601

Privilegio desconocido: <privilege>.

DELTA_UNKNOWN_READ_LIMIT

SQLSTATE: 42601

Límite de lectura desconocido: <limit>.

DELTA_UNRECOGNIZED_COLUMN_CHANGE

SQLSTATE: 42601

Cambio de columna no reconocido <otherClass>. Es posible que esté ejecutando una versión obsoleta de Delta Lake.

DELTA_UNRECOGNIZED_INVARIANT

SQLSTATE: 56038

Invariable no reconocido. Actualice la versión de Spark.

DELTA_UNRECOGNIZED_LOGFILE

SQLSTATE: KD00B

Archivo de registro <filename> no reconocido.

DELTA_UNSET_NON_EXISTENT_PROPERTY

SQLSTATE: 42616

Se intentó desestablecer una propiedad inexistente '<property>' en la tabla <tableName>.

DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE

SQLSTATE: 0AKDC

<path> no admite la adición de archivos con una ruta de acceso absoluta.

DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP

SQLSTATE: 0AKDC

ALTER TABLE CHANGE COLUMN no se admite para cambiar la columna <fieldPath> de <oldField> a <newField>.

DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP

SQLSTATE: 0AKDC

Operación ALTER TABLE REPLACE COLUMNS no admitida. Motivo: <details>

Falló el intento de cambiar el esquema desde:

<oldSchema>

to:

<newSchema>

DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE

SQLSTATE: 0AKDC

Intentó usar REPLACE para reemplazar una tabla existente (<tableName>) por CLONE. Esta operación es

unsupported. Pruebe un destino diferente para CLONE o elimine la tabla en el destino actual.

DELTA_UNSUPPORTED_CLUSTERING_COLUMN_PREDICATES

SQLSTATE: 0A000

OPTIMIZE ... FULL WHERE command para tablas Liquid no admite los predicados proporcionados:

Para obtener más información, consulte DELTA_UNSUPPORTED_CLUSTERING_COLUMN_PREDICATES

DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE

SQLSTATE: 0AKDC

No se admite el cambio del modo de asignación de columnas de "<oldMode>" a "<newMode>".

DELTA_UNSUPPORTED_COLUMN_MAPPING_OPERATIONS_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX

SQLSTATE: 0AKDC

No se pudo realizar la operación de mapeo de columnas <opName> en las columnas <quotedColumnNames>.

dado que estas columnas tienen índices de filtro de Bloom.

Si desea realizar la operación de asignación de columnas en columnas

con índices de filtro de Bloom,

quite primero los índices de filtro de Bloom:

DROP BLOOMFILTER INDEX ON TABLE tableName FOR COLUMNS(<columnNames>)

Si desea quitar todos los índices de filtro de Bloom en la tabla, use:

DROP BLOOMFILTER INDEX ON TABLE nombreTabla

DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL

SQLSTATE: KD004

La versión del protocolo de tabla actual no admite el cambio de modos de asignación de columnas

mediante <config>.

Versión necesaria del protocolo Delta para la asignación de columnas:

<requiredVersion>

Versión actual del protocolo Delta de la tabla:

<currentVersion>

<advice>

DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE

SQLSTATE: 0AKDC

Se detecta un cambio de esquema:

esquema antiguo:

<oldTableSchema>

nuevo esquema:

<newTableSchema>

No se permiten cambios de esquema durante el cambio del modo de asignación de columnas.

DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE

SQLSTATE: 0AKDC

No se admite la escritura de datos utilizando el modo de mapeo de columnas.

DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER

SQLSTATE: 0AKDC

No se admite la creación de un índice de filtro bloom en una columna con tipo <dataType> : <columnName>.

DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY

SQLSTATE: 0AKDC

No se puede agregar un comentario a <fieldPath>. No se admite agregar un comentario a un elemento clave/valor de mapa o matriz.

DELTA_UNSUPPORTED_DATA_TYPES

SQLSTATE: 0AKDC

Se encontraron columnas con tipos de datos no admitidos: <dataTypeList>. Puede establecer "<config>" en "false" para deshabilitar la comprobación de tipos. Deshabilitar esta comprobación de tipos puede permitir que los usuarios creen tablas Delta no admitidas y solo se deben usar al intentar leer y escribir tablas heredadas.

DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN

SQLSTATE: 42621

<dataType> no puede ser el resultado de una columna generada.

DELTA_UNSUPPORTED_DEEP_CLONE

SQLSTATE: 0A000

La clonación profunda no es compatible con esta versión Delta.

DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW

SQLSTATE: 42809

<view> es una vista. DESCRIBE DETAIL solo tiene soporte para tablas.

DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN

SQLSTATE: 0AKDC

No se permite quitar columnas de agrupación en clústeres (<columnList>).

DELTA_UNSUPPORTED_DROP_COLUMN

SQLSTATE: 0AKDC

DROP COLUMN no se admite para la tabla Delta. <advice>

DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE

SQLSTATE: 0AKDC

Solo se pueden anular columnas anidadas de StructType. Se encontró <struct>.

DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN

SQLSTATE: 0AKDC

No se permite quitar columnas de partición (<columnList>).

DELTA_UNSUPPORTED_EXPRESSION

SQLSTATE: 0A000

Tipo de expresión no admitido(<expType>) para <causedBy>. Los tipos admitidos son [<supportedTypes>].

DELTA_UNSUPPORTED_EXPRESSION_CHECK_CONSTRAINT

SQLSTATE: 42621

Se encuentra <expression> en una CHECK restricción. <expression> no se puede usar en una CHECK restricción .

DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN

SQLSTATE: 42621

<expression> no se puede usar en una columna generada.

DELTA_UNSUPPORTED_FEATURES_FOR_READ

SQLSTATE: 56038

Característica de lectura delta no admitida: la tabla "<tableNameOrPath>" requiere características de tabla de lector que no son compatibles con esta versión de Databricks: <unsupported>. Consulte <link> para obtener más información sobre la compatibilidad de funciones de Delta Lake.

DELTA_UNSUPPORTED_FEATURES_FOR_WRITE

SQLSTATE: 56038

Característica de escritura delta no admitida: la tabla "<tableNameOrPath>" requiere características de tabla de escritura que no son compatibles con esta versión de Databricks: <unsupported>. Consulte <link> para obtener más información sobre la compatibilidad de funciones de Delta Lake.

DELTA_UNSUPPORTED_FEATURES_IN_CONFIG

SQLSTATE: 56038

Las características de tabla configuradas en las siguientes configuraciones de Spark o propiedades de tabla Delta no se reconocen en esta versión de Databricks: <configs>.

DELTA_UNSUPPORTED_FEATURE_STATUS

SQLSTATE: 0AKDE

Se espera que el estado de la característica de tabla <feature> esté "habilitado", pero se obtiene "<status>".

DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT

SQLSTATE: 0AKDC

La actualización de campos anidados solo se admite para StructType, pero está intentando actualizar un campo de <columnName>, que es de tipo : <dataType>.

DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS

SQLSTATE: 0A000

El comando "FSCK REPAIR TABLE" no se admite en versiones de tabla con archivos vectoriales de eliminación que faltan.

Póngase en contacto con el soporte técnico.

DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS

SQLSTATE: 0A000

El comando "GENERATE symlink_format_manifest" no se admite en versiones de tabla con vectores de eliminación.

Para generar una versión de la tabla sin vectores de eliminación, ejecute "REORG TABLE tabla APPLY (PURGE)". A continuación, vuelva a ejecutar el comando 'GENERATE'.

Asegúrese de que ninguna transacción simultánea agregue de nuevo vectores de eliminación entre REORG y GENERATE.

Si necesita generar manifiestos con regularidad, o no puede evitar transacciones simultáneas, considere la posibilidad de deshabilitar los vectores de eliminación en esta tabla mediante 'ALTER TABLE table SET TBLPROPERTIES (delta.enableDeletionVectors = false)'.

DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT

SQLSTATE: 0AKDC

No se admiten las invariables en campos anidados distintos de StructTypes.

DELTA_UNSUPPORTED_IN_SUBQUERY

SQLSTATE: 0AKDC

La subconsulta In no se admite en la condición <operation>.

DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX

SQLSTATE: 0A000

listKeywithPrefix no está disponible.

DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING

SQLSTATE: 0AKDC

La generación de manifiestos no se admite para las tablas que aprovechan la asignación de columnas, ya que los lectores externos no pueden leer estas tablas Delta. Consulte la documentación de Delta para obtener más detalles.

DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC

SQLSTATE: 0A000

Las operaciones MERGE INTO con evolución del esquema no admiten actualmente la escritura de la salida CDC.

DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE

SQLSTATE: 0AKDC

Los predicados In de varias columnas no se admiten en la condición <operation>.

DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER

SQLSTATE: 0AKDC

La creación de un índice de filer bloom en una columna anidada no se admite actualmente: <columnName>.

DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION

SQLSTATE: 0AKDC

El campo anidado no se admite en <operation> (field = <fieldName>).

DELTA_UNSUPPORTED_NON_EMPTY_CLONE

SQLSTATE: 0AKDC

La tabla de destino clonada no está vacía. Use TRUNCATE o DELETE FROM con la tabla antes de ejecutar CLONE.

DELTA_UNSUPPORTED_OUTPUT_MODE

SQLSTATE: 0AKDC

El origen de datos <dataSource> no admite el modo de salida <mode>.

DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER

SQLSTATE: 0AKDC

No se admite la creación de un índice de filtro bloom en una columna de partición: <columnName>.

DELTA_UNSUPPORTED_RENAME_COLUMN

SQLSTATE: 0AKDC

No se admite el cambio de nombre de columna para la tabla Delta. <advice>

DELTA_UNSUPPORTED_SCHEMA_DURING_READ

SQLSTATE: 0AKDC

Delta no admite la especificación del esquema en tiempo de lectura.

DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES

SQLSTATE: 0A000

SORTED BY no es compatible con las tablas de partición Delta.

DELTA_UNSUPPORTED_SOURCE

SQLSTATE: 0AKDD

El destino <operation> solo admite orígenes Delta.

<plan>

DELTA_UNSUPPORTED_STATIC_PARTITIONS

SQLSTATE: 0AKDD

Actualmente no se admite la especificación estática de particiones en la especificación de partición durante las inserciones.

DELTA_UNSUPPORTED_STRATEGY_NAME

SQLSTATE: 22023

Nombre de estrategia no soportado: <strategy>.

DELTA_UNSUPPORTED_SUBQUERY

SQLSTATE: 0AKDC

Las subconsultas no se admiten en <operation> (condición = <cond>).

DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES

SQLSTATE: 0AKDC

La subconsulta no se admite en predicados de partición.

VIAJE EN EL TIEMPO NO SOPORTADO MÁS ALLÁ DEL PERIODO DE RETENCIÓN DE ARCHIVOS BORRADOS

SQLSTATE: 0AKDC

No se puede recorrer el tiempo más allá de delta.deletedFileRetentionDuration (<deletedFileRetention> HOURS) establecido en la tabla.

DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS

SQLSTATE: 42613

No se puede especificar el viaje en el tiempo en varios formatos.

DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS

SQLSTATE: 0AKDC

No se pueden hacer viajes en el tiempo con las vistas, las subconsultas o las secuencias, ni cambiar las consultas de la fuente de distribución de datos.

DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES

SQLSTATE: 0A000

No se admite truncar tablas de ejemplo.

DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA

SQLSTATE: 0AKDC

No se puede operar en esta tabla porque se aplicó un cambio de tipo no admitido. El campo <fieldName> se cambió de <fromType> a <toType>.

DELTA_UNSUPPORTED_TYPE_CHANGE_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX

SQLSTATE: 0AKDC

No se pudo cambiar el tipo de datos de las columnas <quotedColumnNames>

porque estas columnas tienen índices de filtro de Bloom.

Si desea cambiar el tipo de datos de las columnas con Bloom Filter Index(es),

quite primero los índices de filtro de Bloom:

DROP BLOOMFILTER INDEX ON TABLE tableName FOR COLUMNS(<columnNames>)

Si desea quitar todos los índices de filtro de Bloom en la tabla, use:

DROP BLOOMFILTER INDEX ON TABLE nombreTabla

DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION

SQLSTATE: 0AKDC

Proporcione la ruta de acceso base (<baseDeltaPath>) al vaciar tablas Delta. Actualmente no se admite el vacío de particiones específicas.

DELTA_UNSUPPORTED_WRITES_STAGED_TABLE

SQLSTATE: 42807

La implementación de tablas no admite escrituras: <tableName>.

DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR

SQLSTATE: 0AKDC

Está intentando realizar escrituras en una tabla que se ha registrado con el coordinador de confirmaciones <coordinatorName>. Sin embargo, no se permite ninguna implementación de este coordinador en el entorno actual y no se permiten escrituras sin coordinadores.

DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES

SQLSTATE: 0A000

No se admite la escritura en tablas de ejemplo.

DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION

SQLSTATE: 42846

No se puede convertir <fromCatalog> a <toCatalog>. Todas las columnas anidadas deben coincidir.

DELTA_V2_CHECKPOINTS_REQUIRED_FOR_OPERATION

SQLSTATE: 55019

CHECKPOINT La operación requiere que los puntos de control V2 estén habilitados en la tabla.

DELTA_VACUUM_COPY_INTO_STATE_FAILED

SQLSTATE: 22000

Se realizó la operación VACUUM en los archivos de datos, pero se produjo un error en la recolección de elementos no utilizados de estado COPY INTO.

DELTA_VERSIONS_NOT_CONTIGUOUS

SQLSTATE: KD00C

Las versiones (<versionList>) no son contiguas.

Se detectó un hueco en el registro delta entre las versiones <startVersion> y <endVersion> al intentar cargar la versión <versionToLoad>.

Para obtener más información, consulte DELTA_VERSIONS_NOT_CONTIGUOUS

DELTA_VERSION_INVALID

SQLSTATE: 42815

La versión proporcionada (<version>) no es una versión válida.

DELTA_VERSION_NOT_FOUND

SQLSTATE: 22003

No se puede viajar la tabla Delta de tiempo a la versión <userVersion>. Versiones disponibles: [<earliest>, <latest>].

DELTA_VIOLATE_CONSTRAINT_WITH_VALUES

SQLSTATE: 23001

CHECK restricción <constraintName> <expression> infringida por fila con valores:

<values>.

DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED

SQLSTATE: 0A000

Se ha infringido la validación de las propiedades de la tabla <table>:

Para obtener más información, consulte DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED.

DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED

SQLSTATE: 0A000

<viewIdentifier> es una vista. No se puede escribir datos en una vista.

DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST

SQLSTATE: 42703

La columna <columnName> Z-Ordering no existe en el esquema de datos.

DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS

SQLSTATE: KD00D

El orden Z en <cols> será ineficaz, ya que actualmente no recopilamos estadísticas para estas columnas. Consulte <link> para obtener más información sobre la omisión de datos y el ordenamiento Z. Puede deshabilitar esta comprobación estableciendo

SET <zorderColStatKey> = falso

DELTA_ZORDERING_ON_PARTITION_COLUMN

SQLSTATE: 42P10

<colName> es una columna de partición. La ordenación Z solo se puede realizar en columnas de datos.

Uso compartido delta

DELTA_SHARING_ACTIVATION_NONCE_DOES_NOT_EXIST

SQLSTATE: ninguno asignado

No se encontró el nonce de activación. El vínculo de activación que usó no es válido o ha expirado. Vuelva a generar el vínculo de activación e inténtelo de nuevo.

DELTA_SHARING_CROSS_REGION_SHARE_UNSUPPORTED

SQLSTATE: ninguno asignado

No se admite el uso compartido entre <regionHint> regiones y regiones fuera de ella.

DELTA_SHARING_GET_RECIPIENT_PROPERTIES_INVALID_DEPENDENT

SQLSTATE: ninguno asignado

La vista definida con la current_recipient función es solo para compartir y solo se puede consultar desde el lado del destinatario de datos. El elemento protegible proporcionado con el identificador <securableId> no es una vista de uso compartido Delta.

DELTA_SHARING_MUTABLE_SECURABLE_KIND_NOT_SUPPORTED

SQLSTATE: ninguno asignado

La variante del elemento protegible proporcionado <securableKind> no admite la mutabilidad en el uso compartido Delta.

DELTA_SHARING_ROTATE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE

SQLSTATE: ninguno asignado

La variante del elemento protegible proporcionado <securableKind> no admite la acción de rotación del token iniciada por el servicio Marketplace.

DS_AUTH_TYPE_NOT_AVAILABLE

SQLSTATE: ninguno asignado

<dsError>: tipo de autenticación no disponible en la entidad de proveedor <providerEntity>.

DS_CDF_NOT_ENABLED

SQLSTATE: ninguno asignado

<dsError>: No se puede acceder al flujo de datos de cambios para <tableName>. CDF no está habilitado en la tabla delta original para la versión <version>. Póngase en contacto con el proveedor de datos.

DS_CDF_NOT_SHARED

SQLSTATE: ninguno asignado

<dsError>: No se puede acceder al flujo de datos de cambios para <tableName>. CDF no se comparte en la tabla. Póngase en contacto con el proveedor de datos.

DS_CDF_RPC_INVALID_PARAMETER

SQLSTATE: ninguno asignado

<dsError>: <message>

DS_CLIENT_AUTH_ERROR_FOR_DB_DS_SERVER

SQLSTATE: ninguno asignado

<dsError>: <message>

DS_CLIENT_ERROR_FOR_DB_DS_SERVER

SQLSTATE: ninguno asignado

<dsError>: <message>

DS_CLIENT_OAUTH_TOKEN_EXCHANGE_FAILURE

SQLSTATE: ninguno asignado

<dsError>: <message>

DS_CLIENT_OAUTH_TOKEN_EXCHANGE_UNAUTHORIZED

SQLSTATE: ninguno asignado

<dsError>: <message>

DS_CLOUD_VENDOR_UNAVAILABLE

SQLSTATE: ninguno asignado

<dsError>: el proveedor en la nube no está disponible temporalmente para <rpcName>, vuelva a intentarlo.<traceId>

DS_DATA_MATERIALIZATION_COMMAND_FAILED

SQLSTATE: ninguno asignado

<dsError>: La ejecución de la tarea <runId> para la materialización de datos desde la organización <orgId> falló al ejecutar el comando <command>

DS_DATA_MATERIALIZATION_COMMAND_NOT_SUPPORTED

SQLSTATE: ninguno asignado

<dsError>: la tarea de materialización de datos que se ejecuta <runId> desde la organización <orgId> no admite el comando <command>

DS_DATA_MATERIALIZATION_NOT_SUPPORTED_WITHOUT_SERVERLESS

SQLSTATE: ninguno asignado

<dsError>: <featureName> no es compatible porque el soporte para tecnología sin servidor no está habilitado en el área de trabajo del proveedor. Póngase en contacto con su proveedor de datos para habilitar la computación sin servidor.

DS_DATA_MATERIALIZATION_NO_VALID_NAMESPACE

SQLSTATE: ninguno asignado

<dsError>: No se pudo localizar un espacio de nombres válido para generar la materialización para <tableName>. Póngase en contacto con el proveedor de datos para corregirlo.

DS_DATA_MATERIALIZATION_RECIPIENT_MISSING_WORKSPACE_ID

SQLSTATE: ninguno asignado

<dsError>: no se encontró ningún área de trabajo adecuada para materializar el recurso compartido. Póngase en contacto con el proveedor de datos para volver a crear el destinatario en un área de trabajo donde se permite el acceso de escritura al catálogo del recurso compartido.

DS_DATA_MATERIALIZATION_RUN_DOES_NOT_EXIST

SQLSTATE: ninguno asignado

<dsError>: la ejecución de la tarea de materialización de datos <runId> desde la organización <orgId> no existe

DS_DELTA_ILLEGAL_STATE

SQLSTATE: ninguno asignado

<dsError>: <message>

DS_DELTA_MISSING_CHECKPOINT_FILES

SQLSTATE: ninguno asignado

<dsError>: no se encontraron todos los archivos de elementos del punto de control en la versión <version>. <suggestion>

DS_DELTA_NULL_POINTER

SQLSTATE: ninguno asignado

<dsError>: <message>

DS_DELTA_RUNTIME_EXCEPTION

SQLSTATE: ninguno asignado

<dsError>: <message>

DS_EXPIRE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE

SQLSTATE: ninguno asignado

<dsError>: El tipo de securable proporcionado <securableKind> no admite la acción de expiración del token iniciada por el servicio Marketplace.

DS_FAILED_REQUEST_TO_OPEN_DS_SERVER

SQLSTATE: ninguno asignado

<dsError>: <message>

DS_FAILED_REQUEST_TO_SAP_DS_SERVER

SQLSTATE: ninguno asignado

<dsError>: <message>

DS_FEATURE_ONLY_FOR_DATABRICKS_TO_DATABRICKS

SQLSTATE: ninguno asignado

<dsError>: <feature> solo está habilitado para el uso compartido Delta de Databricks a Databricks.

DS_FILE_LISTING_EXCEPTION

SQLSTATE: ninguno asignado

<dsError>: : <storage><message>

DS_FILE_SIGNING_EXCEPTION

SQLSTATE: ninguno asignado

<dsError>: <message>

DS_FOREIGN_TABLE_METADATA_REFRESH_FAILED

SQLSTATE: ninguno asignado

<dsError>: <message>

DS_GATEKEEPER_DISABLED

SQLSTATE: ninguno asignado

<dsError>: esta característica está deshabilitada para la cuenta. Póngase en contacto con el proveedor de datos.

DS_HADOOP_CONFIG_NOT_SET

SQLSTATE: ninguno asignado

<dsError>: <key> no está establecido por el autor de la llamada.

DS_ILLEGAL_STATE

SQLSTATE: ninguno asignado

<dsError>: <message>

DS_INTERNAL_ERROR_FROM_DB_DS_SERVER

SQLSTATE: ninguno asignado

<dsError>: <message>

DS_INVALID_AZURE_PATH

SQLSTATE: ninguno asignado

<dsError>: ruta de acceso de Azure no válida: <path>.

DS_INVALID_DELTA_ACTION_OPERATION

SQLSTATE: ninguno asignado

<dsError>: <message>

DS_INVALID_FIELD

SQLSTATE: ninguno asignado

<dsError>: <message>

DS_INVALID_ITERATOR_OPERATION

SQLSTATE: ninguno asignado

<dsError>: <message>

DS_INVALID_PARAMETER_VALUE

SQLSTATE: ninguno asignado

<dsError>: parámetro no válido para <rpcName> debido a <cause>.

DS_INVALID_PARTITION_SPEC

SQLSTATE: ninguno asignado

<dsError>: <message>

DS_INVALID_RESPONSE_FROM_DS_SERVER

SQLSTATE: ninguno asignado

<dsError>: <message>

DS_MATERIALIZATION_QUERY_FAILED

SQLSTATE: ninguno asignado

<dsError>: error de consulta para <schema>. <table> desde Compartir <share>.

DS_MATERIALIZATION_QUERY_TIMEDOUT

SQLSTATE: ninguno asignado

<dsError>: se agota el tiempo de espera de la consulta para <schema>. <table> desde Compartir <share> después de <timeoutInSec> segundos.

DS_MIGRATED_MANAGEMENT_API_CALLED

SQLSTATE: ninguno asignado

<dsError>: El RPC de UC <rpcName> falló.

DS_MISSING_IDEMPOTENCY_KEY

SQLSTATE: ninguno asignado

<dsError>: La clave de idempotencia es necesaria cuando se consulta <schema>. <table> desde Compartir <share> de forma asincrónica.

DS_POLÍTICA_DE_PRESUPUESTO_SERVERLESS_FALTANTE

SQLSTATE: ninguno asignado

<dsError>: La operación utiliza el servicio sin servidor en la plataforma Databricks del proveedor, pero falta una política de presupuesto para recursos sin servidor. Póngase en contacto con el proveedor de datos para agregar una directiva de presupuesto sin servidor para compartir.

DS_MORE_THAN_ONE_RPC_PARAMETER_SET

SQLSTATE: ninguno asignado

<dsError>: proporcione solo uno de los siguientes elementos: <parameters>.

DS_NETWORK_CONNECTION_CLOSED

SQLSTATE: ninguno asignado

<dsError>: conexión de red cerrada para <rpcName> debido a <errorCause>, por favor vuelva a intentarlo.<traceId>

DS_NETWORK_CONNECTION_TIMEOUT

SQLSTATE: ninguno asignado

<dsError>: se ha agotado el tiempo de espera de conexión de red para <rpcName> debido a <errorCause>, vuelva a intentarlo.<traceId>

DS_NETWORK_ERROR

SQLSTATE: ninguno asignado

<dsError>: Error de red para <rpcName> debido a <errorCause>, vuelva a intentarlo.<traceId>

DS_NO_METASTORE_ASSIGNED

SQLSTATE: ninguno asignado

<dsError>: no hay ninguna tienda de metadatos asignada para el área de trabajo actual (workspaceId: <workspaceId>).

DS_O2D_OIDC_WORKLOAD_IDENTITY_TOKEN_GENERATION_FAILED

SQLSTATE: ninguno asignado

<dsError>: error al generar el token de identidad de carga de trabajo para el proveedor OIDC de O2D: <message>.

DS_PAGINATION_AND_QUERY_ARGS_MISMATCH

SQLSTATE: ninguno asignado

<dsError>: falta de coincidencia de argumentos de paginación o consulta.

DS_PARTITION_COLUMNS_RENAMED

SQLSTATE: ninguno asignado

<dsError>: se ha cambiado el nombre de la columna de partición [<renamedColumns>] en la tabla compartida. Póngase en contacto con el proveedor de datos para corregirlo.

DS_QUERY_BEFORE_START_VERSION

SQLSTATE: ninguno asignado

<dsError>: solo puede consultar datos de tabla desde la versión <startVersion>.

DS_QUERY_END_VERSION_AFTER_LATEST_VERSION

SQLSTATE: ninguno asignado

<dsError>: la versión final (<endVersion>) proporcionada para leer datos no es válida. La versión final no puede ser mayor que la versión más reciente de la tabla (<latestVersion>).

DS_QUERY_START_VERSION_AFTER_LATEST_VERSION

SQLSTATE: ninguno asignado

<dsError>: la versión de inicio proporcionada (<startVersion>) para leer datos no es válida. La versión inicial no puede ser mayor que la versión más reciente de la tabla(<latestVersion>).

DS_QUERY_TIMEOUT_ON_SERVER

SQLSTATE: ninguno asignado

<dsError>: se agotó el tiempo de espera al procesar <queryType> en <tableName> después de <numActions> actualizaciones en <numIter> iteraciones.<progressUpdate> <suggestion> <traceId>

DS_RATE_LIMIT_ON_DS_SERVER

SQLSTATE: ninguno asignado

<dsError>: <message>

DS_RECIPIENT_RPC_INVALID_PARAMETER

SQLSTATE: ninguno asignado

<dsError>: <message>

DS_RECON_FAILED_ON_UC_WRITE_RPC

SQLSTATE: ninguno asignado

<dsError>: se produjo un error en la RPC de UC <rpcName>, convirtiéndose en INTERNAL_ERROR.

DS_RESOURCE_ALREADY_EXIST_ON_DS_SERVER

SQLSTATE: ninguno asignado

<dsError>: <message>

DS_RESOURCE_EXHAUSTED

SQLSTATE: ninguno asignado

<dsError>: límite <resource> superado: [<limitSize>]<suggestion>.<traceId>

DS_RESOURCE_NOT_FOUND_ON_DS_SERVER

SQLSTATE: ninguno asignado

<dsError>: <message>

DS_SAP_UNSUPPORTED_DBR_VERSION

SQLSTATE: ninguno asignado

<dsError>: No se admite el conector SAP de Delta Sharing en DBR <dbrVersion>. Las versiones mínimas admitidas son: <supportedVersions>.

DS_SCHEMA_NAME_CONFLICT_FOUND

SQLSTATE: ninguno asignado

<dsError>: el catálogo <catalogName> ya contiene nombres de esquema que se encuentran en el recurso compartido <shareName>. <description> de nombres de esquema en conflicto: <schemaNamesInCommon>.

DS_SERVER_TIMEOUT

SQLSTATE: ninguno asignado

<dsError>: Tiempo de espera del servidor para <rpcName> debido a <errorCause>, por favor, vuelva a intentarlo.<traceId>

DS_SERVICE_DENIED

SQLSTATE: ninguno asignado

<dsError>: la solicitud se denegó porque el servicio está bajo demasiada carga. Inténtelo de nuevo más tarde después de un tiempo.

DS_SHARE_ALREADY_MOUNTED_TO_CATALOG

SQLSTATE: ninguno asignado

<dsError>: El recurso <shareName> del proveedor <providerName> ya está montado en el catálogo <catalogName>.

DS_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED

SQLSTATE: ninguno asignado

No se pueden conceder privilegios en <securableType> al grupo <principal>generado por el sistema.

DS_TABLE_METADATA_TEMPORARILY_UNAVAILABLE

SQLSTATE: ninguno asignado

<dsError>: los metadatos de tabla no están disponibles. Inténtelo de nuevo en unos instantes.

DS_TIME_TRAVEL_NOT_PERMITTED

SQLSTATE: ninguno asignado

<dsError>: La consulta sobre viajes en el tiempo no está permitida a menos que el historial sea compartido en <tableName>. Póngase en contacto con el proveedor de datos.

DS_UNAUTHORIZED

SQLSTATE: ninguno asignado

<dsError>:Desautorizado.

DS_UNAUTHORIZED_D2O_OIDC_RECIPIENT

SQLSTATE: ninguno asignado

<dsError>: Destinatario D2O OIDC no autorizado: <message>.

DS_UNKNOWN_EXCEPTION

SQLSTATE: ninguno asignado

<dsError>: <traceId>

DS_UNKNOWN_QUERY_ID

SQLSTATE: ninguno asignado

<dsError>: identificador <queryID> de consulta desconocido para <schema>. <table> desde Compartir <share>.

DS_UNKNOWN_QUERY_STATUS

SQLSTATE: ninguno asignado

<dsError>: estado desconocido para la consulta con identificador <queryID> para <schema>. <table> desde Compartir <share>.

DS_UNKNOWN_RPC

SQLSTATE: ninguno asignado

<dsError>: RPC <rpcName> desconocida.

DS_UNSUPPORTED_DELTA_READER_VERSION

SQLSTATE: ninguno asignado

<dsError>: La versión <tableReaderVersion> del lector de protocolo delta es más alta que <supportedReaderVersion> y no se puede admitir en el servidor de intercambio delta.

DS_UNSUPPORTED_DELTA_TABLE_FEATURES

SQLSTATE: ninguno asignado

<dsError>: las funcionalidades <tableFeatures> se encuentran en la tabla <versionStr> <historySharingStatusStr> <optionStr>.

DS_UNSUPPORTED_OPERATION

SQLSTATE: ninguno asignado

<dsError>: <message>

DS_UNSUPPORTED_STORAGE_SCHEME

SQLSTATE: ninguno asignado

<dsError>: esquema de almacenamiento no admitido: <scheme>.

DS_UNSUPPORTED_TABLE_TYPE

SQLSTATE: ninguno asignado

<dsError>: no se pudo recuperar <schema>. <table> de Compartir <share> porque la tabla del tipo [<tableType>] actualmente no se admite en las consultas de <queryType>.

DS_UNSUPPORTED_TABLE_TYPE_IN_MST

SQLSTATE: ninguno asignado

<dsError>: el tipo de tabla de consulta [<tableType>] no se admite en la consulta de transacción de varias instrucciones (MST).

DS_USER_CONTEXT_ERROR

SQLSTATE: ninguno asignado

<dsError>: <message>

DS_VIEW_SHARING_FUNCTIONS_NOT_ALLOWED

SQLSTATE: ninguno asignado

<dsError>: Las siguientes función(es) <functions> no están permitidas en la consulta de compartición de vistas.

DS_WORKSPACE_DOMAIN_NOT_SET

SQLSTATE: ninguno asignado

<dsError>: no se ha establecido el dominio del área de <workspaceId> trabajo.

DS_WORKSPACE_NOT_FOUND

SQLSTATE: ninguno asignado

<dsError>: no se encontró el área de trabajo <workspaceId> .

Autoloader

CF_ADD_NEW_NOT_SUPPORTED

SQLSTATE: 0A000

El modo <addNewColumnsMode> de evolución del esquema no se admite cuando se especifica el esquema. Para usar este modo, puede proporcionar el esquema mediante cloudFiles.schemaHints.

CF_AMBIGUOUS_AUTH_OPTIONS_ERROR

SQLSTATE: 42000

Se encontraron las opciones de autenticación de configuración de notificaciones para el directorio (predeterminado)

modo de lista:

<options>

Si desea usar el modo de notificación de archivo, establezca explícitamente:

.option("cloudFiles.<useNotificationsKey>", "true")

Como alternativa, si desea omitir la validación de las opciones y ignorar estas

opciones de autenticación que puede configurar:

.option("cloudFiles.ValidateOptionsKey>", "falso")

CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR

SQLSTATE: 42000

Modo de lista incremental (cloudFiles.<useIncrementalListingKey>)

y notificación de archivos (cloudFiles.<useNotificationsKey>)

se han habilitado al mismo tiempo.

Asegúrese de seleccionar solo una.

CF_AZURE_AUTHENTICATION_MISSING_OPTIONS

SQLSTATE: 42000

Proporcione una credencial de servicio de Databricks o un clientId y clientSecret para autenticarse con Azure.

CF_AZURE_AUTHENTICATION_MULTIPLE_OPTIONS

SQLSTATE: 42000

Cuando se proporciona una credencial de servicio de Databricks, no se deben proporcionar otras opciones de credenciales (por ejemplo, clientId, clientSecret o connectionString).

CF_AZURE_STORAGE_SUFFIXES_REQUIRED

SQLSTATE: 42000

Requerir adlsBlobSuffix y adlsDfsSuffix para Azure

CF_BUCKET_MISMATCH

SQLSTATE: 22000

El <storeType> en el evento <fileEvent> de archivo es diferente del esperado por el origen: <source>.

CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY

SQLSTATE: 22000

No se puede evolucionar el esquema cuando el registro de esquema está vacío. Ubicación del registro de esquema: <logPath>

CF_CANNOT_PARSE_QUEUE_MESSAGE

SQLSTATE: 22000

No se puede analizar el siguiente mensaje de cola: <message>

CF_CANNOT_RESOLVE_CONTAINER_NAME

SQLSTATE: 22000

No se puede resolver el nombre del contenedor de la ruta de acceso: <path>, URI resuelto: <uri>

CF_CANNOT_RUN_DIRECTORY_LISTING

SQLSTATE: 22000

No se puede ejecutar la lista de directorios cuando hay un subproceso de reposición asincrónico en ejecución

CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON

SQLSTATE: 42000

No se puede activar cloudFiles.cleanSource y cloudFiles.allowOverwrites al mismo tiempo.

CF_CLEAN_SOURCE_CANNOT_MOVE_FILES_INSIDE_SOURCE_PATH

SQLSTATE: 42000

No se admite el traslado de archivos a un directorio bajo la ruta desde la que se ingiere.

CF_CLEAN_SOURCE_NOT_ENABLED

SQLSTATE: 0A000

CleanSource no se ha habilitado para esta área de trabajo. Póngase en contacto con el soporte técnico de Databricks para obtener ayuda.

CF_CLEAN_SOURCE_NO_SOPORTADO

SQLSTATE: 0A000

CleanSource no es compatible con <op>.

CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION

SQLSTATE: 42501

El cargador automático no puede archivar los archivos procesados porque no tiene permisos de escritura en el directorio de origen ni en el destino de movimiento.

Para obtener más información, consulte CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION

CF_DUPLICATE_COLUMN_IN_DATA

SQLSTATE: 22000

Se produjo un error al intentar deducir el esquema de partición de la tabla. Tiene la misma columna duplicada en las rutas de acceso de datos y particiones. Para omitir el valor de partición, proporcione las columnas de partición explícitamente mediante: .option("cloudFiles.<partitionColumnsKey>", "{comma-separated-list}")

CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE

SQLSTATE: 42000

No se puede deducir el esquema cuando la ruta <path> de acceso de entrada está vacía. Intente iniciar la secuencia cuando haya archivos en la ruta de entrada, o especifique el esquema.

CF_EVENT_GRID_AUTH_ERROR

SQLSTATE: 22000

No se pudo crear una suscripción de Event Grid. Asegúrese de que la entidad de servicio

tenga suscripciones de Event Grid <permissionType>. Consulte más detalles en:

<docLink>

CF_EVENT_GRID_CREATION_FAILED

SQLSTATE: 22000

No se pudo crear la suscripción de Event Grid. Asegúrese de que Microsoft.EventGrid está

registrado como proveedor de recursos en la suscripción. Consulte más detalles en:

<docLink>

CF_EVENT_GRID_NOT_FOUND_ERROR

SQLSTATE: 22000

No se pudo crear una suscripción de Event Grid. Asegúrese de que la cuenta

de almacenamiento (<storageAccount>) está en el grupo de recursos (<resourceGroup>) y que

sea una cuenta de "StorageV2 (uso general v2)". Consulte más detalles en:

<docLink>

CF_EVENT_NOTIFICATION_NOT_SUPPORTED

SQLSTATE: 0A000

El modo de notificación de eventos del cargador automático no está disponible para <cloudStore>.

CF_EVENT_NOTIFICATION_SETUP_FAILED

SQLSTATE: 22000

No se pudieron configurar los recursos de notificación de archivos para Auto Loader.

Para obtener más información, consulte CF_EVENT_NOTIFICATION_SETUP_FAILED

CF_FAILED_TO_CHECK_STREAM_NEW

SQLSTATE: 22000

No se pudo comprobar si la secuencia es nueva

CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION

SQLSTATE: 22000

No se pudo crear la suscripción: <subscriptionName>. Ya existe una suscripción con el mismo nombre y está asociada a otro tema: <otherTopicName>. El tema deseado es <proposedTopicName>. Elimine la suscripción existente o cree una suscripción con un nuevo sufijo de recurso.

CF_FAILED_TO_CREATED_PUBSUB_TOPIC

SQLSTATE: 22000

No se pudo crear el tema: <topicName>. Ya existe un tema con el mismo nombre. <reason> Quite el tema existente o vuelva a intentarlo con otro sufijo de recurso

CF_FAILED_TO_DELETE_GCP_NOTIFICATION

SQLSTATE: 22000

No se pudo eliminar la notificación con el identificador <notificationId> en el bucket <bucketName> del tema <topicName>. Vuelva a intentar o quite manualmente la notificación a través de la consola de GCP.

CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA

SQLSTATE: 22000

No se pudo deserializar el esquema persistente de la cadena: '<jsonSchema>'

CF_FAILED_TO_EVOLVE_SCHEMA

SQLSTATE: 22000

No se puede evolucionar el esquema sin un registro de esquema.

CF_FAILED_TO_FIND_PROVIDER

SQLSTATE: 42000

No se pudo encontrar el proveedor de <fileFormatInput>

CF_FAILED_TO_INFER_SCHEMA

SQLSTATE: 22000

No se pudo inferir el esquema para el formato <fileFormatInput> a partir de los archivos existentes en la ruta de acceso de entrada <path>.

Para obtener más información, consulte CF_FAILED_TO_INFER_SCHEMA.

CF_FAILED_TO_WRITE_TO_SCHEMA_LOG

SQLSTATE: 22000

No se pudo escribir en el registro de esquema en la ubicación <path>.

CF_FILE_FORMAT_REQUIRED

SQLSTATE: 42000

No se pudo encontrar la opción necesaria: cloudFiles.format.

CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS

SQLSTATE: 22000

Se encontraron varias suscripciones (<num>) con el prefijo Auto Loader para el tema <topicName>:

<subscriptionList>

Solo debe haber una suscripción por tema. Asegúrese manualmente de que el tema no tiene varias suscripciones.

CF_GCP_AUTHENTICATION

SQLSTATE: 42000

Proporcione lo siguiente: <clientEmail>, <client>,

<privateKey>, y <privateKeyId> o proporcione <serviceCredential> para usar las credenciales de servicio de Databricks.

Como alternativa, no proporcione ninguno de ellos para usar la cadena de proveedor de credenciales predeterminada de GCP para autenticarse con recursos de GCP.

CF_GCP_LABELS_COUNT_EXCEEDED

SQLSTATE: 22000

Se han recibido demasiadas etiquetas (<num>) para el recurso de GCP. El número máximo de etiquetas por recurso es <maxNum>.

CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED

SQLSTATE: 22000

Se recibieron demasiadas etiquetas de recursos (<num>) para el recurso de GCP. El número máximo de etiquetas de recursos por recurso es <maxNum>, ya que las etiquetas de recursos se almacenan como etiquetas de GCP en recursos y las etiquetas específicas de Databricks consumen parte de esta cuota de etiquetas.

CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG

SQLSTATE: 22000

Archivo de registro incompleto en el registro de esquema en la ruta de acceso <path>

CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT

SQLSTATE: 22000

Archivo de metadatos incompleto en el punto de comprobación del cargador automático

CF_INCORRECT_BATCH_USAGE

SQLSTATE: 42887

CloudFiles es un origen de streaming. Use spark.readStream en lugar de spark.read. Para deshabilitar esta comprobación, establezca <cloudFilesFormatValidationEnabled> en falso.

CF_INCORRECT_SQL_PARAMS

SQLSTATE: 42000

El método cloud_files acepta dos parámetros de cadena necesarios: la ruta de acceso desde la que se carga y el formato de archivo. Las opciones del lector de archivos deben proporcionarse en una asignación clave-valor de cadena. por ejemplo, cloud_files("path", "json", map("option1", "value1")). Se recibió: <params>

CF_INCORRECT_STREAM_USAGE

SQLSTATE: 42887

Para usar "cloudFiles" como origen de streaming, proporcione el formato de archivo con la opción "cloudFiles.format" y use .load() para crear el dataframe. Para deshabilitar esta comprobación, establezca <cloudFilesFormatValidationEnabled> en falso.

CF_INTERNAL_ERROR

SQLSTATE: 42000

Auto Loader encontró un error interno. Póngase en contacto con el soporte técnico de Databricks para obtener ayuda.

Para obtener más información, consulte CF_INTERNAL_ERROR

CF_INVALID_ARN

SQLSTATE: 42000

ARN no válido: <arn>

CF_INVALID_AZURE_CERTIFICATE

SQLSTATE: 42000

No se puede analizar la clave privada proporcionada con la opción cloudFiles.certificate. Proporcione una clave pública válida en formato PEM.

CF_INVALID_AZURE_CERT_PRIVATE_KEY

SQLSTATE: 42000

No se puede analizar la clave privada proporcionada con la opción cloudFiles.certificatePrivateKey. Proporcione una clave privada válida en formato PEM.

CF_INVALID_CHECKPOINT

SQLSTATE: 42000

Este punto de control no es un origen de CloudFiles válido

CF_INVALID_CLEAN_SOURCE_MODE

SQLSTATE: 42000

Modo no válido para la opción de origen <value>limpio .

CF_INVALID_GCP_RESOURCE_TAG_KEY

SQLSTATE: 42000

Clave de etiqueta de recurso no válida para el recurso de GCP: <key>. Las claves deben comenzar con una letra minúscula, tener entre 1 y 63 caracteres y contener solo letras minúsculas, números, caracteres de subrayado (_) y guiones (-).

CF_INVALID_GCP_RESOURCE_TAG_VALUE

SQLSTATE: 42000

Valor de etiqueta de recurso no válido para el recurso de GCP: <value>. Los valores deben tener entre 0 y 63 caracteres y deben contener solo letras minúsculas, números, caracteres de subrayado (_) y guiones (-).

CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS

SQLSTATE: 42000

Auto Loader no admite las siguientes opciones cuando se usan con eventos de archivos administrados:

<optionList>

Se recomienda quitar estas opciones y, a continuación, reiniciar la secuencia.

CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE

SQLSTATE: 22000

Respuesta inválida del servicio de eventos de archivos gestionados. Póngase en contacto con el soporte técnico de Databricks para obtener ayuda.

Para más información, consulte CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE.

CF_INVALID_SCHEMA_EVOLUTION_MODE

SQLSTATE: 42000

cloudFiles. <schemaEvolutionModeKey> debe ser uno de {

<addNewColumnsWithTypeWidening>

<addNewColumns>

<failOnNewColumns>

<rescue>

"<noEvolution>"}

CF_INVALID_SCHEMA_HINTS_OPTION

SQLSTATE: 42000

Las sugerencias de esquema solo pueden especificar una columna determinada una vez.

En este caso, redefinir la columna: <columnName>

varias veces en schemaHints:

<schemaHints>

CF_INVALID_SCHEMA_HINT_COLUMN

SQLSTATE: 42000

No se pueden usar sugerencias de esquema para invalidar los tipos anidados de asignaciones y matrices.

Columna en conflicto: <columnName>

CF_LATEST_OFFSET_READ_LIMIT_REQUIRED

SQLSTATE: 22000

se debe llamar a latestOffset con un readLimit en este origen.

CF_LOG_FILE_MALFORMED

SQLSTATE: 22000

Archivo de registro con formato incorrecto: no se pudo leer la versión de registro correcta de <fileName>.

CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS

SQLSTATE: 22000

Ha solicitado que el cargador automático omita los archivos existentes en la ubicación externa estableciendo includeExistingFiles en false. Sin embargo, el servicio de eventos de archivos administrados sigue detectando archivos existentes en la ubicación externa. Inténtelo de nuevo después de que los eventos de administración de archivos hayan terminado de descubrir todos los archivos en su ubicación externa.

CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND

SQLSTATE: 42000

Está usando Auto Loader con eventos de archivo administrados, pero parece que la ubicación externa de la ruta de acceso de entrada '<path>' no tiene habilitados eventos de archivo o la ruta de acceso de entrada no es válida. Solicite al administrador de Databricks que habilite los eventos de archivo en la ubicación externa de la ruta de acceso de entrada.

CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED

SQLSTATE: 42000

Está usando el cargador automático con eventos de archivo administrados, pero no tiene acceso a la ubicación externa o al volumen de la ruta de acceso de entrada "<path>" o la ruta de acceso de entrada no es válida. Solicite al administrador de Databricks que conceda permisos de lectura para la ubicación o el volumen externos o proporcione una ruta de acceso de entrada válida dentro de una ubicación o volumen externo existente.

CF_MANAGED_FILE_EVENTS_INVALID_CONTINUATION_TOKEN

SQLSTATE: 42000

La posición de lectura de la secuencia en la caché de eventos de archivo se ha invalidado. Esto podría ocurrir porque se actualizó la configuración de eventos de archivo (por ejemplo, se cambió la dirección URL de la cola proporcionada o se deshabilitaron los eventos de archivo y se volvió a habilitar). Póngase en contacto con el soporte técnico de Databricks para obtener ayuda.

CF_MANAGED_FILE_EVENTS_IS_PREVIEW

SQLSTATE: 56038

El cargador automático con eventos de archivos administrados es una funcionalidad de vista previa. Para continuar, póngase en contacto con el soporte técnico de Databricks o desactive la opción cloudFiles.useManagedFileEvents.

CF_MANAGED_FILE_EVENTS_RATE_LIMIT_EXCEEDED

SQLSTATE: 53000

Se están ejecutando demasiadas secuencias simultáneas del cargador automático. Para resolver, reduzca la simultaneidad de flujos si es posible o cree volúmenes independientes para cada subdirectorio al cargar desde varios subdirectorios en una ubicación externa. Póngase en contacto con el representante de Databricks si el problema persiste.

CF_MAX_MUST_BE_POSITIVE

SQLSTATE: 42000

max debe ser positivo

CF_METADATA_FILE_CONCURRENTLY_USED

SQLSTATE: 22000

Varias consultas de streaming están usando concurrentemente <metadataFile>

CF_MISSING_METADATA_FILE_ERROR

SQLSTATE: 42000

Falta el archivo de metadatos en el directorio del punto de control de origen de streaming. Estos metadatos

el archivo contiene opciones predeterminadas importantes para la secuencia, por lo que no se puede reiniciar la secuencia.

Ahora mismo. Póngase en contacto con el soporte técnico de Databricks para obtener ayuda.

CF_MISSING_PARTITION_COLUMN_ERROR

SQLSTATE: 42000

La columna <columnName> de partición no existe en el esquema proporcionado:

<schema>

CF_MISSING_SCHEMA_IN_PATHLESS_MODE

SQLSTATE: 42000

Especifique un esquema mediante .schema() si no se proporciona una ruta de acceso al origen de CloudFiles mientras usa el modo de notificación de archivo. Como alternativa, para que el cargador automático infiera el esquema, proporcione una ruta de acceso base en .load().

CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC

SQLSTATE: 22000

Se encontraron las notificaciones existentes para el tema <topicName> en el cubo <bucketName>:

notification,id

<notificationList>

Para evitar la contaminación del suscriptor con eventos no deseados, elimine las notificaciones anteriores y vuelva a intentarlo.

CF_NEW_PARTITION_ERROR

SQLSTATE: 22000

Se dedujeron nuevas columnas de partición de sus archivos: [<filesList>]. Proporcione todas las columnas de partición del esquema o proporcione una lista de columnas de partición para las que desea extraer valores mediante: .option("cloudFiles.partitionColumns", "{comma-separated-list|empty-string}")

CF_PARTITON_INFERENCE_ERROR

SQLSTATE: 22000

Se produjo un error al intentar deducir el esquema de partición del lote de archivos actual. Proporcione las columnas de partición explícitamente mediante: .option("cloudFiles.<partitionColumnOption>", "{comma-separated-list}")

CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES

SQLSTATE: 42000

No se pueden leer archivos cuando la ruta <path> de acceso de entrada no existe. Asegúrese de que la ruta de acceso de entrada existe y vuelva a intentarlo.

CF_PERIODIC_BACKFILL_NOT_SUPPORTED

SQLSTATE: 0A000

No se admite el relleno periódico si el relleno asincrónico está deshabilitado. Puede habilitar la lista asincrónica de reposición o directorio estableciendo spark.databricks.cloudFiles.asyncDirListing en true

CF_PREFIX_MISMATCH

SQLSTATE: 22000

Evento encontrado no coincidente: la clave <key> no tiene el prefijo: <prefix>

CF_PROTOCOL_MISMATCH

SQLSTATE: 22000

<message>

Si no necesita realizar ningún otro cambio en el código, establezca SQL.

configuración: "<sourceProtocolVersionKey> = <value>".

para reanudar la transmisión. Consulte:

<docLink>

para obtener más información.

CF_REGION_NOT_FOUND_ERROR

SQLSTATE: 42000

No se pudo obtener la región de AWS predeterminada. Especifique una región mediante la opción cloudFiles.region.

CF_RESOURCE_SUFFIX_EMPTY

SQLSTATE: 42000

No se pudieron crear servicios de notificación: el sufijo de recurso no puede estar vacío.

CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS

SQLSTATE: 42000

No se pudieron crear servicios de notificación: el sufijo de recurso solo puede tener caracteres alfanuméricos, guiones (-) y caracteres de subrayado (_).

CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE

SQLSTATE: 42000

No se pudieron crear servicios de notificación: el sufijo de recurso solo puede tener letras minúsculas, números y guiones (-).

CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP

SQLSTATE: 42000

No se pudieron crear servicios de notificación: el sufijo de recurso solo puede tener caracteres alfanuméricos, guiones (-), guiones bajos (_), puntos (.), tildes (~) más signos (+) y signos de porcentaje (<percentSign>).

CF_RESOURCE_SUFFIX_LIMIT

SQLSTATE: 42000

No se pudieron crear servicios de notificación: el sufijo de recurso no puede tener más caracteres <limit> .

CF_RESOURCE_SUFFIX_LIMIT_GCP

SQLSTATE: 42000

No se pudieron crear servicios de notificación: el sufijo de recurso debe estar entre <lowerLimit> caracteres y <upperLimit> .

CF_RESTRICTED_GCP_RESOURCE_TAG_KEY

SQLSTATE: 22000

Se encontró una clave de etiqueta de recurso GCP restringida (<key>). Las siguientes claves de etiqueta de recurso de GCP están restringidas en Auto Loader: [<restrictedKeys>]

CF_RETENTION_GREATER_THAN_MAX_FILE_AGE

SQLSTATE: 42000

cloudFiles.cleanSource.retentionDuration no puede ser mayor que cloudFiles.maxFileAge.

CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX

SQLSTATE: 22000

No se pudo crear la notificación para el tema: <topic> con prefijo: <prefix>. Ya hay un tema con el mismo nombre con otro prefijo: <oldPrefix>. Pruebe a usar un sufijo de recurso diferente para la instalación o elimine la configuración existente.

CF_SCHEMA_LOG_DEEP_CLONE_FAILED

SQLSTATE: 42000

No se pudo clonar ni migrar ninguna de las entradas del registro de esquema desde el esquema de origen.

CF_SFTP_MISSING_PASSWORD_OR_KEY_FILE

SQLSTATE: 42000

Se debe especificar la contraseña o el archivo de clave para SFTP.

Especifique la contraseña en el URI de origen o a través <passwordOption>de o especifique el contenido del archivo de clave a través de <keyFileOption>.

CF_SFTP_NOT_ENABLED

SQLSTATE: 0A000

El acceso a archivos SFTP no está habilitado. Póngase en contacto con el soporte técnico de Databricks para obtener ayuda.

CF_SFTP_REQUIRE_FULL_PATH

SQLSTATE: 0A000

Especifique los componentes de ruta de acceso completos para un origen SFTP en forma de sftp://$user@$host:$port/$path para asegurar una consulta precisa de la conexión UC.

CF_SFTP_REQUIRE_UC_CLUSTER

SQLSTATE: 0A000

Se requiere un clúster habilitado para UC para acceder a los archivos SFTP. Póngase en contacto con el soporte técnico de Databricks para obtener ayuda.

CF_SFTP_USERNAME_NOT_FOUND

SQLSTATE: 42000

El nombre de usuario debe especificarse para SFTP.

Proporcione el nombre de usuario en el URI de origen o a través de <option>.

CF_SOURCE_DIRECTORY_PATH_REQUIRED

SQLSTATE: 42000

Proporcione la ruta de acceso del directorio de origen con la opción path

CF_SOURCE_UNSUPPORTED

SQLSTATE: 0A000

El origen de archivos en la nube solo admite rutas S3, Azure Blob Storage (wasb/wasbs) y Azure Data Lake Gen1 (adl) y Gen2 (abfs/abfss) en este momento. Ruta de acceso: "<path>", URI resuelto: "<uri>".

CF_STATE_INCORRECT_SQL_PARAMS

SQLSTATE: 42000

La función cloud_files_state acepta un parámetro de tipo cadena que representa el directorio de punto de control de una secuencia de cloudFiles o un nombre de tabla multipartes que identifica una tabla de streaming, y un segundo parámetro opcional de tipo entero que indica la versión del punto de control para el cual se carga el estado. El segundo parámetro también puede ser "latest" para leer el punto de comprobación más reciente. Se recibió: <params>

CF_STATE_INVALID_CHECKPOINT_PATH

SQLSTATE: 42000

La ruta del punto de control de entrada <path> no es válida. La ruta no existe o no se encuentran fuentes de archivos en la nube.

CF_STATE_INVALID_VERSION

SQLSTATE: 42000

La versión <version> especificada no existe o se quitó durante el análisis.

CF_THREAD_IS_DEAD

SQLSTATE: 22000

El subproceso <threadName> está inactivo.

CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION

SQLSTATE: 42000

No se puede derivar la ubicación del punto de control de flujo desde la ubicación del punto de control de origen: <checkPointLocation>

CF_UNABLE_TO_DETECT_FILE_FORMAT

SQLSTATE: 42000

No se puede detectar el formato de archivo de origen de los archivos muestreados <fileSize>; se encontró <formats>. Especifique el formato.

CF_UNABLE_TO_EXTRACT_BUCKET_INFO

SQLSTATE: 42000

No se puede extraer información del cubo. Ruta de acceso: "<path>", URI resuelto: "<uri>".

CF_UNABLE_TO_EXTRACT_KEY_INFO

SQLSTATE: 42000

No se puede extraer información clave. Ruta de acceso: "<path>", URI resuelto: "<uri>".

CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO

SQLSTATE: 42000

No se puede extraer información de la cuenta de almacenamiento; path: '<path>', URI resuelto: '<uri>'

CF_UNABLE_TO_LIST_EFFICIENTLY

SQLSTATE: 22000

Recibió un evento de cambio de nombre de directorio para la ruta de acceso <path>, pero no podemos enumerar este directorio de forma eficaz. Para que la secuencia continúe, establezca la opción "cloudFiles.ignoreDirRenames" en true y considere la posibilidad de habilitar rerrellenos normales con cloudFiles.backfillInterval para que estos datos se procesen.

CF_UNEXPECTED_READ_LIMIT

SQLSTATE: 22000

ReadLimit inesperado: <readLimit>

CF_UNKNOWN_OPTION_KEYS_ERROR

SQLSTATE: 42000

Se encontraron claves de opción desconocidas:

<optionList>

Asegúrese de que todas las claves de opción proporcionadas sean correctas. Si desea omitir la

validación de las opciones y omitir estas opciones desconocidas, puede establecer:

.option("cloudFiles.<validateOptions>", "false")

CF_UNKNOWN_READ_LIMIT

SQLSTATE: 22000

Límite de lectura desconocido: <readLimit>

CF_UNSUPPORTED_CLEAN_SOURCE_MOVE

SQLSTATE: 0A000

No se admite la configuración del modo "move" de cleanSource.

Para más información, consulte CF_UNSUPPORTED_CLEAN_SOURCE_MOVE

CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION

SQLSTATE: 0A000

La función SQL "cloud_files" para crear un origen de streaming de Auto Loader solo se admite en una canalización de canalizaciones declarativas de Spark de Lakeflow. Consulte más detalles en:

<docLink>

CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE

SQLSTATE: 0A000

No se admite la inferencia de esquema para el formato: <format>. Especifique el esquema.

CF_UNSUPPORTED_LOG_VERSION

SQLSTATE: 0A000

UnsupportedLogVersion: la versión de registro máxima admitida es v<maxVersion>, pero se encontró v<version>. El archivo de registro se generó mediante una versión más reciente de DBR y esta versión no la puede leer. Actualice.

CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE

SQLSTATE: 0A000

El modo <mode> de evolución del esquema no se admite para el formato: <format>. Establezca el modo de evolución del esquema en "none".

CF_USE_DELTA_FORMAT

SQLSTATE: 42000

No se admite la lectura desde una tabla Delta con esta sintaxis. Si desea consumir datos de Delta, consulte los documentos: leer una tabla Delta (<deltaDocLink>) o leer una tabla Delta como origen de flujo (<streamDeltaDocLink>). El origen de streaming de Delta ya está optimizado para el consumo incremental de datos.

Geospatial

EWKB_PARSE_ERROR

SQLSTATE: 22023

Error al analizar EWKB: <parseError> en la posición <pos>

Para obtener más información, consulte EWKB_PARSE_ERROR

EWKT_PARSE_ERROR

SQLSTATE: 22023

Error al analizar EWKT: <parseError> en la posición <pos>

GEOJSON_PARSE_ERROR

SQLSTATE: 22023

Error al analizar GeoJSON: <parseError> en la posición <pos>

Para obtener más información, consulte GEOJSON_PARSE_ERROR

GEO_ENCODER_SRID_MISMATCH_ERROR

SQLSTATE: 42K09

No se pudo codificar el valor <type> porque al codificar, el SRID proporcionado <valueSrid> no coincide con el SRID del tipo: <typeSrid>.

H3_INVALID_CELL_ID

SQLSTATE: 22023

<h3Cell> no es un identificador de celda H3 válido

Para obtener más información, consulte H3_INVALID_CELL_ID

H3_INVALID_GRID_DISTANCE_VALUE

SQLSTATE: 22023

La distancia <k> de la cuadrícula H3 debe ser no negativa

Para obtener más información, consulte H3_INVALID_GRID_DISTANCE_VALUE.

H3_INVALID_RESOLUTION_VALUE

SQLSTATE: 22023

La resolución H3 <r> debe estar entre <minR> y <maxR>, inclusive

Para obtener más información, consulte H3_INVALID_RESOLUTION_VALUE.

H3_NOT_ENABLED

SQLSTATE: 0A000

<h3Expression> está deshabilitado o no es compatible. Considere la posibilidad de cambiar a un nivel que admita expresiones H3.

Para obtener más información, consulte H3_NOT_ENABLED

H3_PENTAGON_ENCOUNTERED_ERROR

SQLSTATE: 22023

Se encontró un pentágono al calcular el anillo hexadecimal de <h3Cell> con una distancia de cuadrícula <k>

H3_UNDEFINED_GRID_DISTANCE

SQLSTATE: 22023

La distancia de cuadrícula H3 entre <h3Cell1> y <h3Cell2> no está definida

ST_DIFFERENT_SRID_VALUES

SQLSTATE: 22023

Los argumentos de "<sqlFunction>" deben tener el mismo valor SRID. Se encontraron valores SRID: <srid1>, <srid2>

ST_INVALID_ARGUMENT

SQLSTATE: 22023

"<sqlFunction>":

Para obtener más información, consulte ST_INVALID_ARGUMENT

ST_INVALID_CRS_TRANSFORMATION_ERROR

SQLSTATE: 22023

<sqlFunction>: transformación CRS no válida o no admitida de SRID <srcSrid> a SRID <trgSrid>

ST_INVALID_PRECISION_VALUE

SQLSTATE: 22023

La precisión <p> debe estar entre <minP> y <maxP>, inclusive

ST_NOT_ENABLED

SQLSTATE: 0A000

<stExpression> está deshabilitado o no es compatible. Considere la posibilidad de cambiar a un nivel que admita expresiones ST.

WKB_PARSE_ERROR

SQLSTATE: 22023

Error al analizar WKB: <parseError> en la posición <pos>

Para obtener más información, consulte WKB_PARSE_ERROR

WKT_PARSE_ERROR

SQLSTATE: 22023

Error al analizar WKT: <parseError> en la posición <pos>

Para obtener más información, consulte WKT_PARSE_ERROR

Catálogo de Unity

NO_SE_PUEDE_ELIMINAR_COLUMNA_ETIQUETADA

SQLSTATE: 42893

No se puede quitar la columna porque tiene una o varias etiquetas reguladas asignadas. Quite las etiquetas antes de quitar la columna. Para obtener instrucciones, consulte la documentación <docLink>.

CREACIÓN_DE_HIJOS_PROHIBIDO_PARA_SECURABLE_EXTRANJERO

SQLSTATE: 22023

No se puede crear un elemento protegible <childSecurableName> de tipo <childSecurableType> en el elemento primario <parentSecurableName> de tipo <parentSecurableKind>.

FORMATO_DE_COLUMNA_INCOMPATIBLE_CON_TIPO_DE_COLUMNA

SQLSTATE: 42809

La columna <columnName> tiene <formatType> formato que no es compatible con el tipo <columnType>de columna .

CONFLICTING_COLUMN_NAMES_ERROR

SQLSTATE: 42711

La <columnName> columna entra en conflicto con otra columna con el mismo nombre, pero con o sin espacios en blanco finales (por ejemplo, una columna existente denominada <columnName> ). Cambie el nombre de la columna por otro nombre.

CONNECTION_CREDENTIALS_NOT_SUPPORTED_FOR_ONLINE_TABLE_CONNECTION

SQLSTATE: 0AKUC

Solicitud no válida para obtener credenciales de nivel de conexión para la conexión de tipo <connectionType>. Estas credenciales solo están disponibles para las conexiones de PostgreSQL administradas.

CONNECTION_TYPE_NOT_ENABLED

SQLSTATE: 56038

El tipo de conexión '<connectionType>' no está habilitado. Habilite la conexión para usarla.

DELTA_SHARING_PROVISIONING_STATE_NOT_ACTIVE

SQLSTATE: 55019

La entidad compartida '<securableFullName>' no se puede usar actualmente, ya que aún no se ha sincronizado completamente con la entidad de origen correspondiente. Causado por: <reason>.

DELTA_SHARING_READ_ONLY_RECIPIENT_EXISTS

SQLSTATE: 42710

Ya hay un objeto Recipient '<existingRecipientName>' con el mismo identificador de uso compartido '<existingMetastoreId>'.

DELTA_SHARING_READ_ONLY_SECURABLE_KIND

SQLSTATE: 42501

Los datos de una variante de elemento protegible de uso compartido Delta <securableKindName> son de solo lectura y no se pueden crear, modificar ni eliminar.

DISASTER_RECOVERY_READ_ONLY

SQLSTATE: 25006

Los datos dentro de un catálogo <catalogName> de réplicas administrados por recuperación ante desastres son de solo lectura y no se pueden crear, modificar ni eliminar.

EXTERNAL_ACCESS_DISABLED_ON_METASTORE

SQLSTATE: 0A000

La distribución de credenciales se rechaza para el entorno de computación que no sea de Databricks debido a que el acceso a datos externos está deshabilitado para el metastore <metastoreName>. Póngase en contacto con el administrador de metastore para habilitar la configuración de "Acceso a datos externos" en el metastore.

EXTERNAL_ACCESS_NOT_ALLOWED_FOR_TABLE

SQLSTATE: 0AKUC

No se puede tener acceso a la tabla con id <tableId> desde fuera del entorno de proceso de Databricks debido a que su tipo es <securableKind>. Solo se puede acceder externamente a los tipos de tabla 'TABLE_EXTERNAL', 'TABLE_DELTA_EXTERNAL' y ''TABLE_DELTA.

EXTERNAL_USE_SCHEMA_ASSIGNED_TO_INCORRECT_SECURABLE_TYPE

SQLSTATE: 22023

Privilege EXTERNAL USE SCHEMA no es aplicable a esta entidad <assignedSecurableType> y solo se puede asignar a un esquema o catálogo. Quite el privilegio del <assignedSecurableType> objeto y asígnelo a un esquema o catálogo en su lugar.

EXTERNAL_WRITE_NOT_ALLOWED_FOR_TABLE

SQLSTATE: 0AKUC

No se puede escribir la tabla con id <tableId> desde fuera del entorno de proceso de Databricks debido a que su tipo es <securableKind>. Solo los tipos de tabla 'TABLE_EXTERNAL' y 'TABLE_DELTA_EXTERNAL' se pueden escribir externamente.

FOREIGN_CATALOG_STORAGE_ROOT_MUST_SUPPORT_WRITES

SQLSTATE: 42501

La ubicación de almacenamiento de un catálogo externo de tipo <catalogType> se usará para descargar datos y no puede ser de solo lectura.

HMS_SECURABLE_OVERLAP_LIMIT_EXCEEDED

SQLSTATE: 54000

El número de valores <resourceType> para la ruta de acceso de entrada <url> supera el límite permitido (<overlapLimit>) para los valores <resourceType> de HMS superpuestos.

FORMATO_DE_ORIGEN_DE_DATOS_NO_VÁLIDO

SQLSTATE: 0AKUC

No se admite<datasourceFormat> el formato de origen de datos '<tableTypeSuffix> <catalogKindSuffix>'.

INVALID_NAME_FORMAT

SQLSTATE: 42602

<fieldDescription> no es un nombre válido. Los nombres válidos solo deben contener caracteres alfanuméricos y caracteres de subrayado, y no pueden contener espacios, puntos, barras diagonales ni caracteres de control.

INVALID_RESOURCE_NAME_DELTA_SHARING

SQLSTATE: 0A000

Las solicitudes de uso compartido Delta no se admiten usando nombres de recursos

INVALID_RESOURCE_NAME_ENTITY_TYPE

SQLSTATE: 42809

El nombre de recurso proporcionado hace referencia al tipo <provided> de entidad, pero se esperaba <expected>

INVALID_RESOURCE_NAME_METASTORE_ID

SQLSTATE: 42000

El nombre de recurso proporcionado hace referencia a un metastore que no está en el ámbito de la solicitud actual.

INVALID_SECURABLE_NAME

SQLSTATE: 42602

<rpcName> nombre no válido <securableType> : '<securableFullName>'

LOCATION_OVERLAP

SQLSTATE: 22023

La dirección URL de la ruta de acceso de entrada "<path>" se superpone con <overlappingLocation> dentro de la llamada "<caller>". <conflictingSummary>. <permissionErrorSuggestion>

LOCATION_OVERLAP_STORAGE_CONFLICT_WITH_WORKSPACE_STORAGE

SQLSTATE: 22023

La ubicación de almacenamiento definida por el cliente entra en conflicto con el almacenamiento predeterminado del área de trabajo "<path>" durante la operación "<caller>". Esto impide que las características que dependen del almacenamiento del área de trabajo funcionen. Resumen de conflictos: <conflictingSummary>. Consulte https://docs.databricks.com/aws/en/data-governance/unity-catalog/storage-conflicts para ver los pasos de corrección.

Formato de Tabla Gestionada

SQLSTATE: 0AKUC

Solo se admite Delta para tablas administradas. El formato de origen de datos proporcionado es <datasourceFormat>.

MONGO_DB_SRV_CONNECTION_STRING_DOES_NOT_ALLOW_PORT

SQLSTATE: 42616

No se permite crear o actualizar una conexión de MongoDB porque la cadena de conexión SRV de MongoDB no requiere el puerto.

Quite el puerto, ya que la cadena de conexión SRV no requiere el puerto.

PRINCIPAL_NO_EXISTE

SQLSTATE: 42704

No se pudo encontrar el principal con el nombre <principalName>.

SOPORTE_DE_PRIVILEGIOS_NO_HABILITADO

SQLSTATE: 0AKUC

La compatibilidad con privilegios no está habilitada para el tipo [<typeString>]

PRIVILEGE_NOT_APPLICABLE_TO_ENTITY

SQLSTATE: 22023

El privilegio <privilege> no es aplicable a esta entidad [<classifier>]. Si esto parece inesperado, compruebe la versión con privilegios del metastore en uso [<privilegeVersion>].

CATÁLOGO_SOLO_LECTURA

SQLSTATE: 0AKUC

Los datos dentro de un catálogo de uso compartido delta son de solo lectura y no se pueden crear, modificar ni eliminar. El catálogo '<catalogName>' es un catálogo Delta Sharing.

REDSHIFT_FOREIGN_CATALOG_STORAGE_ROOT_MUST_BE_S3

SQLSTATE: 22KD1

La raíz de almacenamiento para el catálogo externo de Redshift debe ser AWS S3.

SCHEMA_NOT_EMPTY

SQLSTATE: 42893

El esquema '<fullName>' no está vacío. <extraInfo>

SECURABLE_KIND_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION

SQLSTATE: 0AKUC

Los elementos protegibles con la variante <securableKind> no admiten la federación de Lakehouse.

SECURABLE_KIND_NOT_ENABLED

SQLSTATE: 56038

El tipo protegible '<securableKind>' no está habilitado. Si se trata de un tipo protegible asociado a una funcionalidad de vista previa, habilítela en la configuración del área de trabajo.

SECURABLE_TYPE_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION

SQLSTATE: 0AKUC

Los elementos protegibles con el tipo <securableType> no admiten la federación de Lakehouse.

SOURCE_TABLE_COLUMN_COUNT_EXCEEDS_LIMIT

SQLSTATE: 54000

La tabla de origen tiene más de <columnCount> columnas. Reduzca el número de columnas a <columnLimitation> o menos.

SYSTEM_SERVICE_PRINCIPAL_NO_ESTÁ_REGISTRADO

SQLSTATE: 42704

No se pudo encontrar la entidad de servicio del sistema registrada con el nombre del recurso <servicePrincipalResource>.

TIPO_DE_TABLA_NO_SOPORTA_METADATA_DE_COLUMNA

SQLSTATE: 0AKUC

El tipo <tableType> de tabla no admite metadatos de columna.

UC_AAD_CLIENT_SECRET_EXPIRED_FOR_SERVICE_PRINCIPAL

SQLSTATE: 42KDI

Las claves secretas de cliente para la entidad de servicio con el identificador <applicationId> de aplicación han expirado. Visite Azure Portal para crear nuevas claves para la entidad de servicio.

UC_AAD_CLIENT_SECRET_EXPIRED_FOR_STORAGE_CREDENTIAL

SQLSTATE: 42KDI

Las claves secretas de cliente para las credenciales <storageCredentialName> de almacenamiento han expirado. Póngase en contacto con el propietario o el administrador de la cuenta para actualizar la credencial de almacenamiento.

UC_AAD_CLIENT_SECRET_INVALID_FOR_SERVICE_PRINCIPAL

SQLSTATE: 42KDI

La clave secreta de cliente para la entidad de servicio con el identificador <applicationId> de aplicación no es válida.

UC_AAD_SERVICE_PRINCIPAL_CONFIG_INVALID

SQLSTATE: 42KDI

La configuración de la entidad de servicio no es válida. Compruebe el identificador de directorio, el identificador de la aplicación y el secreto de cliente.

UC_AAD_TOKEN_EXCHANGE_GENERIC_FAILURE

SQLSTATE: 42KDI

No se pudieron obtener las credenciales: la credencial <storageCredentialName> de almacenamiento no está configurada correctamente. Póngase en contacto con el propietario o el administrador de la cuenta para actualizar la configuración.

UC_AAD_TOKEN_LIFETIME_TOO_SHORT

SQLSTATE: 22003

La duración del token de AAD intercambiado es <lifetime>, la cual es demasiado corta. Compruebe la configuración de Azure AD para asegurarse de que el token de acceso temporal tenga al menos una duración de una hora. https://learn.microsoft.com/azure/active-directory/develop/active-directory-configurable-token-lifetimes

UC_ABAC_AMBIGUOUS_COLUMN_MATCH

SQLSTATE: 42KDJ

Error al evaluar las directivas de ABAC en "<resource>". La directiva '<policyName>' tuvo un error con el mensaje: el uso del alias '<alias>' tenía <size> coincidencias, se permite exactamente 1 coincidencia.

UC_ABAC_DEPENDENCY_COMPLEXITY_LIMIT_EXCEEDED

SQLSTATE: 54000

<resourceType> '<ref>' tiene demasiadas <resolverType> dependencias de abac.

UC_ABAC_DEPENDENCY_DIFFERING_RF_CM

SQLSTATE: 55000

La dependencia '<dependency>' se ha referenciado múltiples veces, lo que ha resultado en diferencias en los filtros de fila ABAC o las máscaras de columna.

UC_ABAC_EVALUATION_USER_ERROR

SQLSTATE: 42000

Error al evaluar las directivas de ABAC en "<resource>". Error en la directiva '<policyName>' con el mensaje : <message>.

UC_ABAC_INVALID_TAG_POLICY_VALUE

SQLSTATE: 42KDJ

Error al evaluar las directivas de ABAC en "<resource>". Error con el mensaje: Valor <tagValue> de directiva de etiqueta no válido para la clave <tagKey>.

UC_ABAC_MULTIPLE_ROW_FILTERS

SQLSTATE: 42KDJ

La evaluación de las políticas de ABAC en "<resource>" dio como resultado múltiples filtros de fila. Se permite al máximo un filtro de fila.

Política de Etiquetas Desconocidas de UC_ABAC

SQLSTATE: 42KDJ

Error al evaluar las directivas de ABAC en "<resource>". Error con el mensaje: Directiva de etiqueta desconocida: <tagKey>.

UC_ABAC_ALIAS_NO_COINCIDENTE_EN_COLUMNAS_USADAS

SQLSTATE: 42KDJ

Error al evaluar las directivas de ABAC en "<resource>". Error con el mensaje: El alias '<alias>' usado en USING COLUMNS no coincide con ninguna columna.

UC_ABAC_UNMATCHED_ON_COLUMN_ALIAS

SQLSTATE: 42KDJ

Error al evaluar las directivas de ABAC en "<resource>". Error en la directiva '<policyName>' con el mensaje: alias '<alias>' usado en ON COLUMN no coincide con ninguna columna.

UC_ABAC_UNMATCHED_USING_ALIAS

SQLSTATE: 42KDJ

Error al evaluar las directivas de ABAC en "<resource>". La directiva '<policyName>' falló con el mensaje: El alias '<alias>' no tiene una columna coincidente.

UC_ABAC_USING_REF_OF_NATIVE_MASKED_COLUMNS

SQLSTATE: 42KDJ

Error al evaluar las directivas de ABAC en "<resource>". Error con el mensaje: la directiva nativa de RLS/CM ha enmascarado la columna '<usingCol>' y no se puede usar como entrada para la directiva de ABAC '<policyName>'.

UC_ACCESS_REQUIRES_WORKSPACE

SQLSTATE: 42501

No se puede acceder al elemento protegible enlazado al área de trabajo porque el usuario no está asignado al área de trabajo asociada.

UC_ALTER_DLT_VIEW_OUTSIDE_DEFINING_PIPELINE

SQLSTATE: 0A000

No se permite alterar la vista "<viewFullName>" fuera de la canalización que lo definió. En su lugar, actualice la definición de vista desde la canalización que la definió (ID de canalización: <owningPipelineId>).

UC_ATLAS_NOT_ENABLED_FOR_CALLING_SERVICE

SQLSTATE: 0A000

Atlas no está habilitado para el servicio <serviceName>de llamada .

UC_AUTHZ_ACTION_NOT_SUPPORTED

SQLSTATE: 0AKUC

No se admite autorizar <actionName>; compruebe que el RPC invocado está implementado para este tipo de recurso.

UC_AWS_ASSUME_ROLE_FAILED

SQLSTATE: 42KDI

No se pudieron obtener las credenciales: el rol de AWS IAM en la credencial del catálogo de Unity no está configurado correctamente. Póngase en contacto con el administrador de metastore o el propietario de credenciales para actualizar la configuración en AWS.

UC_AWS_EMPTY_STORAGE_LOCATION

SQLSTATE: 22023

Ubicación de almacenamiento vacía.

UC_AWS_INVALID_S3_POLICY_PREFIX

SQLSTATE: 22KD1

Ruta de acceso s3 no válida para la ubicación de almacenamiento: la ruta de acceso <providedPath> de S3 no comienza con el prefijo esperado: <expectedPrefix>.

UC_AWS_UNSUPPORTED_S3_SCHEME

SQLSTATE: 22KD1

Ruta de acceso s3 no válida para la ubicación de almacenamiento: esquema no admitido encontrado: <providedScheme>. Los esquemas admitidos son: <supportedS3Schemes>.

UC_AZURE_BLOB_SERVICE_UNAVAILABLE

SQLSTATE: 57P03

Azure Blob service no está disponible temporalmente. Inténtalo de nuevo más tarde.

UC_AZURE_UDK_UNAUTHORIZED

SQLSTATE: 42501

La solicitud de clave de delegación de usuarios no está autorizada. Detalles: <details>

UC_BUILTIN_HMS_CONNECTION_CREATION_PERMISSION_DENIED

SQLSTATE: 42501

No se puede crear una conexión para un metastore de Hive integrado porque el usuario <userId> no es el administrador del área de trabajo <workspaceId>

UC_BUILTIN_HMS_CONNECTION_MODIFY_RESTRICTED_FIELD

SQLSTATE: 22023

Intente modificar un campo restringido en la conexión HMS integrada "<connectionName>". Solo se puede actualizar "warehouse_directory".

UC_CANNOT_RENAME_PARTITION_FILTERING_COLUMN

SQLSTATE: 428FR

No se pudo cambiar el nombre de la columna <originalLogicalColumn> de tabla porque se usa para el filtrado de particiones en <sharedTableName>. Para continuar, puede quitar la tabla del recurso compartido, cambiar el nombre de la columna y compartirla con las columnas de filtrado de particiones deseadas de nuevo. Sin embargo, esto puede interrumpir la consulta de streaming para el destinatario.

UC_CHILD_CREATION_FORBIDDEN_FOR_NON_UC_CLUSTER

SQLSTATE: 0AKUC

No se puede crear <securableType> '<securable>' en <parentSecurableType> '<parentSecurable>' porque la solicitud no procede de un clúster de UC.

UC_CONFLICTING_CONNECTION_ALLOW_LIST_OPTIONS

SQLSTATE: 42616

No se puede crear una conexión con una lista de permitidos que se superponga con una opción de conexión. Valor: <conflictingOptions>

UC_CONFLICTING_CONNECTION_OPTIONS

SQLSTATE: 42616

No se puede crear una conexión con las opciones de autenticación de nombre de usuario y contraseña y oauth. Elija uno.

UC_CONNECTION_CREDENTIALS_MAXIMUM_REACHED

SQLSTATE: 53400

Se ha alcanzado el número máximo de credenciales para el nombre de conexión "<connectionName>". Elimine las credenciales existentes antes de crear una nueva.

UC_CONNECTION_CREDENTIALS_NOT_EXIST_FOR_USER_WITH_LOGIN

SQLSTATE: 42517

No se encuentra la credencial para la identidad de usuario('<userIdentity>') para la conexión '<connectionName>'. Inicie sesión primero en la conexión visitando <connectionPage>

UC_CONNECTION_CREDENTIALS_TYPE_NOT_SUPPORTED

SQLSTATE: 42809

No se admite la creación de credenciales para el tipo protegible '<securableType>'. Tipos protegibles admitidos: <allowedSecurableType>.

UC_CONNECTION_EXISTS_FOR_CREDENTIAL

SQLSTATE: 42893

La credencial '<credentialName>' tiene una o varias conexiones dependientes. Puede usar la opción force para continuar actualizando o eliminando la credencial, pero es posible que las conexiones que usen esta credencial ya no funcionen.

UC_CONNECTION_EXPIRED_ACCESS_TOKEN

SQLSTATE: 42KDI

El token de acceso asociado a la conexión ha expirado. Actualice la conexión para reiniciar el flujo de OAuth para recuperar un token.

UC_CONNECTION_EXPIRED_REFRESH_TOKEN

SQLSTATE: 42KDI

El token de actualización asociado a la conexión ha expirado. Actualice la conexión para reiniciar el flujo de OAuth para recuperar un token nuevo.

UC_CONNECTION_IN_FAILED_STATE

SQLSTATE: 55000

La conexión está en el estado FAILED. Actualice la conexión con credenciales válidas para reactivarla.

UC_CONNECTION_MISSING_OPTION

SQLSTATE: 22023

Las conexiones de tipo protegible "<securableType>" deben incluir las siguientes opciones: <requiredOptions>.

UC_CONNECTION_MISSING_REFRESH_TOKEN

SQLSTATE: 42KDI

No hay ningún token de actualización asociado a la conexión. Actualice la integración del cliente de OAuth en el proveedor de identidades para devolver tokens de actualización y actualice o vuelva a crear la conexión para reiniciar el flujo de OAuth y recuperar los tokens necesarios.

UC_CONNECTION_OAUTH_EXCHANGE_FAILED

SQLSTATE: 42KDI

El intercambio de tokens de OAuth falló con el código de estado HTTP <httpStatus>. El mensaje de excepción o respuesta del servidor devuelto es: <response>

UC_CONNECTION_OPTION_NOT_SUPPORTED

SQLSTATE: 42616

Las conexiones de tipo protegible "<securableType>" no admiten las siguientes opciones: <optionsNotSupported>. Opciones admitidas: <allowedOptions>.

UC_COORDINATED_COMMITS_NOT_ENABLED

SQLSTATE: 56038

La compatibilidad con confirmaciones coordinadas no está habilitada. Póngase en contacto con el soporte técnico de Databricks.

UC_CREATE_FORBIDDEN_UNDER_INACTIVE_SECURABLE

SQLSTATE: 55019

No se puede crear <securableType> '<securableName>' porque está bajo un <parentSecurableType> '<parentSecurableName>' que no está activo. Elimine el elemento primario protegible y vuelva a crear el elemento primario.

UC_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED

SQLSTATE: 22KD1

No se pudo analizar el identificador del conector de acceso proporcionado: <accessConnectorId>. Compruebe su formato e inténtelo de nuevo.

UC_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN

SQLSTATE: 58000

No se pudo obtener un token de AAD para realizar la validación de permisos en la nube en un conector de acceso. Por favor, vuelva a intentar la acción.

UC_CREDENTIAL_INVALID_CLOUD_PERMISSIONS

SQLSTATE: ninguno asignado

El registro de una credencial requiere el rol de colaborador en el conector de acceso correspondiente con el identificador <accessConnectorId>. Póngase en contacto con el administrador de cuentas.

UC_CREDENTIAL_INVALID_CREDENTIAL_TYPE_FOR_PURPOSE

SQLSTATE: 22023

El tipo de credencial '<credentialType>' no se admite para el propósito '<credentialPurpose>'

UC_CREDENTIAL_PERMISSION_DENIED

SQLSTATE: ninguno asignado

Solo el administrador de la cuenta puede crear o actualizar una credencial con el tipo <storageCredentialType>.

UC_CREDENTIAL_TRUST_POLICY_IS_OPEN

SQLSTATE: 22023

La política de confianza del rol IAM para permitir que la cuenta de Databricks asuma el rol debe requerir un ID externo. Póngase en contacto con el administrador de la cuenta para agregar la condición de ID externo. Este comportamiento tiene como fin protegerse contra el problema del delegado confundido (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html).

UC_CREDENTIAL_WORKSPACE_API_PROHIBITED

SQLSTATE: 0A000

No se admite la creación o actualización de una credencial como administrador que no sea de cuenta en la API de nivel de cuenta. Por favor, use la API a nivel de área de trabajo en su lugar.

UC_DBR_TRUST_VERSION_TOO_OLD

SQLSTATE: 0A000

Databricks Runtime que se usa ya no admite esta operación. Use la versión más reciente (es posible que solo tenga que reiniciar el clúster).

UC_DELTA_ILLEGAL_BACKFILLED_VERSION

SQLSTATE: 22023

LatestBackfilledVersion <latestBackfilledVersion> inesperado en la confirmación (<version>, <commitType>).

UC_DELTA_ILLEGAL_CONCURRENT_MIGRATION

SQLSTATE: 0A000

No se admite la actualización simultánea ni la degradación a o desde una tabla administrada por catálogos. Asegúrese de que solo una transacción ejecuta el comando de migración a la vez. Se detectó un duplicado <commitType> .

UC_DELTA_ILLEGAL_MIGRATION_STATE_CHANGE

SQLSTATE: 22023

Transición de estado no válido del tipo <lastCommitType> de confirmación antiguo a nuevo <commitType>.

UC_DELTA_MIGRATION_STATE_CHANGE_VERSION_MISMATCH

SQLSTATE: 22023

Las versiones no coinciden con la transición de estado anterior (<lastVersion>, <lastCommitType>) a nueva (<version>, <commitType>).

UC_DELTA_UNIVERSAL_FORMAT_CANNOT_PARSE_ICEBERG_VERSION

SQLSTATE: 22P02

No se puede analizar la versión de la tabla de Apache Iceberg desde la ubicación de metadatos <metadataLocation>.

UC_DELTA_UNIVERSAL_FORMAT_CONCURRENT_WRITE

SQLSTATE: 40001

Se detectó una actualización simultánea a la misma versión de metadatos de Apache Iceberg.

UC_DELTA_UNIVERSAL_FORMAT_INVALID_METADATA_LOCATION

SQLSTATE: 22KD1

La ubicación <metadataLocation> de metadatos confirmada no es válida. No es un subdirectorio del directorio <tableRoot>raíz de la tabla .

UC_DELTA_UNIVERSAL_FORMAT_MISSING_FIELD_CONSTRAINT

SQLSTATE: 42601

Faltan los campos obligatorios de la información de conversión de formato delta de Apache Incremental.

UC_DELTA_UNIVERSAL_FORMAT_NON_CREATE_CONSTRAINT

SQLSTATE: 0A000

No se admite la configuración de la información de formato delta de Apache Incremental en la creación.

UC_DELTA_UNIVERSAL_FORMAT_TOO_LARGE_CONSTRAINT

SQLSTATE: 54000

La información de conversión de formato delta apache Incremental es demasiado grande.

UC_DELTA_UNIVERSAL_FORMAT_UPDATE_INVALID

SQLSTATE: 0A000

Los metadatos uniformes solo se pueden actualizar en tablas Delta con el modo uniforme habilitado.

UC_DEPENDENCY_DEPTH_LIMIT_EXCEEDED

SQLSTATE: 54000

<resourceType> La profundidad '<ref>' supera el límite (o tiene una referencia circular).

UC_DEPENDENCY_DOES_NOT_EXIST

SQLSTATE: 42704

<resourceType> '<ref>' no es válido porque uno de los recursos subyacentes no existe. <cause>

UC_DEPENDENCY_PERMISSION_DENIED

SQLSTATE: 42501

<resourceType> '<ref>' no tiene privilegios suficientes para ejecutarse porque el propietario de uno de los recursos subyacentes produjo un error en una comprobación de autorización. <cause>

UC_DUPLICATE_CONNECTION

SQLSTATE: 42710

Ya existe una conexión denominada "<connectionName>" con la misma dirección URL. Pida al propietario permiso para usar esa conexión en lugar de crear un duplicado.

UC_DUPLICATE_FABRIC_CATALOG_CREATION

SQLSTATE: 42710

Se intentó crear un catálogo de Fabric con la dirección URL "<storageLocation>" que coincide con un catálogo existente, que no está permitido.

UC_DUPLICATE_TAG_ASSIGNMENT_CREATION

SQLSTATE: 42710

La asignación de etiquetas con la clave de etiqueta <tagKey> ya existe

UC_ENTITY_DOES_NOT_HAVE_CORRESPONDING_ONLINE_CLUSTER

SQLSTATE: 57000

La entidad <securableType> <entityId> no tiene un clúster en línea correspondiente.

UC_ETAG_MISMATCH

SQLSTATE: 40001

Se ha modificado el recurso. Obtenga la etiqueta etag más reciente y vuelva a intentarlo. Valor de etag esperado: <expectedTokenValue> con la versión <expectedTokenVersion>del protocolo , el valor de etag recibido: <providedTokenValue> con la versión del protocolo <providedTokenVersion>

UC_EXCEEDS_MAX_FILE_LIMIT

SQLSTATE: 22023

Hay más de <maxFileResults> archivos. Especifique [max_results] para limitar el número de archivos devueltos.

UC_EXTERNAL_HMS_SCHEMA_LOCATION_NOT_FEDERATED

SQLSTATE: 22023

El esquema <schemaName> está en DEGRADED estado de aprovisionamiento, que se espera, ya que la ubicación del esquema eHMS/Glue no está federada.

UC_EXTERNAL_LOCATION_OP_NOT_ALLOWED

SQLSTATE: 22023

No se puede <opName> <extLoc> <reason> <suggestion>.

UC_FEATURE_DISABLED

SQLSTATE: 56038

<featureName> está deshabilitado actualmente en UC.

UC_FOREIGN_CATALOG_FOR_CONNECTION_TYPE_NOT_SUPPORTED

SQLSTATE: 42809

No se admite la creación de un catálogo externo para el tipo de conexión '<connectionType>'. Este tipo de conexión solo se puede usar para crear canalizaciones de ingesta administradas. Consulte la documentación de Databricks para obtener más información.

UC_FOREIGN_CREDENTIAL_CHECK_ONLY_FOR_READ_OPERATIONS

SQLSTATE: 0AKUC

Solo se pueden recuperar credenciales READ para tablas externas.

UC_FOREIGN_ENTITY_CREATION_FORBIDDEN_DURING_CONVERSION

SQLSTATE: 55019

La creación FOREIGN <securableType> de '<entityName>' en el catálogo '<catalogName>' está prohibida mientras el catálogo se convierte de FOREIGN a STANDARD.

UC_FOREIGN_HMS_SHALLOW_CLONE_MISMATCH

SQLSTATE: 22023

La tabla base y la tabla clonada deben estar en el mismo catálogo de clonaciones superficiales creadas en catálogos externos del metastore de Hive. La tabla base '<baseTableName>' está en el catálogo '<baseCatalogName>' y la tabla clon '<cloneTableName>' está en el catálogo '<cloneCatalogName>'.

UC_FOREIGN_KEY_CHILD_COLUMN_LENGTH_MISMATCH

SQLSTATE: 42830

Las columnas secundarias y las columnas principales de clave externa <constraintName> tienen diferentes tamaños.

UC_FOREIGN_KEY_COLUMN_MISMATCH

SQLSTATE: 42830

Las columnas principales de clave externa no coinciden con las columnas secundarias de clave principal a las que se hace referencia. Las columnas principales de clave externa son (<parentColumns>) y las columnas secundarias de clave principal son (<primaryKeyChildColumns>).

UC_FOREIGN_KEY_COLUMN_TYPE_MISMATCH

SQLSTATE: 42830

El tipo de columna secundaria de clave externa no coincide con el tipo de columna principal. La columna secundaria de clave externa <childColumnName> tiene el tipo <childColumnType> y la columna principal <parentColumnName> tiene el tipo <parentColumnType>.

UC_GCP_INVALID_PRIVATE_KEY

SQLSTATE: 42501

Acceso denegado. Causa: la clave privada de la cuenta de servicio no es válida.

UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT

SQLSTATE: 22032

La cuenta de Google Server OAuth Private Key debe ser un objeto válido JSON con campos obligatorios, asegúrese de proporcionar el archivo completo JSON generado desde la sección "CLAVES" de la página de detalles de la cuenta de servicio.

UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT_MISSING_FIELDS

SQLSTATE: 22032

La cuenta de Google Server OAuth Private Key debe ser un objeto válido JSON con campos obligatorios, asegúrese de proporcionar el archivo completo JSON generado desde la sección "CLAVES" de la página de detalles de la cuenta de servicio. Los campos que faltan son <missingFields>

UC_IAM_ROLE_NON_SELF_ASSUMING

SQLSTATE: 22023

Se encontró que el rol de Administración de identidad y acceso de esta credencial de almacenamiento no se asume a sí mismo. Compruebe la confianza de su rol y las directivas de Administración de identidad y acceso para asegurarse de que dicho rol pueda asumirse a sí mismo según la documentación de credenciales de almacenamiento de Unity Catalog.

UC_ICEBERG_COMMIT_CONFLICT

SQLSTATE: 40001

No se puede confirmar <tableName>: la ubicación de metadatos <baseMetadataLocation> ha cambiado desde <catalogMetadataLocation>.

UC_ICEBERG_COMMIT_INVALID_TABLE

SQLSTATE: 42809

No se puede realizar un commit administrado de Apache Iceberg en una tabla no administrada de Apache Iceberg: <tableName>.

UC_ICEBERG_COMMIT_MISSING_FIELD_CONSTRAINT

SQLSTATE: 42601

Faltan los campos obligatorios de la información de confirmación de Apache Iceberg administrada proporcionada.

UC_ID_MISMATCH

SQLSTATE: 40001

<type> <name> no tiene el ID <wrongId>. Vuelva a intentar la operación.

UC_LÍMITE_DE_TASA_DEL_ESQUEMA_DE_INFORMACIÓN_POR_METASTORE_DB_EXCEDIDO

SQLSTATE: 53300

Demasiadas solicitudes de esquema de información para el metastore. Espere un momento y vuelva a intentarlo. Si el problema persiste, considere la posibilidad de ajustar la selectividad de las consultas o póngase en contacto con el soporte técnico para obtener ayuda.

UC_INVALID_ACCESS_OBSOLESCENCIA_DE_TABLA_EN_LÍNEA_DE_BRICKSTORE

SQLSTATE: 0AKUC

La tabla en línea está en desuso. Ya no se admite la adquisición de acceso a la tabla <securableName> en línea.

UC_INVALID_ACCESS_BRICKSTORE_PG_CONNECTION

SQLSTATE: 0A000

Acceso no válido a la instancia de base de datos. <reason>

UC_INVALID_ACCESS_DBFS_ENTITY

SQLSTATE: 42501

Acceso no válido de <securableType> <securableName> en el catálogo <catalogName>federado. <reason>

UC_INVALID_AZURE_PATH

SQLSTATE: 22KD1

Ruta de acceso de Azure no válida: <path>

UC_INVALID_CLOUDFLARE_ACCOUNT_ID

SQLSTATE: 22023

Identificador de cuenta de Cloudflare no válido.

UC_INVALID_CREDENTIAL_CLOUD

SQLSTATE: 42616

Proveedor de nube de credenciales no válido '<cloud>'. Proveedor de nube permitido "<allowedCloud>".

UC_INVALID_CREDENTIAL_PURPOSE_VALUE

SQLSTATE: 42616

Valor '<value>' no válido para el 'propósito' de las credenciales. Valores permitidos '<allowedValues>'.

UC_INVALID_CREDENTIAL_TRANSITION

SQLSTATE: 42616

No se puede actualizar una conexión de <startingCredentialType> a <endingCredentialType>. La única transición válida es desde una conexión basada en nombre de usuario o contraseña a una conexión basada en tokens de OAuth.

UC_INVALID_CRON_STRING_FABRIC

SQLSTATE: 22P02

Cadena cron no válida. Se encontró "<cronString>" con la excepción de análisis "<message>"

UC_INVALID_DIRECT_ACCESS_MANAGED_TABLE

SQLSTATE: 22023

Tabla administrada de acceso directo no válida <tableName>. Asegúrese de que las definiciones de la tabla de origen y de la canalización no están definidas.

UC_INVALID_EMPTY_STORAGE_LOCATION

SQLSTATE: 55000

Ubicación de almacenamiento vacía inesperada para <securableType> "<securableName>" en el catálogo "<catalogName>". Para corregir este error, ejecute DESCRIBE SCHEMA <catalogName>. <securableName> y actualice esta página.

UC_INVALID_OPTIONS_UPDATE

SQLSTATE: 42601

Opciones no válidas proporcionadas para la actualización. Opciones no válidas: <invalidOptions>. Opciones permitidas: <allowedOptions>.

UC_INVALID_OPTION_VALUE

SQLSTATE: 42616

Valor '<value>' no válido para '<option>'. Valores permitidos '<allowedValues>'.

UC_INVALID_OPTION_VALUE_EMPTY

SQLSTATE: 42616

'<option>' no puede estar vacío. Escriba un valor no vacío.

UC_INVALID_POLICY_CONDITION

SQLSTATE: 42611

Condición no válida en la directiva '<policyName>'. Error de compilación con el mensaje "<message>".

UC_INVALID_R2_ACCESS_KEY_ID

SQLSTATE: 22023

Identificador de clave de acceso de R2 no válido.

UC_INVALID_R2_SECRET_ACCESS_KEY

SQLSTATE: 22023

Clave de acceso secreta de R2 no válida.

UC_INVALID_UPDATE_ON_SYSTEM_WORKSPACE_ADMIN_GROUP_OWNED_SECURABLE

SQLSTATE: 42501

No se puede actualizar <securableType> '<securableName>' ya que es propiedad de un grupo interno. Póngase en contacto con el soporte técnico de Databricks para obtener más información.

UC_INVALID_WASBS_EXTERNAL_LOCATION_STORAGE_CREDENTIAL

SQLSTATE: 22023

La credencial <storageCredentialName> de almacenamiento proporcionada no está asociada a la raíz de DBFS, lo cual prohíbe la creación de la ubicación externa wasbs.

UC_LOCATION_INVALID_SCHEME

SQLSTATE: 22KD1

La ubicación de almacenamiento tiene un esquema de URI no válido: <scheme>.

UC_MALFORMED_OAUTH_SERVER_RESPONSE

SQLSTATE: 58000

Faltaba la respuesta del servidor de tokens en el campo <missingField>. La respuesta del servidor devuelta es: <response>

UC_MANAGED_ICEBERG_UNSUPPORTED

SQLSTATE: 0AKUC

No se puede admitir la tabla de Apache Docker administrada en el punto de conexión actual.

UC_METASTORE_ASSIGNMENT_STATUS_INVALID

SQLSTATE: 22023

No se puede asignar "<metastoreAssignmentStatus>". Solo MANUALLY_ASSIGNABLE y AUTO_ASSIGNMENT_ENABLED son compatibles.

UC_METASTORE_CERTIFICATION_NOT_ENABLED

SQLSTATE: 0A000

La certificación de metastore no está habilitada.

UC_METASTORE_HAS_ACTIVE_MANAGED_ONLINE_CATALOGS

SQLSTATE: ninguno asignado

El metastore <metastoreId> tiene <numberManagedOnlineCatalogs> catálogos en línea administrados. Elimínelos explícitamente, e intente de nuevo la eliminación del metastore.

UC_METASTORE_QUOTA_EXCEEDED

SQLSTATE: 53400

Esta cuenta con identificador <accountId> ha alcanzado el límite de metastores en la región <region>.

UC_METASTORE_STORAGE_ROOT_CREDENTIAL_UPDATE_INVALID

SQLSTATE: 22023

No se puede definir la credencial raíz de metastore al actualizar la ubicación raíz de metastore. La credencial se capturará desde la ubicación externa principal del metastore.

UC_METASTORE_STORAGE_ROOT_DELETION_INVALID

SQLSTATE: 42501

Error en la eliminación de la ubicación raíz del almacenamiento de metastore. <reason>

UC_METASTORE_STORAGE_ROOT_READ_ONLY_INVALID

SQLSTATE: 22023

La raíz <securableType> de un metastore no puede ser de solo lectura.

UC_METASTORE_STORAGE_ROOT_UPDATE_INVALID

SQLSTATE: 22023

La raíz del almacenamiento de metastore no se puede actualizar una vez establecida.

UC_MODEL_INVALID_STATE

SQLSTATE: 55000

No se pueden generar credenciales "<opName>" temporales para la versión <modelVersion> del modelo con el estado <modelVersionStatus>. Las credenciales '<opName>' solo se pueden generar para las versiones del modelo con estado <validStatus>

UC_NATIVE_USING_REF_OF_ABAC_MASKED_COLUMNS

SQLSTATE: 42KDJ

Error al evaluar las directivas de ABAC en "<resource>". Error con el mensaje: la directiva de ABAC '<policyName>' ha enmascarado la columna '<usingCol>' y no se puede usar como entrada para una directiva RLS/CM nativa.

UC_NO_ORG_ID_IN_CONTEXT

SQLSTATE: 58000

Se intentó acceder al identificador de organización (o al identificador del área de trabajo), pero el contexto no tiene ninguno.

UC_ONELAKE_PATH_BAD_DOMAIN

SQLSTATE: 22KD1

La ruta de acceso "<path>" de Azure OneLake debe tener el nombre de dominio "<expectedHost>".

UC_ONELAKE_PATH_BAD_FORMAT

SQLSTATE: 22KD1

La ruta<path> de acceso "" de Azure OneLake debe tener el formato "abfss://_WORKSPACE_@<host>/".

UC_ONELAKE_PATH_MISSING_AT

SQLSTATE: 22KD1

La ruta de acceso de Azure OneLake '<path>' no contiene '@'.

UC_ONELAKE_PATH_MISSING_WORKSPACE

SQLSTATE: 22KD1

La ruta de acceso "<path>" de Azure OneLake debe contener un nombre de área de trabajo.

UC_ONLINE_CATALOG_NOT_MUTABLE

SQLSTATE: ninguno asignado

La <rpcName> solicitud actualiza <fieldName>. Use la pestaña proceso de la tienda en línea para modificar cualquier cosa que no sea un comentario, propietario y modo de aislamiento de un catálogo en línea.

UC_ONLINE_CATALOG_QUOTA_EXCEEDED

SQLSTATE: 53400

No se pueden crear más de <quota> tiendas en línea en el metastore y ya hay <currentCount>. Es posible que no tenga acceso a ninguna tienda en línea existente. Póngase en contacto con el administrador de metastore para conceder acceso o para obtener más instrucciones.

UC_ONLINE_INDEX_CATALOG_INVALID_CRUD

SQLSTATE: ninguno asignado

Los catálogos de índices en línea deben ser <action> a través de la API /vector-search.

UC_ONLINE_INDEX_CATALOG_NOT_MUTABLE

SQLSTATE: ninguno asignado

La <rpcName> solicitud actualiza <fieldName>. Use la API /vector-search para modificar cualquier cosa que no sea un comentario, propietario y modo de aislamiento de un catálogo de índices en línea.

UC_ONLINE_INDEX_CATALOG_QUOTA_EXCEEDED

SQLSTATE: 53400

No se pueden crear más de <quota> catálogos de índices en línea en el metastore y ya hay <currentCount>. Es posible que no tenga acceso a ningún catálogo de índices en línea existente. Póngase en contacto con el administrador de metastore para conceder acceso o para obtener más instrucciones.

UC_ONLINE_INDEX_INVALID_CRUD

SQLSTATE: 0A000

Los índices en línea deben ser <action> a través de la API /vector-search.

UC_ONLINE_STORE_INVALID_CRUD

SQLSTATE: ninguno asignado

Las tiendas en línea se deben <action> a través de la pestaña proceso de tiendas en línea.

UC_ONLINE_TABLE_COLUMN_NAME_TOO_LONG

SQLSTATE: 54000

El nombre <columnName> de la columna de la tabla de origen es demasiado largo. La longitud máxima es <maxLength> caracteres.

UC_ONLINE_TABLE_PRIMARY_KEY_COLUMN_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT

SQLSTATE: 42P16

La columna <columnName> no se puede usar como columna de clave principal de la tabla en línea porque no forma parte de la restricción existente PRIMARY KEY de la tabla de origen. Para obtener más información, consulte <docLink>

UC_ONLINE_TABLE_TIMESERIES_KEY_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT

SQLSTATE: 42P16

La columna <columnName> no se puede usar como clave de serie temporal de la tabla en línea porque no es una columna de serie temporal de la restricción existente PRIMARY KEY de la tabla de origen. Para obtener más información, consulte <docLink>

UC_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED

SQLSTATE: 53400

No se pueden crear más de <quota> tablas en línea por tabla de origen.

UC_ONLINE_VIEW_ACCESS_DENIED

SQLSTATE: 0AKUC

El acceso al recurso <resourceName> requiere el uso de un almacenamiento de SQL sin servidor. Asegúrese de que el almacenamiento que se usa para ejecutar una consulta o ver un catálogo de bases de datos en la interfaz de usuario no tiene servidor. Para obtener más información, consulte <docLink>

UC_ONLINE_VIEW_CONTINUOUS_QUOTA_EXCEEDED

SQLSTATE: 53400

No se pueden crear más de <quota> visualizaciones en línea continuas en la tienda en línea y ya hay <currentCount>. Es posible que no tenga acceso a ninguna vista en línea existente. Póngase en contacto con el administrador de la tienda en línea para conceder acceso o para obtener más instrucciones.

UC_ONLINE_VIEW_DOES_NOT_SUPPORT_DMK

SQLSTATE: ninguno asignado

<tableKind> no se puede crear en una ubicación de almacenamiento con claves gestionadas de Databricks. Elija otro esquema o catálogo en una ubicación de almacenamiento sin cifrado de claves administradas de Databricks.

UC_ONLINE_VIEW_INVALID_CATALOG

SQLSTATE: 42809

Catálogo <catalogName> no válido con la variante <catalogKind> que se va a crear <tableKind> dentro. <tableKind> solo se puede crear en catálogos de variantes <validCatalogKinds>.

UC_ONLINE_VIEW_INVALID_SCHEMA

SQLSTATE: 42809

Esquema <schemaName> no válido con la variante <schemaKind> que se va a crear <tableKind> dentro. <tableKind> solo se puede crear en esquemas de tipos: <validSchemaKinds>.

UC_ONLINE_VIEW_INVALID_TTL_TIME_COLUMN_TYPE

SQLSTATE: 42809

No se puede usar la columna <columnName> de tipo <columnType> como una columna de hora TTL. Los tipos permitidos son <supportedTypes>.

UC_OPERATION_NOT_SUPPORTED

SQLSTATE: 0AKUC

Operación no compatible con el catálogo de Unity. <detailedMessage>

UC_OUT_OF_AUTHORIZED_PATHS_SCOPE

SQLSTATE: 22023

Error de ruta de acceso autorizada. La <securableType> ubicación <location> no se define dentro de las rutas de acceso autorizadas para el catálogo: <catalogName>. Pida al propietario del catálogo que agregue la ruta de acceso a la lista de rutas de acceso autorizadas definidas en el catálogo.

UC_OVERLAPPED_AUTHORIZED_PATHS

SQLSTATE: 22023

La opción "authorized_paths" contiene rutas de acceso superpuestas: <overlappingPaths>. Asegúrese de que cada ruta de acceso es única y no se interseca con otras personas de la lista.

UC_PAGINATION_AND_QUERY_ARGS_MISMATCH

SQLSTATE: 22023

El argumento de consulta '<arg>' se establece en '<received>' que es diferente al valor utilizado en la primera llamada de paginación ('<expected>')

UC_PATH_FILTER_ALLOWLIST_VIOLATION

SQLSTATE: 42501

La credencial '<credentialName>' es una credencial predeterminada del área de trabajo que solo puede acceder a los datos en las siguientes rutas de acceso: '<allowlist>'. Asegúrese de que cualquier ruta de acceso a la que se accede mediante esta credencial está en una de estas rutas de acceso.

UC_PATH_FILTER_DENYLIST_VIOLATION

SQLSTATE: 42501

La credencial '<credentialName>' es una credencial predeterminada del área de trabajo que no puede acceder a los datos en la siguiente ruta de acceso restringida: '<targetPath>'.

UC_PATH_TOO_LONG

SQLSTATE: 54000

La ruta de acceso de entrada es demasiado larga. Longitud permitida: <maxLength>. Longitud de entrada: <inputLength>. Entrada: <path>...

UC_PER_METASTORE_DATABASE_CONCURRENCY_LIMIT_EXCEEDED

SQLSTATE: 54000

Se superó el límite de simultaneidad del metastore <metastoreId>. Inténtelo de nuevo más tarde. Si el problema persiste, póngase en contacto con el soporte técnico. Código de error #UC-<errorCodeArbitraryFiveLettersUpperCase>

UC_POSTGRESQL_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED

SQLSTATE: 53400

No es posible crear más de <quota> tablas de base de datos sincronizadas por cada tabla de origen.

UC_PRIMARY_KEY_ON_NULLABLE_COLUMN

SQLSTATE: 42831

No se puede crear la clave <constraintName> principal porque sus columnas secundarias <childColumnNames> admiten valores NULL. Cambie la nulabilidad de la columna y vuelva a intentarlo.

UC_REQUEST_LIMIT_EXCEEDED

SQLSTATE: 53400

La solicitud se rechazó porque la organización ha superado el límite de velocidad. Vuelva a intentar realizar la solicitud más tarde.

UC_REQUEST_TIMEOUT

SQLSTATE: 57KD0

Esta operación tardó demasiado tiempo.

UC_RESOURCE_QUOTA_EXCEEDED

SQLSTATE: 53400

No se pueden crear <amount> <resourceType>(s) en <parentResourceType> <parentResourceId> (recuento estimado: <currentCount>, límite: <quotaLimit>).

UC_ROOT_STORAGE_S3_BUCKET_NAME_CONTAINS_DOT

SQLSTATE: 22KD1

El catálogo de Unity no admite el nombre del cubo S3 de almacenamiento raíz que contiene puntos: <uri>

UC_SCHEMA_EMPTY_STORAGE_LOCATION

SQLSTATE: 22KD1

Ubicación de almacenamiento vacía inesperada para el esquema "<schemaName>" en el catálogo "<catalogName>". Asegúrese de que el esquema utiliza un esquema de ruta de <validPathSchemesListStr>.

UC_SERVERLESS_UNTRUSTED_DOMAIN_STORAGE_TOKEN_MINTING

SQLSTATE: 42501

Los cuadernos Serverless de Python y Scala tienen prohibido recuperar credenciales de almacenamiento temporales del Unity Catalog en áreas de trabajo con restricción de red.

UC_ELIMINACIÓN_TABLA_BASE_CLONACIÓN_SUPERFICIAL

SQLSTATE: 42S02

No se puede acceder al clon superficial '<tableFullName>' porque se ha eliminado su tabla base '<baseTableName>'.

STORAGE_CREDENTIALSUC__WITH_EXTERNAL_LOCATION_DELETION_DENIED

SQLSTATE: 42893

La credencial de almacenamiento '<credentialName>' tiene <extTablesCount> tablas externas directamente dependientes y <extLocationsCount> ubicaciones de almacenamiento dependientes. Puede usar la opción forzar para eliminarlos, pero los datos de almacenamiento administrados que usan esta credencial de almacenamiento ya no se pueden purgar en el Catálogo de Unity.

STORAGE_CREDENTIALSUC__WITH_EXTERNAL_LOCATION_UPDATE_DENIED

SQLSTATE: 42893

La credencial de almacenamiento '<credentialName>' tiene <extTablesCount> tablas externas dependientes directamente y <extLocationsCount> ubicaciones de almacenamiento dependientes; use la opción force para actualizar de todos modos.

UC_STORAGE_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED

SQLSTATE: 22KD1

No se pudo analizar el identificador del conector de acceso proporcionado: <accessConnectorId>. Compruebe su formato e inténtelo de nuevo.

UC_STORAGE_CREDENTIAL_DBFS_ROOT_CREATION_PERMISSION_DENIED

SQLSTATE: 42501

No se puede crear una credencial de almacenamiento para la raíz de DBFS porque el usuario: <userId> no es el administrador del área de trabajo: <workspaceId>

UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_DBFS_ENABLED

SQLSTATE: 0AKUC

Todavía no se admite la credencial de almacenamiento raíz de DBFS para áreas de trabajo con DBFS habilitado para firewall

UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_NOT_SUPPORTED

SQLSTATE: 0A000

Aún no se admite la credencial de almacenamiento raíz de DBFS para el área de trabajo actual

UC_STORAGE_CREDENTIAL_DBFS_ROOT_WORKSPACE_DISABLED

SQLSTATE: 0A000

La raíz de DBFS no está habilitada para el área de trabajo <workspaceId>

UC_STORAGE_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN

SQLSTATE: 58000

No se pudo obtener un token de AAD para realizar la validación de permisos en la nube en un conector de acceso. Por favor, vuelva a intentar la acción.

UC_STORAGE_CREDENTIAL_INVALID_CLOUD_PERMISSIONS

SQLSTATE: 42501

El registro de una credencial de almacenamiento requiere el rol de colaborador en el conector de acceso correspondiente con el identificador <accessConnectorId>. Póngase en contacto con el administrador de cuentas.

UC_STORAGE_CREDENTIAL_METASTORE_ROOT_DELETION_DENIED

SQLSTATE: 55000

No se puede eliminar la credencial de almacenamiento '<credentialName>' porque está configurada como credencial raíz de este metastore. Actualice la credencial raíz del metastore antes de intentar la eliminación.

UC_STORAGE_CREDENTIAL_PERMISSION_DENIED

SQLSTATE: 42501

Solo el administrador de la cuenta puede crear o actualizar una credencial de almacenamiento con el tipo <storageCredentialType>.

UC_STORAGE_CREDENTIAL_SERVICE_PRINCIPAL_MISSING_VALIDATION_TOKEN

SQLSTATE: 42KDI

Falta el token de validación de la entidad de servicio. Proporcione un token de Entra ID con ámbito de ARM válido en el encabezado de solicitud "X-Databricks-Azure-SP-Management-Token" y vuelva a intentarlo. Para obtener más información, compruebe https://docs.databricks.com/api/workspace/storagecredentials

UC_STORAGE_CREDENTIAL_TRUST_POLICY_IS_OPEN

SQLSTATE: 22023

La política de confianza del rol IAM para permitir que la cuenta de Databricks asuma el rol debe requerir un ID externo. Póngase en contacto con el administrador de la cuenta para agregar la condición de ID externo. Este comportamiento tiene como fin protegerse contra el problema del delegado confundido (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html).

UC_STORAGE_CREDENTIAL_WASBS_NOT_DBFS_ROOT

SQLSTATE: 22KD1

La ubicación <location> no está dentro de la raíz de DBFS, debido a que no se puede crear una credencial de almacenamiento <storageCredentialName>

UC_STORAGE_CREDENTIAL_WORKSPACE_API_PROHIBITED

SQLSTATE: 0AKD1

No se admite la creación o actualización de una credencial de almacenamiento como administrador que no sea de cuenta en la API de nivel de cuenta. Por favor, use la API a nivel de área de trabajo en su lugar.

UC_STORAGE_CREDENTIAL_WS_BUCKET_INVALID_LOCATION

SQLSTATE: 22KD1

La ubicación <requestedLocation> no está dentro del contexto permitido <allowedLocation>

UC_STORAGE_CREDENTIAL_WS_INTERNAL_CATALOG_NOT_SUPPORTED

SQLSTATE: 56038

Aún no se admite la credencial de almacenamiento del catálogo interno del área de trabajo en el área de trabajo actual

UC_SYSTEM_SCHEMA_NOT_AVAILABLE_FOR_ENABLEMENT

SQLSTATE: 57P03

El esquema <systemSchema> del sistema no está disponible actualmente para la habilitación. Inténtelo de nuevo más tarde.

UC_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED

SQLSTATE: 22023

No se pueden conceder privilegios en <securableType> al grupo <principal>generado por el sistema.

UC_TABLE_IS_LOCKED_FOR_CATALOG_MANAGED_TABLE_MIGRATION

SQLSTATE: 55000

La tabla '<tableId>' está bloqueada temporalmente para una migración de tablas administradas por catálogos. Las transacciones de esta tabla se bloquean hasta que se complete la migración. Vuelva a intentar la transacción en breve.

UC_TABLE_IS_NOT_CATALOG_OWNED

SQLSTATE: 0A000

La solicitud para realizar commit/getCommits para la tabla "<tableId>" requiere habilitar la función de propiedad del catálogo en la tabla.

UC_TAG_ASSIGNMENT_WITH_KEY_DOES_NOT_EXIST

SQLSTATE: 42704

La asignación de etiquetas con la clave de etiqueta <tagKey> no existe

UC_TEMPORARY_CREDENTIAL_OPERATION_NOT_SUPPORTED

SQLSTATE: 0A000

No se admite la operación de credenciales temporales.

UC_UNDROP_RESOURCE_ID_ALREADY_EXISTS

SQLSTATE: 42710

No se puede quitar '<resourceType>' porque ya existe un '<resourceType>' con el identificador '<resourceId>'.

UC_UNDROP_RESOURCE_NAME_ALREADY_EXISTS

SQLSTATE: 42710

No se puede quitar '<resourceType>' porque ya existe un '<resourceType>' con el nombre '<resourceName>'.

UC_UNDROP_RESOURCE_NOT_READY

SQLSTATE: 55000

No se puede quitar '<resourceType>' porque el '<resourceType>' con el identificador '<resourceId>' no está listo para restaurarse, vuelva a intentarlo más adelante.

UC_RESTAURAR_RECURSO_PASADO_EL_PERIODO_DE_RETENCIÓN_PERSONALIZADO

SQLSTATE: 55019

No se puede quitar '<resourceType>' porque el '<resourceType>' con el identificador '<resourceId>' está fuera de su período de restauración personalizado.

UC_UNDROP_RESOURCE_PAST_RECOVERABLE_WINDOW

SQLSTATE: 55019

No se puede recuperar "<resourceType>" porque el "<resourceType>" con el identificador "<resourceId>" está fuera del período de restauración admitido de "<maxRestorationPeriodDay>" días.

UC_UNIQUE_CONSTRAINT_CHILD_COLUMNS_ALREADY_EXIST

SQLSTATE: 42891

No se pudo crear la restricción UNIQUE<newConstraintName>: la tabla <tableName> ya tiene una restricción UNIQUE: <existingConstraintName>, que tiene el mismo conjunto de columnas secundarias.

UC_UNIQUE_CONSTRAINT_NOT_SUPPORTED

SQLSTATE: 56038

No se pudo operar con la restricción UNIQUE<constraintName>: la restricción UNIQUE no está habilitada.

UC_UNSUPPORTED_HTTP_CONNECTION_BASE_PATH

SQLSTATE: 22KD1

Se ha proporcionado una ruta de acceso base no válida; la ruta de acceso base debe ser parecida a /api/resources/v1. Ruta de acceso no admitida: <path>

UC_UNSUPPORTED_HTTP_CONNECTION_HOST

SQLSTATE: 22KD1

Se ha proporcionado un nombre de host no válido, el nombre de host debe ser parecido a https://www.databricks.com sin un sufijo en la ruta de acceso. Servidor no admitido: <host>

UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH

SQLSTATE: 22KD1

Solo se admiten caracteres básicos ASCII Latin/Latin-1 en rutas de acceso externas de ubicación, volumen o tabla. Ruta de acceso no admitida: <path>

UC_UPDATE_FORBIDDEN_FOR_PROVISIONING_SECURABLE

SQLSTATE: 55019

No se puede actualizar <securableType> "<securableName>" porque se está aprovisionando.

UC_USING_REF_OF_MASKED_COLUMNS

SQLSTATE: 42KDJ

Error al evaluar las directivas de ABAC en "<resource>". Error con el mensaje: la directiva de ABAC '<existingMaskingPolicy>' ha enmascarado la columna '<usingCol>' y no se puede usar en la directiva '<policyName>'.

UC_WRITE_CONFLICT

SQLSTATE: 40001

La <type> <name> ha sido modificada por otra solicitud. Vuelva a intentar la operación.

UNDROP_TABLE_NOT_FOUND

SQLSTATE: 42704

No se puede anular la tabla porque ninguna tabla con nombre <tableFullName> califica para undrop. Es posible que esta tabla ya no se haya eliminado, se elimine más allá del período máximo de restauración o nunca hubiera existido.

UNITY_CATALOG_EXTERNAL_COORDINATED_COMMITS_REQUEST_DENIED

SQLSTATE: 42517

La solicitud para realizar commit/getCommits para la tabla "<tableId>" desde fuera del entorno de proceso habilitado por Databricks Unity Catalog ha sido denegada por razones de seguridad. Póngase en contacto con el soporte técnico de Databricks para las integraciones con el catálogo de Unity.

UNITY_CATALOG_EXTERNAL_CREATE_STAGING_TABLE_REQUEST_DENIED

SQLSTATE: 42517

Se deniega la solicitud para crear la tabla de preparación "<tableFullName>" desde fuera del entorno de proceso compatible con Unity Catalog de Databricks por razones de seguridad. Póngase en contacto con el soporte técnico de Databricks para las integraciones con el catálogo de Unity.

COLUMN_MASKSUNITY_CATALOG_EXTERNAL_CREATE_TABLE_FAILED_VALIDATION__DEFINED

SQLSTATE: 42517

Se deniega la solicitud para crear la tabla '<tableFullName>' desde un entorno de proceso externo activado para el Catálogo de Unity de Databricks. No se admiten máscaras de columna al crear tablas externamente.

UNITY_CATALOG_EXTERNAL_CREATE_TABLE_FAILED_VALIDATION_DATA_SOURCE_FORMAT_NOT_DELTA

SQLSTATE: 42517

Se deniega la solicitud para crear la tabla '<tableFullName>' desde un entorno de proceso externo activado para el Catálogo de Unity de Databricks. El formato del origen de datos debe ser DELTA para crear una tabla externamente, en su lugar es "<dataSourceFormat>".

UNITY_CATALOG_EXTERNAL_CREATE_TABLE_FAILED_VALIDATION_TABLE_TYPE_NOT_EXTERNAL

SQLSTATE: 42517

Se deniega la solicitud para crear la tabla '<tableFullName>' desde un entorno de proceso externo activado para el Catálogo de Unity de Databricks. El tipo de tabla debe ser EXTERNAL para crear una tabla externamente, en su lugar es "<tableType>".

UNITY_CATALOG_EXTERNAL_CREATE_TABLE_INFO_CONTAINS_INVALID_FIELDS

SQLSTATE: 22023

La creación de tablas externas solo permite estos campos: [name, catalog_name, schema_name, table_type, data_source_format, columnas, storage_location y propiedades].

UNITY_CATALOG_EXTERNAL_CREATE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED

SQLSTATE: 42517

Se deniega la solicitud para crear una tabla no externa "<tableFullName>" desde fuera del entorno de proceso habilitado por Databricks Unity Catalog por motivos de seguridad. Póngase en contacto con el soporte técnico de Databricks para las integraciones con el catálogo de Unity.

UNITY_CATALOG_EXTERNAL_DELETE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED

SQLSTATE: 42517

No se admite la solicitud para eliminar la tabla no externa "<tableFullName>" desde fuera del entorno de proceso habilitado para Unity Catalog de Databricks.

UNITY_CATALOG_EXTERNAL_GENERATE_PATH_CREDENTIALS_DENIED

SQLSTATE: 42517

Se deniega la solicitud para generar credenciales de acceso para la ruta de acceso "<path>" desde fuera del entorno de computación habilitado para el Catálogo de Unity de Databricks por razones de seguridad. Póngase en contacto con el soporte técnico de Databricks para las integraciones con el catálogo de Unity.

UNITY_CATALOG_EXTERNAL_GENERATE_TABLE_CREDENTIALS_DENIED

SQLSTATE: 42517

Se deniega la solicitud para generar credenciales de acceso para la tabla "<tableId>" desde fuera del entorno de computación habilitado por el Unity Catalog de Databricks debido a razones de seguridad. Póngase en contacto con el soporte técnico de Databricks para las integraciones con el catálogo de Unity.

UNITY_CATALOG_EXTERNAL_GENERATE_TEMP_PATH_CRED_FAILED_VALIDATION_CREDENTIAL_ID_DEFINED

SQLSTATE: 42517

Se deniega la solicitud para generar credenciales de ruta de acceso temporal desde fuera del entorno de proceso habilitado para el catálogo de Unity de Databricks. No se debe definir el identificador de credencial al generar credenciales de ruta de acceso temporal externamente.

UNITY_CATALOG_EXTERNAL_GENERATE_TEMP_PATH_CRED_FAILED_VALIDATION_MAKE_PATH_ONLY_PARENT_DEFINED

SQLSTATE: 42517

Se deniega la solicitud para generar credenciales de ruta de acceso temporal desde fuera del entorno de proceso habilitado para el catálogo de Unity de Databricks. make_path_only_parent no se debe definir al generar credenciales de ruta de acceso temporal externamente.

UNITY_CATALOG_EXTERNAL_GENERATE_VOLUME_CREDENTIALS_DENIED

SQLSTATE: 42517

Se deniega la solicitud para generar credenciales de acceso para el volumen "<volumeId>" desde fuera del entorno de proceso habilitado para El catálogo de Unity de Databricks para la seguridad. Póngase en contacto con el soporte técnico de Databricks para las integraciones con el catálogo de Unity.

UNITY_CATALOG_EXTERNAL_GENERATE_VOLUME_CREDENTIALS_FOR_SECURABLE_KIND_NOT_SUPPORTED

SQLSTATE: 0AKUC

Se deniega la solicitud para generar credenciales de acceso para "<volumeSecurableKind>" desde fuera del entorno de proceso habilitado para El catálogo de Unity de Databricks para la seguridad. Póngase en contacto con el soporte técnico de Databricks para las integraciones con el catálogo de Unity.

UNITY_CATALOG_EXTERNAL_GET_FOREIGN_CREDENTIALS_DENIED

SQLSTATE: 42517

Se deniega la solicitud para obtener credenciales externas para elementos protegibles de fuera del entorno de proceso habilitado para Unity Catalog de Databricks por motivos de seguridad.

UNITY_CATALOG_EXTERNAL_UPDATA_METADATA_SNAPSHOT_DENIED

SQLSTATE: 42517

Se deniega, por motivos de seguridad, la solicitud de actualizar instantáneas de metadatos desde fuera del entorno de procesamiento habilitado para Databricks Unity Catalog.

ESQUEMA_DE_UBICACIÓN_NO_ADMITIDO

SQLSTATE: 22KD1

<fieldName> tiene un esquema <scheme>de URI no válido. Los esquemas de URI válidos incluyen <validSchemes>. Ruta de acceso no válida: <path>.

ACTUALIZAR_TABLA_DEL_SISTEMA

SQLSTATE: 42501

No se puede modificar la tabla propiedad del sistema. La tabla '<tableName>' es una tabla propiedad del sistema.

WRITE_CREDENTIALS_NOT_SUPPORTED_FOR_LEGACY_MANAGED_ONLINE_TABLE

SQLSTATE: 0AKUC

Solicitud no válida para obtener credenciales de escritura para una tabla en línea gestionada en un catálogo online.

API de archivos

FILES_API_API_IS_NOT_ENABLED

SQLSTATE: ninguno asignado

<api_name> La API no está habilitada

FILES_API_API_IS_NOT_ENABLED_FOR_CLOUD_PATHS

SQLSTATE: ninguno asignado

No se admite el método solicitado de Files API para rutas de acceso a la nube

FILES_API_AWS_ACCESS_DENIED

SQLSTATE: ninguno asignado

AWS deniega el acceso al cubo de almacenamiento.

FILES_API_AWS_ALL_ACCESS_DISABLED

SQLSTATE: ninguno asignado

Todo el acceso al cubo de almacenamiento se ha deshabilitado en AWS.

FILES_API_AWS_BUCKET_DOES_NOT_EXIST

SQLSTATE: ninguno asignado

El cubo de almacenamiento no existe en AWS.

FILES_API_AWS_FORBIDDEN

SQLSTATE: ninguno asignado

AWS prohíbe el acceso al cubo de almacenamiento.

FILES_API_AWS_INVALID_AUTHORIZATION_HEADER

SQLSTATE: ninguno asignado

El área de trabajo está mal configurada: debe estar en la misma región que el cubo de almacenamiento raíz del área de trabajo de AWS.

FILES_API_AWS_INVALID_BUCKET_NAME

SQLSTATE: ninguno asignado

El nombre del cubo de almacenamiento no es válido.

FILES_API_AWS_KMS_KEY_DISABLED

SQLSTATE: ninguno asignado

Las claves kmS configuradas para acceder al cubo de almacenamiento están deshabilitadas en AWS.

FILES_API_AWS_UNAUTHORIZED

SQLSTATE: ninguno asignado

El acceso al recurso de AWS no está autorizado.

FILES_API_AZURE_ACCOUNT_IS_DISABLED

SQLSTATE: ninguno asignado

La cuenta de almacenamiento está deshabilitada en Azure.

FILES_API_AZURE_AUTHORIZATION_PERMISSION_MISMATCH

SQLSTATE: ninguno asignado

Error de incompatibilidad de permisos de autorización.

FILES_API_AZURE_CMK_NOT_FOUND

SQLSTATE: ninguno asignado

No se encuentra la clave de cifrado administrada.

FILES_API_AZURE_CMK_SOFT_DELETED

SQLSTATE: ninguno asignado

La clave de cifrado administrada se ha eliminado temporalmente.

FILES_API_AZURE_CONTAINER_DOES_NOT_EXIST

SQLSTATE: ninguno asignado

El contenedor de Azure no existe.

FILES_API_AZURE_CREDENTIAL_NOT_FOUND

SQLSTATE: ninguno asignado

No se encontró la credencial de Azure. Es posible que falte o no se pueda acceder a las credenciales de Azure.

FILES_API_AZURE_FORBIDDEN

SQLSTATE: ninguno asignado

Azure prohíbe el acceso al contenedor de almacenamiento.

FILES_API_AZURE_HAS_A_LEASE

SQLSTATE: ninguno asignado

Azure respondió que actualmente hay un arrendamiento en el recurso. Inténtalo de nuevo más tarde.

FILES_API_AZURE_INSUFFICIENT_ACCOUNT_PERMISSION

SQLSTATE: ninguno asignado

La cuenta a la que se accede no tiene permisos suficientes para ejecutar esta operación.

FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_CONFIGURATION

SQLSTATE: ninguno asignado

No se admite la configuración de la cuenta a la que se accede.

FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_NAME

SQLSTATE: ninguno asignado

No se puede acceder a la cuenta de almacenamiento en Azure: nombre de cuenta de almacenamiento no válido.

FILES_API_AZURE_KEY_BASED_AUTHENTICATION_NOT_PERMITTED

SQLSTATE: ninguno asignado

El almacén de Key Vault no se encuentra en Azure. Compruebe la configuración de las claves administradas por el cliente.

FILES_API_AZURE_KEY_VAULT_KEY_NOT_FOUND

SQLSTATE: ninguno asignado

La clave del almacén de claves de Azure no se encuentra en Azure. Compruebe la configuración de las claves administradas por el cliente.

FILES_API_AZURE_KEY_VAULT_VAULT_NOT_FOUND

SQLSTATE: ninguno asignado

El almacén de Key Vault no se encuentra en Azure. Compruebe la configuración de las claves administradas por el cliente.

FILES_API_AZURE_MI_ACCESS_CONNECTOR_NOT_FOUND

SQLSTATE: ninguno asignado

No se encontró la credencial de identidad administrada de Azure con Access Connector. Esto podría deberse a que los controles de acceso IP rechazaron la solicitud.

FILES_API_AZURE_OPERATION_TIMEOUT

SQLSTATE: ninguno asignado

La operación no se pudo completar en el tiempo permitido.

FILES_API_AZURE_PATH_INVALID

SQLSTATE: ninguno asignado

La ruta de acceso solicitada no es válida para Azure.

FILES_API_AZURE_PATH_IS_IMMUTABLE

SQLSTATE: ninguno asignado

La ruta de acceso solicitada es inmutable.

FILES_API_AZURE_UNSUPPORTED_HEADER

SQLSTATE: ninguno asignado

No se admite uno de los encabezados especificados en la operación.

FILES_API_CANNOT_PARSE_URL_PARAMETER

SQLSTATE: ninguno asignado

No se puede analizar el parámetro URL.

FILES_API_CATALOG_NOT_FOUND

SQLSTATE: ninguno asignado

<unity_catalog_error_message>

FILES_API_CLOUD_RESOURCE_EXHAUSTED

SQLSTATE: ninguno asignado

<message>

FILES_API_CLOUD_STORAGE_PROVIDER_CONNECTION_ISSUE

SQLSTATE: ninguno asignado

Hay un problema de conexión para alcanzar <cloud_storage_provider>. Inténtelo de nuevo más tarde.

FILES_API_COLON_IS_NOT_SUPPORTED_IN_PATH

SQLSTATE: ninguno asignado

El carácter ":" no se admite en las rutas de acceso.

FILES_API_CONSUMER_NETWORK_ZONE_NOT_ALLOWED

SQLSTATE: ninguno asignado

No se permite la zona de red del consumidor "<consumer_network_zone>" en la zona de red del solicitante "<requester_network_zone>".

FILES_API_CONTROL_PLANE_NETWORK_ZONE_NOT_ALLOWED

SQLSTATE: ninguno asignado

No se permite la zona de red del plano de control de Databricks.

FILES_API_CREDENTIAL_NOT_FOUND

SQLSTATE: ninguno asignado

No se encontró la credencial.

FILES_API_DIRECTORIES_CANNOT_HAVE_BODIES

SQLSTATE: ninguno asignado

Se proporcionó un cuerpo, pero los directorios no pueden tener un cuerpo de archivo.

FILES_API_DIRECTORY_IS_NOT_EMPTY

SQLSTATE: ninguno asignado

El directorio no está vacío. Esta operación no se admite en directorios no vacíos.

FILES_API_DIRECTORY_IS_NOT_FOUND

SQLSTATE: ninguno asignado

No se encuentra el directorio al que se accede.

FILES_API_DIRECTORY_ZIP_DOWNLOAD_FILE_LIMIT_EXCEEDED

SQLSTATE: ninguno asignado

El directorio contiene demasiados archivos para la descarga ZIP. Máximo <max_file_count> de archivos permitidos.

FILES_API_DMK_ENCRYPTION_ROOT_KEY_DISABLED

SQLSTATE: ninguno asignado

La clave raíz del cifrado administrado por el cliente está deshabilitada.

FILES_API_DUPLICATED_HEADER

SQLSTATE: ninguno asignado

La solicitud contenía varias copias de un encabezado que solo se permite una vez.

FILES_API_DUPLICATE_QUERY_PARAMETER

SQLSTATE: ninguno asignado

El parámetro de consulta '<parameter_name>' debe estar presente exactamente una vez, pero se proporcionó varias veces.

FILES_API_EMPTY_BUCKET_NAME

SQLSTATE: ninguno asignado

El nombre del espacio de almacenamiento de DBFS está vacío.

FILES_API_ENCRYPTION_KEY_PERMISSION_DENIED

SQLSTATE: ninguno asignado

El usuario no tiene acceso a la clave de cifrado.

FILES_API_ENCRYPTION_KEY_RETRIEVAL_OPERATION_TIMEOUT

SQLSTATE: ninguno asignado

No se pudo completar la operación para recuperar la clave de cifrado en el tiempo permitido.

FILES_API_ENTITY_TOO_LARGE

SQLSTATE: ninguno asignado

El objeto supera el tamaño máximo permitido.

FILES_API_ERROR_EXPIRED_TTL

SQLSTATE: ninguno asignado

El TTL ha expirado.

FILES_API_ERROR_INVALID_TTL

SQLSTATE: ninguno asignado

El TTL no es válido.

FILES_API_ERROR_KEY_FOR_WORKSPACE_IS_NOT_FOUND

SQLSTATE: ninguno asignado

No se encuentra la clave del área de trabajo.

FILES_API_ERROR_MISSING_REQUIRED_PARAM

SQLSTATE: ninguno asignado

Falta un parámetro obligatorio en la dirección URL.

FILES_API_ERROR_TTL_IN_THE_FUTURE

SQLSTATE: ninguno asignado

El período de vida es una fecha futura.

FILES_API_ERROR_URL_INVALID_ISSUER_SHARD_NAME

SQLSTATE: ninguno asignado

El nombre del buzón de compartición del emisor no es válido.

FILES_API_EXPIRATION_TIME_MUST_BE_PRESENT

SQLSTATE: ninguno asignado

Debe haber una hora de expiración.

FILES_API_EXPIRED_TOKEN

SQLSTATE: ninguno asignado

El token proporcionado ha expirado.

FILES_API_EXPIRE_TIME_MUST_BE_IN_THE_FUTURE

SQLSTATE: ninguno asignado

El valor de ExpireTime debe estar en el futuro.

FILES_API_EXPIRE_TIME_TOO_FAR_IN_FUTURE

SQLSTATE: ninguno asignado

El TTL solicitado es mayor que el soportado (1 hora)

FILES_API_EXTERNAL_LOCATION_PATH_OVERLAP_OTHER_UC_STORAGE_ENTITY

SQLSTATE: ninguno asignado

<unity_catalog_error_message>

FILES_API_FILE_ALREADY_EXISTS

SQLSTATE: ninguno asignado

El archivo que se está creando ya existe.

FILES_API_FILE_NOT_FOUND

SQLSTATE: ninguno asignado

No se encuentra el archivo al que se accede.

FILES_API_FILE_OR_DIRECTORY_ENDS_IN_DOT

SQLSTATE: ninguno asignado

No se admiten archivos ni directorios que terminan en el carácter '.'.

FILES_API_FILE_SIZE_EXCEEDED

SQLSTATE: ninguno asignado

El tamaño del archivo no debe superar los <max_download_size_in_bytes> bytes, y se encontraron <size_in_bytes> bytes.

FILES_API_GCP_ACCOUNT_IS_DISABLED

SQLSTATE: ninguno asignado

El acceso al cubo de almacenamiento se ha deshabilitado en GCP.

FILES_API_GCP_BUCKET_DOES_NOT_EXIST

SQLSTATE: ninguno asignado

El cubo de almacenamiento no existe en GCP.

FILES_API_GCP_FORBIDDEN

SQLSTATE: ninguno asignado

GCP ha prohibido el acceso al bucket.

FILES_API_GCP_IAM_AUTHENTICATION_FAILURE

SQLSTATE: ninguno asignado

Error de autenticación para la operación de IAM de GCP.

FILES_API_GCP_IAM_CREDENTIALS_NOT_FOUND

SQLSTATE: ninguno asignado

Las credenciales de GCP especificadas no existen o no se puede tener acceso a ellas.

FILES_API_GCP_IAM_PERMISSION_DENIED

SQLSTATE: ninguno asignado

Permiso denegado para la operación de IAM de GCP.

FILES_API_GCP_KEY_DELETED

SQLSTATE: ninguno asignado

La clave de cifrado se ha eliminado o ya no es accesible.

FILES_API_GCP_KEY_DISABLED_OR_DESTROYED

SQLSTATE: ninguno asignado

La clave de cifrado administrada por el cliente configurada para esa ubicación está deshabilitada o destruida.

FILES_API_GCP_REQUEST_IS_PROHIBITED_BY_POLICY

SQLSTATE: ninguno asignado

Las solicitudes de GCP al cubo están prohibidas por la directiva. Compruebe los controles de servicio de VPC.

FILES_API_GCP_PROBLEMA_CON_CUENTA_DE_PROYECTO_DEL_USUARIO

SQLSTATE: ninguno asignado

Hay un problema con el proyecto de GCP usado en la solicitud que impide que la operación se complete correctamente.

FILES_API_HOST_TEMPORARILY_NOT_AVAILABLE

SQLSTATE: ninguno asignado

El host del proveedor de nube no está disponible temporalmente; inténtelo de nuevo más tarde.

FILES_API_INVALID_CONTENT_LENGTH

SQLSTATE: ninguno asignado

El valor del encabezado de longitud de contenido debe ser un entero mayor o igual que 0.

FILES_API_INVALID_CONTINUATION_TOKEN

SQLSTATE: ninguno asignado

El token de página proporcionado no es válido.

FILES_API_INVALID_HEADER_VALUE

SQLSTATE: ninguno asignado

El valor del encabezado '<header_name>' no es válido.

FILES_API_INVALID_HOSTNAME

SQLSTATE: ninguno asignado

El nombre de host no es válido.

FILES_API_INVALID_HTTP_METHOD

SQLSTATE: ninguno asignado

Método HTTP no válido. Se esperaba "<expected>", pero se obtuvo "<actual>".

FILES_API_INVALID_METASTORE_ID_HEADER

SQLSTATE: ninguno asignado

El encabezado del identificador de metastore no es válido.

FILES_API_INVALID_PAGE_TOKEN

SQLSTATE: ninguno asignado

Token de página no válido

FILES_API_INVALID_PATH

SQLSTATE: ninguno asignado

Ruta de acceso no válida: <validation_error>

FILES_API_INVALID_RANGE

SQLSTATE: ninguno asignado

El encabezado de intervalo no es válido.

FILES_API_INVALID_RESOURCE_FULL_NAME

SQLSTATE: ninguno asignado

<unity_catalog_error_message>

FILES_API_INVALID_SESSION_TOKEN

SQLSTATE: ninguno asignado

Token de sesión no válido

FILES_API_INVALID_SESSION_TOKEN_TYPE

SQLSTATE: ninguno asignado

Tipo de token de sesión no válido. Se esperaba "<expected>", pero se obtuvo "<actual>".

FILES_API_INVALID_TIMESTAMP

SQLSTATE: ninguno asignado

La marca de tiempo no es válida.

FILES_API_INVALID_UPLOAD_TYPE

SQLSTATE: ninguno asignado

Tipo de carga no válido. Se esperaba "<expected>", pero se obtuvo "<actual>".

FILES_API_INVALID_URL

SQLSTATE: ninguno asignado

Dirección URL no válida

FILES_API_INVALID_URL_PARAMETER

SQLSTATE: ninguno asignado

La dirección URL pasada como parámetro no es válida

FILES_API_INVALID_VALUE_FOR_OVERWRITE_QUERY_PARAMETER

SQLSTATE: ninguno asignado

El parámetro de consulta "overwrite" debe tener uno de los siguientes valores: true,false, pero tuvo: <got_values>.

FILES_API_INVALID_VALUE_FOR_QUERY_PARAMETER

SQLSTATE: ninguno asignado

El parámetro de consulta '<parameter_name>' debe ser uno de los siguientes: <expected> pero era: <actual>

FILES_API_MALFORMED_REQUEST_BODY

SQLSTATE: ninguno asignado

Cuerpo de la solicitud con formato incorrecto.

FILES_API_MANAGED_CATALOG_FEATURE_DISABLED

SQLSTATE: ninguno asignado

<unity_catalog_error_message>

FILES_API_METASTORE_NOT_FOUND

SQLSTATE: ninguno asignado

<unity_catalog_error_message>

FILES_API_METHOD_IS_NOT_ENABLED_FOR_JOBS_BACKGROUND_COMPUTE_ARTIFACT_STORAGE

SQLSTATE: ninguno asignado

El método solicitado de la API de archivos no es compatible con el almacenamiento de artefactos de proceso en segundo plano de los trabajos.

FILES_API_MISSING_CONTENT_LENGTH

SQLSTATE: ninguno asignado

El encabezado content-length es necesario en la solicitud.

FILES_API_MISSING_QUERY_PARAMETER

SQLSTATE: ninguno asignado

El parámetro de consulta '<parameter_name>' es necesario, pero falta en la solicitud.

FILES_API_MISSING_REQUIRED_PARAMETER_IN_REQUEST

SQLSTATE: ninguno asignado

Falta un parámetro obligatorio en la solicitud.

FILES_API_MLFLOW_PERMISSION_DENIED

SQLSTATE: ninguno asignado

<mlflow_error_message>

FILES_API_MLFLOW_RESOURCE_EXHAUSTED (Recurso agotado de MLflow en la API de archivos)

SQLSTATE: ninguno asignado

Se ha excedido el límite de solicitudes al comunicarse con el servicio mlflow.

FILES_API_MODEL_VERSION_IS_NOT_READY

SQLSTATE: ninguno asignado

La versión del modelo aún no está lista

FILES_API_MULTIPART_UPLOAD_ABORT_PRESIGNED_URL_NOT_SUPPORTED

SQLSTATE: ninguno asignado

Las direcciones URL prefirmadas para anular cargas de varias partes no se admiten para los archivos almacenados en <cloud_storage_provider>.

FILES_API_MULTIPART_UPLOAD_ABORT_UPLOAD_NOT_SUPPORTED

SQLSTATE: ninguno asignado

No se admite la anulación de cargas de varias partes para los archivos almacenados en <cloud_storage_provider>.

FILES_API_MULTIPART_UPLOAD_EMPTY_PART_LIST

SQLSTATE: ninguno asignado

La lista de elementos debe tener al menos un elemento, pero estaba vacío.

FILES_API_MULTIPART_UPLOAD_INVALID_PART

SQLSTATE: ninguno asignado

No se encontraron una o varias de las partes especificadas. Es posible que el elemento no se haya cargado o que la etiqueta de entidad especificada no coincida con la etiqueta de entidad del elemento.

FILES_API_MULTIPART_UPLOAD_INVALID_PART_NUMBER

SQLSTATE: ninguno asignado

Los números de pieza deben ser mayores o iguales que <min> y menores o iguales que <max>.

FILES_API_MULTIPART_UPLOAD_MISSING_ETAG

SQLSTATE: ninguno asignado

Se deben proporcionar ETags para los archivos almacenados en <cloud_storage_provider>. No se proporcionó ninguna ETag o está vacía.

FILES_API_MULTIPART_UPLOAD_MODIFIED_STORAGE_ENTITY_STATE

SQLSTATE: ninguno asignado

El estado interno de la entidad de almacenamiento se ha modificado desde que se inició la carga, por ejemplo, porque la ruta de acceso del archivo no apunta a la misma ubicación de almacenamiento en la nube subyacente. Continúe iniciando una nueva sesión de carga.

FILES_API_MULTIPART_UPLOAD_NON_TRAILING_PARTS_WITH_DIFFERENT_SIZES

SQLSTATE: ninguno asignado

Los elementos cargados como parte de una sesión de carga de varias partes deben tener el mismo tamaño para los archivos almacenados en <cloud_storage_provider>, excepto para la última parte, que puede ser menor.

FILES_API_MULTIPART_UPLOAD_PART_SIZE_OUT_OF_RANGE

SQLSTATE: ninguno asignado

El tamaño de las partes cargadas como parte de una sesión de carga de varias partes debe ser mayor o igual que <min> y menor o igual que <max>.

FILES_API_MULTIPART_UPLOAD_SESSION_NOT_FOUND

SQLSTATE: ninguno asignado

No se encuentra la sesión de carga. Es posible que se haya anulado o completado.

FILES_API_MULTIPART_UPLOAD_UNORDERED_PART_LIST

SQLSTATE: ninguno asignado

La lista de elementos debe ordenarse por el número de pieza, pero no se ordenó.

FILES_API_NON_ZERO_CONTENT_LENGTH

SQLSTATE: ninguno asignado

El encabezado "longitud del contenido" debe ser cero para esta solicitud.

FILES_API_NOT_ENABLED_FOR_PLACE

SQLSTATE: ninguno asignado

La API de archivos para <place> no está habilitada para esta área de trabajo o cuenta

FILES_API_NOT_SUPPORTED_FOR_INTERNAL_WORKSPACE_STORAGE

SQLSTATE: ninguno asignado

No se admite el método solicitado de Files API para el almacenamiento interno del área de trabajo.

FILES_API_OPERATION_MUST_BE_PRESENT

SQLSTATE: ninguno asignado

Debe existir la operación.

FILES_API_OPERATION_TIMEOUT

SQLSTATE: ninguno asignado

Se agota el tiempo de espera de la operación.

FILES_API_PAGE_SIZE_MUST_BE_GREATER_OR_EQUAL_TO_ZERO

SQLSTATE: ninguno asignado

page_size debe ser mayor o igual que 0

FILES_API_PATH_BASED_ACCESS_TO_TABLE_WITH_FILTER_NOT_ALLOWED

SQLSTATE: ninguno asignado

<unity_catalog_error_message>

FILES_API_PATH_END_WITH_A_SLASH

SQLSTATE: ninguno asignado

Las rutas de acceso que terminan en el carácter '/' representan directorios. Esta API no admite operaciones en directorios.

FILES_API_PATH_IS_A_DIRECTORY

SQLSTATE: ninguno asignado

La ruta de acceso especificada apunta a un directorio existente. Esta API no admite operaciones en directorios.

FILES_API_PATH_IS_A_FILE

SQLSTATE: ninguno asignado

La ruta de acceso especificada apunta a un archivo existente. Esta API no admite operaciones en archivos.

FILES_API_PATH_IS_NOT_A_VALID_UTF8_ENCODED_URL

SQLSTATE: ninguno asignado

la ruta de acceso dada no era una dirección URL codificada UTF-8 válida.

FILES_API_PATH_IS_NOT_ENABLED_FOR_DATAPLANE_PROXY

SQLSTATE: ninguno asignado

La ruta de acceso dada no está habilitada para el proxy del plano de datos.

FILES_API_PATH_MUST_BE_PRESENT

SQLSTATE: ninguno asignado

Debe existir la ruta de acceso.

FILES_API_PATH_NOT_SUPPORTED

SQLSTATE: ninguno asignado

<rejection_message>

FILES_API_PATH_TOO_LONG

SQLSTATE: ninguno asignado

La ruta de acceso del archivo proporcionada es demasiado larga.

FILES_API_PRECONDITION_FAILED

SQLSTATE: ninguno asignado

Error en la solicitud debido a una condición previa.

FILES_API_PRESIGNED_URLS_FOR_MODELS_NOT_SUPPORTED

SQLSTATE: ninguno asignado

En este momento no se admite la API de archivos para direcciones URL prefirmadas para modelos.

FILES_API_R2_CREDENTIALS_DISABLED

SQLSTATE: ninguno asignado

R2 no está soportado en este momento.

FILES_API_RANGE_NOT_SATISFIABLE

SQLSTATE: ninguno asignado

El intervalo solicitado no es satisfiable.

FILES_API_RECURSIVE_LIST_IS_NOT_SUPPORTED

SQLSTATE: ninguno asignado

No se admite la enumeración recursiva de archivos.

FILES_API_REQUESTER_NETWORK_ZONE_UNKNOWN

SQLSTATE: ninguno asignado

No se puede deducir la zona de red del solicitante.

FILES_API_REQUEST_GOT_ROUTED_INCORRECTLY

SQLSTATE: ninguno asignado

La solicitud se enruta incorrectamente

FILES_API_REQUEST_MUST_INCLUDE_ACCOUNT_INFORMATION

SQLSTATE: ninguno asignado

La solicitud debe incluir información de la cuenta

FILES_API_REQUEST_MUST_INCLUDE_RECIPIENT_INFORMATION

SQLSTATE: ninguno asignado

La solicitud debe incluir información del destinatario.

FILES_API_REQUEST_MUST_INCLUDE_USER_INFORMATION

SQLSTATE: ninguno asignado

La solicitud debe incluir información de usuario

FILES_API_REQUEST_MUST_INCLUDE_WORKSPACE_INFORMATION

SQLSTATE: ninguno asignado

La solicitud debe incluir información del área de trabajo

FILES_API_RESOURCE_IS_READONLY

SQLSTATE: ninguno asignado

El recurso es de solo lectura.

FILES_API_RESOURCE_NOT_FOUND

SQLSTATE: ninguno asignado

<unity_catalog_error_message>

FILES_API_SCHEMA_NOT_FOUND

SQLSTATE: ninguno asignado

<unity_catalog_error_message>

FILES_API_SECURE_URL_CANT_BE_ACCESSED

SQLSTATE: ninguno asignado

No se puede acceder a la dirección URL.

FILES_API_SIGNATURE_VERIFICATION_FAILED

SQLSTATE: ninguno asignado

Error en la comprobación de la firma.

FILES_API_STORAGE_ACCESS_CONTEXT_INVALID

SQLSTATE: ninguno asignado

El contexto de acceso al almacenamiento no es válido.

FILES_API_STORAGE_CONTEXT_IS_NOT_SET

SQLSTATE: ninguno asignado

No se puede acceder a la configuración de almacenamiento de esta área de trabajo.

FILES_API_STORAGE_CREDENTIAL_NOT_FOUND

SQLSTATE: ninguno asignado

<unity_catalog_error_message>

FILES_API_TABLE_TYPE_NOT_SUPPORTED

SQLSTATE: ninguno asignado

No se admite la API de archivos para <table_type>

FILES_API_UC_AUTHENTICATION_FAILURE

SQLSTATE: ninguno asignado

<unity_catalog_error_message>

FILES_API_UC_IAM_ROLE_NON_SELF_ASSUMING

SQLSTATE: ninguno asignado

<unity_catalog_error_message>

FILES_API_UC_MODEL_INVALID_STATE

SQLSTATE: ninguno asignado

<unity_catalog_error_message>

FILES_API_UC_PERMISSION_DENIED

SQLSTATE: ninguno asignado

<unity_catalog_error_message>

FILES_API_UC_RESOURCE_EXHAUSTED

SQLSTATE: ninguno asignado

<message>

FILES_API_UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH

SQLSTATE: ninguno asignado

<unity_catalog_error_message>

FILES_API_UC_VOLUME_NAME_CHANGED

SQLSTATE: ninguno asignado

<unity_catalog_error_message>

FILES_API_UNABLE_TO_RENEW_AZURE_MANAGED_IDENTITIES

SQLSTATE: ninguno asignado

No se puede renovar la identidad administrada de Azure.

FILES_API_UNEXPECTED_ERROR_WHILE_PARSING_URI

SQLSTATE: ninguno asignado

Error inesperado al analizar el URI

FILES_API_UNEXPECTED_QUERY_PARAMETERS

SQLSTATE: ninguno asignado

Parámetros de consulta inesperados: <unexpected_query_parameters>

FILES_API_UNKNOWN_METHOD

SQLSTATE: ninguno asignado

Método desconocido <method>

FILES_API_UNKNOWN_SERVER_ERROR

SQLSTATE: ninguno asignado

Error de servidor desconocido.

FILES_API_UNKNOWN_URL_HOST

SQLSTATE: ninguno asignado

El host de dirección URL es desconocido.

FILES_API_UNSUPPORTED_AUTHENTICATION_METHOD

SQLSTATE: ninguno asignado

La solicitud no se autenticó correctamente.

FILES_API_UNSUPPORTED_HTTP_METHOD

SQLSTATE: ninguno asignado

El método HTTP no es compatible.

FILES_API_UNSUPPORTED_PARAMETERS_COMBINATION

SQLSTATE: ninguno asignado

No se admite la combinación de parámetros.

FILES_API_UNSUPPORTED_PATH

SQLSTATE: ninguno asignado

La API de archivos no admite la ruta de acceso proporcionada. Asegúrese de que la ruta de acceso proporcionada no contenga instancias de las secuencias '../' o './'. Asegúrese de que la ruta de acceso proporcionada no utilice barras diagonales dobles o triples (por ejemplo, "///").

FILES_API_UPLOAD_PART_URLS_COUNT_MUST_BE_GREATER_THAN_ZERO

SQLSTATE: ninguno asignado

El parámetro de entrada 'count' debe ser mayor que 0.

FILES_API_URL_GENERATION_DISABLED

SQLSTATE: ninguno asignado

La generación de direcciones URL presignadas no está habilitada para <cloud>.

FILES_API_VOLUME_TYPE_NOT_SUPPORTED

SQLSTATE: ninguno asignado

La API de archivos no es compatible con <volume_type>.

FILES_API_WORKSPACE_IS_CANCELED

SQLSTATE: ninguno asignado

Se ha cancelado el espacio de trabajo.

FILES_API_WORKSPACE_IS_NOT_FOUND

SQLSTATE: ninguno asignado

No se puede acceder a la configuración de almacenamiento de esta área de trabajo.

Canalizaciones declarativas de Spark de Lakeflow

ABAC_POLICIES_NOT_SUPPORTED

SQLSTATE: 0A000

Las directivas de ABAC no se admiten en tablas definidas dentro de un pipeline.

Quite las directivas o póngase en contacto con el soporte técnico de Databricks.

ABNORMAL_DRIVER_TERMINATION

SQLSTATE: 57P02

El controlador del clúster <clusterId> finalizó anómalamente debido a <terminationCause>. Consulte los registros de controladores para obtener más detalles.

ACTIVE_UPDATE_EXISTS_FOR_LINKED_PIPELINE

SQLSTATE: 42000

Ya existe una actualización activa '<updateId>' para la canalización vinculada '<linkedPipelineId>'.

ACTIVE_UPDATE_EXISTS_FOR_PIPELINE

SQLSTATE: 42000

Ya existe una actualización activa "<updateId>" para la canalización "<pipelineId>".

ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE

SQLSTATE: 0A000

ALTER no está permitido en tablas administradas por

Para más información, consulte ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE

ALTER_SCHEDULE_SCHEDULE_DOES_NOT_EXIST

SQLSTATE: 42704

No se puede modificar <type> en una tabla sin una programación o desencadenador existente. Agregue una programación o un desencadenador a la tabla antes de intentar modificarla.

API_QUOTA_EXCEEDED

SQLSTATE: KD000

Ha superado la cuota de API del origen de datos <sourceName>.

Para más información, consulte API_QUOTA_EXCEEDED.

APPLY_CHANGES_ERROR

SQLSTATE: 42000

Error durante la AUTO CDC operación.

Para más información, consulte APPLY_CHANGES_ERROR

APPLY_CHANGES_FROM_SNAPSHOT_ERROR

SQLSTATE: 22000

Error durante la AUTO CDC FROM SNAPSHOT operación.

Para más información, consulte APPLY_CHANGES_FROM_SNAPSHOT_ERROR

APPLY_CHANGES_FROM_SNAPSHOT_EXPECTATIONS_NOT_SUPPORTED

SQLSTATE: 0A000

El conjunto de datos <datasetName> tiene definidas las expectativas, pero actualmente no se admiten las expectativas para los conjuntos de datos que usan AUTO CDC FROM SNAPSHOT.

Elimine las expectativas para corregir este error. Como alternativa, considere usar la siguiente estructura para aplicar expectativas combinando AUTO CDC y AUTO CDC FROM SNAPSHOT.

  1. Aplique cambios desde una instantánea mediante el tipo 1 de SCD en una tabla intermedia sin previsiones.

  2. Lea los cambios de la tabla intermedia mediante spark.readStream.option("readChangeFeed", "true").table.

  3. Aplique los cambios de la tabla intermedia a la tabla de destino final mediante dlt.apply_changes con los parámetros siguientes, además de los usados actualmente con dlt.apply_changes_from_snapshot:

  • Para controlar los cambios: apply_as_deletes = "_change_type == 'delete'"

  • Para quitar las columnas agregadas por el CDF: except_column_list = ["_change_type", "_commit_version", "_commit_timestamp"]

  1. Incluya el conjunto actual de expectativas en la tabla objetivo final que se usa para dlt.apply_changes.

APPLY_CHANGES_PARTIAL_UPDATES_NOT_ENABLED

SQLSTATE: 0A000

La característica COLUMNS TO UPDATE está en versión preliminar y no está habilitada para el área de trabajo. Póngase en contacto con su representante de Databricks para obtener más información sobre esta característica y acceder a la versión preliminar privada.

APLICAR_ENTORNO_CLÚSTER_NO_DISPONIBLE

SQLSTATE: 57000

El cómputo de canalización para <pipelineId> no está disponible. Es posible que el cómputo de la canalización se haya detenido o que todavía esté empezando.

Inténtelo de nuevo más tarde cuando la capacidad de cómputo esté totalmente disponible. Si el problema persiste, póngase en contacto con el soporte técnico de Databricks.

APLICAR_ENTORNO_CLÚSTER_NO_ENCONTRADO

SQLSTATE: 57000

No se encuentra el cálculo de canalización para <pipelineId>. Es posible que este proceso de canalización nunca se haya iniciado o ya se haya detenido. Inicie la canalización.

antes de aplicar la configuración del entorno.

APLICAR_ENTORNO_NO_SOPORTADO

SQLSTATE: 0A000

El endpoint ApplyEnvironment no es compatible.

ARCHITECTURE_MIGRATION_FAILURE

SQLSTATE: 55000

Para más información, consulte ARCHITECTURE_MIGRATION_FAILURE.

ARCLIGHT_REQUIRES_SERVERLESS

SQLSTATE: 42000

Las canalizaciones dirigidas a catálogos que usan almacenamiento predeterminado deben utilizar computación sin servidor. Si no tiene acceso a la computación sin servidor, póngase en contacto con Databricks para habilitar esta funcionalidad para su espacio de trabajo.

AUTO_FULL_REFRESH_DISABLED

SQLSTATE: 42000

La actualización completa automática está deshabilitada para la tabla <tableName>.

AUTO_FULL_REFRESH_NOT_ALLOWED

SQLSTATE: 42000

Error de actualización completa automática para la tabla <tableName> porque <reason>.

AUTO_FULL_REFRESH_THROTTLED

SQLSTATE: 42000

Error de actualización completa automática. La tabla <tableName> se actualizó automáticamente a <timestamp> intervalo mínimo y antes de que la siguiente actualización completa automática sea: <minInterval> minutos.

AZURE_ACTIVE_DIRECTORY_AUTHENTICATION_FAILED

SQLSTATE: 28000

Error de autenticación de Azure Active Directory (AADSTS5000224).

Id. de seguimiento: <traceId>, id. de correlación: <correlationId>.

Compruebe que Azure Active Directory está configurado y accesible correctamente. Si el problema persiste, póngase en contacto con el servicio de soporte técnico de Microsoft.

AZURE_MANAGED_IDENTITY_CREDENTIAL_NOT_FOUND

SQLSTATE: 28000

No se encontró la credencial de identidad administrada de Azure con el identificador <accessConnectorId> del conector de access para la cuenta <accountId>.

Compruebe que la credencial existe y está configurada correctamente.

AZURE_STORAGE_HOSTNAME_RESOLUTION_FAILED

SQLSTATE: 08001

No se pudo resolver el nombre de host de Azure Storage: <hostname>.

Compruebe que DNS está configurado correctamente y que la cuenta de almacenamiento es accesible desde la red.

AZURE_STORAGE_REQUEST_NOT_AUTHORIZED

SQLSTATE: 42501

El perímetro de seguridad de red no autorizó la solicitud a Azure Storage.

Compruebe que el almacenamiento está configurado y accesible correctamente.

BIGQUERY_DATA_CONNECTOR_SOURCE_CATALOG_MISSING

SQLSTATE: KD000

Ha ocurrido un error en el conector de datos de BigQuery.

Falta el "catálogo de origen" (ID de Proyecto de GCP) en la especificación de ingesta.

Especifique el catálogo de origen (id. de proyecto) en la especificación de ingesta para resolver este problema.

CANNOT_ADD_COLUMN_TO_INCLUDE_COLUMNS

SQLSTATE: 42000

Se agregan nuevas columnas (<columnNames>) al campo include_columns en la definición de canalización de la tabla <qualifiedTableName>. Actualice la tabla completa para evitar la posible pérdida de datos o quitar estas columnas de include_columns.

CANNOT_ADD_STORAGE_LOCATION

SQLSTATE: 42000

No se puede agregar la ubicación de almacenamiento a una canalización existente con catálogo definido, si desea establecer una ubicación de almacenamiento, cree una nueva canalización.

Catálogo existente: '<catalog>'.

Ubicación de almacenamiento solicitada: <storageLocation>.

CANNOT_COMPOSE_DECORATOR

SQLSTATE: ninguno asignado

El @<decoratorName> decorador no se puede componer con <otherDecorators>.

CANNOT_EXCLUDE_NON_EXISTENT_COLUMN

SQLSTATE: 42703

La definición de canalización excluye las columnas (<columnNames>) que no existen en la tabla <qualifiedTableName> de origen <sourceType>. Quite estas columnas del campo exclude_columns.

CANNOT_FILTER_OUT_REQUIRED_COLUMN

SQLSTATE: 42000

La definición de canalización no incluye las columnas necesarias (<columnNames>) en la tabla <qualifiedTableName> de origen <sourceType> para la ingesta. Agréguelos a include_columns o quítelos de exclude_columns.

CANNOT_INCLUDE_NON_EXISTENT_COLUMN

SQLSTATE: 42703

La definición de canalización incluye columnas (<columnNames>) que no existen o que no son accesibles en la tabla <qualifiedTableName> de origen <sourceType>. Quite estas columnas del campo include_columns.

CANNOT_INGEST_TABLE_WITHOUT_PRIMARY_KEY

SQLSTATE: 42000

La tabla <qualifiedTableName> del origen <sourceType> no tiene una clave principal.

Especifique una clave principal en la configuración del conector para ingerir la tabla si existe.

CANNOT_MODIFY_PIPELINE_OWNER_FOR_UC_PIPELINES

SQLSTATE: 42000

Todavía no se admite el cambio de propietario para canalizaciones que no son de UC.

CANNOT_MODIFY_PIPELINE_OWNER_PERMISSION_DENIED

SQLSTATE: 42000

Solo los administradores del área de trabajo pueden cambiar el propietario de la canalización.

CANNOT_MODIFY_PIPELINE_OWNER_WHEN_MISSING

SQLSTATE: 42000

El nuevo propietario no existe.

CANNOT_MODIFY_PIPELINE_TYPE

SQLSTATE: 42000

pipeline_type no se puede actualizar.

Tipo de canalización actual: <currentPipelineType>.

Se ha actualizado pipeline_type: <requestedPipelineType>.

CANNOT_MODIFY_STORAGE_LOCATION

SQLSTATE: 42000

No se puede modificar la ubicación de almacenamiento de una canalización existente.

Ubicación de almacenamiento existente: "<existingStorageLocation>".

Ubicación de almacenamiento solicitada: <requestedStorageLocation>.

CANNOT_REMOVE_COLUMN_FROM_EXCLUDE_COLUMNS

SQLSTATE: 42000

Las columnas (<columnNames>) se omiten del campo exclude_columns en la definición de la canalización de la tabla <qualifiedTableName>. Actualice la tabla completa para evitar la posible pérdida de datos o volver a agregar estas columnas a exclude_columns.

CANNOT_SET_CATALOG_FOR_HMS_PIPELINE

SQLSTATE: 42613

No se puede agregar catálogo a una canalización existente con ubicación de almacenamiento definida, si desea usar UC, cree una nueva canalización y establezca el catálogo.

Ubicación de almacenamiento existente: '<storageLocation>'

Catálogo solicitado: '<catalog>'

CANNOT_SET_LINKED_PIPELINE_ID

SQLSTATE: 42000

Los identificadores de canalización son los mismos. Si establece los identificadores de canalización vinculados, se producirá un interbloqueo.

CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE

SQLSTATE: 0AKD0

El campo "schema" especificado en la configuración de canalización para la canalización "<pipelineName>" es ilegal. Reason:

Para más información, consulte CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE

CANNOT_SET_TOGETHER

SQLSTATE: ninguno asignado

<argList> son mutuamente excluyentes y no se pueden configurar juntos.

CANNOT_SPECIFY_BOTH_INCLUDE_EXCLUDE_COLUMNS

SQLSTATE: 42000

La definición de canalización especifica tanto include_columns como exclude_columns para <identifier>. Por favor, quite uno de ellos.

CANNOT_UPDATE_CLUSTERING_COLUMNS

SQLSTATE: 42000

No se pueden actualizar las columnas de agrupación en clústeres de la tabla <tableName> , ya que usa columnas de partición. Una tabla puede usar columnas de partición o columnas de agrupación en clústeres, pero no ambas.

Para cambiar entre clústeres líquidos y particiones, desencadene una actualización completa de esta tabla.

CANNOT_UPDATE_PARTITION_COLUMNS

SQLSTATE: 42000

No se pueden actualizar las columnas de partición de la tabla de streaming <tableName>.

Estado actual: <existingPartitionColumns>

Solicitadas: <requestedPartitionColumns>

Para aplicar este cambio de partición, desencadene una actualización completa de esta tabla y cualquier otra tabla de streaming que tenga columnas de partición actualizadas.

También puede revertir este cambio para seguir usando las columnas de partición existentes.

CANNOT_UPDATE_TABLE_SCHEMA

SQLSTATE: 42KD9

No se pudieron combinar los esquemas actuales y nuevos para la tabla <tableName>.

Para continuar con este cambio de esquema, puede desencadenar una actualización completa de esta tabla.

Según el caso de uso y los cambios en el esquema, puede evitar el cambio de esquema; puede actualizar las consultas para que el esquema de salida sea compatible con el esquema existente (por ejemplo, mediante la conversión explícita de columnas al tipo de datos correcto).

CANNOT_WRITE_TO_INACTIVE_COLUMNS

SQLSTATE: 55000

<details>

Sin embargo, las tablas de destino ya tienen columnas inactivas con este nombre; Las columnas están inactivas porque se eliminaron previamente de las tablas de origen.

Para continuar con la actualización, ejecute en FULL REFRESH las tablas .

CANNOT_WRITE_TO_INACTIVE_TABLES

SQLSTATE: 55000

Las tablas siguientes del destino están inactivas y entran en conflicto con las tablas de origen actuales: <tables>.

Estas tablas permanecen inactivas porque se eliminaron previamente del origen o no se seleccionaron del conector.

Para continuar con la actualización, cambie el nombre de la tabla de destino o realice una FULL REFRESH en estas tablas o quite estas tablas inactivas del destino en el Explorador de catálogos o mediante DROP TABLE el comando y vuelva a intentar la actualización.

CANNOT_WRITE_TO_TABLES_PENDING_RESET

SQLSTATE: 55000

Las tablas siguientes del destino no se restablecen correctamente en la actualización completa anterior: <tables>.

Desencadene una actualización completa en ellas para recuperarlas.

CATALOG_MAPPING_NOT_AVAILABLE_IN_UC

SQLSTATE: 3D000

El catálogo UC no tiene la asignación para el catálogo "<sourceCatalog>".

Compruebe si el catálogo está registrado en el catálogo de UC.

CATALOG_SCHEMA_MISMATCH_WITH_DESTINATION_PIPELINE

SQLSTATE: 55000

El catálogo <destPipelineCatalog> y el esquema <destPipelineSchema> de la canalización de destino con el identificador '<destPipelineId>' no coinciden con el catálogo y el esquema de la tabla <tableName>. La canalización de destino debe tener el mismo catálogo y esquema que la tabla o la canalización de destino deben usar el modo de publicación directa.

CATALOG_SPEC_UNSUPPORTED

SQLSTATE: 0A000

CatalogSpecs no son compatibles actualmente con los conectores de base de datos. Quite la especificación del catálogo.

CDC_APPLIER_AUTO_FULL_REFRESH_POLICY_MUST_BE_SAME_FOR_ALL_DESTINATION_TABLES

SQLSTATE: 42000

La directiva de actualización completa automática de todas las tablas de destino conectadas a la misma tabla de origen debe ser la misma.

Cambie la directiva para las siguientes tablas de destino conectadas <destinationTables> al origen <sourceTable>.

CDC_APPLIER_COLUMN_UOID_NOT_SUPPORTED

SQLSTATE: 0A000

Las columnas con UOID <columnNames> para la tabla <tableName> no se admiten en las canalizaciones de ingesta gestionadas por CDC.

Compruebe si la canalización de ingesta admite UOID de columna o solicite una actualización completa en la tabla.

CDC_APPLIER_FATAL_FAILURE_FROM_GATEWAY

SQLSTATE: 42000

La canalización de puerta de enlace encontró un error irrecuperable:

<errorMessage>

Revise el error de actualización de la canalización aquí: <link>.

CDC_APPLIER_INGESTION_GATEWAY_REMOVED

SQLSTATE: 42000

Se ha quitado la canalización <pipelineId> de puerta de enlace de ingesta vinculada a la canalización de ingesta administrada.

Quite la canalización de ingesta administrada y cree canalizaciones de ingesta y de ingesta administrada.

CDC_APPLIER_REPLICATED_TABLE_METADATA_NOT_READY

SQLSTATE: 42KD4

Los metadatos de tabla replicados para la tabla <tableName> no están listos.

La marca de tiempo actual de la solicitud de trabajo es <existingRequestTs>, pero esperamos <expectedRequestTs> o más tarde.

CDC_APPLIER_REQUIRES_ALL_DESTINATION_TABLES_FULL_REFRESH

SQLSTATE: 42000

No se admite la actualización completa de una tabla de destino y la actualización normal de otra tabla de destino desde el mismo origen.

Actualice todas las dos tablas para continuar si es posible.

Tablas de actualización completa: <fullRefreshTables>

Tablas de destino para el origen <sourceTable>: <destinationTables>

CDC_APPLIER_SCHEMA_CHANGED_DURING_STREAMING

SQLSTATE: 42KD4

La versión <dataSchemaVersion> del esquema es diferente de la versión de esquema de lectura <readSchemaVersion>.

Las canalizaciones declarativas de Spark de Lakeflow volverán a intentar la actualización.

CDC_APPLIER_SEQUENCE_BY_COLUMN_NOT_FOUND

SQLSTATE: 42704

La columna <columnName> de la tabla <tableName> especificada en sequenceBy no existe en <columns>.

CDC_APPLIER_SEQUENCE_BY_INVALID_TYPE

SQLSTATE: 0A000

La columna <columnName> de la tabla <tableName> especificada en sequenceBy es de tipo <typeName> que no se admite.

Los tipos admitidos para las columnas sequenceBy son <allowedTypes>.

CDC_APPLIER_SEQUENCE_BY_MULTIPLE_COLUMNS_NOT_SUPPORTED

SQLSTATE: 0A000

Como máximo, se puede especificar una columna en sequenceBy de la canalización de ingesta administrada por CDC.

Columnas especificadas: <columns> para la tabla <tableName>.

CDC_INCOMPATIBLE_SCHEMA_CHANGES

SQLSTATE: 42KD4

Hemos encontrado un cambio de esquema incompatible (<cause>) de la versión <previousSchemaVersion> del esquema a <currentSchemaVersion>.

Por lo tanto, no podemos continuar aplicando cambios para <tableName>. Solicite una actualización completa de la tabla.

Esquema anterior: <previousSchema>

Esquema actual: <currentSchema>

CDC_MULTIPLE_SOURCE_TABLES_MAPPED_TO_SAME_DESTINATION_TABLE

SQLSTATE: 42000

Se encontraron varias tablas de origen: <source_tables> asignadas a la misma tabla <destination_table>de destino .

Asigne los elementos a un nombre de tabla de destino diferente o a un esquema de destino distinto.

CDC_POTENTIAL_DATA_GAPS

SQLSTATE: 55000

Las tablas siguientes [<needFullRefreshTableList>] no se han actualizado correctamente desde hace <retention> días.

Realice una actualización completa en estas tablas o en toda la canalización.

CDC_SAME_TABLE_FROM_MULTIPLE_SOURCES

SQLSTATE: 42000

Se encontró el mismo nombre de tabla <table> en varios orígenes: <sources>.

Divídalas en diferentes canalizaciones para evitar conflictos.

CDC_SOURCE_VALIDATION_FAILURE

SQLSTATE: 42000

Se detectaron <errorCount> errores de validación de la base de datos de origen. Consulte los informes de registro de eventos para obtener resultados detallados y pasos de corrección.

CDC_TABLE_NOT_FOUND_IN_ALL_TABLES

SQLSTATE: 42P01

No se encuentra la tabla <table> en la instantánea de todas las tablas de la base de datos de origen.

Detalles de especificación de tabla:

<tableSpec>

CHANGES_HMS_PIPELINE_TO_UC_NOT_ALLOWED

SQLSTATE: 0AKD0

No se permite cambiar una canalización HMS a una canalización de UC.

CHANGES_UC_PIPELINE_TO_HMS_NOT_ALLOWED

SQLSTATE: 0AKD0

No se permite cambiar una canalización de UC a una canalización HMS.

CHANGING_CATALOG_NOT_ALLOWED

SQLSTATE: 0AKD0

No se puede modificar el catálogo de una canalización existente. Catálogo existente: '<existingCatalog>'. Catálogo solicitado: '<requestedCatalog>'.

CHANGING_TARGET_SCHEMA_NOT_ALLOWED

SQLSTATE: 0AKD0

No se permite cambiar el esquema de destino. Motivo: <reason>.

CLUSTER_CREATION_BUDGET_POLICY_LIMIT_EXCEEDED

SQLSTATE: 57000

No se pudo crear un clúster porque la política de presupuesto de la tubería ha superado el límite. Use otra directiva o póngase en contacto con el administrador de facturación.

CLUSTER_CREATION_CLIENT_ERROR

SQLSTATE: KDL01

No se pudo crear un clúster de canalización: <errorMessage>

Es probable que este error se deba a una configuración incorrecta en la canalización.

Compruebe la configuración del clúster de canalización y la directiva de clúster asociada.

LÍMITE_DE_POLÍTICA_DE_CREACIÓN_DE_CLÚSTER_EXCEDIDO

SQLSTATE: 57000

No se pudo crear un clúster porque el número de clústeres en ejecución por usuario para la directiva "<clusterPolicy>" ha superado el límite de <clusterLimit>. Use otra directiva o póngase en contacto con el administrador.

CLUSTER_CREATION_CREDITS_EXHAUSTED

SQLSTATE: 57000

No se pudo crear un clúster porque ha agotado los créditos disponibles. Agregue un método de pago para actualizar su cuenta.

CLUSTER_CREATION_RESOURCE_EXHAUSTED

SQLSTATE: 57000

No se pudo crear un clúster porque ha superado los límites de recursos: <errorMessage>

CLUSTER_CREATION_SECRETS_FETCH_FAILED

SQLSTATE: 42501

No se pueden capturar secretos a los que se hace referencia en la configuración de Spark.

Compruebe que los secretos existen y que el propietario del clúster tiene permisos de lectura.

CLUSTER_LAUNCH_CLIENT_ERROR

SQLSTATE: KDL01

Error al iniciar el clúster <clusterId>de canalización: <clusterStateMessage>

Es probable que este error se deba a una configuración incorrecta en la canalización.

Compruebe la configuración del clúster de canalización y la directiva de clúster asociada.

CLUSTER_LAUNCH_CLOUD_FAILURE

SQLSTATE: 58000

Error al iniciar el clúster <clusterId>de canalización: <clusterStateMessage>

Este error podría ser transitorio: reinicie la canalización e informe si sigue viendo el mismo problema.

CLUSTER_LAUNCH_RESOURCE_EXHAUSTED

SQLSTATE: 57000

No se pudo iniciar el clúster <clusterId> de canalización debido al agotamiento de los límites de recursos: <clusterStateMessage>.

AGOTAMIENTO_DE_RECURSOS_DE_LANZAMIENTO_DEL_CLÚSTER

SQLSTATE: KDL01

Error al iniciar el clúster <clusterId>de canalización: <clusterStateMessage>

El proveedor de nube no pudo proporcionar el tipo de instancia solicitado.

Compruebe la suscripción del proveedor de nube o vuelva a intentarlo con un tipo de instancia diferente.

CLUSTER_SETUP_CLIENT_ERROR

SQLSTATE: KDL01

No se puede configurar correctamente el clúster <clusterId> para la ejecución de la actualización de canalización. Reason:

Para obtener más información, consulte CLUSTER_SETUP_CLIENT_ERROR

CLUSTER_UNREACHABLE

SQLSTATE: 08000

Comunicación con el conductor perdida. No se pudo acceder al clúster <clusterId> durante <timeoutSeconds> segundos.

COLUMN_MASK_WITH_NO_COLUMN

SQLSTATE: 42000

Máscara de columna encontrada para la columna '<columnName>' que no existe en el esquema MV/ST. Si esto se debe a un cambio en el esquema de la tabla base,

Quite la máscara antigua con ALTER TABLE [table_name] ALTER COLUMN [columna donde se aplica la máscara] DROP MASK; o restaure la columna.

COLUMN_TO_UPDATE_NOT_FOUND

SQLSTATE: 42703

Columna <column> especificada en COLUMNS a UPDATE no se encontró en el DataFrame de origen.

CONCURRENT_UPGRADE_FAILED_TO_STOP_PREVIOUS_UPDATE

SQLSTATE: 2D521

Se inició la actualización '<upgradedUpdateId>' para una mejora, pero no se pudo detener la actualización anterior '<oldUpdateId>'.

Es probable que este error sea transitorio. La canalización se reintentará automáticamente y el problema debe resolverse automáticamente.

Notifique este error a Databricks si sigue viendo el mismo problema.

CREATE_APPEND_ONCE_FLOW_FROM_BATCH_QUERY_NOT_ALLOWED

SQLSTATE: 42000

No se puede crear una tabla de streaming anexada una vez desde una consulta por lotes.

Esto impide la ingesta incremental del origen y puede dar lugar a un comportamiento incorrecto.

Tabla ofendida: '<table>'.

Para corregirlo, use el operador STREAM() o readStream para declarar el origen como una entrada de flujo.

Ejemplo: SELECT...FROM STREAM(<source table name>) o spark.readStream.table('<source table name>')

DATASET_DECORATOR_APPLIED_TWICE

SQLSTATE: ninguno asignado

El conjunto de datos <datasetName> ya existe. Asegúrese de que la función de consulta solo se ha marcado como una vista o tabla una vez.

DATASET_NOT_DEFINED

SQLSTATE: 42P01

No se pudo leer el conjunto de datos "<datasetName>". Este conjunto de datos no está definido en el flujo de trabajo.

Si otra canalización administra esta tabla, no use dlt.read / dlt.readStream para leer la tabla ni anteponer el nombre con la palabra clave LIVE.

DATASET_NOT_FOUND_FOR_EXPECTATIONS

SQLSTATE: 42P01

Se intentó definir las expectativas de un conjunto de datos "<datasetName>" que no existe

DATASET_NOT_REGISTERED_FOR_FLOW

SQLSTATE: 42000

Se intentó registrar un flujo para el conjunto de datos "<datasetName>", pero el conjunto de datos no está registrado.

DBFS_NOT_ENABLED

SQLSTATE: 42000

DBFS no está habilitado para esta área de trabajo; Publique en el catálogo de Unity o especifique una ubicación de almacenamiento diferente para la canalización.

DBSQL_INCONSISTENT_SCHEDULE_IN_PIPELINE

SQLSTATE: 42000

La canalización <pipelineId> tiene varias tablas de producción con diferentes configuraciones de programación: [<tableScheduleInfo>]. Todas las tablas de producción deben tener la misma programación.

DBSQL_INVALID_CHANNEL_VALUE

SQLSTATE: 42616

Canal no válido especificado con pipelines.channel la propiedad : <channel>. Los valores válidos son: <validChannels>.

DBSQL_INVALID_SCHEDULE_TYPE

SQLSTATE: 42616

Tipo de programación no válido especificado con la propiedad schedule: <scheduleValue>.

DBSQL_MISSING_SCHEDULE_PROPERTY

SQLSTATE: 42000

Falta la propiedad schedule requerida en las propiedades de la tabla.

DBSQL_PIPELINE_IS_MISSING

SQLSTATE: 42000

Falta una DBSQL canalización. Actualice la vista materializada o la tabla de streaming para crear la DBSQL canalización.

DBSQL_PIPELINE_SHOULD_NOT_HAVE_MULTIPLE_TABLES

SQLSTATE: 42000

Una canalización DBSQL debe tener exactamente una vista materializada o una tabla de streaming, pero se encontraron tablas <tablesSize>: <tables>

ELIMINAR_CANALIZACIÓN_DESHABILITADA

SQLSTATE: 58000

La canalización no se puede eliminar en este momento.

Póngase en contacto con el soporte técnico de Databricks para obtener ayuda para eliminar la canalización "<pipelineId>".

DESTINATION_PIPELINE_NOT_FOUND

SQLSTATE: 42K03

No se encuentra la canalización de destino con el identificador '<pipelineId>'. Asegúrese de que se encuentra en la misma área de trabajo que la canalización, que es el propietario de la canalización y que la canalización se ejecutó al menos una vez.

DESTINATION_PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE

SQLSTATE: 0AKLT

La canalización de destino con el identificador '<pipelineId>' no usa el modo de publicación directa.

DESTINATION_PIPELINE_PERMISSION_DENIED

SQLSTATE: 42501

No se le permite realizar esta operación, no es el propietario de la canalización de destino con el identificador "<pipelineId>". Solo los propietarios pueden cambiar la canalización de una tabla.

DESTINATION_PIPELINE_TYPE_NOT_WORKSPACE_PIPELINE_TYPE

SQLSTATE: 0AKLT

La canalización de destino con el identificador '<pipelineId>' no es una canalización ETL.

DIRECTORY_PATH_REQUIRES_GLOB

SQLSTATE: 42000

La ruta de acceso <path> es un directorio. Para incluir todos los archivos dentro de un directorio, use el patrón glob con el sufijo "**" , "<path>/**", en la configuración de la canalización.

SOLICITUD_NO_PERMITIDA_PARA_RESTAURAR_TUBERÍA

SQLSTATE: 42000

No se permite la solicitud <request> para la canalización <pipelineId> en el estado RESTORING.

DO_CREATE_OR_EDIT_INVALID_USER_ACTION

SQLSTATE: 42000

Error al manejar la solicitud "<action>".

DROP_SCHEDULE_SCHEDULE_DOES_NOT_EXIST

SQLSTATE: 42000

No se puede quitar SCHEDULE en una tabla sin una programación o desencadenador existente.

DUPLICATED_FROM_JSON_SCHEMA_LOCATION

SQLSTATE: 42616

Clave de ubicación del esquema from_json duplicada: <schemaLocationKey>.

Elija claves de ubicación de esquema únicas para cada consulta de from_json de la canalización.

DUPLICATED_INGESTION_CONFIG_TABLE_SPECS

SQLSTATE: 42710

La configuración de canalización de ingesta contiene tablas duplicadas. Asegúrese de que cada tabla sea única.

EMPTY_INGESTION_CONFIG_OBJECTS

SQLSTATE: 42000

Los objetos de configuración de ingesta están vacíos.

ENHANCED_AUTOSCALING_REQUIRES_ADVANCED_EDITION

SQLSTATE: 42000

La configuración de escalado automático mejorado "spare_capacity_fraction" solo se admite en la edición de productos avanzados de Canalizaciones declarativas de Spark de Lakeflow.

Edite la configuración de la canalización para establecer "edition" en "advanced" y así poder usar "spare_capacity_fraction".

ENVIRONMENT_PIP_INSTALL_ERROR

SQLSTATE: 42000

No se logró instalar la dependencia del entorno: '<pipDependency>'. Revise los registros stdout del controlador en el clúster para obtener más detalles.

EVENT_LOG_PICKER_FEATURE_NOT_SUPPORTED

SQLSTATE: 0A000

La publicación del registro de eventos en el catálogo de Unity no se admite en el modo de publicación heredado. Para habilitar esta característica, migre la canalización al modo de publicación predeterminado siguiendo los pasos descritos en la guía https://docs.databricks.com/aws/en/dlt/migrate-to-dpmde migración . Si prefiere seguir usando el modo de publicación heredado, quite la configuración de "event_log" de la especificación de canalización.

EXPECTATION_VIOLATION

SQLSTATE: 22000

El flujo '<flowName>' no pudo cumplir la expectativa.

Para más información, consulte EXPECTATION_VIOLATION

EXPLORE_ONLY_CANNOT_BE_SET_WITH_VALIDATE_ONLY

SQLSTATE: 42000

explore_only y validate_only no se pueden establecer ambas en true.

EXPLORE_ONLY_IS_NOT_ENABLED

SQLSTATE: 0A000

La actualización de explore_only no está habilitada. Póngase en contacto con el soporte técnico de Databricks.

FAILED_TO_CREATE_EVENT_LOG

SQLSTATE: 58030

No se pudo crear el registro de eventos de canalización (id=<pipelineId>) con el identificador <eventLogIdentifier>. Consulte la excepción siguiente para obtener más detalles.

FAILED_TO_PUBLISH_VIEW_TO_METASTORE

SQLSTATE: 42000

Error al publicar la vista <viewName> en el metastore porque <reason>.

FAILED_TO_UPDATE_EVENT_LOG

SQLSTATE: 58030

No se pudo actualizar el identificador del registro de eventos de canalización (id=<pipelineId>) a <newEventLogIdentifier>. Consulte la excepción siguiente para obtener más detalles.

FLOW_SCHEMA_CHANGED

SQLSTATE: KD007

El flujo <flowName> ha finalizado desde que encontró un cambio de esquema durante la ejecución.

El cambio de esquema es compatible con el esquema de destino existente y la siguiente ejecución del flujo puede reanudarse con el nuevo esquema.

FOREACH_BATCH_SINK_ONLY_SUPPORTED_IN_PREVIEW_CHANNEL

SQLSTATE: 0A000

Actualmente no se admite el receptor declarativo de Spark de Lakeflow ForeachBatch.

La versión preliminar privada del receptor foreachBatch de Canalizaciones declarativas de Spark de Lakeflow requiere el PREVIEW canal.

Receptores de canalizaciones declarativas de Spark de Lakeflow: <sinkNames>

GATEWAY_PIPELINE_INIT_SCRIPTS_NOT_ALLOWED

SQLSTATE: 0A000

La canalización de puerta de enlace no permite scripts de inicialización de clústeres. Por favor, quítalo de <from>.

GATEWAY_PIPELINE_SPARK_CONF_NOT_ALLOWED

SQLSTATE: 0A000

La canalización de puerta de enlace no permite la configuración de Spark [<configs>]. Por favor, retírelos de <from>.

GET_ORG_UPDATE_CAPACITY_LIMIT_EXCEEDED

SQLSTATE: 54000

El número de identificadores de organización solicitados supera el límite máximo permitido de <limit>

GOOGLE_ANALYTICS_RAW_DATA_CONNECTOR_SOURCE_CATALOG_MISSING

SQLSTATE: KD000

Error en el conector de datos sin procesar de Google Analytics.

Falta el "catálogo de origen" (ID de Proyecto de GCP) en la especificación de ingesta.

Especifique el catálogo de origen (id. de proyecto) en la especificación de ingesta para resolver este problema.

HMS_NOT_ENABLED

SQLSTATE: 42000

El metastore de Hive no está habilitado para esta área de trabajo; publique en el Catálogo de Unity.

ILLEGAL_COLUMN_TO_UPDATE_DATA_TYPE

SQLSTATE: 42000

El tipo de datos de la columna especificada en COLUMNS TO UPDATE debe ser una matriz de cadenas, pero se encontró <illegalDataType>.

ILLEGAL_ID_PARAM_IN_PIPELINE_SETTINGS

SQLSTATE: 42000

La configuración no debe contener '<fieldName>'.

ILLEGAL_SCHEMA_FIELD_IN_PIPELINE_SPEC

SQLSTATE: 42000

El campo "esquema" especificado en la configuración de la canalización no es válido. Motivo: <reason>.

INCORRECT_ROOT_PATH_TYPE

SQLSTATE: 42000

La ruta de acceso raíz "<rootPath>" debe ser un directorio, pero se encontró <objectType>.

INCREMENTAL_REFRESH_UNAVAILABLE_WITH_STRICT_REFRESH_POLICY

SQLSTATE: 42000

la vista materializada tiene una directiva de actualización de INCREMENTAL_STRICT pero no se puede incrementalizar.

MANTENIMIENTO_DE_INFRAESTRUCTURAS

SQLSTATE: 57P01

El controlador en el clúster <clusterId> finalizó debido al mantenimiento de la infraestructura.

INGESTION_CONFIG_DUPLICATED_SCHEMA

SQLSTATE: 42710

La configuración de canalización de ingesta contiene esquemas duplicados. Asegúrese de que cada esquema sea único.

INGESTION_GATEWAY_AUTHENTICATION_FAILURE

SQLSTATE: 42501

Error de autenticación

Para más información, consulte INGESTION_GATEWAY_AUTHENTICATION_FAILURE.

INGESTION_GATEWAY_BREAKING_SCHEMA_CHANGE_FAILURE

SQLSTATE: 42KD4

Se ha detectado una falta de coincidencia de esquema entre las tablas de origen y de destino. Para resolver este problema, se requiere una actualización completa de la tabla "<entityName>" en la canalización de ingesta.

INGESTION_GATEWAY_CAPTURE_INSTANCE_UNAVAILABLE

SQLSTATE: 42000

La instancia de captura de <entityName> ya no está disponible en el origen.

Desencadene una actualización completa después de habilitar CDC o CT en la tabla.

INGESTION_GATEWAY_CDC_LOG_TRUNCATED

SQLSTATE: 42000

El registro CDC se ha truncado para la tabla "<entityName>", motivo: <errorMessage>.

Esto puede deberse a que la directiva de retención de registros CDC trunca los registros de seguimiento de cambios antes de que se puedan procesar.

La tabla se omitirá del procesamiento. Para volver a habilitar el procesamiento, actualice la tabla completa.

INGESTION_GATEWAY_CDC_NOT_ENABLED

SQLSTATE: 42000

CDC no está habilitado en <entityType> "<entityName>". Habilite CDC y actualice la tabla completa en la canalización de ingesta. Mensaje de error: "<errorMessage>".

INGESTION_GATEWAY_DB_VERSION_NOT_SUPPORTED

SQLSTATE: 42000

No se admite la versión de la base de datos.

Para obtener más información, consulte INGESTION_GATEWAY_DB_VERSION_NOT_SUPPORTED

INGESTION_GATEWAY_DDL_OBJECTS_MISSING

SQLSTATE: 42000

Faltan objetos DDL en <entityType> "<entityName>". Ejecute el script de objetos DDL y realice una actualización completa de la tabla en la canalización de ingesta. Mensaje de error: "<errorMessage>".

INGESTION_GATEWAY_HEALTH_CHECKER_VALIDATION_CYCLE_FAILED

SQLSTATE: 42000

Error en el ciclo de validación del comprobador de estado interno. Volverá a intentarlo en el siguiente ciclo, si el problema persiste, envíe una incidencia.

Mensaje de error: <errorMessage>

INGESTION_GATEWAY_MISSING_CONNECTION_REFERENCE

SQLSTATE: 42000

Falta una conexión para la configuración de la puerta de enlace de ingesta.

Agregue una referencia a la conexión del catálogo de Unity que contiene las credenciales.

Detalles de la definición de canalización de puerta de enlace de ingesta:

<definition>

INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_CATALOG

SQLSTATE: 42000

Falta el catálogo de ubicaciones de almacenamiento interno en la configuración de la puerta de enlace de ingesta.

Agregue el catálogo de ubicaciones de almacenamiento interno.

Detalles de la definición de canalización de puerta de enlace de ingesta:

<definition>

INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_NAME

SQLSTATE: 42000

Falta el nombre de la ubicación de almacenamiento interno en la configuración de la puerta de enlace de ingesta.

Agregue el nombre de ubicación de almacenamiento interno.

Detalles de la definición de canalización de puerta de enlace de ingesta:

<definition>

INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_SCHEMA

SQLSTATE: 42000

Falta el esquema de la ubicación de almacenamiento interno en la configuración de la puerta de enlace de ingesta.

Agregue el esquema de ubicación de almacenamiento interno.

Detalles de la definición de canalización de puerta de enlace de ingesta:

<definition>

INGESTION_GATEWAY_MISSING_TABLE_IN_SOURCE

SQLSTATE: 42P01

La tabla '<entityName>' no existe en la base de datos de origen o se ha quitado. Resuelva el problema y realice una actualización completa de la tabla en la canalización de ingesta administrada. Mensaje de error: "<errorMessage>".

INGESTION_GATEWAY_MYSQL_BINLOG_FILE_DELETED

SQLSTATE: 42000

Los archivos binlog de MySQL necesarios se han eliminado en la base de datos de origen. Esto suele ocurrir cuando el período de retención de binlog es demasiado bajo o cuando se reinicia la ingesta después de que se haya superado la ventana de retención. Para mitigarlo, ejecute una actualización completa en todas las tablas y aumente la retención de binlog en el origen.

Mensaje de error: <errorMessage>

INGESTION_GATEWAY_MYSQL_MISSED_BINLOG_FILES_DETECTED

SQLSTATE: 42000

Se ha perdido la detección de archivos Binlog de MySQL. Realice una actualización completa en <entityName>.

Mensaje de error: <errorMessage>

INGESTION_GATEWAY_ORACLE_ARCHIVE_LOG_FILES_UNAVAILABLE

SQLSTATE: 42000

Los archivos de registro de archivo de Oracle necesarios para la replicación CDC ya no están disponibles en la base de datos de origen. Esto puede ocurrir cuando los registros de archivo superan el período de retención o se eliminan manualmente. Realice una actualización completa en todas las tablas de destino asignadas al catálogo "<catalogName>". Si este problema persiste, considere la posibilidad de aumentar el período de retención del registro de archivo en la base de datos de origen para asegurarse de que los registros permanecen disponibles mientras se procesan.

Mensaje de error: <errorMessage>

INGESTION_GATEWAY_ORACLE_MISSING_CONFIGURATION

SQLSTATE: 42000

La configuración de conexión de Oracle está incompleta.

Para obtener más información, consulte INGESTION_GATEWAY_ORACLE_MISSING_CONFIGURATION

INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED

SQLSTATE: 42000

No se pudo modificar la publicación de replicación para <entityType> '<entityName>'

Mensaje de error: <errorMessage>

Para obtener más información, consulte INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED

INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED

SQLSTATE: 42000

No se pudo crear la publicación de replicación para <entityType> '<entityName>'

Mensaje de error: <errorMessage>

Para obtener más información, consulte INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED

INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED

SQLSTATE: 42000

No se pudo quitar la publicación de replicación para <entityType> '<entityName>'

Mensaje de error: <errorMessage>

Para obtener más información, consulte INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED

INGESTION_GATEWAY_PG_SLOT_CONFIG_IS_INVALIDATED

SQLSTATE: 55000

La configuración del espacio de replicación para <entityType> <entityName> no está en buen estado. Para resolver este problema, desencadene una actualización completa en todas las tablas de destino asignadas al catálogo <catalogName>.

Mensaje de error: <errorMessage>

INGESTION_GATEWAY_PG_SLOT_CONSUMED_BY_OTHER_PROCESS

SQLSTATE: 42000

No se pudo crear la ranura de replicación para <entityType> '<entityName>' debido a que otro PID usa la ranura de replicación.

Mensaje de error: <errorMessage>

INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED

SQLSTATE: 42000

No se pudo crear la ranura de replicación para <entityType> '<entityName>'

Mensaje de error: <errorMessage>

Para más información, consulte INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED

INGESTION_GATEWAY_PG_SLOT_DROP_FAILED

SQLSTATE: 42000

No se pudo quitar la ranura de replicación para <entityType> '<entityName>'

Mensaje de error: <errorMessage>

Para obtener más información, consulte INGESTION_GATEWAY_PG_SLOT_DROP_FAILED

INGESTION_GATEWAY_PG_SLOT_HAS_BEEN_DELETED

SQLSTATE: 42704

Se ha eliminado la ranura de replicación para <entityType> '<entityName>'. Desencadene una actualización completa en todas las tablas de destino asignadas al catálogo "<catalogName>".

Mensaje de error: <errorMessage>

INGESTION_GATEWAY_PG_SLOT_IS_INVALIDATED

SQLSTATE: 55000

La ranura de replicación de <entityType> '<entityName>' no está en un estado correcto. Quite la ranura y desencadene una actualización completa en todas las tablas de destino asignadas al catálogo "<catalogName>".

Mensaje de error: <errorMessage>

INGESTION_GATEWAY_SOURCE_INSUFFICIENT_PERMISSION_FAILURE

SQLSTATE: 42501

El usuario no tiene los permisos necesarios para acceder a este objeto o ejecutar el procedimiento almacenado. Asegúrese de que se conceden todos los privilegios necesarios. Consulte la siguiente documentación: https://docs.databricks.com/aws/en/ingestion/lakeflow-connect/sql-server/database-user-requirements.

INGESTION_GATEWAY_SOURCE_SCHEMA_MISSING_ENTITY

SQLSTATE: 42000

No hay tablas disponibles para la replicación desde el origen.

Compruebe que las tablas están seleccionadas correctamente y definidas en la canalización de ingesta

y el usuario tiene acceso necesario al catálogo y al esquema.

INGESTION_GATEWAY_SQL_SERVER_CT_DISABLED

SQLSTATE: 42000

Change Tracking para la tabla <entityName> se ha deshabilitado en el origen.

Desencadene una actualización completa después de habilitar CDC o CT en la tabla.

INGESTION_GATEWAY_TABLE_DROPPED

SQLSTATE: 42000

La tabla de origen '<entityName>' se ha eliminado. Mensaje de error: <errorMessage>

INGESTIÓN_PASARELA_TABLA_RENOMBRADA

SQLSTATE: 42000

El nombre de la tabla de origen '<entityName>' ha sido cambiado en la fuente de origen. Mensaje de error: <errorMessage>

TABLA_DEL_PORTAL_DE_INGESTA_OMITIDA_DEBIDO_A_TIPO_DE_DATOS_DE_COLUMNA_NO_ADMITIDO

SQLSTATE: 42P01

Se ha omitido la tabla '<entityName>' debido a columnas de tipo de datos no admitidas. Resuelva el problema y realice una actualización completa de la tabla en la canalización de ingesta administrada. Mensaje de error: "<errorMessage>".

INGESTION_GATEWAY_UNEXPECTED_COLUMN_UOID

SQLSTATE: 0AXX1

Se ha omitido la tabla '<entityName>' debido a un UOID inesperado asignado a las columnas. Realice una actualización completa en la tabla para resolver el problema. Error: <errorMessage>.

INGESTION_GATEWAY_UNEXPECTED_TABLE_UOID (puerta de enlace de ingestión tabla inesperada UOID)

SQLSTATE: 0AXX2

Se ha omitido la tabla '<entityName>' debido a un UOID inesperado asignado a la tabla. Realice una actualización completa en la tabla para resolver el problema. Error: <errorMessage>.

INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE

SQLSTATE: 08000

Error de conexión debido a un nombre <host> de host incorrecto o a un puerto <port> de la base de datos de origen.

Para más información, consulte INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE.

INGESTION_GATEWAY_UNSUPPORTED_CHARS_IN_OBJECT_NAME

SQLSTATE: 42XXX

Caracteres no admitidos encontrados en objetos para la tabla <entityName>, motivo: <errorMessage>. Se omitirá la tabla. Póngase en contacto con el soporte técnico para habilitar la ingesta de caracteres especiales.

INGESTION_GATEWAY_UNSUPPORTED_OBJECT_TYPE

SQLSTATE: 42P01

El objeto '<entityName>' no es compatible y se ha omitido. Para resolverlo, quite este objeto de la canalización de ingesta. Mensaje de error: "<errorMessage>".

INGESTION_GATEWAY_UNTRACEABLE_TABLE_MODIFICATION

SQLSTATE: 42000

Se detectó una modificación inrastable de la tabla <entityName>, motivo: <errorMessage>.

Esto puede deberse a un truncamiento de tabla, la sustitución de registros cdc u otra operación irrecuperable.

La tabla se omitirá del procesamiento. Para volver a habilitar el procesamiento, actualice la tabla completa.

INGESTION_GATEWAY_XA_TRANSACTION_NOT_SUPPORTED

SQLSTATE: 42000

No se pudo replicar <entityType> '<entityName>' porque forma parte de una transacción de XA.

Mensaje de error: <errorMessage>

INVALID_APPLY_CHANGES_COMMAND

SQLSTATE: 42000

AUTO CDC el comando no es válido. <reason>.

INVALID_ARGUMENT_TYPE

SQLSTATE: ninguno asignado

Valor de tipo no válido pasado al parámetro '<paramName>'. Se esperaba <expectedType> <additionalMsg>.

INVALID_COMPATIBILITY_OPTIONS

SQLSTATE: 42616

Las opciones de tabla especificadas para la tabla <table> no son válidas porque

Para más información, consulte INVALID_COMPATIBILITY_OPTIONS

INVALID_CONFIG_FOR_UC_PIPELINE

SQLSTATE: 42616

Las canalizaciones de UC no admiten la configuración de "<configKey>" en "<configValue>". Quite esta configuración de la configuración de la canalización.

INVALID_DECORATOR_USAGE

SQLSTATE: ninguno asignado

El primer argumento posicional pasado a @<decoratorName> debe ser invocable. Agregue @<decoratorName> sin parámetros a la función o pase opciones a @<decoratorName> mediante argumentos de palabra clave (por ejemplo, <exampleUsage>).

INVALID_DESTINATION_PIPELINE_ID

SQLSTATE: 42K03

Identificador de canalización de destino no válido: '<pipelineId>'. Los identificadores de canalización deben ser UUID válidos.

Compruebe que usa el identificador de canalización correcto, no el nombre de la canalización.

INVALID_EVENT_LOG_CONFIGURATION

SQLSTATE: F0000

Configuración de registro de eventos no válida encontrada en la especificación de canalización: <message>

INVALID_NAME_IN_USE_COMMAND

SQLSTATE: 42000

Nombre '<name>' no válido en el comando <command>. Motivo: <reason>

INVALID_PARAM_FOR_DBSQL_PIPELINE

SQLSTATE: 42000

Solo puede especificar "pipeline_id" y "pipeline_type" al llamar a "dry_run" para una canalización DBSQL.

INVALID_REFRESH_SELECTION

SQLSTATE: 42000

Para obtener más información, consulte INVALID_REFRESH_SELECTION

INVALID_REFRESH_SELECTION_REQUEST_FOR_CONTINUOUS_PIPELINE

SQLSTATE: 42000

No se admite la selección de actualización para el modo continuo.

INVALID_REFRESH_SELECTION_REQUEST_WITH_FULL_REFRESH

SQLSTATE: 42000

full_refresh no debe establecerse en true para una solicitud de selección de actualización.

INVALID_REWIND_SPECIFICATION

SQLSTATE: 0A000

La especificación de rebobinado no es válida

Para obtener más información, consulte INVALID_REWIND_SPECIFICATION

INVALID_ROOT_PATH

SQLSTATE: 42000

Ruta raíz '<rootPath>' no válida: actualmente solo se admiten rutas absolutas de directorio. Las rutas de acceso de directorio deben comenzar por '/' y no terminar con '/'.

INVALID_SCHEMA_NAME

SQLSTATE: 3F000

Esquema '<schemaName>' no válido especificado en la configuración de canalización. Motivo: <reason>.

INVALID_SNAPSHOT_AND_VERSION_TYPE

SQLSTATE: ninguno asignado

snapshot_and_version para el flujo con el objetivo "<target>" devolvió un tipo no admitido. <additionalMsg>.

INVALID_TRIGGER_INTERVAL_FORMAT

SQLSTATE: 42000

La configuración indicada para el intervalo de desencadenador en <configurationType> es inválida

JIRA_ACCESO_PROHIBIDO

SQLSTATE: KD000

El usuario que se conecta no tiene acceso. Vuelva a comprobar los permisos del usuario e inténtelo de nuevo.

JIRA_ADMIN_PERMISSION_MISSING

SQLSTATE: KD000

Error al llamar a las API de Jira. Asegúrese de dar

el usuario que conecta los permisos de administrador de Jira para la instancia de Jira.

JIRA_AUTHORIZATION_FAILED

SQLSTATE: KD000

Error de autorización al llamar a las API de Jira. Volver a autenticar de forma amable

la conexión UC creada e inténtelo de nuevo.

JIRA_CONNECTOR_ENTITY_MAPPING_PARSING_FAILED

SQLSTATE: KD000

Ocurrió un error en el conector de Jira.

Se produjo un problema al intentar analizar la asignación de entidades para el tipo de entidad: <entityType>. Compruebe si la entidad forma parte de los tipos admitidos.

Si el error persiste, presente un ticket.

JIRA_MISSING_REQUIRED_FIELD

SQLSTATE: KD000

Falta el campo obligatorio '<fieldName>' en la respuesta de la API de Jira.

JSON Nodo: <jsonNode>

JIRA_SITE_MISSING

SQLSTATE: KD000

No se pudo encontrar cloudId correspondiente al dominio <domain>Jira proporcionado.

Asegúrese de que el usuario que se conecta puede acceder a este sitio.

JOB_DETAILS_DO_NOT_MATCH

SQLSTATE: 42000

Si se proporcionan "update_cause_details.job_details" y "job_task", sus valores deben coincidir, pero son <details> y <jobTask>

JOB_TASK_DETAILS_MISSING

SQLSTATE: 42000

Si "cause" es JOB_TASK, entonces se debe proporcionar "job_task" o "update_cause_details.job_details".

"CREACIÓN_DE_CANALIZACIÓN_LEGADA_DESHABILITADA"

SQLSTATE: 0A000

La creación de canalizaciones en el modo de publicación heredado está deshabilitada en áreas de trabajo de forma predeterminada. Póngase en contacto con el soporte técnico de Databricks si se requiere una excepción.

LIBRARY_FILE_FETCH_PERMISSION_DENIED

SQLSTATE: 42501

No se puede acceder al archivo de biblioteca en "<path>". Asegúrese de que el usuario tiene los permisos necesarios para leer este archivo.

Motivo: <reason>

LIBRARY_FILE_NOT_FOUND

SQLSTATE: 42000

No se encontró el archivo '<path>' o el usuario run_as no tiene permisos para acceder a él.

LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_CLASSIC

SQLSTATE: 42000

No se admite la referencia a conjuntos de datos mediante un esquema virtual LIVE fuera de la definición de consulta del conjunto de datos (es decir, una anotación @dlt.table).

LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_DPM

SQLSTATE: 42000

No se admite la referencia a conjuntos de datos mediante LIVE esquemas <identifier> virtuales fuera de la definición de consulta del conjunto de datos (es decir, @dlt.table anotación).

LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_SPARK_SQL

SQLSTATE: 0A000

Referencia a conjuntos de datos mediante un esquema virtual LIVE en spark.sql(...) No se debe llamar a la API fuera de la definición de consulta del conjunto de datos (es decir, una anotación @dlt.table). Solo se puede llamar a la API desde dentro de la definición de consulta del conjunto de datos.

MANAGED_INGESTION_PIPELINE_SPEC_VALIDATION_ERROR

SQLSTATE: 42000

Para obtener más información, consulte MANAGED_INGESTION_PIPELINE_SPEC_VALIDATION_ERROR

MATERIALIZED_VIEW_RETURNED_STREAMING_DATAFRAME

SQLSTATE: ninguno asignado

La función de consulta para la vista materializada '<datasetName>' devolvió un dataframe de streaming.

Debe devolver un DataFrame que no sea de streaming.

MAX_RETRY_REACHED_BEFORE_ENZYME_RECOMPUTE

SQLSTATE: 42000

Se alcanzó el número máximo de reintentos. Recuento de reintentos:<flowRetryCount>. maxFlowFailureRetryCountThreshold:<maxFlowRetryAttempts>. <message>

MESA_PIPELINE_INVALID_DEFINITION_TYPE

SQLSTATE: 42000

No está permitido iniciar una canalización <definitionType> a partir de la definición de UC.

MESA_PIPELINE_MISMATCH_PIPELINE_TYPES

SQLSTATE: 42000

La definición almacenada y actualizada debe ser del mismo tipo de canalización, pero se obtuvieron <stored> y <updated>.

MESA_PIPELINE_MISSING_DEFINITION

SQLSTATE: 42000

La canalización no tiene una definición válida en UC, pero se solicita una actualización.

MESA_PIPELINE_MISSING_DEFINITION_UNEXPECTED

SQLSTATE: 42000

Falta inesperadamente la definición de canalización de UC.

METASTORE_OPERATION_TIMED_OUT

SQLSTATE: 58000

Las operaciones implicadas en la actualización de la información de metastore para <tableName> han tardado más de <timeout>.

Este problema puede ser transitorio o podría indicar errores en el cliente de metastore configurado. Intente reiniciar la canalización e notifique este problema si persiste.

META_ADS_PARAMETERS_CHANGED

SQLSTATE: KD000

Error en el conector de Meta marketing. Se han modificado los parámetros de entrada de la tabla ad_insights.

Realice una actualización completa en las tablas afectadas.

META_ADS_SOURCE_API_ERROR

SQLSTATE: KD000

Se produjo un error en la llamada a la API de meta marketing. Id. de seguimiento de Facebook para realizar el seguimiento con compatibilidad con Meta: <trace_id>.

Si el error persiste, presente un ticket.

META_MARKETING_INSIGHTS_LEVEL_INVALID

SQLSTATE: KD000

Se produjo un error en el conector de Meta marketing al intentar capturar información de la tabla ad_insights.

El parámetro <level> de nivel proporcionado no es válido. Por favor, pase uno de (ad, adset, campaña, cuenta).

META_MARKETING_INSIGHTS_PARAM_BREAKDOWNS_INVALID

SQLSTATE: KD000

Se produjo un error en el conector de Meta marketing al intentar capturar información de la tabla ad_insights.

Los desgloses proporcionados no son válidos <breakdowns> . Consulte la documentación de meta API para obtener una lista válida de desgloses.

Si el error persiste, presente un ticket.

META_MARKETING_INSIGHTS_PARAM_TIME_INCREMENT_INVALID

SQLSTATE: KD000

Se produjo un error en el conector de Meta marketing al intentar capturar información de la tabla ad_insights.

No se pudo analizar el parámetro <timeInc> de incremento de tiempo proporcionado. Escriba un número entero válido.

META_MARKETING_INSIGHTS_START_DATE_INVALID

SQLSTATE: KD000

Se produjo un error en el conector de Meta marketing al intentar capturar información de la tabla ad_insights.

No se pudo analizar el parámetro <startDate> de fecha de inicio proporcionado. Compruebe y modifíquelo en formato deMM-DD YYY- correcto.

META_MARKETING_INSIGHTS_START_DATE_TOO_OLD

SQLSTATE: KD000

Se produjo un error en el conector de Meta marketing al intentar capturar información de la tabla ad_insights.

La fecha de inicio proporcionada no puede ser superior a 37 meses desde la fecha actual de sincronización. Compruebe y modifíquelo en los parámetros proporcionados.

Si el error persiste, presente un ticket.

META_MARKETING_RATE_LIMIT_EXCEEDED

SQLSTATE: KD000

Se ha agotado el límite de velocidad de Meta API para esta cuenta de anuncios. Vuelva a intentar la actualización de la canalización después de algún tiempo. Se recomienda ingerir menos número de tablas en paralelo para evitar volver a alcanzar los límites.

Si suele alcanzar los errores de límite de frecuencia, considere la posibilidad de actualizar al acceso avanzado si aún no lo ha hecho, según la documentación de Meta: https://developers.facebook.com/docs/marketing-api/get-started/authorization

META_MARKETING_REQUESTED_DATA_LIMIT_EXCEEDED

SQLSTATE: KD000

Error en meta API, ya que la cantidad de datos solicitados supera el límite que pueden procesar los servidores Meta.

Intente reducir el número de campos que se van a ingerir en esta tabla mediante la lógica de selección de columnas. Si el error persiste, presente un ticket.

MIGRATION_TO_UNITY_CATALOG

SQLSTATE: 55000

Para obtener más información, consulte MIGRATION_TO_UNITY_CATALOG

FALTA_PERMISO_DE_CATÁLOGO_O_ESQUEMA

SQLSTATE: 42501

El usuario '<userName>' no tiene permisos en '<schemaName>'. Detalles: <reason>

MISSING_CREATE_SCHEMA_PRIVILEGE

SQLSTATE: 42501

El usuario '<userName>' no tiene permiso para crear esquema en el catálogo <catalogName>

MISSING_CREATE_TABLE_PRIVILEGE

SQLSTATE: 42501

El usuario '<userName>' no tiene permiso para crear una tabla en el esquema <schemaName>

MISSING_RUN_AS_USER

SQLSTATE: 28000

No se especificó un usuario para ejecutar la actualización.

MULTI_QUERY_SNAPSHOT_TARGET_NOT_SUPPORTED

SQLSTATE: 0A000

'<tableName>' ya contiene una AUTO CDC FROM SNAPSHOT consulta '<flowName>'. Actualmente, esta API solo admite un flujo por destino.

MUTUALLY_EXCLUSIVE_OPTIONS

SQLSTATE: 42000

Opciones mutuamente excluyentes <options>. Quite una de estas opciones.

NEGATIVE_VALUE

SQLSTATE: ninguno asignado

El valor de <arg_name> debe ser mayor o igual que 0, se recibió "<arg_value>".

NON_UC_TABLE_ALREADY_MANAGED_BY_OTHER_PIPELINE

SQLSTATE: 42P07

La tabla "<tableName>" ya está administrada por la canalización <otherPipelineId>.

Si desea que esta canalización administre la tabla "<tableName>"

  1. Quite la tabla de la canalización "<otherPipelineId>".

  2. Inicie una actualización completa de esta canalización.

Si desea seguir administrando la tabla desde varias canalizaciones, deshabilite esta comprobación estableciendo la configuración de pipelines.tableManagedByMultiplePipelinesCheck.enabled a false en la configuración de la canalización.

Esto no se recomienda, ya que las operaciones simultáneas sobre la tabla pueden entrar en conflicto entre sí y provocar resultados inesperados.

NOTEBOOK_NAME_LIMIT_REACHED

SQLSTATE: 42000

Ruta de acceso del cuaderno no válida: '<nameStart>...<nameEnd>'. Supera los <maxNotebookPathLength> caracteres.

NOTEBOOK_NOT_FOUND

SQLSTATE: 42000

No se puede acceder al cuaderno "<notebookPath>". No existe o la identidad usada para ejecutar esta canalización, <identity>, carece de los permisos necesarios.

NOTEBOOK_PIP_INSTALL_ERROR

SQLSTATE: 42000

No se pudo ejecutar '<pipInstallCommand>' desde el cuaderno: <notebookPath>. Revise los registros stdout del controlador en el clúster para obtener más detalles.

NOTEBOOK_TOO_LARGE

SQLSTATE: 54000

El contenido del bloc de notas resuelto en "<notebookPath>" es demasiado grande, reduzca el tamaño del cuaderno.

NOTIFICATIONS_DUPLICATE_ALERTS

SQLSTATE: 42000

Alertas duplicadas '<alertsDuplicates>' especificadas en [<alerts>]

NOTIFICATIONS_DUPLICATE_EMAIL_ADDRESSES

SQLSTATE: 42000

Direcciones de correo electrónico duplicadas '<emailRecipientsDuplicates>' especificadas en [<emailRecipients>]

NOTIFICATIONS_INVALID_ALERTS

SQLSTATE: 42000

Se han especificado alertas no válidas para recibir notificaciones sobre: <invalidAlerts>

NOTIFICATIONS_INVALID_EMAIL_ADDRESS

SQLSTATE: 42000

Dirección de correo electrónico no válida especificada para recibir notificaciones: <invalidEmailAddresses>

NOTIFICATIONS_MISSING_PARAMS

SQLSTATE: 42000

Especifique al menos un destinatario y una alerta en <setting>

NO_SOURCE_OR_SNAPSHOT_AND_VERSION_ARGUMENT_PROVIDED

SQLSTATE: ninguno asignado

Se source debe establecer o snapshot_version para apply_changes_from_snapshot con el destino "<target>".

NO_TABLES_IN_PIPELINE

SQLSTATE: 42617

Se espera que las canalizaciones tengan al menos una tabla definida, pero no se encontraron tablas en la canalización.

Compruebe que ha incluido y compartido en caso de que se configure Run As, los archivos de origen o directorios esperados, y que el código fuente incluya definiciones de tabla (por ejemplo, CREATE MATERIALIZED VIEW en código SQL, @dlt.table en código python).

Tenga en cuenta que solo las tablas se cuentan para esta comprobación. También puede producirse este error si solo incluye vistas o flujos en la canalización.

OUTPUT_MODE_NOT_SUPPORTED_FOR_TABLE_FLOW

SQLSTATE: 42000

El modo de salida '<outputMode>' no se admite para el flujo de tabla '<flowName>' que tiene como destino la tabla '<target>'. Solo se admite el modo "append" para los flujos de tabla.

OWNER_IS_MISSING

SQLSTATE: 42000

El propietario no existe.

PAGINATION_REQUEST_HAS_NAME_AND_PAGINATION

SQLSTATE: 42000

Puede proporcionar un <name> o paginación, pero no ambos.

PATCH_PIPELINE_DEFINITION_UNSUPPORTED_FIELD

SQLSTATE: 42000

PatchPipelineDefinition solo admite el schedule campo, pero la definición proporcionada tenía otros campos rellenados: '<updatedDefinition>'.

PERSISTED_VIEW_READS_FROM_STREAMING_SOURCE

SQLSTATE: 42000

Las vistas persistentes no admiten la lectura desde orígenes de streaming.

PERSISTED_VIEW_READS_FROM_TEMPORARY_VIEW

SQLSTATE: 42K0F

La vista <persistedViewName> persistente no puede hacer referencia a la vista <temporaryViewName> temporal que no estará disponible fuera del ámbito de la canalización. Haga que la vista persistente sea temporal o que la vista temporal sea persistente.

PIPELINE_CLONING_ALREADY_IN_PROGRESS

SQLSTATE: 42000

La canalización ya se está clonando en la canalización con el identificador "<pipelineId>".

PIPELINE_CLONING_BOTH_TARGET_AND_SCHEMA_SPECIFIED

SQLSTATE: 42000

No se puede especificar "target" y "schema" al clonar una canalización. Especifique solo uno.

PIPELINE_CLONING_CANNOT_CHANGE_SCHEMA_TO_TARGET

SQLSTATE: 42000

No se puede clonar una canalización con "schema" en una canalización con "destino". La canalización clonada también debe usar "schema" o omitir ambos para heredar el valor original.

PIPELINE_CLONING_INVALID_DURING_ACTIVE_UPDATE

SQLSTATE: 42000

La canalización con el identificador '<pipelineId>' no se puede clonar durante una actualización activa.

PIPELINE_CLONING_INVALID_FIELDS

SQLSTATE: 42000

La solicitud incluyó una especificación de la canalización con campos no válidos para la clonación. Entre los campos permitidos se incluyen: nombre, catálogo, destino, configuración.

PIPELINE_CLONING_INVALID_FOR_MISSING_TARGET

SQLSTATE: 42000

La canalización con el identificador "<pipelineId>" no se publica en un esquema de destino. La canalización de origen debe publicarse en un esquema de destino que se vaya a clonar. Vuelva a intentarlo después de especificar el campo "destino" en la especificación de canalización y ejecute una nueva actualización para publicar en un esquema de destino.

PIPELINE_CLONING_INVALID_FOR_UC_PIPELINE

SQLSTATE: 42000

La canalización con el identificador '<pipelineId>' ya es una canalización UC. Las canalizaciones de UC no se pueden clonar.

PIPELINE_CLONING_NO_CATALOG_SPECIFIED

SQLSTATE: 42000

No se ha especificado ningún catálogo para la clonación.

PIPELINE_CLONING_NO_MODE_SPECIFIED

SQLSTATE: 42000

No se ha especificado ningún modo de clonación.

PIPELINE_CLONING_NO_TARGET_SPECIFIED

SQLSTATE: 42000

No se ha especificado ningún catálogo de destino para la clonación.

PIPELINE_CREATION_NOT_ENABLED_FOR_WORKSPACE

SQLSTATE: 42000

La creación de canalizaciones no está habilitada para esta área de trabajo.

PIPELINE_DOES_NOT_EXIST

SQLSTATE: 42000

La canalización con el identificador '<pipelineId>' no existe.

Para obtener más información, consulte PIPELINE_DOES_NOT_EXIST

PIPELINE_ENVIRONMENT_NOT_ENABLED

SQLSTATE: 0A000

El uso del entorno en canalizaciones declarativas de Spark de Lakeflow no está habilitado.

PIPELINE_ENVIRONMENT_VERSION_NOT_ALLOWED

SQLSTATE: 54000

Actualmente, el entorno de la canalización no admite versiones de entorno.

PIPELINE_FAILED_TO_UPDATE_UC_TABLE_DUE_TO_CONCURRENT_UPDATE

SQLSTATE: 55000

La canalización no pudo actualizar la tabla UC (<tableName>) debido a alteraciones simultáneas después de <attempts> intentos.

Compruebe que no hay procesos externos que modifiquen la tabla, vuelva a intentar la actualización y póngase en contacto con el soporte técnico de Databricks si este problema persiste.

PIPELINE_FAILED_TO_UPDATE_UC_TABLE_DUE_TO_EXTERNAL_DELETE

SQLSTATE: 55000

Una operación externa eliminó la tabla <tableName> mientras la canalización la actualizaba.

Asegúrese de que ningún proceso externo modifique la tabla y vuelva a intentar la actualización.

Si el problema persiste, póngase en contacto con el soporte técnico de Databricks.

PIPELINE_FOR_TABLE_NEEDS_REFRESH

SQLSTATE: 55000

La tabla <tableName> no está en el estado necesario, la tabla no se ha actualizado recientemente. La canalización con el identificador '<pipelineId>' debe ejecutarse una vez más y, a continuación, volver a intentar la operación.

PIPELINE_FOR_TABLE_NOT_FOUND

SQLSTATE: 42K03

No se puede encontrar la canalización con ID '<pipelineId>', que gestiona la tabla <tableName>. Asegúrese de que se encuentra en la misma área de trabajo que la canalización, que es el propietario de la canalización y que la canalización se ejecutó al menos una vez.

PIPELINE_GLOB_INCLUDES_CONFLICTS

SQLSTATE: F0000

Se debe establecer el campo glob o notebook/file en bibliotecas de la configuración de canalización. Cambie la configuración de la canalización.

PIPELINE_GLOB_INCLUDES_NOT_SUPPORTED

SQLSTATE: 0A000

El uso del campo glob para incluir archivos de origen es una característica en versión preliminar y está deshabilitada.

Vuelva a seleccionar cada archivo de origen que se va a incluir para que la canalización corrija este error.

Póngase en contacto con el soporte técnico de Databricks para obtener más información sobre esta característica e inscribirse en la versión preliminar.

PIPELINE_GLOB_UNSUPPORTED_SPECIAL_CHARACTER

SQLSTATE: 42000

Los caracteres especiales <specialChar> están reservados y no se deben usar en la ruta de acceso incluida "<path>" en la configuración de la canalización. Quite estos caracteres para corregir el error.

PIPELINE_NAME_LIMIT_REACHED

SQLSTATE: 42000

El nombre no puede tener más de <maxPipelineNameLength> caracteres.

PIPELINE_NON_RETRYABLE_ANALYSIS_CLIENT_ERROR

SQLSTATE: 42000

La canalización no pudo analizar las tablas de origen (<tables>) debido a errores que no se pueden reintentar después de la ejecución parcial.

No se creará una nueva actualización de canalización.

<flowErrors>

Compruebe el registro de eventos y corrija los problemas en consecuencia.

PIPELINE_NOT_ELIGIBLE_FOR_RESTORATION

SQLSTATE: 42000

La canalización '<pipelineId>' está más allá de su ventana de restauración.

PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE

SQLSTATE: 0AKLT

La canalización con el identificador '<pipelineId>', que gestiona la tabla <tableName>, no está usando el modo de publicación directa.

PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE

SQLSTATE: 55000

La tabla aún no está lista para la actualización

Para más información, consulte PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE.

PIPELINE_PERMISSION_DENIED_NOT_OWNER

SQLSTATE: 42501

No puede realizar esta operación. No es el propietario de la canalización con el identificador "<pipelineId>" que administra la tabla <tableName>.

PIPELINE_RETRYABLE_ANALYSIS

SQLSTATE: 42000

La canalización no pudo analizar las tablas de origen (<tables>) debido a errores reintentos después de la ejecución parcial.

Se creará una nueva actualización de canalización para reintentar el procesamiento. Si el error persiste, compruebe el registro de eventos y solucione los problemas en consecuencia.

PIPELINE_SETTINGS_FIELD_CANNOT_BE_EDITED

SQLSTATE: 42000

Los usuarios no pueden modificar '<uneditableFieldName>'. Si los usuarios quieren agregar o modificar <settingName>, use el campo "<editableFieldName>" en su lugar.

PIPELINE_SETTINGS_MODIFIED_CONCURRENTLY

SQLSTATE: 42000

La configuración de canalización se modificó simultáneamente.

PIPELINE_SETTINGS_UNSUPPORTED_CONFIGURATIONS

SQLSTATE: 42000

Las canalizaciones declarativas de Spark de Lakeflow no admiten las configuraciones <configurations> . Quite estas configuraciones.

PIPELINE_SETTING_SHOULD_NOT_SPECIFY_DEVELOPMENT

SQLSTATE: 42000

No se admite iniciar una actualización con la configuración "desarrollo".

PIPELINE_SHOULD_NOT_HAVE_MULTIPLE_TABLES

SQLSTATE: 42000

La canalización debe tener exactamente una tabla, pero se encontraron <tablesSize> tablas: <tables>

PIPELINE_SOURCE_FILE_NUMBER_EXCEEDED

SQLSTATE: 54000

El número de archivos de origen, incluidos los archivos declarados en carpetas, supera el límite de <limit>.

Quite o combine archivos excesivos y cambie la especificación de canalización correspondiente si es necesario,

o póngase en contacto con el soporte técnico de Databricks para solicitar un aumento del límite.

PIPELINE_SOURCE_FOLDER_DEPTH_EXCEEDED

SQLSTATE: 54000

La carpeta '<folder_path>' supera el nivel máximo permitido de anidamiento de directorios de <limit>. Reduzca el nivel de anidamiento de carpetas o póngase en contacto con el soporte técnico de Databricks para solicitar un aumento del límite.

PIPELINE_SPEC_PARAM_CANNOT_BE_CHANGED

SQLSTATE: 42000

No se permite modificar el siguiente parámetro <param> en la configuración de canalización

PIPELINE_TYPE_NOT_SUPPORTED

SQLSTATE: 42000

No se admite el tipo de canalización '<pipelineType>'.

PIPELINE_TYPE_NOT_WORKSPACE_PIPELINE_TYPE

SQLSTATE: 0AKLT

La canalización con el identificador '<pipelineId>', que gestiona la tabla <tableName>, no es una canalización ETL.

PIPELINE_TYPE_QUOTA_EXCEEDED

SQLSTATE: 54000

No se puede iniciar la actualización '<updateId>' porque se ha alcanzado el límite de canalizaciones activas de tipo '<pipelineType>'.

PIPELINE_UPDATE_FOR_TABLE_IS_RUNNING

SQLSTATE: 55000

La canalización con el identificador "<pipelineId>", que administra la tabla <tableName>, se está ejecutando. Detenga la canalización antes de ejecutar la operación.

PIPELINE_WORKSPACE_LIMIT_REACHED

SQLSTATE: 42000

La creación de canalizaciones de tipo "<pipelineType>" está bloqueada porque el área de trabajo "<orgId>" ya contiene "<countLimit>" canalizaciones. Elimine las canalizaciones sin usar.

PIP_INSTALL_NOT_AT_TOP_OF_NOTEBOOK

SQLSTATE: 42000

Se encontraron celdas que contienen %pip install que no están en la parte superior del cuaderno para "<notebookPath>".

Mueva todas las celdas %pip install al principio del cuaderno.

PY4J_BLOCKED_API

SQLSTATE: ninguno asignado

Está usando una API de Python que no se admite en el entorno actual.

Consulte la documentación de Databricks para conocer alternativas.

<additionalInfo>

QUERY_BASED_CONNECTOR_SOURCE_API_ERROR

SQLSTATE: KD000

Ocurrió un error en la llamada a la API <sourceName>. Tipo de API de origen: <qbcSourceApiType>.

Pruebe a actualizar la tabla de destino. Si el problema persiste, cree una incidencia.

QUERY_BASED_INGESTION_CONNECTOR_ERROR

SQLSTATE: 0A000

Se produjo un error en el conector de ingesta basado en consultas para <sourceName>.

Para obtener más información, consulte QUERY_BASED_INGESTION_CONNECTOR_ERROR

REFERENCE_DLT_DATASET_OUTSIDE_QUERY_DEFINITION

SQLSTATE: 0A000

No se admite la referencia al conjunto de datos <identifier> de canalizaciones declarativas de Spark de Lakeflow fuera de la definición de consulta del conjunto de datos (es decir, @dlt.table anotación). Léelo en su lugar dentro de la definición de consulta del conjunto de datos.

REFRESH_INITIATED_FROM_INVALID_WORKSPACE

SQLSTATE: 42000

La actualización debe iniciarse en el área de trabajo <homeWorkspaceId>, donde se creó el recurso.

Se intentó la actualización en el área de trabajo <userWorkspaceId>.

REFRESH_MODE_ALREADY_EXISTS

SQLSTATE: 42710

No se puede agregar <type> a una tabla que ya tenga <existingType>. Quite la programación existente o use ALTER TABLE...ALTER <type> ... para modificarlo.

REQUIRED_PARAM_NOT_FOUND

SQLSTATE: 42000

No se encuentra el parámetro <param> requerido.

RESERVED_KEYWORD_IN_USE_CATALOG

SQLSTATE: 42000

USE CATALOG '<reservedKeyword>' no es válido porque '<reservedKeyword>' es una palabra clave reservada en canalizaciones declarativas de Spark de Lakeflow.

RESERVED_KEYWORD_IN_USE_SCHEMA

SQLSTATE: 42000

USE SCHEMA '<reservedKeyword>' no es válido porque '<reservedKeyword>' es una palabra clave reservada en canalizaciones declarativas de Spark de Lakeflow.

RESOURCES_ARE_BEING_PROVISIONED

SQLSTATE: 42000

Los recursos de canalización se están aprovisionando para la canalización "<pipelineId>".

RESOURCE_READ_ONLY_IN_WORKSPACE

SQLSTATE: 42501

<resourceType> '<resourceName>' se ha designado como de solo lectura en el área de trabajo actual.

RESTORE_NON_DELETED_PIPELINE

SQLSTATE: 42000

La canalización '<pipelineId>' no ha sido eliminada. La restauración solo es aplicable a las canalizaciones eliminadas.

RESTAURAR_CANALIZACIÓN_DESACTIVADO

SQLSTATE: 42000

RestorePipeline no está habilitado para el tipo de canalización <pipelineType>

Póngase en contacto con el soporte técnico de Databricks para obtener ayuda para restaurar la canalización "<pipelineId>".

ROOT_PATH_NOT_FOUND

SQLSTATE: 42000

No se puede acceder a la ruta de acceso raíz '<rootPath>'. Asegúrese de que tiene los privilegios de acceso necesarios.

RUN_AS_USER_NOT_FOUND

SQLSTATE: 28000

La ejecución especificada como usuario "<runAsUserId>" para la actualización no existe en el área de trabajo.

SAAS_CONNECTION_ERROR

SQLSTATE: KD000

No se pudo establecer una conexión con la fuente <sourceName>. Código de error: <saasConnectionErrorCode>.

Para obtener más información, consulte SAAS_CONNECTION_ERROR

SAAS_CONNECTOR_DUPLICATE_DATA

SQLSTATE: 42000

Se encontraron datos duplicados en la tabla <tableName>. Tipo de origen: <sourceName>.

Para obtener más información, consulte SAAS_CONNECTOR_DUPLICATE_DATA

SAAS_CONNECTOR_INVALID_INCLUDE_COLUMNS

SQLSTATE: 42000

Include_columns no válido especificado para la tabla <qualifiedTableName>. Motivo: <reason>

SAAS_CONNECTOR_INVALID_PRIMARY_KEY_CONFIGURATION

SQLSTATE: 42000

Configuración de clave principal no válida para la tabla <qualifiedTableName>. Motivo: <reason>

SAAS_CONNECTOR_MUTUAL_AUTHENTICATION_FAILED

SQLSTATE: KD000

Esta sesión no se pudo autenticar mutuamente para su uso con <sourceName>. Tipo de API de origen: <saasSourceApiType>. Código de error: <saasSourceApiErrorCode>.

Compruebe que el certificado de cliente y la clave privada son un par válido y de confianza para <sourceName>.

SAAS_CONNECTOR_REFRESH_TOKEN_EXPIRED

SQLSTATE: KD000

El token de actualización de la conexión <connectionName> ha expirado. Edite la conexión, vuelva a autenticarse y vuelva a ejecutar la canalización.

SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR

SQLSTATE: 42KD4

Se ha producido un cambio de esquema en la tabla <tableName> del origen de <sourceName>.

Para obtener más información, consulte SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR.

SAAS_CONNECTOR_SOURCE_API_ERROR

SQLSTATE: KD000

Ocurrió un error en la llamada a la API <sourceName>. Tipo de API de origen: <saasSourceApiType>. Código de error: <saasSourceApiErrorCode>.

Pruebe a actualizar la tabla de destino. Si el problema persiste, cree una incidencia.

SAAS_CONNECTOR_UC_CONNECTION_OAUTH_EXCHANGE_FAILED

SQLSTATE: KD000

Error en el intercambio de tokens de OAuth para la conexión UC: <connectionName>.

Esto puede deberse a problemas con las credenciales de UC. Compruebe el seguimiento de errores, edite la conexión uc, vuelva a autenticarse y vuelva a ejecutar la canalización. Si el error persiste, presente un ticket.

SAAS_CONNECTOR_UNSUPPORTED_ERROR

SQLSTATE: 0A000

Error no admitido en el origen de datos <sourceName>.

Para obtener más información, consulte SAAS_CONNECTOR_UNSUPPORTED_ERROR.

SAAS_INCOMPATIBLE_SCHEMA_CHANGES_DURING_INIT

SQLSTATE: 42KD4

Hemos detectado cambios de esquema incompatibles al inicializar la canalización:

<details>

Realice una actualización completa en las tablas afectadas.

SAAS_PARTIAL_ANALYSIS_INPUT_CREATION_ERROR

SQLSTATE: 42KD4

Error al crear la entrada para el análisis parcial. No se creará una nueva actualización de canalización.

Compruebe el registro de eventos y corrija los problemas en consecuencia.

SAAS_SCHEMA_DIVERGED_DURING_ANALYSIS

SQLSTATE: 42KD4

El esquema analizado de la tabla de origen (<table>)se ha separado de su esquema esperado.

Vuelva a intentar la actualización de la canalización y compruebe si se ha resuelto el problema.

Si este problema persiste, realice una actualización completa en las tablas mencionadas anteriormente.

Esquema esperado:

<expectedSchema>

Esquema real:

<actualSchema>

SAAS_UC_CONNECTION_INACCESSIBLE

SQLSTATE: 08000

No se puede acceder a la conexión <connectionName> proporcionada. Compruebe la conexión e inténtelo de nuevo.

Para obtener más información, consulte SAAS_UC_CONNECTION_INACCESSIBLE.

SCHEMA_SPEC_EMPTY_CATALOG

SQLSTATE: 3D000

SchemaSpec tiene una cadena vacía en el campo de catálogo.

Quite la cadena vacía o agregue el nombre del catálogo. (Si este esquema no pertenece a un catálogo en el origen, no establezca el campo).

Detalles de la especificación de esquema:

<schemaSpec>

SCHEMA_SPEC_EMPTY_SCHEMA

SQLSTATE: 3F000

SchemaSpec tiene una cadena vacía en el campo de esquema.

Quite la cadena vacía o agregue el nombre del esquema. (Si esta tabla no pertenece a un esquema del origen, no establezca el campo).

Detalles de la especificación de esquema:

<schemaSpec>

SCHEMA_SPEC_REQUIRE_ONE_OF_CATALOG_SCHEMA

SQLSTATE: 42000

Debe estar presente al menos uno de los siguientes: el catálogo de origen o el esquema de origen. Pero ambos están vacíos.

Detalles de la especificación de esquema:

<schemaSpec>

SECUENCIA_NO_ENCONTRADA_POR_COLUMNA

SQLSTATE: 42703

La definición de canalización incluye las columnas sequence_by (<columnNames>) que no existen en la tabla <qualifiedTableName> de origen <sourceType>. Quite estas columnas del campo sequence_by.

POLÍTICA_DE_PRESUPUESTO_SIN_SERVIDOR_Y_POLÍTICA_DE_USO_AMBAS_ESTABLECIDAS

SQLSTATE: 42000

No se pueden establecer ambos budget_policy_id y usage_policy_id. Por favor, quite budget_policy_id.

SERVERLESS_BUDGET_POLICY_BAD_REQUEST

SQLSTATE: 42000

La directiva de presupuesto proporcionada con el identificador "<budgetPolicyId>" no se puede usar en esta área de trabajo debido a restricciones de enlace del área de trabajo de la directiva.

SERVERLESS_BUDGET_POLICY_IS_INVALID

SQLSTATE: 42000

La directiva de presupuesto sin servidor con el identificador '<budgetPolicyId>' no es válida.

SERVERLESS_BUDGET_POLICY_MISSING

SQLSTATE: 42000

La directiva de presupuesto sin servidor con el identificador '<budgetPolicyId>' no existe.

SERVERLESS_BUDGET_POLICY_NOT_ENABLED

SQLSTATE: 0A000

La política de presupuesto sin servidor no está habilitada, por favor comuníquese con el servicio de soporte de Databricks.

SERVERLESS_BUDGET_POLICY_NOT_ENABLED_FOR_ACCOUNT

SQLSTATE: 0A000

La política de presupuesto sin servidor no ha sido habilitada para esta cuenta. El usuario no puede especificar una directiva de presupuesto para esta canalización. El administrador de la cuenta debe intentar inscribirse a través del portal de vista previa de características. Si el problema persiste, póngase en contacto con el soporte técnico de Databricks.

SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_NON_SERVERLESS_PIPELINE

SQLSTATE: 42000

La directiva de presupuesto sin servidor no se puede asignar a una canalización sin servidor.

SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_PIPELINE_TYPE

SQLSTATE: 42000

No se admite la política de presupuesto sin servidor para el tipo <pipelineType> de canalización.

SERVERLESS_BUDGET_POLICY_PERMISSION_DENIED

SQLSTATE: 42000

El usuario no tiene permiso para usar la directiva de presupuesto sin servidor con el identificador "<budgetPolicyId>".

SERVERLESS_NOT_AVAILABLE

SQLSTATE: 0A000

La capacidad de cálculo sin servidor no está disponible. Póngase en contacto con Databricks para obtener más información.

SERVERLESS_NOT_ENABLED

SQLSTATE: 0A000

No se puede usar el proceso sin servidor con canalizaciones declarativas de Spark de Lakeflow. Póngase en contacto con Databricks para habilitar esta característica para el área de trabajo.

SERVERLESS_NOT_ENABLED_FOR_USER

SQLSTATE: 0A000

El proceso sin servidor no está habilitado para el autor de la llamada. Póngase en contacto con el administrador del área de trabajo para habilitar esta característica.

SERVERLESS_NOT_ENABLED_FOR_WORKSPACE

SQLSTATE: 0A000

La computación sin servidor no está disponible para este espacio de trabajo y/o región. Póngase en contacto con Databricks para obtener más información.

SERVERLESS_REQUIRED

SQLSTATE: 42000

Debe usar cómputo sin servidor en este espacio de trabajo.

SERVICENOW_CONNECTION_ERROR

SQLSTATE: KD000

Error en ServiceNow. Tipo de API de origen: <saasSourceApiType>.

Para obtener más información, consulte SERVICENOW_CONNECTION_ERROR

SERVICENOW_CONNECTOR_EMPTY_CURSOR_KEY_ERROR

SQLSTATE: KD000

Error en ServiceNow. Tipo de API de origen: <saasSourceApiType>.

En este momento, la canalización de ingesta no puede ingerir la tabla '<tableName>' porque la clave de cursor de una fila contiene un campo vacío.

Para seguir ejecutando la canalización, quite esta tabla. Si el error persiste, presente un ticket.

SERVICENOW_CONNECTOR_INSTANCE_HIBERNATION_ERROR

SQLSTATE: KD000

Error en ServiceNow. Tipo de API de origen: <saasSourceApiType>.

No se pudo conectar a la instancia de ServiceNow. La instancia parece estar hibernando o inactiva.

Inicie sesión en el portal de administración de ServiceNow y espere algún tiempo hasta que la instancia se active completamente.

Si el error persiste, presente un ticket.

SERVICENOW_CONNECTOR_INSTANCE_OFFLINE_ERROR

SQLSTATE: KD000

Error en ServiceNow. Tipo de API de origen: <saasSourceApiType>.

No se pudo conectar a la instancia de ServiceNow. La instancia está sin conexión.

Inicie sesión en el portal de administración de ServiceNow y espere algún tiempo hasta que se restaure la instancia.

Si el error persiste, presente un ticket.

SERVICENOW_CONNECTOR_INVALID_TABLE_ERROR

SQLSTATE: KD000

Error en ServiceNow. Tipo de API de origen: <saasSourceApiType>.

No se pudo consultar el esquema de la tabla "<tableName>". La tabla no existe en la cuenta de ServiceNow para este usuario.

Compruebe el nombre de la tabla para los errores tipográficos y asegúrese de que el usuario tiene los permisos necesarios para acceder a la tabla.

Si el error persiste, presente un ticket.

SERVICENOW_CONNECTOR_IP_ADDRESS_RESTRICTED_ERROR

SQLSTATE: KD000

Error en ServiceNow. Tipo de API de origen: <saasSourceApiType>.

No se pudo conectar a la instancia de ServiceNow. La instancia tiene restricciones de control de acceso de direcciones IP.

Para resolver este problema, deshabilite las restricciones de direcciones IP; para ello, vaya a ServiceNow >> All >> System Security IP Access Control (Control de acceso de direcciones IP de seguridad >> del sistema) o use direcciones IP estables sin servidor.

Si el error persiste, presente un ticket.

SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR

SQLSTATE: KD000

Error en ServiceNow. Tipo de API de origen: <saasSourceApiType>.

Se detectó una dirección URL de punto de conexión de API de ServiceNow no válida. La estructura de direcciones URL no coincide con el formato esperado de ServiceNow.

Compruebe la configuración de la instancia de ServiceNow en las credenciales de conexión de UC.

Para más información, consulte SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR.

SERVICENOW_CONNECTOR_MAX_FAILED_ATTEMPTS_REACHED

SQLSTATE: KD000

Error en ServiceNow. Tipo de API de origen: <saasSourceApiType>.

Esto suele ocurrir cuando la captura de datos de una tabla tarda demasiado tiempo. Como primer paso, trabaje con el administrador de ServiceNow para habilitar la indexación en la columna de cursor.

La columna cursor está seleccionada en la lista siguiente, en orden de disponibilidad y preferencia: sys_updated_on (primera opción), sys_created_on (segunda opción), sys_archived (tercera opción)

Para obtener instrucciones sobre cómo habilitar la indexación en ServiceNow, consulte aquí: https://docs.databricks.com/ingestion/lakeflow-connect/servicenow-overview#why-is-my-servicenow-ingestion-performance-slow.

También se recomienda aumentar el tiempo de espera de la consulta de la API REST a más de 60 segundos para permitir más tiempo para capturar registros.

A continuación, vuelva a intentar la canalización de ingesta. Si el problema persiste, abra una incidencia.

SERVICENOW_CONNECTOR_SCHEMA_FIELD_TYPE_INACCESSIBLE

SQLSTATE: KD000

Error en ServiceNow. Tipo de API de origen: <saasSourceApiType>.

Al capturar el esquema de tabla con privilegios que no son de administrador, no se puede acceder a la internal_type de las columnas de esquema.

Para resolverlo, conceda permisos de lectura en la tabla "sys_glide_object" al usuario actual.

Si el error persiste, presente un ticket.

SERVICENOW_CONNECTOR_SCHEMA_FIELD_TYPE_MISMATCH

SQLSTATE: KD000

Error en ServiceNow al capturar el esquema de la tabla.

Se encontraron dos tipos de datos en conflicto para el campo '<fieldName>': '<firstDataType>' y ''<secondDataType>.

Para seguir ejecutando la canalización, quite esta tabla. Si el error persiste, presente un ticket.

SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR

SQLSTATE: KD000

Error en ServiceNow. Tipo de API de origen: <saasSourceApiType>.

Para obtener más información, consulte SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR

SET_TBLPROPERTIES_NOT_ALLOWED_FOR_PIPELINE_TABLE

SQLSTATE: 0AKLT

ALTER <commandTableType> ... SET TBLPROPERTIES no se admite. Para modificar las propiedades de la tabla, cambie la definición original y ejecute una actualización.

SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE

SQLSTATE: KD000

La ingesta del objeto <objName> está incompleta porque el trabajo de consulta de la API de Salesforce tardó demasiado tiempo, produjo un error o se canceló manualmente.

Para más información, consulte SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE.

SFDC_CONNECTOR_BULK_QUERY_NOT_FOUND

SQLSTATE: KD000

Error en la ingesta de objetos <objName> porque no se encontró el trabajo de consulta de API masiva de Salesforce.

Esto es probable porque el trabajo se eliminó en la interfaz de usuario de Salesforce o porque ha pasado más de 7 días desde la última actualización de canalización, después de lo cual Salesforce elimina automáticamente el trabajo.

Para desencadenar un nuevo trabajo masivo, ejecute un FULL REFRESH en la tabla de destino específica.

SFDC_CONNECTOR_CREATE_BULK_QUERY_API_LIMIT_EXCEEDED

SQLSTATE: KD000

Error en la llamada api de Salesforce: se superó el límite de API.

Espere a que se restablezcan los límites de la API. A continuación, pruebe a actualizar la tabla de destino.

Si el error persiste, presente un ticket.

SFDC_CONNECTOR_CREATE_BULK_QUERY_JOB_FAILED

SQLSTATE: KD000

La ingesta del objeto <objName> está incompleta porque se ha producido un error en el trabajo de consulta de API masiva de Salesforce. Código de error: <saasSourceApiErrorCode>.

<actionText>.

SFDC_CONNECTOR_MALFORMED_RECORDS

SQLSTATE: KD000

La ingesta del objeto de Salesforce '<objName>' falló porque Salesforce <saasSourceApiType> devolvió registros con formato incorrecto.

Consulte stacktrace para obtener más información.

Compruebe los datos en Salesforce y vuelva a ejecutar la canalización.

SINKS_NOT_SUPPORTED_IN_SEG

SQLSTATE: 0A000

Los receptores de canalizaciones declarativas de Spark de Lakeflow en la canalización no se admiten en áreas de trabajo habilitadas para el control de salida sin servidor. Los receptores declarativos de Spark de Lakeflow admitidos son Kafka y Delta.

Se han encontrado los siguientes receptores no admitidos: <sinkNames>, sus formatos correspondientes son: <sinkFormats>.

SOURCE_TABLE_NOT_MATERIALIZED

SQLSTATE: 42704

No se pudo leer el conjunto de datos dependiente "<sourceTableName>" porque no está materializado. Ejecute todo el flujo de trabajo para materializar todos los conjuntos de datos dependientes.

SPARK_CONNECT_DEFINITION_PATH_NOT_FOUND

SQLSTATE: 42000

No se encontró la ruta de acceso de definición para el elemento de grafo '<graphElementName>'. Póngase en contacto con el soporte técnico de Databricks.

SPARK_CONNECT_DEFINITION_PATH_NOT_FOUND_SPARK_SQL

SQLSTATE: 42000

No hay ninguna ruta de acceso de definición de canalización disponible en el contexto de ejecución actual de Spark SQL. Póngase en contacto con el soporte técnico de Databricks.

SPARK_CONNECT_UNSUPPORTED_FLOW_DEFINITION_ERROR

SQLSTATE: 42000

No se admite la definición de flujo. Póngase en contacto con el soporte técnico de Databricks. Comando: <defineFlowCommand>

SPARK_CONNECT_UNSUPPORTED_OUTPUT_TYPE

SQLSTATE: 42000

El tipo de salida '<outputType>' no se admite en Spark Connect. Póngase en contacto con el soporte técnico de Databricks.

STANDALONE_PRIVATE_MVST_NOT_SUPPORTED

SQLSTATE: 0A000

No se admite la creación de un MV/ST independiente PRIVATE . Elimine el modificador PRIVATE.

Se agotó el tiempo de espera para iniciar el REPL de Python (START_PYTHON_REPL_TIMED_OUT)

SQLSTATE: 53000

Tiempo de espera mientras espera a que se inicie python REPL. Tardó más de <timeoutSeconds> segundos.

STREAMING_TARGET_NOT_DEFINED

SQLSTATE: 42P01

No se encuentra la tabla <target> de destino para el <command> comando . La tabla de destino <target> no está definida en la canalización.

SYNCED_TABLE_USER_ERROR

SQLSTATE: 42000

Error del usuario en la canalización de tabla sincronizada.

Para obtener más información, consulte SYNCED_TABLE_USER_ERROR

TABLE_CHANGED_DURING_OPERATION

SQLSTATE: 55019

La tabla <tableName> se modificó fuera de esta transacción y esta transacción se ha revertido. Vuelva a intentar la operación.

TABLE_MATERIALIZATION_CYCLIC_FOREIGN_KEY_DEPENDENCY

SQLSTATE: 42887

La actualización de la canalización <pipelineId> ha detectado una cadena cíclica de restricciones de clave externa: <tables>.

TABLE_SPEC_BOTH_CATALOG_SCHEMA_REQUIRED

SQLSTATE: 42000

A TableSpec le falta uno de los catálogos de origen y/o esquemas de origen.

Detalles de especificación de tabla:

<tableSpec>

TABLE_SPEC_EMPTY_CATALOG

SQLSTATE: 3D000

TableSpec tiene una cadena vacía en el campo de catálogo.

Quite la cadena vacía o agregue el nombre del catálogo. (Si esta tabla no pertenece a un catálogo en el origen, no establezca el campo).

Detalles de especificación de tabla:

<tableSpec>

TABLE_SPEC_EMPTY_SCHEMA

SQLSTATE: 3F000

TableSpec tiene una cadena vacía en el campo de esquema.

Quite la cadena vacía o agregue el nombre del esquema. (Si esta tabla no pertenece a un esquema del origen, no establezca el campo).

Detalles de especificación de tabla:

<tableSpec>

TABLE_SPEC_EMPTY_TABLE

SQLSTATE: 42601

El nombre de la tabla está vacío. Proporcione un nombre de tabla.

Detalles de especificación de tabla:

<tableSpec>

TABLE_TOKEN_NOT_EXIST_FOR_SCHEMA_EVOLUTION_LEGACY_TABLE

SQLSTATE: 42KD4

No se puede habilitar la evolución del esquema debido a que faltan metadatos. Desencadene una actualización completa.

Motivo: el token de tabla de instantáneas debe definirse cuando se habilita la evolución del esquema.

CANALIZACIÓN_ELIMINADA_EN_EL_ESPACIO_DE_TRABAJO

SQLSTATE: 42000

No se puede iniciar la canalización porque está en la papelera o ha sido eliminada.

TRIGGER_INTERVAL_VALUE_INVALID

SQLSTATE: 22003

El intervalo del desencadenador debe ser una duración positiva, el valor máximo aceptable es 2.147.483.647 segundos. Se recibió: <actual> segundos.

TRIGGER_NOT_ENABLED

SQLSTATE: 0A000

Los desencadenadores no están habilitados para esta área de trabajo. Habilite desencadenadores de tabla en la página de 'Previews'.

TRIGGER_ON_VIEW_READ_FROM_FILE_NOT_SUPPORTED

SQLSTATE: 0A000

El origen <source> es una vista que lee desde una ubicación de archivo, lo cual actualmente no es compatible con el disparador.

TRIGGER_REQUEST_SERIALIZATION_ERROR

SQLSTATE: 54000

Hubo un problema al procesar la solicitud. Póngase en contacto con el soporte técnico de Databricks.

TRIGGER_SECURABLE_KIND_NOT_SUPPORTED

SQLSTATE: 0A000

Error de configuración del desencadenador: tipo de tabla no compatible. Consulte la documentación sobre los tipos admitidos.

TRIGGER_SOURCE_TYPE_NOT_SUPPORTED

SQLSTATE: 0A000

El desencadenador no admite actualmente el origen <source> con el tipo <type>.

TRIGGER_STATE_SERIALIZATION_ERROR

SQLSTATE: 54000

Hubo un problema al procesar la solicitud. Póngase en contacto con el soporte técnico de Databricks.

LÍMITE_DE_TABLA_DE_DISPARADOR_EXCEDIDO

SQLSTATE: 54000

Error de configuración del desencadenador: el desencadenador incluye más tablas que el límite permitido. Consulte la documentación para obtener más información sobre los límites de tabla y cómo resolver este problema.

TRIGGER_TABLE_TYPE_NOT_SUPPORTED

SQLSTATE: 0A000

Error de configuración del desencadenador: tipo de tabla no compatible. Consulte la documentación sobre los tipos admitidos.

UC_CLEARING_TARGET_SCHEMA_NOT_ALLOWED

SQLSTATE: 0AKD0

No se permite borrar el campo de esquema de destino para las canalizaciones de UC. Motivo: <reason>.

UC_IAM_ROLE_NON_SELF_ASSUMING

SQLSTATE: 22023

Se encontró que el rol de IAM para la credencial de almacenamiento no era autosuponiendo.

Compruebe la confianza de su rol y las directivas de Administración de identidad y acceso para asegurarse de que dicho rol pueda asumirse a sí mismo según la documentación de credenciales de almacenamiento de Unity Catalog.

UC_NOT_ENABLED

SQLSTATE: 0A000

El uso del catálogo uc en canalizaciones declarativas de Spark de Lakeflow no está habilitado.

UC_PIPELINE_CANNOT_PUBLISH_TO_HMS

SQLSTATE: 42000

Las canalizaciones habilitadas para UC no se pueden publicar en el metastore de Hive. Elija otro catálogo de destino.

UC_TARGET_SCHEMA_REQUIRED

SQLSTATE: 0AKD0

El campo de esquema de destino es necesario para las canalizaciones de UC. Motivo: <reason>.

UNABLE_TO_INFER_TABLE_SCHEMA

SQLSTATE: 42KD9

No se pudo deducir el esquema de la tabla <tableName> de sus flujos ascendentes.

Modifique los flujos que escriben en esta tabla para que sus esquemas sean compatibles.

Esquema inferido hasta ahora:

<inferredDataSchema>

Esquema incompatible:

<incompatibleDataSchema>

UNEXPECTED_PIPELINE_SCHEMA_PERMISSION_ERROR

SQLSTATE: 42501

Error inesperado al comprobar los permisos de esquema para la canalización <pipelineId>. Póngase en contacto con el soporte técnico de Databricks.

NO_SE_PUEDE_ESTABLECER_COMPATIBILIDAD_UNIFORME_CON_ROW_FILTERS_O_COLUMN_MASKS

SQLSTATE: 42000

La compatibilidad uniforme no se puede establecer en vistas materializadas ni tablas de streaming que tengan aplicados máscaras de columna o filtro de fila.

UNITY_CATALOG_INITIALIZATION_FAILED

SQLSTATE: 56000

Se encontró un error con el catálogo de Unity al configurar la canalización en el clúster <clusterId>.

Asegúrese de que la configuración del catálogo de Unity sea correcta y que existan los recursos necesarios (por ejemplo, catálogo, esquema) y estén accesibles.

Compruebe también que el clúster tiene los permisos adecuados para acceder al catálogo de Unity.

Detalles: <ucErrorMessage>

UNRESOLVED_SINK_PATH

SQLSTATE: 22KD1

No se puede resolver la ruta de acceso de almacenamiento del receptor <identifier>. Póngase en contacto con el soporte técnico de Databricks.

UNRESOLVED_TABLES_FOR_MAINTENANCE

SQLSTATE: 55000

Las tablas siguientes se encontraron en la definición de canalización, pero no se pudieron resolver durante el mantenimiento. Ejecute una ejecución de actualización de canalización con la definición de canalización más reciente para materializar todas las tablas de la definición de canalización y desbloquear el mantenimiento, o póngase en contacto con el soporte técnico de Databricks si el problema persiste.

<unresolvedTableIdentifiersSet>

UNRESOLVED_TABLE_PATH

SQLSTATE: 22KD1

No se puede resolver la ruta de acceso de almacenamiento de la tabla <identifier> . Póngase en contacto con el soporte técnico de Databricks.

UNSUPPORTED_ALTER_COMMAND

SQLSTATE: 0A000

ALTER <commandTableType> ... <command> no se admite.

UNSUPPORTED_CHANNEL_FOR_DPM

SQLSTATE: 0A000

Canal no admitido para el modo de publicación directa. Se esperaba un canal "CURRENT" o "PREVIEW", pero se obtuvo "PREVIOUS".

UNSUPPORTED_COMMAND_IN_NON_DPM_PIPELINE

SQLSTATE: 0A000

<command> solo se admite en el modo de publicación directa habilitada la canalización declarativa de Spark

UNSUPPORTED_COMMAND_IN_QUERY_DEFINITION

SQLSTATE: 0A000

'<command>' no se admite en la definición de consulta. Mueva el comando fuera de la definición de consulta. Si es una canalización declarativa de Spark en Python, mueva "<command>" fuera del @dlt.table()/@dlt.view() decorador. Si es una canalización declarativa de Spark en Scala, mueva el método "<command>" fuera de "query".

UNSUPPORTED_CUSTOM_DBR_VERSION

SQLSTATE: 42000

La versión personalizada de DBR '<v>' no se admite en las áreas de trabajo de SHIELD y HIPAA. Se esperaba uno de [<supportedDbrVersions>]

UNSUPPORTED_CUSTOM_SCHEMA_PREVIEW

SQLSTATE: 0A000

La versión preliminar privada del esquema personalizado está deshabilitada.

Cree una canalización con el modo de publicación predeterminado mediante el campo "schema"

en la especificación de canalización y mueva los conjuntos de datos de esta canalización a la nueva canalización.

UNSUPPORTED_CUSTOM_SCHEMA_PREVIEW_ENABLEMENT

SQLSTATE: 0A000

La versión preliminar privada del esquema personalizado está deshabilitada y no se puede agregar la versión preliminar a una canalización.

Quite <sparkConfKeys> de la configuración de canalización.

UNSUPPORTED_DBR_VERSION

SQLSTATE: 42000

No se admite la versión '<v>' de DBR. Se esperaba uno de [<supportedDbrVersions>]

UNSUPPORTED_FEATURE_FOR_WORKSPACE

SQLSTATE: 0A000

No se admite <featureName> en el área de trabajo. Póngase en contacto con el soporte técnico de Databricks para habilitar esta característica para el área de trabajo.

UNSUPPORTED_LANGUAGE

SQLSTATE: 0A000

<language> No se pudo cargar el cuaderno '<notebookPath>'. Actualmente, solo se admiten cuadernos <supportedLanguages>.

UNSUPPORTED_LIBRARY_FILE_TYPE

SQLSTATE: 0A000

El archivo en <path> no tiene .py ni .sql sufijo. Solo se admiten archivos Python y SQL en canalizaciones.

UNSUPPORTED_LIBRARY_NOTEBOOK_LANGUAGE

SQLSTATE: 0A000

Idioma <language> no admitido para la libreta de notas <path>. Se admiten solo Python y SQL en las canalizaciones

UNSUPPORTED_LIBRARY_OBJECT_TYPE

SQLSTATE: 0A000

El elemento incluido en la ruta <path> es de tipo <objectType>, el cual no está soportado. Actualmente, solo se pueden usar cuadernos y archivos como bibliotecas. Para resolver este problema, quite el objeto no compatible o actualice las bibliotecas configuradas para esta canalización, por lo que solo se incluyen los tipos de objeto admitidos.

UNSUPPORTED_MANAGED_INGESTION_SOURCE_TYPE

SQLSTATE: 0A000

Definición de canalización de ingesta administrada no válida, tipo de origen no admitido: <sourceType>.

UNSUPPORTED_MULTIPLE_UPDATE_TYPE

SQLSTATE: 0A000

Valide solo, explore solo y rebobine las actualizaciones se excluyen mutuamente. Como máximo, se debe establecer uno.

UNSUPPORTED_REWIND

SQLSTATE: 0A000

Las operaciones de rebobinado aún no están habilitadas para esta área de trabajo.

UNSUPPORTED_SAAS_INGESTION_TYPE

SQLSTATE: 0A000

No se admite el tipo <ingestionType> de ingesta proporcionado.

Póngase en contacto con el soporte técnico de Databricks si este problema persiste.

UNSUPPORTED_SPARK_SQL_COMMAND

SQLSTATE: 0A000

'<command>' no se admite en spark.sql("...") API en Canalizaciones declarativas de Spark de Lakeflow Python. Comando soportado: <supportedCommands>.

UNSUPPORTED_SQL_STATEMENT

SQLSTATE: 0A000

La instrucción SQL para <datasetType> '<datasetName>' no es compatible: <operation> no es soportado.

UPDATED_DEFINITION_SET_FOR_NON_DBSQL_PIPELINE

SQLSTATE: 42000

Solo las canalizaciones DBSQL pueden tener "updated_definition".

USE_CATALOG_IN_HMS

SQLSTATE: 0A000

USO CATALOG solo compatible con la canalización declarativa de Spark habilitada para UC

VIEW_TEXT_NOT_SAVED_IN_UC

SQLSTATE: 42000

No se puede actualizar la tabla <tableName> , ya que no tiene una consulta guardada en el catálogo de Unity. Póngase en contacto con el soporte técnico de Databricks.

WORKDAY_HCM_CONNECTOR_FETCH_BATCH_FAILED

SQLSTATE: KD000

Error en Workday HCM. Tipo de API de origen: <saasSourceApiType>.

No se pudo capturar el lote en el desplazamiento '<offset>'.

Pruebe a actualizar la tabla de destino. Si el problema persiste, cree una incidencia.

WORKDAY_REPORTS_CONNECTOR_INSUFFICIENT_OAUTH_SCOPE_ERROR

SQLSTATE: KD000

Se produjo un error en informes de Workday. Tipo de API de origen: <saasSourceApiType>.

No se pudieron capturar los datos del informe "<reportUrl>". El cliente de OAuth no tiene acceso de ámbito suficiente para recuperar el informe.

Para resolverlo, asegúrese de que el cliente de OAuth tiene los ámbitos necesarios configurados en Workday.

Si el error persiste, presente un ticket.

WORKDAY_REPORTS_CONNECTOR_MISSING_REQUIRED_PARAMS_ERROR

SQLSTATE: KD000

Se produjo un error en informes de Workday. Tipo de API de origen: <saasSourceApiType>.

El informe de Workday "<reportUrl>" espera el parámetro "<missingParam>".

Asegúrese de que todos los parámetros del informe se incluyen en la dirección URL; Puede comprobar la configuración del informe de Workday para identificar qué parámetros son obligatorios.

Si el problema persiste, abra una incidencia.

WORKDAY_REPORTS_CONNECTOR_REPORT_NOT_FOUND_ERROR

SQLSTATE: KD000

Se produjo un error en informes de Workday. Tipo de API de origen: <saasSourceApiType>.

La dirección URL del informe '<reportUrl>' es incorrecta. Compruebe si hay errores tipográficos en la dirección URL base o en el nombre del informe para resolver el problema.

Si el problema persiste, abra una incidencia.

WORKDAY_REPORTS_CONNECTOR_REPORT_SIZE_EXCEEDED_ERROR

SQLSTATE: KD000

Se produjo un error en informes de Workday. Tipo de API de origen: <saasSourceApiType>.

El tamaño del informe con la dirección URL "<reportUrl>" es mayor que 2 GB. Asegúrese de que el tamaño del informe no supere este límite.

Si el problema persiste, abra una incidencia.

WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR

SQLSTATE: KD000

Se produjo un error en informes de Workday. Tipo de API de origen: <saasSourceApiType>.

Para más información, consulte WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR

WORKDAY_REPORT_URL_EMPTY

SQLSTATE: 42000

La dirección URL del informe de Workday está vacía. Se debe proporcionar al menos un informe.

WORKSPACE_QUOTA_EXCEEDED

SQLSTATE: 54000

No se puede iniciar la actualización "<updateId>" porque ya hay canalizaciones activas "<maxActiveUpdates>" que se ejecutan en esta área de trabajo.

Installation

ERROR_BASE_ENVIRONMENT_FILE_NOT_FOUND

SQLSTATE: ninguno asignado

Falta el archivo YAML del entorno base. Asegúrese de que el archivo existe en la ruta de acceso especificada.

Descripción: se produce cuando no se encuentra el archivo YAML del entorno base necesario en la ubicación esperada.

Acción sugerida: asegúrese de que el archivo YAML del entorno base existe en la ruta de acceso especificada y vuelva a intentar la instalación.

ERROR_BASE_ENVIRONMENT_FILE_READ

SQLSTATE: ninguno asignado

No se pudo leer el archivo de entorno base debido a una sintaxis o formato incorrectos del archivo YAML. Revise el contenido del archivo.

Descripción: se produce cuando el archivo YAML del entorno base contiene errores de sintaxis o formato.

Acción sugerida: valide y corrija la sintaxis de YAML en el archivo de entorno y vuelva a intentar la instalación.

ERROR_CONNECTION_REFUSED

SQLSTATE: ninguno asignado

No se puede conectar al repositorio de paquetes. Compruebe la conectividad de red, la configuración del firewall o la disponibilidad del repositorio.

Descripción: se produce cuando pip no puede establecer una conexión al repositorio de paquetes remotos debido a problemas de red, restricciones de firewall o tiempo de inactividad del repositorio.

Acción sugerida: compruebe la conectividad de red, compruebe la configuración de firewall o proxy, confirme que la dirección URL del repositorio es accesible e inténtelo de nuevo más tarde si el repositorio puede no estar disponible temporalmente.

ERROR_CORE_PACKAGE_VERSION_CHANGE

SQLSTATE: ninguno asignado

El paquete instalado no es compatible con los paquetes principales de Databricks. Alinee las versiones del paquete con las versiones de biblioteca preinstaladas y vuelva a intentar las instalaciones.

Descripción: se produce cuando se cambia una versión de dependencia principal de Databricks (por ejemplo, pyspark).

Acción sugerida: alinee las versiones del paquete instaladas con las bibliotecas preinstaladas y vuelva a intentar la instalación.

ERROR_CRAN_PACKAGE_NOT_AVAILABLE

SQLSTATE: ninguno asignado

El paquete CRAN no está disponible para la versión de R preinstalada en este proceso.

Descripción: se produce cuando no se publica un paquete de R para la versión de R instalada en el proceso.

Acción sugerida: cambie a un proceso con una versión de R compatible o elija una versión de paquete diferente.

ERROR_DBFS_DISABLED

SQLSTATE: ninguno asignado

El acceso raíz de DBFS público está deshabilitado. Use un almacenamiento alternativo.

Descripción: se produce al intentar instalar bibliotecas desde DBFS, pero la raíz pública de DBFS está deshabilitada en el área de trabajo.

Acción sugerida: use ubicaciones de almacenamiento alternativas, como volúmenes de UC, archivos de área de trabajo o almacenamiento remoto.

ERROR_DIRECTORY_NOT_INSTALLABLE

SQLSTATE: ninguno asignado

El directorio no se puede instalar debido a una estructura de paquetes de Python no válida. Compruebe que el directorio está configurado correctamente.

Descripción: se produce cuando la instalación de PIP se ejecuta en un directorio sin una estructura de paquetes de Python válida.

Acción sugerida: asegúrese de que el directorio contiene un archivo setup.py o pyproject.toml e inténtelo de nuevo, o empaquételo como un wheel.

ERROR_DUPLICATE_INSTALLATION

SQLSTATE: ninguno asignado

Se detectó una instalación de paquetes duplicada. Intente quitar la entrada de paquete duplicada del paquete y reinicie el clúster.

Descripción: se produce cuando el mismo paquete ya está instalado en el clúster y se intenta realizar una instalación duplicada.

Acción sugerida: quite las entradas de paquete duplicadas y reinicie el clúster.

ERROR_FEATURE_DISABLED

SQLSTATE: ninguno asignado

Los volúmenes de Unity Catalog están inactivos en el área de trabajo. Póngase en contacto con el administrador del área de trabajo para habilitar esta característica.

Descripción: Se produce cuando los volúmenes del Catálogo de Unity están deshabilitados en el espacio de trabajo, lo que impide la instalación desde volúmenes UC.

Acción sugerida: póngase en contacto con el administrador del área de trabajo para habilitar volúmenes de Catálogo de Unity o use almacenamiento alternativo.

ERROR_HASH_MISMATCH

SQLSTATE: ninguno asignado

Error de coincidencia de hash de paquete detectado. El hash del paquete descargado no coincide con su hash esperado.

Descripción: se produce cuando el hash de un paquete descargado no coincide con su hash esperado.

Acción sugerida: vuelva a intentar la instalación, reinicie el clúster o mueva instalaciones de paquetes grandes a archivos de área de trabajo, volúmenes de UC o un repositorio de PyPI privado.

ERROR_INVALID_FILE

SQLSTATE: ninguno asignado

No se puede instalar el archivo especificado debido a un tipo de archivo incorrecto. Compruebe que usa el tipo de archivo válido y compatible.

Descripción: se produce cuando no se puede instalar el archivo de biblioteca especificado debido a un tipo o formato de archivo incorrectos.

Acción sugerida: use un tipo de archivo de biblioteca compatible (por ejemplo, wheel, jar) y compruebe la validez de la ruta de acceso.

ERROR_INVALID_REQUIREMENT

SQLSTATE: ninguno asignado

Sintaxis incorrecta o entradas con formato incorrecto en las dependencias de paquetes o archivos de requisitos. Compruebe y corrija el contenido del archivo de requisitos y las dependencias del paquete.

Descripción: formato de requisito no válido o con formato incorrecto detectado en el archivo de requisitos o en las especificaciones de dependencia de un paquete.

Acción sugerida: use el formato correcto (por ejemplo, "library-name==version") en los archivos de requisitos, compruebe que los formatos de dependencia del paquete son válidos y compruebe si hay errores tipográficos o especificadores de versión no admitidos.

ERROR_INVALID_SCRIPT_ENTRY_POINT

SQLSTATE: ninguno asignado

Punto de entrada de script no válido. Compruebe los puntos de entrada del paquete o el archivo setup.py.

Descripción: se produce cuando el punto de entrada del script de consola especificado no existe en los metadatos del paquete.

Acción sugerida: compruebe el nombre del punto de entrada en setup.py o pyproject.toml o póngase en contacto con el mantenedor del paquete.

ERROR_INVALID_STORAGE_CONFIGURATION

SQLSTATE: ninguno asignado

Se detectó un valor de configuración de almacenamiento no válido para la cuenta de almacenamiento en la nube. Compruebe la configuración de almacenamiento, la configuración de la cuenta y las credenciales.

Descripción: se produce cuando la configuración de la cuenta de almacenamiento en la nube está malformada o incorrecta.

Acción sugerida: corrija la configuración de almacenamiento de la cuenta y vuelva a intentar la instalación.

ERROR_INVALID_USER_INPUT

SQLSTATE: ninguno asignado

Se proporciona una sintaxis o argumentos de paquete no válidos. Compruebe que la entrada y las opciones de instalación de biblioteca son válidas.

Descripción: se produce cuando pip se invoca con opciones o argumentos no válidos.

Acción sugerida: compruebe las opciones de pip y la sintaxis de comandos, corrija la entrada y vuelva a intentar la instalación.

ERROR_INVALID_WHEEL

SQLSTATE: ninguno asignado

Se detectó un archivo wheel dañado, malformado o no válido. Compruebe el archivo wheel o vuelva a intentar la instalación.

Descripción: se produce cuando pip encuentra un archivo wheel dañado, incompleto o con formato incorrecto durante la instalación.

Acción sugerida: borre la caché de pip, descargue de nuevo o reconstruya el wheel, reinstale y compruebe su integridad antes de reintentar.

ERROR_JAR_EVICTED

SQLSTATE: ninguno asignado

El paquete JAR fue desalojado por el resolutor debido a conflictos de versión. Resuelva los conflictos de versión de dependencia.

Descripción: se produce cuando la resolución de dependencias de Maven expulsa un archivo jar debido a conflictos de versión con otras dependencias.

Acción sugerida: resuelva los conflictos en la configuración de dependencias o use sobrescrituras de versión explícitas.

ERROR_MAVEN_LIBRARY_RESOLUTION

SQLSTATE: ninguno asignado

No se pueden resolver las coordenadas de la biblioteca de Maven. Compruebe los detalles de la biblioteca, el acceso al repositorio o la disponibilidad del repositorio de Maven.

Descripción: se produce cuando Maven no encuentra ni resuelve la biblioteca especificada debido a coordenadas incorrectas, problemas de red o tiempo de inactividad del repositorio.

Acción sugerida: compruebe el formato groupId:artifactId:version, compruebe las direcciones URL y las credenciales del repositorio, pruebe repositorios alternativos o vuelva a intentarlo más adelante si el repositorio puede no estar disponible temporalmente.

ERROR_NO_MATCHING_DISTRIBUTION

SQLSTATE: ninguno asignado

No se puede descargar o acceder a los recursos de almacenamiento en la nube especificados, normalmente debido a errores de configuración, dependencias que faltan o problemas de conectividad. Revise la configuración del almacenamiento en la nube.

Descripción: se produce cuando el clúster no puede descargar o instalar archivos de biblioteca desde el almacenamiento en la nube, normalmente debido a errores de configuración, dependencias que faltan o problemas de red.

Acción sugerida: asegúrese de que los URI de almacenamiento en la nube son correctos, las credenciales son válidas y los servidores proxy de red o bibliotecas necesarios están configurados correctamente y, a continuación, vuelva a intentar la instalación.

ERROR_NO_SUCH_FILE_OR_DIRECTORY

SQLSTATE: ninguno asignado

El archivo de biblioteca no existe o el usuario no tiene permiso para leer el archivo de biblioteca. Compruebe si el archivo de biblioteca existe y el usuario tiene los permisos adecuados para acceder al archivo.

Descripción: se produce cuando falta o no se puede acceder al archivo especificado en la ruta de acceso especificada durante la instalación de la biblioteca.

Acción sugerida: compruebe que el archivo existe en la ruta de acceso especificada, corrija la ruta de acceso o cargue el archivo que falta y asegúrese de que los permisos adecuados.

ERROR_OPERATION_NOT_SUPPORTED

SQLSTATE: ninguno asignado

La instalación de la biblioteca no es compatible con este tipo de archivo desde el sistema de archivos solicitado. Compruebe el tipo de biblioteca y consulte la guía del usuario sobre la biblioteca admitida en la computación actual.

Descripción: se produce cuando el sistema de archivos de destino, el tipo de archivo o el tipo de proceso no admite la operación solicitada durante la instalación.

Acción sugerida: use un sistema de archivos compatible, un tipo de archivo o un tipo de proceso, o ajuste el destino de instalación a una ubicación admitida.

ERROR_PERMISSION_DENIED

SQLSTATE: ninguno asignado

El usuario no tiene el permiso suficiente para instalar el paquete. Compruebe los derechos de acceso de archivo y directorio para el usuario.

Descripción: se produce cuando el usuario de instalación carece de permiso para leer o escribir un archivo o directorio durante la instalación.

Acción sugerida: compruebe y conceda los permisos adecuados en el directorio de destino o póngase en contacto con el administrador del sistema.

ERROR_PIP_CONFIG

SQLSTATE: ninguno asignado

El usuario intentó instalar una biblioteca de Python, pero el archivo de configuración pip de nivel de área de trabajo o el clúster tiene errores de sintaxis o tiene un formato incorrecto. Compruebe y corrija el archivo de configuración de pip.

Descripción: se produce cuando el archivo de configuración de pip tiene errores de sintaxis o tiene un formato incorrecto.

Acción sugerida: corrija los errores de sintaxis en el archivo de configuración pip, quite el archivo de configuración para usar la configuración predeterminada, reinicie el clúster y vuelva a intentar la instalación.

ERROR_PYTHON_REPL_RESTORE_FAILURE

SQLSTATE: ninguno asignado

Error en la restauración de REPL de Python después de la instalación del paquete.

Descripción: normalmente se produce cuando los paquetes principales de Python se actualizan de una manera que interrumpe el entorno en tiempo de ejecución durante la restauración.

Acción sugerida: revise los paquetes instalados recientemente y los paquetes de instalación compatibles con los valores predeterminados del entorno de Databricks, como numpy, pandas, pyspark y otras bibliotecas estándar. Asegúrese de que las versiones son compatibles con la versión de Databricks Runtime. Si sigue fallando, póngase en contacto con el soporte técnico de Databricks.

ERROR_REQUIREMENTS_FILE_INSTALLATION

SQLSTATE: ninguno asignado

archivos requirements.txt que contienen un volumen de Unity Catalog o una referencia de archivo de área de trabajo no se admiten en clústeres que no tienen habilitado UC. Use un clúster habilitado para UC para instalar requirements.txt que haga referencia a un archivo de volumen o área de trabajo de UC.

Descripción: Se produce cuando requirements.txt incluye volúmenes de UC o referencias a archivos de espacio de trabajo en un clúster sin habilitación UC.

Acción sugerida: use un clúster habilitado para UC para requirements.txt que haga referencia a archivos de área de trabajo o UC, o quite esas referencias.

ERROR_REQUIRE_HASHES

SQLSTATE: ninguno asignado

Faltan hash cuando pip se ejecuta en el modo --require-hashes y un requisito carece de un hash. Solucione los requisitos de hash o deshabilite la comprobación de hash.

Descripción: se produce cuando pip se ejecuta en el modo --require-hashes y un requisito carece de un hash.

Acción sugerida: agregue hashes para todos los paquetes de requirements.txt o quite la marca --require-hashes.

ERROR_RESTART_PYTHON

SQLSTATE: ninguno asignado

No se pudo reiniciar el proceso de Python. Esto puede deberse a la actualización de la versión de un paquete que entra en conflicto con las bibliotecas en tiempo de ejecución preinstaladas. Compruebe y alinee las dependencias del paquete y sus versiones.

Descripción: se produce cuando el entorno de Python no se puede reiniciar después de la instalación de la biblioteca, a menudo debido a conflictos entre los paquetes instalados y las bibliotecas de Databricks Runtime preinstaladas.

Acción sugerida: alinee las versiones de paquete instaladas con las bibliotecas en tiempo de ejecución de Databricks preinstaladas para evitar conflictos y errores de reinicio de Python.

ERROR_RESTART_SCALA

SQLSTATE: ninguno asignado

No se pudo reiniciar el proceso de Scala. Esto puede deberse a que la versión de Scala no coincide con las JAR de scala (por ejemplo, la ejecución de 2.12 jar en un kernel 2.13). Compruebe y alinee las versiones de Scala.

Descripción: Se produce cuando no se puede reiniciar el entorno de Scala, a menudo debido a conflictos por diferencias de versiones de Scala en los JARs de Scala.

Acción sugerida: alinee las versiones de JAR scala con la versión de scala del kernel para evitar conflictos y errores de reinicio de Scala.

ERROR_S3_FORBIDDEN

SQLSTATE: ninguno asignado

Acceso denegado al recurso S3. Revise los permisos de IAM y las políticas del bucket.

Descripción: las credenciales de AWS del clúster no tienen permisos suficientes para acceder al recurso S3 especificado.

Acción sugerida: verifique y actualice las políticas de bucket de S3 o los roles de IAM para conceder el acceso de lectura necesario para el clúster.

ERROR_SCALA_INSTALLATION

SQLSTATE: ninguno asignado

No se pudieron instalar dependencias de Java debido a problemas de permisos o archivos que faltan.

Descripción: se produce cuando no se pueden instalar dependencias de Java, a menudo debido a rutas de acceso, direcciones URL o permisos de archivo no válidos.

Acción sugerida: compruebe las rutas de acceso y las direcciones URL de los archivos, asegúrese de que los permisos adecuados y vuelva a intentar la instalación.

ERROR_SETUP_PY_FAILURE

SQLSTATE: ninguno asignado

La setup.py del paquete de Python no se ejecutó correctamente debido a problemas de compatibilidad, dependencias que faltan o errores de configuración. Compruebe el archivo de instalación de las dependencias.

Descripción: se produce cuando se produce un error en el script de setup.py del paquete debido a problemas de compatibilidad, dependencias que faltan o errores de configuración.

Acción sugerida: actualice las versiones del paquete, instale las dependencias que faltan, reemplace los paquetes en desuso y compruebe el script de setup.py.

ERROR_SSL_VIOLATION

SQLSTATE: ninguno asignado

Pip encontró problemas de protocolo de enlace SSL o comprobación de certificados. Revise las configuraciones y certificados SSL en sus recursos de cómputo o espacio de trabajo.

Descripción: Se produce cuando pip encuentra problemas de negociación SSL o comprobación de certificados al conectarse a repositorios de paquetes.

Acción sugerida: Compruebe que los certificados SSL son válidos, configure hosts confiables en pip, o compruebe la configuración SSL de red.

ERROR_UC_ASSET_NOT_FOUND

SQLSTATE: ninguno asignado

No se encontró el objeto Catalog de Unity. Compruebe que existen catálogos, esquemas y volúmenes.

Descripción: se produce cuando el volumen, el catálogo o el esquema de Unity especificados no existen o no son accesibles.

Acción sugerida: compruebe que la ruta de acceso del objeto del catálogo de Unity es correcta y que el objeto existe en su cuenta.

ERROR_UNSUPPORTED_LIBRARY_TYPE

SQLSTATE: ninguno asignado

El tipo de biblioteca no se admite en este entorno de computación. Compruebe las bibliotecas admitidas para el tipo de cálculo.

Descripción: se produce al intentar instalar un tipo de biblioteca que no es compatible con el proceso seleccionado.

Acción sugerida: use un tipo de biblioteca compatible para este proceso o cambie a un proceso que admita este libraryType.

ERROR_UNSUPPORTED_PYTHON_VERSION

SQLSTATE: ninguno asignado

La biblioteca de Python no es compatible con la versión de Python en esta computadora. Por favor, use una computadora o un equipo con una versión de Python compatible.

Descripción: Ocurre cuando la restricción de un paquete python_requires no coincide con la versión de Python que se ejecuta en el entorno de computación.

Acción sugerida: instale una versión de paquete que admita la versión actual de Python o cambie la versión de proceso.

ERROR_UNSUPPORTED_SSL_ENABLED

SQLSTATE: ninguno asignado

Se produce un error en la instalación cuando la configuración de spark.ssl.enabled está activada, que no es compatible con la instalación de la biblioteca. Deshabilite la configuración de SSL y reinicie el clúster.

Descripción: se produce cuando la configuración spark.ssl.enabled está activada, que no es compatible con la instalación de la biblioteca.

Acción sugerida: deshabilite la configuración de SSL (por ejemplo, establezca spark.ssl.enabled=false o establezca spark.databricks.libraries.ignoreSSL=true) y reinicie el clúster.

ERROR_USER_NOT_FOUND_IN_WORKSPACE

SQLSTATE: ninguno asignado

Error en la instalación de la biblioteca porque el usuario no se encontró en el área de trabajo. Esto suele ocurrir cuando se ha quitado un usuario del área de trabajo, pero su token todavía se está usando.

Descripción: se produce cuando el token de acceso de un usuario está en uso, pero el usuario ya no existe en el área de trabajo especificada.

Acción sugerida: asegúrese de que el usuario tiene acceso al área de trabajo o actualice la configuración del clúster para usar las credenciales de un usuario válido.

ERROR_VOLUME_PERMISSION_DENIED

SQLSTATE: ninguno asignado

Permisos insuficientes en el volumen del catálogo de Unity. Compruebe los derechos de acceso al volumen de UC o solicite acceso al propietario del volumen de UC.

Descripción: Esto ocurre cuando el usuario carece de permisos en el volumen UC especificado.

Acción sugerida: solicite permisos de lectura para el volumen de Unity Catalog al propietario o al administrador del volumen.

ERROR_WHEEL_BUILD

SQLSTATE: ninguno asignado

Pip no pudo compilar correctamente la rueda debido a que faltan dependencias o errores de compilación. Compruebe el contenido y las dependencias del paquete Wheel.

Descripción: se produce cuando pip no puede compilar una rueda para el paquete debido a que faltan dependencias de compilación o errores.

Acción sugerida: asegúrese de que están instaladas las herramientas de compilación y los encabezados, o instale una rueda preconstruida con --no-binary.

ERROR_WHEEL_INSTALLATION

SQLSTATE: ninguno asignado

La rueda no es compatible con el proceso actual debido a la falta de coincidencia de etiquetas de plataforma o a un archivo de rueda no válido. Compruebe el contenido del paquete Wheel, las dependencias y su compatibilidad con el sistema de cómputo.

Descripción: Se produce cuando el archivo wheel no es válido o las etiquetas de la plataforma no coinciden.

Acción sugerida: use una rueda creada para la plataforma actual o recompile la rueda con etiquetas adecuadas.

FAULT_CLOUD_STORAGE_INSTALLATION

SQLSTATE: ninguno asignado

No se puede descargar o acceder a los recursos de almacenamiento en la nube especificados, normalmente debido a errores de configuración o problemas de conectividad. Revise la configuración del almacenamiento en la nube.

Descripción: se produce cuando el proceso no puede descargar o instalar archivos de biblioteca desde el almacenamiento en la nube, normalmente debido a errores de configuración o problemas de red.

Acción sugerida: asegúrese de que los URI de almacenamiento en la nube son correctos, las credenciales son válidas y los servidores proxy de red o bibliotecas necesarios están configurados correctamente y, a continuación, vuelva a intentar la instalación.

FAULT_DBR_VERSION_EOS

SQLSTATE: ninguno asignado

La versión de Databricks Runtime en la computación deja de recibir soporte técnico y ya no es compatible. Utilice una versión de runtime de Databricks compatible.

Descripción: se produce cuando la biblioteca está instalada en una versión de Databricks Runtime que ya no recibe actualizaciones ni soporte técnico.

Acción sugerida: actualice el clúster a una versión admitida de Databricks Runtime y vuelva a intentar la instalación.

FAULT_POLLER_ALLOWLIST_VALIDATION

SQLSTATE: ninguno asignado

La instalación de la biblioteca está bloqueada porque falta en la lista de permitidos. Esto puede ocurrir si se quita una biblioteca de la lista de permitidos después de agregarla a un clúster. Compruebe la lista de permitidos de la biblioteca, solicite al administrador que agregue bibliotecas a la lista de permitidos o quite paquetes no autorizados del clúster.

Descripción: Ocurre cuando una o varias bibliotecas solicitadas no están aprobadas en la lista blanca del metastore y son bloqueadas para su instalación. Esto también puede ocurrir si se permitió anteriormente una biblioteca, pero posteriormente se quitó de la lista de permitidos.

Acción sugerida: compruebe la lista de permitidos de metastore, solicite al administrador que agregue las bibliotecas que faltan a la lista de permitidos o quite las bibliotecas no autorizadas del clúster.

FAULT_POLLER_DBR_UNSUPPORTED

SQLSTATE: ninguno asignado

La versión de Databricks Runtime en el clúster ha alcanzado su fin de soporte técnico y ya no se admite. Utilice una versión de runtime de Databricks compatible.

Descripción: se produce cuando la biblioteca está instalada en una versión de Databricks Runtime que ya no recibe actualizaciones ni soporte técnico.

Acción sugerida: cambie el clúster para usar una versión admitida de Databricks Runtime y vuelva a intentar la instalación.

FAULT_POLLER_LIBRARY_STORAGE_FORMAT_UNSUPPORTED

SQLSTATE: ninguno asignado

Es posible que la versión de Databricks Runtime seleccionada no admita determinados formatos de almacenamiento de biblioteca, como rutas de acceso de gs:// o abfss://. Actualice Databricks Runtime o consulte la guía del usuario sobre las funcionalidades de diferentes versiones de Databricks Runtime.

Descripción: se produce cuando la versión de Databricks Runtime no admite el protocolo o el formato de almacenamiento de biblioteca especificados.

Acción sugerida: use un esquema de almacenamiento compatible o actualice a una versión de Databricks Runtime que admita el formato de almacenamiento deseado.

FAULT_POLLER_UNITY_CATALOG_NOT_AVAILABLE_ERROR

SQLSTATE: ninguno asignado

La instalación de la biblioteca requiere el catálogo de Unity, pero El catálogo de Unity no está disponible en el clúster o el área de trabajo. Póngase en contacto con el administrador del área de trabajo para habilitar esta característica.

Descripción: se produce cuando una instalación de biblioteca requiere el catálogo de Unity, pero el catálogo de Unity no está disponible en el área de trabajo.

Acción sugerida: solicite la administración para habilitar el catálogo de Unity en el área de trabajo o use un clúster que admita el catálogo de Unity.

FAULT_STORAGE_ACCESS_FAILURE

SQLSTATE: ninguno asignado

No se puede acceder a los recursos de almacenamiento en la nube debido a problemas de credenciales, redes o permisos. Compruebe la configuración de acceso al almacenamiento en la nube.

Descripción: se produce cuando el proceso no puede acceder a los recursos de almacenamiento en la nube debido a problemas de credenciales, redes o permisos.

Acción sugerida: compruebe las credenciales de almacenamiento, la conectividad de red y los permisos de acceso y vuelva a intentar la instalación.

Miscellaneous

ABAC_POLICIES_NOT_SUPPORTED_FOR_RUNTIME_VERSION

SQLSTATE: ninguno asignado

Versión de DBR <abacDBRMajorVersion>. <abacDBRMinorVersion> o superior es necesario para consultar la tabla <tableFullName>, debido a que está protegida por una directiva de ABAC.

AZURE_ENTRA_CREDENTIALS_MISSING

SQLSTATE: ninguno asignado

Faltan credenciales de Azure Entra (también conocidas como Azure Active Directory).

Asegúrese de que está conectado con su cuenta de Entra.

o que ha configurado un token de acceso personal (PAT) de Azure DevOps en Configuración de usuario > Integración de Git.

Si no usa un PAT y está usando Azure DevOps con la API de Repos,

Debe usar un token de acceso de Azure Entra.

Consulte https://docs.microsoft.com/azure/databricks/dev-tools/api/latest/aad/app-aad-token los pasos para adquirir un token de acceso de Azure Entra.

<pickOrCreateNewCredential>

AZURE_ENTRA_CREDENTIALS_PARSE_FAILURE

SQLSTATE: ninguno asignado

Se encontró un error con las credenciales de Azure Entra (Azure Active Directory). Pruebe a cerrar la sesión de

Entra (https://portal.azure.com) y volver a iniciarla.

Como alternativa, también puede ir a Configuración de usuario > Integración de Git para configurar

configurar un token de acceso personal para Azure DevOps.

<pickOrCreateNewCredential>

AZURE_ENTRA_LOGIN_ERROR

SQLSTATE: ninguno asignado

Se encontró un error con las credenciales de Azure Active Directory. Pruebe a cerrar la sesión de

Azure Active Directory (https://portal.azure.com) y volver a iniciarla.

<pickOrCreateNewCredential>

AZURE_ENTRA_WORKLOAD_IDENTITY_ERROR

SQLSTATE: ninguno asignado

Se encontró un error en la identidad de carga de trabajo de Azure debido a una excepción de Azure: <azureWorkloadIdentityExceptionMessage>

CLEAN_ROOM_DELTA_SHARING_ENTITY_NOT_AUTHORIZED

SQLSTATE: ninguno asignado

No se puede solicitar la generación de credenciales para el uso compartido Delta de sala limpia.

CLEAN_ROOM_HIDDEN_SECURABLE_PERMISSION_DENIED

SQLSTATE: ninguno asignado

El elemento protegible <securableName> con el tipo <securableType> y la variante <securableKind> es un sistema de sala limpio administrado, el usuario no tiene acceso.

CONSTRAINT_ALREADY_EXISTS

SQLSTATE: ninguno asignado

La restricción con el nombre <constraintName> ya existe, elija otro nombre.

CONSTRAINT_DOES_NOT_EXIST

SQLSTATE: ninguno asignado

La restricción <constraintName> no existe.

COULD_NOT_READ_REMOTE_REPOSITORY

SQLSTATE: ninguno asignado

No se pudo leer el repositorio remoto (<repoUrl>).

Se usó<because> la credencial<credentialName> (<credentialId>).

El proveedor de esta credencial de Git es <gitCredentialProvider> y el correo electrónico o nombre de usuario es <gitCredentialUsername>.

Vaya al proveedor de Git remoto para asegurarse de que:

  1. La dirección URL del repositorio de Git remoto es válida.

  2. El token de acceso personal o la contraseña de la aplicación tiene el acceso correcto al repositorio.

<pickOrCreateNewCredential>

COULD_NOT_RESOLVE_REPOSITORY_HOST

SQLSTATE: ninguno asignado

No se pudo resolver el host para <repoUrl>.

Se usó<because> la credencial<credentialName> (<credentialId>).

El proveedor de esta credencial de Git es <gitCredentialProvider> y el correo electrónico o nombre de usuario es <gitCredentialUsername>.

CSMS_BEGINNING_OF_TIME_NOT_SUPPORTED

SQLSTATE: ninguno asignado

El parámetro beginning_of_time no puede ser true.

CSMS_CONTINUATION_TOKEN_EXPIRED

SQLSTATE: ninguno asignado

El token de continuación ha expirado. Causa: <msg>

CSMS_CREDENTIAL_NAME_MISSING

SQLSTATE: ninguno asignado

Falta el nombre de credencial en la solicitud

CSMS_FILE_EVENTS_VALIDATION_USER_ERROR

SQLSTATE: ninguno asignado

Error de validación de eventos de archivo para la operación <operation>: <message>

CSMS_INVALID_CONTINUATION_TOKEN

SQLSTATE: ninguno asignado

Token de continuación no válido. Causa: <msg>

CSMS_INVALID_FILE_EVENTS_QUEUE

SQLSTATE: ninguno asignado

<missingField> falta en <queueType> la solicitud

CSMS_INVALID_MAX_OBJECTS

SQLSTATE: ninguno asignado

Valor <value> no válido para el parámetro max_objects, valor esperado en [<minValue>, <maxValue>]

CSMS_INVALID_SUBSCRIPTION_ID

SQLSTATE: ninguno asignado

Identificador de suscripción no válido. Causa: <msg>

CSMS_INVALID_URI_FORMAT

SQLSTATE: ninguno asignado

Formato de URI no válido. Se esperaba un volumen (por ejemplo, "/Volumes/catalog/schema/volume") o una ruta de acceso de almacenamiento en la nube (por ejemplo, "s3://some-uri")

CSMS_KAFKA_TOPIC_MISSING

SQLSTATE: ninguno asignado

Debe proporcionar un tema de Kafka

CSMS_LOCATION_ERROR

SQLSTATE: ninguno asignado

No se pudieron enumerar los objetos. Hay problemas en la ubicación que se deben resolver. Detalles: <msg>

CSMS_LOCATION_NOT_KNOWN

SQLSTATE: ninguno asignado

No se encontró ninguna ubicación para el URI <path>

CSMS_METASTORE_ID_MISSING

SQLSTATE: ninguno asignado

Debe proporcionar un UUID de metastore

CSMS_METASTORE_RESOLUTION_FAILED

SQLSTATE: ninguno asignado

No se puede determinar un metastore para la solicitud.

CSMS_RESOLVE_CREDENTIAL_ID_FAILED

SQLSTATE: ninguno asignado

No se pudo resolver el identificador de credencial para la credencial: <credentialName>

CSMS_RESOLVE_LOCAL_SHARD_NAME_FAILED

SQLSTATE: ninguno asignado

CSMS no pudo resolver el nombre de partición local

CSMS_SERVICE_DISABLED

SQLSTATE: ninguno asignado

El servicio está deshabilitado

CSMS_SHARD_NAME_MISSING_IN_REQUEST

SQLSTATE: ninguno asignado

Falta el nombre de partición de una petición RPC a CSMS

CSMS_STORAGE_CREDENTIAL_DOES_NOT_EXIST

SQLSTATE: ninguno asignado

La credencial de almacenamiento no existe.

CSMS_SUBSCRIPTION_ID_MISSING_IN_REQUEST

SQLSTATE: ninguno asignado

Falta el identificador de suscripción en la solicitud.

CSMS_SUBSCRIPTION_NOT_FOUND

SQLSTATE: ninguno asignado

No se encontró la suscripción con el identificador <id> .

CSMS_UNITY_CATALOG_DISABLED

SQLSTATE: ninguno asignado

El catálogo de Unity está deshabilitado para esta área de trabajo

CSMS_UNITY_CATALOG_ENTITY_NOT_FOUND

SQLSTATE: ninguno asignado

No se encontró la entidad de Unity Catalog. Asegúrese de que existe el catálogo, el esquema, el volumen o la ubicación externa.

CSMS_UNITY_CATALOG_EXTERNAL_LOCATION_DOES_NOT_EXIST

SQLSTATE: ninguno asignado

La ubicación externa de Unity Catalog no existe.

CSMS_UNITY_CATALOG_EXTERNAL_STORAGE_OVERLAP

SQLSTATE: ninguno asignado

El URI se superpone con otros volúmenes

CSMS_UNITY_CATALOG_METASTORE_DOES_NOT_EXIST

SQLSTATE: ninguno asignado

No se puede determinar un metastore para la solicitud. Metastore no existe

CSMS_UNITY_CATALOG_PATH_BASED_ACCESS_TO_TABLE_WITH_FILTER_NOT_ALLOWED

SQLSTATE: ninguno asignado

La URI dirige a una tabla con un filtro de nivel de fila o una máscara de columna. No se permite el acceso basado en ruta a esta tabla.

CSMS_UNITY_CATALOG_PERMISSION_DENIED

SQLSTATE: ninguno asignado

Permiso denegado

CSMS_UNITY_CATALOG_RATE_LIMITED

SQLSTATE: ninguno asignado

Se superó el límite de velocidad de solicitud. Vuelva a intentarlo después de algún tiempo.

CSMS_UNITY_CATALOG_TABLE_DOES_NOT_EXIST

SQLSTATE: ninguno asignado

La tabla del catálogo de Unity no existe.

CSMS_UNITY_CATALOG_VOLUME_DOES_NOT_EXIST

SQLSTATE: ninguno asignado

El volumen de Unity Catalog no existe.

CSMS_UNSUPPORTED_FILE_EVENTS_QUEUE

SQLSTATE: ninguno asignado

Cola de eventos de archivo desconocida en la solicitud

CSMS_UNSUPPORTED_MANAGED_RESOURCE_TYPE

SQLSTATE: ninguno asignado

No se admite el tipo <resourceType> de recurso administrado

CSMS_UNSUPPORTED_SECURABLE

SQLSTATE: ninguno asignado

Protegible no admitido

CSMS_URI_MISSING

SQLSTATE: ninguno asignado

Debe proporcionar el URI

CSMS_URI_TOO_LONG

SQLSTATE: ninguno asignado

El URI proporcionado es demasiado largo. La longitud máxima permitida es <maxLength>.

CSMS_USER_CONTEXT_MISSING_IN_REQUEST

SQLSTATE: ninguno asignado

Falta el contexto de usuario de una solicitud rpc a CSMS

DMK_CATALOGS_DISALLOWED_ON_CLASSIC_COMPUTE

SQLSTATE: ninguno asignado

No se puede acceder al almacenamiento predeterminado de Databricks mediante proceso clásico. Use el proceso sin servidor para acceder a los datos en el almacenamiento predeterminado.

GITHUB_APP_COULD_NOT_REFRESH_CREDENTIALS

SQLSTATE: ninguno asignado

Error en la operación porque no se pudieron actualizar las credenciales de la aplicación de GitHub vinculadas.

Inténtelo de nuevo o vaya a Configuración > de usuario Integración de Git e intente volver a vincular la cuenta del proveedor de Git.

Si el problema persiste, envíe una incidencia de soporte técnico.

<pickOrCreateNewCredential>

GITHUB_APP_CREDENTIALS_NO_ACCESS

SQLSTATE: ninguno asignado

El enlace a tu cuenta de GitHub no proporciona acceso. Para corregir este error:

  1. Un administrador del repositorio debe ir a https://github.com/apps/databricks/installations/new e instalar la aplicación de GitHub de Databricks en el repositorio.

Como alternativa, un propietario de la cuenta de GitHub puede instalar la aplicación en la cuenta para conceder acceso a los repositorios de la cuenta.

  1. Si la aplicación ya está instalada, haga que un administrador se asegure de que, si están usando acceso restringido con la opción "Seleccionar solo determinados repositorios", hayan incluido el acceso a este repositorio seleccionándolo.

Consulte https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app para obtener más información.

<pickOrCreateNewCredential>

GITHUB_APP_EXPIRED_CREDENTIALS

SQLSTATE: ninguno asignado

Las credenciales de la aplicación de GitHub vinculadas expiraron después de 6 meses de inactividad.

Vaya a Configuración de usuario > Integración de Git e intente reconectar sus credenciales.

Si el problema persiste, envíe una incidencia de soporte técnico.

<pickOrCreateNewCredential>

GITHUB_APP_INSTALL_ON_DIFFERENT_USER_ACCOUNT

SQLSTATE: ninguno asignado

El enlace a tu cuenta de GitHub no proporciona acceso. Para corregir este error:

  1. El usuario de GitHub <gitCredentialUsername> debe ir a https://github.com/apps/databricks/installations/new e instalar la aplicación en la cuenta <gitCredentialUsername> para permitir el acceso.

  2. Si el usuario <gitCredentialUsername> ya ha instalado la aplicación y usa acceso con ámbito con la opción "Seleccionar solo repositorios", debe asegurarse de que ha incluido el acceso a este repositorio seleccionándolo.

Consulte https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app para obtener más información.

<pickOrCreateNewCredential>

GITHUB_APP_INSTALL_ON_ORGANIZATION

SQLSTATE: ninguno asignado

El enlace a tu cuenta de GitHub no proporciona acceso. Para corregir este error:

  1. Un propietario de la organización <organizationName> de GitHub debe ir a https://github.com/apps/databricks/installations/new e instalar la aplicación en la organización <organizationName> para permitir el acceso.

  2. Si la aplicación ya está instalada en la organización <organizationName> de GitHub, un propietario de esta organización debe asegurarse de que, si utiliza acceso delimitado con la opción "Seleccionar solo repositorios", ha incluido el acceso a este repositorio seleccionándolo.

Consulte https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app para obtener más información.

<pickOrCreateNewCredential>

GITHUB_APP_INSTALL_ON_YOUR_ACCOUNT

SQLSTATE: ninguno asignado

El enlace a tu cuenta de GitHub no proporciona acceso. Para corregir este error:

  1. Vaya a https://github.com/apps/databricks/installations/new e instale la aplicación en su cuenta <gitCredentialUsername> para permitir el acceso.

  2. Si la aplicación ya está instalada y usa acceso con ámbito con la opción "Seleccionar solo repositorios", asegúrese de que ha incluido el acceso a este repositorio seleccionándolo.

Consulte https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app para obtener más información.

<pickOrCreateNewCredential>

GIT_CLUSTER_NOT_READY

SQLSTATE: ninguno asignado

El clúster de Git no está listo.

GIT_CREDENTIAL_GENERIC_INVALID

SQLSTATE: ninguno asignado

Credenciales de proveedor de Git no válidas para la dirección URL <repoUrl>del repositorio .

Se usó<because> la credencial<credentialName> (<credentialId>).

El proveedor de esta credencial de Git es <gitCredentialProvider> y el correo electrónico o nombre de usuario es <gitCredentialUsername>.

Vaya al proveedor de Git remoto para asegurarse de que:

  1. Ha introducido el correo electrónico de usuario de Git o nombre de usuario correcto con las credenciales del proveedor de Git.

  2. El token tiene el acceso correcto al repositorio.

  3. El token no ha expirado.

  4. Si tiene SSO habilitado con el proveedor de Git, asegúrese de autorizar el token.

<pickOrCreateNewCredential>

GIT_CREDENTIAL_INVALID_PAT

SQLSTATE: ninguno asignado

Credenciales de token de acceso personal del proveedor de Git no válidas para la dirección URL <repoUrl>del repositorio .

Se usó<because> la credencial<credentialName> (<credentialId>).

El proveedor de esta credencial de Git es <gitCredentialProvider> y el correo electrónico o nombre de usuario es <gitCredentialUsername>.

Vaya al proveedor de Git remoto para asegurarse de que:

  1. Ha introducido el correo electrónico de usuario de Git o nombre de usuario correcto con las credenciales del proveedor de Git.

  2. El token tiene el acceso correcto al repositorio.

  3. El token no ha expirado.

  4. Si tiene SSO habilitado con el proveedor de Git, asegúrese de autorizar el token.

<pickOrCreateNewCredential>

.

GIT_CREDENTIAL_MISSING

SQLSTATE: ninguno asignado

No hay credenciales de Git configuradas, pero credenciales necesarias para este repositorio (<repoUrl>).

Vaya a Configuración de Usuario > Integración de Git para configurar sus credenciales de Git.

GIT_CREDENTIAL_NO_WRITE_PERMISSION

SQLSTATE: ninguno asignado

No se ha concedido el acceso de escritura al repositorio <gitCredentialProvider> (<repoUrl>).

Se usó<because> la credencial<credentialName> (<credentialId>).

El proveedor de esta credencial de Git es <gitCredentialProvider> y el correo electrónico o nombre de usuario es <gitCredentialUsername>.

Asegúrese de que (<gitCredentialUsername>) tiene acceso de escritura a este repositorio remoto.

GIT_CREDENTIAL_PROVIDER_MISMATCHED

SQLSTATE: ninguno asignado

Proveedor de credenciales de Git incorrecto para el repositorio.

No tiene una credencial de Git con un proveedor de Git (<repositoryGitProvider>) que coincida con el del proveedor <repoUrl>de Git del repositorio.

Vaya a Configuración de > usuario Integración de Git para crear una nueva credencial para el proveedor <repositoryGitProvider>de Git.

GIT_FILE_NAME_TOO_LONG

SQLSTATE: ninguno asignado

Los nombres de archivo o carpeta en la ruta de acceso <path> superan el máximo permitido de <maxComponentBytes> bytes por componente.

Los sistemas basados en Unix solo admiten hasta <maxComponentBytes> bytes por nombre de archivo o carpeta.

Violaciones: <violations>

Acorte los componentes problemáticos para continuar.

GIT_PROVIDER_INFO_MISSING

SQLSTATE: ninguno asignado

Falta información del proveedor de Git o está vacía.

Agregue la información de credenciales de Git e inténtelo de nuevo.

Si el problema persiste, envíe una incidencia de soporte técnico.

GIT_PROXY_CLUSTER_NOT_READY

SQLSTATE: ninguno asignado

El clúster de proxy de Git no está listo.

GIT_PROXY_CONNECTION_FAILED

SQLSTATE: ninguno asignado

No se pudo conectar al proxy de Git, compruebe si el proxy de Git está en funcionamiento.

Error: <error>

GIT_SECRET_IN_CODE

SQLSTATE: ninguno asignado

Se encontraron secretos en la confirmación. Detalle: <secretDetail>. Para corregir este error:

Quite el secreto y vuelva a intentar la confirmación.

Si el problema persiste, envíe una incidencia de soporte técnico.

GIT_STALE_REMOTE_REFS

SQLSTATE: ninguno asignado

Captura de Git completada pero no pudo actualizar referencias remotas obsoletas debido a conflictos de ruta de acceso del sistema de archivos (por ejemplo, ramas eliminadas o "feature" frente a "feature/sub").

Error de Git: <gitErrorMessage>

HIERARCHICAL_NAMESPACE_NOT_ENABLED

SQLSTATE: ninguno asignado

La cuenta de Almacenamiento de Azure no tiene habilitado el espacio de nombres jerárquico.

INVALID_FIELD_LENGTH

SQLSTATE: 54000

<rpcName> <fieldName> demasiado largo. La longitud máxima es <maxLength> caracteres.

INVALID_PARAMETER_VALUE

SQLSTATE: 22023

<msg>

Para obtener más información, consulte INVALID_PARAMETER_VALUE

JOBS_TASK_FRAMEWORK_TASK_RUN_OUTPUT_NOT_FOUND

SQLSTATE: ninguno asignado

Marco de tareas: no se encontró la salida de ejecución de la tarea para la tarea con runId <runId> y orgId <orgId>.

JOBS_TASK_FRAMEWORK_TASK_RUN_STATE_NOT_FOUND

SQLSTATE: ninguno asignado

Marco de tareas: no se encontró el estado de ejecución de la tarea para la tarea con runId <runId> y orgId <orgId> .

JOBS_TASK_REGISTRY_TASK_CLIENT_CONFIG_DOES_NOT_EXIST

SQLSTATE: ninguno asignado

El valor de RPC ClientConfig para la tarea con identificador <taskId> no existe.

JOBS_TASK_REGISTRY_TASK_DOES_NOT_EXIST

SQLSTATE: ninguno asignado

La tarea con identificador <taskId> no existe.

JOBS_TASK_REGISTRY_UNSUPPORTED_JOB_TASK

SQLSTATE: ninguno asignado

Registro de tareas: JobTask no admitido o desconocido con la clase <taskClassName>.

PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_EXTERNAL_SHALLOW_CLONE

SQLSTATE: ninguno asignado

No se admite el acceso basado en ruta de acceso a la tabla de clonación superficial externa <tableFullName>. Use nombres de tabla para acceder en su lugar al clon superficial.

PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_FABRIC

SQLSTATE: ninguno asignado

No se ha encontrado la tabla de Fabric ubicada en la dirección URL "<url>". Use el REFRESH FOREIGN CATALOG comando para rellenar las tablas de Fabric.

PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_TABLES_WITH_ROW_COLUMN_ACCESS_POLICIES

SQLSTATE: ninguno asignado

No se admite el acceso basado en ruta a la tabla <tableFullName> con filtro de fila o máscara de columna.

PERMISSION_DENIED

SQLSTATE: ninguno asignado

<principalName> no tiene <msg> en <resourceType> '<resourceName>'.

REDASH_DELETE_ASSET_HANDLER_INVALID_INPUT

SQLSTATE: ninguno asignado

No se puede analizar la solicitud de eliminación de objetos: <invalidInputMsg>

REDASH_DELETE_OBJECT_NOT_IN_TRASH

SQLSTATE: ninguno asignado

No se puede eliminar el objeto <resourceName> que no está en la papelera

REDASH_PERMISSION_DENIED

SQLSTATE: ninguno asignado

No se pudo encontrar o tener permiso para acceder al recurso <resourceId>

REDASH_QUERY_NOT_FOUND

SQLSTATE: ninguno asignado

No se puede encontrar el recurso desde el identificador de consulta <queryId>

REDASH_QUERY_SNIPPET_CREATION_FAILED

SQLSTATE: ninguno asignado

No se puede crear un fragmento de código de consulta nuevo

REDASH_QUERY_SNIPPET_QUOTA_EXCEEDED

SQLSTATE: ninguno asignado

Se ha alcanzado la cuota del número de fragmentos de código de consulta. La cuota actual es <quota>.

REDASH_QUERY_SNIPPET_TRIGGER_ALREADY_IN_USE

SQLSTATE: ninguno asignado

El desencadenador <trigger> especificado ya está en uso por otro fragmento de código de consulta de esta área de trabajo.

REDASH_RESOURCE_NOT_FOUND

SQLSTATE: ninguno asignado

El recurso <resourceName> solicitado no existe

REDASH_RESTORE_ASSET_HANDLER_INVALID_INPUT

SQLSTATE: ninguno asignado

No se puede analizar la solicitud de eliminación de objetos: <invalidInputMsg>

REDASH_RESTORE_OBJECT_NOT_IN_TRASH

SQLSTATE: ninguno asignado

No se puede restaurar el objeto <resourceName> que no está en la papelera

REDASH_TRASH_OBJECT_ALREADY_IN_TRASH

SQLSTATE: ninguno asignado

No se puede enviar a la papelera un objeto que ya está en la papelera <resourceName>

REDASH_UNABLE_TO_GENERATE_RESOURCE_NAME

SQLSTATE: ninguno asignado

No se pudo generar el nombre del recurso a partir del identificador <id>

REDASH_VISUALIZATION_CREATION_FAILED

SQLSTATE: ninguno asignado

No se puede crear una nueva visualización

REDASH_VISUALIZATION_NOT_FOUND

SQLSTATE: ninguno asignado

No se pudo encontrar la visualización <visualizationId>

REDASH_VISUALIZATION_QUOTA_EXCEEDED

SQLSTATE: ninguno asignado

Se ha alcanzado la cuota del número de visualizaciones en la consulta <query_id> . La cuota actual es <quota>.

REPOSITORY_URL_NOT_FOUND

SQLSTATE: ninguno asignado

No se encontró el repositorio remoto (<repoUrl>).

Se usó<because> la credencial<credentialName> (<credentialId>).

El proveedor de esta credencial de Git es <gitCredentialProvider> y el correo electrónico o nombre de usuario es <gitCredentialUsername>.

Vaya al proveedor de Git remoto para asegurarse de que:

  1. La dirección URL del repositorio de Git remoto es válida.

  2. El token de acceso personal o la contraseña de la aplicación tiene el acceso correcto al repositorio.

<pickOrCreateNewCredential>

RESOURCE_ALREADY_EXISTS

SQLSTATE: 42710

<resourceType> '<resourceIdentifier>' ya existe

RESOURCE_DOES_NOT_EXIST

SQLSTATE: 42704

<resourceType> '<resourceIdentifier>' no existe.

ROW_COLUMN_ACCESS_POLICIES_NOT_SUPPORTED_ON_ASSIGNED_CLUSTERS

SQLSTATE: ninguno asignado

No se admite la consulta en la tabla <tableFullName> con filtro de fila o máscara de columna en clústeres asignados.

ROW_COLUMN_SECURITY_NOT_SUPPORTED_WITH_TABLE_IN_DELTA_SHARING

SQLSTATE: ninguno asignado

La tabla <tableFullName> se comparte con Delta Sharing y no puede usar la seguridad de fila o columna.

SERVICE_TEMPORARILY_UNAVAILABLE

SQLSTATE: ninguno asignado

El <serviceName> servicio está temporalmente en mantenimiento. Inténtelo de nuevo más tarde.

TABLE_WITH_ROW_COLUMN_SECURITY_NOT_SUPPORTED_IN_ONLINE_MODE

SQLSTATE: ninguno asignado

La tabla <tableFullName> no puede tener vistas materializadas en línea y seguridad de fila o columna.

TOO_MANY_ROWS_TO_UPDATE

SQLSTATE: ninguno asignado

Hay demasiadas filas para actualizar, se anulará la actualización.

UC_ABAC_UNSUPPORTED_TABLE_TYPE

SQLSTATE: ninguno asignado

Las directivas de ABAC no se admiten para el tipo <tableType>de tabla .