Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Se aplica a:
Databricks SQL
Databricks Runtime 12.2 y versiones posteriores
Las condiciones de error son cadenas descriptivas y legibles que son exclusivas del error que describen.
Puede usar condiciones de error para controlar mediante programación los errores de la aplicación sin necesidad de analizar el mensaje de error.
Se trata de una lista de condiciones de error comunes y con nombre devueltas por Azure Databricks.
Databricks Runtime y Databricks SQL
ADD_DEFAULT_UNSUPPORTED
No se pudo ejecutar el comando <statementType> porque los valores de DEFAULT no se admiten al agregar nuevas columnas a la fuente de datos de destino existente por el proveedor de tablas: "<dataSource>".
AGGREGATE_FUNCTION_IN_NESTED_REFERENCES_NOT_SUPPORTED
Se detectaron funciones de agregado en referencias <expression> de ámbito externo que no se admiten.
AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION
La expresión <sqlExpr> no determinista no debe aparecer en los argumentos de una función de agregado.
AI_FUNCTION_HTTP_PARSE_CAST_ERROR
No se pudo analizar la salida del modelo al convertir en el returnType especificado: "<dataType>", la respuesta JSON era: "<responseString>". Actualice returnType para que coincida con el contenido del tipo representado por la respuesta JSON y vuelva a intentar la consulta. Excepción: <errorMessage>
AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR
La salida del modelo real tiene más de una columna "<responseString>". Sin embargo, el tipo de valor devuelto especificado["<dataType>"] solo tiene una columna. Actualice returnType para que contenga el mismo número de columnas que la salida del modelo y vuelva a intentar la consulta.
AI_FUNCTION_HTTP_REQUEST_ERROR
Error al realizar una solicitud HTTP para la función <funcName>: <errorMessage>
AI_FUNCTION_INVALID_HTTP_RESPONSE
Respuesta HTTP no válida para la función <funcName>: <errorMessage>
AI_FUNCTION_INVALID_MAX_WORDS
El número máximo de palabras debe ser un entero no negativo, pero se obtuvo <maxWords>.
AI_FUNCTION_INVALID_MODEL_PARAMETERS
Los parámetros del modelo proporcionados (<modelParameters>) no son válidos en la AI_QUERY función para servir el punto de conexión "<endpointName>".
Para obtener más información, consulte AI_FUNCTION_INVALID_MODEL_PARAMETERS
AI_FUNCTION_INVALID_RESPONSE_FORMAT_TYPE
Función de IA: "<functionName>" requiere una cadena válida <format> para el responseFormat parámetro, pero encontró el siguiente formato de respuesta: "<invalidResponseFormat>". Excepción: <errorMessage>
AI_FUNCTION_JSON_PARSE_ERROR
Error al analizar la respuesta de la JSON función <funcName>: <errorMessage>
AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR
No se pudo analizar el esquema del punto de conexión de servicio "<endpointName>": <errorMessage>, la respuesta JSON era: "<responseJson>".
Establezca el parámetro returnType de forma manual en la función AI_QUERY para anular la resolución del esquema.
AI_FUNCTION_REGISTRY_LOOKUP_FAILURE
No se pudo resolver dinámicamente la función "<functionName>" del Registro de funciones de IA.
AI_FUNCTION_UNSUPPORTED_ERROR
La función <funcName> no se admite en el entorno actual. Solo está disponible en Databricks SQL Pro y sin servidor.
AI_FUNCTION_UNSUPPORTED_REQUEST
No se pudo evaluar la función SQL "<functionName>" porque el argumento proporcionado de <invalidValue> tiene "<invalidDataType>", pero solo se admiten los siguientes tipos: <supportedDataTypes>. Actualice la llamada de función para proporcionar un argumento de tipo de cadena y vuelva a intentar la consulta.
AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT
Formato de respuesta no admitido encontrado.
Para obtener más información, consulte AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT.
AI_FUNCTION_UNSUPPORTED_RETURN_TYPE
Función de IA: "<functionName>" no admite el siguiente tipo como tipo de valor devuelto: "<typeName>". El tipo de valor devuelto debe ser un tipo SQL válido comprendido por Catalyst y compatible con la función de IA. Los tipos admitidos actuales incluyen: <supportedValues>
AI_INVALID_ARGUMENT_VALUE_ERROR
El valor proporcionado "<argValue>" no es compatible con el argumento "<argName>". Los valores admitidos son: <supportedValues>
AI_QUERY_ENDPOINT_NOT_SUPPORT_STRUCTURED_OUTPUT
Se esperaba que el tipo de tarea de puntos de conexión de servicio fuera "Chat" por la compatibilidad con la salida estructurada, pero se encontró "<taskType>" para el punto de conexión "<endpointName>".
AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH
El elemento "<sqlExpr>" proporcionado no es compatible con el argumento returnType.
AI_SEARCH_CONFLICTING_QUERY_PARAM_SUPPLY_ERROR
Parámetros en conflicto detectados para vector_search la función SQL: <conflictParamNames>.<hint>
AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR
vector_search No se admite la función SQL con el tipo <embeddingColumnType> de columna de inserción.
AI_SEARCH_EMPTY_QUERY_PARAM_ERROR
vector_search Falta el parámetro de entrada de consulta de la función SQL; especifique al menos uno de: <parameterNames>.
AI_SEARCH_HYBRID_QUERY_PARAM_DEPRECATION_ERROR
El parámetro query para la función SQL vector_search no se admite para la búsqueda de vectores hybrid. Utilice query_text en su lugar.
AI_SEARCH_HYBRID_TEXT_NOT_FOUND_ERROR
Texto de consulta no encontrado en la función de SQL vector_search para la búsqueda de vectores hybrid. Proporcione query_text.
AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR
vector_search No se admite la función SQL con tipo <indexType> de índice.
AI_SEARCH_MISSING_EMBEDDING_INPUT_ERROR
query_vector debe especificarse para el índice <indexName> porque no está asociado a un punto de conexión del modelo de inserción.
AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR
Error vector_search al materializar la consulta de la función SQL <dataType> del tipo Spark <errorMessage> a objetos nativos de Scala durante la codificación de la solicitud.
AI_SEARCH_QUERY_TYPE_UNSUPPORTED_ERROR
vector_search No se admite la función SQL con tipo <unexpectedQueryType> de consulta. Seleccione uno de: <supportedQueryTypes>.
AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR
vector_search Función SQL con num_results mayor que <maxLimit> no se admite. El límite especificado era <requestedLimit>. Inténtelo de nuevo con num_results <= <maxLimit>
AI_TOP_DRIVERS_PARAM_OUT_OF_RANGE
El ai_top_drivers parámetro <param> debe estar entre <lo> y <hi>.
AI_TOP_DRIVERS_UNSUPPORTED_AGGREGATION_TYPE
ai_top_drivers no admite el agregado <aggName>. Elija uno de los siguientes agregados admitidos: <allowed>.
AI_TOP_DRIVERS_UNSUPPORTED_DIMENSION_TYPE
ai_top_drivers no admite columnas de dimensión numéricas, de mapa ni de estructura. La columna <colName> tiene el tipo <dataType>. Quite esta dimensión o conviértala a un tipo admitido.
AI_TOP_DRIVERS_UNSUPPORTED_LABEL_TYPE
ai_top_drivers requiere que el tipo de columna de etiqueta sea booleano. La columna <colName> tiene el tipo <dataType>. Cambie la columna de etiqueta o conviértala a un tipo admitido.
AI_TOP_DRIVERS_UNSUPPORTED_METRIC_TYPE
ai_top_drivers requiere que el tipo de columna de métrica sea numérico. La columna <colName> tiene el tipo <dataType>. Cambie la columna de métricas o conviértala a un tipo admitido.
ALL_PARAMETERS_MUST_BE_NAMED
El uso de consultas con parámetros de nombre requiere que se asigne un nombre a todos los parámetros. Faltan nombres de parámetros: <exprs>.
ALL_PARTITION_COLUMNS_NOT_ALLOWED
No se pueden usar todas las columnas para las columnas de partición.
ALTER_SCHEDULE_DOES_NOT_EXIST
No se puede modificar <scheduleType> en una tabla sin una programación o desencadenador existente. Agregue una programación o un desencadenador a la tabla antes de intentar modificarla.
ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
ALTER TABLE <type> column <columnName> especifica el descriptor "<optionName>" más de una vez, que no es válido.
AMBIGUOUS_ALIAS_IN_NESTED_CTE
El nombre <name> es ambiguo en la CTE anidada.
Por favor configure <config> a "CORRECTED" de manera que el nombre definido en la CTE interna tenga prioridad. Si se establece en "LEGACY", las definiciones de CTE externas tendrán prioridad.
Vea "https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine".
AMBIGUOUS_COLUMN_OR_FIELD
La columna o el campo <name> son ambiguos y tienen <n> coincidencias.
AMBIGUOUS_COLUMN_REFERENCE
La columna <name> es ambigua. Es porque has unido varios DataFrames, y algunos de estos DataFrames son los mismos.
Esta columna apunta a uno de los dataframes, pero Spark no puede averiguar cuál.
Por favor, asigne alias a los DataFrames con nombres diferentes mediante DataFrame.alias antes de unirlos.
y especifique la columna con el nombre calificado, por ejemplo, df.alias("a").join(df.alias("b"), col("a.id") > col("b.id")).
AMBIGUOUS_CONSTRAINT
Referencia ambigua a la restricción <constraint>.
AMBIGUOUS_LATERAL_COLUMN_ALIAS
El alias <name> de la columna lateral es ambiguo y tiene <n> coincidencias.
AMBIGUOUS_REFERENCE
La referencia <name> es ambigua, podría ser: <referenceNames>.
AMBIGUOUS_REFERENCE_TO_FIELDS
Referencia ambigua al campo <field>. Aparece <count> veces en el esquema.
ANALYZE_CONSTRAINTS_NOT_SUPPORTED
No se admite ANALYZE CONSTRAINTS.
ANALYZE_TABLE_COMPUTE_STORAGE_METRICS_NOT_SUPPORTED
No se admite ANALYZE TABLE COMPUTE STORAGE METRICS. Póngase en contacto con el equipo de soporte técnico de Databricks para inscribir esta área de trabajo.
ANSI_CONFIG_CANNOT_BE_DISABLED
La configuración <config> de ANSI SQL no se puede deshabilitar en este producto.
APPEND_ONCE_FROM_BATCH_QUERY
Use el operador stream().
La creación de una tabla de streaming desde una consulta por lotes impide la carga incremental de nuevos datos desde el origen. Tabla ofendida: '<table>'.
Uso de ejemplo:
CREATE STREAMING TABLE <target table name>
...
AS SELECT
...
FROM stream(<source table name>) ...
APPROX_TOP_K_INVALID_NUM_OF_ARGUMENTS
approx_top_k espera de 1 a 3 argumentos, pero tiene <argNum>.
APPROX_TOP_K_MAX_ITEMS_TRACKED_EXCEEDS_LIMIT
Los elementos máximos de los que se realiza maxItemsTrackedel seguimiento (<maxItemsTracked>) approx_top_k de deben ser menores o iguales que <limit>.
APPROX_TOP_K_MAX_ITEMS_TRACKED_LESS_THAN_K
Los elementos máximos de los que se realiza maxItemsTrackedel seguimiento (<maxItemsTracked>) approx_top_k de deben ser mayores o iguales que k(<k>).
APPROX_TOP_K_NON_POSITIVE_ARG
El valor de <argName> en approx_top_k debe ser un entero positivo, pero tiene <argValue>.
APPROX_TOP_K_NULL_ARG
El valor de <argName> en approx_top_k no puede ser NULL.
APPROX_TOP_K_SKETCH_SIZE_NOT_MATCH
No se permite combinar approx_top_k bocetos de diferentes tamaños. Se encontraron bocetos de tamaño <size1> y <size2>.
APPROX_TOP_K_SKETCH_TYPE_NOT_MATCH
No se permite combinar approx_top_k bocetos de diferentes tipos. Se encontraron bocetos de tipo <type1> y <type2>.
AQE_THREAD_INTERRUPTED
Se ha interrumpido el subproceso de AQE, probablemente debido a la cancelación de la consulta por parte del usuario.
ARGUMENT_NOT_CONSTANT
La función <functionName> incluye un parámetro <parameterName> en posición <pos> que requiere un argumento constante. Calcule el argumento <sqlExpr> por separado y pase el resultado como una constante.
ARITHMETIC_OVERFLOW
<message>.
<alternative> Si es necesario, establezca <config> en "false" para omitir este error.
Para obtener más información, consulte ARITHMETIC_OVERFLOW
ARROW_TYPE_MISMATCH
Esquema no válido de <operation>: se esperaba <outputTypes>, obtuvo <actualDataTypes>.
ARTIFACT_ALREADY_EXISTS
El artefacto <normalizedRemoteRelativePath> ya existe. Elija otro nombre para el nuevo artefacto porque no se puede sobrescribir.
ASSIGNMENT_ARITY_MISMATCH
Número de columnas o variables asignadas o con alias: <numTarget> no coincide con el número de expresiones de origen: <numExpr>.
AS_OF_JOIN
No es válido como combinación as-of.
Para obtener más información, consulte AS_OF_JOIN
ATTEMPT_ANALYSIS_IN_PIPELINE_QUERY_FUNCTION
Las operaciones que desencadenan el análisis o la ejecución de DataFrame no se permiten en las funciones de consulta de canalización. Mueva el código fuera de la función de consulta de canalización.
AUTOCOMMIT_BEGIN_TRANSACTION_DURING_AUTOCOMMIT_TRANSACTION
No se puede iniciar una nueva transacción mientras una transacción implícita iniciada por SET AUTOCOMMIT=FALSE está activa.
COMMIT o ROLLBACK la transacción actual primero y SET AUTOCOMMIT=TRUE antes de iniciar una nueva transacción.
AUTOCOMMIT_NOT_SUPPORTED
La AUTOCOMMIT característica de modo está actualmente en desarrollo y aún no se admite en Databricks.
AUTOCOMMIT_OLD_SQL_EDITOR_NOT_SUPPORTED
AUTOCOMMIT no se puede acceder ni modificar en el Editor de SQL heredado. Cambie al nuevo Editor de SQL (<docLink>) o use un cuaderno conectado con un almacenamiento de SQL de Databricks.
AUTOCOMMIT_ONLY_SUPPORTED_IN_DBSQL
AUTOCOMMIT Solo se puede acceder o modificar en almacenes de SQL de Databricks.
AUTOCOMMIT_SET_DURING_ACTIVE_TRANSACTION
SET AUTOCOMMIT no se permite durante una transacción activa. Confirme o reversión primero.
AUTOCOMMIT_SET_FALSE_ALREADY_DISABLED
SET AUTOCOMMIT=FALSE no se permite cuando AUTOCOMMIT ya está deshabilitado. Esta restricción evita confusiones y mantiene claros los límites de transacción.
AUTOCOMMIT_SET_TRUE_DURING_AUTOCOMMIT_TRANSACTION
SET AUTOCOMMIT=TRUE no se permite después de que las instrucciones se hayan ejecutado en una transacción implícita iniciada por SET AUTOCOMMIT=FALSE. Solo se permite inmediatamente después SET AUTOCOMMIT=FALSE (antes de las instrucciones) o después COMMIT de o ROLLBACK.
AUTO_TTL_COLUMN_NOT_FOUND
Esquema de tabla no válido para Auto-TTL. No se encuentra la columna <column> TTL automática.
AUTO_TTL_COLUMN_TYPE_NOT_SUPPORTED
La columna <column> TTL automática tiene el tipo <type> que no es válido. El tipo de columna debe ser uno de TIMESTAMP, TIMESTAMP_NTZo DATE.
AUTO_TTL_FEATURE_NOT_ENABLED
Póngase en contacto con su representante de Databricks para habilitar la característica Auto-TTL.
AUTO_TTL_INCOMPLETE_SETTING
Para establecer Auto-TTL en una tabla, se requieren las propiedades autottl.timestampColumn de la tabla y autottl.expireInDays , pero <missing> falta.
AUTO_TTL_INVALID_COLUMN_CHANGE
La columna <column> no puede ser <operation> porque se usa en la definición de Auto-TTL.
AUTO_TTL_NOT_SUPPORT_SHALLOW_CLONES
El TTL automático no se admite en tablas clonadas poco profundas.
AUTO_TTL_NOT_SUPPORT_TABLES_HAVING_SHALLOW_CLONES
El TTL automático no se admite en tablas que tienen clones poco profundos.
AUTO_TTL_REQUIRES_PREDICTIVE_OPTIMIZATION
Auto-TTL requiere que la optimización predictiva esté habilitada.
AUTO_TTL_REQUIRES_UC_MANAGED_TABLE
El TTL automático solo se admite en tablas administradas por UC.
AVRO_CANNOT_WRITE_NULL_FIELD
No se puede asignar un valor NULL para el campo <name> definido como un tipo de datos Avro no nulo <dataType>.
Para permitir el valor null en este campo, especifique su esquema de avro como un tipo de unión con "null" mediante la opción avroSchema.
AVRO_DEFAULT_VALUES_UNSUPPORTED
No se admite el uso de valores predeterminados cuandorescuedDataColumn está habilitado. Puede quitar esta comprobación estableciendo spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue en false, pero los valores predeterminados no se aplicarán y se seguirán usando valores NULL.
AVRO_INCOMPATIBLE_READ_TYPE
No se puede convertir Avro <avroPath> a SQL <sqlPath> porque el tipo de datos codificado original es <avroType>, pero está intentando leer el campo como <sqlType>, lo que provocaría una respuesta incorrecta.
Para permitir la lectura de este campo, habilite la configuración de SQL: "spark.sql.legacy.avro.allowIncompatibleSchema".
AVRO_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE
No se puede llamar a la función SQL <functionName> porque el origen de datos Avro no está cargado.
Reinicie el trabajo o la sesión con el paquete "spark-avro" cargado, como mediante el argumento --packages en la línea de comandos y vuelva a intentar la consulta o el comando.
AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED
No se admite el uso de la coincidencia de campos posicionales cuando rescuedDataColumn o failOnUnknownFields están habilitados. Quite estas opciones para continuar.
AZURE_INVALID_CREDENTIALS_CONFIGURATION
El proveedor de claves de Azure o las credenciales se configuran incorrectamente. Motivo: <causedBy>.
BATCH_METADATA_NOT_FOUND
No se encuentra el lote <batchMetadataFile>.
BIGQUERY_DATA_SOURCE_OPTIONS_VALIDATION_FAILED (Error en la validación de las opciones de fuente de datos de BigQuery)
Error en la validación del origen de datos bigQuery.
Para obtener más información, consulte BIGQUERY_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE
Las credenciales de conexión de BigQuery deben especificarse con el parámetro "GoogleServiceAccountKeyJson" o con todos los valores "projectId", "OAuthServiceAcctEmail", "OAuthPvtKey".
BINARY_ARITHMETIC_OVERFLOW
<value1> <symbol> <value2> causó desbordamiento. Use <functionName> para omitir el problema de desbordamiento y devolver NULL.
BUILT_IN_CATALOG
<operation> no admite catálogos integrados.
CALL_ON_STREAMING_DATASET_UNSUPPORTED
No se puede llamar al método <methodName> en un Dataset/DataFrame de transmisión.
CANNOT_ALTER_COLLATION_BUCKET_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN no puede cambiar la intercalación de tipos o subtipos de columnas de cubo, pero encontró la columna de cubo <columnName> en la tabla <tableName>.
CANNOT_ALTER_PARTITION_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN no se admite para las columnas de partición, pero encontró la columna <columnName> de partición en la tabla <tableName>.
CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK
La marca de agua debe definirse para reasignar la columna de tiempo del evento. No se pudo encontrar la definición de marca de agua en la consulta de streaming.
CANNOT_CAST_DATATYPE
No se puede convertir <sourceType> a <targetType>.
CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE
No se puede convertir Protobuf <protobufColumn> a SQL <sqlColumn> porque el esquema no es compatible (protobufType = <protobufType>, sqlType = <sqlType>).
CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE
No se puede convertir <protobufType> Protobuf al tipo SQL <toType>.
CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE
No se puede convertir SQL <sqlColumn> a Protobuf <protobufColumn> porque el esquema no es compatible (protobufType = <protobufType>, sqlType = <sqlType>).
CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE
No se puede convertir SQL <sqlColumn> a Protobuf <protobufColumn> porque <data> no está en valores definidos para la enumeración: <enumString>.
CANNOT_COPY_STATE
No se puede copiar el estado del catálogo como la base de datos actual y las vistas temporales del catálogo de Unity a un catálogo heredado.
CANNOT_CREATE_DATA_SOURCE_TABLE
No se pudo crear la tabla <tableName>de origen de datos :
Para más información, consulte CANNOT_CREATE_DATA_SOURCE_TABLE.
CANNOT_DECODE_URL
No se puede descodificar la dirección URL proporcionada: <url>. Asegúrese de que la dirección URL tiene el formato correcto e inténtelo de nuevo.
CANNOT_DELETE_SYSTEM_OWNED
No se puede eliminar la propiedad <resourceType> del sistema.
CANNOT_DROP_AMBIGUOUS_CONSTRAINT
No se puede eliminar la restricción con el nombre <constraintName> compartida con una restricción CHECK.
y una restricción PRIMARY KEY o FOREIGN KEY. Puede omitir el PRIMARY KEY o ...
FOREIGN KEY por consultas:
ALTER TABLE ..
DROP PRIMARY KEY o
ALTER TABLE ..
DROP FOREIGN KEY ..
NO_SE_PUEDE_ELIMINAR_TABLA_BASE_REQUERIDA_POR_CLON_SUPERFICIAL
No se puede quitar la tabla <baseTable> porque se hace referencia a ella mediante uno o varios clones poco profundos: <cloneList>.
DROP todos los clones superficiales antes de eliminar la tabla base. Si esto no es posible, considere la posibilidad de usar "DROP TABLE...FORCE" para quitar la tabla de forma forzada.
WARNING: esto interrumpirá inmediatamente todas las referencias de clon superficial existentes y las hará inutilizables.
CANNOT_ESTABLISH_CONNECTION
No se puede establecer la conexión a la base de datos remota <jdbcDialectName> . Compruebe la información de conexión y las credenciales, por ejemplo, host, puerto, usuario, contraseña y opciones de base de datos. ** Si cree que la información es correcta, compruebe la configuración de red del área de trabajo y asegúrese de que no tiene restricciones de salida para el host. Compruebe también que el host no bloquea las conexiones entrantes de la red donde se implementan los clústeres de Spark del área de trabajo. ** Mensaje de error detallado: <causeErrorMessage>.
CANNOT_ESTABLISH_CONNECTION_SERVERLESS
No se puede establecer la conexión a la base de datos remota <jdbcDialectName> . Compruebe la información de conexión y las credenciales, por ejemplo, host, puerto, usuario, contraseña y opciones de base de datos. ** Si cree que la información es correcta, permita el tráfico entrante de Internet a su host, ya que está usando Proceso sin servidor. Si las directivas de red no permiten el tráfico entrante de Internet, use un proceso sin servidor o puede ponerse en contacto con su representante de Databricks para obtener información sobre las redes privadas sin servidor. ** Mensaje de error detallado: <causeErrorMessage>.
CANNOT_ESTABLISH_CONNECTION_TO_HOST
No se puede establecer <protocol> la conexión a <host>. Compruebe la configuración de red del área de trabajo y asegúrese de que no tiene restricciones de salida para el host. Compruebe también que el host no bloquea las conexiones entrantes de la red donde se implementan los clústeres del área de trabajo.
CANNOT_INVOKE_IN_TRANSFORMATIONS
El controlador solo puede invocar las transformaciones y acciones del conjunto de datos, no dentro de otras transformaciones del conjunto de datos; Por ejemplo, dataset1.map(x => dataset2.values.count() * x) no es válido porque la transformación de valores y la acción count no se pueden realizar dentro de la transformación dataset1.map. Para obtener más información, vea SPARK-28702.
CANNOT_LOAD_CHECKPOINT_FILE_MANAGER
Error al cargar el administrador de archivos de punto de control de streaming para path=<path>.
Para obtener más información, consulte CANNOT_LOAD_CHECKPOINT_FILE_MANAGER
CANNOT_LOAD_FUNCTION_CLASS
No se puede cargar la clase <className> al registrar la función <functionName>, asegúrese de que se encuentra en la ruta de clase.
CANNOT_LOAD_PROTOBUF_CLASS
No se pudo cargar la clase Protobuf con el nombre <protobufClassName>.
<explanation>.
CANNOT_LOAD_STATE_STORE
Error durante el estado de carga.
Para obtener más información, consulte CANNOT_LOAD_STATE_STORE
CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE
No se pudieron combinar tipos de datos incompatibles <left> y <right>. Compruebe los tipos de datos de las columnas que se combinan y asegúrese de que son compatibles. Si es necesario, considere la posibilidad de convertir las columnas en tipos de datos compatibles antes de intentar la combinación.
CANNOT_MERGE_SCHEMAS
Error al combinar esquemas
Esquema inicial:
<left>
Esquema que no se puede combinar con el esquema inicial:
<right>.
CANNOT_MODIFY_CONFIG
No se puede modificar el valor de la configuración de Spark: <key>.
Vea también 'https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements'.
CANNOT_MODIFY_STATIC_CONFIG
No se puede modificar el valor de la configuración estática de Spark: <key>.
CANNOT_PARSE_DECIMAL
No se puede analizar el decimal. Asegúrese de que la entrada es un número válido con separadores decimales o separadores de coma opcionales.
CANNOT_PARSE_INTERVAL
No se puede analizar <intervalString>. Asegúrese de que el valor proporcionado está en un formato válido para definir un intervalo. Puede hacer referencia a la documentación del formato correcto. Si el problema persiste, compruebe que el valor de entrada no es NULO o está vacío e inténtelo de nuevo.
CANNOT_PARSE_JSON_FIELD
No se puede analizar el nombre <fieldName> del campo y el valor <fieldValue> del JSON tipo <jsonType> de token para establecer como destino el tipo <dataType>de datos de Spark.
CANNOT_PARSE_PROTOBUF_DESCRIPTOR
Error al analizar los bytes del descriptor en Protobuf FileDescriptorSet.
CANNOT_PARSE_TIME
La cadena de entrada <input> no se puede analizar a un valor de TIME porque no coincide con el formato datetime <format>.
CANNOT_PARSE_TIMESTAMP
<message>. Use <func> para tolerar cadenas de entrada no válidas y devolver NULL en su lugar.
CANNOT_QUERY_TABLE_DURING_INITIALIZATION
No se puede consultar MV/ST durante la inicialización.
Para más información, consulte CANNOT_QUERY_TABLE_DURING_INITIALIZATION.
CANNOT_READ_ARCHIVED_FILE
No se puede leer el archivo en la ruta de acceso <path> porque se ha archivado. Ajuste los filtros de consulta para excluir archivos archivados.
CANNOT_READ_FILE
No se puede leer <format> archivo en la ruta de acceso: <path>.
Para obtener más información, consulte CANNOT_READ_FILE
CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER
No se puede leer la clave confidencial '<key>' del proveedor seguro.
CANNOT_RECOGNIZE_HIVE_TYPE
No se puede reconocer la cadena de tipo de subárbol <fieldType>, columna: <fieldName>. Spark SQL no puede reconocer el tipo de datos especificado para el campo. Compruebe el tipo de datos del campo especificado y asegúrese de que es un tipo de datos de Spark SQL válido. Consulte la documentación de Spark SQL para obtener una lista de tipos de datos válidos y su formato. Si el tipo de datos es correcto, asegúrese de que usa una versión compatible de Spark SQL.
CANNOT_REFERENCE_UC_IN_HMS
No se puede hacer referencia a un catálogo <objType> de Unity en objetos de Metastore de Hive.
CANNOT_REMOVE_RESERVED_PROPERTY
No se puede quitar la propiedad reservada <property>.
CANNOT_RENAME_ACROSS_CATALOG
No se permite cambiar el nombre de un elemento <type> entre catálogos.
CANNOT_RENAME_ACROSS_SCHEMA
No se permite cambiar el nombre de un elemento <type> entre esquemas.
CANNOT_RESOLVE_DATAFRAME_COLUMN
No se puede resolver la columna <name> del cuadro de datos. Probablemente se deba a referencias ilegales como df1.select(df2.col("a")).
CANNOT_RESOLVE_STAR_EXPAND
No se pueden resolver las columnas de entrada especificadas <targetString>* <columns>. Compruebe que la tabla o estructura especificada existe y que es accesible en las columnas de entrada.
CANNOT_RESTORE_PERMISSIONS_FOR_PATH
No se pudieron establecer permisos en la ruta creada <path> de vuelta a <permission>.
CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS
No se pueden clonar tablas de manera superficial en el Catálogo de Unity y el Metastore de Hive.
CANNOT_SHALLOW_CLONE_AUTO_TTL
No se puede clonar superficialmente una tabla <table> que tenga habilitado el TTL automático.
CANNOT_SHALLOW_CLONE_NESTED
No puedes clonar superficialmente una tabla <table> que ya es un clon superficial.
CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET
El clon superficial solo se admite para el tipo de tabla MANAGED. La tabla <table> no es la tabla MANAGED.
CANNOT_UPDATE_FIELD
No se puede actualizar el tipo de<table> campo <fieldName>:
Para obtener más información, consulte CANNOT_UPDATE_FIELD
CANNOT_UPDATE_PARTITION_COLUMNS
El particionamiento declarado <requestedPartitionColumns> entra en conflicto con el particionamiento de la tabla existente <existingPartitionColumns>.
Elimine la tabla o cambie la partición declarada para que coincida con sus particiones.
CANNOT_UP_CAST_DATATYPE
No se puede convertir <expression> de <sourceType> a <targetType>.
<details>
CANNOT_USE_KRYO
No se puede cargar el códec de serialización kryo. La serialización kryo no se puede usar en el cliente de Spark Connect. Use la serialización de Java, proporcione un códec personalizado o use Spark Classic en su lugar.
CANNOT_USE_MULTI_ALIASES_IN_WATERMARK_CLAUSE
No se admiten varios alias en la cláusula watermark.
NO_SE_PUEDE_USAR_NOMBRE_DE_PROVEEDOR_DE_STREAMING_RESERVADO
No se puede usar el nombre del proveedor de streaming reservado: <providerName>.
CANNOT_VALIDATE_CONNECTION
No se admite la validación de la conexión <jdbcDialectName>. Póngase en contacto con el soporte técnico de Databricks para soluciones alternativas o establezca "spark.databricks.testConnectionBeforeCreation" en "false" para omitir las pruebas de conexión antes de crear un objeto de conexión.
CANNOT_WRITE_STATE_STORE
Error al escribir archivos de almacén de estado para el proveedor <providerClass>.
Para obtener más información, consulte CANNOT_WRITE_STATE_STORE.
CAST_INVALID_INPUT
No se puede convertir el valor <expression> del tipo <sourceType> en <targetType> porque tiene un formato incorrecto. Corrija el valor según la sintaxis o cambie su tipo de destino. Use try_cast para tolerar entradas con formato incorrecto y devolver NULL en su lugar.
Para obtener más información, consulte CAST_INVALID_INPUT
CAST_OVERFLOW
El valor <value> del tipo <sourceType> no se puede convertir a <targetType> debido a un desbordamiento. Usa try_cast para tolerar el desbordamiento y devolver NULL en su lugar.
CAST_OVERFLOW_IN_TABLE_INSERT
Error al asignar un valor de tipo <sourceType> a la columna de tipo <targetType> o la variable <columnName> debido a un desbordamiento. Use try_cast en el valor de entrada para tolerar el desbordamiento y devolver NULL en su lugar.
CATALOG_CONVERSION_FOREIGN_ENTITY_PRESENT
Error de conversión de catálogo de UC Foreign a UC Standard porque el catálogo contiene entidades externas (se muestran hasta 10 aquí): <entityNames>. Para ver la lista completa de entidades externas de este catálogo, consulte la documentación del comando "ALTER CATALOG DROP CONNECTION".
CATALOG_CONVERSION_UNSUPPORTED_CATALOG_TYPE
El catálogo no se puede convertir de UC Foreign a UC Standard. Solo los <convertableCatalogTypes> catálogos de UC extranjeros se pueden convertir a UC Standard.
CATALOG_NOT_FOUND
No se encontró el catálogo <catalogName> . Considere la posibilidad de establecer la configuración <config> de SQL en un complemento de catálogo.
CATALOG_OWNED_TABLE_CREATION_NOT_ALLOWED
No se permite crear tablas Delta con la función de tabla <feature>. Póngase en contacto con el soporte técnico de Databricks.
CHECKPOINT_DIR_NOT_SET
El directorio de punto de control no se ha establecido en SparkContext.
Establézcalo con SparkContext.setCheckpointDir().
CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND
¡No se encuentra el bloque de punto de comprobación <rddBlockId>!
El ejecutor que originalmente ha marcado esta partición como punto de control ya no está activo o el RDD original no está disponible.
Si este problema persiste, puede considerar la posibilidad de usar rdd.checkpoint() en su lugar, que es más lento que el punto de control local, pero más tolerante a errores.
VIOLACIÓN_DE_CONSTRAINT_DE_COMPROBACIÓN
CHECK restricción <constraintName> <expression> infringida por fila con valores:
<values>
CIRCULAR_CLASS_REFERENCE
No se pueden tener referencias circulares en la clase; sin embargo, se tiene la referencia circular de la clase <t>.
CLASS_NOT_OVERRIDE_EXPECTED_METHOD
<className> debe invalidar o <method1> o <method2>.
CLASS_UNSUPPORTED_BY_MAP_OBJECTS
MapObjects no admite la clase <cls> como colección resultante.
CLEANROOM_COMMANDS_NOT_SUPPORTED
No se admiten comandos clean Room
CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME
Nombre no válido para hacer referencia a un <type> dentro de una sala limpia. Use un nombre de <type> dentro de la sala limpia siguiendo el formato de [catálogo].[esquema].[<type>].
Si no está seguro de qué nombre usar, puede ejecutar "SHOW ALL IN CLEANROOM [clean_room]" y usar el valor en la columna "name".
CLONING_WITH_HISTORY_INVALID_OPTION
La clonación con historial se especifica con una opción no válida: <invalidOption>.
Sintaxis válida: CREATE (OR REPLACE) TABLE ... DEEP CLONE...WITH HISTORY.
CLONING_WITH_HISTORY_UNSUPPORTED
No se admite la clonación con historial.
CLOUD_FILE_ALREADY_EXISTS
El archivo en la nube ya existe. Motivo: <causedBy>.
CLOUD_FILE_NOT_FOUND
No se encuentra el archivo en la nube. Motivo: <causedBy>.
CLOUD_FILE_SOURCE_FILE_NOT_FOUND
Se recibió una notificación de archivo para el archivo: <filePath> pero ya no existe. Asegúrese de que los archivos no se eliminan antes de que se procesen. Para continuar la secuencia, puede establecer la configuración <config> de Spark SQL en true.
CLOUD_PROVIDER_ERROR
Error del proveedor de nube: <message>
CLUSTERING_COLUMNS_MISMATCH
La agrupación en clústeres especificada no coincide con la de la tabla <tableName>existente.
Columnas de agrupación en clústeres especificadas: [<specifiedClusteringString>].
Columnas de agrupación existentes: [<existingClusteringString>].
CLUSTERING_NOT_SUPPORTED
'<operation>' no admite la agrupación en clústeres.
CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED
Póngase en contacto con el representante de Databricks para habilitar la característica cluster-by-auto.
CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED
Habilite clusteringTable.enableClusteringTableFeature para usar CLUSTER BY AUTO.
CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION
CLUSTER BY AUTO requiere que la optimización predictiva esté habilitada.
CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR
CLUSTER BY AUTO solo se admite en tablas administradas por UC.
CODEC_NOT_AVAILABLE
El códec <codecName> no está disponible.
Para obtener más información, consulte CODEC_NOT_AVAILABLE
CODEC_SHORT_NAME_NOT_FOUND
No se encuentra un nombre corto para el códec <codecName>.
COLLATION_INVALID_NAME
El valor <collationName> no representa un nombre de intercalación correcto. Nombres de intercalación válidos sugeridos: [<proposals>].
COLLATION_INVALID_PROVIDER
El valor <provider> no representa un proveedor de intercalación correcto. Los proveedores admitidos son: [<supportedProviders>].
COLLATION_MISMATCH
No se pudo determinar qué intercalación se va a usar para las funciones y los operadores de cadena.
Para obtener más información, consulte COLLATION_MISMATCH
COLLECTION_SIZE_LIMIT_EXCEEDED
No se puede crear una matriz con elementos <numberOfElements> que superen el límite de tamaño de matriz <maxRoundedArrayLength>,
Para obtener más información, consulte COLLECTION_SIZE_LIMIT_EXCEEDED
COLUMN_ALIASES_NOT_ALLOWED
No se permiten alias de columna en <op>.
COLUMN_ALREADY_EXISTS
La columna <columnName> ya existe. Elija otro nombre o cambie el nombre de la columna existente.
COLUMN_ARRAY_ELEMENT_TYPE_MISMATCH
Algunos valores del campo <pos> no son compatibles con el tipo de matriz de columnas. Se esperaba el tipo <type>.
COLUMN_MASKS_ABAC_MISMATCH
No se pudieron resolver las máscaras de columna porque había una discrepancia entre las máscaras de columna heredadas de las directivas y las máscaras de columna definidas explícitamente en <tableName>. Para continuar, deshabilite el control de acceso basado en atributos (ABAC) y póngase en contacto con el soporte técnico de Databricks.
COLUMN_MASKS_CHECK_CONSTRAINT_NO_SOPORTADO
No se admite la creación de una restricción CHECK en la tabla <tableName> con políticas de máscara de columna.
COLUMN_MASKS_DUPLICADO_USANDO_NOMBRE_DE_COLUMNA
Una <statementType> instrucción intentó asignar una política de máscara de columna a una columna que incluía dos o más columnas referenciadas de la lista USING COLUMNS con el mismo nombre <columnName>, lo cual no es válido.
COLUMN_MASKS_FUNCION_NO_SOPORTADA
No se admiten directivas de máscara de columna para <tableName>:
Para obtener más información, consulte COLUMN_MASKS_FEATURE_NOT_SUPPORTED
COLUMN_MASKS_INCOMPATIBLE_SCHEMA_CHANGE (Cambio de esquema incompatible)
No se puede realizar la operación <statementType> <columnName> en la tabla <tableName> porque se hace referencia a ella en una política de máscara de columna para la columna <maskedColumn>. El propietario de la tabla debe quitar o modificar esta directiva antes de continuar.
COLUMN_MASKS_MERGE_FUENTE_NO_ADMITIDA
Las operaciones MERGE INTO no admiten directivas de máscara de columna en la tabla de origen <tableName>.
COLUMN_MASKS_DESTINO_NO_SOPORTADO_PARA_FUSIÓN
Las operaciones MERGE INTO no admiten la escritura en la tabla <tableName> con directivas de máscara de columna.
COLUMN_MASKS_NOMBRE_DE_COLUMNA_DE_DESTINO_DE_MULTIPARTES
Esta instrucción intentó asignar una directiva de máscara de columna a una columna <columnName> con varias partes del nombre, lo que no es válido.
COLUMN_MASKS_MULTI_PART_USANDO_NOMBRE_DE_COLUMNA
Esta instrucción intentó asignar una directiva de máscara de columna a una columna y la USING COLUMNS lista incluía el nombre <columnName> con varias partes de nombre, que no son válidas.
COLUMN_MASKS_NO_ACTIVADO
La compatibilidad con la definición de máscaras de columna no está habilitada
COLUMN_MASKS_REQUIRE_UNITY_CATALOG
Las políticas de enmascaramiento de columnas solo se admiten en el Catálogo de Unity.
COLUMN_MASKS_SECONDARY_INDEX_CREATION_UNSUPPORTED
No se puede crear el índice ON TABLE <tableName> secundario porque la tabla tiene definidas directivas de máscara de columna.
COLUMN_MASKS_MOSTRAR_PARTICIONES_NO_ADMITIDO
El comando SHOW PARTITIONS no es compatible con <format> tablas con máscaras de columna.
COLUMN_MASKS_ORIGEN_DE_CLONACIÓN_DE_TABLA_NO_ADMITIDO
No se admite el clon <mode> de la tabla <tableName> con directivas de máscara de columna.
COLUMN_MASKS_OBJETIVO_CLONACIÓN_TABLA_NO_SOPORTADO
No se admite el clon <mode> en la tabla <tableName> con directivas de máscara de columna.
COLUMN_MASKS_CONSTANTE_NO_SOPORTADA_COMO_PARAMETRO
No se admite el uso de una constante como parámetro en una directiva de máscara de columna. Actualice el comando SQL para quitar la constante de la definición de máscara de columna y vuelva a intentarlo.
COLUMN_MASKS_TIPO_DE_DATO_NO_ADMITIDO
La función <functionName> usada como directiva de máscara de columna contiene un parámetro con el tipo de datos no admitido <dataType>.
COLUMN_MASKS_PROVEEDOR_NO_COMPATIBLE
No se pudo ejecutar <statementType> el comando porque no se admite la asignación de directivas de máscara de columna para el origen de datos de destino con el proveedor de tablas: "<provider>".
COLUMN_MASKS_USANDO_NOMBRE_DE_COLUMNA_IGUAL_QUE_COLUMNA_OBJETIVO
La columna <columnName> tenía el mismo nombre que la columna de destino, que no es válida; quite la columna de la USING COLUMNS lista y vuelva a intentar el comando.
COLUMN_NOT_DEFINED_IN_TABLE
<colType> la columna <colName> no está definida en la tabla <tableName>, las columnas de tabla definidas son: <tableCols>.
COLUMN_NOT_FOUND
No se encuentra la columna <colName> . Compruebe la ortografía y corrección del nombre de columna según la configuración <caseSensitiveConfig>de SQL.
COLUMN_NOT_FOUND_IN_TABLE
Columna <columnName> no encontrada en la tabla <tableFullName>.
COLUMN_ORDINAL_OUT_OF_BOUNDS
Ordinal de columna fuera de los límites. El número de columnas de la tabla es <attributesLength>, pero el ordinal de columna es <ordinal>.
Los atributos son los siguientes: <attributes>.
COMANDO_NO_HABILITADO
<command> el comando no está habilitado.
COMMA_PRECEDING_CONSTRAINT_ERROR
Carácter "," inesperado delante de la definición de restricciones. Asegúrese de que la cláusula de restricción no comience con una coma cuando no se definan las columnas (y expectativas).
COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET
El COMMENT ON CONNECTION comando aún no está implementado
COMPARATOR_RETURNS_NULL
El comparador ha devuelto un NULL para una comparación entre <firstValue> y <secondValue>.
Debe devolver un entero positivo para "mayor que", 0 para "igual" y un entero negativo para "menor que".
Para revertir al comportamiento en desuso en el que NULL se trata como 0 (igual), debe establecer "spark.sql.legacy.allowNullComparisonResultInArraySort" en "true".
COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
No se pueden procesar tipos de datos de entrada para la expresión: <expression>.
Para obtener más información, consulte COMPLEX_EXPRESSION_UNSUPPORTED_INPUT.
CONCURRENT_QUERY
Otra instancia de esta consulta [id: <queryId>] se acaba de iniciar mediante una sesión simultánea [runId existente: <existingQueryRunId> new runId: <newQueryRunId>].
CONCURRENT_SCHEDULER_INSUFFICIENT_SLOT
El número mínimo de ranuras libres necesarias en el clúster es <numTasks>, sin embargo, el clúster solo tiene <numSlots> ranuras libres. La consulta se detendrá o producirá un error. Aumente el tamaño del clúster para continuar.
CONCURRENT_STREAM_LOG_UPDATE
Actualización simultánea del log. Se detectaron varios trabajos de streaming para <batchId>.
Asegúrese de que solo se ejecuta un trabajo de streaming en una ubicación de punto de comprobación específica a la vez.
CONFIG_NOT_AVAILABLE
La configuración <config> no está disponible.
CONFLICTING_CLUSTER_CONFIGURATION
Las siguientes configuraciones entran en conflicto con spark.databricks.streaming.realTimeMode.enabled: <confNames>. Quite estas configuraciones de la configuración del clúster y reinicie el clúster de Spark.
CONFLICTING_DIRECTORY_STRUCTURES
Se detectaron estructuras de directorio en conflicto.
Rutas de acceso sospechosas:
<discoveredBasePaths>
Si las rutas de acceso proporcionadas son directorios de partición, establezca "basePath" en las opciones del origen de datos para especificar el directorio raíz de la tabla.
Si hay varios directorios raíz, cárguelos por separado y luego únelos.
CONFLICTING_PARTITION_COLUMN_NAMES
Se detectaron nombres de columna de partición en conflicto:
<distinctPartColLists>
En el caso de los directorios de tabla con particiones, los archivos de datos solo deben residir en directorios hoja.
Y los directorios en el mismo nivel deben tener el mismo nombre de columna de partición.
Compruebe los siguientes directorios para ver archivos inesperados o nombres de columna de partición incoherentes:
<suspiciousPaths>
CONFLICTING_PARTITION_COLUMN_NAME_WITH_RESERVED
El nombre de columna de partición '<partitionColumnName>' entra en conflicto con el nombre de columna reservado.
El esquema de <tableName> es incompatible con Hive, Spark genera automáticamente una columna reservada "<partitionColumnName>" para almacenar la tabla de forma específica.
Use otro nombre para la columna de partición.
CONFLICTING_PROVIDER
El proveedor <provider> especificado es incoherente con el proveedor <expectedProvider>de catálogo existente. Use 'USING <expectedProvider>' y vuelva a intentar el comando.
CONFLICTING_SQL_CONFIGURATION
Las siguientes configuraciones entran en conflicto con spark.databricks.streaming.realTimeMode.enabled: <confNames>. Quite estas configuraciones de la configuración de SparkSession.
CONNECT
Error genérico de Spark Connect.
Para obtener más información, consulte CONNECT
CONNECTION_ALREADY_EXISTS
No se puede crear la conexión <connectionName> porque ya existe.
Elija otro nombre, quite o reemplace la conexión existente o agregue la IF NOT EXISTS cláusula para tolerar conexiones preexistentes.
CONNECTION_NAME_CANNOT_BE_EMPTY
No se puede ejecutar este comando porque el nombre de la conexión debe no estar vacío.
CONNECTION_NOT_FOUND
No se puede ejecutar este comando porque no se encontró el nombre <connectionName> de conexión.
CONNECTION_OPTION_NOT_SUPPORTED
Las conexiones de tipo '<connectionType>' no admiten las siguientes opciones: <optionsNotSupported>. Opciones admitidas: <allowedOptions>.
CONNECTION_TYPE_NOT_SUPPORTED
No se puede crear la conexión de tipo '<connectionType>'. Tipos de conexión admitidos: <allowedTypes>.
CONNECTION_TYPE_NOT_SUPPORTED_FOR_OPTIONS_INJECTION
La conexión con el nombre <connectionName> y el tipo <connectionType> no se admiten en las opciones de trama de datos.
CONNECTION_TYPE_NOT_SUPPORTED_FOR_REMOTE_QUERY_FUNCTION
No se admite la conexión con el nombre '<connectionName>' del tipo '<connectionType>' para la ejecución de funciones de consulta remota.
CONNECT_INVALID_PLAN
El plan de Spark Connect no es válido.
Para obtener más información, consulte CONNECT_INVALID_PLAN
CONNECT_SESSION_MIGRATION
Error genérico de migración de sesión (userId: <userId>, sessionId: <sessionId>, serverSessionId: <serverSessionId>).
Para obtener más información, consulte CONNECT_SESSION_MIGRATION.
CONSTRAINTS_REQUIRE_UNITY_CATALOG
Las restricciones de tabla solo se admiten en el catálogo de Unity.
CONSTRAINT_ALREADY_EXISTS
La restricción '<constraintName>' ya existe. Elimine primero la restricción existente.
Restricción existente:
<oldConstraint>
CONSTRAINT_ALREADY_EXISTS_IN_SCHEMA
La restricción <constraintName> ya existe en la base de datos <schemaName>.
CONSTRAINT_ALREADY_EXISTS_WITH_SERVER_MESSAGE
<serverMessage>
CONSTRAINT_DOES_NOT_EXIST
No se puede quitar la restricción <constraintName> inexistente de la tabla <tableName>.
CONVERSION_INVALID_INPUT
No se puede convertir el valor <str> (<fmt>) en <targetType> porque tiene un formato incorrecto. Corrija el valor según la sintaxis o cambie su formato. Use <suggestion> para tolerar entradas con formato incorrecto y devolver NULL en su lugar.
COPY_INTO_COLUMN_ARITY_MISMATCH
No se puede escribir en <tableName>, el motivo es
Para obtener más información, consulte COPY_INTO_COLUMN_ARITY_MISMATCH.
COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON
Esquema <scheme>no válido. Las credenciales de origen COPY INTO actualmente solo admiten s3/s3n/s3a/wasbs/abfss.
COPY_INTO_CREDENTIALS_REQUIRED
COPY INTO las credenciales de origen deben especificar <keyList>.
COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED
Se confirmaron archivos duplicados en una operación COPY INTO simultánea. Inténtelo de nuevo más tarde.
COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON
Esquema <scheme>no válido.
COPY INTO el cifrado de origen actualmente solo admite s3/s3n/s3a/abfss.
COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE
COPY INTO el cifrado solo admite el ADLS Gen2 o el esquema de archivos abfss://
COPY_INTO_ENCRYPTION_REQUIRED
COPY INTO el cifrado de origen debe especificar "<key>".
COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED
Opción <requiredKey>de cifrado no válida.
COPY INTO el cifrado de origen debe especificar '<requiredKey>' = '<keyValue>'.
COPY_INTO_FEATURE_INCOMPATIBLE_SETTING
La COPY INTO característica '<feature>' no es compatible con '<incompatibleSetting>'.
COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED
COPY INTO a excepción de cuando anexa datos no puede ejecutarse simultáneamente con otras transacciones. Inténtelo de nuevo más tarde.
COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED
COPY INTO no ha podido cargar su estado, se han superado los reintentos máximos.
COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE
Se detectó una falta de coincidencia de esquema al copiar en la tabla Delta (Tabla: <table>).
Esto puede indicar un problema con los datos entrantes o el esquema de la tabla Delta puede evolucionar automáticamente según los datos entrantes estableciendo:
COPY_OPTIONS ('mergeSchema' = 'verdadero')
Diferencia de esquema:
<schemaDiff>
COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED
El formato de los archivos de origen debe ser uno de CSV, JSON, AVRO, ORC, PARQUET, TEXT o BINARYFILE. El uso de COPY INTO en tablas delta, ya que el origen no se admite, ya que los datos duplicados se pueden ingerir después de las operaciones OPTIMIZE. Esta comprobación se puede desactivar ejecutando el comando set spark.databricks.delta.copyInto.formatCheck.enabled = falseSQL .
COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED
El directorio de origen no contenía ningún archivo analizable de tipo <format>. Compruebe el contenido de "<source>".
El error se puede silenciar estableciendo "<config>" en "false".
COPY_INTO_STATE_INTERNAL_ERROR
Se produjo un error interno al procesar el estado COPY INTO.
Para obtener más información, consulte COPY_INTO_STATE_INTERNAL_ERROR.
COPY_INTO_SYNTAX_ERROR
No se pudo analizar el COPY INTO comando.
Para obtener más información, consulte COPY_INTO_SYNTAX_ERROR.
COPY_INTO_UNSUPPORTED_FEATURE
No se admite la COPY INTO característica '<feature>'.
COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED
No se pueden descargar datos con el formato '<formatType>'. Los formatos admitidos para <connectionType> son: <allowedFormats>.
CORRUPTED_CATALOG_FUNCTION
No se puede convertir la función de catálogo '<identifier>' en una función SQL debido a la información de función dañada en el catálogo. Si la función no es una función SQL, asegúrese de que el nombre de clase "<className>" se puede cargar.
CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET
El CREATE FOREIGN SCHEMA comando aún no está implementado
CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET
El CREATE FOREIGN TABLE comando aún no está implementado
CREATE_OR_REFRESH_MV_NOT_SUPPORTED
CREATE O REFRESH MATERIALIZED VIEW no se soportan. Use CREATE OR REPLACE MATERIALIZED VIEW en su lugar.
CREATE_OR_REFRESH_MV_ST_ASYNC
No se pueden CREATE o REFRESH vistas materializadas o tablas de streaming que tengan ASYNC especificado. Quite ASYNC de la instrucción CREATE O REFRESH o use REFRESH ASYNC para actualizar las vistas materializadas o las tablas de streaming existentes de forma asincrónica.
CREATE_PERMANENT_VIEW_WITHOUT_ALIAS
No se permite crear la vista <name> permanente sin asignar explícitamente un alias para la expresión <attr>.
CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
CREATE TABLE column <columnName> especifica el descriptor "<optionName>" más de una vez, que no es válido.
CREATE_VIEW_COLUMN_ARITY_MISMATCH
No se puede crear la vista <viewName>, el motivo es
Para obtener más información, consulte CREATE_VIEW_COLUMN_ARITY_MISMATCH
CREDENTIAL_MISSING
Proporcione las credenciales al crear o actualizar ubicaciones externas.
CREDENTIAL_PURPOSE_MISMATCH
La credencial <credentialName> tiene un propósito <actualPurpose> , pero el propósito proporcionado en el comando es <expectedPurpose>.
CSV_ENFORCE_SCHEMA_NOT_SUPPORTED
No se puede establecer la opción enforceSchema CSV cuando se usa rescuedDataColumn o failOnUnknownFields, ya que las columnas se leen por nombre en lugar de ordinal.
CYCLIC_FUNCTION_REFERENCE
Se detectó una referencia de función cíclica: <path>.
DATABRICKS_DELTA_NOT_ENABLED
Databricks Delta no está habilitado en su cuenta.<hints>
DATAFLOW_GRAPH_NOT_FOUND (NO SE ENCONTRÓ EL GRÁFICO DE FLUJO DE DATOS)
No se encontró el gráfico de flujo de datos con id.<graphId>
TIPO_DE_DATO_NO_SE_PUEDE_ORDENAR
El tipo <dataType> no admite operaciones ordenadas.
DATATYPE_MISMATCH
No se puede resolver <sqlExpr> debido a que el tipo de datos no coincide:
Para obtener más información, consulte DATATYPE_MISMATCH
DATATYPE_MISSING_SIZE
DataType <type> requiere un parámetro de longitud, por ejemplo <type>(10). Especifique la longitud.
DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION
Escritura de linaje incorrecta: falta la relación correspondiente con las directivas de CLM/RLS.
DATA_SOURCE_ALREADY_EXISTS
El origen de datos '<provider>' ya existe. Elija otro nombre para el nuevo origen de datos.
DATA_SOURCE_CONNECTION_MISSING_ALLOW_LIST
La conexión <connectionName> no se admite en este contexto porque no tiene configurada una lista de opciones externas permitidas. Actualice la conexión para incluir un valor válido <optionName>.
DATA_SOURCE_EXTERNAL_ERROR
Se encontró un error al guardar en el origen de datos externo.
DATA_SOURCE_NOT_EXIST
No se encontró el origen de datos '<provider>'. Asegúrese de que el origen de datos está registrado.
DATA_SOURCE_NOT_FOUND
No se pudo encontrar el origen de datos: <provider>. Asegúrese de que el nombre del proveedor sea correcto y que el paquete esté registrado correctamente y sea compatible con la versión de Spark.
DATA_SOURCE_OPTIONS_VALIDATION_FAILED
Error en la <dataSource> validación del origen de datos.
Para obtener más información, consulte DATA_SOURCE_OPTIONS_VALIDATION_FAILED
DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS
La opción <option> no debe estar vacía y no debe contener caracteres no válidos, cadenas de consulta o parámetros.
DATA_SOURCE_OPTION_IS_REQUIRED
Se requiere la opción <option> .
DATA_SOURCE_OPTION_NOT_ALLOWED_BY_CONNECTION
La opción <optionName> no está permitida por la conexión <connectionName> y no se puede proporcionar externamente.
DATA_SOURCE_OPTION_VALUE_NOT_VALID
La opción de origen de datos proporcionada '<option>' contiene un valor no válido ('<value>').
Para obtener más información, consulte DATA_SOURCE_OPTION_VALUE_NOT_VALID
DATA_SOURCE_SYNTAX_ERROR_DURING_QUERY_EXECUTION
El motor <dataSourceEngine> de origen de datos externo produjo un error de sintaxis durante la ejecución de la consulta "<query>".
<externalEngineError>.
DATA_SOURCE_TABLE_SCHEMA_MISMATCH
El esquema de la tabla de origen de datos no coincide con el esquema esperado. Si usa la API DataFrameReader.schema o crea una tabla, evite especificar el esquema.
Esquema del origen de datos: <dsSchema>
Esquema esperado: <expectedSchema>
DATA_SOURCE_URL_NOT_ALLOWED
No se permite la dirección URL de JDBC en las opciones del origen de datos, especifique las opciones "host", "puerto" y "base de datos".
DATETIME_FIELD_OUT_OF_BOUNDS
<rangeMessage>.
Para obtener más información, consulte DATETIME_FIELD_OUT_OF_BOUNDS
DATETIME_OVERFLOW
Desbordamiento de la operación datetime: <operation>.
DC_API_QUOTA_EXCEEDED
Ha superado la cuota de API del origen de datos <sourceName>.
Para más información, consulte DC_API_QUOTA_EXCEEDED.
DC_CONNECTION_ERROR
No se pudo establecer una conexión con la fuente <sourceName>. Código de error: <errorCode>.
Para obtener más información, consulte DC_CONNECTION_ERROR
DC_DYNAMICS_API_ERROR
Error al llamar a la API de Dynamics, errorCode: <errorCode>.
Para obtener más información, consulte DC_DYNAMICS_API_ERROR
DC_NETSUITE_ERROR
Se produjo un error en las llamadas JDBC de Netsuite, errorCode: <errorCode>.
Para obtener más información, consulte DC_NETSUITE_ERROR
DC_SCHEMA_CHANGE_ERROR
SQLSTATE: ninguno asignado
Se ha producido un cambio de esquema en la tabla <tableName> del origen de <sourceName>.
Para obtener más información, consulte DC_SCHEMA_CHANGE_ERROR
DC_SERVICENOW_API_ERROR
Se ha producido un error en las llamadas API de ServiceNow, errorCode: <errorCode>.
Para obtener más información, consulte DC_SERVICENOW_API_ERROR
DC_SFDC_BULK_QUERY_JOB_INCOMPLETE
La ingesta del objeto <objName> está incompleta porque el trabajo de consulta de la API de Salesforce tardó demasiado tiempo, produjo un error o se canceló manualmente.
Para volver a intentarlo, puede volver a ejecutar toda la canalización o actualizar esta tabla de destino específica. Si el error persiste, presente un ticket. Id. de trabajo: <jobId>. Estado del trabajo: <jobStatus>.
DC_SHAREPOINT_API_ERROR
Error ocurrido en llamadas API de Sharepoint, errorCode: <errorCode>.
Para obtener más información, consulte DC_SHAREPOINT_API_ERROR
DC_SOURCE_API_ERROR
Ocurrió un error en la llamada a la API <sourceName>. Tipo de API de origen: <apiType>. Código de error: <errorCode>.
Esto puede ocurrir a veces cuando se ha alcanzado un <sourceName> límite de API. Si no ha superado el límite de API, intente volver a ejecutar el conector. Si el problema persiste, cree una incidencia.
DC_UNSUPPORTED_ERROR
Error no admitido en el origen de datos <sourceName>.
Para obtener más información, consulte DC_UNSUPPORTED_ERROR
DC_WORKDAY_RAAS_API_ERROR
Se produjo un error en las llamadas API de RAAS de Workday, errorCode: <errorCode>.
Para obtener más información, consulte DC_WORKDAY_RAAS_API_ERROR
DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION
La precisión decimal <precision> supera la precisión máxima <maxPrecision>.
DEFAULT_DATABASE_NOT_EXISTS
La base de datos <defaultDatabase> predeterminada no existe, créela primero o cambie la base de datos predeterminada a <defaultDatabase>.
DEFAULT_FILE_NOT_FOUND
Es posible que se hayan actualizado los archivos subyacentes. Puede invalidar explícitamente la memoria caché en Spark ejecutando el comando "REFRESH TABLE tableName" en SQL o volviendo a crear el conjunto de datos o dataframe implicado. Si la caché de disco está obsoleta o se han quitado los archivos subyacentes, puede invalidar manualmente la caché del disco reiniciando el clúster.
DEFAULT_PLACEMENT_INVALID
No DEFAULT se pudo asignar directamente una palabra clave en un MERGE, INSERT, UPDATEcomando o SET VARIABLE a una columna de destino porque formaba parte de una expresión.
Por ejemplo: UPDATE SET c1 = DEFAULT se permite, pero UPDATE T SET c1 = DEFAULT + 1 no se permite.
DEFAULT_UNSUPPORTED
No se pudo ejecutar el comando <statementType> porque los valores DEFAULT no son compatibles con el origen de datos de destino del proveedor de tablas: "<dataSource>".
DEFINE_FLOW_ONCE_OPTION_NOT_SUPPORTED
No se admite la definición de un flujo <flowName> único con la opción "una vez".
DESCRIBE_JSON_NOT_EXTENDED
DESCRIBE TABLE
...
AS JSON solo se admite cuando se especifica [EXTENDED|FORMATTED].
Por ejemplo: DESCRIBE EXTENDED <tableName> AS JSON se admite, pero DESCRIBE <tableName> AS JSON no lo es.
DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE
La consulta de streaming estaba leyendo desde una tabla Delta inesperada (id = "<newTableId>").
Se usa para leer desde otra tabla Delta (id = "<oldTableId>") según el punto de control.
Esto puede ocurrir cuando cambiaste el código para leer de una nueva tabla o eliminaste y
se vuelve a crear una tabla. Revierta el cambio o elimine el punto de control de consulta de streaming
volver a empezar desde cero
DISTINCT_WINDOW_FUNCTION_UNSUPPORTED
No se admiten funciones de ventana distintas: <windowExpr>.
DIVIDE_BY_ZERO
División por cero. Use try_divide para tolerar que el divisor sea 0 y devuelva NULL en su lugar. Si es necesario, establezca <config> en "false" para omitir este error.
Para obtener más información, consulte DIVIDE_BY_ZERO
DLT_EXPECTATIONS_NOT_SUPPORTED
Las expectativas solo se admiten en una canalización de canalizaciones declarativas de Spark de Lakeflow.
DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED
MATERIALIZED Las VIEW con una CLUSTER BY cláusula solo se admiten en una canalización de Canalizaciones declarativas de Spark de Lakeflow.
DLT_VIEW_LOCATION_NOT_SUPPORTED
MATERIALIZED VIEW las ubicaciones solo se admiten en una canalización de canalizaciones declarativas de Spark de Lakeflow.
DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED
MATERIALIZED VIEW Los esquemas con un tipo especificado solo se admiten en una canalización de canalizaciones declarativas de Spark de Lakeflow.
TABLE_CONSTRAINTSDLT_VIEW__NOT_SUPPORTED
CONSTRAINT Las cláusulas de una vista solo se admiten en una canalización de canalizaciones declarativas de Spark de Lakeflow.
DML_OPERATIONS_NOT_SUPPORTED_FOR_REMOTE_QUERY_FUNCTION
La función de consulta remota no admite consultas DML.
DROP_COMMAND_TYPE_MISMATCH
No se puede quitar un <metadataType> objeto con DROP <commandType>.
En su lugar, use DROP <metadataTypeUpper>.
DROP_SCHEDULE_DOES_NOT_EXIST
No se puede quitar SCHEDULE en una tabla sin una programación o desencadenador existente.
DUPLICATED_CTE_NAMES
La definición de CTE no puede tener nombres duplicados: <duplicateNames>.
DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT
No se permiten nombres de campo duplicados en la estructura de flecha. Se obtuvo <fieldNames>.
DUPLICATED_MAP_KEY
Se encontró una clave <key> de mapa duplicada, compruebe los datos de entrada.
Si desea quitar las claves duplicadas, puede establecer en <mapKeyDedupPolicy> "LAST_WIN" para que la clave insertada al final tenga prioridad.
DUPLICATED_METRICS_NAME
El nombre de la métrica no es único: <metricName>. No se puede usar el mismo nombre para las métricas con resultados diferentes.
Sin embargo, se permiten varias instancias de métricas con el mismo resultado y nombre (por ejemplo, autocombinaciones).
DUPLICATE_ASSIGNMENTS
Las columnas o variables <nameList> aparecen más de una vez como destinos de asignación.
DUPLICATE_CLAUSES
Se encontraron cláusulas duplicadas: <clauseName>. Por favor, retire uno de ellos.
DUPLICATE_CONDITION_IN_SCOPE
Se ha encontrado una condición <condition> duplicada en el ámbito. Por favor, retire uno de ellos.
DUPLICATE_EXCEPTION_HANDLER
Se encontraron controladores duplicados. Por favor, retire uno de ellos.
Para obtener más información, consulte DUPLICATE_EXCEPTION_HANDLER
DUPLICATE_FLOW_SQL_CONF
Se encontró una configuración de SQL duplicada para el conjunto de datos '<datasetName>': '<key>' es definida por '<flowName1>' y '<flowName2>'
DUPLICATE_KEY
Se encontraron claves <keyColumn>duplicadas.
DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
La llamada a rutina <routineName> no es válida porque incluye varias asignaciones de argumentos al mismo nombre <parameterName>de parámetro .
Para obtener más información, consulte DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
DUPLICATE_ROUTINE_PARAMETER_NAMES
Se encontraron nombres duplicados en la lista de parámetros de la rutina <routineName>definida por el usuario: <names>.
DUPLICATE_ROUTINE_RETURNS_COLUMNS
Se encontraron columnas duplicadas en la lista de columnas de cláusulas RETURNS de la rutina <routineName>definida por el usuario: <columns>.
DUPLICATE_VARIABLE_NAME_INSIDE_DECLARE
Se encontró la variable <variableName> duplicada en la lista de declaración de variables. Por favor, retire uno de ellos.
EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED
El nodo anterior emitió una fila con eventTime=<emittedRowEventTime> que es anterior a current_watermark_value=<currentWatermark>
Esto puede provocar problemas de corrección en los operadores con estado de bajada en la canalización de ejecución.
Corrija la lógica del operador para emitir filas después del valor actual de marca de agua global.
EMPTY_JSON_FIELD_VALUE
No se pudo analizar una cadena vacía para el tipo <dataType>de datos .
EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY
Archivo local vacío en la consulta de almacenamiento provisional <operation>
EMPTY_SCHEMA_NOT_SUPPORTED_FOR_DATASOURCE
El origen de datos <format> no admite la creación de esquemas vacíos ni anidados. Asegúrese de que el esquema de datos tenga al menos una o varias columnas.
ENCODER_NOT_FOUND
No se encontró un codificador del tipo <typeName> en la representación interna de Spark SQL.
Considere la posibilidad de cambiar el tipo de entrada a uno de los admitidos en "<docroot>/sql-ref-datatypes.html".
END_LABEL_WITHOUT_BEGIN_LABEL
La etiqueta <endLabel> final no puede existir sin etiqueta begin.
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW
Algunas de las particiones de los temas de Kafka informan sobre el desplazamiento disponible, que es menor que el desplazamiento final durante la ejecución de la consulta con Trigger.AvailableNow. El error podría ser transitorio: reinicie la consulta e informe si sigue viendo el mismo problema.
desplazamiento más reciente: <latestOffset>, desplazamiento final: <endOffset>
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED
Para el origen de datos de Kafka con Trigger.AvailableNow, el desplazamiento final debe tener un desplazamiento inferior o igual por cada partición de tema que el desplazamiento capturado previamente. El error podría ser transitorio: reinicie la consulta e informe si sigue viendo el mismo problema.
desplazamiento capturado previamente: <prefetchedOffset>, desplazamiento final: <endOffset>.
ERROR_READING_AVRO_UNKNOWN_FINGERPRINT
Error al leer datos avro: encontró una huella digital desconocida: <fingerprint>, no está seguro de qué esquema usar.
Esto podría ocurrir si registró esquemas adicionales después de iniciar el contexto de Spark.
EVENT_LOG_EMPTY
El registro de eventos de <tableOrPipeline> no tiene ningún esquema y no contiene ningún evento. Inténtelo de nuevo más tarde después de generar eventos
EVENT_LOG_REQUIRES_SHARED_COMPUTE
No se pueden consultar registros de eventos desde un clúster compartido asignado o sin aislamiento, use un clúster compartido o un almacenamiento de SQL de Databricks en su lugar.
EVENT_LOG_TVF_UNSUPPORTED_FOR_PIPELINE
La TVF EVENT_LOG no se admite para canalizaciones que usan el campo "esquema" ni las que se publican en el almacenamiento predeterminado.
Para consultar el registro de eventos, publíquelo en el metastore especificando el campo event_log en la configuración de la canalización.
Para más información, consulte la documentación sobre canalizaciones declarativas de Spark de Monitor Lakeflow: https://docs.databricks.com/aws/en/delta-live-tables/observability
EVENT_LOG_UNAVAILABLE
No hay registros de eventos disponibles para <tableOrPipeline>. Por favor, inténtelo de nuevo más tarde, después de que los eventos sean generados.
EVENT_LOG_UNSUPPORTED_TABLE_TYPE
El tipo de tabla de <tableIdentifier> es <tableType>.
La consulta de registros de eventos solo admite vistas materializadas, tablas de streaming o canalizaciones declarativas de Spark de Lakeflow
EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE
La hora <eventName> del evento tiene un tipo <eventType> inválido, pero se esperaba "TIMESTAMP".
EXCEED_LIMIT_LENGTH
Supera la limitación de longitud de tipo char/varchar: <limit>.
FUENTE_DE_DATOS_DE_EXCEL_NO_ACTIVADA
El origen de datos de Excel no está habilitado en este clúster.
EXCEL_FILE_ERROR
Error al procesar el archivo de Excel '<filePath>'.
Para obtener más información, consulte EXCEL_FILE_ERROR
EXCEL_VALOR_INVÁLIDO_OPCIÓN_LECTURA
Valor de opción de lectura no válido para el origen de datos de Excel.
Para obtener más información, consulte EXCEL_INVALID_READ_OPTION_VALUE
EXCEL_INVALID_WRITE_OPTION_VALUE
El origen de datos de Excel no admite el valor '<value>' para la opción de escritura '<option>'.
Para obtener más información, consulte EXCEL_INVALID_WRITE_OPTION_VALUE
EXCEL_INVALID_WRITE_SCHEMA
El origen de datos de Excel no admite el esquema "<schema>" para escrituras.
<hint>
EXCEL_PARSING_ERROR
Error al analizar los datos de Excel.
Para obtener más información, consulte EXCEL_PARSING_ERROR
EXCEL_UNSUPPORTED_WRITE_OPTION
El origen de datos de Excel no admite la opción de escritura '<option>'.
<hint>
EXCEPT_NESTED_COLUMN_INVALID_TYPE
EXCEPT se resolvió la columna <columnName> y se esperaba que fuera StructType, pero se encontró el tipo <dataType>.
EXCEPT_OVERLAPPING_COLUMNS
Las columnas de una lista EXCEPT deben ser distintas y no estar superpuestas, pero se obtuvo (<columns>).
EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH
Las columnas EXCEPT [<exceptColumns>] se resolvieron, pero no coinciden con ninguna de las columnas [<expandedColumns>] de la expansión en estrella.
EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION
No se puede resolver el nombre de columna/campo <objectName> en la cláusula EXCEPT. ¿Querías decir lo siguiente: [<objectList>]?
Nota: Es posible que las columnas anidadas de la cláusula EXCEPT no incluyan qualifadores (nombre de tabla, nombre de columna de estructura padre, etc.) durante la expansión de una estructura; intente eliminarlos si se usan en columnas anidadas.
EXECUTOR_DISK_OUT_OF_SPACE
Disco del ejecutor sin espacio. Aumente la capacidad del disco si está disponible. Si usa Serverless, póngase en contacto con nuestro equipo de soporte técnico.
EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES
La USING cláusula de este EXECUTE IMMEDIATE comando contenía varios argumentos con el mismo alias (<aliases>), que no es válido; actualice el comando para especificar alias únicos y vuelva a intentarlo.
EXPECT_PERMANENT_TABLE_NOT_TEMP
'<operation>' espera una tabla permanente, pero <tableName> es una tabla temporal. Especifique en su lugar una tabla permanente.
EXPECT_PERMANENT_VIEW_NOT_TEMP
'<operation>' espera una vista permanente, pero <viewName> es una vista temporal.
EXPECT_TABLE_NOT_VIEW
"<operation>" espera una tabla, pero <viewName> es una vista.
Para obtener más información, consulte EXPECT_TABLE_NOT_VIEW
EXPECT_VIEW_NOT_TABLE
La tabla <tableName> no admite <operation>.
Para más información, consulte EXPECT_VIEW_NOT_TABLE
EXPRESSION_DECODING_FAILED
No se pudo convertir una fila en un valor de las expresiones: <expressions>.
EXPRESSION_ENCODING_FAILED
No se pudo codificar un valor de las expresiones: <expressions> en una fila.
EXPRESSION_TRANSLATION_TO_V2_IS_NOT_SUPPORTED
La expresión <expr> no se puede traducir a la expresión v2.
EXPRESSION_TYPE_IS_NOT_ORDERABLE
No se puede ordenar la expresión de columna <expr> porque su tipo <exprType> no se puede ordenar.
EXTERNAL_METASTORE_CLIENT_ERROR
Error en la operación de cliente:
Para obtener más información, consulte EXTERNAL_METASTORE_CLIENT_ERROR
EXTERNAL_SHALLOW_CLONE_STILL_EXISTS
No se pudo ejecutar la operación en la tabla <sourceTable> de origen porque el clon <targetTable> superficial todavía existe y su estado no es válido. Si su intención es continuar con esta operación, limpie el clon superficial. Para ello, ejecute explícitamente el comando DROP.
EXTERNAL_TABLE_INVALID_SCHEME
Las tablas externas no admiten el <scheme> esquema.
FABRIC_REFRESH_INVALID_SCOPE
Error al ejecutar "REFRESH FOREIGN <scope> <name>". No se puede actualizar un Fabric <scope> directamente, use "REFRESH FOREIGN CATALOG <catalogName>" para actualizar el catálogo de Fabric en vez de eso.
FAILED_EXECUTE_UDF
Error de función definida por el usuario (: (<functionName><signature>) => <result>debido a: <reason>.
FAILED_FUNCTION_CALL
No se pudo preparar la función <funcName> para la llamada. Compruebe los argumentos de la función.
FAILED_JDBC
Error de JDBC <url> en la operación:
Para obtener más información, consulte FAILED_JDBC
FAILED_PARSE_STRUCT_TYPE
Estructura de análisis con errores: <raw>.
FAILED_READ_FILE
Error al leer el archivo <path>.
Para obtener más información, consulte FAILED_READ_FILE
FAILED_REGISTER_CLASS_WITH_KRYO
No se pudieron registrar clases con Kryo.
FAILED_RENAME_PATH
No se pudo cambiar el nombre de <sourcePath> a <targetPath> porque el destino ya existe.
FAILED_RENAME_TEMP_FILE
No se pudo cambiar el nombre del archivo temporal <srcPath> a <dstPath> porque FileSystem.rename devolvió false.
FAILED_ROW_TO_JSON
No se pudo convertir el valor <value> de fila de la clase <class> al tipo <sqlType> SQL de destino en el JSON formato .
FAILED_TO_CREATE_PLAN_FOR_DIRECT_QUERY
No se pudo crear el plan de consulta directa en los archivos: <dataSourceType>
FAILED_TO_LOAD_ROUTINE
No se pudo cargar la rutina <routineName>.
FAILED_TO_PARSE_TOO_COMPLEX
La instrucción , incluidas las posibles funciones SQL y las vistas a las que se hace referencia, era demasiado compleja para analizar.
Para mitigar este error, divida la instrucción en varios fragmentos menos complejos.
FEATURE_NOT_ENABLED
La característica <featureName> no está habilitada. Considere establecer la configuración <configKey> en <configValue> para habilitar esta capacidad.
FEATURE_NOT_ON_CLASSIC_WAREHOUSE
<feature> no se admite en almacenes de SQL clásicos. Para usar esta característica, use una instancia de SQL Warehouse Pro o sin servidor.
FEATURE_REQUIRES_UC
<feature> no se admite sin Unity Catalog. Para usar esta característica, habilite El catálogo de Unity.
FEATURE_UNAVAILABLE
<feature> no se admite en su entorno. Para usar esta característica, póngase en contacto con el soporte técnico de Databricks.
FETCH_FAILED
Error de tarea al capturar datos aleatorios o metadatos: <errorString>.
FGAC_ON_DEDICATED_COMPUTE_FAILED
Error de control de acceso detallado (FGAC) en la computación dedicada debido a la siguiente excepción: <message>
FIELD_ALREADY_EXISTS
No se puede <op> columna, porque <fieldNames> ya existe en <struct>.
FIELD_NOT_FOUND
Ningún campo <fieldName> de estructura de este tipo en <fields>.
FILE_IN_STAGING_PATH_ALREADY_EXISTS
El archivo en la ruta provisional <path> ya existe, pero OVERWRITE no está configurado
FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR
Error en la función proporcionada por el usuario en flatMapGroupsWithState. Motivo: <reason>
FORBIDDEN_DATASOURCE_IN_SERVERLESS
No se permite consultar el origen <source> de datos en computación sin servidor. Solo se admiten los orígenes de datos de <allowlist> en proceso sin servidor.
FORBIDDEN_KEYWORD_IN_JDBC_QUERY
La opción <queryOption> de consulta no puede contener palabras clave prohibidas. Quite las siguientes palabras clave de la consulta: <keywords>
FORBIDDEN_OPERATION
No se permite la operación <statement> en el <objectType>: <objectName>.
FOREACH_BATCH_USER_FUNCTION_ERROR
Error en la función proporcionada por el usuario en el receptor de lotes foreach. Motivo: <reason>
FOREACH_USER_FUNCTION_ERROR
Error en la función proporcionada por el usuario en el receptor foreach. Motivo: <reason>
FOREIGN_KEY_MISMATCH
Las columnas primarias de clave externa <parentColumns> no coinciden con las columnas secundarias de clave principal <childColumns>.
FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY
No se puede ejecutar este comando porque el nombre externo <objectType> debe no estar vacío.
FOREIGN_TABLE_CONVERSION_UNSUPPORTED
La tabla no es apta para la actualización de UC Foreign a UC External. Reason:
Para más información, consulte FOREIGN_TABLE_CONVERSION_UNSUPPORTED
FOREIGN_VIEW_CONVERSION_UNSUPPORTED
El objeto <objectName> no es apto para la conversión a una vista administrada de UC. Reason:
Para obtener más información, consulte FOREIGN_VIEW_CONVERSION_UNSUPPORTED
FROM_JSON_CONFLICTING_SCHEMA_UPDATES
inferencia de from_json encontró actualizaciones de esquema en conflicto en: <location>
FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA
from_json encontró columnNameOfCorruptRecord (<columnNameOfCorruptRecord>) presente
en un JSON objeto y ya no puede continuar. Configure un valor diferente para
la opción "columnNameOfCorruptRecord".
FROM_JSON_CORRUPT_SCHEMA
la inferencia from_json no pudo leer el esquema almacenado en: <location>
FROM_JSON_INFERENCE_FAILED
from_json no pudo deducir el esquema. Proporcione uno en su lugar.
FROM_JSON_INFERENCE_NOT_SUPPORTED
La inferencia de from_json solo se admite al definir tablas de transmisión
FROM_JSON_INVALID_CONFIGURATION
from_json configuración no es válida:
Para obtener más información, consulte FROM_JSON_INVALID_CONFIGURATION.
FROM_JSON_SCHEMA_EVOLUTION_FAILED
from_json no pudo evolucionar de <old> a <new>
FUNCTION_PARAMETERS_MUST_BE_NAMED
La función <function> requiere parámetros con nombre. Faltan nombres de parámetros: <exprs>. Actualice la llamada de función para agregar nombres para todos los parámetros, por ejemplo, <function>(param_name => ...).
GENERATED_COLUMN_WITH_DEFAULT_VALUE
Una columna no puede tener un valor predeterminado y una expresión de generación, pero la columna <colName> tiene el valor predeterminado: () y la expresión de generación: (<defaultValue><genExpr>).
GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION
Hive 2.2 y versiones anteriores no admiten getTablesByType. Use Hive 2.3 o una versión posterior.
GET_WARMUP_TRACING_FAILED
No se pudo obtener el seguimiento de preparación. Causa: <cause>.
GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED
No se permite la función get_warmup_tracing().
GRAPHITE_SINK_INVALID_PROTOCOL
Protocolo Graphite no válido: <protocol>.
GRAPHITE_SINK_PROPERTY_MISSING
El receptor de Graphite requiere la propiedad "<property>".
GROUPING_COLUMN_MISMATCH
No se encuentra la columna de agrupación (<grouping>) en las columnas de agrupación <groupingColumns>.
GROUPING_ID_COLUMN_MISMATCH
Las columnas de grouping_id (<groupingIdColumn>) no coinciden con las columnas de agrupación (<groupByColumns>).
GROUPING_SIZE_LIMIT_EXCEEDED
El tamaño de los conjuntos de agrupación no puede ser mayor que <maxSize>.
GROUP_BY_AGGREGATE
No se permiten funciones de agregado en GROUP BY, pero se ha encontrado <sqlExpr>.
Para obtener más información, consulte GROUP_BY_AGGREGATE
GROUP_BY_POS_AGGREGATE
GROUP BY <index> hace referencia a una expresión <aggExpr> que contiene una función de agregado. No se permiten funciones de agregado en GROUP BY.
GROUP_BY_POS_OUT_OF_RANGE
GROUP BY position <index> no está en la lista de selección (el intervalo válido es [1, <size>]).
GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE
La expresión <sqlExpr> no se puede usar como expresión de agrupación porque su tipo <dataType> de datos no es un tipo de datos ordenable.
HDFS_HTTP_ERROR
Al intentar leer desde HDFS, se produjo un error en la solicitud HTTP.
Para obtener más información, consulte HDFS_HTTP_ERROR
HINT_UNSUPPORTED_FOR_JDBC_DIALECT
La opción hint no se admite para el origen de datos JDBC <jdbcDialect>. Los dialectos admitidos son MySQLDialect, OracleDialect y DatabricksDialect.
HIVE_METASTORE_INVALID_PLACEHOLDER_PATH
La consulta o el comando no se pudieron ejecutar porque la configuración 'spark.databricks.hive.metastore.tablePlaceholderPath' proporcionó una ruta de marcador de posición de tabla de Hive Metastore no válida. Actualice esta configuración con un nuevo valor para proporcionar una ruta de acceso válida y vuelva a ejecutar la consulta o el comando.
HIVE_METASTORE_TABLE_PLACEHOLDER_PATH_NOT_SET
Error en la consulta o comando porque no se establece la ruta de acceso del marcador de posición de la tabla de Metastore de Hive, que es necesaria cuando la ubicación del esquema está en DBFS y la ubicación de la tabla es un objeto o archivo. Establezca spark.databricks.hive.metastore.tablePlaceholderPath en una ruta de acceso a la que tiene acceso y vuelva a ejecutar la consulta o comando.
HLL_INVALID_INPUT_SKETCH_BUFFER
Llamada no válida a <function>; solo se admiten búferes de croquis HLL válidos como entradas (como las producidas por la hll_sketch_agg función).
HLL_INVALID_LG_K
Llamada no válida a <function>; el lgConfigK valor debe estar entre <min> y <max>, ambos incluidos: <value>.
HLL_K_MUST_BE_CONSTANT
Llamada no válida a <function>; el K valor debe ser un valor constante, pero tiene una expresión no constante.
HLL_UNION_DIFFERENT_LG_K
Los bocetos tienen valores diferentes lgConfigK : <left> y <right>. Establezca el parámetro allowDifferentLgConfigK a true para llamar a <function> con diferentes valores lgConfigK.
HMS_FEDERATION_SHALLOW_CLONE_NOT_FOUND_IN_UC
No se ha podido resolver la ruta de la clonación superficial "<path>" en una tabla de Unity Catalog. Asegúrese de que la tabla existe y está federada en el catálogo de Unity.
HYBRID_ANALYZER_EXCEPTION
Se produjo un error al intentar resolver una consulta o comando con el analizador de punto fijo heredado, así como con la resolución de un solo paso.
Para obtener más información, consulte HYBRID_ANALYZER_EXCEPTION
IDENTIFIER_TOO_MANY_NAME_PARTS
<identifier> no es un identificador válido, ya que tiene más de <limit> elementos de nombre.
IDENTITY_COLUMNS_DUPLICATED_SEQUENCE_GENERATOR_OPTION
Opción del generador de secuencia de columnas IDENTITY duplicada: <sequenceGeneratorOption>.
IDENTITY_COLUMNS_ILLEGAL_STEP
El paso de columna IDENTITY no puede ser 0.
IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
DataType <dataType> no se admite para columnas IDENTITY.
ILLEGAL_DAY_OF_WEEK
Entrada no válida para el día de la semana: <string>.
ILLEGAL_STATE_STORE_VALUE
Valor no válido proporcionado al Almacén de estado
Para obtener más información, consulte ILLEGAL_STATE_STORE_VALUE.
INAPPROPRIATE_URI_SCHEME_OF_CONNECTION_OPTION
No se puede crear la conexión debido a un esquema inadecuado de URI <uri> proporcionado para la opción de conexión '<option>'.
Esquemas permitidos: <allowedSchemes>.
Agregue un esquema si no está presente en el URI o especifique un esquema de los valores permitidos.
INCOMPARABLE_PIVOT_COLUMN
Columna dinámica no válida <columnName>. Las columnas dinámicas deben ser comparables.
LECTURA_DE_VISTA_DE_LOTE_INCOMPATIBLE
View <datasetIdentifier> es una vista por lotes a la que se debe hacer referencia mediante SparkSession#read. Esta comprobación se puede deshabilitar estableciendo spark conf pipelines.incompatibleViewCheck.enabled = false.
INCOMPATIBLE_COLUMN_TYPE
<operator> solo se puede realizar en tablas con tipos de columna compatibles. La columna <columnOrdinalNumber> de la tabla <tableOrdinalNumber> es de tipo <dataType1>, el cual no es compatible con <dataType2> en la misma columna de la primera tabla.<hint>
INCOMPATIBLE_DATASOURCE_REGISTER
Se detectó un DataSourceRegister incompatible. Quita la biblioteca incompatible del classpath o actualízala. Error: <message>
INCOMPATIBLE_DATA_FOR_TABLE
No se pueden escribir datos incompatibles para la tabla <tableName>:
Para obtener más información, consulteINCOMPATIBLE_DATA_FOR_TABLE.
INCOMPATIBLE_JOIN_TYPES
Los tipos de combinación <joinType1> y <joinType2> son incompatibles.
LECTURA_DE_VISTA_DE_STREAMING_INCOMPATIBLE
View <datasetIdentifier> es una vista de streaming y se debe hacer referencia a esta mediante SparkSession#readStream. Esta comprobación se puede deshabilitar estableciendo spark conf pipelines.incompatibleViewCheck.enabled = false.
INCOMPATIBLE_VIEW_SCHEMA_CHANGE
La consulta SQL de la vista <viewName> tiene un cambio de esquema incompatible y no se puede resolver la columna <colName> . Se esperaban <expectedNum> columnas denominadas <colName>, pero se obtuvo <actualCols>.
Intente volver a crear la vista ejecutando: <suggestion>.
INCOMPLETE_TYPE_DEFINITION
Tipo complejo incompleto:
Para obtener más información, consulte INCOMPLETE_TYPE_DEFINITION
INCONSISTENT_BEHAVIOR_CROSS_VERSION
Puede obtener un resultado diferente debido a la actualización a
Para más información, consulte INCONSISTENT_BEHAVIOR_CROSS_VERSION.
INCORRECT_NUMBER_OF_ARGUMENTS
<failure>, <functionName> requiere al menos <minArgs> argumentos y como máximo <maxArgs> argumentos.
INCORRECT_RAMP_UP_RATE
El desplazamiento máximo con <rowsPerSecond> rowsPerSecond es <maxSeconds>, pero "rampUpTimeSeconds" es <rampUpTimeSeconds>.
INDETERMINATE_COLLATION
No se pudo determinar qué intercalación se va a usar para la operación de cadena. Use la cláusula COLLATE para establecer la intercalación explícitamente.
INDETERMINATE_COLLATION_IN_EXPRESSION
El tipo de datos de <expr> tiene intercalación indeterminada. Use la cláusula COLLATE para establecer la intercalación explícitamente.
INDETERMINATE_COLLATION_IN_SCHEMA
El esquema contiene una intercalación indeterminada en: [<columnPaths>]. Use la cláusula COLLATE para establecer la intercalación explícitamente.
INDEX_ALREADY_EXISTS
No se puede crear el índice <indexName> en la tabla <tableName> porque ya existe.
INDEX_NOT_FOUND
No se encuentra el índice <indexName> en la tabla <tableName>.
INET_FUNCTIONS_NOT_ENABLED
<functionName> está deshabilitado o no es compatible. Las funciones INET aún no están disponibles públicamente.
INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED
El tipo <trigger> de desencadenador no se admite para este tipo de clúster.
Use un tipo de desencadenador diferente, por ejemplo, AvailableNow, Once.
INSERT_COLUMN_ARITY_MISMATCH
No se puede escribir en <tableName>, el motivo es
Para obtener más información, consulte INSERT_COLUMN_ARITY_MISMATCH.
INSERT_PARTITION_COLUMN_ARITY_MISMATCH
No se puede escribir en "<tableName>", <reason>:
Columnas de tabla: <tableColumns>.
Particione columnas con valores estáticos: <staticPartCols>.
Columnas de datos: <dataColumns>.
INSERT_REPLACE_USING_DISALLOW_MISALIGNED_COLUMNS
Todas las columnas de la USING cláusula deben aparecer en la misma posición en los esquemas de destino y de origen.
USING No se admite la cláusula que contiene columnas desalineadas.
Las columnas siguientes están mal alineadas: <misalignedReplaceUsingCols>
INSERT_REPLACE_USING_INVALID_SET_OF_COLUMNS
La tabla debe tener particiones y todas las columnas especificadas deben representar el conjunto completo de las columnas de partición de la tabla.
Las columnas siguientes no son columnas de partición: <nonPartitionColumns>
Faltan las siguientes columnas de particiones: <missingPartitionsColumns>
INSERT_REPLACE_USING_NOT_ENABLED
Póngase en contacto con su representante de Databricks para habilitar la INSERT INTO...REPLACE USING característica (...) .
INSUFFICIENT_PERMISSIONS
Privilegios insuficientes:
<report>
INSUFFICIENT_PERMISSIONS_EXT_LOC
El usuario <user> no tiene privilegios suficientes para la ubicación <location>externa.
INSUFFICIENT_PERMISSIONS_NO_OWNER
No hay ningún propietario para <securableName>. Pida al administrador que establezca un propietario.
INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE
El usuario no es propietario de <securableName>.
INSUFFICIENT_PERMISSIONS_SECURABLE
El usuario no tiene permiso <action> en <securableName>.
INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER
El propietario de <securableName> es diferente del propietario de <parentSecurableName>.
INSUFFICIENT_PERMISSIONS_SPARK_CONNECT_CLIENT_SET_CLOUDFETCH_RETENTION_TIMEOUT
El cliente no tiene permiso para establecer un tiempo de espera de retención personalizado para los resultados de CloudFetch.
INSUFFICIENT_PERMISSIONS_STORAGE_CRED
La credencial <credentialName> de almacenamiento no tiene privilegios suficientes.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES
El usuario no puede <action> en <securableName> debido a los permisos que hay en elementos protegibles subyacentes.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE
El usuario no puede <action> en <securableName> debido a los permisos que hay en elementos protegibles subyacentes:
<underlyingReport>
INTERVAL_ARITHMETIC_OVERFLOW
Desbordamiento de enteros mientras se trabaja con intervalos.
Para obtener más información, consulte INTERVAL_ARITHMETIC_OVERFLOW
INTERVAL_DIVIDED_BY_ZERO
División por cero. Use try_divide para tolerar que el divisor sea 0 y devuelva NULL en su lugar.
INVALID_AGGREGATE_FILTER
La FILTER expresión <filterExpr> de una función de agregado no es válida.
Para obtener más información, consulte INVALID_AGGREGATE_FILTER
INVALID_AGNOSTIC_ENCODER
Se encontró un codificador independiente no válido. Espera una instancia de AgnosticEncoder, pero tiene <encoderType>. Para obtener más información, consulte '<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html'.
INVALID_ARRAY_INDEX
El índice <indexValue> está fuera de los límites. La matriz tiene <arraySize> elementos. Use la función SQL get() para tolerar el acceso al elemento en un índice no válido y devolver NULL en su lugar.
Para obtener más información, consulte INVALID_ARRAY_INDEX
INVALID_ARRAY_INDEX_IN_ELEMENT_AT
El índice <indexValue> está fuera de los límites. La matriz tiene <arraySize> elementos. Use try_element_at para tolerar el acceso al elemento en un índice no válido y devolver NULL en su lugar.
Para obtener más información, consulte INVALID_ARRAY_INDEX_IN_ELEMENT_AT
INVALID_ARTIFACT_PATH
El artefacto con el nombre <name> no es válido. El nombre debe ser una ruta de acceso relativa y no puede hacer referencia a directorios primarios, relacionados o sobrinos.
INVALID_ATTRIBUTE_NAME_SYNTAX
Error de sintaxis en el nombre del atributo: <name>. Compruebe que los acentos graves aparecen en pares (una cadena entre comillas es una parte completa de un nombre) y use un acento grave solo dentro de las partes del nombre entre comillas.
INVALID_AUTO_TTL_EXPIRE_IN_DAYS
El número de días especificado para el TTL automático debe ser no negativo.
INVALID_AWS_AUTHENTICATION
Elija exactamente uno de los métodos de autenticación siguientes:
Proporcione el nombre de la credencial de servicio de Databricks () (
<serviceCredential>como una opción de flujo de Spark o como una variable de entorno de clúster).Proporcione tanto AccessKey de AWS (
<awsAccessKey>) como SecretAccessKey (<awsSecretKey>) para usar claves de AWS.No proporcione ni las claves de AWS ni una credencial de servicio de Databricks para usar la cadena predeterminada de proveedores de credenciales de AWS para la autenticación de Kinesis.
INVALID_AWS_AUTHENTICATION_EXPLICIT_OPTIONS
Proporcione el nombre de la credencial de servicio de Databricks (<serviceCredential>).
O tanto <awsAccessKey> como <awsSecretKey>
INVALID_BITMAP_POSITION
La posición <bitPosition> del mapa de bits indizado 0 está fuera de los límites. El mapa de bits tiene <bitmapNumBits> bits (<bitmapNumBytes> bytes).
INVALID_BOOLEAN_STATEMENT
Se espera una expresión booleana en la condición, pero <invalidStatement> fue encontrado.
INVALID_BOUNDARY
El límite <boundary> no es válido: <invalidValue>.
Para obtener más información, consulte INVALID_BOUNDARY
INVALID_BUCKET_COLUMN_DATA_TYPE
No se puede usar <type> para la columna bucket. No se admiten tipos de datos intercalados para la creación de cubos.
INVALID_BUCKET_COUNT
El número de cubos debe ser mayor que 0, pero menor o igual que bucketing.maxBuckets (<bucketingMaxBuckets>). Tiene <numBuckets>.
INVALID_BUCKET_FILE
Archivo de contenedor no válido: <path>.
INVALID_BYTE_STRING
El formato esperado es ByteString, pero era <unsupported> (<class>).
INVALID_CIDR_RANGE
La función <functionName> recibió un intervalo CIDR no válido: <value>.
INVALID_CLONE_SESSION_REQUEST
Solicitud de clonación de sesión no válida.
Para obtener más información, consulte INVALID_CLONE_SESSION_REQUEST
INVALID_COLUMN_NAME_AS_PATH
El origen de datos <datasource> no puede guardar la columna <columnName> porque su nombre contiene algunos caracteres que no están permitidos en las rutas de archivos. Use un alias para cambiarle el nombre.
INVALID_COLUMN_OR_FIELD_DATA_TYPE
La columna o el campo <name> es de tipo <type> mientras es necesario que sea <expectedType>.
INVALID_CONF_VALUE
El valor '<confValue>' de la configuración "<confName>" no es válido.
Para obtener más información, consulte INVALID_CONF_VALUE
INVALID_CONSTRAINT_CHARACTERISTICS
Las características de restricción [<characteristics>] se duplican o entran en conflicto entre sí.
INVALID_CORRUPT_RECORD_TYPE
La columna <columnName> de los registros dañados debe tener el tipo STRING que admite un valor NULL, pero se obtuvo <actualType>.
INVALID_CURRENT_RECIPIENT_USAGE
La función current_recipient solo se puede usar en la instrucción CREATE VIEW o en la instrucción ALTER VIEW para definir una vista de recurso compartido solo en Unity Catalog.
INVALID_CURSOR
El cursor no es válido.
Para obtener más información, consulte INVALID_CURSOR
INVALID_DATASOURCE_FORMAT_FOR_CONNECTION_OPTIONS_INJECTION
La conexión con el nombre <connectionName> y el tipo <connectionType> no admiten el formato <actualFormat>. Formato admitido: <expectedFormat>.
INVALID_DATASOURCE_OPTION_OVERRIDE_ATTEMPT
La opción <optionName> ya existe en la conexión <connectionName> y no se puede invalidar.
INVALID_DATETIME_PATTERN
Patrón de fecha y hora no reconocido: <pattern>.
Para obtener más información, consulte INVALID_DATETIME_PATTERN
INVALID_DBFS_MOUNT
No se puede acceder al montaje de DBFS.
Para obtener más información, consulte INVALID_DBFS_MOUNT
INVALID_DBSQL_CONFIG
<confValue> no se admite para la clave de configuración de SQL. <confKey>
INVALID_DEFAULT_VALUE
No se pudo ejecutar el comando <statement> porque la columna o variable de destino <colName> tiene un valor DEFAULT<defaultValue>,
Para obtener más información, consulte INVALID_DEFAULT_VALUE
INVALID_DELIMITER_VALUE
Valor no válido para el delimitador.
Para obtener más información, consulte INVALID_DELIMITER_VALUE
INVALID_DEST_CATALOG
El catálogo de destino del SYNC comando debe estar dentro del catálogo de Unity. Se encontró <catalog>.
INVALID_DRIVER_MEMORY
La memoria <systemMemory> del sistema debe ser al menos <minSystemMemory>.
Aumente el tamaño del montón mediante la opción --driver-memory o "<config>" en la configuración de Spark.
OPCIONES_INVÁLIDAS_PARA_ELIMINAR_TABLA
No se pueden especificar las opciones PURGE y FORCE en el comando DROP TABLE. Use PURGE o FORCE, pero no ambos.
INVALID_DYNAMIC_OPTIONS
Las opciones pasadas <option_list> están prohibidas para la tabla externa <table_name>.
INVALID_EMPTY_LOCATION
El nombre de ubicación no puede ser una cadena vacía, pero <location> se ha proporcionado.
INVALID_ENVIRONMENT_SETTINGS_DEPENDENCIES
Falta el parámetro de dependencias de configuración del entorno o no se pudo analizar en una lista de cadenas. Formato esperado: ["dep1", "dep2"]
INVALID_ENVIRONMENT_SETTINGS_ENVIRONMENT_VERSION
Esta versión en tiempo de ejecución no admite una versión de entorno para orígenes de datos. Valor: <environmentVersion>.
INVALID_ERROR_CONDITION_DECLARATION
Declaración de condición no válida.
Para más información, consulte INVALID_ERROR_CONDITION_DECLARATION
INVALID_ESC
Se encontró una cadena de escape no válida: <invalidEscape>. La cadena de escape solo debe contener un carácter.
INVALID_ESCAPE_CHAR
EscapeChar debería ser un literal de cadena de longitud uno, pero se obtuvo <sqlExpr>.
INVALID_EXECUTOR_MEMORY
La memoria <executorMemory> del ejecutor debe ser al menos <minSystemMemory>.
Aumente la memoria del ejecutor mediante la opción --executor-memory o "<config>" en la configuración de Spark.
INVALID_EXPRESSION_ENCODER
Se encontró un codificador de expresiones no válido. Se esperaba una instancia de ExpressionEncoder, pero se obtuvo <encoderType>. Para obtener más información, consulte '<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html'.
INVALID_EXPR_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE
El tipo de expresión debe ser de tipo de cadena, pero tiene <exprType>.
INVALID_EXTERNAL_TYPE
El tipo <externalType> externo no es válido para el tipo <type> en la expresión <expr>.
INVALID_EXTRACT_BASE_FIELD_TYPE
No se puede extraer un valor de <base>. Necesita un tipo complejo [STRUCT, ARRAY, MAP] pero tiene <other>.
INVALID_EXTRACT_FIELD
No se puede extraer <field> de <expr>.
INVALID_EXTRACT_FIELD_TYPE
El nombre del campo debe ser un literal de cadena no NULL, pero es <extraction>.
INVALID_FIELD_NAME
El nombre del campo <fieldName> no es válido: <path> no es una estructura.
INVALID_FLOW_QUERY_TYPE
Flow <flowIdentifier> devuelve un tipo de relación no válido.
Para obtener más información, consulte INVALID_FLOW_QUERY_TYPE
INVALID_FORMAT
El formato no es válido: <format>.
Para obtener más información, consulte INVALID_FORMAT
INVALID_FRACTION_OF_SECOND
El intervalo válido para segundos es [0, 60] (incluido), pero el valor proporcionado es <secAndMicros>. Para evitar este error, use try_make_timestamp, que devuelve NULL si ocurre un error.
Si no desea usar la versión de marca de tiempo predeterminada de la sesión de esta función, use try_make_timestamp_ntz o try_make_timestamp_ltz.
INVALID_GET_DIAGNOSTICS_USAGE
Uso no válido de la instrucción GETDIAGNOSTICS.
Para más información, consulte INVALID_GET_DIAGNOSTICS_USAGE
INVALID_GET_DIAGNOSTICS_USAGE_CONDITION_NUMBER_MUST_BE_ONE
Uso no válido de la instrucción GETDIAGNOSTICS. El único valor admitido para un número de condición en la GETDIAGNOSTICS instrucción es 1.
INVALID_HANDLE
El identificador <handle> no es válido.
Para obtener más información, consulte INVALID_HANDLE
INVALID_HANDLER_DECLARATION
Declaración de controlador no válida.
Para más información, consulte INVALID_HANDLER_DECLARATION
INVALID_HTTP_REQUEST_METHOD
El parámetro de entrada: método, valor: <paramValue> no es un parámetro válido para http_request porque no es un método HTTP válido.
INVALID_HTTP_REQUEST_PATH
El parámetro de entrada: path, value: <paramValue> no es un parámetro válido para http_request porque no se permite el recorrido de ruta de acceso.
INVALID_IDENTIFIER
El identificador <ident> sin comillas no es válido y debe estar entre comillas como: <ident>.
Los identificadores sin comillas solo pueden contener letras ASCII ("a" - "z", "A" - "Z"), dígitos ("0" - "9") y guion bajo ('_').
Los identificadores sin comillas tampoco deben comenzar con un dígito.
Los distintos orígenes de datos y metastores pueden imponer restricciones adicionales a los identificadores válidos.
INVALID_INDEX_OF_ZERO
El índice 0 no es válido. Un índice será < 0 or > 0 (el primer elemento tiene el índice 1).
INVALID_INLINE_TABLE
Tabla insertada no válida.
Para obtener más información, consulte INVALID_INLINE_TABLE
INVALID_INTERVAL_FORMAT
Error al analizar "<input>" para el intervalo. Asegúrese de que el valor proporcionado está en un formato válido para definir un intervalo. Puede hacer referencia a la documentación del formato correcto.
Para obtener más información, consulte INVALID_INTERVAL_FORMAT
INVALID_INTERVAL_WITH_MICROSECONDS_ADDITION
No se puede agregar un intervalo a una fecha porque su parte de microsegundos no es 0. Para resolverlo, convierta la fecha de entrada en una marca de tiempo, que admite la adición de intervalos con microsegundos distintos de cero.
INVALID_IP_ADDRESS
La función <functionName> recibió una dirección IP no válida: <value>.
INVALID_IP_ADDRESS_OR_CIDR_RANGE
La función <functionName> recibió una dirección IP no válida o un intervalo CIDR: <value>.
INVALID_JAVA_IDENTIFIER_AS_FIELD_NAME
<fieldName> no es un identificador válido de Java y no se puede usar como nombre de campo
<walkedTypePath>.
INVALID_JDBC_CONNECTION_OPTION
La opción <optionKey> no es un parámetro válido para esta conexión jdbc.
INVALID_JDBC_CONNECTION_OPTION_VALUE
La opción <optionKey> con un valor <optionValue> no es una opción válida para esta conexión jdbc.
INVALID_JOIN_TYPE_FOR_JOINWITH
Tipo de combinación no válido en joinWith: <joinType>.
INVALID_JSON_DATA_TYPE
No se pudo convertir la JSON cadena '<invalidType>' en un tipo de datos. Escriba un tipo de datos válido.
INVALID_JSON_DATA_TYPE_FOR_COLLATIONS
Las intercalaciones solo se pueden aplicar a los tipos de cadena, pero el JSON tipo de datos es <jsonType>.
INVALID_JSON_RECORD_TYPE
Se detectó un tipo no válido de un JSON registro al deducir un esquema común en el modo <failFastMode>. Se esperaba un STRUCT tipo, pero se encontró <invalidType>.
INVALID_JSON_ROOT_FIELD
No se puede convertir el JSON campo raíz al tipo de Spark de destino.
INVALID_JSON_SCHEMA_MAP_TYPE
El esquema de entrada <jsonSchema> solo puede contener STRING como un tipo de clave para un MAP.
INVALID_KRYO_SERIALIZER_BUFFER_SIZE
El valor de la configuración "<bufferSizeConfKey>" debe ser inferior a 2048 MiB, pero tiene <bufferSizeConfValue> MiB.
INVALID_KRYO_SERIALIZER_NO_DATA (Serializador Kryo inválido, sin datos)
El objeto '<obj>' no es válido o tiene un formato incorrecto para usar en <serdeOp> con <serdeClass>.
INVALID_LABEL_USAGE
El uso de la etiqueta <labelName> no es válido.
Para obtener más información, consulte INVALID_LABEL_USAGE
INVALID_LAMBDA_FUNCTION_CALL
Llamada de función lambda no válida.
Para más información, consulte INVALID_LAMBDA_FUNCTION_CALL.
INVALID_LATERAL_JOIN_TYPE
No se permite <joinType>JOIN con la correlación LATERAL porque una subconsulta OUTER no se puede correlacionar con su asociado de combinación. Quite la correlación LATERAL o use INNERJOIN o LEFT OUTERJOIN en su lugar.
INVALID_LIMIT_LIKE_EXPRESSION
El límite como la expresión <expr> no es válido.
Para más información, consulte INVALID_LIMIT_LIKE_EXPRESSION.
INVALID_LOG_VERSION
UnsupportedLogVersion.
Para obtener más información, consulte INVALID_LOG_VERSION
INVALID_NAME_IN_USE_COMMAND
Nombre '<name>' no válido en el comando <command>. Motivo: <reason>
INVALID_NON_ABSOLUTE_PATH
No se puede calificar la ruta de acceso no absoluta <path> proporcionada. Actualice la ruta de acceso para que sea una ubicación de montaje de dbfs válida.
INVALID_NON_DETERMINISTIC_EXPRESSIONS
El operador espera una expresión determinista, pero la expresión real es <sqlExprs>.
INVALID_NUMERIC_LITERAL_RANGE
El literal <rawStrippedQualifier> numérico está fuera del intervalo válido para <typeName> con el valor mínimo de <minValue> y el valor máximo de <maxValue>. Ajuste el valor en consecuencia.
INVALID_OBSERVED_METRICS
Métricas observadas no válidas.
Para más información, consulte INVALID_OBSERVED_METRICS
INVALID_OPTIONS
Opciones no válidas:
Para obtener más información, consulte INVALID_OPTIONS
INVALID_PANDAS_UDF_PLACEMENT
La función UDF de agregación de grupo de Pandas <functionList> no se puede invocar junto con otras funciones de agregación que no sean de Pandas.
INVALID_PARAMETER_MARKER_VALUE
Se proporcionó una asignación de parámetros no válida:
Para obtener más información, consulte INVALID_PARAMETER_MARKER_VALUE
INVALID_PARAMETER_VALUE
El valor del parámetro o parámetros <parameter> en<functionName> no es válido:
Para obtener más información, consulte INVALID_PARAMETER_VALUE
INVALID_PARTITION_COLUMN_DATA_TYPE
No se puede usar <type> para la columna de partición.
INVALID_PARTITION_OPERATION
El comando de partición no es válido.
Para obtener más información, consulte INVALID_PARTITION_OPERATION.
INVALID_PARTITION_VALUE
No se pudo convertir el valor <value> al tipo <dataType> de datos para la columna <columnName>de partición . Asegúrese de que el valor coincide con el tipo de datos esperado para esta columna de partición.
INVALID_PIPELINE_ID
El identificador <pipelineId> de canalización no es válido.
Un identificador de canalización debe ser un UUID en el formato "xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx".
INVALID_PRIVILEGE
El privilegio <privilege> no es válido para <securable>.
INVALID_PROPERTY_KEY
<key> es una clave de propiedad no válida, use comillas, por ejemplo, SET <key>=<value>.
INVALID_PROPERTY_VALUE
<value> es un valor de propiedad no válido, use comillas, por ejemplo, SET <key>=<value>
INVALID_QUALIFIED_COLUMN_NAME
El nombre <columnName> de columna no es válido porque no está calificado con un nombre de tabla o consta de más de 4 partes de nombre.
INVALID_QUERY_MIXED_QUERY_PARAMETERS
La consulta con parámetros debe usar parámetros posicionales o con nombre, pero no ambos.
INVALID_RECURSIVE_CTE
Se encontró una definición recursiva no válida. Las consultas recursivas deben contener una instrucción UNION o una instrucción UNION ALL con 2 elementos secundarios. El primer elemento secundario debe ser el término marcador sin referencias recursivas. Cualquier CTE interno de nivel superior no debe contener referencias independientes.
INVALID_RECURSIVE_REFERENCE
Referencia recursiva no válida encontrada dentro WITH RECURSIVE de la cláusula .
Para obtener más información, consulte INVALID_RECURSIVE_REFERENCE
INVALID_REGEXP_REPLACE
No se pudo realizar regexp_replace para source = "<source>", pattern = "<pattern>", replacement = "<replacement>" y position = <position>.
DEPENDENCIA_REINICIABLE_INVÁLIDA
Las tablas <upstreamResettableTables> se pueden restablecer, pero tienen una dependencia descendente que no se puede restablecer "<downstreamTable>".
reset producirá un error, ya que Spark Streaming no admite los datos de origen eliminados. Puede quitar la <resetAllowedKey> propiedad =false de "<downstreamTable>" o agregarla a sus dependencias superiores.
INVALID_RESET_COMMAND_FORMAT
El formato esperado es "RESET" o "clave RESET". Si desea incluir caracteres especiales en la clave, use comillas, por ejemplo, RESET key.
INVALID_RESIGNAL_USAGE
RESIGNAL cuando el controlador no está activo. La instrucción RESIGNAL solo se puede usar dentro del cuerpo del controlador de excepciones.
INVALID_S3_COPY_CREDENTIALS
COPY INTO Las credenciales deben incluir AWS_ACCESS_KEY, AWS_SECRET_KEY, y AWS_SESSION_TOKEN.
INVALID_SAVE_MODE
El modo <mode> de guardado especificado no es válido. Los modos de guardado válidos incluyen "append" (añadir), "overwrite" (sobrescribir), "ignore" (ignorar), "error", "errorifexists" y "default".
INVALID_SCHEMA
El esquema <inputSchema> de entrada no es una cadena de esquema válida.
Para obtener más información, consulte INVALID_SCHEMA
INVALID_SCHEMA_OR_RELATION_NAME
<name> no es un nombre válido para tablas o esquemas. Solo se admiten nombres con caracteres alfabéticos, números y _.
INVALID_SCHEMA_TYPE_NON_STRUCT
Tipo de esquema no válido. Espere un tipo de estructura, pero tenga <dataType>.
INVALID_SCHEME
El catálogo de Unity no admite <name> como esquema de archivo predeterminado.
INVALID_SECRET_LOOKUP
Búsqueda de secretos no válida:
Para obtener más información, consulte INVALID_SECRET_LOOKUP
INVALID_SET_SYNTAX
El formato esperado es "SET", "SET key" o "SET key=value". Si desea incluir caracteres especiales en la clave o incluir punto y coma en el valor, use comillas inversas, por ejemplo, SET key=value.
INVALID_SHARED_ALIAS_NAME
El <sharedObjectType> nombre del alias debe tener el formato "schema.name".
INVALID_SINGLE_VARIANT_COLUMN
El esquema <schema> especificado por el usuario no es válido cuando la singleVariantColumn opción está habilitada. El esquema debe ser un campo variable o un campo variable más un campo de columna corrupto.
INVALID_SOURCE_CATALOG
El catálogo de origen no debe estar dentro del catálogo de Unity para el SYNC comando. Se encontró <catalog>.
INVALID_SOURCE_FOR_FILTERING_SERVICE_MERGE_COMMAND
El origen de la operación del servicio MERGE de filtrado solo puede contener proyecciones y filtros.
Ajuste el comando MERGE o utilice una tabla de almacenamiento provisional como fuente.
<stmt>
INVALID_SPARK_CONFIG
Configuración de Spark no válida:
Para obtener más información, consulte INVALID_SPARK_CONFIG
INVALID_SQLSTATE
Valor no válido SQLSTATE : '<sqlState>'.
SQLSTATE debe tener exactamente 5 caracteres y contener solo A-Z y 0-9.
SQLSTATE no debe empezar por '00', '01' ni 'XX'.
INVALID_SQL_ARG
El argumento <name> de sql() no es válido. Considere la posibilidad de reemplazarlo por un literal de SQL o por funciones de constructor de colección como map(), array(), struct().
INVALID_SQL_FUNCTION_DATA_ACCESS
No se puede crear una función SQL con CONTAINS SQL que tenga acceso a una tabla o vista o una función SQL que lea datos SQL.
READS Use SQL DATA en su lugar.
INVALID_SQL_SYNTAX
Sintaxis SQL no válida:
Para obtener más información, consulte INVALID_SQL_SYNTAX
INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY
Ruta de acceso de almacenamiento provisional no válida en la consulta <operation> de almacenamiento provisional: <path>
INVALID_STATEMENT_FOR_EXECUTE_INTO
La INTO cláusula de EXECUTE IMMEDIATE solo es válida para las consultas, pero la declaración dada no es una consulta: <sqlString>.
INVALID_STATEMENT_OR_CLAUSE
La instrucción o cláusula : <operation> no es válida.
INVALID_STREAMING_RATE_SOURCE_VERSION
Versión no válida para la fuente de tarifa: <version>. La versión debe ser 1 o 2.
INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_INTERVAL
El intervalo de desencadenador en tiempo real se ha establecido en <interval> ms. Esto es menor que el <minBatchDuration> mínimo de ms especificado por spark.databricks.streaming.realTimeMode.minBatchDuration.
INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_OVERRIDE_INTERVAL
No se ha podido analizar el intervalo de puntos de control del desencadenador en tiempo real de <interval>. Compruebe que ha pasado un entero positivo.
INVALID_SUBQUERY_EXPRESSION
Subconsulta no válida:
Para obtener más información, consulte INVALID_SUBQUERY_EXPRESSION
INVALID_TARGET_FOR_ALTER_COMMAND
ALTER <commandTableType>
...
<command> no admite <tableName>.
ALTER <targetTableType>
...
<command> Use en su lugar.
INVALID_TARGET_FOR_SET_TBLPROPERTIES_COMMAND
ALTER <commandTableType>
...
SET TBLPROPERTIES no admite <tableName>.
ALTER <targetTableType>
...
SET TBLPROPERTIES Use en su lugar.
INVALID_TEMP_OBJ_REFERENCE
No se puede crear el objeto <objName> persistente del tipo <obj> porque hace referencia al objeto <tempObjName> temporal del tipo <tempObj>. Haga que el objeto <tempObjName> temporal sea persistente o que el objeto <objName> persistente sea temporal.
INVALID_TIMESTAMP_FORMAT
La marca <timestamp> de tiempo proporcionada no coincide con la sintaxis <format>esperada.
INVALID_TIMEZONE
La zona horaria: <timeZone> no es válida. La zona horaria debe ser un identificador de zona basado en una región o un desplazamiento de zona. Los identificadores de región deben tener el formato "área/ciudad", como "América/Los_Angeles". Los desplazamientos de zona deben estar en el formato '(+|-)HH', '(+|-)HH:mm' o '(+|-)HH:mm:ss', por ejemplo '-08', '+01:00' o '-13:33:33', y deben estar en el intervalo de -18:00 a +18:00. 'Z' y 'UTC' se aceptan como sinónimos de '+00:00'.
INVALID_TIME_TRAVEL_SPEC
No se puede especificar ni la versión ni la marca de tiempo al hacer viajes en el tiempo con la tabla.
INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
La expresión <expr> de marca de tiempo de viaje en el tiempo no es válida.
Para más información, consulte INVALID_TIME_TRAVEL_TIMESTAMP_EXPR.
INVALID_TYPED_LITERAL
El valor del literal con tipo <valueType> no es válido: <value>.
INVALID_UDF_IMPLEMENTATION
La función <funcName> no implementa scalarFunction ni AggregateFunction.
INVALID_UPGRADE_SYNTAX
<command> <supportedOrNot> la tabla de origen está en Metastore de Hive y la tabla de destino está en el catálogo de Unity.
INVALID_URL
La dirección URL no es válida: <url>. Use try_parse_url para tolerar direcciones URL no válidas y devolver NULL en su lugar.
INVALID_USAGE_OF_STAR_OR_REGEX
Uso no válido de <elem> en <prettyName>.
INVALID_UTF8_STRING
Secuencia de bytes UTF-8 no válida encontrada en la cadena: <str>.
INVALID_UUID
La entrada <uuidInput> no es un UUID válido.
El UUID debe tener el formato "xxxxxxxx-xxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx".
Compruebe el formato del UUID.
INVALID_VARIABLE_DECLARATION
Declaración de variable no válida.
Para obtener más información, consulte INVALID_VARIABLE_DECLARATION.
INVALID_VARIANT_CAST
El valor variante <value> no se puede convertir en <dataType>. Utilice try_variant_get en su lugar.
INVALID_VARIANT_FROM_PARQUET
Variante no válida.
Para obtener más información, consulte INVALID_VARIANT_FROM_PARQUET.
INVALID_VARIANT_GET_PATH
La ruta de acceso <path> no es una ruta de extracción de variantes válida en <functionName>.
Una ruta de acceso válida debe comenzar con $ y va seguida de cero o más segmentos como [123], .name, ['name'], o ["name"].
INVALID_VARIANT_SHREDDING_SCHEMA
El esquema no es un esquema <schema> de fragmentación de variantes válido.
INVALID_WHERE_CONDITION
La WHERE condición <condition> contiene expresiones no válidas: <expressionList>.
Reescriba la consulta para evitar funciones de ventana, funciones de agregado y funciones de generador en la cláusula WHERE.
INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC
No se puede especificar ORDER BY ni un marco de ventana para <aggFunc>.
INVALID_WITHIN_GROUP_EXPRESSION
Función <funcName> no válida con WITHIN GROUP.
Para más información, consulte INVALID_WITHIN_GROUP_EXPRESSION
INVALID_WRITER_COMMIT_MESSAGE
El escritor del origen de datos ha generado un número no válido de mensajes de confirmación. Se esperaba exactamente un mensaje de confirmación de escritor de cada tarea, pero se recibió <detail>.
INVALID_WRITE_DISTRIBUTION
La distribución de escritura solicitada no es válida.
Para más información, consulte INVALID_WRITE_DISTRIBUTION.
IRC_CREDENTIAL_VENDING_ERROR
Error al conectarse al host IRC, no se pueden vender las credenciales de la tabla <tableIdentifier>.
Para obtener más información, consulte IRC_CREDENTIAL_VENDING_ERROR
ISOLATED_COMMAND_FAILURE
No se pudo ejecutar <command>. Salida del comando:
<output>
ISOLATED_COMMAND_UNKNOWN_FAILURE
No se pudo ejecutar <command>.
ISOLATION_ENVIRONMENT_ERROR
No se pudieron instalar las dependencias del entorno para <name> debido a un error del sistema.
Para obtener más información, consulte ISOLATION_ENVIRONMENT_ERROR
ISOLATION_ENVIRONMENT_USER_ERROR
No se pudieron instalar las dependencias del entorno para <name>.
Para obtener más información, consulte ISOLATION_ENVIRONMENT_USER_ERROR
JDBC_EXTERNAL_ENGINE_SYNTAX_ERROR
Error de sintaxis del motor externo JDBC. El error se debió a la consulta <jdbcQuery>.
<externalEngineError>.
Para obtener más información, consulte JDBC_EXTERNAL_ENGINE_SYNTAX_ERROR
JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE
La condición de combinación <joinCondition> tiene el tipo <conditionType> no válido, se esperaba "BOOLEAN".
KAFKA_DATA_LOSS
Es posible que algunos datos se hayan perdido porque ya no están disponibles en Kafka;
o Kafka ha eliminado los datos o el tema puede haberse eliminado antes de que se
procesaran todos sus datos.
Si no desea que se produzca un error en la consulta de streaming en estos casos, establezca la opción de origen failOnDataLoss en false.
Reason:
Para obtener más información, consulte KAFKA_DATA_LOSS
KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET
No se pudo leer hasta el número de secuencia deseado <endSeqNum> para la partición <shardId> en
la secuencia de Kinesis <stream> con el modo de consumidor <consumerMode>. Se producirá un error en la consulta debido a
posible pérdida de datos. El último registro leído estaba en el número de secuencia <lastSeqNum>.
Esto puede ocurrir si los datos con endSeqNum ya se han eliminado, o si la secuencia de Kinesis se había
eliminado y reconstruido con el mismo nombre. El comportamiento del error se puede invalidar
estableciendo spark.databricks.kinesis.failOnDataLoss en false en la configuración de Spark.
KINESIS_EFO_CONSUMER_NOT_FOUND
En el caso de la secuencia de Kinesis <streamId>, se ha eliminado de la secuencia el consumidor EFO <consumerId> registrado anteriormente.
Reinicie la consulta para que se registre un nuevo consumidor.
KINESIS_EFO_SUBSCRIBE_LIMIT_EXCEEDED
En el caso de la partición <shard>, la llamada anterior de subscribeToShard API estaba dentro de los 5 segundos de la siguiente llamada.
Reinicie la consulta después de 5 segundos o más.
KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD
El shardId mínimo capturado de Kinesis (<fetchedShardId>)
es menor que el shardId mínimo de seguimiento (<trackedShardId>).
Esto es inesperado y se produce cuando se elimina una secuencia de Kinesis y se vuelve a crear con el mismo nombre,
y una consulta de streaming mediante esta secuencia de Kinesis se reinicia usando una ubicación de punto de control existente.
Reinicie la consulta de streaming con una nueva ubicación de punto de control o cree una secuencia con un nuevo nombre.
KINESIS_POLLING_MODE_UNSUPPORTED
No se admite el modo de sondeo de Kinesis.
KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION
Para la partición <shard>, el último registro leído de Kinesis en las capturas anteriores tiene el número de secuencia <lastSeqNum>,
que es mayor que el registro leído en la captura actual con el número de secuencia <recordSeqNum>.
Esto es inesperado y puede ocurrir cuando la posición inicial del reintento o la siguiente captura se inicializa incorrectamente y puede dar lugar a registros duplicados de bajada.
KINESIS_SOURCE_MUST_BE_IN_EFO_MODE_TO_CONFIGURE_CONSUMERS
Para leer de Kinesis Streams con configuraciones de consumidor (consumerName, consumerNamePrefix, o registeredConsumerId), consumerMode debe ser efo.
KINESIS_SOURCE_MUST_SPECIFY_REGISTERED_CONSUMER_ID_AND_TYPE
Para leer de Kinesis Streams con consumidores registrados, debe especificar las opciones registeredConsumerId y registeredConsumerIdType.
KINESIS_SOURCE_MUST_SPECIFY_STREAM_NAMES_OR_ARNS
Para leer desde Kinesis Streams, debe configurar una de las opciones streamName o streamARN, pero no ambas, como una lista separada por comas de nombres de secuencias o ARN.
KINESIS_SOURCE_NO_CONSUMER_OPTIONS_WITH_REGISTERED_CONSUMERS
Para leer de Kinesis Streams con consumidores registrados, no configure las opciones consumerName y consumerNamePrefix, ya que no surtirán efecto.
KINESIS_SOURCE_REGISTERED_CONSUMER_ID_COUNT_MISMATCH
El número de identificadores de consumidor registrados debe ser igual al número de secuencias de Kinesis, pero tiene <numConsumerIds> identificadores de consumidor y <numStreams> secuencias.
KINESIS_SOURCE_REGISTERED_CONSUMER_NOT_FOUND
No se puede encontrar el consumidor registrado <consumerId> proporcionado para streamARN <streamARN>. Compruebe que ha registrado al consumidor o que no se proporciona la opción registeredConsumerId.
KINESIS_SOURCE_REGISTERED_CONSUMER_TYPE_INVALID
El tipo <consumerType> de consumidor registrado no es válido. Debe ser o nameARN.
KLL_SKETCH_INCOMPATIBLE_MERGE
Para la función <functionName>, no se pueden combinar bocetos KLL: <reason>
KLL_SKETCH_INVALID_INPUT
Para la función <functionName>, datos binarios de croquis KLL no válidos: <reason>
KLL_SKETCH_INVALID_QUANTILE_RANGE
Para la función <functionName>, el valor cuantil debe estar comprendido entre 0,0 y 1,0 (ambos incluidos), pero tiene <quantile>.
KLL_SKETCH_K_MUST_BE_CONSTANT
Para la función <functionName>, el parámetro k debe ser un valor constante, pero tiene una expresión no constante.
KLL_SKETCH_K_OUT_OF_RANGE
Para la función <functionName>, el parámetro k debe estar comprendido entre 8 y 65535 (ambos incluidos), pero tiene <k>.
KRYO_BUFFER_OVERFLOW
Error de serialización de Kryo: <exceptionMsg>. Para evitar esto, aumente el valor "<bufferSizeConfKey>".
LABELS_MISMATCH
Etiqueta de inicio <beginLabel> no coincide con la etiqueta final <endLabel>.
ETIQUETA_O_PARA_VARIABLE_YA_EXISTE
La etiqueta o FOR variable <label> ya existe. Elija otro nombre o cambie el nombre del existente.
LABEL_OR_FOR_VARIABLE_NAME_FORBIDDEN
Se prohíbe el nombre de la etiqueta o de la variable FOR<label>.
LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION
El origen de datos de federación de Lakehouse '<provider>' requiere una versión más reciente de Databricks Runtime.
Para más información, consulte LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION
LATERAL_JOIN_WITH_ARROW_UDTF_UNSUPPORTED
LATERAL
JOIN No se admiten las funciones de tabla definidas por el usuario (UDTF) optimizadas para Arrow. Las UDTF de Arrow no se pueden usar en el lado derecho de una combinación lateral.
Utilice un UDTF normal en su lugar o reestructure la consulta para evitar la unión lateral.
LEGACY_CREATE_TEMP_TABLE_WITHOUT_PROVIDER_NOT_SUPPORTED
CREATE TEMPORARY TABLE sin un proveedor no está permitido.
LOAD_DATA_PATH_NOT_EXISTS
La ruta de acceso de entrada de LOAD DATA no existe: <path>.
LOCAL_MUST_WITH_SCHEMA_FILE
LOCAL debe usarse junto con el esquema de file, pero obtuvo: <actualSchema>.
LOCATION_ALREADY_EXISTS
No se puede asignar un nombre a la tabla administrada como <identifier>, ya que su ubicación <location> asociada ya existe. Elija un nombre de tabla diferente o quite primero la ubicación existente.
LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW
Algunas de las particiones de los temas de Kafka se han perdido durante la ejecución de la consulta con Trigger.AvailableNow. El error podría ser transitorio: reinicie la consulta e informe si sigue viendo el mismo problema.
particiones de temas para el desplazamiento más reciente: <tpsForLatestOffset>, particiones de temas para el desplazamiento final: <tpsForEndOffset>
MALFORMED_AVRO_MESSAGE
Se detectan mensajes Avro con formato incorrecto durante la deserialización. Modo de análisis: <mode>. Para procesar el mensaje Avro con formato incorrecto como un resultado null, intente establecer la opción "mode" como "PERMISSIVE".
MALFORMED_CHARACTER_CODING
Se encontró un valor no válido al realizar <function> con <charset>
MALFORMED_CSV_RECORD
Registro CSV con formato incorrecto: <badRecord>
MALFORMED_LOG_FILE
Archivo de registro con formato incorrecto: no se pudo leer la versión de registro correcta de <text>.
MALFORMED_PROTOBUF_MESSAGE
Los mensajes de Protobuf con formato incorrecto se detectan durante la deserialización de mensajes. Modo de análisis: <failFastMode>. Para procesar el mensaje de Protobuf con formato incorrecto con un resultado null, intente establecer la opción "mode" en "PERMISSIVE".
MALFORMED_RECORD_IN_PARSING
Se detectan registros con formato incorrecto en el análisis de registros: <badRecord>.
Modo de análisis: <failFastMode>. Para procesar registros con un formato incorrecto como un resultado null, pruebe a establecer la opción "mode" como "PERMISSIVE".
Para más información, consulte MALFORMED_RECORD_IN_PARSING.
MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE
Estado con formato incorrecto en el origen RatePerMicroBatch.
Para más información, consulte MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE
MALFORMED_VARIANT
El binario variante tiene un formato incorrecto. Compruebe que el origen de datos es válido.
MANAGED_ICEBERG_ATTEMPTED_TO_ENABLE_CLUSTERING_WITHOUT_DISABLING_DVS_OR_ROW_TRACKING
Se intentó habilitar los clústeres de Liquid en una tabla administrada de Apache Iceberg sin desactivar los vectores de eliminación ni el seguimiento de filas. Los vectores de eliminación y el seguimiento de filas no son compatibles con las tablas administradas de Apache Iceberg, pero son necesarios para la simultaneidad a nivel de fila con las tablas Liquid. Para habilitar el clustering líquido en una tabla de Apache Iceberg gestionado con un control de concurrencia reducido, los vectores de eliminación y el seguimiento de filas deben deshabilitarse para esta tabla.
MANAGED_ICEBERG_OPERATION_NOT_SUPPORTED
Las tablas de Apache Iceberg administradas no admiten <operation>.
MANAGED_TABLE_WITH_CRED
No se admite la creación de una tabla administrada con credenciales de almacenamiento.
MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID
No se puede <refreshType> la vista materializada porque es anterior a la existencia de una propiedad pipelineId. Para habilitar <refreshType>, quite y vuelva a crear la vista materializada.
MATERIALIZED_VIEW_NOT_INCREMENTALIZABLE
No se puede crear la vista materializada con <refreshPolicy> la directiva de actualización porque no se admite para la actualización incremental. Reason:
Para obtener más información, consulte MATERIALIZED_VIEW_NOT_INCREMENTALIZABLE
MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
No se permite la operación <operation> de vista materializada:
Para más información, consulte MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS
La expresión <expression> de salida de una vista materializada debe tener un alias explícito.
MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID
No se pudo crear la vista materializada <name> con la consulta de streaming.
CREATE Use [OR REFRESH] STREAMING TABLE o quite la palabra clave de FROM la STREAM cláusula para convertir esta relación en una consulta por lotes en su lugar.
MATERIALIZED_VIEW_UNSUPPORTED_OPERATION
La operación <operation> no se admite actualmente en vistas materializadas.
MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED
No se puede crear la nueva variable <variableName> porque el número de variables de la sesión supera el número máximo permitido (<maxNumVariables>).
MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE
maxRecordsPerFetch debe ser un entero positivo menor o igual que <kinesisRecordLimit>
MCV_INVALID_INPUT_SKETCH_BUFFER
Llamada no válida a <function>; solo se admiten búferes de boceto de MCV válidos como entradas (como las producidas por la mcv_collect_internal función).
MERGE_CARDINALITY_VIOLATION
La condición de búsqueda ON de la instrucción MERGE asoció una sola fila de la tabla de destino con varias filas de la tabla de origen.
Esto podría dar lugar a que la fila de destino se procese más de una vez durante una operación de actualización o eliminación, lo cual no está permitido.
MERGE_WITHOUT_WHEN
Debe haber al menos una cláusula WHEN en una instrucción MERGE.
METRIC_CONSTRAINT_NOT_SUPPORTED
METRIC CONSTRAINT no está habilitado.
METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
El valor proporcionado "<argValue>" no es compatible con el argumento "<argName>" para la METRIC_STORE función de tabla.
Para obtener más información, consulte METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
METRIC_STORE_UNSUPPORTED_ERROR
La rutina <routineName> del almacén de métricas está deshabilitada actualmente en este entorno.
METRIC_VIEW_AMBIGUOUS_JOIN_CRITERIA
La definición de la vista de métrica contiene una combinación con criterios ambiguos: <expr>. [Use los using criterios de combinación o califique explícitamente las columnas con el <sourceAlias> alias.]
METRIC_VIEW_CACHE_TABLE_NOT_SUPPORTED
No se permite que la vista de métrica use tablas de caché.
METRIC_VIEW_FEATURE_DISABLED
La característica de vista de métricas está deshabilitada. Asegúrese de que "spark.databricks.sql.metricView.enabled" está establecido en true.
METRIC_VIEW_INVALID_MEASURE_FUNCTION_INPUT
La MEASUREfunción () solo toma un atributo como entrada, pero tiene <expr>
METRIC_VIEW_INVALID_VIEW_DEFINITION
La definición de la vista de métrica no es válida. Motivo: <reason>.
METRIC_VIEW_IN_CTE_NOT_SUPPORTED
No se permite la vista de métricas en las definiciones de CTE. plan: <plan>
METRIC_VIEW_JOIN_NOT_SUPPORTED
No se permite que la vista de métrica use combinaciones. plan: <plan>
METRIC_VIEW_MATERIALIZATIONS_DISABLED
Las materializaciones de la vista de métricas están deshabilitadas. Asegúrese de que "spark.databricks.sql.metricView.materializations.enabled" está establecido en true.
VISTA_DE_MÉTRICA_MATERIALIZACIONES_NO_AGREGADAS_CON_VISTA_DE_MÉTRICA
No se admite la materialización no agregada cuando la vista de métricas hace referencia a otras vistas de métricas.
MATERIALIZACIÓN_DE_VISTA_MÉTRICA_EN_VISTA_TEMPORAL_NO_SOPORTADA
La materialización no se admite en vistas de métricas temporales.
METRIC_VIEW_MATERIALIZATION_WITH_INVOKER_DEPENDENT_EXPRESSIONS_NOT_SUPPORTED
No se admite la materialización para las vistas de métricas que contienen expresiones dependientes del invocador. Estas expresiones impiden la reutilización de la materialización.
METRIC_VIEW_MEASURE_IN_GROUP_BY
<measureColumns> las columnas de medida no se pueden usar en GROUP BY la cláusula ni como valores de categorías. Se recomienda encapsularlos con una función de agregado como SUM() para el comportamiento esperado.
METRIC_VIEW_MISSING_MEASURE_FUNCTION
El uso de la columna <column> de medida de una vista de métrica requiere la función MEASURE() para generar resultados.
METRIC_VIEW_NOT_MATERIALIZED
Comando materialized view en la vista de métricas sin materializaciones definidas
Para obtener más información, consulte METRIC_VIEW_NOT_MATERIALIZED
VISTA_METRICA_NO_ES_COMPATIBLE_CON_HMS
Las vistas de métricas no se admiten en HMS.
METRIC_VIEW_RENAME_DIFFERENT_CATALOG_AND_SCHEMA
No se permite cambiar el nombre de la vista <oldName> de métrica a otro catálogo o esquema: <newName>.
METRIC_VIEW_SNOWFLAKE_JOIN_FEATURE_DISABLED
La característica de combinación de copos de nieve de la vista métrica está deshabilitada. Asegúrese de que "spark.databricks.sql.metricView.snowflake.join.enable" está establecido en true.
METRIC_VIEW_UNSUPPORTED_USAGE
No se admite el uso de la vista de métricas. plan: <plan>
METRIC_VIEW_WINDOW_FUNCTION_NOT_SUPPORTED
No se permite que la vista de métricas use la función <expr>.
METRIC_VIEW_YAML_V11_DISABLED
La vista de métricas YAML v1.1 está deshabilitada. Asegúrese de que "spark.databricks.sql.metricView.yaml.v11.enabled" está establecido en true.
MIGRATION_NOT_SUPPORTED
<table> no es compatible con la migración a la tabla administrada de UC porque no es una tabla <tableKind>.
Asegúrese de que la tabla que se va a migrar es una tabla delta externa de UC y
se hace referencia a él por su nombre en lugar de por la ruta.
MIGRATION_ROLLBACK_NOT_SUPPORTED
<table> no se admite para la reversión de una tabla administrada a una tabla externa porque no es una tabla <tableKind>.
MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED
El origen de datos de Kafka en Trigger.AvailableNow debe proporcionar las mismas particiones de tema en el desplazamiento capturado previamente que en el desplazamiento final para cada microlote. El error podría ser transitorio: reinicie la consulta e informe si sigue viendo el mismo problema.
particiones de tema para el desplazamiento capturado previamente: <tpsForPrefetched>, particiones de tema para el desplazamiento final: <tpsForEndOffset>.
MISSING_AGGREGATION
La expresión no agregada <expression> se basa en columnas que no participan en la cláusula GROUP BY.
Agregue las columnas o la expresión a GROUP BY, agregue la expresión, o use <expressionAnyValue> si no importa cuál de los valores de un grupo se devuelve.
Para obtener más información, consulte MISSING_AGGREGATION
MISSING_CATALOG_ABILITY
El catálogo <plugin> no admite
Para obtener más información, consulte MISSING_CATALOG_ABILITY
MISSING_CLAUSES_FOR_OPERATION
Falta la cláusula <clauses> para la operación <operation>. Agregue las cláusulas necesarias.
MISSING_CONNECTION_OPTION
Las conexiones de tipo '<connectionType>' deben incluir las siguientes opciones: <requiredOptions>.
MISSING_DATABASE_FOR_V1_SESSION_CATALOG
El nombre de la base de datos no se especifica en el catálogo de sesiones v1. Asegúrese de proporcionar un nombre de base de datos válido al interactuar con el catálogo v1.
MISSING_GROUP_BY
La consulta no incluye una GROUP BY cláusula . Agregue GROUP BY o conviértalo en funciones de ventana mediante cláusulas OVER.
MISSING_NAME_FOR_CHECK_CONSTRAINT
CHECK la restricción debe tener un nombre.
MISSING_PARAMETER_FOR_KAFKA
El parámetro <parameterName> es necesario para Kafka, pero no se especifica en <functionName>.
MISSING_PARAMETER_FOR_ROUTINE
El parámetro <parameterName> es obligatorio, pero no se especifica en <functionName>.
MISSING_SCHEDULE_DEFINITION
Se debe proporcionar una definición de programación después de SCHEDULE.
MISSING_TIMEOUT_CONFIGURATION
La operación ha agotado el tiempo de espera, pero no se ha configurado ninguna duración de tiempo de espera. Para establecer un tiempo de espera basado en el tiempo de procesamiento, use "GroupState.setTimeoutDuration()" en la operación "mapGroupsWithState" o "flatMapGroupsWithState". Para el tiempo de espera basado en eventos, use "GroupState.setTimeoutTimestamp()" y defina una marca de agua mediante "Dataset.withWatermark()".
MISSING_WINDOW_SPECIFICATION
La especificación de ventana no se define en la WINDOW cláusula para <windowName>. Para obtener más información sobre WINDOW cláusulas, consulte "<docroot>/sql-ref-syntax-qry-select-window.html".
MODIFY_BUILTIN_CATALOG
No se admite la modificación del catálogo <catalogName> integrado.
NOMBRE_DE_FLUJO_MULTIPARTE_NO_SOPORTADO
No se admite el flujo con el nombre de varias partes '<flowName>'.
MULTIPLE_EXCEL_DATA_SOURCE
Se detectaron varios orígenes de datos de Excel con el nombre <provider> (<sourceNames>). Especifique el nombre de clase completo o quite <externalSource> de la ruta de clase.
MULTIPLE_LOAD_PATH
Databricks Delta no admite varias rutas de acceso de entrada en la API load().
rutas de acceso: <pathList>. Para compilar un único DataFrame cargando
varias rutas de acceso de la misma tabla Delta, cargue la ruta de acceso raíz de
la tabla Delta con los filtros de partición correspondientes. Si las múltiples rutas de acceso
son de tablas Delta diferentes, utilice las API union()/unionByName() de Dataset.
para combinar los objetos DataFrame generados por llamadas API de carga() independientes.
MULTIPLE_MATCHING_CONSTRAINTS
Se encontraron al menos dos restricciones coincidentes con la condición especificada.
MULTIPLE_QUERY_RESULT_CLAUSES_WITH_PIPE_OPERATORS
<clause1> y <clause2> no pueden coexistir en el mismo operador de canalización de SQL con '|'>. Separe las cláusulas de varios resultados en operadores de canalización independientes y vuelva a intentar la consulta.
MULTIPLE_TIME_TRAVEL_SPEC
No se puede especificar el viaje de tiempo tanto en la cláusula de viaje en el tiempo como en las opciones.
MULTIPLE_XML_DATA_SOURCE
Se detectaron varios orígenes de datos con el nombre <provider> (<sourceNames>). Especifique el nombre de clase completo o quite <externalSource> de la ruta de clase.
MULTI_ALIAS_WITHOUT_GENERATOR
El alias de varias partes (<names>) no es compatible con <expr> porque no es una función generadora.
MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION
La expresión <expr> no admite más de un origen.
MULTI_SOURCE_METRIC_VIEW_MEASURE_REFERENCING_DIMENSION
La columna <measureColumn> de medida en la vista de métricas no puede hacer referencia a columnas de dimensión (<dimensionColumn>).
MULTI_SOURCE_METRIC_VIEW_UNQUALIFIED_MEASURE_REF
No se permite la referencia <measureColumn> de columna de medida no calificada en la vista de métricas de varios orígenes. Califica la columna de medida con el alias de origen.
MULTI_SOURCE_METRIC_VIEW_UNSUPPORTED_EXPRESSION
No se admite la expresión de agregación sobre varios orígenes en la vista de métricas: <expr>.
MULTI_UDF_INTERFACE_ERROR
No se permite implementar varias interfaces UDF en la clase <className>.
MUTUALLY_EXCLUSIVE_CLAUSES
Cláusulas o opciones <clauses>mutuamente excluyentes. Quite una de estas cláusulas.
MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE
La consulta de entrada espera un <expectedType>, pero la tabla subyacente es .<givenType>
NAMED_PARAMETERS_NOT_SUPPORTED
No se admiten parámetros con nombre para la función <functionName>; vuelva a intentar la consulta con argumentos posicionales en la llamada de función en su lugar.
NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS
No se puede llamar a la función <functionName> porque no se admiten referencias a argumentos con nombre. En este caso, la referencia de argumento con nombre era <argument>.
NAMED_PARAMETER_SUPPORT_DISABLED
No se puede llamar a la función <functionName> porque las referencias de argumento con nombre no están habilitadas aquí.
En este caso, la referencia de argumento con nombre era <argument>.
Establezca "spark.sql.allowNamedFunctionArguments" en "true" para activar la característica.
NAMESPACE_ALREADY_EXISTS
No se puede crear el espacio de nombres <nameSpaceName> porque ya existe.
Elija otro nombre, quite el espacio de nombres existente o agregue la cláusula para tolerar el IF NOT EXISTS espacio de nombres preexistente.
NAMESPACE_NOT_EMPTY
No se puede eliminar un espacio de nombres <nameSpaceNameName> porque contiene objetos.
Use DROP NAMESPACE...CASCADE para quitar el espacio de nombres y todos sus objetos.
NAMESPACE_NOT_FOUND
No se encuentra el espacio de nombres <nameSpaceName> . Compruebe la ortografía y que el espacio de nombres es correcto.
Si no ha calificado el nombre, compruebe la salida de current_schema() o califique el nombre correctamente.
Para tolerar el error en la operación de eliminación, use DROP NAMESPACE IF EXISTS.
NATIVE_IO_ERROR
Error en la solicitud nativa. idSolicitud: <requestId>, nube: <cloud>, operación: <operation>
request: [https: <https>, method = <method>, path = <path>, params = <params>, host = <host>, headers = <headers>, bodyLen = <bodyLen>]
error: <error>
NATIVE_XML_DATA_SOURCE_NOT_ENABLED
El origen de datos XML nativo no está habilitado en este clúster.
NEGATIVE_SCALE_DISALLOWED
No se permite la escala negativa: '<scale>'. Establezca la configuración <sqlConf> en "true" para permitirla.
NEGATIVE_VALUES_IN_FREQUENCY_EXPRESSION
Se encontró el valor negativo en <frequencyExpression>: <negativeValue>, pero se esperaba un valor entero positivo.
NESTED_AGGREGATE_FUNCTION
No se permite usar una función de agregado en el argumento de otra función de agregado. Use la función de agregado interno en una subconsulta.
NESTED_EXECUTE_IMMEDIATE
No se permiten los comandos anidados EXECUTE IMMEDIATE. Asegúrese de que la consulta SQL proporcionada (<sqlString>) no contiene otro EXECUTE IMMEDIATE comando.
NESTED_REFERENCES_IN_LATERAL_SUBQUERY_NOT_SUPPORTED
Se detectaron referencias <expression> de ámbito externo en la subconsulta lateral que no se admite. Asegúrese de que la subconsulta lateral no contiene subconsultas que hacen referencia a atributos de ámbitos externos anidados.
NESTED_REFERENCES_IN_SUBQUERY_NOT_SUPPORTED
Se detectaron referencias <expression> de ámbito externo en la subconsulta que no se admiten.
VIOLACIÓN_DE_RESTRICCIÓN_DE_COMPROBACIÓN_NUEVA
No se puede agregar la nueva restricción de chequeo (<expression>) porque los datos existentes en la tabla <tableName> la infringirían. Asegúrese de que todas las filas existentes cumplen la restricción antes de agregarla.
NONEXISTENT_FIELD_NAME_IN_LIST
Campo(s) <nonExistFields> no existe(n). Campos disponibles: <fieldNames>
RESTRICCIÓN_DE_VERIFICACIÓN_NO_DETERMINISTA
La restricción de verificación <checkCondition> no es determinista. Las restricciones Check solo deben contener expresiones deterministas.
NON_FOLDABLE_ARGUMENT
La función <funcName> requiere que el parámetro <paramName> sea una expresión plegable del tipo <paramType>, pero el argumento real es un no plegable.
NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Cuando hay más de una cláusula MATCHED en una instrucción MERGE, solo la última cláusula MATCHED puede omitir la condición.
NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Cuando hay más de una cláusula NOT MATCHED BY SOURCE en una instrucción MERGE, solo la última cláusula NOT MATCHED BY SOURCE puede omitir la condición.
NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION
Cuando hay más de una cláusula NOT MATCHED [BY TARGET] en una instrucción MERGE, solo la última cláusula NOT MATCHED [BY TARGET] puede omitir la condición.
NON_LITERAL_PIVOT_VALUES
Se requieren expresiones literales para los valores dinámicos; se encontró <expression>.
NON_PARTITION_COLUMN
La cláusula PARTITION no puede contener la columna que no es de partición: <columnName>.
NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING
La función Window no se admite en <windowFunc> (como columna <columnName>) en dataframes o conjuntos de datos de streaming.
Structured Streaming solo admite la agregación de período de tiempo mediante la WINDOW función . (especificación de ventana: <windowSpec>)
NOT_ALLOWED_IN_FROM
No se permite en la cláusula FROM:
Para más información, consulte NOT_ALLOWED_IN_FROM
NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE
No se permite en la cláusula WHERE de la canalización:
Para obtener más información, consulte NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE.
NOT_A_CONSTANT_STRING
La expresión <expr> usada para la rutina o cláusula <name> debe ser una constante STRING que es NOT NULL.
Para obtener más información, consulte NOT_A_CONSTANT_STRING.
NOT_A_PARTITIONED_TABLE
No se permite la operación <operation> porque <tableIdentWithDB> no es una tabla con particiones.
NOT_A_SCALAR_FUNCTION
<functionName> aparece como una expresión escalar aquí, pero la función se definió como una función de tabla. Actualice la consulta para mover la llamada de función a la FROM cláusula o volver a definirla <functionName> como una función escalar en su lugar.
NOT_A_TABLE_FUNCTION
<functionName> aparece como una función de tabla aquí, pero la función se definió como una función escalar. Actualice la consulta para mover la llamada de función fuera de la FROM cláusula o volver a definirla <functionName> como una función de tabla en su lugar.
NOT_ENOUGH_ARGS
Function <functionName> espera al menos <minNum> parámetros, pero se ha recibido <actualNum> (<actualArgs>).
NOT_NULL_ASSERT_VIOLATION
El valor NULL apareció en un campo que no acepta valores NULL: <walkedTypePath>Si el esquema se deduce de una clase de tupla/caso de Scala o un bean de Java, pruebe a usar scala.Option[_] u otros tipos que aceptan valores NULL (como java.lang.Integer en lugar de int/scala.Int).
NOT_NULL_CONSTRAINT_VIOLATION
No se permite asignar un NULL aquí.
Para obtener más información, consulte NOT_NULL_CONSTRAINT_VIOLATION.
NOT_SUPPORTED_CHANGE_COLUMN
ALTER TABLE ALTER
/
CHANGE COLUMN no admite cambiar la columna <table> de <originName> de tipo <originType> a <newName> de tipo <newType>.
NOT_SUPPORTED_CHANGE_SAME_COLUMN
ALTER TABLE ALTER
/
CHANGE COLUMN no se admite que cambie la columna <table><fieldName>, incluyendo sus campos anidados varias veces en el mismo comando.
NOT_SUPPORTED_COMMAND_FOR_V2_TABLE
<cmd> no se admite para las tablas v2.
NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT
<cmd> no se admite, si desea habilitarlo, establezca "spark.sql.catalogImplementation" en "hive".
NOT_SUPPORTED_IN_JDBC_CATALOG
Comando no compatible en el catálogo JDBC:
Para obtener más información, consulte NOT_SUPPORTED_IN_JDBC_CATALOG
NOT_SUPPORTED_WITH_DB_SQL
<operation> no se admite en una instancia de SQL <endpoint>.
NOT_SUPPORTED_WITH_SERVERLESS
<operation> no es compatible con la computación sin servidor.
NOT_UNRESOLVED_ENCODER
Se esperaba un codificador sin resolver, pero se encontró <attr>.
NO_ACTIVE_TRANSACTION
No hay ninguna transacción activa en <action>.
NO_DEFAULT_COLUMN_VALUE_AVAILABLE
No se puede determinar el valor predeterminado de <colName> , ya que no admite valores NULL y no tiene ningún valor predeterminado.
NO_HANDLER_FOR_UDAF
No hay controlador para UDAF "<functionName>". Use sparkSession.udf.register(...) en su lugar.
NO_MERGE_ACTION_SPECIFIED
df.mergeInto debe ir seguido de al menos uno de estos elementos whenMatched/whenNotMatched/whenNotMatchedBySource.
NO_PARENT_EXTERNAL_LOCATION_FOR_PATH
No se encontró ninguna ubicación externa primaria para la ruta de acceso '<path>'. Cree una ubicación externa en una de las rutas de acceso primarias y vuelva a intentar la consulta o comando.
NO_PRIMARY_KEY_CONSTRAINT_EXCEPTION
TABLE <table> no tiene una restricción de clave principal.
NO_SQL_TYPE_IN_PROTOBUF_SCHEMA
No se encuentra <catalystFieldPath> en el esquema Protobuf.
NO_STORAGE_LOCATION_FOR_TABLE
SQLSTATE: ninguno asignado
No se encontró ninguna ubicación de almacenamiento para la tabla '<tableId>' al generar credenciales de tabla. Compruebe el tipo de tabla y la dirección URL de ubicación de la tabla y vuelva a intentar la consulta o el comando.
NO_SUCH_CATALOG_EXCEPTION
No se encontró el catálogo '<catalog>'. Compruebe el nombre del catálogo y vuelva a intentar la consulta o comando.
NO_SUCH_CLEANROOM_EXCEPTION
SQLSTATE: ninguno asignado
La sala limpia '<cleanroom>' no existe. Compruebe que el nombre de la sala limpia está escrito correctamente y coincide con el nombre de una sala limpia existente válida y vuelva a intentar la consulta o comando.
NO_SUCH_CONSTRAINT_EXCEPTION
Restricción <constraint> no encontrada en <identifier>.
NO_SUCH_CREDENTIAL_EXCEPTION
La credencial '<credential>' no existe. Compruebe que el nombre de la credencial está escrito correctamente y coincide con el nombre de una credencial existente válida y vuelva a intentar la consulta o comando.
NO_SUCH_EXTERNAL_LOCATION_EXCEPTION
SQLSTATE: ninguno asignado
La ubicación externa '<externalLocation>' no existe. Compruebe que el nombre de la ubicación externa es correcto y vuelva a intentar la consulta o comando.
NO_SUCH_METASTORE_EXCEPTION
SQLSTATE: ninguno asignado
No se encontró el metastore. Pida al administrador de la cuenta que asigne un metastore al área de trabajo actual y vuelva a intentar la consulta o comando.
NO_SUCH_PROVIDER_EXCEPTION
SQLSTATE: ninguno asignado
El proveedor de recursos compartidos '<providerName>' no existe. Compruebe que el nombre del proveedor de recursos compartidos está escrito correctamente y coincide con el nombre de un nombre de proveedor existente válido y vuelva a intentar la consulta o comando.
NO_SUCH_RECIPIENT_EXCEPTION
SQLSTATE: ninguno asignado
El destinatario '<recipient>' no existe. Compruebe que el nombre del destinatario está escrito correctamente y coincide con el nombre de un destinatario existente válido y vuelva a intentar la consulta o comando.
NO_SUCH_SHARE_EXCEPTION
SQLSTATE: ninguno asignado
El recurso compartido '<share>' no existe. Compruebe que el nombre del recurso compartido está escrito correctamente y coincide con el nombre de un recurso compartido existente válido y vuelva a intentar la consulta o comando.
NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION
SQLSTATE: ninguno asignado
La credencial de almacenamiento '<storageCredential>' no existe. Compruebe que el nombre de la credencial de almacenamiento está escrito correctamente y coincide con el nombre de una credencial de almacenamiento existente válida y vuelva a intentar la consulta o el comando.
NO_SUCH_USER_EXCEPTION
SQLSTATE: ninguno asignado
El usuario '<userName>' no existe. Compruebe que el usuario al que concede permiso o modificar la propiedad está escrito correctamente y coincide con el nombre de un usuario existente válido y vuelva a intentar la consulta o comando.
NO_UDF_INTERFACE
La clase <className> UDF no implementa ninguna interfaz UDF.
NULLABLE_COLUMN_OR_FIELD
La columna o el campo <name> admite valores NULL, pero se requiere que no lo haga.
NULLABLE_ROW_ID_ATTRIBUTES
Los atributos de ID de fila no pueden ser nulos: <nullableRowIdAttrs>.
NULL_DATA_SOURCE_OPTION
La opción <option> de lectura y escritura del origen de datos no puede tener un valor NULL.
NULL_MAP_KEY
No se puede usar null como clave de mapa.
NULL_QUERY_STRING_EXECUTE_IMMEDIATE
Ejecutar inmediato requiere una variable que no sea NULL como cadena de consulta, pero la variable <varName> proporcionada es NULL.
NULL_VALUE_SIGNAL_STATEMENT
Los argumentos de la instrucción Signal requieren valores que no son NULL, pero <argument> reciben un valor NULL.
NUMERIC_OUT_OF_SUPPORTED_RANGE
El valor <value> no se puede interpretar como numérico, ya que tiene más de 38 dígitos.
NUMERIC_VALUE_OUT_OF_RANGE
Para obtener más información, consulte NUMERIC_VALUE_OUT_OF_RANGE
NUM_COLUMNS_MISMATCH
<operator> solo se puede realizar en entradas con el mismo número de columnas, pero la primera entrada tiene <firstNumColumns> columnas y la <invalidOrdinalNum> entrada tiene <invalidNumColumns> columnas.
NUM_TABLE_VALUE_ALIASES_MISMATCH
El número de alias especificados no coincide con el número de columnas de salida.
Nombre de función: <funcName>; número de alias: <aliasesNum>; número de columnas de salida: <outColsNum>.
OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED
No se proporcionó ninguna reclamación de identidad personalizada.
ONLY_SECRET_FUNCTION_SUPPORTED_HERE
La función <functionName> de llamada no se admite en este <location>; <supportedFunctions> se admite aquí.
ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR
La operación <operation> SQL solo se admite en los conectores SQL de Databricks con compatibilidad con Unity Catalog.
OPERATION_CANCELED
Se ha cancelado la operación.
OPERATION_REQUIRES_UNITY_CATALOG
La operación <operation> requiere el catálogo de Unity habilitado.
OP_NOT_SUPPORTED_READ_ONLY
<plan> no se admite en el modo de sesión de solo lectura.
ORDER_BY_POS_OUT_OF_RANGE
ORDER BY position <index> no está en la lista de selección (el intervalo válido es [1, <size>]).
PARQUET_CONVERSION_FAILURE
No se puede crear un convertidor de Parquet para el tipo de datos <dataType> cuyo tipo Parquet es <parquetType>.
Para obtener más información, consulte PARQUET_CONVERSION_FAILURE
PARQUET_TYPE_ILLEGAL
Tipo Parquet no válido: <parquetType>.
PARQUET_TYPE_NOT_RECOGNIZED
Tipo Parquet no reconocido: <field>.
PARQUET_TYPE_NOT_SUPPORTED
Tipo Parquet aún no admitido: <parquetType>.
PARSE_EMPTY_STATEMENT
Error de sintaxis, declaración vacía inesperada.
PARSE_MODE_UNSUPPORTED
La función <funcName> no admite el <mode> modo . Los modos aceptables son PERMISSIVE y FAILFAST.
PARSE_SYNTAX_ERROR
Error de sintaxis en o cerca de <error> <hint>.
PARTITIONS_ALREADY_EXIST
No se puede usar ADD o RENAME TO con las particiones <partitionList> de la tabla <tableName> porque ya existen.
Elija otro nombre, quite la partición existente o agregue la IF NOT EXISTS cláusula para tolerar una partición preexistente.
PARTITIONS_NOT_FOUND
Las particiones <partitionList> no se pueden encontrar en la tabla <tableName>.
Compruebe la especificación de partición y el nombre de la tabla.
Para tolerar el error en la operación de eliminación, use ALTER TABLE …
DROP IF EXISTS PARTITION.
PARTITION_COLUMN_NOT_FOUND_IN_SCHEMA
<column> Columna de partición no encontrada en el esquema <schema>. Proporcione la columna existente para la creación de particiones.
PARTITION_LOCATION_ALREADY_EXISTS
La ubicación <locationPath> de partición ya existe en la tabla <tableName>.
PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY
No se pudo ejecutar la ALTER TABLE SET PARTITION LOCATION instrucción, porque
La ubicación de partición <location> no está dentro del directorio <table> de tabla.
Para corregirlo, establezca la ubicación de la partición en un subdirectorio de <table>.
PARTITION_METADATA
<action> no se permite en la tabla <tableName> , ya que no se admite el almacenamiento de metadatos de partición en el catálogo de Unity.
PARTITION_NUMBER_MISMATCH
El número de valores (<partitionNumber>) no coincide con el tamaño del esquema (<partitionSchemaSize>): los valores son <partitionValues>, el esquema es <partitionSchema>, la ruta de acceso de archivo es <urlEncodedPath>.
Vuelva a materializar la tabla o póngase en contacto con el propietario.
PARTITION_TRANSFORM_EXPRESSION_NOT_IN_PARTITIONED_BY
La expresión <expression> debe estar dentro de "partitionedBy".
PATH_ALREADY_EXISTS
La ruta de acceso <outputPath> ya existe. Establezca el modo en "sobrescribir" para sobrescribir la ruta de acceso existente.
PATH_NOT_FOUND
La ruta de acceso <path> no existe.
PATH_RESOLUTION_ERROR
No se pudo resolver la ruta de acceso <path>. Causado por: <causedBy>
PHOTON_DESERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED
La deserialización del plan protobuf de Photon requiere al menos <size> bytes, lo que supera el
límite de <limit> bytes. Esto podría deberse a un plan muy grande o a la presencia de un
esquema ancho. Intente simplificar la consulta, quitar columnas innecesarias o deshabilitar Photon.
PHOTON_SERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED
El plan protobuf de Photon serializado tiene <size> bytes de tamaño, lo que supera el límite de
<limit> bytes. El tamaño serializado de los tipos de datos del plan es <dataTypeSize> bytes.
Esto podría deberse a un plan muy grande o a la presencia de un esquema muy amplio.
Considere la posibilidad de volver a escribir la consulta para quitar las operaciones y columnas no deseadas o deshabilitar Photon.
Conjunto_de_datos_sin_flujo_de_pipe
El conjunto de datos <identifier> de canalización no tiene flujos definidos. Adjunte una consulta con la definición del conjunto de datos o defina explícitamente al menos un flujo que escriba en el conjunto de datos.
PIPELINE_DOES_NOT_EXIST
La canalización '<pipelineId>' no existe
Para obtener más información, consulte PIPELINE_DOES_NOT_EXIST
IDENTIFICADORES_DUPLICADOS_DEL_PIPELINE
Se encontró un identificador duplicado para los elementos registrados en el gráfico de flujo de datos de la canalización.
Para obtener más información, consulte PIPELINE_DUPLICATE_IDENTIFIERS
PIPELINE_SQL_GRAPH_ELEMENT_REGISTRATION_ERROR
<message>
<offendingQuery>
<codeLocation>
PIPELINE_STORAGE_ROOT_INVALID
La raíz de almacenamiento de canalización debe ser una ruta de acceso absoluta con un esquema de URI (por ejemplo, file://, s3a://, hdfs://). Tiene: <storage_root>.
PIPE_OPERATOR_AGGREGATE_EXPRESSION_CONTAINS_NO_AGGREGATE_FUNCTION
La expresión <expr> no agrupada se proporciona como argumento para el operador |>AGGREGATE pipe pero no contiene ninguna función de agregado; actualícela para incluir una función de agregado y vuelva a intentar la consulta.
PIPE_OPERATOR_CONTAINS_AGGREGATE_FUNCTION
No se permite la función de agregación <expr> al usar la cláusula con el operador de canalización |><clause>; use la cláusula con el operador de canalización |>AGGREGATE en su lugar.
PIVOT_VALUE_DATA_TYPE_MISMATCH
Valor dinámico no válido "<value>": el valor del tipo de datos <valueType> no coincide con el tipo de datos de columna dinámica <pivotType>.
POLICY_ALREADY_EXISTS
No se puede crear la directiva <policyName> porque ya existe.
Elija otro nombre o elimine la política existente para tolerar conexiones preexistentes.
POLICY_NOT_FOUND
No se puede ejecutar el comando <commandType> porque no se encuentra la directiva <policyName> en <securableFullname>.
Compruebe la ortografía y la corrección.
POLICY_ON_SECURABLE_TYPE_NOT_SUPPORTED
No se puede crear la política en el tipo <securableType> protegible. Tipos protegibles admitidos: <allowedTypes>.
PREVIEW_FEATURE_NOT_ENABLED
La característica <featureName> de vista previa no está habilitada. Póngase en contacto con el administrador del área de trabajo para habilitar esta característica mediante el portal de versión preliminar.
PROCEDURE_ARGUMENT_NUMBER_MISMATCH
El procedimiento <procedureName> espera <expected> argumentos, pero se proporcionó <actual>.
PROCEDURE_CREATION_EMPTY_ROUTINE
CREATE PROCEDURE no se permite una definición de rutina vacía.
PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT
El parámetro <parameterName> se define con modo de parámetro <parameterMode>. No se puede omitir OUT y INOUT el parámetro al invocar una rutina y, por tanto, no admiten una DEFAULT expresión. Para continuar, quite la DEFAULT cláusula o cambie el modo de parámetro a IN.
PROCEDURE_NOT_SUPPORTED
No se admite el procedimiento almacenado.
PROCEDURE_NOT_SUPPORTED_WITH_HMS
El procedimiento almacenado no se admite con el metastore de Hive. Use el catálogo de Unity en su lugar.
PROTOBUF_DEPENDENCY_NOT_FOUND
No se pudo encontrar la dependencia: <dependencyName>.
PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND
Error al leer el archivo de descriptor de Protobuf en la ruta de acceso <filePath>.
PROTOBUF_FIELD_MISSING
Al buscar <field> en el esquema de Protobuf en <protobufSchema>, se obtuvieron <matchSize> coincidencias. Candidatos: <matches>.
PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA
Se encuentra <field> en el esquema Protobuf, pero no hay ninguna coincidencia en el esquema SQL.
PROTOBUF_FIELD_TYPE_MISMATCH
Error de coincidencia de tipos encontrado para el campo: <field>.
PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED
Las clases de Java no se admiten para <protobufFunction>. Póngase en contacto con el soporte técnico de Databricks sobre las opciones alternativas.
PROTOBUF_MESSAGE_NOT_FOUND
No se puede encontrar el mensaje <messageName> en descriptor.
PROTOBUF_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE
No se puede llamar a la <functionName> función SQL porque no se ha cargado el origen de datos Protobuf.
Reinicie el trabajo o la sesión con el paquete "spark-protobuf" cargado, como mediante el argumento --packages en la línea de comandos y vuelva a intentar la consulta o comando.
PROTOBUF_TYPE_NOT_SUPPORT
Tipo Protobuf aún no admitido: <protobufType>.
PS_FETCH_RETRY_EXCEPTION
No se puede reintentar la tarea en la fase de captura de pubsub. Partición <partitionInfo> en la fase <stageInfo>, TID <taskId>.
PS_INVALID_EMPTY_OPTION
<key> no puede ser una cadena vacía.
PS_INVALID_KEY_TYPE
Tipo de clave no válido para la desduplicación de PubSub: <key>.
PS_INVALID_OPTION
PubSub no admite la opción <key> . Solo se puede usar en las pruebas.
PS_INVALID_OPTION_TYPE
Tipo no válido para <key>. Se esperaba que el tipo de <key> fuera del tipo <type>.
PS_INVALID_READ_LIMIT
Límite de lectura no válido en la secuencia PubSub: <limit>.
PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO
UnsafeRow no válido para descodificar en PubSubMessageMetadata, el esquema proto deseado es <protoSchema>. La entrada UnsafeRow puede estar dañada: <unsafeRow>.
PS_INVALID_WORKLOAD_IDENTITY_FEDERATION_AUDIENCE_OPTION
Error en la consulta o comando debido a una opción de lectura no válida: en spark.readStream.format("pubsub").option("workloadIdentityFederation.audience", <audience>). Actualice <audience> para que coincida con el formato siguiente: //iam.googleapis.com/projects/{PROJECT_NUMBER}/locations/global/workloadIdentityPools/{POOL_ID}/providers/{PROVIDER_ID} y vuelva a intentar la consulta o comando.
PS_MISSING_AUTH_INFO
No se pudo encontrar información completa de autenticación de PubSub.
PS_MISSING_REQUIRED_OPTION
No se pudo encontrar la opción necesaria: <key>.
PS_MOVING_CHECKPOINT_FAILURE
No se pueden mover los archivos de punto de control de datos sin procesar de <src> al directorio de destino <dest>.
PS_MULTIPLE_AUTH_OPTIONS
Proporcione sus credenciales de servicio de Databricks o las credenciales de la cuenta de servicio de GCP.
PS_MULTIPLE_FAILED_EPOCHS
No se puede iniciar la secuencia de PubSub, ya que hay más de una captura errónea: <failedEpochs>.
PS_OPTION_NOT_IN_BOUNDS
<key> debe estar dentro de los siguientes límites (<min>, <max>) exclusivos de ambos límites.
PS_PROVIDE_CREDENTIALS_WITH_OPTION
Los clústeres compartidos no admiten la autenticación con perfiles de instancia. Proporcione credenciales al flujo directamente mediante .option().
PS_SPARK_SPECULATION_NOT_SUPPORTED
El conector de origen de PubSub solo está disponible en el clúster con spark.speculation deshabilitado.
PS_UNABLE_TO_CREATE_SUBSCRIPTION
Error al intentar crear una suscripción <subId> en el tema <topicId>. Compruebe que hay permisos suficientes para crear una suscripción e inténtelo de nuevo.
PS_UNABLE_TO_PARSE_PROTO
No se pueden analizar los bytes serializados para generar proto.
PS_UNSUPPORTED_GET_OFFSET_CALL
getOffset no es compatible sin que se suministre un límite.
PYTHON_DATA_SOURCE_ERROR
No se pudo <action> el origen de datos de Python <type>: <msg>
PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR
Error cuando el origen de datos de streaming de Python realiza <action>: <msg>
QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
No se puede acceder a la tabla a la que se hace referencia porque una máscara de columna asignada previamente no es compatible con el esquema de tabla; para continuar, póngase en contacto con el propietario de la tabla para actualizar la directiva:
Para obtener más información, consulte QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY.
QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
No se puede acceder a la tabla a la que se hace referencia porque una directiva de seguridad de nivel de fila asignada previamente no es compatible con el esquema de tabla; para continuar, póngase en contacto con el propietario de la tabla para actualizar la directiva:
Para obtener más información, consulte QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY.
QUERY_EXECUTION_TIMEOUT_EXCEEDED
Se canceló la ejecución de la consulta debido a que se superó el tiempo de espera (<timeoutSec>s). Puede aumentar el límite en segundos estableciendo <config>.
QUERY_INCOMPATIBLE_WITH_RLSCM_POLICY
Consulte go/rowcolumncontrols-allowlist. LogicalPlan <unknownLogicalPlan> no es compatible con la directiva RLS/CM.
QUERY_REJECTED
Se rechazó la ejecución de la consulta.
QUERY_RESULT_WRITE_TO_CLOUD_STORE_PERMISSION_ERROR
La configuración de almacenamiento interno del área de trabajo impide que Databricks acceda al almacén en la nube.
QUERY_TAGS_NOT_IMPLEMENTED_ERROR
Las etiquetas de consulta aún no se admiten en SQL.
QUERY_TAGS_SYNTAX_INVALID
Formato no válido para el SET QUERY_TAGS comando.
QUERY_TAG_KEY_INVALID
Error en la validación de la clave de etiqueta de consulta '<key>'.
QUERY_TAG_KEY_MAY_NOT_BE_EMPTY
Es posible que la clave de etiqueta de consulta no sea nula o esté vacía. El espacio en blanco inicial y final se recorta en claves y valores.
QUERY_TAG_MAX_COUNT_EXCEEDED
El número de etiquetas de consulta superó el límite por sesión de <tagLimit> las etiquetas máximas.
QUERY_TAG_VALUE_INVALID
Error de validación del valor de etiqueta de consulta '<value>'.
QUERY_WATCHDOG_CHECK_FAILED
Error en la comprobación del guardián de consultas.
Para obtener más información, consulte QUERY_WATCHDOG_CHECK_FAILED
READ_CURRENT_FILE_NOT_FOUND
<message>
Es posible que se hayan actualizado los archivos subyacentes. Puede invalidar explícitamente la memoria caché en Spark ejecutando el comando "REFRESH TABLE tableName" en SQL o volviendo a crear el conjunto de datos o dataframe implicado.
READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS
La invocación de la función <functionName> tiene a <parameterName> y <alternativeName> establecidos, que son alias entre sí. Por favor, establezca solo uno de ellos.
READ_FILES_CREDENTIALS_PARSE_ERROR
Error al analizar las credenciales temporales de la función read_files().
Para más información, consulte READ_FILES_CREDENTIALS_PARSE_ERROR
READ_TVF_UNEXPECTED_REQUIRED_PARAMETER
El parámetro <functionName> requerido de la función <parameterName> debe asignarse en la posición <expectedPos> sin el nombre.
RECIPIENT_EXPIRATION_NOT_SUPPORTED
Solo se admiten los tipos TIMESTAMP/TIMESTAMP_LTZ/TIMESTAMP_NTZ para la marca de tiempo de expiración del destinatario.
RECURSION_LEVEL_LIMIT_EXCEEDED
Se ha alcanzado el límite <levelLimit> de nivel de recursión, pero la consulta no se ha agotado, intente aumentarlo como "WITH RECURSIVE t(col) MAX RECURSION LEVEL 200".
RECURSION_ROW_LIMIT_EXCEEDED
Se ha alcanzado el límite <rowLimit> de filas de recursividad, pero la consulta no se ha agotado, intente establecer un valor mayor LIMIT al consultar la relación de CTE.
RECURSIVE_CTE_IN_LEGACY_MODE
Las definiciones recursivas no se pueden usar en el modo de precedencia de CTE heredado (spark.sql.legacy.ctePrecedencePolicy=LEGACY).
RECURSIVE_CTE_WITH_LEGACY_INLINE_FLAG
Las definiciones recursivas no se pueden usar cuando el indicador heredado en línea está configurado a true (spark.sql.legacy.inlineCTEInCommands=true).
RECURSIVE_PROTOBUF_SCHEMA
Se encontró una referencia recursiva en el esquema Protobuf, que no se puede procesar mediante Spark de forma predeterminada: <fieldDescriptor>. pruebe a establecer la opción recursive.fields.max.depth 1 a 10. No se permite ir más allá de 10 niveles de recursividad.
RECURSIVE_VIEW
Vista recursiva <viewIdent> detectada (ciclo: <newPath>).
REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION
No se permiten referencias a valores de columna DEFAULT dentro de la cláusula PARTITION.
RELATION_LARGER_THAN_8G
No se puede construir un <relationName> que sea mayor que 8 gigabytes.
REMAINDER_BY_ZERO
Resto en cero. Use try_mod para tolerar que el divisor sea 0 y devuelva NULL en su lugar. Si es necesario, establezca <config> en "false" para omitir este error.
REMOTE_FUNCTION_HTTP_FAILED_ERROR
Error en la solicitud HTTP remota con el código <errorCode>y el mensaje de error <errorMessage>
REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR
No se pudo evaluar la <functionName> función SQL debido a la incapacidad de analizar el JSON resultado de la respuesta HTTP remota; el mensaje de error es <errorMessage>. Consulte la documentación de la API: <docUrl>. Corrija el problema indicado en el mensaje de error y vuelva a intentar la consulta.
REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR
No se pudo evaluar la <functionName> función SQL debido a la incapacidad de procesar la respuesta HTTP remota inesperada; el mensaje de error es <errorMessage>. Consulte la documentación de la API: <docUrl>. Corrija el problema indicado en el mensaje de error y vuelva a intentar la consulta.
REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT
Error en la solicitud remota después de <N> reintentos; el último código de error HTTP con error fue <errorCode> y el mensaje fue <errorMessage>
REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR
No se pudo evaluar la <functionName> función SQL porque <errorMessage>. Compruebe los requisitos en <docUrl>. Corrija el problema indicado en el mensaje de error y vuelva a intentar la consulta.
REMOTE_QUERY_FUNCTION_UNSUPPORTED_CONNECTOR_PARAMETERS
No se admiten parámetros <parameterNames> para la función remote_query, que consulta una conexión "<connectionName>" de tipo "<connectionType>".
Para obtener más información, consulte REMOTE_QUERY_FUNCTION_UNSUPPORTED_CONNECTOR_PARAMETERS
RENAME_SRC_PATH_NOT_FOUND
No se pudo cambiar el nombre porque no se encontró <sourcePath>.
REPEATED_CLAUSE
La <clause> cláusula se puede usar como máximo una vez por <operation> operación.
REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY
El parámetro obligatorio <routineName> de la rutina <parameterName> se ha asignado en la posición <positionalIndex> sin el nombre.
Actualice la llamada de función para quitar el argumento con nombre con <parameterName> para este parámetro o quite el
argumento posicional en <positionalIndex> y, a continuación, vuelva a intentar la consulta.
REQUIRED_PARAMETER_NOT_FOUND
No se puede invocar la rutina <routineName> porque se requiere el parámetro denominado <parameterName> , pero la llamada de rutina no ha proporcionado un valor. Actualice la llamada rutinaria para proporcionar un valor de argumento (ya sea posicionalmente en el índice <index> o por nombre) y vuelva a intentar la consulta.
REQUIRES_EXPLICIT_NAME_IN_WATERMARK_CLAUSE
La cláusula watermark requiere un nombre explícito si se especifica la expresión, pero tiene <sqlExpr>.
REQUIRES_SINGLE_PART_NAMESPACE
<sessionCatalog> requiere un espacio de nombres de un solo elemento, pero se obtuvo <namespace>.
RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT
La opción de lector de API de DataFrame "rescuedDataColumn" es mutuamente excluyente con la opción de API de DataFrame "singleVariantColumn".
Quite uno de ellos y vuelva a intentar la operación DataFrame.
RESERVED_CDC_COLUMNS_ON_WRITE
La operación de escritura contiene columnas reservadas <columnList> que son utilizadas.
internamente como metadatos para el cambio de fuente de distribución de datos. Para escribir en la tabla, cambie el nombre o quite
estas columnas o deshabilite la fuente de distribución de datos modificados en la tabla estableciendo
<config> en false.
RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
La opción <option> tiene valores restringidos en clústeres compartidos para el origen <source>.
Para más información, consulte RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED.
ROUTINE_ALREADY_EXISTS
No se puede crear <newRoutineType> <routineName> porque ya existe un <existingRoutineType> de ese nombre.
Elija un nombre diferente, quite o reemplace el <existingRoutineType> existente, o agregue la cláusula IF NOT EXISTS para tolerar un <newRoutineType> existente previamente.
ROUTINE_NOT_FOUND
No se encuentra la rutina <routineName> . Compruebe la ortografía y corrección del esquema y el catálogo.
Si no ha calificado el nombre con un esquema y un catálogo, compruebe la salida de current_schema() o califique el nombre con el esquema y el catálogo correctos.
Para tolerar el error al quitar use DROP...IF EXISTS.
ROUTINE_PARAMETER_NOT_FOUND
La rutina <routineName> no admite el parámetro <parameterName> especificado en la posición <pos>.<suggestion>
ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME
No se puede crear la función <routineName> porque el nombre de clase especificado '<className>' está reservado para uso del sistema. Cambie el nombre de la clase e inténtelo de nuevo.
ROW_LEVEL_SECURITY_ABAC_MISMATCH
No se pudieron resolver los filtros de fila en <tableName> porque había una incongruencia entre los filtros de fila heredados de las políticas y los filtros de fila definidos explícitamente. Para continuar, deshabilite el control de acceso basado en atributos (ABAC) y póngase en contacto con el soporte técnico de Databricks.
ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED
No se admite la creación de CHECK restricciones en la tabla <tableName> con políticas de seguridad a nivel de fila.
ROW_LEVEL_SECURITY_COLUMN_MASK_UNRESOLVED_REFERENCE_COLUMN
No se puede resolver una columna con el nombre <objectName> al que se hace referencia en un parámetro de función de filtro de fila o máscara de columna.
Esto puede ocurrir si el esquema de tabla subyacente ha cambiado y la columna a la que se hace referencia ya no existe.
Por ejemplo, esto puede ocurrir si la columna se quitó en un sistema externo (por ejemplo, una tabla federada) o si una REPLACE operación en la tabla quitó la columna.
Para resolverlo, los usuarios con privilegios de administración en la tabla pueden inspeccionar los filtros de fila y las máscaras de columna actuales mediante DESCRIBE TABLE EXTENDEDy quitar o volver a crear cualquier columna que haga referencia a columnas inexistentes medianteSET.../ALTER TABLEDROP ROW FILTER o MASK.
Nota: Databricks introdujo una mejora de seguridad para conservar las máscaras de columna durante las operaciones de REPLACE cuando el nuevo esquema incluye la misma columna, incluso si no se especifica la máscara. Esto evita la pérdida involuntaria de políticas en las tablas.
ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME
Una <statementType> instrucción intentó asignar una directiva de seguridad de nivel de fila a una tabla, pero dos o más columnas a las que se hace referencia tenían el mismo nombre <columnName>, que no es válido.
ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
No se admiten directivas de seguridad de nivel de fila para <tableName> :
Para más información, consulte ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED.
ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE
No se puede <statementType> <columnName> de la tabla <tableName> porque se hace referencia a ella en una directiva de seguridad de nivel de fila. El propietario de la tabla debe quitar o modificar esta directiva antes de continuar.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE
Las operaciones MERGE INTO no admiten directivas de seguridad de nivel de fila en la tabla de origen <tableName>.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET
Las operaciones MERGE INTO no admiten la escritura en la tabla <tableName> con directivas de seguridad de nivel de fila.
ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME
Esta instrucción intentó asignar una directiva de seguridad de nivel de fila a una tabla, pero la columna <columnName> a la que se hace referencia tenía varias partes de nombre, que no son válidas.
ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG
Las políticas de seguridad a nivel de fila solo se admiten en Unity Catalog.
ROW_LEVEL_SECURITY_SECONDARY_INDEX_CREATION_UNSUPPORTED
No se puede crear un índice ON TABLE <tableName> secundario porque la tabla tiene definida una directiva de seguridad de nivel de fila.
ROW_LEVEL_SECURITY_SHOW_PARTITIONS_UNSUPPORTED
El comando SHOW PARTITIONS no se admite para tablas <format> con directiva de seguridad de nivel de fila.
ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED
No se admite la clonación <mode> de la tabla <tableName> con directiva de seguridad de nivel de fila.
ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED
No se admite la clonación <mode> a la tabla <tableName> con directivas de seguridad de nivel de fila.
ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER
No se admite el uso de una constante como parámetro en una directiva de seguridad de nivel de fila. Actualice el comando SQL para quitar la constante de la definición del filtro de fila y vuelva a intentarlo.
ROW_LEVEL_SECURITY_UNSUPPORTED_DATA_TYPE
La función <functionName> que se usa para la directiva de seguridad de nivel de fila tiene un parámetro con el tipo <dataType>de datos no admitido .
ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER
No se pudo ejecutar el comando <statementType> porque no se admite la aplicación de la política de seguridad de nivel de filas para el origen de datos de destino con el proveedor de tablas: "<provider>".
ROW_SUBQUERY_TOO_MANY_ROWS
Se devolvió más de una fila por una subconsulta usada como fila.
ROW_VALUE_IS_NULL
Se encontró NULL en una fila en el índice <index>; se esperaba un valor distinto deNULL.
RULE_ID_NOT_FOUND
No se encontró un identificador para el nombre de la regla "<ruleName>". Modifique RuleIdCollection.scala si va a agregar una nueva regla.
RUN_EMPTY_PIPELINE
Se espera que las canalizaciones tengan al menos un conjunto de datos no temporal definido (tablas, vistas persistentes), pero no se encontraron conjuntos de datos no temporales en la canalización.
Compruebe que ha incluido los archivos de código fuente esperados y que el código fuente incluye definiciones de tabla (por ejemplo, CREATE MATERIALIZED VIEW en código SQL, @dp.table en código python).
SALESFORCE_DATA_SHARE_API_UNAUTHORIZED
Error de autorización en salesforce Data Share API. Compruebe que se proporcionan los detalles de conexión de Databricks al destino de uso compartido de datos adecuado de Salesforce.
SAMPLE_TABLE_PERMISSIONS
Permisos no admitidos en bases de datos o tablas de ejemplo.
SCALAR_FUNCTION_NOT_COMPATIBLE
ScalarFunction <scalarFunc> no invalida el método "produceResult(InternalRow)" con la implementación personalizada.
SCALAR_FUNCTION_NOT_FULLY_IMPLEMENTED
ScalarFunction <scalarFunc> no implementa ni invalida el método "produceResult(InternalRow)".
SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION
La subconsulta escalar correlacionada '<sqlExpr>' no está presente ni en GROUP BY ni en una función de agregado.
Agrégalo a GROUP BY usando la posición ordinal o envuélvelo en first() (o first_value) si no te importa qué valor obtienes.
SCALAR_SUBQUERY_TOO_MANY_ROWS
Se devolvió más de una fila por una subconsulta usada como expresión.
SCDS_COMMIT_LOG_UNAVAILABLE
El registro de confirmación no existe con checkpoint location=<checkpointLocation>.
SCDS_INVALID_OPTION_VALUE (valor de opción inválido)
Valor no válido para source option=<optionName> con errorMsg=<message>.
SCDS_OFFSET_LOG_UNAVAILABLE
El registro de desplazamiento no existe con checkpoint location=<checkpointLocation>.
SCDS_REQUIRED_OPTION_UNSPECIFIED
No se pudo especificar la opción requerida=<optionName>.
SCHEDULE_ALREADY_EXISTS
No se puede agregar <scheduleType> a una tabla que ya tenga <existingScheduleType>. Quite la programación existente o use ALTER TABLE...ALTER <scheduleType> ... para modificarlo.
SCHEDULE_PERIOD_INVALID
El período de programación de <timeUnit> debe ser un valor entero comprendido entre 1 y <upperBound> (inclusivo). Se recibió <actual>.
SCHEMA_ALREADY_EXISTS
No se puede crear el esquema <schemaName> porque ya existe.
Elija otro nombre, quite el esquema existente o agregue la IF NOT EXISTS cláusula para tolerar el esquema preexistente.
SCHEMA_NOT_EMPTY
No se puede quitar un esquema <schemaName> porque contiene objetos .
Use DROP SCHEMA...CASCADE para quitar el esquema y todos sus objetos.
SCHEMA_NOT_FOUND
No se encuentra el esquema <schemaName> . Compruebe la ortografía y corrección del esquema y el catálogo.
Si no ha calificado el nombre con un catálogo, compruebe la salida de current_schema() o califique el nombre con el catálogo correcto.
Para tolerar el error en la operación de eliminación, use DROP SCHEMA IF EXISTS.
SCHEMA_REGISTRY_CONFIGURATION_ERROR
No se pudo inicializar el esquema del registro de esquema.
<reason>.
SEARCH_INDEX_CATALOG_SCHEMA_MISMATCH
No se puede crear un índice <indexName> de búsqueda en el catálogo <indexCatalog> y el esquema <indexSchema>. El índice debe crearse en el mismo catálogo y esquema que la tabla <tableName> (<tableCatalog>base .<tableSchema>
SEARCH_INDEX_INVALID_PARAMETERS
No se puede crear el índice de búsqueda, se da un parámetro no válido:
Para obtener más información, consulte SEARCH_INDEX_INVALID_PARAMETERS
SEARCH_INDEX_NAME_CONFLICTS_WITH_TABLE
La tabla con nombre <indexName> de índice ya existe. Proporcione un nombre de índice personalizado que no entre en conflicto con las tablas existentes.
SEARCH_INDEX_OUTDATED_SCHEMA
El índice de búsqueda <indexName> tiene un esquema obsoleto. Vuelva a crear el índice mediante:
DROP SEARCH INDEX <indexName>;
CREATE SEARCH INDEX <indexName> ON <tableName>(<columnsList>);
SEARCH_REQUIRES_SEARCHABLE_COLUMNS
<context> requiere columnas con tipos que se pueden buscar (STRING COLLATE UTF8_BINARY, VARIANT, o ARRAY).
Para obtener más información, consulte SEARCH_REQUIRES_SEARCHABLE_COLUMNS
SEARCH_REQUIRES_STRING_LITERALS_ARGUMENTS
SEARCH requiere <argument> que el argumento sea literales de cadena, pero <actualExpr> se ha proporcionado. <possibleOptionsMessage>
SECONDARY_INDEX_REQUIRES_MANAGED_TABLE
No se puede <operation> ON TABLE <tableName> La operación solo se puede realizar en tablas administradas.
Para convertir una tabla en una tabla administrada, use el ALTER TABLE <tableName> SET MANAGED comando .
Para obtener más información, consulte: https://docs.databricks.com/aws/en/tables/convert-external-managed
SECONDARY_INDEX_UNSUPPORTED_TABLE_FORMAT
No <operation> ON TABLE <tableName>
La operación solo se puede realizar en tablas con los siguientes formatos: <supportedFormats>.
Compruebe el formato de tabla con DESCRIBE DETAIL <tableName>.
Si el formato actual es Parquet o Apache Iceberg, puede convertirlo permanentemente en su lugar con CONVERT TO DELTA <tableName>; vea https://docs.databricks.com/aws/en/sql/language-manual/delta-convert-to-delta
De lo contrario, vuelva a crear la tabla en uno de los formatos admitidos.
SECOND_FUNCTION_ARGUMENT_NOT_INTEGER
El segundo argumento de la <functionName> función debe ser un entero.
SECRET_FUNCTION_INVALID_LOCATION
No se puede ejecutar el comando <commandType> con una o varias referencias SECRET no cifradas a la función; por favor, cifre el resultado de cada llamada de función con AES_ENCRYPT e intente ejecutar el comando de nuevo.
SECURABLE_DOES_NOT_EXIST
<securable> no existe.
SEED_EXPRESSION_IS_UNFOLDABLE
La expresión <seedExpr> de inicialización de la expresión <exprWithSeed> debe ser plegable.
SERVER_IS_BUSY
El servidor está ocupado y no pudo controlar la solicitud. Espere un momento y vuelva a intentarlo.
SET_QUERY_TAGS_SYNTAX_INVALID
No se pudo ejecutar el SET comando porque la sintaxis no era válida. La sintaxis esperada para este comando es SET QUERY_TAGS o SET QUERY_TAGS['key'] = 'value'. Corrija el comando para que se ajuste a esta sintaxis y vuelva a ejecutarlo.
SFTP_DEPRECATED_SSH_RSA_KEY_ALGORITHM
El servidor <host>SFTP:<port> usa el algoritmo RSA SSH en desuso para el intercambio de claves.
Considere la posibilidad de actualizar el servidor SFTP para usar un algoritmo más seguro, como ECDSA o ED25519.
Como alternativa, omita este error estableciendo <escapeHatchConf> en true.
SFTP_UNABLE_TO_CONNECT
No se pudo conectar al servidor <host> SFTP en el puerto <port> con el nombre de usuario <user>.
<error>
SFTP_UNKNOWN_HOST_KEY
La clave de host del servidor <host> SFTP es desconocida o ha cambiado.
Compruebe el mensaje de error siguiente y proporcione la huella digital de la clave en el Key fingerprint campo.
Por ejemplo, si el mensaje indica "ECDSA la huella digital de la clave es SHA256:XXX/AAAA", envíe "SHA256:XXX/AAAA" como huella digital de la clave.
Mensaje de error de conexión:
<error>
SFTP_USER_DOES_NOT_MATCH
El usuario recuperado de la credencial <credentialUser> no coincide con el especificado en la ruta SFTP <path>.
SHOW_COLUMNS_WITH_CONFLICT_NAMESPACE
SHOW COLUMNS con espacios de nombres en conflicto: <namespaceA> != <namespaceB>.
SNOWFLAKE_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
Error en la validación del origen de datos de Snowflake.
Para obtener más información, consulte SNOWFLAKE_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
SORT_BY_WITHOUT_BUCKETING
sortBy debe usarse junto con bucketBy.
SPARK_JOB_CANCELLED
Trabajo <jobId> cancelado <reason>
SPECIFY_BUCKETING_IS_NOT_ALLOWED
Una función CREATE TABLE sin lista de columnas explícita no puede especificar información de creación de cubos.
Use el formato con lista de columnas explícita y especifique la información de creación de cubos.
Como alternativa, permita que se infiera la información de creación de cubos omitiendo la cláusula.
SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED
No se pueden especificar ambos CLUSTER BY y CLUSTERED BY INTO BUCKETS.
SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED
No se pueden especificar ambos CLUSTER BY y PARTITIONED BY.
SPECIFY_PARTITION_IS_NOT_ALLOWED
Una CREATE TABLE sin lista de columnas explícita no puede especificar PARTITIONED BY.
Use el formulario con la lista de columnas explícita y especifique PARTITIONED BY.
Como alternativa, permita que se infiera la creación de particiones omitiendo la cláusula PARTITION BY.
SQL_CONF_NOT_FOUND
No se encuentra la configuración <sqlConf> de SQL. Compruebe que la configuración existe.
SQL_SCRIPT_IN_EXECUTE_IMMEDIATE
No se permiten scripts SQL en EXECUTE IMMEDIATE comandos. Asegúrese de que la consulta SQL proporcionada (<sqlString>) no sea SQL Script. Asegúrese de que el sql_string es una instrucción SQL bien formada y no contiene BEGIN y END.
SQL_SCRIPT_MAX_NUMBER_OF_CHARACTERS_EXCEEDED
Se ha superado el número máximo de caracteres de un script SQL (id: <scriptId>). El número máximo de caracteres permitido es <maxChars>y el script tenía <chars> caracteres.
SQL_SCRIPT_MAX_NUMBER_OF_LINES_EXCEEDED
Se ha superado el número máximo de líneas de un script SQL (id: <scriptId>). El número máximo de líneas permitidas es <maxLines>y el script tenía <lines> líneas.
SQL_SCRIPT_MAX_NUMBER_OF_LOCAL_VARIABLE_DECLARATIONS_EXCEEDED
Se ha superado el número máximo de declaraciones de variables locales en un script SQL (id: <scriptId>). El número máximo de declaraciones permitidas es <maxDeclarations>y el script tenía <declarations>.
SQL_STORED_PROCEDURES_NESTED_CALLS_LIMIT_EXCEEDED
Se ha superado el número máximo de llamadas a procedimientos anidados con el procedimiento (nombre: <procedureName>, callId: <procedureCallId>). El número máximo permitido de llamadas a procedimientos anidados es <limit>.
STAGING_PATH_CURRENTLY_INACCESSIBLE
Error transitorio al acceder a la ruta de acceso provisional de destino <path>, por favor, inténtelo dentro de unos minutos.
STAR_GROUP_BY_POS
El asterisco (*) no se permite en una lista de selección cuando GROUP BY se usa una posición ordinal.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE
No se pudo realizar la operación del procesador con estado=<operationType> con un estado de identificador no válido=<handleState>.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE
No se pudo realizar la operación del procesador con estado=<operationType> con timeMode no válido=<timeMode>
STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED
La variable de estado con el nombre <stateVarName> ya se ha definido en StatefulProcessor.
STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL
No se puede usar TTL para state=<stateName> en timeMode=<timeMode>, use TimeMode.ProcessingTime() en su lugar.
STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE
La duración de TTL debe ser mayor que cero para la operación del almacén de estado=<operationType> en el estado=<stateName>.
STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE
Modo de hora desconocido <timeMode>. Los modos timeMode aceptados son "none", "processingTime", "eventTime"
STATE_REPARTITION_INVALID_CHECKPOINT
La ubicación de punto de control proporcionada '<checkpointLocation>' está en un estado no válido.
Para obtener más información, consulte STATE_REPARTITION_INVALID_CHECKPOINT
STATE_REPARTITION_INVALID_PARAMETER
El parámetro <parameter> de repartición no es válido:
Para obtener más información, consulte STATE_REPARTITION_INVALID_PARAMETER
STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS
No se pudo crear la familia de columnas con caracteres iniciales no admitidos y name=<colFamilyName>.
STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME
No se pudo realizar la operación de familia de columnas=<operationName> debido a un nombre=<colFamilyName> no válido. El nombre de familia de columnas no puede estar vacío ni incluir espacios iniciales o finales ni usar la palabra clave reservada=default
STATE_STORE_CHECKPOINT_IDS_NOT_SUPPORTED
<msg>
STATE_STORE_CHECKPOINT_LOCATION_NOT_EMPTY
La ubicación <checkpointLocation> del punto de comprobación debe estar vacía en el lote 0
Use una nueva ubicación de punto de control o elimine los datos existentes en la ubicación del punto de control.
STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE
Transformación de esquema incompatible con column family=<colFamilyName>, oldSchema=<oldSchema>, newSchema=<newSchema>.
STATE_STORE_DOES_NOT_SUPPORT_REUSABLE_ITERATOR
StateStore <inputClass> no admite iterador reutilizable.
STATE_STORE_HANDLE_NOT_INITIALIZED
El identificador no se ha inicializado para este elemento StatefulProcessor.
Use solo StatefulProcessor dentro del operador transformWithState.
STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN
Número incorrecto de ordinales de ordenación=<numOrderingCols> para el codificador de detección de intervalos. El número de ordinales de ordenación no puede ser cero o mayor que el número de columnas de esquema.
STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN
Número incorrecto de columnas de prefijo=<numPrefixCols> para el codificador de detección de prefijos. Las columnas de prefijo no pueden ser cero o mayores o iguales que el número de columnas de esquema.
STATE_STORE_INVALID_AVRO_SCHEMA
Se detectó un esquema no válido para la codificación Avro.
Para obtener más información, consulte STATE_STORE_INVALID_AVRO_SCHEMA
STATE_STORE_INVALID_CONFIG_AFTER_RESTART
No se puede cambiar <configName> de <oldConfig> a <newConfig> entre reinicios. Establezca <configName> a <oldConfig>, o reinicie con un nuevo directorio de punto de control.
STATE_STORE_INVALID_PROVIDER
El proveedor de almacén de estado <inputClass> especificado no extiende org.apache.spark.sql.execution.streaming.state.StateStoreProvider.
STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE
No se puede cambiar <stateVarName> a <newType> entre reinicios de consulta. Establezca <stateVarName> a <oldType>, o reinicie con un nuevo directorio de punto de control.
STATE_STORE_KEY_SCHEMA_NOT_COMPATIBLE
El esquema de clave proporcionado no coincide con el esquema existente en el estado del operador.
Esquema existente=<storedKeySchema>; esquema proporcionado=<newKeySchema>.
Para ejecutar la consulta sin validación de esquema, establezca spark.sql.streaming.stateStore.stateSchemaCheck en false.
Tenga en cuenta que la ejecución sin validación de esquemas puede tener un comportamiento no determinista.
STATE_STORE_NATIVE_ROCKSDB_TIMEOUT
Al acceder al almacén de estados de RocksDB para una operación de streaming con estado, se ha agotado el tiempo de espera de la llamada a la función nativa de RocksDB <funcName> después de esperar <timeoutMs> ms. Inténtelo de nuevo y reinicie el clúster si el error persiste.
STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED
No se admite la columna de ordenación de tipos NULL con nombre=<fieldName> en el índice=<index> para el codificador de detección de intervalos.
STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY
El proveedor de almacén de estado <inputClass> especificado no extiende org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay.
Por lo tanto, no admite la opción snapshotStartBatchId ni readChangeFeed en el origen de datos de estado.
STATE_STORE_ROCKSDB_ZIP_ALREADY_EXISTS
El archivo <zipFilePath> ZIP de instantáneas de RocksDB ya existe. Esto significa que la instantánea ya se ha cargado en DFS.
(allowVersionOverwrite=<allowVersionOverwrite>, shouldUseCommitService=<shouldUseCommitService>)
STATE_STORE_STATE_SCHEMA_FILES_THRESHOLD_EXCEEDED
El número de archivos <numStateSchemaFiles> de esquema de estado supera el número máximo de archivos de esquema de estado para esta consulta: <maxStateSchemaFiles>.
Agregado: <addedColumnFamilies>, Quitado: <removedColumnFamilies>
Establezca "spark.sql.streaming.stateStore.stateSchemaFilesThreshold" en un número mayor o revierta las modificaciones del esquema de estado.
STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY
La operación del almacén de estado=<operationType> no se admite en la familia de columnas que faltan=<colFamilyName>.
STATE_STORE_VALUE_SCHEMA_EVOLUTION_THRESHOLD_EXCEEDED
El número de evoluciones del esquema de estado supera el número máximo de evoluciones <numSchemaEvolutions> de esquema de estado, <maxSchemaEvolutions>, permitidas para esta familia de columnas.
Familia de columnas incorrecta: <colFamilyName>
Establezca "spark.sql.streaming.stateStore.valueStateSchemaEvolutionThreshold" en un número mayor o revierta las modificaciones del esquema de estado.
STATE_STORE_VALUE_SCHEMA_NOT_COMPATIBLE
El esquema de valor proporcionado no coincide con el esquema existente en el estado del operador.
Esquema existente=<storedValueSchema>; esquema proporcionado=<newValueSchema>.
Para ejecutar la consulta sin validación de esquema, establezca spark.sql.streaming.stateStore.stateSchemaCheck en false.
Tenga en cuenta que la ejecución sin validación de esquemas puede tener un comportamiento no determinista.
STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED
No se admite la columna de ordenación de tamaño variable con name=<fieldName> en index=<index> para el codificador de análisis de intervalos.
STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST
La columna <staticName> de partición estática también se especifica en la lista de columnas.
STDS_COMMITTED_BATCH_UNAVAILABLE
No se encontró ningún lote confirmado, ubicación del punto de control: <checkpointLocation>. Asegúrese de que la consulta se ha ejecutado y ha confirmado todos los microlotes antes de detenerla.
STDS_CONFLICT_OPTIONS
Las opciones <options> no se pueden especificar juntas. Especifique la opción.
STDS_FAILED_TO_READ_OPERATOR_METADATA
No se pudieron leer los metadatos del operador para checkpointLocation=<checkpointLocation> y batchId=<batchId>.
El archivo no existe o el archivo está dañado.
Vuelva a ejecutar la consulta de streaming para construir los metadatos del operador e informe a las comunidades o proveedores correspondientes si el error persiste.
STDS_FAILED_TO_READ_STATE_SCHEMA
No se pudo leer el esquema de estado. El archivo no existe o el archivo está dañado. opciones: <sourceOptions>.
Vuelva a ejecutar la consulta de streaming para construir el esquema de estado e informe a las comunidades o proveedores correspondientes si el error persiste.
STDS_INVALID_OPTION_VALUE
Valor no válido para la opción de origen '<optionName>':
Para obtener más información, consulte STDS_INVALID_OPTION_VALUE.
STDS_MIXED_CHECKPOINT_FORMAT_VERSIONS_NOT_SUPPORTED
No se admite la lectura del estado en distintas versiones de formato de punto de control.
startBatchId=<startBatchId>, endBatchId=<endBatchId>.
startFormatVersion=<startFormatVersion>, endFormatVersion=<endFormatVersion>.
STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE
El estado no tiene ninguna partición. Compruebe que la consulta apunta al estado válido. Opciones: <sourceOptions>
STDS_OFFSET_LOG_UNAVAILABLE
El registro de desplazamiento de <batchId> no existe, ubicación del punto de control: <checkpointLocation>.
Especifique el identificador de lote que está disponible para realizar consultas: puede consultar los identificadores de lote disponibles mediante el origen de datos de metadatos de estado.
STDS_OFFSET_METADATA_LOG_UNAVAILABLE
Los metadatos no están disponibles para el registro de desplazamiento de <batchId>; ubicación del punto de control: <checkpointLocation>.
Parece que el punto de control solo se ejecuta con versiones anteriores de Spark. Ejecute la consulta de streaming con la versión reciente de Spark para que Spark construya los metadatos de estado.
STDS_REQUIRED_OPTION_UNSPECIFIED
Se debe especificar '<optionName>'.
STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS
La Ejecución Adaptable de Consultas no está soportada para operadores con estado en Structured Streaming.
STREAMING_CHECKPOINT_METADATA_ERROR
Error con metadatos de punto de control de streaming.
Para obtener más información, consulte STREAMING_CHECKPOINT_METADATA_ERROR
STREAMING_CHECKPOINT_PIN_BATCH_ERROR
No se pudo realizar la operación de anclaje para la consulta de streaming con la ubicación del punto de comprobación=<checkpointLocation> en batchId=<batchId>.
Para obtener más información, consulte STREAMING_CHECKPOINT_PIN_BATCH_ERROR
STREAMING_CHECKPOINT_REWIND_ERROR
No se pudo realizar la operación de rebobinado para la consulta de streaming con la ubicación del punto de comprobación=<checkpointLocation>.
Para obtener más información, consulte STREAMING_CHECKPOINT_REWIND_ERROR
STREAMING_CHECKPOINT_REWIND_OPTIONS_ERROR
Error durante la operación de rebobinado del punto de control de streaming.
Para obtener más información, consulte STREAMING_CHECKPOINT_REWIND_OPTIONS_ERROR
STREAMING_FROM_MATERIALIZED_VIEW
No se puede transmitir desde la vista materializada <viewName>. No se admite el streaming desde vistas materializadas.
STREAMING_OUTPUT_MODE
Modo de salida de streaming no válido: <outputMode>.
Para obtener más información, consulte STREAMING_OUTPUT_MODE
STREAMING_QUERY_EVOLUTION_ERROR
Error de evolución de consultas de streaming:
Para obtener más información, consulte STREAMING_QUERY_EVOLUTION_ERROR
STREAMING_RATE_SOURCE_OFFSET_VERSION_MISMATCH
Espere la versión <expectedVersion> de la compensación de origen de tasa, pero obtuvo la versión <actualVersion>. Para continuar, establezca la opción "version" en <expectedVersion> en las opciones de origen de tarifas. Por ejemplo, spark.readStream.format("rate").option("version", "<expectedVersion>").
STREAMING_RATE_SOURCE_V2_CAMBIO_NO_SOPORTADO_ENTRE_PARTICIONES
El número de particiones (<prevNum>) usadas en el microbatch anterior es diferente del número actual de particiones (<currNum>). Puede haber dos razones posibles:
La opción "numPartitions" del origen de velocidad se cambia durante el reinicio de la consulta.
El tamaño del clúster puede cambiar durante el reinicio de la consulta.
Establezca explícitamente la opción "numPartitions" del origen de velocidad a <prevNum> para corregir este problema.
STREAMING_RATE_SOURCE_V2_RAMPUP_TIME_UNSUPPORTED
La opción "rampUpTime" no es compatible con la versión 2 de la tarifa. Para usar esta opción, establezca la opción "version" en 1. Por ejemplo, spark.readStream.format("rate").option("version", "1").
STREAMING_REAL_TIME_MODE
El modo en tiempo real de streaming tiene la siguiente limitación:
Para obtener más información, consulte STREAMING_REAL_TIME_MODE
PROPAGACIÓN_DE_MARCADO_DE_AGUA_EN_FLUJO_TIEMPO_REAL
La propagación de marcas de agua en tiempo real de streaming tiene la siguiente limitación:
Para obtener más información, consulte STREAMING_REAL_TIME_WATERMARK_PROPAGATION
STREAMING_SINK_DELIVERY_MODE
Modo de entrega del receptor de streaming no válido: <deliveryMode>.
Para obtener más información, consulte STREAMING_SINK_DELIVERY_MODE
STREAMING_SKIP_OFFSETS_INVALID_RANGE
Intervalo de desplazamiento de omisión no válido: el desplazamiento <endOffset> final es menor que el desplazamiento <startOffset>inicial. Corrija este intervalo de desplazamiento e inténtelo de nuevo.
STREAMING_STATEFUL_OPERATOR_MISSING_STATE_DIRECTORY
No se puede reiniciar la consulta de streaming con operadores con estado porque el directorio de estado está vacío o falta.
Esto suele ocurrir cuando se han eliminado los archivos de estado o la consulta de streaming se ejecutó anteriormente sin operadores con estado, pero se reiniciaron con operadores con estado.
Quite los operadores con estado, use una nueva ubicación de punto de control o restaure los archivos de estado que faltan.
STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA
El nombre del operador con estado de streaming no coincide con el operador en los metadatos de estado. Es probable que esto ocurra si el usuario agrega, quita o cambia el operador con estado de la consulta de streaming existente.
Operadores con estado en los metadatos: [<OpsInMetadataSeq>]; Operadores con estado en el lote actual: [<OpsInCurBatchSeq>].
STREAMING_TABLE_NEEDS_REFRESH
la tabla de streaming <tableName> debe actualizarse para ejecutar <operation>.
Si la tabla se crea a partir de DBSQL, ejecute REFRESH STREAMING TABLE.
Si una canalización crea la tabla en Canalizaciones declarativas de Spark de Lakeflow, ejecute una actualización de canalización.
STREAMING_TABLE_NOT_SUPPORTED
Las tablas de streaming solo se pueden crear y actualizar en Canalizaciones declarativas de Spark de Lakeflow y Databricks SQL Warehouse.
STREAMING_TABLE_OPERATION_NOT_ALLOWED
No se permite la operación <operation>:
Para obtener más información, consulte STREAMING_TABLE_OPERATION_NOT_ALLOWED.
STREAMING_TABLE_QUERY_INVALID
la tabla de streaming <tableName> solo se puede crear desde una consulta de streaming. Agregue la palabra clave STREAM a la cláusula FROM para convertir esta relación en una consulta de streaming.
STREAM_NOT_FOUND_FOR_KINESIS_SOURCE
No se encuentra la secuencia de Kinesis <streamName> en <region>.
Inicie una nueva consulta que apunte al nombre de secuencia correcto.
STRUCT_ARRAY_LENGTH_MISMATCH
La fila de entrada no tiene el número esperado de valores requeridos por el esquema. Los campos <expected> son obligatorios mientras se proporcionan valores <actual>.
ST_INVALID_ALGORITHM_VALUE
Valor del algoritmo de interpolación perimetral no válido o no admitido: '<alg>'.
ST_INVALID_CRS_VALUE
Valor CRS (sistema de referencia de coordenadas) no válido o no admitido: '<crs>'.
ST_INVALID_SRID_VALUE
Valor SRID (identificador de referencia espacial) no válido o no admitido: <srid>.
SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT
La suma de la LIMIT cláusula y la OFFSET cláusula no deben ser mayores que el valor entero máximo de 32 bits (2.147.483.647), pero se encontró el límite = <limit>, offset = <offset>.
SYNC_METADATA_DELTA_ONLY
El comando reparar metadatos de sincronización de tablas solo se admite para la tabla delta.
SYNC_SRC_TARGET_TBL_NOT_SAME
El nombre <srcTable> de la tabla de origen debe ser el mismo que el nombre <destTable>de la tabla de destino.
SYNTAX_DISCONTINUED
Compatibilidad con la cláusula o palabra clave: <clause> se ha interrumpido en este contexto.
Para obtener más información, consulte SYNTAX_DISCONTINUED
ARGUMENTOS_TABLA_NO_PERMITIDOS
TABLE Los parámetros no se admiten en <routineType>.
TABLE_NOT_VALID_SECONDARY_INDEX
No se pudo ejecutar el DESCRIBE SEARCH INDEX comando porque la tabla <tableName> no es un índice válido <indexType> . Actualice el comando para usar un índice válido y vuelva a intentarlo.
TABLE_OR_VIEW_ALREADY_EXISTS
No se puede crear una tabla o vista <relationName> porque ya existe.
Elija otro nombre, quite el objeto existente, agregue la IF NOT EXISTS cláusula para tolerar objetos preexistentes, agregue la cláusula OR REPLACE para reemplazar la vista materializada existente o agregue la cláusula OR REFRESH para actualizar la tabla de streaming existente.
TABLE_OR_VIEW_NOT_FOUND
No se encuentra la tabla o vista <relationName> . Compruebe la ortografía y corrección del esquema y el catálogo.
Si no ha calificado el nombre con un esquema, compruebe la salida de current_schema() o califique el nombre con el esquema y el catálogo correctos.
Para tolerar el error al quitarlo, use DROP VIEW IF EXISTS o DROP TABLE IF EXISTS.
Para obtener más información, consulte TABLE_OR_VIEW_NOT_FOUND
TABLE_TYPE_INCOMPATIBLE_WITH_ABAC_POLICY
El tipo de tabla de <tableName>, <tableType>, no admite directivas de ABAC.
Quite las directivas y vuelva a intentarlo.
TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS
No se puede <action> la función SQL definida por el usuario <functionName> con argumentos TABLE porque esta funcionalidad aún no se ha implementado.
TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON
No se pudo analizar la función de tabla definida por el usuario de Python: <msg>
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL
Error al evaluar la función de tabla <functionName> porque sus metadatos de tabla <requestedMetadata>, pero la llamada de función <invalidFunctionCallProperty>.
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID
No se pudo evaluar la función <functionName> de tabla porque sus metadatos de tabla no eran válidos; <reason>.
TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS
Hay demasiados argumentos de tabla para la función con valores de tabla.
Permite un argumento de tabla, pero se obtuvo <num>.
Si quiere permitirlo, establezca "spark.sql.allowMultipleTableArguments.enabled" en "true"
TABLE_WITH_ID_NOT_FOUND
No se encuentra la tabla con identificador <tableId> . Compruebe la corrección del UUID.
TASK_WRITE_FAILED
Error de tarea al escribir filas en <path>.
TEMP_CHECKPOINT_LOCATION_NOT_SUPPORTED
No se admiten ubicaciones implícitas para puntos de control temporales de streaming en el área de trabajo actual; por favor, especifique una ubicación de punto de control explícitamente.
Para display(), establezca la ubicación del punto de control mediante:
display(df, checkpointLocation = "your_path")
Para todas las demás consultas de streaming, use:
.option("checkpointLocation", "your_path").
TEMP_TABLE_CREATION_LEGACY_WITH_QUERY
CREATE TEMPORARY TABLE
...
AS ... no se admite aquí, use CREATE TEMPORARY VIEW en su lugar.
TEMP_TABLE_CREATION_MUTUAL_EXCLUSIVE_SPECS
CREATE TEMPORARY TABLE no admite la especificación <unsupportedSpec>de .
Para obtener más información, consulte TEMP_TABLE_CREATION_MUTUAL_EXCLUSIVE_SPECS
TEMP_TABLE_CREATION_NAME_RESERVED
No se puede crear una tabla <tableName> temporal porque comienza con un prefijo <reservedPrefix>de nombre reservado. Elija otro nombre y vuelva a intentarlo.
TEMP_TABLE_CREATION_NOT_SUPPORTED_IN_COMPUTE
CREATE TEMPORARY TABLE [AS ... ] no se admite con el tipo de proceso actual. Use Databricks SQL (DBSQL) para crear tablas temporales locales de sesión en su lugar.
TEMP_TABLE_CREATION_REQUIRES_SINGLE_PART_NAME
La creación de una tabla temporal local de sesión requiere un nombre de tabla compuesto por una sola parte, pero tiene <tableName>. Actualice el comando para usar un solo nombre de tabla de partes y vuelva a intentarlo.
TEMP_TABLE_CREATION_UNSUPPORTED_LEGACY_SYNTAX_WITH_HINTS
CREATE TEMPORARY TABLE
...
USING
...
AS ... no se admite. Para crear una tabla temporal, quite la USING cláusula y vuelva a intentarlo.
TEMP_TABLE_DELETION_MUTUAL_EXCLUSIVE_SPECS
DROP TEMPORARY TABLE no admite especificar <unsupportedSpec>, quite esta especificación o elimine una tabla permanente en su lugar mediante el comando DROP TABLE.
TEMP_TABLE_DELETION_REQUIRES_SINGLE_PART_NAME
Eliminar una tabla temporal local de sesión requiere un nombre de tabla de una sola parte, pero tiene <tableName>. Actualice el DROP TEMPORARY TABLE comando para usar un nombre de tabla de una sola parte para quitar una tabla temporal o use DROP TABLE el comando en su lugar para quitar una tabla permanente.
TEMP_TABLE_NOT_FOUND
No se encuentra la tabla <tableName> temporal en la sesión actual. Compruebe la ortografía y la corrección del nombre de la tabla y vuelva a intentar la consulta o comando.
Para tolerar el error al soltar, use DROP TEMP TABLE IF EXISTS.
TEMP_TABLE_NOT_SUPPORTED_WITH_DATABRICKS_JOBS
Todavía no se admiten las tablas temporales en Databricks Jobs. Use en Databricks Notebooks en su lugar y póngase en contacto con el soporte técnico de Databricks para obtener más información.
TEMP_TABLE_NOT_SUPPORTED_WITH_HMS
No se admite la operación <operation> de tabla temporal en Metastore de Hive.
TEMP_TABLE_OPERATION_NOT_SUPPORTED
Las operaciones en la tabla <tableName> temporal local de sesión no están permitidas.
Para obtener más información, consulte TEMP_TABLE_OPERATION_NOT_SUPPORTED
TEMP_TABLE_OPERATION_NOT_SUPPORTED_IN_V1_COMMAND
<operation> en tablas temporales no se admite con comandos V1. Establezca "spark.sql.legacy.useV1Command" en false y vuelva a intentarlo.
TEMP_TABLE_OR_VIEW_ALREADY_EXISTS
No se puede crear la tabla o vista <relationName> temporal porque ya existe.
Elija otro nombre, quite o reemplace el objeto existente.
TEMP_TABLE_REPLACE_NOT_SUPPORTED
[CREATE OR] REPLACE TEMPORARY TABLE no se admite. Para reemplazar una tabla temporal existente, colóquela con DROP TEMPORARY TABLE ... [IF EXISTS] y vuelva a crearlo con CREATE TEMPORARY TABLE ... .
TEMP_TABLE_REQUIRES_DATABRICKS_ENV
Las operaciones en tablas temporales locales de sesión requieren el entorno de Databricks.
TEMP_TABLE_REQUIRES_DELTA
Las operaciones en tablas temporales locales de sesión requieren que se habilite el catálogo delta. Por favor, active el catálogo Delta y vuelva a intentarlo.
TEMP_TABLE_REQUIRES_UC
Las operaciones en tablas temporales locales de sesión requieren unity Catalog. Habilite el catálogo de Unity en el entorno en ejecución y vuelva a intentarlo.
TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS
CREATE TEMPORARY VIEW o las API de conjunto de datos correspondientes solo aceptan nombres de vista de una sola parte, pero se obtuvo <actualName>.
THETA_INVALID_INPUT_SKETCH_BUFFER
Llamada no válida a <function>; solo se admiten búferes de croquis de Theta válidos como entradas (como las producidas por la theta_sketch_agg función).
THETA_INVALID_LG_NOM_ENTRIES
Llamada no válida a <function>; el lgNomEntries valor debe estar entre <min> y <max>, ambos incluidos: <value>.
THETA_LG_NOM_ENTRIES_MUST_BE_CONSTANT
Llamada no válida a <function>; el lgNomEntries valor debe ser un valor constante, pero tiene una expresión no constante.
TRAILING_COMMA_IN_SELECT
Coma final detectada en la cláusula SELECT. Quite la coma final antes de la FROM cláusula .
TRANSACTION_CDF_SCHEMA_WITH_RESERVED_COLUMN_NAME
La fuente de distribución de datos modificados no se puede habilitar en una transacción porque una tabla contiene un nombre de columna reservado (<column_name>).
Para continuar, asegúrese de que la tabla usa solo nombres de columna no reservados.
TRANSACTION_CDF_SETTING_HIGH_WATERMARK_NOT_ALLOWED
No se permite establecer manualmente el límite máximo de las identidades de CDC.
TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE
Se ha detectado un cambio simultáneo de metadatos en el objeto <table>.
ROLLBACK Ejecute y vuelva a intentar esta transacción. Details:
Para obtener más información, consulte TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE
TRANSACTION_CONTEXT_MISMATCH
Se detectó una inconsistencia en el contexto de transacción entre el hilo actual y la sesión de Spark. Esto suele ocurrir cuando una sesión de Spark se comparte entre varios subprocesos. Por favor, use una sesión y un hilo dedicados para cada transacción, y confirme o revierta la transacción en su hilo antes de reutilizar la sesión y el hilo para una nueva transacción. Details:
Para obtener más información, consulte TRANSACTION_CONTEXT_MISMATCH
TRANSACTION_MAX_COMMIT_TIMESTAMP_EXCEEDED
La transacción no se puede confirmar porque se supera la marca de tiempo máxima de confirmación. maxCommitTimestamp:<maxCommitTimestampMs> commitTimestamp:<commitTimestampMs>
TRANSACTION_NOT_SUPPORTED
Error al ejecutar la instrucción.
Para obtener más información, consulte TRANSACTION_NOT_SUPPORTED
TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT
Se ha anulado la transacción actual.
ROLLBACK TRANSACTION Ejecute antes de continuar. Motivo de anulación:
Para obtener más información, consulte TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT
TRANSFORM_WITH_STATE_USER_FUNCTION_ERROR
Error en la función <function> definida por el usuario de StatefulProcessor. Motivo: <reason>.
TRANSPOSE_EXCEED_ROW_LIMIT
El número de filas supera el límite permitido de <maxValues> para TRANSPOSE. Si esto era intencionado, configure <config> en al menos el número actual de filas.
TRANSPOSE_INVALID_INDEX_COLUMN
Columna de índice no válida para TRANSPOSE porque: <reason>
TRANSPOSE_NO_LEAST_COMMON_TYPE
La transposición requiere que las columnas que no sean de índice compartan un tipo común mínimo, pero <dt1> y <dt2> no lo hacen.
TRIGGER_INTERVAL_INVALID
El intervalo del desencadenador debe ser una duración positiva que se puede convertir en segundos enteros. Se recibió: <actual> segundos.
TUPLE_IS_EMPTY
Debido a la compatibilidad limitada de la tupla de Scala, no se admite la tupla vacía.
TUPLE_SIZE_EXCEEDS_LIMIT
Debido a la compatibilidad limitada de la tupla de Scala, no se admiten tuplas con más de 22 elementos.
UC_BUCKETED_TABLES
Las tablas con cubos no se admiten en el catálogo de Unity.
UC_CATALOG_NAME_NOT_PROVIDED
En el caso del catálogo de Unity, especifique explícitamente el nombre del catálogo. Por ejemplo, SHOW GRANT your.address@email.com ON CATALOG principal.
UC_COMMAND_NOT_SUPPORTED
Los comandos: <commandName> no se admiten en el catálogo de Unity.
Para obtener más información, consulte UC_COMMAND_NOT_SUPPORTED
UC_COMMAND_NOT_SUPPORTED_IN_SERVERLESS
Los comandos <commandName> no son compatibles con los clústeres del catálogo de Unity en un entorno sin servidor. En su lugar, use clústeres compartidos o de usuario único.
UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE
Los comandos <commandName> no son compatibles con los clústeres de Unity Catalog en modo de acceso compartido. En su lugar, use el modo de acceso de usuario único.
UC_CONNECTION_NOT_FOUND_FOR_FILE_SYSTEM_SOURCE_ACCESS
No se pudo encontrar una conexión UC válida para acceder <path> después de evaluar <connectionNames>.
Asegúrese de que al menos una conexión UC válida esté disponible para acceder a la ruta de acceso de destino.
Errores detallados para las conexiones evaluadas:
<connectionErrors>
UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED
No se admite el tipo de credencial especificado.
UC_DATASOURCE_NOT_SUPPORTED
El formato del origen <dataSourceFormatName> de datos no se admite en el Catálogo de Unity.
UC_DATASOURCE_OPTIONS_NOT_SUPPORTED
Las opciones del origen de datos no se admiten en el Catálogo de Unity.
UC_DEPENDENCY_DOES_NOT_EXIST
La dependencia no existe en el catálogo de Unity:
<errorMessage>
UC_EXTERNAL_VOLUME_MISSING_LOCATION
La cláusula LOCATION debe estar presente para el volumen externo. Compruebe la sintaxis 'CREATE EXTERNAL VOLUME...LOCATION ...' para crear un volumen externo.
UC_FAILED_PROVISIONING_STATE
Error en la consulta porque intentó hacer referencia a la tabla <tableName> , pero no pudo hacerlo: <failureReason>. Actualice la tabla <tableName> para asegurarse de que está en un estado de aprovisionamiento activo y vuelva a intentar la consulta.
UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED
No se admite la creación de una tabla en el catálogo de Unity con esquema <schemeName> de archivos.
En su lugar, cree una conexión de origen de datos federado mediante el CREATE CONNECTION comando para el mismo proveedor de tablas y, a continuación, cree un catálogo basado en la conexión con un CREATE FOREIGN CATALOG comando para hacer referencia a las tablas que contiene.
UC_HIVE_METASTORE_DISABLED_EXCEPTION
La operación intentó usar Metastore<identifier> de Hive, que está deshabilitada debido a que el acceso heredado está desactivado en su cuenta o área de trabajo. Compruebe el catálogo predeterminado en la sesión actual y la configuración predeterminada del espacio de nombres. Si necesita acceder a Hive Metastore, pida al administrador que configure la federación de Metastore de Hive a través del catálogo de Unity.
UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED
La vista de federación de Metastore de Hive no admite dependencias en varios catálogos. La vista <view> del catálogo de federación del metastore de Hive debe usar dependencias del catálogo hive_metastore o spark_catalog, pero su dependencia <dependency> está en otro catálogo <referencedCatalog>. Actualice las dependencias para satisfacer esta restricción y vuelva a intentar la consulta o comando.
UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED
La federación de Metastore de Hive no está habilitada en este clúster.
No se admite el acceso al catálogo <catalogName> en este clúster
UC_INVALID_DEPENDENCIES
Las dependencias de <securable> se registran como <storedDeps> mientras se analizan como <parsedDeps>. Esto probablemente se produjo mediante un uso incorrecto de una API que no es de SQL.
Para obtener más información, consulte UC_INVALID_DEPENDENCIES
UC_INVALID_NAMESPACE
Los espacios de nombres anidados o vacíos no se admiten en el catálogo de Unity.
UC_INVALID_REFERENCE
Un objeto no-Unity-Catalog <name> no puede ser referenciado en objetos del Catálogo de Unity.
UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED
La función de escritura de Unity Catalog Lakehouse Federation no está habilitada para el proveedor <provider> en este clúster.
UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED
El volumen administrado no acepta la cláusula LOCATION. Compruebe la sintaxis 'CREATE VOLUME ...' para crear un volumen administrado.
UC_NOT_ENABLED
El catálogo de Unity no está habilitado en este clúster.
UC_QUERY_FEDERATION_NOT_ENABLED
La federación de consultas del catálogo de Unity no está habilitada en este clúster.
UC_RESOLVED_DBFS_PATH_MISMATCH
Error en la consulta porque intentó hacer referencia a <objectType> <name> pero no pudo hacerlo: la ruta <resolvedHmsPath> de acceso de DBFS resuelta no coincide con la ubicación <ucStorageLocation>de almacenamiento del catálogo de Unity.
SECRETO_UC_NO_ACTIVADO
La compatibilidad con los secretos del Unity Catalog no está habilitada.
UC_SECRETO_YA_EXISTE
No se puede crear el secreto <name> porque ya existe.
Elija otro nombre, quite o reemplace el objeto existente o agregue la IF NOT EXISTS cláusula para tolerar objetos preexistentes.
UC_SECRET_NOT_FOUND
El secreto <name> no existe. Use "SHOW SECRETS" para enumerar los secretos disponibles.
UC_SERVICE_CREDENTIALS_NOT_ENABLED
Las credenciales de servicio no están habilitadas en este clúster.
UC_TABLE_METADATA_OUT_OF_SYNC
No se puede consultar la tabla <tableName> porque los metadatos de la tabla no están sincronizados en el catálogo. Repare la tabla ejecutando "MSK REPAIR TABLE <tableName> SYNC METADATA" para sincronizar primero los metadatos.
UC_UNCAUGHT_CLIENT_EXCEPTION
Se encontró un error HTTP inesperado al comunicarse con el back-end del catálogo de Unity de Databricks. Código de error: <errCode>. Mensaje: <message>
UC_VOLUMES_NOT_ENABLED
La compatibilidad con volúmenes de catálogo de Unity no está habilitada en esta instancia.
UC_VOLUMES_NOT_SUPPORTED
No se admiten volúmenes para esta operación. La ruta de acceso especificada era "<path>".
UC_VOLUMES_SHARING_NOT_ENABLED
La compatibilidad con el uso compartido de volúmenes no está habilitada en esta instancia.
UC_VOLUME_NOT_FOUND
El volumen <name> no existe. Use "SHOW VOLUMES" para enumerar los volúmenes disponibles.
UDF_ENVIRONMENT_ERROR
No se pudieron instalar las dependencias de UDF para <udfName> debido a un error del sistema.
Para obtener más información, consulte UDF_ENVIRONMENT_ERROR
UDF_ENVIRONMENT_USER_ERROR
No se pudieron instalar dependencias de UDF para <udfName>.
Para obtener más información, consulte UDF_ENVIRONMENT_USER_ERROR
UDF_ERROR
SQLSTATE: ninguno asignado
Error en la ejecución de la función <fn>
Para obtener más información, consulte UDF_ERROR
UDF_LIMITS
Se infringieron uno o varios límites de UDF.
Para obtener más información, consulte UDF_LIMITS
UDF_MAX_COUNT_EXCEEDED
Se superó el límite de UDF para toda la consulta de <maxNumUdfs> UDF (limitado durante la versión preliminar pública). Se encontró <numUdfs>. Las UDF eran: <udfNames>.
UDF_PYSPARK_ERROR
El trabajo de Python se abandonó inesperadamente
Para obtener más información, consulte UDF_PYSPARK_ERROR
UDF_PYSPARK_UNSUPPORTED_TYPE
PySpark UDF <udf> (<eval-type>) no se admite en clústeres en modo de acceso compartido.
UDF_PYSPARK_USER_CODE_ERROR
Error de ejecución.
Para obtener más información, consulte UDF_PYSPARK_USER_CODE_ERROR
UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE
El valor predeterminado del parámetro no se admite para la función definida por el <functionType> usuario.
UDF_USER_CODE_ERROR
Error en la ejecución de la función <fn> .
Para obtener más información, consulte UDF_USER_CODE_ERROR
UDTF_ALIAS_NUMBER_MISMATCH
El número de alias proporcionados en la AS cláusula no coincide con el número de columnas de salida por el UDTF.
Número de alias esperado: <aliasesSize>, pero obtuvo <aliasesNames>.
Asegúrese de que el número de alias proporcionados coincide con el número de columnas que genera el UDTF.
UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD
No se pudo evaluar la función de tabla definida por el usuario porque su método "analyze" devolvió una orderingColumn solicitada cuya expresión de nombre de columna incluía un alias innecesario; quite este alias <aliasName>y vuelva a intentar la consulta.
UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS
No se pudo evaluar la función de tabla definida por el usuario porque su método "analyze" devolvió una expresión "select" solicitada (<expression>) que no incluye un alias correspondiente; actualice el UDTF para especificar un alias allí y vuelva a intentar la consulta.
UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE
No se puede convertir el tipo SQL <toType> al tipo Protobuf <protobufType>.
UNABLE_TO_FETCH_HIVE_TABLES
No se pueden capturar tablas de la base de datos de Hive: <dbName>. Nombre de clase de error: <className>.
UNABLE_TO_INFER_PIPELINE_TABLE_SCHEMA
No se pudo deducir el esquema de la tabla <tableName> de sus flujos ascendentes.
Modifique los flujos que escriben en esta tabla para que sus esquemas sean compatibles.
Esquema inferido hasta ahora:
<inferredDataSchema>
Esquema incompatible:
<incompatibleDataSchema>
UNABLE_TO_INFER_SCHEMA
No se puede deducir el esquema para <format>. Debe especificarse manualmente.
No autenticado
La solicitud no tiene credenciales de autenticación válidas para la operación.
UNAUTHORIZED_ACCESS
Acceso no autorizado:
<report>
UNBOUND_SQL_PARAMETER
Se encontró el parámetro unbound: <name>. Corrija args y proporcione una asignación del parámetro a funciones de constructor de colección o literal de SQL, como map(), array(), struct().
UNCLOSED_BRACKETED_COMMENT
Se encontró un comentario entre corchetes no cerrado. Por favor, anexe */ al final del comentario.
UNEXPECTED_INPUT_TYPE
El parámetro <paramIndex> de la función <functionName> requiere el <requiredType> tipo , pero <inputSql> tiene el tipo <inputType>.
UNEXPECTED_INPUT_TYPE_OF_NAMED_PARAMETER
El <namedParamKey> parámetro de la función <functionName> requiere el <requiredType> tipo , pero <inputSql> tiene el tipo <inputType>.<hint>
UNEXPECTED_OPERATOR_IN_STREAMING_VIEW
Operador <op> inesperado en la instrucción CREATE VIEW como origen de streaming.
Una consulta de vista de streaming debe constar solo de SELECT, WHERElas operaciones , y UNION ALL .
UNEXPECTED_POSITIONAL_ARGUMENT
No se puede invocar la rutina <routineName> porque contiene argumentos posicionales después de los argumentos con nombre asignados a <parameterName>; por favor, reorganice los argumentos para que los posicionales vengan primero, y luego intente realizar la consulta nuevamente.
UNEXPECTED_SERIALIZER_FOR_CLASS
La clase <className> tiene un serializador de expresiones inesperado. Se esperaba "STRUCT" o "IF", que devuelve "STRUCT" pero se encontró <expr>.
UNION_NOT_SUPPORTED_IN_RECURSIVE_CTE
El operador UNION aún no se admite en expresiones de tabla comunes recursivas (las cláusulas WITH que hacen referencia a sí mismas, directa o indirectamente). Utilice UNION ALL en su lugar.
UNIQUE_CONSTRAINT_DISABLED
La característica de restricción única está deshabilitada. Para habilitarlo, establezca "spark.databricks.sql.dsv2.unique.enabled" como true.
UNKNOWN_FIELD_EXCEPTION
Se encontró <changeType> durante el análisis sintáctico: <unknownFieldBlob>, que se puede corregir con un reintento automático: <isRetryable>
Para obtener más información, consulte UNKNOWN_FIELD_EXCEPTION
UNKNOWN_POSITIONAL_ARGUMENT
La invocación de rutina <routineName> contiene un argumento <sqlExpr> posicional desconocido en la posición <pos>. Esto no es válido.
UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT
Se encontró un tipo primitivo desconocido con id <id> en un valor variante.
UNKNOWN_PROTOBUF_MESSAGE_TYPE
Intentando tratar <descriptorName> como un mensaje, pero resultó ser <containingType>.
UNPIVOT_REQUIRES_ATTRIBUTES
UNPIVOT requiere que todas las expresiones <given> especificadas sean columnas cuando no se aportan expresiones <empty>. Estas no son columnas: [<expressions>].
UNPIVOT_REQUIRES_VALUE_COLUMNS
Debe especificarse al menos una columna de valor para UNPIVOT, todas las columnas especificadas como identificadores.
UNPIVOT_VALUE_DATA_TYPE_MISMATCH
Las columnas de valor anulación de dinamización deben compartir al menos un tipo menos común; algunos tipos no lo hacen: [<types>].
UNPIVOT_VALUE_SIZE_MISMATCH
Todas las columnas de valor anulación de dinamización deben tener el mismo tamaño que los nombres de columna de valor (<names>).
UNRECOGNIZED_PARAMETER_NAME
No se puede invocar la rutina <routineName> porque la llamada rutinaria incluía una referencia de argumento con nombre para el argumento denominado <argumentName>, pero esta rutina no incluye ninguna firma que contenga un argumento con este nombre. ¿Te refieres a uno de los siguientes? [<proposal>].
UNRECOGNIZED_SQL_TYPE
Tipo de SQL no reconocido: nombre: <typeName>, id: <jdbcType>.
UNRECOGNIZED_STATISTIC
No se reconoce la estadística <stats> . Las estadísticas válidas incluyen count, count_distinct, approx_count_distinct, mean, stddev, min, maxlos valores de percentil y . Percentil debe ser un valor numérico seguido de "%" , dentro del intervalo 0% a 100%.
UNRESOLVABLE_TABLE_VALUED_FUNCTION
No se pudo resolver <name> en una función con valores de tabla.
Asegúrese de que <name> se define como una función con valores de tabla y de que todos los parámetros necesarios se proporcionan correctamente.
Si <name> no está definido, cree la función con valores de tabla antes de usarla.
Para más información sobre cómo definir funciones con valores de tabla, consulte la documentación de Apache Spark.
UNRESOLVED_ALL_IN_GROUP_BY
No se pueden deducir columnas de agrupación para GROUP BY ALL en función de la cláusula select. Especifique explícitamente las columnas de agrupación.
UNRESOLVED_COLUMN
No se puede resolver una columna, variable o parámetro de función con nombre <objectName> .
Para obtener más información, consulte UNRESOLVED_COLUMN
UNRESOLVED_COLUMN_AMONG_FIELD_NAMES
No se puede resolver el nombre de columna "<colName>" entre (<fieldNames>).
UNRESOLVED_FIELD
No se puede resolver un campo con el nombre <fieldName> con la columna de tipo struct <columnPath>.
Para obtener más información, consulte UNRESOLVED_FIELD
UNRESOLVED_INSERT_REPLACE_USING_COLUMN
La columna de REPLACE USING<colName> no se puede resolver en <relationType>.
¿Se refiere a una de las columnas siguientes? [<suggestion>].
UNRESOLVED_MAP_KEY
No se puede resolver la columna <objectName> como una clave de asignación. Si la clave es un literal de cadena, inclúyala entre comillas simples (').
Para obtener más información, consulte UNRESOLVED_MAP_KEY
UNRESOLVED_ROUTINE
No se puede resolver la rutina <routineName> en la ruta <searchPath>de búsqueda .
Compruebe la ortografía de <routineName>, compruebe que la rutina existe y confirme que tiene USE privilegios en el catálogo y el esquema, y EXECUTE en la rutina.
Para obtener más información, consulte UNRESOLVED_ROUTINE
UNRESOLVED_TABLE_PATH
No se puede resolver la ruta de acceso de almacenamiento de la tabla <identifier> .
UNRESOLVED_USING_COLUMN_FOR_JOIN
USING No se puede resolver la columna <colName> en el lado <side> de la unión. Las columnas de lado <side>: [<suggestion>].
UNRESOLVED_VARIABLE
No se puede resolver la variable <variableName> en la ruta de búsqueda <searchPath>.
UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_FILE_FORMAT
No se admite el formato <format> de archivo no estructurado. Los formatos de archivo admitidos son <supportedFormats>.
Actualice format en la expresión <expr> a uno de los formatos admitidos y vuelva a intentar la consulta.
UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_MODEL_OPTION
No se admite la opción de modelo no estructurado ('<option>' -> '<value>'). Los valores admitidos son: <supportedValues>.
Cambie a uno de los valores admitidos y vuelva a intentar la consulta.
UNSTRUCTURED_OCR_COLUMN_NOT_ALLOWED_WITH_METADATA_MODEL_OPTION
El parámetro de función 'ocrText' debe ser o omitirse NULL cuando se especifica la opción 'metadataModel'. Una opción "metadataModel" especificada desencadena la extracción de metadatos, donde se prohíbe una "ocrText" proporcionada.
UNSUPPORTED_ADD_FILE
No admita agregar archivo.
Para obtener más información, consulte UNSUPPORTED_ADD_FILE
UNSUPPORTED_ALTER_COLUMN_PARAMETER
No se admite especificar <parameter> con ALTER <commandTableType> .
UNSUPPORTED_ARROWTYPE
Tipo de flecha <typeName> no compatible.
UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION
La función <funcName> no admite consultas por lotes.
UNSUPPORTED_CALL
No se puede llamar al método "<methodName>" de la clase "<className>".
Para obtener más información, consulte UNSUPPORTED_CALL
UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING
El tipo char/varchar no se puede usar en el esquema de tabla.
Si quiere que Spark los trate como tipo de cadena igual que Spark 3.0 y versiones anteriores, establezca "spark.sql.legacy.charVarcharAsString" en "true".
UNSUPPORTED_CHAR_OR_VARCHAR_COLLATION
El tipo char/varchar <type> no puede tener intercalación especificada.
UNSUPPORTED_CLAUSE_FOR_OPERATION
No se admite <clause> para <operation>.
UNSUPPORTED_COLLATION
No se admite la intercalación <collationName> para:
Para obtener más información, consulte UNSUPPORTED_COLLATION.
UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE
El antecesor común de la ruta de acceso de origen y sourceArchiveDir debe registrarse con UC.
Si ve este mensaje de error, es probable que haya registrado la ruta de acceso de origen y el directorio de archivo de origen en diferentes ubicaciones externas.
Por favor, colóquelos en una sola ubicación externa.
UNSUPPORTED_CONNECT_FEATURE
La característica no se admite en Spark Connect:
Para obtener más información, consulte UNSUPPORTED_CONNECT_FEATURE
UNSUPPORTED_CONSTRAINT_CHARACTERISTIC
La característica de restricción '<characteristic>' no se admite para el tipo de restricción '<constraintType>'.
UNSUPPORTED_CONSTRAINT_CLAUSES
Las cláusulas <clauses> de restricción no se admiten.
UNSUPPORTED_CONSTRAINT_TYPE
Tipo de restricción no admitido. Solo se admiten <supportedConstraintTypes>.
UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY
Tipo de origen de datos no admitido para consultas directas en archivos: <dataSourceType>
UNSUPPORTED_DATATYPE
Tipo de datos <typeName>no admitido.
UNSUPPORTED_DATA_SOURCE_SAVE_MODE
El origen de datos "<source>" no se puede escribir en el modo <createMode>. Por favor, usa el modo "Append" o "Overwrite" en su lugar.
UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE
El <format> origen de datos no admite la columna <columnName> del tipo <columnType>.
UNSUPPORTED_DATA_TYPE_FOR_ENCODER
No se puede crear el codificador para <dataType>. Use otro tipo de datos de salida para UDF o DataFrame.
UNSUPPORTED_DEFAULT_VALUE
DEFAULT No se admiten los valores de columna.
Para obtener más información, consulte UNSUPPORTED_DEFAULT_VALUE
UNSUPPORTED_DESERIALIZER
No se admite el deserializador:
Para obtener más información, consulte UNSUPPORTED_DESERIALIZER
UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
No se puede crear una columna <fieldName> generada con la expresión de generación <expressionStr> porque <reason>.
UNSUPPORTED_EXPR_FOR_OPERATOR
Un operador de consulta contiene una o varias expresiones no admitidas.
Considere reescribirlo para evitar funciones de ventana, funciones de agregación y funciones de generador en la cláusula WHERE.
Expresiones no válidas: [<invalidExprSqls>]
UNSUPPORTED_EXPR_FOR_PARAMETER
Un parámetro de consulta contiene una expresión no admitida.
Los parámetros pueden ser variables o literales.
Expresión no válida: [<invalidExprSql>]
UNSUPPORTED_EXPR_FOR_WINDOW
Expresión <sqlExpr> no admitida dentro de una función de ventana.
UNSUPPORTED_FEATURE
Característica no compatible:
Para obtener más información, consulte UNSUPPORTED_FEATURE
UNSUPPORTED_FN_TYPE
Tipo de función definida por el usuario no compatible: <language>
UNSUPPORTED_GENERATOR
No se admite el generador:
Para obtener más información, consulte UNSUPPORTED_GENERATOR
UNSUPPORTED_GROUPING_EXPRESSION
grouping()/grouping_id() solo se puede usar con GroupingSets/Cube/Rollup.
UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE
<trigger> con la posición inicial <initialPosition> no se admite con el origen de Kinesis.
UNSUPPORTED_INSERT
No se puede insertar en el destino.
Para obtener más información, consulte UNSUPPORTED_INSERT
UNSUPPORTED_JOIN_TYPE
Tipo de combinación no admitido '<typ>'. Entre los tipos de combinación admitidos se incluyen: <supported>.
UNSUPPORTED_MANAGED_TABLE_CREATION
No se admite la creación de una tabla <tableName> administrada mediante el origen de <dataSource> datos. Debe usar el origen de DELTA datos o crear una tabla externa mediante CREATE EXTERNAL TABLE <tableName>...USING <dataSource> ...
UNSUPPORTED_MERGE_CONDITION
La operación MERGE contiene una condición <condName> no admitida.
Para obtener más información, consulte UNSUPPORTED_MERGE_CONDITION.
UNSUPPORTED_METADATA_KEY
Clave de metadatos no admitida: <key>. Claves admitidas: <supportedKeys>.
UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY
La tabla <tableName> tiene una directiva de seguridad de nivel de fila o una máscara de columna que hace referencia indirectamente a otra tabla con una directiva de seguridad de nivel de fila o una máscara de columna; esto no se admite. Secuencia de llamadas: <callSequence>
UNSUPPORTED_OPERATION_FOR_CONTINUOUS_MEMORY_SINK
No se admite la operación <operation> para el sumidero de memoria continua. Si está escribiendo una prueba para el modo de transmisión en tiempo real, considere la posibilidad de usar CheckAnswerWithTimeout frente a otras comprobaciones.
UNSUPPORTED_OVERWRITE
No se puede sobrescribir aquel destino desde el que también se esté leyendo.
Para más información, consulte UNSUPPORTED_OVERWRITE.
UNSUPPORTED_PARTITION_TRANSFORM
Transformación de partición no admitida: <transform>. Las transformaciones admitidas son identity, bucket, y clusterBy. Asegúrese de que la expresión de transformación usa una de estas.
UNSUPPORTED_PIPELINE_SPARK_SQL_COMMAND
'<command>' no se admite en la API spark.sql("...") en la canalización declarativa de Spark.
UNSUPPORTED_PROCEDURE_COLLATION
El procedimiento <procedureName> debe especificar o heredar DEFAULT COLLATION UTF8_BINARY. Utilice CREATE PROCEDURE <procedureName> (...) DEFAULT COLLATION UTF_BINARY ....
UNSUPPORTED_SAVE_MODE
No se admite el modo <saveMode> de guardado para:
Para obtener más información, consulte UNSUPPORTED_SAVE_MODE
UNSUPPORTED_SHOW_CREATE_TABLE
No se admite un SHOW CREATE TABLE comando.
Para obtener más información, consulte UNSUPPORTED_SHOW_CREATE_TABLE.
UNSUPPORTED_SINGLE_PASS_ANALYZER_FEATURE
El analizador de paso único no puede procesar esta consulta o comando porque aún no admite <feature>.
UNSUPPORTED_SQL_UDF_USAGE
No se admite el uso de la función <functionName> SQL en <nodeName> .
UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK
No se admite el modo de salida <outputMode> para <statefulOperator> en los objetos DataFrames y conjuntos de datos de streaming sin marca de agua.
UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
No se admite para transmitir una vista. Reason:
Para más información, consulte UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW.
UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED
No se admiten opciones <options> de streaming para el origen de datos <source> en un clúster compartido. Confirme que las opciones se especifican y se escriben correctamente<prefixHint> y comprueban https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode si hay limitaciones.
UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED
El origen de datos <sink> no se admite como destino de transmisión en un clúster compartido.
UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED
El origen <source> de datos no se admite como origen de streaming en un clúster compartido.
UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION
La función <funcName> no admite el streaming. Quite la STREAM palabra clave .
UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE
<streamReadLimit> no es compatible con la fuente de Kinesis.
UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
Expresión de subconsulta no admitida:
Para más información, consulte UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY.
UNSUPPORTED_TABLE_CHANGE_IN_AUTO_SCHEMA_EVOLUTION
El catálogo de la tabla no admite los cambios <changes> de tabla en la tabla <tableName>.
UNSUPPORTED_TABLE_CHANGE_IN_JDBC_CATALOG
El cambio <change> de tabla no se admite para el catálogo JDBC en la tabla <tableName>. Los cambios admitidos incluyen: AddColumn, RenameColumn, DeleteColumn, UpdateColumnType, UpdateColumnNullability.
UNSUPPORTED_TIMESERIES_COLUMNS
No se admite la creación de una clave principal con columnas timeseries
UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN
No se admite la creación de una clave principal con más de una columna de serie temporal <colSeq>.
UNSUPPORTED_TIME_PRECISION
La precisión <precision> de segundos del tipo de datos TIME está fuera del intervalo admitido [0, 6].
UNSUPPORTED_TIME_TYPE
No se admite el tipo de datos TIME.
UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE
<trigger> no es compatible con la fuente de Kinesis.
UNSUPPORTED_TYPED_LITERAL
No se admiten literales del tipo <unsupportedType> . Estos son los tipos que se admiten: <supportedTypes>.
UNSUPPORTED_UDF_FEATURE
La función <function> usa las siguientes características que requieren una versión más reciente del entorno de ejecución de Databricks: <features>.
<docLink> Consulte para obtener más información.
UNSUPPORTED_UDF_TYPES_IN_SAME_PLACE
Los tipos de UDF no se pueden usar juntos: <types>
UNTYPED_SCALA_UDF
Está usando UDF de Scala sin tipo, que no tiene la información de tipo de entrada.
Spark puede pasar ciegamente null a la clausura de Scala con un argumento de tipo primitivo, y la clausura verá el valor predeterminado del tipo Java para el argumento null, por ejemplo, udf((x: Int) => x, IntegerType), si la entrada es null, el resultado es 0. Para deshacerse de este error, puede:
Usar las APIs tipadas de Scala UDF (sin incluir el tipo de retorno), por ejemplo,
udf((x: Int) => x).use las API de UDF de Java, por ejemplo,
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType), si los tipos de entrada no son primitivos.establezca "spark.sql.legacy.allowUntypedScalaUDF" en "true" y use esta API con precaución.
UPGRADE_NOT_SUPPORTED
La tabla no es apta para la actualización de Hive Metastore al catálogo de Unity. Reason:
Para obtener más información, consulte UPGRADE_NOT_SUPPORTED
USER_DEFINED_FUNCTIONS
La función definida por el usuario no es válida:
Para obtener más información, consulte USER_DEFINED_FUNCTIONS
USER_RAISED_EXCEPTION
<errorMessage>
USER_RAISED_EXCEPTION_PARAMETER_MISMATCH
La raise_error() función se usó para generar la clase de error: <errorClass> que espera parámetros: <expectedParms>.
Los parámetros proporcionados <providedParms> no coinciden con los parámetros esperados.
Asegúrese de proporcionar todos los parámetros esperados.
USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS
La raise_error() función se usó para generar una clase de error desconocida: <errorClass>
USER_SPECIFIED_AND_ACTUAL_SCHEMA_MISMATCH
El esquema especificado por el usuario no coincide con el esquema real:
especificado por el usuario: <schema>, real: <actualSchema>. Si usa
La API DataFrameReader.schema o la creación de una tabla no especifican el esquema.
O bien, si está examinando una tabla existente, colóquela y vuelva a crearla.
ESQUEMA_ESPECIFICADO_POR_EL_USUARIO_Y_ESQUEMA_INFERIDO_NO_COMPATIBLES
La tabla '<tableName>' tiene un esquema especificado por el usuario que no es compatible con el esquema
inferido a partir de su consulta.
<streamingTableHint>
Esquema declarado:
<specifiedSchema>
Esquema inferido:
<inferredDataSchema>
USE_CATALOG_SCHEMA_IN_DEFINER_STORED_PROCEDURE_NOT_SUPPORTED
No se admite la configuración del catálogo o esquema en el procedimiento almacenado de SQL SECURITY DEFINER .
VARIABLE_ALREADY_EXISTS
No se puede crear la variable <variableName> porque ya existe.
Elija un nombre diferente, o elimine o reemplace la variable existente.
VARIABLE_NOT_FOUND
No se encuentra la variable <variableName> . Compruebe la ortografía y corrección del esquema y el catálogo.
Si no ha calificado el nombre con un esquema y un catálogo, compruebe la salida de current_schema() o califique el nombre con el esquema y el catálogo correctos.
Para tolerar el error en la operación de eliminación, use DROP VARIABLE IF EXISTS.
VARIANT_CONSTRUCTOR_SIZE_LIMIT
No se puede construir un valor Variant mayor que 16 MiB. El tamaño máximo permitido de un valor Variant es 16 MiB.
VARIANT_DUPLICATE_KEY
No se pudo compilar la variante debido a una clave <key>de objeto duplicada .
VARIANT_SIZE_LIMIT
No se puede compilar una variante mayor que <sizeLimit> en <functionName>.
Evite cadenas de entrada grandes en esta expresión (por ejemplo, agregue llamadas de función para comprobar el tamaño de la expresión y convertirlo a NULL primero si es demasiado grande).
VERSIONED_CLONE_UNSUPPORTED_TABLE_FEATURE
El historial de la tabla de origen contiene características de tabla no compatibles con el clon versionado en esta versión de DBR: <unsupportedFeatureNames>.
Actualice a una versión más reciente de DBR.
VIEW_ALREADY_EXISTS
No se puede crear la vista <relationName> porque ya existe.
Elija otro nombre, quite o reemplace el objeto existente o agregue la IF NOT EXISTS cláusula para tolerar objetos preexistentes.
VIEW_EXCEED_MAX_NESTED_DEPTH
La profundidad de la vista <viewName> supera la profundidad máxima de resolución de vista (<maxNestedDepth>).
El análisis se anula para evitar errores. Si desea solucionar esto, intente aumentar el valor de "spark.sql.view.maxNestedViewDepth".
VIEW_NOT_FOUND
No se encuentra la vista <relationName>. Compruebe la ortografía y corrección del esquema y el catálogo.
Si no ha calificado el nombre con un esquema, compruebe la salida de current_schema() o califique el nombre con el esquema y el catálogo correctos.
Para tolerar el error en la operación de eliminación, use DROP VIEW IF EXISTS.
VOLUME_ALREADY_EXISTS
No se puede crear el volumen <relationName> porque ya existe.
Elija otro nombre, quite o reemplace el objeto existente o agregue la IF NOT EXISTS cláusula para tolerar objetos preexistentes.
WATERMARK_ADVANCEMENT_STRATEGY
La estrategia de avance de marcas de agua para streaming tiene la siguiente limitación:
Para obtener más información, consulte WATERMARK_ADVANCEMENT_STRATEGY
WINDOW_FUNCTION_AND_FRAME_MISMATCH
La función <funcName> solo se puede evaluar en un marco de ventana ordenado basado en filas con un único desplazamiento: <windowExpr>.
WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE
La función de ventana <funcName> requiere una cláusula OVER.
WITH_CREDENTIAL
WITH CREDENTIAL No se admite la sintaxis para <type>.
WRITE_STREAM_NOT_ALLOWED
Solo se puede llamar a writeStream en conjuntos de datos u objetos DataFrame de streaming.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED
No se pudo ejecutar el comando porque DEFAULT no se admiten valores al agregar nuevo
columnas a tablas Delta existentes previamente; agregue la columna sin un valor predeterminado
primero y, a continuación, ejecute un segundo comando ALTER TABLE ALTER COLUMN SET DEFAULT para aplicarlo
a las futuras filas insertadas.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED
No se pudo ejecutar el comando <commandType> porque asignó un valor DEFAULT de columna,
pero no se ha habilitado la característica de tabla correspondiente. Vuelva a intentar el comando.
después de ejecutar ALTER TABLE tableName SET
TBLPROPERTIES('delta.feature.allowColumnDefaults' = 'supported').
WRONG_COMMAND_FOR_OBJECT_TYPE
La operación <operation> requiere un <requiredType>. Pero <objectName> es un valor <foundType>. En su lugar, use <alternative>.
WRONG_NUM_ARGS
El <functionName> requiere <expectedNum> parámetros, pero el número real es <actualNum>.
Para obtener más información, consulte WRONG_NUM_ARGS
XML_ROW_TAG_MISSING
<rowTag> la opción es necesaria para leer y escribir archivos en formato XML.
XML_UNSUPPORTED_NESTED_TYPES
XML no admite <innerDataType> como tipo interno de <dataType>. Envuelve el <innerDataType> dentro de un campo StructType cuando lo uses dentro de <dataType>.
XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR
Los datos rescatados y la columna comodín no pueden activarse al mismo tiempo. Elimine la opción wildcardColumnName.
ZORDERBY_COLUMN_DOES_NOT_EXIST
La columna <columnName> ZOrderBy no existe.
Delta Lake
DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND
No se encontró SparkSession activo.
DELTA_ACTIVE_TRANSACTION_ALREADY_SET
No se puede establecer un nuevo txn como activo cuando ya está activo uno.
DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED
No se pudo agregar la columna <colName> porque el nombre está reservado.
DELTA_ADDING_DELETION_VECTORS_DISALLOWED
La operación actual intentó agregar un vector de eliminación a una tabla que no permite la creación de nuevos vectores de eliminación. Envíe un informe de errores.
DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED
Todas las operaciones que agregan vectores de eliminación deben establecer la columna tightBounds en las estadísticas como false. Envíe un informe de errores.
DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO
El índice <columnIndex> para agregar columna <columnName> es inferior a 0.
DELTA_ADD_COLUMN_PARENT_NOT_STRUCT
No se puede agregar <columnName> porque su elemento primario no es StructType. Se encontró <other>.
DELTA_ADD_COLUMN_STRUCT_NOT_FOUND
Estructura no encontrada en la posición <position>.
DELTA_ADD_CONSTRAINTS
Utilice ALTER TABLE ADD CONSTRAINT para añadir CHECK restricciones.
DELTA_AGGREGATE_IN_CHECK_CONSTRAINT
Se encuentra <sqlExpr> en una CHECK restricción. No se permiten expresiones de agregado en CHECK restricciones.
DELTA_AGGREGATE_IN_GENERATED_COLUMN
Se encontró <sqlExpr>. Una columna generada no puede usar una expresión de agregado.
DELTA_AGGREGATION_NOT_SUPPORTED
Las funciones de agregación no se admiten en el <operation> <predicate>.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER
No se pudo cambiar la intercalación de la columna <column> porque tiene un índice de filtro de Bloom. Conserve la intercalación existente o quite el índice del filtro de Bloom y después vuelva a intentar el comando para cambiar la intercalación.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY
No se pudo cambiar la intercalación de la columna <column> porque es una columna de agrupación en clústeres. Conserve la intercalación existente o cambie la columna a una columna que no sea agrupada con un ALTER TABLE comando y vuelva a intentarlo para cambiar la intercalación.
DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED
ALTER TABLE CHANGE COLUMN no se admite para cambiar la columna <currentType> a <newType>.
DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED
ALTER TABLE CLUSTER BY solo se admite para la tabla Delta con la agrupación en clústeres Liquid.
DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED
ALTER TABLE CLUSTER BY no se puede aplicar a una tabla con particiones.
DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED
Operación no permitida: ALTER TABLE RENAME no se permite TO para las tablas Delta administradas en S3, ya que la coherencia final en S3 puede dañar el registro de transacciones delta. Si insiste en hacerlo y está seguro de que nunca ha habido una tabla Delta con el nuevo nombre <newName> antes, puede habilitarlo estableciendo <key> para que sea true.
DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
No se puede habilitar la característica de tabla <tableFeature> mediante ALTER TABLE SET TBLPROPERTIES.
CREATE Use OR REPLACE TABLE CLUSTER BY para crear una tabla Delta con agrupación en clústeres.
DELTA_ALTER_TABLE_SET_MANAGED_COPY_OR_MOVE_REQUIRED
ALTER TABLE ... SET MANAGED requiere COPY que se especifique o MOVE para la tabla <table>externa .
DELTA_ALTER_TABLE_SET_MANAGED_DOES_NOT_SUPPORT_UNIFORM_ICEBERG
ALTER TABLE ... SET MANAGED no es compatible con la tabla Uniforme de Apache Iceberg. Deshabilite Uniforme o use SET MANAGED TRUNCATE UNIFORM HISTORY.
DELTA_ALTER_TABLE_SET_MANAGED_FAILED
ALTER TABLE <table> SET MANAGED fracasado.
Para obtener más información, consulte DELTA_ALTER_TABLE_SET_MANAGED_FAILED
DELTA_ALTER_TABLE_SET_MANAGED_NOT_ENABLED
ALTER TABLE
...
SET MANAGED el comando no está habilitado. Póngase en contacto con el equipo de soporte técnico de Databricks para obtener ayuda.
DELTA_ALTER_TABLE_SET_MANAGED_TABLE_NOT_MIGRATABLE
ALTER TABLE <table> SET MANAGED no puede migrar la tabla especificada.
Asegúrese de que la tabla está en un estado válido y vuelva a intentar el comando. Si el problema persiste, póngase en contacto con el soporte técnico de Databricks.
Para obtener más información, consulte DELTA_ALTER_TABLE_SET_MANAGED_TABLE_NOT_MIGRATABLE
DELTA_ALTER_TABLE_SET_MANAGED_UNSUPPORTED_COPY_MOVE_SYNTAX
ALTER TABLE ... SET MANAGED [COPY | MOVE] No se admite la sintaxis para la tabla <table>. En su lugar, use ALTER TABLE ... SET MANAGED.
DELTA_ALTER_TABLE_SET_MANAGED_UNSUPPORTED_FOREIGN_TABLE
La tabla extranjera <table> no se admite para la migración a la tabla administrada por UC: <errorMessage>.
DELTA_ALTER_TABLE_UNSET_MANAGED_DOES_NOT_SUPPORT_COMPATIBILITY_MODE
ALTER TABLE ... UNSET MANAGED no admite la tabla con el modo de compatibilidad habilitado.
Deshabilite el modo de compatibilidad en la tabla antes de ejecutar este comando.
DELTA_ALTER_TABLE_UNSET_MANAGED_DOES_NOT_SUPPORT_UNIFORM
ALTER TABLE ... UNSET MANAGED no admite Uniforme. Deshabilite Uniforme o use UNSET MANAGED TRUNCATE UNIFORM HISTORY.
DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED
<table> no se puede revertir de tabla administrada a tabla externa.
Para más información, consulte DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED
DELTA_ALTER_TABLE_UNSET_MANAGED_NOT_ENABLED
ALTER TABLE
...
UNSET MANAGED el comando no está habilitado. Póngase en contacto con el equipo de soporte técnico de Databricks para obtener ayuda.
DELTA_AMBIGUOUS_DATA_TYPE_CHANGE
No se puede cambiar el tipo de datos de <column> de <from> a <to>. Este cambio contiene eliminaciones de columnas y adiciones, por lo que son ambiguas. Realice estos cambios individualmente mediante ALTER TABLE [ADD | DROP | RENAME] COLUMN.
DELTA_AMBIGUOUS_PARTITION_COLUMN
La columna <column> de partición ambigua puede ser <colMatches>.
DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE
CREATE TABLE contiene dos ubicaciones diferentes: <identifier> y <location>.
Puede quitar la cláusula LOCATION de la instrucción CREATE TABLE o establecer
<config> en true para omitir esta comprobación.
DELTA_ARCHIVED_FILES_IN_LIMIT
La tabla <table> no contiene suficientes registros en archivos no archivados para satisfacer los registros especificados LIMIT<limit> .
DELTA_ARCHIVED_FILES_IN_SCAN
Se encontraron <numArchivedFiles> archivos potencialmente archivados en la tabla <table> que se deben examinar como parte de esta consulta.
No se puede acceder a los archivos archivados. Hora actual hasta que el archivo se configure como <archivalTime>.
Ajuste los filtros de consulta para excluir los archivos archivados.
DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION
No se permite la operación "<opName>" cuando la tabla ha habilitado la fuente de distribución de datos de cambios (CDF) y ha sufrido cambios de esquema mediante DROP COLUMN o RENAME COLUMN.
DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS
No se pueden eliminar los índices de filtro de Bloom para las siguientes columnas no existentes: <unknownColumns>.
DELTA_BLOOM_FILTER_OOM_ON_WRITE
Se ha producido el error OutOfMemoryError al escribir índices de filtro de Bloom para las columnas siguientes: <columnsWithBloomFilterIndices>.
Puede reducir la superficie de memoria de los índices de filtro bloom seleccionando un valor más pequeño para la opción "numItems", un valor mayor para la opción "fpp" o indizando menos columnas.
DELTA_CANNOT_CHANGE_DATA_TYPE
No se puede cambiar el tipo de datos: <dataType>.
DELTA_CANNOT_CHANGE_LOCATION
No se puede cambiar la "ubicación" de la tabla Delta mediante SET TBLPROPERTIES. Utilice ALTER TABLE SET LOCATION en su lugar.
DELTA_CANNOT_CHANGE_PROVIDER
'provider' es una propiedad de tabla reservada y no se puede modificar.
DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL
No se pueden crear índices de filtro bloom para las siguientes columnas no existentes: <unknownCols>.
DELTA_CANNOT_CREATE_LOG_PATH
No se puede crear <path>.
DELTA_CANNOT_DESCRIBE_VIEW_HISTORY
No se puede describir el historial de una vista.
DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN
No se puede eliminar el índice de filtro bloom en una columna no indexada: <columnName>.
DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE
No se puede eliminar la característica de tabla de restricciones CHECK.
Las restricciones siguientes deben quitarse primero: <constraints>.
DELTA_CANNOT_DROP_COLLATIONS_FEATURE
No se puede quitar la característica de tabla de intercalaciones.
Las columnas con intercalaciones no predeterminadas deben modificarse para usar UTF8_BINARY primero: <colNames>.
DELTA_NO_PUEDE_ELIMINAR_LA_CARACTERÍSTICA_DE_METADATOS_DEL_DOMINIO_DESDE_LA_TABLA_ICEBERG_GESTIONADA
No se puede eliminar la característica de la tabla domainMetadata. La tabla <name> es una tabla de Apache Iceberg administrada. DomainMetadata no se puede quitar de las tablas administradas de Apache Iceberg.
DELTA_CANNOT_DROP_GEOSPATIAL_FEATURE
No se puede quitar la característica de tabla geoespacial. Vuelva a crear la tabla o coloque columnas con tipos geometry/geography: <colNames> e inténtelo de nuevo.
DELTA_CANNOT_DROP_VARIANT_FEATURE
DROP FEATURE <feature> no se realizó correctamente. No se puede quitar la característica de tabla variant. Las columnas variant deben quitarse primero: <colNames>.
DELTA_CANNOT_EVALUATE_EXPRESSION
No se puede evaluar la expresión: <expression>.
DELTA_CANNOT_FIND_BUCKET_SPEC
Se espera una tabla Delta con particionamiento, pero no se puede encontrar la especificación del particionamiento en la tabla.
DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION
No se puede generar código para la expresión: <expression>.
DELTA_CANNOT_MODIFY_APPEND_ONLY
Esta tabla está configurada para permitir solo los anexos. Si desea permitir actualizaciones o eliminaciones, use 'ALTER TABLE <table_name> SET TBLPROPERTIES (<config>=false)'.
DELTA_CANNOT_MODIFY_CATALOG_OWNED_DEPENDENCIES
No se pueden invalidar ni anular las propiedades de la tabla de marca de tiempo de confirmación porque esta tabla es propiedad del catálogo. Elimina "delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion" y "delta.inCommitTimestampEnablementTimestamp" de la TBLPROPERTIES cláusula y reintente el comando.
DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES
<Command> no puede modificar ni eliminar las propiedades de la tabla de marcas de tiempo en la confirmación porque las confirmaciones coordinadas están activadas en esta tabla y dependen de ellas. Por favor, quítelos ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") de la TBLPROPERTIES cláusula y luego intente de nuevo el comando.
DELTA_CANNOT_MODIFY_TABLE_PROPERTY
El usuario no puede especificar la configuración <prop> de la tabla Delta.
DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS
<Command> no puede invalidar las configuraciones de confirmaciones coordinadas para una tabla de destino existente. Elimínelos ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview", "delta.coordinatedCommits.tableConf-preview") de la cláusula TBLPROPERTIES y vuelva a intentar el comando.
DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI
Se encontró un URI (<uri>) que no se puede convertir en una ruta de acceso relativa en el registro de transacciones.
DELTA_CANNOT_RELATIVIZE_PATH
Una ruta de acceso (<path>) que no se puede relativizar con la entrada actual que se encuentra en
registro de transacciones. Vuelva a ejecutarlo como:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<userPath>", true)
y, a continuación, también ejecute:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<path>")
DELTA_CANNOT_RENAME_PATH
No se puede cambiar el nombre <currentPath> a <newPath>.
DELTA_CANNOT_REPLACE_MISSING_TABLE
La tabla <tableName> no se puede reemplazar porque no existe. Use CREATE OR REPLACE TABLE para crear la tabla.
DELTA_CANNOT_RESOLVE_CLUSTERING_COLUMN
No se puede resolver la columna <columnName> de clúster en <schema> debido a un error inesperado. Ejecutar ALTER TABLE...CLUSTER BY ... para reparar los metadatos de agrupación en clústeres delta.
DELTA_CANNOT_RESOLVE_COLUMN
No se puede resolver la columna <columnName> en <schema>
DELTA_CANNOT_RESTORE_TABLE_VERSION
No se puede restaurar la tabla a la versión <version>. Versiones disponibles: [<startVersion>, <endVersion>].
DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER
No se puede restaurar la tabla a la marca de tiempo (<requestedTimestamp>), ya que es anterior a la versión más antigua disponible. Por favor, use una marca de tiempo después de (<earliestTimestamp>).
DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER
No se puede restaurar la tabla a la marca de tiempo (<requestedTimestamp>), ya que es después de la versión más reciente disponible. Use una marca de tiempo antes de (<latestTimestamp>).
DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES
<Command> no puede establecer propiedades de tabla de marca de tiempo en confirmación junto con confirmaciones coordinadas, ya que esta última depende de la anterior y establece la anterior internamente. Por favor, quítelos ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") de la TBLPROPERTIES cláusula y luego intente de nuevo el comando.
DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER
No se puede cambiar la ubicación de una tabla que se basa en una ruta de acceso.
DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY
No se puede establecer delta.managedDataSkippingStatsColumns en una tabla de canalizaciones declarativas de Spark que no sea de Lakeflow.
DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_COMMAND
Al habilitar "unity-catalog" como coordinador de confirmaciones, no se puede establecer la configuración "<configuration>" desde el comando . Quítelo de la TBLPROPERTIES cláusula y vuelva a intentarlo.
DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_SESSION
Al habilitar "unity-catalog" como coordinador de confirmación, no se puede establecer la configuración "<configuration>" desde las configuraciones de SparkSession. Desconténtelo ejecutando spark.conf.unset("<configuration>") y vuelva a intentarlo.
DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS
ALTER no puede desactivar las configuraciones de confirmaciones coordinadas. Para degradar una tabla de confirmaciones coordinadas, inténtelo de nuevo con ALTER TABLE [table-name] DROP FEATURE 'coordinatedCommits-preview'.
DELTA_CANNOT_UPDATE_ARRAY_FIELD
No se puede actualizar <tableName> el tipo de campo <fieldName> : actualice el elemento mediante la actualización <fieldName>.elementde .
DELTA_CANNOT_UPDATE_MAP_FIELD
No se puede actualizar <tableName> el tipo de campo <fieldName> : actualice un mapa mediante la actualización <fieldName>.key o <fieldName>.value.
DELTA_CANNOT_UPDATE_OTHER_FIELD
No se puede actualizar el campo <tableName> de tipo <typeName>.
DELTA_CANNOT_UPDATE_STRUCT_FIELD
No es posible actualizar el tipo de campo <tableName><fieldName>, actualice la estructura agregando, eliminando o actualizando sus campos.
DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION
No se pueden usar todas las columnas para las columnas de partición.
DELTA_CANNOT_VACUUM_LITE
VACUUM LITE no puede eliminar todos los archivos aptos, ya que el registro delta no hace referencia a ellos. Por favor, ejecute VACUUM FULL.
DELTA_CANNOT_WRITE_INTO_VIEW
<table> es una vista. No se admiten escrituras en una vista.
DELTA_CAST_OVERFLOW_IN_TABLE_WRITE
No se pudo escribir un valor de tipo <sourceType> en la columna <targetType> de tipo <columnName> debido a un desbordamiento.
Use try_cast en el valor de entrada para tolerar el desbordamiento y devolver NULL en su lugar.
Si es necesario, establezca <storeAssignmentPolicyFlag> en "LEGACY" para omitir este error o establezca <updateAndMergeCastingFollowsAnsiEnabledFlag> como verdadero para revertir al comportamiento anterior y seguir <ansiEnabledFlag> en UPDATE y MERGE.
DELTA_CATALOG_MANAGED_TABLE_UPGRADE_OR_DOWNGRADE_NOT_SUPPORTED
No se admite la actualización o degradación de una tabla administrada por catálogos. Cree una nueva tabla con las características de tabla deseadas en su lugar.
DELTA_CATALOG_MANAGED_TABLE_UPGRADE_WITH_OTHER_PROPERTIES
No se puede combinar la actualización de la tabla <tableName> a administrada por catálogos con otros cambios de propiedad.
Propiedades proporcionadas: <properties>.
DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION
No se puede establecer la configuración delta.enableChangeDataFeed. El cambio de la fuente de distribución de datos desde Delta aún no está disponible.
DELTA_CDC_READ_NULL_RANGE_BOUNDARY
Los parámetros de inicio y finalización de lectura CDC no pueden ser NULL. Proporcione una versión o marca de tiempo válida.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA
La recuperación de cambios de tabla entre la versión <start> y la versión <end> falló debido a un esquema de datos incompatible.
El esquema de lectura está <readSchema> en la versión <readVersion>, pero hemos encontrado un esquema de datos incompatible en la versión <incompatibleVersion>.
Si es posible, recupere los cambios de tabla mediante el esquema de la versión final estableciendo <config> en endVersion, o póngase en contacto con el soporte técnico.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE
Falló la recuperación de cambios de tabla entre la versión <start> y <end> debido a un cambio de esquema incompatible.
El esquema de lectura está <readSchema> en la versión <readVersion>, pero hemos encontrado un cambio de esquema incompatible en la versión <incompatibleVersion>.
Si es posible, consulte los cambios de tabla por separado de la versión <start> a <incompatibleVersion> - 1 y de la versión <incompatibleVersion> a <end>.
DELTA_CHANGE_DATA_FILE_NOT_FOUND
No se encuentra el archivo <filePath> al que se hace referencia en el registro de transacciones. Esto puede ocurrir cuando los datos se han eliminado manualmente del sistema de archivos en lugar de usar la instrucción table DELETE . Esta solicitud parece dirigirse al Flujo de Datos de Cambios. Si ese es el caso, este error puede ocurrir cuando el archivo de datos de cambios está fuera del período de retención y ha sido eliminado por la instrucción VACUUM. Para obtener más información, consulte: <faqPath>
DELTA_CHANGE_TABLE_FEED_DISABLED
No se puede escribir en la tabla con el conjunto delta.enableChangeDataFeed. El cambio de la fuente de distribución de datos desde Delta no está disponible.
DELTA_CHECKPOINT_NON_EXIST_TABLE
No se puede establecer un punto de control para una tabla <path> no existente. ¿Ha eliminado manualmente los archivos en el directorio _delta_log?
DELTA_CLONE_AMBIGUOUS_TARGET
Se proporcionaron dos rutas de acceso como destino CLONE , por lo que es ambiguo cuál usar. Un externo
ubicación externa para CLONE se proporcionó en <externalLocation> al mismo tiempo que la ruta de acceso
<targetIdentifier>.
DELTA_CLONE_INCOMPATIBLE_SOURCE
El origen del clon tiene un formato válido, pero tiene una característica no compatible con Delta.
Para obtener más información, consulte DELTA_CLONE_INCOMPATIBLE_SOURCE
DELTA_CLONE_INCOMPLETE_FILE_COPY
El archivo (<fileName>) no se copió completamente. Tamaño de archivo esperado: <expectedSize>, encontrado: <actualSize>. Para continuar con la operación ignorando la comprobación del tamaño de archivo, establece <config> en falso.
DELTA_CLONE_UNSUPPORTED_SOURCE
Origen de clon "<mode>" no admitido <name>, cuyo formato es <format>.
Los formatos admitidos son "delta", "Apache Incremental" y "parquet".
DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE
Tabla de origen no admitida:
Para más información, consulte DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE
DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET
Tabla de destino no admitida:
Para más información, consulte DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET
DELTA_CLONE_WITH_ROW_TRACKING_WITHOUT_STATS
No se puede clonar superficialmente una tabla sin estadísticas y con el seguimiento de filas habilitado.
Si desea habilitar el seguimiento de filas, primero debe recopilar estadísticas en la tabla de origen mediante la ejecución de:
ANALYZE TABLE nombre_de_tabla COMPUTE DELTA STATISTICS
DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED
CLONE no se admite para la tabla Delta con la agrupación en clústeres liquid para DBR versión < 14.0.
DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED
CLUSTER BY no se admite porque las columnas siguientes: <columnsWithDataTypes> no admiten la omisión de datos.
DELTA_CLUSTERING_COLUMNS_MISMATCH
Las columnas de agrupación en clústeres proporcionadas no coinciden con las de la tabla existente.
proporcionadas:
<providedClusteringColumns>existente:
<existingClusteringColumns>
DELTA_CLUSTERING_COLUMN_MISSING_STATS
La agrupación en clústeres líquidos requiere que las columnas de agrupación en clústeres tengan estadísticas. No se encontraron columnas de agrupación en clústeres '<columns>' en el esquema de estadísticas:
<schema>
DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE
No se permite crear una tabla externa sin agrupación en clústeres líquidos desde un directorio de tabla con agrupación en clústeres líquidos; path: <path>.
DELTA_CLUSTERING_NOT_SUPPORTED
'<operation>' no admite la agrupación en clústeres.
DELTA_CLUSTERING_PHASE_OUT_FAILED
No se puede finalizar el valor <phaseOutType> de la tabla con la característica de tabla <tableFeatureToAdd> (motivo: <reason>). Vuelva a intentar el OPTIMIZE comando.
== Error ==
<error>
DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE
No se permite usar REPLACE para reemplazar una tabla Delta con agrupación en clústeres de Liquid por una tabla con particiones.
DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS
SHOW CREATE TABLE no es compatible con la tabla Delta con agrupación en clústeres de Liquid sin ninguna columna de agrupación en clústeres.
DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS
No se permite la transición de una tabla Delta con agrupación en clústeres de Liquid a una tabla con particiones para la operación <operation>, cuando la tabla existente tiene columnas de agrupación en clústeres no vacías.
ALTER TABLE CLUSTER BY Ejecute NONE para quitar primero las columnas de agrupación en clústeres.
DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE
No se permite el modo de sobrescritura de particiones dinámicas para una tabla Delta con agrupamiento Liquid.
DELTA_CLUSTERING_WITH_PARTITION_PREDICATE
OPTIMIZE el comando para la tabla Delta con Liquid clustering no admite predicados de partición. Quite los predicados: <predicates>.
DELTA_CLUSTERING_WITH_ZORDER_BY
El comando OPTIMIZE de la tabla Delta con agrupación en clústeres de Liquid no puede especificar ZORDER BY. Por favor, quite ZORDER BY (<zOrderBy>).
DELTA_CLUSTER_BY_AUTO_MISMATCH
El valor clusterByAuto proporcionado no coincide con el de la tabla existente.
DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS
CLUSTER BY para agrupación en clústeres de Liquid admite hasta <numColumnsLimit> columnas de agrupación en clústeres, pero la tabla tiene <actualNumColumns> columnas de agrupación en clústeres. Elimine las columnas de agrupación adicionales.
DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED
No se permite especificar CLUSTER BY cuándo no se define el esquema. Defina el esquema de la tabla <tableName>.
DELTA_CLUSTER_BY_WITH_BUCKETING
No se puede especificar la creación de cubos ni la agrupación en clústeres. Elimine CLUSTERED BY INTO BUCKETS / bucketBy si desea crear una tabla Delta con clustering.
DELTA_CLUSTER_BY_WITH_PARTITIONED_BY
No se pueden especificar la agrupación en clústeres ni la creación de particiones. Quite PARTITIONED BY / partitionBy / partitionedBy si desea crear una tabla Delta con agrupación en clústeres.
DELTA_COLLATIONS_NOT_SUPPORTED
No se admiten intercalaciones en Delta Lake.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN
No se admite la omisión de datos para la columna de partición "<column>".
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE
No se admite la omisión de datos para la columna "<column>" de tipo <type>.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET
La propiedad max column id (<prop>) no está establecida en una tabla habilitada para la asignación de columnas.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY
La propiedad max column id (<prop>) en una tabla habilitada para la asignación de columnas es <tableMax>, que no puede ser menor que el identificador máximo de columna para todos los campos (<fieldMax>).
DELTA_COLUMN_MISSING_DATA_TYPE
No se proporcionó el tipo de datos de la columna <colName> .
DELTA_COLUMN_NOT_FOUND
No se puede encontrar la columna <columnName> dada [<columnList>].
DELTA_COLUMN_NOT_FOUND_IN_MERGE
No se puede encontrar la columna "<targetCol>" de la tabla de destino de las columnas INSERT: <colNames>.
INSERT la cláusula debe especificar el valor de todas las columnas de la tabla de destino.
DELTA_COLUMN_NOT_FOUND_IN_SCHEMA
No se pudo encontrar la columna <columnName> en:
<tableSchema>
DELTA_COLUMN_PATH_NOT_NESTED
Se esperaba que <columnPath> fuera un tipo de datos anidado, pero se encontró <other>. Se estaba buscando este
índice de <column> en un campo anidado.
Schema:
<schema>
DELTA_COLUMN_STRUCT_TYPE_MISMATCH
La columna <source> estructurada no se puede insertar en el campo <targetType><targetField> en <targetTable>.
DELTA_COMMIT_INTERMEDIATE_REDIRECT_STATE
No se puede gestionar la confirmación de la tabla dentro del estado de la tabla de redireccionamiento "<state>".
DELTA_COMPACTION_VALIDATION_FAILED
Error en la validación de la compactación de la ruta de acceso <compactedPath> como <newPath>: envíe un informe de errores.
DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE
Se encontró NullType anidado en la columna <columName> que es de <dataType>. Delta no admite la escritura de NullType en tipos complejos.
DELTA_CONCURRENT_APPEND
ConcurrentAppendException: se agregaron archivos a <partition> mediante una actualización simultánea. <retryMsg> <conflictingCommit>
Consulte <docLink> para obtener más detalles.
DELTA_CONCURRENT_DELETE_DELETE
ConcurrentDeleteDeleteException: esta transacción intentó eliminar uno o varios archivos que se eliminaron (por ejemplo <file>) mediante una actualización simultánea. Vuelva a intentar la operación.<conflictingCommit>
Consulte <docLink> para obtener más detalles.
DELTA_CONCURRENT_DELETE_READ
ConcurrentDeleteReadException: esta transacción intentó leer uno o varios archivos que se eliminaron (por ejemplo <file>) mediante una actualización simultánea. Vuelva a intentar la operación.<conflictingCommit>
Consulte <docLink> para obtener más detalles.
DELTA_CONCURRENT_TRANSACTION
ConcurrentTransactionException: este error se produce cuando varias consultas de streaming usan el mismo punto de control para escribir en esta tabla. ¿Ha ejecutado varias instancias de la misma consulta de streaming al mismo tiempo?<conflictingCommit>
Consulte <docLink> para obtener más detalles.
DELTA_CONCURRENT_WRITE
ConcurrentWriteException: una transacción simultánea ha escrito nuevos datos desde que la transacción actual leyó la tabla. Vuelva a intentar la operación.<conflictingCommit>
Consulte <docLink> para obtener más detalles.
DELTA_CONFLICT_SET_COLUMN
Hay un conflicto de estas columnas SET: <columnList>.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND
Durante <command>, no se puede establecer la configuración "<configuration>" desde el comando . Quítelo de la TBLPROPERTIES cláusula y vuelva a intentarlo.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION
Durante <command>, no se puede establecer la configuración "<configuration>" desde las configuraciones de SparkSession. Desconténtelo ejecutando spark.conf.unset("<configuration>") y vuelva a intentarlo.
DELTA_CONSTRAINT_ALREADY_EXISTS
La restricción '<constraintName>' ya existe. Elimine primero la restricción anterior.
Restricción antigua:
<oldConstraint>
DELTA_CONSTRAINT_DATA_TYPE_MISMATCH
Column <columnName> tiene el tipo de datos <columnType> y no se puede alterar al tipo de datos <dataType> porque las siguientes restricciones de comprobación hacen referencia a esta columna.
<constraints>
DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE
No se puede modificar la columna <columnName> porque se hace referencia a esta columna mediante las restricciones check siguientes:
<constraints>
DELTA_CONSTRAINT_DOES_NOT_EXIST
No se puede quitar la restricción <constraintName> inexistente de la tabla <tableName>. Para evitar que se produzca un error, proporcione el parámetro IF EXISTS o establezca la configuración <config> de sesión de SQL en <confValue>.
DELTA_CONVERSION_MERGE_ON_READ_NOT_SUPPORTED
No se admite la conversión de la tabla Merge-On-Read <format> : <path>, <hint>
DELTA_CONVERSION_NO_PARTITION_FOUND
No se encontró información de partición en el catálogo para la tabla <tableName>. ¿Ha ejecutado "MSCK REPAIR TABLE" en la tabla para detectar particiones?
DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN
No se puede convertir la tabla Parquet con la columna de partición intercalada <colName> en Delta.
DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING
La configuración '<config>' no se puede establecer en <mode> cuando se usa CONVERT TO DELTA.
DELTA_CONVERSION_UNSUPPORTED_SCHEMA_CHANGE
Cambios de esquema no admitidos encontrados para <format> la tabla: <path>, <hint>
DELTA_CONVERT_NON_PARQUET_TABLE
CONVERT TO DELTA solo admite tablas en formato parquet, pero estás intentando convertir el origen: <sourceName><tableId>.
DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS
No se puede habilitar el seguimiento de filas sin recopilar estadísticas.
Si desea habilitar el seguimiento de filas, haga lo siguiente:
- Habilitación de la recopilación de estadísticas mediante la ejecución del comando
SET <statisticsCollectionPropertyKey> = verdadero
- Ejecute
CONVERTTODELTAsin la opción NOSTATISTICS.
Si no desea recopilar estadísticas, deshabilite el seguimiento de filas:
- Desactive la habilitación de la característica de tabla de forma predeterminada mediante la ejecución del comando :
RESET <rowTrackingTableFeatureDefaultKey>
- Desactiva la propiedad de la tabla de forma predeterminada mediante la ejecución de:
SET <rowTrackingDefaultPropertyKey> = falso
DELTA_COPY_INTO_TARGET_FORMAT
COPY INTO target debe ser una tabla Delta.
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA
Está intentando crear una tabla externa. <tableName>
desde <path> con Delta, pero el esquema no se especifica cuando
El directorio de entrada está vacío.
Para más información sobre Delta, consulte <docLink>
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG
Está intentando crear una tabla externa <tableName> desde <path> utilizando Delta, pero no hay ningún registro de transacciones presente en <logPath>. Compruebe la tarea anterior para asegurarse de que está escribiendo con formato("delta") y que la ruta de acceso es la raíz de la tabla.
Para más información sobre Delta, consulte <docLink>
DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH
No se admite la creación de una tabla Delta basada en rutas de acceso con una ubicación diferente. Identificador: <identifier>, Ubicación: <location>.
DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION
Debe especificarse el nombre o la ubicación de la tabla.
DELTA_CREATE_TABLE_SCHEME_MISMATCH
El esquema especificado no coincide con el esquema existente en <path>.
== Especificado ==
<specifiedSchema>
== Existente ==
<existingSchema>
== Diferencias ==
<schemaDifferences>
Si su intención es mantener el esquema existente, puede omitir el
esquema del comando create table. De lo contrario, asegúrese de que
el esquema coincida.
DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
No se puede habilitar la característica de tabla <tableFeature> mediante TBLPROPERTIES.
CREATE Use OR REPLACE TABLE CLUSTER BY para crear una tabla Delta con agrupación en clústeres.
DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING
Las columnas de agrupación en clústeres especificadas no coinciden con las columnas de agrupación en clústeres existentes en <path>.
== Especificado ==
<specifiedColumns>
== Existente ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING
La creación de particiones especificada no coincide con la creación de particiones existente en <path>.
== Especificado ==
<specifiedColumns>
== Existente ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY
Las propiedades especificadas no coinciden con las propiedades existentes en <path>.
== Especificado ==
<specifiedProperties>
== Existente ==
<existingProperties>
DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION
No se puede crear la tabla ('<tableId>'). La ubicación asociada ('<tableLocation>') no está vacía y tampoco una tabla Delta.
DELTA_DATA_CHANGE_FALSE
No se pueden cambiar los metadatos de la tabla porque la opción "dataChange" está establecida en false. Operación intentada: "<op>".
DELTA_DELETED_PARQUET_FILE_NOT_FOUND
No se encuentra el archivo <filePath> al que se hace referencia en el registro de transacciones. Este archivo Parquet se podría eliminar por la directiva de retención de datos de Delta.
Duración predeterminada de retención de datos delta: <logRetentionPeriod>. Hora de modificación del archivo Parquet: <modificationTime>. Hora de eliminación del archivo parquet: <deletionTime>. Eliminado en la versión de Delta: <deletionVersion>.
DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS
No es válido confirmar archivos con vectores de eliminación que faltan en la estadística numRecords.
DELTA_DISABLE_SOURCE_MATERIALIZATION_IN_INSERT_REPLACE_ON_OR_USING_NOT_ALLOWED
No se permite deshabilitar la materialización de origen en INSERT REPLACE ON/USING estableciendo "spark.databricks.delta.insertReplaceOnOrUsing.materializeSource" en "none".
DELTA_DISABLE_SOURCE_MATERIALIZATION_IN_MERGE_NOT_ALLOWED
No se permite deshabilitar la materialización del origen en MERGE estableciendo "spark.databricks.delta.merge.materializeSource" en "none".
DELTA_DOMAIN_METADATA_NOT_SUPPORTED
Se detectaron acciones DomainMetadata para los dominios <domainNames>, pero DomainMetadataTableFeature no está habilitada.
DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO
El índice <columnIndex> para eliminar columna es inferior a 0.
DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA
No se puede eliminar una columna de un esquema que tiene una sola columna. Schema:
<schema>
DELTA_DUPLICATE_ACTIONS_FOUND
La operación de fichero '<actionType>' para la ruta <path> se especificó varias veces.
Entra en conflicto con <conflictingPath>.
No es válido que existan múltiples operaciones de archivos con la misma ruta en una sola confirmación.
DELTA_DUPLICATE_COLUMNS_FOUND
Se encontraron columnas <coltype>duplicadas: <duplicateCols>.
DELTA_DUPLICATE_COLUMNS_ON_INSERT
Nombres de columna duplicados en la cláusula INSERT.
DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE
<message>
Quite las columnas duplicadas antes de actualizar la tabla.
DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS
Se encontraron columnas de omisión de datos duplicados: <columns>.
DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR
Error interno: dos acciones DomainMetadata dentro de la misma transacción tienen el mismo dominio <domainName>.
DELTA_DUPLICATE_LOG_ENTRIES_FOUND
El registro Delta está en un estado no válido: <numDuplicates> las rutas de acceso tienen entradas duplicadas en la versión <version>.
RESTORE a una versión antes de la confirmación que introdujo la duplicación o póngase en contacto con el soporte técnico para obtener ayuda.
DELTA_DV_HISTOGRAM_DESERIALIZATON
No se pudo deserializar el histograma de recuentos de registros eliminados durante la comprobación de la integridad de la tabla.
DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED
El modo de sobrescritura de partición dinámica se especifica mediante las opciones de configuración de sesión o escritura, pero está deshabilitado por spark.databricks.delta.dynamicPartitionOverwrite.enabled=false.
DELTA_EMPTY_DATA
Los datos usados en la creación de la tabla Delta no tienen ninguna columna.
DELTA_EMPTY_DIRECTORY
No se encontró ningún archivo en el directorio : <directory>.
DELTA_EXCEED_CHAR_VARCHAR_LIMIT
El valor "<value>" supera la limitación de longitud de tipo char/varchar. Error de comprobación: <expr>.
DELTA_EXTERNAL_METADATA_UNRESOLVED_PROJECTION
La consulta de proyección '<query>' no se puede resolver en el esquema: <schemaTreeString>
DELTA_EXTERNAL_METADATA_UNSUPPORTED_SOURCE
Los metadatos externos no admiten el origen:
Para obtener más información, consulte DELTA_EXTERNAL_METADATA_UNSUPPORTED_SOURCE
DELTA_FAILED_CAST_PARTITION_VALUE
No se pudo convertir el valor <value> de partición en <dataType>.
DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS
No se pudo encontrar <newAttributeName> entre la salida <targetOutputColumns> de destino existente.
DELTA_FAILED_INFER_SCHEMA
No se pudo deducir el esquema de la lista de archivos especificada.
DELTA_FAILED_MERGE_SCHEMA_FILE
No se pudo combinar el esquema del archivo <file>:
<schema>
DELTA_FAILED_OPERATION_ON_SHALLOW_CLONE
No se pudo ejecutar la operación en la tabla <sourceTable> de origen porque el clon superficial todavía existe y se produjo el siguiente error en el clon <targetTable> superficial: <message>
DELTA_FAILED_READ_FILE_FOOTER
No se pudo leer el pie de página del archivo: <currentFile>.
DELTA_FAILED_RECOGNIZE_PREDICATE
No se puede reconocer el predicado '<predicate>'.
DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION
Espere un escaneo completo de la versión más reciente de la fuente Delta, pero se encontró un escaneo histórico de la versión <historicalVersion>.
DELTA_FAILED_TO_MERGE_FIELDS
No se pudieron combinar los campos '<currentField>' y ''<updateField>.
DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH
No se puede operar en esta tabla porque las siguientes características de tabla están habilitadas en metadatos, pero no se muestran en el protocolo: <features>.
DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT
El esquema de tabla requiere la habilitación manual de las siguientes características de tabla: <unsupportedFeatures>.
Para ello, ejecute el siguiente comando para cada una de las características enumeradas anteriormente:
ALTER TABLE
SET TBLPROPERTIES table_name ("delta.feature.feature_name" = "supported")
Reemplace "table_name" y "feature_name" por valores reales.
Características admitidas actuales: <supportedFeatures>.
DELTA_FEATURE_CAN_ONLY_DROP_CHECKPOINT_PROTECTION_WITH_HISTORY_TRUNCATION
No se pudo quitar la funcionalidad Protección de puntos de control.
Esta característica solo se puede quitar truncando el historial.
Inténtelo de nuevo con la TRUNCATE HISTORY opción :
ALTER TABLE
DROP FEATURE table_name checkpointProtectionTRUNCATE HISTORY
DELTA_FEATURE_DROP_CHECKPOINT_FAILED
Error al quitar <featureName> debido a un error en la creación del punto de control.
Inténtelo de nuevo más tarde. El problema persiste, póngase en contacto con el soporte técnico de Databricks.
DELTA_FEATURE_DROP_CHECKPOINT_PROTECTION_WAIT_FOR_RETENTION_PERIOD
La operación no se realizó correctamente porque todavía hay rastros de funciones descartadas.
en el historial de tablas. CheckpointProtection no se puede quitar hasta que estas versiones históricas
hayan expirado.
Para quitar CheckpointProtection, espere a que las versiones históricas
expire y, a continuación, repita este comando. El período de retención de las versiones históricas es
configurado actualmente en <truncateHistoryLogRetentionPeriod>.
DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL
No se puede quitar la característica porque una transacción simultánea modificó la tabla.
Vuelva a intentar la operación.
<concurrentCommit>
DELTA_FEATURE_DROP_DEPENDENT_FEATURE
No se puede quitar la característica <feature> de tabla porque algunas otras características (<dependentFeatures>) de esta tabla dependen de <feature>.
Considere la posibilidad de quitarlos primero antes de quitar esta característica.
DELTA_FEATURE_DROP_FEATURE_IS_DELTA_PROPERTY
No se puede quitar <property> de esta tabla porque se trata de una propiedad de tabla delta y no de una característica de tabla.
DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT
No se puede quitar <feature> de esta tabla porque no está presente actualmente en el protocolo de la tabla.
DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST
No se puede quitar <feature> porque el registro delta contiene versiones históricas que usan la característica.
Espere hasta el período de retención del historial (<logRetentionPeriodKey>=<logRetentionPeriod>)
ha pasado desde que la característica estaba activa por última vez.
Como alternativa, espere a que expire el TRUNCATE HISTORY período de retención (<truncateHistoryLogRetentionPeriod>)
y, a continuación, ejecute:
ALTER TABLE
DROP FEATURE table_name feature_name TRUNCATE HISTORY
DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED
La característica concreta no requiere truncamiento del historial.
DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE
No se puede quitar <feature> porque no se admite quitar esta característica.
Póngase en contacto con el soporte técnico de Databricks.
DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE
No se puede quitar <feature> porque no es compatible con esta versión de Databricks.
Considere la posibilidad de usar Databricks con una versión superior.
DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD
La eliminación <feature> se realizó de forma correcta parcialmente.
La característica ya no se usa en la versión actual de la tabla. Sin embargo, la característica
todavía está presente en versiones históricas de la tabla. No se puede eliminar la función de tabla
del protocolo de tabla hasta que hayan expirado estas versiones históricas.
Para quitar la característica de tabla del protocolo, espere a que las versiones históricas
expire y, a continuación, repita este comando. El período de retención de las versiones históricas es
actualmente configurado como <logRetentionPeriodKey>=<logRetentionPeriod>.
Como alternativa, espere a que expire el TRUNCATE HISTORY período de retención (<truncateHistoryLogRetentionPeriod>)
y, a continuación, ejecute:
ALTER TABLE
DROP FEATURE table_name feature_name TRUNCATE HISTORY
DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION
No se puede habilitar la característica <feature> de tabla porque requiere una versión de protocolo de lectura superior (actual <current>). Considere la posibilidad de actualizar la versión del protocolo de lectura de la tabla a <required>o a una versión que admita características de tabla de lectura. Consulte <docLink> para más información sobre las versiones de protocolo de tabla.
DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION
No se puede habilitar la característica <feature> de tabla porque requiere una versión de protocolo de escritura superior (actual <current>). Considere la posibilidad de actualizar la versión del protocolo de escritura de la tabla a <required>o a una versión que admita características de tabla de escritura. Consulte <docLink> para más información sobre las versiones de protocolo de tabla.
DELTA_FILE_ALREADY_EXISTS
Ruta de acceso del archivo <path>existente.
DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT
No se puede especificar la lista de archivos y la cadena de patrón.
DELTA_FILE_NOT_FOUND
Ruta de acceso del <path>archivo .
DELTA_FILE_NOT_FOUND_DETAILED
No se encuentra el archivo <filePath> al que se hace referencia en el registro de transacciones. Esto ocurre cuando los datos se han eliminado manualmente del sistema de archivos en lugar de usar la instrucción table DELETE . Para obtener más información, consulte: <faqPath>
DELTA_FILE_OR_DIR_NOT_FOUND
Ningún archivo o directorio de este tipo: <path>.
DELTA_FILE_TO_OVERWRITE_NOT_FOUND
Archivo (<path>) que se va a reescribir no se encuentra entre los archivos candidatos:
<pathList>
DELTA_FOUND_MAP_TYPE_COLUMN
Se encontró un elemento MapType. Para tener acceso a la clave o el valor de mapType, especifique una.
of:
<key> o
<value>
seguido del nombre de la columna (solo si esa columna es un tipo de estructura).
por ejemplo, mymap.key.mykey
Si la columna es un tipo básico, mymap.key o mymap.value es suficiente.
Schema:
<schema>
DELTA_FSCK_CANNOT_REPAIR_DELTA_LOG
FSCK no puede reparar la tabla. La tabla no tiene ningún punto de control válido para iniciar la reproducción de registros y no hay suficiente historial de registros para reproducir desde la primera versión.
DELTA_FSCK_CONCURRENT_MODIFICATION
Se detectó una modificación simultánea en la tabla mientras se ejecuta FSCK. Vuelva a intentar el comando FSCK y asegúrese de que ninguna otra operación esté escribiendo en la tabla durante el proceso de reparación.
DELTA_FSCK_DRY_RUN_CANNOT_PROCEED_WITH_INVALID_CHECKPOINTS
FSCK DRY RUN no puede continuar porque se detectaron puntos de control no válidos. Ejecute primero "TABLA FSCK REPAIR TABLEMETADATA SOLO" para reparar los puntos de control.
DELTA_FSCK_DRY_RUN_CANNOT_PROCEED_WITH_MISSING_OR_INVALID_PARTITION_FILES
FSCK DRY RUN no puede continuar porque se detectaron archivos o archivos que faltan con valores de partición no válidos. Ejecute primero "tabla FSCK REPAIR TABLE " para reparar la tabla.
DELTA_FSCK_INVALID_BARRIER_CHECKPOINT
FSCK no puede reparar la tabla. Algunos de los puntos de control no válidos están protegidos y no se pueden quitar. Póngase en contacto con el soporte técnico de Databricks.
DELTA_FSCK_NO_VALID_CHECKPOINT
FSCK no puede reparar la tabla. Todos los puntos de control de esta tabla no son válidos. Póngase en contacto con el soporte técnico de Databricks.
DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH
La columna <columnName> tiene el tipo de datos <columnType> y no se puede modificar al tipo de datos <dataType> porque esta columna es referida por las siguientes columnas generadas:
<generatedColumns>.
DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE
No se puede modificar la columna <columnName> porque está referenciada por las siguientes columnas generadas:
<generatedColumns>.
DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH
El tipo de expresión de la columna <columnName> generada es <expressionType>, pero el tipo de columna es <columnType>.
DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH
Column <currentName> es una columna generada o una columna usada por una columna generada. El tipo de datos es <currentDataType> y no se puede convertir en el tipo <updateDataType>de datos .
DELTA_GEOSPATIAL_NOT_SUPPORTED
Los tipos geoespaciales no se admiten en esta versión de Delta Lake.
DELTA_GEOSPATIAL_SRID_NOT_SUPPORTED
El tipo geoespacial tiene un SRID no admitido: <srid>. Las tablas delta solo admiten valores srid no negativos.
DELTA_ICEBERG_COMPAT_VIOLATION
Se ha producido un error en la validación de IcebergCompatV<version>.
Para obtener más información, consulte DELTA_ICEBERG_COMPAT_VIOLATION
DELTA_ICEBERG_WRITER_COMPAT_VIOLATION
Error en la validación de IcebergWriterCompatV<version> .
Para más información, consulte DELTA_ICEBERG_WRITER_COMPAT_VIOLATION
DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED
ALTER TABLE ALTER COLUMN no se admite para las columnas IDENTITY.
DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT
ALTER TABLE ALTER COLUMN SYNC IDENTITY solo es compatible con Delta.
DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN
No se puede llamar a ALTER TABLE ALTER COLUMN SYNC IDENTITY en columnas que no sean IDENTITY.
DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED
No se admite proporcionar valores para GENERATED ALWAYS AS IDENTITY la columna <colName> .
DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP
El paso de columna IDENTITY no puede ser 0.
DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT
Las columnas IDENTITY solo se admiten con Delta.
DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED
PARTITIONED BY IDENTITY no se admite la columna <colName> .
DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED
ALTER TABLE REPLACE COLUMNS no se admite para la tabla con IDENTITY columnas.
DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
DataType <dataType> no se admite para columnas IDENTITY.
DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED
UPDATE no se admite en columnas IDENTITY<colName>.
DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION
No se puede especificar la columna IDENTITY con una expresión de columna generada.
DELTA_ILLEGAL_OPTION
Valor '<input>' no válido para la opción '<name>', <explain>
DELTA_ILLEGAL_USAGE
No se permite el uso de <option> cuando <operation> una tabla Delta.
DELTA_INCONSISTENT_BUCKET_SPEC
BucketSpec en la tabla particionada Delta no coincide con BucketSpec de los metadatos. Se esperaba: <expected>. Real: <actual>.
DELTA_INCONSISTENT_LOGSTORE_CONFS
(<setKeys>) no se puede establecer en valores diferentes. Establezca solo uno de ellos o establézcalos en el mismo valor.
DELTA_INCORRECT_ARRAY_ACCESS
Acceder incorrectamente a un ArrayType. Use la posición arrayname.element.elementname para
agregarla a una matriz.
DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME
Se encontró un elemento ArrayType. Para acceder a los elementos de un ArrayType, especifique
<rightName> en lugar de <wrongName>.
Schema:
<schema>
DELTA_INCORRECT_GET_CONF
Use getConf() en lugar de conf.getConf().
DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION
El error se produce normalmente cuando la implementación predeterminada de LogStore, que
es, HDFSLogStore, se usa para escribir en una tabla Delta en un sistema de almacenamiento que no es de HDFS.
Para obtener las garantías ACID transaccionales en las actualizaciones de tabla, debe usar la
Implementación correcta de LogStore que es adecuada para su sistema de almacenamiento.
Consulte <docLink> para obtener más información.
DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT
El índice <index> para eliminar columna es igual o mayor que la longitud de estructura: <length>.
DELTA_INDEX_LARGER_THAN_STRUCT
El índice <index> para agregar columna <columnName> es mayor que la longitud de estructura: <length>.
DELTA_INSERT_COLUMN_ARITY_MISMATCH
No se puede escribir en '<tableName>', <columnName>; la tabla de destino tiene <numColumns> columnas y los datos insertados tienen <insertColumns> columnas.
DELTA_INSERT_COLUMN_MISMATCH
La columna <columnName> no se especifica en INSERT.
DELTA_INSERT_REPLACE_ON_AMBIGUOUS_COLUMNS_IN_CONDITION
Las columnas <columnNames> son ambiguas en la condición de INSERT REPLACE ON. Considere la posibilidad de especificar un alias para estas columnas.
DELTA_INSERT_REPLACE_ON_NOT_ENABLED
Póngase en contacto con su representante de Databricks para habilitar ... INSERT INTO...REPLACE ON API de SQL y DataFrame.
DELTA_INSERT_REPLACE_ON_UNRESOLVED_COLUMNS_IN_CONDITION
Las columnas <columnNames> no se pueden resolver en la condición de INSERT REPLACE ON.
DELTA_INVALID_AUTO_COMPACT_TYPE
Tipo de compactación automática no válido: <value>. Los valores permitidos son: <allowed>.
DELTA_INVALID_BUCKET_COUNT
Número de cubos no válido: <invalidBucketCount>. El número de cubos debe ser un número positivo que sea potencia de 2 y al menos 8. Puede usar <validBucketCount> en su lugar.
DELTA_INVALID_BUCKET_INDEX
No se puede encontrar la columna bucket entre las columnas de partición.
DELTA_INVALID_CALENDAR_INTERVAL_EMPTY
El intervalo no puede ser nulo o en blanco.
DELTA_INVALID_CDC_RANGE
El intervalo CDC de principio <start> a fin <end> no era válido. El final no puede ser antes de empezar.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME
El nombre de atributo "<columnName>" contiene caracteres no válidos entre " ,;{}()\n\t=". Use alias para cambiarle el nombre.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES
Se encontraron caracteres no válidos entre ' , ;{}()\n\t=' en los nombres de columna del esquema.
Nombres de columna no válidos: <invalidColumnNames>.
Use otros caracteres e inténtelo de nuevo.
Como alternativa, habilite Column Mapping para seguir usando estos caracteres.
DELTA_INVALID_CHECK_CONSTRAINT_REFERENCES
Se encuentra <colName> en CHECK la restricción . Una restricción check no puede usar una columna inexistente.
DELTA_INVALID_CLONE_PATH
La ubicación de destino de CLONE debe ser una ruta de acceso absoluta o un nombre de tabla. Usar un
ruta de acceso absoluta en lugar de <path>.
DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING
Se encontraron caracteres no válidos entre ' , ;{}()\n\t=' en los nombres de columna del esquema.
Nombres de columna no válidos: <invalidColumnNames>.
No se puede quitar la asignación de columnas cuando hay caracteres no válidos en los nombres de columna.
Cambie el nombre de las columnas para quitar los caracteres no válidos y vuelva a ejecutar este comando.
DELTA_INVALID_FORMAT
Se detectó un formato incompatible.
Se encontró un registro de transacciones para Delta en <deltaRootPath>/_delta_log,
pero está intentando <operation> <path> usando format("<format>"). Debe usar
'format("delta")' al leer y escribir en una tabla delta.
Para más información sobre Delta, consulte <docLink>
DELTA_INVALID_GENERATED_COLUMN_REFERENCES
Una columna generada no puede usar una columna inexistente u otra columna generada.
DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS
Opciones no válidas para escrituras de datos idempotentes: <reason>
DELTA_INVALID_INTERVAL
<interval> no es un valor válido INTERVAL.
DELTA_INVALID_INVENTORY_SCHEMA
El esquema del especificado INVENTORY no contiene todos los campos obligatorios. Los campos obligatorios son: <expectedSchema>
DELTA_INVALID_ISOLATION_LEVEL
nivel de aislamiento '<isolationLevel>' no válido.
DELTA_INVALID_LOGSTORE_CONF
() y (<classConfig><schemeConfig>) no se pueden establecer al mismo tiempo. Establezca solo un grupo de ellos.
DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA
Está intentando crear una tabla administrada. <tableName>
con Delta, pero no se especifica el esquema.
Para más información sobre Delta, consulte <docLink>
DELTA_INVALID_PARTITION_COLUMN
<columnName> no es una columna de partición válida en la tabla <tableName>.
DELTA_INVALID_PARTITION_COLUMN_NAME
Se encontraron columnas de partición que tienen caracteres no válidos entre " , ;{}()\n\t=". Cambie el nombre a las columnas de partición. Esta comprobación se puede desactivar estableciendo spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false), pero esto no se recomienda porque es posible que otras características de Delta no funcionen correctamente.
DELTA_INVALID_PARTITION_COLUMN_TYPE
No se admite el uso de la columna <name> de tipo <dataType> como columna de partición.
DELTA_INVALID_PARTITION_PATH
Un fragmento de ruta de acceso de partición debe tener el formato part1=foo/part2=bar. Ruta de acceso de partición: <path>.
DELTA_INVALID_PROTOCOL_DOWNGRADE
La versión del protocolo no se puede cambiar de (<oldProtocol>) a (<newProtocol>).
DELTA_INVALID_PROTOCOL_VERSION
Versión del protocolo Delta no compatible: la tabla "<tableNameOrPath>" requiere la versión del lector <readerRequired> y la versión del escritor <writerRequired>, pero esta versión de Databricks admite versiones <supportedReaders> de lector y versiones <supportedWriters> de escritor. Actualice a una versión más reciente.
DELTA_INVALID_TABLE_VALUE_FUNCTION
La función <function> es una función con valores de tabla no admitida para las lecturas CDC.
DELTA_INVALID_TIMESTAMP_FORMAT
La marca <timestamp> de tiempo proporcionada no coincide con la sintaxis <format>esperada.
DELTA_LOG_ALREADY_EXISTS
Ya existe un registro delta en <path>.
DELTA_LOG_FILE_NOT_FOUND
No se pueden obtener los archivos de registro delta para construir la versión de la tabla <version> comenzando desde la versión de punto de control <checkpointVersion> en <logPath>.
DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE
Si nunca la eliminó, es probable que la consulta esté retrasada. Elimine su punto de control para reiniciarse desde cero. Para evitar que esto suceda de nuevo, puede actualizar la directiva de retención de la tabla Delta.
DELTA_LOG_JSON_FILE_ACCESS_DENIED
Acceso denegado al leer el archivo de registro JSON delta: <filePath>. Compruebe que tiene permisos de lectura para la ubicación de la tabla Delta.
DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING
Falta el nombre de columna materializado <rowTrackingColumn> para <tableName>.
DELTA_MAX_ARRAY_SIZE_EXCEEDED
Use un límite menor que Int.MaxValue - 8.
DELTA_MAX_COMMIT_RETRIES_EXCEEDED
Se ha producido un error en esta confirmación, ya que se ha intentado <numAttempts> veces, pero no se ha realizado correctamente.
Esto puede deberse a que la tabla Delta se confirma continuamente por muchas confirmaciones
commits.
Confirmación iniciada en la versión: <startVersion>
Error de confirmación en la versión: <failVersion>
Número de acciones que se intentaron confirmar: <numActions>
Tiempo total invertido en intentar esta confirmación: <timeSpent> ms
DELTA_MAX_LIST_FILE_EXCEEDED
La lista de archivos debe tener como máximo <maxFileListSize> entradas, tenía <numFiles>.
DELTA_MERGE_ADD_VOID_COLUMN
No se puede agregar columna <newColumn> con el tipo VOID. Especifique explícitamente un tipo no nulo.
DELTA_MERGE_INCOMPATIBLE_DATATYPE
No se pudieron combinar tipos de datos incompatibles <currentDataType> y <updateDataType>.
DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE
No se pudieron combinar tipos decimales incompatibles con <decimalRanges>.
DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY
Se ha producido un error al mantener el origen de la instrucción materializada MERGE repetidamente.
DELTA_MERGE_MISSING_WHEN
Debe haber al menos una cláusula WHEN en una instrucción MERGE.
DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT
Faltan atributos resueltos <missingAttributes> en <input> el operador <merge>.
DELTA_MERGE_SOURCE_CACHED_DURING_EXECUTION
Error MERGE en la operación porque (parte del) plan de origen fue almacenada en caché mientras se ejecutaba la MERGE operación.
DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY
Clave de asignación inesperada: <unexpectedKeyClass> - <unexpectedKeyObject>.
DELTA_MERGE_UNRESOLVED_EXPRESSION
No se puede resolver <sqlExpr> en <clause> dadas las columnas <cols>.
DELTA_METADATA_CHANGED
MetadataChangedException: la actualización simultánea ha cambiado los metadatos de la tabla Delta. Vuelva a intentar la operación.<conflictingCommit>
Consulte <docLink> para obtener más detalles.
DELTA_MISSING_CHANGE_DATA
Error al obtener datos modificados para el intervalo [<startVersion> , <endVersion>] ya que los datos modificados no eran
registró para la versión [<version>]. Si ha habilitado el flujo de datos de cambios en esta tabla,
use DESCRIBE HISTORY para ver cuándo se ha habilitado por primera vez.
De lo contrario, para iniciar la grabación de datos modificados, use ALTER TABLE table_name SET TBLPROPERTIES
(<key>=true).
DELTA_MISSING_COLUMN
No se encuentra <columnName> en columnas de tabla: <columnList>.
DELTA_MISSING_COMMIT_INFO
Esta tabla tiene habilitada la característica <featureName> que requiere la presencia de la acción CommitInfo en cada confirmación. Sin embargo, falta la acción CommitInfo en la versión de confirmación <version>.
DELTA_MISSING_COMMIT_TIMESTAMP
Esta tabla tiene habilitada la característica <featureName> que requiere la presencia de commitTimestamp en la acción CommitInfo. Sin embargo, este campo no se ha establecido en la versión de commit <version>.
DELTA_MISSING_DELTA_TABLE
<tableName> no es una tabla Delta.
DELTA_MISSING_DELTA_TABLE_COPY_INTO
La tabla no existe. Cree primero una tabla Delta vacía mediante CREATE TABLE <tableName>.
DELTA_MISSING_ICEBERG_CLASS
No se encontró la clase Apache Iceberg. Asegúrese de que está instalada la compatibilidad con Delta Apache Iceberg.
Consulte <docLink> para obtener más detalles.
DELTA_MISSING_NOT_NULL_COLUMN_VALUE
La columna <columnName>, que tiene una restricción NOT NULL, falta en los datos que se están escribiendo en la tabla.
DELTA_MISSING_PARTITION_COLUMN
<columnName> Columna de partición no encontrada en el esquema <columnList>.
DELTA_MISSING_PART_FILES
No se encontraron todos los archivos de partes de la versión de punto de control: <version>.
DELTA_MISSING_PROVIDER_FOR_CONVERT
CONVERT TO DELTA solo admite tablas Parquet. Vuelva a escribir el destino como Parquet.
<path> si es un directorio Parquet.
DELTA_MISSING_ROW_TRACKING_FOR_CDC
Error al obtener los datos modificados para <tableName> ya que no se ha habilitado el seguimiento de filas. Para habilitar el seguimiento de filas, use ALTER TABLE table_name SET TBLPROPERTIES (<key>=true).
DELTA_MISSING_SET_COLUMN
No se encontró la columna SET<columnName> dadas las columnas <columnList>.
DELTA_MISSING_TRANSACTION_LOG
Se detectó un formato incompatible.
Está intentando <operation> <path> usando Delta, pero no hay
registro de transacciones presente. Compruebe el trabajo ascendente para asegurarse de que está escribiendo
usando format("delta") y que está intentando %1$s en la ruta de acceso base de la tabla.
Para más información sobre Delta, consulte <docLink>
DELTA_MODE_NOT_SUPPORTED
No se admite el modo especificado '<mode>'. Los modos admitidos son: <supportedModes>.
DELTA_MULTIPLE_CDC_BOUNDARY
Se proporcionan varios argumentos <startingOrEnding> para la lectura CDC. Proporcione una de las marcas de tiempo <startingOrEnding> o la versión <startingOrEnding>.
DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER
Varias configuraciones de índice de filtro bloom pasadas al comando para la columna: <columnName>.
DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE
No se puede realizar la combinación como varias filas de origen coincidentes e intenta modificar el mismo
fila de destino de la tabla Delta de maneras posiblemente conflictivas. Mediante la semántica de SQL de Merge,
cuando varias filas de origen coinciden en la misma fila de destino, el resultado puede ser ambiguo.
como no está claro qué fila de origen se debe usar para actualizar o eliminar la coincidencia
fila de destino. Puede preprocesar la tabla de origen para eliminar la posibilidad de
varias coincidencias. Consulte la sección
<usageReference>
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND
Durante <command>, ambas configuraciones de confirmaciones coordinadas ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview") se establecen en el comando o ninguna de ellas. Falta: "<configuration>". Especifique esta configuración en la TBLPROPERTIES cláusula o quite la otra configuración y vuelva a intentar el comando.
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION
Durante <command>, ambas configuraciones de confirmaciones coordinadas ("coordinatedCommits.commitCoordinator-preview", "coordinatedCommits.commitCoordinatorConf-preview") se establecen en las configuraciones de SparkSession o ninguna de ellas. Falta: "<configuration>". Establezca esta configuración en SparkSession o desconjunte la otra configuración y vuelva a intentar el comando.
DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE
Los siguientes nombres de columna se reservan solo para el uso interno de la tabla en cubos delta: <names>.
DELTA_NESTED_FIELDS_NEED_RENAME
El esquema de entrada contiene campos anidados que se capitalizan de forma diferente a la tabla de destino.
Deben cambiarse de nombre para evitar la pérdida de datos en estos campos mientras escriben en Delta.
Fields:
<fields>.
Esquema original:
<schema>
DELTA_NESTED_NOT_NULL_CONSTRAINT
El <nestType> tipo del campo <parent> contiene una NOT NULL restricción. Delta no admite NOT NULL restricciones anidadas dentro de matrices o mapas. Para suprimir este error y omitir silenciosamente las restricciones especificadas, establezca <configKey> = true.
Tipo <nestType> analizado:
<nestedPrettyJson>
DELTA_NESTED_SUBQUERY_NOT_SUPPORTED
La subconsulta anidada no se admite en la condición <operation>.
DELTA_NEW_CHECK_CONSTRAINT_VIOLATION
<numRows> las filas de <tableName> infringen la nueva CHECK restricción (<checkConstraint>).
DELTA_NEW_NOT_NULL_VIOLATION
<numRows> las filas de <tableName> infringen la nueva NOT NULL restricción en <colName>.
DELTA_NON_BOOLEAN_CHECK_CONSTRAINT
CHECK la restricción '<name>' (<expr>) debe ser una expresión booleana.
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_CHECK_CONSTRAINT
Se encuentra <expr> en una CHECK restricción. Una CHECK restricción no puede usar una expresión no determinista.
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN
Se encontró <expr>. Una columna generada no puede usar una expresión no determinista.
DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED
No se admiten funciones no deterministas en .<operation> <expression>
DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Cuando hay más de una cláusula MATCHED en una instrucción MERGE, solo la última cláusula MATCHED puede omitir la condición.
DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Cuando hay más de una cláusula NOT MATCHED BY SOURCE en una instrucción MERGE, solo la última cláusula NOT MATCHED BY SOURCE puede omitir la condición.
DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION
Cuando hay más de una cláusula NOT MATCHED en una instrucción MERGE, solo la última cláusula NOT MATCHED puede omitir la condición.
DELTA_NON_PARSABLE_TAG
No se pudo analizar la etiqueta <tag>.
Las etiquetas de archivo son: <tagList>.
DELTA_NON_PARTITION_COLUMN_ABSENT
Los datos escritos en Delta deben contener al menos una columna sin particiones.<details>
DELTA_NON_PARTITION_COLUMN_REFERENCE
El predicado hace referencia a la columna "<columnName>" que no es de partición. Solo se puede hacer referencia a las columnas de partición: [<columnList>].
DELTA_NON_PARTITION_COLUMN_SPECIFIED
Las columnas <columnList> que no tienen particiones se especifican donde solo se esperan columnas de partición: <fragment>.
DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG
El catálogo delta requiere un espacio de nombres de una sola parte, pero <identifier> es de varias partes.
DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_COMMAND
No se admite establecer el coordinador de confirmaciones en "<nonUcCoordinatorName>" desde el comando, ya que las tablas administradas por UC solo pueden tener "unity-catalog" como coordinador de confirmación. Por favor, cambie a "unity-catalog" o quite todas las propiedades de la tabla de confirmaciones coordinadas de la cláusula TBLPROPERTIES y luego vuelva a intentar el comando nuevamente.
DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_SESSION
No se admite establecer el coordinador de confirmaciones en "<nonUcCoordinatorName>" desde las configuraciones de SparkSession, ya que las tablas administradas por UC solo pueden tener "unity-catalog" como coordinador de confirmaciones. Cambie a "unity-catalog" ejecutando spark.conf.set("<coordinatorNameDefaultKey>", "unity-catalog")o quite todas las propiedades de la tabla Confirmaciones coordinadas de las configuraciones de SparkSession ejecutando spark.conf.unset("<coordinatorNameDefaultKey>"), spark.conf.unset("<coordinatorConfDefaultKey>"), spark.conf.unset("<tableConfDefaultKey>")y, a continuación, vuelva a intentar el comando.
DELTA_NON_UC_MANAGED_TABLE_UPGRADE_OR_DOWNGRADE_NOT_SUPPORTED
La tabla <tableName> no está administrada por UC. Solo las tablas administradas por UC se pueden actualizar o degradar a las tablas administradas por catálogos.
DELTA_NOT_A_DATABRICKS_DELTA_TABLE
<table> no es una tabla Delta. Quite primero esta tabla si desea crearla con Databricks Delta.
DELTA_NOT_A_DELTA_TABLE
<tableName> no es una tabla Delta. Quite primero esta tabla si desea volver a crearla con Delta Lake.
DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT
No se encuentra una columna que acepta valores NULL en la estructura: <struct>.
DELTA_NOT_NULL_CONSTRAINT_VIOLATED
NOT NULL restricción infringida para la columna: <columnName>.
DELTA_NOT_NULL_NESTED_FIELD
No se puede agregar un campo anidado que no acepta valores NULL a un elemento primario que admite un valor NULL. Establezca la nulabilidad de la columna primaria en consecuencia.
DELTA_NO_COMMITS_FOUND
No se encontraron confirmaciones en <logPath>.
DELTA_NO_RECREATABLE_HISTORY_FOUND
No se encontraron confirmaciones recreables en <logPath>.
DELTA_NO_REDIRECT_RULES_VIOLATED
Operación no permitida: <operation> no se puede realizar en una tabla con característica de redirección.
No se cumplen las reglas de no redireccionamiento <noRedirectRules>.
DELTA_NO_RELATION_TABLE
No se encontró la tabla <tableIdent> .
DELTA_NO_START_FOR_CDC_READ
No se proporciona startingVersion ni startingTimestamp para la lectura CDC.
DELTA_NULL_SCHEMA_IN_STREAMING_WRITE
Delta no acepta NullTypes en el esquema para escrituras de streaming.
DELTA_ONEOF_IN_TIMETRAVEL
Proporcione "timestampAsOf" o "versionAsOf" para el viaje en el tiempo.
DELTA_ONLY_OPERATION
<operation> solo se admite para las tablas Delta.
DELTA_OPERATION_MISSING_PATH
Proporcione la ruta de acceso o el identificador de tabla para <operation>.
DELTA_OPERATION_NOT_ALLOWED
Operación no permitida: <operation> no se admite para las tablas Delta.
DELTA_OPERATION_NOT_ALLOWED_DETAIL
Operación no permitida: <operation> no se admite para las tablas Delta: <tableName>.
DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION
<operation> no se admite para la columna <colName> con intercalación no predeterminada <collation>.
DELTA_OPERATION_NOT_SUPPORTED_FOR_DATATYPES
<operation> no se admite para los tipos de datos: <dataTypeList>.
DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION
<operation> no se admite para la expresión <exprText> porque usa intercalación no predeterminada.
DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED
<operation> no se admite el comando en una vista temporal que hace referencia a una tabla Delta que contiene columnas generadas. Ejecute el <operation> comando directamente en la tabla Delta.
DELTA_OPERATION_ON_VIEW_NOT_ALLOWED
Operación no permitida: <operation> no se puede realizar en una vista.
DELTA_OPTIMIZE_FULL_NOT_SUPPORTED
OPTIMIZE FULL solo se admite para tablas agrupadas con columnas de agrupación en clústeres no vacías.
DELTA_OVERWRITE_MUST_BE_TRUE
No se puede especificar la opción de copia overwriteSchema sin establecer OVERWRITE = 'true'.
DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE
'overwriteSchema' no se puede usar en el modo de sobrescritura de particiones dinámicas.
DELTA_PARTITION_COLUMN_CAST_FAILED
No se pudo convertir el valor <value> a <dataType> para la columna <columnName>de partición .
DELTA_PARTITION_COLUMN_NOT_FOUND
<columnName> Columna de partición no encontrada en el esquema [<schemaMap>].
DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES
No se puede especificar el esquema de partición al convertir tablas de Apache Iceberg. Se deduce automáticamente.
DELTA_PATH_BASED_ACCESS_TO_CATALOG_MANAGED_TABLE_BLOCKED
No se permite el acceso basado en rutas de acceso para Catalog-Managed tabla: <path>. Acceda a la tabla a través de su nombre y vuelva a intentarlo.
DELTA_PATH_BASED_ACCESS_TO_TABLE_BLOCKED
La tabla en <path> se ha migrado a una tabla administrada del catálogo de Unity y ya no se puede acceder a ella por ruta de acceso. Actualice el cliente para acceder a la tabla por nombre.
DELTA_PATH_DOES_NOT_EXIST
<path> no existe o no es una tabla Delta.
DELTA_PATH_EXISTS
No se puede escribir en la ruta de acceso existente <path> sin establecer OVERWRITE = "true".
DELTA_POST_COMMIT_HOOK_FAILED
La confirmación de la versión de la tabla Delta <version> se realizó correctamente, pero se produjo un error al ejecutar el enlace posterior a la confirmación <name> <message>
DELTA_PROTOCOL_CHANGED
ProtocolChangedException: una actualización simultánea ha cambiado la versión del protocolo de la tabla Delta. <additionalInfo> <conflictingCommit>
Consulte <docLink> para obtener más detalles.
DELTA_PROTOCOL_PROPERTY_NOT_INT
La propiedad de protocolo <key> debe ser un entero. Se encontró <value>.
DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE
No se puede actualizar solo la versión del protocolo de lectura para usar las características de la tabla. La versión del protocolo de escritura debe ser al menos <writerVersion> para continuar. Consulte <docLink> para más información sobre las versiones de protocolo de tabla.
DELTA_READ_TABLE_WITHOUT_COLUMNS
Está intentando leer una tabla <tableName> Delta que no tiene ninguna columna.
Escriba algunos datos nuevos con la opción mergeSchema = true para poder leer la tabla.
DELTA_READ_TIME_CDC_NOT_SUPPORTED_FOR_TABLES_WITH_ACCESS_POLICIES
Está intentando calcular la fuente de datos modificados en <tableName> que tiene definidas las directivas de acceso. La fuente de distribución de datos de cambio de hora de lectura se encuentra actualmente en versión preliminar y no admite CDF en tablas con directivas de acceso. Habilite CDF optimizado para lectura estableciendo la propiedad de tabla "<cdfTableProperty>" en "true" en la tabla.
DELTA_REDIRECT_TARGET_ROW_FILTER_COLUMN_MASK_UNSUPPORTED
No se admite la redirección a una tabla con filtro de fila o máscara de columna. Actualice el código para hacer referencia directamente a la tabla <tableIdent> de destino.
DELTA_REGEX_OPT_SYNTAX_ERROR
Vuelva a comprobar la sintaxis de "<regExpOption>".
DELTA_RELATION_PATH_MISMATCH
La ruta de acceso de relación "<relation>" no coincide con la ruta de acceso de <targetType> "<targetPath>".
DELTA_REORG_MATERIALIZATION_NOT_SUPPORTED_ON_UNPARTITIONED_TABLE
La conversión liquida mediante el comando reorg no se admite en una tabla sin particiones.
DELTA_REORG_PARTITION_MATERIALIZATION_CONFLICT
No se pueden <action> crear particiones de columnas.
<instruction> materialización de columna de partición estableciendo la propiedad de tabla "<tableProperty>" en <value> o la configuración de SQL "<sqlConfig>" en <value>.
DELTA_REORG_UNKNOWN_MODE
Modo desconocido REORG TABLE : <mode>.
DELTA_REPLACE_WHERE_IN_OVERWRITE
No puede usar replaceWhere junto con una sobrescritura por filtro.
DELTA_REPLACE_WHERE_MISMATCH
Los datos escritos no se ajustan a la condición o restricción "<replaceWhere>" de sobrescritura parcial de la tabla.
<message>
DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE
No se puede establecer simultáneamente una expresión 'replaceWhere' y 'partitionOverwriteMode'='dynamic' en las opciones de DataFrameWriter.
DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET
'replaceWhere' no se puede usar con filtros de datos cuando 'dataChange' está establecido en false. Filtros: <dataFilters>.
DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS
No se pueden asignar identificadores de fila sin estadísticas de recuento de filas.
Para recopilar estadísticas de la tabla, ejecute el ANALYZE TABLE comando :
ANALYZE TABLE tableName COMPUTE DELTA STATISTICS
DELTA_ROW_TRACKING_BACKFILL_RUNNING_CONCURRENTLY_WITH_UNBACKFILL
Se detectó una operación de habilitación del seguimiento de filas que se estaba ejecutando simultáneamente con una operación de deshabilitación del seguimiento de filas. Anulación de la operación de deshabilitación. Vuelva a intentar la operación de deshabilitación si es necesario cuando se complete la operación de habilitación.
DELTA_ROW_TRACKING_ILLEGAL_PROPERTY_COMBINATION
Se detectó un estado de tabla no válido. Las propiedades <property1> de la tabla y <property2> se establecen en true. El problema se puede resolver deshabilitando cualquiera de las dos propiedades de la tabla.
Póngase en contacto con el soporte técnico de Databricks para obtener más ayuda.
DELTA_SCHEMA_CHANGED
Se detectó un cambio de esquema:
esquema de origen de streaming: <readSchema>
esquema de archivo de datos: <dataSchema>
Intente reiniciar la consulta. Si este problema se repite en los reinicios de la consulta sin
que se produzcan avances, significa que ha realizado un cambio de esquema incompatible y tiene que iniciar la
consulta desde cero mediante un nuevo directorio de punto de comprobación.
DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS
Se detectó un cambio de esquema en la versión <version>:
esquema de origen de streaming: <readSchema>
esquema de archivo de datos: <dataSchema>
Intente reiniciar la consulta. Si este problema se repite en los reinicios de la consulta sin
que se produzcan avances, significa que ha realizado un cambio de esquema incompatible y tiene que iniciar la
consulta desde cero mediante un nuevo directorio de punto de comprobación. Si el problema persiste después de
Al cambiar a un nuevo directorio de punto de control, es posible que tenga que modificar el existente.
Opción "startingVersion" o "startingTimestamp" para empezar desde una versión más reciente que
<version> con un nuevo directorio de punto de control.
DELTA_SCHEMA_CHANGED_WITH_VERSION
Se detectó un cambio de esquema en la versión <version>:
esquema de origen de streaming: <readSchema>
esquema de archivo de datos: <dataSchema>
Intente reiniciar la consulta. Si este problema se repite en los reinicios de la consulta sin
que se produzcan avances, significa que ha realizado un cambio de esquema incompatible y tiene que iniciar la
consulta desde cero mediante un nuevo directorio de punto de comprobación.
DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS
El esquema de la tabla Delta ha cambiado de forma incompatible desde dataframe
o se creó el objeto DeltaTable. Vuelva a definir el objeto DataFrame o DeltaTable.
Changes:
<schemaDiff> <legacyFlagMessage>
DELTA_SCHEMA_NOT_PROVIDED
No se proporciona el esquema de tabla. Proporcione el esquema (definición de columna) de la tabla al usar REPLACE la tabla y no se proporciona una AS SELECT consulta.
DELTA_SCHEMA_NOT_SET
No se ha establecido el esquema de tabla. Escriba datos en él o use CREATE TABLE para establecer el esquema.
DELTA_SET_LOCATION_SCHEMA_MISMATCH
El esquema de la nueva ubicación delta es diferente del esquema de tabla actual.
esquema original:
<original>
esquema de destino:
<destination>
Si se trata de un cambio previsto, puede desactivar esta comprobación mediante la ejecución de:
%%sql set <config> = true
DELTA_SHALLOW_CLONE_FILE_NOT_FOUND
No se encuentra el archivo <filePath> al que se hace referencia en el registro de transacciones. Esto puede ocurrir cuando los datos se han eliminado manualmente del sistema de archivos en lugar de usar la instrucción table DELETE . Esta tabla parece ser un clon superficial, si es así, este error puede producirse cuando la tabla original de la que se clonó esta tabla ha eliminado un archivo que el clon sigue usando. Si desea que los clones sean independientes de la tabla original, use un clon DEEP en su lugar.
DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY
Las propiedades predefinidas que comienzan por <prefix> no se pueden modificar.
DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
La propiedad de destinatario <property> restringe los datos que no se aplican al destinatario actual de la sesión.
Para más información, consulte DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED.
DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW
<operation> no se puede usar en vistas de Delta Sharing compartidas entre cuentas.
DELTA_SHARING_INVALID_PROVIDER_AUTH
Tipo <authenticationType> de autenticación no válido para el proveedor <provider>.
DELTA_SHARING_INVALID_RECIPIENT_AUTH
Tipo <authenticationType> de autenticación no válido para el destinatario <recipient>.
DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME
Nombre no válido para hacer referencia a un elemento <type> dentro de un recurso compartido. Puede usar el nombre de <type> dentro del recurso compartido siguiendo el formato de [esquema].[<type>], o también puede usar el nombre completo original de la tabla siguiendo el formato de [catálogo].[esquema].[>tipo>].
Si no está seguro de qué nombre utilizar, puede ejecutar "SHOW ALL IN SHARE [share]" para encontrar el nombre del <type> que desea eliminar: la columna "name" tiene el nombre del <type> dentro del recurso compartido y la columna "shared_object" tiene el nombre completo original del <type>.
RECIPIENT_TOKENSDELTA_SHARING_MAXIMUM__EXCEEDED
Hay más de dos tokens para el destinatario <recipient>.
DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND
La propiedad Recipient <property> no existe.
RECIPIENT_TOKENSDELTA_SHARING__NOT_FOUND
Faltan tokens de destinatario para el destinatario <recipient>.
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN
Las columnas sin particionar <badCols> se especifican para SHOW PARTITIONS.
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE
SHOW PARTITIONS no se permite en una tabla que no tenga particiones: <tableName>.
DELTA_SHREDDED_WRITES_DISABLED
No se puede ejecutar la REORG APPLY(SHRED) operación porque las escrituras fragmentadas están deshabilitadas.
DELTA_SHREDDING_TABLE_PROPERTY_DISABLED
Se intentó escribir variantes fragmentadas, pero la tabla no admite escrituras fragmentadas. Considere la posibilidad de establecer la propiedad table enableVariantShredding en true.
DELTA_SOURCE_IGNORE_DELETE
Se detectaron datos eliminados (por ejemplo <removedFile>) del origen de streaming en la versión <version>. Actualmente no se admite. Si desea omitir eliminaciones, establezca la opción "ignoreDeletes" en "true". La tabla de origen se puede encontrar en la ubicación <dataPath>.
DELTA_SOURCE_TABLE_IGNORE_CHANGES
Se detectó una actualización de datos (por ejemplo <file>) en la tabla de origen en la versión <version>. Actualmente no se admite. Si esto va a ocurrir con regularidad y está bien omitir los cambios, establezca la opción "skipChangeCommits" en "true". Si desea que se refleje la actualización de datos, reinicie esta consulta con un directorio de punto de control nuevo o realice una actualización completa si usa canalizaciones declarativas de Spark de Lakeflow. Si necesita controlar estos cambios, cambie a MV. La tabla de origen se puede encontrar en la ubicación <dataPath>.
DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET
Proporcione "<version>" o "<timestamp>".
DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND
<statsType> No se encontraron estadísticas para la columna en los metadatos de Parquet: <columnPath>.
DELTA_STATS_NOT_FOUND_IN_FILE
Estadísticas no encontradas en el archivo: <filePath>. Ejecute 'ANALYZE TABLE [tableName] COMPUTE DELTA STATISTICS' para calcular estadísticas.
DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION
Hemos detectado uno o varios cambios de esquema no aditivos (<opType>) entre la versión Delta <previousSchemaChangeVersion> y <currentSchemaChangeVersion> en la fuente de transmisión Delta.
Changes:
<columnChangeDetails>
Compruebe si desea propagar manualmente los cambios de esquema a la tabla receptora antes de continuar con el procesamiento de flujos mediante el esquema finalizado en la versión <currentSchemaChangeVersion>.
Una vez que haya corregido el esquema de la tabla de receptor o haya decidido que no es necesario corregirlo, puede establecer las siguientes configuraciones para desbloquear los cambios de esquema no aditivos y continuar el procesamiento de flujos.
Uso de las opciones del lector de DataFrame:
Para desbloquear esta transmisión concreta solo para esta serie de cambios de esquema:
<unblockChangeOptions>
Para desbloquear esta transmisión específica:
<unblockStreamOptions>
Uso de configuraciones de SQL:
Para desbloquear esta transmisión concreta solo para esta serie de cambios de esquema:
<unblockChangeConfs>
Para desbloquear esta transmisión específica:
<unblockStreamConfs>
Para desbloquear todas las transmisiones:
<unblockAllConfs>
DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT
No se pudo obtener la instantánea del log de Delta para la versión inicial al comprobar los cambios en el esquema de asignación de columnas. Elija otra versión de inicio o habilite a la fuerza la lectura en streaming bajo su propio riesgo estableciendo "<config>" en "true".
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE
La lectura en streaming no se admite en tablas con cambios de esquema incompatibles con la lectura (por ejemplo, cambiar el nombre, eliminar o modificar el tipo de datos).
Para obtener más información y posibles pasos siguientes para resolver este problema, revise la documentación en . <docLink>
Esquema de lectura: <readSchema> Esquema de datos incompatible: <incompatibleSchema>.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG
La lectura en streaming no se admite en tablas con cambios de esquema incompatibles con la lectura (por ejemplo, cambiar el nombre, eliminar o modificar el tipo de datos).
Proporcione una "schemaTrackingLocation" para habilitar la evolución no aditiva del esquema para el procesamiento de corriente Delta.
Consulte <docLink> para obtener más detalles.
Esquema de lectura: <readSchema> Esquema de datos incompatible: <incompatibleSchema>.
DELTA_STREAMING_METADATA_EVOLUTION
El esquema, la configuración de tabla o el protocolo de la tabla Delta ha cambiado durante el streaming.
Se ha actualizado el esquema o el registro de seguimiento de metadatos.
Reinicie la secuencia para continuar con el procesamiento mediante los metadatos actualizados.
Esquema actualizado: <schema>.
Configuraciones de tabla actualizadas: <config>.
Protocolo de tabla actualizado: <protocol>
DELTA_STREAMING_SCHEMA_EVOLUTION_NO_SOPORTADO_FILTRO_DE_FILA_COLUMN_MASKS
El streaming desde la tabla <tableId> de origen con el seguimiento de esquemas no admite filtros de fila ni máscaras de columna.
Quite los filtros de fila o las máscaras de columna o deshabilite el seguimiento de esquemas.
DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT
Se detectó una ubicación de esquema en conflicto "<loc>" mientras se transmitía desde la tabla o la tabla ubicada en "<table>".
Otra secuencia puede reutilizar la misma ubicación de esquema, lo que no está permitido.
Proporcione una nueva ruta de acceso única schemaTrackingLocation o streamingSourceTrackingId como opción para el lector para una de las secuencias de esta tabla.
DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT
La ubicación del esquema '<schemaTrackingLocation>' debe colocarse en la ubicación del punto de control '<checkpointLocation>'.
DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED
Archivo de registro incompleto en el registro de esquema de origen de streaming Delta en "<location>".
Es posible que el registro de esquema esté dañado. Elija una nueva ubicación de esquema.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID
Se detectó un identificador de tabla Delta incompatible al intentar leer la secuencia Delta.
Id. de tabla persistente: <persistedId>, Id. de tabla: <tableId>
Es posible que se haya reutilizado el registro de esquema. Elija una nueva ubicación de esquema.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA
Se detectó un esquema de partición incompatible al intentar leer la secuencia delta.
Esquema persistente: <persistedSchema>, esquema de partición delta: <partitionSchema>
Elija una nueva ubicación de esquema para reinicializar el registro de esquema si ha cambiado manualmente el esquema de partición de la tabla recientemente.
DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA
No se pudo inicializar el registro de esquema de origen de streaming Delta porque
Hemos detectado un cambio de esquema o protocolo incompatible al ejecutar un lote de transmisión desde la versión <a> de la tabla a <b>.
DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED
No se pudo analizar el esquema del registro de esquema de origen de streaming Delta.
Es posible que el registro de esquema esté dañado. Elija una nueva ubicación de esquema.
DELTA_STREAMING_SINK_TRANSACTION_NOT_FOUND
No se encontró ninguna transacción para el lote <batchId> en el receptor delta de streaming en las últimas <versionLimit> versiones.
DELTA_STREAMING_SKIP_OFFSETS_INVALID_OFFSET_RANGE
Intervalo de desplazamiento de omisión no válido para delta source range=[<startOffset>, <endOffset>). Corrija este intervalo de desplazamiento e inténtelo de nuevo.
Para obtener más información, consulte DELTA_STREAMING_SKIP_OFFSETS_INVALID_OFFSET_RANGE
DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS
No se puede habilitar la captura de datos modificados en la tabla. La tabla ya contiene
columnas reservadas <columnList> que se
usarán internamente como metadatos para el cambio de la fuente de distribución de datos de la tabla. Para habilitar
Cambie el flujo de datos en la tabla para renombrar o eliminar estas columnas.
DELTA_TABLE_ALREADY_EXISTS
La tabla <tableName> ya existe.
DELTA_TABLE_CONTAINS_RESERVED_CDC_COLUMNS
No se puede calcular la fuente de datos modificados en la tabla. La tabla contiene nombres <columnList> de columna reservados que se usan como columnas de salida para la fuente de distribución de datos modificados de la tabla. Para calcular la fuente de datos modificados en la tabla, cambie el nombre o quite estas columnas.
DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF
Actualmente, DeltaTable.forPath solo admite claves de configuración de Hadoop que comienzan con <allowedPrefixes>, pero recibió <unsupportedOptions>.
DELTA_TABLE_ID_MISMATCH
La tabla Delta en <tableLocation> se ha reemplazado mientras este comando usaba la tabla.
El identificador de tabla era <oldId>, pero ahora es <newId>.
Vuelva a intentar el comando actual para asegurarse de que lee una vista coherente de la tabla.
DELTA_TABLE_INVALID_REDIRECT_STATE_TRANSITION
No es posible actualizar el estado de redirección de la tabla: se ha intentado una transición de estado no válida.
La tabla Delta '<table>' no puede cambiar de '<oldState>' a ''<newState>.
DELTA_TABLE_INVALID_SET_UNSET_REDIRECT
No se puede SET ni UNSET la propiedad de redireccionamiento en <table>: la propiedad actual "<currentProperty>" no coincide con la nueva propiedad "<newProperty>".
DELTA_TABLE_LOCATION_MISMATCH
La ubicación de la tabla <tableName> existente es <existingTableLocation>. No coincide con la ubicación <tableLocation>especificada.
DELTA_TABLE_NOT_FOUND
La tabla <tableName> Delta no existe.
DELTA_TABLE_NOT_SUPPORTED_IN_OP
La tabla no es compatible en <operation>. Por favor, utilice una ruta en su lugar.
DELTA_TABLE_ONLY_OPERATION
<tableName> no es una tabla Delta.
<operation> solo se admite para las tablas Delta.
DELTA_TABLE_UNRECOGNIZED_REDIRECT_SPEC
El registro Delta contiene la especificación de redireccionamiento de tabla no reconocida "<spec>".
DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY
El esquema final de la tabla de destino está vacío.
DELTA_TIMESTAMP_EARLIER_THAN_COMMIT_RETENTION
La marca de tiempo proporcionada (<userTimestamp>) es antes de la versión más antigua disponible para
esta tabla (<commitTs>). Use una marca de tiempo después de <timestampString>.
DELTA_TIMESTAMP_GREATER_THAN_COMMIT
La marca de tiempo proporcionada (<providedTimestamp>) es posterior a la versión más reciente disponible.
tabla (<tableName>). Use una marca de tiempo antes o en <maximumTimestamp>.
DELTA_TIMESTAMP_INVALID
La marca de tiempo proporcionada (<expr>) no se puede convertir en una marca de tiempo válida.
DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE
<timeTravelKey> debe ser un valor de inicio válido.
DELTA_TOO_MUCH_LISTING_MEMORY
No se pudieron enumerar los archivos (<numFiles>) de la tabla Delta debido a una memoria insuficiente. Memoria necesaria: <estimatedMemory>, memoria disponible: <maxMemory>.
DELTA_TRUNCATED_TRANSACTION_LOG
<path>: no se puede reconstruir el estado en la versión <version> , ya que el registro de transacciones se ha truncado debido a la eliminación manual o a la directiva de retención de registros (<logRetentionKey>=<logRetention>) y a la directiva de retención de puntos de comprobación (<checkpointRetentionKey>=<checkpointRetention>).
DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED
Operación no permitida: TRUNCATE TABLE en las tablas Delta no admite predicados de partición; use DELETE para eliminar particiones o filas específicas.
DELTA_UDF_IN_CHECK_CONSTRAINT
Se encuentra <expr> en una CHECK restricción. Una CHECK restricción no puede usar una función definida por el usuario.
DELTA_UDF_IN_GENERATED_COLUMN
Se encontró <udfExpr>. Una columna generada no puede usar una función definida por el usuario.
DELTA_UNEXPECTED_ACTION_EXPRESSION
Expresión de acción <expression> inesperada.
DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME
Se esperaban <expectedColsSize> columnas de partición: <expectedCols>, pero se encontraron <parsedColsSize> columnas de partición: <parsedCols> a partir del análisis del nombre de archivo: <path>.
DELTA_UNEXPECTED_PARTIAL_SCAN
Se esperaba un examen completo de los orígenes Delta, pero se encontró un examen parcial. Ruta de acceso: <path>.
DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME
Esperaba la columna de partición <expectedCol>, pero encontró la columna de partición <parsedCol> al analizar el nombre de archivo: <path>.
DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER
Se llamó a CONVERT TO DELTA con un esquema de partición diferente del esquema de partición inferido del catálogo. Evite proporcionar el esquema de forma que el esquema de partición se pueda elegir del catálogo.
esquema de partición de catálogo:
<catalogPartitionSchema>
esquema de partición proporcionado:
<userPartitionSchema>
DELTA_UNIFORM_COMPATIBILITY_LOCATION_CANNOT_BE_CHANGED
No se puede cambiar delta.universalFormat.compatibility.location.
DELTA_UNIFORM_COMPATIBILITY_LOCATION_NOT_REGISTERED
delta.universalFormat.compatibility.location no está registrado en el catálogo.
DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
Falta la ubicación, o esta no es válida, del formato de compatibilidad con Uniform Establezca un directorio vacío para delta.universalFormat.compatibility.location.
Motivo de error:
Para obtener más información, consulte DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION.
DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
Se ha producido un error en la lectura de Apache Iceberg con Delta Uniform.
Para más información, consulte DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
DELTA_UNIFORM_INGRESS_AMBIGUOUS_FORMAT
Se encuentran varios formatos de entrada uniforme delta (<formats>), como máximo se puede establecer uno.
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED
No se admite la creación o actualización de la tabla de entrada uniforme.
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT
No se admite el formato <fileFormat> . Solo se admiten Apache Iceberg y hudi como formato de archivo original.
DELTA_UNIFORM_INGRESS_VIOLATION
No se puede leer Delta Uniform:
Para más información, consulte DELTA_UNIFORM_INGRESS_VIOLATION
DELTA_UNIFORM_NOT_SUPPORTED
El formato universal solo se admite en tablas de Catálogo de Unity.
DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT
REFRESH TABLE con argumento no válido:
Para más información, consulte DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
REFRESH El identificador SYNC UNIFORM no se admite por motivos:
Para obtener más información, consulte DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED_FOR_MANAGED_ICEBERG_TABLE_WITH_METADATA_PATH
REFRESH TABLE con METADATA_PATH no se admite para tablas de Apache Iceberg administradas.
DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED
No se pudo convertir la versión <version> de la tabla al formato <format>universal . <message>
DELTA_UNIVERSAL_FORMAT_VIOLATION
Error en la validación del formato universal (<format>): <violation>.
DELTA_UNKNOWN_CONFIGURATION
Se especificó una configuración desconocida: <config>.
Para deshabilitar esta comprobación, establezca <disableCheckConfig>=true en la configuración de la sesión de Spark.
DELTA_UNKNOWN_PRIVILEGE
Privilegio desconocido: <privilege>.
DELTA_UNKNOWN_READ_LIMIT
Límite de lectura desconocido: <limit>.
DELTA_UNRECOGNIZED_COLUMN_CHANGE
Cambio de columna no reconocido <otherClass>. Es posible que esté ejecutando una versión obsoleta de Delta Lake.
DELTA_UNRECOGNIZED_INVARIANT
Invariable no reconocido. Actualice la versión de Spark.
DELTA_UNRECOGNIZED_LOGFILE
Archivo de registro <filename> no reconocido.
DELTA_UNSET_NON_EXISTENT_PROPERTY
Se intentó desestablecer una propiedad inexistente '<property>' en la tabla <tableName>.
DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE
<path> no admite la adición de archivos con una ruta de acceso absoluta.
DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP
ALTER TABLE CHANGE COLUMN no se admite para cambiar la columna <fieldPath> de <oldField> a <newField>.
DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP
Operación ALTER TABLE REPLACE COLUMNS no admitida. Motivo: <details>
Falló el intento de cambiar el esquema desde:
<oldSchema>
to:
<newSchema>
DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE
Intentó usar REPLACE para reemplazar una tabla existente (<tableName>) por CLONE. Esta operación es
unsupported. Pruebe un destino diferente para CLONE o elimine la tabla en el destino actual.
DELTA_UNSUPPORTED_CLUSTERING_COLUMN_PREDICATES
OPTIMIZE
...
FULL WHERE command para tablas Liquid no admite los predicados proporcionados:
Para obtener más información, consulte DELTA_UNSUPPORTED_CLUSTERING_COLUMN_PREDICATES
DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE
No se admite el cambio del modo de asignación de columnas de "<oldMode>" a "<newMode>".
DELTA_UNSUPPORTED_COLUMN_MAPPING_OPERATIONS_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX
No se pudo realizar la operación de mapeo de columnas <opName> en las columnas <quotedColumnNames>.
dado que estas columnas tienen índices de filtro de Bloom.
Si desea realizar la operación de asignación de columnas en columnas
con índices de filtro de Bloom,
quite primero los índices de filtro de Bloom:
DROP BLOOMFILTER INDEX ON TABLE tableName FOR COLUMNS(<columnNames>)
Si desea quitar todos los índices de filtro de Bloom en la tabla, use:
DROP BLOOMFILTER INDEX ON TABLE nombreTabla
DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL
La versión del protocolo de tabla actual no admite el cambio de modos de asignación de columnas
mediante <config>.
Versión necesaria del protocolo Delta para la asignación de columnas:
<requiredVersion>
Versión actual del protocolo Delta de la tabla:
<currentVersion>
<advice>
DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE
Se detecta un cambio de esquema:
esquema antiguo:
<oldTableSchema>
nuevo esquema:
<newTableSchema>
No se permiten cambios de esquema durante el cambio del modo de asignación de columnas.
DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE
No se admite la escritura de datos utilizando el modo de mapeo de columnas.
DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER
No se admite la creación de un índice de filtro bloom en una columna con tipo <dataType> : <columnName>.
DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY
No se puede agregar un comentario a <fieldPath>. No se admite agregar un comentario a un elemento clave/valor de mapa o matriz.
DELTA_UNSUPPORTED_DATA_TYPES
Se encontraron columnas con tipos de datos no admitidos: <dataTypeList>. Puede establecer "<config>" en "false" para deshabilitar la comprobación de tipos. Deshabilitar esta comprobación de tipos puede permitir que los usuarios creen tablas Delta no admitidas y solo se deben usar al intentar leer y escribir tablas heredadas.
DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN
<dataType> no puede ser el resultado de una columna generada.
DELTA_UNSUPPORTED_DEEP_CLONE
La clonación profunda no es compatible con esta versión Delta.
DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW
<view> es una vista.
DESCRIBE DETAIL solo tiene soporte para tablas.
DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN
No se permite quitar columnas de agrupación en clústeres (<columnList>).
DELTA_UNSUPPORTED_DROP_COLUMN
DROP COLUMN no se admite para la tabla Delta. <advice>
DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE
Solo se pueden anular columnas anidadas de StructType. Se encontró <struct>.
DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN
No se permite quitar columnas de partición (<columnList>).
DELTA_UNSUPPORTED_EXPRESSION
Tipo de expresión no admitido(<expType>) para <causedBy>. Los tipos admitidos son [<supportedTypes>].
DELTA_UNSUPPORTED_EXPRESSION_CHECK_CONSTRAINT
Se encuentra <expression> en una CHECK restricción.
<expression> no se puede usar en una CHECK restricción .
DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
<expression> no se puede usar en una columna generada.
DELTA_UNSUPPORTED_FEATURES_FOR_READ
Característica de lectura delta no admitida: la tabla "<tableNameOrPath>" requiere características de tabla de lector que no son compatibles con esta versión de Databricks: <unsupported>. Consulte <link> para obtener más información sobre la compatibilidad de funciones de Delta Lake.
DELTA_UNSUPPORTED_FEATURES_FOR_WRITE
Característica de escritura delta no admitida: la tabla "<tableNameOrPath>" requiere características de tabla de escritura que no son compatibles con esta versión de Databricks: <unsupported>. Consulte <link> para obtener más información sobre la compatibilidad de funciones de Delta Lake.
DELTA_UNSUPPORTED_FEATURES_IN_CONFIG
Las características de tabla configuradas en las siguientes configuraciones de Spark o propiedades de tabla Delta no se reconocen en esta versión de Databricks: <configs>.
DELTA_UNSUPPORTED_FEATURE_STATUS
Se espera que el estado de la característica de tabla <feature> esté "habilitado", pero se obtiene "<status>".
DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT
La actualización de campos anidados solo se admite para StructType, pero está intentando actualizar un campo de <columnName>, que es de tipo : <dataType>.
DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS
El comando "FSCK REPAIR TABLE" no se admite en versiones de tabla con archivos vectoriales de eliminación que faltan.
Póngase en contacto con el soporte técnico.
DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS
El comando "GENERATE symlink_format_manifest" no se admite en versiones de tabla con vectores de eliminación.
Para generar una versión de la tabla sin vectores de eliminación, ejecute "REORG TABLE tabla APPLY (PURGE)". A continuación, vuelva a ejecutar el comando 'GENERATE'.
Asegúrese de que ninguna transacción simultánea agregue de nuevo vectores de eliminación entre REORG y GENERATE.
Si necesita generar manifiestos con regularidad, o no puede evitar transacciones simultáneas, considere la posibilidad de deshabilitar los vectores de eliminación en esta tabla mediante 'ALTER TABLE table SET TBLPROPERTIES (delta.enableDeletionVectors = false)'.
DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT
No se admiten las invariables en campos anidados distintos de StructTypes.
DELTA_UNSUPPORTED_IN_SUBQUERY
La subconsulta In no se admite en la condición <operation>.
DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX
listKeywithPrefix no está disponible.
DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING
La generación de manifiestos no se admite para las tablas que aprovechan la asignación de columnas, ya que los lectores externos no pueden leer estas tablas Delta. Consulte la documentación de Delta para obtener más detalles.
DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC
Las operaciones MERGE INTO con evolución del esquema no admiten actualmente la escritura de la salida CDC.
DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE
Los predicados In de varias columnas no se admiten en la condición <operation>.
DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER
La creación de un índice de filer bloom en una columna anidada no se admite actualmente: <columnName>.
DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION
El campo anidado no se admite en <operation> (field = <fieldName>).
DELTA_UNSUPPORTED_NON_EMPTY_CLONE
La tabla de destino clonada no está vacía. Use TRUNCATE o DELETE FROM con la tabla antes de ejecutar CLONE.
DELTA_UNSUPPORTED_OUTPUT_MODE
El origen de datos <dataSource> no admite el modo de salida <mode>.
DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER
No se admite la creación de un índice de filtro bloom en una columna de partición: <columnName>.
DELTA_UNSUPPORTED_RENAME_COLUMN
No se admite el cambio de nombre de columna para la tabla Delta. <advice>
DELTA_UNSUPPORTED_SCHEMA_DURING_READ
Delta no admite la especificación del esquema en tiempo de lectura.
DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES
SORTED BY no es compatible con las tablas de partición Delta.
DELTA_UNSUPPORTED_SOURCE
El destino <operation> solo admite orígenes Delta.
<plan>
DELTA_UNSUPPORTED_STATIC_PARTITIONS
Actualmente no se admite la especificación estática de particiones en la especificación de partición durante las inserciones.
DELTA_UNSUPPORTED_STRATEGY_NAME
Nombre de estrategia no soportado: <strategy>.
DELTA_UNSUPPORTED_SUBQUERY
Las subconsultas no se admiten en <operation> (condición = <cond>).
DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES
La subconsulta no se admite en predicados de partición.
VIAJE EN EL TIEMPO NO SOPORTADO MÁS ALLÁ DEL PERIODO DE RETENCIÓN DE ARCHIVOS BORRADOS
No se puede recorrer el tiempo más allá de delta.deletedFileRetentionDuration (<deletedFileRetention> HOURS) establecido en la tabla.
DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS
No se puede especificar el viaje en el tiempo en varios formatos.
DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS
No se pueden hacer viajes en el tiempo con las vistas, las subconsultas o las secuencias, ni cambiar las consultas de la fuente de distribución de datos.
DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES
No se admite truncar tablas de ejemplo.
DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA
No se puede operar en esta tabla porque se aplicó un cambio de tipo no admitido. El campo <fieldName> se cambió de <fromType> a <toType>.
DELTA_UNSUPPORTED_TYPE_CHANGE_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX
No se pudo cambiar el tipo de datos de las columnas <quotedColumnNames>
porque estas columnas tienen índices de filtro de Bloom.
Si desea cambiar el tipo de datos de las columnas con Bloom Filter Index(es),
quite primero los índices de filtro de Bloom:
DROP BLOOMFILTER INDEX ON TABLE tableName FOR COLUMNS(<columnNames>)
Si desea quitar todos los índices de filtro de Bloom en la tabla, use:
DROP BLOOMFILTER INDEX ON TABLE nombreTabla
DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION
Proporcione la ruta de acceso base (<baseDeltaPath>) al vaciar tablas Delta. Actualmente no se admite el vacío de particiones específicas.
DELTA_UNSUPPORTED_WRITES_STAGED_TABLE
La implementación de tablas no admite escrituras: <tableName>.
DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR
Está intentando realizar escrituras en una tabla que se ha registrado con el coordinador de confirmaciones <coordinatorName>. Sin embargo, no se permite ninguna implementación de este coordinador en el entorno actual y no se permiten escrituras sin coordinadores.
DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES
No se admite la escritura en tablas de ejemplo.
DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION
No se puede convertir <fromCatalog> a <toCatalog>. Todas las columnas anidadas deben coincidir.
DELTA_V2_CHECKPOINTS_REQUIRED_FOR_OPERATION
CHECKPOINT La operación requiere que los puntos de control V2 estén habilitados en la tabla.
DELTA_VACUUM_COPY_INTO_STATE_FAILED
Se realizó la operación VACUUM en los archivos de datos, pero se produjo un error en la recolección de elementos no utilizados de estado COPY INTO.
DELTA_VERSIONS_NOT_CONTIGUOUS
Las versiones (<versionList>) no son contiguas.
Se detectó un hueco en el registro delta entre las versiones <startVersion> y <endVersion> al intentar cargar la versión <versionToLoad>.
Para obtener más información, consulte DELTA_VERSIONS_NOT_CONTIGUOUS
DELTA_VERSION_INVALID
La versión proporcionada (<version>) no es una versión válida.
DELTA_VERSION_NOT_FOUND
No se puede viajar la tabla Delta de tiempo a la versión <userVersion>. Versiones disponibles: [<earliest>, <latest>].
DELTA_VIOLATE_CONSTRAINT_WITH_VALUES
CHECK restricción <constraintName> <expression> infringida por fila con valores:
<values>.
DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
Se ha infringido la validación de las propiedades de la tabla <table>:
Para obtener más información, consulte DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED.
DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED
<viewIdentifier> es una vista. No se puede escribir datos en una vista.
DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST
La columna <columnName> Z-Ordering no existe en el esquema de datos.
DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS
El orden Z en <cols> será ineficaz, ya que actualmente no recopilamos estadísticas para estas columnas. Consulte <link> para obtener más información sobre la omisión de datos y el ordenamiento Z. Puede deshabilitar esta comprobación estableciendo
SET <zorderColStatKey> = falso
DELTA_ZORDERING_ON_PARTITION_COLUMN
<colName> es una columna de partición. La ordenación Z solo se puede realizar en columnas de datos.
Uso compartido delta
DELTA_SHARING_ACTIVATION_NONCE_DOES_NOT_EXIST
SQLSTATE: ninguno asignado
No se encontró el nonce de activación. El vínculo de activación que usó no es válido o ha expirado. Vuelva a generar el vínculo de activación e inténtelo de nuevo.
DELTA_SHARING_CROSS_REGION_SHARE_UNSUPPORTED
SQLSTATE: ninguno asignado
No se admite el uso compartido entre <regionHint> regiones y regiones fuera de ella.
DELTA_SHARING_GET_RECIPIENT_PROPERTIES_INVALID_DEPENDENT
SQLSTATE: ninguno asignado
La vista definida con la current_recipient función es solo para compartir y solo se puede consultar desde el lado del destinatario de datos. El elemento protegible proporcionado con el identificador <securableId> no es una vista de uso compartido Delta.
DELTA_SHARING_MUTABLE_SECURABLE_KIND_NOT_SUPPORTED
SQLSTATE: ninguno asignado
La variante del elemento protegible proporcionado <securableKind> no admite la mutabilidad en el uso compartido Delta.
DELTA_SHARING_ROTATE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE
SQLSTATE: ninguno asignado
La variante del elemento protegible proporcionado <securableKind> no admite la acción de rotación del token iniciada por el servicio Marketplace.
DS_AUTH_TYPE_NOT_AVAILABLE
SQLSTATE: ninguno asignado
<dsError>: tipo de autenticación no disponible en la entidad de proveedor <providerEntity>.
DS_CDF_NOT_ENABLED
SQLSTATE: ninguno asignado
<dsError>: No se puede acceder al flujo de datos de cambios para <tableName>. CDF no está habilitado en la tabla delta original para la versión <version>. Póngase en contacto con el proveedor de datos.
DS_CDF_NOT_SHARED
SQLSTATE: ninguno asignado
<dsError>: No se puede acceder al flujo de datos de cambios para <tableName>. CDF no se comparte en la tabla. Póngase en contacto con el proveedor de datos.
DS_CDF_RPC_INVALID_PARAMETER
SQLSTATE: ninguno asignado
<dsError>: <message>
DS_CLIENT_AUTH_ERROR_FOR_DB_DS_SERVER
SQLSTATE: ninguno asignado
<dsError>: <message>
DS_CLIENT_ERROR_FOR_DB_DS_SERVER
SQLSTATE: ninguno asignado
<dsError>: <message>
DS_CLIENT_OAUTH_TOKEN_EXCHANGE_FAILURE
SQLSTATE: ninguno asignado
<dsError>: <message>
DS_CLIENT_OAUTH_TOKEN_EXCHANGE_UNAUTHORIZED
SQLSTATE: ninguno asignado
<dsError>: <message>
DS_CLOUD_VENDOR_UNAVAILABLE
SQLSTATE: ninguno asignado
<dsError>: el proveedor en la nube no está disponible temporalmente para <rpcName>, vuelva a intentarlo.<traceId>
DS_DATA_MATERIALIZATION_COMMAND_FAILED
SQLSTATE: ninguno asignado
<dsError>: La ejecución de la tarea <runId> para la materialización de datos desde la organización <orgId> falló al ejecutar el comando <command>
DS_DATA_MATERIALIZATION_COMMAND_NOT_SUPPORTED
SQLSTATE: ninguno asignado
<dsError>: la tarea de materialización de datos que se ejecuta <runId> desde la organización <orgId> no admite el comando <command>
DS_DATA_MATERIALIZATION_NOT_SUPPORTED_WITHOUT_SERVERLESS
SQLSTATE: ninguno asignado
<dsError>: <featureName> no es compatible porque el soporte para tecnología sin servidor no está habilitado en el área de trabajo del proveedor. Póngase en contacto con su proveedor de datos para habilitar la computación sin servidor.
DS_DATA_MATERIALIZATION_NO_VALID_NAMESPACE
SQLSTATE: ninguno asignado
<dsError>: No se pudo localizar un espacio de nombres válido para generar la materialización para <tableName>. Póngase en contacto con el proveedor de datos para corregirlo.
DS_DATA_MATERIALIZATION_RECIPIENT_MISSING_WORKSPACE_ID
SQLSTATE: ninguno asignado
<dsError>: no se encontró ningún área de trabajo adecuada para materializar el recurso compartido. Póngase en contacto con el proveedor de datos para volver a crear el destinatario en un área de trabajo donde se permite el acceso de escritura al catálogo del recurso compartido.
DS_DATA_MATERIALIZATION_RUN_DOES_NOT_EXIST
SQLSTATE: ninguno asignado
<dsError>: la ejecución de la tarea de materialización de datos <runId> desde la organización <orgId> no existe
DS_DELTA_ILLEGAL_STATE
SQLSTATE: ninguno asignado
<dsError>: <message>
DS_DELTA_MISSING_CHECKPOINT_FILES
SQLSTATE: ninguno asignado
<dsError>: no se encontraron todos los archivos de elementos del punto de control en la versión <version>. <suggestion>
DS_DELTA_NULL_POINTER
SQLSTATE: ninguno asignado
<dsError>: <message>
DS_DELTA_RUNTIME_EXCEPTION
SQLSTATE: ninguno asignado
<dsError>: <message>
DS_EXPIRE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE
SQLSTATE: ninguno asignado
<dsError>: El tipo de securable proporcionado <securableKind> no admite la acción de expiración del token iniciada por el servicio Marketplace.
DS_FAILED_REQUEST_TO_OPEN_DS_SERVER
SQLSTATE: ninguno asignado
<dsError>: <message>
DS_FAILED_REQUEST_TO_SAP_DS_SERVER
SQLSTATE: ninguno asignado
<dsError>: <message>
DS_FEATURE_ONLY_FOR_DATABRICKS_TO_DATABRICKS
SQLSTATE: ninguno asignado
<dsError>: <feature> solo está habilitado para el uso compartido Delta de Databricks a Databricks.
DS_FILE_LISTING_EXCEPTION
SQLSTATE: ninguno asignado
<dsError>: : <storage><message>
DS_FILE_SIGNING_EXCEPTION
SQLSTATE: ninguno asignado
<dsError>: <message>
DS_FOREIGN_TABLE_METADATA_REFRESH_FAILED
SQLSTATE: ninguno asignado
<dsError>: <message>
DS_GATEKEEPER_DISABLED
SQLSTATE: ninguno asignado
<dsError>: esta característica está deshabilitada para la cuenta. Póngase en contacto con el proveedor de datos.
DS_HADOOP_CONFIG_NOT_SET
SQLSTATE: ninguno asignado
<dsError>: <key> no está establecido por el autor de la llamada.
DS_ILLEGAL_STATE
SQLSTATE: ninguno asignado
<dsError>: <message>
DS_INTERNAL_ERROR_FROM_DB_DS_SERVER
SQLSTATE: ninguno asignado
<dsError>: <message>
DS_INVALID_AZURE_PATH
SQLSTATE: ninguno asignado
<dsError>: ruta de acceso de Azure no válida: <path>.
DS_INVALID_DELTA_ACTION_OPERATION
SQLSTATE: ninguno asignado
<dsError>: <message>
DS_INVALID_FIELD
SQLSTATE: ninguno asignado
<dsError>: <message>
DS_INVALID_ITERATOR_OPERATION
SQLSTATE: ninguno asignado
<dsError>: <message>
DS_INVALID_PARAMETER_VALUE
SQLSTATE: ninguno asignado
<dsError>: parámetro no válido para <rpcName> debido a <cause>.
DS_INVALID_PARTITION_SPEC
SQLSTATE: ninguno asignado
<dsError>: <message>
DS_INVALID_RESPONSE_FROM_DS_SERVER
SQLSTATE: ninguno asignado
<dsError>: <message>
DS_MATERIALIZATION_QUERY_FAILED
SQLSTATE: ninguno asignado
<dsError>: error de consulta para <schema>.
<table> desde Compartir <share>.
DS_MATERIALIZATION_QUERY_TIMEDOUT
SQLSTATE: ninguno asignado
<dsError>: se agota el tiempo de espera de la consulta para <schema>.
<table> desde Compartir <share> después de <timeoutInSec> segundos.
DS_MIGRATED_MANAGEMENT_API_CALLED
SQLSTATE: ninguno asignado
<dsError>: El RPC de UC <rpcName> falló.
DS_MISSING_IDEMPOTENCY_KEY
SQLSTATE: ninguno asignado
<dsError>: La clave de idempotencia es necesaria cuando se consulta <schema>.
<table> desde Compartir <share> de forma asincrónica.
DS_POLÍTICA_DE_PRESUPUESTO_SERVERLESS_FALTANTE
SQLSTATE: ninguno asignado
<dsError>: La operación utiliza el servicio sin servidor en la plataforma Databricks del proveedor, pero falta una política de presupuesto para recursos sin servidor. Póngase en contacto con el proveedor de datos para agregar una directiva de presupuesto sin servidor para compartir.
DS_MORE_THAN_ONE_RPC_PARAMETER_SET
SQLSTATE: ninguno asignado
<dsError>: proporcione solo uno de los siguientes elementos: <parameters>.
DS_NETWORK_CONNECTION_CLOSED
SQLSTATE: ninguno asignado
<dsError>: conexión de red cerrada para <rpcName> debido a <errorCause>, por favor vuelva a intentarlo.<traceId>
DS_NETWORK_CONNECTION_TIMEOUT
SQLSTATE: ninguno asignado
<dsError>: se ha agotado el tiempo de espera de conexión de red para <rpcName> debido a <errorCause>, vuelva a intentarlo.<traceId>
DS_NETWORK_ERROR
SQLSTATE: ninguno asignado
<dsError>: Error de red para <rpcName> debido a <errorCause>, vuelva a intentarlo.<traceId>
DS_NO_METASTORE_ASSIGNED
SQLSTATE: ninguno asignado
<dsError>: no hay ninguna tienda de metadatos asignada para el área de trabajo actual (workspaceId: <workspaceId>).
DS_O2D_OIDC_WORKLOAD_IDENTITY_TOKEN_GENERATION_FAILED
SQLSTATE: ninguno asignado
<dsError>: error al generar el token de identidad de carga de trabajo para el proveedor OIDC de O2D: <message>.
DS_PAGINATION_AND_QUERY_ARGS_MISMATCH
SQLSTATE: ninguno asignado
<dsError>: falta de coincidencia de argumentos de paginación o consulta.
DS_PARTITION_COLUMNS_RENAMED
SQLSTATE: ninguno asignado
<dsError>: se ha cambiado el nombre de la columna de partición [<renamedColumns>] en la tabla compartida. Póngase en contacto con el proveedor de datos para corregirlo.
DS_QUERY_BEFORE_START_VERSION
SQLSTATE: ninguno asignado
<dsError>: solo puede consultar datos de tabla desde la versión <startVersion>.
DS_QUERY_END_VERSION_AFTER_LATEST_VERSION
SQLSTATE: ninguno asignado
<dsError>: la versión final (<endVersion>) proporcionada para leer datos no es válida. La versión final no puede ser mayor que la versión más reciente de la tabla (<latestVersion>).
DS_QUERY_START_VERSION_AFTER_LATEST_VERSION
SQLSTATE: ninguno asignado
<dsError>: la versión de inicio proporcionada (<startVersion>) para leer datos no es válida. La versión inicial no puede ser mayor que la versión más reciente de la tabla(<latestVersion>).
DS_QUERY_TIMEOUT_ON_SERVER
SQLSTATE: ninguno asignado
<dsError>: se agotó el tiempo de espera al procesar <queryType> en <tableName> después de <numActions> actualizaciones en <numIter> iteraciones.<progressUpdate> <suggestion> <traceId>
DS_RATE_LIMIT_ON_DS_SERVER
SQLSTATE: ninguno asignado
<dsError>: <message>
DS_RECIPIENT_RPC_INVALID_PARAMETER
SQLSTATE: ninguno asignado
<dsError>: <message>
DS_RECON_FAILED_ON_UC_WRITE_RPC
SQLSTATE: ninguno asignado
<dsError>: se produjo un error en la RPC de UC <rpcName>, convirtiéndose en INTERNAL_ERROR.
DS_RESOURCE_ALREADY_EXIST_ON_DS_SERVER
SQLSTATE: ninguno asignado
<dsError>: <message>
DS_RESOURCE_EXHAUSTED
SQLSTATE: ninguno asignado
<dsError>: límite <resource> superado: [<limitSize>]<suggestion>.<traceId>
DS_RESOURCE_NOT_FOUND_ON_DS_SERVER
SQLSTATE: ninguno asignado
<dsError>: <message>
DS_SAP_UNSUPPORTED_DBR_VERSION
SQLSTATE: ninguno asignado
<dsError>: No se admite el conector SAP de Delta Sharing en DBR <dbrVersion>. Las versiones mínimas admitidas son: <supportedVersions>.
DS_SCHEMA_NAME_CONFLICT_FOUND
SQLSTATE: ninguno asignado
<dsError>: el catálogo <catalogName> ya contiene nombres de esquema que se encuentran en el recurso compartido <shareName>.
<description> de nombres de esquema en conflicto: <schemaNamesInCommon>.
DS_SERVER_TIMEOUT
SQLSTATE: ninguno asignado
<dsError>: Tiempo de espera del servidor para <rpcName> debido a <errorCause>, por favor, vuelva a intentarlo.<traceId>
DS_SERVICE_DENIED
SQLSTATE: ninguno asignado
<dsError>: la solicitud se denegó porque el servicio está bajo demasiada carga. Inténtelo de nuevo más tarde después de un tiempo.
DS_SHARE_ALREADY_MOUNTED_TO_CATALOG
SQLSTATE: ninguno asignado
<dsError>: El recurso <shareName> del proveedor <providerName> ya está montado en el catálogo <catalogName>.
DS_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED
SQLSTATE: ninguno asignado
No se pueden conceder privilegios en <securableType> al grupo <principal>generado por el sistema.
DS_TABLE_METADATA_TEMPORARILY_UNAVAILABLE
SQLSTATE: ninguno asignado
<dsError>: los metadatos de tabla no están disponibles. Inténtelo de nuevo en unos instantes.
DS_TIME_TRAVEL_NOT_PERMITTED
SQLSTATE: ninguno asignado
<dsError>: La consulta sobre viajes en el tiempo no está permitida a menos que el historial sea compartido en <tableName>. Póngase en contacto con el proveedor de datos.
DS_UNAUTHORIZED
SQLSTATE: ninguno asignado
<dsError>:Desautorizado.
DS_UNAUTHORIZED_D2O_OIDC_RECIPIENT
SQLSTATE: ninguno asignado
<dsError>: Destinatario D2O OIDC no autorizado: <message>.
DS_UNKNOWN_EXCEPTION
SQLSTATE: ninguno asignado
<dsError>: <traceId>
DS_UNKNOWN_QUERY_ID
SQLSTATE: ninguno asignado
<dsError>: identificador <queryID> de consulta desconocido para <schema>.
<table> desde Compartir <share>.
DS_UNKNOWN_QUERY_STATUS
SQLSTATE: ninguno asignado
<dsError>: estado desconocido para la consulta con identificador <queryID> para <schema>.
<table> desde Compartir <share>.
DS_UNKNOWN_RPC
SQLSTATE: ninguno asignado
<dsError>: RPC <rpcName> desconocida.
DS_UNSUPPORTED_DELTA_READER_VERSION
SQLSTATE: ninguno asignado
<dsError>: La versión <tableReaderVersion> del lector de protocolo delta es más alta que <supportedReaderVersion> y no se puede admitir en el servidor de intercambio delta.
DS_UNSUPPORTED_DELTA_TABLE_FEATURES
SQLSTATE: ninguno asignado
<dsError>: las funcionalidades <tableFeatures> se encuentran en la tabla <versionStr> <historySharingStatusStr> <optionStr>.
DS_UNSUPPORTED_OPERATION
SQLSTATE: ninguno asignado
<dsError>: <message>
DS_UNSUPPORTED_STORAGE_SCHEME
SQLSTATE: ninguno asignado
<dsError>: esquema de almacenamiento no admitido: <scheme>.
DS_UNSUPPORTED_TABLE_TYPE
SQLSTATE: ninguno asignado
<dsError>: no se pudo recuperar <schema>.
<table> de Compartir <share> porque la tabla del tipo [<tableType>] actualmente no se admite en las consultas de <queryType>.
DS_UNSUPPORTED_TABLE_TYPE_IN_MST
SQLSTATE: ninguno asignado
<dsError>: el tipo de tabla de consulta [<tableType>] no se admite en la consulta de transacción de varias instrucciones (MST).
DS_USER_CONTEXT_ERROR
SQLSTATE: ninguno asignado
<dsError>: <message>
DS_VIEW_SHARING_FUNCTIONS_NOT_ALLOWED
SQLSTATE: ninguno asignado
<dsError>: Las siguientes función(es) <functions> no están permitidas en la consulta de compartición de vistas.
DS_WORKSPACE_DOMAIN_NOT_SET
SQLSTATE: ninguno asignado
<dsError>: no se ha establecido el dominio del área de <workspaceId> trabajo.
DS_WORKSPACE_NOT_FOUND
SQLSTATE: ninguno asignado
<dsError>: no se encontró el área de trabajo <workspaceId> .
Autoloader
CF_ADD_NEW_NOT_SUPPORTED
El modo <addNewColumnsMode> de evolución del esquema no se admite cuando se especifica el esquema. Para usar este modo, puede proporcionar el esquema mediante cloudFiles.schemaHints.
CF_AMBIGUOUS_AUTH_OPTIONS_ERROR
Se encontraron las opciones de autenticación de configuración de notificaciones para el directorio (predeterminado)
modo de lista:
<options>
Si desea usar el modo de notificación de archivo, establezca explícitamente:
.option("cloudFiles.<useNotificationsKey>", "true")
Como alternativa, si desea omitir la validación de las opciones y ignorar estas
opciones de autenticación que puede configurar:
.option("cloudFiles.ValidateOptionsKey>", "falso")
CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR
Modo de lista incremental (cloudFiles.<useIncrementalListingKey>)
y notificación de archivos (cloudFiles.<useNotificationsKey>)
se han habilitado al mismo tiempo.
Asegúrese de seleccionar solo una.
CF_AZURE_AUTHENTICATION_MISSING_OPTIONS
Proporcione una credencial de servicio de Databricks o un clientId y clientSecret para autenticarse con Azure.
CF_AZURE_AUTHENTICATION_MULTIPLE_OPTIONS
Cuando se proporciona una credencial de servicio de Databricks, no se deben proporcionar otras opciones de credenciales (por ejemplo, clientId, clientSecret o connectionString).
CF_AZURE_STORAGE_SUFFIXES_REQUIRED
Requerir adlsBlobSuffix y adlsDfsSuffix para Azure
CF_BUCKET_MISMATCH
El <storeType> en el evento <fileEvent> de archivo es diferente del esperado por el origen: <source>.
CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY
No se puede evolucionar el esquema cuando el registro de esquema está vacío. Ubicación del registro de esquema: <logPath>
CF_CANNOT_PARSE_QUEUE_MESSAGE
No se puede analizar el siguiente mensaje de cola: <message>
CF_CANNOT_RESOLVE_CONTAINER_NAME
No se puede resolver el nombre del contenedor de la ruta de acceso: <path>, URI resuelto: <uri>
CF_CANNOT_RUN_DIRECTORY_LISTING
No se puede ejecutar la lista de directorios cuando hay un subproceso de reposición asincrónico en ejecución
CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON
No se puede activar cloudFiles.cleanSource y cloudFiles.allowOverwrites al mismo tiempo.
CF_CLEAN_SOURCE_CANNOT_MOVE_FILES_INSIDE_SOURCE_PATH
No se admite el traslado de archivos a un directorio bajo la ruta desde la que se ingiere.
CF_CLEAN_SOURCE_NOT_ENABLED
CleanSource no se ha habilitado para esta área de trabajo. Póngase en contacto con el soporte técnico de Databricks para obtener ayuda.
CF_CLEAN_SOURCE_NO_SOPORTADO
CleanSource no es compatible con <op>.
CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
El cargador automático no puede archivar los archivos procesados porque no tiene permisos de escritura en el directorio de origen ni en el destino de movimiento.
Para obtener más información, consulte CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
CF_DUPLICATE_COLUMN_IN_DATA
Se produjo un error al intentar deducir el esquema de partición de la tabla. Tiene la misma columna duplicada en las rutas de acceso de datos y particiones. Para omitir el valor de partición, proporcione las columnas de partición explícitamente mediante: .option("cloudFiles.<partitionColumnsKey>", "{comma-separated-list}")
CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE
No se puede deducir el esquema cuando la ruta <path> de acceso de entrada está vacía. Intente iniciar la secuencia cuando haya archivos en la ruta de entrada, o especifique el esquema.
CF_EVENT_GRID_AUTH_ERROR
No se pudo crear una suscripción de Event Grid. Asegúrese de que la entidad de servicio
tenga suscripciones de Event Grid <permissionType>. Consulte más detalles en:
<docLink>
CF_EVENT_GRID_CREATION_FAILED
No se pudo crear la suscripción de Event Grid. Asegúrese de que Microsoft.EventGrid está
registrado como proveedor de recursos en la suscripción. Consulte más detalles en:
<docLink>
CF_EVENT_GRID_NOT_FOUND_ERROR
No se pudo crear una suscripción de Event Grid. Asegúrese de que la cuenta
de almacenamiento (<storageAccount>) está en el grupo de recursos (<resourceGroup>) y que
sea una cuenta de "StorageV2 (uso general v2)". Consulte más detalles en:
<docLink>
CF_EVENT_NOTIFICATION_NOT_SUPPORTED
El modo de notificación de eventos del cargador automático no está disponible para <cloudStore>.
CF_EVENT_NOTIFICATION_SETUP_FAILED
No se pudieron configurar los recursos de notificación de archivos para Auto Loader.
Para obtener más información, consulte CF_EVENT_NOTIFICATION_SETUP_FAILED
CF_FAILED_TO_CHECK_STREAM_NEW
No se pudo comprobar si la secuencia es nueva
CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION
No se pudo crear la suscripción: <subscriptionName>. Ya existe una suscripción con el mismo nombre y está asociada a otro tema: <otherTopicName>. El tema deseado es <proposedTopicName>. Elimine la suscripción existente o cree una suscripción con un nuevo sufijo de recurso.
CF_FAILED_TO_CREATED_PUBSUB_TOPIC
No se pudo crear el tema: <topicName>. Ya existe un tema con el mismo nombre.
<reason> Quite el tema existente o vuelva a intentarlo con otro sufijo de recurso
CF_FAILED_TO_DELETE_GCP_NOTIFICATION
No se pudo eliminar la notificación con el identificador <notificationId> en el bucket <bucketName> del tema <topicName>. Vuelva a intentar o quite manualmente la notificación a través de la consola de GCP.
CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA
No se pudo deserializar el esquema persistente de la cadena: '<jsonSchema>'
CF_FAILED_TO_EVOLVE_SCHEMA
No se puede evolucionar el esquema sin un registro de esquema.
CF_FAILED_TO_FIND_PROVIDER
No se pudo encontrar el proveedor de <fileFormatInput>
CF_FAILED_TO_INFER_SCHEMA
No se pudo inferir el esquema para el formato <fileFormatInput> a partir de los archivos existentes en la ruta de acceso de entrada <path>.
Para obtener más información, consulte CF_FAILED_TO_INFER_SCHEMA.
CF_FAILED_TO_WRITE_TO_SCHEMA_LOG
No se pudo escribir en el registro de esquema en la ubicación <path>.
CF_FILE_FORMAT_REQUIRED
No se pudo encontrar la opción necesaria: cloudFiles.format.
CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS
Se encontraron varias suscripciones (<num>) con el prefijo Auto Loader para el tema <topicName>:
<subscriptionList>
Solo debe haber una suscripción por tema. Asegúrese manualmente de que el tema no tiene varias suscripciones.
CF_GCP_AUTHENTICATION
Proporcione lo siguiente: <clientEmail>, <client>,
<privateKey>, y <privateKeyId> o proporcione <serviceCredential> para usar las credenciales de servicio de Databricks.
Como alternativa, no proporcione ninguno de ellos para usar la cadena de proveedor de credenciales predeterminada de GCP para autenticarse con recursos de GCP.
CF_GCP_LABELS_COUNT_EXCEEDED
Se han recibido demasiadas etiquetas (<num>) para el recurso de GCP. El número máximo de etiquetas por recurso es <maxNum>.
CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED
Se recibieron demasiadas etiquetas de recursos (<num>) para el recurso de GCP. El número máximo de etiquetas de recursos por recurso es <maxNum>, ya que las etiquetas de recursos se almacenan como etiquetas de GCP en recursos y las etiquetas específicas de Databricks consumen parte de esta cuota de etiquetas.
CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG
Archivo de registro incompleto en el registro de esquema en la ruta de acceso <path>
CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT
Archivo de metadatos incompleto en el punto de comprobación del cargador automático
CF_INCORRECT_BATCH_USAGE
CloudFiles es un origen de streaming. Use spark.readStream en lugar de spark.read. Para deshabilitar esta comprobación, establezca <cloudFilesFormatValidationEnabled> en falso.
CF_INCORRECT_SQL_PARAMS
El método cloud_files acepta dos parámetros de cadena necesarios: la ruta de acceso desde la que se carga y el formato de archivo. Las opciones del lector de archivos deben proporcionarse en una asignación clave-valor de cadena. por ejemplo, cloud_files("path", "json", map("option1", "value1")). Se recibió: <params>
CF_INCORRECT_STREAM_USAGE
Para usar "cloudFiles" como origen de streaming, proporcione el formato de archivo con la opción "cloudFiles.format" y use .load() para crear el dataframe. Para deshabilitar esta comprobación, establezca <cloudFilesFormatValidationEnabled> en falso.
CF_INTERNAL_ERROR
Auto Loader encontró un error interno. Póngase en contacto con el soporte técnico de Databricks para obtener ayuda.
Para obtener más información, consulte CF_INTERNAL_ERROR
CF_INVALID_ARN
ARN no válido: <arn>
CF_INVALID_AZURE_CERTIFICATE
No se puede analizar la clave privada proporcionada con la opción cloudFiles.certificate. Proporcione una clave pública válida en formato PEM.
CF_INVALID_AZURE_CERT_PRIVATE_KEY
No se puede analizar la clave privada proporcionada con la opción cloudFiles.certificatePrivateKey. Proporcione una clave privada válida en formato PEM.
CF_INVALID_CHECKPOINT
Este punto de control no es un origen de CloudFiles válido
CF_INVALID_CLEAN_SOURCE_MODE
Modo no válido para la opción de origen <value>limpio .
CF_INVALID_GCP_RESOURCE_TAG_KEY
Clave de etiqueta de recurso no válida para el recurso de GCP: <key>. Las claves deben comenzar con una letra minúscula, tener entre 1 y 63 caracteres y contener solo letras minúsculas, números, caracteres de subrayado (_) y guiones (-).
CF_INVALID_GCP_RESOURCE_TAG_VALUE
Valor de etiqueta de recurso no válido para el recurso de GCP: <value>. Los valores deben tener entre 0 y 63 caracteres y deben contener solo letras minúsculas, números, caracteres de subrayado (_) y guiones (-).
CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS
Auto Loader no admite las siguientes opciones cuando se usan con eventos de archivos administrados:
<optionList>
Se recomienda quitar estas opciones y, a continuación, reiniciar la secuencia.
CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
Respuesta inválida del servicio de eventos de archivos gestionados. Póngase en contacto con el soporte técnico de Databricks para obtener ayuda.
Para más información, consulte CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE.
CF_INVALID_SCHEMA_EVOLUTION_MODE
cloudFiles.
<schemaEvolutionModeKey> debe ser uno de {
<addNewColumnsWithTypeWidening>
<addNewColumns>
<failOnNewColumns>
<rescue>
"<noEvolution>"}
CF_INVALID_SCHEMA_HINTS_OPTION
Las sugerencias de esquema solo pueden especificar una columna determinada una vez.
En este caso, redefinir la columna: <columnName>
varias veces en schemaHints:
<schemaHints>
CF_INVALID_SCHEMA_HINT_COLUMN
No se pueden usar sugerencias de esquema para invalidar los tipos anidados de asignaciones y matrices.
Columna en conflicto: <columnName>
CF_LATEST_OFFSET_READ_LIMIT_REQUIRED
se debe llamar a latestOffset con un readLimit en este origen.
CF_LOG_FILE_MALFORMED
Archivo de registro con formato incorrecto: no se pudo leer la versión de registro correcta de <fileName>.
CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS
Ha solicitado que el cargador automático omita los archivos existentes en la ubicación externa estableciendo includeExistingFiles en false. Sin embargo, el servicio de eventos de archivos administrados sigue detectando archivos existentes en la ubicación externa. Inténtelo de nuevo después de que los eventos de administración de archivos hayan terminado de descubrir todos los archivos en su ubicación externa.
CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND
Está usando Auto Loader con eventos de archivo administrados, pero parece que la ubicación externa de la ruta de acceso de entrada '<path>' no tiene habilitados eventos de archivo o la ruta de acceso de entrada no es válida. Solicite al administrador de Databricks que habilite los eventos de archivo en la ubicación externa de la ruta de acceso de entrada.
CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED
Está usando el cargador automático con eventos de archivo administrados, pero no tiene acceso a la ubicación externa o al volumen de la ruta de acceso de entrada "<path>" o la ruta de acceso de entrada no es válida. Solicite al administrador de Databricks que conceda permisos de lectura para la ubicación o el volumen externos o proporcione una ruta de acceso de entrada válida dentro de una ubicación o volumen externo existente.
CF_MANAGED_FILE_EVENTS_INVALID_CONTINUATION_TOKEN
La posición de lectura de la secuencia en la caché de eventos de archivo se ha invalidado. Esto podría ocurrir porque se actualizó la configuración de eventos de archivo (por ejemplo, se cambió la dirección URL de la cola proporcionada o se deshabilitaron los eventos de archivo y se volvió a habilitar). Póngase en contacto con el soporte técnico de Databricks para obtener ayuda.
CF_MANAGED_FILE_EVENTS_IS_PREVIEW
El cargador automático con eventos de archivos administrados es una funcionalidad de vista previa. Para continuar, póngase en contacto con el soporte técnico de Databricks o desactive la opción cloudFiles.useManagedFileEvents.
CF_MANAGED_FILE_EVENTS_RATE_LIMIT_EXCEEDED
Se están ejecutando demasiadas secuencias simultáneas del cargador automático. Para resolver, reduzca la simultaneidad de flujos si es posible o cree volúmenes independientes para cada subdirectorio al cargar desde varios subdirectorios en una ubicación externa. Póngase en contacto con el representante de Databricks si el problema persiste.
CF_MAX_MUST_BE_POSITIVE
max debe ser positivo
CF_METADATA_FILE_CONCURRENTLY_USED
Varias consultas de streaming están usando concurrentemente <metadataFile>
CF_MISSING_METADATA_FILE_ERROR
Falta el archivo de metadatos en el directorio del punto de control de origen de streaming. Estos metadatos
el archivo contiene opciones predeterminadas importantes para la secuencia, por lo que no se puede reiniciar la secuencia.
Ahora mismo. Póngase en contacto con el soporte técnico de Databricks para obtener ayuda.
CF_MISSING_PARTITION_COLUMN_ERROR
La columna <columnName> de partición no existe en el esquema proporcionado:
<schema>
CF_MISSING_SCHEMA_IN_PATHLESS_MODE
Especifique un esquema mediante .schema() si no se proporciona una ruta de acceso al origen de CloudFiles mientras usa el modo de notificación de archivo. Como alternativa, para que el cargador automático infiera el esquema, proporcione una ruta de acceso base en .load().
CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC
Se encontraron las notificaciones existentes para el tema <topicName> en el cubo <bucketName>:
notification,id
<notificationList>
Para evitar la contaminación del suscriptor con eventos no deseados, elimine las notificaciones anteriores y vuelva a intentarlo.
CF_NEW_PARTITION_ERROR
Se dedujeron nuevas columnas de partición de sus archivos: [<filesList>]. Proporcione todas las columnas de partición del esquema o proporcione una lista de columnas de partición para las que desea extraer valores mediante: .option("cloudFiles.partitionColumns", "{comma-separated-list|empty-string}")
CF_PARTITON_INFERENCE_ERROR
Se produjo un error al intentar deducir el esquema de partición del lote de archivos actual. Proporcione las columnas de partición explícitamente mediante: .option("cloudFiles.<partitionColumnOption>", "{comma-separated-list}")
CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES
No se pueden leer archivos cuando la ruta <path> de acceso de entrada no existe. Asegúrese de que la ruta de acceso de entrada existe y vuelva a intentarlo.
CF_PERIODIC_BACKFILL_NOT_SUPPORTED
No se admite el relleno periódico si el relleno asincrónico está deshabilitado. Puede habilitar la lista asincrónica de reposición o directorio estableciendo spark.databricks.cloudFiles.asyncDirListing en true
CF_PREFIX_MISMATCH
Evento encontrado no coincidente: la clave <key> no tiene el prefijo: <prefix>
CF_PROTOCOL_MISMATCH
<message>
Si no necesita realizar ningún otro cambio en el código, establezca SQL.
configuración: "<sourceProtocolVersionKey> = <value>".
para reanudar la transmisión. Consulte:
<docLink>
para obtener más información.
CF_REGION_NOT_FOUND_ERROR
No se pudo obtener la región de AWS predeterminada. Especifique una región mediante la opción cloudFiles.region.
CF_RESOURCE_SUFFIX_EMPTY
No se pudieron crear servicios de notificación: el sufijo de recurso no puede estar vacío.
CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS
No se pudieron crear servicios de notificación: el sufijo de recurso solo puede tener caracteres alfanuméricos, guiones (-) y caracteres de subrayado (_).
CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE
No se pudieron crear servicios de notificación: el sufijo de recurso solo puede tener letras minúsculas, números y guiones (-).
CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP
No se pudieron crear servicios de notificación: el sufijo de recurso solo puede tener caracteres alfanuméricos, guiones (-), guiones bajos (_), puntos (.), tildes (~) más signos (+) y signos de porcentaje (<percentSign>).
CF_RESOURCE_SUFFIX_LIMIT
No se pudieron crear servicios de notificación: el sufijo de recurso no puede tener más caracteres <limit> .
CF_RESOURCE_SUFFIX_LIMIT_GCP
No se pudieron crear servicios de notificación: el sufijo de recurso debe estar entre <lowerLimit> caracteres y <upperLimit> .
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY
Se encontró una clave de etiqueta de recurso GCP restringida (<key>). Las siguientes claves de etiqueta de recurso de GCP están restringidas en Auto Loader: [<restrictedKeys>]
CF_RETENTION_GREATER_THAN_MAX_FILE_AGE
cloudFiles.cleanSource.retentionDuration no puede ser mayor que cloudFiles.maxFileAge.
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
No se pudo crear la notificación para el tema: <topic> con prefijo: <prefix>. Ya hay un tema con el mismo nombre con otro prefijo: <oldPrefix>. Pruebe a usar un sufijo de recurso diferente para la instalación o elimine la configuración existente.
CF_SCHEMA_LOG_DEEP_CLONE_FAILED
No se pudo clonar ni migrar ninguna de las entradas del registro de esquema desde el esquema de origen.
CF_SFTP_MISSING_PASSWORD_OR_KEY_FILE
Se debe especificar la contraseña o el archivo de clave para SFTP.
Especifique la contraseña en el URI de origen o a través <passwordOption>de o especifique el contenido del archivo de clave a través de <keyFileOption>.
CF_SFTP_NOT_ENABLED
El acceso a archivos SFTP no está habilitado. Póngase en contacto con el soporte técnico de Databricks para obtener ayuda.
CF_SFTP_REQUIRE_FULL_PATH
Especifique los componentes de ruta de acceso completos para un origen SFTP en forma de sftp://$user@$host:$port/$path para asegurar una consulta precisa de la conexión UC.
CF_SFTP_REQUIRE_UC_CLUSTER
Se requiere un clúster habilitado para UC para acceder a los archivos SFTP. Póngase en contacto con el soporte técnico de Databricks para obtener ayuda.
CF_SFTP_USERNAME_NOT_FOUND
El nombre de usuario debe especificarse para SFTP.
Proporcione el nombre de usuario en el URI de origen o a través de <option>.
CF_SOURCE_DIRECTORY_PATH_REQUIRED
Proporcione la ruta de acceso del directorio de origen con la opción path
CF_SOURCE_UNSUPPORTED
El origen de archivos en la nube solo admite rutas S3, Azure Blob Storage (wasb/wasbs) y Azure Data Lake Gen1 (adl) y Gen2 (abfs/abfss) en este momento. Ruta de acceso: "<path>", URI resuelto: "<uri>".
CF_STATE_INCORRECT_SQL_PARAMS
La función cloud_files_state acepta un parámetro de tipo cadena que representa el directorio de punto de control de una secuencia de cloudFiles o un nombre de tabla multipartes que identifica una tabla de streaming, y un segundo parámetro opcional de tipo entero que indica la versión del punto de control para el cual se carga el estado. El segundo parámetro también puede ser "latest" para leer el punto de comprobación más reciente. Se recibió: <params>
CF_STATE_INVALID_CHECKPOINT_PATH
La ruta del punto de control de entrada <path> no es válida. La ruta no existe o no se encuentran fuentes de archivos en la nube.
CF_STATE_INVALID_VERSION
La versión <version> especificada no existe o se quitó durante el análisis.
CF_THREAD_IS_DEAD
El subproceso <threadName> está inactivo.
CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION
No se puede derivar la ubicación del punto de control de flujo desde la ubicación del punto de control de origen: <checkPointLocation>
CF_UNABLE_TO_DETECT_FILE_FORMAT
No se puede detectar el formato de archivo de origen de los archivos muestreados <fileSize>; se encontró <formats>. Especifique el formato.
CF_UNABLE_TO_EXTRACT_BUCKET_INFO
No se puede extraer información del cubo. Ruta de acceso: "<path>", URI resuelto: "<uri>".
CF_UNABLE_TO_EXTRACT_KEY_INFO
No se puede extraer información clave. Ruta de acceso: "<path>", URI resuelto: "<uri>".
CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO
No se puede extraer información de la cuenta de almacenamiento; path: '<path>', URI resuelto: '<uri>'
CF_UNABLE_TO_LIST_EFFICIENTLY
Recibió un evento de cambio de nombre de directorio para la ruta de acceso <path>, pero no podemos enumerar este directorio de forma eficaz. Para que la secuencia continúe, establezca la opción "cloudFiles.ignoreDirRenames" en true y considere la posibilidad de habilitar rerrellenos normales con cloudFiles.backfillInterval para que estos datos se procesen.
CF_UNEXPECTED_READ_LIMIT
ReadLimit inesperado: <readLimit>
CF_UNKNOWN_OPTION_KEYS_ERROR
Se encontraron claves de opción desconocidas:
<optionList>
Asegúrese de que todas las claves de opción proporcionadas sean correctas. Si desea omitir la
validación de las opciones y omitir estas opciones desconocidas, puede establecer:
.option("cloudFiles.<validateOptions>", "false")
CF_UNKNOWN_READ_LIMIT
Límite de lectura desconocido: <readLimit>
CF_UNSUPPORTED_CLEAN_SOURCE_MOVE
No se admite la configuración del modo "move" de cleanSource.
Para más información, consulte CF_UNSUPPORTED_CLEAN_SOURCE_MOVE
CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION
La función SQL "cloud_files" para crear un origen de streaming de Auto Loader solo se admite en una canalización de canalizaciones declarativas de Spark de Lakeflow. Consulte más detalles en:
<docLink>
CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE
No se admite la inferencia de esquema para el formato: <format>. Especifique el esquema.
CF_UNSUPPORTED_LOG_VERSION
UnsupportedLogVersion: la versión de registro máxima admitida es v<maxVersion>, pero se encontró v<version>. El archivo de registro se generó mediante una versión más reciente de DBR y esta versión no la puede leer. Actualice.
CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE
El modo <mode> de evolución del esquema no se admite para el formato: <format>. Establezca el modo de evolución del esquema en "none".
CF_USE_DELTA_FORMAT
No se admite la lectura desde una tabla Delta con esta sintaxis. Si desea consumir datos de Delta, consulte los documentos: leer una tabla Delta (<deltaDocLink>) o leer una tabla Delta como origen de flujo (<streamDeltaDocLink>). El origen de streaming de Delta ya está optimizado para el consumo incremental de datos.
Geospatial
EWKB_PARSE_ERROR
Error al analizar EWKB: <parseError> en la posición <pos>
Para obtener más información, consulte EWKB_PARSE_ERROR
EWKT_PARSE_ERROR
Error al analizar EWKT: <parseError> en la posición <pos>
GEOJSON_PARSE_ERROR
Error al analizar GeoJSON: <parseError> en la posición <pos>
Para obtener más información, consulte GEOJSON_PARSE_ERROR
GEO_ENCODER_SRID_MISMATCH_ERROR
No se pudo codificar el valor <type> porque al codificar, el SRID proporcionado <valueSrid> no coincide con el SRID del tipo: <typeSrid>.
H3_INVALID_CELL_ID
<h3Cell> no es un identificador de celda H3 válido
Para obtener más información, consulte H3_INVALID_CELL_ID
H3_INVALID_GRID_DISTANCE_VALUE
La distancia <k> de la cuadrícula H3 debe ser no negativa
Para obtener más información, consulte H3_INVALID_GRID_DISTANCE_VALUE.
H3_INVALID_RESOLUTION_VALUE
La resolución H3 <r> debe estar entre <minR> y <maxR>, inclusive
Para obtener más información, consulte H3_INVALID_RESOLUTION_VALUE.
H3_NOT_ENABLED
<h3Expression> está deshabilitado o no es compatible. Considere la posibilidad de cambiar a un nivel que admita expresiones H3.
Para obtener más información, consulte H3_NOT_ENABLED
H3_PENTAGON_ENCOUNTERED_ERROR
Se encontró un pentágono al calcular el anillo hexadecimal de <h3Cell> con una distancia de cuadrícula <k>
H3_UNDEFINED_GRID_DISTANCE
La distancia de cuadrícula H3 entre <h3Cell1> y <h3Cell2> no está definida
ST_DIFFERENT_SRID_VALUES
Los argumentos de "<sqlFunction>" deben tener el mismo valor SRID. Se encontraron valores SRID: <srid1>, <srid2>
ST_INVALID_ARGUMENT
"<sqlFunction>":
Para obtener más información, consulte ST_INVALID_ARGUMENT
ST_INVALID_CRS_TRANSFORMATION_ERROR
<sqlFunction>: transformación CRS no válida o no admitida de SRID <srcSrid> a SRID <trgSrid>
ST_INVALID_PRECISION_VALUE
La precisión <p> debe estar entre <minP> y <maxP>, inclusive
ST_NOT_ENABLED
<stExpression> está deshabilitado o no es compatible. Considere la posibilidad de cambiar a un nivel que admita expresiones ST.
WKB_PARSE_ERROR
Error al analizar WKB: <parseError> en la posición <pos>
Para obtener más información, consulte WKB_PARSE_ERROR
WKT_PARSE_ERROR
Error al analizar WKT: <parseError> en la posición <pos>
Para obtener más información, consulte WKT_PARSE_ERROR
Catálogo de Unity
NO_SE_PUEDE_ELIMINAR_COLUMNA_ETIQUETADA
No se puede quitar la columna porque tiene una o varias etiquetas reguladas asignadas. Quite las etiquetas antes de quitar la columna. Para obtener instrucciones, consulte la documentación <docLink>.
CREACIÓN_DE_HIJOS_PROHIBIDO_PARA_SECURABLE_EXTRANJERO
No se puede crear un elemento protegible <childSecurableName> de tipo <childSecurableType> en el elemento primario <parentSecurableName> de tipo <parentSecurableKind>.
FORMATO_DE_COLUMNA_INCOMPATIBLE_CON_TIPO_DE_COLUMNA
La columna <columnName> tiene <formatType> formato que no es compatible con el tipo <columnType>de columna .
CONFLICTING_COLUMN_NAMES_ERROR
La <columnName> columna entra en conflicto con otra columna con el mismo nombre, pero con o sin espacios en blanco finales (por ejemplo, una columna existente denominada <columnName> ). Cambie el nombre de la columna por otro nombre.
CONNECTION_CREDENTIALS_NOT_SUPPORTED_FOR_ONLINE_TABLE_CONNECTION
Solicitud no válida para obtener credenciales de nivel de conexión para la conexión de tipo <connectionType>. Estas credenciales solo están disponibles para las conexiones de PostgreSQL administradas.
CONNECTION_TYPE_NOT_ENABLED
El tipo de conexión '<connectionType>' no está habilitado. Habilite la conexión para usarla.
DELTA_SHARING_PROVISIONING_STATE_NOT_ACTIVE
La entidad compartida '<securableFullName>' no se puede usar actualmente, ya que aún no se ha sincronizado completamente con la entidad de origen correspondiente. Causado por: <reason>.
DELTA_SHARING_READ_ONLY_RECIPIENT_EXISTS
Ya hay un objeto Recipient '<existingRecipientName>' con el mismo identificador de uso compartido '<existingMetastoreId>'.
DELTA_SHARING_READ_ONLY_SECURABLE_KIND
Los datos de una variante de elemento protegible de uso compartido Delta <securableKindName> son de solo lectura y no se pueden crear, modificar ni eliminar.
DISASTER_RECOVERY_READ_ONLY
Los datos dentro de un catálogo <catalogName> de réplicas administrados por recuperación ante desastres son de solo lectura y no se pueden crear, modificar ni eliminar.
EXTERNAL_ACCESS_DISABLED_ON_METASTORE
La distribución de credenciales se rechaza para el entorno de computación que no sea de Databricks debido a que el acceso a datos externos está deshabilitado para el metastore <metastoreName>. Póngase en contacto con el administrador de metastore para habilitar la configuración de "Acceso a datos externos" en el metastore.
EXTERNAL_ACCESS_NOT_ALLOWED_FOR_TABLE
No se puede tener acceso a la tabla con id <tableId> desde fuera del entorno de proceso de Databricks debido a que su tipo es <securableKind>. Solo se puede acceder externamente a los tipos de tabla 'TABLE_EXTERNAL', 'TABLE_DELTA_EXTERNAL' y ''TABLE_DELTA.
EXTERNAL_USE_SCHEMA_ASSIGNED_TO_INCORRECT_SECURABLE_TYPE
Privilege EXTERNAL USE SCHEMA no es aplicable a esta entidad <assignedSecurableType> y solo se puede asignar a un esquema o catálogo. Quite el privilegio del <assignedSecurableType> objeto y asígnelo a un esquema o catálogo en su lugar.
EXTERNAL_WRITE_NOT_ALLOWED_FOR_TABLE
No se puede escribir la tabla con id <tableId> desde fuera del entorno de proceso de Databricks debido a que su tipo es <securableKind>. Solo los tipos de tabla 'TABLE_EXTERNAL' y 'TABLE_DELTA_EXTERNAL' se pueden escribir externamente.
FOREIGN_CATALOG_STORAGE_ROOT_MUST_SUPPORT_WRITES
La ubicación de almacenamiento de un catálogo externo de tipo <catalogType> se usará para descargar datos y no puede ser de solo lectura.
HMS_SECURABLE_OVERLAP_LIMIT_EXCEEDED
El número de valores <resourceType> para la ruta de acceso de entrada <url> supera el límite permitido (<overlapLimit>) para los valores <resourceType> de HMS superpuestos.
FORMATO_DE_ORIGEN_DE_DATOS_NO_VÁLIDO
No se admite<datasourceFormat> el formato de origen de datos '<tableTypeSuffix> <catalogKindSuffix>'.
INVALID_NAME_FORMAT
<fieldDescription> no es un nombre válido. Los nombres válidos solo deben contener caracteres alfanuméricos y caracteres de subrayado, y no pueden contener espacios, puntos, barras diagonales ni caracteres de control.
INVALID_RESOURCE_NAME_DELTA_SHARING
Las solicitudes de uso compartido Delta no se admiten usando nombres de recursos
INVALID_RESOURCE_NAME_ENTITY_TYPE
El nombre de recurso proporcionado hace referencia al tipo <provided> de entidad, pero se esperaba <expected>
INVALID_RESOURCE_NAME_METASTORE_ID
El nombre de recurso proporcionado hace referencia a un metastore que no está en el ámbito de la solicitud actual.
INVALID_SECURABLE_NAME
<rpcName> nombre no válido <securableType> : '<securableFullName>'
LOCATION_OVERLAP
La dirección URL de la ruta de acceso de entrada "<path>" se superpone con <overlappingLocation> dentro de la llamada "<caller>".
<conflictingSummary>. <permissionErrorSuggestion>
LOCATION_OVERLAP_STORAGE_CONFLICT_WITH_WORKSPACE_STORAGE
La ubicación de almacenamiento definida por el cliente entra en conflicto con el almacenamiento predeterminado del área de trabajo "<path>" durante la operación "<caller>". Esto impide que las características que dependen del almacenamiento del área de trabajo funcionen. Resumen de conflictos: <conflictingSummary>. Consulte https://docs.databricks.com/aws/en/data-governance/unity-catalog/storage-conflicts para ver los pasos de corrección.
Formato de Tabla Gestionada
Solo se admite Delta para tablas administradas. El formato de origen de datos proporcionado es <datasourceFormat>.
MONGO_DB_SRV_CONNECTION_STRING_DOES_NOT_ALLOW_PORT
No se permite crear o actualizar una conexión de MongoDB porque la cadena de conexión SRV de MongoDB no requiere el puerto.
Quite el puerto, ya que la cadena de conexión SRV no requiere el puerto.
PRINCIPAL_NO_EXISTE
No se pudo encontrar el principal con el nombre <principalName>.
SOPORTE_DE_PRIVILEGIOS_NO_HABILITADO
La compatibilidad con privilegios no está habilitada para el tipo [<typeString>]
PRIVILEGE_NOT_APPLICABLE_TO_ENTITY
El privilegio <privilege> no es aplicable a esta entidad [<classifier>]. Si esto parece inesperado, compruebe la versión con privilegios del metastore en uso [<privilegeVersion>].
CATÁLOGO_SOLO_LECTURA
Los datos dentro de un catálogo de uso compartido delta son de solo lectura y no se pueden crear, modificar ni eliminar. El catálogo '<catalogName>' es un catálogo Delta Sharing.
REDSHIFT_FOREIGN_CATALOG_STORAGE_ROOT_MUST_BE_S3
La raíz de almacenamiento para el catálogo externo de Redshift debe ser AWS S3.
SCHEMA_NOT_EMPTY
El esquema '<fullName>' no está vacío. <extraInfo>
SECURABLE_KIND_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION
Los elementos protegibles con la variante <securableKind> no admiten la federación de Lakehouse.
SECURABLE_KIND_NOT_ENABLED
El tipo protegible '<securableKind>' no está habilitado. Si se trata de un tipo protegible asociado a una funcionalidad de vista previa, habilítela en la configuración del área de trabajo.
SECURABLE_TYPE_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION
Los elementos protegibles con el tipo <securableType> no admiten la federación de Lakehouse.
SOURCE_TABLE_COLUMN_COUNT_EXCEEDS_LIMIT
La tabla de origen tiene más de <columnCount> columnas. Reduzca el número de columnas a <columnLimitation> o menos.
SYSTEM_SERVICE_PRINCIPAL_NO_ESTÁ_REGISTRADO
No se pudo encontrar la entidad de servicio del sistema registrada con el nombre del recurso <servicePrincipalResource>.
TIPO_DE_TABLA_NO_SOPORTA_METADATA_DE_COLUMNA
El tipo <tableType> de tabla no admite metadatos de columna.
UC_AAD_CLIENT_SECRET_EXPIRED_FOR_SERVICE_PRINCIPAL
Las claves secretas de cliente para la entidad de servicio con el identificador <applicationId> de aplicación han expirado. Visite Azure Portal para crear nuevas claves para la entidad de servicio.
UC_AAD_CLIENT_SECRET_EXPIRED_FOR_STORAGE_CREDENTIAL
Las claves secretas de cliente para las credenciales <storageCredentialName> de almacenamiento han expirado. Póngase en contacto con el propietario o el administrador de la cuenta para actualizar la credencial de almacenamiento.
UC_AAD_CLIENT_SECRET_INVALID_FOR_SERVICE_PRINCIPAL
La clave secreta de cliente para la entidad de servicio con el identificador <applicationId> de aplicación no es válida.
UC_AAD_SERVICE_PRINCIPAL_CONFIG_INVALID
La configuración de la entidad de servicio no es válida. Compruebe el identificador de directorio, el identificador de la aplicación y el secreto de cliente.
UC_AAD_TOKEN_EXCHANGE_GENERIC_FAILURE
No se pudieron obtener las credenciales: la credencial <storageCredentialName> de almacenamiento no está configurada correctamente. Póngase en contacto con el propietario o el administrador de la cuenta para actualizar la configuración.
UC_AAD_TOKEN_LIFETIME_TOO_SHORT
La duración del token de AAD intercambiado es <lifetime>, la cual es demasiado corta. Compruebe la configuración de Azure AD para asegurarse de que el token de acceso temporal tenga al menos una duración de una hora. https://learn.microsoft.com/azure/active-directory/develop/active-directory-configurable-token-lifetimes
UC_ABAC_AMBIGUOUS_COLUMN_MATCH
Error al evaluar las directivas de ABAC en "<resource>". La directiva '<policyName>' tuvo un error con el mensaje: el uso del alias '<alias>' tenía <size> coincidencias, se permite exactamente 1 coincidencia.
UC_ABAC_DEPENDENCY_COMPLEXITY_LIMIT_EXCEEDED
<resourceType> '<ref>' tiene demasiadas <resolverType> dependencias de abac.
UC_ABAC_DEPENDENCY_DIFFERING_RF_CM
La dependencia '<dependency>' se ha referenciado múltiples veces, lo que ha resultado en diferencias en los filtros de fila ABAC o las máscaras de columna.
UC_ABAC_EVALUATION_USER_ERROR
Error al evaluar las directivas de ABAC en "<resource>". Error en la directiva '<policyName>' con el mensaje : <message>.
UC_ABAC_INVALID_TAG_POLICY_VALUE
Error al evaluar las directivas de ABAC en "<resource>". Error con el mensaje: Valor <tagValue> de directiva de etiqueta no válido para la clave <tagKey>.
UC_ABAC_MULTIPLE_ROW_FILTERS
La evaluación de las políticas de ABAC en "<resource>" dio como resultado múltiples filtros de fila. Se permite al máximo un filtro de fila.
Política de Etiquetas Desconocidas de UC_ABAC
Error al evaluar las directivas de ABAC en "<resource>". Error con el mensaje: Directiva de etiqueta desconocida: <tagKey>.
UC_ABAC_ALIAS_NO_COINCIDENTE_EN_COLUMNAS_USADAS
Error al evaluar las directivas de ABAC en "<resource>". Error con el mensaje: El alias '<alias>' usado en USING COLUMNS no coincide con ninguna columna.
UC_ABAC_UNMATCHED_ON_COLUMN_ALIAS
Error al evaluar las directivas de ABAC en "<resource>". Error en la directiva '<policyName>' con el mensaje: alias '<alias>' usado en ON COLUMN no coincide con ninguna columna.
UC_ABAC_UNMATCHED_USING_ALIAS
Error al evaluar las directivas de ABAC en "<resource>". La directiva '<policyName>' falló con el mensaje: El alias '<alias>' no tiene una columna coincidente.
UC_ABAC_USING_REF_OF_NATIVE_MASKED_COLUMNS
Error al evaluar las directivas de ABAC en "<resource>". Error con el mensaje: la directiva nativa de RLS/CM ha enmascarado la columna '<usingCol>' y no se puede usar como entrada para la directiva de ABAC '<policyName>'.
UC_ACCESS_REQUIRES_WORKSPACE
No se puede acceder al elemento protegible enlazado al área de trabajo porque el usuario no está asignado al área de trabajo asociada.
UC_ALTER_DLT_VIEW_OUTSIDE_DEFINING_PIPELINE
No se permite alterar la vista "<viewFullName>" fuera de la canalización que lo definió. En su lugar, actualice la definición de vista desde la canalización que la definió (ID de canalización: <owningPipelineId>).
UC_ATLAS_NOT_ENABLED_FOR_CALLING_SERVICE
Atlas no está habilitado para el servicio <serviceName>de llamada .
UC_AUTHZ_ACTION_NOT_SUPPORTED
No se admite autorizar <actionName>; compruebe que el RPC invocado está implementado para este tipo de recurso.
UC_AWS_ASSUME_ROLE_FAILED
No se pudieron obtener las credenciales: el rol de AWS IAM en la credencial del catálogo de Unity no está configurado correctamente. Póngase en contacto con el administrador de metastore o el propietario de credenciales para actualizar la configuración en AWS.
UC_AWS_EMPTY_STORAGE_LOCATION
Ubicación de almacenamiento vacía.
UC_AWS_INVALID_S3_POLICY_PREFIX
Ruta de acceso s3 no válida para la ubicación de almacenamiento: la ruta de acceso <providedPath> de S3 no comienza con el prefijo esperado: <expectedPrefix>.
UC_AWS_UNSUPPORTED_S3_SCHEME
Ruta de acceso s3 no válida para la ubicación de almacenamiento: esquema no admitido encontrado: <providedScheme>. Los esquemas admitidos son: <supportedS3Schemes>.
UC_AZURE_BLOB_SERVICE_UNAVAILABLE
Azure Blob service no está disponible temporalmente. Inténtalo de nuevo más tarde.
UC_AZURE_UDK_UNAUTHORIZED
La solicitud de clave de delegación de usuarios no está autorizada. Detalles: <details>
UC_BUILTIN_HMS_CONNECTION_CREATION_PERMISSION_DENIED
No se puede crear una conexión para un metastore de Hive integrado porque el usuario <userId> no es el administrador del área de trabajo <workspaceId>
UC_BUILTIN_HMS_CONNECTION_MODIFY_RESTRICTED_FIELD
Intente modificar un campo restringido en la conexión HMS integrada "<connectionName>". Solo se puede actualizar "warehouse_directory".
UC_CANNOT_RENAME_PARTITION_FILTERING_COLUMN
No se pudo cambiar el nombre de la columna <originalLogicalColumn> de tabla porque se usa para el filtrado de particiones en <sharedTableName>. Para continuar, puede quitar la tabla del recurso compartido, cambiar el nombre de la columna y compartirla con las columnas de filtrado de particiones deseadas de nuevo. Sin embargo, esto puede interrumpir la consulta de streaming para el destinatario.
UC_CHILD_CREATION_FORBIDDEN_FOR_NON_UC_CLUSTER
No se puede crear <securableType> '<securable>' en <parentSecurableType> '<parentSecurable>' porque la solicitud no procede de un clúster de UC.
UC_CONFLICTING_CONNECTION_ALLOW_LIST_OPTIONS
No se puede crear una conexión con una lista de permitidos que se superponga con una opción de conexión. Valor: <conflictingOptions>
UC_CONFLICTING_CONNECTION_OPTIONS
No se puede crear una conexión con las opciones de autenticación de nombre de usuario y contraseña y oauth. Elija uno.
UC_CONNECTION_CREDENTIALS_MAXIMUM_REACHED
Se ha alcanzado el número máximo de credenciales para el nombre de conexión "<connectionName>". Elimine las credenciales existentes antes de crear una nueva.
UC_CONNECTION_CREDENTIALS_NOT_EXIST_FOR_USER_WITH_LOGIN
No se encuentra la credencial para la identidad de usuario('<userIdentity>') para la conexión '<connectionName>'. Inicie sesión primero en la conexión visitando <connectionPage>
UC_CONNECTION_CREDENTIALS_TYPE_NOT_SUPPORTED
No se admite la creación de credenciales para el tipo protegible '<securableType>'. Tipos protegibles admitidos: <allowedSecurableType>.
UC_CONNECTION_EXISTS_FOR_CREDENTIAL
La credencial '<credentialName>' tiene una o varias conexiones dependientes. Puede usar la opción force para continuar actualizando o eliminando la credencial, pero es posible que las conexiones que usen esta credencial ya no funcionen.
UC_CONNECTION_EXPIRED_ACCESS_TOKEN
El token de acceso asociado a la conexión ha expirado. Actualice la conexión para reiniciar el flujo de OAuth para recuperar un token.
UC_CONNECTION_EXPIRED_REFRESH_TOKEN
El token de actualización asociado a la conexión ha expirado. Actualice la conexión para reiniciar el flujo de OAuth para recuperar un token nuevo.
UC_CONNECTION_IN_FAILED_STATE
La conexión está en el estado FAILED. Actualice la conexión con credenciales válidas para reactivarla.
UC_CONNECTION_MISSING_OPTION
Las conexiones de tipo protegible "<securableType>" deben incluir las siguientes opciones: <requiredOptions>.
UC_CONNECTION_MISSING_REFRESH_TOKEN
No hay ningún token de actualización asociado a la conexión. Actualice la integración del cliente de OAuth en el proveedor de identidades para devolver tokens de actualización y actualice o vuelva a crear la conexión para reiniciar el flujo de OAuth y recuperar los tokens necesarios.
UC_CONNECTION_OAUTH_EXCHANGE_FAILED
El intercambio de tokens de OAuth falló con el código de estado HTTP <httpStatus>. El mensaje de excepción o respuesta del servidor devuelto es: <response>
UC_CONNECTION_OPTION_NOT_SUPPORTED
Las conexiones de tipo protegible "<securableType>" no admiten las siguientes opciones: <optionsNotSupported>. Opciones admitidas: <allowedOptions>.
UC_COORDINATED_COMMITS_NOT_ENABLED
La compatibilidad con confirmaciones coordinadas no está habilitada. Póngase en contacto con el soporte técnico de Databricks.
UC_CREATE_FORBIDDEN_UNDER_INACTIVE_SECURABLE
No se puede crear <securableType> '<securableName>' porque está bajo un <parentSecurableType> '<parentSecurableName>' que no está activo. Elimine el elemento primario protegible y vuelva a crear el elemento primario.
UC_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED
No se pudo analizar el identificador del conector de acceso proporcionado: <accessConnectorId>. Compruebe su formato e inténtelo de nuevo.
UC_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN
No se pudo obtener un token de AAD para realizar la validación de permisos en la nube en un conector de acceso. Por favor, vuelva a intentar la acción.
UC_CREDENTIAL_INVALID_CLOUD_PERMISSIONS
SQLSTATE: ninguno asignado
El registro de una credencial requiere el rol de colaborador en el conector de acceso correspondiente con el identificador <accessConnectorId>. Póngase en contacto con el administrador de cuentas.
UC_CREDENTIAL_INVALID_CREDENTIAL_TYPE_FOR_PURPOSE
El tipo de credencial '<credentialType>' no se admite para el propósito '<credentialPurpose>'
UC_CREDENTIAL_PERMISSION_DENIED
SQLSTATE: ninguno asignado
Solo el administrador de la cuenta puede crear o actualizar una credencial con el tipo <storageCredentialType>.
UC_CREDENTIAL_TRUST_POLICY_IS_OPEN
La política de confianza del rol IAM para permitir que la cuenta de Databricks asuma el rol debe requerir un ID externo. Póngase en contacto con el administrador de la cuenta para agregar la condición de ID externo. Este comportamiento tiene como fin protegerse contra el problema del delegado confundido (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html).
UC_CREDENTIAL_WORKSPACE_API_PROHIBITED
No se admite la creación o actualización de una credencial como administrador que no sea de cuenta en la API de nivel de cuenta. Por favor, use la API a nivel de área de trabajo en su lugar.
UC_DBR_TRUST_VERSION_TOO_OLD
Databricks Runtime que se usa ya no admite esta operación. Use la versión más reciente (es posible que solo tenga que reiniciar el clúster).
UC_DELTA_ILLEGAL_BACKFILLED_VERSION
LatestBackfilledVersion <latestBackfilledVersion> inesperado en la confirmación (<version>, <commitType>).
UC_DELTA_ILLEGAL_CONCURRENT_MIGRATION
No se admite la actualización simultánea ni la degradación a o desde una tabla administrada por catálogos. Asegúrese de que solo una transacción ejecuta el comando de migración a la vez. Se detectó un duplicado <commitType> .
UC_DELTA_ILLEGAL_MIGRATION_STATE_CHANGE
Transición de estado no válido del tipo <lastCommitType> de confirmación antiguo a nuevo <commitType>.
UC_DELTA_MIGRATION_STATE_CHANGE_VERSION_MISMATCH
Las versiones no coinciden con la transición de estado anterior (<lastVersion>, <lastCommitType>) a nueva (<version>, <commitType>).
UC_DELTA_UNIVERSAL_FORMAT_CANNOT_PARSE_ICEBERG_VERSION
No se puede analizar la versión de la tabla de Apache Iceberg desde la ubicación de metadatos <metadataLocation>.
UC_DELTA_UNIVERSAL_FORMAT_CONCURRENT_WRITE
Se detectó una actualización simultánea a la misma versión de metadatos de Apache Iceberg.
UC_DELTA_UNIVERSAL_FORMAT_INVALID_METADATA_LOCATION
La ubicación <metadataLocation> de metadatos confirmada no es válida. No es un subdirectorio del directorio <tableRoot>raíz de la tabla .
UC_DELTA_UNIVERSAL_FORMAT_MISSING_FIELD_CONSTRAINT
Faltan los campos obligatorios de la información de conversión de formato delta de Apache Incremental.
UC_DELTA_UNIVERSAL_FORMAT_NON_CREATE_CONSTRAINT
No se admite la configuración de la información de formato delta de Apache Incremental en la creación.
UC_DELTA_UNIVERSAL_FORMAT_TOO_LARGE_CONSTRAINT
La información de conversión de formato delta apache Incremental es demasiado grande.
UC_DELTA_UNIVERSAL_FORMAT_UPDATE_INVALID
Los metadatos uniformes solo se pueden actualizar en tablas Delta con el modo uniforme habilitado.
UC_DEPENDENCY_DEPTH_LIMIT_EXCEEDED
<resourceType> La profundidad '<ref>' supera el límite (o tiene una referencia circular).
UC_DEPENDENCY_DOES_NOT_EXIST
<resourceType> '<ref>' no es válido porque uno de los recursos subyacentes no existe. <cause>
UC_DEPENDENCY_PERMISSION_DENIED
<resourceType> '<ref>' no tiene privilegios suficientes para ejecutarse porque el propietario de uno de los recursos subyacentes produjo un error en una comprobación de autorización. <cause>
UC_DUPLICATE_CONNECTION
Ya existe una conexión denominada "<connectionName>" con la misma dirección URL. Pida al propietario permiso para usar esa conexión en lugar de crear un duplicado.
UC_DUPLICATE_FABRIC_CATALOG_CREATION
Se intentó crear un catálogo de Fabric con la dirección URL "<storageLocation>" que coincide con un catálogo existente, que no está permitido.
UC_DUPLICATE_TAG_ASSIGNMENT_CREATION
La asignación de etiquetas con la clave de etiqueta <tagKey> ya existe
UC_ENTITY_DOES_NOT_HAVE_CORRESPONDING_ONLINE_CLUSTER
La entidad <securableType> <entityId> no tiene un clúster en línea correspondiente.
UC_ETAG_MISMATCH
Se ha modificado el recurso. Obtenga la etiqueta etag más reciente y vuelva a intentarlo. Valor de etag esperado: <expectedTokenValue> con la versión <expectedTokenVersion>del protocolo , el valor de etag recibido: <providedTokenValue> con la versión del protocolo <providedTokenVersion>
UC_EXCEEDS_MAX_FILE_LIMIT
Hay más de <maxFileResults> archivos. Especifique [max_results] para limitar el número de archivos devueltos.
UC_EXTERNAL_HMS_SCHEMA_LOCATION_NOT_FEDERATED
El esquema <schemaName> está en DEGRADED estado de aprovisionamiento, que se espera, ya que la ubicación del esquema eHMS/Glue no está federada.
UC_EXTERNAL_LOCATION_OP_NOT_ALLOWED
No se puede <opName> <extLoc> <reason>
<suggestion>.
UC_FEATURE_DISABLED
<featureName> está deshabilitado actualmente en UC.
UC_FOREIGN_CATALOG_FOR_CONNECTION_TYPE_NOT_SUPPORTED
No se admite la creación de un catálogo externo para el tipo de conexión '<connectionType>'. Este tipo de conexión solo se puede usar para crear canalizaciones de ingesta administradas. Consulte la documentación de Databricks para obtener más información.
UC_FOREIGN_CREDENTIAL_CHECK_ONLY_FOR_READ_OPERATIONS
Solo se pueden recuperar credenciales READ para tablas externas.
UC_FOREIGN_ENTITY_CREATION_FORBIDDEN_DURING_CONVERSION
La creación FOREIGN <securableType> de '<entityName>' en el catálogo '<catalogName>' está prohibida mientras el catálogo se convierte de FOREIGN a STANDARD.
UC_FOREIGN_HMS_SHALLOW_CLONE_MISMATCH
La tabla base y la tabla clonada deben estar en el mismo catálogo de clonaciones superficiales creadas en catálogos externos del metastore de Hive. La tabla base '<baseTableName>' está en el catálogo '<baseCatalogName>' y la tabla clon '<cloneTableName>' está en el catálogo '<cloneCatalogName>'.
UC_FOREIGN_KEY_CHILD_COLUMN_LENGTH_MISMATCH
Las columnas secundarias y las columnas principales de clave externa <constraintName> tienen diferentes tamaños.
UC_FOREIGN_KEY_COLUMN_MISMATCH
Las columnas principales de clave externa no coinciden con las columnas secundarias de clave principal a las que se hace referencia. Las columnas principales de clave externa son (<parentColumns>) y las columnas secundarias de clave principal son (<primaryKeyChildColumns>).
UC_FOREIGN_KEY_COLUMN_TYPE_MISMATCH
El tipo de columna secundaria de clave externa no coincide con el tipo de columna principal. La columna secundaria de clave externa <childColumnName> tiene el tipo <childColumnType> y la columna principal <parentColumnName> tiene el tipo <parentColumnType>.
UC_GCP_INVALID_PRIVATE_KEY
Acceso denegado. Causa: la clave privada de la cuenta de servicio no es válida.
UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT
La cuenta de Google Server OAuth Private Key debe ser un objeto válido JSON con campos obligatorios, asegúrese de proporcionar el archivo completo JSON generado desde la sección "CLAVES" de la página de detalles de la cuenta de servicio.
UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT_MISSING_FIELDS
La cuenta de Google Server OAuth Private Key debe ser un objeto válido JSON con campos obligatorios, asegúrese de proporcionar el archivo completo JSON generado desde la sección "CLAVES" de la página de detalles de la cuenta de servicio. Los campos que faltan son <missingFields>
UC_IAM_ROLE_NON_SELF_ASSUMING
Se encontró que el rol de Administración de identidad y acceso de esta credencial de almacenamiento no se asume a sí mismo. Compruebe la confianza de su rol y las directivas de Administración de identidad y acceso para asegurarse de que dicho rol pueda asumirse a sí mismo según la documentación de credenciales de almacenamiento de Unity Catalog.
UC_ICEBERG_COMMIT_CONFLICT
No se puede confirmar <tableName>: la ubicación de metadatos <baseMetadataLocation> ha cambiado desde <catalogMetadataLocation>.
UC_ICEBERG_COMMIT_INVALID_TABLE
No se puede realizar un commit administrado de Apache Iceberg en una tabla no administrada de Apache Iceberg: <tableName>.
UC_ICEBERG_COMMIT_MISSING_FIELD_CONSTRAINT
Faltan los campos obligatorios de la información de confirmación de Apache Iceberg administrada proporcionada.
UC_ID_MISMATCH
<type> <name> no tiene el ID <wrongId>. Vuelva a intentar la operación.
UC_LÍMITE_DE_TASA_DEL_ESQUEMA_DE_INFORMACIÓN_POR_METASTORE_DB_EXCEDIDO
Demasiadas solicitudes de esquema de información para el metastore. Espere un momento y vuelva a intentarlo. Si el problema persiste, considere la posibilidad de ajustar la selectividad de las consultas o póngase en contacto con el soporte técnico para obtener ayuda.
UC_INVALID_ACCESS_OBSOLESCENCIA_DE_TABLA_EN_LÍNEA_DE_BRICKSTORE
La tabla en línea está en desuso. Ya no se admite la adquisición de acceso a la tabla <securableName> en línea.
UC_INVALID_ACCESS_BRICKSTORE_PG_CONNECTION
Acceso no válido a la instancia de base de datos. <reason>
UC_INVALID_ACCESS_DBFS_ENTITY
Acceso no válido de <securableType> <securableName> en el catálogo <catalogName>federado. <reason>
UC_INVALID_AZURE_PATH
Ruta de acceso de Azure no válida: <path>
UC_INVALID_CLOUDFLARE_ACCOUNT_ID
Identificador de cuenta de Cloudflare no válido.
UC_INVALID_CREDENTIAL_CLOUD
Proveedor de nube de credenciales no válido '<cloud>'. Proveedor de nube permitido "<allowedCloud>".
UC_INVALID_CREDENTIAL_PURPOSE_VALUE
Valor '<value>' no válido para el 'propósito' de las credenciales. Valores permitidos '<allowedValues>'.
UC_INVALID_CREDENTIAL_TRANSITION
No se puede actualizar una conexión de <startingCredentialType> a <endingCredentialType>. La única transición válida es desde una conexión basada en nombre de usuario o contraseña a una conexión basada en tokens de OAuth.
UC_INVALID_CRON_STRING_FABRIC
Cadena cron no válida. Se encontró "<cronString>" con la excepción de análisis "<message>"
UC_INVALID_DIRECT_ACCESS_MANAGED_TABLE
Tabla administrada de acceso directo no válida <tableName>. Asegúrese de que las definiciones de la tabla de origen y de la canalización no están definidas.
UC_INVALID_EMPTY_STORAGE_LOCATION
Ubicación de almacenamiento vacía inesperada para <securableType> "<securableName>" en el catálogo "<catalogName>". Para corregir este error, ejecute DESCRIBE SCHEMA <catalogName>.
<securableName> y actualice esta página.
UC_INVALID_OPTIONS_UPDATE
Opciones no válidas proporcionadas para la actualización. Opciones no válidas: <invalidOptions>. Opciones permitidas: <allowedOptions>.
UC_INVALID_OPTION_VALUE
Valor '<value>' no válido para '<option>'. Valores permitidos '<allowedValues>'.
UC_INVALID_OPTION_VALUE_EMPTY
'<option>' no puede estar vacío. Escriba un valor no vacío.
UC_INVALID_POLICY_CONDITION
Condición no válida en la directiva '<policyName>'. Error de compilación con el mensaje "<message>".
UC_INVALID_R2_ACCESS_KEY_ID
Identificador de clave de acceso de R2 no válido.
UC_INVALID_R2_SECRET_ACCESS_KEY
Clave de acceso secreta de R2 no válida.
UC_INVALID_UPDATE_ON_SYSTEM_WORKSPACE_ADMIN_GROUP_OWNED_SECURABLE
No se puede actualizar <securableType> '<securableName>' ya que es propiedad de un grupo interno. Póngase en contacto con el soporte técnico de Databricks para obtener más información.
UC_INVALID_WASBS_EXTERNAL_LOCATION_STORAGE_CREDENTIAL
La credencial <storageCredentialName> de almacenamiento proporcionada no está asociada a la raíz de DBFS, lo cual prohíbe la creación de la ubicación externa wasbs.
UC_LOCATION_INVALID_SCHEME
La ubicación de almacenamiento tiene un esquema de URI no válido: <scheme>.
UC_MALFORMED_OAUTH_SERVER_RESPONSE
Faltaba la respuesta del servidor de tokens en el campo <missingField>. La respuesta del servidor devuelta es: <response>
UC_MANAGED_ICEBERG_UNSUPPORTED
No se puede admitir la tabla de Apache Docker administrada en el punto de conexión actual.
UC_METASTORE_ASSIGNMENT_STATUS_INVALID
No se puede asignar "<metastoreAssignmentStatus>". Solo MANUALLY_ASSIGNABLE y AUTO_ASSIGNMENT_ENABLED son compatibles.
UC_METASTORE_CERTIFICATION_NOT_ENABLED
La certificación de metastore no está habilitada.
UC_METASTORE_HAS_ACTIVE_MANAGED_ONLINE_CATALOGS
SQLSTATE: ninguno asignado
El metastore <metastoreId> tiene <numberManagedOnlineCatalogs> catálogos en línea administrados. Elimínelos explícitamente, e intente de nuevo la eliminación del metastore.
UC_METASTORE_QUOTA_EXCEEDED
Esta cuenta con identificador <accountId> ha alcanzado el límite de metastores en la región <region>.
UC_METASTORE_STORAGE_ROOT_CREDENTIAL_UPDATE_INVALID
No se puede definir la credencial raíz de metastore al actualizar la ubicación raíz de metastore. La credencial se capturará desde la ubicación externa principal del metastore.
UC_METASTORE_STORAGE_ROOT_DELETION_INVALID
Error en la eliminación de la ubicación raíz del almacenamiento de metastore. <reason>
UC_METASTORE_STORAGE_ROOT_READ_ONLY_INVALID
La raíz <securableType> de un metastore no puede ser de solo lectura.
UC_METASTORE_STORAGE_ROOT_UPDATE_INVALID
La raíz del almacenamiento de metastore no se puede actualizar una vez establecida.
UC_MODEL_INVALID_STATE
No se pueden generar credenciales "<opName>" temporales para la versión <modelVersion> del modelo con el estado <modelVersionStatus>. Las credenciales '<opName>' solo se pueden generar para las versiones del modelo con estado <validStatus>
UC_NATIVE_USING_REF_OF_ABAC_MASKED_COLUMNS
Error al evaluar las directivas de ABAC en "<resource>". Error con el mensaje: la directiva de ABAC '<policyName>' ha enmascarado la columna '<usingCol>' y no se puede usar como entrada para una directiva RLS/CM nativa.
UC_NO_ORG_ID_IN_CONTEXT
Se intentó acceder al identificador de organización (o al identificador del área de trabajo), pero el contexto no tiene ninguno.
UC_ONELAKE_PATH_BAD_DOMAIN
La ruta de acceso "<path>" de Azure OneLake debe tener el nombre de dominio "<expectedHost>".
UC_ONELAKE_PATH_BAD_FORMAT
La ruta<path> de acceso "" de Azure OneLake debe tener el formato "abfss://_WORKSPACE_@<host>/".
UC_ONELAKE_PATH_MISSING_AT
La ruta de acceso de Azure OneLake '<path>' no contiene '@'.
UC_ONELAKE_PATH_MISSING_WORKSPACE
La ruta de acceso "<path>" de Azure OneLake debe contener un nombre de área de trabajo.
UC_ONLINE_CATALOG_NOT_MUTABLE
SQLSTATE: ninguno asignado
La <rpcName> solicitud actualiza <fieldName>. Use la pestaña proceso de la tienda en línea para modificar cualquier cosa que no sea un comentario, propietario y modo de aislamiento de un catálogo en línea.
UC_ONLINE_CATALOG_QUOTA_EXCEEDED
No se pueden crear más de <quota> tiendas en línea en el metastore y ya hay <currentCount>. Es posible que no tenga acceso a ninguna tienda en línea existente. Póngase en contacto con el administrador de metastore para conceder acceso o para obtener más instrucciones.
UC_ONLINE_INDEX_CATALOG_INVALID_CRUD
SQLSTATE: ninguno asignado
Los catálogos de índices en línea deben ser <action> a través de la API /vector-search.
UC_ONLINE_INDEX_CATALOG_NOT_MUTABLE
SQLSTATE: ninguno asignado
La <rpcName> solicitud actualiza <fieldName>. Use la API /vector-search para modificar cualquier cosa que no sea un comentario, propietario y modo de aislamiento de un catálogo de índices en línea.
UC_ONLINE_INDEX_CATALOG_QUOTA_EXCEEDED
No se pueden crear más de <quota> catálogos de índices en línea en el metastore y ya hay <currentCount>. Es posible que no tenga acceso a ningún catálogo de índices en línea existente. Póngase en contacto con el administrador de metastore para conceder acceso o para obtener más instrucciones.
UC_ONLINE_INDEX_INVALID_CRUD
Los índices en línea deben ser <action> a través de la API /vector-search.
UC_ONLINE_STORE_INVALID_CRUD
SQLSTATE: ninguno asignado
Las tiendas en línea se deben <action> a través de la pestaña proceso de tiendas en línea.
UC_ONLINE_TABLE_COLUMN_NAME_TOO_LONG
El nombre <columnName> de la columna de la tabla de origen es demasiado largo. La longitud máxima es <maxLength> caracteres.
UC_ONLINE_TABLE_PRIMARY_KEY_COLUMN_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT
La columna <columnName> no se puede usar como columna de clave principal de la tabla en línea porque no forma parte de la restricción existente PRIMARY KEY de la tabla de origen. Para obtener más información, consulte <docLink>
UC_ONLINE_TABLE_TIMESERIES_KEY_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT
La columna <columnName> no se puede usar como clave de serie temporal de la tabla en línea porque no es una columna de serie temporal de la restricción existente PRIMARY KEY de la tabla de origen. Para obtener más información, consulte <docLink>
UC_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED
No se pueden crear más de <quota> tablas en línea por tabla de origen.
UC_ONLINE_VIEW_ACCESS_DENIED
El acceso al recurso <resourceName> requiere el uso de un almacenamiento de SQL sin servidor. Asegúrese de que el almacenamiento que se usa para ejecutar una consulta o ver un catálogo de bases de datos en la interfaz de usuario no tiene servidor. Para obtener más información, consulte <docLink>
UC_ONLINE_VIEW_CONTINUOUS_QUOTA_EXCEEDED
No se pueden crear más de <quota> visualizaciones en línea continuas en la tienda en línea y ya hay <currentCount>. Es posible que no tenga acceso a ninguna vista en línea existente. Póngase en contacto con el administrador de la tienda en línea para conceder acceso o para obtener más instrucciones.
UC_ONLINE_VIEW_DOES_NOT_SUPPORT_DMK
SQLSTATE: ninguno asignado
<tableKind> no se puede crear en una ubicación de almacenamiento con claves gestionadas de Databricks. Elija otro esquema o catálogo en una ubicación de almacenamiento sin cifrado de claves administradas de Databricks.
UC_ONLINE_VIEW_INVALID_CATALOG
Catálogo <catalogName> no válido con la variante <catalogKind> que se va a crear <tableKind> dentro.
<tableKind> solo se puede crear en catálogos de variantes <validCatalogKinds>.
UC_ONLINE_VIEW_INVALID_SCHEMA
Esquema <schemaName> no válido con la variante <schemaKind> que se va a crear <tableKind> dentro.
<tableKind> solo se puede crear en esquemas de tipos: <validSchemaKinds>.
UC_ONLINE_VIEW_INVALID_TTL_TIME_COLUMN_TYPE
No se puede usar la columna <columnName> de tipo <columnType> como una columna de hora TTL. Los tipos permitidos son <supportedTypes>.
UC_OPERATION_NOT_SUPPORTED
Operación no compatible con el catálogo de Unity. <detailedMessage>
UC_OUT_OF_AUTHORIZED_PATHS_SCOPE
Error de ruta de acceso autorizada. La <securableType> ubicación <location> no se define dentro de las rutas de acceso autorizadas para el catálogo: <catalogName>. Pida al propietario del catálogo que agregue la ruta de acceso a la lista de rutas de acceso autorizadas definidas en el catálogo.
UC_OVERLAPPED_AUTHORIZED_PATHS
La opción "authorized_paths" contiene rutas de acceso superpuestas: <overlappingPaths>. Asegúrese de que cada ruta de acceso es única y no se interseca con otras personas de la lista.
UC_PAGINATION_AND_QUERY_ARGS_MISMATCH
El argumento de consulta '<arg>' se establece en '<received>' que es diferente al valor utilizado en la primera llamada de paginación ('<expected>')
UC_PATH_FILTER_ALLOWLIST_VIOLATION
La credencial '<credentialName>' es una credencial predeterminada del área de trabajo que solo puede acceder a los datos en las siguientes rutas de acceso: '<allowlist>'. Asegúrese de que cualquier ruta de acceso a la que se accede mediante esta credencial está en una de estas rutas de acceso.
UC_PATH_FILTER_DENYLIST_VIOLATION
La credencial '<credentialName>' es una credencial predeterminada del área de trabajo que no puede acceder a los datos en la siguiente ruta de acceso restringida: '<targetPath>'.
UC_PATH_TOO_LONG
La ruta de acceso de entrada es demasiado larga. Longitud permitida: <maxLength>. Longitud de entrada: <inputLength>. Entrada: <path>...
UC_PER_METASTORE_DATABASE_CONCURRENCY_LIMIT_EXCEEDED
Se superó el límite de simultaneidad del metastore <metastoreId>. Inténtelo de nuevo más tarde. Si el problema persiste, póngase en contacto con el soporte técnico. Código de error #UC-<errorCodeArbitraryFiveLettersUpperCase>
UC_POSTGRESQL_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED
No es posible crear más de <quota> tablas de base de datos sincronizadas por cada tabla de origen.
UC_PRIMARY_KEY_ON_NULLABLE_COLUMN
No se puede crear la clave <constraintName> principal porque sus columnas secundarias <childColumnNames> admiten valores NULL. Cambie la nulabilidad de la columna y vuelva a intentarlo.
UC_REQUEST_LIMIT_EXCEEDED
La solicitud se rechazó porque la organización ha superado el límite de velocidad. Vuelva a intentar realizar la solicitud más tarde.
UC_REQUEST_TIMEOUT
Esta operación tardó demasiado tiempo.
UC_RESOURCE_QUOTA_EXCEEDED
No se pueden crear <amount> <resourceType>(s) en <parentResourceType> <parentResourceId> (recuento estimado: <currentCount>, límite: <quotaLimit>).
UC_ROOT_STORAGE_S3_BUCKET_NAME_CONTAINS_DOT
El catálogo de Unity no admite el nombre del cubo S3 de almacenamiento raíz que contiene puntos: <uri>
UC_SCHEMA_EMPTY_STORAGE_LOCATION
Ubicación de almacenamiento vacía inesperada para el esquema "<schemaName>" en el catálogo "<catalogName>". Asegúrese de que el esquema utiliza un esquema de ruta de <validPathSchemesListStr>.
UC_SERVERLESS_UNTRUSTED_DOMAIN_STORAGE_TOKEN_MINTING
Los cuadernos Serverless de Python y Scala tienen prohibido recuperar credenciales de almacenamiento temporales del Unity Catalog en áreas de trabajo con restricción de red.
UC_ELIMINACIÓN_TABLA_BASE_CLONACIÓN_SUPERFICIAL
No se puede acceder al clon superficial '<tableFullName>' porque se ha eliminado su tabla base '<baseTableName>'.
STORAGE_CREDENTIALSUC__WITH_EXTERNAL_LOCATION_DELETION_DENIED
La credencial de almacenamiento '<credentialName>' tiene <extTablesCount> tablas externas directamente dependientes y <extLocationsCount> ubicaciones de almacenamiento dependientes. Puede usar la opción forzar para eliminarlos, pero los datos de almacenamiento administrados que usan esta credencial de almacenamiento ya no se pueden purgar en el Catálogo de Unity.
STORAGE_CREDENTIALSUC__WITH_EXTERNAL_LOCATION_UPDATE_DENIED
La credencial de almacenamiento '<credentialName>' tiene <extTablesCount> tablas externas dependientes directamente y <extLocationsCount> ubicaciones de almacenamiento dependientes; use la opción force para actualizar de todos modos.
UC_STORAGE_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED
No se pudo analizar el identificador del conector de acceso proporcionado: <accessConnectorId>. Compruebe su formato e inténtelo de nuevo.
UC_STORAGE_CREDENTIAL_DBFS_ROOT_CREATION_PERMISSION_DENIED
No se puede crear una credencial de almacenamiento para la raíz de DBFS porque el usuario: <userId> no es el administrador del área de trabajo: <workspaceId>
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_DBFS_ENABLED
Todavía no se admite la credencial de almacenamiento raíz de DBFS para áreas de trabajo con DBFS habilitado para firewall
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_NOT_SUPPORTED
Aún no se admite la credencial de almacenamiento raíz de DBFS para el área de trabajo actual
UC_STORAGE_CREDENTIAL_DBFS_ROOT_WORKSPACE_DISABLED
La raíz de DBFS no está habilitada para el área de trabajo <workspaceId>
UC_STORAGE_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN
No se pudo obtener un token de AAD para realizar la validación de permisos en la nube en un conector de acceso. Por favor, vuelva a intentar la acción.
UC_STORAGE_CREDENTIAL_INVALID_CLOUD_PERMISSIONS
El registro de una credencial de almacenamiento requiere el rol de colaborador en el conector de acceso correspondiente con el identificador <accessConnectorId>. Póngase en contacto con el administrador de cuentas.
UC_STORAGE_CREDENTIAL_METASTORE_ROOT_DELETION_DENIED
No se puede eliminar la credencial de almacenamiento '<credentialName>' porque está configurada como credencial raíz de este metastore. Actualice la credencial raíz del metastore antes de intentar la eliminación.
UC_STORAGE_CREDENTIAL_PERMISSION_DENIED
Solo el administrador de la cuenta puede crear o actualizar una credencial de almacenamiento con el tipo <storageCredentialType>.
UC_STORAGE_CREDENTIAL_SERVICE_PRINCIPAL_MISSING_VALIDATION_TOKEN
Falta el token de validación de la entidad de servicio. Proporcione un token de Entra ID con ámbito de ARM válido en el encabezado de solicitud "X-Databricks-Azure-SP-Management-Token" y vuelva a intentarlo. Para obtener más información, compruebe https://docs.databricks.com/api/workspace/storagecredentials
UC_STORAGE_CREDENTIAL_TRUST_POLICY_IS_OPEN
La política de confianza del rol IAM para permitir que la cuenta de Databricks asuma el rol debe requerir un ID externo. Póngase en contacto con el administrador de la cuenta para agregar la condición de ID externo. Este comportamiento tiene como fin protegerse contra el problema del delegado confundido (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html).
UC_STORAGE_CREDENTIAL_WASBS_NOT_DBFS_ROOT
La ubicación <location> no está dentro de la raíz de DBFS, debido a que no se puede crear una credencial de almacenamiento <storageCredentialName>
UC_STORAGE_CREDENTIAL_WORKSPACE_API_PROHIBITED
No se admite la creación o actualización de una credencial de almacenamiento como administrador que no sea de cuenta en la API de nivel de cuenta. Por favor, use la API a nivel de área de trabajo en su lugar.
UC_STORAGE_CREDENTIAL_WS_BUCKET_INVALID_LOCATION
La ubicación <requestedLocation> no está dentro del contexto permitido <allowedLocation>
UC_STORAGE_CREDENTIAL_WS_INTERNAL_CATALOG_NOT_SUPPORTED
Aún no se admite la credencial de almacenamiento del catálogo interno del área de trabajo en el área de trabajo actual
UC_SYSTEM_SCHEMA_NOT_AVAILABLE_FOR_ENABLEMENT
El esquema <systemSchema> del sistema no está disponible actualmente para la habilitación. Inténtelo de nuevo más tarde.
UC_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED
No se pueden conceder privilegios en <securableType> al grupo <principal>generado por el sistema.
UC_TABLE_IS_LOCKED_FOR_CATALOG_MANAGED_TABLE_MIGRATION
La tabla '<tableId>' está bloqueada temporalmente para una migración de tablas administradas por catálogos. Las transacciones de esta tabla se bloquean hasta que se complete la migración. Vuelva a intentar la transacción en breve.
UC_TABLE_IS_NOT_CATALOG_OWNED
La solicitud para realizar commit/getCommits para la tabla "<tableId>" requiere habilitar la función de propiedad del catálogo en la tabla.
UC_TAG_ASSIGNMENT_WITH_KEY_DOES_NOT_EXIST
La asignación de etiquetas con la clave de etiqueta <tagKey> no existe
UC_TEMPORARY_CREDENTIAL_OPERATION_NOT_SUPPORTED
No se admite la operación de credenciales temporales.
UC_UNDROP_RESOURCE_ID_ALREADY_EXISTS
No se puede quitar '<resourceType>' porque ya existe un '<resourceType>' con el identificador '<resourceId>'.
UC_UNDROP_RESOURCE_NAME_ALREADY_EXISTS
No se puede quitar '<resourceType>' porque ya existe un '<resourceType>' con el nombre '<resourceName>'.
UC_UNDROP_RESOURCE_NOT_READY
No se puede quitar '<resourceType>' porque el '<resourceType>' con el identificador '<resourceId>' no está listo para restaurarse, vuelva a intentarlo más adelante.
UC_RESTAURAR_RECURSO_PASADO_EL_PERIODO_DE_RETENCIÓN_PERSONALIZADO
No se puede quitar '<resourceType>' porque el '<resourceType>' con el identificador '<resourceId>' está fuera de su período de restauración personalizado.
UC_UNDROP_RESOURCE_PAST_RECOVERABLE_WINDOW
No se puede recuperar "<resourceType>" porque el "<resourceType>" con el identificador "<resourceId>" está fuera del período de restauración admitido de "<maxRestorationPeriodDay>" días.
UC_UNIQUE_CONSTRAINT_CHILD_COLUMNS_ALREADY_EXIST
No se pudo crear la restricción UNIQUE<newConstraintName>: la tabla <tableName> ya tiene una restricción UNIQUE: <existingConstraintName>, que tiene el mismo conjunto de columnas secundarias.
UC_UNIQUE_CONSTRAINT_NOT_SUPPORTED
No se pudo operar con la restricción UNIQUE<constraintName>: la restricción UNIQUE no está habilitada.
UC_UNSUPPORTED_HTTP_CONNECTION_BASE_PATH
Se ha proporcionado una ruta de acceso base no válida; la ruta de acceso base debe ser parecida a /api/resources/v1. Ruta de acceso no admitida: <path>
UC_UNSUPPORTED_HTTP_CONNECTION_HOST
Se ha proporcionado un nombre de host no válido, el nombre de host debe ser parecido a https://www.databricks.com sin un sufijo en la ruta de acceso. Servidor no admitido: <host>
UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH
Solo se admiten caracteres básicos ASCII Latin/Latin-1 en rutas de acceso externas de ubicación, volumen o tabla. Ruta de acceso no admitida: <path>
UC_UPDATE_FORBIDDEN_FOR_PROVISIONING_SECURABLE
No se puede actualizar <securableType> "<securableName>" porque se está aprovisionando.
UC_USING_REF_OF_MASKED_COLUMNS
Error al evaluar las directivas de ABAC en "<resource>". Error con el mensaje: la directiva de ABAC '<existingMaskingPolicy>' ha enmascarado la columna '<usingCol>' y no se puede usar en la directiva '<policyName>'.
UC_WRITE_CONFLICT
La <type> <name> ha sido modificada por otra solicitud. Vuelva a intentar la operación.
UNDROP_TABLE_NOT_FOUND
No se puede anular la tabla porque ninguna tabla con nombre <tableFullName> califica para undrop. Es posible que esta tabla ya no se haya eliminado, se elimine más allá del período máximo de restauración o nunca hubiera existido.
UNITY_CATALOG_EXTERNAL_COORDINATED_COMMITS_REQUEST_DENIED
La solicitud para realizar commit/getCommits para la tabla "<tableId>" desde fuera del entorno de proceso habilitado por Databricks Unity Catalog ha sido denegada por razones de seguridad. Póngase en contacto con el soporte técnico de Databricks para las integraciones con el catálogo de Unity.
UNITY_CATALOG_EXTERNAL_CREATE_STAGING_TABLE_REQUEST_DENIED
Se deniega la solicitud para crear la tabla de preparación "<tableFullName>" desde fuera del entorno de proceso compatible con Unity Catalog de Databricks por razones de seguridad. Póngase en contacto con el soporte técnico de Databricks para las integraciones con el catálogo de Unity.
COLUMN_MASKSUNITY_CATALOG_EXTERNAL_CREATE_TABLE_FAILED_VALIDATION__DEFINED
Se deniega la solicitud para crear la tabla '<tableFullName>' desde un entorno de proceso externo activado para el Catálogo de Unity de Databricks. No se admiten máscaras de columna al crear tablas externamente.
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_FAILED_VALIDATION_DATA_SOURCE_FORMAT_NOT_DELTA
Se deniega la solicitud para crear la tabla '<tableFullName>' desde un entorno de proceso externo activado para el Catálogo de Unity de Databricks. El formato del origen de datos debe ser DELTA para crear una tabla externamente, en su lugar es "<dataSourceFormat>".
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_FAILED_VALIDATION_TABLE_TYPE_NOT_EXTERNAL
Se deniega la solicitud para crear la tabla '<tableFullName>' desde un entorno de proceso externo activado para el Catálogo de Unity de Databricks. El tipo de tabla debe ser EXTERNAL para crear una tabla externamente, en su lugar es "<tableType>".
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_INFO_CONTAINS_INVALID_FIELDS
La creación de tablas externas solo permite estos campos: [name, catalog_name, schema_name, table_type, data_source_format, columnas, storage_location y propiedades].
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED
Se deniega la solicitud para crear una tabla no externa "<tableFullName>" desde fuera del entorno de proceso habilitado por Databricks Unity Catalog por motivos de seguridad. Póngase en contacto con el soporte técnico de Databricks para las integraciones con el catálogo de Unity.
UNITY_CATALOG_EXTERNAL_DELETE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED
No se admite la solicitud para eliminar la tabla no externa "<tableFullName>" desde fuera del entorno de proceso habilitado para Unity Catalog de Databricks.
UNITY_CATALOG_EXTERNAL_GENERATE_PATH_CREDENTIALS_DENIED
Se deniega la solicitud para generar credenciales de acceso para la ruta de acceso "<path>" desde fuera del entorno de computación habilitado para el Catálogo de Unity de Databricks por razones de seguridad. Póngase en contacto con el soporte técnico de Databricks para las integraciones con el catálogo de Unity.
UNITY_CATALOG_EXTERNAL_GENERATE_TABLE_CREDENTIALS_DENIED
Se deniega la solicitud para generar credenciales de acceso para la tabla "<tableId>" desde fuera del entorno de computación habilitado por el Unity Catalog de Databricks debido a razones de seguridad. Póngase en contacto con el soporte técnico de Databricks para las integraciones con el catálogo de Unity.
UNITY_CATALOG_EXTERNAL_GENERATE_TEMP_PATH_CRED_FAILED_VALIDATION_CREDENTIAL_ID_DEFINED
Se deniega la solicitud para generar credenciales de ruta de acceso temporal desde fuera del entorno de proceso habilitado para el catálogo de Unity de Databricks. No se debe definir el identificador de credencial al generar credenciales de ruta de acceso temporal externamente.
UNITY_CATALOG_EXTERNAL_GENERATE_TEMP_PATH_CRED_FAILED_VALIDATION_MAKE_PATH_ONLY_PARENT_DEFINED
Se deniega la solicitud para generar credenciales de ruta de acceso temporal desde fuera del entorno de proceso habilitado para el catálogo de Unity de Databricks. make_path_only_parent no se debe definir al generar credenciales de ruta de acceso temporal externamente.
UNITY_CATALOG_EXTERNAL_GENERATE_VOLUME_CREDENTIALS_DENIED
Se deniega la solicitud para generar credenciales de acceso para el volumen "<volumeId>" desde fuera del entorno de proceso habilitado para El catálogo de Unity de Databricks para la seguridad. Póngase en contacto con el soporte técnico de Databricks para las integraciones con el catálogo de Unity.
UNITY_CATALOG_EXTERNAL_GENERATE_VOLUME_CREDENTIALS_FOR_SECURABLE_KIND_NOT_SUPPORTED
Se deniega la solicitud para generar credenciales de acceso para "<volumeSecurableKind>" desde fuera del entorno de proceso habilitado para El catálogo de Unity de Databricks para la seguridad. Póngase en contacto con el soporte técnico de Databricks para las integraciones con el catálogo de Unity.
UNITY_CATALOG_EXTERNAL_GET_FOREIGN_CREDENTIALS_DENIED
Se deniega la solicitud para obtener credenciales externas para elementos protegibles de fuera del entorno de proceso habilitado para Unity Catalog de Databricks por motivos de seguridad.
UNITY_CATALOG_EXTERNAL_UPDATA_METADATA_SNAPSHOT_DENIED
Se deniega, por motivos de seguridad, la solicitud de actualizar instantáneas de metadatos desde fuera del entorno de procesamiento habilitado para Databricks Unity Catalog.
ESQUEMA_DE_UBICACIÓN_NO_ADMITIDO
<fieldName> tiene un esquema <scheme>de URI no válido. Los esquemas de URI válidos incluyen <validSchemes>. Ruta de acceso no válida: <path>.
ACTUALIZAR_TABLA_DEL_SISTEMA
No se puede modificar la tabla propiedad del sistema. La tabla '<tableName>' es una tabla propiedad del sistema.
WRITE_CREDENTIALS_NOT_SUPPORTED_FOR_LEGACY_MANAGED_ONLINE_TABLE
Solicitud no válida para obtener credenciales de escritura para una tabla en línea gestionada en un catálogo online.
API de archivos
FILES_API_API_IS_NOT_ENABLED
SQLSTATE: ninguno asignado
<api_name> La API no está habilitada
FILES_API_API_IS_NOT_ENABLED_FOR_CLOUD_PATHS
SQLSTATE: ninguno asignado
No se admite el método solicitado de Files API para rutas de acceso a la nube
FILES_API_AWS_ACCESS_DENIED
SQLSTATE: ninguno asignado
AWS deniega el acceso al cubo de almacenamiento.
FILES_API_AWS_ALL_ACCESS_DISABLED
SQLSTATE: ninguno asignado
Todo el acceso al cubo de almacenamiento se ha deshabilitado en AWS.
FILES_API_AWS_BUCKET_DOES_NOT_EXIST
SQLSTATE: ninguno asignado
El cubo de almacenamiento no existe en AWS.
FILES_API_AWS_FORBIDDEN
SQLSTATE: ninguno asignado
AWS prohíbe el acceso al cubo de almacenamiento.
FILES_API_AWS_INVALID_AUTHORIZATION_HEADER
SQLSTATE: ninguno asignado
El área de trabajo está mal configurada: debe estar en la misma región que el cubo de almacenamiento raíz del área de trabajo de AWS.
FILES_API_AWS_INVALID_BUCKET_NAME
SQLSTATE: ninguno asignado
El nombre del cubo de almacenamiento no es válido.
FILES_API_AWS_KMS_KEY_DISABLED
SQLSTATE: ninguno asignado
Las claves kmS configuradas para acceder al cubo de almacenamiento están deshabilitadas en AWS.
FILES_API_AWS_UNAUTHORIZED
SQLSTATE: ninguno asignado
El acceso al recurso de AWS no está autorizado.
FILES_API_AZURE_ACCOUNT_IS_DISABLED
SQLSTATE: ninguno asignado
La cuenta de almacenamiento está deshabilitada en Azure.
FILES_API_AZURE_AUTHORIZATION_PERMISSION_MISMATCH
SQLSTATE: ninguno asignado
Error de incompatibilidad de permisos de autorización.
FILES_API_AZURE_CMK_NOT_FOUND
SQLSTATE: ninguno asignado
No se encuentra la clave de cifrado administrada.
FILES_API_AZURE_CMK_SOFT_DELETED
SQLSTATE: ninguno asignado
La clave de cifrado administrada se ha eliminado temporalmente.
FILES_API_AZURE_CONTAINER_DOES_NOT_EXIST
SQLSTATE: ninguno asignado
El contenedor de Azure no existe.
FILES_API_AZURE_CREDENTIAL_NOT_FOUND
SQLSTATE: ninguno asignado
No se encontró la credencial de Azure. Es posible que falte o no se pueda acceder a las credenciales de Azure.
FILES_API_AZURE_FORBIDDEN
SQLSTATE: ninguno asignado
Azure prohíbe el acceso al contenedor de almacenamiento.
FILES_API_AZURE_HAS_A_LEASE
SQLSTATE: ninguno asignado
Azure respondió que actualmente hay un arrendamiento en el recurso. Inténtalo de nuevo más tarde.
FILES_API_AZURE_INSUFFICIENT_ACCOUNT_PERMISSION
SQLSTATE: ninguno asignado
La cuenta a la que se accede no tiene permisos suficientes para ejecutar esta operación.
FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_CONFIGURATION
SQLSTATE: ninguno asignado
No se admite la configuración de la cuenta a la que se accede.
FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_NAME
SQLSTATE: ninguno asignado
No se puede acceder a la cuenta de almacenamiento en Azure: nombre de cuenta de almacenamiento no válido.
FILES_API_AZURE_KEY_BASED_AUTHENTICATION_NOT_PERMITTED
SQLSTATE: ninguno asignado
El almacén de Key Vault no se encuentra en Azure. Compruebe la configuración de las claves administradas por el cliente.
FILES_API_AZURE_KEY_VAULT_KEY_NOT_FOUND
SQLSTATE: ninguno asignado
La clave del almacén de claves de Azure no se encuentra en Azure. Compruebe la configuración de las claves administradas por el cliente.
FILES_API_AZURE_KEY_VAULT_VAULT_NOT_FOUND
SQLSTATE: ninguno asignado
El almacén de Key Vault no se encuentra en Azure. Compruebe la configuración de las claves administradas por el cliente.
FILES_API_AZURE_MI_ACCESS_CONNECTOR_NOT_FOUND
SQLSTATE: ninguno asignado
No se encontró la credencial de identidad administrada de Azure con Access Connector. Esto podría deberse a que los controles de acceso IP rechazaron la solicitud.
FILES_API_AZURE_OPERATION_TIMEOUT
SQLSTATE: ninguno asignado
La operación no se pudo completar en el tiempo permitido.
FILES_API_AZURE_PATH_INVALID
SQLSTATE: ninguno asignado
La ruta de acceso solicitada no es válida para Azure.
FILES_API_AZURE_PATH_IS_IMMUTABLE
SQLSTATE: ninguno asignado
La ruta de acceso solicitada es inmutable.
FILES_API_AZURE_UNSUPPORTED_HEADER
SQLSTATE: ninguno asignado
No se admite uno de los encabezados especificados en la operación.
FILES_API_CANNOT_PARSE_URL_PARAMETER
SQLSTATE: ninguno asignado
No se puede analizar el parámetro URL.
FILES_API_CATALOG_NOT_FOUND
SQLSTATE: ninguno asignado
<unity_catalog_error_message>
FILES_API_CLOUD_RESOURCE_EXHAUSTED
SQLSTATE: ninguno asignado
<message>
FILES_API_CLOUD_STORAGE_PROVIDER_CONNECTION_ISSUE
SQLSTATE: ninguno asignado
Hay un problema de conexión para alcanzar <cloud_storage_provider>. Inténtelo de nuevo más tarde.
FILES_API_COLON_IS_NOT_SUPPORTED_IN_PATH
SQLSTATE: ninguno asignado
El carácter ":" no se admite en las rutas de acceso.
FILES_API_CONSUMER_NETWORK_ZONE_NOT_ALLOWED
SQLSTATE: ninguno asignado
No se permite la zona de red del consumidor "<consumer_network_zone>" en la zona de red del solicitante "<requester_network_zone>".
FILES_API_CONTROL_PLANE_NETWORK_ZONE_NOT_ALLOWED
SQLSTATE: ninguno asignado
No se permite la zona de red del plano de control de Databricks.
FILES_API_CREDENTIAL_NOT_FOUND
SQLSTATE: ninguno asignado
No se encontró la credencial.
FILES_API_DIRECTORIES_CANNOT_HAVE_BODIES
SQLSTATE: ninguno asignado
Se proporcionó un cuerpo, pero los directorios no pueden tener un cuerpo de archivo.
FILES_API_DIRECTORY_IS_NOT_EMPTY
SQLSTATE: ninguno asignado
El directorio no está vacío. Esta operación no se admite en directorios no vacíos.
FILES_API_DIRECTORY_IS_NOT_FOUND
SQLSTATE: ninguno asignado
No se encuentra el directorio al que se accede.
FILES_API_DIRECTORY_ZIP_DOWNLOAD_FILE_LIMIT_EXCEEDED
SQLSTATE: ninguno asignado
El directorio contiene demasiados archivos para la descarga ZIP. Máximo <max_file_count> de archivos permitidos.
FILES_API_DMK_ENCRYPTION_ROOT_KEY_DISABLED
SQLSTATE: ninguno asignado
La clave raíz del cifrado administrado por el cliente está deshabilitada.
FILES_API_DUPLICATED_HEADER
SQLSTATE: ninguno asignado
La solicitud contenía varias copias de un encabezado que solo se permite una vez.
FILES_API_DUPLICATE_QUERY_PARAMETER
SQLSTATE: ninguno asignado
El parámetro de consulta '<parameter_name>' debe estar presente exactamente una vez, pero se proporcionó varias veces.
FILES_API_EMPTY_BUCKET_NAME
SQLSTATE: ninguno asignado
El nombre del espacio de almacenamiento de DBFS está vacío.
FILES_API_ENCRYPTION_KEY_PERMISSION_DENIED
SQLSTATE: ninguno asignado
El usuario no tiene acceso a la clave de cifrado.
FILES_API_ENCRYPTION_KEY_RETRIEVAL_OPERATION_TIMEOUT
SQLSTATE: ninguno asignado
No se pudo completar la operación para recuperar la clave de cifrado en el tiempo permitido.
FILES_API_ENTITY_TOO_LARGE
SQLSTATE: ninguno asignado
El objeto supera el tamaño máximo permitido.
FILES_API_ERROR_EXPIRED_TTL
SQLSTATE: ninguno asignado
El TTL ha expirado.
FILES_API_ERROR_INVALID_TTL
SQLSTATE: ninguno asignado
El TTL no es válido.
FILES_API_ERROR_KEY_FOR_WORKSPACE_IS_NOT_FOUND
SQLSTATE: ninguno asignado
No se encuentra la clave del área de trabajo.
FILES_API_ERROR_MISSING_REQUIRED_PARAM
SQLSTATE: ninguno asignado
Falta un parámetro obligatorio en la dirección URL.
FILES_API_ERROR_TTL_IN_THE_FUTURE
SQLSTATE: ninguno asignado
El período de vida es una fecha futura.
FILES_API_ERROR_URL_INVALID_ISSUER_SHARD_NAME
SQLSTATE: ninguno asignado
El nombre del buzón de compartición del emisor no es válido.
FILES_API_EXPIRATION_TIME_MUST_BE_PRESENT
SQLSTATE: ninguno asignado
Debe haber una hora de expiración.
FILES_API_EXPIRED_TOKEN
SQLSTATE: ninguno asignado
El token proporcionado ha expirado.
FILES_API_EXPIRE_TIME_MUST_BE_IN_THE_FUTURE
SQLSTATE: ninguno asignado
El valor de ExpireTime debe estar en el futuro.
FILES_API_EXPIRE_TIME_TOO_FAR_IN_FUTURE
SQLSTATE: ninguno asignado
El TTL solicitado es mayor que el soportado (1 hora)
FILES_API_EXTERNAL_LOCATION_PATH_OVERLAP_OTHER_UC_STORAGE_ENTITY
SQLSTATE: ninguno asignado
<unity_catalog_error_message>
FILES_API_FILE_ALREADY_EXISTS
SQLSTATE: ninguno asignado
El archivo que se está creando ya existe.
FILES_API_FILE_NOT_FOUND
SQLSTATE: ninguno asignado
No se encuentra el archivo al que se accede.
FILES_API_FILE_OR_DIRECTORY_ENDS_IN_DOT
SQLSTATE: ninguno asignado
No se admiten archivos ni directorios que terminan en el carácter '.'.
FILES_API_FILE_SIZE_EXCEEDED
SQLSTATE: ninguno asignado
El tamaño del archivo no debe superar los <max_download_size_in_bytes> bytes, y se encontraron <size_in_bytes> bytes.
FILES_API_GCP_ACCOUNT_IS_DISABLED
SQLSTATE: ninguno asignado
El acceso al cubo de almacenamiento se ha deshabilitado en GCP.
FILES_API_GCP_BUCKET_DOES_NOT_EXIST
SQLSTATE: ninguno asignado
El cubo de almacenamiento no existe en GCP.
FILES_API_GCP_FORBIDDEN
SQLSTATE: ninguno asignado
GCP ha prohibido el acceso al bucket.
FILES_API_GCP_IAM_AUTHENTICATION_FAILURE
SQLSTATE: ninguno asignado
Error de autenticación para la operación de IAM de GCP.
FILES_API_GCP_IAM_CREDENTIALS_NOT_FOUND
SQLSTATE: ninguno asignado
Las credenciales de GCP especificadas no existen o no se puede tener acceso a ellas.
FILES_API_GCP_IAM_PERMISSION_DENIED
SQLSTATE: ninguno asignado
Permiso denegado para la operación de IAM de GCP.
FILES_API_GCP_KEY_DELETED
SQLSTATE: ninguno asignado
La clave de cifrado se ha eliminado o ya no es accesible.
FILES_API_GCP_KEY_DISABLED_OR_DESTROYED
SQLSTATE: ninguno asignado
La clave de cifrado administrada por el cliente configurada para esa ubicación está deshabilitada o destruida.
FILES_API_GCP_REQUEST_IS_PROHIBITED_BY_POLICY
SQLSTATE: ninguno asignado
Las solicitudes de GCP al cubo están prohibidas por la directiva. Compruebe los controles de servicio de VPC.
FILES_API_GCP_PROBLEMA_CON_CUENTA_DE_PROYECTO_DEL_USUARIO
SQLSTATE: ninguno asignado
Hay un problema con el proyecto de GCP usado en la solicitud que impide que la operación se complete correctamente.
FILES_API_HOST_TEMPORARILY_NOT_AVAILABLE
SQLSTATE: ninguno asignado
El host del proveedor de nube no está disponible temporalmente; inténtelo de nuevo más tarde.
FILES_API_INVALID_CONTENT_LENGTH
SQLSTATE: ninguno asignado
El valor del encabezado de longitud de contenido debe ser un entero mayor o igual que 0.
FILES_API_INVALID_CONTINUATION_TOKEN
SQLSTATE: ninguno asignado
El token de página proporcionado no es válido.
FILES_API_INVALID_HEADER_VALUE
SQLSTATE: ninguno asignado
El valor del encabezado '<header_name>' no es válido.
FILES_API_INVALID_HOSTNAME
SQLSTATE: ninguno asignado
El nombre de host no es válido.
FILES_API_INVALID_HTTP_METHOD
SQLSTATE: ninguno asignado
Método HTTP no válido. Se esperaba "<expected>", pero se obtuvo "<actual>".
FILES_API_INVALID_METASTORE_ID_HEADER
SQLSTATE: ninguno asignado
El encabezado del identificador de metastore no es válido.
FILES_API_INVALID_PAGE_TOKEN
SQLSTATE: ninguno asignado
Token de página no válido
FILES_API_INVALID_PATH
SQLSTATE: ninguno asignado
Ruta de acceso no válida: <validation_error>
FILES_API_INVALID_RANGE
SQLSTATE: ninguno asignado
El encabezado de intervalo no es válido.
FILES_API_INVALID_RESOURCE_FULL_NAME
SQLSTATE: ninguno asignado
<unity_catalog_error_message>
FILES_API_INVALID_SESSION_TOKEN
SQLSTATE: ninguno asignado
Token de sesión no válido
FILES_API_INVALID_SESSION_TOKEN_TYPE
SQLSTATE: ninguno asignado
Tipo de token de sesión no válido. Se esperaba "<expected>", pero se obtuvo "<actual>".
FILES_API_INVALID_TIMESTAMP
SQLSTATE: ninguno asignado
La marca de tiempo no es válida.
FILES_API_INVALID_UPLOAD_TYPE
SQLSTATE: ninguno asignado
Tipo de carga no válido. Se esperaba "<expected>", pero se obtuvo "<actual>".
FILES_API_INVALID_URL
SQLSTATE: ninguno asignado
Dirección URL no válida
FILES_API_INVALID_URL_PARAMETER
SQLSTATE: ninguno asignado
La dirección URL pasada como parámetro no es válida
FILES_API_INVALID_VALUE_FOR_OVERWRITE_QUERY_PARAMETER
SQLSTATE: ninguno asignado
El parámetro de consulta "overwrite" debe tener uno de los siguientes valores: true,false, pero tuvo: <got_values>.
FILES_API_INVALID_VALUE_FOR_QUERY_PARAMETER
SQLSTATE: ninguno asignado
El parámetro de consulta '<parameter_name>' debe ser uno de los siguientes: <expected> pero era: <actual>
FILES_API_MALFORMED_REQUEST_BODY
SQLSTATE: ninguno asignado
Cuerpo de la solicitud con formato incorrecto.
FILES_API_MANAGED_CATALOG_FEATURE_DISABLED
SQLSTATE: ninguno asignado
<unity_catalog_error_message>
FILES_API_METASTORE_NOT_FOUND
SQLSTATE: ninguno asignado
<unity_catalog_error_message>
FILES_API_METHOD_IS_NOT_ENABLED_FOR_JOBS_BACKGROUND_COMPUTE_ARTIFACT_STORAGE
SQLSTATE: ninguno asignado
El método solicitado de la API de archivos no es compatible con el almacenamiento de artefactos de proceso en segundo plano de los trabajos.
FILES_API_MISSING_CONTENT_LENGTH
SQLSTATE: ninguno asignado
El encabezado content-length es necesario en la solicitud.
FILES_API_MISSING_QUERY_PARAMETER
SQLSTATE: ninguno asignado
El parámetro de consulta '<parameter_name>' es necesario, pero falta en la solicitud.
FILES_API_MISSING_REQUIRED_PARAMETER_IN_REQUEST
SQLSTATE: ninguno asignado
Falta un parámetro obligatorio en la solicitud.
FILES_API_MLFLOW_PERMISSION_DENIED
SQLSTATE: ninguno asignado
<mlflow_error_message>
FILES_API_MLFLOW_RESOURCE_EXHAUSTED (Recurso agotado de MLflow en la API de archivos)
SQLSTATE: ninguno asignado
Se ha excedido el límite de solicitudes al comunicarse con el servicio mlflow.
FILES_API_MODEL_VERSION_IS_NOT_READY
SQLSTATE: ninguno asignado
La versión del modelo aún no está lista
FILES_API_MULTIPART_UPLOAD_ABORT_PRESIGNED_URL_NOT_SUPPORTED
SQLSTATE: ninguno asignado
Las direcciones URL prefirmadas para anular cargas de varias partes no se admiten para los archivos almacenados en <cloud_storage_provider>.
FILES_API_MULTIPART_UPLOAD_ABORT_UPLOAD_NOT_SUPPORTED
SQLSTATE: ninguno asignado
No se admite la anulación de cargas de varias partes para los archivos almacenados en <cloud_storage_provider>.
FILES_API_MULTIPART_UPLOAD_EMPTY_PART_LIST
SQLSTATE: ninguno asignado
La lista de elementos debe tener al menos un elemento, pero estaba vacío.
FILES_API_MULTIPART_UPLOAD_INVALID_PART
SQLSTATE: ninguno asignado
No se encontraron una o varias de las partes especificadas. Es posible que el elemento no se haya cargado o que la etiqueta de entidad especificada no coincida con la etiqueta de entidad del elemento.
FILES_API_MULTIPART_UPLOAD_INVALID_PART_NUMBER
SQLSTATE: ninguno asignado
Los números de pieza deben ser mayores o iguales que <min> y menores o iguales que <max>.
FILES_API_MULTIPART_UPLOAD_MISSING_ETAG
SQLSTATE: ninguno asignado
Se deben proporcionar ETags para los archivos almacenados en <cloud_storage_provider>. No se proporcionó ninguna ETag o está vacía.
FILES_API_MULTIPART_UPLOAD_MODIFIED_STORAGE_ENTITY_STATE
SQLSTATE: ninguno asignado
El estado interno de la entidad de almacenamiento se ha modificado desde que se inició la carga, por ejemplo, porque la ruta de acceso del archivo no apunta a la misma ubicación de almacenamiento en la nube subyacente. Continúe iniciando una nueva sesión de carga.
FILES_API_MULTIPART_UPLOAD_NON_TRAILING_PARTS_WITH_DIFFERENT_SIZES
SQLSTATE: ninguno asignado
Los elementos cargados como parte de una sesión de carga de varias partes deben tener el mismo tamaño para los archivos almacenados en <cloud_storage_provider>, excepto para la última parte, que puede ser menor.
FILES_API_MULTIPART_UPLOAD_PART_SIZE_OUT_OF_RANGE
SQLSTATE: ninguno asignado
El tamaño de las partes cargadas como parte de una sesión de carga de varias partes debe ser mayor o igual que <min> y menor o igual que <max>.
FILES_API_MULTIPART_UPLOAD_SESSION_NOT_FOUND
SQLSTATE: ninguno asignado
No se encuentra la sesión de carga. Es posible que se haya anulado o completado.
FILES_API_MULTIPART_UPLOAD_UNORDERED_PART_LIST
SQLSTATE: ninguno asignado
La lista de elementos debe ordenarse por el número de pieza, pero no se ordenó.
FILES_API_NON_ZERO_CONTENT_LENGTH
SQLSTATE: ninguno asignado
El encabezado "longitud del contenido" debe ser cero para esta solicitud.
FILES_API_NOT_ENABLED_FOR_PLACE
SQLSTATE: ninguno asignado
La API de archivos para <place> no está habilitada para esta área de trabajo o cuenta
FILES_API_NOT_SUPPORTED_FOR_INTERNAL_WORKSPACE_STORAGE
SQLSTATE: ninguno asignado
No se admite el método solicitado de Files API para el almacenamiento interno del área de trabajo.
FILES_API_OPERATION_MUST_BE_PRESENT
SQLSTATE: ninguno asignado
Debe existir la operación.
FILES_API_OPERATION_TIMEOUT
SQLSTATE: ninguno asignado
Se agota el tiempo de espera de la operación.
FILES_API_PAGE_SIZE_MUST_BE_GREATER_OR_EQUAL_TO_ZERO
SQLSTATE: ninguno asignado
page_size debe ser mayor o igual que 0
FILES_API_PATH_BASED_ACCESS_TO_TABLE_WITH_FILTER_NOT_ALLOWED
SQLSTATE: ninguno asignado
<unity_catalog_error_message>
FILES_API_PATH_END_WITH_A_SLASH
SQLSTATE: ninguno asignado
Las rutas de acceso que terminan en el carácter '/' representan directorios. Esta API no admite operaciones en directorios.
FILES_API_PATH_IS_A_DIRECTORY
SQLSTATE: ninguno asignado
La ruta de acceso especificada apunta a un directorio existente. Esta API no admite operaciones en directorios.
FILES_API_PATH_IS_A_FILE
SQLSTATE: ninguno asignado
La ruta de acceso especificada apunta a un archivo existente. Esta API no admite operaciones en archivos.
FILES_API_PATH_IS_NOT_A_VALID_UTF8_ENCODED_URL
SQLSTATE: ninguno asignado
la ruta de acceso dada no era una dirección URL codificada UTF-8 válida.
FILES_API_PATH_IS_NOT_ENABLED_FOR_DATAPLANE_PROXY
SQLSTATE: ninguno asignado
La ruta de acceso dada no está habilitada para el proxy del plano de datos.
FILES_API_PATH_MUST_BE_PRESENT
SQLSTATE: ninguno asignado
Debe existir la ruta de acceso.
FILES_API_PATH_NOT_SUPPORTED
SQLSTATE: ninguno asignado
<rejection_message>
FILES_API_PATH_TOO_LONG
SQLSTATE: ninguno asignado
La ruta de acceso del archivo proporcionada es demasiado larga.
FILES_API_PRECONDITION_FAILED
SQLSTATE: ninguno asignado
Error en la solicitud debido a una condición previa.
FILES_API_PRESIGNED_URLS_FOR_MODELS_NOT_SUPPORTED
SQLSTATE: ninguno asignado
En este momento no se admite la API de archivos para direcciones URL prefirmadas para modelos.
FILES_API_R2_CREDENTIALS_DISABLED
SQLSTATE: ninguno asignado
R2 no está soportado en este momento.
FILES_API_RANGE_NOT_SATISFIABLE
SQLSTATE: ninguno asignado
El intervalo solicitado no es satisfiable.
FILES_API_RECURSIVE_LIST_IS_NOT_SUPPORTED
SQLSTATE: ninguno asignado
No se admite la enumeración recursiva de archivos.
FILES_API_REQUESTER_NETWORK_ZONE_UNKNOWN
SQLSTATE: ninguno asignado
No se puede deducir la zona de red del solicitante.
FILES_API_REQUEST_GOT_ROUTED_INCORRECTLY
SQLSTATE: ninguno asignado
La solicitud se enruta incorrectamente
FILES_API_REQUEST_MUST_INCLUDE_ACCOUNT_INFORMATION
SQLSTATE: ninguno asignado
La solicitud debe incluir información de la cuenta
FILES_API_REQUEST_MUST_INCLUDE_RECIPIENT_INFORMATION
SQLSTATE: ninguno asignado
La solicitud debe incluir información del destinatario.
FILES_API_REQUEST_MUST_INCLUDE_USER_INFORMATION
SQLSTATE: ninguno asignado
La solicitud debe incluir información de usuario
FILES_API_REQUEST_MUST_INCLUDE_WORKSPACE_INFORMATION
SQLSTATE: ninguno asignado
La solicitud debe incluir información del área de trabajo
FILES_API_RESOURCE_IS_READONLY
SQLSTATE: ninguno asignado
El recurso es de solo lectura.
FILES_API_RESOURCE_NOT_FOUND
SQLSTATE: ninguno asignado
<unity_catalog_error_message>
FILES_API_SCHEMA_NOT_FOUND
SQLSTATE: ninguno asignado
<unity_catalog_error_message>
FILES_API_SECURE_URL_CANT_BE_ACCESSED
SQLSTATE: ninguno asignado
No se puede acceder a la dirección URL.
FILES_API_SIGNATURE_VERIFICATION_FAILED
SQLSTATE: ninguno asignado
Error en la comprobación de la firma.
FILES_API_STORAGE_ACCESS_CONTEXT_INVALID
SQLSTATE: ninguno asignado
El contexto de acceso al almacenamiento no es válido.
FILES_API_STORAGE_CONTEXT_IS_NOT_SET
SQLSTATE: ninguno asignado
No se puede acceder a la configuración de almacenamiento de esta área de trabajo.
FILES_API_STORAGE_CREDENTIAL_NOT_FOUND
SQLSTATE: ninguno asignado
<unity_catalog_error_message>
FILES_API_TABLE_TYPE_NOT_SUPPORTED
SQLSTATE: ninguno asignado
No se admite la API de archivos para <table_type>
FILES_API_UC_AUTHENTICATION_FAILURE
SQLSTATE: ninguno asignado
<unity_catalog_error_message>
FILES_API_UC_IAM_ROLE_NON_SELF_ASSUMING
SQLSTATE: ninguno asignado
<unity_catalog_error_message>
FILES_API_UC_MODEL_INVALID_STATE
SQLSTATE: ninguno asignado
<unity_catalog_error_message>
FILES_API_UC_PERMISSION_DENIED
SQLSTATE: ninguno asignado
<unity_catalog_error_message>
FILES_API_UC_RESOURCE_EXHAUSTED
SQLSTATE: ninguno asignado
<message>
FILES_API_UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH
SQLSTATE: ninguno asignado
<unity_catalog_error_message>
FILES_API_UC_VOLUME_NAME_CHANGED
SQLSTATE: ninguno asignado
<unity_catalog_error_message>
FILES_API_UNABLE_TO_RENEW_AZURE_MANAGED_IDENTITIES
SQLSTATE: ninguno asignado
No se puede renovar la identidad administrada de Azure.
FILES_API_UNEXPECTED_ERROR_WHILE_PARSING_URI
SQLSTATE: ninguno asignado
Error inesperado al analizar el URI
FILES_API_UNEXPECTED_QUERY_PARAMETERS
SQLSTATE: ninguno asignado
Parámetros de consulta inesperados: <unexpected_query_parameters>
FILES_API_UNKNOWN_METHOD
SQLSTATE: ninguno asignado
Método desconocido <method>
FILES_API_UNKNOWN_SERVER_ERROR
SQLSTATE: ninguno asignado
Error de servidor desconocido.
FILES_API_UNKNOWN_URL_HOST
SQLSTATE: ninguno asignado
El host de dirección URL es desconocido.
FILES_API_UNSUPPORTED_AUTHENTICATION_METHOD
SQLSTATE: ninguno asignado
La solicitud no se autenticó correctamente.
FILES_API_UNSUPPORTED_HTTP_METHOD
SQLSTATE: ninguno asignado
El método HTTP no es compatible.
FILES_API_UNSUPPORTED_PARAMETERS_COMBINATION
SQLSTATE: ninguno asignado
No se admite la combinación de parámetros.
FILES_API_UNSUPPORTED_PATH
SQLSTATE: ninguno asignado
La API de archivos no admite la ruta de acceso proporcionada. Asegúrese de que la ruta de acceso proporcionada no contenga instancias de las secuencias '../' o './'. Asegúrese de que la ruta de acceso proporcionada no utilice barras diagonales dobles o triples (por ejemplo, "///").
FILES_API_UPLOAD_PART_URLS_COUNT_MUST_BE_GREATER_THAN_ZERO
SQLSTATE: ninguno asignado
El parámetro de entrada 'count' debe ser mayor que 0.
FILES_API_URL_GENERATION_DISABLED
SQLSTATE: ninguno asignado
La generación de direcciones URL presignadas no está habilitada para <cloud>.
FILES_API_VOLUME_TYPE_NOT_SUPPORTED
SQLSTATE: ninguno asignado
La API de archivos no es compatible con <volume_type>.
FILES_API_WORKSPACE_IS_CANCELED
SQLSTATE: ninguno asignado
Se ha cancelado el espacio de trabajo.
FILES_API_WORKSPACE_IS_NOT_FOUND
SQLSTATE: ninguno asignado
No se puede acceder a la configuración de almacenamiento de esta área de trabajo.
Canalizaciones declarativas de Spark de Lakeflow
ABAC_POLICIES_NOT_SUPPORTED
Las directivas de ABAC no se admiten en tablas definidas dentro de un pipeline.
Quite las directivas o póngase en contacto con el soporte técnico de Databricks.
ABNORMAL_DRIVER_TERMINATION
El controlador del clúster <clusterId> finalizó anómalamente debido a <terminationCause>. Consulte los registros de controladores para obtener más detalles.
ACTIVE_UPDATE_EXISTS_FOR_LINKED_PIPELINE
Ya existe una actualización activa '<updateId>' para la canalización vinculada '<linkedPipelineId>'.
ACTIVE_UPDATE_EXISTS_FOR_PIPELINE
Ya existe una actualización activa "<updateId>" para la canalización "<pipelineId>".
ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE
ALTER no está permitido en tablas administradas por
Para más información, consulte ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE
ALTER_SCHEDULE_SCHEDULE_DOES_NOT_EXIST
No se puede modificar <type> en una tabla sin una programación o desencadenador existente. Agregue una programación o un desencadenador a la tabla antes de intentar modificarla.
API_QUOTA_EXCEEDED
Ha superado la cuota de API del origen de datos <sourceName>.
Para más información, consulte API_QUOTA_EXCEEDED.
APPLY_CHANGES_ERROR
Error durante la AUTO CDC operación.
Para más información, consulte APPLY_CHANGES_ERROR
APPLY_CHANGES_FROM_SNAPSHOT_ERROR
Error durante la AUTO CDC FROM SNAPSHOT operación.
Para más información, consulte APPLY_CHANGES_FROM_SNAPSHOT_ERROR
APPLY_CHANGES_FROM_SNAPSHOT_EXPECTATIONS_NOT_SUPPORTED
El conjunto de datos <datasetName> tiene definidas las expectativas, pero actualmente no se admiten las expectativas para los conjuntos de datos que usan AUTO CDC FROM SNAPSHOT.
Elimine las expectativas para corregir este error. Como alternativa, considere usar la siguiente estructura para aplicar expectativas combinando AUTO CDC y AUTO CDC FROM SNAPSHOT.
Aplique cambios desde una instantánea mediante el tipo 1 de SCD en una tabla intermedia sin previsiones.
Lea los cambios de la tabla intermedia mediante
spark.readStream.option("readChangeFeed", "true").table.Aplique los cambios de la tabla intermedia a la tabla de destino final mediante
dlt.apply_changescon los parámetros siguientes, además de los usados actualmente condlt.apply_changes_from_snapshot:
Para controlar los cambios:
apply_as_deletes = "_change_type == 'delete'"Para quitar las columnas agregadas por el CDF:
except_column_list = ["_change_type", "_commit_version", "_commit_timestamp"]
- Incluya el conjunto actual de expectativas en la tabla objetivo final que se usa para
dlt.apply_changes.
APPLY_CHANGES_PARTIAL_UPDATES_NOT_ENABLED
La característica COLUMNS TO UPDATE está en versión preliminar y no está habilitada para el área de trabajo. Póngase en contacto con su representante de Databricks para obtener más información sobre esta característica y acceder a la versión preliminar privada.
APLICAR_ENTORNO_CLÚSTER_NO_DISPONIBLE
El cómputo de canalización para <pipelineId> no está disponible. Es posible que el cómputo de la canalización se haya detenido o que todavía esté empezando.
Inténtelo de nuevo más tarde cuando la capacidad de cómputo esté totalmente disponible. Si el problema persiste, póngase en contacto con el soporte técnico de Databricks.
APLICAR_ENTORNO_CLÚSTER_NO_ENCONTRADO
No se encuentra el cálculo de canalización para <pipelineId>. Es posible que este proceso de canalización nunca se haya iniciado o ya se haya detenido. Inicie la canalización.
antes de aplicar la configuración del entorno.
APLICAR_ENTORNO_NO_SOPORTADO
El endpoint ApplyEnvironment no es compatible.
ARCHITECTURE_MIGRATION_FAILURE
Para más información, consulte ARCHITECTURE_MIGRATION_FAILURE.
ARCLIGHT_REQUIRES_SERVERLESS
Las canalizaciones dirigidas a catálogos que usan almacenamiento predeterminado deben utilizar computación sin servidor. Si no tiene acceso a la computación sin servidor, póngase en contacto con Databricks para habilitar esta funcionalidad para su espacio de trabajo.
AUTO_FULL_REFRESH_DISABLED
La actualización completa automática está deshabilitada para la tabla <tableName>.
AUTO_FULL_REFRESH_NOT_ALLOWED
Error de actualización completa automática para la tabla <tableName> porque <reason>.
AUTO_FULL_REFRESH_THROTTLED
Error de actualización completa automática. La tabla <tableName> se actualizó automáticamente a <timestamp> intervalo mínimo y antes de que la siguiente actualización completa automática sea: <minInterval> minutos.
AZURE_ACTIVE_DIRECTORY_AUTHENTICATION_FAILED
Error de autenticación de Azure Active Directory (AADSTS5000224).
Id. de seguimiento: <traceId>, id. de correlación: <correlationId>.
Compruebe que Azure Active Directory está configurado y accesible correctamente. Si el problema persiste, póngase en contacto con el servicio de soporte técnico de Microsoft.
AZURE_MANAGED_IDENTITY_CREDENTIAL_NOT_FOUND
No se encontró la credencial de identidad administrada de Azure con el identificador <accessConnectorId> del conector de access para la cuenta <accountId>.
Compruebe que la credencial existe y está configurada correctamente.
AZURE_STORAGE_HOSTNAME_RESOLUTION_FAILED
No se pudo resolver el nombre de host de Azure Storage: <hostname>.
Compruebe que DNS está configurado correctamente y que la cuenta de almacenamiento es accesible desde la red.
AZURE_STORAGE_REQUEST_NOT_AUTHORIZED
El perímetro de seguridad de red no autorizó la solicitud a Azure Storage.
Compruebe que el almacenamiento está configurado y accesible correctamente.
BIGQUERY_DATA_CONNECTOR_SOURCE_CATALOG_MISSING
Ha ocurrido un error en el conector de datos de BigQuery.
Falta el "catálogo de origen" (ID de Proyecto de GCP) en la especificación de ingesta.
Especifique el catálogo de origen (id. de proyecto) en la especificación de ingesta para resolver este problema.
CANNOT_ADD_COLUMN_TO_INCLUDE_COLUMNS
Se agregan nuevas columnas (<columnNames>) al campo include_columns en la definición de canalización de la tabla <qualifiedTableName>. Actualice la tabla completa para evitar la posible pérdida de datos o quitar estas columnas de include_columns.
CANNOT_ADD_STORAGE_LOCATION
No se puede agregar la ubicación de almacenamiento a una canalización existente con catálogo definido, si desea establecer una ubicación de almacenamiento, cree una nueva canalización.
Catálogo existente: '<catalog>'.
Ubicación de almacenamiento solicitada: <storageLocation>.
CANNOT_COMPOSE_DECORATOR
SQLSTATE: ninguno asignado
El @<decoratorName> decorador no se puede componer con <otherDecorators>.
CANNOT_EXCLUDE_NON_EXISTENT_COLUMN
La definición de canalización excluye las columnas (<columnNames>) que no existen en la tabla <qualifiedTableName> de origen <sourceType>. Quite estas columnas del campo exclude_columns.
CANNOT_FILTER_OUT_REQUIRED_COLUMN
La definición de canalización no incluye las columnas necesarias (<columnNames>) en la tabla <qualifiedTableName> de origen <sourceType> para la ingesta. Agréguelos a include_columns o quítelos de exclude_columns.
CANNOT_INCLUDE_NON_EXISTENT_COLUMN
La definición de canalización incluye columnas (<columnNames>) que no existen o que no son accesibles en la tabla <qualifiedTableName> de origen <sourceType>. Quite estas columnas del campo include_columns.
CANNOT_INGEST_TABLE_WITHOUT_PRIMARY_KEY
La tabla <qualifiedTableName> del origen <sourceType> no tiene una clave principal.
Especifique una clave principal en la configuración del conector para ingerir la tabla si existe.
CANNOT_MODIFY_PIPELINE_OWNER_FOR_UC_PIPELINES
Todavía no se admite el cambio de propietario para canalizaciones que no son de UC.
CANNOT_MODIFY_PIPELINE_OWNER_PERMISSION_DENIED
Solo los administradores del área de trabajo pueden cambiar el propietario de la canalización.
CANNOT_MODIFY_PIPELINE_OWNER_WHEN_MISSING
El nuevo propietario no existe.
CANNOT_MODIFY_PIPELINE_TYPE
pipeline_type no se puede actualizar.
Tipo de canalización actual: <currentPipelineType>.
Se ha actualizado pipeline_type: <requestedPipelineType>.
CANNOT_MODIFY_STORAGE_LOCATION
No se puede modificar la ubicación de almacenamiento de una canalización existente.
Ubicación de almacenamiento existente: "<existingStorageLocation>".
Ubicación de almacenamiento solicitada: <requestedStorageLocation>.
CANNOT_REMOVE_COLUMN_FROM_EXCLUDE_COLUMNS
Las columnas (<columnNames>) se omiten del campo exclude_columns en la definición de la canalización de la tabla <qualifiedTableName>. Actualice la tabla completa para evitar la posible pérdida de datos o volver a agregar estas columnas a exclude_columns.
CANNOT_SET_CATALOG_FOR_HMS_PIPELINE
No se puede agregar catálogo a una canalización existente con ubicación de almacenamiento definida, si desea usar UC, cree una nueva canalización y establezca el catálogo.
Ubicación de almacenamiento existente: '<storageLocation>'
Catálogo solicitado: '<catalog>'
CANNOT_SET_LINKED_PIPELINE_ID
Los identificadores de canalización son los mismos. Si establece los identificadores de canalización vinculados, se producirá un interbloqueo.
CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE
El campo "schema" especificado en la configuración de canalización para la canalización "<pipelineName>" es ilegal. Reason:
Para más información, consulte CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE
CANNOT_SET_TOGETHER
SQLSTATE: ninguno asignado
<argList> son mutuamente excluyentes y no se pueden configurar juntos.
CANNOT_SPECIFY_BOTH_INCLUDE_EXCLUDE_COLUMNS
La definición de canalización especifica tanto include_columns como exclude_columns para <identifier>. Por favor, quite uno de ellos.
CANNOT_UPDATE_CLUSTERING_COLUMNS
No se pueden actualizar las columnas de agrupación en clústeres de la tabla <tableName> , ya que usa columnas de partición. Una tabla puede usar columnas de partición o columnas de agrupación en clústeres, pero no ambas.
Para cambiar entre clústeres líquidos y particiones, desencadene una actualización completa de esta tabla.
CANNOT_UPDATE_PARTITION_COLUMNS
No se pueden actualizar las columnas de partición de la tabla de streaming <tableName>.
Estado actual: <existingPartitionColumns>
Solicitadas: <requestedPartitionColumns>
Para aplicar este cambio de partición, desencadene una actualización completa de esta tabla y cualquier otra tabla de streaming que tenga columnas de partición actualizadas.
También puede revertir este cambio para seguir usando las columnas de partición existentes.
CANNOT_UPDATE_TABLE_SCHEMA
No se pudieron combinar los esquemas actuales y nuevos para la tabla <tableName>.
Para continuar con este cambio de esquema, puede desencadenar una actualización completa de esta tabla.
Según el caso de uso y los cambios en el esquema, puede evitar el cambio de esquema; puede actualizar las consultas para que el esquema de salida sea compatible con el esquema existente (por ejemplo, mediante la conversión explícita de columnas al tipo de datos correcto).
CANNOT_WRITE_TO_INACTIVE_COLUMNS
<details>
Sin embargo, las tablas de destino ya tienen columnas inactivas con este nombre; Las columnas están inactivas porque se eliminaron previamente de las tablas de origen.
Para continuar con la actualización, ejecute en FULL REFRESH las tablas .
CANNOT_WRITE_TO_INACTIVE_TABLES
Las tablas siguientes del destino están inactivas y entran en conflicto con las tablas de origen actuales: <tables>.
Estas tablas permanecen inactivas porque se eliminaron previamente del origen o no se seleccionaron del conector.
Para continuar con la actualización, cambie el nombre de la tabla de destino o realice una FULL REFRESH en estas tablas o quite estas tablas inactivas del destino en el Explorador de catálogos o mediante DROP TABLE el comando y vuelva a intentar la actualización.
CANNOT_WRITE_TO_TABLES_PENDING_RESET
Las tablas siguientes del destino no se restablecen correctamente en la actualización completa anterior: <tables>.
Desencadene una actualización completa en ellas para recuperarlas.
CATALOG_MAPPING_NOT_AVAILABLE_IN_UC
El catálogo UC no tiene la asignación para el catálogo "<sourceCatalog>".
Compruebe si el catálogo está registrado en el catálogo de UC.
CATALOG_SCHEMA_MISMATCH_WITH_DESTINATION_PIPELINE
El catálogo <destPipelineCatalog> y el esquema <destPipelineSchema> de la canalización de destino con el identificador '<destPipelineId>' no coinciden con el catálogo y el esquema de la tabla <tableName>. La canalización de destino debe tener el mismo catálogo y esquema que la tabla o la canalización de destino deben usar el modo de publicación directa.
CATALOG_SPEC_UNSUPPORTED
CatalogSpecs no son compatibles actualmente con los conectores de base de datos. Quite la especificación del catálogo.
CDC_APPLIER_AUTO_FULL_REFRESH_POLICY_MUST_BE_SAME_FOR_ALL_DESTINATION_TABLES
La directiva de actualización completa automática de todas las tablas de destino conectadas a la misma tabla de origen debe ser la misma.
Cambie la directiva para las siguientes tablas de destino conectadas <destinationTables> al origen <sourceTable>.
CDC_APPLIER_COLUMN_UOID_NOT_SUPPORTED
Las columnas con UOID <columnNames> para la tabla <tableName> no se admiten en las canalizaciones de ingesta gestionadas por CDC.
Compruebe si la canalización de ingesta admite UOID de columna o solicite una actualización completa en la tabla.
CDC_APPLIER_FATAL_FAILURE_FROM_GATEWAY
La canalización de puerta de enlace encontró un error irrecuperable:
<errorMessage>
Revise el error de actualización de la canalización aquí: <link>.
CDC_APPLIER_INGESTION_GATEWAY_REMOVED
Se ha quitado la canalización <pipelineId> de puerta de enlace de ingesta vinculada a la canalización de ingesta administrada.
Quite la canalización de ingesta administrada y cree canalizaciones de ingesta y de ingesta administrada.
CDC_APPLIER_REPLICATED_TABLE_METADATA_NOT_READY
Los metadatos de tabla replicados para la tabla <tableName> no están listos.
La marca de tiempo actual de la solicitud de trabajo es <existingRequestTs>, pero esperamos <expectedRequestTs> o más tarde.
CDC_APPLIER_REQUIRES_ALL_DESTINATION_TABLES_FULL_REFRESH
No se admite la actualización completa de una tabla de destino y la actualización normal de otra tabla de destino desde el mismo origen.
Actualice todas las dos tablas para continuar si es posible.
Tablas de actualización completa: <fullRefreshTables>
Tablas de destino para el origen <sourceTable>: <destinationTables>
CDC_APPLIER_SCHEMA_CHANGED_DURING_STREAMING
La versión <dataSchemaVersion> del esquema es diferente de la versión de esquema de lectura <readSchemaVersion>.
Las canalizaciones declarativas de Spark de Lakeflow volverán a intentar la actualización.
CDC_APPLIER_SEQUENCE_BY_COLUMN_NOT_FOUND
La columna <columnName> de la tabla <tableName> especificada en sequenceBy no existe en <columns>.
CDC_APPLIER_SEQUENCE_BY_INVALID_TYPE
La columna <columnName> de la tabla <tableName> especificada en sequenceBy es de tipo <typeName> que no se admite.
Los tipos admitidos para las columnas sequenceBy son <allowedTypes>.
CDC_APPLIER_SEQUENCE_BY_MULTIPLE_COLUMNS_NOT_SUPPORTED
Como máximo, se puede especificar una columna en sequenceBy de la canalización de ingesta administrada por CDC.
Columnas especificadas: <columns> para la tabla <tableName>.
CDC_INCOMPATIBLE_SCHEMA_CHANGES
Hemos encontrado un cambio de esquema incompatible (<cause>) de la versión <previousSchemaVersion> del esquema a <currentSchemaVersion>.
Por lo tanto, no podemos continuar aplicando cambios para <tableName>. Solicite una actualización completa de la tabla.
Esquema anterior: <previousSchema>
Esquema actual: <currentSchema>
CDC_MULTIPLE_SOURCE_TABLES_MAPPED_TO_SAME_DESTINATION_TABLE
Se encontraron varias tablas de origen: <source_tables> asignadas a la misma tabla <destination_table>de destino .
Asigne los elementos a un nombre de tabla de destino diferente o a un esquema de destino distinto.
CDC_POTENTIAL_DATA_GAPS
Las tablas siguientes [<needFullRefreshTableList>] no se han actualizado correctamente desde hace <retention> días.
Realice una actualización completa en estas tablas o en toda la canalización.
CDC_SAME_TABLE_FROM_MULTIPLE_SOURCES
Se encontró el mismo nombre de tabla <table> en varios orígenes: <sources>.
Divídalas en diferentes canalizaciones para evitar conflictos.
CDC_SOURCE_VALIDATION_FAILURE
Se detectaron <errorCount> errores de validación de la base de datos de origen. Consulte los informes de registro de eventos para obtener resultados detallados y pasos de corrección.
CDC_TABLE_NOT_FOUND_IN_ALL_TABLES
No se encuentra la tabla <table> en la instantánea de todas las tablas de la base de datos de origen.
Detalles de especificación de tabla:
<tableSpec>
CHANGES_HMS_PIPELINE_TO_UC_NOT_ALLOWED
No se permite cambiar una canalización HMS a una canalización de UC.
CHANGES_UC_PIPELINE_TO_HMS_NOT_ALLOWED
No se permite cambiar una canalización de UC a una canalización HMS.
CHANGING_CATALOG_NOT_ALLOWED
No se puede modificar el catálogo de una canalización existente. Catálogo existente: '<existingCatalog>'. Catálogo solicitado: '<requestedCatalog>'.
CHANGING_TARGET_SCHEMA_NOT_ALLOWED
No se permite cambiar el esquema de destino. Motivo: <reason>.
CLUSTER_CREATION_BUDGET_POLICY_LIMIT_EXCEEDED
No se pudo crear un clúster porque la política de presupuesto de la tubería ha superado el límite. Use otra directiva o póngase en contacto con el administrador de facturación.
CLUSTER_CREATION_CLIENT_ERROR
No se pudo crear un clúster de canalización: <errorMessage>
Es probable que este error se deba a una configuración incorrecta en la canalización.
Compruebe la configuración del clúster de canalización y la directiva de clúster asociada.
LÍMITE_DE_POLÍTICA_DE_CREACIÓN_DE_CLÚSTER_EXCEDIDO
No se pudo crear un clúster porque el número de clústeres en ejecución por usuario para la directiva "<clusterPolicy>" ha superado el límite de <clusterLimit>. Use otra directiva o póngase en contacto con el administrador.
CLUSTER_CREATION_CREDITS_EXHAUSTED
No se pudo crear un clúster porque ha agotado los créditos disponibles. Agregue un método de pago para actualizar su cuenta.
CLUSTER_CREATION_RESOURCE_EXHAUSTED
No se pudo crear un clúster porque ha superado los límites de recursos: <errorMessage>
CLUSTER_CREATION_SECRETS_FETCH_FAILED
No se pueden capturar secretos a los que se hace referencia en la configuración de Spark.
Compruebe que los secretos existen y que el propietario del clúster tiene permisos de lectura.
CLUSTER_LAUNCH_CLIENT_ERROR
Error al iniciar el clúster <clusterId>de canalización: <clusterStateMessage>
Es probable que este error se deba a una configuración incorrecta en la canalización.
Compruebe la configuración del clúster de canalización y la directiva de clúster asociada.
CLUSTER_LAUNCH_CLOUD_FAILURE
Error al iniciar el clúster <clusterId>de canalización: <clusterStateMessage>
Este error podría ser transitorio: reinicie la canalización e informe si sigue viendo el mismo problema.
CLUSTER_LAUNCH_RESOURCE_EXHAUSTED
No se pudo iniciar el clúster <clusterId> de canalización debido al agotamiento de los límites de recursos: <clusterStateMessage>.
AGOTAMIENTO_DE_RECURSOS_DE_LANZAMIENTO_DEL_CLÚSTER
Error al iniciar el clúster <clusterId>de canalización: <clusterStateMessage>
El proveedor de nube no pudo proporcionar el tipo de instancia solicitado.
Compruebe la suscripción del proveedor de nube o vuelva a intentarlo con un tipo de instancia diferente.
CLUSTER_SETUP_CLIENT_ERROR
No se puede configurar correctamente el clúster <clusterId> para la ejecución de la actualización de canalización. Reason:
Para obtener más información, consulte CLUSTER_SETUP_CLIENT_ERROR
CLUSTER_UNREACHABLE
Comunicación con el conductor perdida. No se pudo acceder al clúster <clusterId> durante <timeoutSeconds> segundos.
COLUMN_MASK_WITH_NO_COLUMN
Máscara de columna encontrada para la columna '<columnName>' que no existe en el esquema MV/ST. Si esto se debe a un cambio en el esquema de la tabla base,
Quite la máscara antigua con ALTER TABLE [table_name] ALTER COLUMN [columna donde se aplica la máscara] DROP MASK; o restaure la columna.
COLUMN_TO_UPDATE_NOT_FOUND
Columna <column> especificada en COLUMNS a UPDATE no se encontró en el DataFrame de origen.
CONCURRENT_UPGRADE_FAILED_TO_STOP_PREVIOUS_UPDATE
Se inició la actualización '<upgradedUpdateId>' para una mejora, pero no se pudo detener la actualización anterior '<oldUpdateId>'.
Es probable que este error sea transitorio. La canalización se reintentará automáticamente y el problema debe resolverse automáticamente.
Notifique este error a Databricks si sigue viendo el mismo problema.
CREATE_APPEND_ONCE_FLOW_FROM_BATCH_QUERY_NOT_ALLOWED
No se puede crear una tabla de streaming anexada una vez desde una consulta por lotes.
Esto impide la ingesta incremental del origen y puede dar lugar a un comportamiento incorrecto.
Tabla ofendida: '<table>'.
Para corregirlo, use el operador STREAM() o readStream para declarar el origen como una entrada de flujo.
Ejemplo: SELECT...FROM STREAM(<source table name>) o spark.readStream.table('<source table name>')
DATASET_DECORATOR_APPLIED_TWICE
SQLSTATE: ninguno asignado
El conjunto de datos <datasetName> ya existe. Asegúrese de que la función de consulta solo se ha marcado como una vista o tabla una vez.
DATASET_NOT_DEFINED
No se pudo leer el conjunto de datos "<datasetName>". Este conjunto de datos no está definido en el flujo de trabajo.
Si otra canalización administra esta tabla, no use dlt.read / dlt.readStream para leer la tabla ni anteponer el nombre con la palabra clave LIVE.
DATASET_NOT_FOUND_FOR_EXPECTATIONS
Se intentó definir las expectativas de un conjunto de datos "<datasetName>" que no existe
DATASET_NOT_REGISTERED_FOR_FLOW
Se intentó registrar un flujo para el conjunto de datos "<datasetName>", pero el conjunto de datos no está registrado.
DBFS_NOT_ENABLED
DBFS no está habilitado para esta área de trabajo; Publique en el catálogo de Unity o especifique una ubicación de almacenamiento diferente para la canalización.
DBSQL_INCONSISTENT_SCHEDULE_IN_PIPELINE
La canalización <pipelineId> tiene varias tablas de producción con diferentes configuraciones de programación: [<tableScheduleInfo>]. Todas las tablas de producción deben tener la misma programación.
DBSQL_INVALID_CHANNEL_VALUE
Canal no válido especificado con pipelines.channel la propiedad : <channel>. Los valores válidos son: <validChannels>.
DBSQL_INVALID_SCHEDULE_TYPE
Tipo de programación no válido especificado con la propiedad schedule: <scheduleValue>.
DBSQL_MISSING_SCHEDULE_PROPERTY
Falta la propiedad schedule requerida en las propiedades de la tabla.
DBSQL_PIPELINE_IS_MISSING
Falta una DBSQL canalización. Actualice la vista materializada o la tabla de streaming para crear la DBSQL canalización.
DBSQL_PIPELINE_SHOULD_NOT_HAVE_MULTIPLE_TABLES
Una canalización DBSQL debe tener exactamente una vista materializada o una tabla de streaming, pero se encontraron tablas <tablesSize>: <tables>
ELIMINAR_CANALIZACIÓN_DESHABILITADA
La canalización no se puede eliminar en este momento.
Póngase en contacto con el soporte técnico de Databricks para obtener ayuda para eliminar la canalización "<pipelineId>".
DESTINATION_PIPELINE_NOT_FOUND
No se encuentra la canalización de destino con el identificador '<pipelineId>'. Asegúrese de que se encuentra en la misma área de trabajo que la canalización, que es el propietario de la canalización y que la canalización se ejecutó al menos una vez.
DESTINATION_PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE
La canalización de destino con el identificador '<pipelineId>' no usa el modo de publicación directa.
DESTINATION_PIPELINE_PERMISSION_DENIED
No se le permite realizar esta operación, no es el propietario de la canalización de destino con el identificador "<pipelineId>". Solo los propietarios pueden cambiar la canalización de una tabla.
DESTINATION_PIPELINE_TYPE_NOT_WORKSPACE_PIPELINE_TYPE
La canalización de destino con el identificador '<pipelineId>' no es una canalización ETL.
DIRECTORY_PATH_REQUIRES_GLOB
La ruta de acceso <path> es un directorio. Para incluir todos los archivos dentro de un directorio, use el patrón glob con el sufijo "**" , "<path>/**", en la configuración de la canalización.
SOLICITUD_NO_PERMITIDA_PARA_RESTAURAR_TUBERÍA
No se permite la solicitud <request> para la canalización <pipelineId> en el estado RESTORING.
DO_CREATE_OR_EDIT_INVALID_USER_ACTION
Error al manejar la solicitud "<action>".
DROP_SCHEDULE_SCHEDULE_DOES_NOT_EXIST
No se puede quitar SCHEDULE en una tabla sin una programación o desencadenador existente.
DUPLICATED_FROM_JSON_SCHEMA_LOCATION
Clave de ubicación del esquema from_json duplicada: <schemaLocationKey>.
Elija claves de ubicación de esquema únicas para cada consulta de from_json de la canalización.
DUPLICATED_INGESTION_CONFIG_TABLE_SPECS
La configuración de canalización de ingesta contiene tablas duplicadas. Asegúrese de que cada tabla sea única.
EMPTY_INGESTION_CONFIG_OBJECTS
Los objetos de configuración de ingesta están vacíos.
ENHANCED_AUTOSCALING_REQUIRES_ADVANCED_EDITION
La configuración de escalado automático mejorado "spare_capacity_fraction" solo se admite en la edición de productos avanzados de Canalizaciones declarativas de Spark de Lakeflow.
Edite la configuración de la canalización para establecer "edition" en "advanced" y así poder usar "spare_capacity_fraction".
ENVIRONMENT_PIP_INSTALL_ERROR
No se logró instalar la dependencia del entorno: '<pipDependency>'. Revise los registros stdout del controlador en el clúster para obtener más detalles.
EVENT_LOG_PICKER_FEATURE_NOT_SUPPORTED
La publicación del registro de eventos en el catálogo de Unity no se admite en el modo de publicación heredado. Para habilitar esta característica, migre la canalización al modo de publicación predeterminado siguiendo los pasos descritos en la guía https://docs.databricks.com/aws/en/dlt/migrate-to-dpmde migración . Si prefiere seguir usando el modo de publicación heredado, quite la configuración de "event_log" de la especificación de canalización.
EXPECTATION_VIOLATION
El flujo '<flowName>' no pudo cumplir la expectativa.
Para más información, consulte EXPECTATION_VIOLATION
EXPLORE_ONLY_CANNOT_BE_SET_WITH_VALIDATE_ONLY
explore_only y validate_only no se pueden establecer ambas en true.
EXPLORE_ONLY_IS_NOT_ENABLED
La actualización de explore_only no está habilitada. Póngase en contacto con el soporte técnico de Databricks.
FAILED_TO_CREATE_EVENT_LOG
No se pudo crear el registro de eventos de canalización (id=<pipelineId>) con el identificador <eventLogIdentifier>. Consulte la excepción siguiente para obtener más detalles.
FAILED_TO_PUBLISH_VIEW_TO_METASTORE
Error al publicar la vista <viewName> en el metastore porque <reason>.
FAILED_TO_UPDATE_EVENT_LOG
No se pudo actualizar el identificador del registro de eventos de canalización (id=<pipelineId>) a <newEventLogIdentifier>. Consulte la excepción siguiente para obtener más detalles.
FLOW_SCHEMA_CHANGED
El flujo <flowName> ha finalizado desde que encontró un cambio de esquema durante la ejecución.
El cambio de esquema es compatible con el esquema de destino existente y la siguiente ejecución del flujo puede reanudarse con el nuevo esquema.
FOREACH_BATCH_SINK_ONLY_SUPPORTED_IN_PREVIEW_CHANNEL
Actualmente no se admite el receptor declarativo de Spark de Lakeflow ForeachBatch.
La versión preliminar privada del receptor foreachBatch de Canalizaciones declarativas de Spark de Lakeflow requiere el PREVIEW canal.
Receptores de canalizaciones declarativas de Spark de Lakeflow: <sinkNames>
GATEWAY_PIPELINE_INIT_SCRIPTS_NOT_ALLOWED
La canalización de puerta de enlace no permite scripts de inicialización de clústeres. Por favor, quítalo de <from>.
GATEWAY_PIPELINE_SPARK_CONF_NOT_ALLOWED
La canalización de puerta de enlace no permite la configuración de Spark [<configs>]. Por favor, retírelos de <from>.
GET_ORG_UPDATE_CAPACITY_LIMIT_EXCEEDED
El número de identificadores de organización solicitados supera el límite máximo permitido de <limit>
GOOGLE_ANALYTICS_RAW_DATA_CONNECTOR_SOURCE_CATALOG_MISSING
Error en el conector de datos sin procesar de Google Analytics.
Falta el "catálogo de origen" (ID de Proyecto de GCP) en la especificación de ingesta.
Especifique el catálogo de origen (id. de proyecto) en la especificación de ingesta para resolver este problema.
HMS_NOT_ENABLED
El metastore de Hive no está habilitado para esta área de trabajo; publique en el Catálogo de Unity.
ILLEGAL_COLUMN_TO_UPDATE_DATA_TYPE
El tipo de datos de la columna especificada en COLUMNS TO UPDATE debe ser una matriz de cadenas, pero se encontró <illegalDataType>.
ILLEGAL_ID_PARAM_IN_PIPELINE_SETTINGS
La configuración no debe contener '<fieldName>'.
ILLEGAL_SCHEMA_FIELD_IN_PIPELINE_SPEC
El campo "esquema" especificado en la configuración de la canalización no es válido. Motivo: <reason>.
INCORRECT_ROOT_PATH_TYPE
La ruta de acceso raíz "<rootPath>" debe ser un directorio, pero se encontró <objectType>.
INCREMENTAL_REFRESH_UNAVAILABLE_WITH_STRICT_REFRESH_POLICY
la vista materializada tiene una directiva de actualización de INCREMENTAL_STRICT pero no se puede incrementalizar.
MANTENIMIENTO_DE_INFRAESTRUCTURAS
El controlador en el clúster <clusterId> finalizó debido al mantenimiento de la infraestructura.
INGESTION_CONFIG_DUPLICATED_SCHEMA
La configuración de canalización de ingesta contiene esquemas duplicados. Asegúrese de que cada esquema sea único.
INGESTION_GATEWAY_AUTHENTICATION_FAILURE
Error de autenticación
Para más información, consulte INGESTION_GATEWAY_AUTHENTICATION_FAILURE.
INGESTION_GATEWAY_BREAKING_SCHEMA_CHANGE_FAILURE
Se ha detectado una falta de coincidencia de esquema entre las tablas de origen y de destino. Para resolver este problema, se requiere una actualización completa de la tabla "<entityName>" en la canalización de ingesta.
INGESTION_GATEWAY_CAPTURE_INSTANCE_UNAVAILABLE
La instancia de captura de <entityName> ya no está disponible en el origen.
Desencadene una actualización completa después de habilitar CDC o CT en la tabla.
INGESTION_GATEWAY_CDC_LOG_TRUNCATED
El registro CDC se ha truncado para la tabla "<entityName>", motivo: <errorMessage>.
Esto puede deberse a que la directiva de retención de registros CDC trunca los registros de seguimiento de cambios antes de que se puedan procesar.
La tabla se omitirá del procesamiento. Para volver a habilitar el procesamiento, actualice la tabla completa.
INGESTION_GATEWAY_CDC_NOT_ENABLED
CDC no está habilitado en <entityType> "<entityName>". Habilite CDC y actualice la tabla completa en la canalización de ingesta. Mensaje de error: "<errorMessage>".
INGESTION_GATEWAY_DB_VERSION_NOT_SUPPORTED
No se admite la versión de la base de datos.
Para obtener más información, consulte INGESTION_GATEWAY_DB_VERSION_NOT_SUPPORTED
INGESTION_GATEWAY_DDL_OBJECTS_MISSING
Faltan objetos DDL en <entityType> "<entityName>". Ejecute el script de objetos DDL y realice una actualización completa de la tabla en la canalización de ingesta. Mensaje de error: "<errorMessage>".
INGESTION_GATEWAY_HEALTH_CHECKER_VALIDATION_CYCLE_FAILED
Error en el ciclo de validación del comprobador de estado interno. Volverá a intentarlo en el siguiente ciclo, si el problema persiste, envíe una incidencia.
Mensaje de error: <errorMessage>
INGESTION_GATEWAY_MISSING_CONNECTION_REFERENCE
Falta una conexión para la configuración de la puerta de enlace de ingesta.
Agregue una referencia a la conexión del catálogo de Unity que contiene las credenciales.
Detalles de la definición de canalización de puerta de enlace de ingesta:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_CATALOG
Falta el catálogo de ubicaciones de almacenamiento interno en la configuración de la puerta de enlace de ingesta.
Agregue el catálogo de ubicaciones de almacenamiento interno.
Detalles de la definición de canalización de puerta de enlace de ingesta:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_NAME
Falta el nombre de la ubicación de almacenamiento interno en la configuración de la puerta de enlace de ingesta.
Agregue el nombre de ubicación de almacenamiento interno.
Detalles de la definición de canalización de puerta de enlace de ingesta:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_SCHEMA
Falta el esquema de la ubicación de almacenamiento interno en la configuración de la puerta de enlace de ingesta.
Agregue el esquema de ubicación de almacenamiento interno.
Detalles de la definición de canalización de puerta de enlace de ingesta:
<definition>
INGESTION_GATEWAY_MISSING_TABLE_IN_SOURCE
La tabla '<entityName>' no existe en la base de datos de origen o se ha quitado. Resuelva el problema y realice una actualización completa de la tabla en la canalización de ingesta administrada. Mensaje de error: "<errorMessage>".
INGESTION_GATEWAY_MYSQL_BINLOG_FILE_DELETED
Los archivos binlog de MySQL necesarios se han eliminado en la base de datos de origen. Esto suele ocurrir cuando el período de retención de binlog es demasiado bajo o cuando se reinicia la ingesta después de que se haya superado la ventana de retención. Para mitigarlo, ejecute una actualización completa en todas las tablas y aumente la retención de binlog en el origen.
Mensaje de error: <errorMessage>
INGESTION_GATEWAY_MYSQL_MISSED_BINLOG_FILES_DETECTED
Se ha perdido la detección de archivos Binlog de MySQL. Realice una actualización completa en <entityName>.
Mensaje de error: <errorMessage>
INGESTION_GATEWAY_ORACLE_ARCHIVE_LOG_FILES_UNAVAILABLE
Los archivos de registro de archivo de Oracle necesarios para la replicación CDC ya no están disponibles en la base de datos de origen. Esto puede ocurrir cuando los registros de archivo superan el período de retención o se eliminan manualmente. Realice una actualización completa en todas las tablas de destino asignadas al catálogo "<catalogName>". Si este problema persiste, considere la posibilidad de aumentar el período de retención del registro de archivo en la base de datos de origen para asegurarse de que los registros permanecen disponibles mientras se procesan.
Mensaje de error: <errorMessage>
INGESTION_GATEWAY_ORACLE_MISSING_CONFIGURATION
La configuración de conexión de Oracle está incompleta.
Para obtener más información, consulte INGESTION_GATEWAY_ORACLE_MISSING_CONFIGURATION
INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED
No se pudo modificar la publicación de replicación para <entityType> '<entityName>'
Mensaje de error: <errorMessage>
Para obtener más información, consulte INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED
INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED
No se pudo crear la publicación de replicación para <entityType> '<entityName>'
Mensaje de error: <errorMessage>
Para obtener más información, consulte INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED
INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED
No se pudo quitar la publicación de replicación para <entityType> '<entityName>'
Mensaje de error: <errorMessage>
Para obtener más información, consulte INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED
INGESTION_GATEWAY_PG_SLOT_CONFIG_IS_INVALIDATED
La configuración del espacio de replicación para <entityType> <entityName> no está en buen estado. Para resolver este problema, desencadene una actualización completa en todas las tablas de destino asignadas al catálogo <catalogName>.
Mensaje de error: <errorMessage>
INGESTION_GATEWAY_PG_SLOT_CONSUMED_BY_OTHER_PROCESS
No se pudo crear la ranura de replicación para <entityType> '<entityName>' debido a que otro PID usa la ranura de replicación.
Mensaje de error: <errorMessage>
INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED
No se pudo crear la ranura de replicación para <entityType> '<entityName>'
Mensaje de error: <errorMessage>
Para más información, consulte INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED
INGESTION_GATEWAY_PG_SLOT_DROP_FAILED
No se pudo quitar la ranura de replicación para <entityType> '<entityName>'
Mensaje de error: <errorMessage>
Para obtener más información, consulte INGESTION_GATEWAY_PG_SLOT_DROP_FAILED
INGESTION_GATEWAY_PG_SLOT_HAS_BEEN_DELETED
Se ha eliminado la ranura de replicación para <entityType> '<entityName>'. Desencadene una actualización completa en todas las tablas de destino asignadas al catálogo "<catalogName>".
Mensaje de error: <errorMessage>
INGESTION_GATEWAY_PG_SLOT_IS_INVALIDATED
La ranura de replicación de <entityType> '<entityName>' no está en un estado correcto. Quite la ranura y desencadene una actualización completa en todas las tablas de destino asignadas al catálogo "<catalogName>".
Mensaje de error: <errorMessage>
INGESTION_GATEWAY_SOURCE_INSUFFICIENT_PERMISSION_FAILURE
El usuario no tiene los permisos necesarios para acceder a este objeto o ejecutar el procedimiento almacenado. Asegúrese de que se conceden todos los privilegios necesarios. Consulte la siguiente documentación: https://docs.databricks.com/aws/en/ingestion/lakeflow-connect/sql-server/database-user-requirements.
INGESTION_GATEWAY_SOURCE_SCHEMA_MISSING_ENTITY
No hay tablas disponibles para la replicación desde el origen.
Compruebe que las tablas están seleccionadas correctamente y definidas en la canalización de ingesta
y el usuario tiene acceso necesario al catálogo y al esquema.
INGESTION_GATEWAY_SQL_SERVER_CT_DISABLED
Change Tracking para la tabla <entityName> se ha deshabilitado en el origen.
Desencadene una actualización completa después de habilitar CDC o CT en la tabla.
INGESTION_GATEWAY_TABLE_DROPPED
La tabla de origen '<entityName>' se ha eliminado. Mensaje de error: <errorMessage>
INGESTIÓN_PASARELA_TABLA_RENOMBRADA
El nombre de la tabla de origen '<entityName>' ha sido cambiado en la fuente de origen. Mensaje de error: <errorMessage>
TABLA_DEL_PORTAL_DE_INGESTA_OMITIDA_DEBIDO_A_TIPO_DE_DATOS_DE_COLUMNA_NO_ADMITIDO
Se ha omitido la tabla '<entityName>' debido a columnas de tipo de datos no admitidas. Resuelva el problema y realice una actualización completa de la tabla en la canalización de ingesta administrada. Mensaje de error: "<errorMessage>".
INGESTION_GATEWAY_UNEXPECTED_COLUMN_UOID
Se ha omitido la tabla '<entityName>' debido a un UOID inesperado asignado a las columnas. Realice una actualización completa en la tabla para resolver el problema. Error: <errorMessage>.
INGESTION_GATEWAY_UNEXPECTED_TABLE_UOID (puerta de enlace de ingestión tabla inesperada UOID)
Se ha omitido la tabla '<entityName>' debido a un UOID inesperado asignado a la tabla. Realice una actualización completa en la tabla para resolver el problema. Error: <errorMessage>.
INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE
Error de conexión debido a un nombre <host> de host incorrecto o a un puerto <port> de la base de datos de origen.
Para más información, consulte INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE.
INGESTION_GATEWAY_UNSUPPORTED_CHARS_IN_OBJECT_NAME
Caracteres no admitidos encontrados en objetos para la tabla <entityName>, motivo: <errorMessage>. Se omitirá la tabla. Póngase en contacto con el soporte técnico para habilitar la ingesta de caracteres especiales.
INGESTION_GATEWAY_UNSUPPORTED_OBJECT_TYPE
El objeto '<entityName>' no es compatible y se ha omitido. Para resolverlo, quite este objeto de la canalización de ingesta. Mensaje de error: "<errorMessage>".
INGESTION_GATEWAY_UNTRACEABLE_TABLE_MODIFICATION
Se detectó una modificación inrastable de la tabla <entityName>, motivo: <errorMessage>.
Esto puede deberse a un truncamiento de tabla, la sustitución de registros cdc u otra operación irrecuperable.
La tabla se omitirá del procesamiento. Para volver a habilitar el procesamiento, actualice la tabla completa.
INGESTION_GATEWAY_XA_TRANSACTION_NOT_SUPPORTED
No se pudo replicar <entityType> '<entityName>' porque forma parte de una transacción de XA.
Mensaje de error: <errorMessage>
INVALID_APPLY_CHANGES_COMMAND
AUTO CDC el comando no es válido.
<reason>.
INVALID_ARGUMENT_TYPE
SQLSTATE: ninguno asignado
Valor de tipo no válido pasado al parámetro '<paramName>'. Se esperaba <expectedType>
<additionalMsg>.
INVALID_COMPATIBILITY_OPTIONS
Las opciones de tabla especificadas para la tabla <table> no son válidas porque
Para más información, consulte INVALID_COMPATIBILITY_OPTIONS
INVALID_CONFIG_FOR_UC_PIPELINE
Las canalizaciones de UC no admiten la configuración de "<configKey>" en "<configValue>". Quite esta configuración de la configuración de la canalización.
INVALID_DECORATOR_USAGE
SQLSTATE: ninguno asignado
El primer argumento posicional pasado a @<decoratorName> debe ser invocable. Agregue @<decoratorName> sin parámetros a la función o pase opciones a @<decoratorName> mediante argumentos de palabra clave (por ejemplo, <exampleUsage>).
INVALID_DESTINATION_PIPELINE_ID
Identificador de canalización de destino no válido: '<pipelineId>'. Los identificadores de canalización deben ser UUID válidos.
Compruebe que usa el identificador de canalización correcto, no el nombre de la canalización.
INVALID_EVENT_LOG_CONFIGURATION
Configuración de registro de eventos no válida encontrada en la especificación de canalización: <message>
INVALID_NAME_IN_USE_COMMAND
Nombre '<name>' no válido en el comando <command>. Motivo: <reason>
INVALID_PARAM_FOR_DBSQL_PIPELINE
Solo puede especificar "pipeline_id" y "pipeline_type" al llamar a "dry_run" para una canalización DBSQL.
INVALID_REFRESH_SELECTION
Para obtener más información, consulte INVALID_REFRESH_SELECTION
INVALID_REFRESH_SELECTION_REQUEST_FOR_CONTINUOUS_PIPELINE
No se admite la selección de actualización para el modo continuo.
INVALID_REFRESH_SELECTION_REQUEST_WITH_FULL_REFRESH
full_refresh no debe establecerse en true para una solicitud de selección de actualización.
INVALID_REWIND_SPECIFICATION
La especificación de rebobinado no es válida
Para obtener más información, consulte INVALID_REWIND_SPECIFICATION
INVALID_ROOT_PATH
Ruta raíz '<rootPath>' no válida: actualmente solo se admiten rutas absolutas de directorio. Las rutas de acceso de directorio deben comenzar por '/' y no terminar con '/'.
INVALID_SCHEMA_NAME
Esquema '<schemaName>' no válido especificado en la configuración de canalización. Motivo: <reason>.
INVALID_SNAPSHOT_AND_VERSION_TYPE
SQLSTATE: ninguno asignado
snapshot_and_version para el flujo con el objetivo "<target>" devolvió un tipo no admitido.
<additionalMsg>.
INVALID_TRIGGER_INTERVAL_FORMAT
La configuración indicada para el intervalo de desencadenador en <configurationType> es inválida
JIRA_ACCESO_PROHIBIDO
El usuario que se conecta no tiene acceso. Vuelva a comprobar los permisos del usuario e inténtelo de nuevo.
JIRA_ADMIN_PERMISSION_MISSING
Error al llamar a las API de Jira. Asegúrese de dar
el usuario que conecta los permisos de administrador de Jira para la instancia de Jira.
JIRA_AUTHORIZATION_FAILED
Error de autorización al llamar a las API de Jira. Volver a autenticar de forma amable
la conexión UC creada e inténtelo de nuevo.
JIRA_CONNECTOR_ENTITY_MAPPING_PARSING_FAILED
Ocurrió un error en el conector de Jira.
Se produjo un problema al intentar analizar la asignación de entidades para el tipo de entidad: <entityType>. Compruebe si la entidad forma parte de los tipos admitidos.
Si el error persiste, presente un ticket.
JIRA_MISSING_REQUIRED_FIELD
Falta el campo obligatorio '<fieldName>' en la respuesta de la API de Jira.
JSON Nodo: <jsonNode>
JIRA_SITE_MISSING
No se pudo encontrar cloudId correspondiente al dominio <domain>Jira proporcionado.
Asegúrese de que el usuario que se conecta puede acceder a este sitio.
JOB_DETAILS_DO_NOT_MATCH
Si se proporcionan "update_cause_details.job_details" y "job_task", sus valores deben coincidir, pero son <details> y <jobTask>
JOB_TASK_DETAILS_MISSING
Si "cause" es JOB_TASK, entonces se debe proporcionar "job_task" o "update_cause_details.job_details".
"CREACIÓN_DE_CANALIZACIÓN_LEGADA_DESHABILITADA"
La creación de canalizaciones en el modo de publicación heredado está deshabilitada en áreas de trabajo de forma predeterminada. Póngase en contacto con el soporte técnico de Databricks si se requiere una excepción.
LIBRARY_FILE_FETCH_PERMISSION_DENIED
No se puede acceder al archivo de biblioteca en "<path>". Asegúrese de que el usuario tiene los permisos necesarios para leer este archivo.
Motivo: <reason>
LIBRARY_FILE_NOT_FOUND
No se encontró el archivo '<path>' o el usuario run_as no tiene permisos para acceder a él.
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_CLASSIC
No se admite la referencia a conjuntos de datos mediante un esquema virtual LIVE fuera de la definición de consulta del conjunto de datos (es decir, una anotación @dlt.table).
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_DPM
No se admite la referencia a conjuntos de datos mediante LIVE esquemas <identifier> virtuales fuera de la definición de consulta del conjunto de datos (es decir, @dlt.table anotación).
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_SPARK_SQL
Referencia a conjuntos de datos mediante un esquema virtual LIVE en spark.sql(...) No se debe llamar a la API fuera de la definición de consulta del conjunto de datos (es decir, una anotación @dlt.table). Solo se puede llamar a la API desde dentro de la definición de consulta del conjunto de datos.
MANAGED_INGESTION_PIPELINE_SPEC_VALIDATION_ERROR
Para obtener más información, consulte MANAGED_INGESTION_PIPELINE_SPEC_VALIDATION_ERROR
MATERIALIZED_VIEW_RETURNED_STREAMING_DATAFRAME
SQLSTATE: ninguno asignado
La función de consulta para la vista materializada '<datasetName>' devolvió un dataframe de streaming.
Debe devolver un DataFrame que no sea de streaming.
MAX_RETRY_REACHED_BEFORE_ENZYME_RECOMPUTE
Se alcanzó el número máximo de reintentos. Recuento de reintentos:<flowRetryCount>. maxFlowFailureRetryCountThreshold:<maxFlowRetryAttempts>. <message>
MESA_PIPELINE_INVALID_DEFINITION_TYPE
No está permitido iniciar una canalización <definitionType> a partir de la definición de UC.
MESA_PIPELINE_MISMATCH_PIPELINE_TYPES
La definición almacenada y actualizada debe ser del mismo tipo de canalización, pero se obtuvieron <stored> y <updated>.
MESA_PIPELINE_MISSING_DEFINITION
La canalización no tiene una definición válida en UC, pero se solicita una actualización.
MESA_PIPELINE_MISSING_DEFINITION_UNEXPECTED
Falta inesperadamente la definición de canalización de UC.
METASTORE_OPERATION_TIMED_OUT
Las operaciones implicadas en la actualización de la información de metastore para <tableName> han tardado más de <timeout>.
Este problema puede ser transitorio o podría indicar errores en el cliente de metastore configurado. Intente reiniciar la canalización e notifique este problema si persiste.
META_ADS_PARAMETERS_CHANGED
Error en el conector de Meta marketing. Se han modificado los parámetros de entrada de la tabla ad_insights.
Realice una actualización completa en las tablas afectadas.
META_ADS_SOURCE_API_ERROR
Se produjo un error en la llamada a la API de meta marketing. Id. de seguimiento de Facebook para realizar el seguimiento con compatibilidad con Meta: <trace_id>.
Si el error persiste, presente un ticket.
META_MARKETING_INSIGHTS_LEVEL_INVALID
Se produjo un error en el conector de Meta marketing al intentar capturar información de la tabla ad_insights.
El parámetro <level> de nivel proporcionado no es válido. Por favor, pase uno de (ad, adset, campaña, cuenta).
META_MARKETING_INSIGHTS_PARAM_BREAKDOWNS_INVALID
Se produjo un error en el conector de Meta marketing al intentar capturar información de la tabla ad_insights.
Los desgloses proporcionados no son válidos <breakdowns> . Consulte la documentación de meta API para obtener una lista válida de desgloses.
Si el error persiste, presente un ticket.
META_MARKETING_INSIGHTS_PARAM_TIME_INCREMENT_INVALID
Se produjo un error en el conector de Meta marketing al intentar capturar información de la tabla ad_insights.
No se pudo analizar el parámetro <timeInc> de incremento de tiempo proporcionado. Escriba un número entero válido.
META_MARKETING_INSIGHTS_START_DATE_INVALID
Se produjo un error en el conector de Meta marketing al intentar capturar información de la tabla ad_insights.
No se pudo analizar el parámetro <startDate> de fecha de inicio proporcionado. Compruebe y modifíquelo en formato deMM-DD YYY- correcto.
META_MARKETING_INSIGHTS_START_DATE_TOO_OLD
Se produjo un error en el conector de Meta marketing al intentar capturar información de la tabla ad_insights.
La fecha de inicio proporcionada no puede ser superior a 37 meses desde la fecha actual de sincronización. Compruebe y modifíquelo en los parámetros proporcionados.
Si el error persiste, presente un ticket.
META_MARKETING_RATE_LIMIT_EXCEEDED
Se ha agotado el límite de velocidad de Meta API para esta cuenta de anuncios. Vuelva a intentar la actualización de la canalización después de algún tiempo. Se recomienda ingerir menos número de tablas en paralelo para evitar volver a alcanzar los límites.
Si suele alcanzar los errores de límite de frecuencia, considere la posibilidad de actualizar al acceso avanzado si aún no lo ha hecho, según la documentación de Meta: https://developers.facebook.com/docs/marketing-api/get-started/authorization
META_MARKETING_REQUESTED_DATA_LIMIT_EXCEEDED
Error en meta API, ya que la cantidad de datos solicitados supera el límite que pueden procesar los servidores Meta.
Intente reducir el número de campos que se van a ingerir en esta tabla mediante la lógica de selección de columnas. Si el error persiste, presente un ticket.
MIGRATION_TO_UNITY_CATALOG
Para obtener más información, consulte MIGRATION_TO_UNITY_CATALOG
FALTA_PERMISO_DE_CATÁLOGO_O_ESQUEMA
El usuario '<userName>' no tiene permisos en '<schemaName>'. Detalles: <reason>
MISSING_CREATE_SCHEMA_PRIVILEGE
El usuario '<userName>' no tiene permiso para crear esquema en el catálogo <catalogName>
MISSING_CREATE_TABLE_PRIVILEGE
El usuario '<userName>' no tiene permiso para crear una tabla en el esquema <schemaName>
MISSING_RUN_AS_USER
No se especificó un usuario para ejecutar la actualización.
MULTI_QUERY_SNAPSHOT_TARGET_NOT_SUPPORTED
'<tableName>' ya contiene una AUTO CDC FROM SNAPSHOT consulta '<flowName>'. Actualmente, esta API solo admite un flujo por destino.
MUTUALLY_EXCLUSIVE_OPTIONS
Opciones mutuamente excluyentes <options>. Quite una de estas opciones.
NEGATIVE_VALUE
SQLSTATE: ninguno asignado
El valor de <arg_name> debe ser mayor o igual que 0, se recibió "<arg_value>".
NON_UC_TABLE_ALREADY_MANAGED_BY_OTHER_PIPELINE
La tabla "<tableName>" ya está administrada por la canalización <otherPipelineId>.
Si desea que esta canalización administre la tabla "<tableName>"
Quite la tabla de la canalización "
<otherPipelineId>".Inicie una actualización completa de esta canalización.
Si desea seguir administrando la tabla desde varias canalizaciones, deshabilite esta comprobación estableciendo la configuración de pipelines.tableManagedByMultiplePipelinesCheck.enabled a false en la configuración de la canalización.
Esto no se recomienda, ya que las operaciones simultáneas sobre la tabla pueden entrar en conflicto entre sí y provocar resultados inesperados.
NOTEBOOK_NAME_LIMIT_REACHED
Ruta de acceso del cuaderno no válida: '<nameStart>...<nameEnd>'. Supera los <maxNotebookPathLength> caracteres.
NOTEBOOK_NOT_FOUND
No se puede acceder al cuaderno "<notebookPath>". No existe o la identidad usada para ejecutar esta canalización, <identity>, carece de los permisos necesarios.
NOTEBOOK_PIP_INSTALL_ERROR
No se pudo ejecutar '<pipInstallCommand>' desde el cuaderno: <notebookPath>. Revise los registros stdout del controlador en el clúster para obtener más detalles.
NOTEBOOK_TOO_LARGE
El contenido del bloc de notas resuelto en "<notebookPath>" es demasiado grande, reduzca el tamaño del cuaderno.
NOTIFICATIONS_DUPLICATE_ALERTS
Alertas duplicadas '<alertsDuplicates>' especificadas en [<alerts>]
NOTIFICATIONS_DUPLICATE_EMAIL_ADDRESSES
Direcciones de correo electrónico duplicadas '<emailRecipientsDuplicates>' especificadas en [<emailRecipients>]
NOTIFICATIONS_INVALID_ALERTS
Se han especificado alertas no válidas para recibir notificaciones sobre: <invalidAlerts>
NOTIFICATIONS_INVALID_EMAIL_ADDRESS
Dirección de correo electrónico no válida especificada para recibir notificaciones: <invalidEmailAddresses>
NOTIFICATIONS_MISSING_PARAMS
Especifique al menos un destinatario y una alerta en <setting>
NO_SOURCE_OR_SNAPSHOT_AND_VERSION_ARGUMENT_PROVIDED
SQLSTATE: ninguno asignado
Se source debe establecer o snapshot_version para apply_changes_from_snapshot con el destino "<target>".
NO_TABLES_IN_PIPELINE
Se espera que las canalizaciones tengan al menos una tabla definida, pero no se encontraron tablas en la canalización.
Compruebe que ha incluido y compartido en caso de que se configure Run As, los archivos de origen o directorios esperados, y que el código fuente incluya definiciones de tabla (por ejemplo, CREATE MATERIALIZED VIEW en código SQL, @dlt.table en código python).
Tenga en cuenta que solo las tablas se cuentan para esta comprobación. También puede producirse este error si solo incluye vistas o flujos en la canalización.
OUTPUT_MODE_NOT_SUPPORTED_FOR_TABLE_FLOW
El modo de salida '<outputMode>' no se admite para el flujo de tabla '<flowName>' que tiene como destino la tabla '<target>'. Solo se admite el modo "append" para los flujos de tabla.
OWNER_IS_MISSING
El propietario no existe.
PAGINATION_REQUEST_HAS_NAME_AND_PAGINATION
Puede proporcionar un <name> o paginación, pero no ambos.
PATCH_PIPELINE_DEFINITION_UNSUPPORTED_FIELD
PatchPipelineDefinition solo admite el schedule campo, pero la definición proporcionada tenía otros campos rellenados: '<updatedDefinition>'.
PERSISTED_VIEW_READS_FROM_STREAMING_SOURCE
Las vistas persistentes no admiten la lectura desde orígenes de streaming.
PERSISTED_VIEW_READS_FROM_TEMPORARY_VIEW
La vista <persistedViewName> persistente no puede hacer referencia a la vista <temporaryViewName> temporal que no estará disponible fuera del ámbito de la canalización. Haga que la vista persistente sea temporal o que la vista temporal sea persistente.
PIPELINE_CLONING_ALREADY_IN_PROGRESS
La canalización ya se está clonando en la canalización con el identificador "<pipelineId>".
PIPELINE_CLONING_BOTH_TARGET_AND_SCHEMA_SPECIFIED
No se puede especificar "target" y "schema" al clonar una canalización. Especifique solo uno.
PIPELINE_CLONING_CANNOT_CHANGE_SCHEMA_TO_TARGET
No se puede clonar una canalización con "schema" en una canalización con "destino". La canalización clonada también debe usar "schema" o omitir ambos para heredar el valor original.
PIPELINE_CLONING_INVALID_DURING_ACTIVE_UPDATE
La canalización con el identificador '<pipelineId>' no se puede clonar durante una actualización activa.
PIPELINE_CLONING_INVALID_FIELDS
La solicitud incluyó una especificación de la canalización con campos no válidos para la clonación. Entre los campos permitidos se incluyen: nombre, catálogo, destino, configuración.
PIPELINE_CLONING_INVALID_FOR_MISSING_TARGET
La canalización con el identificador "<pipelineId>" no se publica en un esquema de destino. La canalización de origen debe publicarse en un esquema de destino que se vaya a clonar. Vuelva a intentarlo después de especificar el campo "destino" en la especificación de canalización y ejecute una nueva actualización para publicar en un esquema de destino.
PIPELINE_CLONING_INVALID_FOR_UC_PIPELINE
La canalización con el identificador '<pipelineId>' ya es una canalización UC. Las canalizaciones de UC no se pueden clonar.
PIPELINE_CLONING_NO_CATALOG_SPECIFIED
No se ha especificado ningún catálogo para la clonación.
PIPELINE_CLONING_NO_MODE_SPECIFIED
No se ha especificado ningún modo de clonación.
PIPELINE_CLONING_NO_TARGET_SPECIFIED
No se ha especificado ningún catálogo de destino para la clonación.
PIPELINE_CREATION_NOT_ENABLED_FOR_WORKSPACE
La creación de canalizaciones no está habilitada para esta área de trabajo.
PIPELINE_DOES_NOT_EXIST
La canalización con el identificador '<pipelineId>' no existe.
Para obtener más información, consulte PIPELINE_DOES_NOT_EXIST
PIPELINE_ENVIRONMENT_NOT_ENABLED
El uso del entorno en canalizaciones declarativas de Spark de Lakeflow no está habilitado.
PIPELINE_ENVIRONMENT_VERSION_NOT_ALLOWED
Actualmente, el entorno de la canalización no admite versiones de entorno.
PIPELINE_FAILED_TO_UPDATE_UC_TABLE_DUE_TO_CONCURRENT_UPDATE
La canalización no pudo actualizar la tabla UC (<tableName>) debido a alteraciones simultáneas después de <attempts> intentos.
Compruebe que no hay procesos externos que modifiquen la tabla, vuelva a intentar la actualización y póngase en contacto con el soporte técnico de Databricks si este problema persiste.
PIPELINE_FAILED_TO_UPDATE_UC_TABLE_DUE_TO_EXTERNAL_DELETE
Una operación externa eliminó la tabla <tableName> mientras la canalización la actualizaba.
Asegúrese de que ningún proceso externo modifique la tabla y vuelva a intentar la actualización.
Si el problema persiste, póngase en contacto con el soporte técnico de Databricks.
PIPELINE_FOR_TABLE_NEEDS_REFRESH
La tabla <tableName> no está en el estado necesario, la tabla no se ha actualizado recientemente. La canalización con el identificador '<pipelineId>' debe ejecutarse una vez más y, a continuación, volver a intentar la operación.
PIPELINE_FOR_TABLE_NOT_FOUND
No se puede encontrar la canalización con ID '<pipelineId>', que gestiona la tabla <tableName>. Asegúrese de que se encuentra en la misma área de trabajo que la canalización, que es el propietario de la canalización y que la canalización se ejecutó al menos una vez.
PIPELINE_GLOB_INCLUDES_CONFLICTS
Se debe establecer el campo glob o notebook/file en bibliotecas de la configuración de canalización. Cambie la configuración de la canalización.
PIPELINE_GLOB_INCLUDES_NOT_SUPPORTED
El uso del campo glob para incluir archivos de origen es una característica en versión preliminar y está deshabilitada.
Vuelva a seleccionar cada archivo de origen que se va a incluir para que la canalización corrija este error.
Póngase en contacto con el soporte técnico de Databricks para obtener más información sobre esta característica e inscribirse en la versión preliminar.
PIPELINE_GLOB_UNSUPPORTED_SPECIAL_CHARACTER
Los caracteres especiales <specialChar> están reservados y no se deben usar en la ruta de acceso incluida "<path>" en la configuración de la canalización. Quite estos caracteres para corregir el error.
PIPELINE_NAME_LIMIT_REACHED
El nombre no puede tener más de <maxPipelineNameLength> caracteres.
PIPELINE_NON_RETRYABLE_ANALYSIS_CLIENT_ERROR
La canalización no pudo analizar las tablas de origen (<tables>) debido a errores que no se pueden reintentar después de la ejecución parcial.
No se creará una nueva actualización de canalización.
<flowErrors>
Compruebe el registro de eventos y corrija los problemas en consecuencia.
PIPELINE_NOT_ELIGIBLE_FOR_RESTORATION
La canalización '<pipelineId>' está más allá de su ventana de restauración.
PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE
La canalización con el identificador '<pipelineId>', que gestiona la tabla <tableName>, no está usando el modo de publicación directa.
PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE
La tabla aún no está lista para la actualización
Para más información, consulte PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE.
PIPELINE_PERMISSION_DENIED_NOT_OWNER
No puede realizar esta operación. No es el propietario de la canalización con el identificador "<pipelineId>" que administra la tabla <tableName>.
PIPELINE_RETRYABLE_ANALYSIS
La canalización no pudo analizar las tablas de origen (<tables>) debido a errores reintentos después de la ejecución parcial.
Se creará una nueva actualización de canalización para reintentar el procesamiento. Si el error persiste, compruebe el registro de eventos y solucione los problemas en consecuencia.
PIPELINE_SETTINGS_FIELD_CANNOT_BE_EDITED
Los usuarios no pueden modificar '<uneditableFieldName>'. Si los usuarios quieren agregar o modificar <settingName>, use el campo "<editableFieldName>" en su lugar.
PIPELINE_SETTINGS_MODIFIED_CONCURRENTLY
La configuración de canalización se modificó simultáneamente.
PIPELINE_SETTINGS_UNSUPPORTED_CONFIGURATIONS
Las canalizaciones declarativas de Spark de Lakeflow no admiten las configuraciones <configurations> . Quite estas configuraciones.
PIPELINE_SETTING_SHOULD_NOT_SPECIFY_DEVELOPMENT
No se admite iniciar una actualización con la configuración "desarrollo".
PIPELINE_SHOULD_NOT_HAVE_MULTIPLE_TABLES
La canalización debe tener exactamente una tabla, pero se encontraron <tablesSize> tablas: <tables>
PIPELINE_SOURCE_FILE_NUMBER_EXCEEDED
El número de archivos de origen, incluidos los archivos declarados en carpetas, supera el límite de <limit>.
Quite o combine archivos excesivos y cambie la especificación de canalización correspondiente si es necesario,
o póngase en contacto con el soporte técnico de Databricks para solicitar un aumento del límite.
PIPELINE_SOURCE_FOLDER_DEPTH_EXCEEDED
La carpeta '<folder_path>' supera el nivel máximo permitido de anidamiento de directorios de <limit>. Reduzca el nivel de anidamiento de carpetas o póngase en contacto con el soporte técnico de Databricks para solicitar un aumento del límite.
PIPELINE_SPEC_PARAM_CANNOT_BE_CHANGED
No se permite modificar el siguiente parámetro <param> en la configuración de canalización
PIPELINE_TYPE_NOT_SUPPORTED
No se admite el tipo de canalización '<pipelineType>'.
PIPELINE_TYPE_NOT_WORKSPACE_PIPELINE_TYPE
La canalización con el identificador '<pipelineId>', que gestiona la tabla <tableName>, no es una canalización ETL.
PIPELINE_TYPE_QUOTA_EXCEEDED
No se puede iniciar la actualización '<updateId>' porque se ha alcanzado el límite de canalizaciones activas de tipo '<pipelineType>'.
PIPELINE_UPDATE_FOR_TABLE_IS_RUNNING
La canalización con el identificador "<pipelineId>", que administra la tabla <tableName>, se está ejecutando. Detenga la canalización antes de ejecutar la operación.
PIPELINE_WORKSPACE_LIMIT_REACHED
La creación de canalizaciones de tipo "<pipelineType>" está bloqueada porque el área de trabajo "<orgId>" ya contiene "<countLimit>" canalizaciones. Elimine las canalizaciones sin usar.
PIP_INSTALL_NOT_AT_TOP_OF_NOTEBOOK
Se encontraron celdas que contienen %pip install que no están en la parte superior del cuaderno para "<notebookPath>".
Mueva todas las celdas %pip install al principio del cuaderno.
PY4J_BLOCKED_API
SQLSTATE: ninguno asignado
Está usando una API de Python que no se admite en el entorno actual.
Consulte la documentación de Databricks para conocer alternativas.
<additionalInfo>
QUERY_BASED_CONNECTOR_SOURCE_API_ERROR
Ocurrió un error en la llamada a la API <sourceName>. Tipo de API de origen: <qbcSourceApiType>.
Pruebe a actualizar la tabla de destino. Si el problema persiste, cree una incidencia.
QUERY_BASED_INGESTION_CONNECTOR_ERROR
Se produjo un error en el conector de ingesta basado en consultas para <sourceName>.
Para obtener más información, consulte QUERY_BASED_INGESTION_CONNECTOR_ERROR
REFERENCE_DLT_DATASET_OUTSIDE_QUERY_DEFINITION
No se admite la referencia al conjunto de datos <identifier> de canalizaciones declarativas de Spark de Lakeflow fuera de la definición de consulta del conjunto de datos (es decir, @dlt.table anotación). Léelo en su lugar dentro de la definición de consulta del conjunto de datos.
REFRESH_INITIATED_FROM_INVALID_WORKSPACE
La actualización debe iniciarse en el área de trabajo <homeWorkspaceId>, donde se creó el recurso.
Se intentó la actualización en el área de trabajo <userWorkspaceId>.
REFRESH_MODE_ALREADY_EXISTS
No se puede agregar <type> a una tabla que ya tenga <existingType>. Quite la programación existente o use ALTER TABLE...ALTER <type> ... para modificarlo.
REQUIRED_PARAM_NOT_FOUND
No se encuentra el parámetro <param> requerido.
RESERVED_KEYWORD_IN_USE_CATALOG
USE CATALOG '<reservedKeyword>' no es válido porque '<reservedKeyword>' es una palabra clave reservada en canalizaciones declarativas de Spark de Lakeflow.
RESERVED_KEYWORD_IN_USE_SCHEMA
USE SCHEMA '<reservedKeyword>' no es válido porque '<reservedKeyword>' es una palabra clave reservada en canalizaciones declarativas de Spark de Lakeflow.
RESOURCES_ARE_BEING_PROVISIONED
Los recursos de canalización se están aprovisionando para la canalización "<pipelineId>".
RESOURCE_READ_ONLY_IN_WORKSPACE
<resourceType> '<resourceName>' se ha designado como de solo lectura en el área de trabajo actual.
RESTORE_NON_DELETED_PIPELINE
La canalización '<pipelineId>' no ha sido eliminada. La restauración solo es aplicable a las canalizaciones eliminadas.
RESTAURAR_CANALIZACIÓN_DESACTIVADO
RestorePipeline no está habilitado para el tipo de canalización <pipelineType>
Póngase en contacto con el soporte técnico de Databricks para obtener ayuda para restaurar la canalización "<pipelineId>".
ROOT_PATH_NOT_FOUND
No se puede acceder a la ruta de acceso raíz '<rootPath>'. Asegúrese de que tiene los privilegios de acceso necesarios.
RUN_AS_USER_NOT_FOUND
La ejecución especificada como usuario "<runAsUserId>" para la actualización no existe en el área de trabajo.
SAAS_CONNECTION_ERROR
No se pudo establecer una conexión con la fuente <sourceName>. Código de error: <saasConnectionErrorCode>.
Para obtener más información, consulte SAAS_CONNECTION_ERROR
SAAS_CONNECTOR_DUPLICATE_DATA
Se encontraron datos duplicados en la tabla <tableName>. Tipo de origen: <sourceName>.
Para obtener más información, consulte SAAS_CONNECTOR_DUPLICATE_DATA
SAAS_CONNECTOR_INVALID_INCLUDE_COLUMNS
Include_columns no válido especificado para la tabla <qualifiedTableName>. Motivo: <reason>
SAAS_CONNECTOR_INVALID_PRIMARY_KEY_CONFIGURATION
Configuración de clave principal no válida para la tabla <qualifiedTableName>. Motivo: <reason>
SAAS_CONNECTOR_MUTUAL_AUTHENTICATION_FAILED
Esta sesión no se pudo autenticar mutuamente para su uso con <sourceName>. Tipo de API de origen: <saasSourceApiType>. Código de error: <saasSourceApiErrorCode>.
Compruebe que el certificado de cliente y la clave privada son un par válido y de confianza para <sourceName>.
SAAS_CONNECTOR_REFRESH_TOKEN_EXPIRED
El token de actualización de la conexión <connectionName> ha expirado. Edite la conexión, vuelva a autenticarse y vuelva a ejecutar la canalización.
SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR
Se ha producido un cambio de esquema en la tabla <tableName> del origen de <sourceName>.
Para obtener más información, consulte SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR.
SAAS_CONNECTOR_SOURCE_API_ERROR
Ocurrió un error en la llamada a la API <sourceName>. Tipo de API de origen: <saasSourceApiType>. Código de error: <saasSourceApiErrorCode>.
Pruebe a actualizar la tabla de destino. Si el problema persiste, cree una incidencia.
SAAS_CONNECTOR_UC_CONNECTION_OAUTH_EXCHANGE_FAILED
Error en el intercambio de tokens de OAuth para la conexión UC: <connectionName>.
Esto puede deberse a problemas con las credenciales de UC. Compruebe el seguimiento de errores, edite la conexión uc, vuelva a autenticarse y vuelva a ejecutar la canalización. Si el error persiste, presente un ticket.
SAAS_CONNECTOR_UNSUPPORTED_ERROR
Error no admitido en el origen de datos <sourceName>.
Para obtener más información, consulte SAAS_CONNECTOR_UNSUPPORTED_ERROR.
SAAS_INCOMPATIBLE_SCHEMA_CHANGES_DURING_INIT
Hemos detectado cambios de esquema incompatibles al inicializar la canalización:
<details>
Realice una actualización completa en las tablas afectadas.
SAAS_PARTIAL_ANALYSIS_INPUT_CREATION_ERROR
Error al crear la entrada para el análisis parcial. No se creará una nueva actualización de canalización.
Compruebe el registro de eventos y corrija los problemas en consecuencia.
SAAS_SCHEMA_DIVERGED_DURING_ANALYSIS
El esquema analizado de la tabla de origen (<table>)se ha separado de su esquema esperado.
Vuelva a intentar la actualización de la canalización y compruebe si se ha resuelto el problema.
Si este problema persiste, realice una actualización completa en las tablas mencionadas anteriormente.
Esquema esperado:
<expectedSchema>
Esquema real:
<actualSchema>
SAAS_UC_CONNECTION_INACCESSIBLE
No se puede acceder a la conexión <connectionName> proporcionada. Compruebe la conexión e inténtelo de nuevo.
Para obtener más información, consulte SAAS_UC_CONNECTION_INACCESSIBLE.
SCHEMA_SPEC_EMPTY_CATALOG
SchemaSpec tiene una cadena vacía en el campo de catálogo.
Quite la cadena vacía o agregue el nombre del catálogo. (Si este esquema no pertenece a un catálogo en el origen, no establezca el campo).
Detalles de la especificación de esquema:
<schemaSpec>
SCHEMA_SPEC_EMPTY_SCHEMA
SchemaSpec tiene una cadena vacía en el campo de esquema.
Quite la cadena vacía o agregue el nombre del esquema. (Si esta tabla no pertenece a un esquema del origen, no establezca el campo).
Detalles de la especificación de esquema:
<schemaSpec>
SCHEMA_SPEC_REQUIRE_ONE_OF_CATALOG_SCHEMA
Debe estar presente al menos uno de los siguientes: el catálogo de origen o el esquema de origen. Pero ambos están vacíos.
Detalles de la especificación de esquema:
<schemaSpec>
SECUENCIA_NO_ENCONTRADA_POR_COLUMNA
La definición de canalización incluye las columnas sequence_by (<columnNames>) que no existen en la tabla <qualifiedTableName> de origen <sourceType>. Quite estas columnas del campo sequence_by.
POLÍTICA_DE_PRESUPUESTO_SIN_SERVIDOR_Y_POLÍTICA_DE_USO_AMBAS_ESTABLECIDAS
No se pueden establecer ambos budget_policy_id y usage_policy_id. Por favor, quite budget_policy_id.
SERVERLESS_BUDGET_POLICY_BAD_REQUEST
La directiva de presupuesto proporcionada con el identificador "<budgetPolicyId>" no se puede usar en esta área de trabajo debido a restricciones de enlace del área de trabajo de la directiva.
SERVERLESS_BUDGET_POLICY_IS_INVALID
La directiva de presupuesto sin servidor con el identificador '<budgetPolicyId>' no es válida.
SERVERLESS_BUDGET_POLICY_MISSING
La directiva de presupuesto sin servidor con el identificador '<budgetPolicyId>' no existe.
SERVERLESS_BUDGET_POLICY_NOT_ENABLED
La política de presupuesto sin servidor no está habilitada, por favor comuníquese con el servicio de soporte de Databricks.
SERVERLESS_BUDGET_POLICY_NOT_ENABLED_FOR_ACCOUNT
La política de presupuesto sin servidor no ha sido habilitada para esta cuenta. El usuario no puede especificar una directiva de presupuesto para esta canalización. El administrador de la cuenta debe intentar inscribirse a través del portal de vista previa de características. Si el problema persiste, póngase en contacto con el soporte técnico de Databricks.
SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_NON_SERVERLESS_PIPELINE
La directiva de presupuesto sin servidor no se puede asignar a una canalización sin servidor.
SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_PIPELINE_TYPE
No se admite la política de presupuesto sin servidor para el tipo <pipelineType> de canalización.
SERVERLESS_BUDGET_POLICY_PERMISSION_DENIED
El usuario no tiene permiso para usar la directiva de presupuesto sin servidor con el identificador "<budgetPolicyId>".
SERVERLESS_NOT_AVAILABLE
La capacidad de cálculo sin servidor no está disponible. Póngase en contacto con Databricks para obtener más información.
SERVERLESS_NOT_ENABLED
No se puede usar el proceso sin servidor con canalizaciones declarativas de Spark de Lakeflow. Póngase en contacto con Databricks para habilitar esta característica para el área de trabajo.
SERVERLESS_NOT_ENABLED_FOR_USER
El proceso sin servidor no está habilitado para el autor de la llamada. Póngase en contacto con el administrador del área de trabajo para habilitar esta característica.
SERVERLESS_NOT_ENABLED_FOR_WORKSPACE
La computación sin servidor no está disponible para este espacio de trabajo y/o región. Póngase en contacto con Databricks para obtener más información.
SERVERLESS_REQUIRED
Debe usar cómputo sin servidor en este espacio de trabajo.
SERVICENOW_CONNECTION_ERROR
Error en ServiceNow. Tipo de API de origen: <saasSourceApiType>.
Para obtener más información, consulte SERVICENOW_CONNECTION_ERROR
SERVICENOW_CONNECTOR_EMPTY_CURSOR_KEY_ERROR
Error en ServiceNow. Tipo de API de origen: <saasSourceApiType>.
En este momento, la canalización de ingesta no puede ingerir la tabla '<tableName>' porque la clave de cursor de una fila contiene un campo vacío.
Para seguir ejecutando la canalización, quite esta tabla. Si el error persiste, presente un ticket.
SERVICENOW_CONNECTOR_INSTANCE_HIBERNATION_ERROR
Error en ServiceNow. Tipo de API de origen: <saasSourceApiType>.
No se pudo conectar a la instancia de ServiceNow. La instancia parece estar hibernando o inactiva.
Inicie sesión en el portal de administración de ServiceNow y espere algún tiempo hasta que la instancia se active completamente.
Si el error persiste, presente un ticket.
SERVICENOW_CONNECTOR_INSTANCE_OFFLINE_ERROR
Error en ServiceNow. Tipo de API de origen: <saasSourceApiType>.
No se pudo conectar a la instancia de ServiceNow. La instancia está sin conexión.
Inicie sesión en el portal de administración de ServiceNow y espere algún tiempo hasta que se restaure la instancia.
Si el error persiste, presente un ticket.
SERVICENOW_CONNECTOR_INVALID_TABLE_ERROR
Error en ServiceNow. Tipo de API de origen: <saasSourceApiType>.
No se pudo consultar el esquema de la tabla "<tableName>". La tabla no existe en la cuenta de ServiceNow para este usuario.
Compruebe el nombre de la tabla para los errores tipográficos y asegúrese de que el usuario tiene los permisos necesarios para acceder a la tabla.
Si el error persiste, presente un ticket.
SERVICENOW_CONNECTOR_IP_ADDRESS_RESTRICTED_ERROR
Error en ServiceNow. Tipo de API de origen: <saasSourceApiType>.
No se pudo conectar a la instancia de ServiceNow. La instancia tiene restricciones de control de acceso de direcciones IP.
Para resolver este problema, deshabilite las restricciones de direcciones IP; para ello, vaya a ServiceNow >> All >> System Security IP Access Control (Control de acceso de direcciones IP de seguridad >> del sistema) o use direcciones IP estables sin servidor.
Si el error persiste, presente un ticket.
SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR
Error en ServiceNow. Tipo de API de origen: <saasSourceApiType>.
Se detectó una dirección URL de punto de conexión de API de ServiceNow no válida. La estructura de direcciones URL no coincide con el formato esperado de ServiceNow.
Compruebe la configuración de la instancia de ServiceNow en las credenciales de conexión de UC.
Para más información, consulte SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR.
SERVICENOW_CONNECTOR_MAX_FAILED_ATTEMPTS_REACHED
Error en ServiceNow. Tipo de API de origen: <saasSourceApiType>.
Esto suele ocurrir cuando la captura de datos de una tabla tarda demasiado tiempo. Como primer paso, trabaje con el administrador de ServiceNow para habilitar la indexación en la columna de cursor.
La columna cursor está seleccionada en la lista siguiente, en orden de disponibilidad y preferencia: sys_updated_on (primera opción), sys_created_on (segunda opción), sys_archived (tercera opción)
Para obtener instrucciones sobre cómo habilitar la indexación en ServiceNow, consulte aquí: https://docs.databricks.com/ingestion/lakeflow-connect/servicenow-overview#why-is-my-servicenow-ingestion-performance-slow.
También se recomienda aumentar el tiempo de espera de la consulta de la API REST a más de 60 segundos para permitir más tiempo para capturar registros.
A continuación, vuelva a intentar la canalización de ingesta. Si el problema persiste, abra una incidencia.
SERVICENOW_CONNECTOR_SCHEMA_FIELD_TYPE_INACCESSIBLE
Error en ServiceNow. Tipo de API de origen: <saasSourceApiType>.
Al capturar el esquema de tabla con privilegios que no son de administrador, no se puede acceder a la internal_type de las columnas de esquema.
Para resolverlo, conceda permisos de lectura en la tabla "sys_glide_object" al usuario actual.
Si el error persiste, presente un ticket.
SERVICENOW_CONNECTOR_SCHEMA_FIELD_TYPE_MISMATCH
Error en ServiceNow al capturar el esquema de la tabla.
Se encontraron dos tipos de datos en conflicto para el campo '<fieldName>': '<firstDataType>' y ''<secondDataType>.
Para seguir ejecutando la canalización, quite esta tabla. Si el error persiste, presente un ticket.
SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
Error en ServiceNow. Tipo de API de origen: <saasSourceApiType>.
Para obtener más información, consulte SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
SET_TBLPROPERTIES_NOT_ALLOWED_FOR_PIPELINE_TABLE
ALTER <commandTableType>
...
SET TBLPROPERTIES no se admite. Para modificar las propiedades de la tabla, cambie la definición original y ejecute una actualización.
SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE
La ingesta del objeto <objName> está incompleta porque el trabajo de consulta de la API de Salesforce tardó demasiado tiempo, produjo un error o se canceló manualmente.
Para más información, consulte SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE.
SFDC_CONNECTOR_BULK_QUERY_NOT_FOUND
Error en la ingesta de objetos <objName> porque no se encontró el trabajo de consulta de API masiva de Salesforce.
Esto es probable porque el trabajo se eliminó en la interfaz de usuario de Salesforce o porque ha pasado más de 7 días desde la última actualización de canalización, después de lo cual Salesforce elimina automáticamente el trabajo.
Para desencadenar un nuevo trabajo masivo, ejecute un FULL REFRESH en la tabla de destino específica.
SFDC_CONNECTOR_CREATE_BULK_QUERY_API_LIMIT_EXCEEDED
Error en la llamada api de Salesforce: se superó el límite de API.
Espere a que se restablezcan los límites de la API. A continuación, pruebe a actualizar la tabla de destino.
Si el error persiste, presente un ticket.
SFDC_CONNECTOR_CREATE_BULK_QUERY_JOB_FAILED
La ingesta del objeto <objName> está incompleta porque se ha producido un error en el trabajo de consulta de API masiva de Salesforce. Código de error: <saasSourceApiErrorCode>.
<actionText>.
SFDC_CONNECTOR_MALFORMED_RECORDS
La ingesta del objeto de Salesforce '<objName>' falló porque Salesforce <saasSourceApiType> devolvió registros con formato incorrecto.
Consulte stacktrace para obtener más información.
Compruebe los datos en Salesforce y vuelva a ejecutar la canalización.
SINKS_NOT_SUPPORTED_IN_SEG
Los receptores de canalizaciones declarativas de Spark de Lakeflow en la canalización no se admiten en áreas de trabajo habilitadas para el control de salida sin servidor. Los receptores declarativos de Spark de Lakeflow admitidos son Kafka y Delta.
Se han encontrado los siguientes receptores no admitidos: <sinkNames>, sus formatos correspondientes son: <sinkFormats>.
SOURCE_TABLE_NOT_MATERIALIZED
No se pudo leer el conjunto de datos dependiente "<sourceTableName>" porque no está materializado. Ejecute todo el flujo de trabajo para materializar todos los conjuntos de datos dependientes.
SPARK_CONNECT_DEFINITION_PATH_NOT_FOUND
No se encontró la ruta de acceso de definición para el elemento de grafo '<graphElementName>'. Póngase en contacto con el soporte técnico de Databricks.
SPARK_CONNECT_DEFINITION_PATH_NOT_FOUND_SPARK_SQL
No hay ninguna ruta de acceso de definición de canalización disponible en el contexto de ejecución actual de Spark SQL. Póngase en contacto con el soporte técnico de Databricks.
SPARK_CONNECT_UNSUPPORTED_FLOW_DEFINITION_ERROR
No se admite la definición de flujo. Póngase en contacto con el soporte técnico de Databricks. Comando: <defineFlowCommand>
SPARK_CONNECT_UNSUPPORTED_OUTPUT_TYPE
El tipo de salida '<outputType>' no se admite en Spark Connect. Póngase en contacto con el soporte técnico de Databricks.
STANDALONE_PRIVATE_MVST_NOT_SUPPORTED
No se admite la creación de un MV/ST independiente PRIVATE . Elimine el modificador PRIVATE.
Se agotó el tiempo de espera para iniciar el REPL de Python (START_PYTHON_REPL_TIMED_OUT)
Tiempo de espera mientras espera a que se inicie python REPL. Tardó más de <timeoutSeconds> segundos.
STREAMING_TARGET_NOT_DEFINED
No se encuentra la tabla <target> de destino para el <command> comando . La tabla de destino <target> no está definida en la canalización.
SYNCED_TABLE_USER_ERROR
Error del usuario en la canalización de tabla sincronizada.
Para obtener más información, consulte SYNCED_TABLE_USER_ERROR
TABLE_CHANGED_DURING_OPERATION
La tabla <tableName> se modificó fuera de esta transacción y esta transacción se ha revertido. Vuelva a intentar la operación.
TABLE_MATERIALIZATION_CYCLIC_FOREIGN_KEY_DEPENDENCY
La actualización de la canalización <pipelineId> ha detectado una cadena cíclica de restricciones de clave externa: <tables>.
TABLE_SPEC_BOTH_CATALOG_SCHEMA_REQUIRED
A TableSpec le falta uno de los catálogos de origen y/o esquemas de origen.
Detalles de especificación de tabla:
<tableSpec>
TABLE_SPEC_EMPTY_CATALOG
TableSpec tiene una cadena vacía en el campo de catálogo.
Quite la cadena vacía o agregue el nombre del catálogo. (Si esta tabla no pertenece a un catálogo en el origen, no establezca el campo).
Detalles de especificación de tabla:
<tableSpec>
TABLE_SPEC_EMPTY_SCHEMA
TableSpec tiene una cadena vacía en el campo de esquema.
Quite la cadena vacía o agregue el nombre del esquema. (Si esta tabla no pertenece a un esquema del origen, no establezca el campo).
Detalles de especificación de tabla:
<tableSpec>
TABLE_SPEC_EMPTY_TABLE
El nombre de la tabla está vacío. Proporcione un nombre de tabla.
Detalles de especificación de tabla:
<tableSpec>
TABLE_TOKEN_NOT_EXIST_FOR_SCHEMA_EVOLUTION_LEGACY_TABLE
No se puede habilitar la evolución del esquema debido a que faltan metadatos. Desencadene una actualización completa.
Motivo: el token de tabla de instantáneas debe definirse cuando se habilita la evolución del esquema.
CANALIZACIÓN_ELIMINADA_EN_EL_ESPACIO_DE_TRABAJO
No se puede iniciar la canalización porque está en la papelera o ha sido eliminada.
TRIGGER_INTERVAL_VALUE_INVALID
El intervalo del desencadenador debe ser una duración positiva, el valor máximo aceptable es 2.147.483.647 segundos. Se recibió: <actual> segundos.
TRIGGER_NOT_ENABLED
Los desencadenadores no están habilitados para esta área de trabajo. Habilite desencadenadores de tabla en la página de 'Previews'.
TRIGGER_ON_VIEW_READ_FROM_FILE_NOT_SUPPORTED
El origen <source> es una vista que lee desde una ubicación de archivo, lo cual actualmente no es compatible con el disparador.
TRIGGER_REQUEST_SERIALIZATION_ERROR
Hubo un problema al procesar la solicitud. Póngase en contacto con el soporte técnico de Databricks.
TRIGGER_SECURABLE_KIND_NOT_SUPPORTED
Error de configuración del desencadenador: tipo de tabla no compatible. Consulte la documentación sobre los tipos admitidos.
TRIGGER_SOURCE_TYPE_NOT_SUPPORTED
El desencadenador no admite actualmente el origen <source> con el tipo <type>.
TRIGGER_STATE_SERIALIZATION_ERROR
Hubo un problema al procesar la solicitud. Póngase en contacto con el soporte técnico de Databricks.
LÍMITE_DE_TABLA_DE_DISPARADOR_EXCEDIDO
Error de configuración del desencadenador: el desencadenador incluye más tablas que el límite permitido. Consulte la documentación para obtener más información sobre los límites de tabla y cómo resolver este problema.
TRIGGER_TABLE_TYPE_NOT_SUPPORTED
Error de configuración del desencadenador: tipo de tabla no compatible. Consulte la documentación sobre los tipos admitidos.
UC_CLEARING_TARGET_SCHEMA_NOT_ALLOWED
No se permite borrar el campo de esquema de destino para las canalizaciones de UC. Motivo: <reason>.
UC_IAM_ROLE_NON_SELF_ASSUMING
Se encontró que el rol de IAM para la credencial de almacenamiento no era autosuponiendo.
Compruebe la confianza de su rol y las directivas de Administración de identidad y acceso para asegurarse de que dicho rol pueda asumirse a sí mismo según la documentación de credenciales de almacenamiento de Unity Catalog.
UC_NOT_ENABLED
El uso del catálogo uc en canalizaciones declarativas de Spark de Lakeflow no está habilitado.
UC_PIPELINE_CANNOT_PUBLISH_TO_HMS
Las canalizaciones habilitadas para UC no se pueden publicar en el metastore de Hive. Elija otro catálogo de destino.
UC_TARGET_SCHEMA_REQUIRED
El campo de esquema de destino es necesario para las canalizaciones de UC. Motivo: <reason>.
UNABLE_TO_INFER_TABLE_SCHEMA
No se pudo deducir el esquema de la tabla <tableName> de sus flujos ascendentes.
Modifique los flujos que escriben en esta tabla para que sus esquemas sean compatibles.
Esquema inferido hasta ahora:
<inferredDataSchema>
Esquema incompatible:
<incompatibleDataSchema>
UNEXPECTED_PIPELINE_SCHEMA_PERMISSION_ERROR
Error inesperado al comprobar los permisos de esquema para la canalización <pipelineId>. Póngase en contacto con el soporte técnico de Databricks.
NO_SE_PUEDE_ESTABLECER_COMPATIBILIDAD_UNIFORME_CON_ROW_FILTERS_O_COLUMN_MASKS
La compatibilidad uniforme no se puede establecer en vistas materializadas ni tablas de streaming que tengan aplicados máscaras de columna o filtro de fila.
UNITY_CATALOG_INITIALIZATION_FAILED
Se encontró un error con el catálogo de Unity al configurar la canalización en el clúster <clusterId>.
Asegúrese de que la configuración del catálogo de Unity sea correcta y que existan los recursos necesarios (por ejemplo, catálogo, esquema) y estén accesibles.
Compruebe también que el clúster tiene los permisos adecuados para acceder al catálogo de Unity.
Detalles: <ucErrorMessage>
UNRESOLVED_SINK_PATH
No se puede resolver la ruta de acceso de almacenamiento del receptor <identifier>. Póngase en contacto con el soporte técnico de Databricks.
UNRESOLVED_TABLES_FOR_MAINTENANCE
Las tablas siguientes se encontraron en la definición de canalización, pero no se pudieron resolver durante el mantenimiento. Ejecute una ejecución de actualización de canalización con la definición de canalización más reciente para materializar todas las tablas de la definición de canalización y desbloquear el mantenimiento, o póngase en contacto con el soporte técnico de Databricks si el problema persiste.
<unresolvedTableIdentifiersSet>
UNRESOLVED_TABLE_PATH
No se puede resolver la ruta de acceso de almacenamiento de la tabla <identifier> . Póngase en contacto con el soporte técnico de Databricks.
UNSUPPORTED_ALTER_COMMAND
ALTER <commandTableType>
...
<command> no se admite.
UNSUPPORTED_CHANNEL_FOR_DPM
Canal no admitido para el modo de publicación directa. Se esperaba un canal "CURRENT" o "PREVIEW", pero se obtuvo "PREVIOUS".
UNSUPPORTED_COMMAND_IN_NON_DPM_PIPELINE
<command> solo se admite en el modo de publicación directa habilitada la canalización declarativa de Spark
UNSUPPORTED_COMMAND_IN_QUERY_DEFINITION
'<command>' no se admite en la definición de consulta. Mueva el comando fuera de la definición de consulta. Si es una canalización declarativa de Spark en Python, mueva "<command>" fuera del @dlt.table()/@dlt.view() decorador. Si es una canalización declarativa de Spark en Scala, mueva el método "<command>" fuera de "query".
UNSUPPORTED_CUSTOM_DBR_VERSION
La versión personalizada de DBR '<v>' no se admite en las áreas de trabajo de SHIELD y HIPAA. Se esperaba uno de [<supportedDbrVersions>]
UNSUPPORTED_CUSTOM_SCHEMA_PREVIEW
La versión preliminar privada del esquema personalizado está deshabilitada.
Cree una canalización con el modo de publicación predeterminado mediante el campo "schema"
en la especificación de canalización y mueva los conjuntos de datos de esta canalización a la nueva canalización.
UNSUPPORTED_CUSTOM_SCHEMA_PREVIEW_ENABLEMENT
La versión preliminar privada del esquema personalizado está deshabilitada y no se puede agregar la versión preliminar a una canalización.
Quite <sparkConfKeys> de la configuración de canalización.
UNSUPPORTED_DBR_VERSION
No se admite la versión '<v>' de DBR. Se esperaba uno de [<supportedDbrVersions>]
UNSUPPORTED_FEATURE_FOR_WORKSPACE
No se admite <featureName> en el área de trabajo. Póngase en contacto con el soporte técnico de Databricks para habilitar esta característica para el área de trabajo.
UNSUPPORTED_LANGUAGE
<language> No se pudo cargar el cuaderno '<notebookPath>'. Actualmente, solo se admiten cuadernos <supportedLanguages>.
UNSUPPORTED_LIBRARY_FILE_TYPE
El archivo en <path> no tiene .py ni .sql sufijo. Solo se admiten archivos Python y SQL en canalizaciones.
UNSUPPORTED_LIBRARY_NOTEBOOK_LANGUAGE
Idioma <language> no admitido para la libreta de notas <path>. Se admiten solo Python y SQL en las canalizaciones
UNSUPPORTED_LIBRARY_OBJECT_TYPE
El elemento incluido en la ruta <path> es de tipo <objectType>, el cual no está soportado. Actualmente, solo se pueden usar cuadernos y archivos como bibliotecas. Para resolver este problema, quite el objeto no compatible o actualice las bibliotecas configuradas para esta canalización, por lo que solo se incluyen los tipos de objeto admitidos.
UNSUPPORTED_MANAGED_INGESTION_SOURCE_TYPE
Definición de canalización de ingesta administrada no válida, tipo de origen no admitido: <sourceType>.
UNSUPPORTED_MULTIPLE_UPDATE_TYPE
Valide solo, explore solo y rebobine las actualizaciones se excluyen mutuamente. Como máximo, se debe establecer uno.
UNSUPPORTED_REWIND
Las operaciones de rebobinado aún no están habilitadas para esta área de trabajo.
UNSUPPORTED_SAAS_INGESTION_TYPE
No se admite el tipo <ingestionType> de ingesta proporcionado.
Póngase en contacto con el soporte técnico de Databricks si este problema persiste.
UNSUPPORTED_SPARK_SQL_COMMAND
'<command>' no se admite en spark.sql("...") API en Canalizaciones declarativas de Spark de Lakeflow Python. Comando soportado: <supportedCommands>.
UNSUPPORTED_SQL_STATEMENT
La instrucción SQL para <datasetType> '<datasetName>' no es compatible: <operation> no es soportado.
UPDATED_DEFINITION_SET_FOR_NON_DBSQL_PIPELINE
Solo las canalizaciones DBSQL pueden tener "updated_definition".
USE_CATALOG_IN_HMS
USO CATALOG solo compatible con la canalización declarativa de Spark habilitada para UC
VIEW_TEXT_NOT_SAVED_IN_UC
No se puede actualizar la tabla <tableName> , ya que no tiene una consulta guardada en el catálogo de Unity. Póngase en contacto con el soporte técnico de Databricks.
WORKDAY_HCM_CONNECTOR_FETCH_BATCH_FAILED
Error en Workday HCM. Tipo de API de origen: <saasSourceApiType>.
No se pudo capturar el lote en el desplazamiento '<offset>'.
Pruebe a actualizar la tabla de destino. Si el problema persiste, cree una incidencia.
WORKDAY_REPORTS_CONNECTOR_INSUFFICIENT_OAUTH_SCOPE_ERROR
Se produjo un error en informes de Workday. Tipo de API de origen: <saasSourceApiType>.
No se pudieron capturar los datos del informe "<reportUrl>". El cliente de OAuth no tiene acceso de ámbito suficiente para recuperar el informe.
Para resolverlo, asegúrese de que el cliente de OAuth tiene los ámbitos necesarios configurados en Workday.
Si el error persiste, presente un ticket.
WORKDAY_REPORTS_CONNECTOR_MISSING_REQUIRED_PARAMS_ERROR
Se produjo un error en informes de Workday. Tipo de API de origen: <saasSourceApiType>.
El informe de Workday "<reportUrl>" espera el parámetro "<missingParam>".
Asegúrese de que todos los parámetros del informe se incluyen en la dirección URL; Puede comprobar la configuración del informe de Workday para identificar qué parámetros son obligatorios.
Si el problema persiste, abra una incidencia.
WORKDAY_REPORTS_CONNECTOR_REPORT_NOT_FOUND_ERROR
Se produjo un error en informes de Workday. Tipo de API de origen: <saasSourceApiType>.
La dirección URL del informe '<reportUrl>' es incorrecta. Compruebe si hay errores tipográficos en la dirección URL base o en el nombre del informe para resolver el problema.
Si el problema persiste, abra una incidencia.
WORKDAY_REPORTS_CONNECTOR_REPORT_SIZE_EXCEEDED_ERROR
Se produjo un error en informes de Workday. Tipo de API de origen: <saasSourceApiType>.
El tamaño del informe con la dirección URL "<reportUrl>" es mayor que 2 GB. Asegúrese de que el tamaño del informe no supere este límite.
Si el problema persiste, abra una incidencia.
WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
Se produjo un error en informes de Workday. Tipo de API de origen: <saasSourceApiType>.
Para más información, consulte WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
WORKDAY_REPORT_URL_EMPTY
La dirección URL del informe de Workday está vacía. Se debe proporcionar al menos un informe.
WORKSPACE_QUOTA_EXCEEDED
No se puede iniciar la actualización "<updateId>" porque ya hay canalizaciones activas "<maxActiveUpdates>" que se ejecutan en esta área de trabajo.
Installation
ERROR_BASE_ENVIRONMENT_FILE_NOT_FOUND
SQLSTATE: ninguno asignado
Falta el archivo YAML del entorno base. Asegúrese de que el archivo existe en la ruta de acceso especificada.
Descripción: se produce cuando no se encuentra el archivo YAML del entorno base necesario en la ubicación esperada.
Acción sugerida: asegúrese de que el archivo YAML del entorno base existe en la ruta de acceso especificada y vuelva a intentar la instalación.
ERROR_BASE_ENVIRONMENT_FILE_READ
SQLSTATE: ninguno asignado
No se pudo leer el archivo de entorno base debido a una sintaxis o formato incorrectos del archivo YAML. Revise el contenido del archivo.
Descripción: se produce cuando el archivo YAML del entorno base contiene errores de sintaxis o formato.
Acción sugerida: valide y corrija la sintaxis de YAML en el archivo de entorno y vuelva a intentar la instalación.
ERROR_CONNECTION_REFUSED
SQLSTATE: ninguno asignado
No se puede conectar al repositorio de paquetes. Compruebe la conectividad de red, la configuración del firewall o la disponibilidad del repositorio.
Descripción: se produce cuando pip no puede establecer una conexión al repositorio de paquetes remotos debido a problemas de red, restricciones de firewall o tiempo de inactividad del repositorio.
Acción sugerida: compruebe la conectividad de red, compruebe la configuración de firewall o proxy, confirme que la dirección URL del repositorio es accesible e inténtelo de nuevo más tarde si el repositorio puede no estar disponible temporalmente.
ERROR_CORE_PACKAGE_VERSION_CHANGE
SQLSTATE: ninguno asignado
El paquete instalado no es compatible con los paquetes principales de Databricks. Alinee las versiones del paquete con las versiones de biblioteca preinstaladas y vuelva a intentar las instalaciones.
Descripción: se produce cuando se cambia una versión de dependencia principal de Databricks (por ejemplo, pyspark).
Acción sugerida: alinee las versiones del paquete instaladas con las bibliotecas preinstaladas y vuelva a intentar la instalación.
ERROR_CRAN_PACKAGE_NOT_AVAILABLE
SQLSTATE: ninguno asignado
El paquete CRAN no está disponible para la versión de R preinstalada en este proceso.
Descripción: se produce cuando no se publica un paquete de R para la versión de R instalada en el proceso.
Acción sugerida: cambie a un proceso con una versión de R compatible o elija una versión de paquete diferente.
ERROR_DBFS_DISABLED
SQLSTATE: ninguno asignado
El acceso raíz de DBFS público está deshabilitado. Use un almacenamiento alternativo.
Descripción: se produce al intentar instalar bibliotecas desde DBFS, pero la raíz pública de DBFS está deshabilitada en el área de trabajo.
Acción sugerida: use ubicaciones de almacenamiento alternativas, como volúmenes de UC, archivos de área de trabajo o almacenamiento remoto.
ERROR_DIRECTORY_NOT_INSTALLABLE
SQLSTATE: ninguno asignado
El directorio no se puede instalar debido a una estructura de paquetes de Python no válida. Compruebe que el directorio está configurado correctamente.
Descripción: se produce cuando la instalación de PIP se ejecuta en un directorio sin una estructura de paquetes de Python válida.
Acción sugerida: asegúrese de que el directorio contiene un archivo setup.py o pyproject.toml e inténtelo de nuevo, o empaquételo como un wheel.
ERROR_DUPLICATE_INSTALLATION
SQLSTATE: ninguno asignado
Se detectó una instalación de paquetes duplicada. Intente quitar la entrada de paquete duplicada del paquete y reinicie el clúster.
Descripción: se produce cuando el mismo paquete ya está instalado en el clúster y se intenta realizar una instalación duplicada.
Acción sugerida: quite las entradas de paquete duplicadas y reinicie el clúster.
ERROR_FEATURE_DISABLED
SQLSTATE: ninguno asignado
Los volúmenes de Unity Catalog están inactivos en el área de trabajo. Póngase en contacto con el administrador del área de trabajo para habilitar esta característica.
Descripción: Se produce cuando los volúmenes del Catálogo de Unity están deshabilitados en el espacio de trabajo, lo que impide la instalación desde volúmenes UC.
Acción sugerida: póngase en contacto con el administrador del área de trabajo para habilitar volúmenes de Catálogo de Unity o use almacenamiento alternativo.
ERROR_HASH_MISMATCH
SQLSTATE: ninguno asignado
Error de coincidencia de hash de paquete detectado. El hash del paquete descargado no coincide con su hash esperado.
Descripción: se produce cuando el hash de un paquete descargado no coincide con su hash esperado.
Acción sugerida: vuelva a intentar la instalación, reinicie el clúster o mueva instalaciones de paquetes grandes a archivos de área de trabajo, volúmenes de UC o un repositorio de PyPI privado.
ERROR_INVALID_FILE
SQLSTATE: ninguno asignado
No se puede instalar el archivo especificado debido a un tipo de archivo incorrecto. Compruebe que usa el tipo de archivo válido y compatible.
Descripción: se produce cuando no se puede instalar el archivo de biblioteca especificado debido a un tipo o formato de archivo incorrectos.
Acción sugerida: use un tipo de archivo de biblioteca compatible (por ejemplo, wheel, jar) y compruebe la validez de la ruta de acceso.
ERROR_INVALID_REQUIREMENT
SQLSTATE: ninguno asignado
Sintaxis incorrecta o entradas con formato incorrecto en las dependencias de paquetes o archivos de requisitos. Compruebe y corrija el contenido del archivo de requisitos y las dependencias del paquete.
Descripción: formato de requisito no válido o con formato incorrecto detectado en el archivo de requisitos o en las especificaciones de dependencia de un paquete.
Acción sugerida: use el formato correcto (por ejemplo, "library-name==version") en los archivos de requisitos, compruebe que los formatos de dependencia del paquete son válidos y compruebe si hay errores tipográficos o especificadores de versión no admitidos.
ERROR_INVALID_SCRIPT_ENTRY_POINT
SQLSTATE: ninguno asignado
Punto de entrada de script no válido. Compruebe los puntos de entrada del paquete o el archivo setup.py.
Descripción: se produce cuando el punto de entrada del script de consola especificado no existe en los metadatos del paquete.
Acción sugerida: compruebe el nombre del punto de entrada en setup.py o pyproject.toml o póngase en contacto con el mantenedor del paquete.
ERROR_INVALID_STORAGE_CONFIGURATION
SQLSTATE: ninguno asignado
Se detectó un valor de configuración de almacenamiento no válido para la cuenta de almacenamiento en la nube. Compruebe la configuración de almacenamiento, la configuración de la cuenta y las credenciales.
Descripción: se produce cuando la configuración de la cuenta de almacenamiento en la nube está malformada o incorrecta.
Acción sugerida: corrija la configuración de almacenamiento de la cuenta y vuelva a intentar la instalación.
ERROR_INVALID_USER_INPUT
SQLSTATE: ninguno asignado
Se proporciona una sintaxis o argumentos de paquete no válidos. Compruebe que la entrada y las opciones de instalación de biblioteca son válidas.
Descripción: se produce cuando pip se invoca con opciones o argumentos no válidos.
Acción sugerida: compruebe las opciones de pip y la sintaxis de comandos, corrija la entrada y vuelva a intentar la instalación.
ERROR_INVALID_WHEEL
SQLSTATE: ninguno asignado
Se detectó un archivo wheel dañado, malformado o no válido. Compruebe el archivo wheel o vuelva a intentar la instalación.
Descripción: se produce cuando pip encuentra un archivo wheel dañado, incompleto o con formato incorrecto durante la instalación.
Acción sugerida: borre la caché de pip, descargue de nuevo o reconstruya el wheel, reinstale y compruebe su integridad antes de reintentar.
ERROR_JAR_EVICTED
SQLSTATE: ninguno asignado
El paquete JAR fue desalojado por el resolutor debido a conflictos de versión. Resuelva los conflictos de versión de dependencia.
Descripción: se produce cuando la resolución de dependencias de Maven expulsa un archivo jar debido a conflictos de versión con otras dependencias.
Acción sugerida: resuelva los conflictos en la configuración de dependencias o use sobrescrituras de versión explícitas.
ERROR_MAVEN_LIBRARY_RESOLUTION
SQLSTATE: ninguno asignado
No se pueden resolver las coordenadas de la biblioteca de Maven. Compruebe los detalles de la biblioteca, el acceso al repositorio o la disponibilidad del repositorio de Maven.
Descripción: se produce cuando Maven no encuentra ni resuelve la biblioteca especificada debido a coordenadas incorrectas, problemas de red o tiempo de inactividad del repositorio.
Acción sugerida: compruebe el formato groupId:artifactId:version, compruebe las direcciones URL y las credenciales del repositorio, pruebe repositorios alternativos o vuelva a intentarlo más adelante si el repositorio puede no estar disponible temporalmente.
ERROR_NO_MATCHING_DISTRIBUTION
SQLSTATE: ninguno asignado
No se puede descargar o acceder a los recursos de almacenamiento en la nube especificados, normalmente debido a errores de configuración, dependencias que faltan o problemas de conectividad. Revise la configuración del almacenamiento en la nube.
Descripción: se produce cuando el clúster no puede descargar o instalar archivos de biblioteca desde el almacenamiento en la nube, normalmente debido a errores de configuración, dependencias que faltan o problemas de red.
Acción sugerida: asegúrese de que los URI de almacenamiento en la nube son correctos, las credenciales son válidas y los servidores proxy de red o bibliotecas necesarios están configurados correctamente y, a continuación, vuelva a intentar la instalación.
ERROR_NO_SUCH_FILE_OR_DIRECTORY
SQLSTATE: ninguno asignado
El archivo de biblioteca no existe o el usuario no tiene permiso para leer el archivo de biblioteca. Compruebe si el archivo de biblioteca existe y el usuario tiene los permisos adecuados para acceder al archivo.
Descripción: se produce cuando falta o no se puede acceder al archivo especificado en la ruta de acceso especificada durante la instalación de la biblioteca.
Acción sugerida: compruebe que el archivo existe en la ruta de acceso especificada, corrija la ruta de acceso o cargue el archivo que falta y asegúrese de que los permisos adecuados.
ERROR_OPERATION_NOT_SUPPORTED
SQLSTATE: ninguno asignado
La instalación de la biblioteca no es compatible con este tipo de archivo desde el sistema de archivos solicitado. Compruebe el tipo de biblioteca y consulte la guía del usuario sobre la biblioteca admitida en la computación actual.
Descripción: se produce cuando el sistema de archivos de destino, el tipo de archivo o el tipo de proceso no admite la operación solicitada durante la instalación.
Acción sugerida: use un sistema de archivos compatible, un tipo de archivo o un tipo de proceso, o ajuste el destino de instalación a una ubicación admitida.
ERROR_PERMISSION_DENIED
SQLSTATE: ninguno asignado
El usuario no tiene el permiso suficiente para instalar el paquete. Compruebe los derechos de acceso de archivo y directorio para el usuario.
Descripción: se produce cuando el usuario de instalación carece de permiso para leer o escribir un archivo o directorio durante la instalación.
Acción sugerida: compruebe y conceda los permisos adecuados en el directorio de destino o póngase en contacto con el administrador del sistema.
ERROR_PIP_CONFIG
SQLSTATE: ninguno asignado
El usuario intentó instalar una biblioteca de Python, pero el archivo de configuración pip de nivel de área de trabajo o el clúster tiene errores de sintaxis o tiene un formato incorrecto. Compruebe y corrija el archivo de configuración de pip.
Descripción: se produce cuando el archivo de configuración de pip tiene errores de sintaxis o tiene un formato incorrecto.
Acción sugerida: corrija los errores de sintaxis en el archivo de configuración pip, quite el archivo de configuración para usar la configuración predeterminada, reinicie el clúster y vuelva a intentar la instalación.
ERROR_PYTHON_REPL_RESTORE_FAILURE
SQLSTATE: ninguno asignado
Error en la restauración de REPL de Python después de la instalación del paquete.
Descripción: normalmente se produce cuando los paquetes principales de Python se actualizan de una manera que interrumpe el entorno en tiempo de ejecución durante la restauración.
Acción sugerida: revise los paquetes instalados recientemente y los paquetes de instalación compatibles con los valores predeterminados del entorno de Databricks, como numpy, pandas, pyspark y otras bibliotecas estándar. Asegúrese de que las versiones son compatibles con la versión de Databricks Runtime. Si sigue fallando, póngase en contacto con el soporte técnico de Databricks.
ERROR_REQUIREMENTS_FILE_INSTALLATION
SQLSTATE: ninguno asignado
archivos requirements.txt que contienen un volumen de Unity Catalog o una referencia de archivo de área de trabajo no se admiten en clústeres que no tienen habilitado UC. Use un clúster habilitado para UC para instalar requirements.txt que haga referencia a un archivo de volumen o área de trabajo de UC.
Descripción: Se produce cuando requirements.txt incluye volúmenes de UC o referencias a archivos de espacio de trabajo en un clúster sin habilitación UC.
Acción sugerida: use un clúster habilitado para UC para requirements.txt que haga referencia a archivos de área de trabajo o UC, o quite esas referencias.
ERROR_REQUIRE_HASHES
SQLSTATE: ninguno asignado
Faltan hash cuando pip se ejecuta en el modo --require-hashes y un requisito carece de un hash. Solucione los requisitos de hash o deshabilite la comprobación de hash.
Descripción: se produce cuando pip se ejecuta en el modo --require-hashes y un requisito carece de un hash.
Acción sugerida: agregue hashes para todos los paquetes de requirements.txt o quite la marca --require-hashes.
ERROR_RESTART_PYTHON
SQLSTATE: ninguno asignado
No se pudo reiniciar el proceso de Python. Esto puede deberse a la actualización de la versión de un paquete que entra en conflicto con las bibliotecas en tiempo de ejecución preinstaladas. Compruebe y alinee las dependencias del paquete y sus versiones.
Descripción: se produce cuando el entorno de Python no se puede reiniciar después de la instalación de la biblioteca, a menudo debido a conflictos entre los paquetes instalados y las bibliotecas de Databricks Runtime preinstaladas.
Acción sugerida: alinee las versiones de paquete instaladas con las bibliotecas en tiempo de ejecución de Databricks preinstaladas para evitar conflictos y errores de reinicio de Python.
ERROR_RESTART_SCALA
SQLSTATE: ninguno asignado
No se pudo reiniciar el proceso de Scala. Esto puede deberse a que la versión de Scala no coincide con las JAR de scala (por ejemplo, la ejecución de 2.12 jar en un kernel 2.13). Compruebe y alinee las versiones de Scala.
Descripción: Se produce cuando no se puede reiniciar el entorno de Scala, a menudo debido a conflictos por diferencias de versiones de Scala en los JARs de Scala.
Acción sugerida: alinee las versiones de JAR scala con la versión de scala del kernel para evitar conflictos y errores de reinicio de Scala.
ERROR_S3_FORBIDDEN
SQLSTATE: ninguno asignado
Acceso denegado al recurso S3. Revise los permisos de IAM y las políticas del bucket.
Descripción: las credenciales de AWS del clúster no tienen permisos suficientes para acceder al recurso S3 especificado.
Acción sugerida: verifique y actualice las políticas de bucket de S3 o los roles de IAM para conceder el acceso de lectura necesario para el clúster.
ERROR_SCALA_INSTALLATION
SQLSTATE: ninguno asignado
No se pudieron instalar dependencias de Java debido a problemas de permisos o archivos que faltan.
Descripción: se produce cuando no se pueden instalar dependencias de Java, a menudo debido a rutas de acceso, direcciones URL o permisos de archivo no válidos.
Acción sugerida: compruebe las rutas de acceso y las direcciones URL de los archivos, asegúrese de que los permisos adecuados y vuelva a intentar la instalación.
ERROR_SETUP_PY_FAILURE
SQLSTATE: ninguno asignado
La setup.py del paquete de Python no se ejecutó correctamente debido a problemas de compatibilidad, dependencias que faltan o errores de configuración. Compruebe el archivo de instalación de las dependencias.
Descripción: se produce cuando se produce un error en el script de setup.py del paquete debido a problemas de compatibilidad, dependencias que faltan o errores de configuración.
Acción sugerida: actualice las versiones del paquete, instale las dependencias que faltan, reemplace los paquetes en desuso y compruebe el script de setup.py.
ERROR_SSL_VIOLATION
SQLSTATE: ninguno asignado
Pip encontró problemas de protocolo de enlace SSL o comprobación de certificados. Revise las configuraciones y certificados SSL en sus recursos de cómputo o espacio de trabajo.
Descripción: Se produce cuando pip encuentra problemas de negociación SSL o comprobación de certificados al conectarse a repositorios de paquetes.
Acción sugerida: Compruebe que los certificados SSL son válidos, configure hosts confiables en pip, o compruebe la configuración SSL de red.
ERROR_UC_ASSET_NOT_FOUND
SQLSTATE: ninguno asignado
No se encontró el objeto Catalog de Unity. Compruebe que existen catálogos, esquemas y volúmenes.
Descripción: se produce cuando el volumen, el catálogo o el esquema de Unity especificados no existen o no son accesibles.
Acción sugerida: compruebe que la ruta de acceso del objeto del catálogo de Unity es correcta y que el objeto existe en su cuenta.
ERROR_UNSUPPORTED_LIBRARY_TYPE
SQLSTATE: ninguno asignado
El tipo de biblioteca no se admite en este entorno de computación. Compruebe las bibliotecas admitidas para el tipo de cálculo.
Descripción: se produce al intentar instalar un tipo de biblioteca que no es compatible con el proceso seleccionado.
Acción sugerida: use un tipo de biblioteca compatible para este proceso o cambie a un proceso que admita este libraryType.
ERROR_UNSUPPORTED_PYTHON_VERSION
SQLSTATE: ninguno asignado
La biblioteca de Python no es compatible con la versión de Python en esta computadora. Por favor, use una computadora o un equipo con una versión de Python compatible.
Descripción: Ocurre cuando la restricción de un paquete python_requires no coincide con la versión de Python que se ejecuta en el entorno de computación.
Acción sugerida: instale una versión de paquete que admita la versión actual de Python o cambie la versión de proceso.
ERROR_UNSUPPORTED_SSL_ENABLED
SQLSTATE: ninguno asignado
Se produce un error en la instalación cuando la configuración de spark.ssl.enabled está activada, que no es compatible con la instalación de la biblioteca. Deshabilite la configuración de SSL y reinicie el clúster.
Descripción: se produce cuando la configuración spark.ssl.enabled está activada, que no es compatible con la instalación de la biblioteca.
Acción sugerida: deshabilite la configuración de SSL (por ejemplo, establezca spark.ssl.enabled=false o establezca spark.databricks.libraries.ignoreSSL=true) y reinicie el clúster.
ERROR_USER_NOT_FOUND_IN_WORKSPACE
SQLSTATE: ninguno asignado
Error en la instalación de la biblioteca porque el usuario no se encontró en el área de trabajo. Esto suele ocurrir cuando se ha quitado un usuario del área de trabajo, pero su token todavía se está usando.
Descripción: se produce cuando el token de acceso de un usuario está en uso, pero el usuario ya no existe en el área de trabajo especificada.
Acción sugerida: asegúrese de que el usuario tiene acceso al área de trabajo o actualice la configuración del clúster para usar las credenciales de un usuario válido.
ERROR_VOLUME_PERMISSION_DENIED
SQLSTATE: ninguno asignado
Permisos insuficientes en el volumen del catálogo de Unity. Compruebe los derechos de acceso al volumen de UC o solicite acceso al propietario del volumen de UC.
Descripción: Esto ocurre cuando el usuario carece de permisos en el volumen UC especificado.
Acción sugerida: solicite permisos de lectura para el volumen de Unity Catalog al propietario o al administrador del volumen.
ERROR_WHEEL_BUILD
SQLSTATE: ninguno asignado
Pip no pudo compilar correctamente la rueda debido a que faltan dependencias o errores de compilación. Compruebe el contenido y las dependencias del paquete Wheel.
Descripción: se produce cuando pip no puede compilar una rueda para el paquete debido a que faltan dependencias de compilación o errores.
Acción sugerida: asegúrese de que están instaladas las herramientas de compilación y los encabezados, o instale una rueda preconstruida con --no-binary.
ERROR_WHEEL_INSTALLATION
SQLSTATE: ninguno asignado
La rueda no es compatible con el proceso actual debido a la falta de coincidencia de etiquetas de plataforma o a un archivo de rueda no válido. Compruebe el contenido del paquete Wheel, las dependencias y su compatibilidad con el sistema de cómputo.
Descripción: Se produce cuando el archivo wheel no es válido o las etiquetas de la plataforma no coinciden.
Acción sugerida: use una rueda creada para la plataforma actual o recompile la rueda con etiquetas adecuadas.
FAULT_CLOUD_STORAGE_INSTALLATION
SQLSTATE: ninguno asignado
No se puede descargar o acceder a los recursos de almacenamiento en la nube especificados, normalmente debido a errores de configuración o problemas de conectividad. Revise la configuración del almacenamiento en la nube.
Descripción: se produce cuando el proceso no puede descargar o instalar archivos de biblioteca desde el almacenamiento en la nube, normalmente debido a errores de configuración o problemas de red.
Acción sugerida: asegúrese de que los URI de almacenamiento en la nube son correctos, las credenciales son válidas y los servidores proxy de red o bibliotecas necesarios están configurados correctamente y, a continuación, vuelva a intentar la instalación.
FAULT_DBR_VERSION_EOS
SQLSTATE: ninguno asignado
La versión de Databricks Runtime en la computación deja de recibir soporte técnico y ya no es compatible. Utilice una versión de runtime de Databricks compatible.
Descripción: se produce cuando la biblioteca está instalada en una versión de Databricks Runtime que ya no recibe actualizaciones ni soporte técnico.
Acción sugerida: actualice el clúster a una versión admitida de Databricks Runtime y vuelva a intentar la instalación.
FAULT_POLLER_ALLOWLIST_VALIDATION
SQLSTATE: ninguno asignado
La instalación de la biblioteca está bloqueada porque falta en la lista de permitidos. Esto puede ocurrir si se quita una biblioteca de la lista de permitidos después de agregarla a un clúster. Compruebe la lista de permitidos de la biblioteca, solicite al administrador que agregue bibliotecas a la lista de permitidos o quite paquetes no autorizados del clúster.
Descripción: Ocurre cuando una o varias bibliotecas solicitadas no están aprobadas en la lista blanca del metastore y son bloqueadas para su instalación. Esto también puede ocurrir si se permitió anteriormente una biblioteca, pero posteriormente se quitó de la lista de permitidos.
Acción sugerida: compruebe la lista de permitidos de metastore, solicite al administrador que agregue las bibliotecas que faltan a la lista de permitidos o quite las bibliotecas no autorizadas del clúster.
FAULT_POLLER_DBR_UNSUPPORTED
SQLSTATE: ninguno asignado
La versión de Databricks Runtime en el clúster ha alcanzado su fin de soporte técnico y ya no se admite. Utilice una versión de runtime de Databricks compatible.
Descripción: se produce cuando la biblioteca está instalada en una versión de Databricks Runtime que ya no recibe actualizaciones ni soporte técnico.
Acción sugerida: cambie el clúster para usar una versión admitida de Databricks Runtime y vuelva a intentar la instalación.
FAULT_POLLER_LIBRARY_STORAGE_FORMAT_UNSUPPORTED
SQLSTATE: ninguno asignado
Es posible que la versión de Databricks Runtime seleccionada no admita determinados formatos de almacenamiento de biblioteca, como rutas de acceso de gs:// o abfss://. Actualice Databricks Runtime o consulte la guía del usuario sobre las funcionalidades de diferentes versiones de Databricks Runtime.
Descripción: se produce cuando la versión de Databricks Runtime no admite el protocolo o el formato de almacenamiento de biblioteca especificados.
Acción sugerida: use un esquema de almacenamiento compatible o actualice a una versión de Databricks Runtime que admita el formato de almacenamiento deseado.
FAULT_POLLER_UNITY_CATALOG_NOT_AVAILABLE_ERROR
SQLSTATE: ninguno asignado
La instalación de la biblioteca requiere el catálogo de Unity, pero El catálogo de Unity no está disponible en el clúster o el área de trabajo. Póngase en contacto con el administrador del área de trabajo para habilitar esta característica.
Descripción: se produce cuando una instalación de biblioteca requiere el catálogo de Unity, pero el catálogo de Unity no está disponible en el área de trabajo.
Acción sugerida: solicite la administración para habilitar el catálogo de Unity en el área de trabajo o use un clúster que admita el catálogo de Unity.
FAULT_STORAGE_ACCESS_FAILURE
SQLSTATE: ninguno asignado
No se puede acceder a los recursos de almacenamiento en la nube debido a problemas de credenciales, redes o permisos. Compruebe la configuración de acceso al almacenamiento en la nube.
Descripción: se produce cuando el proceso no puede acceder a los recursos de almacenamiento en la nube debido a problemas de credenciales, redes o permisos.
Acción sugerida: compruebe las credenciales de almacenamiento, la conectividad de red y los permisos de acceso y vuelva a intentar la instalación.
Miscellaneous
ABAC_POLICIES_NOT_SUPPORTED_FOR_RUNTIME_VERSION
SQLSTATE: ninguno asignado
Versión de DBR <abacDBRMajorVersion>.
<abacDBRMinorVersion> o superior es necesario para consultar la tabla <tableFullName>, debido a que está protegida por una directiva de ABAC.
AZURE_ENTRA_CREDENTIALS_MISSING
SQLSTATE: ninguno asignado
Faltan credenciales de Azure Entra (también conocidas como Azure Active Directory).
Asegúrese de que está conectado con su cuenta de Entra.
o que ha configurado un token de acceso personal (PAT) de Azure DevOps en Configuración de usuario > Integración de Git.
Si no usa un PAT y está usando Azure DevOps con la API de Repos,
Debe usar un token de acceso de Azure Entra.
Consulte https://docs.microsoft.com/azure/databricks/dev-tools/api/latest/aad/app-aad-token los pasos para adquirir un token de acceso de Azure Entra.
<pickOrCreateNewCredential>
AZURE_ENTRA_CREDENTIALS_PARSE_FAILURE
SQLSTATE: ninguno asignado
Se encontró un error con las credenciales de Azure Entra (Azure Active Directory). Pruebe a cerrar la sesión de
Entra (https://portal.azure.com) y volver a iniciarla.
Como alternativa, también puede ir a Configuración de usuario > Integración de Git para configurar
configurar un token de acceso personal para Azure DevOps.
<pickOrCreateNewCredential>
AZURE_ENTRA_LOGIN_ERROR
SQLSTATE: ninguno asignado
Se encontró un error con las credenciales de Azure Active Directory. Pruebe a cerrar la sesión de
Azure Active Directory (https://portal.azure.com) y volver a iniciarla.
<pickOrCreateNewCredential>
AZURE_ENTRA_WORKLOAD_IDENTITY_ERROR
SQLSTATE: ninguno asignado
Se encontró un error en la identidad de carga de trabajo de Azure debido a una excepción de Azure: <azureWorkloadIdentityExceptionMessage>
CLEAN_ROOM_DELTA_SHARING_ENTITY_NOT_AUTHORIZED
SQLSTATE: ninguno asignado
No se puede solicitar la generación de credenciales para el uso compartido Delta de sala limpia.
CLEAN_ROOM_HIDDEN_SECURABLE_PERMISSION_DENIED
SQLSTATE: ninguno asignado
El elemento protegible <securableName> con el tipo <securableType> y la variante <securableKind> es un sistema de sala limpio administrado, el usuario no tiene acceso.
CONSTRAINT_ALREADY_EXISTS
SQLSTATE: ninguno asignado
La restricción con el nombre <constraintName> ya existe, elija otro nombre.
CONSTRAINT_DOES_NOT_EXIST
SQLSTATE: ninguno asignado
La restricción <constraintName> no existe.
COULD_NOT_READ_REMOTE_REPOSITORY
SQLSTATE: ninguno asignado
No se pudo leer el repositorio remoto (<repoUrl>).
Se usó<because> la credencial<credentialName> (<credentialId>).
El proveedor de esta credencial de Git es <gitCredentialProvider> y el correo electrónico o nombre de usuario es <gitCredentialUsername>.
Vaya al proveedor de Git remoto para asegurarse de que:
La dirección URL del repositorio de Git remoto es válida.
El token de acceso personal o la contraseña de la aplicación tiene el acceso correcto al repositorio.
<pickOrCreateNewCredential>
COULD_NOT_RESOLVE_REPOSITORY_HOST
SQLSTATE: ninguno asignado
No se pudo resolver el host para <repoUrl>.
Se usó<because> la credencial<credentialName> (<credentialId>).
El proveedor de esta credencial de Git es <gitCredentialProvider> y el correo electrónico o nombre de usuario es <gitCredentialUsername>.
CSMS_BEGINNING_OF_TIME_NOT_SUPPORTED
SQLSTATE: ninguno asignado
El parámetro beginning_of_time no puede ser true.
CSMS_CONTINUATION_TOKEN_EXPIRED
SQLSTATE: ninguno asignado
El token de continuación ha expirado. Causa: <msg>
CSMS_CREDENTIAL_NAME_MISSING
SQLSTATE: ninguno asignado
Falta el nombre de credencial en la solicitud
CSMS_FILE_EVENTS_VALIDATION_USER_ERROR
SQLSTATE: ninguno asignado
Error de validación de eventos de archivo para la operación <operation>: <message>
CSMS_INVALID_CONTINUATION_TOKEN
SQLSTATE: ninguno asignado
Token de continuación no válido. Causa: <msg>
CSMS_INVALID_FILE_EVENTS_QUEUE
SQLSTATE: ninguno asignado
<missingField> falta en <queueType> la solicitud
CSMS_INVALID_MAX_OBJECTS
SQLSTATE: ninguno asignado
Valor <value> no válido para el parámetro max_objects, valor esperado en [<minValue>, <maxValue>]
CSMS_INVALID_SUBSCRIPTION_ID
SQLSTATE: ninguno asignado
Identificador de suscripción no válido. Causa: <msg>
CSMS_INVALID_URI_FORMAT
SQLSTATE: ninguno asignado
Formato de URI no válido. Se esperaba un volumen (por ejemplo, "/Volumes/catalog/schema/volume") o una ruta de acceso de almacenamiento en la nube (por ejemplo, "s3://some-uri")
CSMS_KAFKA_TOPIC_MISSING
SQLSTATE: ninguno asignado
Debe proporcionar un tema de Kafka
CSMS_LOCATION_ERROR
SQLSTATE: ninguno asignado
No se pudieron enumerar los objetos. Hay problemas en la ubicación que se deben resolver. Detalles: <msg>
CSMS_LOCATION_NOT_KNOWN
SQLSTATE: ninguno asignado
No se encontró ninguna ubicación para el URI <path>
CSMS_METASTORE_ID_MISSING
SQLSTATE: ninguno asignado
Debe proporcionar un UUID de metastore
CSMS_METASTORE_RESOLUTION_FAILED
SQLSTATE: ninguno asignado
No se puede determinar un metastore para la solicitud.
CSMS_RESOLVE_CREDENTIAL_ID_FAILED
SQLSTATE: ninguno asignado
No se pudo resolver el identificador de credencial para la credencial: <credentialName>
CSMS_RESOLVE_LOCAL_SHARD_NAME_FAILED
SQLSTATE: ninguno asignado
CSMS no pudo resolver el nombre de partición local
CSMS_SERVICE_DISABLED
SQLSTATE: ninguno asignado
El servicio está deshabilitado
CSMS_SHARD_NAME_MISSING_IN_REQUEST
SQLSTATE: ninguno asignado
Falta el nombre de partición de una petición RPC a CSMS
CSMS_STORAGE_CREDENTIAL_DOES_NOT_EXIST
SQLSTATE: ninguno asignado
La credencial de almacenamiento no existe.
CSMS_SUBSCRIPTION_ID_MISSING_IN_REQUEST
SQLSTATE: ninguno asignado
Falta el identificador de suscripción en la solicitud.
CSMS_SUBSCRIPTION_NOT_FOUND
SQLSTATE: ninguno asignado
No se encontró la suscripción con el identificador <id> .
CSMS_UNITY_CATALOG_DISABLED
SQLSTATE: ninguno asignado
El catálogo de Unity está deshabilitado para esta área de trabajo
CSMS_UNITY_CATALOG_ENTITY_NOT_FOUND
SQLSTATE: ninguno asignado
No se encontró la entidad de Unity Catalog. Asegúrese de que existe el catálogo, el esquema, el volumen o la ubicación externa.
CSMS_UNITY_CATALOG_EXTERNAL_LOCATION_DOES_NOT_EXIST
SQLSTATE: ninguno asignado
La ubicación externa de Unity Catalog no existe.
CSMS_UNITY_CATALOG_EXTERNAL_STORAGE_OVERLAP
SQLSTATE: ninguno asignado
El URI se superpone con otros volúmenes
CSMS_UNITY_CATALOG_METASTORE_DOES_NOT_EXIST
SQLSTATE: ninguno asignado
No se puede determinar un metastore para la solicitud. Metastore no existe
CSMS_UNITY_CATALOG_PATH_BASED_ACCESS_TO_TABLE_WITH_FILTER_NOT_ALLOWED
SQLSTATE: ninguno asignado
La URI dirige a una tabla con un filtro de nivel de fila o una máscara de columna. No se permite el acceso basado en ruta a esta tabla.
CSMS_UNITY_CATALOG_PERMISSION_DENIED
SQLSTATE: ninguno asignado
Permiso denegado
CSMS_UNITY_CATALOG_RATE_LIMITED
SQLSTATE: ninguno asignado
Se superó el límite de velocidad de solicitud. Vuelva a intentarlo después de algún tiempo.
CSMS_UNITY_CATALOG_TABLE_DOES_NOT_EXIST
SQLSTATE: ninguno asignado
La tabla del catálogo de Unity no existe.
CSMS_UNITY_CATALOG_VOLUME_DOES_NOT_EXIST
SQLSTATE: ninguno asignado
El volumen de Unity Catalog no existe.
CSMS_UNSUPPORTED_FILE_EVENTS_QUEUE
SQLSTATE: ninguno asignado
Cola de eventos de archivo desconocida en la solicitud
CSMS_UNSUPPORTED_MANAGED_RESOURCE_TYPE
SQLSTATE: ninguno asignado
No se admite el tipo <resourceType> de recurso administrado
CSMS_UNSUPPORTED_SECURABLE
SQLSTATE: ninguno asignado
Protegible no admitido
CSMS_URI_MISSING
SQLSTATE: ninguno asignado
Debe proporcionar el URI
CSMS_URI_TOO_LONG
SQLSTATE: ninguno asignado
El URI proporcionado es demasiado largo. La longitud máxima permitida es <maxLength>.
CSMS_USER_CONTEXT_MISSING_IN_REQUEST
SQLSTATE: ninguno asignado
Falta el contexto de usuario de una solicitud rpc a CSMS
DMK_CATALOGS_DISALLOWED_ON_CLASSIC_COMPUTE
SQLSTATE: ninguno asignado
No se puede acceder al almacenamiento predeterminado de Databricks mediante proceso clásico. Use el proceso sin servidor para acceder a los datos en el almacenamiento predeterminado.
GITHUB_APP_COULD_NOT_REFRESH_CREDENTIALS
SQLSTATE: ninguno asignado
Error en la operación porque no se pudieron actualizar las credenciales de la aplicación de GitHub vinculadas.
Inténtelo de nuevo o vaya a Configuración > de usuario Integración de Git e intente volver a vincular la cuenta del proveedor de Git.
Si el problema persiste, envíe una incidencia de soporte técnico.
<pickOrCreateNewCredential>
GITHUB_APP_CREDENTIALS_NO_ACCESS
SQLSTATE: ninguno asignado
El enlace a tu cuenta de GitHub no proporciona acceso. Para corregir este error:
- Un administrador del repositorio debe ir a https://github.com/apps/databricks/installations/new e instalar la aplicación de GitHub de Databricks en el repositorio.
Como alternativa, un propietario de la cuenta de GitHub puede instalar la aplicación en la cuenta para conceder acceso a los repositorios de la cuenta.
- Si la aplicación ya está instalada, haga que un administrador se asegure de que, si están usando acceso restringido con la opción "Seleccionar solo determinados repositorios", hayan incluido el acceso a este repositorio seleccionándolo.
Consulte https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app para obtener más información.
<pickOrCreateNewCredential>
GITHUB_APP_EXPIRED_CREDENTIALS
SQLSTATE: ninguno asignado
Las credenciales de la aplicación de GitHub vinculadas expiraron después de 6 meses de inactividad.
Vaya a Configuración de usuario > Integración de Git e intente reconectar sus credenciales.
Si el problema persiste, envíe una incidencia de soporte técnico.
<pickOrCreateNewCredential>
GITHUB_APP_INSTALL_ON_DIFFERENT_USER_ACCOUNT
SQLSTATE: ninguno asignado
El enlace a tu cuenta de GitHub no proporciona acceso. Para corregir este error:
El usuario de GitHub
<gitCredentialUsername>debe ir a https://github.com/apps/databricks/installations/new e instalar la aplicación en la cuenta<gitCredentialUsername>para permitir el acceso.Si el usuario
<gitCredentialUsername>ya ha instalado la aplicación y usa acceso con ámbito con la opción "Seleccionar solo repositorios", debe asegurarse de que ha incluido el acceso a este repositorio seleccionándolo.
Consulte https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app para obtener más información.
<pickOrCreateNewCredential>
GITHUB_APP_INSTALL_ON_ORGANIZATION
SQLSTATE: ninguno asignado
El enlace a tu cuenta de GitHub no proporciona acceso. Para corregir este error:
Un propietario de la organización
<organizationName>de GitHub debe ir a https://github.com/apps/databricks/installations/new e instalar la aplicación en la organización<organizationName>para permitir el acceso.Si la aplicación ya está instalada en la organización
<organizationName>de GitHub, un propietario de esta organización debe asegurarse de que, si utiliza acceso delimitado con la opción "Seleccionar solo repositorios", ha incluido el acceso a este repositorio seleccionándolo.
Consulte https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app para obtener más información.
<pickOrCreateNewCredential>
GITHUB_APP_INSTALL_ON_YOUR_ACCOUNT
SQLSTATE: ninguno asignado
El enlace a tu cuenta de GitHub no proporciona acceso. Para corregir este error:
Vaya a https://github.com/apps/databricks/installations/new e instale la aplicación en su cuenta
<gitCredentialUsername>para permitir el acceso.Si la aplicación ya está instalada y usa acceso con ámbito con la opción "Seleccionar solo repositorios", asegúrese de que ha incluido el acceso a este repositorio seleccionándolo.
Consulte https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app para obtener más información.
<pickOrCreateNewCredential>
GIT_CLUSTER_NOT_READY
SQLSTATE: ninguno asignado
El clúster de Git no está listo.
GIT_CREDENTIAL_GENERIC_INVALID
SQLSTATE: ninguno asignado
Credenciales de proveedor de Git no válidas para la dirección URL <repoUrl>del repositorio .
Se usó<because> la credencial<credentialName> (<credentialId>).
El proveedor de esta credencial de Git es <gitCredentialProvider> y el correo electrónico o nombre de usuario es <gitCredentialUsername>.
Vaya al proveedor de Git remoto para asegurarse de que:
Ha introducido el correo electrónico de usuario de Git o nombre de usuario correcto con las credenciales del proveedor de Git.
El token tiene el acceso correcto al repositorio.
El token no ha expirado.
Si tiene SSO habilitado con el proveedor de Git, asegúrese de autorizar el token.
<pickOrCreateNewCredential>
GIT_CREDENTIAL_INVALID_PAT
SQLSTATE: ninguno asignado
Credenciales de token de acceso personal del proveedor de Git no válidas para la dirección URL <repoUrl>del repositorio .
Se usó<because> la credencial<credentialName> (<credentialId>).
El proveedor de esta credencial de Git es <gitCredentialProvider> y el correo electrónico o nombre de usuario es <gitCredentialUsername>.
Vaya al proveedor de Git remoto para asegurarse de que:
Ha introducido el correo electrónico de usuario de Git o nombre de usuario correcto con las credenciales del proveedor de Git.
El token tiene el acceso correcto al repositorio.
El token no ha expirado.
Si tiene SSO habilitado con el proveedor de Git, asegúrese de autorizar el token.
<pickOrCreateNewCredential>
.
GIT_CREDENTIAL_MISSING
SQLSTATE: ninguno asignado
No hay credenciales de Git configuradas, pero credenciales necesarias para este repositorio (<repoUrl>).
Vaya a Configuración de Usuario > Integración de Git para configurar sus credenciales de Git.
GIT_CREDENTIAL_NO_WRITE_PERMISSION
SQLSTATE: ninguno asignado
No se ha concedido el acceso de escritura al repositorio <gitCredentialProvider> (<repoUrl>).
Se usó<because> la credencial<credentialName> (<credentialId>).
El proveedor de esta credencial de Git es <gitCredentialProvider> y el correo electrónico o nombre de usuario es <gitCredentialUsername>.
Asegúrese de que (<gitCredentialUsername>) tiene acceso de escritura a este repositorio remoto.
GIT_CREDENTIAL_PROVIDER_MISMATCHED
SQLSTATE: ninguno asignado
Proveedor de credenciales de Git incorrecto para el repositorio.
No tiene una credencial de Git con un proveedor de Git (<repositoryGitProvider>) que coincida con el del proveedor <repoUrl>de Git del repositorio.
Vaya a Configuración de > usuario Integración de Git para crear una nueva credencial para el proveedor <repositoryGitProvider>de Git.
GIT_FILE_NAME_TOO_LONG
SQLSTATE: ninguno asignado
Los nombres de archivo o carpeta en la ruta de acceso <path> superan el máximo permitido de <maxComponentBytes> bytes por componente.
Los sistemas basados en Unix solo admiten hasta <maxComponentBytes> bytes por nombre de archivo o carpeta.
Violaciones: <violations>
Acorte los componentes problemáticos para continuar.
GIT_PROVIDER_INFO_MISSING
SQLSTATE: ninguno asignado
Falta información del proveedor de Git o está vacía.
Agregue la información de credenciales de Git e inténtelo de nuevo.
Si el problema persiste, envíe una incidencia de soporte técnico.
GIT_PROXY_CLUSTER_NOT_READY
SQLSTATE: ninguno asignado
El clúster de proxy de Git no está listo.
GIT_PROXY_CONNECTION_FAILED
SQLSTATE: ninguno asignado
No se pudo conectar al proxy de Git, compruebe si el proxy de Git está en funcionamiento.
Error: <error>
GIT_SECRET_IN_CODE
SQLSTATE: ninguno asignado
Se encontraron secretos en la confirmación. Detalle: <secretDetail>. Para corregir este error:
Quite el secreto y vuelva a intentar la confirmación.
Si el problema persiste, envíe una incidencia de soporte técnico.
GIT_STALE_REMOTE_REFS
SQLSTATE: ninguno asignado
Captura de Git completada pero no pudo actualizar referencias remotas obsoletas debido a conflictos de ruta de acceso del sistema de archivos (por ejemplo, ramas eliminadas o "feature" frente a "feature/sub").
Error de Git: <gitErrorMessage>
HIERARCHICAL_NAMESPACE_NOT_ENABLED
SQLSTATE: ninguno asignado
La cuenta de Almacenamiento de Azure no tiene habilitado el espacio de nombres jerárquico.
INVALID_FIELD_LENGTH
<rpcName> <fieldName> demasiado largo. La longitud máxima es <maxLength> caracteres.
INVALID_PARAMETER_VALUE
<msg>
Para obtener más información, consulte INVALID_PARAMETER_VALUE
JOBS_TASK_FRAMEWORK_TASK_RUN_OUTPUT_NOT_FOUND
SQLSTATE: ninguno asignado
Marco de tareas: no se encontró la salida de ejecución de la tarea para la tarea con runId <runId> y orgId <orgId>.
JOBS_TASK_FRAMEWORK_TASK_RUN_STATE_NOT_FOUND
SQLSTATE: ninguno asignado
Marco de tareas: no se encontró el estado de ejecución de la tarea para la tarea con runId <runId> y orgId <orgId> .
JOBS_TASK_REGISTRY_TASK_CLIENT_CONFIG_DOES_NOT_EXIST
SQLSTATE: ninguno asignado
El valor de RPC ClientConfig para la tarea con identificador <taskId> no existe.
JOBS_TASK_REGISTRY_TASK_DOES_NOT_EXIST
SQLSTATE: ninguno asignado
La tarea con identificador <taskId> no existe.
JOBS_TASK_REGISTRY_UNSUPPORTED_JOB_TASK
SQLSTATE: ninguno asignado
Registro de tareas: JobTask no admitido o desconocido con la clase <taskClassName>.
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_EXTERNAL_SHALLOW_CLONE
SQLSTATE: ninguno asignado
No se admite el acceso basado en ruta de acceso a la tabla de clonación superficial externa <tableFullName>. Use nombres de tabla para acceder en su lugar al clon superficial.
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_FABRIC
SQLSTATE: ninguno asignado
No se ha encontrado la tabla de Fabric ubicada en la dirección URL "<url>". Use el REFRESH FOREIGN CATALOG comando para rellenar las tablas de Fabric.
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_TABLES_WITH_ROW_COLUMN_ACCESS_POLICIES
SQLSTATE: ninguno asignado
No se admite el acceso basado en ruta a la tabla <tableFullName> con filtro de fila o máscara de columna.
PERMISSION_DENIED
SQLSTATE: ninguno asignado
<principalName> no tiene <msg> en <resourceType> '<resourceName>'.
REDASH_DELETE_ASSET_HANDLER_INVALID_INPUT
SQLSTATE: ninguno asignado
No se puede analizar la solicitud de eliminación de objetos: <invalidInputMsg>
REDASH_DELETE_OBJECT_NOT_IN_TRASH
SQLSTATE: ninguno asignado
No se puede eliminar el objeto <resourceName> que no está en la papelera
REDASH_PERMISSION_DENIED
SQLSTATE: ninguno asignado
No se pudo encontrar o tener permiso para acceder al recurso <resourceId>
REDASH_QUERY_NOT_FOUND
SQLSTATE: ninguno asignado
No se puede encontrar el recurso desde el identificador de consulta <queryId>
REDASH_QUERY_SNIPPET_CREATION_FAILED
SQLSTATE: ninguno asignado
No se puede crear un fragmento de código de consulta nuevo
REDASH_QUERY_SNIPPET_QUOTA_EXCEEDED
SQLSTATE: ninguno asignado
Se ha alcanzado la cuota del número de fragmentos de código de consulta. La cuota actual es <quota>.
REDASH_QUERY_SNIPPET_TRIGGER_ALREADY_IN_USE
SQLSTATE: ninguno asignado
El desencadenador <trigger> especificado ya está en uso por otro fragmento de código de consulta de esta área de trabajo.
REDASH_RESOURCE_NOT_FOUND
SQLSTATE: ninguno asignado
El recurso <resourceName> solicitado no existe
REDASH_RESTORE_ASSET_HANDLER_INVALID_INPUT
SQLSTATE: ninguno asignado
No se puede analizar la solicitud de eliminación de objetos: <invalidInputMsg>
REDASH_RESTORE_OBJECT_NOT_IN_TRASH
SQLSTATE: ninguno asignado
No se puede restaurar el objeto <resourceName> que no está en la papelera
REDASH_TRASH_OBJECT_ALREADY_IN_TRASH
SQLSTATE: ninguno asignado
No se puede enviar a la papelera un objeto que ya está en la papelera <resourceName>
REDASH_UNABLE_TO_GENERATE_RESOURCE_NAME
SQLSTATE: ninguno asignado
No se pudo generar el nombre del recurso a partir del identificador <id>
REDASH_VISUALIZATION_CREATION_FAILED
SQLSTATE: ninguno asignado
No se puede crear una nueva visualización
REDASH_VISUALIZATION_NOT_FOUND
SQLSTATE: ninguno asignado
No se pudo encontrar la visualización <visualizationId>
REDASH_VISUALIZATION_QUOTA_EXCEEDED
SQLSTATE: ninguno asignado
Se ha alcanzado la cuota del número de visualizaciones en la consulta <query_id> . La cuota actual es <quota>.
REPOSITORY_URL_NOT_FOUND
SQLSTATE: ninguno asignado
No se encontró el repositorio remoto (<repoUrl>).
Se usó<because> la credencial<credentialName> (<credentialId>).
El proveedor de esta credencial de Git es <gitCredentialProvider> y el correo electrónico o nombre de usuario es <gitCredentialUsername>.
Vaya al proveedor de Git remoto para asegurarse de que:
La dirección URL del repositorio de Git remoto es válida.
El token de acceso personal o la contraseña de la aplicación tiene el acceso correcto al repositorio.
<pickOrCreateNewCredential>
RESOURCE_ALREADY_EXISTS
<resourceType> '<resourceIdentifier>' ya existe
RESOURCE_DOES_NOT_EXIST
<resourceType> '<resourceIdentifier>' no existe.
ROW_COLUMN_ACCESS_POLICIES_NOT_SUPPORTED_ON_ASSIGNED_CLUSTERS
SQLSTATE: ninguno asignado
No se admite la consulta en la tabla <tableFullName> con filtro de fila o máscara de columna en clústeres asignados.
ROW_COLUMN_SECURITY_NOT_SUPPORTED_WITH_TABLE_IN_DELTA_SHARING
SQLSTATE: ninguno asignado
La tabla <tableFullName> se comparte con Delta Sharing y no puede usar la seguridad de fila o columna.
SERVICE_TEMPORARILY_UNAVAILABLE
SQLSTATE: ninguno asignado
El <serviceName> servicio está temporalmente en mantenimiento. Inténtelo de nuevo más tarde.
TABLE_WITH_ROW_COLUMN_SECURITY_NOT_SUPPORTED_IN_ONLINE_MODE
SQLSTATE: ninguno asignado
La tabla <tableFullName> no puede tener vistas materializadas en línea y seguridad de fila o columna.
TOO_MANY_ROWS_TO_UPDATE
SQLSTATE: ninguno asignado
Hay demasiadas filas para actualizar, se anulará la actualización.
UC_ABAC_UNSUPPORTED_TABLE_TYPE
SQLSTATE: ninguno asignado
Las directivas de ABAC no se admiten para el tipo <tableType>de tabla .