Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Aplica-se a:
Databricks SQL
Databricks Runtime 12.2 e superior.
As condições de erro são cadeias de caracteres descritivas e legíveis por humanos que são exclusivas do erro que descrevem.
Você pode usar condições de erro para lidar programaticamente com erros em seu aplicativo sem a necessidade de analisar a mensagem de erro.
Esta é uma lista de condições comuns de erro nomeadas retornadas pelo Azure Databricks.
Databricks Runtime e Databricks SQL
ADD_DEFAULT_UNSUPPORTED
Falha ao executar o comando <statementType> porque os valores DEFAULT não são suportados ao adicionar novas colunas à fonte de dados de destino já existente com o provedor de tabela: "<dataSource>".
FUNÇÃO_AGREGADA_EM_REFERÊNCIAS_ANINHADAS_NÃO_SUPORTADA
Funções de agregação detectadas em referências de escopo externo, que não são suportadas.
AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION
A expressão <sqlExpr> não determinística não deve aparecer nos argumentos de uma função de agregação.
AI_FUNCTION_HTTP_PARSE_CAST_ERROR
Falha ao analisar a saída do modelo ao converter para o returnType especificado: "<dataType>", a resposta JSON foi: "<responseString>". Atualize o returnType para corresponder ao conteúdo do tipo representado pela resposta JSON e tente novamente a consulta. Exceção: <errorMessage>
AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR
A saída real do modelo tem mais de uma coluna "<responseString>". No entanto, o tipo de retorno especificado[""<dataType>] tem apenas uma coluna. Atualize o returnType para conter o mesmo número de colunas que a saída do modelo e tente novamente a consulta.
AI_FUNCTION_HTTP_REQUEST_ERROR
Erro ao fazer uma solicitação HTTP para a função <funcName>: <errorMessage>
AI_FUNCTION_INVALID_HTTP_RESPONSE
Resposta HTTP inválida para a função <funcName>: <errorMessage>
AI_FUNCTION_INVALID_MAX_WORDS
O número máximo de palavras deve ser um inteiro não negativo, mas recebeu <maxWords>.
AI_FUNCTION_INVALID_MODEL_PARAMETERS
Os parâmetros de modelo fornecidos (<modelParameters>) são inválidos na função AI_QUERY para o ponto de extremidade do serviço "<endpointName>".
Para obter mais detalhes , consulte AI_FUNCTION_INVALID_MODEL_PARAMETERS
AI_FUNCTION_INVALID_RESPONSE_FORMAT_TYPE
Função de IA: "<functionName>" requer uma cadeia de caracteres válida <format> para responseFormat o parâmetro, mas encontrou o seguinte formato de resposta: "<invalidResponseFormat>". Exceção: <errorMessage>
AI_FUNCTION_JSON_PARSE_ERROR
Erro ao analisar a JSON resposta da função <funcName>: <errorMessage>
AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR
Falha ao analisar o esquema do ponto de extremidade de serviço "<endpointName>": <errorMessage>, a resposta JSON foi: "<responseJson>".
Defina o parâmetro returnType manualmente na função AI_QUERY para substituir a resolução de esquema.
AI_FUNCTION_REGISTRY_LOOKUP_FAILURE
Falha ao resolver dinamicamente a função "<functionName>" do Registro de Funções de IA.
AI_FUNCTION_UNSUPPORTED_ERROR
Não há suporte para a função <funcName> no ambiente atual. Ele só está disponível no Databricks SQL Pro e sem servidor.
AI_FUNCTION_UNSUPPORTED_REQUEST
Falha ao avaliar a função SQL "<functionName>" porque o argumento <invalidValue> fornecido tem "<invalidDataType>", mas somente os seguintes tipos têm suporte: <supportedDataTypes>. Atualize a chamada de função para fornecer um argumento do tipo de cadeia de caracteres e tente novamente a consulta.
AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT
Formato de resposta sem suporte encontrado.
Para obter mais detalhes, consulte AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT
AI_FUNCTION_UNSUPPORTED_RETURN_TYPE
Função de IA: "<functionName>" não dá suporte ao seguinte tipo como tipo de retorno: "<typeName>". O tipo de retorno deve ser um tipo SQL válido compreendido pelo Catalyst e compatível com a função de IA. Os tipos atuais com suporte incluem: <supportedValues>
AI_INVALID_ARGUMENT_VALUE_ERROR
O valor fornecido "<argValue>" não é suportado pelo argumento "<argName>". Os valores com suporte são: <supportedValues>
AI_QUERY_ENDPOINT_NOT_SUPPORT_STRUCTURED_OUTPUT
O tipo de tarefa do ponto de extremidade de serviço deveria ser “Chat” para suporte de saída estruturada, mas encontrou "<taskType>" para o ponto de extremidade "<endpointName>".
AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH
Não há suporte para "<sqlExpr>" fornecido pelo argumento returnType.
AI_SEARCH_CONFLICTING_QUERY_PARAM_SUPPLY_ERROR
Parâmetros conflitantes detectados para a vector_search função SQL: <conflictParamNames>.<hint>
AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR
vector_search Não há suporte para a função SQL com o tipo <embeddingColumnType> de coluna de inserção.
AI_SEARCH_EMPTY_QUERY_PARAM_ERROR
vector_search A função SQL não tem um parâmetro de entrada de consulta, especifique pelo menos um de: <parameterNames>.
AI_SEARCH_HYBRID_QUERY_PARAM_DEPRECATION_ERROR
O parâmetro query da função SQL vector_search não é suportado para pesquisa vetorial hybrid. Use query_text em seu lugar.
AI_SEARCH_HYBRID_TEXT_NOT_FOUND_ERROR
Texto de consulta não encontrado na função SQL vector_search para pesquisa vetorial hybrid. Forneça query_text.
AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR
vector_search Não há suporte para a função SQL com tipo <indexType> de índice.
AI_SEARCH_MISSING_EMBEDDING_INPUT_ERROR
query_vector deve ser especificado para o índice <indexName> porque não está associado a um endpoint de modelo de incorporação.
AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR
Falha ao materializar a consulta de função SQL vector_search do tipo spark <dataType> para objetos scala-native durante a codificação de solicitação com erro: <errorMessage>.
AI_SEARCH_QUERY_TYPE_UNSUPPORTED_ERROR
vector_search Não há suporte para a função SQL com tipo <unexpectedQueryType> de consulta. Por favor, especifique um dos seguintes: <supportedQueryTypes>.
AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR
vector_search Função SQL com num_results maior do que <maxLimit> não há suporte. O limite especificado foi <requestedLimit>. Tente novamente com num_results <= <maxLimit>
AI_TOP_DRIVERS_PARAM_OUT_OF_RANGE
O ai_top_drivers parâmetro <param> deve estar entre <lo> e <hi>.
AI_TOP_DRIVERS_UNSUPPORTED_AGGREGATION_TYPE
ai_top_drivers não dá suporte à agregação <aggName> . Escolha uma das seguintes agregações com suporte: <allowed>.
AI_TOP_DRIVERS_UNSUPPORTED_DIMENSION_TYPE
ai_top_drivers não oferece suporte a colunas de dimensão numéricas, de mapa ou de estrutura. A coluna <colName> tem o tipo <dataType>. Remova essa dimensão ou converta-a para um tipo compatível.
AI_TOP_DRIVERS_UNSUPPORTED_LABEL_TYPE
ai_top_drivers requer que o tipo de coluna de rótulo seja booliano. A coluna <colName> tem o tipo <dataType>. Altere a coluna de rótulo ou converta-a para um tipo compatível.
AI_TOP_DRIVERS_UNSUPPORTED_METRIC_TYPE
ai_top_drivers requer que o tipo de coluna de métrica seja numérico. A coluna <colName> tem o tipo <dataType>. Altere a coluna de métrica ou converta-a para um tipo compatível.
ALL_PARAMETERS_MUST_BE_NAMED
Usar consultas com parâmetros de nome requer que todos os parâmetros sejam nomeados. Parâmetros com nomes ausentes: <exprs>.
ALL_PARTITION_COLUMNS_NOT_ALLOWED
Não é possível usar todas as colunas das colunas de partição.
ALTER_SCHEDULE_DOES_NOT_EXIST
Não é possível alterar <scheduleType> em uma tabela sem um agendamento ou gatilho existente. Adicione um agendamento ou gatilho à tabela antes de tentar alterá-la.
ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
ALTER TABLE <type> A coluna <columnName> especifica o descritor "<optionName>" mais de uma vez, que é inválido.
AMBIGUOUS_ALIAS_IN_NESTED_CTE
O nome <name> é ambíguo em CTE aninhado.
Defina <config> como "CORRECTED" para que o nome definido no CTE interno tenha precedência. Se defini-lo como "LEGACY", as definições de CTE externa terão precedência.
Consulte "https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine".
AMBIGUOUS_COLUMN_OR_FIELD
A coluna ou o campo <name> é ambíguo e possui <n> correspondências.
AMBIGUOUS_COLUMN_REFERENCE
A coluna <name> é ambígua. Isso ocorre porque você juntou vários DataFrame e alguns desses DataFrames são os mesmos.
Esta coluna aponta para um dos DataFrames, mas o Spark não consegue descobrir qual deles.
Atribua nomes alternativos aos DataFrames usando DataFrame.alias antes de ingressá-los,
e especifique a coluna usando o nome qualificado, por exemplo, df.alias("a").join(df.alias("b"), col("a.id") > col("b.id")).
AMBIGUOUS_CONSTRAINT
Referência ambígua à restrição <constraint>.
AMBIGUOUS_LATERAL_COLUMN_ALIAS
O alias de coluna lateral <name> é ambíguo e tem <n> correspondências.
AMBIGUOUS_REFERENCE
A referência <name> é ambígua, pode ser: <referenceNames>.
AMBIGUOUS_REFERENCE_TO_FIELDS
Referência ambígua ao campo <field>. Aparece <count> vezes no esquema.
ANALYZE_CONSTRAINTS_NOT_SUPPORTED
Não há suporte para ANALYZE CONSTRAINTS.
ANALYZE_TABLE_COMPUTE_STORAGE_METRICS_NOT_SUPPORTED
Não há suporte para ANALYZE TABLE COMPUTE STORAGE METRICS. Entre em contato com sua equipe de suporte do Databricks para registrar esse workspace.
ANSI_CONFIG_CANNOT_BE_DISABLED
A configuração <config> do SQL ANSI não pode ser desabilitada neste produto.
APPEND_ONCE_FROM_BATCH_QUERY
Use o operador stream().
A criação de uma tabela de streaming de uma consulta em lote impede o carregamento incremental de novos dados da origem. Tabela ofensiva: '<table>'.
Exemplo de uso:
CREATE STREAMING TABLE <target table name>
...
AS SELECT
...
FROM stream(<source table name>) ...
APPROX_TOP_K_INVALID_NUM_OF_ARGUMENTS
approx_top_k espera de 1 a 3 argumentos, mas tem <argNum>.
APPROX_TOP_K_MAX_ITEMS_TRACKED_EXCEEDS_LIMIT
Os itens máximos rastreados maxItemsTracked(<maxItemsTracked>) approx_top_k devem ser menores ou iguais a <limit>.
APPROX_TOP_K_MAX_ITEMS_TRACKED_LESS_THAN_K
Os itens máximos rastreados maxItemsTracked(<maxItemsTracked>) approx_top_k devem ser maiores ou iguais a k(<k>).
APPROX_TOP_K_NON_POSITIVE_ARG
O valor de <argName> in approx_top_k deve ser um inteiro positivo, mas tem <argValue>.
APPROX_TOP_K_NULL_ARG
O valor de <argName> in approx_top_k não pode ser NULL.
APPROX_TOP_K_SKETCH_SIZE_NOT_MATCH
Não é permitido combinar approx_top_k esboços de tamanhos diferentes. Esboços encontrados de tamanho <size1> e <size2>.
APPROX_TOP_K_SKETCH_TYPE_NOT_MATCH
Não é permitido combinar approx_top_k esboços de tipos diferentes. Esboços encontrados do tipo <type1> e <type2>.
AQE_THREAD_INTERRUPTED
A fila do AQE é interrompida, provavelmente devido ao cancelamento da consulta pelo usuário.
ARGUMENT_NOT_CONSTANT
A função <functionName> inclui um parâmetro <parameterName> na posição <pos> que requer um argumento constante. Compute o argumento <sqlExpr> separadamente e passe o resultado como uma constante.
ARITHMETIC_OVERFLOW
<message>.
<alternative> Se necessário definido <config> como "false" para ignorar esse erro.
Para obter mais detalhes , consulte ARITHMETIC_OVERFLOW
ARROW_TYPE_MISMATCH
Esquema inválido de <operation>: esperado <outputTypes>, recebido <actualDataTypes>.
ARTIFACT_ALREADY_EXISTS
O artefato <normalizedRemoteRelativePath> já existe. Escolha um nome diferente para o novo artefato porque ele não pode ser substituído.
ASSIGNMENT_ARITY_MISMATCH
O número de colunas ou variáveis atribuídas ou com apelidos: <numTarget> não corresponde ao número de expressões de origem: <numExpr>.
AS_OF_JOIN
Junção a partir da data inválida.
Para mais detalhes, consulte AS_OF_JOIN
ATTEMPT_ANALYSIS_IN_PIPELINE_QUERY_FUNCTION
As operações que disparam a análise ou a execução do DataFrame não são permitidas em funções de consulta de pipeline. Mova o código para fora da função de consulta de pipeline.
AUTOCOMMIT_BEGIN_TRANSACTION_DURING_AUTOCOMMIT_TRANSACTION
Não é possível iniciar uma nova transação enquanto uma transação implícita iniciada por SET AUTOCOMMIT=FALSE ela estiver ativa.
COMMIT ou ROLLBACK a transação atual primeiro e SET AUTOCOMMIT=TRUE antes de iniciar uma nova transação.
AUTOCOMMIT_NOT_SUPPORTED
O AUTOCOMMIT recurso de modo está atualmente em desenvolvimento e ainda não tem suporte no Databricks.
AUTOCOMMIT_OLD_SQL_EDITOR_NOT_SUPPORTED
AUTOCOMMIT não pode ser acessado ou modificado no Editor de SQL herdado. Alterne para o novo Editor de SQL (<docLink>) ou use um notebook conectado a um databricks SQL warehouse.
AUTOCOMMIT_ONLY_SUPPORTED_IN_DBSQL
AUTOCOMMIT só pode ser acessado ou modificado em databricks SQL warehouses.
AUTOCOMMIT_SET_DURING_ACTIVE_TRANSACTION
SET AUTOCOMMIT não é permitido durante uma transação ativa. Confirmar ou reverter primeiro.
AUTOCOMMIT_SET_FALSE_ALREADY_DISABLED
SET AUTOCOMMIT=FALSE não é permitido quando AUTOCOMMIT já está desabilitado. Essa restrição evita confusão e mantém os limites da transação limpos.
AUTOCOMMIT_SET_TRUE_DURING_AUTOCOMMIT_TRANSACTION
SET AUTOCOMMIT=TRUE não é permitido depois que as instruções são executadas em uma transação implícita iniciada por SET AUTOCOMMIT=FALSE. Ele só é permitido imediatamente após SET AUTOCOMMIT=FALSE (antes de qualquer instrução) ou depois COMMIT ou ROLLBACK.
AUTO_TTL_COLUMN_NOT_FOUND
Esquema de tabela inválido para TTL Automático. A coluna <column> TTL automática não pode ser encontrada.
AUTO_TTL_COLUMN_TYPE_NOT_SUPPORTED
A coluna <column> TTL automática tem um tipo <type> inválido. O tipo de coluna tem que ser um dos TIMESTAMP, TIMESTAMP_NTZ, ou DATE.
AUTO_TTL_FEATURE_NOT_ENABLED
Entre em contato com o representante do Databricks para habilitar o recurso TTL Automático.
AUTO_TTL_INCOMPLETE_SETTING
Para definir o Auto-TTL em uma tabela, ambas as propriedades autottl.timestampColumn da tabela e autottl.expireInDays são necessárias, mas <missing> está ausente.
AUTO_TTL_INVALID_COLUMN_CHANGE
A coluna <column> não pode ser <operation> , pois é usada na definição de TTL Automático.
AUTO_TTL_NOT_SUPPORT_SHALLOW_CLONES
Não há suporte para TTL automático em tabelas de clone superficial.
AUTO_TTL_NOT_SUPPORT_TABLES_HAVING_SHALLOW_CLONES
Não há suporte para TTL automático em tabelas que têm clones rasos.
AUTO_TTL_REQUIRES_PREDICTIVE_OPTIMIZATION
A TTL Automática requer que a Otimização Preditiva seja habilitada.
AUTO_TTL_REQUIRES_UC_MANAGED_TABLE
O TTL automático só tem suporte em tabelas gerenciadas por UC.
AVRO_CANNOT_WRITE_NULL_FIELD
Não é possível gravar o valor nulo para o campo <name> definido como tipo <dataType>de dados Avro não nulo.
Para permitir o valor nulo para esse campo, especifique seu esquema Avro como um tipo de união com "nulo", usando a opção avroSchema.
AVRO_DEFAULT_VALUES_UNSUPPORTED
Não há suporte para o uso de valores padrão quandorescuedDataColumn está habilitado. Você pode remover essa verificação definindo spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue como false, mas os valores padrão não serão aplicados e valores nulos ainda serão usados.
AVRO_INCOMPATIBLE_READ_TYPE
Não é possível converter o Avro <avroPath> em SQL <sqlPath> porque o tipo de dados codificado original é <avroType>, no entanto, você está tentando ler o campo como <sqlType>, o que levaria a uma resposta incorreta.
Para permitir a leitura desse campo, habilite a configuração do SQL: “spark.sql.legacy.avro.allowIncompatibleSchema”.
AVRO_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE
Não é possível chamar a <functionName> função SQL porque a fonte de dados do Avro não está carregada.
Reinicie seu trabalho ou sessão com o pacote 'spark-avro' carregado, como usando o argumento --packages na linha de comando e tente novamente sua consulta ou comando novamente.
AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED
Não há suporte para o uso da correspondência de campo posicional quando rescuedDataColumn ou failOnUnknownFields estiver habilitado. Remova essas opções para continuar.
AZURE_INVALID_CREDENTIALS_CONFIGURATION
As credenciais ou o provedor de chaves do Azure estão configurados incorretamente. Motivo: <causedBy>.
BATCH_METADATA_NOT_FOUND
Não é possível localizar o lote <batchMetadataFile>.
BIGQUERY_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
Falha na validação das opções da fonte de dados do BigQuery.
Para obter mais detalhes , consulte BIGQUERY_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE
As credenciais de conexão do BigQuery devem ser especificadas com o parâmetro 'GoogleServiceAccountKeyJson' ou com todos os parâmetros 'projectId', 'OAuthServiceAcctEmail' e 'OAuthPvtKey'.
BINARY_ARITHMETIC_OVERFLOW
<value1> <symbol> <value2> causou transbordamento. Use <functionName> para ignorar o problema de estouro e retornar NULL.
BUILT_IN_CATALOG
<operation> não dá suporte a catálogos internos.
CALL_ON_STREAMING_DATASET_UNSUPPORTED
O método <methodName> não pode ser chamado em um Dataset/DataFrame de streaming.
CANNOT_ALTER_COLLATION_BUCKET_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN não pode alterar a ordenação de tipos/subtipos de colunas de bucket, mas encontrou a coluna bucket <columnName> na tabela <tableName>.
CANNOT_ALTER_PARTITION_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN não há suporte para colunas de partição, mas encontrou a coluna <columnName> de partição na tabela <tableName>.
CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK
A marca d'água precisa ser definida para reatribuir a coluna de hora do evento. Falha ao localizar a definição de marca d'água na consulta de streaming.
CANNOT_CAST_DATATYPE
Não é possível converter <sourceType> em <targetType>.
CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE
Não é possível converter Protobuf <protobufColumn> em SQL <sqlColumn> porque o esquema é incompatível (protobufType = <protobufType>, sqlType = <sqlType>).
CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE
Não é possível converter <protobufType> de Protobuf para tipo SQL <toType>.
CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE
Não é possível converter SQL <sqlColumn> em Protobuf <protobufColumn> porque o esquema é incompatível (protobufType = <protobufType>, sqlType = <sqlType>).
CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE
Não é possível converter SQL <sqlColumn> em Protobuf <protobufColumn> porque <data> não está em valores definidos para enumeração: <enumString>.
CANNOT_COPY_STATE
Não é possível copiar o estado do catálogo, incluindo o banco de dados atual e as visualizações temporárias do Catálogo do Unity, para um catálogo herdado.
CANNOT_CREATE_DATA_SOURCE_TABLE
Falha ao criar a tabela de fonte de dados <tableName>:
Para obter mais detalhes, consulte CANNOT_CREATE_DATA_SOURCE_TABLE
CANNOT_DECODE_URL
A URL fornecida não pode ser decodificada: <url>. Verifique se a URL está formatada corretamente e tente novamente.
CANNOT_DELETE_SYSTEM_OWNED
Não é possível excluir um <resourceType> pertencente ao sistema.
CANNOT_DROP_AMBIGUOUS_CONSTRAINT
Não é possível descartar a restrição com o nome <constraintName>, que é compartilhado por uma restrição CHECK.
e uma restrição PRIMARY KEY ou FOREIGN KEY. Você pode remover o PRIMARY KEY ou
FOREIGN KEY restrição por consultas:
ALTER TABLE ..
DROP PRIMARY KEY ou
ALTER TABLE ..
DROP FOREIGN KEY ..
NÃO PODE EXCLUIR TABELA BASE REFERENCIADA POR CLONE SUPERFICIAL
Não é possível descartar a tabela <baseTable> porque ela é referenciada por um ou mais clones rasos): <cloneList>.
DROP todos os clones superficiais antes de descartar a tabela base. Se isso não for possível, considere usar 'DROP TABLE...FORCE' para remover a tabela com força.
WARNING: isso interromperá imediatamente todas as referências de clone superficial existentes e as tornará inutilizáveis.
CANNOT_ESTABLISH_CONNECTION
Não é possível estabelecer conexão com o banco de dados remoto <jdbcDialectName> . Verifique as informações de conexão e as credenciais, por exemplo, as opções de host, porta, usuário, senha e banco de dados. Se você acredita que as informações estão corretas, verifique a configuração de rede do workspace e certifique-se de que ela não tem restrições de saída para o host. Verifique também se o host não bloqueia conexões de entrada da rede em que os clusters Spark do workspace são implantados. ** Mensagem de erro detalhada: <causeErrorMessage>.
CANNOT_ESTABLISH_CONNECTION_SERVERLESS
Não é possível estabelecer conexão com o banco de dados remoto <jdbcDialectName> . Verifique as informações de conexão e as credenciais, por exemplo, as opções de host, porta, usuário, senha e banco de dados. ** Se você acredita que as informações estão corretas, permita o tráfego de entrada da Internet para o host, pois você está usando a Computação sem servidor. Se as políticas de rede não permitirem o tráfego de entrada na Internet, use computação sem servidor ou entre em contato com o representante do Databricks para saber mais sobre a Rede Privada sem Servidor. ** Mensagem de erro detalhada: <causeErrorMessage>.
CANNOT_ESTABLISH_CONNECTION_TO_HOST
Não é possível estabelecer <protocol> conexão com <host>. Verifique a configuração de rede do workspace e verifique se ele não tem restrições de saída para o host. Verifique também se o host não bloqueia conexões de entrada da rede em que os clusters do workspace são implantados.
CANNOT_INVOKE_IN_TRANSFORMATIONS
As transformações e as ações do conjunto de dados só podem ser invocadas pelo driver, não dentro de outras transformações de conjunto de dados; por exemplo, dataset1.map(x => dataset2.values.count() * x) é inválido porque a transformação de valores e a ação de contagem não podem ser executadas dentro da transformação dataset1.map. Para obter mais informações, consulte SPARK-28702.
CANNOT_LOAD_CHECKPOINT_FILE_MANAGER
Erro ao carregar o gerenciador de arquivos de ponto de verificação de streaming para path=<path>.
Para obter mais detalhes , consulte CANNOT_LOAD_CHECKPOINT_FILE_MANAGER
CANNOT_LOAD_FUNCTION_CLASS
Não é possível carregar a classe <className> ao registrar a função <functionName>, verifique se ela está no classpath.
CANNOT_LOAD_PROTOBUF_CLASS
Não foi possível carregar a classe Protobuf com o nome <protobufClassName>.
<explanation>.
CANNOT_LOAD_STATE_STORE
Ocorreu um erro durante o estado de carregamento.
Para obter mais detalhes , consulte CANNOT_LOAD_STATE_STORE
CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE
Falha ao mesclar tipos <left> de dados incompatíveis e <right>. Verifique os tipos de dados das colunas que estão sendo mescladas e verifique se elas são compatíveis. Se necessário, considere converter as colunas em tipos de dados compatíveis antes de tentar a mesclagem.
CANNOT_MERGE_SCHEMAS
Esquemas de mesclagem com falha:
Esquema inicial:
<left>
Esquema que não pode ser mesclado com o esquema inicial:
<right>.
CANNOT_MODIFY_CONFIG
Não é possível modificar o valor da configuração do Spark: <key>.
Consulte também 'https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements'.
CANNOT_MODIFY_STATIC_CONFIG
Não é possível modificar o valor da configuração do Spark estático: <key>.
CANNOT_PARSE_DECIMAL
Não é possível analisar decimal. Verifique se a entrada é um número válido com separadores de vírgulas ou ponto decimal opcionais.
CANNOT_PARSE_INTERVAL
Não é possível analisar <intervalString>. Verifique se o valor fornecido está em um formato válido para definir um intervalo. Você pode referenciar a documentação para o formato correto. Se o problema persistir, verifique se o valor de entrada não está nulo ou vazio e tente novamente.
CANNOT_PARSE_JSON_FIELD
Não é possível analisar o nome <fieldName> do campo e o valor <fieldValue> do tipo <jsonType> de token para o tipo <dataType>de JSON dados spark de destino.
CANNOT_PARSE_PROTOBUF_DESCRIPTOR
Erro ao analisar os bytes do descritor em Protobuf FileDescriptorSet.
CANNOT_PARSE_TIME
A cadeia de caracteres de entrada <input> não pode ser analisada como um valor de hora porque não corresponde ao formato de data e hora <format>.
CANNOT_PARSE_TIMESTAMP
<message>. Use <func> para tolerar uma sequência de entrada inválida e retornar NULL.
CANNOT_QUERY_TABLE_DURING_INITIALIZATION
Não é possível consultar MV/ST durante a inicialização.
Para obter mais detalhes, consulte CANNOT_QUERY_TABLE_DURING_INITIALIZATION
CANNOT_READ_ARCHIVED_FILE
Não é possível ler o arquivo no caminho <path> porque ele foi arquivado. Ajuste os filtros de consulta para excluir arquivos arquivados.
CANNOT_READ_FILE
Não é possível ler o arquivo <format> no caminho: <path>.
Para obter mais detalhes , consulte CANNOT_READ_FILE
CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER
Não é possível ler a chave confidencial '<key>' do provedor seguro.
CANNOT_RECOGNIZE_HIVE_TYPE
Não é possível reconhecer a cadeia de caracteres do tipo hive: <fieldType>, coluna: <fieldName>. O tipo de dados especificado para o campo não pode ser reconhecido pelo SPARK SQL. Verifique o tipo de dados do campo especificado e verifique se ele é um tipo de dados SQL do Spark válido. Consulte a documentação do SQL do Spark para obter uma lista de tipos de dados válidos e seu formato. Se o tipo de dados estiver correto, verifique se você está usando uma versão com suporte do Spark SQL.
CANNOT_REFERENCE_UC_IN_HMS
Não é possível referenciar um Unity Catalog <objType> em objetos de metastore do Hive.
CANNOT_REMOVE_RESERVED_PROPERTY
Não é possível remover a propriedade reservada: <property>.
CANNOT_RENAME_ACROSS_CATALOG
Não é permitido renomear um <type> entre catálogos.
CANNOT_RENAME_ACROSS_SCHEMA
Renomear um <type> entre diferentes esquemas não é permitido.
CANNOT_RESOLVE_DATAFRAME_COLUMN
Não é possível resolver a coluna <name>de dataframe. Provavelmente é por causa de referências ilegais como df1.select(df2.col("a")).
CANNOT_RESOLVE_STAR_EXPAND
Não é possível resolver as <targetString>.* colunas de entrada fornecidas <columns>. Verifique se a tabela ou struct especificado existe e se está acessível nas colunas de entrada.
CANNOT_RESTORE_PERMISSIONS_FOR_PATH
Falha ao definir permissões no caminho criado <path> de volta para <permission>.
CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS
Não é possível armazenar tabelas de clones rasos no Unity Catalog e no metastore do Hive.
CANNOT_SHALLOW_CLONE_AUTO_TTL
Não é possível clonar superficialmente uma tabela <table> que tenha o TTL Automático habilitado.
CANNOT_SHALLOW_CLONE_NESTED
Não é possível armazenar uma tabela <table> de clone raso que já é um clone raso.
CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET
O clone raso só tem suporte para o tipo de tabela MANAGED. A tabela <table> não é MANAGED tabela.
CANNOT_UPDATE_FIELD
Não é possível atualizar o campo <table> tipo <fieldName> :
Para obter mais detalhes , consulte CANNOT_UPDATE_FIELD
CANNOT_UPDATE_PARTITION_COLUMNS
O particionamento <requestedPartitionColumns> declarado entra em conflito com o particionamento da tabela existente <existingPartitionColumns>.
Exclua a tabela ou altere o particionamento declarado para corresponder às partições.
CANNOT_UP_CAST_DATATYPE
Não é possível converter <expression> de <sourceType> para <targetType>.
<details>
CANNOT_USE_KRYO
Não é possível carregar o codec de serialização do Kryo. A serialização do Kryo não pode ser usada no cliente spark connect. Use a serialização java, forneça um Codec personalizado ou use o Spark Classic.
CANNOT_USE_MULTI_ALIASES_IN_WATERMARK_CLAUSE
Não há suporte para vários aliases na cláusula watermark.
NÃO_PODE_USAR_NOME_DE_PROVEDOR_DE_STREAMING_RESERVADO
Não é possível usar o nome do provedor de streaming reservado: <providerName>.
CANNOT_VALIDATE_CONNECTION
Não há suporte para a validação da <jdbcDialectName> conexão. Entre em contato com o suporte do Databricks para soluções alternativas ou defina "spark.databricks.testConnectionBeforeCreation" como "false" para ignorar o teste de conexão antes de criar um objeto de conexão.
CANNOT_WRITE_STATE_STORE
Erro ao gravar arquivos do repositório de estado para o provedor <providerClass>.
Para obter mais detalhes, consulte CANNOT_WRITE_STATE_STORE
CAST_INVALID_INPUT
O valor <expression> do tipo <sourceType> não pode ser convertido <targetType> porque está malformado. Corrija o valor de acordo com a sintaxe ou altere seu tipo de destino. Use try_cast para tolerar entradas malformadas e retornar NULL.
Para obter mais detalhes, consulte CAST_INVALID_INPUT
CAST_OVERFLOW
O valor <value> do tipo <sourceType> não pode ser convertido em <targetType> devido a um estouro. Use try_cast para tolerar estouro e retornar NULL.
CAST_OVERFLOW_IN_TABLE_INSERT
Falha ao atribuir um valor de tipo <sourceType> à coluna de tipo <targetType> ou variável de tipo <columnName> devido a um estouro. Use try_cast no valor de entrada para tolerar o estouro e retornar NULL.
CATALOG_CONVERSION_FOREIGN_ENTITY_PRESENT
Falha na conversão de catálogo de UC Foreign para UC Standard porque o catálogo contém entidades estrangeiras (até 10 são mostradas aqui): <entityNames>. Para ver a lista completa de entidades estrangeiras neste catálogo, consulte os scripts na documentação do comando 'ALTER CATALOG DROP CONNECTION'.
CATALOG_CONVERSION_UNSUPPORTED_CATALOG_TYPE
O catálogo não pode ser convertido de UC Foreign para UC Standard. Somente <convertableCatalogTypes> catálogos de UC estrangeiros podem ser convertidos em UC Standard.
CATALOG_NOT_FOUND
O catálogo <catalogName> não encontrado. Considere definir a configuração do SQL <config> para um plug-in de catálogo.
CATALOG_OWNED_TABLE_CREATION_NOT_ALLOWED
Não é permitido criar tabelas Delta com o recurso de tabela <feature>. Entre em contato com o suporte do Databricks.
CHECKPOINT_DIR_NOT_SET
O diretório de ponto de verificação não foi definido no SparkContext.
Por favor, defina-o com SparkContext.setCheckpointDir().
CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND
Bloco de ponto de verificação <rddBlockId> não encontrado!
O executor que originalmente marcou o ponto de verificação dessa partição não está mais vivo ou o RDD original não é persistente.
Se esse problema persistir, você poderá considerar o uso do rdd.checkpoint(), que é mais lento do que o checkpoint local, mas mais tolerante a falhas.
violação de restrição de verificação
CHECK restrição <constraintName> <expression> violada por linha com valores:
<values>
CIRCULAR_CLASS_REFERENCE
Não é possível ter referências circulares na classe, mas obtém a referência circular da classe <t>.
CLASS_NOT_OVERRIDE_EXPECTED_METHOD
<className> deve substituir um <method1> ou <method2>.
CLASS_UNSUPPORTED_BY_MAP_OBJECTS
MapObjects não dá suporte à classe <cls> como coleção resultante.
CLEANROOM_COMMANDS_NOT_SUPPORTED
Não há suporte para comandos de Sala Limpa
CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME
Nome inválido para fazer referência a um <type> dentro de uma Sala Limpa. Use um nome de <type> dentro da sala limpa seguindo o formato de [catalog].[schema].[<type>].
Se você não tiver certeza sobre qual nome usar, poderá executar "SHOW ALL IN CLEANROOM [clean_room]" e usar o valor na coluna "name".
CLONING_WITH_HISTORY_INVALID_OPTION
A clonagem com histórico é especificada com uma opção inválida: <invalidOption>.
Sintaxe válida: CREATE (OR REPLACE) TABLE ... PROFUNDO CLONE...WITH HISTORY.
CLONING_WITH_HISTORY_UNSUPPORTED
Não há suporte para clonagem com histórico.
CLOUD_FILE_ALREADY_EXISTS
O arquivo de nuvem já existe. Motivo: <causedBy>.
CLOUD_FILE_NOT_FOUND
O arquivo de nuvem não foi encontrado. Motivo: <causedBy>.
CLOUD_FILE_SOURCE_FILE_NOT_FOUND
Uma notificação de arquivo foi recebida para o arquivo, <filePath> mas ela não existe mais. Verifique se os arquivos não são excluídos antes de serem processados. Para continuar seu fluxo, você pode definir a configuração <config> do SQL do Spark como verdadeira.
CLOUD_PROVIDER_ERROR
Erro do provedor de nuvem: <message>
CLUSTERING_COLUMNS_MISMATCH
O clustering especificado não corresponde ao da tabela <tableName>existente.
Colunas de clustering especificadas: [<specifiedClusteringString>].
Colunas de clustering existentes: [<existingClusteringString>].
CLUSTERING_NOT_SUPPORTED
'<operation>' não dá suporte ao clustering.
CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED
Entre em contato com o representante do Databricks para habilitar o recurso cluster por automático.
CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED
Habilite clusteringTable.enableClusteringTableFeature para usar CLUSTER BY AUTO.
CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION
CLUSTER BY AUTO requer que a Otimização Preditiva seja habilitada.
CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR
CLUSTER BY O AUTO só tem suporte em tabelas gerenciadas por UC.
CODEC_NOT_AVAILABLE
O codec <codecName> não está disponível.
Para obter mais detalhes , consulte CODEC_NOT_AVAILABLE
CODEC_SHORT_NAME_NOT_FOUND
Não é possível localizar um nome curto para o codec <codecName>.
COLLATION_INVALID_NAME
O valor <collationName> não representa um nome de ordenação correto. Nomes de ordenação válidos sugeridos: [<proposals>].
COLLATION_INVALID_PROVIDER
O valor <provider> não representa um provedor de ordenação correto. Os provedores com suporte são: [<supportedProviders>].
COLLATION_MISMATCH
Não foi possível determinar qual ordenação usar para operadores e funções de cadeia de caracteres.
Para obter mais detalhes , consulte COLLATION_MISMATCH
COLLECTION_SIZE_LIMIT_EXCEEDED
Não é possível criar matriz com <numberOfElements> elementos que excedem o limite <maxRoundedArrayLength>de tamanho da matriz,
Para obter mais detalhes, consulte COLLECTION_SIZE_LIMIT_EXCEEDED
COLUMN_ALIASES_NOT_ALLOWED
Aliases de coluna não são permitidos em <op>.
COLUMN_ALREADY_EXISTS
A coluna <columnName> já existe. Escolha outro nome ou renomeie a coluna existente.
COLUMN_ARRAY_ELEMENT_TYPE_MISMATCH
Alguns valores no campo <pos> são incompatíveis com o tipo de matriz de coluna. Tipo esperado <type>.
COLUMN_MASKS_ABAC_MISMATCH
As máscaras de coluna não puderam ser resolvidas no <tableName> porque havia uma incompatibilidade entre máscaras de coluna herdadas de políticas e máscaras de coluna definidas explicitamente. Para continuar, desabilite o ABAC (Controle de Acesso Baseado em Atributo) e entre em contato com o suporte do Databricks.
COLUMN_MASKS_CHECK_CONSTRAINT_NÃO_SUPORTADO
Não há suporte para a criação da restrição CHECK na tabela <tableName> com políticas de máscara de coluna.
COLUMN_MASKS_DUPLICATE_USING_COLUMN_NAME
Uma instrução <statementType> tentou atribuir uma política de máscara de coluna a uma coluna que incluía duas ou mais colunas na lista USING COLUMNS referenciadas com o mesmo nome <columnName>, o que é inválido.
COLUMN_MASKS_RECURSO_NÃO_SUPORTADO
Não há suporte para políticas de máscara de coluna para <tableName>:
Para obter mais detalhes, consulte COLUMN_MASKS_FEATURE_NOT_SUPPORTED
COLUMN_MASKS_ALTERAÇÃO_DE_ESQUEMA_INCOMPATÍVEL
Não é possível <statementType> <columnName> da tabela <tableName> porque ela é referenciada em uma política de máscara de coluna para coluna <maskedColumn>. O proprietário da tabela deve remover ou alterar essa política antes de continuar.
COLUMN_MASKS_FUSÃO_FONTE_NÃO_SUPORTADA
Operações MERGE INTO não dão suporte a políticas de máscara de coluna na tabela de origem <tableName>.
COLUMN_MASKS_MESCLAR_ALVO_NÃO_SUPORTADO
Operações MERGE INTO não dão suporte à gravação na tabela <tableName> com políticas de máscara de coluna.
COLUMN_MASKS_MULTI_PART_TARGET_COLUMN_NAME
Essa instrução tentou atribuir uma política de máscara de coluna a uma coluna <columnName> com várias partes do nome, o que é inválido.
COLUMN_MASKS_MULTI_PARTE_USANDO_NOME_DA_COLUNA
Esse comando tentou atribuir uma política de máscara de coluna a uma coluna e a lista USING COLUMNS incluiu o nome <columnName> com várias partes do nome, o que é inválido.
COLUMN_MASKS_NAO_HABILITADO
O suporte para definir máscaras de coluna não está habilitado
COLUMN_MASKS_REQUIRE_UNITY_CATALOG
As políticas de máscara de coluna só têm suporte no Catálogo do Unity.
COLUMN_MASKS_SECONDARY_INDEX_CREATION_UNSUPPORTED
Não é possível criar um índice ON TABLE <tableName> secundário porque a tabela tem políticas de máscara de coluna definidas.
COLUMN_MASKS_EXIBIR_PARTIÇÕES_NÃO_SUPORTADAS
SHOW PARTITIONS não há suporte para o comando para<format> tabelas com máscaras de coluna.
COLUMN_MASKS_TABELA_CLONE_FONTE_NÃO_SUPORTADA
<mode> não há suporte para clonar da tabela <tableName> com políticas de máscara de coluna.
COLUMN_MASKS_ALVO_NÃO_SUPORTADO_CLONAR_TABELA
Não há suporte para clonar <mode> da tabela <tableName> com políticas de máscara de coluna.
COLUMN_MASKS_CONSTANTE_NÃO_SUPORTADA_COMO_PARÂMETRO
Não há suporte para o uso de uma constante como parâmetro em uma política de máscara de coluna. Atualize o comando SQL para remover a constante da definição de máscara de coluna e tente novamente o comando.
COLUMN_MASKS_TIPO_DE_DADOS_NÃO_SUPORTADO
A função <functionName> usada como política de máscara de coluna contém um parâmetro com tipo de dado <dataType> sem suporte.
COLUMN_MASKS_PROVEDOR_NÃO_SUPORTADO
Falha ao executar o comando <statementType> porque não há suporte para a atribuição de políticas de máscara de coluna à fonte de dados de destino com o provedor de tabela: "<provider>".
COLUMN_MASKS_USANDO_NOME_DA_COLUNA_IGUAL_A_COLUNA_DE_DESTINO
A coluna <columnName> tinha o mesmo nome da coluna de destino, que é inválida; remova a coluna da USING COLUMNS lista e repita o comando.
COLUMN_NOT_DEFINED_IN_TABLE
<colType> a coluna <colName> não está definida na tabela <tableName>, as colunas de tabela definidas são: <tableCols>.
COLUMN_NOT_FOUND
A coluna <colName> não pode ser encontrada. Verifique a ortografia e a correção do nome da coluna de acordo com a configuração <caseSensitiveConfig>do SQL.
COLUMN_NOT_FOUND_IN_TABLE
Coluna <columnName> não encontrada na tabela <tableFullName>.
COLUMN_ORDINAL_OUT_OF_BOUNDS
Ordinal de coluna fora dos limites. O número de colunas na tabela é <attributesLength>, mas a coluna ordinal é <ordinal>.
Os atributos são os seguintes: <attributes>.
COMANDO_NÃO_ATIVADO
<command> O comando não está habilitado.
COMMA_PRECEDING_CONSTRAINT_ERROR
‘,’ inesperada antes da definição de restrições. Verifique se a cláusula de restrição não começa com uma vírgula quando colunas (e expectativas) não são definidas.
COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET
O COMMENT ON CONNECTION comando ainda não foi implementado
COMPARATOR_RETURNS_NULL
O comparador retornou um NULL para uma comparação entre <firstValue> e <secondValue>.
Ele deve retornar um inteiro positivo para "maior que", 0 para "igual" e um inteiro negativo para "menor que".
Para reverter para um comportamento preterido em que NULL é tratado como 0 (igual), você deve definir "spark.sql.legacy.allowNullComparisonResultInArraySort" como "true".
COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
Não é possível processar tipos de dados de entrada para a expressão: <expression>.
Para obter mais detalhes, consulte COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
CONCURRENT_QUERY
Outra instância dessa consulta [id: <queryId>] acaba de ser iniciada por uma sessão simultânea [runId existente: <existingQueryRunId> novo runId: <newQueryRunId>].
CONCURRENT_SCHEDULER_INSUFFICIENT_SLOT
O número mínimo de slots gratuitos necessários no cluster é <numTasks>, no entanto, o cluster tem apenas <numSlots> slots gratuitos. A consulta será paralisada ou falhará. Aumente o tamanho do cluster para continuar.
CONCURRENT_STREAM_LOG_UPDATE
Atualização simultânea do log. Vários trabalhos de streaming detectados para <batchId>.
Certifique-se de que apenas um trabalho de streaming seja executado em um local de ponto de verificação específico de cada vez.
CONFIG_NOT_AVAILABLE
A configuração <config> não está disponível.
CONFLICTING_CLUSTER_CONFIGURATION
As seguintes configurações entram em conflito com spark.databricks.streaming.realTimeMode.enabled: <confNames>. Remova essas configurações da configuração do cluster e reinicie o cluster Spark.
CONFLICTING_DIRECTORY_STRUCTURES
Estruturas de diretório conflitantes detectadas.
Caminhos suspeitos:
<discoveredBasePaths>
Se os caminhos fornecidos forem diretórios de partição, defina "basePath" nas opções da fonte de dados para especificar o diretório raiz da tabela.
Se houver vários diretórios raiz, carregue-os separadamente e, em seguida, una-os.
CONFLICTING_PARTITION_COLUMN_NAMES
Nomes de coluna de partição conflitantes detectados:
<distinctPartColLists>
Para diretórios de tabela particionados, os arquivos de dados só devem residir em diretórios folha.
E os diretórios no mesmo nível devem ter o mesmo nome de coluna de partição.
Verifique os seguintes diretórios em busca de arquivos inesperados ou nomes de colunas de partição inconsistentes:
<suspiciousPaths>
CONFLICTING_PARTITION_COLUMN_NAME_WITH_RESERVED
O nome da coluna de partição '<partitionColumnName>' entra em conflito com o nome da coluna reservada.
O esquema de <tableName> é incompatível com o Hive, o Spark gera automaticamente uma coluna reservada '<partitionColumnName>' para armazenar a tabela de uma maneira específica.
Use um nome diferente para a coluna de partição.
CONFLICTING_PROVIDER
O provedor <provider> especificado é inconsistente com o provedor <expectedProvider>de catálogo existente. Use 'USING <expectedProvider>' e repita o comando.
CONFLICTING_SQL_CONFIGURATION
As seguintes configurações entram em conflito com spark.databricks.streaming.realTimeMode.enabled: <confNames>. Remova essas configurações da configuração do SparkSession.
CONNECT
Erro genérico de conector do Spark.
Para obter mais detalhes, consulte CONNECT
CONNECTION_ALREADY_EXISTS
Não é possível criar conexão <connectionName> porque ela já existe.
Escolha um nome diferente, solte ou substitua a conexão existente ou adicione a IF NOT EXISTS cláusula para tolerar conexões pré-existentes.
CONNECTION_NAME_CANNOT_BE_EMPTY
Não é possível executar esse comando porque o nome da conexão deve não estar vazio.
CONNECTION_NOT_FOUND
Não é possível executar esse comando porque o nome <connectionName> da conexão não foi encontrado.
CONNECTION_OPTION_NOT_SUPPORTED
As conexões do tipo '<connectionType>' não dão suporte às seguintes opções: <optionsNotSupported>. Opções com suporte: <allowedOptions>.
CONNECTION_TYPE_NOT_SUPPORTED
Não é possível criar uma conexão do tipo '<connectionType>'. Tipos de conexão com suporte: <allowedTypes>.
TIPO_DE_CONEXÃO_NÃO_SUPORTADO_PARA_INJEÇÃO_DE_OPÇÕES
Não há suporte para conexão com nome <connectionName> e tipo <connectionType> nas opções de dataframe.
CONNECTION_TYPE_NOT_SUPPORTED_FOR_REMOTE_QUERY_FUNCTION
Não há suporte para a conexão com o nome '<connectionName>' do tipo '<connectionType>' para execução da função de consulta remota.
CONNECT_INVALID_PLAN
O plano do Spark Connect é inválido.
Para obter mais detalhes , consulte CONNECT_INVALID_PLAN
CONNECT_SESSION_MIGRATION
Erro de Migração de Sessão Genérica (userId: <userId>, sessionId: <sessionId>, serverSessionId: <serverSessionId>).
Para obter mais detalhes, consulte CONNECT_SESSION_MIGRATION
CONSTRAINTS_REQUIRE_UNITY_CATALOG
As restrições de tabela só têm suporte no Catálogo do Unity.
CONSTRAINT_ALREADY_EXISTS
A restrição '<constraintName>' já existe. Exclua a restrição existente primeiro.
Restrição existente:
<oldConstraint>
CONSTRAINT_ALREADY_EXISTS_IN_SCHEMA
A restrição <constraintName> já existe no banco de dados <schemaName>.
CONSTRAINT_ALREADY_EXISTS_WITH_SERVER_MESSAGE
<serverMessage>
CONSTRAINT_DOES_NOT_EXIST
Não é possível remover a restrição <constraintName> inexistente da tabela <tableName>.
CONVERSION_INVALID_INPUT
O valor <str> (<fmt>) não pode ser convertido <targetType> porque está malformado. Corrija o valor de acordo com a sintaxe ou altere seu formato. Use <suggestion> para tolerar entradas malformadas e retornar NULL.
COPY_INTO_COLUMN_ARITY_MISMATCH
Não é possível gravar no <tableName>, o motivo é
Para obter mais detalhes, consulte COPY_INTO_COLUMN_ARITY_MISMATCH
COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON
Esquema <scheme>inválido. Atualmente, as credenciais de origem COPY INTO são compatíveis apenas com s3/s3n/s3a/wasbs/abfss.
COPY_INTO_CREDENTIALS_REQUIRED
COPY INTO as credenciais de origem devem especificar <keyList>.
COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED
Arquivos duplicados foram confirmados em uma operação simultânea COPY INTO. Tente novamente mais tarde.
COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON
Esquema <scheme>inválido.
COPY INTO A criptografia de origem atualmente só dá suporte a s3/s3n/s3a/abfss.
COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE
COPY INTO A criptografia só dá suporte ao ADLS Gen2 ou abfss:// esquema de arquivos
COPY_INTO_ENCRYPTION_REQUIRED
COPY INTO a criptografia de origem deve especificar '<key>'.
COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED
Opção de <requiredKey>criptografia inválida.
COPY INTO A criptografia de origem deve especificar '<requiredKey>' = '<keyValue>'.
COPY_INTO_FEATURE_INCOMPATIBLE_SETTING
O COPY INTO recurso '<feature>' não é compatível com '<incompatibleSetting>'.
COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED
Um COPY INTO que não seja para acrescentar dados não pode ser executado simultaneamente com outras transações. Tente novamente mais tarde.
COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED
Falha no carregamento do estado de COPY INTO, número máximo de tentativas excedido.
COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE
Uma incompatibilidade de esquema foi detectada durante a cópia para a tabela Delta (Tabela: <table>).
Isso pode indicar um problema com os dados de entrada ou o esquema da tabela Delta pode ser evoluído automaticamente de acordo com os dados de entrada definindo:
COPY_OPTIONS ('mergeSchema' = 'verdadeiro')
Diferença de esquema:
<schemaDiff>
COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED
O formato dos arquivos de origem deve ser um dos arquivos CSV, JSONAVRO, ORC, PARQUETTEXT ou BINARYFILE. Não há suporte para o uso de COPY INTO em tabelas Delta como a origem, pois os dados duplicados podem ser ingeridos após operações OPTIMIZE. Essa verificação pode ser desativada executando o comando set spark.databricks.delta.copyInto.formatCheck.enabled = falseSQL.
COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED
O diretório de origem não continha nenhum arquivo parsable do tipo <format>. Verifique o conteúdo de '<source>'.
O erro pode ser silenciado definindo '<config>' como 'false'.
COPY_INTO_STATE_INTERNAL_ERROR
Ocorreu um erro interno ao processar o estado de COPY INTO.
Para obter mais detalhes, consulte COPY_INTO_STATE_INTERNAL_ERROR
COPY_INTO_SYNTAX_ERROR
Falha ao analisar o COPY INTO comando.
Para obter mais detalhes, consulte COPY_INTO_SYNTAX_ERROR
COPY_INTO_UNSUPPORTED_FEATURE
O COPY INTO recurso '<feature>' não tem suporte.
COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED
Não é possível descarregar dados no formato '<formatType>'. Os formatos com suporte são <connectionType> : <allowedFormats>.
CORRUPTED_CATALOG_FUNCTION
Não é possível converter a função de catálogo '<identifier>' em uma função SQL devido a informações de função corrompidas no catálogo. Se a função não for uma função SQL, verifique se o nome da classe '<className>' é carregável.
CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET
O CREATE FOREIGN SCHEMA comando ainda não foi implementado
CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET
O CREATE FOREIGN TABLE comando ainda não foi implementado
CREATE_OR_REFRESH_MV_NOT_SUPPORTED
CREATE OU REFRESH MATERIALIZED VIEW não há suporte. Em vez disso, use CREATE OR REPLACE MATERIALIZED VIEW .
CREATE_OR_REFRESH_MV_ST_ASYNC
Não é possível realizar CREATE OU REFRESH em modos de exibição materializados ou tabelas de streaming com o ASYNC especificado. Remova ASYNC da instrução CREATE OU REFRESH ou use REFRESH ASYNC para atualizar exibições materializadas existentes ou tabelas de streaming de forma assíncrona.
CREATE_PERMANENT_VIEW_WITHOUT_ALIAS
Não é permitido criar a exibição <name> permanente sem atribuir explicitamente um alias para a expressão <attr>.
CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
CREATE TABLE A coluna <columnName> especifica o descritor "<optionName>" mais de uma vez, que é inválido.
CREATE_VIEW_COLUMN_ARITY_MISMATCH
Não é possível criar exibição <viewName>, o motivo é
Para obter mais detalhes , consulte CREATE_VIEW_COLUMN_ARITY_MISMATCH
CREDENTIAL_MISSING
Forneça credenciais ao criar ou atualizar locais externos.
CREDENTIAL_PURPOSE_MISMATCH
A credencial <credentialName> tem finalidade <actualPurpose> , mas a finalidade fornecida no comando é <expectedPurpose>.
CSV_ENFORCE_SCHEMA_NOT_SUPPORTED
A opção CSV enforceSchema não pode ser definida ao usar rescuedDataColumn ou failOnUnknownFields, já que as colunas são lidas por nome em vez de ordem ordinal.
CYCLIC_FUNCTION_REFERENCE
Referência de função cíclica detectada: <path>.
DATABRICKS_DELTA_NOT_ENABLED
O Databricks Delta não está habilitado em sua conta.<hints>
GRÁFICO_DE_FLUXO_DE_DADOS_NÃO_ENCONTRADO
Grafo de fluxo de dados com id <graphId> não pôde ser encontrado
TIPO_DE_DADO_NÃO_PODE_SER_ORDENADO
O tipo <dataType> não dá suporte a operações ordenadas.
DATATYPE_MISMATCH
Não é possível resolver <sqlExpr> devido à incompatibilidade de tipo de dados:
Para obter mais detalhes , consulte DATATYPE_MISMATCH
DATATYPE_MISSING_SIZE
DataType <type> requer um parâmetro de comprimento, por exemplo <type>(10). Especifique o comprimento.
DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION
Falha na linhagem de gravação: não há relação correspondente com políticas para CLM/RLS.
DATA_SOURCE_ALREADY_EXISTS
A fonte de dados '<provider>' já existe. Escolha um nome diferente para a nova fonte de dados.
DATA_SOURCE_CONNECTION_MISSING_ALLOW_LIST
Não há suporte para a conexão <connectionName> nesse contexto porque ela não tem uma lista de permissões de opções externas configurada. Atualize a conexão para incluir uma .<optionName>
DATA_SOURCE_EXTERNAL_ERROR
Erro encontrado ao salvar na fonte de dados externa.
DATA_SOURCE_NOT_EXIST
Fonte de dados '<provider>' não encontrada. Verifique se a fonte de dados está registrada.
DATA_SOURCE_NOT_FOUND
Falha ao localizar a fonte de dados: <provider>. Verifique se o nome do provedor está correto e se o pacote está corretamente registrado e compatível com sua versão do Spark.
DATA_SOURCE_OPTIONS_VALIDATION_FAILED
A validação das opções da fonte de dados <dataSource> falhou.
Para obter mais detalhes , consulte DATA_SOURCE_OPTIONS_VALIDATION_FAILED
DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS
A opção <option> não deve estar vazia e não deve conter caracteres inválidos, cadeias de caracteres de consulta ou parâmetros.
DATA_SOURCE_OPTION_IS_REQUIRED
A opção <option> é necessária.
DATA_SOURCE_OPTION_NOT_ALLOWED_BY_CONNECTION
A opção <optionName> não é permitida pela conexão <connectionName> e não pode ser fornecida externamente.
DATA_SOURCE_OPTION_VALUE_NOT_VALID
A opção de fonte de dados fornecida '<option>' contém valor inválido ('<value>').
Para obter mais detalhes , consulte DATA_SOURCE_OPTION_VALUE_NOT_VALID
DATA_SOURCE_SYNTAX_ERROR_DURING_QUERY_EXECUTION
O mecanismo <dataSourceEngine> de fonte de dados externo gerou um erro de sintaxe durante a execução da consulta '<query>'.
<externalEngineError>.
DATA_SOURCE_TABLE_SCHEMA_MISMATCH
O esquema da tabela de fonte de dados não corresponde ao esquema esperado. Se você estiver usando a API DataFrameReader.schema ou criando uma tabela, evite especificar o esquema.
Esquema da Fonte de Dados: <dsSchema>
Esquema esperado: <expectedSchema>
DATA_SOURCE_URL_NOT_ALLOWED
A URL JDBC não é permitida nas opções de fonte de dados, especifique as opções "host", "porta" e "banco de dados".
DATETIME_FIELD_OUT_OF_BOUNDS
<rangeMessage>.
Para mais detalhes, consulte DATETIME_FIELD_OUT_OF_BOUNDS
DATETIME_OVERFLOW
Estouro da operação datetime: .<operation>
DC_API_QUOTA_EXCEEDED
Você excedeu a cota de API para a fonte de dados <sourceName>.
Para obter mais detalhes, consulte DC_API_QUOTA_EXCEEDED
DC_CONNECTION_ERROR
Falha ao fazer uma conexão com a origem <sourceName>. Código de erro: <errorCode>.
Para obter mais detalhes , consulte DC_CONNECTION_ERROR
DC_DYNAMICS_API_ERROR
Erro nas chamadas à API do Dynamics, errorCode: <errorCode>.
Para obter mais detalhes , consulte DC_DYNAMICS_API_ERROR
DC_NETSUITE_ERROR
Erro em chamadas JDBC do Netsuite, errorCode: <errorCode>.
Para obter mais detalhes , consulte DC_NETSUITE_ERROR
DC_SCHEMA_CHANGE_ERROR
SQLSTATE: nenhum estado atribuído
Ocorreu uma alteração de esquema na tabela <tableName> da origem do <sourceName>.
Para obter mais detalhes , consulte DC_SCHEMA_CHANGE_ERROR
DC_SERVICENOW_API_ERROR
Erro nas chamadas à API do ServiceNow, errorCode: <errorCode>.
Para obter mais detalhes , consulte DC_SERVICENOW_API_ERROR
DC_SFDC_BULK_QUERY_JOB_INCOMPLETE
A ingestão para o objeto <objName> está incompleta porque o trabalho de consulta da API Salesforce demorou muito, falhou ou foi cancelado manualmente.
Para tentar novamente, você pode executar novamente todo o pipeline ou atualizar essa tabela de destino específica. Se o erro persistir, registre um tíquete. ID do trabalho: <jobId>. Status do trabalho: <jobStatus>.
DC_SHAREPOINT_API_ERROR
Erro nas chamadas à API do Sharepoint, errorCode: <errorCode>.
Para obter mais detalhes , consulte DC_SHAREPOINT_API_ERROR
DC_SOURCE_API_ERROR
Ocorreu um erro na chamada à <sourceName> API. Tipo de API de origem: <apiType>. Código de erro: <errorCode>.
Às vezes, isso pode acontecer quando você atinge um <sourceName> limite de API. Se você não excedeu o limite de API, tente executar novamente o conector. Se o problema persistir, registre um tíquete.
DC_UNSUPPORTED_ERROR
Erro sem suporte ocorreu na fonte de dados <sourceName>.
Para obter mais detalhes, consulte DC_UNSUPPORTED_ERROR
DC_WORKDAY_RAAS_API_ERROR
Erro nas chamadas à API do Workday RAAS, errorCode: <errorCode>.
Para obter mais detalhes , consulte DC_WORKDAY_RAAS_API_ERROR
DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION
A precisão decimal <precision> excede a precisão máxima <maxPrecision>.
DEFAULT_DATABASE_NOT_EXISTS
O banco de dados <defaultDatabase> padrão não existe, crie-o primeiro ou altere o banco de dados padrão para <defaultDatabase>.
DEFAULT_FILE_NOT_FOUND
É possível que os arquivos subjacentes tenham sido atualizados. Você pode invalidar explicitamente o cache no Spark executando o comando 'REFRESH TABLE tableName' no SQL ou recriando o Dataset/DataFrame envolvido. Se o cache de disco estiver obsoleto ou os arquivos subjacentes tiverem sido removidos, você poderá invalidar o cache de disco manualmente reiniciando o cluster.
DEFAULT_PLACEMENT_INVALID
Uma DEFAULT palavra-chave em um MERGE, INSERT, UPDATEcomando ou SET VARIABLE não pôde ser atribuída diretamente a uma coluna de destino porque fazia parte de uma expressão.
Por exemplo: UPDATE SET c1 = DEFAULT é permitido, mas UPDATE T SET c1 = DEFAULT + 1 não é permitido.
DEFAULT_UNSUPPORTED
Falha ao executar o comando <statementType> porque os valores DEFAULT não são suportados para a fonte de dados de destino com o provedor de tabela: "<dataSource>".
DEFINE_FLOW_ONCE_OPTION_NOT_SUPPORTED
Não há suporte para definir um fluxo <flowName> único com a opção 'once'.
DESCRIBE_JSON_NOT_EXTENDED
DESCRIBE TABLE
...
AS JSON só há suporte quando [EXTENDED|FORMATTED] é especificado.
Por exemplo: DESCRIBE EXTENDED <tableName> AS JSON há suporte, mas DESCRIBE <tableName> AS JSON não é.
DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE
A consulta de streaming estava lendo de uma tabela Delta inesperada (id = '<newTableId>').
Ele costumava ler de outra tabela Delta (id = '<oldTableId>') de acordo com o ponto de verificação.
Isso pode acontecer quando você alterou o código para ler de uma nova tabela ou excluiu uma tabela existente.
recriou uma tabela. Reverta sua alteração ou exclua o ponto de verificação de consulta de streaming
para começar do zero.
DISTINCT_WINDOW_FUNCTION_UNSUPPORTED
Não há suporte para funções de janela distintas: <windowExpr>.
DIVIDE_BY_ZERO
Divisão por zero. Use try_divide para tolerar divisor sendo 0 e retornar NULL em vez disso. Se necessário definido <config> como "false" para ignorar esse erro.
Para obter mais detalhes , consulte DIVIDE_BY_ZERO
DLT_EXPECTATIONS_NOT_SUPPORTED
As expectativas só têm suporte em um pipeline do Lakeflow Spark Declarative Pipeliness.
DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED
MATERIALIZED As VIEWs com uma CLUSTER BY cláusula têm suporte apenas em um pipeline do Lakeflow Spark Declarative Pipeliness.
DLT_VIEW_LOCATION_NOT_SUPPORTED
MATERIALIZED VIEW os locais têm suporte apenas em um pipeline do Lakeflow Spark Declarative Pipeliness.
DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED
MATERIALIZED VIEW esquemas com um tipo especificado têm suporte apenas em um pipeline do Lakeflow Spark Declarative Pipeliness.
TABLE_CONSTRAINTSDLT_VIEW__NOT_SUPPORTED
CONSTRAINT cláusulas em uma exibição só têm suporte em um pipeline do Lakeflow Spark Declarative Pipeliness.
DML_OPERATIONS_NOT_SUPPORTED_FOR_REMOTE_QUERY_FUNCTION
A função de consulta remota não dá suporte a consultas DML.
DROP_COMMAND_TYPE_MISMATCH
Não é possível descartar um <metadataType> com DROP <commandType>.
Use DROP <metadataTypeUpper> em seu lugar.
DROP_SCHEDULE_DOES_NOT_EXIST
Não é possível descartar SCHEDULE em uma tabela sem um agendamento ou gatilho existente.
DUPLICATED_CTE_NAMES
A definição de CTE não pode ter nomes duplicados: <duplicateNames>.
DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT
Nomes de campos duplicados na Arrow Struct não são permitidos, obteve <fieldNames>.
DUPLICATED_MAP_KEY
Foi encontrada uma chave de mapa duplicada <key>, por favor verifique os dados de entrada.
Se você quiser remover as chaves duplicadas, poderá definir <mapKeyDedupPolicy> como "LAST_WIN" para que a chave inserida finalmente tenha precedência.
DUPLICATED_METRICS_NAME
O nome da métrica não é exclusivo: <metricName>. O mesmo nome não pode ser usado para métricas com resultados diferentes.
No entanto, várias instâncias de métricas com o mesmo resultado e nome são permitidas (por exemplo, autojunções).
DUPLICATE_ASSIGNMENTS
As colunas ou variáveis <nameList> aparecem mais de uma vez como destinos de atribuição.
DUPLICATE_CLAUSES
Cláusulas duplicadas encontradas: <clauseName>. Por favor, remova um deles.
DUPLICATE_CONDITION_IN_SCOPE
Condição <condition> duplicada encontrada no escopo. Por favor, remova um deles.
DUPLICATE_EXCEPTION_HANDLER
Encontrados manipuladores duplicados. Por favor, remova um deles.
Para obter mais detalhes , consulte DUPLICATE_EXCEPTION_HANDLER
DUPLICATE_FLOW_SQL_CONF
Configuração de SQL duplicada encontrada para o conjunto de dados '<datasetName>': '<key>' é definida por '<flowName1>' e '<flowName2>'
DUPLICATE_KEY
Chaves duplicadas encontradas <keyColumn>.
DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
A chamada à rotina <routineName> é inválida porque inclui várias atribuições de argumento para o mesmo nome <parameterName>de parâmetro.
Para obter mais detalhes , consulte DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
DUPLICATE_ROUTINE_PARAMETER_NAMES
Encontrado nome(s) duplicado na lista de parâmetros da rotina <routineName>definida pelo usuário: <names>.
DUPLICATE_ROUTINE_RETURNS_COLUMNS
Encontradas colunas duplicadas na RETURNS lista de colunas de cláusula da rotina <routineName>definida pelo usuário: <columns>.
NOME_VARIÁVEL_DUPLICADO_NA_DECLARAÇÃO
Variável duplicada <variableName> encontrada na lista de declaração de variáveis. Por favor, remova um deles.
EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED
Nó anterior emitido uma linha com eventTime=<emittedRowEventTime> que é mais antigo que current_watermark_value=<currentWatermark>
Isso pode levar a problemas de correção nos operadores com estado downstream no pipeline de execução.
Corrija a lógica do operador para emitir linhas após o valor da marca d'água global atual.
EMPTY_JSON_FIELD_VALUE
Falha ao analisar uma cadeia de caracteres vazia para o tipo <dataType>de dados.
EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY
Arquivo local vazio na consulta de teste <operation>
EMPTY_SCHEMA_NOT_SUPPORTED_FOR_DATASOURCE
A fonte de dados <format> não dá suporte à gravação de esquemas vazios ou aninhados vazios. Verifique se o esquema de dados tem pelo menos uma ou mais colunas.
ENCODER_NOT_FOUND
Não foi encontrado um codificador do tipo <typeName> para a representação interna do SQL do Spark.
Considere alterar o tipo de entrada para um dos tipos com suporte em '<docroot>/sql-ref-datatypes.html'.
END_LABEL_WITHOUT_BEGIN_LABEL
O rótulo <endLabel> final não pode existir sem o rótulo de início.
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW
Algumas partições no deslocamento disponível do relatório de tópico(s) Kafka que é menor que o deslocamento final durante a consulta executando com Trigger.AvailableNow. O erro pode ser transitório : reinicie sua consulta e relate se você ainda vir o mesmo problema.
último deslocamento: <latestOffset>, deslocamento final: <endOffset>
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED
Para fonte de dados Kafka com Trigger.AvailableNow, deslocamento final deve ter deslocamento igual ou menor por cada partição de tópico do que o deslocamento pré-coletado. O erro pode ser transitório : reinicie sua consulta e relate se você ainda vir o mesmo problema.
deslocamento pré-coletado: <prefetchedOffset>, deslocamento final: <endOffset>.
ERROR_READING_AVRO_UNKNOWN_FINGERPRINT
Erro ao ler dados do avro – encontrou uma impressão digital desconhecida: <fingerprint>, não sei qual esquema usar.
Isso pode acontecer se você registrou esquemas adicionais depois de iniciar o contexto do Spark.
EVENT_LOG_EMPTY
O log de eventos para <tableOrPipeline> não tem esquema e não contém eventos. Tente novamente mais tarde depois que os eventos forem gerados
EVENT_LOG_REQUIRES_SHARED_COMPUTE
Não é possível consultar os logs de eventos de um cluster Compartilhado Atribuído ou Sem Isolamento; em vez disso, use um cluster Compartilhado ou um repositório SQL do Databricks.
EVENT_LOG_TVF_UNSUPPORTED_FOR_PIPELINE
A função EVENT_LOG Table-Valued não é compatível com pipelines que usam o campo 'esquema' ou pipelines que publicam no armazenamento padrão.
Para consultar o log de eventos, publique-o no metastore especificando o campo event_log nas configurações do pipeline.
Para obter mais informações, consulte a documentação de pipelines do Monitor Lakeflow Spark Declarative Pipeliness: https://docs.databricks.com/aws/en/delta-live-tables/observability
EVENT_LOG_UNAVAILABLE
Nenhum log de eventos disponível para <tableOrPipeline>. Tente novamente mais tarde depois que os eventos forem gerados
EVENT_LOG_UNSUPPORTED_TABLE_TYPE
O tipo de tabela <tableIdentifier> é <tableType>.
A consulta de logs de eventos dá suporte apenas a exibições materializadas, tabelas de streaming ou pipelines do Lakeflow Spark Declarative Pipeliness
EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE
A hora do evento <eventName> tem o tipo <eventType> inválido, mas esperava “TIMESTAMP”.
EXCEED_LIMIT_LENGTH
Excede a limitação de comprimento do tipo char/varchar: <limit>.
EXCEL_DATA_SOURCE_NOT_ENABLED
A fonte de dados do Excel não está habilitada neste cluster.
EXCEL_FILE_ERROR
Erro ao processar o arquivo do Excel '<filePath>'.
Para obter mais detalhes , consulte EXCEL_FILE_ERROR
EXCEL_INVALID_READ_OPTION_VALUE
Valor de opção de leitura inválido para a fonte de dados do Excel.
Para obter mais detalhes , consulte EXCEL_INVALID_READ_OPTION_VALUE
EXCEL_INVALID_WRITE_OPTION_VALUE
A fonte de dados do Excel não dá suporte ao valor '<value>' para a opção de gravação '<option>'.
Para obter mais detalhes, consulte EXCEL_INVALID_WRITE_OPTION_VALUE
ESQUEMA_DE_GRAVAÇÃO_INVÁLIDO_DO_EXCEL
A fonte de dados do Excel não dá suporte ao esquema '<schema>' para escritas.
<hint>
EXCEL_PARSING_ERROR
Erro ao analisar dados do Excel.
Para obter mais detalhes , consulte EXCEL_PARSING_ERROR
OPÇÃO_DE_ESCRITA_NÃO_SUPORTADA_PELO_EXCEL
A fonte de dados do Excel não dá suporte à opção de gravação '<option>'.
<hint>
EXCEPT_NESTED_COLUMN_INVALID_TYPE
EXCEPT a coluna <columnName> foi resolvida e esperava-se que fosse StructType, mas encontrou o tipo <dataType>.
EXCEPT_OVERLAPPING_COLUMNS
As colunas em uma lista EXCEPT devem ser distintas e não sobrepostas, mas obteve (<columns>).
EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH
EXCEPT colunas [<exceptColumns>] foram resolvidas, mas não correspondem a nenhuma das colunas [<expandedColumns>] da expansão da estrela.
EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION
O nome <objectName> da coluna/campo na EXCEPT cláusula não pode ser resolvido. Você quis dizer um dos seguintes: [<objectList>]?
Observação: as colunas aninhadas na cláusula EXCEPT podem não incluir qualificadores (nome da tabela, nome da coluna de struct pai etc.) durante uma expansão do struct; tente remover qualificadores se eles forem usados com colunas aninhadas.
EXECUTOR_DISK_OUT_OF_SPACE
Disco executor fora do espaço. Aumente a capacidade do disco se disponível. Se você estiver usando o Serverless, entre em contato com nossa equipe de suporte.
EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES
A USING cláusula desse EXECUTE IMMEDIATE comando continha vários argumentos com o mesmo alias (<aliases>), que é inválido; atualize o comando para especificar aliases exclusivos e tente novamente.
EXPECT_PERMANENT_TABLE_NOT_TEMP
'<operation>' espera uma tabela permanente, mas <tableName> é uma tabela temporária. Em vez disso, especifique uma tabela permanente.
EXPECT_PERMANENT_VIEW_NOT_TEMP
'<operation>' espera uma exibição permanente, mas <viewName> é uma exibição temporária.
EXPECT_TABLE_NOT_VIEW
'<operation>' espera uma tabela, mas <viewName> é uma visualização.
Para obter mais detalhes , consulte EXPECT_TABLE_NOT_VIEW
EXPECT_VIEW_NOT_TABLE
A tabela <tableName> não suporta <operation>.
Para mais detalhes, consulte EXPECT_TABLE_NOT_VIEW
EXPRESSION_DECODING_FAILED
Falha ao decodificar uma linha no valor das expressões: <expressions>
EXPRESSION_ENCODING_FAILED
Falha ao codificar um valor das expressões: <expressions> para uma linha.
EXPRESSION_TRANSLATION_TO_V2_IS_NOT_SUPPORTED
A expressão <expr> não pode ser traduzida para a expressão v2.
EXPRESSION_TYPE_IS_NOT_ORDERABLE
A expressão de coluna <expr> não pode ser classificada porque seu tipo <exprType> não é ordenável.
EXTERNAL_METASTORE_CLIENT_ERROR
Falha na operação do cliente:
Para obter mais detalhes , consulte EXTERNAL_METASTORE_CLIENT_ERROR
EXTERNAL_SHALLOW_CLONE_STILL_EXISTS
Falha ao executar a operação na tabela <sourceTable> de origem porque o clone <targetTable> superficial ainda existe e seu status é inválido. Se você realmente quiser continuar com essa operação, limpe o clone superficial executando explicitamente o comando DROP.
EXTERNAL_TABLE_INVALID_SCHEME
Tabelas externas não dão suporte ao <scheme> esquema.
FABRIC_REFRESH_INVALID_SCOPE
Erro ao executar 'REFRESH FOREIGN <scope> <name>'. Não é possível atualizar um Fabric <scope> diretamente, use 'REFRESH FOREIGN CATALOG <catalogName>' para atualizar o Catálogo do Fabric.
FAILED_EXECUTE_UDF
A função definida pelo usuário (<functionName>: (<signature>) => <result>) falhou devido a: <reason>.
FAILED_FUNCTION_CALL
Falha na preparação da função <funcName> para chamada. Verifique os argumentos da função duas vezes.
FAILED_JDBC
Falha do JDBC <url> na operação:
Para obter mais detalhes , consulte FAILED_JDBC
FAILED_PARSE_STRUCT_TYPE
Falha ao analisar a estrutura: <raw>.
FAILED_READ_FILE
Erro ao ler o arquivo <path>.
Para obter mais detalhes , consulte FAILED_READ_FILE
FAILED_REGISTER_CLASS_WITH_KRYO
Falha ao registrar classes com o Kryo.
FAILED_RENAME_PATH
Falha ao renomear de <sourcePath> para <targetPath> pois o destino já existe.
FAILED_RENAME_TEMP_FILE
Falha ao tentar renomear o arquivo temporário <srcPath> para <dstPath>, pois FileSystem.rename retornou falso.
FAILED_ROW_TO_JSON
Falha ao converter o valor <value> da linha da classe <class> no tipo <sqlType> SQL de destino no JSON formato.
FAILED_TO_CREATE_PLAN_FOR_DIRECT_QUERY
Falha ao criar um plano para consulta direta em arquivos: <dataSourceType>
FAILED_TO_LOAD_ROUTINE
Falha ao carregar a rotina <routineName>.
FAILED_TO_PARSE_TOO_COMPLEX
A instrução, incluindo funções SQL potenciais e exibições referenciadas, era muito complexa para ser analisada.
Para atenuar esse erro, divida a instrução em várias partes menos complexas.
FEATURE_NOT_ENABLED
O recurso <featureName> não está habilitado. Considere definir a configuração <configKey> para <configValue>, a fim de ativar essa capacidade.
FEATURE_NOT_ON_CLASSIC_WAREHOUSE
<feature> não é suportado em Warehouses SQL Clássicos. Para usar esse recurso, use um sql warehouse profissional ou sem servidor.
FEATURE_REQUIRES_UC
<feature> não tem suporte sem o Unity Catalog. Para usar esse recurso, habilite o Catálogo do Unity.
FEATURE_UNAVAILABLE
<feature> não tem suporte em seu ambiente. Para usar esse recurso, entre em contato com o Suporte do Databricks.
FETCH_FAILED
Falha na tarefa ao buscar dados ou metadados embaralhados: <errorString>.
FGAC_ON_DEDICATED_COMPUTE_FAILED
O FGAC (controle de acesso refinado) na computação dedicada falhou devido à seguinte exceção: <message>
FIELD_ALREADY_EXISTS
Não é possível a coluna <op>, porque <fieldNames> já existe em <struct>.
FIELD_NOT_FOUND
Não há esse campo <fieldName> de struct em <fields>.
FILE_IN_STAGING_PATH_ALREADY_EXISTS
O arquivo no caminho <path> de preparo já existe, mas OVERWRITE não está definido
FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR
Erro na função fornecida pelo usuário em flatMapGroupsWithState. Motivo: <reason>
FORBIDDEN_DATASOURCE_IN_SERVERLESS
Não é permitido consultar a fonte <source> de dados na computação sem servidor. Somente <allowlist> fontes de dados têm suporte na computação sem servidor.
FORBIDDEN_KEYWORD_IN_JDBC_QUERY
A opção <queryOption> de consulta não pode conter palavras-chave proibidas. Remova as seguintes palavras-chave da consulta: <keywords>
FORBIDDEN_OPERATION
A operação <statement> não é permitida em <objectType>: <objectName>.
FOREACH_BATCH_USER_FUNCTION_ERROR
Ocorreu um erro na função fornecida pelo usuário no coletor de lote foreach. Motivo: <reason>
FOREACH_USER_FUNCTION_ERROR
Ocorreu um erro na função fornecida pelo usuário no coletor foreach. Motivo: <reason>
FOREIGN_KEY_MISMATCH
As colunas <parentColumns> da chave estrangeira pai não correspondem às colunas <childColumns> da chave primária filho.
FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY
Não é possível executar esse comando porque o nome estrangeiro <objectType> deve não estar vazio.
FOREIGN_TABLE_CONVERSION_UNSUPPORTED
A tabela não está elegível para a atualização do UC Foreign para o UC External. Reason:
Para obter mais detalhes, consulte FOREIGN_TABLE_CONVERSION_UNSUPPORTED
FOREIGN_VIEW_CONVERSION_UNSUPPORTED
O objeto <objectName> não está qualificado para conversão em um modo de exibição gerenciado por UC. Reason:
Para obter mais detalhes , consulte FOREIGN_VIEW_CONVERSION_UNSUPPORTED
FROM_JSON_CONFLICTING_SCHEMA_UPDATES
A inferência from_json encontrou atualizações de esquema conflitantes em: <location>
FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA
from_json found columnNameOfCorruptRecord (<columnNameOfCorruptRecord>) presente
em um JSON objeto e não pode mais continuar. Configure um valor diferente para
a opção "columnNameOfCorruptRecord".
FROM_JSON_CORRUPT_SCHEMA
A função de inferência from_json não conseguiu ler o esquema armazenado em: <location>
FROM_JSON_INFERENCE_FAILED
from_json não foi possível inferir o esquema. Em vez disso, forneça um.
FROM_JSON_INFERENCE_NOT_SUPPORTED
a inferência from_json só tem suporte ao se definir tabelas de streaming
FROM_JSON_INVALID_CONFIGURATION
from_json configuração é inválida:
Para obter mais detalhes, consulte FROM_JSON_INVALID_CONFIGURATION
FROM_JSON_SCHEMA_EVOLUTION_FAILED
from_json não pôde evoluir de <old> para <new>
FUNCTION_PARAMETERS_MUST_BE_NAMED
A função <function> requer parâmetros nomeados. Parâmetros com nomes ausentes: <exprs>. Atualize a chamada de função para adicionar nomes para todos os parâmetros, por exemplo, <function>(param_name => ...).
GENERATED_COLUMN_WITH_DEFAULT_VALUE
Uma coluna não pode ter um valor padrão e uma expressão de geração, mas a coluna <colName> tem valor padrão: (<defaultValue>) e expressão de geração: (<genExpr>).
GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION
O Hive 2.2 e versões inferiores não dão suporte a getTablesByType. Use o Hive 2.3 ou versão superior.
GET_WARMUP_TRACING_FAILED
Falha ao obter o rastreamento de aquecimento. Causa: <cause>.
GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED
Função get_warmup_tracing() não permitida.
GRAPHITE_SINK_INVALID_PROTOCOL
Protocolo Graphite inválido: <protocol>.
GRAPHITE_SINK_PROPERTY_MISSING
O coletor do Graphite exige a propriedade "<property>".
GROUPING_COLUMN_MISMATCH
Não é possível encontrar a coluna de agrupamento (<grouping>) nas colunas de agrupamento <groupingColumns>.
GROUPING_ID_COLUMN_MISMATCH
Colunas de grouping_id (<groupingIdColumn>) não correspondem a colunas de agrupamento (<groupByColumns>).
GROUPING_SIZE_LIMIT_EXCEEDED
O tamanho dos conjuntos de agrupamento não pode ser maior que <maxSize>.
GROUP_BY_AGGREGATE
Funções de agregação não são permitidas em GROUP BY, mas foram encontradas em <sqlExpr>.
Para obter mais detalhes , consulte GROUP_BY_AGGREGATE
GROUP_BY_POS_AGGREGATE
GROUP BY <index> refere-se a uma expressão <aggExpr> que contém uma função de agregação. Funções de agregação não são permitidas em GROUP BY.
GROUP_BY_POS_OUT_OF_RANGE
GROUP BY a posição <index> não está na lista de seleção (o intervalo válido é [1, <size>]).
GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE
A expressão <sqlExpr> não pode ser usada como uma expressão de agrupamento porque seu tipo <dataType> de dados não é um tipo de dados orderable.
HDFS_HTTP_ERROR
Ao tentar ler do HDFS, a solicitação HTTP falhou.
Para obter mais detalhes , consulte HDFS_HTTP_ERROR
HINT_UNSUPPORTED_FOR_JDBC_DIALECT
A opção hint não é suportada para <jdbcDialect> na fonte de dados JDBC. Os dialetos com suporte são MySQLDialect, OracleDialect e DatabricksDialect.
HIVE_METASTORE_INVALID_PLACEHOLDER_PATH
A consulta ou o comando não foi executado porque a configuração 'spark.databricks.hive.metastore.tablePlaceholderPath' forneceu um caminho inválido para o placeholder de tabela do Metastore do Hive. Atualize essa configuração com um novo valor para fornecer um caminho válido e execute novamente a consulta ou o comando novamente.
HIVE_METASTORE_TABLE_PLACEHOLDER_PATH_NOT_SET
Falha na consulta ou no comando porque o caminho do espaço reservado da tabela Metastore do Hive não está definido, o que é necessário quando o local do esquema está no DBFS e o local da tabela é um objeto/arquivo. Defina spark.databricks.hive.metastore.tablePlaceholderPath como um caminho ao qual você tem acesso e execute novamente a consulta ou o comando novamente.
HLL_INVALID_INPUT_SKETCH_BUFFER
Chamada inválida para <function>; somente buffers de esboço de HLL válidos são suportados como entradas (como aqueles produzidos pela função hll_sketch_agg).
HLL_INVALID_LG_K
Chamada inválida para <function>; o lgConfigK valor deve ser entre <min> e <max>, inclusive: <value>.
HLL_K_MUST_BE_CONSTANT
Chamada inválida ; <function>o K valor deve ser um valor constante, mas tem uma expressão não constante.
HLL_UNION_DIFFERENT_LG_K
Os esboços têm valores diferentes lgConfigK : <left> e <right>. Defina o parâmetro allowDifferentLgConfigK como true para chamar <function> com diferentes valores de lgConfigK.
HMS_FEDERATION_SHALLOW_CLONE_NOT_FOUND_IN_UC
O caminho do clone superficial '<path>' não pôde ser resolvido para uma tabela no Unity Catalog. Verifique se a tabela existe e é federada para o Catálogo do Unity.
HYBRID_ANALYZER_EXCEPTION
Ocorreu uma falha ao tentar resolver uma consulta ou comando com o analisador de ponto fixo herdado, bem como o resolvedor de passagem única.
Para obter mais detalhes , consulte HYBRID_ANALYZER_EXCEPTION
IDENTIFIER_TOO_MANY_NAME_PARTS
<identifier> não é um identificador válido, pois tem mais do que partes de <limit> nome.
IDENTITY_COLUMNS_DUPLICATED_SEQUENCE_GENERATOR_OPTION
Opção de gerador de sequência de coluna duplicada IDENTITY: <sequenceGeneratorOption>.
IDENTITY_COLUMNS_ILLEGAL_STEP
A etapa da coluna IDENTITY não pode ser 0.
IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
O DataType <dataType> não é suportado para colunas IDENTITY.
ILLEGAL_DAY_OF_WEEK
Entrada ilegal para o dia da semana: <string>.
ILLEGAL_STATE_STORE_VALUE
Valor ilegal fornecido ao Repositório de Estado
Para obter mais detalhes, consulte ILLEGAL_STATE_STORE_VALUE
INAPPROPRIATE_URI_SCHEME_OF_CONNECTION_OPTION
A conexão não pode ser criada devido ao esquema inadequado de URI <uri> fornecido para a opção de conexão '<option>'.
Esquemas permitidos): <allowedSchemes>.
Adicione um esquema se ele não estiver presente no URI ou especifique um esquema dos valores permitidos.
INCOMPARABLE_PIVOT_COLUMN
Coluna dinâmica <columnName> inválida. As colunas dinâmicas precisam ser comparáveis.
INCOMPATIBLE_BATCH_VIEW_READ
<datasetIdentifier> é uma visualização em lote e deve ser referenciada usando SparkSession#read. Essa verificação pode ser desabilitada definindo a configuração do Spark como pipelines.incompatibleViewCheck.enabled = false.
INCOMPATIBLE_COLUMN_TYPE
<operator> só pode ser executado em tabelas com tipos de coluna compatíveis. A coluna <columnOrdinalNumber> da tabela <tableOrdinalNumber> é do tipo <dataType1>, que não é compatível com <dataType2> na mesma coluna da primeira tabela.<hint>
INCOMPATIBLE_DATASOURCE_REGISTER
Detectou um DataSourceRegister incompatível. Remova a biblioteca incompatível do classpath ou atualize-a. Erro: <message>
INCOMPATIBLE_DATA_FOR_TABLE
Não é possível gravar dados incompatíveis para a tabela <tableName>:
Para obter mais detalhes, consulte INCOMPATIBLE_DATA_FOR_TABLE
INCOMPATIBLE_JOIN_TYPES
Os tipos de junção <joinType1> e <joinType2> são incompatíveis.
LEITURA_STREAMING_INCOMPATÍVEL_VISÃO
A visualização <datasetIdentifier> é uma visualização de streaming e deve ser referenciada usando SparkSession#readStream. Essa verificação pode ser desabilitada definindo a configuração do Spark como pipelines.incompatibleViewCheck.enabled = false.
INCOMPATIBLE_VIEW_SCHEMA_CHANGE
A consulta sql de exibição <viewName> tem uma alteração de esquema incompatível e a coluna <colName> não pode ser resolvida. Esperava-se colunas <expectedNum> nomeadas <colName>, mas recebeu <actualCols>.
Tente recriar a exibição executando: <suggestion>.
INCOMPLETE_TYPE_DEFINITION
Tipo complexo incompleto:
Para obter mais detalhes , consulte INCOMPLETE_TYPE_DEFINITION
INCONSISTENT_BEHAVIOR_CROSS_VERSION
Você pode obter um resultado diferente devido à atualização para uma nova versão.
Para mais detalhes, consulte INCONSISTENT_BEHAVIOR_CROSS_VERSION
INCORRECT_NUMBER_OF_ARGUMENTS
<failure>, <functionName> requer pelo menos <minArgs> argumentos e, no máximo <maxArgs> , argumentos.
INCORRECT_RAMP_UP_RATE
O deslocamento máximo com <rowsPerSecond> rowsPerSecond é <maxSeconds>, mas "rampUpTimeSeconds" é <rampUpTimeSeconds>.
INDETERMINATE_COLLATION
Não foi possível determinar qual ordenação usar para a operação de cadeia de caracteres. Use a cláusula COLLATE para definir a ordenação explicitamente.
INDETERMINATE_COLLATION_IN_EXPRESSION
O tipo de dados de <expr> tem ordenação indeterminada. Use a cláusula COLLATE para definir a ordenação explicitamente.
INDETERMINATE_COLLATION_IN_SCHEMA
O esquema contém ordenação indeterminada em: [<columnPaths>]. Use a cláusula COLLATE para definir a ordenação explicitamente.
INDEX_ALREADY_EXISTS
Não é possível criar o índice <indexName> na tabela <tableName> porque ele já existe.
INDEX_NOT_FOUND
Não é possível localizar o índice <indexName> na tabela <tableName>.
INET_FUNCTIONS_NOT_ENABLED
<functionName> está desabilitado ou sem suporte. As funções INET ainda não estão disponíveis publicamente.
INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED
Não há suporte para o tipo <trigger> de gatilho para esse tipo de cluster.
Use um tipo de gatilho diferente, por exemplo, AvailableNow, Once.
INSERT_COLUMN_ARITY_MISMATCH
Não é possível gravar no <tableName>, o motivo é
Para obter mais detalhes, consulte INSERT_COLUMN_ARITY_MISMATCH
INSERT_PARTITION_COLUMN_ARITY_MISMATCH
Não é possível gravar em ‘<tableName>’, <reason>:
Colunas da tabela: <tableColumns>.
Colunas de partição com valores estáticos: <staticPartCols>.
Colunas de dados: <dataColumns>.
INSERT_REPLACE_USING_DISALLOW_MISALIGNED_COLUMNS
Todas as colunas na USING cláusula devem aparecer na mesma posição nos esquemas de destino e de origem.
USING não há suporte para a cláusula que contém colunas desalinhadas.
As seguintes colunas estão desalinhadas: <misalignedReplaceUsingCols>
INSERT_REPLACE_USING_INVALID_SET_OF_COLUMNS
A tabela deve ser particionada e todas as colunas especificadas devem representar o conjunto completo das colunas de partição da tabela.
As seguintes colunas não são colunas de partição: <nonPartitionColumns>
As seguintes colunas de partições estão ausentes: <missingPartitionsColumns>
INSERT_REPLACE_USING_NOT_ENABLED
Entre em contato com seu representante do Databricks para habilitar o INSERT INTO...REPLACE USING recurso (...).
INSUFFICIENT_PERMISSIONS
Privilégios insuficientes:
<report>
INSUFFICIENT_PERMISSIONS_EXT_LOC
O usuário <user> tem privilégios insuficientes para o local <location>externo.
INSUFFICIENT_PERMISSIONS_NO_OWNER
Não há nenhum proprietário para <securableName>. Peça ao administrador para definir um proprietário.
INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE
O usuário não possui <securableName>.
INSUFFICIENT_PERMISSIONS_SECURABLE
O usuário não tem permissão <action> em <securableName>.
INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER
O proprietário de <securableName> é diferente do proprietário de <parentSecurableName>.
INSUFFICIENT_PERMISSIONS_SPARK_CONNECT_CLIENT_SET_CLOUDFETCH_RETENTION_TIMEOUT
O cliente não tem permissão para definir um tempo limite de retenção personalizado para os resultados do CloudFetch.
INSUFFICIENT_PERMISSIONS_STORAGE_CRED
A credencial <credentialName> de armazenamento tem privilégios insuficientes.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES
O usuário não pode executar <action> em <securableName> devido às permissões em objetos protegíveis subjacentes.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE
O usuário não pode executar <action> em <securableName> devido às permissões em objetos protegíveis subjacentes:
<underlyingReport>
INTERVAL_ARITHMETIC_OVERFLOW
Estouro de inteiro ao operar com intervalos.
Para obter mais detalhes , consulte INTERVAL_ARITHMETIC_OVERFLOW
INTERVAL_DIVIDED_BY_ZERO
Divisão por zero. Use try_divide para tolerar divisor sendo 0 e retornar NULL em vez disso.
INVALID_AGGREGATE_FILTER
A expressão FILTER<filterExpr> em uma função de agregação é inválida.
Para obter mais detalhes , consulte INVALID_AGGREGATE_FILTER
INVALID_AGNOSTIC_ENCODER
Encontrei um codificador independente inválido. Espera uma instância de AgnosticEncoder, mas obteve <encoderType>. Para obter mais informações, consulte '<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html'.
INVALID_ARRAY_INDEX
O índice <indexValue> está fora dos limites. A matriz tem elementos <arraySize>. Use a função SQL get() para tolerar o acesso a elementos em um índice inválido e retornar NULL.
Para obter mais detalhes , consulte INVALID_ARRAY_INDEX
INVALID_ARRAY_INDEX_IN_ELEMENT_AT
O índice <indexValue> está fora dos limites. A matriz tem elementos <arraySize>. Use try_element_at para tolerar o acesso a um elemento em um índice inválido e, em vez disso, retornar NULL.
Para obter mais detalhes, consulte INVALID_ARRAY_INDEX_IN_ELEMENT_AT
INVALID_ARTIFACT_PATH
Artefato com nome <name> é inválido. O nome deve ser um caminho relativo e não pode referenciar diretórios pai/irmão/sobrinho.
INVALID_ATTRIBUTE_NAME_SYNTAX
Erro de sintaxe no nome do atributo: <name>. Verifique se os backticks aparecem em pares, uma cadeia de caracteres entre aspas é uma parte de nome completa e use um backtick somente dentro de partes de nome entre aspas.
INVALID_AUTO_TTL_EXPIRE_IN_DAYS
O número de dias especificado para ttl automático deve ser não negativo.
INVALID_AWS_AUTHENTICATION
Escolha exatamente um dos seguintes métodos de autenticação:
Forneça o nome da credencial de serviço do Databricks (
<serviceCredential>) (como uma opção de fluxo do Spark ou como uma variável de ambiente de cluster).Forneça o AWS AccessKey (
<awsAccessKey>) e o SecretAccessKey (<awsSecretKey>) para usar chaves AWS.Não forneça nem as chaves da AWS nem uma credencial de serviço do Databricks para usar a cadeia padrão de provedores de credenciais da AWS para autenticação no Kinesis.
INVALID_AWS_AUTHENTICATION_EXPLICIT_OPTIONS
Forneça o nome da credencial de serviço do Databricks (<serviceCredential>)
OU ambos <awsAccessKey> e <awsSecretKey>
INVALID_BITMAP_POSITION
A posição do bitmap indexado em 0 <bitPosition> está fora dos limites. O bitmap tem <bitmapNumBits> bits (<bitmapNumBytes> bytes).
INVALID_BOOLEAN_STATEMENT
Espera-se uma expressão booleana na condição, mas foi encontrado <invalidStatement>.
INVALID_BOUNDARY
O limite <boundary> é inválido: <invalidValue>.
Para obter mais detalhes , consulte INVALID_BOUNDARY
INVALID_BUCKET_COLUMN_DATA_TYPE
Não é possível usar <type> para a coluna bucket. Não há suporte para tipos de dados agrupados para bucketing.
CONTAGEM_DE_BUCKETS_INVÁLIDA (INVALID_BUCKET_COUNT)
O número de buckets deve ser maior que 0, mas menor ou igual a bucketing.maxBuckets (<bucketingMaxBuckets>). Tenho <numBuckets>...
INVALID_BUCKET_FILE
Arquivo bucket inválido: <path>.
INVALID_BYTE_STRING
O formato esperado é ByteString, mas foi <unsupported> (<class>).
INVALID_CIDR_RANGE
A função <functionName> recebeu um intervalo CIDR inválido: <value>.
INVALID_CLONE_SESSION_REQUEST
Solicitação de clone de sessão inválida.
Para obter mais detalhes , consulte INVALID_CLONE_SESSION_REQUEST
INVALID_COLUMN_NAME_AS_PATH
A fonte de <datasource> dados não pode salvar a coluna <columnName> porque seu nome contém alguns caracteres que não são permitidos em caminhos de arquivo. Use um alias para renomeá-lo.
INVALID_COLUMN_OR_FIELD_DATA_TYPE
A coluna ou o campo <name> é do tipo <type>, mas deve ser <expectedType>.
INVALID_CONF_VALUE
O valor '<confValue>' na configuração "<confName>" é inválido.
Para obter mais detalhes , consulte INVALID_CONF_VALUE
INVALID_CONSTRAINT_CHARACTERISTICS
As características de restrição [<characteristics>] são duplicadas ou entram em conflito entre si.
INVALID_CORRUPT_RECORD_TYPE
A coluna <columnName> para registros corrompidos deve ter o tipo anulável STRING, mas tem <actualType>.
INVALID_CURRENT_RECIPIENT_USAGE
current_recipient A função só pode ser usada na CREATE VIEW declaração ou na ALTER VIEW declaração para definir uma visualização de compartilhamento somente no Catálogo do Unity.
INVALID_CURSOR
O cursor é inválido.
Para obter mais detalhes , consulte INVALID_CURSOR
FORMATO_DE_FONTE_DE_DADOS_INVÁLIDO_PARA_INJEÇÃO_DE_OPÇÕES_DE_CONEXÃO
A conexão com nome <connectionName> e tipo <connectionType> não dá suporte ao formato <actualFormat>. Formato com suporte: <expectedFormat>.
TENTATIVA_INVÁLIDA_DE_SUBSTITUIÇÃO_DE_OPÇÃO_DE_FONTE_DE_DADOS
A opção <optionName> já existe na conexão <connectionName> e não pode ser substituída.
INVALID_DATETIME_PATTERN
Padrão de datetime não reconhecido: <pattern>.
Para obter mais detalhes , consulte INVALID_DATETIME_PATTERN
INVALID_DBFS_MOUNT
A Montagem DBFS não pode ser acessada.
Para obter mais detalhes , consulte INVALID_DBFS_MOUNT
INVALID_DBSQL_CONFIG
<confValue> não há suporte para a chave de configuração do SQL <confKey>
INVALID_DEFAULT_VALUE
Falha ao executar o comando <statement> porque a coluna ou variável <colName> de destino tem um DEFAULT valor <defaultValue>,
Para obter mais detalhes , consulte INVALID_DEFAULT_VALUE
INVALID_DELIMITER_VALUE
Valor inválido para um delimitador.
Para obter mais detalhes , consulte INVALID_DELIMITER_VALUE
INVALID_DEST_CATALOG
O catálogo de destino do SYNC comando deve estar no Catálogo do Unity. Encontrou <catalog>.
INVALID_DRIVER_MEMORY
A memória <systemMemory> do sistema deve ser pelo menos <minSystemMemory>.
Aumente o tamanho do heap usando a opção -driver-memory ou “<config>” na configuração do Spark.
OPÇÕES_INVÁLIDAS_DE_DROP_TABLE
Não é possível especificar as opções PURGE e FORCE no comando DROP TABLE. Use um PURGE ou FORCE, mas não ambos.
INVALID_DYNAMIC_OPTIONS
As opções passadas <option_list> são proibidas para tabela estrangeira <table_name>.
INVALID_EMPTY_LOCATION
O nome do local não pode ser uma cadeia de caracteres vazia, mas <location> foi fornecido.
CONFIGURAÇÕES_INVÁLIDAS_DE_DEPENDÊNCIAS_DO_AMBIENTE
O parâmetro de dependências de configurações de ambiente está ausente ou não pôde ser analisado para uma lista de cadeias de caracteres. Formato esperado: ["dep1", "dep2"]
INVALID_ENVIRONMENT_SETTINGS_ENVIRONMENT_VERSION
Essa versão de runtime não dá suporte a uma versão de ambiente para fontes de dados. Valor: <environmentVersion>.
INVALID_ERROR_CONDITION_DECLARATION
Declaração de condição inválida.
Para obter mais detalhes, consulte INVALID_ERROR_CONDITION_DECLARATION
INVALID_ESC
Encontrado uma cadeia de caracteres de escape inválida: <invalidEscape>. A cadeia de caracteres de escape deve conter apenas um caractere.
INVALID_ESCAPE_CHAR
EscapeChar deve ser um literal de cadeia de caracteres de comprimento um, mas obteve <sqlExpr>.
INVALID_EXECUTOR_MEMORY
A memória <executorMemory> do executor deve ser pelo menos <minSystemMemory>.
Aumente a memória do executor usando a opção --executor-memory ou "<config>" na configuração do Spark.
INVALID_EXPRESSION_ENCODER
Encontrado um codificador de expressão inválido. Espera uma instância do ExpressionEncoder, mas obteve <encoderType>. Para obter mais informações, consulte '<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html'.
INVALID_EXPR_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE
O tipo de expressão deve ser tipo de cadeia de caracteres, mas tem <exprType>.
INVALID_EXTERNAL_TYPE
O tipo <externalType> externo não é válido para o tipo <type> na expressão <expr>.
INVALID_EXTRACT_BASE_FIELD_TYPE
Não é possível extrair um valor de <base>. Precisa de um tipo complexo [],STRUCT, ARRAY, MAP mas tem <other>.
INVALID_EXTRACT_FIELD
Não é possível extrair <field> de <expr>.
INVALID_EXTRACT_FIELD_TYPE
O nome do campo deve ser um literal de cadeia de caracteres não nula, mas é <extraction>.
INVALID_FIELD_NAME
O nome do campo <fieldName> é inválido: <path> não é um struct.
INVALID_FLOW_QUERY_TYPE
O fluxo <flowIdentifier> retorna um tipo de relação inválido.
Para obter mais detalhes , consulte INVALID_FLOW_QUERY_TYPE
INVALID_FORMAT
O formato é inválido: <format>.
Para obter mais detalhes , consulte INVALID_FORMAT
INVALID_FRACTION_OF_SECOND
O intervalo válido para segundos é [0, 60] (inclusivo), mas o valor fornecido é <secAndMicros>. Para evitar esse erro, use try_make_timestamp, que retorna NULL com o erro.
Se você não quiser usar a versão padrão de carimbo de data/hora da sessão para esta função, use try_make_timestamp_ntz ou try_make_timestamp_ltz.
INVALID_GET_DIAGNOSTICS_USAGE
Uso inválido da GETDIAGNOSTICS instrução.
Para obter mais detalhes, consulte INVALID_GET_DIAGNOSTICS_USAGE
INVALID_GET_DIAGNOSTICS_USAGE_CONDITION_NUMBER_MUST_BE_ONE
Uso inválido da GETDIAGNOSTICS instrução. O único valor com suporte para um número de condição na GETDIAGNOSTICS instrução é 1.
INVALID_HANDLE
O identificador <handle> é inválido.
Para obter mais detalhes , consulte INVALID_HANDLE
INVALID_HANDLER_DECLARATION
Declaração de manipulador inválida.
Para obter mais detalhes, consulte INVALID_HANDLER_DECLARATION
INVALID_HTTP_REQUEST_METHOD
O parâmetro de entrada: método, valor: <paramValue> não é um parâmetro válido para http_request porque não é um método HTTP válido.
INVALID_HTTP_REQUEST_PATH
O parâmetro de entrada: caminho, valor: <paramValue> não é um parâmetro válido para http_request porque a passagem de caminho não é permitida.
INVALID_IDENTIFIER
O identificador <ident> não cotado é inválido e deve ser citado novamente como: <ident>.
Identificadores não citados só podem conter ASCII letras ('a' - 'z', 'A' - 'Z'), dígitos ('0' - '9') e sublinhado ('_').
Os identificadores não citados também não devem começar com um dígito.
Diferentes fontes de dados e meta repositórios podem impor restrições adicionais aos identificadores válidos.
INVALID_INDEX_OF_ZERO
O índice 0 é inválido. Um índice deve ser < 0 or > 0 (o primeiro elemento tem índice 1).
INVALID_INLINE_TABLE
Tabela embutida inválida.
Para obter mais detalhes , consulte INVALID_INLINE_TABLE
INVALID_INTERVAL_FORMAT
Erro ao interpretar '<input>' como intervalo. Verifique se o valor fornecido está em um formato válido para definir um intervalo. Você pode referenciar a documentação para o formato correto.
Para obter mais detalhes , consulte INVALID_INTERVAL_FORMAT
INVALID_INTERVAL_WITH_MICROSECONDS_ADDITION
Não é possível adicionar um intervalo a uma data porque sua parte de microssegundos não é 0. Para resolver isso, converta a data de entrada em um timestamp, que suporta a adição de intervalos com microssegundos não zero.
INVALID_IP_ADDRESS
A função <functionName> recebeu um endereço IP inválido: <value>.
INVALID_IP_ADDRESS_OR_CIDR_RANGE
A função <functionName> recebeu um endereço IP inválido ou intervalo CIDR: <value>.
INVALID_JAVA_IDENTIFIER_AS_FIELD_NAME
<fieldName> não é um identificador válido do Java e não pode ser usado como nome de campo
<walkedTypePath>.
INVALID_JDBC_CONNECTION_OPTION
A opção <optionKey> não é um parâmetro válido para essa conexão jdbc.
INVALID_JDBC_CONNECTION_OPTION_VALUE
A opção <optionKey> com um valor <optionValue> não é uma opção válida para essa conexão jdbc.
INVALID_JOIN_TYPE_FOR_JOINWITH
Tipo de junção inválido em joinWith: <joinType>.
INVALID_JSON_DATA_TYPE
Falha ao converter a JSON cadeia de caracteres '<invalidType>' em um tipo de dados. Insira um tipo de dados válido.
INVALID_JSON_DATA_TYPE_FOR_COLLATIONS
As ordenações só podem ser aplicadas a tipos de cadeia de caracteres, mas o JSON tipo de dados é <jsonType>.
INVALID_JSON_RECORD_TYPE
Detectou um tipo inválido de um JSON registro ao inferir um esquema comum no modo <failFastMode>. Esperava um tipo STRUCT, mas encontrou <invalidType>.
INVALID_JSON_ROOT_FIELD
Não é possível converter JSON o campo raiz para o tipo Spark de destino.
INVALID_JSON_SCHEMA_MAP_TYPE
O esquema de entrada <jsonSchema> só pode conter STRING como tipo de chave para um arquivo MAP.
INVALID_KRYO_SERIALIZER_BUFFER_SIZE
O valor da configuração "<bufferSizeConfKey>" deve ser menor que 2048 MiB, mas obteve <bufferSizeConfValue> MiB.
INVALID_KRYO_SERIALIZER_NO_DATA
O objeto '<obj>' é inválido ou malformado para <serdeOp> usando <serdeClass>.
INVALID_LABEL_USAGE
O uso do rótulo <labelName> é inválido.
Para obter mais detalhes, consulte INVALID_LABEL_USAGE
INVALID_LAMBDA_FUNCTION_CALL
Chamada de função lambda inválida.
Para obter mais detalhes, consulte INVALID_LAMBDA_FUNCTION_CALL
INVALID_LATERAL_JOIN_TYPE
A <joinType>JOIN com correlação LATERAL não é permitida porque uma subconsulta OUTER não pode se correlacionar ao parceiro de junção. Remova a correlação LATERAL ou use um INNERJOIN, ou LEFT OUTERJOIN em vez disso.
INVALID_LIMIT_LIKE_EXPRESSION
O limite como expressão <expr> é inválido.
Para obter mais detalhes, confira INVALID_LIMIT_LIKE_EXPRESSION
INVALID_LOG_VERSION
UnsupportedLogVersion.
Para obter mais detalhes , consulte INVALID_LOG_VERSION
INVALID_NAME_IN_USE_COMMAND
Nome inválido '<name>' no comando <command>. Motivo: <reason>
INVALID_NON_ABSOLUTE_PATH
O caminho <path> não absoluto fornecido não pode ser qualificado. Atualize o caminho para ser um local de montagem de DBFS válido.
INVALID_NON_DETERMINISTIC_EXPRESSIONS
O operador espera uma expressão determinística, mas a expressão real é <sqlExprs>.
INVALID_NUMERIC_LITERAL_RANGE
O literal numérico <rawStrippedQualifier> está fora do intervalo válido para <typeName>, com valor mínimo de <minValue> e valor máximo de <maxValue>. Ajuste o valor adequadamente.
INVALID_OBSERVED_METRICS
Métricas observadas inválidas.
Para obter mais detalhes, consulte INVALID_OBSERVED_METRICS
INVALID_OPTIONS
Opções inválidas:
Para obter mais detalhes , consulte INVALID_OPTIONS
INVALID_PANDAS_UDF_PLACEMENT
A UDF <functionList> de agregação de grupo do pandas não pode ser invocada junto com outras funções de agregação não pandas.
INVALID_PARAMETER_MARKER_VALUE
Um mapeamento de parâmetro inválido foi fornecido:
Para obter mais detalhes , consulte INVALID_PARAMETER_MARKER_VALUE
INVALID_PARAMETER_VALUE
O valor dos parâmetros <parameter> em <functionName> é inválido:
Para obter mais detalhes , consulte INVALID_PARAMETER_VALUE
INVALID_PARTITION_COLUMN_DATA_TYPE
Não é possível usar <type> para a coluna de partição.
INVALID_PARTITION_OPERATION
O comando de partição é inválido.
Para obter mais detalhes, consulte INVALID_PARTITION_OPERATION
INVALID_PARTITION_VALUE
Falha ao converter valor <value> em tipo <dataType> de dados para a coluna <columnName>de partição. Verifique se o valor corresponde ao tipo de dados esperado para esta coluna de partição.
INVALID_PIPELINE_ID
O ID do pipeline <pipelineId> não é válido.
Uma ID de pipeline deve ser uma UUID no formato 'xxxxxxxx-xxxx-xxxx-xxxx-xxxx-xxxxxxx'
INVALID_PRIVILEGE
O privilégio <privilege> não é válido para <securable>.
INVALID_PROPERTY_KEY
<key> é uma chave de propriedade inválida, use aspas, por exemplo, SET <key>=<value>.
INVALID_PROPERTY_VALUE
<value> é um valor de propriedade inválido, use aspas, por exemplo, SET <key>=<value>
INVALID_QUALIFIED_COLUMN_NAME
O nome <columnName> da coluna é inválido porque não é qualificado com um nome de tabela ou consiste em mais de 4 partes de nome.
INVALID_QUERY_MIXED_QUERY_PARAMETERS
A consulta parametrizada deve usar parâmetros posicionais ou nomeados, mas não ambos.
INVALID_RECURSIVE_CTE
Definição recursiva inválida encontrada. As consultas recursivas devem conter uma instrução UNION ou uma instrução UNION ALL com dois filhos. O primeiro filho deve ser o termo âncora sem referências recursivas. Qualquer CTE interno de nível superior não deve conter referências próprias.
INVALID_RECURSIVE_REFERENCE
Referência recursiva inválida encontrada dentro WITH RECURSIVE da cláusula.
Para obter mais detalhes, consulte INVALID_RECURSIVE_REFERENCE
INVALID_REGEXP_REPLACE
Não foi possível realizar a função regexp_replace para a origem = "<source>", padrão = "<pattern>", substituição = "<replacement>" e posição = <position>.
Dependência Redefinível Inválida
As tabelas <upstreamResettableTables> são redefiníveis, mas têm uma dependência downstream não redefinível '<downstreamTable>'.
reset falhará, pois o Streaming do Spark não dá suporte a dados de origem excluídos. Você pode remover a propriedade <resetAllowedKey>=false de '<downstreamTable>' ou adicioná-la às suas dependências anteriores.
INVALID_RESET_COMMAND_FORMAT
O formato esperado é "RESET" ou "chave RESET". Se você quiser incluir caracteres especiais na chave, use aspas, por exemplo, RESET key.
INVALID_RESIGNAL_USAGE
RESIGNAL quando o manipulador não estiver ativo.
RESIGNAL A instrução só pode ser usada dentro do bloco de código do manipulador de exceção.
INVALID_S3_COPY_CREDENTIALS
COPY INTO as credenciais devem incluir AWS_ACCESS_KEY, AWS_SECRET_KEY, e AWS_SESSION_TOKEN.
INVALID_SAVE_MODE
O modo <mode> de salvamento especificado é inválido. Os modos de salvamento válidos incluem“append”, “overwrite”, “ignore”, “error”, “errorifexists” e “default.
INVALID_SCHEMA
O esquema de entrada <inputSchema> não é uma cadeia de caracteres de esquema válida.
Para obter mais detalhes , consulte INVALID_SCHEMA
INVALID_SCHEMA_OR_RELATION_NAME
<name> não é um nome válido para tabelas/esquemas. Os nomes válidos contêm apenas caracteres alfabéticos, números e _.
TIPO_DE_ESQUEMA_INVÁLIDO_NÃO_ESTRUTURADO
Tipo de esquema inválido. Era esperado um tipo de struct, mas recebeu <dataType>.
INVALID_SCHEME
O catálogo do Unity não suporta <name> como esquema de arquivos padrão.
INVALID_SECRET_LOOKUP
Pesquisa de segredo inválida:
Para obter mais detalhes , consulte INVALID_SECRET_LOOKUP
INVALID_SET_SYNTAX
O formato esperado é 'SET', 'SET key' ou 'SET key=value'. Se você quiser incluir caracteres especiais na chave ou incluir ponto-e-vírgula no valor, use backquotes, por exemplo, SET key=value.
INVALID_SHARED_ALIAS_NAME
O <sharedObjectType> nome do alias deve ser do formato "schema.name".
INVALID_SINGLE_VARIANT_COLUMN
O esquema <schema> especificado pelo usuário é inválido quando a opção singleVariantColumn está habilitada. O esquema deve ser um campo variante ou um campo variante mais um campo de coluna corrompido.
INVALID_SOURCE_CATALOG
O catálogo de origem não deve estar no Catálogo do Unity para o SYNC comando. Encontrou <catalog>.
INVALID_SOURCE_FOR_FILTERING_SERVICE_MERGE_COMMAND
A origem da operação de serviço MERGE de filtragem só pode conter projeções e filtros.
Ajuste o comando MERGE ou use uma tabela de estágio como fonte.
<stmt>
INVALID_SPARK_CONFIG
Configuração inválida do Spark:
Para obter mais detalhes , consulte INVALID_SPARK_CONFIG
INVALID_SQLSTATE
Valor inválido SQLSTATE : '<sqlState>'.
SQLSTATE deve ter exatamente 5 caracteres e conter apenas A-Z e 0-9.
SQLSTATE não deve começar com '00', '01' ou 'XX'.
INVALID_SQL_ARG
O argumento <name> de sql() é inválido. Considere substituí-lo por um literal sql ou por funções de construtor de coleção, como map(), array(), struct().
INVALID_SQL_FUNCTION_DATA_ACCESS
Não é possível criar uma função SQL com CONTAINS SQL que acessa uma tabela/exibição ou uma função SQL que lê dados SQL. Em vez disso, use READS o SQL DATA.
INVALID_SQL_SYNTAX
Sintaxe SQL inválida:
Para obter mais detalhes , consulte INVALID_SQL_SYNTAX
INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY
Caminho de preparo inválido no preparo da consulta <operation>: <path>
INVALID_STATEMENT_FOR_EXECUTE_INTO
A cláusula INTO de EXECUTE IMMEDIATE é válida apenas para consultas, mas a instrução fornecida não é uma consulta: <sqlString>.
INVALID_STATEMENT_OR_CLAUSE
A instrução ou cláusula: <operation> não é válida.
INVALID_STREAMING_RATE_SOURCE_VERSION
Versão inválida para fonte de taxa: <version>. A versão deve ser 1 ou 2.
INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_INTERVAL
O intervalo de gatilho em tempo real é definido como <interval> ms. Isso é menor que o <minBatchDuration> ms mínimo especificado por spark.databricks.streaming.realTimeMode.minBatchDuration.
INVALID_STREAMING_REAL_TIME_MODE_TRIGGER_OVERRIDE_INTERVAL
O intervalo de ponto de verificação do gatilho em tempo real de <interval> não pôde ser analisado. Por favor, verifique se você forneceu um número inteiro positivo.
INVALID_SUBQUERY_EXPRESSION
Subconsulta inválida:
Para obter mais detalhes , consulte INVALID_SUBQUERY_EXPRESSION
INVALID_TARGET_FOR_ALTER_COMMAND
ALTER <commandTableType>
...
<command> não dá suporte <tableName>a . Em vez disso, use ALTER <targetTableType>...<command> .
INVALID_TARGET_FOR_SET_TBLPROPERTIES_COMMAND
ALTER <commandTableType>
...
SET TBLPROPERTIES não dá suporte <tableName>a . Em vez disso, use ALTER <targetTableType>...SET TBLPROPERTIES .
INVALID_TEMP_OBJ_REFERENCE
Não é possível criar o objeto <objName> persistente do tipo <obj> porque ele faz referência ao objeto <tempObjName> temporário do tipo <tempObj>. Torne o objeto <tempObjName> temporário persistente ou torne o objeto <objName> persistente temporário.
INVALID_TIMESTAMP_FORMAT
O carimbo de data/hora fornecido <timestamp> não corresponde à sintaxe esperada <format>.
INVALID_TIMEZONE
O fuso horário: <timeZone> é inválido. O fuso horário deve ser uma ID de zona baseada em região ou um deslocamento de zona. As IDs da região devem ter a forma "área/cidade", como "América/Los_Angeles". Os deslocamentos de zona devem estar no formato '(+|-)HH', '(+|-)HH:mm' ou '(+|-)HH:mm:ss', por exemplo, '-08' , '+01:00' ou '-13:33:33', e deve estar no intervalo de -18:00 a +18:00. 'Z' e 'UTC' são aceitos como sinônimos para '+00:00'.
INVALID_TIME_TRAVEL_SPEC
Não é possível especificar a versão e o carimbo de data/hora ao fazer uma viagem no tempo na tabela.
INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
A expressão de carimbo de data/hora de viagem no tempo <expr> é inválida.
Para obter mais detalhes, consulte INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
INVALID_TYPED_LITERAL
O valor do literal <valueType> tipado é inválido: <value>.
INVALID_UDF_IMPLEMENTATION
A função <funcName> não implementa um ScalarFunction ou AggregateFunction.
INVALID_UPGRADE_SYNTAX
<command> <supportedOrNot> a tabela de origem está no Metastore do Hive e a tabela de destino está no Catálogo do Unity.
INVALID_URL
A URL é inválida: <url>. Use try_parse_url para tolerar URL inválida e retornar NULL.
INVALID_USAGE_OF_STAR_OR_REGEX
Uso inválido de <elem> em <prettyName>.
INVALID_UTF8_STRING
Sequência de bytes UTF8 inválida encontrada na cadeia de caracteres: <str>.
INVALID_UUID
A entrada <uuidInput> não é uma UUID válida.
A UUID deve estar no formato 'xxxxxxxxx-xxxx-xxxx-xxxx-xxxx-xxxxxxx'
Verifique o formato da UUID.
INVALID_VARIABLE_DECLARATION
Declaração variável inválida.
Para obter mais detalhes, consulte INVALID_VARIABLE_DECLARATION
INVALID_VARIANT_CAST
O valor <value> da variante não pode ser convertido em <dataType>. Use try_variant_get em seu lugar.
INVALID_VARIANT_FROM_PARQUET
Variante inválida.
Para obter mais detalhes, consulte INVALID_VARIANT_FROM_PARQUET
INVALID_VARIANT_GET_PATH
O caminho <path> não é um caminho de extração variante válido em <functionName>.
Um caminho válido deve começar $ e é seguido por zero ou mais segmentos como [123], .name, ['name'], ou ["name"].
INVALID_VARIANT_SHREDDING_SCHEMA
O esquema <schema> não é um esquema de fragmentação de variante válido.
INVALID_WHERE_CONDITION
A WHERE condição <condition> contém expressões inválidas: <expressionList>.
Reescreva a consulta para evitar funções de janela, funções de agregação e funções geradoras na WHERE cláusula.
INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC
Não é possível especificar ORDER BY ou um quadro de janela para <aggFunc>.
INVALID_WITHIN_GROUP_EXPRESSION
Função inválida <funcName> com WITHIN GROUP.
Para obter mais detalhes, consulte INVALID_WITHIN_GROUP_EXPRESSION
INVALID_WRITER_COMMIT_MESSAGE
O gravador de fonte de dados gerou um número inválido de mensagens de confirmação. Esperava exatamente uma mensagem de confirmação de gravador de cada tarefa, mas recebeu <detail>.
INVALID_WRITE_DISTRIBUTION
A distribuição de gravação solicitada é inválida.
Para obter mais detalhes, consulte INVALID_WRITE_DISTRIBUTION
IRC_CREDENTIAL_VENDING_ERROR
Erro ao conectar-se ao host IRC, não foi possível vend credenciais para a tabela <tableIdentifier>.
Para obter mais detalhes , consulte IRC_CREDENTIAL_VENDING_ERROR
ISOLATED_COMMAND_FAILURE
Falha ao executar <command>. Saída do comando:
<output>
ISOLATED_COMMAND_UNKNOWN_FAILURE
Falha ao executar <command>.
ISOLATION_ENVIRONMENT_ERROR
Falha ao instalar dependências <name> de ambiente devido a um erro do sistema.
Para obter mais detalhes , consulte ISOLATION_ENVIRONMENT_ERROR
ISOLATION_ENVIRONMENT_USER_ERROR
Falha ao instalar dependências de ambiente para <name>.
Para obter mais detalhes , consulte ISOLATION_ENVIRONMENT_USER_ERROR
JDBC_EXTERNAL_ENGINE_SYNTAX_ERROR
Erro de sintaxe do mecanismo externo JDBC. O erro foi causado pela consulta <jdbcQuery>.
<externalEngineError>.
Para obter mais detalhes , consulte JDBC_EXTERNAL_ENGINE_SYNTAX_ERROR
JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE
A condição de junção <joinCondition> tem um tipo inválido <conditionType>, esperado "BOOLEAN".
KAFKA_DATA_LOSS
Alguns dados podem ter sido perdidos porque não estão mais disponíveis no Kafka;
os dados foram excluídos pelo Kafka ou o tópico pode ter sido excluído antes de todos os dados no
tópico serem processados.
Se você não quiser que a consulta de streaming falhe nesses casos, defina a opção de origem failOnDataLoss como false.
Reason:
Para obter mais detalhes , consulte KAFKA_DATA_LOSS
KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET
Não foi possível ler até que o número <endSeqNum> sequencial desejado para o fragmento <shardId> em
fluxo de kinesis <stream> com o modo de consumidor <consumerMode>. A consulta falhará devido a
perda de dados potencial. O último registro lido foi um número sequencial <lastSeqNum>.
Isso pode ocorrer se o dado com endSeqNum já expirou ou se o fluxo Kinesis foi
excluído e reconstruído com o mesmo nome. O comportamento de falha pode ser substituído
definindo spark.databricks.kinesis.failOnDataLoss como false na configuração do Spark.
KINESIS_EFO_CONSUMER_NOT_FOUND
Para o fluxo <streamId> do kinesis, o consumidor <consumerId> de EFO registrado anteriormente do fluxo foi excluído.
Reinicie a consulta para que um novo consumidor seja registrado.
KINESIS_EFO_SUBSCRIBE_LIMIT_EXCEEDED
Para shard <shard>, a chamada anterior da API subscribeToShard estava dentro dos 5 segundos da próxima chamada.
Reinicie a consulta após 5 segundos ou mais.
KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD
O shardId mínimo buscado do Kinesis (<fetchedShardId>)
é menor do que o shardId mínimo rastreado (<trackedShardId>).
Isso é inesperado e ocorre quando um fluxo do Kinesis é excluído e recriado com o mesmo nome,
e uma consulta de streaming usando esse fluxo do Kinesis é reiniciada usando um local de ponto de verificação existente.
Reinicie a consulta de streaming com um novo local de ponto de verificação ou crie um fluxo com um novo nome.
KINESIS_POLLING_MODE_UNSUPPORTED
O modo de sondagem Kinesis não é suportado.
KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION
Para <shard>de fragmentos, o último registro lido do Kinesis em buscas anteriores tem <lastSeqNum> de número de sequência,
que é maior que o registro lido na busca atual com o número de sequência <recordSeqNum>.
Isso é inesperado e pode acontecer quando a posição inicial da repetição ou da próxima busca é inicializada incorretamente e pode resultar em registros duplicados downstream.
KINESIS_SOURCE_MUST_BE_IN_EFO_MODE_TO_CONFIGURE_CONSUMERS
Para ler do Kinesis Streams com configurações de consumidor (consumerName, consumerNamePrefixou registeredConsumerId), consumerMode deve ser efo.
KINESIS_SOURCE_MUST_SPECIFY_REGISTERED_CONSUMER_ID_AND_TYPE
Para ler do Kinesis Streams com consumidores registrados, você deve especificar as opções registeredConsumerId e registeredConsumerIdType.
KINESIS_SOURCE_MUST_SPECIFY_STREAM_NAMES_OR_ARNS
Para ler do Kinesis Streams, você deve configurar (mas não ambos) das streamName opções ou streamARN como uma lista separada por vírgulas de nomes de fluxo/ARNs.
KINESIS_SOURCE_NO_CONSUMER_OPTIONS_WITH_REGISTERED_CONSUMERS
Para ler do Kinesis Streams com consumidores registrados, não configure as opções consumerName ou consumerNamePrefix, pois elas não entrarão em vigor.
KINESIS_SOURCE_REGISTERED_CONSUMER_ID_COUNT_MISMATCH
O número de IDs de consumidor registradas deve ser igual ao número de fluxos do Kinesis, mas tem <numConsumerIds> IDs de consumidor e <numStreams> fluxos.
KINESIS_SOURCE_REGISTERED_CONSUMER_NOT_FOUND
O consumidor <consumerId> registrado fornecido não pode ser encontrado para streamARN <streamARN>. Verifique se você registrou o consumidor ou não fornece a opção registeredConsumerId.
KINESIS_SOURCE_REGISTERED_CONSUMER_TYPE_INVALID
O tipo <consumerType> de consumidor registrado é inválido. Deve ser name ou ARN.
KLL_SKETCH_INCOMPATIBLE_MERGE
Para a função <functionName>, não é possível mesclar esboços KLL: <reason>
KLL_SKETCH_INVALID_INPUT
Para função <functionName>, dados binários de esboço kll inválidos: <reason>
KLL_SKETCH_INVALID_QUANTILE_RANGE
Para a função <functionName>, o valor do quantile deve estar entre 0,0 e 1,0 (inclusivo), mas tem <quantile>.
KLL_SKETCH_K_MUST_BE_CONSTANT
Para a função <functionName>, o parâmetro k deve ser um valor constante, mas tem uma expressão não constante.
KLL_SKETCH_K_OUT_OF_RANGE
Para a função <functionName>, o parâmetro k deve estar entre 8 e 65535 (inclusivo), mas tem <k>.
KRYO_BUFFER_OVERFLOW
Falha na serialização do Kryo: <exceptionMsg>. Para evitar isso, aumente o valor "<bufferSizeConfKey>".
LABELS_MISMATCH
O rótulo de início <beginLabel> não corresponde ao rótulo de fim <endLabel>.
LABEL_OU_PARA_VARIÁVEL_JÁ_EXISTE
O rótulo ou variável FOR<label> já existe. Escolha outro nome ou renomeie o existente.
RÓTULO_OU_PARA_NOME_DE_VARIÁVEL_PROIBIDO
O rótulo ou nome da variável FOR<label> é proibido.
LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION
A fonte de dados de federação do Lakehouse '<provider>' requer uma versão mais recente do Databricks Runtime.
Para obter mais detalhes, consulte LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION
LATERAL_JOIN_WITH_ARROW_UDTF_UNSUPPORTED
LATERAL
JOIN funções de tabela definidas pelo usuário (UDTFs) otimizadas com Arrow não são suportadas. UDTFs do Arrow não podem ser usados no lado direito de um join lateral.
Em vez disso, use um UDTF regular ou reestruture sua consulta para evitar a junção lateral.
LEGACY_CREATE_TEMP_TABLE_WITHOUT_PROVIDER_NOT_SUPPORTED
CREATE TEMPORARY TABLE sem um provedor não é permitido.
LOAD_DATA_PATH_NOT_EXISTS
LOAD DATA O caminho de entrada não existe: <path>.
LOCAL_MUST_WITH_SCHEMA_FILE
LOCAL deve ser usado junto com o esquema de file, mas obteve: <actualSchema>.
LOCATION_ALREADY_EXISTS
Não é possível nomear a tabela gerenciada como <identifier>, pois o local associado <location> já existe. Escolha um nome de tabela diferente ou remova o local existente primeiro.
LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW
Algumas das partições nos tópicos do Kafka foram perdidas durante a execução da consulta com Trigger.AvailableNow. O erro pode ser transitório : reinicie sua consulta e relate se você ainda vir o mesmo problema.
topic-partitions para o último deslocamento: <tpsForLatestOffset>, topic-partitions para o deslocamento final: <tpsForEndOffset>
MALFORMED_AVRO_MESSAGE
Mensagens malformadas do Avro são detectadas na desserialização de mensagens. Modo de Análise Sintática: <mode>. Para processar a mensagem malformada do Avro como resultado nulo, tente definir a opção 'mode' como 'PERMISSIVE'.
MALFORMED_CHARACTER_CODING
Valor inválido encontrado ao executar <function> com <charset>
MALFORMED_CSV_RECORD
Registro CSV malformado: <badRecord>
MALFORMED_LOG_FILE
O arquivo de log foi formatado incorretamente: falhou ao ler a versão correta do log de <text>.
MALFORMED_PROTOBUF_MESSAGE
Mensagens malformadas de Protobuf são detectadas na desserialização de mensagens. Modo de Análise Sintática: <failFastMode>. Para processar a mensagem protobuf malformada como resultado nulo, tente definir a opção 'mode' como 'PERMISSIVE'.
MALFORMED_RECORD_IN_PARSING
Registros malformados são detectados na análise de registros: <badRecord>.
Modo de Análise Sintática: <failFastMode>. Para processar registros malformados como resultado nulo, tente definir a opção 'mode' como 'PERMISSIVE'.
Para obter mais detalhes, consulte MALFORMED_RECORD_IN_PARSING
MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE
Estado malformado na origem RatePerMicroBatch.
Para obter mais detalhes, consulte MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE
MALFORMED_VARIANT
O binário da variante está malformado. Verifique se a fonte de dados é válida.
MANAGED_ICEBERG_ATTEMPTED_TO_ENABLE_CLUSTERING_WITHOUT_DISABLING_DVS_OR_ROW_TRACKING
Tentou habilitar o clustering Liquid em uma tabela do Apache Iceberg Gerenciado sem desabilitar os vetores de exclusão e o acompanhamento de linhas. Não há suporte para vetores de exclusão e acompanhamento de linha para tabelas do Apache Iceberg Gerenciado, mas são necessários para simultaneidade no nível de linha com tabelas Liquid. Para habilitar o clustering Liquid em uma tabela do Apache Iceberg Gerenciado com controle de simultaneidade reduzido, os vetores de exclusão e o acompanhamento de linhas devem ser desabilitados para esta tabela.
MANAGED_ICEBERG_OPERATION_NOT_SUPPORTED
As tabelas gerenciadas do Apache Iceberg não dão suporte <operation>.
MANAGED_TABLE_WITH_CRED
Não há suporte para criar uma tabela gerenciada com credencial de armazenamento.
MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID
O modo de exibição materializada não pode <refreshType> porque ele existia antes do pipelineId. Para habilitar <refreshType>, remova e recrie a exibição materializada.
MATERIALIZED_VIEW_NOT_INCREMENTALIZABLE
Não é possível criar a exibição materializada com <refreshPolicy> a política de atualização porque ela não tem suporte para atualização incremental. Reason:
Para obter mais detalhes , consulte MATERIALIZED_VIEW_NOT_INCREMENTALIZABLE
MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
A operação <operation> de exibição materializada não é permitida:
Para obter mais detalhes,consulte MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS
A expressão de saída <expression> em uma exibição materializada deve ter um alias explícito.
MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID
Não foi possível criar o modo de exibição materializada <name> com a consulta de streaming.
CREATE Use [ORREFRESH] STREAMING TABLE ou remova a STREAM palavra-chave para sua FROM cláusula para transformar essa relação em uma consulta em lote.
MATERIALIZED_VIEW_UNSUPPORTED_OPERATION
Atualmente, não há suporte para a operação <operation> em exibições materializadas.
MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED
Não é possível criar a nova variável <variableName> porque o número de variáveis na sessão excede o número máximo permitido (<maxNumVariables>).
MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE
maxRecordsPerFetch precisa ser um inteiro positivo menor ou igual a <kinesisRecordLimit>
MCV_INVALID_INPUT_SKETCH_BUFFER
A chamada inválida ; <function>somente buffers de esboço válidos do MCV têm suporte como entradas (como as produzidas pela mcv_collect_internal função).
MERGE_CARDINALITY_VIOLATION
A condição de pesquisa ON da instrução MERGE correspondeu a uma única linha da tabela de destino com várias linhas da tabela de origem.
Isso pode fazer com que a linha de destino seja submetida a mais de uma execução de uma operação de atualização ou exclusão, o que não é permitido.
MERGE_WITHOUT_WHEN
Deve haver pelo menos uma WHEN cláusula em uma MERGE declaração.
METRIC_CONSTRAINT_NOT_SUPPORTED
METRIC CONSTRAINT não está habilitado.
METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
O valor fornecido "<argValue>" não é suportado pelo argumento "<argName>" para a função de METRIC_STORE tabela.
Para obter mais detalhes, consulte METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
METRIC_STORE_UNSUPPORTED_ERROR
Atualmente, a rotina <routineName> do Repositório de Métricas está desabilitada nesse ambiente.
METRIC_VIEW_AMBIGUOUS_JOIN_CRITERIA
A definição de exibição de métrica contém uma junção com um critério ambíguo: <expr>. [Use os using critérios de junção ou qualifique explicitamente as colunas com o alias <sourceAlias> .]
METRIC_VIEW_CACHE_TABLE_NOT_SUPPORTED
A exibição de métrica não tem permissão para usar tabelas de cache.
METRIC_VIEW_FEATURE_DISABLED
O recurso de exibição de métrica está desabilitado. Verifique se "spark.databricks.sql.metricView.enabled" está definido como true.
METRIC_VIEW_INVALID_MEASURE_FUNCTION_INPUT
A MEASUREfunção () usa apenas um atributo como entrada, mas tem <expr>
METRIC_VIEW_INVALID_VIEW_DEFINITION
A definição de exibição de métrica é inválida. Motivo: <reason>.
METRIC_VIEW_IN_CTE_NOT_SUPPORTED
A exibição de métrica não é permitida em definições de CTE. plano: <plan>
METRIC_VIEW_JOIN_NOT_SUPPORTED
A exibição de métrica não tem permissão para usar junções. plano: <plan>
METRIC_VIEW_MATERIALIZATIONS_DISABLED
As materializações de visualização de métricas estão desabilitadas. Verifique se "spark.databricks.sql.metricView.materializations.enabled" está definido como true.
METRIC_VIEW_MATERIALIZATIONS_UNAGGREGATED_WITH_METRIC_VIEW
Não há suporte para materialização não agregada quando a exibição de métrica faz referência a outras exibições de métrica.
METRIC_VIEW_MATERIALIZATION_ON_TEMPORARY_VIEW_NOT_SUPPORTED
Não há suporte para materialização em exibições de métrica temporárias.
METRIC_VIEW_MATERIALIZATION_WITH_INVOKER_DEPENDENT_EXPRESSIONS_NOT_SUPPORTED
Não há suporte para materialização para exibições de métrica que contêm expressões dependentes de invocador. Essas expressões impedem a reutilização da materialização.
METRIC_VIEW_MEASURE_IN_GROUP_BY
<measureColumns> colunas de medida não podem ser usadas na GROUP BY cláusula ou como valores categóricos. É recomendável encabrá-los com uma função de agregação, como SOMA() para o comportamento esperado.
METRIC_VIEW_MISSING_MEASURE_FUNCTION
O uso da coluna de medida <column> de uma exibição de métrica requer uma função MEASURE() para produzir resultados.
METRIC_VIEW_NOT_MATERIALIZED
Chamado comando de exibição materializada na exibição de métrica sem materializações definidas
Para obter mais detalhes , consulte METRIC_VIEW_NOT_MATERIALIZED
METRIC_VIEW_NOT_SUPPORTED_IN_HMS (Visualização de métrica não suportada no HMS)
Não há suporte para exibições de métrica no HMS.
METRIC_VIEW_RENAME_DIFFERENT_CATALOG_AND_SCHEMA
A visualização de métricas <oldName> não tem permissão para ser renomeada para um catálogo ou esquema diferente: <newName>.
METRIC_VIEW_SNOWFLAKE_JOIN_FEATURE_DISABLED
O recurso de junção snowflake de exibição de métrica está desabilitado. Verifique se "spark.databricks.sql.metricView.snowflake.join.enable" está definido como true.
METRIC_VIEW_UNSUPPORTED_USAGE
O uso da visualização métrica não é suportado. plano: <plan>
METRIC_VIEW_WINDOW_FUNCTION_NOT_SUPPORTED
O modo de exibição de métrica não tem permissão para usar a função de janela <expr>.
METRIC_VIEW_YAML_V11_DISABLED
A exibição de métrica YAML v1.1 está desabilitada. Verifique se "spark.databricks.sql.metricView.yaml.v11.enabled" está definido como true.
MIGRATION_NOT_SUPPORTED
<table> não é suportado para migração para tabela gerenciada pelo UC porque não é uma tabela <tableKind>.
Verifique se a tabela que está sendo migrada é uma tabela delta externa UC.
ele é referenciado por seu nome em vez de caminho.
MIGRATION_ROLLBACK_NOT_SUPPORTED
<table> não é compatível com o processo de reversão entre uma tabela gerenciada e uma tabela externa, devido ao fato de que não é uma tabela <tableKind>.
MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED
Fonte de dados Kafka em Trigger.AvailableNow deve fornecer as mesmas partições de tópico no deslocamento pré-coletado para deslocamento final para cada microlote. O erro pode ser transitório : reinicie sua consulta e relate se você ainda vir o mesmo problema.
topic-partitions para o deslocamento pré-coletado: <tpsForPrefetched>, topic-partitions para o deslocamento final: <tpsForEndOffset>.
MISSING_AGGREGATION
A expressão não agregada <expression> é baseada em colunas que não estão participando da cláusula GROUP BY.
Adicione as colunas ou a expressão ao GROUP BY, agrupe a expressão ou use <expressionAnyValue> se você não se importar com quais valores em um grupo serão retornados.
Para obter mais detalhes , consulte MISSING_AGGREGATION
MISSING_CATALOG_ABILITY
O catálogo <plugin> não dá suporte
Para obter mais detalhes , consulte MISSING_CATALOG_ABILITY
MISSING_CLAUSES_FOR_OPERATION
Cláusula <clauses> ausente para a operação <operation>. Adicione as cláusulas necessárias.
MISSING_CONNECTION_OPTION
As conexões do tipo '<connectionType>' devem incluir as seguintes opções: <requiredOptions>.
MISSING_DATABASE_FOR_V1_SESSION_CATALOG
O nome do banco de dados não é especificado no catálogo de sessão v1. Certifique-se de fornecer um nome de banco de dados válido ao interagir com o catálogo v1.
MISSING_GROUP_BY
A consulta não inclui uma GROUP BY cláusula. Adicione GROUP BY ou transforme-o nas funções de janela usando cláusulas OVER.
MISSING_NAME_FOR_CHECK_CONSTRAINT
CHECK A restrição deve ter um nome.
MISSING_PARAMETER_FOR_KAFKA
O parâmetro <parameterName> é necessário para Kafka, mas não é especificado em <functionName>.
MISSING_PARAMETER_FOR_ROUTINE
O parâmetro <parameterName> é necessário, mas não é especificado em <functionName>.
MISSING_SCHEDULE_DEFINITION
Uma definição de agenda deve ser fornecida a seguir SCHEDULE.
MISSING_TIMEOUT_CONFIGURATION
A operação atingiu o tempo limite, mas não há tempo limite configurado. Para definir um tempo limite baseado em tempo de processamento, use 'GroupState.setTimeoutDuration()' em sua operação 'mapGroupsWithState' ou 'flatMapGroupsWithState'. Para tempo limite baseado em tempo de evento, use "GroupState.setTimeoutTimestamp()" e defina uma marca d'água usando "Dataset.withWatermark()".
MISSING_WINDOW_SPECIFICATION
A especificação da janela não está definida na WINDOW cláusula para <windowName>. Para obter mais informações sobre WINDOW cláusulas, consulte '<docroot>/sql-ref-syntax-qry-select-window.html'.
MODIFY_BUILTIN_CATALOG
Não há suporte para a modificação do catálogo <catalogName> interno.
MULTIPART_FLOW_NAME_NOT_SUPPORTED
Não há suporte para o fluxo com o nome '<flowName>' de várias partes.
MULTIPLE_EXCEL_DATA_SOURCE
Detectou várias fontes de dados do Excel com o nome <provider> (<sourceNames>). Especifique o nome da classe totalmente qualificado ou remova <externalSource> do classpath.
MULTIPLE_LOAD_PATH
O Databricks Delta não dá suporte a vários caminhos de entrada na API load().
caminhos: <pathList>. Para criar apenas um DataFrame carregando
vários caminhos da mesma tabela Delta, carregue o caminho raiz da
a tabela Delta com os filtros de partição correspondentes. Se os vários caminhos
forem de diferentes tabelas Delta, use as APIs union()/unionByName() do conjunto de dados
para combinar os DataFrames gerados por chamadas separadas à API load().
MULTIPLE_MATCHING_CONSTRAINTS
Encontrado pelo menos duas restrições correspondentes com a condição fornecida.
MULTIPLE_QUERY_RESULT_CLAUSES_WITH_PIPE_OPERATORS
<clause1> e <clause2> não pode coexistir no mesmo operador de pipe SQL usando '|>'. Separe as várias cláusulas de resultado em operadores de pipe separados e repita a consulta novamente.
MULTIPLE_TIME_TRAVEL_SPEC
Não é possível especificar a viagem no tempo tanto na cláusula de viagem no tempo quanto nas opções.
MULTIPLE_XML_DATA_SOURCE
Detectou várias fontes de dados com o nome <provider> (<sourceNames>). Especifique o nome da classe totalmente qualificado ou remova <externalSource> do classpath.
MULTI_ALIAS_WITHOUT_GENERATOR
O aliasing de várias partes (<names>) não tem suporte com <expr>, pois não é uma função geradora.
MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION
A expressão <expr> não dá suporte a mais de uma fonte.
MULTI_SOURCE_METRIC_VIEW_MEASURE_REFERENCING_DIMENSION
A coluna de medida <measureColumn> na exibição de métrica não pode referenciar colunas de dimensão (<dimensionColumn>).
MULTI_SOURCE_METRIC_VIEW_UNQUALIFIED_MEASURE_REF
A referência <measureColumn> de coluna de medida não qualificada no modo de exibição de métrica de várias fontes não é permitida. Qualifique a coluna de medida com o alias de origem.
MULTI_SOURCE_METRIC_VIEW_UNSUPPORTED_EXPRESSION
Não há suporte para a expressão de agregação sobre várias fontes no modo de exibição de métrica: <expr>.
MULTI_UDF_INTERFACE_ERROR
Não é permitido que a classe UDF <className> implemente várias interfaces UDF.
MUTUALLY_EXCLUSIVE_CLAUSES
Cláusulas ou opções <clauses>mutuamente exclusivas. Remova uma dessas cláusulas.
MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE
A consulta de entrada espera um <expectedType>, mas a tabela subjacente é um <givenType>.
NAMED_PARAMETERS_NOT_SUPPORTED
Parâmetros nomeados não têm suporte para a função <functionName>; tente novamente a consulta com argumentos posicionais para a chamada de função.
NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS
Não é possível chamar a função <functionName> porque não há suporte para referências de argumento nomeado. Nesse caso, a referência de argumento nomeado foi <argument>.
NAMED_PARAMETER_SUPPORT_DISABLED
Não é possível chamar a função <functionName> porque as referências de argumento nomeado não estão habilitadas aqui.
Nesse caso, a referência de argumento nomeado foi <argument>.
Defina "spark.sql.allowNamedFunctionArguments" como "true" para ativar o recurso.
NAMESPACE_ALREADY_EXISTS
Não é possível criar namespace <nameSpaceName> porque ele já existe.
Escolha um nome diferente, solte o namespace existente ou adicione a IF NOT EXISTS cláusula para tolerar o namespace pré-existente.
NAMESPACE_NOT_EMPTY
Não é possível descartar um namespace <nameSpaceNameName> porque ele contém objetos.
Use DROP NAMESPACE...CASCADE para remover o namespace e todos os seus objetos.
NAMESPACE_NOT_FOUND
O namespace <nameSpaceName> não pode ser encontrado. Verifique a ortografia e a correção do namespace.
Se você não qualificou o nome com, verifique a saída current_schema() ou qualifique o nome com o corretamente.
Para tolerar o erro no uso suspenso DROP NAMESPACE IF EXISTS.
NATIVE_IO_ERROR
Falha na solicitação nativa. requestId: <requestId>, nuvem: <cloud>, operação: <operation>
request: [https: <https>, method = <method>, path = <path>, params = <params>, host = <host>, headers = <headers>, bodyLen = <bodyLen>],
erro: <error>
NATIVE_XML_DATA_SOURCE_NOT_ENABLED
A fonte de dados XML nativa não está habilitada neste cluster.
NEGATIVE_SCALE_DISALLOWED
A escala negativa não é permitida: '<scale>'. Defina a configuração <sqlConf> como "true" para permitir.
NEGATIVE_VALUES_IN_FREQUENCY_EXPRESSION
Encontrou o valor negativo em <frequencyExpression>: <negativeValue>, mas esperava um valor integral positivo.
NESTED_AGGREGATE_FUNCTION
Não é permitido usar uma função de agregação no argumento de outra função de agregação. Use a função de agregação interna em uma subconsulta.
NESTED_EXECUTE_IMMEDIATE
Comandos aninhados EXECUTE IMMEDIATE não são permitidos. Verifique se a consulta SQL fornecida (<sqlString>) não contém outro EXECUTE IMMEDIATE comando.
NESTED_REFERENCES_IN_LATERAL_SUBQUERY_NOT_SUPPORTED
Detectou referências <expression> de escopo externo na subconsulta lateral que não tem suporte. Verifique se a subconsulta lateral não contém subconsultas que fazem referência a atributos de escopos externos aninhados.
Referências aninhadas em subconsulta não são suportadas
Detectou referências <expression> de escopo externo na subconsulta que não são suportadas.
NEW_CHECK_CONSTRAINT_VIOLATION
A nova restrição de verificação (<expression>) não pode ser adicionada porque ela seria violada pelos dados existentes na tabela <tableName>. Verifique se todas as linhas existentes atendem à restrição antes de adicioná-la.
NONEXISTENT_FIELD_NAME_IN_LIST
Campo(s) <nonExistFields> não existe(m). Campos disponíveis: <fieldNames>
CONSTRAINTE_DE_VERIFICAÇÃO_NÃO_DETERMINÍSTICA
A restrição de verificação <checkCondition> não é determinística. As restrições de verificação devem conter apenas expressões determinísticas.
NON_FOLDABLE_ARGUMENT
A função <funcName> requer que o parâmetro <paramName> seja uma expressão dobrável do tipo <paramType>, mas o argumento real é não dobrável.
NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Quando há mais de uma cláusula MATCHED em uma instrução MERGE, somente a última cláusula MATCHED pode omitir a condição.
NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Quando há mais de uma cláusula NOT MATCHED BY SOURCE em uma instrução MERGE, somente a última cláusula NOT MATCHED BY SOURCE pode omitir a condição.
NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION
Quando há mais de uma cláusula NOT MATCHED [BY TARGET] em uma instrução MERGE, somente a última cláusula NOT MATCHED [BY TARGET] pode omitir a condição.
NON_LITERAL_PIVOT_VALUES
Expressões literais necessárias para valores dinâmicos, encontroou <expression>.
NON_PARTITION_COLUMN
PARTITION A cláusula não pode conter a coluna de não partição: <columnName>.
NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING
Não há suporte para a função de janela no <windowFunc> (como coluna <columnName>) em DataFrames/Datasets do streaming.
O Streaming Estruturado dá suporte apenas à agregação de janela de tempo usando a WINDOW função. (especificação da janela: <windowSpec>)
NOT_ALLOWED_IN_FROM
Na cláusula FROM, não é permitido:
Para obter mais detalhes, consulte NOT_ALLOWED_IN_FROM
NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE
Não permitido na cláusula WHERE do pipe:
Para obter mais detalhes, consulte NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE
NOT_A_CONSTANT_STRING
A expressão <expr> usada para a rotina ou cláusula <name> deve ser uma constanteSTRING.NOT NULL
Para obter mais detalhes, consulte NOT_A_CONSTANT_STRING
NOT_A_PARTITIONED_TABLE
A operação <operation> não é permitida porque <tableIdentWithDB> não é uma tabela particionada.
NOT_A_SCALAR_FUNCTION
<functionName> aparece como uma expressão escalar aqui, mas a função foi definida como uma função de tabela. Atualize a consulta para mover a chamada de função para a FROM cláusula ou redefinir <functionName> como uma função escalar.
NOT_A_TABLE_FUNCTION
<functionName> aparece como uma função de tabela aqui, mas a função foi definida como uma função escalar. Atualize a consulta para mover a chamada de função para fora da FROM cláusula ou redefinir <functionName> como uma função de tabela.
NOT_ENOUGH_ARGS
A função <functionName> espera pelo menos <minNum> parâmetros, mas recebeu <actualNum> (<actualArgs>).
NOT_NULL_ASSERT_VIOLATION
O valor NULL apareceu no campo não anulável: <walkedTypePath>se o esquema for inferido de uma classe de tupla/caso Scala ou um bean Java, tente usar scala.Option[_] ou outros tipos anuláveis (como java.lang.Integer em vez de int/scala.Int).
NOT_NULL_CONSTRAINT_VIOLATION
Atribuir um NULL não é permitido aqui.
Para obter mais detalhes, consulte NOT_NULL_CONSTRAINT_VIOLATION
NOT_SUPPORTED_CHANGE_COLUMN
ALTER TABLE ALTER
/
CHANGE COLUMN não é possível alterar a coluna <table><originName> com tipo <originType> para <newName> com tipo <newType>.
NOT_SUPPORTED_CHANGE_SAME_COLUMN
ALTER TABLE ALTER
/
CHANGE COLUMN não é compatível com a alteração da coluna <table> de <fieldName>, incluindo seus campos aninhados, várias vezes no mesmo comando.
NOT_SUPPORTED_COMMAND_FOR_V2_TABLE
<cmd> não há suporte para tabelas v2.
NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT
<cmd> não é suportado, se você quiser habilitá-lo, defina "spark.sql.catalogImplementation" como "hive".
NOT_SUPPORTED_IN_JDBC_CATALOG
Comando sem suporte no catálogo JDBC:
Para obter mais detalhes, consulte NOT_SUPPORTED_IN_JDBC_CATALOG
NOT_SUPPORTED_WITH_DB_SQL
<operation> não é suportado para um SQL <endpoint>.
NOT_SUPPORTED_WITH_SERVERLESS
<operation> não há suporte na computação sem servidor.
NOT_UNRESOLVED_ENCODER
O codificador não resolvido era esperado, mas <attr> foi encontrado.
NO_ACTIVE_TRANSACTION
Não há nenhuma transação ativa para <action>.
NO_DEFAULT_COLUMN_VALUE_AVAILABLE
Não é possível determinar o valor padrão, <colName> pois ele não é anulável e não tem nenhum valor padrão.
NO_HANDLER_FOR_UDAF
Nenhum manipulador para a UDAF "<functionName>". Em vez disso, use sparkSession.udf.register(...).
NO_MERGE_ACTION_SPECIFIED
df.mergeInto precisa ser seguido por pelo menos um de whenMatched/whenNotMatched/whenNotMatchedBySource.
NO_PARENT_EXTERNAL_LOCATION_FOR_PATH
Nenhum local externo pai foi encontrado para o caminho "<path>". Crie um local externo em um dos caminhos pai e tente novamente executar a consulta ou o comando.
NO_PRIMARY_KEY_CONSTRAINT_EXCEPTION
TABLE <table> não tem uma restrição de chave primária.
NO_SQL_TYPE_IN_PROTOBUF_SCHEMA
Não é possível localizar <catalystFieldPath> no esquema Protobuf.
NO_STORAGE_LOCATION_FOR_TABLE
SQLSTATE: nenhum estado atribuído
Nenhum local de armazenamento foi encontrado para a tabela '<tableId>' ao gerar credenciais de tabela. Verifique o tipo de tabela e a URL do local da tabela e tente novamente a consulta ou o comando novamente.
NO_SUCH_CATALOG_EXCEPTION
O catálogo '<catalog>' não foi encontrado. Verifique o nome do catálogo e tente novamente a consulta ou o comando novamente.
NO_SUCH_CLEANROOM_EXCEPTION
SQLSTATE: nenhum estado atribuído
A sala limpa '<cleanroom>' não existe. Verifique se o nome da sala limpa está escrito corretamente e corresponde ao nome de uma sala limpa existente válida e tente novamente a consulta ou o comando.
NO_SUCH_CONSTRAINT_EXCEPTION
Restrição <constraint> não encontrada em <identifier>.
NO_SUCH_CREDENTIAL_EXCEPTION
A credencial '<credential>' não existe. Verifique se o nome da credencial está escrito corretamente e corresponde ao nome de uma credencial existente válida e tente novamente a consulta ou o comando.
NO_SUCH_EXTERNAL_LOCATION_EXCEPTION
SQLSTATE: nenhum estado atribuído
O local externo '<externalLocation>' não existe. Verifique se o nome do local externo está correto e tente novamente a consulta ou o comando novamente.
NO_SUCH_METASTORE_EXCEPTION
SQLSTATE: nenhum estado atribuído
O metastore não foi encontrado. Peça ao administrador da conta que atribua um metastore ao workspace atual e tente novamente a consulta ou o comando novamente.
NO_SUCH_PROVIDER_EXCEPTION
SQLSTATE: nenhum estado atribuído
O provedor de compartilhamento '<providerName>' não existe. Verifique se o nome do provedor de compartilhamento está escrito corretamente e corresponde ao nome de um nome de provedor existente válido e tente novamente a consulta ou o comando.
NO_SUCH_RECIPIENT_EXCEPTION
SQLSTATE: nenhum estado atribuído
O destinatário '<recipient>' não existe. Verifique se o nome do destinatário está escrito corretamente e corresponde ao nome de um destinatário existente válido e tente novamente a consulta ou o comando novamente.
NO_SUCH_SHARE_EXCEPTION
SQLSTATE: nenhum estado atribuído
O compartilhamento '<share>' não existe. Verifique se o nome do compartilhamento está escrito corretamente e corresponde ao nome de um compartilhamento existente válido e tente novamente a consulta ou o comando novamente.
NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION
SQLSTATE: nenhum estado atribuído
A credencial de armazenamento '<storageCredential>' não existe. Verifique se o nome da credencial de armazenamento está escrito corretamente e corresponde ao nome de uma credencial de armazenamento existente válida e tente novamente a consulta ou o comando.
NO_SUCH_USER_EXCEPTION
SQLSTATE: nenhum estado atribuído
O usuário '<userName>' não existe. Verifique se o usuário ao qual você concede permissão ou altera a propriedade está escrito corretamente e corresponde ao nome de um usuário existente válido e tente novamente a consulta ou o comando novamente.
NO_UDF_INTERFACE
A classe <className> UDF não implementa nenhuma interface UDF.
NULLABLE_COLUMN_OR_FIELD
A coluna ou o campo <name> é anulável, embora devesse ser não anulável.
NULLABLE_ROW_ID_ATTRIBUTES
Atributos de ID de linha não podem ser anuláveis: <nullableRowIdAttrs>.
NULL_DATA_SOURCE_OPTION
A opção de leitura/gravação <option> da fonte de dados não pode ter valor nulo.
NULL_MAP_KEY
Não é possível usar nulo como chave de mapa.
NULL_QUERY_STRING_EXECUTE_IMMEDIATE
Executar imediatamente requer uma variável não nula como a cadeia de caracteres de consulta, mas a variável <varName> fornecida é nula.
NULL_VALUE_SIGNAL_STATEMENT
Os argumentos da instrução Signal exigem valores não nulos, mas <argument> receberam um valor nulo.
NUMERIC_OUT_OF_SUPPORTED_RANGE
O valor <value> não pode ser interpretado como numérico, pois tem mais de 38 dígitos.
NUMERIC_VALUE_OUT_OF_RANGE
Para obter mais detalhes , consulte NUMERIC_VALUE_OUT_OF_RANGE
NUM_COLUMNS_MISMATCH
<operator> só pode ser executado em entradas com o mesmo número de colunas, mas a primeira entrada tem <firstNumColumns> colunas e a <invalidOrdinalNum> entrada tem <invalidNumColumns> colunas.
NUM_TABLE_VALUE_ALIASES_MISMATCH
O número de aliases fornecidos não corresponde ao número de colunas de saída.
Nome da função: <funcName>; número de aliases: <aliasesNum>; número de colunas de saída: <outColsNum>.
OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED
Nenhuma declaração de identidade personalizada foi fornecida.
ONLY_SECRET_FUNCTION_SUPPORTED_HERE
Chamar a função <functionName> não tem suporte neste <location>; <supportedFunctions> tem suporte aqui.
ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR
A operação <operation> SQL só tem suporte em conectores SQL do Databricks com suporte do Unity Catalog.
OPERATION_CANCELED
A operação foi cancelada.
OPERATION_REQUIRES_UNITY_CATALOG
A operação <operation> requer o Catálogo do Unity habilitado.
OP_NOT_SUPPORTED_READ_ONLY
Não há suporte para <plan> no modo de sessão somente leitura.
ORDER_BY_POS_OUT_OF_RANGE
ORDER BY a posição <index> não está na lista de seleção (o intervalo válido é [1, <size>]).
PARQUET_CONVERSION_FAILURE
Não é possível criar um conversor Parquet para o tipo de dados <dataType> cujo tipo Parquet é <parquetType>.
Para obter mais detalhes , consulte PARQUET_CONVERSION_FAILURE
PARQUET_TYPE_ILLEGAL
Tipo parquet ilegal: <parquetType>.
PARQUET_TYPE_NOT_RECOGNIZED
Tipo parquet não reconhecido: <field>.
PARQUET_TYPE_NOT_SUPPORTED
O tipo Parquet ainda não tem suporte: <parquetType>.
PARSE_EMPTY_STATEMENT
Erro de sintaxe, instrução vazia inesperada.
PARSE_MODE_UNSUPPORTED
A função <funcName> não dá suporte ao <mode> modo. Os modos aceitáveis são PERMISSIVE e FAILFAST.
PARSE_SYNTAX_ERROR
Erro de sintaxe em ou perto <error> <hint>.
PARTITIONS_ALREADY_EXIST
Não é possível usar ADD ou RENAME TO partições <partitionList> na tabela <tableName> porque elas já existem.
Escolha um nome diferente, solte a partição existente ou adicione a IF NOT EXISTS cláusula para tolerar uma partição pré-existente.
PARTITIONS_NOT_FOUND
As partições <partitionList> não podem ser encontradas na tabela <tableName>.
Verifique a especificação de partição e o nome da tabela.
Para tolerar o erro na remoção use ALTER TABLE...
DROP IF EXISTS PARTITION.
PARTITION_COLUMN_NOT_FOUND_IN_SCHEMA
Coluna de partição <column> não encontrada no esquema <schema>. Forneça a coluna existente para particionamento.
PARTITION_LOCATION_ALREADY_EXISTS
O local <locationPath> da partição já existe na tabela <tableName>.
PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY
Falhou ao executar a instrução ALTER TABLE SET PARTITION LOCATION, porque o
O local <location> da partição não está no diretório <table>da tabela.
Para corrigi-lo, defina o local da partição como um subdiretório de <table>.
PARTITION_METADATA
<action> não é permitido na tabela <tableName> , pois não há suporte para o armazenamento de metadados de partição no Catálogo do Unity.
PARTITION_NUMBER_MISMATCH
O número de valores (<partitionNumber>) não correspondeu ao tamanho do esquema (<partitionSchemaSize>): os valores são <partitionValues>, o esquema é <partitionSchema>, o caminho do arquivo é <urlEncodedPath>.
Materialize novamente a tabela ou entre em contato com o proprietário.
PARTITION_TRANSFORM_EXPRESSION_NOT_IN_PARTITIONED_BY
A expressão <expression> deve estar dentro de 'partitionedBy'.
PATH_ALREADY_EXISTS
O caminho <outputPath> já existe. Defina o modo como “overwrite” para substituir o caminho existente.
PATH_NOT_FOUND
O caminho não existe: <path>.
PATH_RESOLUTION_ERROR
Não foi possível resolver o caminho <path>. Causado por: <causedBy>
PHOTON_DESERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED
Desserializar o plano de protobuf do Photon requer pelo menos <size> bytes, o que excede o
limite de <limit> bytes. Isso pode ser devido a um plano muito grande ou a presença de um muito
esquema abrangente Tente simplificar a consulta, remover colunas desnecessárias ou desabilitar o Photon.
PHOTON_SERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED
O plano de protobuf do Photon serializado tem <size> bytes de tamanho, o que excede o limite de
<limit> Bytes. O tamanho serializado dos tipos de dados no plano é <dataTypeSize> bytes.
Isso pode ser devido a um plano muito grande ou à presença de um esquema muito amplo.
Considere reescrever a consulta para remover operações e colunas indesejadas ou desabilitar o Photon.
Conjunto de Dados da Pipeline sem Fluxo
O conjunto de <identifier> dados de pipeline não tem fluxos definidos. Anexe uma consulta com a definição do conjunto de dados ou defina explicitamente pelo menos um fluxo que grava no conjunto de dados.
PIPELINE_DOES_NOT_EXIST
O pipeline "<pipelineId>" não existe
Para obter mais detalhes , consulte PIPELINE_DOES_NOT_EXIST
PIPELINE_DUPLICATE_IDENTIFIERS
Um identificador duplicado foi encontrado para elementos registrados no grafo de fluxo de dados do pipeline.
Para obter mais detalhes , consulte PIPELINE_DUPLICATE_IDENTIFIERS
PIPELINE_SQL_GRAPH_ELEMENT_REGISTRATION_ERROR
<message>
<offendingQuery>
<codeLocation>
PIPELINE_STORAGE_ROOT_INVALID
A raiz do armazenamento de pipeline deve ser um caminho absoluto com um esquema de URI (por exemplo, file://, s3a://, hdfs://). Got: <storage_root>. .
PIPE_OPERATOR_AGGREGATE_EXPRESSION_CONTAINS_NO_AGGREGATE_FUNCTION
A expressão <expr> não agrupada é fornecida como um argumento para o operador de pipe |>AGGREGATE, mas não contém nenhuma função de agregação; atualize-a para incluir uma função de agregação e tente a consulta novamente.
PIPE_OPERATOR_CONTAINS_AGGREGATE_FUNCTION
A função de agregação <expr> não é permitida ao usar o operador pipe |><clause> cláusula, use o operador pipe |>AGGREGATE cláusula em vez disso.
PIVOT_VALUE_DATA_TYPE_MISMATCH
Valor de pivô inválido '<value>': o tipo de dados do valor <valueType> não corresponde ao tipo de dados da coluna de pivô <pivotType>.
POLICY_ALREADY_EXISTS
Não é possível criar a política <policyName> porque ela já existe.
Escolha um nome diferente ou remova a política existente para tolerar conexões pré-existentes.
POLICY_NOT_FOUND
Não é possível executar o comando <commandType> porque a política <policyName> em <securableFullname> não pode ser encontrada.
Verifique a ortografia e a correção.
POLICY_ON_SECURABLE_TYPE_NOT_SUPPORTED
Não é possível criar uma política no tipo segurável <securableType>. Tipos seguráveis com suporte: <allowedTypes>.
PREVIEW_FEATURE_NOT_ENABLED
O recurso <featureName> de visualização não está habilitado. Entre em contato com o administrador do workspace para habilitar esse recurso por meio do portal de visualização.
PROCEDURE_ARGUMENT_NUMBER_MISMATCH
O procedimento <procedureName> espera <expected> argumentos, mas <actual> foram fornecidos.
PROCEDURE_CREATION_EMPTY_ROUTINE
CREATE PROCEDURE com uma definição de rotina vazia não é permitida.
PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT
O parâmetro <parameterName> é definido com o modo de parâmetro <parameterMode>. OUT e INOUT parâmetro não podem ser omitidos ao invocar uma rotina e, portanto, não dão suporte a uma DEFAULT expressão. Para continuar, remova a DEFAULT cláusula ou altere o modo de parâmetro para IN.
PROCEDURE_NOT_SUPPORTED
Não há suporte para o procedimento armazenado
PROCEDURE_NOT_SUPPORTED_WITH_HMS
Não há suporte para o procedimento armazenado com o Metastore do Hive. Em vez disso, use o Catálogo do Unity.
PROTOBUF_DEPENDENCY_NOT_FOUND
Não foi possível localizar a dependência: <dependencyName>.
PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND
Erro ao ler o arquivo de descritor Protobuf no caminho: <filePath>.
PROTOBUF_FIELD_MISSING
Pesquisando por <field> no esquema Protobuf em <protobufSchema> forneceu <matchSize> correspondências. Candidatos: <matches>.
PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA
Detectado <field> no esquema Protobuf, mas não há correspondente no esquema SQL.
PROTOBUF_FIELD_TYPE_MISMATCH
Incompatibilidade de tipo encontrada no campo: <field>.
PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED
Não há suporte para classes Java para <protobufFunction>. Contate o Suporte do Databricks sobre opções alternativas.
PROTOBUF_MESSAGE_NOT_FOUND
Não é possível localizar a Mensagem <messageName> no Descritor.
PROTOBUF_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE
Não é possível chamar a <functionName> função SQL porque a fonte de dados protobuf não está carregada.
Reinicie seu trabalho ou sessão com o pacote 'spark-protobuf' carregado, como usando o argumento --packages na linha de comando e tente novamente sua consulta ou comando novamente.
PROTOBUF_TYPE_NOT_SUPPORT
O tipo de Protobuf ainda não tem suporte: <protobufType>.
PS_FETCH_RETRY_EXCEPTION
A tarefa no estágio de busca de pubsub não pode ser repetida. Partição <partitionInfo> no estágio <stageInfo>, TID <taskId>.
PS_INVALID_EMPTY_OPTION
<key> não pode ser uma cadeia de caracteres vazia.
PS_INVALID_KEY_TYPE
Tipo de chave inválido das deduções do PubSub: <key>.
PS_INVALID_OPTION
A opção <key> não tem suporte do PubSub. Ele só pode ser usado em testes.
PS_INVALID_OPTION_TYPE
Tipo inválido para <key>. Tipo esperado de <key> é tipo <type>.
PS_INVALID_READ_LIMIT
Limite de leitura inválido no fluxo pubSub: <limit>.
PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO
UnsafeRow inválido para decodificar no PubSubMessageMetadata, o esquema proto desejado é: <protoSchema>. A entrada UnsafeRow pode estar corrompida: <unsafeRow>.
PS_INVALID_WORKLOAD_IDENTITY_FEDERATION_AUDIENCE_OPTION
Falha na consulta ou no comando devido a uma opção de leitura inválida: em spark.readStream.format("pubsub").option("workloadIdentityFederation.audience", <audience>). Atualize <audience> para corresponder ao seguinte formato: //iam.googleapis.com/projects/{PROJECT_NUMBER}/locations/global/workloadIdentityPools/{POOL_ID}/providers/{PROVIDER_ID} e tente novamente a consulta ou o comando novamente.
PS_MISSING_AUTH_INFO
Falha ao localizar informações completas de autenticação do PubSub.
PS_MISSING_REQUIRED_OPTION
Não foi possível encontrar a opção necessária: <key>.
PS_MOVING_CHECKPOINT_FAILURE
Ocorreu um erro ao mover arquivos de ponto de verificação de dados brutos de <src> para o diretório de destino: <dest>.
PS_MULTIPLE_AUTH_OPTIONS
Forneça sua credencial de serviço do Databricks ou suas credenciais de conta de serviço GCP.
PS_MULTIPLE_FAILED_EPOCHS
O fluxo PubSub não pode ser iniciado, pois há mais de uma falha na busca: <failedEpochs>.
PS_OPTION_NOT_IN_BOUNDS
<key> deve estar dentro dos seguintes limites (<min>, <max>) exclusivos de ambos os limites.
PS_PROVIDE_CREDENTIALS_WITH_OPTION
Os clusters compartilhados não dão suporte à autenticação com perfis de instância. Forneça credenciais para o fluxo diretamente usando .option().
PS_SPARK_SPECULATION_NOT_SUPPORTED
O conector de origem pubSub só está disponível no cluster com spark.speculation desabilitado.
PS_UNABLE_TO_CREATE_SUBSCRIPTION
Ocorreu um erro ao tentar criar uma assinatura <subId> no tópico <topicId>. Verifique se há permissões suficientes para criar uma assinatura e tente novamente.
PS_UNABLE_TO_PARSE_PROTO
Não é possível analisar bytes serializados para gerar proto.
PS_UNSUPPORTED_GET_OFFSET_CALL
Não há suporte para getOffset sem fornecer um limite.
PYTHON_DATA_SOURCE_ERROR
Falha ao <action> a fonte de dados do Python <type>: <msg>
PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR
Falha ao executar fonte de dados de streaming do Python<action>: <msg>
QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
Não é possível acessar a tabela referenciada porque uma máscara de coluna atribuída anteriormente é incompatível com o esquema de tabela; para continuar, entre em contato com o proprietário da tabela para atualizar a política:
Para obter mais detalhes, confira QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
Não é possível acessar a tabela referenciada porque uma política de segurança de nível de linha atribuída anteriormente é incompatível com o esquema de tabela; para continuar, entre em contato com o proprietário da tabela para atualizar a política:
Para obter mais detalhes, confira QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
QUERY_EXECUTION_TIMEOUT_EXCEEDED
A execução da consulta foi cancelada devido a exceder o tempo limite (<timeoutSec>s). Você pode aumentar o limite em segundos definindo <config>.
QUERY_INCOMPATIBLE_WITH_RLSCM_POLICY
Consulte go/rowcolumncontrols-allowlist. LogicalPlan <unknownLogicalPlan> é incompatível com a política RLS/CM.
QUERY_REJECTED
A execução da consulta foi rejeitada.
QUERY_RESULT_WRITE_TO_CLOUD_STORE_PERMISSION_ERROR
A configuração de armazenamento interno do workspace impede que o Databricks acesse o repositório de nuvem.
QUERY_TAGS_NOT_IMPLEMENTED_ERROR
As marcas de consulta ainda não têm suporte no SQL.
QUERY_TAGS_SYNTAX_INVALID
Formato inválido para SET QUERY_TAGS comando.
QUERY_TAG_KEY_INVALID
Falha na validação da chave de marca de consulta '<key>'.
QUERY_TAG_KEY_MAY_NOT_BE_EMPTY
A chave de marca de consulta pode não ser nula ou vazia. O espaço em branco à esquerda e à direita é cortado em chaves e valores.
QUERY_TAG_MAX_COUNT_EXCEEDED
A contagem de marcas de consulta excedeu o limite máximo de <tagLimit> marcas por sessão.
QUERY_TAG_VALUE_INVALID
Falha na validação do valor da marca de consulta '<value>'.
QUERY_WATCHDOG_CHECK_FAILED
Falha na verificação do cão de guarda de consulta.
Para obter mais detalhes , consulte QUERY_WATCHDOG_CHECK_FAILED
READ_CURRENT_FILE_NOT_FOUND
<message>
É possível que os arquivos subjacentes tenham sido atualizados. Você pode invalidar explicitamente o cache no Spark executando o comando 'REFRESH TABLE tableName' no SQL ou recriando o Dataset/DataFrame envolvido.
READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS
A invocação da função <functionName> tem <parameterName> e <alternativeName> definidos, que são apelidos um do outro. Defina apenas um deles.
READ_FILES_CREDENTIALS_PARSE_ERROR
Erro ao analisar as credenciais temporárias da função read_files().
Para obter mais detalhes, consulte READ_FILES_CREDENTIALS_PARSE_ERROR
READ_TVF_UNEXPECTED_REQUIRED_PARAMETER
O parâmetro <functionName> necessário da função <parameterName> deve ser atribuído na posição <expectedPos> sem o nome.
RECIPIENT_EXPIRATION_NOT_SUPPORTED
Somente TIMESTAMP/TIMESTAMP_LTZ/TIMESTAMP_NTZ tipos são suportados para o timestamp de expiração do destinatário.
RECURSION_LEVEL_LIMIT_EXCEEDED
Limite de nível <levelLimit> de recursão atingido, mas a consulta não se esgotou, tente aumentá-lo, como em 'WITH RECURSIVE t(col) MAX RECURSION LEVEL 200'.
RECURSION_ROW_LIMIT_EXCEEDED
O limite de linha <rowLimit> de recursão foi alcançado, mas a consulta ainda não foi esgotada. Tente configurar um valor maior para LIMIT ao consultar a relação CTE.
RECURSIVE_CTE_IN_LEGACY_MODE
Definições recursivas não podem ser usadas no modo de precedência de CTE herdado (spark.sql.legacy.ctePrecedencePolicy=LEGACY).
RECURSIVE_CTE_WITH_LEGACY_INLINE_FLAG
Definições recursivas não podem ser usadas quando o sinalizador embutido herdado é definido como true (spark.sql.legacy.inlineCTEInCommands=true).
RECURSIVE_PROTOBUF_SCHEMA
Encontrada referência recursiva no esquema Protobuf, que não pode ser processado pelo Spark por padrão: <fieldDescriptor>. tente definir a opção recursive.fields.max.depth 1 a 10. Não é permitido ultrapassar 10 níveis de recursão.
RECURSIVE_VIEW
Exibição recursiva <viewIdent> detectada (ciclo: <newPath>).
REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION
Referências a valores de coluna em DEFAULT não são permitidas dentro da cláusula PARTITION.
RELATION_LARGER_THAN_8G
Não é possível criar um <relationName> que seja maior que 8G.
REMAINDER_BY_ZERO
Restante por zero. Use try_mod para tolerar divisor sendo 0 e retornar NULL em vez disso. Se necessário definido <config> como "false" para ignorar esse erro.
REMOTE_FUNCTION_HTTP_FAILED_ERROR
Falha na solicitação HTTP remota com código <errorCode>e mensagem de erro <errorMessage>
REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR
Falha ao avaliar a <functionName> função SQL devido à incapacidade de analisar o JSON resultado da resposta HTTP remota; a mensagem de erro é <errorMessage>. Verifique a documentação da API: <docUrl>. Corrija o problema indicado na mensagem de erro e repita a consulta.
REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR
Falha ao avaliar a <functionName> função SQL devido à incapacidade de processar a resposta HTTP remota inesperada; a mensagem de erro é <errorMessage>. Verifique a documentação da API: <docUrl>. Corrija o problema indicado na mensagem de erro e repita a consulta.
REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT
A solicitação remota falhou após tentar <N> vezes; o último código de erro HTTP foi <errorCode> e a mensagem foi <errorMessage>
REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR
Falha ao avaliar a função SQL <functionName> porque <errorMessage>. Verifique os requisitos em <docUrl>. Corrija o problema indicado na mensagem de erro e repita a consulta.
FUNÇÃO_DE_CONSULTA_REMOTA_PARÂMETROS_DO_CONECTOR_NÃO_SUPORTADOS
Não há suporte para parâmetros <parameterNames> para a função remote_query, que consulta uma conexão '<connectionName>' do tipo '<connectionType>'.
Para obter mais detalhes , consulte REMOTE_QUERY_FUNCTION_UNSUPPORTED_CONNECTOR_PARAMETERS
RENAME_SRC_PATH_NOT_FOUND
Não foi possível renomear, pois <sourcePath> não foi encontrado.
REPEATED_CLAUSE
A <clause> cláusula pode ser usada no máximo uma vez por <operation> operação.
REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY
O parâmetro <routineName> necessário da rotina <parameterName> foi atribuído na posição <positionalIndex> sem o nome.
Atualize a chamada de função para remover o argumento nomeado com <parameterName> para esse parâmetro ou remova o posicionamento
argumento no <positionalIndex> e tente a consulta novamente.
REQUIRED_PARAMETER_NOT_FOUND
Não é possível invocar a rotina <routineName> porque o parâmetro nomeado <parameterName> é necessário, mas a chamada de rotina não forneceu um valor. Atualize a chamada de rotina para fornecer um valor de argumento (posicionalmente no índice <index> ou pelo nome) e tente novamente a consulta.
REQUIRES_EXPLICIT_NAME_IN_WATERMARK_CLAUSE
A cláusula de marca d'água requer um nome explícito se a expressão for especificada, mas tiver .<sqlExpr>
REQUIRES_SINGLE_PART_NAMESPACE
<sessionCatalog> requer um namespace de parte única, mas obteve <namespace>.
RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT
A opção de leitor de API DataFrame "rescuedDataColumn" é mutuamente exclusiva com a opção de API DataFrame "singleVariantColumn".
Remova um deles e repita a operação DataFrame novamente.
RESERVED_CDC_COLUMNS_ON_WRITE
A gravação contém colunas <columnList> reservadas que são usadas
internamente como metadados do Feed de Dados de Alterações. Para gravar na tabela, renomeie/remova
essas colunas ou desabilite o Feed de Dados de Alterações na tabela definindo a opção
<config> como false.
RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
A opção <option> tem valores restritos em clusters compartilhados para a origem <source>.
Para obter mais detalhes, consulte RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
ROUTINE_ALREADY_EXISTS
Não é possível criar o <newRoutineType> <routineName> porque já existe um <existingRoutineType> com esse nome.
Escolha um nome diferente, solte ou substitua o existente <existingRoutineType>ou adicione a IF NOT EXISTS cláusula para tolerar um pré-existente <newRoutineType>.
ROUTINE_NOT_FOUND
A rotina <routineName> não pode ser encontrada. Verifique a ortografia e a correção do esquema e do catálogo.
Se você não qualificou o nome com um esquema e um catálogo, verifique a saída de current_schema() ou qualifique o nome com o esquema e o catálogo corretos.
Para tolerar o erro no uso suspenso DROP...IF EXISTS.
ROUTINE_PARAMETER_NOT_FOUND
A rotina <routineName> não dá suporte ao parâmetro <parameterName> especificado na posição <pos>.<suggestion>
ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME
A função <routineName> não pode ser criada porque o nome de classe '<className>' especificado é reservado para uso do sistema. Renomeie a classe e tente novamente.
ROW_LEVEL_SECURITY_ABAC_MISMATCH
Os filtros de linha não puderam ser resolvidos <tableName> porque havia uma incompatibilidade entre filtros de linha herdados de políticas e filtros de linha explicitamente definidos. Para continuar, desabilite o ABAC (Controle de Acesso Baseado em Atributo) e entre em contato com o suporte do Databricks.
ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED
Não é suportada a criação de restrição CHECK na tabela <tableName> com políticas de segurança em nível de linha.
Segurança_Nível_Fila_Máscara_Coluna_Coluna_Referência_Não_Resolvida
Uma coluna com nome <objectName> referenciada em um filtro de linha ou parâmetro de função de máscara de coluna não pode ser resolvida.
Isso pode acontecer se o esquema da tabela subjacente tiver sido alterado e a coluna referenciada não existir mais.
Por exemplo, isso poderá ocorrer se a coluna tiver sido removida em um sistema externo (por exemplo, uma tabela federada) ou se uma REPLACE operação na tabela tiver removido a coluna.
Para resolver isso, os usuários com privilégios de gerenciamento na tabela podem inspecionar os filtros de linha e máscaras de coluna atuais usando DESCRIBE TABLE EXTENDEDe remover ou recriar qualquer coluna que referencie colunas inexistentes usandoSET.../ALTER TABLEDROP ROW FILTER ou MASK.
Observação: o Databricks introduziu uma melhoria de segurança para preservar máscaras de coluna durante as operações de REPLACE, quando o novo esquema inclui a mesma coluna, mesmo sem especificar a máscara. Isso impede a perda de política não intencional em tabelas.
ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME
Uma <statementType> instrução tentou atribuir uma política de segurança em nível de linha a uma tabela, mas duas ou mais colunas referenciadas tinham o mesmo nome <columnName>, o que é considerado inválido.
ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
Não há suporte para políticas de segurança em nível de linha:<tableName>
Para obter mais detalhes, confira ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE
Não é possível <statementType> <columnName> da tabela <tableName> porque ela é referenciada em uma política de segurança de nível de linha. O proprietário da tabela deve remover ou alterar essa política antes de continuar.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE
MERGE INTO as operações não suportam políticas de segurança em nível de linha na tabela de origem <tableName>.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET
As operações MERGE INTO não dão suporte à gravação na tabela <tableName> com políticas de segurança em nível de linha.
ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME
Essa instrução tentou atribuir uma política de segurança em nível de linha a uma tabela, mas a coluna <columnName> referenciada tinha várias partes de nome, o que é inválido.
ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG
As políticas de segurança em nível de linha só têm suporte no Catálogo do Unity.
ROW_LEVEL_SECURITY_SECONDARY_INDEX_CREATION_UNSUPPORTED
Não é possível criar um índice ON TABLE <tableName> secundário porque a tabela tem uma política de segurança em nível de linha definida.
ROW_LEVEL_SECURITY_SHOW_PARTITIONS_UNSUPPORTED
O comando SHOW PARTITIONS não é suportado para tabelas <format> com política de segurança em nível de linha.
ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED
<mode> não há suporte para clonar da tabela <tableName> com a política de segurança em nível de linha.
ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED
<mode> não há suporte para clonar para a tabela <tableName> com a política de segurança em nível de linha.
ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER
Não há suporte para o uso de uma constante como parâmetro em uma política de segurança em nível de linha. Atualize o comando SQL para remover a constante da definição de filtro de linha e tente novamente o comando.
ROW_LEVEL_SECURITY_UNSUPPORTED_DATA_TYPE
A função <functionName> usada para a política de segurança em nível de linha tem parâmetro com tipo de dados <dataType> sem suporte.
ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER
Falha ao executar o comando <statementType>, pois não há suporte para a atribuição de política de segurança em nível de linha para a fonte de dados de destino com o provedor de tabela: “<provider>”.
ROW_SUBQUERY_TOO_MANY_ROWS
Mais de uma linha retornada por uma subconsulta usada como uma expressão.
ROW_VALUE_IS_NULL
EncontrouNULL em uma linha no índice <index>, esperava um valor diferente de NULL.
RULE_ID_NOT_FOUND
Não foi encontrada uma ID para o nome da regra "<ruleName>". Modifique RuleIdCollection.scala se você estiver adicionando uma nova regra.
RUN_EMPTY_PIPELINE
Espera-se que os pipelines tenham pelo menos um conjunto de dados não temporário definido (tabelas, exibições persistentes), mas nenhum conjunto de dados não temporário foi encontrado em seu pipeline.
Verifique se você incluiu os arquivos de origem esperados e se o código-fonte inclui definições de tabela (por exemplo, CREATE MATERIALIZED VIEW no código SQL, @dp.table no código python).
SALESFORCE_DATA_SHARE_API_UNAUTHORIZED
Falha na autorização para a API de Compartilhamento de Dados do Salesforce. Verifique se os detalhes da conexão do Databricks são fornecidos ao destino apropriado de compartilhamento de dados do Salesforce.
SAMPLE_TABLE_PERMISSIONS
Permissões não são suportadas em bancos de dados/tabelas de exemplo.
SCALAR_FUNCTION_NOT_COMPATIBLE
A ScalarFunction <scalarFunc>não substitui o método "produceResult(InternalRow)" com implementação personalizada.
SCALAR_FUNCTION_NOT_FULLY_IMPLEMENTED
ScalarFunction <scalarFunc> não implementa ou substitui o método 'produceResult(InternalRow)'.
SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION
A subconsulta escalar correlacionada '<sqlExpr>' não está presente nem em GROUP BY, nem em uma função de agregação.
Adicione-o ao GROUP BY usando a posição ordinal ou envolva-o em first() (ou first_value) se não se importar com o valor obtido.
SCALAR_SUBQUERY_TOO_MANY_ROWS
Mais de uma linha retornada por uma subconsulta usada como uma expressão.
SCDS_COMMIT_LOG_UNAVAILABLE
O log de confirmação não existe com o ponto de verificação location=<checkpointLocation>.
SCDS_INVALID_OPTION_VALUE
Valor inválido para opção de origem=<optionName> com errorMsg=<message>.
SCDS_OFFSET_LOG_UNAVAILABLE
O log de deslocamento não existe com o ponto de verificação location=<checkpointLocation>.
SCDS_REQUIRED_OPTION_UNSPECIFIED
Falha ao especificar a opção necessária=<optionName>.
SCHEDULE_ALREADY_EXISTS
Não é possível adicionar <scheduleType> a uma tabela que já tenha <existingScheduleType>. Remova a agenda ou use ALTER TABLE...ALTER <scheduleType> ... para alterá-lo.
SCHEDULE_PERIOD_INVALID
O período de agendamento para <timeUnit> deve ser um valor inteiro entre 1 e <upperBound> (inclusivo). Recebeu: <actual>.
SCHEMA_ALREADY_EXISTS
Não é possível criar o <schemaName> esquema porque ele já existe.
Escolha um nome diferente, solte o esquema existente ou adicione a IF NOT EXISTS cláusula para tolerar esquemas pré-existentes.
SCHEMA_NOT_EMPTY
Não é possível descartar um esquema <schemaName> porque ele contém objetos.
Use DROP SCHEMA...CASCADE para remover o esquema e todos os seus objetos.
SCHEMA_NOT_FOUND
O esquema <schemaName> não pode ser encontrado. Verifique a ortografia e a correção do esquema e do catálogo.
Se você não qualificou o nome com um catálogo, verifique a saída de current_schema() ou qualifique o nome com o catálogo correto.
Para tolerar o erro no uso suspenso DROP SCHEMA IF EXISTS.
SCHEMA_REGISTRY_CONFIGURATION_ERROR
O esquema do registro de esquemas não pôde ser inicializado.
<reason>.
SEARCH_INDEX_CATALOG_SCHEMA_MISMATCH
Não é possível criar índice <indexName> de pesquisa no catálogo <indexCatalog> e no esquema <indexSchema>. O índice deve ser criado no mesmo catálogo e esquema que a tabela <tableName> (<tableCatalog>base .<tableSchema>).
SEARCH_INDEX_INVALID_PARAMETERS
Não é possível criar o índice de pesquisa, o parâmetro inválido é fornecido:
Para obter mais detalhes , consulte SEARCH_INDEX_INVALID_PARAMETERS
SEARCH_INDEX_NAME_CONFLICTS_WITH_TABLE
A tabela com o nome <indexName> do índice já existe. Forneça um nome de índice personalizado que não esteja em conflito com as tabelas existentes.
SEARCH_INDEX_OUTDATED_SCHEMA
O índice de pesquisa <indexName> tem um esquema desatualizado. Recrie o índice usando:
DROP SEARCH INDEX <indexName>;
CREATE SEARCH INDEX <indexName> ON <tableName>(<columnsList>);
SEARCH_REQUIRES_SEARCHABLE_COLUMNS
<context>requer colunas com tipos pesquisáveis (STRING COLLATEUTF8_BINARY ou VARIANTARRAY).
Para obter mais detalhes , consulte SEARCH_REQUIRES_SEARCHABLE_COLUMNS
SEARCH_REQUIRES_STRING_LITERALS_ARGUMENTS
SEARCH requer <argument> que o argumento seja literais de cadeia de caracteres, mas <actualExpr> foi dado. <possibleOptionsMessage>
SECONDARY_INDEX_REQUIRES_MANAGED_TABLE
Não é possível <operation> ON TABLE <tableName>. A operação só pode ser executada em tabelas gerenciadas.
Para converter uma tabela em uma tabela gerenciada, use o ALTER TABLE <tableName> SET MANAGED comando.
Para obter mais informações, veja https://docs.databricks.com/aws/en/tables/convert-external-managed
SECONDARY_INDEX_UNSUPPORTED_TABLE_FORMAT
Não <operation> ON TABLE <tableName>
A operação só pode ser executada em tabelas com os seguintes formatos: <supportedFormats>.
Verifique o formato da tabela com DESCRIBE DETAIL <tableName>.
Se o formato atual for Parquet ou Apache Iceberg, você poderá convertê-lo permanentemente no local com CONVERT TO DELTA <tableName>; consulte https://docs.databricks.com/aws/en/sql/language-manual/delta-convert-to-delta
Caso contrário, recrie a tabela em um dos formatos com suporte.
SECOND_FUNCTION_ARGUMENT_NOT_INTEGER
O segundo argumento da <functionName> função precisa ser um inteiro.
SECRET_FUNCTION_INVALID_LOCATION
Não é possível executar o comando <commandType> com uma ou mais referências não criptografadas à função SECRET; criptografe o resultado de cada chamada de função com AES_ENCRYPT e tente o comando novamente.
SECURABLE_DOES_NOT_EXIST
<securable> não existe.
SEED_EXPRESSION_IS_UNFOLDABLE
A expressão de semente <seedExpr> da expressão <exprWithSeed> deve ser dobrável.
SERVER_IS_BUSY
O servidor está ocupado e não pôde lidar com a solicitação. Aguarde um momento e tente de novo.
SET_QUERY_TAGS_SYNTAX_INVALID
Falha ao executar o SET comando porque a sintaxe era inválida. A sintaxe esperada para esse comando é SET QUERY_TAGS ou SET QUERY_TAGS['key'] = 'value'. Corrija o comando para estar em conformidade com essa sintaxe e execute-o novamente.
SFTP_DEPRECATED_SSH_RSA_KEY_ALGORITHM
O servidor <host>SFTP:<port> está usando o algoritmo SSH RSA preterido para troca de chaves.
Considere atualizar o servidor SFTP para usar um algoritmo mais seguro, como ECDSA ou ED25519.
Como alternativa, ignore esse erro definindo <escapeHatchConf> como true
SFTP_UNABLE_TO_CONNECT
Falha ao conectar ao servidor SFTP <host> na porta <port> com nome de usuário <user>.
<error>
SFTP_UNKNOWN_HOST_KEY
A chave de host do servidor <host> SFTP é desconhecida ou foi alterada.
Verifique a mensagem de erro abaixo e forneça a impressão digital da chave no Key fingerprint campo.
Por exemplo, se a mensagem indicar 'ECDSA impressão digital chave é SHA256:XXX/YYY', envie 'SHA256:XXX/YYY' como a impressão digital da chave.
Mensagem de erro de conexão:
<error>
SFTP_USER_DOES_NOT_MATCH
O usuário recuperado da credencial <credentialUser> não corresponde ao especificado no caminho SFTP <path>.
SHOW_COLUMNS_WITH_CONFLICT_NAMESPACE
SHOW COLUMNS com namespaces conflitantes: <namespaceA> != <namespaceB>.
VALIDAÇÃO_DE_OPÇÕES_SNOWFLAKE_FONTE_DE_DADOS_FALHOU
Falha na validação das opções de fonte de dados do Snowflake.
Para obter mais detalhes , consulte SNOWFLAKE_DATA_SOURCE_OPTIONS_VALIDATION_FAILED
SORT_BY_WITHOUT_BUCKETING
sortBy deve ser usado junto com bucketBy.
SPARK_JOB_CANCELLED
Trabalho <jobId> cancelado <reason>
SPECIFY_BUCKETING_IS_NOT_ALLOWED
Uma CREATE TABLE sem explicita não pode especificar informações de bucketing.
Use o formulário com uma lista colunada explícita e especifique a informação bucketing.
Alternativamente, permitir informação bucketing para ser inferido ao omitir a cláusula.
SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED
Não é possível especificar ambos CLUSTER BY e CLUSTERED BY INTO BUCKETS.
SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED
Não é possível especificar ambos CLUSTER BY e PARTITIONED BY.
SPECIFY_PARTITION_IS_NOT_ALLOWED
Uma lista de colunas sem explicitação CREATE TABLE não pode especificar PARTITIONED BY.
Use o formulário com lista de colunas explícita e especifique PARTITIONED BY.
Como alternativa, permita que o particionamento seja inferido omitindo a PARTITION BY cláusula.
SQL_CONF_NOT_FOUND
A configuração <sqlConf> do SQL não pode ser encontrada. Verifique se a configuração existe.
SQL_SCRIPT_IN_EXECUTE_IMMEDIATE
Não são permitidos scripts SQL em comandos EXECUTE IMMEDIATE. Verifique se a consulta SQL fornecida (<sqlString>) não é um script de SQL. Verifique se o sql_string é uma instrução SQL bem formada e não contém BEGIN e END.
SQL_SCRIPT_MAX_NUMBER_OF_CHARACTERS_EXCEEDED
O número máximo de caracteres em um script SQL (id: <scriptId>) foi excedido. O número máximo de caracteres permitido é <maxChars>, e o script tinha <chars> caracteres.
SQL_SCRIPT_MAX_NUMBER_OF_LINES_EXCEEDED
O número máximo de linhas em um script SQL (id: <scriptId>) foi excedido. O número máximo de linhas permitidas é <maxLines>e o script tinha <lines> linhas.
SQL_SCRIPT_MAX_NUMBER_OF_LOCAL_VARIABLE_DECLARATIONS_EXCEEDED
O número máximo de declarações de variáveis locais em um script SQL (id: <scriptId>) foi excedido. O número máximo de declarações permitidas é <maxDeclarations>, e o script tinha <declarations>.
SQL_STORED_PROCEDURES_NESTED_CALLS_LIMIT_EXCEEDED
O número máximo de chamadas de procedimento aninhado foi excedido com o procedimento (nome: <procedureName>, callId: <procedureCallId>). O número máximo permitido de chamadas de procedimento aninhado é <limit>.
STAGING_PATH_CURRENTLY_INACCESSIBLE
Erro transitório ao acessar o caminho de preparação de destino <path>, tente em alguns minutos
STAR_GROUP_BY_POS
A estrela (*) não é permitida em uma lista de seleção quando GROUP BY uma posição ordinal é usada.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE
Falha ao executar a operação de processador com estado=<operationType> com estado de identificador inválido=<handleState>.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE
Falha ao executar a operação de processador com estado=<operationType> com timeMode=<timeMode> inválido
STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED
A variável de estado com nome <stateVarName> já foi definida no StatefulProcessor.
STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL
Não é possível usar TTL para state=<stateName> em timeMode=<timeMode>, use TimeMode.ProcessingTime() em vez disso.
STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE
A duração da TTL deve ser maior que zero para a operação de armazenamento de estado=<operationType> no estado=<stateName>.
STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE
Modo de tempo desconhecido <timeMode>. Os modos timeMode aceitos são "none", "processingTime", "eventTime"
STATE_REPARTITION_INVALID_CHECKPOINT
O local de ponto de verificação fornecido '<checkpointLocation>' está em um estado inválido.
Para obter mais detalhes , consulte STATE_REPARTITION_INVALID_CHECKPOINT
STATE_REPARTITION_INVALID_PARAMETER
O parâmetro <parameter> de repartição é inválido:
Para obter mais detalhes , consulte STATE_REPARTITION_INVALID_PARAMETER
STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS
Falha ao criar uma família de colunas com caractere inicial sem suporte e name=<colFamilyName>.
STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME
Falha ao executar a operação da família de colunas=<operationName> com nome=<colFamilyName>inválido. O nome da família de colunas não pode estar vazio, incluir espaços antes/depois ou usar a palavra-chave reservada "default".
STATE_STORE_CHECKPOINT_IDS_NOT_SUPPORTED
<msg>
STATE_STORE_CHECKPOINT_LOCATION_NOT_EMPTY
O local do ponto de verificação <checkpointLocation> deve estar vazio no lote 0
Use um novo local de ponto de verificação ou exclua os dados existentes no local do ponto de verificação.
STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE
Transformação de esquema incompatível com column family=<colFamilyName>, oldSchema=<oldSchema>, newSchema=<newSchema>.
STATE_STORE_DOES_NOT_SUPPORT_REUSABLE_ITERATOR
O StateStore <inputClass> não dá suporte ao iterador reutilizável.
STATE_STORE_HANDLE_NOT_INITIALIZED
O identificador não foi inicializado para esse StatefulProcessor.
Use apenas o StatefulProcessor dentro do operador transformWithState.
STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN
Número incorreto de ordinais de ordenação=<numOrderingCols> para o codificador de verificação de intervalo. O número de ordinais de ordenação não pode ser zero ou maior que o número de colunas de esquema.
STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN
Número incorreto de colunas de prefixo=<numPrefixCols> para o codificador de verificação de prefixo. As colunas de prefixo não podem ser zero ou maiores ou iguais ao número de colunas de esquema.
STATE_STORE_INVALID_AVRO_SCHEMA
Detectou um esquema inválido para codificação do Avro.
Para obter mais detalhes, consulte STATE_STORE_INVALID_AVRO_SCHEMA
STATE_STORE_INVALID_CONFIG_AFTER_RESTART
Não é possível alterar <configName> de <oldConfig> para <newConfig> entre reinicializações. Defina <configName> como <oldConfig>ou reinicie com um novo diretório de ponto de verificação.
STATE_STORE_INVALID_PROVIDER
O Provedor de Repositório de Estado <inputClass> determinado não estende org.apache.spark.sql.execution.streaming.state.StateStoreProvider.
STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE
Não é possível alterar de <stateVarName> para <newType> entre reinicializações de consulta. Defina <stateVarName> como <oldType>ou reinicie com um novo diretório de ponto de verificação.
STATE_STORE_KEY_SCHEMA_NOT_COMPATIBLE
O esquema de chave fornecido não corresponde ao esquema existente no estado do operador.
Esquema existente=<storedKeySchema>; esquema fornecido=<newKeySchema>.
Para executar a consulta sem validação de esquema, defina spark.sql.streaming.stateStore.stateSchemaCheck como false.
Observe que a execução sem validação de esquema pode ter um comportamento não determinístico.
STATE_STORE_NATIVE_ROCKSDB_TIMEOUT
Ao acessar o repositório de estado do RocksDB para a operação de streaming com estado, a chamada à função nativa <funcName> do RocksDB atingiu o limite de tempo após esperar timeout=<timeoutMs> ms. Tente novamente e reinicie o cluster se o erro persistir.
STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED
Não há suporte para a coluna de ordenação de tipo nulo com nome=<fieldName> no índice=<index> para o codificador de verificação de intervalo.
STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY
O Provedor de Repositório de Estado <inputClass> determinado não estende org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay.
Portanto, ele não dá suporte à opção snapshotStartBatchId ou readChangeFeed na fonte de dados de estado.
STATE_STORE_ROCKSDB_ZIP_ALREADY_EXISTS
O arquivo <zipFilePath> zip de instantâneo do RocksDB já existe. Isso significa que o instantâneo já foi carregado no DFS.
(allowVersionOverwrite=<allowVersionOverwrite>, shouldUseCommitService=<shouldUseCommitService>)
STATE_STORE_STATE_SCHEMA_FILES_THRESHOLD_EXCEEDED
O número de arquivos <numStateSchemaFiles> de esquema de estado excede o número máximo de arquivos de esquema de estado para esta consulta: <maxStateSchemaFiles>.
Adicionado: <addedColumnFamilies>, Removido: <removedColumnFamilies>
Defina "spark.sql.streaming.stateStore.stateSchemaFilesThreshold" como um número maior ou reverta modificações de esquema de estado
STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY
Operação de repositório de estado=<operationType> não compatível com a família de colunas ausente=<colFamilyName>.
STATE_STORE_VALUE_SCHEMA_EVOLUTION_THRESHOLD_EXCEEDED
O número de evoluções do esquema de estado <numSchemaEvolutions> excede o número máximo de evoluções do esquema de estado, <maxSchemaEvolutions>, permitido para esta família de colunas.
Família de colunas ofensiva: <colFamilyName>
Defina "spark.sql.streaming.stateStore.valueStateSchemaEvolutionThreshold" como um número maior ou reverta modificações de esquema de estado
STATE_STORE_VALUE_SCHEMA_NOT_COMPATIBLE
O esquema de valor fornecido não corresponde ao esquema existente no estado do operador.
Esquema existente=<storedValueSchema>; esquema fornecido=<newValueSchema>.
Para executar a consulta sem validação de esquema, defina spark.sql.streaming.stateStore.stateSchemaCheck como false.
Observe que a execução sem validação de esquema pode ter um comportamento não determinístico.
STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED
Não há suporte para a coluna de ordenação de tamanho variável com nome=<fieldName> no índice=<index> para o codificador de verificação de intervalo.
STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST
A coluna <staticName> de partição estática também é especificada na lista de colunas.
STDS_COMMITTED_BATCH_UNAVAILABLE
Nenhum lote confirmado encontrado, local do ponto de verificação: <checkpointLocation>. Verifique se a consulta executou e confirmou qualquer microlote antes de parar.
STDS_CONFLICT_OPTIONS
As opções <options> não podem ser especificadas em conjunto. Favor especificar qual.
STDS_FAILED_TO_READ_OPERATOR_METADATA
Falha ao ler os metadados do operador para checkpointLocation=<checkpointLocation> e batchId=<batchId>.
O arquivo não existe ou o arquivo está corrompido.
Execute novamente a consulta de streaming para construir os metadados do operador e relate às comunidades ou fornecedores correspondentes se o erro persistir.
STDS_FAILED_TO_READ_STATE_SCHEMA
Falha ao ler o esquema de estado. O arquivo não existe ou o arquivo está corrompido. opções: <sourceOptions>.
Execute novamente a consulta de streaming para construir o esquema de estado e relate às comunidades ou fornecedores correspondentes se o erro persistir.
STDS_INVALID_OPTION_VALUE
Valor inválido para a opção de origem '<optionName>':
Para obter mais detalhes, consulte STDS_INVALID_OPTION_VALUE
STDS_MIXED_CHECKPOINT_FORMAT_VERSIONS_NOT_SUPPORTED
Não há suporte para o estado de leitura em diferentes versões de formato de ponto de verificação.
startBatchId=<startBatchId>, endBatchId=<endBatchId>.
startFormatVersion=<startFormatVersion>, endFormatVersion=<endFormatVersion>.
STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE
O estado não tem nenhuma partição. Verifique se a consulta aponta para o estado válido. Opções: <sourceOptions>
STDS_OFFSET_LOG_UNAVAILABLE
O log de deslocamento para <batchId> não existe; local do ponto de verificação: <checkpointLocation>.
Especifique a ID do lote que está disponível para consulta. Você pode consultar as IDs do lote disponíveis usando a fonte de dados de metadados de estado.
STDS_OFFSET_METADATA_LOG_UNAVAILABLE
Os metadados não estão disponíveis para o log de deslocamento para <batchId>, local do ponto de verificação: <checkpointLocation>.
O ponto de verificação parece ser executado apenas com versões mais antigas do Spark. Execute a consulta de streaming com a versão recente do Spark, para que o Spark construa os metadados de estado.
STDS_REQUIRED_OPTION_UNSPECIFIED
'<optionName>' deve ser especificado.
STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS
A execução de consulta adaptável não é suportada para operadores com estado no Streaming Estruturado.
STREAMING_CHECKPOINT_METADATA_ERROR
Erro nos metadados do ponto de verificação de streaming.
Para obter mais detalhes , consulte STREAMING_CHECKPOINT_METADATA_ERROR
STREAMING_CHECKPOINT_PIN_BATCH_ERROR
Falha ao executar a operação de pino para a consulta de streaming com ponto de verificação location=<checkpointLocation> em batchId=<batchId>.
Para obter mais detalhes , consulte STREAMING_CHECKPOINT_PIN_BATCH_ERROR
STREAMING_CHECKPOINT_REWIND_ERROR
Falha ao executar a operação de retroceder para a consulta de streaming com ponto de verificação location=<checkpointLocation>.
Para obter mais detalhes , consulte STREAMING_CHECKPOINT_REWIND_ERROR
STREAMING_CHECKPOINT_REWIND_OPTIONS_ERROR
Erro durante a operação de reversão do ponto de verificação de streaming.
Para obter mais detalhes , consulte STREAMING_CHECKPOINT_REWIND_OPTIONS_ERROR
STREAMING_FROM_MATERIALIZED_VIEW
Não é possível transmitir a partir do modo exibição materializada <viewName>. Não há suporte para a transmissão de Exibições Materializadas.
STREAMING_OUTPUT_MODE
Modo de saída de streaming inválido: <outputMode>.
Para obter mais detalhes , consulte STREAMING_OUTPUT_MODE
STREAMING_QUERY_EVOLUTION_ERROR
Erro de evolução da consulta de streaming:
Para obter mais detalhes , consulte STREAMING_QUERY_EVOLUTION_ERROR
STREAMING_RATE_SOURCE_OFFSET_VERSION_MISMATCH
Espere a versão de deslocamento da fonte de taxa <expectedVersion>, mas obteve a versão <actualVersion>. Para continuar, defina a opção "version" como <expectedVersion> nas opções de origem de taxa. Por exemplo, spark.readStream.format("rate").option("version", "<expectedVersion>").
STREAMING_RATE_SOURCE_V2_PARTITION_NUM_CHANGE_UNSUPPORTED (Mudança no número de partições não suportada)
O número de partições (<prevNum>) usadas na microbatch anterior é diferente do número atual de partições (<currNum>). Pode haver duas razões possíveis:
A opção "numPartitions" da fonte de taxa é alterada durante a reinicialização da consulta.
O tamanho do cluster pode ser alterado durante a reinicialização da consulta.
Explicitamente defina a opção 'numPartitions' da fonte de taxa para <prevNum> para corrigir esse problema.
STREAMING_RATE_SOURCE_V2_TEMPO_DE_AUMENTO_NÃO_SUPORTADO
A opção "rampUpTime" não é compatível com a versão 2 da taxa. Para usar essa opção, defina a opção "version" como 1. Por exemplo, spark.readStream.format("rate").option("version", "1").
STREAMING_REAL_TIME_MODE
O modo de streaming em tempo real tem a seguinte limitação:
Para obter mais detalhes , consulte STREAMING_REAL_TIME_MODE
PROPAGAÇÃO_DE_MARCA_D'ÁGUA_EM_STREAMING_EM_TEMPO_REAL
A propagação em tempo real de marca d'água no streaming tem a seguinte limitação:
Para obter mais detalhes , consulte STREAMING_REAL_TIME_WATERMARK_PROPAGATION
MODO_DE_ENTREGA_DO_RECEPTOR_DE_STREAMING
Modo de transmissão inválido do coletor de streaming: <deliveryMode>.
Para obter mais detalhes , consulte STREAMING_SINK_DELIVERY_MODE
STREAMING_SKIP_OFFSETS_INVALID_RANGE
Intervalo de deslocamento de salto inválido: o deslocamento <endOffset> final é menor que o deslocamento <startOffset>inicial. Corrija esse intervalo de deslocamento e tente novamente.
STREAMING_STATEFUL_OPERATOR_MISSING_STATE_DIRECTORY
Não é possível reiniciar a consulta de streaming com operadores com estado porque o diretório de estado está vazio ou ausente.
Isso normalmente ocorre quando arquivos de estado foram excluídos ou a consulta de streaming foi executada anteriormente sem operadores com estado, mas reiniciada com operadores com estado.
Remova os operadores com estado, use um novo local de ponto de verificação ou restaure os arquivos de estado ausentes.
STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA
O nome do operador com estado de streaming não corresponde ao operador em metadados de estado. Isso provavelmente acontecerá quando o usuário adicionar/remover/alterar o operador com estado da consulta de streaming existente.
Operadores com estado nos metadados: [<OpsInMetadataSeq>]; Operadores com estado no lote atual: [<OpsInCurBatchSeq>].
STREAMING_TABLE_NEEDS_REFRESH
a tabela <tableName> de streaming precisa ser atualizada para realizar a execução <operation>.
Se a tabela for criada a partir de DBSQL, execute REFRESH STREAMING TABLE.
Se a tabela for criada por um pipeline no Lakeflow Spark Declarative Pipeliness, execute uma atualização de pipeline.
STREAMING_TABLE_NOT_SUPPORTED
as tabelas de streaming só podem ser criadas e atualizadas no Lakeflow Spark Declarative Pipeliness e databricks SQL Warehouses.
STREAMING_TABLE_OPERATION_NOT_ALLOWED
A operação <operation> não é permitida:
Para obter mais detalhes, confira STREAMING_TABLE_OPERATION_NOT_ALLOWED
STREAMING_TABLE_QUERY_INVALID
A tabela <tableName> de streaming só pode ser criada a partir de uma consulta de streaming. Adicione a STREAM palavra-chave à cláusula FROM para transformar essa relação em uma consulta de streaming.
STREAM_NOT_FOUND_FOR_KINESIS_SOURCE
O fluxo do Kinesis <streamName> não foi encontrado em <region>.
Inicie uma nova consulta apontando para o nome correto do fluxo.
STRUCT_ARRAY_LENGTH_MISMATCH
A linha de entrada não tem o número esperado de valores exigidos pelo esquema. Os campos <expected> são necessários enquanto os valores <actual> são fornecidos.
ST_INVALID_ALGORITHM_VALUE
Valor de algoritmo de interpolação de borda inválido ou sem suporte: '<alg>'.
ST_INVALID_CRS_VALUE
Valor de CRS inválido ou sem suporte (sistema de referência de coordenadas): '<crs>'.
ST_INVALID_SRID_VALUE
Valor srid inválido ou sem suporte (identificador de referência espacial): <srid>.
SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT
A soma das cláusulas LIMIT e OFFSET não deve ser maior que o valor inteiro máximo de 32 bits (2.147.483.647), mas foi encontrado limite = <limit>, deslocamento = <offset>.
SYNC_METADATA_DELTA_ONLY
O comando reparar metadados de sincronização de tabela só tem suporte para a tabela delta.
SYNC_SRC_TARGET_TBL_NOT_SAME
O nome <srcTable> da tabela de origem deve ser igual ao nome <destTable>da tabela de destino.
SYNTAX_DISCONTINUED
Suporte da cláusula ou palavra-chave: <clause> foi descontinuado neste contexto.
Para obter mais detalhes , consulte SYNTAX_DISCONTINUED
TABLE_ARGUMENTS_NOT_ALLOWED
TABLE não há suporte para parâmetros em <routineType>.
TABLE_NOT_VALID_SECONDARY_INDEX
Falha ao executar o DESCRIBE SEARCH INDEX comando porque a tabela <tableName> não é um índice válido <indexType> . Atualize o comando para usar um índice válido e tente novamente.
TABLE_OR_VIEW_ALREADY_EXISTS
Não é possível criar tabela ou exibição <relationName> porque ela já existe.
Escolha um nome diferente, solte o objeto existente, adicione a IF NOT EXISTS cláusula para tolerar objetos pré-existentes, adicione a cláusula OR REPLACE para substituir a exibição materializada existente ou adicione a cláusula OR REFRESH para atualizar a tabela de streaming existente.
TABLE_OR_VIEW_NOT_FOUND
A tabela ou exibição <relationName> não pode ser encontrada. Verifique a ortografia e a correção do esquema e do catálogo.
Se você não qualificou o nome com um esquema, verifique a saída current_schema() ou qualifique o nome com o esquema e o catálogo corretos.
Para tolerar o erro durante a operação de descarte, use DROP VIEW IF EXISTS ou DROP TABLE IF EXISTS.
Para obter mais detalhes, consulte TABLE_OR_VIEW_NOT_FOUND
TABLE_TYPE_INCOMPATIBLE_WITH_ABAC_POLICY
O tipo de tabela não <tableName>, <tableType>dá suporte a políticas ABAC.
Remova as políticas e tente novamente.
TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS
Não é possível <action> a função <functionName> definida pelo usuário do SQL com argumentos TABLE porque essa funcionalidade ainda não foi implementada.
TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON
Falha ao analisar a função de tabela definida pelo usuário do Python: <msg>
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL
Falha ao avaliar a função de tabela <functionName> porque seus metadados de tabela são <requestedMetadata>, mas a função chama <invalidFunctionCallProperty>.
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID
Falha ao avaliar a função <functionName> de tabela porque os metadados da tabela eram inválidos; <reason>.
TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS
Há muitos argumentos de tabela para uma função que retorna um valor de tabela.
Ele permite um argumento de tabela, mas obteve: <num>.
Se você quiser permitir, defina "spark.sql.allowMultipleTableArguments.enabled" como "true"
TABLE_WITH_ID_NOT_FOUND
Tabela com ID <tableId> não pode ser encontrada. Verifique a correção da UUID.
TASK_WRITE_FAILED
Falha na tarefa ao gravar linhas para <path>.
TEMP_CHECKPOINT_LOCATION_NOT_SUPPORTED
Não há suporte para locais implícitos de ponto de verificação temporário de streaming no espaço de trabalho atual, especifique um local de ponto de verificação explicitamente.
Para exibição(), defina o local do ponto de verificação usando:
display(df, checkpointLocation = "seu_caminho")
Para todas as outras consultas de streaming, use:
.option("checkpointLocation", "your_path").
TEMP_TABLE_CREATION_LEGACY_WITH_QUERY
CREATE TEMPORARY TABLE
...
AS ... não há suporte aqui, use CREATE TEMPORARY VIEW em vez disso
TEMP_TABLE_CREATION_MUTUAL_EXCLUSIVE_SPECS
CREATE TEMPORARY TABLE não dá suporte à especificação <unsupportedSpec>.
Para obter mais detalhes , consulte TEMP_TABLE_CREATION_MUTUAL_EXCLUSIVE_SPECS
TEMP_TABLE_CREATION_NAME_RESERVED
Não é possível criar uma tabela <tableName> temporária porque ela começa com um prefixo <reservedPrefix>de nome reservado. Escolha um nome diferente e tente novamente.
TEMP_TABLE_CREATION_NOT_SUPPORTED_IN_COMPUTE
CREATE TEMPORARY TABLE [AS ... ] não há suporte para o tipo de computação atual. Use o DATAbricks SQL (DBSQL) para criar tabelas temporárias locais de sessão.
TEMP_TABLE_CREATION_REQUIRES_SINGLE_PART_NAME
A criação de uma tabela temporária local de sessão requer um nome de tabela de parte única, mas tem <tableName>. Atualize o comando para usar um nome de tabela de uma única parte e tente novamente.
TEMP_TABLE_CREATION_UNSUPPORTED_LEGACY_SYNTAX_WITH_HINTS
CREATE TEMPORARY TABLE
...
USING
...
AS ... não há suporte. Para criar uma tabela temporária, remova a USING cláusula e tente novamente.
TEMP_TABLE_DELETION_MUTUAL_EXCLUSIVE_SPECS
DROP TEMPORARY TABLE não dá suporte à especificação <unsupportedSpec>, remova essa especificação ou solte uma tabela permanente usando DROP TABLE o comando.
TEMP_TABLE_DELETION_REQUIRES_SINGLE_PART_NAME
Descartar uma tabela temporária local de sessão requer um nome de tabela de parte única, mas tem <tableName>. Atualize o comando DROP TEMPORARY TABLE para usar um nome de tabela em uma única parte para remover uma tabela temporária, ou use o comando DROP TABLE para remover uma tabela permanente.
TEMP_TABLE_NOT_FOUND
A tabela <tableName> temporária não pode ser encontrada na sessão atual. Verifique a ortografia e a correção do nome da tabela e repita a consulta ou o comando novamente.
Para tolerar o erro no uso suspenso DROP TEMP TABLE IF EXISTS.
TABELA_TEMPORÁRIA_NÃO_SUPORTADA_COM_JOBS_DATABRICKS
A tabela temporária ainda não tem suporte em Jobs do Databricks. Em vez disso, use no Databricks Notebooks e entre em contato com o Suporte do Databricks para obter mais informações.
TEMP_TABLE_NOT_SUPPORTED_WITH_HMS
Não há suporte para a operação <operation> de tabela temporária no Metastore do Hive.
TEMP_TABLE_OPERATION_NOT_SUPPORTED
Não há suporte para operações na tabela <tableName> temporária local da sessão:
Para obter mais detalhes, consulte TEMP_TABLE_OPERATION_NOT_SUPPORTED
TEMP_TABLE_OPERATION_NOT_SUPPORTED_IN_V1_COMMAND
<operation> não há suporte para tabelas temporárias com comandos V1. Defina 'spark.sql.legacy.useV1Command' como false e tente novamente.
TEMP_TABLE_OR_VIEW_ALREADY_EXISTS
Não é possível criar a tabela ou exibição <relationName> temporária porque ela já existe.
Escolha um nome diferente, solte ou substitua o objeto existente.
TEMP_TABLE_REPLACE_NOT_SUPPORTED
[CREATE OR] REPLACE TEMPORARY TABLE não tem suporte. Para substituir uma tabela temporária existente, solte-a usando DROP TEMPORARY TABLE ... [IF EXISTS] e recrie-o usando CREATE TEMPORARY TABLE ... .
TEMP_TABLE_REQUIRES_DATABRICKS_ENV
As operações em tabelas temporárias locais de sessão exigem o ambiente do Databricks.
TEMP_TABLE_REQUIRES_DELTA
As operações em tabelas temporárias locais de sessão exigem que o catálogo Delta seja habilitado. Ative o catálogo Delta e tente novamente.
TEMP_TABLE_REQUIRES_UC
As operações em tabelas temporárias locais de sessão exigem o Catálogo do Unity. Habilite o Catálogo do Unity em seu ambiente em execução e tente novamente.
TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS
CREATE TEMPORARY VIEW ou as APIs de conjunto de dados correspondentes aceitam apenas nomes de exibição de parte única, mas obteve: <actualName>.
THETA_INVALID_INPUT_SKETCH_BUFFER
A chamada inválida para <function>; somente buffers de esboço de Theta válidos têm suporte como entradas (como as produzidas pela theta_sketch_agg função).
THETA_INVALID_LG_NOM_ENTRIES
Chamada inválida para <function>; o lgNomEntries valor deve ser entre <min> e <max>, inclusive: <value>.
THETA_LG_NOM_ENTRIES_MUST_BE_CONSTANT
Chamada inválida ; <function>o lgNomEntries valor deve ser um valor constante, mas tem uma expressão não constante.
TRAILING_COMMA_IN_SELECT
Vírgula final detectada na cláusula SELECT. Remova a vírgula à direita antes da FROM cláusula.
TRANSACTION_CDF_SCHEMA_WITH_RESERVED_COLUMN_NAME
O Feed de Dados de Alteração não pode ser habilitado em uma transação porque uma tabela contém um nome de coluna reservado (<column_name>).
Para continuar, verifique se a tabela usa apenas nomes de coluna não reservados.
TRANSACTION_CDF_SETTING_HIGH_WATERMARK_NOT_ALLOWED
A definição manual da marca d'água alta das Identidades CDC não é permitida.
TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE
Uma alteração simultânea de metadados foi detectada no objeto <table>.
ROLLBACK Execute e tente novamente essa transação. Details:
Para obter mais detalhes , consulte TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE
TRANSACTION_CONTEXT_MISMATCH
A inconsistência do contexto de transação foi detectada entre o thread atual e a sessão do Spark. Isso normalmente ocorre quando uma sessão do Spark é compartilhada em vários threads. Use uma sessão e um thread dedicados para cada transação e confirme/retorne a transação em seu respectivo thread antes de reutilizar a sessão e o thread para uma nova transação. Details:
Para obter mais detalhes , consulte TRANSACTION_CONTEXT_MISMATCH
TRANSACTION_MAX_COMMIT_TIMESTAMP_EXCEEDED
A transação não pode ser confirmada porque o carimbo de data/hora máximo para confirmação foi ultrapassado. maxCommitTimestamp:<maxCommitTimestampMs> commitTimestamp:<commitTimestampMs>
TRANSACTION_NOT_SUPPORTED
Falha ao executar a instrução.
Para obter mais detalhes , consulte TRANSACTION_NOT_SUPPORTED
TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT
A transação atual foi anulada.
ROLLBACK TRANSACTION Execute antes de continuar. Motivo da anulação:
Para obter mais detalhes , consulte TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT
TRANSFORM_WITH_STATE_USER_FUNCTION_ERROR
Ocorreu um erro na função <function> definida pelo usuário do StatefulProcessor. Motivo: <reason>.
TRANSPOSE_EXCEED_ROW_LIMIT
O número de linhas excede o limite permitido para <maxValues>TRANSPOSE. Se isso for intencional, defina <config> para pelo menos a contagem de linhas atual.
TRANSPOSE_INVALID_INDEX_COLUMN
Coluna de índice inválida para TRANSPOSE porque: <reason>
TRANSPOSE_NO_LEAST_COMMON_TYPE
O Transpose requer que as colunas que não sejam de índice compartilhem um menor tipo comum, mas <dt1> e <dt2> não compartilham.
TRIGGER_INTERVAL_INVALID
O intervalo de gatilho deve ser uma duração positiva que pode ser convertida em segundos inteiros. Recebeu: <actual> segundos.
TUPLE_IS_EMPTY
Devido ao suporte limitado de tupla do Scala, não há suporte para tupla vazia.
TUPLE_SIZE_EXCEEDS_LIMIT
Devido ao suporte limitado de tupla do Scala, não há suporte para tuplas com mais de 22 elementos.
UC_BUCKETED_TABLES
Tabelas compartimentadas não são suportadas no Catálogo Unity.
UC_CATALOG_NAME_NOT_PROVIDED
No Catálogo do Unity, especifique explicitamente o nome do catálogo. Por exemplo SHOW GRANT your.address@email.com ON CATALOG principal.
UC_COMMAND_NOT_SUPPORTED
O(s) comando(s): <commandName> não são suportados no Catálogo do Unity.
Para obter mais detalhes , consulte UC_COMMAND_NOT_SUPPORTED
UC_COMMAND_NOT_SUPPORTED_IN_SERVERLESS
Os comandos: <commandName> não têm suporte em clusters do Unity Catalog em ambientes sem servidor. Em vez disso, use um único usuário ou clusters compartilhados.
UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE
Os comandos <commandName> não são compatíveis com clusters do Unity Catalog no modo de acesso compartilhado. Em vez disso, use o modo de acesso de usuário único.
UC_CONNECTION_NOT_FOUND_FOR_FILE_SYSTEM_SOURCE_ACCESS
Não foi possível encontrar uma conexão UC válida para acessar <path> após a avaliação <connectionNames>.
Verifique se pelo menos uma conexão UC válida está disponível para acessar o caminho de destino.
Erros detalhados para as conexões avaliadas:
<connectionErrors>
UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED
Não há suporte para o tipo de credencial especificado.
UC_DATASOURCE_NOT_SUPPORTED
Não há suporte para o formato <dataSourceFormatName> de fonte de dados no Catálogo do Unity.
UC_DATASOURCE_OPTIONS_NOT_SUPPORTED
Não há suporte para opções de fonte de dados no Catálogo do Unity.
UC_DEPENDENCY_DOES_NOT_EXIST
A dependência não existe no Catálogo do Unity:
<errorMessage>
UC_EXTERNAL_VOLUME_MISSING_LOCATION
A cláusula LOCATION deve estar presente para o volume externo. Verifique a sintaxe 'CREATE EXTERNAL VOLUME...LOCATION ...' para criar um volume externo.
UC_FAILED_PROVISIONING_STATE
A consulta falhou porque tentou fazer referência à tabela <tableName> , mas não pôde fazer isso: <failureReason>. Atualize a tabela <tableName> para garantir que ela esteja em um estado de provisionamento ativo e tente novamente a consulta.
UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED
Não há suporte para a criação de tabela no Catálogo do Unity com esquema <schemeName> de arquivos.
Em vez disso, crie uma conexão de fonte de dados federada usando o CREATE CONNECTION comando para o mesmo provedor de tabelas e crie um catálogo com base na conexão com um CREATE FOREIGN CATALOG comando para fazer referência às tabelas nela.
UC_HIVE_METASTORE_DISABLED_EXCEPTION
A operação tentou usar o Metastore<identifier> do Hive, que está desabilitado devido ao acesso herdado estar desativado em sua conta ou workspace. Verifique duas vezes o catálogo padrão na sessão atual e na configuração de namespace padrão. Se você precisar acessar o Metastore do Hive, peça ao administrador para configurar a federação do Metastore do Hive através do Unity Catalog.
UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED
O modo de exibição Federação do Metastore do Hive não dá suporte a dependências em vários catálogos. O modo de exibição<view> no catálogo de Federação metastore do Hive deve usar a dependência de hive_metastore ou spark_catalog catálogo, mas sua dependência <dependency> está em outro catálogo <referencedCatalog>. Atualize as dependências para atender a essa restrição e tente novamente sua consulta ou comando novamente.
UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED
A federação do Metastore do Hive não está habilitada neste cluster.
Não há suporte para acessar o catálogo <catalogName> neste cluster
UC_INVALID_DEPENDENCIES
As dependências de <securable> são registradas como <storedDeps> sendo analisadas como <parsedDeps>. Isso provavelmente ocorreu por meio do uso inadequado de uma API não SQL.
Para obter mais detalhes , consulte UC_INVALID_DEPENDENCIES
UC_INVALID_NAMESPACE
Namespaces aninhados ou vazios não têm suporte no Catálogo do Unity.
UC_INVALID_REFERENCE
Objetos que não são do tipoUnity-Catalog não podem ser referenciados em objetos do Unity Catalog.
UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED
O suporte de gravação do Unity Catalog Lakehouse Federation não está habilitado para provedor <provider> neste cluster.
UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED
O volume gerenciado não aceita a cláusula LOCATION. Verifique a sintaxe 'CREATE VOLUME ...' para criar um volume gerenciado.
UC_NOT_ENABLED
O Catálogo do Unity não está habilitado neste cluster.
UC_QUERY_FEDERATION_NOT_ENABLED
A Federação de Consultas do Catálogo do Unity não está habilitada neste cluster.
UC_RESOLVED_DBFS_PATH_MISMATCH
A consulta falhou porque tentou fazer referência a <objectType> <name>, mas não pôde fazer isso: o caminho do DBFS resolvido <resolvedHmsPath> não corresponde ao local de armazenamento do Unity Catalog <ucStorageLocation>.
UC_SECRETS_NAO_HABILITADO
O suporte para Secrets do Unity Catalog não está habilitado.
UC_SECRET_JÁ_EXISTE
Não é possível criar segredo <name> porque ele já existe.
Escolha um nome diferente, solte ou substitua o objeto existente ou adicione a IF NOT EXISTS cláusula para tolerar objetos pré-existentes.
UC_SECRET_NOT_FOUND
O segredo <name> não existe. Use 'SHOW SECRETS' para listar os segredos disponíveis.
UC_SERVICE_CREDENTIALS_NOT_ENABLED
As credenciais de serviço não estão habilitadas neste cluster.
UC_TABLE_METADATA_OUT_OF_SYNC
Não é possível consultar a tabela <tableName> porque os metadados de tabela estão fora de sincronia no catálogo. Repare a tabela executando 'MSK REPAIR TABLE <tableName> SYNC METADATA' para sincronizar metadados primeiro.
UC_UNCAUGHT_CLIENT_EXCEPTION
Encontrou um erro HTTP inesperado ao se comunicar com o back-end do Catálogo do Databricks Unity. Código de erro: <errCode>. Mensagem: <message>
UC_VOLUMES_NOT_ENABLED
O suporte para Volumes de Catálogo do Unity não está habilitado nesta instância.
UC_VOLUMES_NOT_SUPPORTED
Não há suporte para volumes para esta operação. O caminho especificado era '<path>'.
UC_VOLUMES_SHARING_NOT_ENABLED
O suporte para compartilhamento de volume não está habilitado nesta instância.
UC_VOLUME_NOT_FOUND
O volume <name> não existe. Use 'SHOW VOLUMES' para listar volumes disponíveis.
UDF_ENVIRONMENT_ERROR
Falha ao instalar as dependências do UDF para <udfName> devido a um erro de sistema.
Para obter mais detalhes , consulte UDF_ENVIRONMENT_ERROR
UDF_ENVIRONMENT_USER_ERROR
Falha ao instalar dependências de UDF para <udfName>.
Para obter mais detalhes , consulte UDF_ENVIRONMENT_USER_ERROR
UDF_ERROR
SQLSTATE: nenhum estado atribuído
Falha na execução da função <fn>
Para obter mais detalhes , consulte UDF_ERROR
UDF_LIMITS
Um ou mais limites de UDF foram violados.
Para obter mais detalhes , consulte UDF_LIMITS
UDF_MAX_COUNT_EXCEEDED
Limite de UDF em toda a consulta excedido de <maxNumUdfs> UDFs (limitado durante a versão prévia pública). Encontrou <numUdfs>. As UDFs eram: <udfNames>.
UDF_PYSPARK_ERROR
O trabalho do Python foi encerrado inesperadamente
Para obter mais detalhes , consulte UDF_PYSPARK_ERROR
UDF_PYSPARK_UNSUPPORTED_TYPE
O PySpark UDF <udf> (<eval-type>) não tem suporte em clusters no modo de acesso compartilhado.
UDF_PYSPARK_USER_CODE_ERROR
Falha na execução.
Para obter mais detalhes , consulte UDF_PYSPARK_USER_CODE_ERROR
UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE
Não há suporte para o valor padrão do parâmetro para a função <functionType> definida pelo usuário.
UDF_USER_CODE_ERROR
Falha na execução da função <fn> .
Para obter mais detalhes , consulte UDF_USER_CODE_ERROR
UDTF_ALIAS_NUMBER_MISMATCH
O número de aliases fornecidos na AS cláusula não corresponde ao número de saída de colunas pelo UDTF.
Esperava <aliasesSize> aliases, mas obteve <aliasesNames>.
Verifique se o número de aliases fornecidos corresponde ao número de colunas geradas pelo UDTF.
UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD
Falha ao avaliar a função de tabela definida pelo usuário porque seu método 'analyze' retornou um OrderingColumn solicitado cuja expressão de nome de coluna incluía um alias <aliasName>desnecessário; remova esse alias e tente a consulta novamente.
UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS
Falha ao avaliar a função de tabela definida pelo usuário porque seu método 'analyze' retornou uma expressão 'select' solicitada (<expression>) que não inclui um alias correspondente; atualize o UDTF para especificar um alias lá e tente a consulta novamente.
UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE
Não é possível converter o tipo SQL <toType> para o Protobuf tipo <protobufType>.
UNABLE_TO_FETCH_HIVE_TABLES
Não é possível buscar tabelas do banco de dados hive: <dbName>. Nome da classe de erro: <className>.
NÃO_FOI_POSSÍVEL_DETERMINAR_O_ESQUEMA_DA_TABELA_DO_PIPELINE
Falha ao inferir o esquema da tabela <tableName> de seus fluxos ascendentes.
Modifique os fluxos que gravam nesta tabela para tornar seus esquemas compatíveis.
Esquema inferido até agora:
<inferredDataSchema>
Esquema incompatível:
<incompatibleDataSchema>
UNABLE_TO_INFER_SCHEMA
Não é possível inferir o esquema para <format>. Ele deve ser especificado manualmente.
NÃO AUTENTICADO
A solicitação não tem credenciais de autenticação válidas para a operação.
UNAUTHORIZED_ACCESS
Acesso não autorizado:
<report>
UNBOUND_SQL_PARAMETER
Foi encontrado o parâmetro desvinculado: <name>. Corrija args e forneça um mapeamento do parâmetro para funções de literal ou construtor de coleção do SQL, como map(), array(), struct().
UNCLOSED_BRACKETED_COMMENT
Um comentário entre colchetes em aberto foi encontrado. Acrescente */ ao final do comentário.
UNEXPECTED_INPUT_TYPE
O parâmetro <paramIndex> da função <functionName> requer o <requiredType> tipo, no entanto <inputSql> , tem o tipo <inputType>.
UNEXPECTED_INPUT_TYPE_OF_NAMED_PARAMETER
O <namedParamKey> parâmetro da função <functionName> requer o <requiredType> tipo, no entanto <inputSql> , tem o tipo <inputType>.<hint>
UNEXPECTED_OPERATOR_IN_STREAMING_VIEW
Operador <op> inesperado na instrução CREATE VIEW como uma fonte de streaming.
Uma consulta de exibição de streaming deve consistir apenas em SELECT, WHEREoperações e UNION ALL operações.
UNEXPECTED_POSITIONAL_ARGUMENT
Não é possível invocar a rotina <routineName> porque ela contém argumentos posicionais após o argumento nomeado atribuído a <parameterName>; por favor, reorganize-os para que os argumentos posicionais venham primeiro e tente a consulta novamente.
UNEXPECTED_SERIALIZER_FOR_CLASS
A classe <className> tem um serializador de expressão inesperado. Espera "STRUCT" ou "IF" que retorna "STRUCT" mas encontrou<expr>.
UNION_NOT_SUPPORTED_IN_RECURSIVE_CTE
O UNION operador ainda não tem suporte em expressões de tabela comuns recursivas (WITH cláusulas que se referem a si mesmas, direta ou indiretamente). Use UNION ALL em seu lugar.
CONSTRAINTE_UNICA_DESATIVADA
O recurso de restrição única está desabilitado. Para habilitá-lo, defina "spark.databricks.sql.dsv2.unique.enabled" como true.
UNKNOWN_FIELD_EXCEPTION
Encontrou <changeType> durante a análise: <unknownFieldBlob>, que pode ser corrigido por uma repetição automática: <isRetryable>
Para obter mais detalhes , consulte UNKNOWN_FIELD_EXCEPTION
UNKNOWN_POSITIONAL_ARGUMENT
A invocação da rotina <routineName> contém um argumento <sqlExpr> posicional desconhecido na posição <pos>. Isso é inválido.
UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT
O tipo primitivo desconhecido com id <id> foi encontrado em um valor variante.
UNKNOWN_PROTOBUF_MESSAGE_TYPE
Tentando tratar <descriptorName> como uma mensagem, mas era <containingType>.
UNPIVOT_REQUIRES_ATTRIBUTES
UNPIVOT exige que todas as expressões fornecidas <given> sejam colunas quando nenhuma <empty> expressão é fornecida. Não são colunas: [<expressions>].
UNPIVOT_REQUIRES_VALUE_COLUMNS
Pelo menos uma coluna de valor precisa ser especificada para UNPIVOT, além de todas as colunas especificadas como IDs.
UNPIVOT_VALUE_DATA_TYPE_MISMATCH
As colunas de valor Unpivot devem compartilhar um tipo menos comum, alguns tipos não: [<types>].
UNPIVOT_VALUE_SIZE_MISMATCH
Todas as colunas de valor não dinâmico devem ter o mesmo tamanho como há nomes de coluna de valor (<names>).
UNRECOGNIZED_PARAMETER_NAME
Não é possível invocar a rotina <routineName> porque a chamada de rotina incluiu uma referência de argumento nomeado para o argumento nomeado <argumentName>, mas essa rotina não inclui nenhuma assinatura que contenha um argumento com esse nome. Você quis dizer um dos seguintes? [<proposal>].
UNRECOGNIZED_SQL_TYPE
Tipo SQL não reconhecido – nome: <typeName>, id: <jdbcType>.
UNRECOGNIZED_STATISTIC
A estatística <stats> não é reconhecida. As estatísticas válidas incluem count, count_distinct, approx_count_distinct, mean, stddev, min, maxvalores de percentil e de percentil. Percentil deve ser um valor numérico seguido por '%', dentro do intervalo de 0% a 100%.
UNRESOLVABLE_TABLE_VALUED_FUNCTION
Não foi possível resolver <name> para uma função com valor de tabela.
Verifique se isso <name> é definido como uma função com valor de tabela e se todos os parâmetros necessários são fornecidos corretamente.
Se <name> não estiver definido, crie a função com valor de tabela antes de usá-la.
Para obter mais informações sobre como definir funções com valor de tabela, consulte a documentação do Apache Spark.
UNRESOLVED_ALL_IN_GROUP_BY
Não é possível inferir colunas de agrupamento para GROUP BY ALL com base na cláusula de seleção. Especifique explicitamente as colunas de agrupamento.
UNRESOLVED_COLUMN
Não é possível resolver um parâmetro de coluna, variável ou função com nome <objectName> .
Para obter mais detalhes , consulte UNRESOLVED_COLUMN
UNRESOLVED_COLUMN_AMONG_FIELD_NAMES
Não é possível resolver o nome da coluna "<colName>" entre (<fieldNames>).
UNRESOLVED_FIELD
Um campo com nome <fieldName> não pode ser resolvido com a coluna <columnPath>do tipo struct.
Para obter mais detalhes , consulte UNRESOLVED_FIELD
UNRESOLVED_INSERT_REPLACE_USING_COLUMN
REPLACE USING A coluna <colName> não pode ser resolvida no <relationType>.
Você quis dizer uma das colunas a seguir? [<suggestion>].
UNRESOLVED_MAP_KEY
Não é possível resolver a coluna <objectName> como uma chave de mapa. Se a chave for um literal de cadeia de caracteres, adicione aspas simples '' em volta dela.
Para obter mais detalhes , consulte UNRESOLVED_MAP_KEY
UNRESOLVED_ROUTINE
Não é possível resolver a rotina <routineName> no caminho <searchPath>da pesquisa.
Verifique a ortografia de <routineName>, verifique se a rotina existe e confirme se você tem USE privilégio no catálogo e no esquema e EXECUTE na rotina.
Para obter mais detalhes , consulte UNRESOLVED_ROUTINE
UNRESOLVED_TABLE_PATH
Não é possível resolver o caminho de armazenamento da tabela <identifier> .
UNRESOLVED_USING_COLUMN_FOR_JOIN
USING não é possível resolver a coluna <colName> no <side> lado da junção. As colunas de <side> lado: [<suggestion>].
UNRESOLVED_VARIABLE
Não é possível resolver a variável <variableName> no caminho <searchPath>da pesquisa.
UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_FILE_FORMAT
Não há suporte para o formato <format> de arquivo não estruturado. Os formatos de arquivo com suporte são <supportedFormats>.
Atualize o format na expressão <expr> para um formato suportado e tente a consulta novamente.
UNSTRUCTURED_DATA_PROCESSING_UNSUPPORTED_MODEL_OPTION
Não há suporte para a opção de modelo não estruturado ('<option>' -> '<value>'). Os valores com suporte são: <supportedValues>.
Alterne para um dos valores com suporte e tente novamente a consulta novamente.
UNSTRUCTURED_OCR_COLUMN_NOT_ALLOWED_WITH_METADATA_MODEL_OPTION
O parâmetro de função 'ocrText' deve ser NULL ou omitido quando a opção 'metadataModel' é especificada. Uma opção "metadataModel" especificada dispara a extração de metadados, em que um 'ocrText' fornecido é proibido.
UNSUPPORTED_ADD_FILE
Não dê suporte à adição de arquivo.
Para obter mais detalhes, consulte UNSUPPORTED_ADD_FILE
UNSUPPORTED_ALTER_COLUMN_PARAMETER
Não há suporte para especificação <parameter> com ALTER <commandTableType> .
UNSUPPORTED_ARROWTYPE
Não há suporte para o tipo de seta <typeName>.
UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION
A função <funcName> não dá suporte a consultas em lote.
UNSUPPORTED_CALL
Não é possível chamar o método de "<methodName>" da classe "<className>".
Para obter mais detalhes, consulte UNSUPPORTED_CALL
UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING
O tipo char/varchar não pode ser usado no esquema de tabela.
Se você quiser que o Spark os trate como tipo de cadeia de caracteres igual ao Spark 3.0 e anterior, defina "spark.sql.legacy.charVarcharAsString" como "true".
UNSUPPORTED_CHAR_OR_VARCHAR_COLLATION
O tipo char/varchar <type> não pode ter a ordenação especificada.
UNSUPPORTED_CLAUSE_FOR_OPERATION
O <clause> não têm suporte para <operation>.
UNSUPPORTED_COLLATION
Não há suporte para ordenação <collationName> para:
Para mais detalhes, consulte UNSUPPORTED_COLLATION
UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE
O ancestral comum do caminho de origem e sourceArchiveDir deve ser registrado com UC.
Se você vir essa mensagem de erro, é provável que você registre o caminho de origem e o sourceArchiveDir em diferentes locais externos.
Coloque-os em um único local externo.
UNSUPPORTED_CONNECT_FEATURE
Não há suporte para o recurso no Spark Connect:
Para obter mais detalhes, confira UNSUPPORTED_CONNECT_FEATURE
CARACTERÍSTICA_DE_RESTRIÇÃO_NÃO_SUPORTADA
Não há suporte para a característica de restrição '<characteristic>' para o tipo de restrição '<constraintType>'.
UNSUPPORTED_CONSTRAINT_CLAUSES
As cláusulas <clauses> de restrição não têm suporte.
UNSUPPORTED_CONSTRAINT_TYPE
Tipo de restrição sem suporte. Apenas <supportedConstraintTypes> tem suporte
UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY
Tipo de fonte de dados sem suporte para consulta direta em arquivos: <dataSourceType>
UNSUPPORTED_DATATYPE
Tipos de dados <typeName> sem suporte.
UNSUPPORTED_DATA_SOURCE_SAVE_MODE
A fonte de dados "<source>" não pode ser gravada no <createMode> modo. Por favor, use o modo "Acrescentar" ou "Substituir" em vez disso.
UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE
A <format> fonte de dados não dá suporte à coluna <columnName> do tipo <columnType>.
UNSUPPORTED_DATA_TYPE_FOR_ENCODER
Não é possível criar o codificador para <dataType>. Use um tipo de dados de saída diferente para seu UDF ou DataFrame.
UNSUPPORTED_DEFAULT_VALUE
Não há suporte para valores de coluna DEFAULT.
Para obter mais detalhes, consulte UNSUPPORTED_DEFAULT_VALUE
UNSUPPORTED_DESERIALIZER
Não há suporte para o desserializador:
Para obter mais detalhes, consulte UNSUPPORTED_DESERIALIZER
UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
Não é possível criar uma coluna gerada <fieldName> com a expressão <expressionStr> porque <reason>.
UNSUPPORTED_EXPR_FOR_OPERATOR
Um operador de consulta contém uma ou mais expressões sem suporte.
Considere reescrevê-lo para evitar funções de janela, funções de agregação e funções geradoras na cláusula WHERE.
Expressões inválidas: [<invalidExprSqls>]
UNSUPPORTED_EXPR_FOR_PARAMETER
Um parâmetro de consulta contém uma expressão sem suporte.
Os parâmetros podem ser variáveis ou literais.
Expressão inválida: [<invalidExprSql>]
UNSUPPORTED_EXPR_FOR_WINDOW
A expressão <sqlExpr> não é suportada dentro de uma função de janela.
UNSUPPORTED_FEATURE
Não há suporte para este recurso:
Para obter mais detalhes , consulte UNSUPPORTED_FEATURE
UNSUPPORTED_FN_TYPE
Tipo de função definida pelo usuário sem suporte: <language>
UNSUPPORTED_GENERATOR
Não há suporte para o gerador:
Para obter mais detalhes , consulte UNSUPPORTED_GENERATOR
UNSUPPORTED_GROUPING_EXPRESSION
grouping()/grouping_id() só pode ser usado com GroupingSets/Cube/Rollup.
UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE
<trigger> com a posição inicial <initialPosition> não é compatível com a fonte do Kinesis
UNSUPPORTED_INSERT
Não é possível fazer a inserção no destino.
Para obter mais detalhes, consulte UNSUPPORTED_INSERT
UNSUPPORTED_JOIN_TYPE
Tipo de junção sem suporte '<typ>'. Os tipos de junção com suporte incluem: <supported>.
UNSUPPORTED_MANAGED_TABLE_CREATION
Não há suporte para a criação de uma tabela <tableName> gerenciada usando a fonte <dataSource> de dados. Você precisa usar a fonte de DELTA dados ou criar uma tabela externa usando...CREATE EXTERNAL TABLE <tableName>USING <dataSource>...
UNSUPPORTED_MERGE_CONDITION
MERGE a operação contém uma condição sem suporte <condName> .
Para obter mais detalhes, consulte UNSUPPORTED_MERGE_CONDITION
UNSUPPORTED_METADATA_KEY
Chave de metadados sem suporte: <key>. Chaves com suporte: <supportedKeys>.
UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY
A tabela <tableName> tem uma política de segurança em nível de linha ou uma máscara de coluna que indiretamente se refere a outra tabela com uma política de segurança em nível de linha ou máscara de coluna; isso não tem suporte. Sequência de chamadas: <callSequence>
OPERAÇÃO_NÃO_SUPORTADA_PARA_FONTE_DE_MEMÓRIA_CONTÍNUA
A operação <operation> não é suportada para coletor de memória contínua. Se você estiver escrevendo um teste para o Modo Real-Time de Streaming, considere usar CheckAnswerWithTimeout em vez de outras verificações.
UNSUPPORTED_OVERWRITE
Não é possível substituir o destino do qual também está sendo lido.
Para obter mais detalhes, confira UNSUPPORTED_OVERWRITE
UNSUPPORTED_PARTITION_TRANSFORM
Transformação de partição sem suporte: <transform>. As transformações com suporte são identity, bucket, e clusterBy. Verifique se sua expressão de transformação usa uma destas.
UNSUPPORTED_PIPELINE_SPARK_SQL_COMMAND
Não há suporte para '<command>' na API spark.sql("...") no Pipeline Declarativo do Spark.
COLLATION_DE_PROCEDIMENTO_NÃO_SUPORTADO
O procedimento <procedureName> deve especificar ou herdar DEFAULT COLLATION UTF8_BINARY. Use CREATE PROCEDURE <procedureName> (...) DEFAULT COLLATION UTF_BINARY ....
UNSUPPORTED_SAVE_MODE
O modo de salvamento <saveMode> não é compatível com:
Para obter mais detalhes , consulte UNSUPPORTED_SAVE_MODE
UNSUPPORTED_SHOW_CREATE_TABLE
Sem suporte para um SHOW CREATE TABLE comando.
Para obter mais detalhes, consulte UNSUPPORTED_SHOW_CREATE_TABLE
UNSUPPORTED_SINGLE_PASS_ANALYZER_FEATURE
O analisador de passagem única não pode processar essa consulta ou comando porque ele ainda não dá suporte <feature>.
UNSUPPORTED_SQL_UDF_USAGE
O uso da função SQL <functionName> no <nodeName> não é suportado.
UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK
<outputMode> modo de saída para o qual não há suporte no <statefulOperator> no streaming de DataFrames/DataSets sem marca-d'água.
UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
Sem suporte para transmitir uma exibição. Reason:
Para obter mais detalhes, consulte UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED
Não há suporte para opções <options> de streaming para a fonte <source> de dados em um cluster compartilhado. Confirme se as opções foram especificadas e escritas corretamente<prefixHint> e verifique se https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode há limitações.
UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED
A fonte de dados <sink> não é suportada como um destino de streaming em um cluster compartilhado.
UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED
Não há suporte para a fonte <source> de dados como uma fonte de streaming em um cluster compartilhado.
UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION
A função <funcName> não dá suporte ao streaming. Remova a STREAM palavra-chave
UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE
<streamReadLimit> não tem suporte com a fonte Kinesis
UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
Expressão de subconsulta sem suporte:
Para mais detalhes, consulte UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
UNSUPPORTED_TABLE_CHANGE_IN_AUTO_SCHEMA_EVOLUTION
As alterações <changes> de tabela não são compatíveis com o catálogo na tabela <tableName>.
UNSUPPORTED_TABLE_CHANGE_IN_JDBC_CATALOG
A alteração de tabela <change> não é suportada para o catálogo JDBC na tabela <tableName>. As alterações com suporte incluem: AddColumn, RenameColumn, DeleteColumn, UpdateColumnType, UpdateColumnNullability.
UNSUPPORTED_TIMESERIES_COLUMNS
Não há suporte para a criação de chave primária com colunas de séries temporais
UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN
Não há suporte para a criação de chave primária com mais de uma coluna <colSeq> de série temporal.
UNSUPPORTED_TIME_PRECISION
<precision> A precisão em segundos do tipo de dados TIME está fora do intervalo suportado [0, 6].
UNSUPPORTED_TIME_TYPE
Não há suporte para o tipo de dados TIME.
UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE
<trigger> não tem suporte com a fonte Kinesis
UNSUPPORTED_TYPED_LITERAL
Não há suporte para literais do tipo <unsupportedType> . Os tipos compatíveis são <supportedTypes>.
UNSUPPORTED_UDF_FEATURE
A função <function> usa os seguintes recursos que exigem uma versão mais recente do runtime do Databricks: <features>. Consulte <docLink> para obter detalhes.
UNSUPPORTED_UDF_TYPES_IN_SAME_PLACE
Os tipos de UDF não podem ser usados juntos: <types>
UNTYPED_SCALA_UDF
Você está usando uma UDF do Scala não tipado, que não tem as informações de tipo de entrada.
O Spark poderá passar "null" sem verificação para o closure Scala com argumento de tipo primitivo, e o closure verá o valor padrão do tipo Java para o argumento "null"; por exemplo, udf((x: Int) => x, IntegerType) o resultado é 0 para entrada "null". Para se livrar desse erro, você pode:
use APIs UDF do Scala tipadas (sem parâmetro de tipo de retorno), por exemplo,
udf((x: Int) => x).use APIs UDF do Java, por exemplo,
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType), se os tipos de entrada não forem primitivos.defina "spark.sql.legacy.allowUntypedScalaUDF" como "true" e use essa API com cuidado.
UPGRADE_NOT_SUPPORTED
A tabela não está elegível para atualização do Hive Metastore para o Unity Catalog. Reason:
Para obter mais informações, consulte UPGRADE_NOT_SUPPORTED
USER_DEFINED_FUNCTIONS
A função definida pelo usuário é inválida:
Para obter mais detalhes , consulte USER_DEFINED_FUNCTIONS
USER_RAISED_EXCEPTION
<errorMessage>
USER_RAISED_EXCEPTION_PARAMETER_MISMATCH
A raise_error() função foi usada para gerar a classe de erro: <errorClass> que espera parâmetros: <expectedParms>.
Os parâmetros fornecidos <providedParms> não correspondem aos parâmetros esperados.
Forneça todos os parâmetros esperados.
USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS
A raise_error() função foi usada para gerar uma classe de erro desconhecida: <errorClass>
USER_SPECIFIED_AND_ACTUAL_SCHEMA_MISMATCH
O esquema especificado pelo usuário não corresponde ao esquema real:
especificado pelo usuário: <schema>, real: <actualSchema>. Se você estiver usando
A API DataFrameReader.schema ou a criação de uma tabela não especificam o esquema.
Ou, se você estiver verificando uma tabela existente, solte-a e recrie-a.
ESQUEMA_DEFINIDO_PELO_USUÁRIO_E_INFERIDO_NÃO_COMPATÍVEL
A tabela '<tableName>' tem um esquema especificado pelo usuário incompatível com o esquema
inferido de sua consulta.
<streamingTableHint>
Esquema declarado:
<specifiedSchema>
Esquema inferido:
<inferredDataSchema>
USE_CATALOG_SCHEMA_IN_DEFINER_STORED_PROCEDURE_NOT_SUPPORTED
Não há suporte para a configuração de catálogo ou esquema no procedimento armazenado do SQL SECURITY DEFINER .
VARIABLE_ALREADY_EXISTS
Não é possível criar a variável <variableName> porque ela já existe.
Escolha um nome diferente ou solte ou substitua a variável existente.
VARIABLE_NOT_FOUND
A variável <variableName> não pode ser encontrada. Verifique a ortografia e a correção do esquema e do catálogo.
Se você não qualificou o nome com um esquema e um catálogo, verifique a saída de current_schema() ou qualifique o nome com o esquema e o catálogo corretos.
Para tolerar o erro no uso suspenso DROP VARIABLE IF EXISTS.
VARIANT_CONSTRUCTOR_SIZE_LIMIT
Não é possível construir uma Variant maior que 16 MiB. O tamanho máximo permitido de um valor Variant é de 16 MiB.
VARIANT_DUPLICATE_KEY
Falha ao criar variante devido a uma chave <key>de objeto duplicada.
VARIANT_SIZE_LIMIT
Não é possível criar variante maior do que <sizeLimit> em <functionName>.
Evite cadeias de caracteres de entrada grandes para essa expressão (por exemplo, adicione chamadas de função para verificar o tamanho da expressão e convertê-la primeiro NULL se ela for muito grande).
VERSIONED_CLONE_UNSUPPORTED_TABLE_FEATURE
O histórico da tabela de origem contém recurso(s) de tabela que não são suportados por clones versionados nesta versão do DBR: <unsupportedFeatureNames>.
Atualize para uma versão mais recente do DBR.
VIEW_ALREADY_EXISTS
Não é possível criar o modo de exibição <relationName> porque ele já existe.
Escolha um nome diferente, solte ou substitua o objeto existente ou adicione a IF NOT EXISTS cláusula para tolerar objetos pré-existentes.
VIEW_EXCEED_MAX_NESTED_DEPTH
A profundidade da exibição <viewName> excede a profundidade máxima de resolução da exibição (<maxNestedDepth>).
A análise é abortada para evitar erros. Se você quiser contornar isso, tente aumentar o valor de "spark.sql.view.maxNestedViewDepth".
VIEW_NOT_FOUND
A exibição <relationName> não pode ser encontrada. Verifique a ortografia e a correção do esquema e do catálogo.
Se você não qualificou o nome com um esquema, verifique a saída current_schema() ou qualifique o nome com o esquema e o catálogo corretos.
Para tolerar o erro no uso suspenso DROP VIEW IF EXISTS.
VOLUME_ALREADY_EXISTS
Não é possível criar volume <relationName> porque ele já existe.
Escolha um nome diferente, solte ou substitua o objeto existente ou adicione a IF NOT EXISTS cláusula para tolerar objetos pré-existentes.
ESTRATÉGIA_DE_AVANÇO_DE_MARCA_D'ÁGUA
A estratégia de avanço da marca d'água de streaming tem a seguinte limitação:
Para obter mais detalhes , consulte WATERMARK_ADVANCEMENT_STRATEGY
WINDOW_FUNCTION_AND_FRAME_MISMATCH
A função <funcName> só pode ser avaliada em um quadro de janela baseado em linha ordenado com um único deslocamento: <windowExpr>.
WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE
A função Window <funcName> requer uma cláusula OVER.
WITH_CREDENTIAL
A sintaxe WITH CREDENTIAL não é suportada para <type>.
WRITE_STREAM_NOT_ALLOWED
writeStream pode ser chamado somente no Dataset/DataFrame de streaming.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED
Falha ao executar o comando porque DEFAULT não há suporte para valores ao adicionar novos
colunas para tabelas Delta existentes anteriormente; adicione a coluna sem um valor padrão
Primeiro, defina o valor e, em seguida, execute um segundo comando ALTER TABLE ALTER COLUMN SET DEFAULT para aplicar
a linhas inseridas futuras.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED
Falha ao executar o comando <commandType> porque ele atribuiu um valor de coluna DEFAULT,
mas o recurso de tabela correspondente não estava habilitado. Tente o comando novamente
depois de executar ALTER TABLE tableName SET
TBLPROPERTIES('delta.feature.allowColumnDefaults' = 'suportado').
WRONG_COMMAND_FOR_OBJECT_TYPE
A operação <operation> requer um <requiredType>. Mas <objectName> é um <foundType>. Use <alternative> em seu lugar.
WRONG_NUM_ARGS
O <functionName> requer parâmetros <expectedNum>, mas o número real é <actualNum>.
Para obter mais detalhes , consulte WRONG_NUM_ARGS
XML_ROW_TAG_MISSING
<rowTag> a opção é necessária para ler/gravar arquivos no formato XML.
XML_UNSUPPORTED_NESTED_TYPES
O XML não dá suporte <innerDataType> como tipo interno de <dataType>. Envolva o <innerDataType> em um campo StructType ao utilizá-lo dentro do <dataType>.
XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR
Dados resgatados e coluna curinga não podem ser habilitados simultaneamente. Remova a opção wildcardColumnName.
ZORDERBY_COLUMN_DOES_NOT_EXIST
A coluna <columnName> ZOrderBy não existe.
Lago Delta
DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND
Não foi possível localizar SparkSession ativo.
DELTA_ACTIVE_TRANSACTION_ALREADY_SET
Não é possível definir um novo txn como ativo quando um já está ativo.
DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED
Falha ao adicionar a coluna <colName> porque o nome está reservado.
DELTA_ADDING_DELETION_VECTORS_DISALLOWED
A operação atual tentou adicionar um vetor de exclusão a uma tabela que não permite a criação de novos vetores de exclusão. Envie um relatório de bug.
DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED
Todas as operações que adicionam vetores de exclusão devem definir a coluna tightBounds nas estatísticas como false. Envie um relatório de bug.
DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO
O índice <columnIndex> para adicionar coluna <columnName> é menor que 0.
DELTA_ADD_COLUMN_PARENT_NOT_STRUCT
Não é possível adicionar <columnName> porque seu elemento pai não é um StructType. Encontrou <other>.
DELTA_ADD_COLUMN_STRUCT_NOT_FOUND
Estrutura não encontrada na posição <position>.
DELTA_ADD_CONSTRAINTS
Utilize ALTER TABLE ADD CONSTRAINT para incluir CHECK restrições.
DELTA_AGGREGATE_IN_CHECK_CONSTRAINT
Encontrado <sqlExpr> em uma restrição CHECK . Expressões de agregação não são permitidas em CHECK restrições.
DELTA_AGGREGATE_IN_GENERATED_COLUMN
Encontrou <sqlExpr>. Uma coluna gerada não pode usar uma expressão de agregação.
DELTA_AGGREGATION_NOT_SUPPORTED
Não há suporte para funções de agregação no <operation> <predicate>.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER
Falha ao alterar a ordenação da coluna <column> porque ela tem um índice de filtro de flores. Por favor, mantenha a ordenação existente ou remova o índice de filtro Bloom e tente o comando novamente para alterar a ordenação.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY
Falha ao alterar a ordenação da coluna <column> porque ela é uma coluna de clustering. Mantenha o intercalamento existente ou altere a coluna para uma coluna não agrupada usando um comando ALTER TABLE e então tente o comando novamente para alterar o intercalamento.
DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED
ALTER TABLE CHANGE COLUMN não há suporte para alteração de coluna <currentType> para <newType>.
DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED
ALTER TABLE CLUSTER BY tem suporte apenas para a tabela Delta com clustering Liquid.
DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED
ALTER TABLE CLUSTER BY não pode ser aplicado a uma tabela particionada.
DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED
Operação não permitida: ALTER TABLE RENAME TO não é permitido para tabelas Delta gerenciadas no S3, pois a consistência eventual no S3 pode corromper o log de transações Delta. Se você insistir em fazer isso e tiver certeza de que nunca houve uma tabela Delta com o novo nome <newName> antes, você poderá habilitar isso definindo <key> como verdadeiro.
DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
Não é possível habilitar o recurso de tabela <tableFeature> usando ALTER TABLE SET TBLPROPERTIES. Use CREATE OR REPLACE TABLE CLUSTER BY para criar uma tabela Delta com agrupamento.
DELTA_ALTER_TABLE_SET_MANAGED_COPY_OR_MOVE_REQUIRED
ALTER TABLE ... SET MANAGED requer COPY ou MOVE a ser especificado para tabela <table>estrangeira.
DELTA_ALTER_TABLE_SET_MANAGED_DOES_NOT_SUPPORT_UNIFORM_ICEBERG
ALTER TABLE ... SET MANAGED não dá suporte à tabela Do Apache Iceberg Uniforme. Desative Uniform ou use SET MANAGED TRUNCATE UNIFORM HISTORY.
DELTA_ALTER_TABLE_SET_MANAGED_FAILED
ALTER TABLE <table> SET MANAGED com falha.
Para obter mais detalhes, consulte DELTA_ALTER_TABLE_SET_MANAGED_FAILED
DELTA_ALTER_TABLE_SET_MANAGED_NOT_ENABLED
ALTER TABLE
...
SET MANAGED O comando não está habilitado. Entre em contato com sua equipe de suporte do Databricks para obter assistência.
DELTA_ALTER_TABLE_SET_MANAGED_TABLE_NOT_MIGRATABLE
ALTER TABLE <table> SET MANAGED não é possível migrar a tabela fornecida.
Verifique se a tabela está em um estado válido e tente novamente o comando. Se o problema persistir, entre em contato com o suporte do Databricks.
Para obter mais detalhes , consulte DELTA_ALTER_TABLE_SET_MANAGED_TABLE_NOT_MIGRATABLE
DELTA_ALTER_TABLE_SET_MANAGED_UNSUPPORTED_COPY_MOVE_SYNTAX
ALTER TABLE ... SET MANAGED [COPY | MOVE] não há suporte para sintaxe para tabela <table>. Use ALTER TABLE ... SET MANAGED em seu lugar.
DELTA_ALTER_TABLE_SET_MANAGED_UNSUPPORTED_FOREIGN_TABLE
Tabela estrangeira <table> não tem suporte para migrar para a tabela gerenciada pela UC: <errorMessage>.
DELTA_ALTER_TABLE_UNSET_MANAGED_DOES_NOT_SUPPORT_COMPATIBILITY_MODE
ALTER TABLE ... UNSET MANAGED não dá suporte à tabela com o modo de compatibilidade habilitado.
Desabilite o modo de compatibilidade na tabela antes de executar este comando.
DELTA_ALTER_TABLE_UNSET_MANAGED_DOES_NOT_SUPPORT_UNIFORM
ALTER TABLE ... UNSET MANAGED não dá suporte a Uniform. Desative Uniform ou use UNSET MANAGED TRUNCATE UNIFORM HISTORY.
DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED
<table> não pode ser revertido da tabela gerenciada para a externa.
Para obter mais detalhes, consulte DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED
DELTA_ALTER_TABLE_UNSET_MANAGED_NOT_ENABLED
ALTER TABLE
...
UNSET MANAGED O comando não está habilitado. Entre em contato com sua equipe de suporte do Databricks para obter assistência.
DELTA_AMBIGUOUS_DATA_TYPE_CHANGE
Não é possível alterar o tipo de dados de <column><from> para <to>. Essa alteração contém remoções de coluna e adições, portanto, elas são ambíguas. Faça essas alterações individualmente usando ALTER TABLE [ADD | DROP | RENAME] COLUMN.
DELTA_AMBIGUOUS_PARTITION_COLUMN
A coluna <column> de partição ambígua pode ser <colMatches>.
DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE
CREATE TABLE contém dois locais diferentes: <identifier> e <location>.
Você pode remover a cláusula LOCATION da instrução CREATE TABLE, ou definir
<config> como true para ignorar essa verificação.
DELTA_ARCHIVED_FILES_IN_LIMIT
A tabela <table> não contém registros suficientes em arquivos não arquivados para satisfazer os registros especificados LIMIT<limit> .
DELTA_ARCHIVED_FILES_IN_SCAN
Encontrados <numArchivedFiles> arquivos potencialmente arquivados na tabela <table> que precisam ser verificados no contexto desta consulta.
Arquivos arquivados não podem ser acessados. O tempo atual até o arquivamento é configurado como <archivalTime>.
Ajuste os filtros de consulta para excluir todos os arquivos arquivados.
DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION
A operação "<opName>" não é permitida quando a tabela habilitou o CDF (feed de dados de alteração) e passou por alterações de esquema usando DROP COLUMN ou RENAME COLUMN.
DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS
Não é possível descartar índices do filtro de bloom para as seguintes colunas inexistentes: <unknownColumns>.
DELTA_BLOOM_FILTER_OOM_ON_WRITE
OutOfMemoryError ocorreu durante a gravação de índices de filtro bloom para as seguintes colunas: <columnsWithBloomFilterIndices>.
Você pode reduzir o volume de memória dos índices de filtro de flores escolhendo um valor menor para a opção 'numItems', um valor maior para a opção 'fpp' ou indexando menos colunas.
DELTA_CANNOT_CHANGE_DATA_TYPE
Não é possível alterar o tipo de dados: <dataType>.
DELTA_CANNOT_CHANGE_LOCATION
Não é possível alterar o 'local' da tabela Delta usando SET TBLPROPERTIES. Use ALTER TABLE SET LOCATION em seu lugar.
DELTA_CANNOT_CHANGE_PROVIDER
'provider' é uma propriedade de tabela reservada e não pode ser alterada.
DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL
Não é possível criar índices de filtro de flores para as seguintes colunas inexistentes: <unknownCols>.
DELTA_CANNOT_CREATE_LOG_PATH
Não é possível criar <path>.
DELTA_CANNOT_DESCRIBE_VIEW_HISTORY
Não é possível descrever o histórico de uma visualização.
DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN
Não é possível remover o índice de filtro de bloom em uma coluna não indexada: <columnName>.
DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE
Não é possível descartar o recurso da tabela de restrições CHECK.
As seguintes restrições devem ser descartadas primeiro: <constraints>.
DELTA_CANNOT_DROP_COLLATIONS_FEATURE
Não é possível remover o recurso de tabela de ordenações.
As colunas com ordenações não padrão devem ser alteradas para usar UTF8_BINARY primeiro: <colNames>.
DELTA_CANNOT_DROP_DOMAIN_METADATA_FEATURE_FROM_MANAGED_ICEBERG_TABLE
Não é possível descartar o recurso de tabela domainMetadata. Table <name> é uma tabela gerenciada do Apache Iceberg. DomainMetadata não pode ser removido das tabelas gerenciadas do Apache Iceberg.
DELTA_CANNOT_DROP_GEOSPATIAL_FEATURE
Não é possível descartar o recurso de tabela geoespacial. Recrie a tabela ou solte colunas com tipos de geometria/geografia: <colNames> e tente novamente.
DELTA_CANNOT_DROP_VARIANT_FEATURE
DROP FEATURE <feature> não teve sucesso. Não é possível descartar o recurso de tabela variante. As colunas variant devem ser descartadas primeiro: <colNames>.
DELTA_CANNOT_EVALUATE_EXPRESSION
Não é possível avaliar a expressão: <expression>.
DELTA_CANNOT_FIND_BUCKET_SPEC
Esperando uma tabela Delta de bucketing, mas não é possível encontrar a especificação de bucket na tabela.
DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION
Não é possível gerar código para expressão: <expression>.
DELTA_CANNOT_MODIFY_APPEND_ONLY
Esta tabela está configurada para permitir somente acréscimos. Se você quiser permitir atualizações ou exclusões, use 'ALTER TABLE <table_name> SET TBLPROPERTIES (<config>=false)'.
DELTA_CANNOT_MODIFY_CATALOG_OWNED_DEPENDENCIES
Não é possível substituir ou desconfigurar as propriedades da tabela de marcação de tempo durante a confirmação porque a tabela pertence ao catálogo. Remova "delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion" e "delta.inCommitTimestampEnablementTimestamp" da TBLPROPERTIES cláusula e tente novamente o comando.
DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES
<Command> não pode substituir ou desabilitar as propriedades da tabela de carimbo de data/hora de confirmação porque as confirmações coordenadas estão habilitadas nesta tabela e dependem delas. Remova-os ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") da cláusula TBLPROPERTIES e tente novamente o comando.
DELTA_CANNOT_MODIFY_TABLE_PROPERTY
A configuração <prop> da tabela Delta não pode ser especificada pelo usuário.
DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS
<Command> não pode alterar as configurações de confirmação coordenadas para uma tabela de destino existente. Remova-os ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview", "delta.coordinatedCommits.tableConf-preview") da cláusula TBLPROPERTIES e tente o comando novamente.
DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI
Um uri (<uri>) que não pode ser transformado em um caminho relativo foi encontrado no log de transações.
DELTA_CANNOT_RELATIVIZE_PATH
Um caminho (<path>) que não pode ser relativizado com a entrada atual encontrada no
log de transações. Execute novamente como:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<userPath>", true)
e, em seguida, também execute:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<path>")
DELTA_CANNOT_RENAME_PATH
Não é possível renomear <currentPath> para <newPath>.
DELTA_CANNOT_REPLACE_MISSING_TABLE
A tabela <tableName> não pode ser substituída, pois ela não existe. Use CREATE OR REPLACE TABLE para criar a tabela.
DELTA_CANNOT_RESOLVE_CLUSTERING_COLUMN
Não é possível resolver a coluna de clustering <columnName> em <schema> devido a um erro inesperado. Executar ALTER TABLE...CLUSTER BY ... para reparar metadados de clustering Delta.
DELTA_CANNOT_RESOLVE_COLUMN
Não é possível resolver a coluna <columnName> em <schema>
DELTA_CANNOT_RESTORE_TABLE_VERSION
Não é possível restaurar a tabela para a versão <version>. Versões disponíveis: [<startVersion>, <endVersion>].
DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER
Não é possível restaurar a tabela para o carimbo de data/hora (<requestedTimestamp>) como é antes da versão mais antiga disponível. Use um carimbo de data/hora após (<earliestTimestamp>).
DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER
Não é possível restaurar a tabela para o carimbo de data/hora (<requestedTimestamp>), pois ele é posterior à versão mais recente disponível. Use um carimbo de data/hora anterior a (<latestTimestamp>).
DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES
<Command> não pode definir as propriedades da tabela de carimbo de data/hora de confirmação em conjunto com confirmações coordenadas, pois a última depende do primeiro e define o primeiro internamente. Remova-os ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") da cláusula TBLPROPERTIES e tente novamente o comando.
DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER
Não é possível alterar o local de uma tabela baseada em caminho.
DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY
Não é possível definir delta.managedDataSkippingStatsColumns em tabelas de Pipelines Declarativos do Spark fora do ambiente Lakeflow.
DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_COMMAND
Ao habilitar o 'unity-catalog' como coordenador de confirmação, a configuração "<configuration>" não pode ser definida a partir do comando. Remova-a da TBLPROPERTIES cláusula e repita o comando novamente.
DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_SESSION
Ao habilitar o 'unity-catalog' como coordenador de confirmação, a configuração "<configuration>" não pode ser definida nas configurações do SparkSession. Desinstale-o executando-o spark.conf.unset("<configuration>") e repita o comando novamente.
DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS
ALTER não pode remover a definição das configurações de confirmações coordenadas. Para fazer downgrade de uma tabela de confirmações coordenadas, tente novamente usando ALTER TABLE [table-name] DROP FEATURE 'coordinatedCommits-preview'.
DELTA_CANNOT_UPDATE_ARRAY_FIELD
Não é possível atualizar <tableName> o tipo de campo <fieldName> : atualize o elemento atualizando <fieldName>.element.
DELTA_CANNOT_UPDATE_MAP_FIELD
Não é possível atualizar <tableName> o tipo de campo <fieldName> : atualizar um mapa atualizando <fieldName>.key ou <fieldName>.value.
DELTA_CANNOT_UPDATE_OTHER_FIELD
Não é possível atualizar <tableName> o campo do tipo <typeName>.
DELTA_CANNOT_UPDATE_STRUCT_FIELD
Não é possível atualizar o campo <tableName> tipo <fieldName>: atualize o struct adicionando, excluindo ou atualizando os respectivos campos.
DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION
Não é possível usar todas as colunas das colunas de partição.
DELTA_CANNOT_VACUUM_LITE
VACUUM O LITE não pode excluir todos os arquivos qualificados, pois alguns arquivos não são referenciados pelo log Delta. Execute VACUUM FULL.
DELTA_CANNOT_WRITE_INTO_VIEW
<table> é uma exibição. Não há suporte para gravações em uma exibição.
DELTA_CAST_OVERFLOW_IN_TABLE_WRITE
Ocorreu um erro ao inserir um valor de tipo <sourceType> na <targetType> coluna de tipo <columnName> devido a um estouro.
Use try_cast no valor de entrada para tolerar o estouro e retornar NULL.
Se necessário, defina `<storeAssignmentPolicyFlag>` como `LEGACY` para ignorar esse erro ou configure `<updateAndMergeCastingFollowsAnsiEnabledFlag>` como verdadeiro para reverter ao comportamento antigo e seguir `<ansiEnabledFlag>` em `UPDATE` e `MERGE`.
DELTA_CATALOG_MANAGED_TABLE_UPGRADE_OR_DOWNGRADE_NOT_SUPPORTED
Não há suporte para atualizar ou fazer downgrade de uma tabela gerenciada por catálogo. Em vez disso, crie uma tabela com os recursos de tabela desejados.
DELTA_CATALOG_MANAGED_TABLE_UPGRADE_WITH_OTHER_PROPERTIES
Não é possível combinar a atualização da tabela <tableName> para gerenciada pelo catálogo com outras alterações de propriedade.
Propriedades fornecidas: <properties>.
DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION
A configuração delta.enableChangeDataFeed não pode ser definida. A alteração do feed de dados do Delta ainda não está disponível.
DELTA_CDC_READ_NULL_RANGE_BOUNDARY
Os parâmetros de início/término de leitura CDC não podem ser nulos. Forneça uma versão ou carimbo de data/hora válido.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA
Recuperação de alterações de tabela entre a versão <start> e <end> falhou por causa de um esquema de dados incompatível.
O esquema de leitura está <readSchema> na versão <readVersion>, mas encontramos um esquema de dados incompatível na versão <incompatibleVersion>.
Se possível, recupere as alterações de tabela usando o esquema da versão final definindo <config> como endVersion, ou entre em contato com o suporte.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE
A recuperação de alterações de tabela entre a versão <start> e <end> falhou devido a uma alteração de esquema incompatível.
O esquema de leitura está <readSchema> na versão <readVersion>, mas encontramos uma alteração de esquema incompatível na versão <incompatibleVersion>.
Se possível, consulte as alterações de tabela separadamente da versão <start> para <incompatibleVersion> - 1 e de versão <incompatibleVersion> para <end>.
DELTA_CHANGE_DATA_FILE_NOT_FOUND
O arquivo <filePath> referenciado no log de transações não pode ser encontrado. Isso pode ocorrer quando os dados foram excluídos manualmente do sistema de arquivos em vez de usar a instrução table DELETE . Essa solicitação parece estar direcionada ao Change Data Feed. Se for esse o caso, esse erro pode ocorrer quando o arquivo de dados de alteração estiver fora do período de retenção e tiver sido excluído pela declaração VACUUM. Para obter mais informações, veja <faqPath>
DELTA_CHANGE_TABLE_FEED_DISABLED
Não é possível gravar na tabela com delta.enableChangeDataFeed definido. A alteração do feed de dados do Delta não está disponível.
DELTA_CHECKPOINT_NON_EXIST_TABLE
Não é possível fazer o ponto de verificação de uma tabela <path> não existente. Você excluiu manualmente os arquivos no diretório _delta_log?
DELTA_CLONE_AMBIGUOUS_TARGET
Dois caminhos foram fornecidos como destino CLONE , portanto, é ambíguo o qual usar. Um dispositivo externo
local para CLONE foi fornecido em <externalLocation> ao mesmo tempo em que o caminho
<targetIdentifier>.
DELTA_CLONE_INCOMPATIBLE_SOURCE
A origem do clone tem um formato válido, mas possui uma característica não compatível com o Delta.
Para obter mais detalhes, consulte DELTA_CLONE_INCOMPATIBLE_SOURCE
DELTA_CLONE_INCOMPLETE_FILE_COPY
Arquivo (<fileName>) não copiado completamente. Tamanho do arquivo esperado: <expectedSize>, encontrado: <actualSize>. Para continuar com a operação ignorando a verificação de tamanho do arquivo, defina <config> como falso.
DELTA_CLONE_UNSUPPORTED_SOURCE
Origem de clone <mode> sem suporte "<name>", cujo formato é <format>.
Os formatos com suporte são 'delta', 'Apache Iceberg' e 'parquet'.
DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE
Tabela de origem sem suporte:
Para obter mais detalhes, consulte DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE
DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET
Tabela de destino não suportada:
Para obter mais detalhes, consulte DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET
DELTA_CLONE_COM_RASTREAMENTO_DE_LINHA_SEM_ESTATÍSTICAS
Não é possível clonar superficialmente uma tabela sem estatísticas e com o acompanhamento de linha habilitado.
Se você quiser habilitar o acompanhamento de linhas, primeiro precisará coletar estatísticas na tabela de origem executando:
ANALYZE TABLE table_name COMPUTE DELTA STATISTICS
DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED
CLONE não há suporte para a tabela Delta com clustering Liquid para DBR versão < 14.0.
DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED
CLUSTER BY não tem suporte porque as seguintes colunas: <columnsWithDataTypes> não dão suporte ao salto de dados.
DELTA_CLUSTERING_COLUMNS_MISMATCH
As colunas de clustering fornecidas não correspondem às da tabela existente.
fornecido:
<providedClusteringColumns>existente:
<existingClusteringColumns>
DELTA_CLUSTERING_COLUMN_MISSING_STATS
O clustering Liquid requer que as colunas de clustering tenham estatísticas. Não foi possível encontrar colunas de clustering "<columns>" no esquema de estatísticas:
<schema>
DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE
A criação de uma tabela externa sem clustering líquido de um diretório de tabela com clustering líquido não é permitida; caminho: <path>.
DELTA_CLUSTERING_NOT_SUPPORTED
'<operation>' não dá suporte ao clustering.
DELTA_CLUSTERING_PHASE_OUT_FAILED
Não é possível concluir o <phaseOutType> da tabela com o recurso de tabela <tableFeatureToAdd> (motivo: <reason>). Tente o OPTIMIZE comando novamente.
== Erro ==
<error>
DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE
REPLACE uma tabela Delta com o clustering Liquid com uma tabela particionada não é permitido.
DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS
Não há suporte para SHOW CREATE TABLE na tabela Delta com o clustering Liquid sem colunas de clustering.
DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS
A transição de uma tabela Delta com clustering Liquid para uma tabela particionada não é permitida para operação: <operation>, quando a tabela existente tem colunas de clustering não vazias.
Execute o comando ALTER TABLE CLUSTER BY NONE para remover primeiro as colunas de clustering.
DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE
O modo de substituição de partição dinâmica não é permitido para a tabela Delta com clustering do Liquid.
DELTA_CLUSTERING_WITH_PARTITION_PREDICATE
OPTIMIZE O comando para tabela Delta com agrupamento Liquid não suporta predicados de partição. Remova os predicados: <predicates>.
DELTA_CLUSTERING_WITH_ZORDER_BY
OPTIMIZE o comando da tabela Delta com clustering Liquid não pode especificar ZORDER BY. Remova ZORDER BY (<zOrderBy>).
DELTA_CLUSTER_BY_AUTO_MISMATCH
O valor de clusterByAuto fornecido não corresponde ao da tabela existente.
DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS
CLUSTER BY para clustering Liquid suporta até <numColumnsLimit> colunas de clustering, mas a tabela tem <actualNumColumns> colunas de clustering. Remova as colunas extras de agrupamento.
DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED
Não é permitido especificar CLUSTER BY quando o esquema não está definido. Defina o esquema para a tabela <tableName>.
DELTA_CLUSTER_BY_WITH_BUCKETING
Clustering e bucketing não podem ser especificados. Remova CLUSTERED BY INTO BUCKETS ou bucketBy se você quiser criar uma tabela Delta com clustering.
DELTA_CLUSTER_BY_WITH_PARTITIONED_BY
Clustering e particionamento não podem ser especificados. Remova PARTITIONED BY / partitionBy / partitionedBy se você quiser criar uma tabela Delta com clustering.
DELTA_COLLATIONS_NOT_SUPPORTED
Não há suporte para ordenações no Delta Lake.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN
Não há suporte para ignorar dados na coluna de partição “<column>”.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE
Não há suporte para ignorar dados para a coluna “<column>” do tipo <type>.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET
A propriedade max column id (<prop>) não está definida em uma tabela habilitada para mapeamento de coluna.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY
A propriedade max column id (<prop>) em uma tabela habilitada para mapeamento de coluna é <tableMax>, que não pode ser menor que a ID máxima da coluna para todos os campos (<fieldMax>).
DELTA_COLUMN_MISSING_DATA_TYPE
O tipo de dados da coluna <colName> não foi fornecido.
DELTA_COLUMN_NOT_FOUND
Não é possível localizar a coluna <columnName> fornecida [<columnList>].
DELTA_COLUMN_NOT_FOUND_IN_MERGE
Não é possível localizar a coluna '<targetCol>' na tabela de destino a partir das colunas INSERT: <colNames>.
INSERT a cláusula deve especificar o valor para todas as colunas da tabela de destino.
DELTA_COLUMN_NOT_FOUND_IN_SCHEMA
Não foi possível localizar a coluna <columnName> em:
<tableSchema>
DELTA_COLUMN_PATH_NOT_NESTED
Era esperado que <columnPath> fosse um tipo de dados aninhado, mas foi encontrado <other>. Estava procurando pelo
índice de <column> em um campo aninhado.
Schema:
<schema>
DELTA_COLUMN_STRUCT_TYPE_MISMATCH
A coluna Struct <source> não pode ser inserida em um campo <targetType><targetField> em <targetTable>.
DELTA_COMMIT_INTERMEDIATE_REDIRECT_STATE
Não é possível lidar com a confirmação da tabela dentro do estado da tabela de redirecionamento "<state>".
DELTA_COMPACTION_VALIDATION_FAILED
Falha na validação da compactação do caminho <compactedPath> para <newPath>: por favor, relate um relato de erro.
DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE
Um NullType aninhado foi encontrado na coluna <columName> que é de <dataType>. O Delta não dá suporte à gravação de NullType em tipos complexos.
DELTA_CONCURRENT_APPEND
ConcurrentAppendException: Arquivos foram adicionados a <partition> por uma atualização simultânea. <retryMsg> <conflictingCommit>
Consulte <docLink> para obter mais detalhes.
DELTA_CONCURRENT_DELETE_DELETE
ConcurrentDeleteDeleteException: essa transação tentou excluir um ou mais arquivos que foram excluídos (por exemplo <file>) por uma atualização simultânea. Tente a operação novamente.<conflictingCommit>
Consulte <docLink> para obter mais detalhes.
DELTA_CONCURRENT_DELETE_READ
ConcurrentDeleteReadException: essa transação tentou ler um ou mais arquivos que foram excluídos (por exemplo <file>) por uma atualização simultânea. Tente a operação novamente.<conflictingCommit>
Consulte <docLink> para obter mais detalhes.
DELTA_CONCURRENT_TRANSACTION
ConcurrentTransactionException: esse erro ocorre quando várias consultas de streaming estão usando o mesmo ponto de verificação para gravar nesta tabela. Você executou várias instâncias da mesma consulta de streaming ao mesmo tempo?<conflictingCommit>
Consulte <docLink> para obter mais detalhes.
DELTA_CONCURRENT_WRITE
ConcurrentWriteException: uma transação simultânea gravou novos dados desde que a transação atual leu a tabela. Tente a operação novamente.<conflictingCommit>
Consulte <docLink> para obter mais detalhes.
DELTA_CONFLICT_SET_COLUMN
Há um conflito dessas SET colunas: <columnList>.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND
Durante <command>, a configuração "<configuration>" não pode ser definida a partir do comando. Remova-a da TBLPROPERTIES cláusula e repita o comando novamente.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION
Durante <command>, a configuração "<configuration>" não pode ser definida nas configurações do SparkSession. Desinstale-o executando-o spark.conf.unset("<configuration>") e repita o comando novamente.
DELTA_CONSTRAINT_ALREADY_EXISTS
A restrição '<constraintName>' já existe. Exclua a restrição antiga primeiro.
Restrição antiga:
<oldConstraint>
DELTA_CONSTRAINT_DATA_TYPE_MISMATCH
A coluna <columnName> tem tipo <columnType> de dados e não pode ser alterada para o tipo <dataType> de dados porque essa coluna é referenciada pelas seguintes restrições de verificação:
<constraints>
DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE
Não é possível alterar a coluna <columnName> porque essa coluna é referenciada pelas seguintes restrições de verificação:
<constraints>
DELTA_CONSTRAINT_DOES_NOT_EXIST
Não é possível remover a restrição <constraintName> inexistente da tabela <tableName>. Para evitar gerar um erro, forneça o parâmetro IF EXISTS ou defina a configuração <config> da sessão SQL como <confValue>.
DELTA_CONVERSION_MERGE_ON_READ_NOT_SUPPORTED
Não há suporte para a conversão da tabela Merge-On-Read <format> : <path>, <hint>
DELTA_CONVERSION_NO_PARTITION_FOUND
Não foi encontrada nenhuma informação de partição no catálogo da tabela <tableName>. Você executou "MSCK REPAIR TABLE" em sua tabela para descobrir partições?
DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN
Não é possível converter a tabela Parquet com a coluna <colName> de partição agrupada em Delta.
DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING
A configuração '<config>' não pode ser definida para <mode> quando usar CONVERT PARA DELTA.
DELTA_CONVERSION_UNSUPPORTED_SCHEMA_CHANGE
Alterações de esquema sem suporte encontradas para <format> a tabela: <path>, <hint>
DELTA_CONVERT_NON_PARQUET_TABLE
CONVERT PARA DELTA só dá suporte a tabelas parquet, mas você está tentando converter uma origem <sourceName>: <tableId>.
DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS
Não é possível habilitar o rastreamento de linhas sem coletar estatísticas.
Se você quiser habilitar o acompanhamento de linhas, faça o seguinte:
- Habilitar a coleta de estatísticas executando o comando
SET <statisticsCollectionPropertyKey> = verdadeiro
- Execute
CONVERTTODELTAsem a opção NOSTATISTICS.
Se você não quiser coletar estatísticas, desabilite o acompanhamento de linhas:
- Desativar a habilitação do recurso de tabela por padrão executando o comando:
RESET <rowTrackingTableFeatureDefaultKey>
- Desativar a propriedade da tabela por padrão executando:
SET <rowTrackingDefaultPropertyKey> = falso
DELTA_COPY_INTO_TARGET_FORMAT
O destino COPY INTO deve ser uma tabela Delta.
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA
Você está tentando criar uma tabela externa <tableName>
devido ao uso de Delta por <path>, mas o esquema não é especificado quando o
O caminho de entrada está vazio.
Para saber mais sobre o Delta, confira <docLink>
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG
Você está tentando criar uma tabela externa <tableName> de <path> usando o Delta, mas não há log de transações presente em <logPath>. Verifique o trabalho upstream para verificar se ele está gravando usando o formato("delta") e se o caminho é a raiz da tabela.
Para saber mais sobre o Delta, confira <docLink>
DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH
Não há suporte para a criação de uma tabela Delta baseada em caminho com um local diferente. Identificador: <identifier>, Local: <location>.
DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION
O nome ou o local da tabela deve ser especificado.
DELTA_CREATE_TABLE_SCHEME_MISMATCH
O esquema especificado não corresponde ao esquema existente em <path>.
== Especificado ==
<specifiedSchema>
== Existente ==
<existingSchema>
== Diferenças ==
<schemaDifferences>
Se sua intenção for manter o esquema existente, você poderá omitir o
esquema do comando criar tabela. Caso contrário, certifique-se de que
o esquema corresponde.
DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
Não é possível habilitar o recurso de tabela <tableFeature> usando TBLPROPERTIES. Use CREATE OR REPLACE TABLE CLUSTER BY para criar uma tabela Delta com agrupamento.
DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING
As colunas de clustering especificadas não correspondem às colunas de clustering existentes em <path>.
== Especificado ==
<specifiedColumns>
== Existente ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING
O particionamento especificado não corresponde ao particionamento existente em <path>.
== Especificado ==
<specifiedColumns>
== Existente ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY
As propriedades especificadas não correspondem às propriedades existentes em <path>.
== Especificado ==
<specifiedProperties>
== Existente ==
<existingProperties>
DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION
Não é possível criar tabela ('<tableId>'). O local associado (''<tableLocation>) não está vazio e também não é uma tabela Delta.
DELTA_DATA_CHANGE_FALSE
Não é possível alterar os metadados da tabela porque a opção 'dataChange' está definida como false. Tentativa de operação: "<op>".
DELTA_DELETED_PARQUET_FILE_NOT_FOUND
O arquivo <filePath> referenciado no log de transações não pode ser encontrado. Esse arquivo parquet pode ser excluído na política de retenção de dados da tabela Delta.
Duração da retenção de dados Delta padrão: <logRetentionPeriod>. Hora de modificação do arquivo parquet: <modificationTime>. Hora de exclusão do arquivo parquet: <deletionTime>. Excluído na versão Delta: <deletionVersion>.
DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS
É inválido fazer commit de arquivos com vetores de exclusão que não tenham a estatística numRecords.
DESATIVAR_MATERIALIZAÇÃO_DA_FONTE_EM_INSERIR_SUBSTITUIR_EM_OU_USANDO_NÃO_PERMITIDO
Não é permitido desabilitar a materialização de origem em INSERT REPLACE ON/USING definindo 'spark.databricks.delta.insertReplaceOnOrUsing.materializeSource' como 'none'.
DELTA_DISABLE_SOURCE_MATERIALIZATION_IN_MERGE_NOT_ALLOWED
Não é permitido desabilitar a materialização da origem em MERGE definindo 'spark.databricks.delta.merge.materializeSource' como 'none'.
DELTA_DOMAIN_METADATA_NOT_SUPPORTED
Ação DomainMetadata detectada para domínios <domainNames>, mas DomainMetadataTableFeature não está habilitada.
DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO
O índice <columnIndex> para remover a coluna é inferior a 0.
DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA
Não é possível eliminar uma coluna em um esquema que possui apenas uma única coluna. Schema:
<schema>
DELTA_DUPLICATE_ACTIONS_FOUND
A operação de arquivo '<actionType>' para o caminho <path> foi especificada várias vezes.
Ele entra em conflito com <conflictingPath>.
Não é válido que várias operações de arquivo com o mesmo caminho existam em uma única confirmação.
DELTA_DUPLICATE_COLUMNS_FOUND
Colunas duplicadas encontradas <coltype>: <duplicateCols>.
DELTA_DUPLICATE_COLUMNS_ON_INSERT
Nomes de coluna duplicados na cláusula INSERT.
DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE
<message>
Remova colunas duplicadas antes de atualizar sua tabela.
DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS
Foram encontrados dados duplicados ignorando colunas: <columns>.
DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR
Erro interno: duas ações DomainMetadata na mesma transação têm o mesmo domínio <domainName>.
DELTA_DUPLICATE_LOG_ENTRIES_FOUND
O log Delta está em um estado ilegal: <numDuplicates> há caminhos com entradas duplicadas na versão <version>.
RESTORE para uma versão antes da confirmação que introduziu a duplicação ou contate o suporte para obter assistência.
DELTA_DV_HISTOGRAM_DESERIALIZATON
Não foi possível desserializar o histograma de contagens de registros excluídos durante a verificação de integridade da tabela.
DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED
O modo de substituição de partição dinâmica é especificado por opções de gravação ou configuração de sessão, mas é desabilitado por spark.databricks.delta.dynamicPartitionOverwrite.enabled=false.
DELTA_EMPTY_DATA
Os dados usados na criação da tabela Delta não têm colunas.
DELTA_EMPTY_DIRECTORY
Nenhum arquivo encontrado no diretório: <directory>.
DELTA_EXCEED_CHAR_VARCHAR_LIMIT
O valor "<value>" excede a limitação de comprimento do tipo char/varchar. Falha na verificação: <expr>.
DELTA_EXTERNAL_METADATA_UNRESOLVED_PROJECTION
A consulta de projeção '<query>' não pode ser resolvida no esquema: <schemaTreeString>
DELTA_EXTERNAL_METADATA_UNSUPPORTED_SOURCE
Metadados externos não dão suporte à origem:
Para obter mais detalhes , consulte DELTA_EXTERNAL_METADATA_UNSUPPORTED_SOURCE
DELTA_FAILED_CAST_PARTITION_VALUE
Falha ao converter o valor <value> da partição em <dataType>.
DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS
Não foi possível localizar <newAttributeName> entre a saída de destino existente <targetOutputColumns>.
DELTA_FAILED_INFER_SCHEMA
Falha ao inferir o esquema da lista de arquivos fornecida.
DELTA_FAILED_MERGE_SCHEMA_FILE
Falha ao mesclar o esquema do arquivo <file>:
<schema>
DELTA_FAILED_OPERATION_ON_SHALLOW_CLONE
Falha ao executar a operação na tabela <sourceTable> de origem porque o clone <targetTable> superficial ainda existe e o seguinte erro ocorreu no clone superficial: <message>
DELTA_FAILED_READ_FILE_FOOTER
Não foi possível ler o rodapé do arquivo: <currentFile>.
DELTA_FAILED_RECOGNIZE_PREDICATE
Não é possível reconhecer o predicado '<predicate>'.
DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION
Esperava uma análise completa da versão mais recente da fonte Delta, mas encontrou uma análise histórica da versão <historicalVersion>.
DELTA_FAILED_TO_MERGE_FIELDS
Falha ao mesclar campos '<currentField>' e '<updateField>'.
DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH
Não é possível operar nesta tabela porque os seguintes recursos de tabela estão habilitados em metadados, mas não listados no protocolo: <features>.
DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT
O esquema de tabela requer a habilitação manual dos seguintes recursos de tabela: <unsupportedFeatures>.
Para fazer isso, execute o seguinte comando para cada um dos recursos listados acima:
ALTER TABLE
SET TBLPROPERTIES table_name ('delta.feature.feature_name' = 'supported')
Substitua "table_name" e "feature_name" por valores reais.
Recursos atualmente com suporte: <supportedFeatures>.
DELTA_FEATURE_CAN_ONLY_DROP_CHECKPOINT_PROTECTION_WITH_HISTORY_TRUNCATION
Não foi possível remover o recurso Proteção de Ponto de Verificação.
Esse recurso só pode ser removido ao truncar o histórico.
Tente novamente com a opção TRUNCATE HISTORY :
ALTER TABLE
DROP FEATURE table_name checkpointProtectionTRUNCATE HISTORY
DELTA_FEATURE_DROP_CHECKPOINT_FAILED
A remoção de <featureName> falhou devido a uma falha na criação do ponto de verificação.
Tente novamente mais tarde. O problema persiste, entre em contato com o suporte do Databricks.
DELTA_FEATURE_DROP_CHECKPOINT_PROTECTION_WAIT_FOR_RETENTION_PERIOD
A operação não foi bem-sucedida porque ainda há vestígios de recursos descartados
no histórico de tabelas. CheckpointProtection não pode ser descartado até que esses históricos
as versões expiraram.
Para remover CheckpointProtection, aguarde até que as versões históricas
expirem e repita esse comando. O período de retenção para versões históricas é
atualmente configurado para <truncateHistoryLogRetentionPeriod>.
DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL
Não é possível descartar o recurso porque uma transação simultânea modificou a tabela.
Tente a operação novamente.
<concurrentCommit>
DELTA_FEATURE_DROP_DEPENDENT_FEATURE
Não é possível remover a funcionalidade <feature> na tabela porque algumas outras funcionalidades (<dependentFeatures>) nesta mesma tabela dependem de <feature>.
Considere removê-los primeiro antes de descartar esse recurso.
DELTA_FEATURE_DROP_FEATURE_IS_DELTA_PROPERTY
Não é possível remover <property> dessa tabela porque esta é uma propriedade de tabela delta e não um recurso de tabela.
DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT
Não é possível remover <feature> dessa tabela porque ela não está presente no protocolo da tabela no momento.
DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST
Não é possível descartar <feature> porque o log Delta contém versões históricas que usam o recurso.
Aguarde até o período de retenção do histórico (<logRetentionPeriodKey>=<logRetentionPeriod>)
passou desde que o recurso estava ativo pela última vez.
Como alternativa, aguarde até que o TRUNCATE HISTORY período de retenção expire (<truncateHistoryLogRetentionPeriod>)
e execute:
ALTER TABLEnome_da_tabelaDROP FEATUREnome_do_recursoTRUNCATE HISTORY
DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED
O recurso específico não requer truncamento de histórico.
DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE
Não é possível descartar <feature> porque não há suporte para remover esse recurso.
Entre em contato com o suporte do Databricks.
DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE
Não é possível descartar <feature> porque não há suporte para essa versão do Databricks.
Considere usar o Databricks com uma versão mais alta.
DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD
A remoção de <feature> foi parcialmente bem-sucedida.
O recurso agora não é mais usado na versão atual da tabela. No entanto, o recurso
ainda está presente nas versões históricas da tabela. O recurso de tabela não pode ser descartado
do protocolo da tabela até que essas versões históricas tenham expirado.
Para remover o recurso de tabela do protocolo, aguarde até que as versões históricas
expirem e repita esse comando. O período de retenção para versões históricas é
atualmente configurado como <logRetentionPeriodKey>=<logRetentionPeriod>.
Como alternativa, aguarde até que o TRUNCATE HISTORY período de retenção expire (<truncateHistoryLogRetentionPeriod>)
e execute:
ALTER TABLEnome_da_tabelaDROP FEATUREnome_do_recursoTRUNCATE HISTORY
DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION
Não é possível habilitar o recurso <feature> de tabela porque ele requer uma versão de protocolo de leitor superior (atual <current>). Considere atualizar a versão do protocolo de leitor da tabela para <required>, ou para uma versão que dê suporte aos recursos da tabela de leitores. Consulte <docLink> para mais informações sobre versões de protocolo de tabela.
DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION
Não é possível habilitar o recurso <feature> de tabela porque ele requer uma versão de protocolo de gravador superior (atual <current>). Considere atualizar a versão do protocolo de gravador da tabela para <required> ou para uma versão que suporte os recursos de tabela de gravador. Consulte <docLink> para mais informações sobre versões de protocolo de tabela.
DELTA_FILE_ALREADY_EXISTS
Caminho do arquivo existente <path>.
DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT
Não é possível especificar a lista de arquivos e a cadeia de caracteres padrão.
DELTA_FILE_NOT_FOUND
Caminho do arquivo <path>.
DELTA_FILE_NOT_FOUND_DETAILED
O arquivo <filePath> referenciado no log de transações não pode ser encontrado. Isso ocorre quando os dados foram excluídos manualmente do sistema de arquivos em vez de usar a instrução table DELETE . Para obter mais informações, veja <faqPath>
DELTA_FILE_OR_DIR_NOT_FOUND
Nenhum arquivo ou diretório: <path>.
DELTA_FILE_TO_OVERWRITE_NOT_FOUND
Arquivo (<path>) a ser reescrito não encontrado entre os arquivos candidatos:
<pathList>
DELTA_FOUND_MAP_TYPE_COLUMN
Um MapType foi encontrado. Para acessar a chave ou o valor de um MapType, especifique um
of:
<key> ou
<value>
seguido pelo nome da coluna (somente se essa coluna for um tipo de struct).
por exemplo, mymap.key.mykey
Se a coluna for um tipo básico, mymap.key ou mymap.value será suficiente.
Schema:
<schema>
DELTA_FSCK_CANNOT_REPAIR_DELTA_LOG
O FSCK não consegue reparar a tabela. A tabela não tem nenhum ponto de verificação válido para iniciar a reprodução de log e não há histórico de log suficiente para reprodução da primeira versão.
DELTA_FSCK_CONCURRENT_MODIFICATION
Modificação simultânea na tabela detectada durante a execução do FSCK. Tente novamente o comando FSCK e verifique se nenhuma outra operação está gravando na tabela durante o processo de reparo.
DELTA_FSCK_DRY_RUN_CANNOT_PROCEED_WITH_INVALID_CHECKPOINTS
O FSCK DRY RUN não pode continuar porque pontos de verificação inválidos foram detectados. Execute 'FSCK REPAIR TABLE table METADATA ONLY' primeiro para reparar os pontos de verificação.
DELTA_FSCK_DRY_RUN_CANNOT_PROCEED_WITH_MISSING_OR_INVALID_PARTITION_FILES
O FSCK DRY RUN não pode continuar porque arquivos ou arquivos ausentes com valores de partição inválidos foram detectados. Execute a "tabela FSCK REPAIR TABLE " primeiro para reparar a tabela.
DELTA_FSCK_INVALID_BARRIER_CHECKPOINT
O FSCK não consegue reparar a tabela. Alguns dos pontos de verificação inválidos são protegidos e não podem ser removidos. Entre em contato com o suporte do Databricks.
DELTA_FSCK_NO_VALID_CHECKPOINT
O FSCK não consegue reparar a tabela. Todos os pontos de verificação desta tabela são inválidos. Entre em contato com o suporte do Databricks.
DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH
A coluna <columnName> tem tipo <columnType> de dados e não pode ser alterada para o tipo <dataType> de dados porque essa coluna é referenciada pelas seguintes colunas geradas:
<generatedColumns>.
DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE
Não é possível alterar a coluna <columnName> porque essa coluna é referenciada pelas seguintes colunas geradas:
<generatedColumns>.
DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH
O tipo de expressão da coluna <columnName> gerada é <expressionType>, mas o tipo de coluna é <columnType>.
DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH
A coluna <currentName> é uma coluna gerada ou uma coluna usada por uma coluna gerada. O tipo de dados é <currentDataType> e não pode ser convertido em tipo <updateDataType>de dados.
DELTA_GEOSPATIAL_NOT_SUPPORTED
Não há suporte para tipos geoespaciais nesta versão do Delta Lake.
DELTA_GEOSPATIAL_SRID_NOT_SUPPORTED
O tipo geoespacial tem um srid sem suporte: <srid>. As tabelas Delta dão suporte apenas a valores srid não negativos.
DELTA_ICEBERG_COMPAT_VIOLATION
A validação do IcebergCompatV<version> falhou.
Para obter mais detalhes , consulte DELTA_ICEBERG_COMPAT_VIOLATION
DELTA_ICEBERG_WRITER_COMPAT_VIOLATION
Falha na validação do IcebergWriterCompatV<version> .
Para obter mais detalhes, consulte DELTA_ICEBERG_WRITER_COMPAT_VIOLATION
DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED
ALTER TABLE ALTER COLUMN não é compatível com as colunas IDENTITY.
DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT
ALTER TABLE ALTER COLUMN SYNC IDENTITY só tem suporte da Delta.
DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN
ALTER TABLE ALTER COLUMN SYNC IDENTITY não pode ser chamado em colunas que não são IDENTITY.
DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED
Não há suporte para fornecer valores para GENERATED ALWAYS AS IDENTITY a coluna <colName> .
DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP
A etapa da coluna IDENTITY não pode ser 0.
DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT
IDENTITY as colunas só são suportadas pelo Delta.
DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED
PARTITIONED BY IDENTITY não há suporte para a coluna <colName> .
DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED
ALTER TABLE REPLACE COLUMNS não há suporte para tabela com IDENTITY colunas.
DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
O DataType <dataType> não é suportado para colunas IDENTITY.
DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED
Não há suporte para UPDATE na coluna IDENTITY<colName>.
DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION
IDENTITY A coluna não pode ser especificada com uma expressão de coluna gerada.
DELTA_ILLEGAL_OPTION
Valor inválido '<input>' para a opção '<name>', <explain>
DELTA_ILLEGAL_USAGE
O uso de <option> não é permitido quando <operation> uma tabela Delta.
DELTA_INCONSISTENT_BUCKET_SPEC
BucketSpec na tabela Delta com bucket não corresponde a BucketSpec de metadados. Esperado: <expected>. Atual: <actual>.
DELTA_INCONSISTENT_LOGSTORE_CONFS
(<setKeys>) não pode ser definido como valores distintos. Defina apenas um deles ou defina-os com o mesmo valor.
DELTA_INCORRECT_ARRAY_ACCESS
Acessando incorretamente um ArrayType. Use a posição arrayname.element.elementname para
adicionar a uma matriz.
DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME
Um ArrayType foi encontrado. Para acessar elementos de um ArrayType, especifique
<rightName> em vez de <wrongName>.
Schema:
<schema>
DELTA_INCORRECT_GET_CONF
Use getConf() em vez de conf.getConf().
DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION
O erro normalmente ocorre quando a implementação padrão do LogStore, que
é HDFSLogStore, é usado para gravar em uma tabela Delta em um sistema de armazenamento não HDFS.
Para obter as garantias ACID transacionais em atualizações de tabela, você precisa usar a
implementação correta do LogStore que é apropriada para seu sistema de armazenamento.
Para obter detalhes, consulte <docLink>.
DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT
O índice <index> para excluir coluna é igual a ou é maior que o comprimento da estrutura: <length>.
DELTA_INDEX_LARGER_THAN_STRUCT
O índice <index> para adicionar coluna <columnName> é maior que o comprimento do struct: <length>.
DELTA_INSERT_COLUMN_ARITY_MISMATCH
Não é possível gravar para "<tableName>", <columnName>; a tabela de destino tem <numColumns> colunas, mas os dados inseridos têm <insertColumns> colunas.
DELTA_INSERT_COLUMN_MISMATCH
A coluna <columnName> não é especificada em INSERT.
DELTA_INSERT_REPLACE_ON_AMBIGUOUS_COLUMNS_IN_CONDITION
As colunas <columnNames> são ambíguas na condição de INSERT REPLACE ON. Considere especificar um alias para essas colunas.
DELTA_INSERT_REPLACE_ON_NOT_ENABLED
Entre em contato com seu representante do Databricks para habilitar o INSERT INTO...REPLACE ON ... APIs SQL e DataFrame.
DELTA_INSERT_REPLACE_ON_UNRESOLVED_COLUMNS_IN_CONDITION
Coluna(s) <columnNames> não podem ser resolvidas na condição de INSERT REPLACE ON.
DELTA_INVALID_AUTO_COMPACT_TYPE
Tipo de compactação automática inválido: <value>. Os valores permitidos são: <allowed>.
DELTA_INVALID_BUCKET_COUNT
Contagem de buckets inválida: <invalidBucketCount>. A contagem de buckets deve ser um número positivo que é uma potência de 2 e é no mínimo 8. Você pode usar <validBucketCount> em vez dela.
DELTA_INVALID_BUCKET_INDEX
Não é possível localizar a coluna bucket nas colunas de partição.
DELTA_INVALID_CALENDAR_INTERVAL_EMPTY
O intervalo não pode ser nulo ou em branco.
DELTA_INVALID_CDC_RANGE
O intervalo CDC do início <start> ao fim <end> era inválido. O fim não pode ser antes do início.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME
O nome do atributo "<columnName>" contém caracteres inválidos entre " ,;{}()\n\t=". Use o alias para renomeá-lo.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES
Caracteres inválidos encontrados entre ' ,;{}()\n\t=' nos nomes de coluna do esquema.
Nomes de coluna inválidos: <invalidColumnNames>.
Use outros caracteres e tente novamente.
Como alternativa, habilite o Mapeamento de Colunas para continuar usando esses caracteres.
DELTA_INVALID_CHECK_CONSTRAINT_REFERENCES
Encontrado <colName> na CHECK restrição. Uma restrição de verificação não pode usar uma coluna inexistente.
DELTA_INVALID_CLONE_PATH
O local de destino para CLONE precisa ser um caminho absoluto ou um nome de tabela. Usar um
caminho absoluto em vez de <path>.
DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING
Caracteres inválidos encontrados entre ' ,;{}()\n\t=' nos nomes de coluna do esquema.
Nomes de coluna inválidos: <invalidColumnNames>.
O mapeamento de coluna não pode ser removido quando há caracteres inválidos nos nomes das colunas.
Renomeie as colunas para remover os caracteres inválidos e execute este comando novamente.
DELTA_INVALID_FORMAT
Formato incompatível detectado.
Um log de transações para Delta foi encontrado em <deltaRootPath>/_delta_log,
mas você está tentando <operation> <path> usando o formato(“<format>”). É necessário usar
‘format(“delta”)’ ao ler e gravar em uma tabela delta.
Para saber mais sobre o Delta, confira <docLink>
DELTA_INVALID_GENERATED_COLUMN_REFERENCES
Uma coluna gerada não pode usar uma coluna inexistente ou outra coluna gerada.
DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS
Opções inválidas para gravações de quadro de dados idempotentes: <reason>
DELTA_INVALID_INTERVAL
<interval> não é válido INTERVAL.
DELTA_INVALID_INVENTORY_SCHEMA
O esquema do especificado INVENTORY não contém todos os campos necessários. Os campos necessários são: <expectedSchema>
DELTA_INVALID_ISOLATION_LEVEL
Nível de isolamento inválido '<isolationLevel>'.
DELTA_INVALID_LOGSTORE_CONF
(<classConfig>) e (<schemeConfig>) não podem ser definidos ao mesmo tempo. Defina apenas um grupo deles.
DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA
Você está tentando criar uma tabela gerenciada <tableName>
usando Delta, mas o esquema não é especificado.
Para saber mais sobre o Delta, confira <docLink>
DELTA_INVALID_PARTITION_COLUMN
<columnName> não é uma coluna de partição válida na tabela <tableName>.
DELTA_INVALID_PARTITION_COLUMN_NAME
Colunas de partição encontradas com caracteres inválidos entre " ,;{}()\n\t=". Altere o nome para suas colunas de partição. Essa verificação pode ser desativada definindo spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false), no entanto, isso não é recomendado, pois outros recursos do Delta podem não funcionar corretamente.
DELTA_INVALID_PARTITION_COLUMN_TYPE
Não há suporte para usar a coluna <name> do tipo <dataType> como uma coluna de partição.
DELTA_INVALID_PARTITION_PATH
Um fragmento de caminho de partição deve ser a forma como part1=foo/part2=bar. O caminho da partição: <path>.
DELTA_INVALID_PROTOCOL_DOWNGRADE
A versão do protocolo não pode ser rebaixada de (<oldProtocol>) para (<newProtocol>).
DELTA_INVALID_PROTOCOL_VERSION
Versão do protocolo Delta sem suporte: a tabela "<tableNameOrPath>" requer a versão <readerRequired> do leitor e a versão <writerRequired>do gravador, mas essa versão do Databricks dá suporte a versões <supportedReaders> de leitor e versões <supportedWriters>de gravador. Atualize para uma versão mais recente.
DELTA_INVALID_TABLE_VALUE_FUNCTION
A função <function> é uma função com valor de tabela sem suporte para leituras CDC.
DELTA_INVALID_TIMESTAMP_FORMAT
O carimbo de data/hora <timestamp> fornecido não corresponde à sintaxe esperada <format>.
DELTA_LOG_ALREADY_EXISTS
Um log Delta já existe em <path>.
DELTA_LOG_FILE_NOT_FOUND
Não é possível recuperar os arquivos de log delta para construir a versão <version> da tabela a partir da versão de ponto de verificação <checkpointVersion> em <logPath>.
DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE
Se você nunca a excluiu, é provável que sua consulta esteja atrasada. Exclua seu ponto de checagem para reiniciar do zero. Para evitar que isso aconteça novamente, você pode atualizar sua política de retenção da sua tabela Delta.
DELTA_LOG_JSON_FILE_ACCESS_DENIED
Acesso negado ao ler o arquivo de log JSON Delta: <filePath>. Verifique se você tem permissões de leitura para o local da tabela Delta.
DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING
O nome da coluna materializada <rowTrackingColumn> está faltando no <tableName>.
DELTA_MAX_ARRAY_SIZE_EXCEEDED
Use um limite menor que Int.MaxValue – 8.
DELTA_MAX_COMMIT_RETRIES_EXCEEDED
Esse commit falhou, pois foi tentado <numAttempts> vezes, mas não teve êxito.
Isso pode ser causado pela tabela Delta sofrer commit continuamente por muitos concorrentes
commits.
Commit iniciado na versão: <startVersion>
Falha no commit na versão: <failVersion>
Número de ações que tentaram fazer commit: <numActions>
Tempo total gasto tentando esta confirmação: <timeSpent> ms
DELTA_MAX_LIST_FILE_EXCEEDED
A lista de arquivos deve ter no máximo <maxFileListSize> entradas, tinha <numFiles>.
DELTA_MERGE_ADD_VOID_COLUMN
Não é possível adicionar coluna <newColumn> com o tipo VOID. Especifique explicitamente um tipo não vazio.
DELTA_MERGE_INCOMPATIBLE_DATATYPE
Falha ao mesclar tipos <currentDataType> de dados incompatíveis e <updateDataType>.
DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE
Falha ao mesclar tipos decimais com <decimalRanges> incompatíveis.
DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY
A manutenção da origem da instrução MERGE materializada falhou repetidamente.
DELTA_MERGE_MISSING_WHEN
Deve haver pelo menos uma WHEN cláusula em uma MERGE declaração.
DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT
Atributo(s) resolvido(s) <missingAttributes> ausentes de <input> no operador <merge>.
DELTA_MERGE_SOURCE_CACHED_DURING_EXECUTION
A MERGE operação falhou porque (parte do) plano de origem foi armazenado em cache enquanto a MERGE operação estava em execução.
DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY
Chave de atribuição inesperada: <unexpectedKeyClass> - <unexpectedKeyObject>.
DELTA_MERGE_UNRESOLVED_EXPRESSION
Não é possível resolver <sqlExpr> em <clause> determinadas colunas <cols>.
DELTA_METADATA_CHANGED
MetadataChangedException: os metadados da tabela Delta foram alterados por uma atualização simultânea. Tente a operação novamente.<conflictingCommit>
Consulte <docLink> para obter mais detalhes.
DELTA_MISSING_CHANGE_DATA
Erro ao obter dados de alteração para o intervalo [<startVersion> , <endVersion>] como os dados de alteração não foram
registrados para a versão [<version>]. Se você habilitou o feed de dados de mudanças nesta tabela,
use DESCRIBE HISTORY para ver quando ele foi habilitado pela primeira vez.
Caso contrário, para iniciar a gravação de dados de alteração, use ALTER TABLE table_name SET TBLPROPERTIES
(<key>=true).
DELTA_MISSING_COLUMN
Não é possível localizar <columnName> em colunas de tabela: <columnList>.
DELTA_MISSING_COMMIT_INFO
Esta tabela tem o recurso <featureName> habilitado que requer a presença da ação CommitInfo em cada confirmação. No entanto, a ação CommitInfo está ausente da versão de confirmação <version>.
DELTA_MISSING_COMMIT_TIMESTAMP
Esta tabela tem o recurso <featureName> habilitado que requer a presença de commitTimestamp na ação CommitInfo. No entanto, esse campo não foi definido na versão de confirmação <version>.
DELTA_MISSING_DELTA_TABLE
<tableName> não é uma tabela Delta.
DELTA_MISSING_DELTA_TABLE_COPY_INTO
A tabela não existe. Crie uma tabela Delta vazia primeiro usando CREATE TABLE <tableName>.
DELTA_MISSING_ICEBERG_CLASS
A classe Apache Iceberg não foi encontrada. Verifique se o suporte do Apache Iceberg Delta está instalado.
Consulte <docLink> para obter mais detalhes.
DELTA_MISSING_NOT_NULL_COLUMN_VALUE
A coluna <columnName>, que tem uma NOT NULL restrição, está ausente dos dados que estão sendo gravados na tabela.
DELTA_MISSING_PARTITION_COLUMN
Coluna de partição <columnName> não encontrada no esquema <columnList>.
DELTA_MISSING_PART_FILES
Não foi possível localizar todos os arquivos de parte da versão do ponto de verificação: <version>.
DELTA_MISSING_PROVIDER_FOR_CONVERT
CONVERT PARA DELTA só dá suporte a tabelas parquet. Grave novamente seu destino como parquet.
<path> se for um diretório parquet.
DELTA_MISSING_ROW_TRACKING_FOR_CDC
Erro ao obter dados de alteração, pois <tableName> o acompanhamento de linhas não estava habilitado. Para habilitar o acompanhamento de linhas, use ALTER TABLE table_name SET TBLPROPERTIES (<key>=true).
DELTA_MISSING_SET_COLUMN
SET coluna <columnName> não encontrou as colunas fornecidas: <columnList>.
DELTA_MISSING_TRANSACTION_LOG
Formato incompatível detectado.
Você está tentando <operation> <path> usando o Delta, mas não há
log de transações presente. Verifique o trabalho de upstream para verificar se ele está gravando
usando format("delta") e você está tentando %1$s o caminho base da tabela.
Para saber mais sobre o Delta, confira <docLink>
DELTA_MODE_NOT_SUPPORTED
Não há suporte para o modo "<mode>" especificado. Os modos com suporte são: <supportedModes>.
DELTA_MULTIPLE_CDC_BOUNDARY
Vários argumentos <startingOrEnding> fornecidos para leitura de CDC. Forneça ou o <startingOrEnding>Carimbo de data/hora ou a Versão <startingOrEnding>.
DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER
Várias configurações de índice de filtro de bloom passadas ao comando para a coluna: <columnName>.
DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE
Não é possível executar Mesclagem como várias linhas de origem correspondentes e tentou modificar o mesmo
linha de destino na tabela Delta de maneiras possivelmente conflitantes. Por semântica sql de mesclagem,
quando várias linhas de origem correspondem na mesma linha de destino, o resultado pode ser ambíguo
como não está claro qual linha de origem deve ser usada para atualizar ou excluir a correspondência
linha de destino. Você pode pré-processar a tabela de origem para eliminar a possibilidade de
várias correspondências. Consulte
<usageReference>
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND
Durante <command>, ambas as configurações de confirmações coordenadas ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview") são definidas no comando ou em nenhum deles. Ausente: "<configuration>". Especifique essa configuração na TBLPROPERTIES cláusula ou remova a outra configuração e repita o comando novamente.
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION
Durante <command>, ambas as configurações coordenadas de confirmações ("coordinatedCommits.commitCoordinator-preview", "coordinatedCommits.commitCoordinatorConf-preview") são definidas nas configurações do SparkSession ou nenhuma delas. Ausente: "<configuration>". Defina essa configuração no SparkSession ou desinstale a outra configuração e repita o comando novamente.
DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE
Os seguintes nomes de coluna são reservados somente para uso interno da tabela delta com bucket: <names>.
DELTA_NESTED_FIELDS_NEED_RENAME
O esquema de entrada contém campos aninhados que são capitalizados de forma diferente da tabela de destino.
Eles precisam ser renomeados para evitar a perda de dados nesses campos durante a gravação no Delta.
Fields:
<fields>.
Esquema original:
<schema>
DELTA_NESTED_NOT_NULL_CONSTRAINT
O <nestType> tipo do campo <parent> contém uma NOT NULL restrição. O Delta não dá suporte NOT NULL a restrições aninhadas em matrizes ou mapas. Para suprimir esse erro e ignorar silenciosamente as restrições especificadas, defina <configKey> = true.
Tipo <nestType> analisado:
<nestedPrettyJson>
DELTA_NESTED_SUBQUERY_NOT_SUPPORTED
A subconsulta aninhada não tem suporte na condição <operation>.
DELTA_NEW_CHECK_CONSTRAINT_VIOLATION
<numRows> linhas em <tableName> violam a nova restrição CHECK (<checkConstraint>).
DELTA_NEW_NOT_NULL_VIOLATION
<numRows> linhas em <tableName> violam a nova restrição NOT NULL em <colName>.
DELTA_NON_BOOLEAN_CHECK_CONSTRAINT
CHECK restrição '<name>' (<expr>) deve ser uma expressão booliana.
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_CHECK_CONSTRAINT
Encontrado <expr> em uma restrição CHECK . Uma CHECK restrição não pode usar uma expressão não determinística.
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN
Encontrou <expr>. Uma coluna gerada não pode usar uma expressão não determinística.
DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED
Não há suporte para funções não determinísticas no <operation> <expression>.
DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Quando há mais de uma cláusula MATCHED em uma instrução MERGE, somente a última cláusula MATCHED pode omitir a condição.
DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Quando há mais de uma cláusula NOT MATCHED BY SOURCE em uma instrução MERGE, somente a última cláusula NOT MATCHED BY SOURCE pode omitir a condição.
DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION
Quando há mais de uma cláusula NOT MATCHED em uma instrução MERGE, somente a última cláusula NOT MATCHED pode omitir a condição.
DELTA_NON_PARSABLE_TAG
Não foi possível interpretar a marca <tag>.
As marcas de arquivo são: <tagList>.
DELTA_NON_PARTITION_COLUMN_ABSENT
Os dados gravados no Delta precisam conter pelo menos uma coluna não particionada.<details>
DELTA_NON_PARTITION_COLUMN_REFERENCE
O predicado faz referência à coluna de não partição '<columnName>'. Somente as colunas de partição podem ser referenciadas: [<columnList>].
DELTA_NON_PARTITION_COLUMN_SPECIFIED
Colunas não particionadas <columnList> são especificadas em que apenas colunas de particionamento são esperadas: <fragment>.
DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG
O catálogo Delta requer um namespace de parte única, mas <identifier> é de várias partes.
DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_COMMAND
Não é suportado definir o coordenador de confirmação como '<nonUcCoordinatorName>' a partir de um comando, pois as tabelas gerenciadas por UC só podem ter 'unity-catalog' como coordenador de confirmação. Altere para 'unity-catalog' ou remova todas as propriedades da tabela de Confirmações Coordenadas da cláusula TBLPROPERTIES e tente o comando novamente.
DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_SESSION
Não há suporte para a configuração do coordenador de confirmação como '<nonUcCoordinatorName>' das configurações do SparkSession, pois as tabelas gerenciadas por UC só podem ter 'unity-catalog' como coordenador de confirmação. Altere-o para 'unity-catalog' executando spark.conf.set("<coordinatorNameDefaultKey>", "unity-catalog")ou remova todas as propriedades da tabela commits coordenados das configurações do SparkSession executando spark.conf.unset("<coordinatorNameDefaultKey>"), spark.conf.unset("<coordinatorConfDefaultKey>"), spark.conf.unset("<tableConfDefaultKey>")e tente novamente o comando novamente.
DELTA_NON_UC_MANAGED_TABLE_UPGRADE_OR_DOWNGRADE_NOT_SUPPORTED
A tabela <tableName> não é gerenciada por UC. Somente as tabelas gerenciadas por UC podem ser atualizadas ou rebaixadas para tabelas gerenciadas pelo catálogo.
DELTA_NOT_A_DATABRICKS_DELTA_TABLE
<table> não é uma tabela Delta. Elimine esta tabela primeiro se você quiser criá-la com o Databricks Delta.
DELTA_NOT_A_DELTA_TABLE
<tableName> não é uma tabela Delta. Remova esta tabela primeiro se quiser recriá-la com o Delta Lake.
DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT
Coluna não anulável não encontrada no struct: <struct>.
DELTA_NOT_NULL_CONSTRAINT_VIOLATED
NOT NULL restrição violada para a coluna: <columnName>.
DELTA_NOT_NULL_NESTED_FIELD
Um campo aninhado não anulável não pode ser adicionado a um pai anulável. Defina a nulidade da coluna pai adequadamente.
DELTA_NO_COMMITS_FOUND
Não foi encontrada nenhuma confirmação em <logPath>.
DELTA_NO_RECREATABLE_HISTORY_FOUND
Não foram encontradas confirmações recriáveis em <logPath>.
DELTA_NO_REDIRECT_RULES_VIOLATED
Operação não permitida: <operation> não pode ser executada em uma tabela com recurso de redirecionamento.
As regras de não redirecionamento não estão satisfeitas <noRedirectRules>.
DELTA_NO_RELATION_TABLE
Tabela <tableIdent> não encontrada.
DELTA_NO_START_FOR_CDC_READ
Nenhum startingVersion ou startingTimestamp fornecido para leitura CDC.
DELTA_NULL_SCHEMA_IN_STREAMING_WRITE
O Delta não aceita NullTypes no esquema para gravações de streaming.
DELTA_ONEOF_IN_TIMETRAVEL
Para viagem no tempo, forneça "timestampAsOf" ou então "versionAsOf".
DELTA_ONLY_OPERATION
<operation> só há suporte para tabelas Delta.
DELTA_OPERATION_MISSING_PATH
Forneça o caminho ou o identificador de tabela para <operation>.
DELTA_OPERATION_NOT_ALLOWED
Operação não permitida: <operation> não há suporte para tabelas Delta.
DELTA_OPERATION_NOT_ALLOWED_DETAIL
Operação não permitida: <operation> não há suporte para tabelas Delta: <tableName>.
DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION
<operation> não é suportado para coluna <colName> com ordenamento não padrão <collation>.
DELTA_OPERATION_NOT_SUPPORTED_FOR_DATATYPES
<operation> não há suporte para tipos de dados: <dataTypeList>.
DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION
<operation> não há suporte para expressão <exprText> porque ela usa ordenação não padrão.
DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED
O comando <operation> em uma exibição temporária referente a uma tabela Delta que contém colunas geradas não é compatível. Execute o <operation> comando diretamente na tabela Delta.
DELTA_OPERATION_ON_VIEW_NOT_ALLOWED
Operação não permitida: <operation> não pode ser realizada em uma visualização.
DELTA_OPTIMIZE_FULL_NOT_SUPPORTED
OPTIMIZE FULL é suportado somente para tabelas clusterizadas com colunas de agrupamento não vazias.
DELTA_OVERWRITE_MUST_BE_TRUE
A opção de cópia overwriteSchema não pode ser especificada sem a configuração OVERWRITE = "true".
DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE
"overwriteSchema" não pode ser usado no modo de substituição de partição dinâmica.
DELTA_PARTITION_COLUMN_CAST_FAILED
Falha ao converter o valor <value> em <dataType> para a coluna de partição <columnName>.
DELTA_PARTITION_COLUMN_NOT_FOUND
Coluna de partição <columnName> não encontrada no esquema [<schemaMap>].
DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES
Não é possível especificar o esquema de partição ao converter tabelas do Apache Iceberg. Ele é inferido automaticamente.
DELTA_PATH_BASED_ACCESS_TO_CATALOG_MANAGED_TABLE_BLOCKED
O acesso baseado em caminho não é permitido para Catalog-Managed tabela: <path>. Acesse a tabela por meio de seu nome e tente novamente.
DELTA_PATH_BASED_ACCESS_TO_TABLE_BLOCKED
A tabela em <path> foi migrada para uma tabela gerenciada do Catálogo do Unity e não pode mais ser acessada por caminho. Atualize o cliente para acessar a tabela pelo nome.
DELTA_PATH_DOES_NOT_EXIST
<path> não existe ou não é uma tabela Delta.
DELTA_PATH_EXISTS
Não é possível gravar no caminho <path> já existente sem definir OVERWRITE = "true".
DELTA_POST_COMMIT_HOOK_FAILED
A confirmação da versão da tabela Delta <version> foi bem-sucedida, mas houve um erro ao executar o gancho pós-confirmação <name> <message>
DELTA_PROTOCOL_CHANGED
ProtocolChangedException: a versão do protocolo da tabela Delta foi alterada por uma atualização simultânea. <additionalInfo> <conflictingCommit>
Consulte <docLink> para obter mais detalhes.
DELTA_PROTOCOL_PROPERTY_NOT_INT
A propriedade de protocolo <key> precisa ser um número inteiro. Encontrou <value>.
DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE
Não é possível atualizar apenas a versão do protocolo de leitor para usar recursos de tabela. A versão do protocolo de gravador deve ser pelo menos <writerVersion> para prosseguir. Consulte <docLink> para mais informações sobre versões de protocolo de tabela.
DELTA_READ_TABLE_WITHOUT_COLUMNS
Você está tentando ler uma tabela <tableName> Delta que não tem colunas.
Escreva alguns novos dados com a opção mergeSchema = true para poder ler a tabela.
DELTA_READ_TIME_CDC_NOT_SUPPORTED_FOR_TABLES_WITH_ACCESS_POLICIES
Você está tentando calcular o Feed de Dados de Alterações que <tableName> tem políticas de acesso definidas. O Feed de Dados de Alteração de Tempo de Leitura está atualmente em versão prévia e não dá suporte a CDF em tabelas com políticas de acesso. Habilite o CDF com otimização de leitura definindo a propriedade de tabela '<cdfTableProperty>' como 'true' em sua tabela.
DELTA_REDIRECT_TARGET_ROW_FILTER_COLUMN_MASK_UNSUPPORTED
Não há suporte para redirecionamento para uma tabela com filtro de linha ou máscara de coluna. Atualize seu código para fazer referência diretamente à tabela <tableIdent> de destino.
DELTA_REGEX_OPT_SYNTAX_ERROR
Verifique novamente sua sintaxe para "<regExpOption>".
DELTA_RELATION_PATH_MISMATCH
O caminho de relação '<relation>' é incompatível com o caminho de <targetType> '<targetPath>'.
DELTA_REORG_MATERIALIZATION_NOT_SUPPORTED_ON_UNPARTITIONED_TABLE
Não há suporte para a Conversão Líquida usando o comando reorg em uma tabela não particionada.
DELTA_REORG_PARTITION_MATERIALIZATION_CONFLICT
Não é possível <action> particionar colunas.
<instruction> materialização da coluna de partição definindo a propriedade da tabela como '<tableProperty>' <value> ou a configuração do SQL '<sqlConfig>' como <value>.
DELTA_REORG_UNKNOWN_MODE
Modo desconhecido REORG TABLE : <mode>.
DELTA_REPLACE_WHERE_IN_OVERWRITE
Você não pode usar o replaceWhere em conjunto com uma substituição por filtro.
DELTA_REPLACE_WHERE_MISMATCH
Os dados gravados não estão em conformidade com a condição de substituição parcial da tabela ou a restrição "<replaceWhere>".
<message>
DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE
Uma expressão 'replaceWhere' e 'partitionOverwriteMode'='dynamic' não podem ser definidas nas opções DataFrameWriter.
DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET
'replaceWhere' não pode ser usado com filtros de dados quando 'dataChange' é definido como false. Filtros: <dataFilters>.
DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS
Não é possível atribuir IDs de linha sem estatísticas de contagem de linhas.
Colete estatísticas para a tabela executando o ANALYZE TABLE comando:
ANALYZE TABLE nomeDaTabela COMPUTE DELTA STATISTICS
DELTA_ROW_TRACKING_BACKFILL_RUNNING_CONCURRENTLY_WITH_UNBACKFILL
Uma operação de habilitação de Acompanhamento de Linhas foi detectada em execução simultaneamente com uma desabilitação de Acompanhamento de Linhas. Anulando a operação de desabilitação. Tente novamente a operação de desabilitação, se necessário, quando a operação de habilitação for concluída.
DELTA_ROW_TRACKING_COMBINAÇÃO_ILEGAL_DE_PROPRIEDADES
Foi detectado um estado ilegal da tabela. As propriedades <property1> e <property2> da tabela estão ambas configuradas como true. O problema pode ser resolvido desabilitando qualquer uma das duas propriedades da tabela.
Entre em contato com o suporte do Databricks para obter mais assistência.
DELTA_SCHEMA_CHANGED
Alteração de esquema detectada:
esquema de origem de streaming: <readSchema>
esquema de arquivo de dados: <dataSchema>
Tente reiniciar a consulta. Se esse problema se repetir entre reinicializações de consulta sem
fazer progresso, você fez uma alteração de esquema incompatível e precisa iniciar sua
consulta do zero usando um novo diretório de ponto de verificação.
DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS
Alteração de esquema detectada na versão <version>:
esquema de origem de streaming: <readSchema>
esquema de arquivo de dados: <dataSchema>
Tente reiniciar a consulta. Se esse problema se repetir entre reinicializações de consulta sem
fazer progresso, você fez uma alteração de esquema incompatível e precisa iniciar sua
consulta do zero usando um novo diretório de ponto de verificação. Se o problema persistir após
a alteração para um novo diretório de ponto de verificação, é aconselhável alterar a opção
A opção ''startingVersion'' ou ''startingTimestamp'' para iniciar de uma versão mais recente do que
<version> com um novo diretório de ponto de verificação.
DELTA_SCHEMA_CHANGED_WITH_VERSION
Alteração de esquema detectada na versão <version>:
esquema de origem de streaming: <readSchema>
esquema de arquivo de dados: <dataSchema>
Tente reiniciar a consulta. Se esse problema se repetir entre reinicializações de consulta sem
fazer progresso, você fez uma alteração de esquema incompatível e precisa iniciar sua
consulta do zero usando um novo diretório de ponto de verificação.
DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS
O esquema da tabela Delta foi alterado de forma incompatível desde o DataFrame
ou o objeto DeltaTable foi criado. Redefina seu objeto DataFrame ou DeltaTable.
Changes:
<schemaDiff> <legacyFlagMessage>
DELTA_SCHEMA_NOT_PROVIDED
O esquema de tabela não é fornecido. Forneça o esquema (definição de coluna) da tabela ao usar REPLACE a tabela e uma AS SELECT consulta não é fornecida.
DELTA_SCHEMA_NOT_SET
O esquema de tabela não está definido. Escreva dados nele ou use CREATE TABLE para definir o esquema.
DELTA_SET_LOCATION_SCHEMA_MISMATCH
O esquema do novo local Delta é diferente do esquema de tabela atual.
esquema original:
<original>
esquema de destino:
<destination>
Se essa for uma alteração pretendida, você poderá desativar essa verificação executando:
%%sql definir <config> = verdadeiro
DELTA_SHALLOW_CLONE_FILE_NOT_FOUND
O arquivo <filePath> referenciado no log de transações não pode ser encontrado. Isso pode ocorrer quando os dados foram excluídos manualmente do sistema de arquivos em vez de usar a instrução table DELETE . Essa tabela parece ser um clone superficial, se esse for o caso, esse erro poderá ocorrer quando a tabela original da qual esta tabela foi clonada tiver excluído um arquivo que o clone ainda está usando. Se você quiser que os clones sejam independentes da tabela original, use um clone DEEP em vez disso.
DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY
As propriedades predefinidas que começam com <prefix> não podem ser modificadas.
DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
Os dados são restritos pela propriedade <property> do destinatário que não se aplica ao destinatário atual na sessão.
Para obter mais detalhes, consulte DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW
<operation> não pode ser usado em exibições do Delta Sharing que são compartilhadas entre contas.
DELTA_SHARING_INVALID_PROVIDER_AUTH
Tipo de autenticação <authenticationType> ilegal para o provedor <provider>.
DELTA_SHARING_INVALID_RECIPIENT_AUTH
O tipo de autenticação <authenticationType> é ilegal para o destinatário <recipient>.
DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME
Nome inválido para fazer referência a um <type> dentro de um Compartilhamento. Você pode usar o nome do <type> dentro do compartilhamento seguindo o formato de [schema].[<type>], ou você também pode usar o nome completo original da tabela seguindo o formato de [catalog].[schema].[>tipo>].
Se você não tiver certeza sobre qual nome usar, poderá executar "SHOW ALL IN SHARE [compartilhamento]" para localizar o nome do <type> que deseja remover: a coluna "name" contém o nome do <type> dentro do compartilhamento, e a coluna "shared_object" contém o nome completo original do <type>.
RECIPIENT_TOKENSDELTA_COMPARTILHAMENTO_MÁXIMO_RECIPIENT_TOKENS_EXCEDIDO
Existem mais de dois tokens para o destinatário <recipient>.
DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND
A propriedade <property> do destinatário não existe.
DELTA_COMPARTILHAMENTO_RECIPIENT_TOKENS_NÃO_ENCONTRADO
Faltam tokens de destinatário para o destinatário <recipient>.
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN
Colunas não particionadas <badCols> são especificadas para SHOW PARTITIONS.
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE
SHOW PARTITIONS não é permitido em uma tabela que não é particionada: <tableName>.
DELTA_SHREDDED_WRITES_DISABLED
Não é possível executar REORG APPLY(SHRED) a operação porque as gravações fragmentadas estão desabilitadas.
DELTA_SHREDDING_TABLE_PROPERTY_DISABLED
Tentou gravar Variantes desfiadas, mas a tabela não dá suporte a gravações fragmentadas. Considere definir a propriedade de tabela enableVariantShredding como true.
DELTA_SOURCE_IGNORE_DELETE
Dados excluídos detectados (por exemplo <removedFile>) da fonte de transmissão na versão <version>. Não há suporte para esse recurso no momento. Se você quiser ignorar exclusões, defina a opção 'ignoreDeletes' como 'true'. A tabela de origem pode ser encontrada no caminho <dataPath>.
DELTA_SOURCE_TABLE_IGNORE_CHANGES
Detectou uma atualização de dados (por exemplo <file>) na tabela de origem na versão <version>. Não há suporte para esse recurso no momento. Se isso acontecer regularmente e você não quiser ignorar as alterações, defina a opção 'skipChangeCommits' como 'true'. Se você quiser que a atualização de dados seja refletida, reinicie essa consulta com um novo diretório de ponto de verificação ou faça uma atualização completa se estiver usando o Lakeflow Spark Declarative Pipelines. Se você precisar lidar com essas alterações, alterne para MVs. A tabela de origem pode ser encontrada no caminho <dataPath>.
DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET
Forneça '<version>' ou '<timestamp>'.
DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND
<statsType> estatísticas não encontradas para a coluna nos metadados parquet: <columnPath>.
DELTA_STATS_NOT_FOUND_IN_FILE
Estatísticas não encontradas no arquivo: <filePath>. Execute 'ANALYZE TABLE [tableName] COMPUTE DELTA STATISTICS' para calcular estatísticas.
DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION
Detectamos uma ou mais alterações de esquema não aditivas (<opType>) entre a versão Delta <previousSchemaChangeVersion> e <currentSchemaChangeVersion> na fonte de streaming Delta.
Changes:
<columnChangeDetails>
Verifique se deseja propagar manualmente as alterações de esquema para a tabela do coletor antes de prosseguirmos com o processamento de fluxo usando o esquema finalizado na versão <currentSchemaChangeVersion>.
Depois de corrigir o esquema da tabela do coletor ou decidir que não há necessidade de corrigir, você pode definir as seguintes configurações para desbloquear as alterações de esquema não aditivas e continuar o processamento do fluxo.
Usando as opções de leitor de dataframe:
Para desbloquear esse fluxo específico apenas para esta série de alterações de esquema:
<unblockChangeOptions>
Para desbloquear este fluxo específico:
<unblockStreamOptions>
Usando configurações do SQL:
Para desbloquear esse fluxo específico apenas para esta série de alterações de esquema:
<unblockChangeConfs>
Para desbloquear este fluxo específico:
<unblockStreamConfs>
Para desbloquear todos os fluxos:
<unblockAllConfs>
DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT
Houve falha ao obter o instantâneo de log do Delta para a versão inicial ao verificar as alterações de esquema de mapeamento de coluna. Escolha uma versão inicial diferente ou habilite a leitura de streaming por sua conta e risco definindo '<config>' como 'true'.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE
Não há suporte para leitura em fluxo contínuo em tabelas com alterações de esquema incompatíveis com a leitura (como renomear, excluir ou alterar tipos de dados).
Para obter mais informações e possíveis próximas etapas para resolver esse problema, examine a documentação em <docLink>
Esquema de leitura: <readSchema>. Esquema de dados incompatível: <incompatibleSchema>.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG
Não há suporte para leitura em fluxo contínuo em tabelas com alterações de esquema incompatíveis com a leitura (como renomear, excluir ou alterar tipos de dados).
Forneça um "schemaTrackingLocation" para habilitar a evolução não aditiva do esquema para o processamento de fluxo Delta.
Confira <docLink> para obter mais detalhes.
Esquema de leitura: <readSchema>. Esquema de dados incompatível: <incompatibleSchema>.
DELTA_STREAMING_METADATA_EVOLUTION
O esquema, a configuração da tabela ou o protocolo da tabela Delta foram alterados durante o streaming.
O log de rastreamento de esquemas ou metadados foi atualizado.
Reinicie o fluxo para continuar o processamento usando os metadados atualizados.
Esquema atualizado: <schema>.
Configurações de tabela atualizadas: <config>.
Protocolo de tabela atualizado: <protocol>
EVOLUÇÃO_DE_ESQUEMA_DE_STREAMING_DELTA_FILTRO_DE_LINHA_NÃO_SUPORTADO_COLUMN_MASKS
O streaming da tabela de origem <tableId> com acompanhamento de esquema não dá suporte a filtros de linha ou máscaras de coluna.
Remova os filtros de linha ou as máscaras de coluna, ou desabilite o acompanhamento de esquema.
DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT
Detectado o local de esquema conflitante "<loc>" durante a transmissão da tabela ou da tabela localizada em "<table>".
Outro fluxo pode estar reutilizando o mesmo local de esquema, o que não é permitido.
Forneça um novo caminho exclusivo schemaTrackingLocation ou streamingSourceTrackingId como uma opção de leitor para um dos fluxos desta tabela.
DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT
O local do esquema "<schemaTrackingLocation>" deve ser colocado sob o local do ponto de verificação "<checkpointLocation>".
DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED
Arquivo de log incompleto no log de esquema da origem de transmissão Delta em "<location>".
O log de esquema pode ter sido corrompido. Escolha um novo local de esquema.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID
Detectou-se incompatibilidade no ID da tabela Delta ao tentar ler o fluxo Delta.
ID da tabela persistente: <persistedId>, ID da tabela: <tableId>
O log do esquema pode ter sido reutilizado. Escolha um novo local de esquema.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA
Esquema de partição incompatível detectado ao tentar ler o fluxo Delta.
Esquema persistente: <persistedSchema>, esquema de partição Delta: <partitionSchema>
Escolha um novo local de esquema para reinicializar o log do esquema se você tiver alterado manualmente o esquema de partição da tabela recentemente.
DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA
Não foi possível inicializar o registro do esquema de origem do streaming Delta porque
detectamos uma alteração incompatível de esquema ou protocolo ao servir um lote de streaming da versão da tabela <a> para <b>.
DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED
Falha ao analisar o esquema do log de esquema de origem de transmissão Delta.
O log de esquema pode ter sido corrompido. Escolha um novo local de esquema.
DELTA_STREAMING_SINK_TRANSACTION_NOT_FOUND
Nenhuma transação encontrada para o lote <batchId> no coletor Delta de streaming nas últimas <versionLimit> versões.
DELTA_STREAMING_SKIP_OFFSETS_INVALID_OFFSET_RANGE
Intervalo de deslocamento de salto inválido para o intervalo de origem Delta=[<startOffset>, <endOffset>). Corrija esse intervalo de deslocamento e tente novamente.
Para obter mais detalhes , consulte DELTA_STREAMING_SKIP_OFFSETS_INVALID_OFFSET_RANGE
DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS
Não é possível habilitar o Change Data Capture na tabela. A tabela já contém
colunas <columnList> reservadas que
serão usadas internamente como metadados para o feed de dados de alterações da tabela. Para habilitar
Alterar o Feed de Dados da tabela e renomear/remover essas colunas.
DELTA_TABLE_ALREADY_EXISTS
A tabela <tableName> já existe.
DELTA_TABLE_CONTAINS_RESERVED_CDC_COLUMNS
Não é possível calcular o Feed de Dados de Alterações na tabela. A tabela contém nomes <columnList> de coluna reservados que são usados como colunas de saída para o Feed de Dados de Alterações da tabela. Para calcular o Feed de Dados de Alterações na tabela, renomeie/solte essas colunas.
DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF
Atualmente, o DeltaTable.forPath dá suporte apenas a chaves de configuração do hadoop começando com <allowedPrefixes>, mas obteve <unsupportedOptions>.
DELTA_TABLE_ID_MISMATCH
A tabela Delta em <tableLocation> foi substituída enquanto o comando estava utilizando a tabela.
O ID da tabela era <oldId>, mas agora é <newId>.
Tente novamente o comando atual para garantir que ele leia uma exibição consistente da tabela.
DELTA_TABLE_INVALID_REDIRECT_STATE_TRANSITION
Não é possível atualizar o estado de redirecionamento da tabela: tentativa de transição de estado inválida.
A tabela Delta '<table>' não pode mudar de '<oldState>' para '<newState>'.
DELTA_TABLE_INVALID_SET_UNSET_REDIRECT
Não foi possível SET ou UNSET propriedade de redirecionamento em <table>: propriedade atual '<currentProperty>' não corresponde à nova propriedade '<newProperty>'.
DELTA_TABLE_LOCATION_MISMATCH
O local da tabela <tableName> existente é <existingTableLocation>. Ele não corresponde ao local <tableLocation>especificado.
DELTA_TABLE_NOT_FOUND
A tabela <tableName> Delta não existe.
DELTA_TABLE_NOT_SUPPORTED_IN_OP
Não há suporte para tabela em <operation>. Em vez disso, use um caminho.
DELTA_TABLE_ONLY_OPERATION
<tableName> não é uma tabela Delta.
<operation> só há suporte para tabelas Delta.
DELTA_TABLE_UNRECOGNIZED_REDIRECT_SPEC
O log Delta contém uma especificação não reconhecida de redirecionamento de tabela '<spec>'.
DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY
O esquema final da tabela de destino está vazio.
DELTA_TIMESTAMP_EARLIER_THAN_COMMIT_RETENTION
O carimbo de data/hora fornecido (<userTimestamp>) está antes da versão mais antiga disponível para
esta tabela (<commitTs>). Use um carimbo de data/hora após <timestampString>.
DELTA_TIMESTAMP_GREATER_THAN_COMMIT
O carimbo de data/hora (<providedTimestamp>) fornecido é posterior à versão mais recente disponível para esta
tabela (<tableName>). Use um carimbo de data/hora até <maximumTimestamp>.
DELTA_TIMESTAMP_INVALID
O carimbo de data/hora fornecido (<expr>) não pode ser convertido em um carimbo de data/hora válido.
DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE
<timeTravelKey> precisa ser um valor inicial válido.
DELTA_TOO_MUCH_LISTING_MEMORY
Falha ao listar arquivos (<numFiles>) na tabela Delta devido à memória insuficiente. Memória necessária: <estimatedMemory>, memória disponível: <maxMemory>.
DELTA_TRUNCATED_TRANSACTION_LOG
<path>: não é possível reconstruir o estado na versão <version> , pois o log de transações foi truncado devido à exclusão manual ou à política de retenção de log (<logRetentionKey>=<logRetention>) e à política de retenção de ponto de verificação (<checkpointRetentionKey>=<checkpointRetention>).
DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED
Operação não permitida: TRUNCATE TABLE em tabelas Delta não dá suporte a predicados de partição; use DELETE para excluir partições ou linhas específicas.
DELTA_UDF_IN_CHECK_CONSTRAINT
Encontrado <expr> em uma restrição CHECK . Uma CHECK restrição não pode usar uma função definida pelo usuário.
DELTA_UDF_IN_GENERATED_COLUMN
Encontrou <udfExpr>. Uma coluna gerada não pode usar uma função definida pelo usuário.
DELTA_UNEXPECTED_ACTION_EXPRESSION
Expressão de ação inesperada <expression>.
DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME
Esperava <expectedColsSize> colunas de partição: <expectedCols>, mas encontrou <parsedColsSize> colunas de partição: <parsedCols> da análise do nome do arquivo: <path>.
DELTA_UNEXPECTED_PARTIAL_SCAN
Uma verificação completa das fontes Delta era esperada, mas uma verificação parcial foi encontrada. Caminho: <path>.
DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME
Esperando a coluna de partição <expectedCol>, mas encontrou a coluna de partição <parsedCol> ao analisar o nome do arquivo: <path>.
DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER
CONVERT TO DELTA foi chamado com um esquema de partição diferente daquele inferido do catálogo; por favor, evite fornecer o esquema, para que o esquema de partição seja escolhido a partir do catálogo.
esquema de partição de catálogo:
<catalogPartitionSchema>
esquema de partição fornecido:
<userPartitionSchema>
DELTA_UNIFORM_COMPATIBILITY_LOCATION_CANNOT_BE_CHANGED
delta.universalFormat.compatibility.location não pode ser alterado.
DELTA_UNIFORM_COMPATIBILITY_LOCATION_NOT_REGISTERED
delta.universalFormat.compatibility.location não está registrado no catálogo.
DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
Local ausente ou inválido para o formato de compatibilidade uniforme. Defina um diretório vazio para delta.universalFormat.compatibility.location.
Motivo da falha:
Para obter mais detalhes, consulte DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
A leitura do Apache Iceberg com o Delta Uniform falhou.
Para obter mais detalhes, consulte DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
DELTA_UNIFORM_INGRESS_AMBIGUOUS_FORMAT
Vários formatos de entrada do Uniforme Delta (<formats>) são encontrados, no máximo um pode ser definido.
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED
Não há suporte para criar ou atualizar a tabela de ingresso uniforme.
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT
Formato <fileFormat> não é suportado. Há suporte apenas para Apache Iceberg e hudi como formato de arquivo original.
DELTA_UNIFORM_INGRESS_VIOLATION
Falha na leitura do Delta Uniform:
Para obter mais detalhes, consulte DELTA_UNIFORM_INGRESS_VIOLATION
DELTA_UNIFORM_NOT_SUPPORTED
O Formato Universal só tem suporte em tabelas do Catálogo do Unity.
DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT
REFRESH TABLE com um argumento inválido:
Para obter mais detalhes, consulte DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
Não há suporte para o REFRESH identificador SYNC UNIFORM devido ao motivo:
Para obter mais detalhes, consulte DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED_FOR_MANAGED_ICEBERG_TABLE_WITH_METADATA_PATH
REFRESH TABLE com METADATA_PATH não tem suporte para tabelas gerenciadas do Apache Iceberg.
DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED
Falha ao converter a versão <version> da tabela no formato <format>universal. <message>
DELTA_UNIVERSAL_FORMAT_VIOLATION
Falha na validação do Formato Universal (<format>) : <violation>.
DELTA_UNKNOWN_CONFIGURATION
A configuração desconhecida foi especificada: <config>.
Para desabilitar essa verificação, defina <disableCheckConfig>=true na configuração de sessão do Spark.
DELTA_UNKNOWN_PRIVILEGE
Privilégio desconhecido: <privilege>.
DELTA_UNKNOWN_READ_LIMIT
Limite de leitura desconhecido: <limit>.
DELTA_UNRECOGNIZED_COLUMN_CHANGE
Alteração de coluna não reconhecida <otherClass>. Você pode estar executando uma versão desatualizada do Delta Lake.
DELTA_UNRECOGNIZED_INVARIANT
Invariável não reconhecido. Atualize sua versão do Spark.
DELTA_UNRECOGNIZED_LOGFILE
Arquivo de log <filename>não reconhecido.
DELTA_UNSET_NON_EXISTENT_PROPERTY
Tentativa de remover a propriedade inexistente '<property>' na tabela <tableName>.
DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE
<path> não dá suporte à adição de arquivos com um caminho absoluto.
DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP
ALTER TABLE CHANGE COLUMN não há suporte para alterar a coluna <fieldPath> de <oldField> para <newField>.
DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP
Operação ALTER TABLE REPLACE COLUMNS sem suporte. Motivo: <details>
Falha ao alterar o esquema de:
<oldSchema>
to:
<newSchema>
DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE
Você tentou REPLACE uma tabela existente (<tableName>) com CLONE. Esta operação é
unsupported. Tente um destino diferente para CLONE ou exclua a tabela no destino atual.
DELTA_UNSUPPORTED_CLUSTERING_COLUMN_PREDICATES
OPTIMIZE
...
FULL WHERE O comando para tabelas Liquid não dá suporte aos predicados fornecidos:
Para obter mais detalhes , consulte DELTA_UNSUPPORTED_CLUSTERING_COLUMN_PREDICATES
DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE
Não há suporte para alterar o modo de mapeamento de coluna de '<oldMode>' para '<newMode>'.
DELTA_UNSUPPORTED_COLUMN_MAPPING_OPERATIONS_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX
Falha ao executar a operação de mapeamento de colunas <opName> na(s) coluna(s) <quotedColumnNames>
porque essas colunas têm índices de filtro Bloom.
Se você quiser executar a operação mapeamento de colunas em colunas
com Índice de Filtro bloom(es),
remova primeiro o Índice de Filtro bloom(es):
DROP BLOOMFILTER INDEX ON TABLE nomeDaTabela FOR COLUMNS(<columnNames>)
Se você quiser remover todos os índices de filtro Bloom na tabela, use:
DROP BLOOMFILTER INDEX ON TABLE nomeDaTabela
DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL
A versão atual do protocolo de tabela não dá suporte à alteração dos modos de mapeamento de coluna
usando <config>.
Versão do protocolo Delta necessária para mapeamento de coluna:
<requiredVersion>
A versão atual do protocolo Delta da tabela:
<currentVersion>
<advice>
DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE
A alteração do esquema foi detectada:
esquema antigo:
<oldTableSchema>
novo esquema:
<newTableSchema>
Alterações de esquema não são permitidas durante a alteração do modo de mapeamento de coluna.
DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE
Não há suporte para gravar dados com o modo de mapeamento de coluna.
DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER
Não há suporte para a criação de um índice de filtro de bloom em uma coluna com tipo <dataType>: <columnName>.
DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY
Não é possível adicionar um comentário a <fieldPath>. Não há suporte para adicionar um comentário a um elemento de chave/valor ou matriz de mapa.
DELTA_UNSUPPORTED_DATA_TYPES
Colunas encontradas usando tipos de dados sem suporte: <dataTypeList>. Você pode definir '<config>' como 'false' para desabilitar a verificação de tipo. Desabilitar essa verificação de tipo pode permitir que os usuários criem tabelas Delta sem suporte e só devem ser usadas ao tentar ler/gravar tabelas herdadas.
DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN
<dataType> não pode ser o resultado de uma coluna gerada.
DELTA_UNSUPPORTED_DEEP_CLONE
Não há suporte para clonagem profunda nesta versão Delta.
DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW
<view> é uma exibição.
DESCRIBE DETAIL só há suporte para tabelas.
DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN
A remoção de colunas de clustering (<columnList>) não é permitida.
DELTA_UNSUPPORTED_DROP_COLUMN
DROP COLUMN não é compatível com a sua tabela Delta. <advice>
DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE
Só é possível remover colunas aninhadas do StructType. Encontrou <struct>.
DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN
A remoção de colunas de partição (<columnList>) não é permitida.
DELTA_UNSUPPORTED_EXPRESSION
Tipo de expressão sem suporte(<expType>) para <causedBy>. Os tipos com suporte são [<supportedTypes>].
DELTA_UNSUPPORTED_EXPRESSION_CHECK_CONSTRAINT
Encontrado <expression> em uma restrição CHECK .
<expression> não pode ser usado em uma restrição CHECK .
DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
<expression> não pode ser usado em uma coluna gerada.
DELTA_UNSUPPORTED_FEATURES_FOR_READ
Recurso de leitura Delta sem suporte: a tabela “<tableNameOrPath>” requer recursos de tabela de leitor incompatíveis com esta versão do Databricks: <unsupported>. Consulte <link> para obter mais informações sobre a compatibilidade de recursos do Delta Lake.
DELTA_UNSUPPORTED_FEATURES_FOR_WRITE
Recurso de gravação Delta sem suporte: a tabela “<tableNameOrPath>” requer recursos de tabela de gravador incompatíveis com esta versão do Databricks: <unsupported>. Consulte <link> para obter mais informações sobre a compatibilidade de recursos do Delta Lake.
DELTA_UNSUPPORTED_FEATURES_IN_CONFIG
Os recursos de tabela configurados nas seguintes configurações do Spark ou propriedades da tabela Delta não são reconhecidos por esta versão do Databricks: <configs>.
DELTA_UNSUPPORTED_FEATURE_STATUS
Esperava que o status do recurso de tabela <feature> fosse “suportado”, mas foi obtido “<status>”.
DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT
A atualização de campos aninhados só tem suporte para StructType, mas você está tentando atualizar um campo de <columnName>, que é do tipo: <dataType>.
DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS
O comando 'FSCK REPAIR TABLE' não tem suporte em versões de tabela com arquivos de vetor de exclusão ausentes.
Contate a equipe de suporte.
DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS
O comando 'GENERATE symlink_format_manifest' não tem suporte em versões de tabela com vetores de exclusão.
Para produzir uma versão da tabela sem vetores de exclusão, execute a tabela APPLY (PURGE)'REORG TABLE. Em seguida, execute novamente o comando 'GENERATE'.
Verifique se nenhuma transação simultânea está adicionando vetores de exclusão novamente entre REORG e GENERATE.
Se você precisar gerar manifestos regularmente ou não puder impedir transações simultâneas, considere desabilitar vetores de exclusão nesta tabela usando 'ALTER TABLE table SET TBLPROPERTIES (delta.enableDeletionVectors = false)'.
DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT
Não há suporte para invariáveis em campos aninhados que não sejam StructTypes.
DELTA_UNSUPPORTED_IN_SUBQUERY
Em consulta aninhada, não há suporte na condição <operation>.
DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX
listKeywithPrefix não está disponível.
DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING
Não há suporte para a geração de manifesto para tabelas que aproveitam o mapeamento de colunas, pois os leitores externos não podem ler essas tabelas Delta. Consulte a documentação da Delta para obter mais detalhes.
DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC
Operações MERGE INTO com evolução do esquema não dão suporte à gravação de saída CDC.
DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE
Predicados de várias colunas não têm suporte na condição <operation>.
DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER
No momento, a criação de índices de arquivador de bloom não é compatível com colunas aninhadas: <columnName>.
DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION
Campos aninhados não têm suporte no <operation> (field = <fieldName>).
DELTA_UNSUPPORTED_NON_EMPTY_CLONE
A tabela de destino do clone não está vazia. Por favor TRUNCATE ou DELETE FROM a tabela antes de executar CLONE.
DELTA_UNSUPPORTED_OUTPUT_MODE
A fonte de <dataSource> dados não dá suporte ao <mode> modo de saída.
DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER
A criação de índices de filtro de bloom não é compatível com colunas de particionamento: <columnName>.
DELTA_UNSUPPORTED_RENAME_COLUMN
Não há suporte para renomeação de coluna para sua tabela Delta. <advice>
DELTA_UNSUPPORTED_SCHEMA_DURING_READ
O Delta não dá suporte à especificação do esquema em tempo de leitura.
DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES
SORTED BY não é suportado para tabelas Delta bucketed.
DELTA_UNSUPPORTED_SOURCE
<operation> O destino suporta somente fontes Delta.
<plan>
DELTA_UNSUPPORTED_STATIC_PARTITIONS
No momento, não há suporte para especificar partições estáticas na especificação de partição durante as inserções.
DELTA_UNSUPPORTED_STRATEGY_NAME
Nome da estratégia incompatível: <strategy>.
DELTA_UNSUPPORTED_SUBQUERY
Não há suporte para subconsultas na <operation> (condição = <cond>).
DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES
Subconsultas não têm suporte em predicados de partição.
DELTA_VIAJAR_NO_TEMPO_NÃO_SUPORTADO_ALÉM_DA_DURAÇÃO_DE_RETENÇÃO_DE_ARQUIVOS_EXCLUÍDOS
Não é possível viajar no tempo além do delta.deletedFileRetentionDuration (<deletedFileRetention> HOURS) definido na tabela.
DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS
Não se pode especificar viagem no tempo em múltiplos formatos.
DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS
Não aceita versões de viagem no tempo, subconsultas, fluxos ou alterar consultas de feed de dados.
DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES
Não há suporte para truncar tabelas de exemplo.
DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA
Não é possível operar nesta tabela porque uma alteração de tipo sem suporte foi aplicada. O campo <fieldName> foi alterado de <fromType> para <toType>.
DELTA_UNSUPPORTED_TYPE_CHANGE_ON_COLUMNS_WITH_BLOOM_FILTER_INDEX
Falha ao alterar o tipo de dados de colunas <quotedColumnNames>
porque essas colunas têm Índice de Filtro bloom(es).
Se você quiser alterar o tipo de dados das colunas com índices de filtro Bloom,
remova primeiro o Índice de Filtro bloom(es):
DROP BLOOMFILTER INDEX ON TABLE nomeDaTabela FOR COLUMNS(<columnNames>)
Se você quiser remover todos os índices de filtro Bloom na tabela, use:
DROP BLOOMFILTER INDEX ON TABLE nomeDaTabela
DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION
Forneça o caminho base (<baseDeltaPath>) ao aspirar tabelas Delta. Atualmente, não há suporte para aspirar partições específicas.
DELTA_UNSUPPORTED_WRITES_STAGED_TABLE
A implementação da tabela não dá suporte a gravações: <tableName>.
DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR
Você está tentando executar gravações em uma tabela que foi registrada com o coordenador de confirmação <coordinatorName>. No entanto, nenhuma implementação desse coordenador está disponível no ambiente atual e as gravações sem coordenadores não são permitidas.
DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES
A gravação não é compatível com tabelas de exemplo.
DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION
Não é possível converter <fromCatalog> em <toCatalog>. Todas as colunas aninhadas devem corresponder.
DELTA_V2_CHECKPOINTS_REQUIRED_FOR_OPERATION
CHECKPOINT A operação requer que os Pontos de Verificação V2 sejam habilitados na tabela.
DELTA_VACUUM_COPY_INTO_STATE_FAILED
VACUUM nos arquivos de dados foi bem-sucedido, mas a coleta de lixo de estado COPY INTO falhou.
DELTA_VERSIONS_NOT_CONTIGUOUS
As versões (<versionList>) não são contíguas.
Uma lacuna no log delta entre versões <startVersion> e <endVersion> foi detectada ao tentar carregar a versão <versionToLoad>.
Para obter mais detalhes , consulte DELTA_VERSIONS_NOT_CONTIGUOUS
DELTA_VERSION_INVALID
A versão fornecida (<version>) não é uma versão válida.
DELTA_VERSION_NOT_FOUND
Não é possível viajar o tempo da tabela Delta para a versão <userVersion>. Versões disponíveis: [<earliest>, <latest>].
DELTA_VIOLATE_CONSTRAINT_WITH_VALUES
CHECK restrição <constraintName> <expression> violada por linha com valores:
<values>.
DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
A validação das propriedades da tabela <table> foi violada:
Para obter mais detalhes, consulte DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED
<viewIdentifier> é uma exibição. Você não pode gravar dados em uma exibição.
DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST
A coluna <columnName> Z-Ordering não existe no esquema de dados.
DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS
A ordenação Z em <cols> será ineficaz, pois atualmente não coletamos estatísticas para essas colunas. Consulte <link> para obter mais informações sobre a omissão de dados e o ordenamento Z. Você pode desabilitar essa verificação definindo
SET <zorderColStatKey> = falso
DELTA_ZORDERING_ON_PARTITION_COLUMN
<colName> é uma coluna de partição. A ordenação Z só pode ser executada em colunas de dados.
Compartilhamento Delta
DELTA_SHARING_ACTIVATION_NONCE_DOES_NOT_EXIST
SQLSTATE: nenhum estado atribuído
Nonce de ativação não encontrado. O link de ativação usado é inválido ou expirou. Regenerar o link de ativação e tentar novamente.
DELTA_SHARING_CROSS_REGION_SHARE_UNSUPPORTED
SQLSTATE: nenhum estado atribuído
Não há suporte para o compartilhamento entre <regionHint> regiões e regiões fora dele.
DELTA_SHARING_GET_RECIPIENT_PROPERTIES_INVALID_DEPENDENT
SQLSTATE: nenhum estado atribuído
A exibição definida com a current_recipient função é somente para compartilhamento e só pode ser consultada do lado do destinatário de dados. O protegível fornecido com id <securableId> não é uma Exibição de Compartilhamento Delta.
DELTA_SHARING_MUTABLE_SECURABLE_KIND_NOT_SUPPORTED
SQLSTATE: nenhum estado atribuído
O tipo <securableKind> securável fornecido não suporta alterações no Delta Sharing.
DELTA_SHARING_ROTATE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE
SQLSTATE: nenhum estado atribuído
O tipo protegível <securableKind> fornecido não dá suporte à ação de rotação de token iniciada pelo serviço marketplace.
DS_AUTH_TYPE_NOT_AVAILABLE
SQLSTATE: nenhum estado atribuído
<dsError>: tipo de autenticação não disponível na entidade <providerEntity>do provedor.
DS_CDF_NOT_ENABLED
SQLSTATE: nenhum estado atribuído
<dsError>: não é possível acessar o feed de dados de alteração para <tableName>. O CDF não está habilitado na tabela delta original para a versão <version>. Entre em contato com seu provedor de dados.
DS_CDF_NOT_SHARED
SQLSTATE: nenhum estado atribuído
<dsError>: não é possível acessar o feed de dados de alteração para <tableName>. O CDF não é compartilhado na tabela. Entre em contato com seu provedor de dados.
DS_CDF_RPC_INVALID_PARAMETER
SQLSTATE: nenhum estado atribuído
<dsError>: <message>
DS_CLIENT_AUTH_ERROR_FOR_DB_DS_SERVER
SQLSTATE: nenhum estado atribuído
<dsError>: <message>
DS_CLIENT_ERROR_FOR_DB_DS_SERVER
SQLSTATE: nenhum estado atribuído
<dsError>: <message>
DS_CLIENT_OAUTH_TOKEN_EXCHANGE_FAILURE
SQLSTATE: nenhum estado atribuído
<dsError>: <message>
DS_CLIENT_OAUTH_TOKEN_EXCHANGE_UNAUTHORIZED
SQLSTATE: nenhum estado atribuído
<dsError>: <message>
DS_CLOUD_VENDOR_UNAVAILABLE
SQLSTATE: nenhum estado atribuído
<dsError>: o fornecedor de nuvem está temporariamente indisponível para <rpcName>, tente novamente.<traceId>
DS_DATA_MATERIALIZATION_COMMAND_FAILED
SQLSTATE: nenhum estado atribuído
<dsError>: falha na execução da tarefa de materialização de dados <runId> da organização <orgId> no comando <command>
DS_DATA_MATERIALIZATION_COMMAND_NOT_SUPPORTED
SQLSTATE: nenhum estado atribuído
<dsError>: a execução da tarefa de materialização de dados <runId> da organização <orgId> não dá suporte ao comando <command>
DS_DATA_MATERIALIZATION_NOT_SUPPORTED_WITHOUT_SERVERLESS
SQLSTATE: nenhum estado atribuído
<dsError>: <featureName> não é compatível porque a arquitetura serverless não é suportada ou habilitada no espaço de trabalho do provedor. Entre em contato com seu provedor de dados para habilitar funcionalidades de computação sem servidor.
DS_DATA_MATERIALIZATION_NO_VALID_NAMESPACE
SQLSTATE: nenhum estado atribuído
<dsError>: não foi possível encontrar um namespace válido para criar materialização para <tableName>. Entre em contato com seu provedor de dados para corrigir isso.
DS_DATA_MATERIALIZATION_RECIPIENT_MISSING_WORKSPACE_ID
SQLSTATE: nenhum estado atribuído
<dsError>: nenhum workspace adequado encontrado para materializar o ativo compartilhado. Entre em contato com seu provedor de dados para recriar o destinatário em um workspace em que o acesso de gravação ao catálogo do ativo compartilhado é permitido.
DS_DATA_MATERIALIZATION_RUN_DOES_NOT_EXIST
SQLSTATE: nenhum estado atribuído
<dsError>: a execução da tarefa de materialização de dados <runId> da organização <orgId> não existe
DS_DELTA_ILLEGAL_STATE
SQLSTATE: nenhum estado atribuído
<dsError>: <message>
DS_DELTA_MISSING_CHECKPOINT_FILES
SQLSTATE: nenhum estado atribuído
<dsError>: não foi possível localizar todos os arquivos de parte do ponto de verificação na versão: <version>. <suggestion>
DS_DELTA_NULL_POINTER
SQLSTATE: nenhum estado atribuído
<dsError>: <message>
DS_DELTA_RUNTIME_EXCEPTION
SQLSTATE: nenhum estado atribuído
<dsError>: <message>
DS_EXPIRE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE
SQLSTATE: nenhum estado atribuído
<dsError>: o tipo protegível <securableKind> fornecido não dá suporte à ação de token expirada iniciada pelo serviço marketplace.
DS_FAILED_REQUEST_TO_OPEN_DS_SERVER
SQLSTATE: nenhum estado atribuído
<dsError>: <message>
DS_FAILED_REQUEST_TO_SAP_DS_SERVER
SQLSTATE: nenhum estado atribuído
<dsError>: <message>
DS_FEATURE_ONLY_FOR_DATABRICKS_TO_DATABRICKS
SQLSTATE: nenhum estado atribuído
<dsError>: <feature> só está habilitado para o Databricks para o compartilhamento Delta do Databricks.
DS_FILE_LISTING_EXCEPTION
SQLSTATE: nenhum estado atribuído
<dsError>: <storage><message>
DS_FILE_SIGNING_EXCEPTION
SQLSTATE: nenhum estado atribuído
<dsError>: <message>
DS_FOREIGN_TABLE_METADATA_REFRESH_FAILED
SQLSTATE: nenhum estado atribuído
<dsError>: <message>
DS_GATEKEEPER_DISABLED
SQLSTATE: nenhum estado atribuído
<dsError>: esse recurso está desabilitado para a conta. Entre em contato com seu provedor de dados.
DS_HADOOP_CONFIG_NOT_SET
SQLSTATE: nenhum estado atribuído
<dsError>: <key> não é definido pelo chamador.
DS_ILLEGAL_STATE
SQLSTATE: nenhum estado atribuído
<dsError>: <message>
DS_INTERNAL_ERROR_FROM_DB_DS_SERVER
SQLSTATE: nenhum estado atribuído
<dsError>: <message>
DS_INVALID_AZURE_PATH
SQLSTATE: nenhum estado atribuído
<dsError>: caminho inválido do Azure: <path>.
DS_INVALID_DELTA_ACTION_OPERATION
SQLSTATE: nenhum estado atribuído
<dsError>: <message>
DS_INVALID_FIELD
SQLSTATE: nenhum estado atribuído
<dsError>: <message>
DS_INVALID_ITERATOR_OPERATION
SQLSTATE: nenhum estado atribuído
<dsError>: <message>
DS_INVALID_PARAMETER_VALUE
SQLSTATE: nenhum estado atribuído
<dsError>: parâmetro inválido para <rpcName> devido a <cause>.
DS_INVALID_PARTITION_SPEC
SQLSTATE: nenhum estado atribuído
<dsError>: <message>
DS_INVALID_RESPONSE_FROM_DS_SERVER
SQLSTATE: nenhum estado atribuído
<dsError>: <message>
DS_MATERIALIZATION_QUERY_FAILED
SQLSTATE: nenhum estado atribuído
<dsError>: falha na consulta para <schema>.
<table> do Compartilhamento <share>.
DS_MATERIALIZATION_QUERY_TIMEDOUT
SQLSTATE: nenhum estado atribuído
<dsError>: a consulta atingiu o tempo limite para <schema>.
<table> do Compartilhamento <share> após <timeoutInSec> segundos.
DS_MIGRATED_MANAGEMENT_API_CALLED
SQLSTATE: nenhum estado atribuído
<dsError>: O UC RPC <rpcName> falhou.
DS_MISSING_IDEMPOTENCY_KEY
SQLSTATE: nenhum estado atribuído
<dsError>: A chave de idempotência é necessária ao consultar <schema>.
<table> do Compartilhamento <share> de forma assíncrona.
POLÍTICA_DE_ORÇAMENTO_SERVERLESS_AUSENTE
SQLSTATE: nenhum estado atribuído
<dsError>: A operação usa arquitetura serverless no Databricks do provedor, mas o compartilhamento não possui uma política de orçamento serverless. Entre em contato com o provedor de dados para adicionar uma política de orçamento sem servidor para compartilhar.
DS_MORE_THAN_ONE_RPC_PARAMETER_SET
SQLSTATE: nenhum estado atribuído
<dsError>: forneça apenas um de: <parameters>.
DS_NETWORK_CONNECTION_CLOSED
SQLSTATE: nenhum estado atribuído
<dsError>: conexão de rede fechada para <rpcName> devido a <errorCause>, tente novamente.<traceId>
DS_NETWORK_CONNECTION_TIMEOUT
SQLSTATE: nenhum estado atribuído
<dsError>: tempo limite de conexão de rede para <rpcName> devido a <errorCause>, tente novamente.<traceId>
DS_NETWORK_ERROR
SQLSTATE: nenhum estado atribuído
<dsError>: erro de rede para <rpcName> devido a <errorCause>, por favor, tente novamente.<traceId>
DS_NO_METASTORE_ASSIGNED
SQLSTATE: nenhum estado atribuído
<dsError>: Nenhum metastore atribuído ao workspace atual (workspaceId: <workspaceId>).
DS_O2D_OIDC_WORKLOAD_IDENTITY_TOKEN_GENERATION_FAILED
SQLSTATE: nenhum estado atribuído
<dsError>: falha ao gerar token de identidade de carga de trabalho para o provedor OIDC O2D: <message>.
DS_PAGINATION_AND_QUERY_ARGS_MISMATCH
SQLSTATE: nenhum estado atribuído
<dsError>: incompatibilidade de argumentos de paginação ou consulta.
DS_PARTITION_COLUMNS_RENAMED
SQLSTATE: nenhum estado atribuído
<dsError>: coluna de partição [<renamedColumns>] renomeada na tabela compartilhada. Entre em contato com seu provedor de dados para corrigir isso.
DS_QUERY_BEFORE_START_VERSION
SQLSTATE: nenhum estado atribuído
<dsError>: você só pode consultar dados da tabela desde a versão <startVersion>.
DS_QUERY_END_VERSION_AFTER_LATEST_VERSION
SQLSTATE: nenhum estado atribuído
<dsError>: a versão final de leitura de dados fornecida (<endVersion>) é inválida. A versão final não pode ser maior que a versão mais recente da tabela(<latestVersion>).
DS_QUERY_START_VERSION_AFTER_LATEST_VERSION
SQLSTATE: nenhum estado atribuído
<dsError>: A versão inicial (<startVersion>) fornecida para leitura de dados é inválida. A versão inicial não pode ser maior que a versão mais recente da tabela(<latestVersion>).
DS_QUERY_TIMEOUT_ON_SERVER
SQLSTATE: nenhum estado atribuído
<dsError>: ocorreu um tempo limite ao processar <queryType> no <tableName> após <numActions> atualizações entre <numIter> iterações.<progressUpdate> <suggestion> <traceId>
DS_RATE_LIMIT_ON_DS_SERVER
SQLSTATE: nenhum estado atribuído
<dsError>: <message>
DS_RECIPIENT_RPC_INVALID_PARAMETER
SQLSTATE: nenhum estado atribuído
<dsError>: <message>
DS_RECON_FAILED_ON_UC_WRITE_RPC
SQLSTATE: nenhum estado atribuído
<dsError>: UC RPC <rpcName> não foi bem-sucedido, convertendo para INTERNAL_ERROR.
DS_RESOURCE_ALREADY_EXIST_ON_DS_SERVER
SQLSTATE: nenhum estado atribuído
<dsError>: <message>
DS_RESOURCE_EXHAUSTED
SQLSTATE: nenhum estado atribuído
<dsError>: <resource> excedeu o limite: [<limitSize>]<suggestion>.<traceId>
DS_RESOURCE_NOT_FOUND_ON_DS_SERVER
SQLSTATE: nenhum estado atribuído
<dsError>: <message>
DS_SAP_UNSUPPORTED_DBR_VERSION
SQLSTATE: nenhum estado atribuído
<dsError>: o conector SAP de Delta Sharing não é suportado no DBR <dbrVersion>. As versões mínimas com suporte são: <supportedVersions>.
DS_SCHEMA_NAME_CONFLICT_FOUND
SQLSTATE: nenhum estado atribuído
<dsError>: o catálogo <catalogName> já contém nomes de esquema que são encontrados no compartilhamento <shareName>.
<description> de nomes de esquema conflitantes: <schemaNamesInCommon>.
DS_SERVER_TIMEOUT
SQLSTATE: nenhum estado atribuído
<dsError>: tempo limite do servidor para <rpcName> por causa de <errorCause>, tente novamente.<traceId>
DS_SERVICE_DENIED
SQLSTATE: nenhum estado atribuído
<dsError>: a solicitação foi negada, pois o serviço está sob muita carga. Tente novamente mais tarde depois de um tempo.
DS_SHARE_ALREADY_MOUNTED_TO_CATALOG
SQLSTATE: nenhum estado atribuído
<dsError>: o compartilhamento <shareName> do provedor <providerName> já está montado no catálogo <catalogName>.
DS_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED
SQLSTATE: nenhum estado atribuído
Não é possível conceder privilégios ao <securableType> grupo <principal>gerado pelo sistema.
DS_TABLE_METADATA_TEMPORARILY_UNAVAILABLE
SQLSTATE: nenhum estado atribuído
<dsError>: metadados de tabela não estão disponíveis. Tente novamente em alguns instantes.
DS_TIME_TRAVEL_NOT_PERMITTED
SQLSTATE: nenhum estado atribuído
<dsError>: A consulta sobre viagem no tempo não é permitida, a menos que o histórico seja compartilhado em <tableName>. Entre em contato com seu provedor de dados.
DS_UNAUTHORIZED
SQLSTATE: nenhum estado atribuído
<dsError>:Desautorizado.
DS_UNAUTHORIZED_D2O_OIDC_RECIPIENT
SQLSTATE: nenhum estado atribuído
<dsError>: destinatário OIDC D2O não autorizado: <message>.
DS_UNKNOWN_EXCEPTION
SQLSTATE: nenhum estado atribuído
<dsError>: <traceId>
DS_UNKNOWN_QUERY_ID
SQLSTATE: nenhum estado atribuído
<dsError>: ID de consulta desconhecida <queryID> para <schema>.
<table> do Compartilhamento <share>.
DS_UNKNOWN_QUERY_STATUS
SQLSTATE: nenhum estado atribuído
<dsError>: status de consulta desconhecido para ID de consulta <queryID> para <schema>.
<table> do Compartilhamento <share>.
DS_UNKNOWN_RPC
SQLSTATE: nenhum estado atribuído
<dsError>: rpc desconhecido<rpcName>.
DS_UNSUPPORTED_DELTA_READER_VERSION
SQLSTATE: nenhum estado atribuído
<dsError>: a versão <tableReaderVersion> do leitor de protocolo delta é maior que <supportedReaderVersion> e não pode ter suporte no servidor de compartilhamento delta.
DS_UNSUPPORTED_DELTA_TABLE_FEATURES
SQLSTATE: nenhum estado atribuído
<dsError>: os recursos <tableFeatures> de tabela são encontrados na tabela<versionStr> <historySharingStatusStr> <optionStr>
DS_UNSUPPORTED_OPERATION
SQLSTATE: nenhum estado atribuído
<dsError>: <message>
DS_UNSUPPORTED_STORAGE_SCHEME
SQLSTATE: nenhum estado atribuído
<dsError>: esquema de armazenamento sem suporte: <scheme>.
DS_UNSUPPORTED_TABLE_TYPE
SQLSTATE: nenhum estado atribuído
<dsError>: não foi possível recuperar <schema>.
<table> do Compartilhamento <share> porque a tabela com o tipo [<tableType>] não é suportada em consultas <queryType>.
DS_UNSUPPORTED_TABLE_TYPE_IN_MST
SQLSTATE: nenhum estado atribuído
<dsError>: não há suporte para consultar o tipo de tabela [<tableType>] na consulta MST (transação de várias instruções).
DS_USER_CONTEXT_ERROR
SQLSTATE: nenhum estado atribuído
<dsError>: <message>
DS_VIEW_SHARING_FUNCTIONS_NOT_ALLOWED
SQLSTATE: nenhum estado atribuído
<dsError>: as seguintes funções <functions> : não são permitidas na consulta de compartilhamento de exibição.
DS_WORKSPACE_DOMAIN_NOT_SET
SQLSTATE: nenhum estado atribuído
<dsError>: o domínio do workspace <workspaceId> não está definido.
DS_WORKSPACE_NOT_FOUND
SQLSTATE: nenhum estado atribuído
<dsError>: workspace <workspaceId> não foi encontrado.
Autoloader
CF_ADD_NEW_NOT_SUPPORTED
Não há suporte para o modo <addNewColumnsMode> de evolução do esquema quando o esquema é especificado. Para usar esse modo, você pode fornecer o esquema por meio de cloudFiles.schemaHints em vez disso.
CF_AMBIGUOUS_AUTH_OPTIONS_ERROR
Foram encontradas opções de autenticação para configuração de notificação no diretório (padrão)
modo de listagem:
<options>
Se você quiser usar o modo de notificação de arquivo, defina explicitamente:
.option("cloudFiles.<useNotificationsKey>", "true")
Como alternativa, se você quiser pular a validação de suas opções e ignorá-las
Opções de autenticação, você pode definir:
.option("cloudFiles.ValidateOptionsKey>", "false")
CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR
O modo de listagem incremental (cloudFiles.<useIncrementalListingKey>)
e a notificação de arquivo (cloudFiles.<useNotificationsKey>)
foram habilitados ao mesmo tempo.
Certifique-se de selecionar apenas um.
CF_AZURE_AUTHENTICATION_MISSING_OPTIONS
Forneça uma credencial de serviço do Databricks ou uma clientId e clientSecret para autenticação com o Azure.
CF_AZURE_AUTHENTICATION_MULTIPLE_OPTIONS
Quando uma credencial de serviço do Databricks é fornecida, nenhuma outra opção de credencial (por exemplo, clientId, clientSecret ou connectionString) deve ser fornecida.
CF_AZURE_STORAGE_SUFFIXES_REQUIRED
Exigir adlsBlobSuffix e adlsDfsSuffix para o Azure
CF_BUCKET_MISMATCH
O <storeType> no evento de arquivo <fileEvent> é diferente do esperado pela fonte: <source>.
CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY
Não é possível desenvolver o esquema quando o log de esquema está vazio. Local do log do esquema: <logPath>
CF_CANNOT_PARSE_QUEUE_MESSAGE
Não é possível analisar a seguinte mensagem de fila: <message>
CF_CANNOT_RESOLVE_CONTAINER_NAME
Não é possível resolver o nome do contêiner do caminho: <path>, URI resolvido: <uri>
CF_CANNOT_RUN_DIRECTORY_LISTING
Não é possível executar a listagem de diretórios quando há um thread de backfill assíncrono em execução
CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON
Não é possível ativar cloudFiles.cleanSource e cloudFiles.allowOverwrites ao mesmo tempo.
CF_CLEAN_SOURCE_CANNOT_MOVE_FILES_INSIDE_SOURCE_PATH
Não há suporte para mover arquivos para um diretório no caminho do qual está sendo ingerido.
CF_CLEAN_SOURCE_NOT_ENABLED
O CleanSource não foi habilitado para este workspace. Entre em contato com o suporte do Databricks para obter assistência.
CF_FONTE_LIMPA_NÃO_SUPORTADA
CleanSource não é compatível com <op>.
CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
O Carregador Automático não pode arquivar arquivos processados porque não tem permissões de gravação no diretório de origem ou no destino de movimentação.
Para obter mais detalhes , consulte CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
CF_DUPLICATE_COLUMN_IN_DATA
Erro ao tentar inferir o esquema de partição da tabela. Você tem a mesma coluna duplicada em seus dados e caminhos de partição. Para ignorar o valor da partição, forneça suas colunas de partição explicitamente usando: .option("cloudFiles.<partitionColumnsKey>", "{comma-separated-list}")
CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE
Não é possível inferir o esquema quando o caminho <path> de entrada está vazio. Tente iniciar o fluxo quando houver arquivos no caminho de entrada ou especifique o esquema.
CF_EVENT_GRID_AUTH_ERROR
Falha ao criar uma assinatura do Event Grid. Certifique-se de que a sua entidade
de serviço tenha <permissionType> Assinaturas da Grade de Eventos. Veja mais detalhes em:
<docLink>
CF_EVENT_GRID_CREATION_FAILED
Falha ao criar uma assinatura da Grade de Eventos. Verifique se Microsoft.EventGrid está
registrado como provedor de recursos em sua assinatura. Veja mais detalhes em:
<docLink>
CF_EVENT_GRID_NOT_FOUND_ERROR
Falha ao criar uma assinatura do Event Grid. Verifique se a sua conta
de armazenamento (<storageAccount>) está em seu grupo de recursos (<resourceGroup>) e que
A conta de armazenamento é uma conta do tipo "StorageV2 (uso geral v2)". Veja mais detalhes em:
<docLink>
CF_EVENT_NOTIFICATION_NOT_SUPPORTED
Não há suporte para o modo de notificação de evento do carregador automático para <cloudStore>.
CF_EVENT_NOTIFICATION_SETUP_FAILED
Falha ao configurar recursos de notificação de arquivo para o Carregador Automático.
Para obter mais detalhes , consulte CF_EVENT_NOTIFICATION_SETUP_FAILED
CF_FAILED_TO_CHECK_STREAM_NEW
Falha ao verificar se o fluxo é novo
CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION
Falha ao criar a assinatura: <subscriptionName>. Uma assinatura com o mesmo nome já existe e está associada a outro tópico: <otherTopicName>. O tópico desejado é <proposedTopicName>. Exclua a assinatura existente ou crie uma assinatura com um novo sufixo de recurso.
CF_FAILED_TO_CREATED_PUBSUB_TOPIC
Falha ao criar o tópico: <topicName>. Já existe um tópico com o mesmo nome.
<reason> Remover o tópico existente ou tentar novamente com outro sufixo de recurso
CF_FAILED_TO_DELETE_GCP_NOTIFICATION
Falha ao excluir a notificação com a ID <notificationId> no bucket <bucketName> para o tópico <topicName>. Tente novamente ou remova manualmente a notificação por meio do console do GCP.
CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA
Falha ao desserializar o esquema persistente da cadeia de caracteres: "<jsonSchema>"
CF_FAILED_TO_EVOLVE_SCHEMA
Não é possível evoluir o esquema sem um log de esquema.
CF_FAILED_TO_FIND_PROVIDER
Falha ao localizar o provedor para <fileFormatInput>
CF_FAILED_TO_INFER_SCHEMA
Falha ao inferir o esquema para o formato <fileFormatInput> de arquivos existentes no caminho de entrada <path>.
Para obter mais detalhes, consulte CF_FAILED_TO_INFER_SCHEMA
CF_FAILED_TO_WRITE_TO_SCHEMA_LOG
Falha ao gravar no log de esquema no local <path>.
CF_FILE_FORMAT_REQUIRED
Não foi possível encontrar a opção necessária: cloudFiles.format.
CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS
Foram encontradas várias assinaturas com o prefixo Auto Loader (<num>) para o tópico <topicName>:
<subscriptionList>
Deve haver apenas uma assinatura por tópico. Verifique manualmente se o tópico não tem várias assinaturas.
CF_GCP_AUTHENTICATION
Forneça todas as seguintes opções: <clientEmail>, <client>,
<privateKey>, <privateKeyId> ou forneça <serviceCredential> para usar sua credencial de serviço do Databricks.
Como alternativa, não forneça nenhum deles para usar a cadeia de provedores de credenciais GCP padrão para autenticação com recursos GCP.
CF_GCP_LABELS_COUNT_EXCEEDED
Número excessivo de rótulos (<num>) recebidos para o recurso GCP. A contagem máxima de rótulos por recurso é <maxNum>.
CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED
Número excessivo de marcas de recurso (<num>) recebidas para o recurso GCP. A contagem máxima de marcas de recurso por recurso é <maxNum>, uma vez que as marcas de recurso são armazenadas como rótulos GCP em recursos, e marcas específicas do Databricks consomem parte dessa cota de rótulo.
CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG
Arquivo de log incompleto no log de esquema no caminho <path>
CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT
Arquivo de metadados incompleto no ponto de verificação do Carregador Automático
CF_INCORRECT_BATCH_USAGE
CloudFiles é uma fonte de streaming. Use spark.readStream em vez de spark.read. Para desabilitar essa verificação, defina <cloudFilesFormatValidationEnabled> como false.
CF_INCORRECT_SQL_PARAMS
O método cloud_files aceita dois parâmetros de cadeia de caracteres necessários: o caminho a ser carregado e o formato de arquivo. As opções de leitor de arquivos devem ser fornecidas em um mapa de valor chave da cadeia de caracteres. por exemplo, cloud_files("path", "json", map("option1", "value1")). Recebeu: <params>
CF_INCORRECT_STREAM_USAGE
Para usar 'cloudFiles' como fonte de streaming, forneça o formato de arquivo com a opção 'cloudFiles.format' e use .load() para criar seu DataFrame. Para desabilitar essa verificação, defina <cloudFilesFormatValidationEnabled> como false.
CF_INTERNAL_ERROR
O Carregador Automático encontrou um erro interno. Entre em contato com o suporte do Databricks para obter assistência.
Para obter mais detalhes , consulte CF_INTERNAL_ERROR
CF_INVALID_ARN
ARN inválido: <arn>
CF_INVALID_AZURE_CERTIFICATE
A chave privada fornecida com a opção cloudFiles.certificate não pode ser analisada. Forneça uma chave pública válida no formato PEM.
CF_INVALID_AZURE_CERT_PRIVATE_KEY
A chave privada fornecida com a opção cloudFiles.certificatePrivateKey não pode ser analisada. Forneça uma chave privada válida no formato PEM.
CF_INVALID_CHECKPOINT
Esse ponto de verificação não é uma origem válida do CloudFiles
CF_INVALID_CLEAN_SOURCE_MODE
Modo inválido para a opção de origem limpa <value>.
CF_INVALID_GCP_RESOURCE_TAG_KEY
Chave de marca de recurso inválida para o recurso GCP: <key>. As chaves devem começar com uma letra minúscula, ter entre 1 e 63 caracteres e conter apenas letras minúsculas, números, sublinhados (_) e hifens (-).
CF_INVALID_GCP_RESOURCE_TAG_VALUE
Valor de marca de recurso inválido para o recurso GCP: <value>. Os valores devem ter entre 0 e 63 caracteres e devem conter apenas letras minúsculas, números, sublinhados (_) e hifens (-).
CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS
O Carregador Automático não dá suporte às seguintes opções quando usado com eventos de arquivo gerenciado:
<optionList>
Recomendamos que você remova essas opções e reinicie o fluxo.
CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
Resposta inválida do serviço de gerenciamento de eventos de arquivo. Entre em contato com o suporte do Databricks para obter assistência.
Para obter mais detalhes, consulte CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
CF_INVALID_SCHEMA_EVOLUTION_MODE
cloudFiles.
<schemaEvolutionModeKey> deve ser um dos {
<addNewColumnsWithTypeWidening>
<addNewColumns>
<failOnNewColumns>
<rescue>
"<noEvolution>"}
CF_INVALID_SCHEMA_HINTS_OPTION
As dicas de esquema só podem especificar uma coluna específica uma vez.
Nesse caso, redefinindo a coluna: <columnName>
várias vezes em schemaHints:
<schemaHints>
CF_INVALID_SCHEMA_HINT_COLUMN
Dicas de esquema não podem ser usadas para substituir os tipos aninhados de mapas e matrizes.
Coluna conflitante: <columnName>
CF_LATEST_OFFSET_READ_LIMIT_REQUIRED
latestOffset deve ser chamado com um ReadLimit nesta fonte.
CF_LOG_FILE_MALFORMED
O arquivo de log foi formatado incorretamente: falhou ao ler a versão correta do log de <fileName>.
CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS
Você solicitou que o Carregador Automático ignorasse os arquivos existentes em seu local externo definindo includeExistingFiles como false. No entanto, o serviço de eventos de arquivo gerenciado ainda está descobrindo arquivos existentes em sua localização externa. Tente novamente depois que os eventos de arquivo gerenciado tiverem concluído a descoberta de todos os arquivos em sua localização externa.
CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND
Você está usando o Carregador Automático com eventos de arquivo gerenciado, mas parece que o local externo do caminho de entrada '<path>' não tem eventos de arquivo habilitados ou o caminho de entrada é inválido. Solicite ao Administrador do Databricks que habilite eventos de arquivo no local externo para o caminho de entrada.
CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED
Você está usando o Carregador Automático com eventos de arquivo gerenciado, mas não tem acesso ao local ou volume externo para o caminho de entrada '<path>' ou o caminho de entrada é inválido. Solicite que o Administrador do Databricks conceda permissões de leitura para o local ou volume externo ou forneça um caminho de entrada válido em um volume ou local externo existente.
CF_MANAGED_FILE_EVENTS_INVALID_CONTINUATION_TOKEN
A posição de leitura do fluxo no cache de eventos de arquivo foi invalidada. Isso pode acontecer porque a configuração de eventos de arquivo foi atualizada (por exemplo, a URL da fila fornecida foi alterada ou os eventos de arquivo foram desabilitados e reabilitados). Entre em contato com o suporte do Databricks para obter assistência.
CF_MANAGED_FILE_EVENTS_IS_PREVIEW
O Carregador de Arquivos Automático com eventos de arquivos gerenciados é uma funcionalidade em pré-visualização. Para continuar, entre em contato com o Suporte do Databricks ou desative a opção cloudFiles.useManagedFileEvents.
CF_MANAGED_FILE_EVENTS_RATE_LIMIT_EXCEEDED
Muitos fluxos simultâneos do Carregador Automático estão em execução. Para resolver, reduza a simultaneidade do fluxo, se possível, ou crie volumes separados para cada subdiretório ao carregar de vários subdiretórios em um local externo. Entre em contato com o representante do Databricks se o problema persistir.
CF_MAX_MUST_BE_POSITIVE
max deve ser positivo
CF_METADATA_FILE_CONCURRENTLY_USED
Várias consultas de streaming estão usando simultaneamente <metadataFile>
CF_MISSING_METADATA_FILE_ERROR
O arquivo de metadados no diretório de ponto de verificação da fonte de streaming está ausente. Esses metadados
o arquivo contém opções padrão importantes para o fluxo, portanto, o fluxo não pode ser reiniciado
Agora. Entre em contato com o suporte do Databricks para obter assistência.
CF_MISSING_PARTITION_COLUMN_ERROR
A coluna <columnName> de partição não existe no esquema fornecido:
<schema>
CF_MISSING_SCHEMA_IN_PATHLESS_MODE
Especifique um esquema usando .schema() se um caminho não for fornecido para a fonte CloudFiles ao usar o modo de notificação de arquivo. Como alternativa, para ter o Carregador Automático para inferir o esquema, forneça um caminho base em .load().
CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC
Notificações existentes encontradas para tópico <topicName> no bucket <bucketName>:
notification,id
<notificationList>
Para evitar poluir o assinante com eventos não intencionais, exclua as notificações acima e tente novamente.
CF_NEW_PARTITION_ERROR
Novas colunas de partição foram inferidas de seus arquivos: [<filesList>]. Forneça todas as colunas de partição em seu esquema ou forneça uma lista de colunas de partição para as quais você gostaria de extrair valores usando: .option("cloudFiles.partitionColumns", "{comma-separated-list|empty-string}")
CF_PARTITON_INFERENCE_ERROR
Erro ao tentar inferir o esquema de partição do lote atual de arquivos. Forneça suas colunas de partição explicitamente usando: .option("cloudFiles.<partitionColumnOption>", "{comma-separated-list}")
CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES
Não é possível ler arquivos quando o caminho <path> de entrada não existe. Verifique se o caminho de entrada existe e tente novamente.
CF_PERIODIC_BACKFILL_NOT_SUPPORTED
Não há suporte para o provisionamento periódico se o provisionamento assíncrono está desabilitado. Você pode habilitar a listagem de diretórios/provisionamento assíncrono definindo spark.databricks.cloudFiles.asyncDirListing como true
CF_PREFIX_MISMATCH
Evento incompatível encontrado: a chave <key> não tem o prefixo: <prefix>
CF_PROTOCOL_MISMATCH
<message>
Se você não precisar fazer outras alterações no código, defina o SQL
configuração: '<sourceProtocolVersionKey> = <value>'
para retomar o fluxo. Consulte:
<docLink>
para obter mais detalhes.
CF_REGION_NOT_FOUND_ERROR
Não foi possível obter a região padrão do AWS. Especifique uma região usando a opção cloudFiles.region.
CF_RESOURCE_SUFFIX_EMPTY
Falha ao criar serviços de notificação: o sufixo de recurso não pode estar vazio.
CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS
Falha ao criar serviços de notificação: o sufixo de recurso só pode ter caracteres alfanuméricos, hifens (-) e sublinhados (_).
CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE
Falha ao criar serviços de notificação: o sufixo de recurso só pode ter letra minúscula, número e traço (-).
CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP
Falha ao criar serviços de notificação: o sufixo de recurso só pode ter caracteres alfanuméricos, hifens (-), sublinhados (_), pontos (.), til (~) sinais de adição (+) e sinais percentuais (<percentSign>).
CF_RESOURCE_SUFFIX_LIMIT
Falha ao criar serviços de notificação: o sufixo de recurso não pode ter mais do que <limit> caracteres.
CF_RESOURCE_SUFFIX_LIMIT_GCP
Falha ao criar serviços de notificação: o sufixo de recurso deve estar entre os caracteres <lowerLimit> e <upperLimit>.
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY
Chave de marca de recurso GCP restrita encontrada (<key>). As seguintes chaves de marca de recurso GCP são restritas para o Carregador Automático: [<restrictedKeys>]
CF_RETENTION_GREATER_THAN_MAX_FILE_AGE
cloudFiles.cleanSource.retentionDuration não pode ser maior que cloudFiles.maxFileAge.
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
Falha ao criar uma notificação para o tópico: <topic> com prefixo: <prefix>. Já existe um tópico com o mesmo nome com outro prefixo: <oldPrefix>. Tente usar um sufixo de recurso diferente para configurar ou excluir a configuração existente.
CF_SCHEMA_LOG_DEEP_CLONE_FAILED
Falha ao clonar e migrar as entradas de log de esquema do log de esquema de origem.
CF_SFTP_MISSING_PASSWORD_OR_KEY_FILE
A senha ou o arquivo de chave devem ser especificados para SFTP.
Especifique a senha no uri de origem ou via <passwordOption>ou especifique o conteúdo do arquivo de chave por meio de <keyFileOption>.
CF_SFTP_NOT_ENABLED
O acesso a arquivos SFTP não está habilitado. Entre em contato com o suporte do Databricks para obter assistência.
CF_SFTP_REQUIRE_FULL_PATH
Especifique os componentes de caminho completo para uma origem SFTP na forma de sftp://$user@$host:$port/$path para garantir a pesquisa precisa da conexão UC.
CF_SFTP_REQUIRE_UC_CLUSTER
Um cluster habilitado para UC é necessário para acessar arquivos SFTP. Entre em contato com o suporte do Databricks para obter assistência.
CF_SFTP_USERNAME_NOT_FOUND
O nome de usuário deve ser especificado para SFTP.
Forneça o nome de usuário no URI de origem ou via <option>.
CF_SOURCE_DIRECTORY_PATH_REQUIRED
Forneça o caminho do diretório de origem com a opção path
CF_SOURCE_UNSUPPORTED
A fonte de arquivos de nuvem só é compatível com caminhos S3, Armazenamento de Blobs do Azure (wasb/wasbs) e Azure Data Lake Gen1 (adl) e Gen2 (abfs/abfss) atualmente. Caminho: "<path>", URI resolvido: "<uri>"
CF_STATE_INCORRECT_SQL_PARAMS
A função cloud_files_state aceita um parâmetro de cadeia de caracteres que representa o diretório do ponto de verificação de um fluxo do cloudFiles ou um tableName de várias partes que identifica uma tabela de fluxo e um segundo parâmetro inteiro opcional que representa a versão do ponto de verificação para a qual carregar o estado. O segundo parâmetro também pode ser "mais recente" para ler o ponto de verificação mais recente. Recebeu: <params>
CF_STATE_INVALID_CHECKPOINT_PATH
O caminho <path> do ponto de verificação de entrada é inválido. O caminho não existe ou não há fontes cloud_files encontradas.
CF_STATE_INVALID_VERSION
A versão <version> especificada não existe ou foi removida durante a análise.
CF_THREAD_IS_DEAD
O thread <threadName> está inativo.
CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION
Não é possível derivar o local do ponto de verificação de fluxo do local do ponto de verificação de origem: <checkPointLocation>
CF_UNABLE_TO_DETECT_FILE_FORMAT
O formato do arquivo de origem de <fileSize> arquivos de amostra não pôde ser detectado, <formats> foram encontrados. Especifique o formato.
CF_UNABLE_TO_EXTRACT_BUCKET_INFO
Não é possível extrair informações do bucket. Caminho: "<path>", URI resolvido: "<uri>".
CF_UNABLE_TO_EXTRACT_KEY_INFO
Não é possível extrair informações importantes. Caminho: "<path>", URI resolvido: "<uri>".
CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO
Não é possível extrair informações da conta de armazenamento; caminho: ‘<path>’, URI resolvido: '<uri>'
CF_UNABLE_TO_LIST_EFFICIENTLY
Recebeu um evento de renomeação de diretório para o caminho <path>, mas não é possível listar esse diretório com eficiência. Para que o fluxo continue, defina a opção 'cloudFiles.ignoreDirRenames' como true e considere habilitar os backfills regulares com cloudFiles.backfillInterval para que esses dados sejam processados.
CF_UNEXPECTED_READ_LIMIT
ReadLimit inesperado: <readLimit>
CF_UNKNOWN_OPTION_KEYS_ERROR
Chaves de opção desconhecidas encontradas:
<optionList>
Verifique se todas as chaves de opção fornecidas estão corretas. Se você quiser ignorar a
validação de suas opções e ignorar essas opções desconhecidas, poderá definir:
.option("cloudFiles.<validateOptions>", "false")
CF_UNKNOWN_READ_LIMIT
Limite de Leitura desconhecido: <readLimit>
CF_UNSUPPORTED_CLEAN_SOURCE_MOVE
A configuração do modo 'move' de cleanSource não é suportada.
Para obter mais detalhes, consulte CF_UNSUPPORTED_CLEAN_SOURCE_MOVE
CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION
A função SQL 'cloud_files' para criar uma fonte de streaming do Carregador Automático tem suporte apenas em um pipeline do Lakeflow Spark Declarative Pipeliness. Veja mais detalhes em:
<docLink>
CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE
Não há suporte para inferência de esquema para o formato: <format>. Especifique o esquema.
CF_UNSUPPORTED_LOG_VERSION
UnsupportedLogVersion: a versão máxima de log compatível é v<maxVersion>, mas v<version> foi encontrada. O arquivo de log foi produzido por uma versão mais recente do DBR e não pode ser lido por esta versão. Por favor, atualize.
CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE
Não há suporte para o modo de evolução do esquema <mode> para o formato: <format>. Defina o modo de evolução do esquema como 'none'.
CF_USE_DELTA_FORMAT
Não há suporte para a leitura de uma tabela Delta com essa sintaxe. Se você quiser consumir dados do Delta, consulte os documentos: leia uma tabela Delta (<deltaDocLink>) ou leia uma tabela Delta como uma fonte de fluxo (<streamDeltaDocLink>). A fonte de streaming da Delta já está otimizada para consumo incremental de dados.
Geospatial
EWKB_PARSE_ERROR
Erro ao analisar EWKB: <parseError> em posição <pos>
Para obter mais detalhes , consulte EWKB_PARSE_ERROR
EWKT_PARSE_ERROR
Erro ao analisar EWKT: <parseError> em posição <pos>
GEOJSON_PARSE_ERROR
Erro ao analisar GeoJSON: <parseError> em posição <pos>
Para obter mais detalhes , consulte GEOJSON_PARSE_ERROR
GEO_ENCODER_SRID_MISMATCH_ERROR
Falha ao codificar o valor <type> porque o SRID <valueSrid> fornecido não corresponde ao tipo SRID do valor a codificar: <typeSrid>.
H3_INVALID_CELL_ID
<h3Cell> não é uma ID de célula H3 válida
Para obter mais detalhes , consulte H3_INVALID_CELL_ID
H3_INVALID_GRID_DISTANCE_VALUE
A distância da grade H3 <k> deve não ser negativa
Para obter mais detalhes, consulte H3_INVALID_GRID_DISTANCE_VALUE
H3_INVALID_RESOLUTION_VALUE
A resolução <r> H3 deve estar entre <minR> e <maxR>, inclusive
Para obter mais detalhes, consulte H3_INVALID_RESOLUTION_VALUE
H3_NOT_ENABLED
<h3Expression> está desabilitado ou sem suporte. Considere alternar para uma camada que dá suporte a expressões H3
Para mais detalhes, consulte H3_NOT_ENABLED
H3_PENTAGON_ENCOUNTERED_ERROR
Um pentágono foi encontrado durante a computação do anel hexagonal de <h3Cell> com distância de grade <k>
H3_UNDEFINED_GRID_DISTANCE
A distância da grade H3 entre <h3Cell1> e <h3Cell2> é indefinida
ST_DIFFERENT_SRID_VALUES
Os argumentos para "<sqlFunction>" devem ter o mesmo valor SRID. Valores srid encontrados: <srid1>, <srid2>
ST_INVALID_ARGUMENT
"<sqlFunction>":
Para obter mais detalhes , consulte ST_INVALID_ARGUMENT
ST_INVALID_CRS_TRANSFORMATION_ERROR
<sqlFunction>: transformação crs inválida ou sem suporte de SRID <srcSrid> para SRID <trgSrid>
ST_INVALID_PRECISION_VALUE
A precisão <p> deve ser entre <minP> e <maxP>, inclusive
ST_NOT_ENABLED
<stExpression> está desabilitado ou sem suporte. Considere alternar para uma camada que dê suporte a expressões ST
WKB_PARSE_ERROR
Erro ao analisar WKB: <parseError> na posição <pos>
Para obter mais detalhes , consulte WKB_PARSE_ERROR
WKT_PARSE_ERROR
Erro ao analisar WKT: <parseError> na posição <pos>
Para obter mais detalhes , consulte WKT_PARSE_ERROR
Catálogo do Unity
NÃO_PODE_REMOVER_COLUNA_ETIQUETADA
A coluna não pode ser removida porque tem uma ou mais tags governadas atribuídas. Remova as marcas antes de remover a coluna. Para obter diretrizes, consulte a documentação <docLink>.
CRIAÇÃO_DE_FILHO_PROIBIDA_PARA_SEGURÁVEL_EXTERNO
O protegível <childSecurableName> do tipo <childSecurableType> não pode ser criado no pai <parentSecurableName> do tipo <parentSecurableKind>.
COLUMN_FORMAT_INCOMPATIBLE_WITH_COLUMN_TYPE
A coluna <columnName> tem um formato <formatType> que é incompatível com o tipo <columnType>.
CONFLICTING_COLUMN_NAMES_ERROR
A coluna <columnName> entra em conflito com outra coluna com o mesmo nome, mas com/sem espaços em branco à direita (por exemplo, uma coluna existente chamada <columnName> ). Renomeie a coluna com um nome diferente.
CONNECTION_CREDENTIALS_NOT_SUPPORTED_FOR_ONLINE_TABLE_CONNECTION
Solicitação inválida para obter credenciais de nível de conexão para conexão do tipo <connectionType>. Essas credenciais só estão disponíveis para conexões postgreSQL gerenciadas.
CONNECTION_TYPE_NOT_ENABLED
O tipo de conexão '<connectionType>' não está habilitado. Habilite a conexão para usá-la.
DELTA_SHARING_PROVISIONING_STATE_NOT_ACTIVE
A entidade compartilhada '<securableFullName>' atualmente não é utilizável, pois ainda não foi totalmente sincronizada com a entidade de origem correspondente. Causado por: <reason>.
DELTA_SHARING_READ_ONLY_RECIPIENT_EXISTS
Já existe um objeto Recipient '<existingRecipientName>' com o mesmo identificador de compartilhamento '<existingMetastoreId>'.
DELTA_SHARING_READ_ONLY_SECURABLE_KIND
Os dados de um Tipo Protegível de Compartilhamento Delta <securableKindName> são somente leitura e não podem ser criados, modificados ou excluídos.
DISASTER_RECOVERY_READ_ONLY
Os dados dentro de um catálogo <catalogName> de réplicas gerenciado pela Recuperação de Desastre são somente leitura e não podem ser criados, modificados ou excluídos.
EXTERNAL_ACCESS_DISABLED_ON_METASTORE
A venda automática de credenciais é rejeitada para ambiente de computação não Databricks devido ao acesso a dados externos ser desabilitado para metastore <metastoreName>. Entre em contato com o administrador do metastore para habilitar a configuração de "Acesso a Dados Externos" no metastore.
EXTERNAL_ACCESS_NOT_ALLOWED_FOR_TABLE
Tabela com id <tableId> não pode ser acessada de fora do Ambiente de Computação do Databricks devido ao seu tipo ser <securableKind>. Somente os tipos de tabela 'TABLE_EXTERNAL', 'TABLE_DELTA_EXTERNAL' e 'TABLE_DELTA' podem ser acessados externamente.
EXTERNAL_USE_SCHEMA_ASSIGNED_TO_INCORRECT_SECURABLE_TYPE
Privilege EXTERNAL USE SCHEMA não é aplicável a essa entidade <assignedSecurableType> e só pode ser atribuído a um esquema ou catálogo. Remova o privilégio do objeto <assignedSecurableType> e atribua-o a um esquema ou catálogo.
EXTERNAL_WRITE_NOT_ALLOWED_FOR_TABLE
Tabela com id <tableId> não pode ser gravada de fora do Ambiente de Computação do Databricks devido ao seu tipo ser <securableKind>. Somente os tipos de tabela 'TABLE_EXTERNAL' e 'TABLE_DELTA_EXTERNAL' podem ser gravados externamente.
FOREIGN_CATALOG_STORAGE_ROOT_MUST_SUPPORT_WRITES
O local de armazenamento de um catálogo estrangeiro do tipo <catalogType> será usado para descarregar dados e não poderá ser somente leitura.
HMS_SECURABLE_OVERLAP_LIMIT_EXCEEDED
O número de <resourceType> para o caminho de entrada <url> excede o limite permitido (<overlapLimit>) para sobreposição de HMS <resourceType>s.
INVALID_DATASOURCE_FORMAT
Não há suporte para o formato '<datasourceFormat>' da fonte de dados<tableTypeSuffix> <catalogKindSuffix>.
INVALID_NAME_FORMAT
<fieldDescription> não é um nome válido. Os nomes válidos devem conter apenas caracteres alfanuméricos e sublinhados e não podem conter espaços, períodos, barras de avanço ou caracteres de controle.
INVALID_RESOURCE_NAME_DELTA_SHARING
Não há suporte para solicitações de compartilhamento Delta usando nomes de recursos
INVALID_RESOURCE_NAME_ENTITY_TYPE
O nome de recurso fornecido faz referência ao tipo de entidade <provided>, mas o esperado é <expected>
INVALID_RESOURCE_NAME_METASTORE_ID
O nome do recurso fornecido faz referência a um metastore que não está no escopo da solicitação atual
INVALID_SECURABLE_NAME
<rpcName> nome inválido <securableType> : '<securableFullName>'
LOCATION_OVERLAP
O URL do caminho de entrada '<path>' se sobrepõe a <overlappingLocation> dentro da chamada '<caller>'.
<conflictingSummary>. <permissionErrorSuggestion>
LOCATION_OVERLAP_STORAGE_CONFLICT_WITH_WORKSPACE_STORAGE
O local de armazenamento definido pelo cliente entra em conflito com o armazenamento padrão do workspace '<path>' durante a operação '<caller>'. Isso impede que os recursos que dependem do armazenamento do workspace funcionem. Resumo do conflito: <conflictingSummary>. Consulte https://docs.databricks.com/aws/en/data-governance/unity-catalog/storage-conflicts as etapas de correção.
MANAGED_TABLE_FORMAT
Somente o Delta tem suporte para tabelas gerenciadas. O formato de fonte de dados fornecido é <datasourceFormat>.
MONGO_DB_SRV_CONNECTION_STRING_DOES_NOT_ALLOW_PORT
A criação ou atualização de uma conexão do MongoDB não é permitida porque a cadeia de conexão SRV do MongoDB não requer porta.
Remova a porta, pois a cadeia de conexão SRV não requer porta.
PRINCIPAL_NÃO_EXISTE
Não foi possível localizar o principal com o nome <principalName>.
SUPORTE A PRIVILÉGIOS NÃO HABILITADO
O suporte a privilégios não está habilitado para o tipo [<typeString>]
PRIVILEGE_NOT_APPLICABLE_TO_ENTITY
O privilégio <privilege> não é aplicável a essa entidade [<classifier>]. Se isso parecer inesperado, verifique a versão de privilégio do metastore em uso [<privilegeVersion>].
CATÁLOGO_SOMENTE_LEITURA
Os dados dentro de um Catálogo de Compartilhamento Delta são somente leitura e não podem ser criados, modificados ou excluídos. O catálogo '<catalogName>' é um Delta Sharing Catalog.
REDSHIFT_FOREIGN_CATALOG_STORAGE_ROOT_MUST_BE_S3
A raiz de armazenamento do catálogo estrangeiro do Redshift deve ser AWS S3.
SCHEMA_NOT_EMPTY
O esquema '<fullName>' não está vazio. <extraInfo>
SECURABLE_KIND_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION
O protegível com tipo <securableKind> não dá suporte à Federação Lakehouse.
SECURABLE_KIND_NOT_ENABLED
O tipo protegível '<securableKind>' não está habilitado. Se este for um tipo protegido associado a um recurso de visualização, habilite-o nas configurações do espaço de trabalho.
SECURABLE_TYPE_DOES_NOT_SUPPORT_LAKEHOUSE_FEDERATION
O Protegível com tipo <securableType> não dá suporte à Federação Lakehouse.
SOURCE_TABLE_COLUMN_COUNT_EXCEEDS_LIMIT
A tabela de origem tem mais do que <columnCount> colunas. Reduza o número de colunas para <columnLimitation> ou menos.
SYSTEM_SERVICE_PRINCIPAL_IS_NOT_REGISTERED (Principal do serviço do sistema não está registrado)
Não foi possível localizar o principal de serviço do sistema registrado com o nome do recurso <servicePrincipalResource>.
TABLE_TYPE_DOES_NOT_SUPPORT_COLUMN_METADATA
O tipo <tableType> de tabela não dá suporte a metadados de coluna.
UC_AAD_CLIENT_SECRET_EXPIRED_FOR_SERVICE_PRINCIPAL
As chaves de segredo do cliente para a entidade de serviço com a ID do aplicativo expiraram <applicationId> . Visite o portal do Azure para criar novas chaves para sua entidade de serviço.
UC_AAD_CLIENT_SECRET_EXPIRED_FOR_STORAGE_CREDENTIAL
As chaves de segredo do cliente para a credencial <storageCredentialName> de armazenamento expiraram. Entre em contato com o proprietário ou o administrador da conta para atualizar a credencial de armazenamento.
UC_AAD_CLIENT_SECRET_INVALID_FOR_SERVICE_PRINCIPAL
A chave secreta do cliente para a entidade de serviço com id <applicationId> do aplicativo não é válida.
UC_AAD_SERVICE_PRINCIPAL_CONFIG_INVALID
A configuração da entidade de serviço não é válida. Verifique a ID do diretório, a ID do aplicativo e o segredo do cliente.
UC_AAD_TOKEN_EXCHANGE_GENERIC_FAILURE
Falha ao obter credenciais: a Credencial <storageCredentialName> de Armazenamento não está configurada corretamente. Entre em contato com o proprietário ou o administrador da conta para atualizar a configuração.
UC_AAD_TOKEN_LIFETIME_TOO_SHORT
O tempo de vida do token do AAD trocado é <lifetime>, cuja configuração está muito curta. Verifique a configuração do Azure AD para garantir que o token de acesso temporário tenha pelo menos uma hora de vida útil. https://learn.microsoft.com/azure/active-directory/develop/active-directory-configurable-token-lifetimes
UC_ABAC_AMBIGUOUS_COLUMN_MATCH
Erro ao avaliar as políticas do ABAC em '<resource>'. Política '<policyName>' falhou com a mensagem: O uso do alias '<alias>' teve <size> correspondências; exatamente uma correspondência é permitida.
UC_ABAC_DEPENDENCY_COMPLEXITY_LIMIT_EXCEEDED
<resourceType> '<ref>' tem muitas <resolverType> dependências abac.
UC_ABAC_DEPENDENCY_DIFFERING_RF_CM
A dependência '<dependency>' é referenciada várias vezes, resultando em diferentes filtros de linhas ABAC ou máscaras de colunas.
UC_ABAC_EVALUATION_USER_ERROR
Erro ao avaliar as políticas do ABAC em '<resource>'. A política '<policyName>' falhou com a mensagem: <message>.
UC_ABAC_INVALID_TAG_POLICY_VALUE
Erro ao avaliar as políticas do ABAC em '<resource>'. Falha com a mensagem: valor de política de tags inválido para a chave <tagValue>.
UC_ABAC_MULTIPLE_ROW_FILTERS
A avaliação das políticas ABAC em '<resource>' resultou em vários filtros de linha. No máximo, um filtro de linha é permitido.
UC_ABAC_UNKNOWN_TAG_POLICY
Erro ao avaliar as políticas do ABAC em '<resource>'. Falha com a mensagem: política de tag desconhecida: <tagKey>.
UC_ABAC_ALIAS_INCOMPATÍVEL_NAS_COLUNAS_USADAS
Erro ao avaliar as políticas do ABAC em '<resource>'. Falha com a mensagem: o alias '<alias>' usado em USING COLUMNS não corresponde a nenhuma coluna.
UC_ABAC_UNMATCHED_ON_COLUMN_ALIAS
Erro ao avaliar as políticas do ABAC em '<resource>'. Política '<policyName>' falhou com a mensagem: o alias '<alias>' usado em ON COLUMN não corresponde a nenhuma coluna.
UC_ABAC_UNMATCHED_USING_ALIAS
Erro ao avaliar as políticas do ABAC em '<resource>'. A política '<policyName>' falhou com a mensagem: O uso do alias '<alias>' não possui uma coluna correspondente.
UC_ABAC_USING_REF_OF_NATIVE_MASKED_COLUMNS
Erro ao avaliar as políticas do ABAC em '<resource>'. Falha com a mensagem: a coluna '<usingCol>' foi mascarada pela política RLS/CM nativa e não pode ser usada como uma entrada para a política ABAC '<policyName>'.
ACESSO_EXIGE_ESPAÇO_DE_TRABALHO
Não é possível acessar o protegível associado ao workspace porque o usuário não está atribuído ao workspace associado.
UC_ALTER_DLT_VIEW_OUTSIDE_DEFINING_PIPELINE
Alterar a exibição '<viewFullName>' fora do pipeline que a definiu não é permitida. Em vez disso, atualize a definição de exibição do pipeline que a definiu (ID do pipeline: <owningPipelineId>).
UC_ATLAS_NOT_ENABLED_FOR_CALLING_SERVICE
O Atlas não está habilitado para o serviço <serviceName>de chamada.
UC_AUTHZ_ACTION_NOT_SUPPORTED
Não há suporte para autorização <actionName> ; verifique se o RPC invocado foi implementado para esse tipo de recurso
UC_AWS_ASSUME_ROLE_FAILED
Falha ao obter credenciais: a função IAM do AWS na credencial do Catálogo do Unity não está configurada corretamente. Entre em contato com o administrador do metastore ou com o proprietário da credencial para atualizar a configuração no AWS.
UC_AWS_EMPTY_STORAGE_LOCATION
Local de armazenamento vazio.
UC_AWS_INVALID_S3_POLICY_PREFIX
Caminho s3 inválido para o local de armazenamento: o caminho <providedPath> S3 não começa com o prefixo esperado: <expectedPrefix>.
UC_AWS_UNSUPPORTED_S3_SCHEME
Caminho s3 inválido para o local de armazenamento: esquema sem suporte encontrado: <providedScheme>. Os esquemas com suporte são: <supportedS3Schemes>.
UC_AZURE_BLOB_SERVICE_UNAVAILABLE
O serviço blob do Azure está temporariamente indisponível. Tente novamente depois.
UC_AZURE_UDK_UNAUTHORIZED
A solicitação da chave de delegação do usuário não está autorizada. Detalhes: <details>
UC_BUILTIN_HMS_CONNECTION_CREATION_PERMISSION_DENIED
Não é possível criar a conexão para um metastore de hive embutido porque o usuário: <userId> não é o administrador do espaço de trabalho: <workspaceId>
UC_BUILTIN_HMS_CONNECTION_MODIFY_RESTRICTED_FIELD
Tente modificar um campo restrito na conexão HMS interna '<connectionName>'. Somente "warehouse_directory" pode ser atualizado.
UC_CANNOT_RENAME_PARTITION_FILTERING_COLUMN
Falha ao renomear a coluna <originalLogicalColumn> da tabela porque ela é usada para filtragem de partição em <sharedTableName>. Para continuar, você pode remover a tabela do compartilhamento, renomear a coluna e compartilhá-la com as colunas de filtragem de partição desejadas novamente. No entanto, isso pode interromper a consulta de streaming do destinatário.
UC_CHILD_CREATION_FORBIDDEN_FOR_NON_UC_CLUSTER
Não é possível criar <securableType> '<securable>' em <parentSecurableType> '<parentSecurable>' porque a solicitação não é de um cluster UC.
UC_CONFLICTING_CONNECTION_ALLOW_LIST_OPTIONS
Não é possível criar uma conexão com uma lista de permissões que se sobreponha a uma opção de conexão. Valor: <conflictingOptions>
UC_CONFLICTING_CONNECTION_OPTIONS
Não é possível criar uma conexão com as opções de autenticação de nome de usuário/senha e oauth. Escolha um.
UC_CONNECTION_CREDENTIALS_MAXIMUM_REACHED
O número máximo de credenciais para o nome da conexão '<connectionName>' foi atingido. Exclua as credenciais existentes antes de criar uma nova.
UC_CONNECTION_CREDENTIALS_NOT_EXIST_FOR_USER_WITH_LOGIN
A credencial para identidade do usuário('<userIdentity>') não foi encontrada para a conexão '<connectionName>'. Faça logon primeiro na conexão visitando <connectionPage>
UC_CONNECTION_CREDENTIALS_TYPE_NOT_SUPPORTED
Não há suporte para a criação de credenciais para o tipo protegível '<securableType>' . Tipos seguráveis com suporte: <allowedSecurableType>.
UC_CONNECTION_EXISTS_FOR_CREDENTIAL
A credencial '<credentialName>' tem uma ou mais conexões dependentes. Você pode usar a opção force para continuar a atualizar ou excluir a credencial, mas as conexões que usam essa credencial podem não funcionar mais.
UC_CONNECTION_EXPIRED_ACCESS_TOKEN
O token de acesso associado à conexão expirou. Atualize a conexão para reiniciar o fluxo OAuth para recuperar um token.
UC_CONNECTION_EXPIRED_REFRESH_TOKEN
O token de atualização associado à conexão expirou. Atualize a conexão para reiniciar o fluxo OAuth para recuperar um token novo.
UC_CONNECTION_IN_FAILED_STATE
A conexão está no estado FAILED. Atualize a conexão com credenciais válidas para reativar.
UC_CONNECTION_MISSING_OPTION
As conexões do tipo protegível '<securableType>' devem incluir as seguintes opções: <requiredOptions>.
UC_CONNECTION_MISSING_REFRESH_TOKEN
Não há nenhum token de atualização associado à conexão. Atualize a integração do cliente OAuth em seu provedor de identidade para retornar tokens de atualização e atualize ou recrie a conexão para reiniciar o fluxo OAuth e recuperar os tokens necessários.
UC_CONNECTION_OAUTH_EXCHANGE_FAILED
A troca de tokens OAuth falhou com o código de status HTTP <httpStatus>. A resposta do servidor retornada ou a mensagem de exceção é: <response>
UC_CONNECTION_OPTION_NOT_SUPPORTED
As conexões do tipo protegível '<securableType>' não dão suporte às seguintes opções: <optionsNotSupported>. Opções com suporte: <allowedOptions>.
UC_COORDINATED_COMMITS_NOT_ENABLED
Os suportes para confirmações coordenadas não estão habilitados. Entre em contato com o suporte do Databricks.
UC_CREATE_FORBIDDEN_UNDER_INACTIVE_SECURABLE
Não é possível criar <securableType> '<securableName>' porque ele está em um <parentSecurableType> '<parentSecurableName>' que não está ativo. Exclua o protegível pai e recrie o pai.
UC_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED
Falha ao analisar a ID do conector de acesso fornecido: <accessConnectorId>. Verifique sua formatação e tente novamente.
UC_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN
Houve falha ao obter um token do AAD para validar permissões de nuvem em um conector de acesso. Tente novamente a ação.
UC_CREDENTIAL_INVALID_CLOUD_PERMISSIONS
SQLSTATE: nenhum estado atribuído
Registrar uma credencial requer a função de colaborador no conector de acesso correspondente com a ID <accessConnectorId>. Entre em contato com o administrador da sua conta.
UC_CREDENTIAL_INVALID_CREDENTIAL_TYPE_FOR_PURPOSE
Não há suporte para o tipo de credencial '<credentialType>' para a finalidade '<credentialPurpose>'
UC_CREDENTIAL_PERMISSION_DENIED
SQLSTATE: nenhum estado atribuído
Somente o administrador da conta pode criar ou atualizar uma credencial com o tipo <storageCredentialType>.
UC_CREDENTIAL_TRUST_POLICY_IS_OPEN
A política de confiança da função IAM para permitir que a Conta do Databricks assuma a função deve exigir um ID externo. Entre em contato com o administrador da conta para adicionar a condição de ID externa. Esse comportamento é para se proteger contra o problema do Deputado Confuso (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html).
UC_CREDENTIAL_WORKSPACE_API_PROHIBITED
Não é suportada a criação ou atualização de uma credencial por um administrador que não seja de conta na API em nível de conta. Em vez disso, use a API no nível do workspace.
UC_DBR_TRUST_VERSION_TOO_OLD
O Databricks Runtime que está sendo usado não dá mais suporte a essa operação. Use a versão mais recente (talvez seja necessário reiniciar o cluster).
UC_DELTA_ILLEGAL_BACKFILLED_VERSION
LatestBackfilledVersion <latestBackfilledVersion> inesperado na confirmação (<version>, <commitType>).
UC_DELTA_ILLEGAL_CONCURRENT_MIGRATION
Não há suporte para atualização simultânea ou downgrade de/para uma tabela gerenciada pelo catálogo. Verifique se apenas uma transação executa o comando de migração de cada vez. Uma duplicata <commitType> foi detectada.
UC_DELTA_ILLEGAL_MIGRATION_STATE_CHANGE
Transição de estado ilegal do tipo <lastCommitType> de confirmação antigo para o novo <commitType>.
UC_DELTA_MIGRATION_STATE_CHANGE_VERSION_MISMATCH
As versões não correspondem à transição de estado de antiga (<lastVersion>, <lastCommitType>) para nova (<version>, <commitType>).
UC_DELTA_UNIVERSAL_FORMAT_CANNOT_PARSE_ICEBERG_VERSION
Não é possível analisar a versão da tabela do Apache Iceberg a partir do local dos metadados <metadataLocation>.
UC_DELTA_UNIVERSAL_FORMAT_CONCURRENT_WRITE
Foi detectada uma atualização simultânea para a mesma versão de metadados do Apache Iceberg.
UC_DELTA_UNIVERSAL_FORMAT_INVALID_METADATA_LOCATION
O local <metadataLocation> de metadados confirmado é inválido. Não é um subdiretório do diretório <tableRoot>raiz da tabela.
UC_DELTA_UNIVERSAL_FORMAT_MISSING_FIELD_CONSTRAINT
As informações de conversão de formato delta do Apache Iceberg fornecidas estão faltando nos campos necessários.
UC_DELTA_UNIVERSAL_FORMAT_NON_CREATE_CONSTRAINT
A definição de informações de formato delta do Apache Iceberg na criação não tem suporte.
UC_DELTA_UNIVERSAL_FORMAT_TOO_LARGE_CONSTRAINT
As informações de conversão de formato delta do Apache Iceberg fornecidas são muito grandes.
UC_DELTA_UNIVERSAL_FORMAT_UPDATE_INVALID
Metadados uniformes só podem ser atualizados em tabelas Delta com o recurso uniform habilitado.
UC_DEPENDENCY_DEPTH_LIMIT_EXCEEDED
<resourceType> A profundidade '<ref>' excede o limite (ou tem uma referência circular).
UC_DEPENDENCY_DOES_NOT_EXIST
<resourceType> '<ref>' é inválido porque um dos recursos subjacentes não existe. <cause>
UC_DEPENDENCY_PERMISSION_DENIED
<resourceType> '<ref>' não tem privilégio suficiente para ser executado porque o proprietário de um dos recursos subjacentes falhou em uma verificação de autorização. <cause>
UC_DUPLICATE_CONNECTION
Já existe uma conexão chamada '<connectionName>' com a mesma URL. Peça ao proprietário permissão para usar essa conexão em vez de criar uma duplicata.
UC_DUPLICATE_FABRIC_CATALOG_CREATION
Tentou criar um catálogo do Fabric com a URL '<storageLocation>' que corresponde a um catálogo existente, o que não é permitido.
UC_DUPLICATE_TAG_ASSIGNMENT_CREATION
Atribuição de etiqueta com chave <tagKey> já existe
UC_ENTITY_DOES_NOT_HAVE_CORRESPONDING_ONLINE_CLUSTER
A entidade <securableType> <entityId> não tem um cluster online correspondente.
UC_ETAG_MISMATCH
O recurso foi modificado. Busque a etag mais recente e tente novamente. Valor de etag esperado: <expectedTokenValue> com a versão do <expectedTokenVersion>protocolo, valor de etag recebido: <providedTokenValue> com a versão do protocolo <providedTokenVersion>
UC_EXCEEDS_MAX_FILE_LIMIT
Há mais do que <maxFileResults> arquivos. Especifique [max_results] para limitar o número de arquivos retornados.
UC_EXTERNAL_HMS_SCHEMA_LOCATION_NOT_FEDERATED
O esquema <schemaName> está no DEGRADED estado de provisionamento, o que é esperado, pois o local do esquema eHMS/Glue não está sendo federado.
UC_EXTERNAL_LOCATION_OP_NOT_ALLOWED
Não é possível <opName> <extLoc> <reason>.
<suggestion>.
UC_FEATURE_DISABLED
<featureName> está atualmente desabilitado na UC.
UC_FOREIGN_CATALOG_FOR_CONNECTION_TYPE_NOT_SUPPORTED
Não há suporte para a criação de um catálogo estrangeiro para o tipo de conexão '<connectionType>'. Esse tipo de conexão só pode ser usado para criar pipelines de ingestão gerenciada. Consulte a documentação do Databricks para obter mais informações.
UC_FOREIGN_CREDENTIAL_CHECK_ONLY_FOR_READ_OPERATIONS
Somente as credenciais de leitura podem ser recuperadas para tabelas estrangeiras.
UC_FOREIGN_ENTITY_CREATION_FORBIDDEN_DURING_CONVERSION
A criação de '<entityName>' no catálogo '<catalogName>' é proibida enquanto o catálogo está sendo convertido em FOREIGNSTANDARD.FOREIGN <securableType>
UC_FOREIGN_HMS_SHALLOW_CLONE_MISMATCH
A tabela base e a tabela de clones devem estar no mesmo catálogo para clones rasos criados em catálogos metastore de Hive estrangeiros. A tabela base '<baseTableName>' está no catálogo '<baseCatalogName>' e a tabela de clone '<cloneTableName>' está no catálogo '<cloneCatalogName>'.
UC_FOREIGN_KEY_CHILD_COLUMN_LENGTH_MISMATCH
Colunas filho <constraintName> de chave estrangeira e colunas pai são de tamanhos diferentes.
UC_FOREIGN_KEY_COLUMN_MISMATCH
As colunas pai da chave estrangeira não correspondem às colunas filho da chave primária referenciadas. As colunas pai da chave estrangeira são (<parentColumns>) e as colunas filho da chave primária são (<primaryKeyChildColumns>).
UC_FOREIGN_KEY_COLUMN_TYPE_MISMATCH
O tipo de coluna filho de chave estrangeira não corresponde ao tipo de coluna pai. A coluna <childColumnName> filho de chave estrangeira tem tipo <childColumnType> e a coluna <parentColumnName> pai tem o tipo <parentColumnType>.
UC_GCP_INVALID_PRIVATE_KEY
Acesso negado. Causa: a chave privada da conta de serviço é inválida.
UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT
A Chave Privada OAuth da Conta do Google Server deve ser um objeto válido JSON com os campos necessários, certifique-se de fornecer o arquivo completo JSON gerado na seção 'KEYS' da página de detalhes da conta de serviço.
UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT_MISSING_FIELDS
A Chave Privada OAuth da Conta do Google Server deve ser um objeto válido JSON com os campos necessários, certifique-se de fornecer o arquivo completo JSON gerado na seção 'KEYS' da página de detalhes da conta de serviço. Os campos ausentes são <missingFields>
UC_IAM_ROLE_NON_SELF_ASSUMING
A função IAM para essa credencial de armazenamento foi considerada de não autopressuposição. Verifique a confiança de sua função e as políticas de IAM para garantir que sua função IAM possa se assumir de acordo com a documentação da credencial de armazenamento do Unity Catalog.
UC_ICEBERG_COMMIT_CONFLICT
Não é possível executar <tableName>: a localização dos metadados em <baseMetadataLocation> foi alterada de <catalogMetadataLocation>.
UC_ICEBERG_COMMIT_INVALID_TABLE
Não é possível executar a confirmação do Apache Iceberg gerenciado em uma tabela não gerenciada do Apache Iceberg: <tableName>.
UC_ICEBERG_COMMIT_MISSING_FIELD_CONSTRAINT
As informações de confirmação do Apache Iceberg gerenciado fornecidas estão com campos obrigatórios ausentes.
UC_ID_MISMATCH
O <type> <name> não tem o ID <wrongId>. Tente executar a operação novamente.
UC_INFORMATION_SCHEMA_PER_METASTORE_DB_RATE_LIMIT_EXCEEDED
Muitas solicitações de esquema de informação para o metastore. Aguarde um momento e tente de novo. Se o problema persistir, considere ajustar a seletividade de suas consultas ou entrar em contato com o suporte para obter assistência.
ACESSO_INVÁLIDO_BRICKSTORE_DEPRECIAÇÃO_TABELA_ONLINE
A tabela online foi descontinuada. Não é mais oferecido suporte para a obtenção de acesso à tabela <securableName> online.
UC_INVALID_ACCESS_BRICKSTORE_PG_CONNECTION
Acesso inválido à instância do banco de dados. <reason>
UC_INVALID_ACCESS_DBFS_ENTITY
Acesso inválido de <securableType> <securableName> no catálogo federado <catalogName>. <reason>
UC_INVALID_AZURE_PATH
Caminho inválido do Azure: <path>
UC_INVALID_CLOUDFLARE_ACCOUNT_ID
ID da conta cloudflare inválida.
UC_INVALID_CREDENTIAL_CLOUD
Credencial do provedor de nuvem inválida '<cloud>'. Provedor de nuvem permitido '<allowedCloud>'.
UC_INVALID_CREDENTIAL_PURPOSE_VALUE
Valor inválido '<value>' para a 'finalidade' da credencial. Valores permitidos '<allowedValues>'.
UC_INVALID_CREDENTIAL_TRANSITION
Não é possível atualizar uma conexão de <startingCredentialType> para <endingCredentialType>. A única transição válida é de uma conexão baseada em nome de usuário/senha para uma conexão baseada em token OAuth.
UC_INVALID_CRON_STRING_FABRIC
Sequência cron inválida. Encontrou: "<cronString>" com exceção de análise: "<message>"
UC_INVALID_DIRECT_ACCESS_MANAGED_TABLE
Tabela gerenciada <tableName> de acesso direto inválida. Verifique se a tabela de origem e a definição do pipeline não estão definidas.
UC_INVALID_EMPTY_STORAGE_LOCATION
Local de armazenamento vazio inesperado para <securableType> "<securableName>" no catálogo "<catalogName>". Para corrigir esse erro, execute DESCRIBE SCHEMA <catalogName>.
<securableName> e atualize esta página.
UC_INVALID_OPTIONS_UPDATE
Opções inválidas fornecidas para atualização. Opções inválidas: <invalidOptions>. Opções permitidas: <allowedOptions>.
UC_INVALID_OPTION_VALUE
Valor inválido '<value>' para '<option>'. Valores permitidos '<allowedValues>'.
UC_INVALID_OPTION_VALUE_EMPTY
'<option>' não pode estar vazio. Insira um valor não vazio.
UC_INVALID_POLICY_CONDITION
Condição inválida na política '<policyName>'. Erro de compilação com a mensagem '<message>'.
UC_INVALID_R2_ACCESS_KEY_ID
ID da chave de acesso R2 inválida.
UC_INVALID_R2_SECRET_ACCESS_KEY
Chave de acesso secreta R2 inválida.
UC_INVALID_UPDATE_ON_SYSTEM_WORKSPACE_ADMIN_GROUP_OWNED_SECURABLE
Não é possível atualizar <securableType> '<securableName>', pois ele pertence a um grupo interno. Entre em contato com o suporte do Databricks para obter detalhes adicionais.
UC_INVALID_WASBS_EXTERNAL_LOCATION_STORAGE_CREDENTIAL
Desde que a Credencial de Armazenamento <storageCredentialName> não esteja associada à Raiz do DBFS, a criação de wasbs Local Externo é proibida.
UC_LOCATION_INVALID_SCHEME
O local de armazenamento tem um esquema de URI inválido: <scheme>.
UC_MALFORMED_OAUTH_SERVER_RESPONSE
A resposta do servidor de token estava sem o campo <missingField>. A resposta do servidor retornado é: <response>
UC_MANAGED_ICEBERG_UNSUPPORTED
Não é possível dar suporte à tabela gerenciada do Apache Iceberg no ponto de extremidade atual.
UC_METASTORE_ASSIGNMENT_STATUS_INVALID
'<metastoreAssignmentStatus>' não pode ser atribuído. Somente MANUALLY_ASSIGNABLE e AUTO_ASSIGNMENT_ENABLED são suportados.
UC_METASTORE_CERTIFICATION_NOT_ENABLED
A certificação Metastore não está habilitada.
UC_METASTORE_HAS_ACTIVE_MANAGED_ONLINE_CATALOGS
SQLSTATE: nenhum estado atribuído
O metastore <metastoreId> tem <numberManagedOnlineCatalogs> catálogos online gerenciados. Exclua-os explicitamente e tente novamente a exclusão do metastore.
UC_METASTORE_QUOTA_EXCEEDED
Essa conta com id <accountId> atingiu o limite de metastores na região <region>.
UC_METASTORE_STORAGE_ROOT_CREDENTIAL_UPDATE_INVALID
A credencial raiz do metastore não pode ser definida ao atualizar o local raiz do metastore. A credencial será obtida do local externo principal do metastore.
UC_METASTORE_STORAGE_ROOT_DELETION_INVALID
A tentativa de exclusão do local raiz do armazenamento do metastore falhou. <reason>
UC_METASTORE_STORAGE_ROOT_READ_ONLY_INVALID
A raiz <securableType> de um metastore não pode ser configurada como somente leitura.
UC_METASTORE_STORAGE_ROOT_UPDATE_INVALID
A raiz de armazenamento do Metastore não pode ser atualizada depois de definida.
UC_MODEL_INVALID_STATE
Não é possível gerar credenciais temporárias '<opName>' para a versão <modelVersion> do modelo com status <modelVersionStatus>. As credenciais '<opName>' só podem ser geradas para versões de modelo com status <validStatus>
UC_NATIVE_USING_REF_OF_ABAC_MASKED_COLUMNS
Erro ao avaliar as políticas do ABAC em '<resource>'. Falha com a mensagem: a coluna '<usingCol>' foi mascarada pela política abac '<policyName>' e não pode ser usada como uma entrada para uma política RLS/CM nativa.
UC_NO_ORG_ID_IN_CONTEXT
Tentou acessar a ID da organização (ou ID do workspace), mas o contexto não tem nenhuma.
UC_ONELAKE_PATH_BAD_DOMAIN
O caminho '<path>' do Azure OneLake deve ter o nome de domínio '<expectedHost>'.
UC_ONELAKE_PATH_BAD_FORMAT
O caminho '<path>' do Azure OneLake deve ser do formato 'abfss://_WORKSPACE_@<host>/'.
UC_ONELAKE_PATH_MISSING_AT
O caminho '' do<path> Azure OneLake não contém '@'.
UC_ONELAKE_PATH_MISSING_WORKSPACE
O caminho '' do<path> Azure OneLake deve conter um nome de workspace.
UC_ONLINE_CATALOG_NOT_MUTABLE
SQLSTATE: nenhum estado atribuído
A solicitação <rpcName> atualiza <fieldName>. Use a guia de computação da loja online para modificar qualquer coisa que não seja comentário, proprietário e isolationMode de um catálogo online.
UC_ONLINE_CATALOG_QUOTA_EXCEEDED
Não é possível criar mais do que <quota> lojas online no metastore e já existem <currentCount>. Talvez você não tenha acesso a lojas online existentes. Entre em contato com o administrador do metastore para obter acesso ou para obter mais instruções.
UC_ONLINE_INDEX_CATALOG_INVALID_CRUD
SQLSTATE: nenhum estado atribuído
os catálogos de índice online devem ser <action> por meio da API /vector-search.
UC_ONLINE_INDEX_CATALOG_NOT_MUTABLE
SQLSTATE: nenhum estado atribuído
A solicitação <rpcName> atualiza <fieldName>. Use a API /vector-search para modificar qualquer coisa que não seja comentário, proprietário e isolationMode de um catálogo de índice online.
UC_ONLINE_INDEX_CATALOG_QUOTA_EXCEEDED
Não é possível criar mais do que <quota> catálogos de índice online no metastore e já existem <currentCount>. Talvez você não tenha acesso a nenhum catálogo de índice online existente. Entre em contato com o administrador do metastore para obter acesso ou para obter mais instruções.
UC_ONLINE_INDEX_INVALID_CRUD
os índices online devem ser <action> por meio da API /vector-search.
UC_ONLINE_STORE_INVALID_CRUD
SQLSTATE: nenhum estado atribuído
as lojas online devem ser <action> por meio da guia de computação da loja online.
UC_ONLINE_TABLE_COLUMN_NAME_TOO_LONG
O nome <columnName> da coluna da tabela de origem é muito longo. O comprimento máximo é <maxLength> de caracteres.
UC_ONLINE_TABLE_PRIMARY_KEY_COLUMN_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT
A coluna <columnName> não pode ser usada como uma coluna de chave primária da tabela online porque não faz parte da restrição existente PRIMARY KEY da tabela de origem. Para obter detalhes, consulte <docLink>
UC_ONLINE_TABLE_TIMESERIES_KEY_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT
A coluna <columnName> não pode ser usada como uma chave de timeseries da tabela online porque não é uma coluna de timeseries da restrição existente PRIMARY KEY da tabela de origem. Para obter detalhes, consulte <docLink>
UC_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED
Não é possível criar mais do que <quota> tabelas online por tabela de origem.
UC_ONLINE_VIEW_ACCESS_DENIED
Acessar o recurso <resourceName> requer o uso de um sql warehouse sem servidor. Verifique se o warehouse que está sendo usado para executar uma consulta ou exibir um catálogo de banco de dados na interface do usuário está sem servidor. Para obter detalhes, consulte <docLink>
UC_ONLINE_VIEW_CONTINUOUS_QUOTA_EXCEEDED
Não é possível criar mais do que <quota> exibições online contínuas na loja online e já existem <currentCount>. Talvez você não tenha acesso a visualizações online existentes. Entre em contato com o administrador da loja online para obter acesso ou para obter mais instruções.
UC_ONLINE_VIEW_DOES_NOT_SUPPORT_DMK
SQLSTATE: nenhum estado atribuído
<tableKind> não pode ser criado no local de armazenamento com as Chaves Gerenciadas do Databricks. Escolha um esquema/catálogo diferente em um local de armazenamento sem criptografia de Chaves Gerenciadas do Databricks.
UC_ONLINE_VIEW_INVALID_CATALOG
Catálogo <catalogName> inválido com tipo <catalogKind> para criar <tableKind> dentro.
<tableKind> só pode ser criado em catálogos de tipos: <validCatalogKinds>.
UC_ONLINE_VIEW_INVALID_SCHEMA
Esquema <schemaName> inválido com tipo <schemaKind> para criar <tableKind> dentro.
<tableKind> só pode ser criado em esquemas de tipos: <validSchemaKinds>.
UC_ONLINE_VIEW_INVALID_TTL_TIME_COLUMN_TYPE
A coluna <columnName> do tipo <columnType> não pode ser usada como uma coluna de tempo TTL. Os tipos permitidos são <supportedTypes>.
UC_OPERATION_NOT_SUPPORTED
Operação não suportada pelo Catálogo do Unity. <detailedMessage>
UC_OUT_OF_AUTHORIZED_PATHS_SCOPE
Erro de caminho autorizado. O local <securableType><location> não está definido nos caminhos autorizados para o catálogo: <catalogName>. Peça ao proprietário do catálogo para adicionar o caminho à lista de caminhos autorizados definidos no catálogo.
UC_OVERLAPPED_AUTHORIZED_PATHS
A opção "authorized_paths"contém caminhos sobrepostos: <overlappingPaths>. Certifique-se de que cada caminho seja único e não se cruze com os outros na lista.
UC_PAGINATION_AND_QUERY_ARGS_MISMATCH
O argumento de consulta '<arg>' é definido como '<received>' que é diferente do valor usado na primeira chamada de paginação ('<expected>')
UC_PATH_FILTER_ALLOWLIST_VIOLATION
A credencial '<credentialName>' é uma credencial padrão do workspace que só tem permissão para acessar dados nos seguintes caminhos: '<allowlist>'. Verifique se qualquer caminho acessado usando essa credencial está em um desses caminhos.
UC_PATH_FILTER_DENYLIST_VIOLATION
A credencial '<credentialName>' é uma credencial padrão do workspace que não pode acessar dados no seguinte caminho restrito: '<targetPath>'.
UC_PATH_TOO_LONG
O caminho de entrada é muito longo. Comprimento máximo permitido: <maxLength>. Comprimento da entrada: <inputLength>. Entrada: <path>...
UC_PER_METASTORE_DATABASE_CONCURRENCY_LIMIT_EXCEEDED
Limite de simultaneidade excedido para metastore <metastoreId>. Tente novamente mais tarde. Se o problema persistir, entre em contato com o suporte. Código de erro #UC-<errorCodeArbitraryFiveLettersUpperCase>
UC_POSTGRESQL_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED
Não é possível criar mais do que <quota> tabelas de banco de dados sincronizadas por tabela de origem.
UC_PRIMARY_KEY_ON_NULLABLE_COLUMN
Não é possível criar a chave primária <constraintName> porque sua(s) coluna(s) filha(s) <childColumnNames> é(são) nula(s). Altere a nulidade da coluna e tente novamente.
UC_REQUEST_LIMIT_EXCEEDED
Sua solicitação foi rejeitada, pois sua organização excedeu o limite de taxa. Tente realizar a solicitação novamente mais tarde.
UC_REQUEST_TIMEOUT
Esta operação demorou muito.
UC_RESOURCE_QUOTA_EXCEEDED
Não é possível criar <amount> <resourceType>(s) em <parentResourceType> <parentResourceId> (contagem estimada: <currentCount>, limite: <quotaLimit>).
UC_ROOT_STORAGE_S3_BUCKET_NAME_CONTAINS_DOT
Não há suporte para o nome do bucket S3 do armazenamento raiz que contém os ponto no Catálogo do Unity: <uri>
UC_SCHEMA_EMPTY_STORAGE_LOCATION
Local de armazenamento vazio inesperado para o esquema '<schemaName>' no catálogo '<catalogName>'. Verifique se o esquema usa um esquema de caminho de <validPathSchemesListStr>.
UC_SERVERLESS_UNTRUSTED_DOMAIN_STORAGE_TOKEN_MINTING
Notebooks sem servidor de Python e Scala são proibidos de recuperar credenciais de armazenamento temporárias do Unity Catalog em workspaces com restrições de rede.
UC_SHALLOW_CLONE_BASE_TABLE_DELETED
Não é possível acessar o clone superficial '<tableFullName>' porque sua tabela base '<baseTableName>' foi excluída.
UC_STORAGE_CREDENTIALS_EXCLUSÃO_DE_LOCALIZAÇÃO_EXTERNA_NEGADA
A credencial de armazenamento '<credentialName>' tem <extTablesCount> tabelas externas diretamente dependentes e <extLocationsCount> locais de armazenamento dependentes. Você pode usar a opção de força para excluí-la, mas os dados de armazenamento gerenciado usando essa credencial não podem mais ser removidos pelo Unity Catalog.
STORAGE_CREDENTIALSUC__COM_ATUALIZAÇÃO_DE_LOCALIZAÇÃO_EXTERNA_NEGADA
A credencial de armazenamento '<credentialName>' tem <extTablesCount> tabelas externas diretamente dependentes e <extLocationsCount> locais de armazenamento dependentes; use a opção "force" para atualizar de qualquer maneira.
UC_STORAGE_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED
Falha ao analisar a ID do conector de acesso fornecido: <accessConnectorId>. Verifique sua formatação e tente novamente.
UC_STORAGE_CREDENTIAL_DBFS_ROOT_CREATION_PERMISSION_DENIED
Não é possível criar uma credencial de armazenamento para raiz DBFS porque o usuário: <userId> não é o administrador do workspace: <workspaceId>
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_DBFS_ENABLED
A credencial de armazenamento raiz do DBFS ainda não tem suporte para workspaces com DBFS habilitado para Firewall
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_NOT_SUPPORTED
A credencial de armazenamento raiz do DBFS para o workspace atual ainda não tem suporte
UC_STORAGE_CREDENTIAL_DBFS_ROOT_WORKSPACE_DISABLED
A raiz DBFS não está habilitada para workspace <workspaceId>
UC_STORAGE_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN
Houve falha ao obter um token do AAD para validar permissões de nuvem em um conector de acesso. Tente novamente a ação.
UC_STORAGE_CREDENTIAL_INVALID_CLOUD_PERMISSIONS
Registrar uma credencial de armazenamento requer a função de colaborador no conector de acesso correspondente com a ID <accessConnectorId>. Entre em contato com o administrador da sua conta.
UC_STORAGE_CREDENTIAL_METASTORE_ROOT_DELETION_DENIED
A credencial de armazenamento '<credentialName>' não pode ser excluída porque está configurada como a credencial raiz desse metastore. Atualize a credencial raiz do metastore antes de tentar a exclusão.
UC_STORAGE_CREDENTIAL_PERMISSION_DENIED
Somente o administrador da conta pode criar ou atualizar uma credencial de armazenamento com o tipo <storageCredentialType>.
UC_STORAGE_CREDENTIAL_SERVICE_PRINCIPAL_MISSING_VALIDATION_TOKEN
Token de validação ausente para a entidade de serviço. Forneça um token do Entra ID com escopo ARM válido no cabeçalho de solicitação "X-Databricks-Azure-SP-Management-Token" e tente novamente. Para obter detalhes, verifique https://docs.databricks.com/api/workspace/storagecredentials
UC_STORAGE_CREDENTIAL_TRUST_POLICY_IS_OPEN
A política de confiança da função IAM para permitir que a Conta do Databricks assuma a função deve exigir um ID externo. Entre em contato com o administrador da conta para adicionar a condição de ID externa. Esse comportamento é para se proteger contra o problema do Deputado Confuso (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html).
UC_STORAGE_CREDENTIAL_WASBS_NOT_DBFS_ROOT
O local <location> não está dentro da raiz DBFS, porque não é possível criar uma credencial de armazenamento <storageCredentialName>
UC_STORAGE_CREDENTIAL_WORKSPACE_API_PROHIBITED
Não é suportada a criação ou atualização de uma credencial de armazenamento por um não administrador de conta na API ao nível da conta. Em vez disso, use a API no nível do workspace.
UC_STORAGE_CREDENTIAL_WS_BUCKET_INVALID_LOCATION
O local <requestedLocation> não está dentro do contexto permitido <allowedLocation>
UC_STORAGE_CREDENTIAL_WS_INTERNAL_CATALOG_NOT_SUPPORTED
Ainda não há suporte para a credencial de armazenamento do catálogo interno no espaço de trabalho atual.
UC_SYSTEM_SCHEMA_NOT_AVAILABLE_FOR_ENABLEMENT
No momento, o esquema <systemSchema> do sistema não está disponível para habilitação. Tente novamente mais tarde.
UC_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED
Não é possível conceder privilégios ao <securableType> grupo <principal>gerado pelo sistema.
UC_TABLE_IS_LOCKED_FOR_CATALOG_MANAGED_TABLE_MIGRATION
A tabela '<tableId>' está temporariamente bloqueada para uma migração de tabela gerenciada pelo catálogo. As transações nesta tabela são bloqueadas até que a migração seja concluída. Repita sua transação em breve.
UC_TABLE_IS_NOT_CATALOG_OWNED
A solicitação para executar commit/getCommits para a tabela '<tableId>' requer habilitar o recurso pertencente ao Catálogo na tabela.
UC_TAG_ASSIGNMENT_WITH_KEY_DOES_NOT_EXIST
Atribuição de marca com chave de marca <tagKey> não existe
UC_TEMPORARY_CREDENTIAL_OPERATION_NOT_SUPPORTED
Não há suporte para a operação de credencial temporária.
UC_UNDROP_RESOURCE_ID_ALREADY_EXISTS
Não é possível cancelar a remoção de '<resourceType>' porque já existe um '<resourceType>' com a ID '<resourceId>'.
UC_UNDROP_RESOURCE_NAME_ALREADY_EXISTS
Não é possível desconstalar '<resourceType>' porque já existe um '<resourceType>' com o nome '<resourceName>'.
UC_UNDROP_RESOURCE_NOT_READY
Não é possível reverter '<resourceType>' porque o '<resourceType>' com o ID '<resourceId>' não está pronto para ser restaurado, tente novamente mais tarde.
UC_UNDROP_RESOURCE_PAST_CUSTOM_RETENTION_PERIOD
Não é possível restaurar '<resourceType>' porque o '<resourceType>' com o ID '<resourceId>' excedeu seu período de restauração personalizado.
UC_UNDROP_RESOURCE_PAST_RECOVERABLE_WINDOW
Não é possível restaurar '<resourceType>' porque a '<resourceType>' com ID '<resourceId>' está além do período de restauração suportado de '<maxRestorationPeriodDay>' dias.
UC_UNIQUE_CONSTRAINT_CHILD_COLUMNS_ALREADY_EXIST
Falha ao criar a restrição UNIQUE<newConstraintName>: a tabela <tableName> já tem a restrição UNIQUE: <existingConstraintName>, que tem o mesmo conjunto de colunas filhas.
UC_RESTRIÇÃO_ÚNICA_NÃO_SUPORTADA
Falha em operar com a restrição UNIQUE<constraintName>: a restrição UNIQUE não está habilitada.
UC_UNSUPPORTED_HTTP_CONNECTION_BASE_PATH
Caminho base inválido fornecido, o caminho base deve ser algo como /api/resources/v1. Caminho sem suporte: <path>
UC_UNSUPPORTED_HTTP_CONNECTION_HOST
Nome de host inválido fornecido, o nome do host deve ser algo comohttps://www.databricks.com sem sufixo de caminho. Host sem suporte: <host>
UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH
Somente caracteres Latinos/Latinos-1 básicos ASCII têm suporte em caminhos de localização/volume/tabela externos. Caminho sem suporte: <path>
UC_UPDATE_FORBIDDEN_FOR_PROVISIONING_SECURABLE
Não é possível atualizar <securableType> '<securableName>' porque ele está sendo provisionado.
UC_USING_REF_OF_MASKED_COLUMNS
Erro ao avaliar as políticas do ABAC em '<resource>'. Falha com a mensagem: a coluna '<usingCol>' foi mascarada pela política abac '<existingMaskingPolicy>' e não pode ser usada na política '<policyName>'.
UC_WRITE_CONFLICT
O <type> <name> foi modificado por outra solicitação. Tente executar a operação novamente.
UNDROP_TABLE_NOT_FOUND
Não é possível desconstalar a tabela porque nenhuma tabela com nome <tableFullName> se qualifica para desacompossar. Essa tabela pode já estar sem escuta, excluída além do período máximo de restauração ou nunca existir.
UNITY_CATALOG_EXTERNAL_COORDINATED_COMMITS_REQUEST_DENIED
A solicitação para executar commit/getCommits para a tabela '<tableId>' de fora do ambiente de computação habilitado pelo Databricks Unity Catalog é negada por motivos de segurança. Entre em contato com o suporte do Databricks para integrações com o Catálogo do Unity.
UNITY_CATALOG_EXTERNAL_CREATE_STAGING_TABLE_REQUEST_DENIED
A solicitação para criar a tabela de preparo "<tableFullName>" de fora do ambiente de computação habilitado para Unity Catalog do Databricks é negada para segurança. Entre em contato com o suporte do Databricks para integrações com o Catálogo do Unity.
COLUMN_MASKSUNITY_CATALOG_EXTERNAL_CREATE_TABLE_FAILED_VALIDATION__DEFINED
A solicitação para criar a tabela '<tableFullName>' de fora do ambiente de computação habilitado para o Catálogo Unity do Databricks é negada. Não há suporte para máscaras de coluna ao criar tabelas externamente.
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_FALHA_NA_VALIDAÇÃO_FORMATO_FONTE_DE_DADOS_NÃO_É_DELTA
A solicitação para criar a tabela '<tableFullName>' de fora do ambiente de computação habilitado para o Catálogo Unity do Databricks é negada. O formato da fonte de dados deve ser DELTA para criar a tabela externamente, em vez disso, é '<dataSourceFormat>'.
ERRO_UNITY_CATALOGO_EXTERNO_CRIACAO_TABELA_FALHA_VALIDACAO_TIPO_TABELA_NAO_EXTERNA
A solicitação para criar a tabela '<tableFullName>' de fora do ambiente de computação habilitado para o Catálogo Unity do Databricks é negada. O tipo de tabela deve ser EXTERNAL para criar a tabela externamente, em vez disso, é '<tableType>'.
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_INFO_CONTAINS_INVALID_FIELDS
A criação de tabela externa só permite esses campos: [nome, catalog_name, schema_name, table_type, data_source_format, colunas, storage_location e propriedades].
UNITY_CATALOG_EXTERNAL_CREATE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED
A solicitação para criar a tabela não externa "<tableFullName>" de fora do ambiente de computação habilitado para Unity Catalog do Databricks é negada para segurança. Entre em contato com o suporte do Databricks para integrações com o Catálogo do Unity.
UNITY_CATALOG_EXTERNAL_DELETE_TABLE_REQUEST_FOR_NON_EXTERNAL_TABLE_DENIED
Não é possível solicitar a exclusão de uma tabela não externa '<tableFullName>' fora de um ambiente de computação habilitado para o Unity Catalog do Databricks.
UNITY_CATALOG_EXTERNAL_GENERATE_PATH_CREDENTIALS_DENIED
A solicitação para gerar a credencial de acesso para o caminho '<path>' foi negada por motivos de segurança, pois veio de fora do ambiente de computação com Unity Catalog do Databricks habilitado. Entre em contato com o suporte do Databricks para integrações com o Catálogo do Unity.
UNITY_CATALOG_EXTERNAL_GENERATE_TABLE_CREDENTIALS_DENIED
A solicitação para gerar a credencial de acesso para a tabela '<tableId>' fora do ambiente de computação habilitado pelo Catálogo Unity do Databricks foi negada por motivos de segurança. Entre em contato com o suporte do Databricks para integrações com o Catálogo do Unity.
UNITY_CATALOG_EXTERNAL_GENERATE_TEMP_PATH_CRED_FAILED_VALIDATION_CREDENTIAL_ID_DEFINED
A solicitação para gerar uma credencial temporária de caminho fora do ambiente de computação habilitado para o Catálogo Unity do Databricks é negada. A ID da credencial não deve ser definida ao gerar credenciais de caminho temporário externamente.
UNITY_CATALOG_EXTERNAL_GENERATE_TEMP_PATH_CRED_FAILED_VALIDATION_MAKE_PATH_ONLY_PARENT_DEFINED
A solicitação para gerar uma credencial temporária de caminho fora do ambiente de computação habilitado para o Catálogo Unity do Databricks é negada. make_path_only_parent não deve ser definido ao gerar credenciais de caminho temporário externamente.
UNITY_CATALOG_EXTERNAL_GENERATE_VOLUME_CREDENTIALS_DENIED
A solicitação para gerar a credencial de acesso para o volume '<volumeId>' de fora do ambiente de computação habilitado para Catálogo do Databricks Unity é negada para segurança. Entre em contato com o suporte do Databricks para integrações com o Catálogo do Unity.
UNITY_CATALOG_EXTERNAL_GENERATE_VOLUME_CREDENTIALS_FOR_SECURABLE_KIND_NOT_SUPPORTED
A solicitação para gerar a credencial de acesso para '<volumeSecurableKind>' de fora do ambiente de computação habilitado para o Catálogo do Databricks Unity é negada para segurança. Entre em contato com o suporte do Databricks para integrações com o Catálogo do Unity.
UNITY_CATALOG_EXTERNAL_GET_FOREIGN_CREDENTIALS_DENIED
A solicitação para obter credenciais estrangeiras para protegíveis de fora do ambiente de computação habilitado para o Catálogo do Databricks Unity é negada para segurança.
UNITY_CATALOG_EXTERNAL_UPDATA_METADATA_SNAPSHOT_DENIED
A solicitação para atualizar capturas de metadados de fora do ambiente de computação habilitado para o Catálogo Unity do Databricks é negada por razões de segurança.
UNSUPPORTED_LOCATION_SCHEME (Esquema de localização não suportado)
<fieldName> tem um esquema <scheme>de URI inválido. Os esquemas de URI válidos incluem <validSchemes>. Caminho inválido: <path>.
ATUALIZAR_TABELA_SISTEMA
A tabela de propriedade do sistema não pode ser modificada. A tabela '<tableName>' é uma tabela de propriedade do sistema.
WRITE_CREDENTIALS_NOT_SUPPORTED_FOR_LEGACY_MANAGED_ONLINE_TABLE
Solicitação inválida para obter credenciais de gravação para uma tabela online gerenciada em um catálogo online.
API de arquivos
FILES_API_API_IS_NOT_ENABLED
SQLSTATE: nenhum estado atribuído
<api_name> A API não está habilitada
FILES_API_API_IS_NOT_ENABLED_FOR_CLOUD_PATHS
SQLSTATE: nenhum estado atribuído
Não há suporte para o método solicitado da API de Arquivos para caminhos de nuvem
FILES_API_AWS_ACCESS_DENIED
SQLSTATE: nenhum estado atribuído
O acesso ao bucket de armazenamento é negado pela AWS.
FILES_API_AWS_ALL_ACCESS_DISABLED
SQLSTATE: nenhum estado atribuído
Todo o acesso ao bucket de armazenamento foi desabilitado na AWS.
FILES_API_AWS_BUCKET_DOES_NOT_EXIST
SQLSTATE: nenhum estado atribuído
O bucket de armazenamento não existe no AWS.
FILES_API_AWS_FORBIDDEN
SQLSTATE: nenhum estado atribuído
O acesso ao bucket de armazenamento é proibido pela AWS.
FILES_API_AWS_INVALID_AUTHORIZATION_HEADER
SQLSTATE: nenhum estado atribuído
O workspace está configurado incorretamente: ele deve estar na mesma região que o bucket de armazenamento raiz do workspace do AWS.
FILES_API_AWS_INVALID_BUCKET_NAME
SQLSTATE: nenhum estado atribuído
O nome do bucket de armazenamento é inválido.
FILES_API_AWS_KMS_KEY_DISABLED
SQLSTATE: nenhum estado atribuído
As chaves KMS configuradas para acessar o bucket de armazenamento estão desabilitadas na AWS.
FILES_API_AWS_UNAUTHORIZED
SQLSTATE: nenhum estado atribuído
O acesso ao recurso do AWS não é autorizado.
FILES_API_AZURE_ACCOUNT_IS_DISABLED
SQLSTATE: nenhum estado atribuído
A conta de armazenamento está desabilitada no Azure.
FILES_API_AZURE_AUTHORIZATION_PERMISSION_MISMATCH
SQLSTATE: nenhum estado atribuído
Erro de incompatibilidade de permissão de autorização.
FILES_API_AZURE_CMK_NOT_FOUND
SQLSTATE: nenhum estado atribuído
A chave de criptografia gerenciada não pode ser encontrada.
FILES_API_AZURE_CMK_SOFT_DELETED
SQLSTATE: nenhum estado atribuído
A chave de criptografia gerenciada foi excluída suavemente.
FILES_API_AZURE_CONTAINER_DOES_NOT_EXIST
SQLSTATE: nenhum estado atribuído
O contêiner do Azure não existe.
FILES_API_AZURE_CREDENTIAL_NOT_FOUND
SQLSTATE: nenhum estado atribuído
Credencial do Azure não encontrada. A credencial do Azure pode estar ausente ou inacessível.
FILES_API_AZURE_FORBIDDEN
SQLSTATE: nenhum estado atribuído
O acesso ao contêiner de armazenamento é proibido pelo Azure.
FILES_API_AZURE_HAS_A_LEASE
SQLSTATE: nenhum estado atribuído
O Azure respondeu que atualmente há uma concessão no recurso. Tente novamente depois.
FILES_API_AZURE_INSUFFICIENT_ACCOUNT_PERMISSION
SQLSTATE: nenhum estado atribuído
A conta que está sendo acessada não tem permissões suficientes para executar essa operação.
FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_CONFIGURATION
SQLSTATE: nenhum estado atribuído
Não há suporte para a configuração da conta que está sendo acessada.
FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_NAME
SQLSTATE: nenhum estado atribuído
Não é possível acessar a conta de armazenamento no Azure: nome da conta de armazenamento inválido.
FILES_API_AZURE_KEY_BASED_AUTHENTICATION_NOT_PERMITTED
SQLSTATE: nenhum estado atribuído
O cofre do cofre de chaves não foi encontrado no Azure. Verifique as configurações de chaves gerenciadas pelo cliente.
FILES_API_AZURE_KEY_VAULT_KEY_NOT_FOUND
SQLSTATE: nenhum estado atribuído
A chave do cofre de chaves do Azure não foi encontrada no Azure. Verifique as configurações de chaves gerenciadas pelo cliente.
FILES_API_AZURE_KEY_VAULT_VAULT_NOT_FOUND
SQLSTATE: nenhum estado atribuído
O cofre do cofre de chaves não foi encontrado no Azure. Verifique as configurações de chaves gerenciadas pelo cliente.
FILES_API_AZURE_MI_ACCESS_CONNECTOR_NOT_FOUND
SQLSTATE: nenhum estado atribuído
Credencial de Identidade Gerenciada do Azure com o Conector de Acesso não encontrado. Isso pode ocorrer porque os controles de acesso IP rejeitaram sua solicitação.
FILES_API_AZURE_OPERATION_TIMEOUT
SQLSTATE: nenhum estado atribuído
A operação não pôde ser concluída dentro do tempo permitido ou do número máximo de tentativas possível.
FILES_API_AZURE_PATH_INVALID
SQLSTATE: nenhum estado atribuído
O caminho solicitado não é válido para o Azure.
FILES_API_AZURE_PATH_IS_IMMUTABLE
SQLSTATE: nenhum estado atribuído
O caminho solicitado é imutável.
FILES_API_AZURE_UNSUPPORTED_HEADER
SQLSTATE: nenhum estado atribuído
Não há suporte para um dos cabeçalhos especificados na operação.
FILES_API_CANNOT_PARSE_URL_PARAMETER
SQLSTATE: nenhum estado atribuído
O parâmetro de URL não pode ser analisado.
FILES_API_CATALOG_NOT_FOUND
SQLSTATE: nenhum estado atribuído
<unity_catalog_error_message>
FILES_API_CLOUD_RESOURCE_EXHAUSTED
SQLSTATE: nenhum estado atribuído
<message>
FILES_API_CLOUD_STORAGE_PROVIDER_CONNECTION_ISSUE
SQLSTATE: nenhum estado atribuído
Há um problema de conexão com <cloud_storage_provider>. Tente novamente mais tarde.
FILES_API_COLON_IS_NOT_SUPPORTED_IN_PATH
SQLSTATE: nenhum estado atribuído
O caractere ':' não tem suporte em caminhos
FILES_API_CONSUMER_NETWORK_ZONE_NOT_ALLOWED
SQLSTATE: nenhum estado atribuído
A zona de rede do consumidor "<consumer_network_zone>" não é permitida na zona de rede do solicitante "<requester_network_zone>".
FILES_API_CONTROL_PLANE_NETWORK_ZONE_NOT_ALLOWED
SQLSTATE: nenhum estado atribuído
A zona de rede do plano de controle do Databricks não é permitida.
FILES_API_CREDENTIAL_NOT_FOUND
SQLSTATE: nenhum estado atribuído
A credencial não foi encontrada.
FILES_API_DIRECTORIES_CANNOT_HAVE_BODIES
SQLSTATE: nenhum estado atribuído
Um corpo foi fornecido, mas os diretórios não podem ter um corpo de arquivo
FILES_API_DIRECTORY_IS_NOT_EMPTY
SQLSTATE: nenhum estado atribuído
O diretório não está vazio. Essa operação não tem suporte em diretórios não vazios.
FILES_API_DIRECTORY_IS_NOT_FOUND
SQLSTATE: nenhum estado atribuído
O diretório que está sendo acessado não foi encontrado.
FILES_API_DIRECTORY_ZIP_DOWNLOAD_FILE_LIMIT_EXCEEDED # Limite de arquivos excedido para download de ZIP no diretório da API de arquivos
SQLSTATE: nenhum estado atribuído
O diretório contém muitos arquivos para download zip. Máximo de <max_file_count> arquivos permitidos.
FILES_API_DMK_ENCRYPTION_ROOT_KEY_DISABLED
SQLSTATE: nenhum estado atribuído
A chave raiz da criptografia gerenciada pelo cliente está desabilitada.
FILES_API_DUPLICATED_HEADER
SQLSTATE: nenhum estado atribuído
A solicitação continha várias cópias de um cabeçalho que só são permitidas uma vez.
FILES_API_DUPLICATE_QUERY_PARAMETER
SQLSTATE: nenhum estado atribuído
O parâmetro de consulta '<parameter_name>' deve estar presente exatamente uma vez, mas foi fornecido várias vezes.
FILES_API_EMPTY_BUCKET_NAME
SQLSTATE: nenhum estado atribuído
O nome do bucket DBFS está vazio.
FILES_API_ENCRYPTION_KEY_PERMISSION_DENIED
SQLSTATE: nenhum estado atribuído
O usuário não tem acesso à chave de criptografia.
FILES_API_ENCRYPTION_KEY_RETRIEVAL_OPERATION_TIMEOUT
SQLSTATE: nenhum estado atribuído
A operação para recuperar a chave de criptografia não pôde ser concluída dentro do tempo permitido.
FILES_API_ENTITY_TOO_LARGE
SQLSTATE: nenhum estado atribuído
Seu objeto excede o tamanho máximo permitido do objeto.
FILES_API_ERROR_EXPIRED_TTL
SQLSTATE: nenhum estado atribuído
O TTL expirou.
FILES_API_ERROR_INVALID_TTL
SQLSTATE: nenhum estado atribuído
O TTL é inválido.
FILES_API_ERROR_KEY_FOR_WORKSPACE_IS_NOT_FOUND
SQLSTATE: nenhum estado atribuído
A chave do workspace não foi encontrada.
FILES_API_ERROR_MISSING_REQUIRED_PARAM
SQLSTATE: nenhum estado atribuído
A URL não tem um parâmetro necessário.
FILES_API_ERROR_TTL_IN_THE_FUTURE
SQLSTATE: nenhum estado atribuído
O TTL está no futuro.
FILES_API_ERROR_URL_INVALID_ISSUER_SHARD_NAME
SQLSTATE: nenhum estado atribuído
O nome do fragmento do emissor é inválido.
FILES_API_EXPIRATION_TIME_MUST_BE_PRESENT
SQLSTATE: nenhum estado atribuído
o tempo de expiração deve estar presente
FILES_API_EXPIRED_TOKEN
SQLSTATE: nenhum estado atribuído
O token fornecido expirou.
FILES_API_EXPIRE_TIME_MUST_BE_IN_THE_FUTURE
SQLSTATE: nenhum estado atribuído
ExpireTime deve estar no futuro
FILES_API_EXPIRE_TIME_TOO_FAR_IN_FUTURE
SQLSTATE: nenhum estado atribuído
O TTL solicitado é maior do que o suportado (1 hora)
FILES_API_EXTERNAL_LOCATION_PATH_OVERLAP_OTHER_UC_STORAGE_ENTITY
SQLSTATE: nenhum estado atribuído
<unity_catalog_error_message>
FILES_API_FILE_ALREADY_EXISTS
SQLSTATE: nenhum estado atribuído
O arquivo que está sendo criado já existe.
FILES_API_FILE_NOT_FOUND
SQLSTATE: nenhum estado atribuído
O arquivo que está sendo acessado não foi encontrado.
FILES_API_FILE_OR_DIRECTORY_ENDS_IN_DOT
SQLSTATE: nenhum estado atribuído
Não há suporte para arquivos ou diretórios que terminam no caractere '.'
FILES_API_FILE_SIZE_EXCEEDED
SQLSTATE: nenhum estado atribuído
O tamanho do arquivo não deve exceder <max_download_size_in_bytes> bytes, mas foram encontrados <size_in_bytes> bytes.
FILES_API_GCP_ACCOUNT_IS_DISABLED
SQLSTATE: nenhum estado atribuído
O acesso ao bucket de armazenamento foi desabilitado no GCP.
FILES_API_GCP_BUCKET_DOES_NOT_EXIST
SQLSTATE: nenhum estado atribuído
O bucket de armazenamento não existe no GCP.
FILES_API_GCP_FORBIDDEN
SQLSTATE: nenhum estado atribuído
O acesso ao bucket é proibido pelo GCP.
FILES_API_GCP_IAM_AUTHENTICATION_FAILURE
SQLSTATE: nenhum estado atribuído
Falha na autenticação para a operação de IAM do GCP.
FILES_API_GCP_IAM_CREDENTIALS_NOT_FOUND
SQLSTATE: nenhum estado atribuído
As credenciais GCP especificadas não existem ou não podem ser acessadas.
FILES_API_GCP_IAM_PERMISSION_DENIED
SQLSTATE: nenhum estado atribuído
Permissão negada para a operação de IAM do GCP.
FILES_API_GCP_KEY_DELETED
SQLSTATE: nenhum estado atribuído
A chave de criptografia foi excluída ou não está mais acessível.
FILES_API_GCP_KEY_DISABLED_OR_DESTROYED
SQLSTATE: nenhum estado atribuído
A chave de criptografia gerenciada pelo cliente configurada para esse local está desabilitada ou destruída.
FILES_API_GCP_REQUEST_IS_PROHIBITED_BY_POLICY
SQLSTATE: nenhum estado atribuído
As solicitações GCP para o bucket são proibidas pela política, verifique os controles de serviço do VPC.
Problema de conta do projeto de usuário da API de arquivos GCP
SQLSTATE: nenhum estado atribuído
Há um problema com o projeto GCP usado na solicitação que impede que a operação seja concluída com êxito.
FILES_API_HOST_TEMPORARILY_NOT_AVAILABLE
SQLSTATE: nenhum estado atribuído
O host do provedor de nuvem não está temporariamente disponível; Tente novamente mais tarde.
FILES_API_INVALID_CONTENT_LENGTH
SQLSTATE: nenhum estado atribuído
O valor do cabeçalho de comprimento de conteúdo deve ser um inteiro maior ou igual a 0.
FILES_API_INVALID_CONTINUATION_TOKEN
SQLSTATE: nenhum estado atribuído
O token de página fornecido não é válido.
FILES_API_INVALID_HEADER_VALUE
SQLSTATE: nenhum estado atribuído
O valor do cabeçalho '<header_name>' é inválido.
FILES_API_INVALID_HOSTNAME
SQLSTATE: nenhum estado atribuído
O nome do host é inválido.
FILES_API_INVALID_HTTP_METHOD
SQLSTATE: nenhum estado atribuído
Método http inválido. Esperava '<expected>', mas recebeu '<actual>'.
FILES_API_INVALID_METASTORE_ID_HEADER
SQLSTATE: nenhum estado atribuído
O cabeçalho da ID do metastore é inválido.
FILES_API_INVALID_PAGE_TOKEN
SQLSTATE: nenhum estado atribuído
token de página inválido
FILES_API_INVALID_PATH
SQLSTATE: nenhum estado atribuído
Caminho inválido: <validation_error>
FILES_API_INVALID_RANGE
SQLSTATE: nenhum estado atribuído
O cabeçalho de alcance é inválido.
FILES_API_INVALID_RESOURCE_FULL_NAME
SQLSTATE: nenhum estado atribuído
<unity_catalog_error_message>
FILES_API_INVALID_SESSION_TOKEN
SQLSTATE: nenhum estado atribuído
Token de sessão inválido
FILES_API_INVALID_SESSION_TOKEN_TYPE
SQLSTATE: nenhum estado atribuído
Tipo de token de sessão inválido. Esperava '<expected>', mas recebeu '<actual>'.
FILES_API_INVALID_TIMESTAMP
SQLSTATE: nenhum estado atribuído
O carimbo de data/hora é inválido.
FILES_API_INVALID_UPLOAD_TYPE
SQLSTATE: nenhum estado atribuído
Tipo de upload inválido. Esperava '<expected>', mas recebeu '<actual>'.
FILES_API_INVALID_URL
SQLSTATE: nenhum estado atribuído
URL inválida
FILES_API_INVALID_URL_PARAMETER
SQLSTATE: nenhum estado atribuído
A URL passada como parâmetro é inválida
FILES_API_INVALID_VALUE_FOR_OVERWRITE_QUERY_PARAMETER
SQLSTATE: nenhum estado atribuído
O parâmetro de consulta 'overwrite' deve ser um dos seguintes: true, false, mas foi: <got_values>
FILES_API_INVALID_VALUE_FOR_QUERY_PARAMETER
SQLSTATE: nenhum estado atribuído
O parâmetro de consulta '<parameter_name>' deve ser um dos: <expected> mas foi: <actual>
FILES_API_MALFORMED_REQUEST_BODY
SQLSTATE: nenhum estado atribuído
Corpo de solicitação malformado
FILES_API_MANAGED_CATALOG_FEATURE_DISABLED
SQLSTATE: nenhum estado atribuído
<unity_catalog_error_message>
FILES_API_METASTORE_NOT_FOUND
SQLSTATE: nenhum estado atribuído
<unity_catalog_error_message>
FILES_API_METHOD_IS_NOT_ENABLED_FOR_JOBS_BACKGROUND_COMPUTE_ARTIFACT_STORAGE
SQLSTATE: nenhum estado atribuído
Não há suporte para o método solicitado da API de Arquivos para o Armazenamento de Artefatos de Computação em Segundo Plano de Trabalhos.
FILES_API_MISSING_CONTENT_LENGTH
SQLSTATE: nenhum estado atribuído
O cabeçalho de comprimento de conteúdo é necessário na solicitação.
FILES_API_MISSING_QUERY_PARAMETER
SQLSTATE: nenhum estado atribuído
O parâmetro de consulta '<parameter_name>' é necessário, mas está ausente da solicitação.
FILES_API_MISSING_REQUIRED_PARAMETER_IN_REQUEST
SQLSTATE: nenhum estado atribuído
A solicitação não tem um parâmetro necessário.
FILES_API_MLFLOW_PERMISSION_DENIED
SQLSTATE: nenhum estado atribuído
<mlflow_error_message>
FILES_API_MLFLOW_RESOURCE_EXHAUSTED
SQLSTATE: nenhum estado atribuído
O limite de solicitação foi excedido ao se comunicar com o serviço mlflow.
FILES_API_MODEL_VERSION_IS_NOT_READY
SQLSTATE: nenhum estado atribuído
A versão do modelo ainda não está pronta
FILES_API_MULTIPART_UPLOAD_ABORT_PRESIGNED_URL_NOT_SUPPORTED
SQLSTATE: nenhum estado atribuído
Não há suporte para URLs pré-assinadas para anular uploads multipartes de arquivos armazenados em <cloud_storage_provider>.
FILES_API_MULTIPART_UPLOAD_ABORT_UPLOAD_NOT_SUPPORTED
SQLSTATE: nenhum estado atribuído
Não há suporte para a anulação de uploads de várias partes para arquivos armazenados.<cloud_storage_provider>
FILES_API_MULTIPART_UPLOAD_EMPTY_PART_LIST
SQLSTATE: nenhum estado atribuído
A lista de partes deve ter pelo menos um elemento, mas estava vazia.
FILES_API_MULTIPART_UPLOAD_INVALID_PART
SQLSTATE: nenhum estado atribuído
Não foi possível encontrar uma ou mais das partes especificadas. A parte pode não ter sido carregada ou a tag de entidade especificada pode não corresponder à tag de entidade da parte.
FILES_API_MULTIPART_UPLOAD_INVALID_PART_NUMBER
SQLSTATE: nenhum estado atribuído
Os números de parte devem ser maiores ou iguais a <min> e menores ou iguais a <max>.
FILES_API_MULTIPART_UPLOAD_MISSING_ETAG
SQLSTATE: nenhum estado atribuído
As ETags devem ser fornecidas para arquivos armazenados em <cloud_storage_provider>. Pelo menos uma ETag não foi fornecida ou vazia.
FILES_API_MULTIPART_UPLOAD_MODIFIED_STORAGE_ENTITY_STATE
SQLSTATE: nenhum estado atribuído
O estado interno da entidade de armazenamento foi modificado desde que o upload foi iniciado, por exemplo, porque o caminho do arquivo não aponta para o mesmo local de armazenamento em nuvem subjacente. Prossiga iniciando uma nova sessão de upload.
FILES_API_MULTIPART_UPLOAD_NON_TRAILING_PARTS_WITH_DIFFERENT_SIZES
SQLSTATE: nenhum estado atribuído
As partes carregadas como parte de uma sessão de upload de várias partes devem ter o mesmo tamanho para arquivos armazenados <cloud_storage_provider>, exceto pela última parte que pode ser menor.
FILES_API_MULTIPART_UPLOAD_PART_SIZE_OUT_OF_RANGE
SQLSTATE: nenhum estado atribuído
O tamanho das partes carregadas como parte de uma sessão de upload de várias partes deve ser maior ou igual a <min> e menor que ou igual a <max>.
FILES_API_MULTIPART_UPLOAD_SESSION_NOT_FOUND
SQLSTATE: nenhum estado atribuído
A sessão de upload não foi encontrada. Pode ter sido anulada ou concluída.
FILES_API_MULTIPART_UPLOAD_UNORDERED_PART_LIST
SQLSTATE: nenhum estado atribuído
A lista de partes deve ser ordenada pelo número da parte, mas estava desordenada.
FILES_API_NON_ZERO_CONTENT_LENGTH
SQLSTATE: nenhum estado atribuído
O cabeçalho de comprimento de conteúdo deve ser zero para essa solicitação.
FILES_API_NOT_ENABLED_FOR_PLACE
SQLSTATE: nenhum estado atribuído
A API de arquivos para <place> não está habilitada para este workspace/conta
FILES_API_NOT_SUPPORTED_FOR_INTERNAL_WORKSPACE_STORAGE
SQLSTATE: nenhum estado atribuído
Não há suporte para o método solicitado da API de Arquivos para o Armazenamento Interno do Workspace
FILES_API_OPERATION_MUST_BE_PRESENT
SQLSTATE: nenhum estado atribuído
a operação deve estar presente
FILES_API_OPERATION_TIMEOUT
SQLSTATE: nenhum estado atribuído
A operação atingiu o tempo limite.
FILES_API_PAGE_SIZE_MUST_BE_GREATER_OR_EQUAL_TO_ZERO
SQLSTATE: nenhum estado atribuído
page_size deve ser maior ou igual a 0
ACESSO_BASEADO_NA_API_DE_ARQUIVOS_A_TABELA_COM_FILTRO_NÃO_PERMITIDO
SQLSTATE: nenhum estado atribuído
<unity_catalog_error_message>
FILES_API_PATH_END_WITH_A_SLASH
SQLSTATE: nenhum estado atribuído
Caminhos que terminam no caractere '/' representam diretórios. Essa API não dá suporte a operações em diretórios.
FILES_API_PATH_IS_A_DIRECTORY
SQLSTATE: nenhum estado atribuído
O caminho fornecido aponta para um diretório existente. Essa API não dá suporte a operações em diretórios.
FILES_API_PATH_IS_A_FILE
SQLSTATE: nenhum estado atribuído
O caminho fornecido aponta para um arquivo existente. Essa API não dá suporte a operações em arquivos.
FILES_API_PATH_IS_NOT_A_VALID_UTF8_ENCODED_URL
SQLSTATE: nenhum estado atribuído
o caminho fornecido não era uma URL codificada em UTF-8 válida
FILES_API_PATH_IS_NOT_ENABLED_FOR_DATAPLANE_PROXY
SQLSTATE: nenhum estado atribuído
O caminho fornecido não está habilitado para o proxy do plano de dados
FILES_API_PATH_MUST_BE_PRESENT
SQLSTATE: nenhum estado atribuído
o caminho deve estar presente
FILES_API_PATH_NOT_SUPPORTED
SQLSTATE: nenhum estado atribuído
<rejection_message>
FILES_API_PATH_TOO_LONG
SQLSTATE: nenhum estado atribuído
O caminho do arquivo fornecido é muito longo.
FILES_API_PRECONDITION_FAILED
SQLSTATE: nenhum estado atribuído
A solicitação falhou devido a uma pré-condição.
FILES_API_PRESIGNED_URLS_FOR_MODELS_NOT_SUPPORTED
SQLSTATE: nenhum estado atribuído
Não há suporte para a API de arquivos para URLs pré-atribuídas para modelos no momento
FILES_API_R2_CREDENTIALS_DISABLED
SQLSTATE: nenhum estado atribuído
R2 não tem suporte no momento.
FILES_API_RANGE_NOT_SATISFIABLE
SQLSTATE: nenhum estado atribuído
O intervalo solicitado não é satisfável.
FILES_API_RECURSIVE_LIST_IS_NOT_SUPPORTED
SQLSTATE: nenhum estado atribuído
Não há suporte para listar arquivos recursivamente.
FILES_API_REQUESTER_NETWORK_ZONE_UNKNOWN
SQLSTATE: nenhum estado atribuído
Não é possível inferir a zona de rede do solicitante.
FILES_API_REQUEST_GOT_ROUTED_INCORRECTLY
SQLSTATE: nenhum estado atribuído
A solicitação foi roteada incorretamente
FILES_API_REQUEST_MUST_INCLUDE_ACCOUNT_INFORMATION
SQLSTATE: nenhum estado atribuído
A solicitação deve incluir informações da conta
A SOLICITAÇÃO DA API DE ARQUIVOS DEVE INCLUIR INFORMAÇÕES DO DESTINATÁRIO
SQLSTATE: nenhum estado atribuído
A solicitação deve incluir informações do destinatário.
FILES_API_REQUEST_MUST_INCLUDE_USER_INFORMATION
SQLSTATE: nenhum estado atribuído
A solicitação deve incluir informações do usuário
FILES_API_REQUEST_MUST_INCLUDE_WORKSPACE_INFORMATION
SQLSTATE: nenhum estado atribuído
A solicitação deve incluir informações sobre o espaço de trabalho
FILES_API_RESOURCE_IS_READONLY
SQLSTATE: nenhum estado atribuído
O recurso é somente leitura.
FILES_API_RESOURCE_NOT_FOUND
SQLSTATE: nenhum estado atribuído
<unity_catalog_error_message>
FILES_API_SCHEMA_NOT_FOUND
SQLSTATE: nenhum estado atribuído
<unity_catalog_error_message>
FILES_API_SECURE_URL_CANT_BE_ACCESSED
SQLSTATE: nenhum estado atribuído
A URL não pode ser acessada.
FILES_API_SIGNATURE_VERIFICATION_FAILED
SQLSTATE: nenhum estado atribuído
Falha na verificação de assinatura.
No changes needed. The translation remains as "FILES_API_STORAGE_ACCESS_CONTEXT_INVALID" given its nature as a technical code.
SQLSTATE: nenhum estado atribuído
O contexto de acesso ao armazenamento é inválido.
FILES_API_STORAGE_CONTEXT_IS_NOT_SET
SQLSTATE: nenhum estado atribuído
A configuração de armazenamento para esse workspace não está acessível.
FILES_API_STORAGE_CREDENTIAL_NOT_FOUND
SQLSTATE: nenhum estado atribuído
<unity_catalog_error_message>
FILES_API_TABLE_TYPE_NOT_SUPPORTED
SQLSTATE: nenhum estado atribuído
Não há suporte para a API de Arquivos para <table_type>
FILES_API_UC_AUTHENTICATION_FAILURE
SQLSTATE: nenhum estado atribuído
<unity_catalog_error_message>
FILES_API_UC_IAM_ROLE_NON_SELF_ASSUMING
SQLSTATE: nenhum estado atribuído
<unity_catalog_error_message>
FILES_API_UC_MODEL_INVALID_STATE
SQLSTATE: nenhum estado atribuído
<unity_catalog_error_message>
FILES_API_UC_PERMISSION_DENIED
SQLSTATE: nenhum estado atribuído
<unity_catalog_error_message>
FILES_API_UC_RESOURCE_EXHAUSTED
SQLSTATE: nenhum estado atribuído
<message>
FILES_API_UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH
SQLSTATE: nenhum estado atribuído
<unity_catalog_error_message>
FILES_API_UC_VOLUME_NAME_CHANGED
SQLSTATE: nenhum estado atribuído
<unity_catalog_error_message>
API_DE_ARQUIVOS_NÃO_PODE_RENOVAR_IDENTIDADES_GERENCIADAS_AZURE
SQLSTATE: nenhum estado atribuído
Não é possível renovar a identidade gerenciada do Azure.
FILES_API_UNEXPECTED_ERROR_WHILE_PARSING_URI
SQLSTATE: nenhum estado atribuído
Erro inesperado ao analisar o URI
FILES_API_UNEXPECTED_QUERY_PARAMETERS
SQLSTATE: nenhum estado atribuído
Parâmetros de consulta inesperados: <unexpected_query_parameters>
FILES_API_UNKNOWN_METHOD
SQLSTATE: nenhum estado atribuído
Método desconhecido <method>
FILES_API_UNKNOWN_SERVER_ERROR
SQLSTATE: nenhum estado atribuído
Erro de servidor desconhecido.
FILES_API_UNKNOWN_URL_HOST
SQLSTATE: nenhum estado atribuído
O host de URL é desconhecido.
FILES_API_UNSUPPORTED_AUTHENTICATION_METHOD
SQLSTATE: nenhum estado atribuído
A solicitação não foi autenticada corretamente.
FILES_API_UNSUPPORTED_HTTP_METHOD
SQLSTATE: nenhum estado atribuído
Não há suporte para o httpMethod.
FILES_API_UNSUPPORTED_PARAMETERS_COMBINATION
SQLSTATE: nenhum estado atribuído
Não há suporte para a combinação de parâmetros.
FILES_API_UNSUPPORTED_PATH
SQLSTATE: nenhum estado atribuído
Não há suporte para o caminho fornecido pela API de Arquivos. Verifique se o caminho fornecido não contém sequências de '../' ou './'. Verifique se o caminho fornecido não usa várias barras consecutivas (por exemplo, '///').
FILES_API_UPLOAD_PART_URLS_COUNT_MUST_BE_GREATER_THAN_ZERO
SQLSTATE: nenhum estado atribuído
O parâmetro de entrada 'count' deve ser maior que 0.
FILES_API_URL_GENERATION_DISABLED
SQLSTATE: nenhum estado atribuído
A geração de URL pré-atribuída não está habilitada para <cloud>.
FILES_API_VOLUME_TYPE_NOT_SUPPORTED
SQLSTATE: nenhum estado atribuído
A API de Arquivos não tem suporte para <volume_type>.
FILES_API_WORKSPACE_IS_CANCELED
SQLSTATE: nenhum estado atribuído
O espaço de trabalho foi cancelado.
FILES_API_WORKSPACE_IS_NOT_FOUND
SQLSTATE: nenhum estado atribuído
A configuração de armazenamento para esse workspace não está acessível.
Pipelines Declarativos do Lakeflow Spark
ABAC_POLICY_NOT_SUPPORTED (Políticas ABAC não suportadas)
Não há suporte para políticas ABAC nas tabelas definidas dentro de um pipeline.
Remova as políticas ou entre em contato com o suporte do Databricks.
TERMINAÇÃO_ABNORMAL_DE_DRIVER
O driver no cluster <clusterId> foi encerrado anormalmente devido a <terminationCause>. Verifique os logs de driver para obter mais detalhes.
ACTIVE_UPDATE_EXISTS_FOR_LINKED_PIPELINE
Uma atualização ativa '<updateId>' já existe para o pipeline vinculado '<linkedPipelineId>'.
ACTIVE_UPDATE_EXISTS_FOR_PIPELINE
Uma atualização ativa '<updateId>' já existe para o pipeline '<pipelineId>'.
ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE
ALTER não é permitido em tabelas gerenciadas por um
Para obter mais detalhes, consulte ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE
ALTER_SCHEDULE_SCHEDULE_DOES_NOT_EXIST
Não é possível alterar <type> em uma tabela sem um agendamento ou gatilho existente. Adicione um agendamento ou gatilho à tabela antes de tentar alterá-la.
API_QUOTA_EXCEEDED
Você excedeu a cota de API para a fonte de dados <sourceName>.
Para obter mais detalhes, consulte API_QUOTA_EXCEEDED
APPLY_CHANGES_ERROR
Ocorreu um erro durante a AUTO CDC operação.
Para obter mais detalhes, consulte ERRO_AO_APLICAR_ALTERAÇÕES
APPLY_CHANGES_FROM_SNAPSHOT_ERROR
Ocorreu um erro durante a AUTO CDC FROM SNAPSHOT operação.
Para obter mais detalhes, consulte APPLY_CHANGES_FROM_SNAPSHOT_ERROR
APPLY_CHANGES_FROM_SNAPSHOT_EXPECTATIONS_NOT_SUPPORTED
O conjunto de <datasetName> dados tem expectativas definidas, mas atualmente não há suporte para expectativas para conjuntos de dados usando AUTO CDC FROM SNAPSHOT.
Remova as expectativas para resolver esse erro. Como alternativa, considere usar a seguinte estrutura para aplicar expectativas combinando AUTO CDC e AUTO CDC FROM SNAPSHOT:
Aplique alterações do instantâneo usando o SCD tipo 1 a uma tabela intermediária sem expectativas.
Leia as alterações na tabela intermediária usando
spark.readStream.option("readChangeFeed", "true").table.Aplique alterações da tabela intermediária à tabela de destino final usando
dlt.apply_changesos seguintes parâmetros, além daqueles usados atualmente comdlt.apply_changes_from_snapshot:
Para lidar com as alterações:
apply_as_deletes = "_change_type == 'delete'"Para remover colunas adicionadas pelo CDF:
except_column_list = ["_change_type", "_commit_version", "_commit_timestamp"]
- Inclua o conjunto existente de expectativas na tabela de destino final utilizada para
dlt.apply_changes.
APPLY_CHANGES_PARTIAL_UPDATES_NOT_ENABLED
O recurso COLUMNS TO UPDATE está em versão prévia e não está habilitado para seu workspace. Entre em contato com seu representante do Databricks para saber mais sobre esse recurso e acesse a visualização privada.
CLUSTER_DO_AMBIENTE_NÃO_DISPONÍVEL
A computação de pipeline para <pipelineId> não está disponível. A computação de pipeline pode ter parado ou ainda pode estar sendo iniciada.
Tente novamente mais tarde quando a computação estiver totalmente disponível. Se o problema persistir, entre em contato com o suporte do Databricks.
APPLY_ENVIRONMENT_CLUSTER_NOT_FOUND
A computação de pipeline para <pipelineId> não foi encontrada. Esse processo de computação em pipeline pode nunca ter sido iniciado ou já foi interrompido. Inicie o pipeline
antes de aplicar o ambiente do sistema.
AMBIENTE_APLICAR_NÃO_SUPORTADO
Não há suporte para o ponto de extremidade ApplyEnvironment.
ARCHITECTURE_MIGRATION_FAILURE
Para obter mais detalhes, consulte ARCHITECTURE_MIGRATION_FAILURE
ARCLIGHT_REQUIRES_SERVERLESS
Os pipelines direcionados a catálogos usando o Armazenamento Padrão devem usar processamento sem servidor. Se você não tiver acesso à computação sem servidor, entre em contato com o Databricks para habilitar esse recurso para seu workspace.
AUTO_FULL_REFRESH_DISABLED
A Atualização Completa Automática está desabilitada para a tabela <tableName>.
AUTO_FULL_REFRESH_NOT_ALLOWED
Falha na atualização completa automática para a tabela <tableName> porque <reason>.
AUTO_FULL_REFRESH_THROTTLED
Falha na atualização completa automática. A tabela <tableName> foi atualizada automaticamente em <timestamp> um intervalo mínimo antes da próxima atualização completa automática ser: <minInterval> minutos.
AZURE_ACTIVE_DIRECTORY_AUTHENTICATION_FAILED
Falha na autenticação do Azure Active Directory (AADSTS5000224).
ID de rastreamento: <traceId>, ID de correlação: <correlationId>.
Verifique se o Azure Active Directory está configurado corretamente e acessível. Contate o Suporte da Microsoft se o problema persistir.
AZURE_MANAGED_IDENTITY_CREDENTIAL_NOT_FOUND
A Credencial de Identidade Gerenciada do Azure com a ID <accessConnectorId> do Conector de Acesso não foi encontrada para conta <accountId>.
Verifique se a credencial existe e se está configurada corretamente.
AZURE_STORAGE_HOSTNAME_RESOLUTION_FAILED
Falha ao resolver o nome do host de armazenamento do Azure: <hostname>.
Verifique se o DNS está configurado corretamente e se a conta de armazenamento está acessível na rede.
AZURE_STORAGE_REQUEST_NOT_AUTHORIZED
A solicitação para o armazenamento do Azure não foi autorizada pelo perímetro de segurança de rede.
Verifique se o armazenamento está configurado corretamente e acessível.
BIGQUERY_DATA_CONNECTOR_SOURCE_CATALOG_MISSING
Erro no conector de dados do BigQuery.
O 'catálogo de origem' (ID do projeto GCP) está ausente na especificação de ingestão.
Especifique o catálogo de origem (ID do projeto) em sua especificação de ingestão para resolver esse problema.
CANNOT_ADD_COLUMN_TO_INCLUDE_COLUMNS
Novas colunas (<columnNames>) são adicionadas ao campo include_columns na definição de pipeline para a tabela <qualifiedTableName>. Atualize a tabela para evitar possíveis perdas de dados ou remova essas colunas de include_columns.
CANNOT_ADD_STORAGE_LOCATION
Não é possível adicionar o local de armazenamento a um pipeline existente com catálogo definido se você quiser definir um local de armazenamento para criar um novo pipeline.
Catálogo existente: '<catalog>'.
Local de armazenamento solicitado: <storageLocation>.
CANNOT_COMPOSE_DECORATOR
SQLSTATE: nenhum estado atribuído
O @<decoratorName> decorador não pode ser composto com <otherDecorators>.
CANNOT_EXCLUDE_NON_EXISTENT_COLUMN
A definição de pipeline exclui colunas (<columnNames>) que não existem na tabela <qualifiedTableName> de origem <sourceType>. Remova essas colunas do campo exclude_columns.
CANNOT_FILTER_OUT_REQUIRED_COLUMN
A definição de pipeline não inclui colunas necessárias (<columnNames>) na tabela <qualifiedTableName> de origem <sourceType> para ingestão. Adicione-os a include_columns ou remova-os de exclude_columns.
CANNOT_INCLUDE_NON_EXISTENT_COLUMN
A definição do pipeline inclui colunas (<columnNames>) que não existem ou não são acessíveis na tabela <qualifiedTableName> de origem <sourceType>. Remova essas colunas do campo include_columns.
CANNOT_INGEST_TABLE_WITHOUT_PRIMARY_KEY
A tabela <qualifiedTableName> na origem <sourceType> não tem uma chave primária.
Especifique uma chave primária na configuração do conector para importar a tabela se ela existir.
CANNOT_MODIFY_PIPELINE_OWNER_FOR_UC_PIPELINES
A alteração do proprietário de pipelines não UC ainda não é suportada.
CANNOT_MODIFY_PIPELINE_OWNER_PERMISSION_DENIED
Somente os administradores do workspace podem alterar o proprietário do pipeline.
CANNOT_MODIFY_PIPELINE_OWNER_WHEN_MISSING
O novo proprietário não existe.
CANNOT_MODIFY_PIPELINE_TYPE
pipeline_type não pode ser atualizado.
Tipo de pipeline atual: <currentPipelineType>.
Atualização pipeline_type: <requestedPipelineType>.
CANNOT_MODIFY_STORAGE_LOCATION
Não é possível modificar o local de armazenamento de um pipeline existente.
Local de armazenamento existente: '<existingStorageLocation>'.
Local de armazenamento solicitado: <requestedStorageLocation>.
CANNOT_REMOVE_COLUMN_FROM_EXCLUDE_COLUMNS
As colunas (<columnNames>) são removidas do campo exclude_columns na definição de pipeline da tabela <qualifiedTableName>. Atualize completamente a tabela para evitar possíveis perdas de dados ou adicione essas colunas novamente à lista de exclude_columns.
CANNOT_SET_CATALOG_FOR_HMS_PIPELINE
Não é possível adicionar o catálogo a um pipeline existente com o local de armazenamento definido, se você quiser usar a UC para criar um novo pipeline e definir um catálogo.
Local de armazenamento existente: '<storageLocation>'
Catálogo solicitado: '<catalog>'
CANNOT_SET_LINKED_PIPELINE_ID
Os IDs de pipeline são os mesmos, configurar os IDs de pipeline vinculados causará um deadlock.
CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE
O campo "esquema" especificado nas configurações de pipeline para o pipeline '<pipelineName>' é ilegal. Reason:
Para obter mais detalhes, consulte CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE
NÃO_PODEM_SER_CONFIGURADOS_JUNTOS
SQLSTATE: nenhum estado atribuído
<argList> são mutuamente exclusivos e não podem ser definidos juntos.
CANNOT_SPECIFY_BOTH_INCLUDE_EXCLUDE_COLUMNS
A definição do pipeline especifica tanto as colunas_incluídas quanto as colunas_excluídas para <identifier>. Remova um deles.
CANNOT_UPDATE_CLUSTERING_COLUMNS
Não é possível atualizar colunas de clustering para a tabela <tableName> , pois ela está usando colunas de partição. Uma tabela pode usar colunas de partição ou colunas de agrupamento, mas não ambas.
Para alternar entre clustering liquid e particionamento, realize uma atualização completa desta tabela.
CANNOT_UPDATE_PARTITION_COLUMNS
Não é possível atualizar colunas de partição para a tabela <tableName> de streaming.
Atualmente: <existingPartitionColumns>,
<requestedPartitionColumns> solicitado
Para aplicar essa alteração de partição, dispare uma atualização completa desta tabela e de qualquer outra tabela de streaming que tenha colunas de partição atualizadas.
Como alternativa, reverta essa alteração para continuar usando as colunas de partição existentes.
CANNOT_UPDATE_TABLE_SCHEMA
Falha ao mesclar os esquemas atuais e novos para a tabela <tableName>.
Para continuar com essa alteração de esquema, você pode disparar uma atualização completa desta tabela.
Dependendo do caso de uso e das alterações de esquema, você pode ser capaz de evitar a alteração do esquema. Você pode atualizar suas consultas para que o esquema de saída seja compatível com o esquema existente (por exemplo, convertendo explicitamente colunas no tipo de dados correto).
CANNOT_WRITE_TO_INACTIVE_COLUMNS
<details>
No entanto, as tabelas de destino já têm colunas inativas com esse nome; as colunas estão inativas porque foram excluídas anteriormente das tabelas de origem.
Para continuar com a atualização, execute um FULL REFRESH nas tabelas.
CANNOT_WRITE_TO_INACTIVE_TABLES
As tabelas a seguir no destino são inativas e entram em conflito com as tabelas de origem atuais: <tables>.
Essas tabelas permanecem inativas porque foram deletadas anteriormente da origem ou desselecionadas do conector.
Para continuar com a atualização, altere o nome da tabela de destino ou execute uma FULL REFRESH dessas tabelas ou solte essas tabelas inativas do destino no Gerenciador de Catálogos ou por meio do DROP TABLE comando e repita a atualização.
CANNOT_WRITE_TO_TABLES_PENDING_RESET
As tabelas a seguir no destino não são redefinidas corretamente na atualização completa anterior: <tables>.
Dispare uma atualização completa para recuperar.
CATALOG_MAPPING_NOT_AVAILABLE_IN_UC
O catálogo UC não tem o mapeamento para o catálogo '<sourceCatalog>'.
Verifique se o catálogo está registrado no catálogo da UC.
CATALOG_SCHEMA_MISMATCH_WITH_DESTINATION_PIPELINE
O catálogo <destPipelineCatalog> e o esquema <destPipelineSchema> do pipeline de destino com o ID '<destPipelineId>' não estão compatíveis com o catálogo e o esquema da tabela <tableName>. O pipeline de destino deve ter o mesmo catálogo e esquema que a tabela ou o pipeline de destino deve estar usando o Modo de Publicação Direta.
CATALOG_SPEC_UNSUPPORTED
CatalogSpecs não são compatíveis com os conectores de banco de dados no momento. Remova a especificação do catálogo.
CDC_APPLIER_AUTO_FULL_REFRESH_POLICY_MUST_BE_SAME_FOR_ALL_DESTINATION_TABLES
A Política de Atualização Completa Automática de todas as tabelas de destino conectadas à mesma tabela de origem deve ser a mesma.
Altere a política para as seguintes tabelas de destino conectadas <destinationTables> à origem <sourceTable>.
CDC_APPLIER_COLUMN_UOID_NOT_SUPPORTED
Colunas com UOID <columnNames> da tabela <tableName> não são suportadas em pipelines de ingestão gerenciados pelo CDC.
Verifique se o pipeline de ingestão dá suporte à coluna UOID ou solicite uma atualização completa na tabela.
CDC_APPLIER_FATAL_FAILURE_FROM_GATEWAY
O pipeline do gateway encontrou um erro fatal:
<errorMessage>
Examine a falha de atualização do pipeline aqui: <link>.
CDC_APPLIER_INGESTION_GATEWAY_REMOVED
O pipeline <pipelineId> do gateway de ingestão vinculado ao Pipeline de Ingestão Gerenciada foi removido.
Remova o pipeline de Ingestão Gerenciada e crie pipelines do Gateway de Ingestão e da Ingestão Gerenciada.
CDC_APPLIER_REPLICATED_TABLE_METADATA_NOT_READY
Os metadados de tabela replicados para tabela <tableName> não estão prontos.
O carimbo de data/hora da solicitação de trabalho existente é <existingRequestTs>, mas esperamos <expectedRequestTs> ou posterior.
CDC_APPLIER_REQUIRES_ALL_DESTINATION_TABLES_FULL_REFRESH
Não há suporte para a atualização completa de uma tabela de destino e a atualização normal de outra tabela de destino da mesma origem.
Por favor, atualize completamente as duas tabelas para continuar, se possível.
Tabelas de atualização completa: <fullRefreshTables>
Tabelas de destino para a origem <sourceTable>: <destinationTables>
CDC_APPLIER_SCHEMA_CHANGED_DURING_STREAMING
A versão <dataSchemaVersion> do esquema é diferente da versão <readSchemaVersion>do esquema de leitura.
O Lakeflow Spark Declarative Pipelines tentará novamente a atualização.
CDC_APPLIER_SEQUENCE_BY_COLUMN_NOT_FOUND
A coluna <columnName> da tabela <tableName> especificada em sequenceBy não existe em <columns>.
CDC_APPLIER_SEQUENCE_BY_INVALID_TYPE
A coluna <columnName> da tabela <tableName> especificada em sequenceBy é do tipo <typeName> que não tem suporte.
Os tipos com suporte para colunas sequenceBy são <allowedTypes>.
CDC_APPLIER_SEQUENCE_BY_MULTIPLE_COLUMNS_NOT_SUPPORTED
No máximo, uma coluna pode ser especificada em sequenceBy do pipeline de ingestão gerenciado por CDC.
Colunas especificadas: <columns> para tabela <tableName>.
CDC_INCOMPATIBLE_SCHEMA_CHANGES
Encontramos uma alteração incompatível no esquema (<cause>) da versão de esquema <previousSchemaVersion> para <currentSchemaVersion>.
Portanto, não podemos continuar aplicando alterações para <tableName>. Solicite uma atualização completa da tabela.
Esquema anterior: <previousSchema>
Esquema atual: <currentSchema>
CDC_MULTIPLE_SOURCE_TABLES_MAPPED_TO_SAME_DESTINATION_TABLE
Encontrado várias tabelas de origem: <source_tables> mapeadas para a mesma tabela <destination_table>de destino.
Mapeie-os para um nome de tabela de destino diferente ou para um esquema de destino diferente.
CDC_POTENTIAL_DATA_GAPS
As tabelas a seguir [<needFullRefreshTableList>] não têm uma atualização bem-sucedida há <retention> dias.
Faça uma atualização completa nessas tabelas ou em todo o pipeline.
CDC_SAME_TABLE_FROM_MULTIPLE_SOURCES
Encontrou o mesmo nome da tabela <table> de várias fontes: <sources>.
Divida-os em pipelines diferentes para evitar conflitos.
CDC_SOURCE_VALIDATION_FAILURE
A validação do banco de dados de origem detectou <errorCount> erros. Consulte os relatórios de log de eventos para obter resultados detalhados e etapas de correção.
CDC_TABLE_NOT_FOUND_IN_ALL_TABLES
A tabela <table> não é encontrada no instantâneo de todas as tabelas do banco de dados de origem.
Detalhes da especificação da tabela:
<tableSpec>
CHANGES_HMS_PIPELINE_TO_UC_NOT_ALLOWED
A alteração de um pipeline HMS para um pipeline da UC não é permitida.
CHANGES_UC_PIPELINE_TO_HMS_NOT_ALLOWED
A alteração de um pipeline da UC para um pipeline HMS não é permitida.
CHANGING_CATALOG_NOT_ALLOWED
Não é possível modificar o catálogo de um pipeline existente. Catálogo existente: '<existingCatalog>'. Catálogo solicitado: '<requestedCatalog>'.
CHANGING_TARGET_SCHEMA_NOT_ALLOWED
A alteração do esquema de destino não é permitida. Motivo: <reason>.
CLUSTER_CREATION_BUDGET_POLICY_LIMIT_EXCEEDED
A tentativa de criar um cluster falhou porque a política de orçamento do pipeline excedeu o limite. Use uma política diferente ou entre em contato com o administrador de cobrança.
CLUSTER_CREATION_CLIENT_ERROR
Falha ao criar um cluster de pipeline: <errorMessage>
Esse erro provavelmente ocorre devido a uma configuração incorreta no pipeline.
Verifique a configuração do cluster de pipeline e a política de cluster associada.
CLUSTER_CREATION_CLUSTER_POLICY_LIMIT_EXCEEDED
Falha ao criar um cluster porque o número de clusters em execução por usuário para a política "<clusterPolicy>" excedeu o limite de <clusterLimit>. Use uma política diferente ou entre em contato com seu administrador.
CLUSTER_CREATION_CREDITS_EXHAUSTED
Falha ao criar um cluster porque você esgotou seus créditos disponíveis. Adicione uma forma de pagamento para atualizar sua conta.
CLUSTER_CREATION_RESOURCE_EXHAUSTED
Falha ao criar um cluster porque você excedeu os limites de recursos: <errorMessage>
CLUSTER_CREATION_SECRETS_FETCH_FAILED
Não é possível buscar segredos referenciados na configuração do Spark.
Verifique se os segredos existem e se o proprietário do cluster tem permissões de leitura.
CLUSTER_LAUNCH_CLIENT_ERROR
Falha ao iniciar o cluster de pipeline <clusterId>: <clusterStateMessage>
Esse erro provavelmente ocorre devido a uma configuração incorreta no pipeline.
Verifique a configuração do cluster de pipeline e a política de cluster associada.
CLUSTER_LAUNCH_CLOUD_FAILURE
Falha ao iniciar o cluster de pipeline <clusterId>: <clusterStateMessage>
O erro pode ser transitório, reinicie sua consulta e informe se você ainda estiver experimentando o mesmo problema.
CLUSTER_LAUNCH_RESOURCE_EXHAUSTED
Falha ao iniciar o cluster <clusterId> de pipeline devido ao esgotamento dos limites de recursos: <clusterStateMessage>.
"ESGOTAMENTO_DE_RECURSO_NO_LANÇAMENTO_DO_CLUSTER"
Falha ao iniciar o cluster de pipeline <clusterId>: <clusterStateMessage>
O tipo de instância solicitado não pôde ser fornecido pelo provedor de nuvem.
Verifique sua assinatura do provedor de nuvem ou tente novamente com um tipo de instância diferente.
CLUSTER_SETUP_CLIENT_ERROR
Não foi possível configurar com sucesso o cluster <clusterId> para atualizar o pipeline. Reason:
Para obter mais detalhes, consulte CLUSTER_SETUP_CLIENT_ERROR
CLUSTER_UNREACHABLE
Comunicação perdida com o driver. O cluster <clusterId> não pôde ser acessado por <timeoutSeconds> segundos.
COLUMN_MASK_WITH_NO_COLUMN
Máscara de coluna encontrada para a coluna '<columnName>' que não existe no esquema MV/ST. Se isso for devido a uma alteração no esquema da tabela base,
solte a máscara antiga com ALTER TABLE [table_name] ALTER COLUMN [coluna em que a máscara é aplicada] DROP MASK; ou restaure a coluna.
COLUMN_TO_UPDATE_NOT_FOUND
Coluna <column> especificada em COLUMNS TO UPDATE não encontrada no Dataframe de origem.
CONCURRENT_UPGRADE_FAILED_TO_STOP_PREVIOUS_UPDATE
Iniciou a atualização '<upgradedUpdateId>' para uma atualização, mas não conseguiu interromper a atualização anterior '<oldUpdateId>'.
Esse erro provavelmente é transitório. O pipeline será repetido automaticamente e o problema deverá ser resolvido sozinho.
Relate esse erro ao Databricks se você continuar a ver o mesmo problema.
CREATE_APPEND_ONCE_FLOW_FROM_BATCH_QUERY_NOT_ALLOWED
Não é possível criar um fluxo de adição única a uma tabela de streaming a partir de uma consulta em lote.
Isso impede a ingestão incremental da origem e pode resultar em um comportamento incorreto.
Tabela ofensiva: '<table>'.
Para corrigir isso, use o operador STREAM() ou readStream para declarar a origem como entrada de fluxo contínuo.
Exemplo: SELECT...FROM STREAM(<source table name>) ou spark.readStream.table('<source table name>')
DATASET_DECORATOR_APPLIED_TWICE
SQLSTATE: nenhum estado atribuído
O conjunto de <datasetName> dados já existe. Verifique se a função de consulta só foi marcada como uma exibição ou tabela uma vez.
DATASET_NOT_DEFINED
Falha ao ler o conjunto de dados '<datasetName>'. Esse conjunto de dados não está definido no pipeline.
Se essa tabela for gerenciada por outro processo, não use dlt.read / dlt.readStream para ler a tabela nem adicione a palavra-chave LIVE antes do nome.
DATASET_NOT_FOUND_FOR_EXPECTATIONS
Tentou definir expectativas para um conjunto de dados '<datasetName>' que não existe
DATASET_NOT_REGISTERED_FOR_FLOW
Tentou registrar um fluxo para o conjunto de dados '<datasetName>', mas o conjunto de dados não está registrado.
DBFS_NOT_ENABLED
O DBFS não está habilitado para este workspace; Publique no Catálogo do Unity ou especifique um local de armazenamento diferente para o pipeline.
DBSQL_INCONSISTENT_SCHEDULE_IN_PIPELINE
O pipeline <pipelineId> tem várias tabelas de produção com configurações de agendamento diferentes: [<tableScheduleInfo>]. Todas as tabelas de produção devem ter o mesmo agendamento.
DBSQL_INVALID_CHANNEL_VALUE
Canal inválido especificado com pipelines.channel a propriedade: <channel>. Os valores válidos são: <validChannels>.
DBSQL_INVALID_SCHEDULE_TYPE
Tipo de agenda inválido especificado com a propriedade schedule: <scheduleValue>.
DBSQL_MISSING_SCHEDULE_PROPERTY
Propriedade de agendamento necessária ausente nas propriedades da tabela.
DBSQL_PIPELINE_IS_MISSING
Falta um DBSQL pipeline. Atualize sua visão materializada ou tabela de streaming para criar o DBSQL pipeline.
DBSQL_PIPELINE_SHOULD_NOT_HAVE_MULTIPLE_TABLES
Um pipeline DBSQL deve ter exatamente uma exibição materializada ou uma tabela de streaming, mas foram encontradas <tablesSize> tabelas: <tables>
DELETE_PIPELINE_DISABLED
O pipeline não pode ser excluído no momento.
Entre em contato com o suporte do Databricks para obter assistência na exclusão do pipeline '<pipelineId>' .
DESTINATION_PIPELINE_NOT_FOUND
O pipeline de destino com o ID '<pipelineId>' não pode ser encontrado. Verifique se você está no mesmo workspace que o pipeline, você é o proprietário do pipeline e o pipeline foi executado pelo menos uma vez.
DESTINATION_PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE
O pipeline de destino com o ID '<pipelineId>' não está usando o Modo de Publicação Direta.
DESTINATION_PIPELINE_PERMISSION_DENIED
Você não tem permissão para executar essa operação, não é o proprietário do pipeline de destino com a ID '<pipelineId>'. Somente os proprietários podem alterar o pipeline de uma tabela.
DESTINATION_PIPELINE_TYPE_NOT_WORKSPACE_PIPELINE_TYPE
O pipeline de destino com a ID '<pipelineId>' não é um pipeline de ETL.
DIRECTORY_PATH_REQUIRES_GLOB
O caminho <path> é um diretório. Para incluir todos os arquivos em um diretório, use o padrão glob com sufixo '**', '<path>/**', na configuração do pipeline.
Solicitação não permitida para restauração de pipeline
A solicitação <request> não é permitida para o pipeline '<pipelineId>' no estado RESTORING.
DO_CREATE_OR_EDIT_INVALID_USER_ACTION
Erro ao lidar com a solicitação '<action>'.
DROP_SCHEDULE_SCHEDULE_DOES_NOT_EXIST
Não é possível descartar SCHEDULE em uma tabela sem um agendamento ou gatilho existente.
DUPLICATED_FROM_JSON_SCHEMA_LOCATION
Chave de localização do esquema from_json duplicada: <schemaLocationKey>.
Escolha chaves de localização de esquema exclusivas para cada consulta 'from_json' no pipeline
DUPLICATED_INGESTION_CONFIG_TABLE_SPECS
A configuração do pipeline de ingestão contém tabelas duplicadas. Certifique-se de que cada tabela seja única.
EMPTY_INGESTION_CONFIG_OBJECTS
Os objetos de configuração de ingestão estão vazios.
ENHANCED_AUTOSCALING_REQUIRES_ADVANCED_EDITION
A configuração de "spare_capacity_fraction" de dimensionamento automático aprimorada só tem suporte na edição de produto avançado do Lakeflow Spark Declarative Pipeliness.
Edite as configurações do pipeline para definir "edition": "avançado", a fim de utilizar 'spare_capacity_fraction'.
ENVIRONMENT_PIP_INSTALL_ERROR
Falha ao instalar a dependência do ambiente: '<pipDependency>'. Verifique os logs de stdout do driver no cluster para obter mais detalhes.
EVENT_LOG_PICKER_FEATURE_NOT_SUPPORTED
Não há suporte para a publicação do log de eventos no Catálogo do Unity no modo de publicação herdado. Para habilitar esse recurso, migre o pipeline para o modo de publicação padrão seguindo as etapas no guia https://docs.databricks.com/aws/en/dlt/migrate-to-dpmde migração. Se preferir continuar usando o modo de publicação herdado, remova a configuração "event_log" da especificação do pipeline.
EXPECTATION_VIOLATION
O fluxo '<flowName>' não conseguiu atender à expectativa.
Para obter mais detalhes, consulte EXPECTATION_VIOLATION
EXPLORE_ONLY_CANNOT_BE_SET_WITH_VALIDATE_ONLY
explore_only e validate_only não podem ser definidos como verdadeiros.
EXPLORE_ONLY_IS_NOT_ENABLED
A atualização "explore_only" não está habilitada. Entre em contato com o suporte do Databricks.
FAILED_TO_CREATE_EVENT_LOG
Falha na criação do log de eventos do pipeline (id=<pipelineId>) com o identificador <eventLogIdentifier>. Confira a exceção abaixo para obter mais detalhes.
FAILED_TO_PUBLISH_VIEW_TO_METASTORE
Falha ao publicar exibição <viewName> no metastore porque <reason>.
FAILED_TO_UPDATE_EVENT_LOG
Falha ao atualizar o identificador de log de eventos do pipeline (id=<pipelineId>) para <newEventLogIdentifier>. Confira a exceção abaixo para obter mais detalhes.
FLOW_SCHEMA_CHANGED
O Fluxo <flowName> foi encerrado desde que encontrou uma alteração de esquema durante a execução.
A alteração de esquema é compatível com o esquema de destino existente e a próxima execução do fluxo pode ser retomada com o novo esquema.
FOREACH_BATCH_SINK_ONLY_SUPPORTED_IN_PREVIEW_CHANNEL
No momento, não há suporte para o Coletor ForeachBatch de Pipelines Declarativos do Lakeflow Spark.
A visualização privada do coletor ForeachBatch do Lakeflow Spark Declarative Pipelines requer o PREVIEW canal.
Coletores do Lakeflow Spark Declarative Pipelines: <sinkNames>
GATEWAY_PIPELINE_INIT_SCRIPTS_NOT_ALLOWED
O pipeline do Gateway não permite scripts de inicialização de cluster. Remova-o de <from>.
GATEWAY_PIPELINE_SPARK_CONF_NOT_ALLOWED
O pipeline do Gateway não permite configuração do Spark [<configs>]. Por favor, remova-os de <from>.
GET_ORG_UPDATE_CAPACITY_LIMIT_EXCEEDED
O número de IDs de organização solicitadas excede o limite máximo permitido de <limit>
GOOGLE_ANALYTICS_RAW_DATA_CONNECTOR_SOURCE_CATALOG_MISSING
Ocorreu um erro no conector de dados brutos do Google Analytics.
O 'catálogo de origem' (ID do projeto GCP) está ausente na especificação de ingestão.
Especifique o catálogo de origem (ID do projeto) em sua especificação de ingestão para resolver esse problema.
HMS_NOT_ENABLED
O Metastore do Hive não está habilitado para este workspace; Publique no Catálogo do Unity.
ILLEGAL_COLUMN_TO_UPDATE_DATA_TYPE
O tipo de dados da coluna especificada em COLUMNS TO UPDATE deve ser uma matriz de cadeia de caracteres, mas encontrado <illegalDataType>.
ILLEGAL_ID_PARAM_IN_PIPELINE_SETTINGS
As configurações não devem conter '<fieldName>'.
ILLEGAL_SCHEMA_FIELD_IN_PIPELINE_SPEC
O campo "esquema" especificado nas configurações do pipeline é ilegal. Motivo: <reason>.
INCORRECT_ROOT_PATH_TYPE
O caminho raiz '<rootPath>' deve ser um diretório, no entanto, foi encontrado <objectType>.
INCREMENTAL_REFRESH_UNAVAILABLE_WITH_STRICT_REFRESH_POLICY
O modo de exibição materializado tem uma política de atualização de INCREMENTAL_STRICT , mas não pode ser incrementalizada.
MANUTENÇÃO_DA_INFRAESTRUTURA
O driver no cluster <clusterId> foi encerrado devido à manutenção da infraestrutura.
INGESTION_CONFIG_DUPLICATED_SCHEMA
A configuração do pipeline de ingestão contém esquemas duplicados. Verifique se cada esquema é exclusivo.
INGESTION_GATEWAY_AUTHENTICATION_FAILURE
Falha de autenticação
Para obter mais detalhes, consulte INGESTION_GATEWAY_AUTHENTICATION_FAILURE
INGESTION_GATEWAY_BREAKING_SCHEMA_CHANGE_FAILURE
Uma incompatibilidade de esquema foi detectada entre as tabelas de origem e de destino. Para resolver esse problema, é necessária uma atualização completa da tabela '<entityName>' no pipeline de ingestão.
INGESTION_GATEWAY_CAPTURE_INSTANCE_UNAVAILABLE
A instância de captura para <entityName> a qual não está mais disponível na origem.
Dispare uma atualização completa depois de habilitar CDC ou CT na tabela.
INGESTION_GATEWAY_CDC_LOG_TRUNCATED
O log CDC foi truncado para a tabela '<entityName>', motivo: <errorMessage>.
Isso pode ser causado pela política de retenção de log cdc truncando logs de controle de alterações antes que eles possam ser processados.
A tabela será ignorada no processamento. Para habilitar novamente o processamento, atualize a tabela.
INGESTION_GATEWAY_CDC_NOT_ENABLED
O CDC não está habilitado em <entityType> '<entityName>'. Habilite o CDC e atualize a tabela completa no Pipeline de Ingestão. Mensagem de erro: “<errorMessage>”.
VERSÃO_DO_BANCO_DE_DADOS_DO_PORTAL_DE_INGESTÃO_NÃO_SUPORTADA
Não há suporte para a versão do banco de dados.
Para obter mais detalhes , consulte INGESTION_GATEWAY_DB_VERSION_NOT_SUPPORTED
INGESTION_GATEWAY_DDL_OBJECTS_MISSING
Objetos DDL ausentes em <entityType> '<entityName>'. Execute o script de objetos DDL e atualize completamente a tabela no pipeline de ingestão. Mensagem de erro: “<errorMessage>”.
INGESTION_GATEWAY_HEALTH_CHECKER_VALIDATION_CYCLE_FAILED
Falha no ciclo de validação interna do Verificador de Integridade. Tentará novamente no próximo ciclo, se o problema persistir, registre um tíquete.
Mensagem de erro: <errorMessage>
INGESTION_GATEWAY_MISSING_CONNECTION_REFERENCE
A configuração do gateway de ingestão não tem uma conexão.
Adicione uma referência à conexão do Catálogo do Unity que contém suas credenciais.
Detalhes da definição do pipeline do gateway de ingestão:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_CATALOG
A configuração do gateway de ingestão não tem o catálogo de localização de armazenamento interno.
Adicione o catálogo de locais de armazenamento interno.
Detalhes da definição do pipeline do gateway de ingestão:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_NAME
A configuração do gateway de ingestão não tem o nome do local de armazenamento interno.
Adicione o nome do local de armazenamento interno.
Detalhes da definição do pipeline do gateway de ingestão:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_SCHEMA
A configuração do gateway de ingestão não tem o esquema de local de armazenamento interno.
Adicione o esquema de local de armazenamento interno.
Detalhes da definição do pipeline do gateway de ingestão:
<definition>
INGESTION_GATEWAY_MISSING_TABLE_IN_SOURCE
A tabela '<entityName>' não existe no banco de dados de origem ou foi descartada. Resolva o problema e faça uma atualização completa da tabela no pipeline de ingestão gerenciada. Mensagem de erro: “<errorMessage>”.
INGESTION_GATEWAY_MYSQL_BINLOG_FILE_DELETED
Os arquivos de binlog MySQL necessários foram excluídos no banco de dados de origem. Isso normalmente acontece quando o período de retenção do binlog é muito baixo ou quando a ingestão é reiniciada após a janela de retenção ter passado. Para atenuar, execute uma atualização completa em todas as tabelas e aumente a retenção de binlog na origem.
Mensagem de erro: <errorMessage>
INGESTION_GATEWAY_MYSQL_MISSED_BINLOG_FILES_DETECTED
Erro ao detectar arquivos do MySQL Binlog. Execute uma atualização completa em <entityName>.
Mensagem de erro: <errorMessage>
INGESTION_GATEWAY_ORACLE_ARCHIVE_LOG_FILES_UNAVAILABLE
Os arquivos de log de arquivos oracle necessários para replicação CDC não estão mais disponíveis no banco de dados de origem. Isso pode acontecer quando os logs de arquivo morto excedem o período de retenção ou são excluídos manualmente. Execute uma atualização completa em todas as tabelas de destino mapeadas para o catálogo '<catalogName>'. Se esse problema persistir, considere aumentar o período de retenção de log de arquivos no banco de dados de origem para garantir que os logs permaneçam disponíveis enquanto estão sendo processados.
Mensagem de erro: <errorMessage>
INGESTION_GATEWAY_ORACLE_MISSING_CONFIGURATION
A configuração de conexão do Oracle está incompleta.
Para obter mais detalhes , consulte INGESTION_GATEWAY_ORACLE_MISSING_CONFIGURATION
INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED
Falha ao alterar a publicação de replicação para <entityType> '<entityName>'
Mensagem de erro: <errorMessage>
Para obter mais detalhes, consulte INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED
INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED
Falha ao criar a publicação de replicação para <entityType> '<entityName>'
Mensagem de erro: <errorMessage>
Para obter mais detalhes, consulte INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED
INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED
Falha ao remover a publicação de replicação para <entityType> '<entityName>'
Mensagem de erro: <errorMessage>
Para obter mais detalhes, consulte INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED
INGESTION_GATEWAY_PG_SLOT_CONFIG_IS_INVALIDATED
A configuração do slot de replicação para <entityType> <entityName> não está em um estado íntegro. Para resolver esse problema, dispare uma atualização completa em todas as tabelas de destino mapeadas para o catálogo <catalogName>.
Mensagem de erro: <errorMessage>
INGESTION_GATEWAY_PG_SLOT_CONSUMED_BY_OTHER_PROCESS
Falha ao criar um slot de replicação para <entityType> '<entityName>' devido ao slot de replicação estar sendo usado por outro PID.
Mensagem de erro: <errorMessage>
INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED
Falha ao criar o slot de replicação para <entityType> '<entityName>'
Mensagem de erro: <errorMessage>
Para obter mais detalhes, consulte INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED
INGESTION_GATEWAY_PG_SLOT_DROP_FAILED
Falha ao remover o slot de replicação para <entityType> '<entityName>'
Mensagem de erro: <errorMessage>
Para obter mais detalhes , consulte INGESTION_GATEWAY_PG_SLOT_DROP_FAILED
INGESTION_GATEWAY_PG_SLOT_HAS_BEEN_DELETED
O slot de replicação para <entityType> '<entityName>' foi excluído. Dispare uma atualização completa em todas as tabelas de destino mapeadas para o catálogo '<catalogName>'.
Mensagem de erro: <errorMessage>
INGESTION_GATEWAY_PG_SLOT_IS_INVALIDATED
O slot de replicação para <entityType> '<entityName>' não está em um estado íntegro. Solte o slot e dispare uma atualização completa em todas as tabelas de destino mapeadas para o catálogo '<catalogName>'.
Mensagem de erro: <errorMessage>
INGESTION_GATEWAY_SOURCE_INSUFFICIENT_PERMISSION_FAILURE
O usuário não tem as permissões necessárias para acessar esse objeto ou executar o procedimento armazenado. Verifique se todos os privilégios necessários são concedidos. Consulte a seguinte documentação: https://docs.databricks.com/aws/en/ingestion/lakeflow-connect/sql-server/database-user-requirements.
INGESTION_GATEWAY_SOURCE_SCHEMA_MISSING_ENTITY
Nenhuma tabela está disponível para replicação da origem.
Verifique se as tabelas estão selecionadas e definidas corretamente no pipeline de ingestão de dados
e o usuário tem acesso necessário ao catálogo e ao esquema.
INGESTION_GATEWAY_SQL_SERVER_CT_DISABLED
O Controle de Alterações da tabela <entityName> foi desabilitado na origem.
Dispare uma atualização completa depois de habilitar CDC ou CT na tabela.
TABELA_DO_PORTAL_DE_INGESTÃO_REMOVIDA
A tabela de origem '<entityName>' foi descartada na fonte. Mensagem de erro: <errorMessage>
TABELA_DE_GATEWAY_DE_INGESTÃO_RENOMEADA
A tabela de origem '<entityName>' foi renomeada na origem. Mensagem de erro: <errorMessage>
TABELA_DO_PORTAL_DE_INGESTÃO_PULADA_DEVIDO_A_TIPO_DE_DADO_DE_COLUNA_NÃO_SUPORTADO
A tabela '<entityName>' foi ignorada devido a colunas com tipos de dados não suportados. Resolva o problema e faça uma atualização completa da tabela no pipeline de ingestão gerenciada. Mensagem de erro: “<errorMessage>”.
INGESTION_GATEWAY_UNEXPECTED_COLUMN_UOID
A tabela '<entityName>' foi pulada devido a um UOID inesperado atribuído às colunas. Execute uma atualização completa na tabela para resolver o problema. Erro: <errorMessage>.
INGESTION_GATEWAY_UNEXPECTED_TABLE_UOID
A tabela '<entityName>' foi ignorada devido a um UOID inesperado atribuído a ela. Execute uma atualização completa na tabela para resolver o problema. Erro: <errorMessage>.
INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE
Falha na conexão devido a um nome de host <host> incorreto e/ou porta <port> do banco de dados de origem.
Para obter mais detalhes, consulte INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE
INGESTION_GATEWAY_UNSUPPORTED_CHARS_IN_OBJECT_NAME
Caracteres sem suporte encontrados em objetos para tabela <entityName>, motivo: <errorMessage>. A tabela será ignorada. Contate o suporte para habilitar a ingestão de caracteres especiais.
INGESTION_GATEWAY_UNSUPPORTED_OBJECT_TYPE
O objeto '<entityName>' não tem suporte e foi ignorado. Para resolver, remova esse objeto do pipeline de ingestão. Mensagem de erro: “<errorMessage>”.
INGESTION_GATEWAY_UNTRACEABLE_TABLE_MODIFICATION
Modificação de tabela não rastreável detectada para tabela <entityName>, motivo: <errorMessage>.
Isso pode ser causado por um truncamento de tabela, rotação de log cdc ou outra operação não rastreável.
A tabela será ignorada no processamento. Para habilitar novamente o processamento, atualize a tabela.
INGESTION_GATEWAY_XA_TRANSACTION_NOT_SUPPORTED
Falha ao replicar <entityType> '<entityName>' porque faz parte de uma transação XA.
Mensagem de erro: <errorMessage>
INVALID_APPLY_CHANGES_COMMAND
AUTO CDC o comando é inválido.
<reason>.
INVALID_ARGUMENT_TYPE
SQLSTATE: nenhum estado atribuído
Valor do tipo inválido passado para o parâmetro '<paramName>'. Esperado: <expectedType>
<additionalMsg>.
INVALID_COMPATIBILITY_OPTIONS
As opções de tabela especificadas para tabela <table> são inválidas porque
Para obter mais detalhes, consulte INVALID_COMPATIBILITY_OPTIONS
INVALID_CONFIG_FOR_UC_PIPELINE
Os pipelines de UC não dão suporte à configuração '<configKey>' como '<configValue>'. Remova essa configuração das configurações do pipeline.
INVALID_DECORATOR_USAGE
SQLSTATE: nenhum estado atribuído
O primeiro argumento posicional passado para @<decoratorName> deve ser callable. Adicione @<decoratorName> sem parâmetros à sua função ou passe opções para @<decoratorName> usando argumentos de palavra-chave (por exemplo, <exampleUsage>).
INVALID_DESTINATION_PIPELINE_ID
Pipeline de destino com ID inválido: '<pipelineId>'. As IDs de pipeline devem ser UUIDs válidos.
Verifique se você está usando a ID correta do pipeline, não o nome do pipeline.
INVALID_EVENT_LOG_CONFIGURATION
Foi encontrada uma configuração inválida de log de eventos na especificação do pipeline: <message>
INVALID_NAME_IN_USE_COMMAND
Nome inválido '<name>' no comando <command>. Motivo: <reason>
INVALID_PARAM_FOR_DBSQL_PIPELINE
Você só pode especificar 'pipeline_id' e 'pipeline_type' ao executar 'dry_run' para um DBSQL pipeline.
INVALID_REFRESH_SELECTION
Para obter mais detalhes, consulte INVALID_REFRESH_SELECTION
INVALID_REFRESH_SELECTION_REQUEST_FOR_CONTINUOUS_PIPELINE
Não há suporte para a seleção de atualização para o modo contínuo.
INVALID_REFRESH_SELECTION_REQUEST_WITH_FULL_REFRESH
full_refresh não deve ser definido como true para uma solicitação de seleção de atualização.
INVALID_REWIND_SPECIFICATION
A especificação de retrocesso é inválida
Para obter mais detalhes , consulte INVALID_REWIND_SPECIFICATION
INVALID_ROOT_PATH
Inválido root_path '<rootPath>': apenas caminhos de diretório absolutos têm suporte no momento. Os caminhos de diretório devem começar com '/' e não terminar com '/'.
INVALID_SCHEMA_NAME
Esquema '<schemaName>' inválido especificado na configuração do pipeline. Motivo: <reason>.
INVALID_SNAPSHOT_AND_VERSION_TYPE
SQLSTATE: nenhum estado atribuído
snapshot_and_version para o fluxo com o destino '<target>' retornou um tipo não suportado.
<additionalMsg>.
INVALID_TRIGGER_INTERVAL_FORMAT
A configuração de intervalo de gatilho especificada em <configurationType> é inválida
JIRA_ACESSO_PROIBIDO
O usuário que se conecta não tem acesso. Verifique as permissões do usuário e tente novamente.
PERMISSÃO_DE_ADMINISTRADOR_JIRA_FALTANDO
Erro encontrado ao chamar APIs Jira. Por favor, certifique-se de dar
o usuário que conecta as permissões de administrador do Jira para sua instância do Jira.
JIRA_AUTHORIZATION_FAILED
Falha na autorização ao chamar APIs Jira. Autenticar novamente gentilmente
a conexão UC criada e tente novamente.
JIRA_CONNECTOR_ENTITY_MAPPING_PARSING_FAILED
Ocorreu um erro no conector Jira.
Ocorreu um problema ao tentar analisar o mapeamento de entidade para o tipo de entidade: <entityType>. Verifique se sua entidade faz parte dos tipos com suporte.
Se o erro persistir, registre um tíquete.
JIRA_MISSING_REQUIRED_FIELD
O campo '<fieldName>' necessário está ausente na resposta da API Jira.
JSON Nó: <jsonNode>
JIRA_SITE_MISSING
Não foi possível localizar cloudId correspondente ao domínio <domain>Jira fornecido.
Verifique se o usuário que está se conectando pode acessar este site.
JOB_DETAILS_DO_NOT_MATCH
Se ambos 'update_cause_details.job_details' e 'job_task' forem dados, eles deverão corresponder, mas eles são <details> e <jobTask>
JOB_TASK_DETAILS_MISSING
Se 'cause' for JOB_TASK então 'job_task' ou 'update_cause_details.job_details' deve ser dado.
LEGACY_PIPELINE_CREATION_DISABLED
A criação de pipelines no modo de publicação herdado é desabilitada em espaços de trabalho por padrão. Entre em contato com o suporte do Databricks se uma exceção for necessária.
LIBRARY_FILE_FETCH_PERMISSION_DENIED
Não é possível acessar o arquivo de biblioteca em '<path>'. Verifique se o usuário tem as permissões necessárias para ler este arquivo.
Motivo: <reason>
LIBRARY_FILE_NOT_FOUND
O arquivo '<path>' não foi encontrado ou o usuário do run_as não tem permissões para acessá-lo.
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_CLASSIC
Não há suporte para referenciar conjuntos de dados usando LIVE esquema virtual fora da definição de consulta do conjunto de dados (isto é, @dlt.table anotação).
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_DPM
Não há suporte para fazer referência a conjuntos de dados usando o LIVE esquema <identifier> virtual fora da definição de consulta do conjunto de dados (ou seja, anotação@dlt.table).
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_SPARK_SQL
Referenciar conjuntos de dados usando o esquema virtual LIVE na API spark.sql(...) não deve ser feito fora da definição de consulta do conjunto de dados, isto é, anotação @dlt.table. Ele só pode ser chamado dentro da definição de consulta do conjunto de dados.
MANAGED_INGESTION_PIPELINE_SPEC_VALIDATION_ERROR
Para obter mais detalhes , consulte MANAGED_INGESTION_PIPELINE_SPEC_VALIDATION_ERROR
DATAFRAME DE STREAMING RETORNADA POR VIEW MATERIALIZADA
SQLSTATE: nenhum estado atribuído
A função de consulta para a exibição materializada '<datasetName>' retornou um DataFrame de streaming.
Ele deve retornar um DataFrame que não seja de streaming.
MAX_RETRY_REACHED_BEFORE_ENZYME_RECOMPUTE
Contagem máxima de repetições atingida. Contagem de repetições:<flowRetryCount>. maxFlowFailureRetryCountThreshold:<maxFlowRetryAttempts>. <message>
MESA_PIPELINE_INVALID_DEFINITION_TYPE
Não é permitido iniciar um pipeline <definitionType> a partir da definição de UC.
MESA_PIPELINE_MISMATCH_PIPELINE_TYPES
A definição armazenada e atualizada deve ser do mesmo tipo de pipeline, mas tem <stored> e <updated>.
MESA_PIPELINE_MISSING_DEFINITION
O pipeline não tem uma definição válida no UC, mas uma atualização é solicitada.
MESA_PIPELINE_MISSING_DEFINITION_UNEXPECTED
Definição de pipeline ausente inesperadamente do UC.
METASTORE_OPERATION_TIMED_OUT
As operações envolvidas na atualização das informações do metastore para <tableName> demoraram mais do que <timeout>.
Esse problema pode ser transitório ou pode indicar bugs no cliente metastore configurado. Tente reiniciar o pipeline e relatar esse problema se ele persistir.
META_ADS_PARAMETERS_CHANGED
Ocorreu um erro no conector de meta marketing. Os parâmetros de entrada para a tabela ad_insights foram modificados.
Execute uma atualização completa nas tabelas afetadas.
META_ADS_SOURCE_API_ERROR
Erro na chamada à API de Meta marketing. ID de rastreamento do Facebook para rastrear com o suporte do Meta: <trace_id>.
Se o erro persistir, registre um tíquete.
META_MARKETING_INSIGHTS_LEVEL_INVALID
Ocorreu um erro no conector de meta marketing ao tentar buscar insights para a tabela ad_insights.
O parâmetro <level> de nível fornecido é inválido. Passe um (anúncio, adset, campanha, conta).
META_MARKETING_INSIGHTS_PARAM_BREAKDOWNS_INVALID
Ocorreu um erro no conector de meta marketing ao tentar buscar insights para a tabela ad_insights.
Os parâmetros de detalhamento fornecidos <breakdowns> são inválidos. Verifique a documentação da Meta API para obter uma lista válida de detalhamentos.
Se o erro persistir, registre um tíquete.
META_MARKETING_INSIGHTS_PARAM_TIME_INCREMENT_INVALID
Ocorreu um erro no conector de meta marketing ao tentar buscar insights para a tabela ad_insights.
O parâmetro <timeInc> de incremento de tempo fornecido não pôde ser analisado. Insira um número inteiro válido.
META_MARKETING_INSIGHTS_START_DATE_INVALID
Ocorreu um erro no conector de meta marketing ao tentar buscar insights para a tabela ad_insights.
O parâmetro <startDate> de data de início fornecido não pôde ser analisado. Verifique e modifique-o no formato YYYY-MM-DD correto.
META_MARKETING_INSIGHTS_START_DATE_TOO_OLD
Ocorreu um erro no conector de meta marketing ao tentar buscar insights para a tabela ad_insights.
A data de início fornecida não pode estar além de 37 meses a partir da data atual de sincronização. Verifique e modifique-o nos parâmetros fornecidos.
Se o erro persistir, registre um tíquete.
META_MARKETING_RATE_LIMIT_EXCEEDED
O limite de taxa de Meta API para essa conta de anúncio foi esgotado. Tente novamente a atualização do pipeline após algum tempo. É recomendável ingerir menos número de tabelas em paralelo para evitar atingir os limites novamente.
Se você estiver frequentemente atingindo erros de limite de taxa, considere atualizar para acesso avançado se ainda não tiver feito, de acordo com a documentação do Meta: https://developers.facebook.com/docs/marketing-api/get-started/authorization
META_MARKETING_REQUESTED_DATA_LIMIT_EXCEEDED
A Meta API falhou, pois a quantidade de dados solicitados excede o limite que os Meta servers podem processar.
Tente reduzir o número de campos a serem ingeridos nesta tabela usando a lógica de seleção de coluna. Se o erro persistir, registre um tíquete.
MIGRATION_TO_UNITY_CATALOG
Para obter mais detalhes , consulte MIGRATION_TO_UNITY_CATALOG
PERMISSÃO_DE_CATÁLOGO_OU_ESQUEMA_AUSENTE
O usuário '<userName>' não tem permissões em '<schemaName>'. Detalhes: <reason>
MISSING_CREATE_SCHEMA_PRIVILEGE
O usuário '<userName>' não tem permissão para criar esquema no catálogo <catalogName>
MISSING_CREATE_TABLE_PRIVILEGE
O usuário '<userName>' não tem permissão para criar tabela no esquema <schemaName>
MISSING_RUN_AS_USER
Nenhuma execução como usuário foi especificada para a atualização.
MULTI_QUERY_SNAPSHOT_TARGET_NOT_SUPPORTED
'<tableName>' já contém uma AUTO CDC FROM SNAPSHOT consulta '<flowName>'. Atualmente, essa API dá suporte apenas a um fluxo por destino.
MUTUALLY_EXCLUSIVE_OPTIONS
Opções mutuamente exclusivas <options>. Remova uma destas opções.
NEGATIVE_VALUE
SQLSTATE: nenhum estado atribuído
O valor para <arg_name> deve ser maior ou igual a 0, obteve "<arg_value>".
NON_UC_TABLE_ALREADY_MANAGED_BY_OTHER_PIPELINE
A tabela '<tableName>' já é gerenciada por pipeline <otherPipelineId>.
Se você quiser que a tabela '<tableName>' seja gerenciada por este pipeline -
Remova a tabela do pipeline "
<otherPipelineId>".Inicie uma atualização de atualização completa para este pipeline.
Se você quiser continuar gerenciando a tabela a partir de vários pipelines, desabilite esta verificação definindo pipelines.tableManagedByMultiplePipelinesCheck.enabled como false em suas configurações de pipeline.
Isso não é recomendado, pois operações simultâneas na tabela podem entrar em conflito entre si e levar a resultados inesperados.
NOTEBOOK_NAME_LIMIT_REACHED
Caminho do bloco de anotações inválido: '<nameStart>...<nameEnd>'. Tem mais de <maxNotebookPathLength> caracteres.
NOTEBOOK_NOT_FOUND
Não é possível acessar o notebook '<notebookPath>'. Ela não existe ou a identidade usada para executar esse pipeline <identity>não tem as permissões necessárias.
NOTEBOOK_PIP_INSTALL_ERROR (Erro de instalação do pip no notebook)
Falha ao executar '<pipInstallCommand>' no notebook: <notebookPath>. Verifique os logs de stdout do driver no cluster para obter mais detalhes.
NOTEBOOK_TOO_LARGE
O conteúdo do bloco de anotações resolvido em '<notebookPath>' é muito grande, reduza o tamanho do bloco de anotações.
NOTIFICATIONS_DUPLICATE_ALERTS
Alertas duplicados '<alertsDuplicates>' especificados em [<alerts>]
NOTIFICATIONS_DUPLICATE_EMAIL_ADDRESSES
Endereços de email duplicados '<emailRecipientsDuplicates>' especificados em [<emailRecipients>]
NOTIFICATIONS_INVALID_ALERTS
Foram especificados alertas inválidos para receber notificações em: <invalidAlerts>
NOTIFICATIONS_INVALID_EMAIL_ADDRESS
Endereço de email inválido especificado para receber notificações: <invalidEmailAddresses>
NOTIFICATIONS_MISSING_PARAMS
Especifique pelo menos um destinatário e um alerta em <setting>
NO_SOURCE_OR_SNAPSHOT_AND_VERSION_ARGUMENT_PROVIDED
SQLSTATE: nenhum estado atribuído
snapshot_version Ou source deve ser definido para apply_changes_from_snapshot com o destino '<target>'.
NO_TABLES_IN_PIPELINE
Espera-se que os pipelines tenham pelo menos uma tabela definida, mas nenhuma tabela foi encontrada em seu pipeline.
Verifique se você incluiu e compartilhou caso Executar como esteja configurado, os arquivos de origem esperados e/ou diretórios e se o código-fonte inclui definições de tabela (por exemplo, CREATE MATERIALIZED VIEW no código SQL, @dlt.table no código python).
Observe que somente as tabelas são contadas para essa verificação. Você também poderá encontrar esse erro se incluir apenas exibições ou fluxos em seu pipeline.
OUTPUT_MODE_NOT_SUPPORTED_FOR_TABLE_FLOW
Não há suporte para o modo de saída '<outputMode>' para o fluxo de tabela '<flowName>' da tabela de destino '<target>'. Há suporte apenas para o modo 'acréscimo' para fluxos de tabela.
OWNER_IS_MISSING
O proprietário não existe.
PAGINATION_REQUEST_HAS_NAME_AND_PAGINATION
Você pode fornecer um <name> ou paginação, mas não ambos.
PATCH_PIPELINE_DEFINITION_UNSUPPORTED_FIELD
PatchPipelineDefinition dá suporte apenas ao schedule campo, mas a definição fornecida tinha outros campos preenchidos: '<updatedDefinition>'.
PERSISTED_VIEW_READS_FROM_STREAMING_SOURCE
As exibições persistentes não dão suporte à leitura de fontes de streaming.
PERSISTED_VIEW_READS_FROM_TEMPORARY_VIEW
A visão <persistedViewName> persistente não pode fazer referência à visão <temporaryViewName> temporária que não estará disponível fora do escopo do pipeline. Torne a exibição persistente temporária ou persista a exibição temporária.
PIPELINE_CLONING_ALREADY_IN_PROGRESS
O pipeline já está sendo clonado para o pipeline com o ID '<pipelineId>'.
PIPELINE_CLONING_BOTH_TARGET_AND_SCHEMA_SPECIFIED
Não é possível especificar 'target' e 'schema' ao clonar um pipeline. Especifique apenas um.
PIPELINE_CLONING_CANNOT_CHANGE_SCHEMA_TO_TARGET
Não é possível clonar um pipeline com 'esquema' em um pipeline com 'target'. O pipeline clonado também deve usar 'esquema' ou omitir ambos para herdar o valor original.
PIPELINE_CLONING_INVALID_DURING_ACTIVE_UPDATE
O pipeline com a ID '<pipelineId>' não pode ser clonado durante uma atualização ativa.
PIPELINE_CLONING_INVALID_FIELDS
A solicitação incluiu a especificação de pipeline com campos inválidos para o clone. Os campos permitidos incluem: nome, catálogo, destino, configuração.
PIPELINE_CLONING_INVALID_FOR_MISSING_TARGET
O pipeline com a ID '<pipelineId>' não publica em um esquema de destino. O pipeline de origem precisa publicar em um esquema de destino para que ele seja clonado. Tente novamente depois de especificar o campo "destino" na especificação do pipeline e executar uma nova atualização para publicar em um esquema de destino.
PIPELINE_CLONING_INVALID_FOR_UC_PIPELINE
O pipeline com a ID '<pipelineId>' já é um pipeline do UC. Os pipelines de UC não podem ser clonados.
PIPELINE_CLONING_NO_CATALOG_SPECIFIED
Nenhum catálogo especificado para clonagem.
PIPELINE_CLONING_NO_MODE_SPECIFIED
Nenhum modo de clone especificado.
PIPELINE_CLONING_NO_TARGET_SPECIFIED
Nenhum catálogo de destino especificado para clonagem.
PIPELINE_CREATION_NOT_ENABLED_FOR_WORKSPACE
A criação de pipeline não está habilitada para esse workspace.
PIPELINE_DOES_NOT_EXIST
O pipeline com a ID "<pipelineId>" não existe.
Para obter mais detalhes , consulte PIPELINE_DOES_NOT_EXIST
PIPELINE_ENVIRONMENT_NOT_ENABLED
O uso do ambiente no Lakeflow Spark Declarative Pipelines não está habilitado.
PIPELINE_ENVIRONMENT_VERSION_NOT_ALLOWED
Atualmente, o ambiente do pipeline não dá suporte a versões de ambiente.
PIPELINE_FAILED_TO_UPDATE_UC_TABLE_DUE_TO_CONCURRENT_UPDATE
Falha ao atualizar a tabela UC (<tableName>) no pipeline devido a modificações simultâneas após <attempts> tentativas.
Verifique se não há processos externos modificando a tabela, repita a atualização e entre em contato com o suporte do Databricks se esse problema persistir.
PIPELINE_FAILED_TO_UPDATE_UC_TABLE_DUE_TO_EXTERNAL_DELETE
A tabela <tableName> foi excluída por uma operação externa enquanto o pipeline a atualizava.
Verifique se nenhum processo externo está modificando a tabela e tente novamente a atualização.
Se o problema persistir, entre em contato com o Suporte do Databricks.
PIPELINE_FOR_TABLE_NEEDS_REFRESH
A tabela <tableName> não está no estado necessário, a tabela não foi atualizada recentemente. O pipeline com a ID '<pipelineId>' deve ser executado mais uma vez, para então tentar novamente a operação.
PIPELINE_FOR_TABLE_NOT_FOUND
O pipeline com ID '<pipelineId>', que gerencia a tabela <tableName>, não pode ser encontrado. Verifique se você está no mesmo workspace que o pipeline, você é o proprietário do pipeline e o pipeline foi executado pelo menos uma vez.
PIPELINE_GLOB_INCLUDES_CONFLICTS
O campo glob ou notebook/arquivo nas configurações das bibliotecas do pipeline deve ser configurado. Altere as configurações do pipeline.
PIPELINE_GLOB_INCLUDES_NOT_SUPPORTED
Usar o campo glob para incluir arquivos de origem é um recurso de visualização e está desabilitado.
Selecione novamente cada arquivo de origem a ser incluído para o pipeline para corrigir esse erro.
Entre em contato com o suporte do Databricks para saber mais sobre esse recurso e registre-se na versão prévia.
PIPELINE_GLOB_UNSUPPORTED_SPECIAL_CHARACTER
Caracteres especiais <specialChar> são reservados e não devem ser usados no caminho "<path>" incluído nas configurações do pipeline. Remover esses caracteres para corrigir o erro
PIPELINE_NAME_LIMIT_REACHED
O nome não pode ser maior que <maxPipelineNameLength> caracteres.
ERRO_CLIENTE_ANALISE_NÃO_REPETÍVEL_PIPELINE
Falha no pipeline ao analisar as tabelas de origem (<tables>) devido a erros não repetíveis após a execução parcial.
Uma nova atualização de pipeline não será criada.
<flowErrors>
Verifique o log de eventos e corrija os problemas adequadamente.
TUBULAÇÃO_NÃO_ELIGÍVEL_PARA_RESTAURAÇÃO
A tubulação '<pipelineId>' está além da janela de restauração.
PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE
O pipeline com a ID '<pipelineId>', gerenciando a tabela <tableName>, não está usando o Modo de Publicação Direta.
PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE
A tabela ainda não está pronta para atualização
Para obter mais detalhes, consulte PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE
PIPELINE_PERMISSION_DENIED_NOT_OWNER
Você não tem permissão para executar essa operação. Você não é o proprietário do pipeline com a ID '<pipelineId>', gerenciando a tabela <tableName>.
PIPELINE_RETRYABLE_ANALYSIS
Falha no pipeline ao analisar as tabelas de origem (<tables>) devido a erros retráveis após a execução parcial.
Uma nova atualização de pipeline será criada para tentar novamente o processamento. Se o erro persistir, verifique o log de eventos e resolva os problemas adequadamente.
PIPELINE_SETTINGS_FIELD_CANNOT_BE_EDITED
'<uneditableFieldName>' não pode ser modificado pelos usuários. Se os usuários desejarem adicionar ou modificar o <settingName>campo , use o campo '<editableFieldName>'.
PIPELINE_SETTINGS_MODIFIED_CONCURRENTLY
As configurações de pipeline foram modificadas simultaneamente.
PIPELINE_SETTINGS_UNSUPPORTED_CONFIGURATIONS
As configurações <configurations> não têm suporte do Lakeflow Spark Declarative Pipeliness. Remova essas configurações.
PIPELINE_SETTING_SHOULD_NOT_SPECIFY_DEVELOPMENT
Não há suporte para iniciar uma atualização com a configuração de "desenvolvimento".
PIPELINE_SHOULD_NOT_HAVE_MULTIPLE_TABLES
O pipeline deve ter exatamente uma tabela, mas encontrou <tablesSize> tabelas: <tables>
PIPELINE_SOURCE_FILE_NUMBER_EXCEEDED
O número de arquivos de origem, incluindo arquivos declarados em pastas, excede o limite de <limit>.
Remova ou mescle arquivos excessivos e modifique a especificação de pipeline correspondente, se necessário.
ou entre em contato com o suporte do Databricks para solicitar um aumento de limite.
PIPELINE_SOURCE_FOLDER_DEPTH_EXCEEDED
A pasta '<folder_path>' excede o nível máximo de aninhamento de diretório permitido de <limit>. Reduza o nível de aninhamento de pastas ou entre em contato com o suporte do Databricks para solicitar um aumento de limite.
PIPELINE_SPEC_PARAM_CANNOT_BE_CHANGED
A modificação do parâmetro <param> a seguir nas configurações de pipeline não é permitida
PIPELINE_TYPE_NOT_SUPPORTED
Não há suporte para o tipo de pipeline '<pipelineType>' .
PIPELINE_TYPE_NOT_WORKSPACE_PIPELINE_TYPE
O pipeline com ID '<pipelineId>', gerenciando a tabela <tableName>, não é um pipeline ETL.
PIPELINE_TYPE_QUOTA_EXCEEDED
Não é possível iniciar a atualização '<updateId>' porque o limite para pipelines ativos do tipo '<pipelineType>' foi atingido.
PIPELINE_UPDATE_FOR_TABLE_IS_RUNNING
O pipeline com a ID '<pipelineId>', gerenciando a tabela <tableName>, está em execução. Pare o pipeline antes de executar a operação.
PIPELINE_WORKSPACE_LIMIT_REACHED
Criação de pipeline do tipo '<pipelineType>' bloqueada porque o workspace '<orgId>' já tem '<countLimit>' pipelines. Exclua pipelines não utilizados.
PIP_INSTALL_NOT_AT_TOP_OF_NOTEBOOK
Células encontradas contendo %pip install que não estão na parte superior do notebook para "<notebookPath>"
Mova todas as células de instalação %pip para o início do notebook.
PY4J_BLOCKED_API
SQLSTATE: nenhum estado atribuído
Você está usando uma API do Python que não tem suporte no ambiente atual.
Verifique a documentação do Databricks para obter alternativas.
<additionalInfo>
QUERY_BASED_CONNECTOR_SOURCE_API_ERROR
Ocorreu um erro na chamada à <sourceName> API. Tipo de API de origem: <qbcSourceApiType>.
Tente atualizar a tabela de destino. Se o problema persistir, registre um tíquete.
QUERY_BASED_INGESTION_CONNECTOR_ERROR
Ocorreu um erro no conector de ingestão baseado em consulta para <sourceName>.
Para obter mais detalhes, consulte QUERY_BASED_INGESTION_CONNECTOR_ERROR
REFERENCE_DLT_DATASET_OUTSIDE_QUERY_DEFINITION
Não há suporte para fazer referência ao conjunto <identifier> de dados do Lakeflow Spark Declarative Pipelines fora da definição de consulta do conjunto de dados (ou seja, @dlt.table anotação). Leia-o dentro da definição de consulta do conjunto de dados.
REFRESH_INITIATED_FROM_INVALID_WORKSPACE
A atualização deve ser iniciada no workspace <homeWorkspaceId>, onde o recurso foi criado.
A atualização foi tentada no workspace <userWorkspaceId>.
REFRESH_MODE_ALREADY_EXISTS
Não é possível adicionar <type> a uma tabela que já tenha <existingType>. Remova a agenda ou use ALTER TABLE...ALTER <type> ... para alterá-lo.
REQUIRED_PARAM_NOT_FOUND
O parâmetro <param> necessário não foi encontrado.
RESERVED_KEYWORD_IN_USE_CATALOG
USE CATALOG '<reservedKeyword>' é ilegal porque '<reservedKeyword>' é uma palavra-chave reservada no Lakeflow Spark Declarative Pipelines.
RESERVED_KEYWORD_IN_USE_SCHEMA
USE SCHEMA '<reservedKeyword>' é ilegal porque '<reservedKeyword>' é uma palavra-chave reservada no Lakeflow Spark Declarative Pipelines.
Recursos estão sendo provisionados
Os recursos de pipeline estão sendo provisionados para o pipeline '<pipelineId>'.
RESOURCE_READ_ONLY_IN_WORKSPACE
<resourceType> '<resourceName>' foi designado como somente leitura no workspace atual.
RESTAURAR_PIPELINE_NÃO_DELETADO
O pipeline '<pipelineId>' não foi excluído. A restauração só é aplicável para pipelines excluídos.
RESTAURAR_PIPELINE_DESATIVADO
RestorePipeline não está habilitado para o tipo de pipeline <pipelineType>
Entre em contato com o suporte do Databricks para obter assistência na restauração do pipeline '<pipelineId>'.
ROOT_PATH_NOT_FOUND
Não é possível acessar o caminho raiz '<rootPath>'. Verifique se você tem os privilégios de acesso necessários.
RUN_AS_USER_NOT_FOUND
A execução especificada como usuário "<runAsUserId>" para a atualização não existe no workspace.
SAAS_CONNECTION_ERROR
Falha ao fazer uma conexão com a origem <sourceName>. Código de erro: <saasConnectionErrorCode>.
Para obter mais detalhes , consulte SAAS_CONNECTION_ERROR
SAAS_CONNECTOR_DUPLICATE_DATA
Dados duplicados encontrados na tabela <tableName>. Tipo de origem: <sourceName>.
Para obter mais detalhes , consulte SAAS_CONNECTOR_DUPLICATE_DATA
SAAS_CONNECTOR_INVALID_INCLUDE_COLUMNS
Include_columns inválido especificado para a tabela <qualifiedTableName>. Motivo: <reason>
SAAS_CONNECTOR_INVALID_PRIMARY_KEY_CONFIGURATION
Configuração de chave primária inválida para tabela <qualifiedTableName>. Motivo: <reason>
SAAS_CONNECTOR_MUTUAL_AUTHENTICATION_FAILED
Esta sessão não pôde ser autenticada mutuamente para uso com <sourceName>. Tipo de API de origem: <saasSourceApiType>. Código de erro: <saasSourceApiErrorCode>.
Verifique se o certificado do cliente e a chave privada são um par válido e confiável por <sourceName>.
SAAS_CONNECTOR_REFRESH_TOKEN_EXPIRED
O token de atualização da conexão <connectionName> expirou. Edite a conexão, autentique novamente e execute novamente o pipeline.
SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR
Ocorreu uma alteração de esquema na tabela <tableName> da origem do <sourceName>.
Para obter mais detalhes, consulte SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR
SAAS_CONNECTOR_SOURCE_API_ERROR
Ocorreu um erro na chamada à <sourceName> API. Tipo de API de origem: <saasSourceApiType>. Código de erro: <saasSourceApiErrorCode>.
Tente atualizar a tabela de destino. Se o problema persistir, registre um tíquete.
SAAS_CONNECTOR_UC_CONNECTION_OAUTH_EXCHANGE_FAILED
Falha na troca de tokens OAuth para a conexão UC: <connectionName>.
Isso pode ser causado por problemas com suas credenciais de UC. Verifique o rastreamento de erro, edite a conexão UC, autentique novamente e execute o pipeline novamente. Se o erro persistir, registre um tíquete.
SAAS_CONNECTOR_UNSUPPORTED_ERROR
Erro sem suporte ocorreu na fonte de dados <sourceName>.
Para obter mais detalhes, consulte SAAS_CONNECTOR_UNSUPPORTED_ERROR
SAAS_INCOMPATIBLE_SCHEMA_CHANGES_DURING_INIT
Detectamos alterações de esquema incompatíveis ao inicializar o pipeline:
<details>
Execute uma atualização completa nas tabelas afetadas.
SAAS_PARTIAL_ANALYSIS_INPUT_CREATION_ERROR
Erro encontrado durante a criação de entrada para análise parcial. Uma nova atualização de pipeline não será criada.
Verifique o log de eventos e corrija os problemas adequadamente.
SAAS_SCHEMA_DIVERGED_DURING_ANALYSIS
O esquema analisado da tabela de origem (<table>)divergiu do esquema esperado.
Tente novamente a atualização do pipeline e veja se o problema foi resolvido.
Se esse problema persistir, execute uma atualização completa nas tabelas mencionadas acima
Esquema esperado:
<expectedSchema>
Esquema real:
<actualSchema>
SAAS_UC_CONNECTION_INACCESSIBLE
A Conexão <connectionName> fornecida está inacessível. Verifique a conexão e tente novamente.
Para obter mais detalhes, consulte SAAS_UC_CONNECTION_INACCESSIBLE
SCHEMA_SPEC_EMPTY_CATALOG
SchemaSpec tem uma cadeia de caracteres vazia no campo catálogo.
Remova a cadeia de caracteres vazia ou adicione o nome do catálogo. (Se esse esquema não pertencer a um catálogo na origem, não defina o campo.)
Detalhes da especificação de esquema:
<schemaSpec>
SCHEMA_SPEC_EMPTY_SCHEMA
SchemaSpec tem uma cadeia de caracteres vazia no campo de esquema.
Remova a cadeia de caracteres vazia ou adicione o nome do esquema. (Se essa tabela não pertencer a um esquema na origem, não defina o campo.)
Detalhes da especificação de esquema:
<schemaSpec>
SCHEMA_SPEC_REQUIRE_ONE_OF_CATALOG_SCHEMA
Pelo menos um dos esquemas de origem e catálogo de origem deve estar presente. Mas ambos estão vazios.
Detalhes da especificação de esquema:
<schemaSpec>
SEQUÊNCIA_POR_COLUNA_NÃO_ENCONTRADA
A definição do pipeline inclui coluna(s) sequence_by (<columnNames>) que não existem na tabela <qualifiedTableName> de origem <sourceType>. Remova essas colunas do campo sequence_by.
SERVERLESS_BUDGET_POLICY_AND_USAGE_POLICY_BOTH_SET (Política de Orçamento e Política de Uso Configuradas ao Mesmo Tempo)
Não é possível definir ambos budget_policy_id e usage_policy_id. Remova budget_policy_id.
SERVERLESS_BUDGET_POLICY_BAD_REQUEST
A política de orçamento fornecida com a ID '<budgetPolicyId>' não pode ser usada neste espaço de trabalho devido a restrições de vinculação de política ao espaço de trabalho.
SERVERLESS_BUDGET_POLICY_IS_INVALID
A política de orçamento sem servidor com a ID '<budgetPolicyId>' é inválida.
SERVERLESS_BUDGET_POLICY_MISSING
A política de orçamento sem servidor com a ID '<budgetPolicyId>' não existe.
SERVERLESS_BUDGET_POLICY_NOT_ENABLED
A política de orçamento sem servidor não está habilitada, entre em contato com o suporte do Databricks.
SERVERLESS_BUDGET_POLICY_NOT_ENABLED_FOR_ACCOUNT
A política de orçamento sem servidor não está habilitada para essa conta. O usuário não pode especificar uma política de orçamento para este pipeline. O administrador da conta deve tentar se registrar por meio do portal de visualização de recursos. Se o problema persistir, entre em contato com o suporte do Databricks.
SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_NON_SERVERLESS_PIPELINE
A política de orçamento sem servidor não pode ser atribuída a um pipeline que não é sem servidor.
SERVERLESS_BUDGET_POLICY_NOT_SUPPORTED_FOR_PIPELINE_TYPE
Não há suporte para a política de orçamento sem servidor para o tipo <pipelineType> de pipeline.
SERVERLESS_BUDGET_POLICY_PERMISSION_DENIED
O usuário não tem permissão para usar a política de orçamento sem servidor com a ID '<budgetPolicyId>'.
SERVERLESS_NOT_AVAILABLE
A computação sem servidor não está disponível. Entre em contato com o Databricks para obter mais informações.
SERVERLESS_NOT_ENABLED
Você não pode usar a computação sem servidor com o Lakeflow Spark Declarative Pipeliness. Entre em contato com o Databricks para habilitar esse recurso para seu workspace.
SERVERLESS_NOT_ENABLED_FOR_USER
A computação sem servidor não está habilitada para o chamador. Entre em contato com o administrador do workspace para habilitar esse recurso.
SERVERLESS_NOT_ENABLED_FOR_WORKSPACE
A computação sem servidor não está disponível para este workspace e/ou região. Entre em contato com o Databricks para obter mais informações.
SERVERLESS_REQUIRED
Você deve usar a computação sem servidor neste workspace.
SERVICENOW_CONNECTION_ERROR
Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>.
Para obter mais detalhes , consulte SERVICENOW_CONNECTION_ERROR
SERVICENOW_CONNECTOR_EMPTY_CURSOR_KEY_ERROR
Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>.
Neste momento, o pipeline de ingestão não pode ingerir a tabela '<tableName>' porque a chave do cursor em uma linha contém um campo vazio.
Para continuar executando o seu pipeline, remova esta tabela. Se o erro persistir, registre um tíquete.
SERVICENOW_CONNECTOR_INSTANCE_HIBERNATION_ERROR
Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>.
Falha ao se conectar à instância do ServiceNow. A instância parece estar hibernando ou inativa.
Conecte-se ao portal administrativo do ServiceNow e espere um momento até que a instância esteja totalmente operacional.
Se o erro persistir, registre um tíquete.
SERVICENOW_CONNECTOR_INSTANCE_OFFLINE_ERROR
Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>.
Falha ao se conectar à instância do ServiceNow. A instância está offline.
Faça logon no portal de administração do ServiceNow e aguarde algum tempo até que a instância seja restaurada.
Se o erro persistir, registre um tíquete.
SERVICENOW_CONNECTOR_INVALID_TABLE_ERROR
Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>.
Falha ao consultar o esquema da tabela '<tableName>'. A tabela não existe na conta do ServiceNow para esse usuário.
Verifique o nome da tabela para erros de digitação e verifique se o usuário tem as permissões necessárias para acessar a tabela.
Se o erro persistir, registre um tíquete.
SERVICENOW_CONNECTOR_IP_ADDRESS_RESTRICTED_ERROR
Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>.
Falha ao se conectar à instância do ServiceNow. A instância tem restrições de controle de acesso de endereço IP.
Para resolver isso, desabilite as restrições de endereço IP navegando até ServiceNow >> All >> System Security >> IP Address Access Control ou use IPs estáveis sem servidor
Se o erro persistir, registre um tíquete.
SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR
Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>.
Foi detectada uma URL inválida do ponto de extremidade da API do ServiceNow. A estrutura de URL não corresponde ao formato esperado do ServiceNow.
Verifique a configuração da instância do ServiceNow nas credenciais de conexão UC.
Para obter mais detalhes, consulte SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR
SERVICENOW_CONNECTOR_MAX_FAILED_ATTEMPTS_REACHED
Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>.
Isso geralmente acontece quando a busca de dados para uma tabela leva muito tempo. Como primeira etapa, trabalhe com o administrador do ServiceNow para habilitar a indexação na coluna do cursor.
A coluna do cursor é selecionada na seguinte lista, em ordem de disponibilidade e preferência: sys_updated_on (primeira opção), sys_created_on (segunda opção), sys_archived (terceira opção)
Para obter instruções sobre como habilitar a indexação no ServiceNow, confira aqui: https://docs.databricks.com/ingestion/lakeflow-connect/servicenow-overview#why-is-my-servicenow-ingestion-performance-slow.
Também recomendamos aumentar o tempo limite da consulta da API REST para mais de 60 segundos para permitir mais tempo para buscar registros.
Em seguida, tente novamente o pipeline de ingestão. Se o problema persistir, registre um tíquete.
SERVICENOW_CONNECTOR_SCHEMA_FIELD_TYPE_INACCESSIBLE
Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>.
Ao buscar o esquema de tabela com privilégios de usuário não administrador, o internal_type das colunas do esquema não está acessível.
Para resolver isso, conceda permissões de leitura na tabela 'sys_glide_object' ao usuário atual.
Se o erro persistir, registre um tíquete.
SERVICENOW_CONNECTOR_SCHEMA_FIELD_TYPE_MISMATCH
Erro no ServiceNow ao buscar o esquema da tabela.
Foram encontrados dois tipos de dados conflitantes para o campo '<fieldName>': '<firstDataType>' e '<secondDataType>'.
Para continuar executando o seu pipeline, remova esta tabela. Se o erro persistir, registre um tíquete.
SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>.
Para mais detalhes, consulte SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
SET_TBLPROPERTIES_NOT_ALLOWED_FOR_PIPELINE_TABLE
ALTER <commandTableType>
...
SET TBLPROPERTIES não há suporte. Para modificar as propriedades da tabela, altere a definição original e execute uma atualização.
SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE
A ingestão para o objeto <objName> está incompleta porque o trabalho de consulta da API Salesforce demorou muito, falhou ou foi cancelado manualmente.
Para obter mais detalhes, consulte SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE
SFDC_CONNECTOR_BULK_QUERY_NOT_FOUND
A ingestão do objeto <objName> falhou porque não foi possível encontrar a tarefa de consulta do Salesforce Bulk API.
Isso provavelmente ocorre porque o trabalho foi excluído na interface do usuário do Salesforce ou porque já faz mais de 7 dias desde a última atualização de pipeline, após a qual o Salesforce exclui automaticamente o trabalho
Para iniciar um novo trabalho em massa, execute um FULL REFRESH na tabela de destino específica.
SFDC_CONNECTOR_CREATE_BULK_QUERY_API_LIMIT_EXCEEDED
Erro na chamada à API do Salesforce: limite de API excedido
Aguarde a redefinição dos limites da API. Em seguida, tente atualizar a tabela de destino.
Se o erro persistir, registre um tíquete.
SFDC_CONNECTOR_CREATE_BULK_QUERY_JOB_FAILED
A ingestão do objeto <objName> está incompleta porque a criação do trabalho de consulta de API em massa do Salesforce falhou. Código de erro: <saasSourceApiErrorCode>.
<actionText>.
SFDC_CONNECTOR_MALFORMED_RECORDS
A ingestão do objeto Salesforce '<objName>' falhou porque o Salesforce <saasSourceApiType> retornou registros malformados.
Verifique o stacktrace para obter mais detalhes.
Verifique os dados no Salesforce e execute novamente o pipeline.
SINKS_NOT_SUPPORTED_IN_SEG
Não há suporte para coletores do Lakeflow Spark Declarative Pipelines no pipeline em workspaces habilitados para controle de saída sem servidor. Os coletores de pipelines declarativos do Lakeflow Spark com suporte são Kafka e Delta.
Os seguintes coletores sem suporte são encontrados: <sinkNames>, seus formatos correspondentes são: <sinkFormats>.
SOURCE_TABLE_NOT_MATERIALIZED
Falha ao ler o conjunto de dados dependente '<sourceTableName>' porque ele não está materializado. Execute o pipeline inteiro para materializar todos os conjuntos de dados dependentes.
SPARK_CONNECT_DEFINITION_PATH_NOT_FOUND
Caminho de definição para o elemento de grafo '<graphElementName>' não encontrado. Entre em contato com o suporte do Databricks.
SPARK_CONNECT_DEFINITION_PATH_NOT_FOUND_SPARK_SQL
Nenhum caminho de definição de pipeline está disponível no contexto de execução atual do SQL do Spark. Entre em contato com o suporte do Databricks.
SPARK_CONNECT_UNSUPPORTED_FLOW_DEFINITION_ERROR
Não há suporte para a definição de fluxo. Entre em contato com o suporte do Databricks. Comando: <defineFlowCommand>
SPARK_CONNECT_UNSUPPORTED_OUTPUT_TYPE
Não há suporte para o tipo de saída '<outputType>' no Spark Connect. Entre em contato com o suporte do Databricks.
STANDALONE_PRIVATE_MVST_NOT_SUPPORTED
Não há suporte para a criação de um MV/ST autônomo PRIVATE . Remova o modificador PRIVATE
Tempo de início do REPL do Python expirou (START_PYTHON_REPL_TIMED_OUT)
Tempo limite enquanto aguarda o início do REPL do Python. Demorou mais do que <timeoutSeconds> segundos.
STREAMING_TARGET_NOT_DEFINED
Não é possível localizar a tabela <target> de destino para o <command> comando. A tabela <target> de destino não está definida no pipeline.
SYNCED_TABLE_USER_ERROR
Erro do usuário na tabela sincronizada do pipeline.
Para obter mais detalhes , consulte SYNCED_TABLE_USER_ERROR
TABLE_CHANGED_DURING_OPERATION
A tabela <tableName> foi modificada fora dessa transação e essa transação foi revertida. Repita a operação.
TABLE_MATERIALIZATION_CYCLIC_FOREIGN_KEY_DEPENDENCY
Atualização para o pipeline: <pipelineId> detectou uma cadeia cíclica de restrições de chave estrangeira: <tables>.
TABLE_SPEC_BOTH_CATALOG_SCHEMA_REQUIRED
TableSpec está faltando um dos esquemas de origem e/ou de origem do catálogo de origem.
Detalhes da especificação da tabela:
<tableSpec>
TABLE_SPEC_EMPTY_CATALOG
TableSpec tem uma cadeia de caracteres vazia no campo catálogo.
Remova a cadeia de caracteres vazia ou adicione o nome do catálogo. (Se essa tabela não pertencer a um catálogo na origem, não defina o campo.)
Detalhes da especificação da tabela:
<tableSpec>
TABLE_SPEC_EMPTY_SCHEMA
TableSpec tem uma cadeia de caracteres vazia no campo de esquema.
Remova a cadeia de caracteres vazia ou adicione o nome do esquema. (Se essa tabela não pertencer a um esquema na origem, não defina o campo.)
Detalhes da especificação da tabela:
<tableSpec>
TABLE_SPEC_EMPTY_TABLE
O nome da tabela está vazio. Forneça um nome de tabela.
Detalhes da especificação da tabela:
<tableSpec>
TABLE_TOKEN_NOT_EXIST_FOR_SCHEMA_EVOLUTION_LEGACY_TABLE
A evolução do esquema não pode ser habilitada devido a metadados ausentes. Por favor, faça uma atualização completa.
Motivo: o token de tabela de instantâneo deve ser definido quando a evolução do esquema está habilitada.
CANALIZACAO_DESCARTADA_NO_ESPAÇO_DE_TRABALHO
Não é possível iniciar o pipeline porque o pipeline é destruído ou excluído.
TRIGGER_INTERVAL_VALUE_INVALID
O intervalo de gatilho deve ser uma duração positiva, o valor máximo aceitável é de 2.147.483.647 segundos. Recebeu: <actual> segundos.
GATILHO_NÃO_ATIVADO
Os gatilhos não estão habilitados para este workspace. Habilite gatilhos de tabela na página Pré-visualizações.
TRIGGER_ON_VIEW_READ_FROM_FILE_NOT_SUPPORTED
A origem <source> é uma visualização que lê de um local de arquivo, o que não é atualmente suportado pelo gatilho.
ERRO_DE_SERIALIZAÇÃO_DO_PEDIDO_DE_ATIVAÇÃO
Houve um problema ao processar sua solicitação. Entre em contato com o suporte do Databricks.
TRIGGER_SECURABLE_KIND_NOT_SUPPORTED
Falha na configuração do gatilho: tipo de tabela sem suporte. Consulte a documentação para tipos com suporte.
TRIGGER_SOURCE_TYPE_NOT_SUPPORTED
No momento, não há suporte para a origem <source> com o tipo <type> por gatilho.
TRIGGER_STATE_SERIALIZATION_ERROR
Houve um problema ao processar sua solicitação. Entre em contato com o suporte do Databricks.
LIMITE_DE_TABELA_DE_DISPARO_EXCEDIDO
Falha na configuração do gatilho: o gatilho inclui mais tabelas do que o limite permitido. Consulte a documentação para obter detalhes sobre os limites da tabela e como resolver esse problema.
TRIGGER_TABLE_TYPE_NOT_SUPPORTED
Falha na configuração do gatilho: tipo de tabela sem suporte. Consulte a documentação para tipos com suporte.
UC_CLEARING_TARGET_SCHEMA_NOT_ALLOWED
Limpar o campo de esquema de destino não é permitido para pipelines uc. Motivo: <reason>.
UC_IAM_ROLE_NON_SELF_ASSUMING
A função IAM para a credencial de armazenamento foi considerada não autossutensiosa.
Verifique a confiança de sua função e as políticas de IAM para garantir que sua função IAM possa se assumir de acordo com a documentação da credencial de armazenamento do Unity Catalog.
UC_NOT_ENABLED
O uso do catálogo uc no Lakeflow Spark Declarative Pipelines não está habilitado.
UC_PIPELINE_CANNOT_PUBLISH_TO_HMS
Os pipelines habilitados para UC não podem ser publicados no Metastore do Hive. Escolha um catálogo de destino diferente.
UC_TARGET_SCHEMA_REQUIRED
O campo de esquema de destino é necessário para pipelines uc. Motivo: <reason>.
UNABLE_TO_INFER_TABLE_SCHEMA
Falha ao inferir o esquema da tabela <tableName> de seus fluxos ascendentes.
Modifique os fluxos que gravam nesta tabela para tornar seus esquemas compatíveis.
Esquema inferido até agora:
<inferredDataSchema>
Esquema incompatível:
<incompatibleDataSchema>
UNEXPECTED_PIPELINE_SCHEMA_PERMISSION_ERROR
Erro inesperado ao verificar permissões de esquema para pipeline <pipelineId>. Entre em contato com o suporte do Databricks.
UNIFORM_COMPATIBILITY_NÃO_PODE_SER_DEFINIDO_COM_ROW_FILTERS_OU_COLUMN_MASKS
A compatibilidade uniforme não pode ser definida em exibições materializadas ou tabelas de streaming que tenham um filtro de linha ou máscaras de coluna aplicadas.
UNITY_CATALOG_INITIALIZATION_FAILED
Encontrou um erro com o Catálogo do Unity ao configurar o pipeline no cluster <clusterId>.
Verifique se a configuração do Catálogo do Unity está correta e se os recursos necessários (por exemplo, catálogo, esquema) existem e estão acessíveis.
Verifique também se o cluster tem permissões apropriadas para acessar o Catálogo do Unity.
Detalhes: <ucErrorMessage>
UNRESOLVED_SINK_PATH
O caminho de armazenamento do coletor <identifier> não pode ser resolvido. Entre em contato com o suporte do Databricks.
UNRESOLVED_TABLES_FOR_MAINTENANCE
As tabelas a seguir foram encontradas na definição do pipeline, mas não puderam ser resolvidas durante a manutenção. Execute uma execução de atualização de pipeline com a definição de pipeline mais recente para materializar todas as tabelas na definição do pipeline e desbloquear a manutenção ou entre em contato com o suporte do Databricks se o problema persistir.
<unresolvedTableIdentifiersSet>
UNRESOLVED_TABLE_PATH
Não é possível resolver o caminho de armazenamento da tabela <identifier> . Entre em contato com o suporte do Databricks.
UNSUPPORTED_ALTER_COMMAND
ALTER <commandTableType>
...
<command> não há suporte.
UNSUPPORTED_CHANNEL_FOR_DPM
Canal sem suporte para o Modo de Publicação Direta. Espere um canal 'CURRENT' ou 'PREVIEW', mas tem 'PREVIOUS'
UNSUPPORTED_COMMAND_IN_NON_DPM_PIPELINE
<command> com suporte apenas no modo de publicação direta habilitado para o Pipeline Declarativo do Spark
UNSUPPORTED_COMMAND_IN_QUERY_DEFINITION
Não há suporte para '<command>' na definição de consulta. Mova o comando para fora da definição de consulta. Se for um Pipeline Declarativo do Spark no Python, mova o '<command>' para fora do @dlt.table()/@dlt.view() decorador. Se for um Pipeline Declarativo do Spark no Scala, mova o '<command>' para fora do método 'query'.
UNSUPPORTED_CUSTOM_DBR_VERSION
A versão personalizada do DBR '<v>' não é compatível nos espaços de trabalho SHIELD e HIPAA. Esperado um de [<supportedDbrVersions>]
VISUALIZAÇÃO_DE_ESQUEMA_PERSONALIZADO_NÃO_SUPORTADO
A visualização privada do esquema personalizado está desabilitada.
Crie um novo pipeline com o modo de publicação padrão usando o campo 'esquema'
na especificação do pipeline e mova os conjuntos de dados desse pipeline para o novo pipeline.
NÃO_SUPORTADO_HABILITAÇÃO_DE_PRÉVIA_DO_ESQUEMA_PERSONALIZADO
A visualização privada do esquema personalizado está desabilitada e você não pode adicionar a visualização a um pipeline.
Remova <sparkConfKeys> da configuração do pipeline.
UNSUPPORTED_DBR_VERSION
Não há suporte para a versão '<v>' da DBR. Esperado um de [<supportedDbrVersions>]
UNSUPPORTED_FEATURE_FOR_WORKSPACE
<featureName> não é compatível com o seu ambiente de trabalho. Entre em contato com o suporte do Databricks para habilitar esse recurso para seu workspace.
UNSUPPORTED_LANGUAGE
Falha ao carregar notebook <language> "<notebookPath>". Atualmente, há suporte apenas <supportedLanguages> para notebooks.
UNSUPPORTED_LIBRARY_FILE_TYPE
O arquivo <path> não tem sufixo .py ou .sql. Somente arquivos Python e SQL têm suporte em pipelines.
UNSUPPORTED_LIBRARY_NOTEBOOK_LANGUAGE
Idioma não suportado <language> para notebook <path>. Há suporte apenas para Python e SQL em pipelines
UNSUPPORTED_LIBRARY_OBJECT_TYPE
O <path> incluído no caminho é do tipo <objectType> que não é compatível. Atualmente, somente notebooks e arquivos podem ser usados como bibliotecas. Para resolver esse problema, remova o objeto sem suporte ou atualize as bibliotecas configuradas para esse pipeline para que somente tipos de objeto com suporte sejam incluídos.
UNSUPPORTED_MANAGED_INGESTION_SOURCE_TYPE
Definição de pipeline de ingestão gerenciada inválida, tipo de origem sem suporte: <sourceType>.
UNSUPPORTED_MULTIPLE_UPDATE_TYPE
Validar somente, explorar somente e retroceder atualizações são mutuamente exclusivas. No máximo um deve ser definido.
UNSUPPORTED_REWIND
As operações de retroceder ainda não estão habilitadas para este workspace.
UNSUPPORTED_SAAS_INGESTION_TYPE
Não há suporte para o tipo <ingestionType> de ingestão fornecido.
Entre em contato com o suporte do Databricks se esse problema persistir.
UNSUPPORTED_SPARK_SQL_COMMAND
Não há suporte para '<command>' na API spark.sql("...") no Python do Lakeflow Spark Declarative Pipelines. Comando com suporte: <supportedCommands>.
UNSUPPORTED_SQL_STATEMENT
Instrução SQL sem suporte para <datasetType> '<datasetName>': <operation> não há suporte.
UPDATED_DEFINITION_SET_FOR_NON_DBSQL_PIPELINE
Somente pipelines DBSQL podem ter updated_definition.
USE_CATALOG_IN_HMS
USE CATALOG com suporte apenas no Pipeline Declarativo do Spark habilitado para UC
VIEW_TEXT_NOT_SAVED_IN_UC
Não é possível atualizar a tabela <tableName> , pois ela não tem uma consulta salva no Catálogo do Unity. Entre em contato com o suporte do Databricks.
WORKDAY_HCM_CONNECTOR_FETCH_BATCH_FAILED
Erro no HCM do Workday. Tipo de API de origem: <saasSourceApiType>.
Falha ao buscar o lote no deslocamento '<offset>'.
Tente atualizar a tabela de destino. Se o problema persistir, registre um tíquete.
WORKDAY_REPORTS_CONNECTOR_INSUFFICIENT_OAUTH_SCOPE_ERROR
Ocorreu um erro nos Relatórios do Workday. Tipo de API de origem: <saasSourceApiType>.
Falha ao buscar dados para o relatório '<reportUrl>'. O cliente OAuth não tem acesso de escopo suficiente para recuperar o relatório.
Para resolver isso, verifique se o cliente OAuth tem os escopos necessários configurados no Workday.
Se o erro persistir, registre um tíquete.
WORKDAY_REPORTS_CONNECTOR_ERRO_FALTA_DE_PARAMETROS_REQUERIDOS
Ocorreu um erro nos Relatórios do Workday. Tipo de API de origem: <saasSourceApiType>.
O relatório do Workday '<reportUrl>' espera o parâmetro '<missingParam>'.
Verifique se todos os parâmetros do relatório estão incluídos na URL; você pode verificar a configuração de relatório do Workday para identificar quais parâmetros são obrigatórios.
Se o problema persistir, registre um tíquete.
WORKDAY_REPORTS_CONNECTOR_REPORT_NOT_FOUND_ERROR
Ocorreu um erro nos Relatórios do Workday. Tipo de API de origem: <saasSourceApiType>.
A URL do relatório '<reportUrl>' está incorreta. Verifique se há erros de digitação na URL base ou no nome do relatório para resolver o problema.
Se o problema persistir, registre um tíquete.
WORKDAY_REPORTS_CONNECTOR_REPORT_SIZE_EXCEEDED_ERROR
Ocorreu um erro nos Relatórios do Workday. Tipo de API de origem: <saasSourceApiType>.
O tamanho do relatório com a URL '<reportUrl>' é maior que 2 GB. Verifique se o tamanho do relatório não excede esse limite.
Se o problema persistir, registre um tíquete.
WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
Ocorreu um erro nos Relatórios do Workday. Tipo de API de origem: <saasSourceApiType>.
Para obter mais detalhes, consulte WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
WORKDAY_REPORT_URL_EMPTY
A URL do relatório do Workday está vazia. Pelo menos um relatório deve ser fornecido.
WORKSPACE_QUOTA_EXCEEDED
Não é possível iniciar a atualização "<updateId>" porque já existem pipelines ativos "<maxActiveUpdates>" em execução neste workspace.
Installation
ERROR_BASE_ENVIRONMENT_FILE_NOT_FOUND (Arquivo base do ambiente não encontrado)
SQLSTATE: nenhum estado atribuído
O arquivo YAML do ambiente base está ausente. Verifique se o arquivo existe no caminho especificado.
Descrição: ocorre quando o arquivo YAML do ambiente base necessário não pode ser encontrado no local esperado.
Ação sugerida: verifique se o arquivo YAML do ambiente base existe no caminho especificado e repita a instalação.
ERROR_BASE_ENVIRONMENT_FILE_READ
SQLSTATE: nenhum estado atribuído
Falha ao ler o arquivo de ambiente base devido à sintaxe incorreta ou ao formato do arquivo YAML. Examine o conteúdo do arquivo.
Descrição: ocorre quando o arquivo YAML do ambiente base contém sintaxe ou erros de formato.
Ação sugerida: valide e corrija a sintaxe YAML no arquivo de ambiente e repita a instalação.
ERROR_CONNECTION_REFUSED (ERRO_CONEXÃO_RECUSADA)
SQLSTATE: nenhum estado atribuído
Não é possível se conectar ao repositório de pacotes. Verifique a conectividade de rede, as configurações de firewall ou a disponibilidade do repositório.
Descrição: ocorre quando o pip não pode estabelecer uma conexão com o repositório de pacote remoto devido a problemas de rede, restrições de firewall ou tempo de inatividade do repositório.
Ação sugerida: verifique a conectividade de rede, verifique as configurações de firewall ou proxy, confirme se a URL do repositório está acessível e tente novamente mais tarde se o repositório pode estar temporariamente indisponível.
ERROR_CORE_PACKAGE_VERSION_CHANGE
SQLSTATE: nenhum estado atribuído
O pacote instalado é incompatível com os pacotes principais do Databricks. Alinhe as versões do pacote com as versões de biblioteca pré-instaladas e repita as instalações.
Descrição: ocorre quando uma versão de dependência principal do Databricks (por exemplo, pyspark) é alterada.
Ação sugerida: alinhe as versões do pacote instalado com as bibliotecas pré-instaladas e repita a instalação.
ERRO_PACOTE_CRAN_NÃO_DISPONÍVEL
SQLSTATE: nenhum estado atribuído
O pacote CRAN não está disponível para a versão do R pré-instalada nesta computação.
Descrição: ocorre quando um pacote R não é publicado para a versão do R instalada na computação.
Ação sugerida: alterne para uma computação com uma versão compatível do R ou escolha uma versão de pacote diferente.
ERROR_DBFS_DISABLED
SQLSTATE: nenhum estado atribuído
O acesso raiz do DBFS público está desabilitado. Use um armazenamento alternativo.
Descrição: Ocorre ao tentar instalar bibliotecas a partir do DBFS, mas a raiz pública do DBFS está desabilitada no ambiente de trabalho.
Ação sugerida: use locais de armazenamento alternativos, como volumes UC, arquivos de Workspace ou armazenamento remoto.
ERRO_DIRETÓRIO_NÃO_INSTALÁVEL
SQLSTATE: nenhum estado atribuído
O diretório é desinstalável devido à estrutura de pacote do Python inválida. Verifique se o diretório está configurado corretamente.
Descrição: ocorre quando a instalação do pip é executada em um diretório sem uma estrutura de pacote do Python válida.
Ação sugerida: verifique se o diretório contém um setup.py ou pyproject.toml e tente novamente ou empacote-o como uma roda.
ERRO_INSTALAÇÃO_DUPLICADA
SQLSTATE: nenhum estado atribuído
Instalação de pacote duplicado detectada. Tente remover a entrada de pacote duplicada do pacote e reinicie o cluster.
Descrição: ocorre quando o mesmo pacote já está instalado no cluster e uma instalação duplicada é tentada.
Ação sugerida: remova as entradas de pacote duplicadas e reinicie o cluster.
ERRO_RECURSO_DESATIVADO
SQLSTATE: nenhum estado atribuído
Volumes do Catálogo Unity estão desabilitados no espaço de trabalho. Entre em contato com o administrador do workspace para habilitar esse recurso.
Descrição: Ocorre quando os volumes do Catálogo do Unity são desabilitados no workspace, impedindo a instalação a partir dos volumes do Catálogo do Unity.
Ação sugerida: contate o administrador do workspace para habilitar volumes do Catálogo do Unity ou use o armazenamento alternativo.
ERROR_HASH_MISMATCH
SQLSTATE: nenhum estado atribuído
Descrepância de hash do pacote detectada. O hash do pacote baixado não corresponde ao hash esperado.
Descrição: ocorre quando o hash de um pacote baixado não corresponde ao hash esperado.
Ação sugerida: tentar novamente a instalação, reiniciar o cluster e/ou mover instalações de pacotes grandes para Arquivos do Workspace, Volumes UC ou um repositório PyPI privado.
ERROR_INVALID_FILE
SQLSTATE: nenhum estado atribuído
O arquivo especificado não pode ser instalado devido ao tipo de arquivo incorreto. Verifique se você está usando o tipo de arquivo válido e com suporte.
Descrição: ocorre quando o arquivo de biblioteca especificado não pode ser instalado devido ao tipo ou formato de arquivo incorreto.
Ação sugerida: use um tipo de arquivo de biblioteca com suporte (por exemplo, roda, jar) e verifique a validade do caminho.
ERROR_INVALID_REQUIREMENT
SQLSTATE: nenhum estado atribuído
Sintaxe incorreta ou entradas malformadas no arquivo de requisitos ou nas dependências de pacotes. Verifique e corrija o arquivo de requisitos e o conteúdo das dependências de pacote.
Descrição: formato de requisito inválido ou malformado detectado no arquivo de requisitos ou nas especificações de dependência de um pacote.
Ação sugerida: use o formato correto (por exemplo, 'library-name==version') nos arquivos de requisitos, verifique se os formatos de dependência do pacote são válidos e verifique se há erros de digitação ou especificadores de versão sem suporte.
ERROR_INVALID_SCRIPT_ENTRY_POINT
SQLSTATE: nenhum estado atribuído
Ponto de entrada de script inválido. Verifique os pontos de entrada do pacote ou o arquivo setup.py.
Descrição: ocorre quando o ponto de entrada de script do console especificado não existe nos metadados do pacote.
Ação sugerida: verifique o nome do ponto de entrada em setup.py ou pyproject.toml ou contate o mantenedor do pacote.
ERROR_INVALID_STORAGE_CONFIGURATION
SQLSTATE: nenhum estado atribuído
Valor de configuração de armazenamento inválido detectado para a conta de armazenamento em nuvem. Verifique a configuração de armazenamento, as configurações de conta e as credenciais.
Descrição: ocorre quando a configuração da conta de armazenamento em nuvem está malformada ou incorreta.
Ação sugerida: corrija a configuração de armazenamento da conta e tente novamente a instalação.
ERROR_INVALID_USER_INPUT
SQLSTATE: nenhum estado atribuído
Sintaxe de pacote inválida ou argumentos fornecidos. Verifique se a entrada e as opções de instalação da biblioteca são válidas.
Descrição: ocorre quando pip é invocado com opções ou argumentos inválidos.
Ação sugerida: verifique as opções pip e a sintaxe de comando, corrija a entrada e tente a instalação novamente.
ERRO_RODA_INVÁLIDA
SQLSTATE: nenhum estado atribuído
Arquivo de roda corrompido, malformado ou inválido detectado. Verifique o arquivo wheel ou repita a instalação.
Descrição: ocorre quando pip encontra um arquivo de roda corrompido, incompleto ou malformado durante a instalação.
Ação sugerida: limpar o cache do pip, rebaxe ou reconstrua o pacote wheel, reinstale e verifique sua integridade antes de tentar novamente.
ERROR_JAR_EVICTED
SQLSTATE: nenhum estado atribuído
O pacote JAR foi removido pelo resolvedor devido a conflitos de versão. Resolva conflitos de versão de dependência.
Descrição: ocorre quando a resolução de dependência do Maven remove um jar devido a conflitos de versão com outras dependências.
Ação sugerida: resolva conflitos nas configurações de dependências ou use sobrescrições de versão explícitas.
ERROR_MAVEN_LIBRARY_RESOLUTION
SQLSTATE: nenhum estado atribuído
Não é possível resolver as coordenadas da biblioteca do Maven. Verifique os detalhes da biblioteca, o acesso ao repositório ou a disponibilidade do repositório Maven.
Descrição: ocorre quando o Maven não consegue localizar ou resolver a biblioteca especificada devido a coordenadas incorretas, problemas de rede ou tempo de inatividade do repositório.
Ação sugerida: verifique o formato groupId:artifactId:version, verifique as URLs e as credenciais do repositório, tente repositórios alternativos ou tente novamente mais tarde se o repositório pode estar temporariamente indisponível.
ERROR_NO_MATCHING_DISTRIBUTION
SQLSTATE: nenhum estado atribuído
Não é possível baixar ou acessar os ativos de armazenamento em nuvem especificados, normalmente devido a configurações incorretas, dependências ausentes ou problemas de conectividade. Examine a configuração do armazenamento em nuvem.
Descrição: ocorre quando o cluster não pode baixar ou instalar arquivos de biblioteca do armazenamento em nuvem, normalmente devido a configurações incorretas, dependências ausentes ou problemas de rede.
Ação sugerida: verifique se as URIs de armazenamento em nuvem estão corretas, as credenciais são válidas e se todos os proxies ou bibliotecas de rede necessários estão configurados corretamente e tente novamente a instalação.
ERROR_NO_SUCH_FILE_OR_DIRECTORY - Arquivo ou diretório inexistente
SQLSTATE: nenhum estado atribuído
O arquivo de biblioteca não existe ou o usuário não tem permissão para ler o arquivo de biblioteca. Verifique se o arquivo de biblioteca existe e se o usuário tem as permissões certas para acessar o arquivo.
Descrição: ocorre quando o arquivo especificado está ausente ou inacessível no caminho fornecido durante a instalação da biblioteca.
Ação sugerida: verifique se o arquivo existe no caminho especificado, corrija o caminho ou carregue o arquivo ausente e verifique as permissões adequadas.
ERROR_OPERATION_NOT_SUPPORTED
SQLSTATE: nenhum estado atribuído
A instalação da biblioteca não tem suporte para esse tipo de arquivo do sistema de arquivos solicitado. Verifique o tipo de biblioteca e consulte o guia do usuário sobre a biblioteca com suporte na computação atual.
Descrição: ocorre quando o sistema de arquivos de destino, tipo de arquivo ou tipo de computação não dá suporte à operação solicitada durante a instalação.
Ação sugerida: use um sistema de arquivos, um tipo de arquivo ou um tipo de computação com suporte ou ajuste o destino de instalação para um local com suporte.
ERRO_PERMISSÃO_NEGADA
SQLSTATE: nenhum estado atribuído
O usuário não tem permissão suficiente para instalar o pacote. Verifique os direitos de acesso do arquivo e do diretório para o usuário.
Descrição: ocorre quando o usuário instalador não tem permissão para ler ou gravar um arquivo ou diretório durante a instalação.
Ação sugerida: verifique e conceda permissões adequadas no diretório de destino ou entre em contato com o administrador do sistema.
ERROR_PIP_CONFIG
SQLSTATE: nenhum estado atribuído
O usuário tentou instalar uma biblioteca do Python, mas o arquivo de configuração pip no nível do espaço de trabalho ou do cluster tem erros de sintaxe ou está malformado. Verifique e corrija o arquivo de configuração pip.
Descrição: ocorre quando o arquivo de configuração do Pip tem erros de sintaxe ou está malformado.
Ação sugerida: corrija os erros de sintaxe no arquivo de configuração pip, remova o arquivo de configuração para usar as configurações padrão, reinicie o cluster e repita a instalação.
ERROR_PYTHON_REPL_RESTORE_FAILURE
SQLSTATE: nenhum estado atribuído
Falha na restauração do PYTHON REPL após a instalação do pacote.
Descrição: normalmente ocorre quando os pacotes principais do Python são atualizados de uma maneira que interrompe o ambiente de runtime durante a restauração.
Ação Sugerida: examine os pacotes instalados recentemente e instale pacotes compatíveis com os padrões do Ambiente do Databricks, como numpy, pandas, pyspark e outras bibliotecas padrão. Verifique se as versões são compatíveis com a versão do Databricks Runtime. Se ainda estiver falhando, entre em contato com o Suporte do Databricks.
ERRO_REQUISITOS_ARQUIVO_INSTALAÇÃO
SQLSTATE: nenhum estado atribuído
Arquivos requirements.txt que contêm um volume do Unity Catalog ou referência de arquivo de workspace não têm suporte em clusters que não possuem o Unity Catalog habilitado. Use um cluster habilitado para UC para instalar o arquivo requirements.txt que se refere a um volume de UC ou um arquivo de workspace.
Descrição: Ocorre quando requirements.txt inclui volumes UC ou referências de arquivos de workspace em um cluster não habilitado para UC.
Ação sugerida: use um cluster habilitado para UC para requirements.txt que referencia o workspace ou arquivos UC ou remova essas referências.
ERROR_REQUIRE_HASHES
SQLSTATE: nenhum estado atribuído
Hashes ausentes quando pip é executado no modo --require-hashes e um requisito não tem um hash. Resolva os requisitos de hash ou desative a verificação de hash.
Descrição: ocorre quando o pip é executado no modo --require-hashes e um requisito não tem um hash.
Ação sugerida: adicionar hashes para todos os pacotes em requirements.txt ou remover o sinalizador --require-hashes.
ERROR_RESTART_PYTHON
SQLSTATE: nenhum estado atribuído
Falha ao reiniciar o processo do Python. Isso pode ocorrer devido à atualização da versão de um pacote que está em conflito com as bibliotecas de runtime pré-instaladas. Verifique e alinhe as dependências do pacote e suas versões.
Descrição: ocorre quando o ambiente do Python não pode ser reiniciado após a instalação da biblioteca, geralmente devido a conflitos entre pacotes instalados e bibliotecas pré-instaladas do Databricks Runtime.
Ação sugerida: alinhe as versões do pacote instalado com as bibliotecas de runtime do Databricks pré-instaladas para evitar conflitos e erros de reinicialização do Python.
ERROR_RESTART_SCALA
SQLSTATE: nenhum estado atribuído
Falha ao reiniciar o processo do Scala. Isso pode ocorrer devido à incompatibilidade de versão do Scala em JARs scala (por exemplo, executando o jar 2.12 em um kernel 2.13). Verifique e alinhe as versões do Scala.
Descrição: ocorre quando o ambiente Scala não pode ser reiniciado, geralmente devido a conflitos de incompatibilidade de versão do Scala em JARs scala.
Ação sugerida: alinhe as versões do SCALA jar com a versão scala do kernel para evitar conflitos e erros de reinicialização do Scala.
ERROR_S3_FORBIDDEN - acesso negado
SQLSTATE: nenhum estado atribuído
Acesso negado ao recurso S3. Verifique as permissões de IAM e as políticas de bucket.
Descrição: as credenciais do AWS do cluster não têm permissões suficientes para acessar o recurso S3 especificado.
Ação sugerida: verifique e atualize as políticas de bucket S3 ou funções IAM para conceder o acesso de leitura necessário ao cluster.
ERROR_SCALA_INSTALLATION
SQLSTATE: nenhum estado atribuído
Falha ao instalar dependências java devido a problemas de permissão ou arquivos ausentes.
Descrição: ocorre quando as dependências java não podem ser instaladas, geralmente devido a caminhos inválidos, URLs ou permissões de arquivo insuficientes.
Ação sugerida: verificar caminhos de arquivo e URLs, garantir as permissões adequadas e repetir a instalação.
ERROR_SETUP_PY_FAILURE
SQLSTATE: nenhum estado atribuído
O setup.py do pacote Python não foi executado com êxito devido a problemas de compatibilidade, dependências ausentes ou erros de configuração. Verifique o arquivo de configuração de suas dependências.
Descrição: ocorre quando o script de setup.py do pacote falha devido a problemas de compatibilidade, dependências ausentes ou erros de configuração.
Ação sugerida: atualizar versões do pacote, instalar dependências ausentes, substituir pacotes preteridos e verificar o script setup.py.
ERROR_SSL_VIOLATION
SQLSTATE: nenhum estado atribuído
Pip encontrou problemas durante o handshake SSL ou na verificação de certificado. Examine as configurações e certificados SSL em sua computação ou workspace.
Descrição: ocorre quando o pip encontra problemas de handshake SSL ou verificação de certificado ao se conectar a repositórios de pacotes.
Ação sugerida: verifique se os certificados SSL são válidos, configure hosts confiáveis no pip ou verifique a configuração de SSL da rede.
ERROR_UC_ASSET_NOT_FOUND
SQLSTATE: nenhum estado atribuído
Objeto do Catálogo do Unity não encontrado. Verifique se o catálogo, o esquema e o volume existem.
Descrição: ocorre quando o volume, catálogo ou esquema do Catálogo do Unity especificado não existe ou está inacessível
Ação sugerida: verifique se o caminho do objeto do Catálogo do Unity está correto e se o objeto existe em sua conta.
ERROR_UNSUPPORTED_LIBRARY_TYPE
SQLSTATE: nenhum estado atribuído
O tipo de biblioteca não tem suporte nessa computação. Verifique as bibliotecas com suporte para o tipo de computação.
Descrição: ocorre ao tentar instalar um tipo de biblioteca que não é compatível com a computação selecionada.
Ação sugerida: use um tipo de biblioteca com suporte para essa computação ou alterne para uma computação compatível com esse libraryType.
ERRO_VERSÃO_PYTHON_NÃO_SUPORTADA
SQLSTATE: nenhum estado atribuído
A biblioteca python é incompatível com a versão do Python nessa computação. Utilize um computador com uma versão compatível do Python.
Descrição: ocorre quando a restrição de python_requires um pacote não corresponde à versão do Python em execução na computação.
Ação sugerida: instale uma versão do pacote que dê suporte à versão atual do Python ou altere a versão de computação.
ERROR_UNSUPPORTED_SSL_ENABLED
SQLSTATE: nenhum estado atribuído
A instalação falha quando a configuração do spark.ssl.enabled é ativada, o que não tem suporte para a instalação da biblioteca. Desabilite a configuração de SSL e reinicie o cluster.
Descrição: ocorre quando a configuração spark.ssl.enabled é ativada, o que não tem suporte para a instalação da biblioteca.
Ação Sugerida: desabilite a configuração de SSL (por exemplo, defina spark.ssl.enabled=false ou set spark.databricks.libraryes.ignoreSSL=true) e reinicie o cluster.
ERROR_USER_NOT_FOUND_IN_WORKSPACE
SQLSTATE: nenhum estado atribuído
Falha na instalação da biblioteca porque o usuário não foi encontrado no workspace. Isso normalmente acontece quando um usuário foi removido do workspace, mas seu token ainda está sendo usado.
Descrição: ocorre quando o token de acesso de um usuário está em uso, mas o usuário não existe mais no workspace especificado.
Ação sugerida: verifique se o usuário tem acesso ao workspace ou atualize a configuração do cluster para usar as credenciais de um usuário válido.
ERRO_PERMISSÃO_DE_VOLUME_NEGADA
SQLSTATE: nenhum estado atribuído
Permissões insuficientes no volume do Catálogo do Unity. Verifique os direitos de acesso ao Volume UC ou solicite ao proprietário do Volume UC o acesso.
Descrição: ocorre quando o usuário não tem permissões no volume UC especificado.
Ação sugerida: Solicite permissões de leitura no volume do Catálogo do Unity a partir do proprietário ou administrador do volume.
ERROR_WHEEL_BUILD
SQLSTATE: nenhum estado atribuído
O Pip não pôde criar a roda com êxito devido a erros ou dependências de build ausentes. Verifique o conteúdo e as dependências do pacote wheel.
Descrição: ocorre quando o pip falha ao criar uma roda para o pacote devido a erros ou dependências de build ausentes.
Ação sugerida: verifique se as ferramentas de build e os cabeçalhos estão instalados ou instale uma roda predefinida com --no-binary.
ERROR_WHEEL_INSTALLATION
SQLSTATE: nenhum estado atribuído
A roda é incompatível com a computação atual devido à incompatibilidade de marca de plataforma ou a um arquivo de roda inválido. Verifique o conteúdo do pacote de roda, as dependências e sua compatibilidade com a computação.
Descrição: ocorre quando o arquivo wheel é inválido ou os tags de plataforma não correspondem.
Ação sugerida: use uma roda criada para a plataforma atual ou recompile a roda com marcas apropriadas.
FAULT_CLOUD_STORAGE_INSTALLATION
SQLSTATE: nenhum estado atribuído
Não é possível baixar ou acessar os ativos de armazenamento em nuvem especificados, normalmente devido a configurações incorretas ou problemas de conectividade. Examine a configuração do armazenamento em nuvem.
Descrição: ocorre quando a computação não pode baixar ou instalar arquivos de biblioteca do armazenamento em nuvem, normalmente devido a configurações incorretas ou problemas de rede.
Ação sugerida: verifique se as URIs de armazenamento em nuvem estão corretas, as credenciais são válidas e se todos os proxies ou bibliotecas de rede necessários estão configurados corretamente e tente novamente a instalação.
FAULT_DBR_VERSION_EOS
SQLSTATE: nenhum estado atribuído
A versão do Databricks Runtime na computação atingiu seu fim de suporte e não tem mais suporte. Use uma versão de runtime do Databricks com suporte.
Descrição: ocorre quando a biblioteca é instalada em uma versão do Databricks Runtime que não recebe mais atualizações ou suporte.
Ação sugerida: atualize o cluster para uma versão do Databricks Runtime com suporte e repita a instalação.
FAULT_POLLER_VALIDAÇÃO_LISTA_DE_PERMITIDOS
SQLSTATE: nenhum estado atribuído
A instalação da biblioteca é bloqueada devido à falta da lista de permissões. Isso pode acontecer se uma biblioteca for removida da lista de permissões depois de ser adicionada a um cluster. Verifique a lista de permissões da biblioteca, solicite ao administrador que adicione bibliotecas à lista de permissões ou remova pacotes não autorizados do cluster.
Descrição: ocorre quando uma ou mais bibliotecas solicitadas não são aprovadas na lista de permissões do metastore e são bloqueadas da instalação. Isso também pode acontecer se uma biblioteca foi permitida anteriormente, mas posteriormente removida da lista de permissões.
Ação sugerida: verifique a lista de permissões do metastore, solicite ao administrador que adicione as bibliotecas ausentes à lista de permissões ou remova bibliotecas não autorizadas do cluster.
FAULT_POLLER_DBR_UNSUPPORTED
SQLSTATE: nenhum estado atribuído
A versão do Databricks Runtime no cluster atingiu seu fim de suporte e não tem mais suporte. Use uma versão de runtime do Databricks com suporte.
Descrição: ocorre quando a biblioteca é instalada em uma versão do Databricks Runtime que não recebe mais atualizações ou suporte.
Ação sugerida: altere o cluster para usar uma versão do Databricks Runtime com suporte e repita a instalação.
FAULT_POLLER_LIBRARY_STORAGE_FORMAT_UNSUPPORTED
SQLSTATE: nenhum estado atribuído
A versão do Databricks Runtime selecionada pode não dar suporte a certos formatos de armazenamento de bibliotecas, como os caminhos gs:// ou abfss://. Atualize o Databricks Runtime ou consulte o guia do usuário sobre os recursos para diferentes versões do Databricks Runtime.
Descrição: ocorre quando a versão do Databricks Runtime não dá suporte ao formato ou protocolo de armazenamento de biblioteca especificado.
Ação sugerida: use um esquema de armazenamento com suporte ou uma atualização para uma versão do Databricks Runtime que dê suporte ao formato de armazenamento desejado.
FAULT_POLLER_UNITY_CATALOG_NOT_AVAILABLE_ERROR
SQLSTATE: nenhum estado atribuído
A instalação da biblioteca requer o Catálogo do Unity, mas o Catálogo do Unity não está disponível no cluster ou workspace. Entre em contato com o administrador do workspace para habilitar esse recurso.
Descrição: ocorre quando uma instalação de biblioteca requer o Catálogo do Unity, mas o Catálogo do Unity não está disponível no workspace.
Ação sugerida: solicite a administração para habilitar o Catálogo do Unity em seu workspace ou use um cluster que dê suporte ao Catálogo do Unity.
FALHA_NO_ACESSO_AO_ARMAZENAMENTO
SQLSTATE: nenhum estado atribuído
Não é possível acessar recursos de armazenamento em nuvem devido a problemas de credencial, rede ou permissão. Verifique a configuração de acesso ao armazenamento em nuvem.
Descrição: ocorre quando a computação não pode acessar os recursos de armazenamento em nuvem devido a problemas de credencial, rede ou permissão.
Ação sugerida: verifique as credenciais de armazenamento, a conectividade de rede e as permissões de acesso e repita a instalação.
Miscellaneous
ABAC_POLICIES_NOT_SUPPORTED_FOR_RUNTIME_VERSION
SQLSTATE: nenhum estado atribuído
Versão do DBR <abacDBRMajorVersion>.
<abacDBRMinorVersion> ou superior é necessário para consultar a tabela <tableFullName>, devido a ela estar protegida por uma política ABAC.
AZURE_ENTRA_CREDENTIALS_MISSING
SQLSTATE: nenhum estado atribuído
Credenciais do Azure Entra (também conhecido como Azure Active Directory) ausentes.
Verifique se você está conectado com sua conta do Entra
ou tenha configurado um PAT (token de acesso pessoal) do Azure DevOps em Configurações de Usuário> Integração do Git.
Se você não estiver usando um PAT e estiver usando o Azure DevOps com a API de Repos,
você deve usar um token de acesso do Azure Entra.
Confira https://docs.microsoft.com/azure/databricks/dev-tools/api/latest/aad/app-aad-token as etapas para adquirir um token de acesso do Azure Entra.
<pickOrCreateNewCredential>
AZURE_ENTRA_CREDENTIALS_PARSE_FAILURE
SQLSTATE: nenhum estado atribuído
Encontrou um erro com suas credenciais do Azure Entra (Azure Active Directory). Experimente fazer logoff novamente do
Entra (https://portal.azure.com) e faça logon novamente.
Como alternativa, você também pode visitar Configurações de Usuário > Integração do Git para definir
Obtenha um token de acesso pessoal do Azure DevOps.
<pickOrCreateNewCredential>
AZURE_ENTRA_LOGIN_ERROR
SQLSTATE: nenhum estado atribuído
Encontrou um erro com suas credenciais do Azure Active Directory. Experimente fazer logoff novamente do
Azure Active Directory (https://portal.azure.com) e faça logon novamente.
<pickOrCreateNewCredential>
AZURE_ENTRA_WORKLOAD_IDENTITY_ERROR
SQLSTATE: nenhum estado atribuído
Ocorreu um erro com a Identidade da Carga de Trabalho do Azure com a Exceção do Azure: <azureWorkloadIdentityExceptionMessage>
CLEAN_ROOM_DELTA_SHARING_ENTITY_NOT_AUTHORIZED
SQLSTATE: nenhum estado atribuído
A geração de credenciais para protegível de compartilhamento delta de sala limpa não pode ser solicitada.
CLEAN_ROOM_HIDDEN_SECURABLE_PERMISSION_DENIED
SQLSTATE: nenhum estado atribuído
Protegível <securableName> com tipo <securableType> e tipo <securableKind> é gerenciado pelo sistema de sala limpo, o usuário não tem acesso.
CONSTRAINT_ALREADY_EXISTS
SQLSTATE: nenhum estado atribuído
A restrição com o nome <constraintName> já existe, escolha um nome diferente.
CONSTRAINT_DOES_NOT_EXIST
SQLSTATE: nenhum estado atribuído
A restrição <constraintName> não existe.
COULD_NOT_READ_REMOTE_REPOSITORY
SQLSTATE: nenhum estado atribuído
Não foi possível ler o repositório remoto (<repoUrl>).
A credencial <credentialName> (<credentialId>) foi usada<because>.
O provedor dessa credencial git é <gitCredentialProvider> e email/nome de usuário é <gitCredentialUsername>.
Acesse seu provedor Git remoto para garantir que:
A URL do repositório Git remoto é válida.
Seu token de acesso pessoal ou senha de aplicativo tem o acesso correto ao repositório.
<pickOrCreateNewCredential>
COULD_NOT_RESOLVE_REPOSITORY_HOST
SQLSTATE: nenhum estado atribuído
Não foi possível resolver o host para <repoUrl>.
A credencial <credentialName> (<credentialId>) foi usada<because>.
O provedor dessa credencial git é <gitCredentialProvider> e email/nome de usuário é <gitCredentialUsername>.
CSMS_BEGINNING_OF_TIME_NOT_SUPPORTED
SQLSTATE: nenhum estado atribuído
O parâmetro beginning_of_time não pode ser verdadeiro.
CSMS_CONTINUATION_TOKEN_EXPIRED
SQLSTATE: nenhum estado atribuído
O token de continuação expirou. Causa: <msg>
CSMS_CREDENTIAL_NAME_MISSING
SQLSTATE: nenhum estado atribuído
O nome da credencial está ausente na solicitação
CSMS_FILE_EVENTS_VALIDATION_USER_ERROR
SQLSTATE: nenhum estado atribuído
Falha na validação de eventos de arquivo para a operação <operation>: <message>
CSMS_INVALID_CONTINUATION_TOKEN
SQLSTATE: nenhum estado atribuído
Token de continuação inválido. Causa: <msg>
CSMS_INVALID_FILE_EVENTS_QUEUE
SQLSTATE: nenhum estado atribuído
<missingField> está ausente na <queueType> solicitação
CSMS_INVALID_MAX_OBJECTS
SQLSTATE: nenhum estado atribuído
Valor <value> inválido para max_objects de parâmetro, valor esperado em [<minValue>, <maxValue>]
CSMS_INVALID_SUBSCRIPTION_ID
SQLSTATE: nenhum estado atribuído
ID da assinatura inválida. Causa: <msg>
CSMS_INVALID_URI_FORMAT
SQLSTATE: nenhum estado atribuído
Formato de URI inválido. Espera-se um volume (por exemplo, "/Volumes/catalog/schema/volume") ou caminho de armazenamento em nuvem (por exemplo, "s3://some-uri")
CSMS_KAFKA_TOPIC_MISSING
SQLSTATE: nenhum estado atribuído
Deve fornecer um tópico do Kafka
CSMS_LOCATION_ERROR
SQLSTATE: nenhum estado atribuído
Falha ao listar objetos. Há problemas no local que precisam ser resolvidos. Detalhes: <msg>
CSMS_LOCATION_NOT_KNOWN
SQLSTATE: nenhum estado atribuído
Nenhum local encontrado para uri <path>
CSMS_METASTORE_ID_MISSING
SQLSTATE: nenhum estado atribuído
Deve fornecer um uuid de metastore
CSMS_METASTORE_RESOLUTION_FAILED
SQLSTATE: nenhum estado atribuído
Não é possível determinar um metastore para a solicitação.
CSMS_RESOLVE_CREDENTIAL_ID_FAILED
SQLSTATE: nenhum estado atribuído
Falha ao resolver a ID da credencial para credencial: <credentialName>
CSMS_RESOLVE_LOCAL_SHARD_NAME_FAILED
SQLSTATE: nenhum estado atribuído
CSMS falhou ao resolver o nome do fragmento local
CSMS_SERVICE_DISABLED
SQLSTATE: nenhum estado atribuído
O serviço está desabilitado
CSMS_SHARD_NAME_MISSING_IN_REQUEST
SQLSTATE: nenhum estado atribuído
O nome do fragmento está ausente de uma solicitação rpc para CSMS
CSMS_STORAGE_CREDENTIAL_DOES_NOT_EXIST
SQLSTATE: nenhum estado atribuído
A credencial de armazenamento não existe.
CSMS_SUBSCRIPTION_ID_AUSENTE_NA_SOLICITAÇÃO
SQLSTATE: nenhum estado atribuído
A ID da assinatura está ausente na solicitação.
CSMS_SUBSCRIPTION_NOT_FOUND
SQLSTATE: nenhum estado atribuído
Assinatura com id <id> não encontrada.
CSMS_UNITY_CATALOG_DISABLED
SQLSTATE: nenhum estado atribuído
O catálogo do Unity está desabilitado para este espaço de trabalho
CSMS_UNITY_CATALOG_ENTITY_NOT_FOUND
SQLSTATE: nenhum estado atribuído
Entidade não encontrada no Catálogo do Unity. Verifique se o catálogo, o esquema, o volume e/ou o local externo existem.
CSMS_UNITY_CATALOG_EXTERNAL_LOCATION_DOES_NOT_EXIST
SQLSTATE: nenhum estado atribuído
O local externo do Unity Catalog não existe.
CSMS_UNITY_CATALOG_EXTERNAL_STORAGE_OVERLAP
SQLSTATE: nenhum estado atribuído
O URI se sobrepõe a outros volumes
CSMS_UNITY_CATALOG_METASTORE_DOES_NOT_EXIST
SQLSTATE: nenhum estado atribuído
Não é possível determinar um metastore para a solicitação. O Metastore não existe
ACESSO_COM_BASE_NO_CAMINHO_DO_CSMS_UNITY_CATALOG_A_TABELA_COM_FILTRO_NÃO_PERMITIDO
SQLSTATE: nenhum estado atribuído
O URI aponta para a tabela com filtro de nível de linha ou máscara de coluna. O acesso baseado em caminho a esta tabela não é permitido.
CSMS_UNITY_CATALOG_PERMISSION_DENIED
SQLSTATE: nenhum estado atribuído
Permissão negada
CSMS_UNITY_CATALOG_RATE_LIMITED
SQLSTATE: nenhum estado atribuído
Limite de taxa de solicitação excedido. Tente novamente depois de algum tempo.
CSMS_UNITY_CATALOG_TABLE_DOES_NOT_EXIST
SQLSTATE: nenhum estado atribuído
A tabela do Unity Catalog não existe.
CSMS_UNITY_CATALOG_VOLUME_DOES_NOT_EXIST
SQLSTATE: nenhum estado atribuído
O volume do Catálogo do Unity não existe.
CSMS_UNSUPPORTED_FILE_EVENTS_QUEUE
SQLSTATE: nenhum estado atribuído
Fila de eventos de arquivo desconhecido na solicitação
CSMS_UNSUPPORTED_MANAGED_RESOURCE_TYPE
SQLSTATE: nenhum estado atribuído
Não há suporte para o tipo <resourceType> de recurso gerenciado
CSMS_UNSUPPORTED_SECURABLE
SQLSTATE: nenhum estado atribuído
Elemento de segurança sem suporte
CSMS_URI_MISSING
SQLSTATE: nenhum estado atribuído
Deve fornecer o URI
CSMS_URI_TOO_LONG
SQLSTATE: nenhum estado atribuído
O URI fornecido é muito longo. O comprimento máximo permitido é <maxLength>.
CSMS_USER_CONTEXT_MISSING_IN_REQUEST
SQLSTATE: nenhum estado atribuído
O contexto do usuário está ausente de uma solicitação rpc para CSMS
DMK_CATALOGS_DISALLOWED_ON_CLASSIC_COMPUTE
SQLSTATE: nenhum estado atribuído
O Armazenamento Padrão do Databricks não pode ser acessado usando a Computação Clássica. Use a computação sem servidor para acessar dados no Armazenamento Padrão
GITHUB_APP_COULD_NOT_REFRESH_CREDENTIALS
SQLSTATE: nenhum estado atribuído
Falha na operação porque as credenciais de aplicativo do GitHub vinculadas não puderam ser atualizadas.
Tente novamente ou vá para Configurações de Usuário > Integração Git e tente reconectar sua conta do provedor Git.
Se o problema persistir, crie um tíquete de suporte.
<pickOrCreateNewCredential>
GITHUB_APP_CREDENTIALS_NO_ACCESS
SQLSTATE: nenhum estado atribuído
O link para sua conta do GitHub não tem acesso. Para corrigir este erro:
- Um administrador do repositório deve acessar https://github.com/apps/databricks/installations/new e instalar o aplicativo GitHub do Databricks no repositório.
Como alternativa, um proprietário de conta do GitHub pode instalar o aplicativo na conta para dar acesso aos repositórios da conta.
- Se o aplicativo já estiver instalado, peça a um administrador que verifique se, ao usar o acesso com escopo com a opção "Selecionar apenas repositórios", ele incluiu esse repositório selecionando-o.
https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app Consulte para obter mais informações.
<pickOrCreateNewCredential>
GITHUB_APP_EXPIRED_CREDENTIALS
SQLSTATE: nenhum estado atribuído
As credenciais do aplicativo GitHub vinculado expiraram após 6 meses de inatividade.
Vá para Configurações do Usuário > Integração Git e tente revincular suas credenciais.
Se o problema persistir, crie um tíquete de suporte.
<pickOrCreateNewCredential>
GITHUB_APP_INSTALL_ON_DIFFERENT_USER_ACCOUNT
SQLSTATE: nenhum estado atribuído
O link para sua conta do GitHub não tem acesso. Para corrigir este erro:
O usuário
<gitCredentialUsername>do GitHub deve acessar https://github.com/apps/databricks/installations/new e instalar o aplicativo na conta<gitCredentialUsername>para permitir o acesso.Se o usuário
<gitCredentialUsername>já tiver instalado o aplicativo e estiver usando o acesso com escopo com a opção "Selecionar somente repositórios", ele deverá garantir que tenha incluído o acesso a esse repositório selecionando-o.
https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app Consulte para obter mais informações.
<pickOrCreateNewCredential>
GITHUB_APP_INSTALL_ON_ORGANIZATION
SQLSTATE: nenhum estado atribuído
O link para sua conta do GitHub não tem acesso. Para corrigir este erro:
Um proprietário da organização
<organizationName>GitHub deve acessar https://github.com/apps/databricks/installations/new e instalar o aplicativo na organização<organizationName>para permitir o acesso.Se o aplicativo já estiver instalado na organização do GitHub
<organizationName>, um proprietário dessa organização deve garantir que, ao usar o acesso com escopo com a opção "Somente repositórios selecionados", incluiu o acesso a este repositório ao selecioná-lo.
https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app Consulte para obter mais informações.
<pickOrCreateNewCredential>
GITHUB_APP_INSTALL_ON_YOUR_ACCOUNT
SQLSTATE: nenhum estado atribuído
O link para sua conta do GitHub não tem acesso. Para corrigir este erro:
https://github.com/apps/databricks/installations/new Acesse e instale o aplicativo em sua conta
<gitCredentialUsername>para permitir o acesso.Se o aplicativo já estiver instalado e você estiver usando o acesso com escopo com a opção "Selecionar somente repositórios", verifique se você incluiu o acesso a esse repositório selecionando-o.
https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app Consulte para obter mais informações.
<pickOrCreateNewCredential>
GIT_CLUSTER_NOT_READY
SQLSTATE: nenhum estado atribuído
O cluster Git não está pronto.
GIT_CREDENTIAL_GENERIC_INVALID
SQLSTATE: nenhum estado atribuído
Credenciais de provedor Git inválidas para URL <repoUrl>do repositório.
A credencial <credentialName> (<credentialId>) foi usada<because>.
O provedor dessa credencial git é <gitCredentialProvider> e email/nome de usuário é <gitCredentialUsername>.
Acesse seu provedor Git remoto para garantir que:
Você inseriu o email de usuário ou nome de usuário correto do Git com suas credenciais do provedor Git.
Seu token tem o acesso correto ao repositório.
Seu token não expirou.
Se você tiver o SSO habilitado com seu provedor Git, certifique-se de autorizar seu token.
<pickOrCreateNewCredential>
GIT_CREDENTIAL_INVALID_PAT
SQLSTATE: nenhum estado atribuído
Credenciais inválidas do Token de Acesso Pessoal do provedor Git para a URL do repositório <repoUrl>.
A credencial <credentialName> (<credentialId>) foi usada<because>.
O provedor dessa credencial git é <gitCredentialProvider> e email/nome de usuário é <gitCredentialUsername>.
Acesse seu provedor Git remoto para garantir que:
Você inseriu o email de usuário ou nome de usuário correto do Git com suas credenciais do provedor Git.
Seu token tem o acesso correto ao repositório.
Seu token não expirou.
Se você tiver o SSO habilitado com seu provedor Git, certifique-se de autorizar seu token.
<pickOrCreateNewCredential>
.
GIT_CREDENTIAL_MISSING
SQLSTATE: nenhum estado atribuído
Nenhuma credencial git configurada, mas a credencial necessária para este repositório (<repoUrl>).
Vá para Configurações de Usuário > Integração Git para configurar suas credenciais do Git.
GIT_CREDENTIAL_NO_WRITE_PERMISSION
SQLSTATE: nenhum estado atribuído
Acesso de gravação ao repositório <gitCredentialProvider> (<repoUrl>) não concedido.
A credencial <credentialName> (<credentialId>) foi usada<because>.
O provedor dessa credencial git é <gitCredentialProvider> e email/nome de usuário é <gitCredentialUsername>.
Verifique se você (<gitCredentialUsername>) tem acesso de gravação a esse repositório remoto.
GIT_CREDENTIAL_PROVIDER_MISMATCHED
SQLSTATE: nenhum estado atribuído
Provedor de credenciais git incorreto para repositório.
Você não tem uma credencial Git com um provedor Git (<repositoryGitProvider>) que corresponda ao do provedor <repoUrl>Git do repositório.
Acesse a Integração git de configurações > de usuário para criar uma nova credencial para o provedor <repositoryGitProvider>Git.
GIT_FILE_NAME_TOO_LONG
SQLSTATE: nenhum estado atribuído
Os nomes de arquivo ou pasta no caminho <path> excedem o <maxComponentBytes> máximo de bytes por componente.
Os sistemas baseados em Unix só dão suporte a até <maxComponentBytes> bytes por nome de arquivo ou pasta.
Violações: <violations>
Reduza os componentes problemáticos para continuar.
GIT_PROVIDER_INFO_MISSING
SQLSTATE: nenhum estado atribuído
As informações do provedor git estão ausentes ou vazias.
Adicione as informações de credencial git e tente novamente.
Se o problema persistir, crie um tíquete de suporte.
GIT_PROXY_CLUSTER_NOT_READY
SQLSTATE: nenhum estado atribuído
O cluster de proxy do Git não está pronto.
GIT_PROXY_CONNECTION_FAILED
SQLSTATE: nenhum estado atribuído
Falha ao conectar-se ao Git Proxy, verifique se o Git Proxy está funcionando.
Erro: <error>
GIT_SECRET_IN_CODE
SQLSTATE: nenhum estado atribuído
Segredos encontrados na confirmação. Detalhe: <secretDetail>. Para corrigir este erro:
Remova o segredo e tente confirmar novamente.
Se o problema persistir, crie um tíquete de suporte.
GIT_STALE_REMOTE_REFS
SQLSTATE: nenhum estado atribuído
A busca do Git foi concluída, mas não pôde atualizar referências remotas obsoletas devido a conflitos de caminho do sistema de arquivos (por exemplo, branches excluídos ou 'feature' versus 'feature/sub').
Erro do Git: <gitErrorMessage>
HIERARCHICAL_NAMESPACE_NOT_ENABLED
SQLSTATE: nenhum estado atribuído
A conta de armazenamento do Azure não tem o namespace hierárquico habilitado.
INVALID_FIELD_LENGTH
<rpcName> <fieldName> muito longo. O comprimento máximo é <maxLength> de caracteres.
INVALID_PARAMETER_VALUE
<msg>
Para obter mais detalhes , consulte INVALID_PARAMETER_VALUE
JOBS_TASK_FRAMEWORK_TASK_RUN_OUTPUT_NOT_FOUND
SQLSTATE: nenhum estado atribuído
Estrutura de Tarefas: Não foi possível encontrar a Saída de Execução de Tarefa para Tarefa com runId <runId> e orgId <orgId>.
JOBS_TASK_FRAMEWORK_TASK_RUN_STATE_NOT_FOUND
SQLSTATE: nenhum estado atribuído
Estrutura de Tarefas: Não foi possível encontrar o Estado de Execução para a Tarefa com runId <runId> e orgId <orgId>.
JOBS_TASK_REGISTRY_TASK_CLIENT_CONFIG_DOES_NOT_EXIST
SQLSTATE: nenhum estado atribuído
A configuração RPC do cliente para a tarefa com ID <taskId> é inexistente.
JOBS_TASK_REGISTRY_TASK_DOES_NOT_EXIST
SQLSTATE: nenhum estado atribuído
A tarefa com a ID <taskId> não existe.
JOBS_TASK_REGISTRY_UNSUPPORTED_JOB_TASK
SQLSTATE: nenhum estado atribuído
Registro de Tarefas: JobTask sem suporte ou desconhecido com classe <taskClassName>.
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_EXTERNAL_SHALLOW_CLONE
SQLSTATE: nenhum estado atribuído
Não há suporte para o acesso baseado em caminho à tabela <tableFullName> de clone superficial externa. Use nomes de tabela para acessar o clone superficial.
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_FABRIC
SQLSTATE: nenhum estado atribuído
A tabela fabric localizada na URL "<url>" não foi encontrada. Use o REFRESH FOREIGN CATALOG comando para preencher tabelas do Fabric.
PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_TABLES_WITH_ROW_COLUMN_ACCESS_POLICIES
SQLSTATE: nenhum estado atribuído
Não há suporte para acesso baseado em caminho à tabela <tableFullName> com filtro de linha ou máscara de coluna.
PERMISSION_DENIED
SQLSTATE: nenhum estado atribuído
<principalName> não tem <msg> em <resourceType> '<resourceName>'.
REDASH_DELETE_ASSET_HANDLER_INVALID_INPUT
SQLSTATE: nenhum estado atribuído
Não é possível analisar a solicitação de objeto de exclusão: <invalidInputMsg>
REDASH_DELETE_OBJECT_NOT_IN_TRASH
SQLSTATE: nenhum estado atribuído
Não é possível excluir o objeto <resourceName> que não está no lixo
REDASH_PERMISSION_DENIED
SQLSTATE: nenhum estado atribuído
Não foi possível localizar ou ter permissão para acessar o recurso <resourceId>
REDASH_QUERY_NOT_FOUND
SQLSTATE: nenhum estado atribuído
Não é possível localizar o recurso na ID da consulta <queryId>
REDASH_QUERY_SNIPPET_CREATION_FAILED
SQLSTATE: nenhum estado atribuído
Não é possível criar um novo snippet de consulta
REDASH_QUERY_SNIPPET_QUOTA_EXCEEDED
SQLSTATE: nenhum estado atribuído
A cota para o número de fragmentos de consulta foi atingida. A cota atual é <quota>.
REDASH_QUERY_SNIPPET_TRIGGER_ALREADY_IN_USE
SQLSTATE: nenhum estado atribuído
O gatilho <trigger> especificado já está em uso por outro snippet de consulta neste workspace.
REDASH_RESOURCE_NOT_FOUND
SQLSTATE: nenhum estado atribuído
O recurso <resourceName> solicitado não existe
REDASH_RESTORE_ASSET_HANDLER_INVALID_INPUT
SQLSTATE: nenhum estado atribuído
Não é possível analisar a solicitação de objeto de exclusão: <invalidInputMsg>
REDASH_RESTORE_OBJECT_NOT_IN_TRASH
SQLSTATE: nenhum estado atribuído
Não é possível restaurar o objeto <resourceName> que não está no lixo
REDASH_TRASH_OBJECT_ALREADY_IN_TRASH
SQLSTATE: nenhum estado atribuído
Não é possível destruir o objeto já destruído <resourceName>
REDASH_UNABLE_TO_GENERATE_RESOURCE_NAME
SQLSTATE: nenhum estado atribuído
Não foi possível gerar o nome do recurso por meio da ID <id>
REDASH_VISUALIZATION_CREATION_FAILED
SQLSTATE: nenhum estado atribuído
Não é possível criar uma nova visualização
REDASH_VISUALIZATION_NOT_FOUND
SQLSTATE: nenhum estado atribuído
Não foi possível localizar a visualização <visualizationId>
REDASH_VISUALIZATION_QUOTA_EXCEEDED
SQLSTATE: nenhum estado atribuído
A cota para o número de visualizações na consulta <query_id> foi atingida. A cota atual é <quota>.
REPOSITORY_URL_NOT_FOUND
SQLSTATE: nenhum estado atribuído
Repositório remoto (<repoUrl>) não encontrado.
A credencial <credentialName> (<credentialId>) foi usada<because>.
O provedor dessa credencial git é <gitCredentialProvider> e email/nome de usuário é <gitCredentialUsername>.
Acesse seu provedor Git remoto para garantir que:
A URL do repositório Git remoto é válida.
Seu token de acesso pessoal ou senha de aplicativo tem o acesso correto ao repositório.
<pickOrCreateNewCredential>
RESOURCE_ALREADY_EXISTS
<resourceType> '<resourceIdentifier>' já existe
RESOURCE_DOES_NOT_EXIST
<resourceType> '<resourceIdentifier>' não existe.
ROW_COLUMN_ACCESS_POLICIES_NOT_SUPPORTED_ON_ASSIGNED_CLUSTERS
SQLSTATE: nenhum estado atribuído
Consulta na tabela <tableFullName> com filtro de linha ou máscara de coluna sem suporte em clusters atribuídos.
ROW_COLUMN_SECURITY_NOT_SUPPORTED_WITH_TABLE_IN_DELTA_SHARING
SQLSTATE: nenhum estado atribuído
A tabela <tableFullName> está sendo compartilhada com o Compartilhamento Delta e não pode usar a segurança de linha/coluna.
SERVICE_TEMPORARILY_UNAVAILABLE
SQLSTATE: nenhum estado atribuído
O <serviceName> serviço está temporariamente em manutenção. Tente novamente mais tarde.
TABLE_WITH_ROW_COLUMN_SECURITY_NOT_SUPPORTED_IN_ONLINE_MODE
SQLSTATE: nenhum estado atribuído
A tabela <tableFullName> não pode ter simultaneamente segurança de linha/coluna e visões materializadas online.
TOO_MANY_ROWS_TO_UPDATE
SQLSTATE: nenhum estado atribuído
Muitas linhas para atualizar, anulando a atualização.
UC_ABAC_UNSUPPORTED_TABLE_TYPE
SQLSTATE: nenhum estado atribuído
Não há suporte para políticas ABAC para o tipo <tableType>de tabela.