Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Aplica-se a: Databricks SQL
Databricks Runtime 12.2 e superior.
As condições de erro são cadeias de caracteres descritivas e legíveis por humanos que são exclusivas do erro que descrevem.
Você pode usar condições de erro para lidar programaticamente com erros em seu aplicativo sem a necessidade de analisar a mensagem de erro.
Esta é uma lista de condições comuns de erro nomeadas retornadas pelo Azure Databricks.
Databricks Runtime e Databricks SQL
ADICIONAR_PADRÃO_NÃO_SUPORTADO
Falha ao executar o comando <statementType>
porque os valores DEFAULT
não são suportados ao adicionar novas colunas à fonte de dados de destino já existente com o provedor de tabela: "<dataSource>
".
FUNÇÃO_AGREGADA_COM_EXPRESSÃO_NÃO_DETERMINÍSTICA
A expressão <sqlExpr>
não determinística não deve aparecer nos argumentos de uma função de agregação.
AGREGADO_FORA_DE_MEMÓRIA
Memória insuficiente para agregação
AI_FUNÇÃO_HTTP_ANÁLISE_CONVERSÃO_ERRO
Falha ao analisar a saída do modelo ao converter para o tipo de retorno especificado: "<dataType>
", a resposta JSON foi: "<responseString>
". Atualize o returnType para corresponder ao conteúdo do tipo representado pelo JSON de resposta e tente novamente a consulta.
ERRO_NA_FUNÇÃO_DE_IA_HTTP_ANALISAR_COLUNAS
A saída real do modelo tem mais de uma coluna "<responseString>
". No entanto, o tipo de retorno especificado[""<dataType>
] tem apenas uma coluna. Atualize o returnType para conter o mesmo número de colunas que a saída do modelo e tente novamente a consulta.
Erro de solicitação HTTP na função de IA
Erro ao fazer uma solicitação HTTP para a função <funcName>
: <errorMessage>
Resposta HTTP Inválida para a Função de IA
Resposta HTTP inválida para a função <funcName>
: <errorMessage>
FUNÇÃO_AI_PALAVRAS_MÁXIMAS_INVÁLIDAS
O número máximo de palavras deve ser um inteiro não negativo, mas recebeu <maxWords>
.
AI_FUNÇÃO_PARÂMETROS_INVÁLIDOS_DO_MODELO
Os parâmetros de modelo fornecidos (<modelParameters>
) são inválidos na função para servir o AI_QUERY
ponto de extremidade "<endpointName>
".
Para obter mais detalhes , consulte AI_FUNCTION_INVALID_MODEL_PARAMETERS
AI_FUNÇÃO_TIPO_DE_FORMATO_DE_RESPOSTA_INVÁLIDO
Função de IA: "<functionName>
" requer uma cadeia de caracteres válida <format>
para responseFormat
o parâmetro, mas encontrou o seguinte formato de resposta: "<invalidResponseFormat>
". Exceção: <errorMessage>
AI_FUNCTION_JSON_PARSE_ERROR
Erro ao analisar a resposta JSON para a função <funcName>
: <errorMessage>
Erro ao Analisar o Esquema do Modelo de Função AI
Falha ao interpretar o esquema do endpoint de serviço "<endpointName>
": <errorMessage>
, a resposta JSON foi: "<responseJson>
".
Defina o parâmetro returnType
manualmente na função AI_QUERY
para substituir a resolução de esquema.
AI_FUNCTION_UNSUPPORTED_ERROR (Erro de função não suportada pela IA)
Não há suporte para a função <funcName>
no ambiente atual. Ele só está disponível no Databricks SQL Pro e sem servidor.
Solicitação de função de IA não suportada [AI_FUNCTION_UNSUPPORTED_REQUEST]
Falha ao avaliar a função SQL "<functionName>
" porque o argumento <invalidValue>
fornecido tem "<invalidDataType>
", mas somente os seguintes tipos têm suporte: <supportedDataTypes>
. Atualize a chamada de função para fornecer um argumento do tipo de cadeia de caracteres e tente novamente a consulta.
FUNÇÃO_DE_IA_FORMATO_DE_RESPOSTA_NÃO_SUPORTADO
Formato de resposta sem suporte encontrado.
Para obter mais detalhes , consulte AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT
TIPO_DE_RETORNO_NÃO_SUPORTADO_PELA_FUNÇÃO_AI
Função de IA: "<functionName>
" não dá suporte ao seguinte tipo como tipo de retorno: "<typeName>
". O tipo de retorno deve ser um tipo SQL válido compreendido pelo Catalyst e compatível com a função de IA. Os tipos atuais com suporte incluem: <supportedValues>
ERRO_VALOR_ARGUMENTO_INVÁLIDO_AI
O valor fornecido "<argValue>
" não é suportado pelo argumento "<argName>
". Os valores com suporte são: <supportedValues>
PONTO_DE_CONSULTA_AI_NÃO_SUPORTA_SAÍDA_ESTRUTURADA
Esperava que o tipo de tarefa do ponto de extremidade de serviço fosse "Chat" para suporte de saída estruturado, mas encontrou "<taskType>
" para o ponto de extremidade "<endpointName>
".
INCONSISTÊNCIA_TIPO_COLUNA_TIPO_RETORNO_CONSULTA_IA
Não há suporte para "<sqlExpr>
" fornecido pelo argumento returnType.
Erro de Fornecimento de Parâmetro de Consulta Conflictuoso AI_SEARCH
Parâmetros conflitantes detectados para a vector_search
função SQL: <conflictParamNames>
.<hint>
AI_SEARCH_EMBEDDING_COLUMN_TIPO_NÃO_SUPORTADO_ERRO
vector_search
Não há suporte para a função SQL com o tipo <embeddingColumnType>
de coluna de inserção.
Erro de Parâmetro de Consulta Vazios na Busca de IA
vector_search
A função SQL não tem um parâmetro de entrada de consulta, especifique pelo menos um de: <parameterNames>
.
Parâmetro de Consulta Híbrida AI_SEARCH_HYBRID Descontinuado (Erro)
O parâmetro query
da função SQL vector_search
não é suportado para pesquisa vetorial hybrid
. Use query_text
em seu lugar.
ERRO_DE_TEXT_HÍBRIDO_NÃO_ENCONTRADO_DE_A_BUSCA_AI
Texto de consulta não encontrado na função SQL vector_search
para pesquisa vetorial hybrid
. Forneça query_text
.
Erro: Tipo de índice de pesquisa não suportado.
vector_search
Não há suporte para a função SQL com tipo <indexType>
de índice.
ERRO_DE_ENTRADA_DE_INCORPORAÇÃO_FALTANDO
query_vector
deve ser especificado para o índice <indexName>
porque não está associado a um endpoint de modelo de incorporação.
AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR
Falha ao transformar vector_search
a consulta da função SQL do tipo <dataType>
spark para objetos scala-native durante a codificação da solicitação com erro: <errorMessage>
.
ERRO_TIPO_DE_CONSULTA_DE_PESQUISA_AI_NÃO_SUPORTADO
vector_search
Não há suporte para a função SQL com tipo <unexpectedQueryType>
de consulta. Por favor, especifique um dos seguintes: <supportedQueryTypes>
.
ERRO_NUM_RESULTADOS_NÃO_SUPORTADOS_AIPESQUISA
vector_search
Função SQL com num_results maior do que <maxLimit>
não há suporte. O limite especificado foi <requestedLimit>
. Tente novamente com num_results <= <maxLimit>
Parâmetro AI_TOP_DRIVERS fora do intervalo permitido
O ai_top_drivers
parâmetro <param>
deve estar entre <lo>
e <hi>
.
TIPOS_DE_AGREGAÇÃO_NÃO_SUPORTADOS_PELOS_MELHORES_CONDUTORES_AI
ai_top_drivers
não dá suporte à agregação <aggName>
. Escolha uma das seguintes agregações com suporte: <allowed>
.
Tipo de Dimensão Não Suportado em Drivers Principais de IA
ai_top_drivers
não oferece suporte a colunas de dimensão numéricas, de mapa ou de estrutura. A coluna <colName>
tem o tipo <dataType>
. Remova essa dimensão ou converta-a para um tipo compatível.
AI_TIPO_DE_RÓTULO_NÃO_SUPORTADO_NOS_MOTORISTAS_PRINCIPAIS
ai_top_drivers
requer que o tipo de coluna de rótulo seja booliano. A coluna <colName>
tem o tipo <dataType>
. Altere a coluna de rótulo ou transforme-a em um tipo suportado.
Tipo_de_Métrica_Indisponível_AI_MOTORISTAS_TOP
ai_top_drivers
requer que o tipo de coluna de métrica seja numérico. A coluna <colName>
tem o tipo <dataType>
. Altere a coluna de métrica ou converta-a para um tipo suportado.
TODOS_OS_PARÂMETROS_DEVEM_SER_NOMEADOS
Usar consultas com parâmetros de nome requer que todos os parâmetros sejam nomeados. Parâmetros com nomes ausentes: <exprs>
.
TODAS_AS_COLUNAS_DE_PARTIÇÃO_NÃO_SÃO_PERMITIDAS
Não é possível usar todas as colunas para colunas de partição.
ALTERAR_AGENDAMENTO_NÃO_EXISTE
Não é possível alterar <scheduleType>
em uma tabela sem um agendamento ou gatilho existente. Adicione um agendamento ou gatilho à tabela antes de tentar alterá-la.
DUPLICADO_ALTERAR_TABELA_COLUNA_DESCRIPTOR
ALTER TABLE <type>
A coluna <columnName>
especifica o descritor "<optionName>
" mais de uma vez, que é inválido.
ALIAS_AMBÍGUO_EM_CTE_ANINHADO
O nome <name>
é ambíguo em CTE aninhado.
Defina <config>
como "CORRECTED
" para que o nome definido no CTE interno tenha precedência. Se defini-lo como "LEGACY
", as definições de CTE externa terão precedência.
Veja 'https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine'.
COLUNA_OU_CAMPO_AMBÍGUO
A coluna ou o campo <name>
é ambíguo e possui <n>
correspondências.
REFERÊNCIA_A_COLUNA_AMBÍGUA
A coluna <name>
é ambígua. Isso ocorre porque você juntou vários DataFrame e alguns desses DataFrames são os mesmos.
Esta coluna aponta para um dos DataFrames, mas o Spark não consegue descobrir qual deles.
Atribua nomes alternativos aos DataFrames usando DataFrame.alias
antes de ingressá-los,
e especifique a coluna usando o nome qualificado, por exemplo, df.alias("a").join(df.alias("b"), col("a.id") > col("b.id"))
.
CONSTRAINTE_AMBÍGUA
Referência ambígua à restrição <constraint>
.
ALIAS_AMBÍGUO_DE_COLUNA_LATERAL
O alias <name>
da coluna lateral é ambíguo e tem <n>
correspondências.
REFERÊNCIA_AMBÍGUA
A referência <name>
é ambígua, pode ser: <referenceNames>
.
REFERÊNCIA_AMBÍGUA_A_CAMPOS
Referência ambígua ao campo <field>
. Ele aparece <count>
vezes no esquema.
ANÁLISE_DE_RESTRIÇÕES_NÃO_SUPORTADA
Não há suporte para ANALYZE CONSTRAINTS
.
CONFIGURAÇÃO_ANSI_NÃO_PODE_SER_DESATIVADA
A configuração <config>
do SQL ANSI não pode ser desabilitada neste produto.
AQE_THREAD_INTERRUPTED (interrupção do thread AQE)
A fila do AQE é interrompida, provavelmente devido ao cancelamento da consulta pelo usuário.
ARGUMENTO_NÃO_CONSTANTE
A função <functionName>
inclui um parâmetro <parameterName>
na posição <pos>
que requer um argumento constante. Compute o argumento <sqlExpr>
separadamente e passe o resultado como uma constante.
ARITHMETIC_OVERFLOW
<message>
.
<alternative>
Se necessário definido <config>
como "false" para ignorar esse erro.
Para obter mais detalhes , consulte ARITHMETIC_OVERFLOW
Incompatibilidade_de_Tipo_de_Setas
Esquema inválido de <operation>
: esperado <outputTypes>
, recebido <actualDataTypes>
.
ARTEFATO_JÁ_EXISTE
O artefato <normalizedRemoteRelativePath>
já existe. Escolha um nome diferente para o novo artefato porque ele não pode ser substituído.
INCORRETA_ARIDADE_DA_ATRIBUIÇÃO
O número de colunas ou variáveis atribuídas ou com apelidos: <numTarget>
não corresponde ao número de expressões de origem: <numExpr>
.
DATA_DE_ADESÃO
Junção as-of inválida.
Para mais detalhes, consulte AS_OF_JOIN
AVRO_NÃO_PODE_ESCREVER_CAMPO_NULO
Não é possível gravar o valor nulo para o campo <name>
definido como tipo <dataType>
de dados Avro não nulo.
Para permitir o valor nulo para esse campo, especifique seu esquema Avro como um tipo de união com "nulo", usando a opção avroSchema
.
VALORES_PADRÃO_AVRO_NÃO_SUPORTADOS
Não há suporte para o uso de valores padrão quandorescuedDataColumn
está habilitado. Você pode remover essa verificação definindo spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue
como false, mas os valores padrão não serão aplicados e valores nulos ainda serão usados.
AVRO_TIPO_DE_LEITURA_INCOMPATÍVEL
Não é possível converter o Avro <avroPath>
em SQL <sqlPath>
porque o tipo de dados codificado original é <avroType>
, no entanto, você está tentando ler o campo como <sqlType>
, o que levaria a uma resposta incorreta.
Para permitir a leitura desse campo, habilite a configuração do SQL: "spark.sql.legacy.avro.allowIncompatibleSchema".
AVRO_NÃO_CARREGADO_FUNÇÕES_SQL_INUTILIZÁVEIS
Não é possível chamar a <functionName>
função SQL porque a fonte de dados do Avro não está carregada.
Reinicie seu trabalho ou sessão com o pacote 'spark-avro' carregado, como usando o argumento --packages na linha de comando e tente novamente sua consulta ou comando novamente.
AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED (Correspondência de campos posicionais AVRO não suportada)
O uso da correspondência de campo posicional não é suportado quando ou rescuedDataColumn
ou failOnUnknownFields
está habilitado. Remova essas opções para continuar.
METADADOS_DO_LOTE_NÃO_ENCONTRADOS
Não é possível localizar o lote <batchMetadataFile>
.
OPÇÕES_BIGQUERY_SÃO_MUTUAMENTE_EXCLUSIVAS
As credenciais de conexão do BigQuery devem ser especificadas com o parâmetro 'GoogleServiceAccountKeyJson' ou com todos os parâmetros 'projectId', 'OAuthServiceAcctEmail' e 'OAuthPvtKey'.
transbordo aritmético binário
<value1> <symbol> <value2>
causou transbordamento. Use <functionName>
para ignorar o problema de estouro e retornar NULL
.
CATÁLOGO INTEGRADO
<operation>
não dá suporte a catálogos internos.
CHAMADA_EM_CONJUNTO_DE_DADOS_DE_STREAMING_NÃO_SUPORTADA
O método <methodName>
não pode ser chamado em um Dataset/DataFrame de streaming.
NÃO_PODE_ALTERAR_ORDENAÇÃO_COLUNA_DE_BALDE
ALTER TABLE (ALTER|CHANGE) COLUMN
não pode alterar a ordenação de tipos/subtipos de colunas de bucket, mas a coluna de bucket <columnName>
foi encontrada na tabela <tableName>
.
NÃO_PODE_ALTERAR_COLUNA_DE_PARTIÇÃO
ALTER TABLE (ALTER|CHANGE) COLUMN
não há suporte para colunas de partição, mas encontrou a coluna <columnName>
de partição na tabela <tableName>
.
NÃO_PODE_ATRIBUIR_COLUNA_DE_TEMPO_DE_EVENTO_SEM_MARCADOR_DE_ÁGUA
A marca d'água precisa ser definida para redefinir a coluna de tempo do evento. Não foi possível encontrar a definição de marca d'água na consulta de streaming.
NÃO_PODE_CONVERTER_TIPODADO
Não é possível converter <sourceType>
em <targetType>
.
NÃO_PODE_CONVERTER_TIPO_DE_CAMPO_PROTOBUF_PARA_TIPO_SQL
Não é possível converter Protobuf <protobufColumn>
em SQL <sqlColumn>
porque o esquema é incompatível (protobufType = <protobufType>
, sqlType = <sqlType>
).
NÃO_PODE_CONVERTER_TIPO_DE_MENSAGEM_PROTOBUF_PARA_TIPO_SQL
Não é possível converter <protobufType>
de Protobuf para tipo SQL <toType>
.
NÃO_PODE_CONVERTER_TIPO_SQL_PARA_TIPO_DE_CAMPO_PROTOBUF
Não é possível converter SQL <sqlColumn>
em Protobuf <protobufColumn>
porque o esquema é incompatível (protobufType = <protobufType>
, sqlType = <sqlType>
).
NÃO_PODE_CONVERTER_VALOR_SQL_PARA_TIPO_ENUM_PROTOBUF
Não é possível converter SQL <sqlColumn>
em Protobuf <protobufColumn>
porque <data>
não está em valores definidos para enumeração: <enumString>
.
NÃO_PODE_COPIAR_ESTADO
Não é possível copiar o estado do catálogo, incluindo o banco de dados atual e as visualizações temporárias do Catálogo do Unity, para um catálogo herdado.
NÃO_PODE_CRIAR_TABELA_FONTE_DE_DADOS
Falha ao criar a tabela de fonte de dados <tableName>
:
Para obter mais detalhes , consulte CANNOT_CREATE_DATA_SOURCE_TABLE
NÃO_PODE_DECODIFICAR_URL
A URL fornecida não pode ser decodificada: <url>
. Verifique se a URL está formatada corretamente e tente novamente.
NÃO_PODE_EXCLUIR_PERTENCENTE_AO_SISTEMA
O <resourceType>
pertencente ao sistema não pode ser excluído.
NÃO_PODE_REMOVER_CONSTRAINT_AMBÍGUO
Não é possível descartar a restrição com o nome <constraintName>
, que é compartilhado por uma restrição CHECK
.
e uma restrição PRIMARY KEY
ou FOREIGN KEY
. Você pode remover o PRIMARY KEY
ou
FOREIGN KEY
restrição por consultas:
ALTER TABLE
..
DROP PRIMARY KEY
ou
ALTER TABLE
..
DROP FOREIGN KEY
..
Não é possível estabelecer a conexão
Não é possível estabelecer conexão com o banco de dados remoto <jdbcDialectName>
. Verifique as informações de conexão e as credenciais, por exemplo, opções de host, porta, usuário, senha e banco de dados. Se você acredita que as informações estão corretas, verifique a configuração de rede do workspace e certifique-se de que ela não tem restrições de saída para o host. Verifique também se o host não bloqueia conexões de entrada da rede em que os clusters Spark do workspace são implantados. ** Mensagem de erro detalhada: <causeErrorMessage>
.
NÃO_PODE_ESTABELECER_CONEXÃO_SERVERLESS
Não é possível estabelecer conexão com o banco de dados remoto <jdbcDialectName>
. Verifique as informações de conexão e as credenciais, por exemplo, opções de host, porta, usuário, senha e banco de dados. ** Se você acredita que as informações estão corretas, permita o tráfego de entrada da Internet para o host, pois você está usando a Computação sem servidor. Se as políticas de rede não permitirem o tráfego de entrada na Internet, use computação sem servidor ou entre em contato com o representante do Databricks para saber mais sobre a Rede Privada sem Servidor. ** Mensagem de erro detalhada: <causeErrorMessage>
.
NÃO_PODE_SER_INVOKADO_EM_TRANSFORMAÇÕES
As transformações e as ações do conjunto de dados só podem ser invocadas pelo driver, não dentro de outras transformações de conjunto de dados; por exemplo, dataset1.map(x => dataset2.values.count() * x)
é inválido porque a ação de transformação e contagem de valores não pode ser executada dentro da transformação dataset1.map. Para obter mais informações, consulte SPARK
-28702.
NÃO É POSSÍVEL CARREGAR A CLASSE DE FUNÇÃO
Não é possível carregar a classe <className>
ao registrar a função <functionName>
, verifique se ela está no classpath.
NÃO_FOI_POSSÍVEL_CARREGAR_CLASSE_PROTOBUF
Não foi possível carregar a classe Protobuf com o nome <protobufClassName>
.
<explanation>
.
NÃO_PODE_CARREGAR_STATE_STORE
Ocorreu um erro durante o estado de carregamento.
Para obter mais detalhes , consulte CANNOT_LOAD_STATE_STORE
IMPOSSÍVEL_MISTURAR_TIPOS_DE_DADOS_INCOMPATÍVEIS
Falha ao mesclar tipos <left>
de dados incompatíveis e <right>
. Verifique os tipos de dados das colunas que estão sendo mescladas e verifique se elas são compatíveis. Se necessário, considere converter as colunas em tipos de dados compatíveis antes de tentar a mesclagem.
IMPOSSÍVEL_UNIR_ESQUEMAS
Esquemas de mesclagem com falha:
Esquema inicial:
<left>
Esquema que não pode ser mesclado com o esquema inicial:
<right>
.
NÃO_PODE_MODIFICAR_CONFIGURAÇÃO
Não é possível modificar o valor da configuração do Spark: <key>
.
Consulte também 'https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements'.
NÃO_PODE_ANALISAR_DECIMAL
Não é possível analisar decimal. Verifique se a entrada é um número válido com separadores de vírgulas ou ponto decimal opcionais.
NÃO_PODE_INTERPRETAR_INTERVALO
Não é possível analisar <intervalString>
. Verifique se o valor fornecido está em um formato válido para definir um intervalo. Você pode referenciar a documentação para o formato correto. Se o problema persistir, verifique se o valor de entrada não está nulo ou vazio e tente novamente.
NÃO_PODE_ANALISAR_CAMPO_JSON
Não consigo analisar o nome do campo <fieldName>
e o valor <fieldValue>
do tipo de token JSON <jsonType>
para o tipo de dados Spark <dataType>
de destino.
NÃO_PODE_ANALISAR_PROTOBUF_DESCRIPTOR
Erro ao analisar bytes do descritor em Protobuf FileDescriptorSet.
NÃO PODE ANALISAR TEMPO
A cadeia de caracteres de entrada <input>
não pode ser analisada como um valor de hora porque não corresponde ao formato de data e hora <format>
.
NÃO_FOI_POSSÍVEL_ANALISAR_TIMESTAMP
<message>
. Use <func>
para tolerar uma sequência de entrada inválida e retornar NULL
.
NÃO_PODE_CONSULTAR_TABELA_DURANTE_INICIALIZAÇÃO
Não é possível consultar MV/ST durante a inicialização.
Para obter mais detalhes , consulte CANNOT_QUERY_TABLE_DURING_INITIALIZATION
NÃO_PODE_LER_ARQUIVO_ARQUIVADO
Não é possível ler o arquivo no caminho <path>
porque ele foi arquivado. Ajuste os filtros de consulta para excluir arquivos arquivados.
NÃO_PODE_LER_ARQUIVO
Não é possível ler o arquivo <format>
no caminho: <path>
.
Para obter mais detalhes , consulte CANNOT_READ_FILE
NÃO_PODE_LER_CHAVE_SENSÍVEL_DO_PROVEDOR_SEGURO
Não é possível ler a chave confidencial '<key>
' do provedor seguro.
Não é possível reconhecer o tipo de hive
Não é possível reconhecer a cadeia de caracteres do tipo hive: <fieldType>
, coluna: <fieldName>
. O tipo de dados especificado para o campo não pode ser reconhecido pelo SPARK SQL. Verifique o tipo de dados do campo especificado e verifique se ele é um tipo de dados SQL do Spark válido. Consulte a documentação do SQL do Spark para obter uma lista de tipos de dados válidos e seu formato. Se o tipo de dados estiver correto, verifique se você está usando uma versão com suporte do Spark SQL.
NÃO_PODE_REFERENCIAR_UC_NO_HMS
Não é possível fazer referência a um Catálogo do <objType>
Unity em objetos Metastore do Hive.
NÃO_PODE_REMOVER_PROPRIEDADE_RESERVADA
Não é possível remover a propriedade reservada: <property>
.
NÃO PODE RENOMEAR ENTRE CATÁLOGOS
Não é permitido renomear um <type>
entre catálogos.
NÃO PODE RENOMEAR ENTRE ESQUEMAS
Renomear um <type>
entre diferentes esquemas não é permitido.
NÃO É POSSÍVEL RESOLVER A COLUNA DO DATAFRAME
Não é possível resolver a coluna <name>
de dataframe. Provavelmente é por causa de referências ilegais como df1.select(df2.col("a"))
.
NÃO É POSSÍVEL RESOLVER A EXPANSÃO ESTRELA
Não é possível resolver <targetString>
.* colunas de entrada fornecidas <columns>
. Verifique se a tabela ou struct especificado existe e se está acessível nas colunas de entrada.
NÃO_FOI_POSSÍVEL_RESTAURAR_PERMISSÕES_PARA_O_CAMINHO
Falha ao definir permissões no caminho criado de <path>
volta para <permission>
.
NÃO É POSSÍVEL REALIZAR CLONAGEM SUPERFICIAL ENTRE UC E HMS
Não é possível fazer uma clonagem superficial de tabelas entre o Unity Catalog e o Hive Metastore.
NÃO_PODE_CLONAR_RASO_ANINHADO
Não é possível clonar superficialmente uma tabela <table>
que já é um clone superficial.
NÃO_PODE_CLONAR_RASO_TABELA_NÃO_GERIDA_UC_COMO_FONTE_OU_DESTINO
O clone raso somente é suportado para o tipo de tabela MANAGED
. A tabela <table>
não é MANAGED
tabela.
NÃO_PODE_ATUALIZAR_CAMPO
Não é possível atualizar o campo <table>
tipo <fieldName>
:
Para obter mais detalhes , consulte CANNOT_UPDATE_FIELD
NÃO É POSSÍVEL PROMOVER O TIPO DE DADO
Não é possível converter <expression>
de <sourceType>
para <targetType>
.
<details>
CANNOT_USE_KRYO
Não é possível carregar o codec de serialização do Kryo. A serialização do Kryo não pode ser usada no cliente spark connect. Use a serialização java, forneça um Codec personalizado ou use o Spark Classic.
NÃO É POSSÍVEL VALIDAR CONEXÃO
Não há suporte para a validação da <jdbcDialectName>
conexão. Entre em contato com o suporte do Databricks para soluções alternativas ou defina "spark.databricks.testConnectionBeforeCreation" como "false" para ignorar o teste de conexão antes de criar um objeto de conexão.
NÃO_PODE_ESCREVER_LOJA_DE_ESTADO
Erro ao gravar arquivos do repositório de estado para o provedor <providerClass>
.
Para mais detalhes, consulte CANNOT_WRITE_STATE_STORE
CAST_ENTRADA_INVÁLIDA
O valor <expression>
do tipo <sourceType>
não pode ser convertido <targetType>
porque está malformado. Corrija o valor de acordo com a sintaxe ou altere seu tipo de destino. Use try_cast
para tolerar entrada malformada e retornar NULL
.
Para mais detalhes, consulte CAST_INVALID_INPUT
CAST_OVERFLOW
O valor <value>
do tipo <sourceType>
não pode ser convertido para <targetType>
devido a um estouro. Use o try_cast
para tolerar estouro e retornar NULL
.
CONVERSÃO_EXCESSO_EM_INSERÇÃO_DE_TABELA
Falha ao atribuir um valor do tipo <sourceType>
para a coluna ou variável do tipo <targetType>
<columnName>
devido a um estouro. Use try_cast
no valor de entrada para tolerar estouro e retornar NULL
.
CATÁLOGO_NÃO_ENCONTRADO
O catálogo <catalogName>
não encontrado. Considere definir a configuração do SQL <config>
para um plug-in de catálogo.
CRIAÇÃO_DE_TABELA_PERTENCENTE_AO_CATÁLOGO_NÃO_PERMITIDA
Não é permitido criar tabelas Delta com o recurso de tabela <feature>
. Entre em contato com o suporte do Databricks.
CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND
Bloco de verificação <rddBlockId>
não encontrado!
O executor que originalmente marcou o ponto de verificação dessa partição não está mais vivo ou o RDD original não estápersistido.
Se esse problema persistir, você poderá considerar o uso do rdd.checkpoint()
, que é mais lento do que o checkpoint local, mas mais tolerante a falhas.
REFERÊNCIA_DE_CLASSE_CIRCULAR
Não é possível ter referências circulares na classe, mas obtém a referência circular da classe <t>
.
CLASSE_NÃO_SUBSTITUI_MÉTODO_ESPERADO
<className>
deve substituir um <method1>
ou <method2>
.
CLASSE_NÃO_SUPORTADA_POR_OBJETOS_DE_MAPA
MapObjects
não dá suporte à classe <cls>
como coleção resultante.
COMANDOS_DE_SALA_LIMPA_NÃO_SUPORTADOS
Não há suporte para comandos de Sala Limpa
NOME_DO_OBJETO_DE_DADOS_COMPARTILHADOS_INVÁLIDO_CLEANROOM
Nome inválido para fazer referência a uma <type>
sala limpa. Use o nome de um <type>
dentro da sala limpa seguindo o formato de [catálogo].[esquema].[<type>
].
Se você não tiver certeza sobre qual nome usar, poderá executar "SHOW ALL IN CLEANROOM
[clean_room]" e usar o valor na coluna "name".
CLONAGEM_COM_HISTÓRICO_OPÇÃO_INVÁLIDA
A clonagem com histórico é especificada com uma opção inválida: <invalidOption>
.
Sintaxe válida: CREATE
(OR REPLACE) TABLE
... DEEP CLONE
... WITH HISTORY
.
CLONAGEM_COM_HISTÓRICO_NÃO_SUPORTADO
Não há suporte para clonagem com histórico.
ARQUIVO_FONTE_NUVEM_NÃO_ENCONTRADO
Uma notificação de arquivo foi recebida para o arquivo, <filePath>
mas ela não existe mais. Verifique se os arquivos não são excluídos antes de serem processados. Para continuar seu fluxo, você pode definir a configuração <config>
do SQL do Spark como verdadeira.
CLOUD_PROVIDER_ERROR
Erro do provedor de nuvem: <message>
DISCREPÂNCIA_DE_COLUNAS_DE_CLUSTERIZAÇÃO
O clustering especificado não corresponde ao da tabela <tableName>
existente.
Colunas de clustering especificadas: [<specifiedClusteringString>
].
Colunas de clustering existentes: [<existingClusteringString>
].
AGRUPAMENTO_NÃO_SUPORTADO
'<operation>
' não dá suporte ao clustering.
RECURSO DE CLUSTERIZAÇÃO AUTOMÁTICA NÃO HABILITADO
Entre em contato com o representante do Databricks para habilitar o recurso cluster por automático.
REQUERIMENTO_DE_AGRUPAMENTO_POR_AUTO_EXIGE_RECURSO_DE_AGRUPAMENTO_ATIVADO
Habilite clusteringTable.enableClusteringTableFeature para usar CLUSTER BY
AUTO.
Agrupar_por_auto_requer_otimização_preditiva
CLUSTER BY
AUTO requer que a Otimização Preditiva seja habilitada.
ERRO_TIPO_DE_TABELA_NÃO_SUPORTADO_CLUSTER_POR_AUTO
CLUSTER BY
O AUTO só tem suporte em tabelas gerenciadas por UC.
CODEC_NÃO_DISPONÍVEL
O codec <codecName>
não está disponível.
Para obter mais detalhes , consulte CODEC_NOT_AVAILABLE
NOME_CURTO_DO_CODEC_NÃO_ENCONTRADO
Não é possível localizar um nome curto para o codec <codecName>
.
NOME_INVALIDO_DE_COLAÇÃO
O valor <collationName>
não representa um nome de ordenação correto. Nomes de ordenação válidos sugeridos: [<proposals>
].
PROVEDOR_INVÁLIDO_DE_ORDENAÇÃO
O valor <provider>
não representa um provedor de ordenação correto. Os provedores com suporte são: [<supportedProviders>
].
COLLATION_MISMATCH
Não foi possível determinar qual ordenação usar para operadores e funções de cadeia de caracteres.
Para obter mais detalhes , consulte COLLATION_MISMATCH
LIMITE_DE_TAMANHO_DA_COLEÇÃO_EXCEDIDO
Não é possível criar matriz com <numberOfElements>
elementos que excedem o limite <maxRoundedArrayLength>
de tamanho da matriz,
Para mais detalhes, consulte COLLECTION_SIZE_LIMIT_EXCEEDED
APELIDOS_DE_COLUNA_NÃO_PERMITIDOS
Aliases de coluna não são permitidos em <op>
.
COLUNA_JÁ_EXISTE
A coluna <columnName>
já existe. Escolha outro nome ou renomeie a coluna existente.
INCOMPATIBILIDADE_TIPO_ELEMENTO_ARRAY_COLUNA
Alguns valores no campo <pos>
são incompatíveis com o tipo de matriz de coluna. Tipo <type>
esperado.
COLUMN_MASKS_ABAC_MISMATCH
As máscaras de coluna <tableName>
não puderam ser resolvidas porque houve um conflito entre as máscaras de coluna herdadas das políticas e as máscaras de coluna definidas explicitamente. Para continuar, desabilite o ABAC (Controle de Acesso Baseado em Atributo) e entre em contato com o suporte do Databricks.
COLUMN_MASKS_CHECK_CONSTRAINT_UNSUPPORTED (Restrição de Verificação Não Suportada)
Não há suporte para a criação de restrição CHECK
na tabela <tableName>
com políticas de máscara para colunas.
COLUMN_MASKS_DUPLICATE_USANDO_NOME_DA_COLUNA
Uma instrução <statementType>
tentou atribuir uma política de máscara de coluna a uma coluna que incluía duas ou mais colunas na lista USING COLUMNS
referenciadas com o mesmo nome <columnName>
, o que é inválido.
COLUMN_MASKS_RECURSO_NÃO_SUPORTADO
Não há suporte para políticas de máscara de coluna para <tableName>
:
Para mais detalhes, consulte COLUMN_MASKS_FEATURE_NOT_SUPPORTED
COLUMN_MASKS_ALTERAÇÃO_DE_ESQUEMA_INCOMPATÍVEL
Não é possível realizar a <statementType> <columnName>
na tabela <tableName>
pois está referenciada em uma política de máscara de coluna para a coluna <maskedColumn>
. O proprietário da tabela deve remover ou alterar essa política antes de continuar.
COLUMN_MASKS_MERGE_FONTE_NÃO_SUPORTADA
MERGE INTO
operações não suportam políticas de máscara de coluna na tabela de origem <tableName>
.
COLUMN_MASKS_ALVO_NÃO_SUPORTADO_PARA_MESCLAGEM
MERGE INTO
as operações não dão suporte à gravação na tabela <tableName>
com políticas de máscara de coluna.
COLUMN_MASKS_NOME_DA_COLUNA_ALVO_MULTI_PARTE
Essa instrução tentou atribuir uma política de máscara de coluna a uma coluna <columnName>
com nomes compostos, o que é inválido.
COLUMN_MASKS_MULTI_PART_USING_COLUMN_NAME
Essa instrução tentou atribuir uma política de máscara de coluna a uma coluna e a lista USING COLUMNS
incluiu o nome <columnName>
com vários componentes de nome, o que é inválido.
COLUMN_MASKS_NOT_ENABLED
O suporte para definir máscaras de coluna não está habilitado
COLUMN_MASKS_EXIGIR_CATÁLOGO_UNIDADE
As políticas de máscara de coluna são suportadas apenas no Unity Catalog.
COLUMN_MASKS_EXIBIR_PARTIÇÕES_NÃO_SUPORTADAS
SHOW PARTITIONS
O comando não é suportado para<format>
tabelas com máscaras de coluna.
COLUMN_MASKS_ORIGEM_DO_CLONE_DA_TABELA_NÃO_SUPORTADA
<mode>
não há suporte para clonar da tabela <tableName>
com políticas de máscara de coluna.
COLUMN_MASKS_ALVO_CLONAGEM_TABELA_NAO_SUPORTADA
<mode>
não há suporte para clonar na tabela <tableName>
com políticas de máscara de coluna.
COLUMN_MASKS_CONSTANTE_NÃO_SUPORTADA_COMO_PARÂMETRO
Não há suporte para o uso de uma constante como parâmetro em uma política de máscara de coluna. Atualize o comando SQL para remover a constante da definição de máscara de coluna e tente novamente o comando.
COLUMN_MASKS_TIPO_DE_DADOS_NÃO_SUPORTADO
A função <functionName>
usada como política de máscara de coluna contém um parâmetro com tipo de dado <dataType>
sem suporte.
COLUMN_MASKS_PROVEDOR_NÃO_SUPORTADO
Falha ao executar o comando <statementType>
porque não há suporte para a atribuição de políticas de máscara de coluna à fonte de dados de destino com o provedor de tabela: "<provider>
".
COLUMN_MASKS_SUBCONSULTA_NÃO_SUPORTADA
Não é possível executar <operation>
para a tabela <tableName>
porque ela contém uma ou mais políticas de máscara de coluna com subexpressões de consulta que ainda não são suportadas. Entre em contato com o proprietário da tabela para atualizar as políticas de máscara de coluna para conseguir prosseguir.
COLUMN_MASKSUSANDO NOME DA COLUNA IGUAL AO DA COLUNA ALVO
A coluna <columnName>
tinha o mesmo nome da coluna de destino, que é inválida; remova a coluna da USING COLUMNS
lista e repita o comando.
COLUNA_NÃO_DEFINIDA_NA_TABELA
<colType>
a coluna <colName>
não está definida na tabela <tableName>
, as colunas de tabela definidas são: <tableCols>
.
COLUNA_NÃO_ENCONTRADA
A coluna <colName>
não pode ser encontrada. Verifique a ortografia e a correção do nome da coluna de acordo com a configuração <caseSensitiveConfig>
do SQL.
ORDINAL_DE_COLUNA_FORA_DOS_LIMES
Ordinal de coluna fora dos limites. O número de colunas na tabela é <attributesLength>
, mas a coluna ordinal é <ordinal>
.
Os atributos são os seguintes: <attributes>
.
ERRO_DE_RESTRIÇÃO_A_VÍRGULA_ANTECEDENTE
',' inesperado antes da definição de restrições. Verifique se a cláusula de restrição não começa com uma vírgula quando colunas (e expectativas) não são definidas.
Comentário sobre a conexão ainda não implementado
O COMMENT ON CONNECTION
comando ainda não foi implementado
COMPARADOR_RETORNA_NULL
O comparador retornou um NULL
para uma comparação entre <firstValue>
e <secondValue>
.
Ele deve retornar um inteiro positivo para "maior que", 0 para "igual" e um inteiro negativo para "menor que".
Para reverter para um comportamento preterido em que NULL
é tratado como 0 (igual), você deve definir "spark.sql.legacy.allowNullComparisonResultInArraySort" como "true".
EXPRESSÃO_COMPLEXA_ENTRADA_NÃO_SUPORTADA
Não é possível processar tipos de dados de entrada para a expressão: <expression>
.
Para obter mais detalhes , consulte COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
CONSULTA_CONCORRENTE
Outra instância dessa consulta [id: <queryId>
] acaba de ser iniciada por uma sessão simultânea [runId existente: <existingQueryRunId>
novo runId: <newQueryRunId>
].
CONCURRENT_SCHEDULER_SLOT_INSUFICIENTE
O número mínimo de slots gratuitos necessários no cluster é <numTasks>
, no entanto, o cluster tem apenas <numSlots>
slots gratuitos. A consulta será paralisada ou falhará. Aumente o tamanho do cluster para continuar.
ATUALIZAÇÃO_DO_REGISTRO_DE_FLUXO_CONCORRENTE
Atualização simultânea do log. Várias tarefas de streaming detectadas para <batchId>
.
Certifique-se de que apenas um trabalho de streaming seja executado em um local de ponto de verificação específico de cada vez.
CONFIGURAÇÃO_NÃO_DISPONÍVEL
A configuração <config>
não está disponível.
CONFIGURAÇÃO DE CLUSTER CONFLITANTE
As seguintes configurações entram em conflito com spark.databricks.streaming.realTimeMode.enabled: <confNames>
. Remova essas configurações da configuração do cluster e reinicie o cluster Spark.
Estruturas_de_Diretórios_Conflitantes
Estruturas de diretório conflitantes detectadas.
Caminhos suspeitos:
<discoveredBasePaths>
Se os caminhos fornecidos forem diretórios de partição, defina "basePath" nas opções da fonte de dados para especificar o diretório raiz da tabela.
Se houver vários diretórios raiz, carregue-os separadamente e, em seguida, una-os.
NOMES_DE_COLUNA_DE_PARTIÇÃO_CONFLITANTES
Nomes de coluna de partição conflitantes detectados:
<distinctPartColLists>
Para diretórios de tabela particionados, os arquivos de dados só devem residir em diretórios folha.
E os diretórios no mesmo nível devem ter o mesmo nome de coluna de partição.
Verifique os seguintes diretórios em busca de arquivos inesperados ou nomes de colunas de partição inconsistentes:
<suspiciousPaths>
NOME_DE_COLUNA_DE_PARTIÇÃO_CONFLITANTE_COM_RESERVADO
O nome da coluna de partição '<partitionColumnName>
' entra em conflito com o nome da coluna reservada.
O esquema de <tableName>
é incompatível com o Hive, o Spark gera automaticamente uma coluna reservada '<partitionColumnName>
' para armazenar a tabela de uma maneira específica.
Use um nome diferente para a coluna de partição.
PROVEDOR_CONFLITANTE
O provedor <provider>
especificado é inconsistente com o provedor <expectedProvider>
de catálogo existente. Use 'USING <expectedProvider>
' e repita o comando.
CONFIGURAÇÃO_SQL_CONFLITANTE
As seguintes configurações entram em conflito com spark.databricks.streaming.realTimeMode.enabled: <confNames>
. Remova essas configurações da configuração do SparkSession.
LIGAR
Erro genérico de conector do Spark.
Para obter mais detalhes, consulte CONNECT
CONEXÃO_JÁ_EXISTE
Não é possível criar conexão <connectionName>
porque ela já existe.
Escolha um nome diferente, solte ou substitua a conexão existente ou adicione a IF NOT EXISTS
cláusula para tolerar conexões pré-existentes.
O_NOME_DA_CONEXÃO_NÃO_PODE_ESTAR_VAZIO
Não é possível executar esse comando porque o nome da conexão deve não estar vazio.
CONEXÃO_NÃO_ENCONTRADA
Não é possível executar esse comando porque o nome <connectionName>
da conexão não foi encontrado.
OPÇÃO_DE_CONEXÃO_NÃO_SUPORTADA
As conexões do tipo '<connectionType>
' não dão suporte às seguintes opções: <optionsNotSupported>
. Opções com suporte: <allowedOptions>
.
TIPO_DE_CONEXÃO_NÃO_SUPORTADO
Não é possível criar uma conexão do tipo '<connectionType>
. Tipos de conexão com suporte: <allowedTypes>
.
MIGRAÇÃO_DE_SESSÃO_DE_CONEXÃO
Erro de Migração de Sessão Genérica (userId: <userId>
, sessionId: <sessionId>
, serverSessionId: <serverSessionId>
).
Para obter mais detalhes , consulte CONNECT_SESSION_MIGRATION
RESTRIÇÕES_EXIGEM_CATÁLOGO_DA_UNIDADE
As restrições de tabela só têm suporte no Catálogo do Unity.
CONVERSÃO_ENTRADA_INVÁLIDA
O valor <str> (<fmt>
) não pode ser convertido <targetType>
porque está malformado. Corrija o valor de acordo com a sintaxe ou altere seu formato. Use <suggestion>
para tolerar entrada malformada e retornar NULL
.
COPIAR_PARA_COLUNA_DESCOMPASSO_DE_ARIDADE
Não é possível fazer gravações em <tableName>
devido ao motivo
Para obter mais detalhes, consulte COPY_INTO_COLUMN_ARITY_MISMATCH
COPY_INTO_CREDENTIALS_NÃO_PERMITIDO_ATIVADO
Esquema <scheme>
inválido.
COPY INTO
Atualmente, as credenciais de origem são compatíveis somente com s3/s3n/s3a/wasbs/abfss.
Cópia nos credenciais necessária
COPY INTO
as credenciais de origem devem especificar <keyList>
.
COPIAR_EM_ARQUIVOS_DUPLICADOS_CÓPIA_NÃO_PERMITIDA
Arquivos duplicados foram registrados durante uma operação simultânea COPY INTO
. Tente novamente mais tarde.
COPIAR_INTO_ENCRIPTACAO_NAO_PERMITIDO_EM
Esquema <scheme>
inválido.
COPY INTO
A criptografia de origem atualmente só dá suporte a s3/s3n/s3a/abfss.
CÓPIA_EM_CRIPTOGRAFIA_NÃO_SUPORTADA_PARA_AZURE
COPY INTO
A criptografia só dá suporte ao ADLS Gen2 ou abfss:// esquema de arquivos
COPIAR_COM_ENCRIPTAÇÃO_EXIGIDA
COPY INTO
a criptografia de origem deve especificar '<key>
'.
CÓPIA_EXIGE_CRIPTOGRAFIA_COM_ESPERADO
Opção de <requiredKey>
criptografia inválida.
COPY INTO
A criptografia de origem deve especificar '<requiredKey>
' = '<keyValue>
'.
COPIAR_EM_RECURSO_CONFIGURAÇÃO_INCOMPATÍVEL
O COPY INTO
recurso '<feature>
' não é compatível com '<incompatibleSetting>
'.
CÓPIA_EM_ANEXO_NÃO_CEGA_NÃO_PERMITIDA
COPY INTO
exceto por acrescentar dados, não é permitido realizar operações simultaneamente com outras transações. Tente novamente mais tarde.
CÓPIA_EM_ROCKSDB_TENTATIVA_MÁXIMA_EXCEDIDA
COPY INTO
falhou ao carregar o estado, número máximo de tentativas excedido.
MISMATCH_DE_ESQUEMA_AO_COPIAR_COM_TABELA_ALVO
Uma incompatibilidade de esquema foi detectada durante a cópia para a tabela Delta (Tabela: <table>
).
Isso pode indicar um problema com os dados de entrada ou o esquema da tabela Delta pode ser evoluído automaticamente de acordo com os dados de entrada definindo:
COPY_OPTIONS
('mergeSchema' = 'true')
Diferença de esquema:
<schemaDiff>
COPIAR_PARA_FORMATO_DE_ARQUIVO_DE_ORIGEM_NÃO_SUPORTADO
O formato dos arquivos de origem deve ser um dos arquivos CSV, JSON, AVRO, ORC, PARQUET
TEXT ou BINARYFILE
. Usar COPY INTO
como fonte em tabelas Delta não tem suporte, porque dados duplicados podem ser ingeridos após operações com OPTIMIZE
. Essa verificação pode ser desativada executando o comando set spark.databricks.delta.copyInto.formatCheck.enabled = false
SQL.
FALHA_NA_INFERÊNCIA_DO_ESQUEMA_DE_FONTE_DE_CÓPIA
O diretório de origem não continha nenhum arquivo parsable do tipo <format>
. Verifique o conteúdo de '<source>
'.
O erro pode ser silenciado definindo '<config>
' como 'false'.
COPIAR_NO_ESTADO_ERRO_INTERNO
Ocorreu um erro interno ao processar o estado de COPY INTO
.
Para mais detalhes, consulte COPY_INTO_STATE_INTERNAL_ERROR
COPY_INTO_ERRO_DE_SINTAXE
Falha ao analisar o COPY INTO
comando.
Para mais detalhes, consulte COPY_INTO_SYNTAX_ERROR
COPIAR_EM_RECURSO_NÃO_SUPORTADO
O COPY INTO
recurso '<feature>
' não tem suporte.
TIPO_DE_FORMATO_DE_CARGA_DA_CÓPIA_NÃO_SUPORTADO
Não é possível descarregar dados no formato '<formatType>
'. Os formatos com suporte são <connectionType>
: <allowedFormats>
.
FUNÇÃO_CATÁLOGO_CORROMPIDO
Não é possível converter a função de catálogo '<identifier>
' em uma função SQL devido a informações de função corrompidas no catálogo. Se a função não for uma função SQL, verifique se o nome da classe '<className>
' é carregável.
CRIAR_ESQUEMA_ESTRANGEIRO_AINDA_NÃO_IMPLEMENTADO
O CREATE FOREIGN SCHEMA
comando ainda não foi implementado
CRIAR_TABELA_ESTRANGEIRA_AINDA_NÃO_IMPLEMENTADA
O CREATE FOREIGN TABLE
comando ainda não foi implementado
CRIAR_OU_ATUALIZAR_MV_NÃO_SUPORTADO
Não há suporte para CREATE OR REFRESH MATERIALIZED VIEW
. Use CREATE OR REPLACE MATERIALIZED VIEW
em seu lugar.
CREATE_OR_REFRESH_MV_ST_ASYNC
Não é possível CREATE
ou REFRESH
vistas materializadas ou tabelas de streaming com ASYNC
especificadas. Remova ASYNC
da instrução CREATE
OU REFRESH
ou use REFRESH ASYNC
para atualizar exibições materializadas existentes ou tabelas de streaming de forma assíncrona.
CRIAR_VISTA_PERMANENTE_SEM_APELIDO
Não é permitido criar a exibição <name>
permanente sem atribuir explicitamente um alias para a expressão <attr>
.
DESCRITOR_DUPLICADO_COLUNA_TABELA
CREATE TABLE
A coluna <columnName>
especifica o descritor "<optionName>
" mais de uma vez, que é inválido.
CREATE_VIEW_COLUMN_ARITY_MISMATCH
Não é possível criar exibição <viewName>
, o motivo é
Para obter mais detalhes , consulte CREATE_VIEW_COLUMN_ARITY_MISMATCH
CREDENCIAL_AUSENTE
Forneça credenciais ao criar ou atualizar locais externos.
DESCOMPATIBILIDADE_DE_PROPÓSITO_DE_CREDENCIAL
A credencial <credentialName>
tem finalidade <actualPurpose>
, mas a finalidade fornecida no comando é <expectedPurpose>
.
ENFORCE_SCHEMA_CSV_NÃO_SUPORTADO
A opção CSV enforceSchema
não pode ser definida ao usar rescuedDataColumn
ou failOnUnknownFields
, já que as colunas são lidas por nome em vez de ordem ordinal.
REFERÊNCIA_DE_FUNÇÃO_CÍCLICA
Referência de função cíclica detectada: <path>
.
DELTA DO DATABRICKS NÃO ESTÁ ATIVADO
O Databricks Delta não está habilitado em sua conta.<hints>
INCOMPATIBILIDADE_DE_TIPO_DE_DADOS
Não é possível resolver <sqlExpr>
devido à incompatibilidade de tipo de dados:
Para obter mais detalhes , consulte DATATYPE_MISMATCH
TIPO_DE_DADO_TAMANHO_AUSENTE
DataType <type>
requer um parâmetro de comprimento, por exemplo <type>
(10). Especifique o comprimento.
O NÓ FOLHA DA VISÃO SEGURA DE LINHAGEM DE DADOS NÃO TEM RELAÇÃO
Escrita de linhagem sem êxito: não há relação correspondente com políticas para CLM/RLS.
FONTE_DE_DADOS_JÁ_EXISTE
A fonte de dados '<provider>
' já existe. Escolha um nome diferente para a nova fonte de dados.
ERRO_EXTERNO_FONTE_DE_DADOS
Erro encontrado ao salvar na fonte de dados externa.
FONTE_DE_DADOS_NÃO_EXISTE
Fonte de dados '<provider>
' não encontrada. Verifique se a fonte de dados está registrada.
FONTE_DE_DADOS_NÃO_ENCONTRADA
Falha ao localizar a fonte de dados: <provider>
. Verifique se o nome do provedor está correto e se o pacote está corretamente registrado e compatível com sua versão do Spark.
OPÇÃO_DE_FONTE_DE_DADOS_CONTÉM_CARACTERES_INVÁLIDOS
A opção <option>
não deve estar vazia e não deve conter caracteres inválidos, cadeias de caracteres de consulta ou parâmetros.
OPÇÃO_DE_FONTE_DE_DADOS_É_OBRIGATÓRIA
A opção <option>
é necessária.
Incompatibilidade no esquema da tabela da fonte de dados (DATA_SOURCE_TABLE_SCHEMA_MISMATCH)
O esquema da tabela de fonte de dados não corresponde ao esquema esperado. Se você estiver usando a API DataFrameReader.schema ou criando uma tabela, evite especificar o esquema.
Esquema da Fonte de Dados: <dsSchema>
Esquema esperado: <expectedSchema>
URL_DA_FONTE_DE_DADOS_NÃO_PERMITIDA
A URL JDBC não é permitida nas opções de fonte de dados, especifique as opções "host", "porta" e "banco de dados".
DATETIME_FIELD_OUT_OF_BOUNDS
<rangeMessage>
.
Para mais detalhes, consulte DATETIME_FIELD_OUT_OF_BOUNDS
DATETIME_OVERFLOW
A operação de data e hora resultou em estouro: <operation>
.
DC_API_QUOTA_EXCEDIDA
Você excedeu a cota de API para a fonte de dados <sourceName>
.
Para obter mais detalhes , consulte DC_API_QUOTA_EXCEEDED
DC_CONNECTION_ERROR
Falha ao fazer uma conexão com a origem <sourceName>
. Código de erro: <errorCode>
.
Para obter mais detalhes , consulte DC_CONNECTION_ERROR
DC_DYNAMICS_API_ERROR
Erro nas chamadas à API do Dynamics, errorCode: <errorCode>
.
Para obter mais detalhes , consulte DC_DYNAMICS_API_ERROR
DC_NETSUITE_ERROR
Erro em chamadas JDBC do Netsuite, errorCode: <errorCode>
.
Para obter mais detalhes , consulte DC_NETSUITE_ERROR
DC_SCHEMA_CHANGE_ERROR
SQLSTATE: nenhum estado atribuído
Ocorreu uma alteração de esquema na tabela <tableName>
da origem do <sourceName>
.
Para obter mais detalhes , consulte DC_SCHEMA_CHANGE_ERROR
DC_SERVICENOW_API_ERROR
Erro nas chamadas à API do ServiceNow, errorCode: <errorCode>
.
Para obter mais detalhes , consulte DC_SERVICENOW_API_ERROR
Trabalho de Consulta em Massa do SFDC Incompleto
A ingestão para o objeto <objName>
está incompleta porque o trabalho de consulta da API Salesforce demorou muito, falhou ou foi cancelado manualmente.
Para tentar novamente, você pode executar novamente todo o pipeline ou atualizar essa tabela de destino específica. Se o erro persistir, registre um tíquete. ID do trabalho: <jobId>
. Status do trabalho: <jobStatus>
.
DC_SHAREPOINT_API_ERROR
Erro nas chamadas à API do Sharepoint, errorCode: <errorCode>
.
Para obter mais detalhes , consulte DC_SHAREPOINT_API_ERROR
DC_SOURCE_API_ERROR
Ocorreu um erro na chamada à <sourceName>
API. Tipo de API de origem: <apiType>
. Código de erro: <errorCode>
.
Às vezes, isso pode acontecer quando você atinge um <sourceName>
limite de API. Se você não excedeu o limite de API, tente executar novamente o conector. Se o problema persistir, registre um tíquete.
DC_UNSUPPORTED_ERROR
Erro sem suporte ocorreu na fonte de dados <sourceName>
.
Para obter mais detalhes , consulte DC_UNSUPPORTED_ERROR
DC_WORKDAY_RAAS_API_ERROR
Erro nas chamadas à API do Workday RAAS, errorCode: <errorCode>
.
Para obter mais detalhes , consulte DC_WORKDAY_RAAS_API_ERROR
PRECISÃO_DECIMAL_EXCEDE_PRECISÃO_MÁXIMA
A precisão decimal <precision>
excede a precisão máxima <maxPrecision>
.
O BANCO_DE_DADOS_PADRÃO_NÃO_EXISTE
O banco de dados <defaultDatabase>
padrão não existe, crie-o primeiro ou altere o banco de dados padrão para <defaultDatabase>
.
ARQUIVO_PADRÃO_NÃO_ENCONTRADO
É possível que os arquivos subjacentes tenham sido atualizados. Você pode invalidar explicitamente o cache no Spark executando o comando 'REFRESH TABLE
tableName' no SQL ou recriando o Dataset/DataFrame envolvido. Se o cache de disco estiver obsoleto ou os arquivos subjacentes tiverem sido removidos, você poderá invalidar o cache de disco manualmente reiniciando o cluster.
COLOCAÇÃO_PADRÃO_INVÁLIDA
Uma palavra-chave em um comando DEFAULT
, MERGE
, INSERT
ou UPDATE
não pôde ser atribuída diretamente a uma coluna de destino porque fazia parte de uma expressão.
Por exemplo: UPDATE SET c1 = DEFAULT
é permitido, mas UPDATE T SET c1 = DEFAULT + 1
não é permitido.
PADRÃO_NÃO_SUPORTADO
Falha ao executar o comando <statementType>
porque os valores DEFAULT
não são suportados para a fonte de dados de destino com o provedor de tabela: "<dataSource>
".
DESCREVER_JSON_NAO_EXTENDIDO
DESCRIBE TABLE
... O AS JSON só tem suporte quando [EXTENDED|FORMATTED
] é especificado.
Por exemplo: DESCRIBE EXTENDED <tableName>
AS JSON é suportado, mas DESCRIBE <tableName>
AS JSON não é suportado.
LEITURA_DE_TABELA_DELTA_DIFERENTE_POR_FONTE_DE_STREAMING
A consulta de streaming estava lendo de uma tabela Delta não esperada (id = '<newTableId>
').
Ele costumava ler de outra tabela Delta (id = '<oldTableId>
') de acordo com o ponto de verificação.
Isso pode acontecer quando você alterou o código para ler de uma nova tabela ou excluiu uma tabela existente.
recriou uma tabela. Reverta a alteração ou exclua o ponto de verificação da consulta de streaming
para reiniciar do zero.
FUNÇÃO_DE_JANELA_DISTINTA_NÃO_SUPORTADA
Não há suporte para funções de janela distintas: <windowExpr>
.
DIVIDE_BY_ZERO
Divisão por zero. Use try_divide
para tolerar divisor sendo 0 e retornar NULL
em vez disso. Se necessário definido <config>
como "false" para ignorar esse erro.
Para obter mais detalhes , consulte DIVIDE_BY_ZERO
DLT_EXPECTATIVAS_NÃO_SUPORTADAS
As expectativas só têm suporte em Pipelines Declarativos do Lakeflow.
DLT_VIEW_CLUSTER_POR_NÃO_SUPORTADO
MATERIALIZED
VIEWs que possuem uma CLUSTER BY
cláusula têm suporte apenas em Pipelines Declarativas do Lakeflow.
DLT_VISTA_LOCALIZAÇÃO_NÃO_SUPORTADA
os locais de exibição materializados têm suporte apenas em Pipelines Declarativos do Lakeflow.
ESQUEMA_DE_VISTA_COM_TIPO_NÃO_SUPORTADO_DLT
Esquemas de exibição materializados com um tipo especificado têm suporte apenas em Pipelines Declarativos do Lakeflow.
TABLE_CONSTRAINTSDLT_VIEW_TABLE_CONSTRAINTS_NÃO_SUPORTADO
CONSTRAINT
cláusulas em visualizações têm suporte apenas em Pipelines Declarativos do Lakeflow.
AGENDAMENTO_DE_DESCARTE_NÃO_EXISTE
Não é possível descartar SCHEDULE
em uma tabela sem um agendamento ou gatilho existente.
NOMES_CTE_DUPLICADOS
A definição de CTE não pode ter nomes duplicados: <duplicateNames>
.
NOME_DE_CAMPO_DUPLICADO_EM_ESTRUTURA_ARROW
Os nomes de campo duplicados no Arrow Struct não são permitidos, encontrado <fieldNames>
.
CHAVE_DUPLICADA_NO_MAPA
Foi encontrada uma chave de mapa duplicada <key>
, por favor verifique os dados de entrada.
Se você quiser remover as chaves duplicadas, poderá definir <mapKeyDedupPolicy>
como "LAST_WIN
" para que a chave inserida finalmente tenha precedência.
NOME_METRICAS_DUPLICADAS
O nome da métrica não é exclusivo: <metricName>
. O mesmo nome não pode ser usado para métricas com resultados diferentes.
No entanto, várias instâncias de métricas com o mesmo resultado e nome são permitidas (por exemplo, autojunções).
ASSIGNAÇÕES_DUPLICADAS
As colunas ou variáveis <nameList>
aparecem mais de uma vez como destinos de atribuição.
CLÁUSULAS_DUPLICADAS
Cláusulas duplicadas encontradas: <clauseName>
. Por favor, remova um deles.
CONDIÇÃO_DUPLICADA_NO_ESCOPO
Condição <condition>
duplicada encontrada no escopo. Por favor, remova um deles.
Mecanismo de Tratamento de Exceções Duplicadas
Encontrados manipuladores duplicados. Por favor, remova um deles.
Para obter mais detalhes , consulte DUPLICATE_EXCEPTION_HANDLER
DUPLICATE_KEY
Chaves duplicadas encontradas <keyColumn>
.
ATRIBUIÇÃO_DUPLICADA_DE_PARÂMETRO_DE_ROTINA
A chamada à rotina <routineName>
é inválida porque inclui várias atribuições de argumento para o mesmo nome <parameterName>
de parâmetro.
Para obter mais detalhes , consulte DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
NOME_DE_PARÂMETRO_DE_ROTINA_DUPLICADO
Encontrado nome(s) duplicado na lista de parâmetros da rotina <routineName>
definida pelo usuário: <names>
.
COLUNAS_RETORNADAS_PELA_ROTINA_DUPLICADA
Encontradas colunas duplicadas na RETURNS
lista de colunas de cláusula da rotina <routineName>
definida pelo usuário: <columns>
.
EMITIR_LINHAS_ANTERIORES_AO_MARCADOR_DE_TEMPO_NÃO_PERMITIDO
O nó anterior emitiu uma linha com eventTime=<emittedRowEventTime>
, que é mais antigo que current_watermark_value=<currentWatermark>
.
Isso pode levar a problemas de correção nos operadores com estado downstream no pipeline de execução.
Corrija a lógica do operador para emitir linhas após o valor atual da marca temporal global.
EMPTY_JSON_FIELD_VALUE
Falha ao analisar uma cadeia de caracteres vazia para o tipo <dataType>
de dados.
CONSULTA_DE_ACESSO_A_ARQUIVO_LOCAL_VAZIO_NA_INTERMEDIÁRIA
Arquivo local vazio na consulta de teste <operation>
ESQUEMA_VAZIO_NÃO_SUPORTADO_PARA_FONTE_DE_DADOS
A <format>
fonte de dados não suporta a gravação de esquemas vazios ou de esquemas aninhados vazios. Verifique se o esquema de dados tem pelo menos uma ou mais colunas.
Codificador Não Encontrado
Não foi encontrado um codificador do tipo <typeName>
para a representação interna do SQL do Spark.
Considere alterar o tipo de entrada para um dos tipos com suporte em '<docroot>
/sql-ref-datatypes.html'.
RÓTULO_FINAL_SEM_RÓTULO_INICIAL
O rótulo <endLabel>
final não pode existir sem o rótulo de início.
O_END_OFFSET_TEM_DESLOCAMENTO_MAIOR_PARA_TÓPICO_PARTIÇÃO_DO_QUE_O_ÚLTIMO_COM_DESENCADEAR_DISPONÍVELAGORA
Algumas partições nos tópicos do Kafka indicam um deslocamento disponível menor que o deslocamento final ao executar a consulta com Trigger.AvailableNow. O erro pode ser transitório : reinicie sua consulta e relate se você ainda vir o mesmo problema.
deslocamento último: <latestOffset>
, deslocamento final: <endOffset>
O deslocamento final tem maior deslocamento para a partição de tópico do que o pré-carregado
Para a fonte de dados Kafka com Trigger.AvailableNow, o deslocamento final deve ser menor ou igual ao deslocamento pré-fetched para cada partição de tópico. O erro pode ser transitório : reinicie sua consulta e relate se você ainda vir o mesmo problema.
deslocamento pré-buscado: <prefetchedOffset>
, deslocamento final: <endOffset>
.
ERRO_AO_LER_AVRO_UNKNOWN_FINGERPRINT
Erro ao ler dados do avro – encontrou uma impressão digital desconhecida: <fingerprint>
, não sei qual esquema usar.
Isso pode acontecer se você registrou esquemas adicionais depois de iniciar o contexto do Spark.
REGISTRO_DE_EVENTOS_VAZIO
O log de eventos para <tableOrPipeline>
não tem esquema e não contém eventos. Tente novamente mais tarde depois que os eventos forem gerados
O REGISTRO_DE_EVENTO_EXIGE_COMPUTAÇÃO_COMPARTILHADA
Não é possível consultar logs de eventos de um cluster Atribuído ou Compartilhado Sem Isolamento, por favor, use um cluster Compartilhado ou um Databricks SQL Warehouse.
REGISTRO_DE_EVENTO_TVF_NÃO_SUPORTADO_PARA_PEDESTAL
A função EVENT_LOG
Table-Valued não é compatível com pipelines que usam o campo 'esquema' ou que publicam no armazenamento padrão.
Para consultar o log de eventos, publique-o no metastore especificando o campo event_log nas configurações do pipeline.
Para obter mais informações, consulte a documentação do Monitor Lakeflow Declarative Pipelines: https://docs.databricks.com/aws/en/delta-live-tables/observability.
EVENTO_LOG_INDISPONÍVEL
Nenhum log de eventos disponível para <tableOrPipeline>
. Tente novamente mais tarde depois que os eventos forem gerados
REGISTRO_DE_EVENTOS_TIPO_DE_TABELA_NÃO_SUPORTADO
O tipo de tabela <tableIdentifier>
é <tableType>
.
A consulta de logs de eventos dá suporte apenas a exibições materializadas, tabelas de streaming ou Pipelines Declarativos do Lakeflow.
TEMPO_DO_EVENTO_NÃO_ESTÁ_NO_TIPO_TIMESTAMP
A hora <eventName>
do evento tem tipo inválido <eventType>
, sendo esperado "TIMESTAMP
".
EXCEDER_LIMITE_COMPRIMENTO
Excede a limitação de comprimento do tipo char/varchar: <limit>
.
EXCEÇÃO_COLUNA_ANINHADA_TIPO_INVÁLIDO
EXCEPT
a coluna <columnName>
foi resolvida e esperava-se que fosse StructType, mas encontrou o tipo <dataType>
.
EXCETO_COLUNAS_SOBREPOSTAS
As colunas em uma EXCEPT
lista devem ser distintas e não sobrepostas, mas têm (<columns>
).
EXCETO_COLUNAS_RESOLVIDAS_SEM_CORRESPONDÊNCIA
EXCEPT
colunas [<exceptColumns>
] foram resolvidas, mas não correspondem a nenhuma das colunas [<expandedColumns>
] da expansão da estrela.
EXCEPT_COLUNA_NÃO_RESOLVIDA_EM_EXPANSÃO_DE_STRUCT
O nome <objectName>
da coluna/campo na EXCEPT
cláusula não pode ser resolvido. Você quis dizer um dos seguintes: [<objectList>
]?
Observação: As colunas aninhadas na cláusula EXCEPT
podem não incluir qualificadores (como o nome da tabela, nome da coluna da estrutura pai, etc.) durante a expansão de uma estrutura. Tente remover os qualificadores se forem usados com colunas aninhadas.
EXECUTOR_BROADCAST_JOIN_OOM
Não há memória suficiente para criar a relação de transmissão <relationClassName>
. Tamanho da relação = <relationSize>
. Memória total usada por esta tarefa = <taskMemoryUsage>
. Métricas do Gerenciador de Memória do Executor: onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>
, offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>
, onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>
, offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>
. [sparkPlanId: <sparkPlanId>
] Desabilite as transmissões de broadcast para essa consulta usando 'set spark.sql.autoBroadcastJoinThreshold=-1' ou use a dica de junção para forçar a junção shuffle.
EXECUTOR_BROADCAST_JOIN_STORE_OOM (Erro de falta de memória ao unir armazenamento)
Não há memória suficiente para armazenar a relação de difusão <relationClassName>
. Tamanho da relação = <relationSize>
. StorageLevel = <storageLevel>
. [sparkPlanId: <sparkPlanId>
] Desabilite as transmissões de broadcast para essa consulta usando 'set spark.sql.autoBroadcastJoinThreshold=-1' ou use a dica de junção para forçar a junção shuffle.
EXEC_IMEDIATO_ARGUMENTOS_DUPLICADOS_APELIDOS
A USING
cláusula desse EXECUTE IMMEDIATE
comando continha vários argumentos com o mesmo alias (<aliases>
), que é inválido; atualize o comando para especificar aliases exclusivos e tente novamente.
ESPERA_TABELA_PERMANENTE_NÃO_TEMPORÁRIA
'<operation>
' espera uma tabela permanente, mas <tableName>
é uma tabela temporária. Em vez disso, especifique uma tabela permanente.
ESPERE_VISTA_PERMANENTE_NÃO_TEMPORÁRIA
'<operation>
' espera uma exibição permanente, mas <viewName>
é uma exibição temporária.
EXPECT_TABELA_NÃO_VISUALIZAR
'<operation>
' espera uma tabela, mas <viewName>
é uma visualização.
Para obter mais detalhes , consulte EXPECT_TABLE_NOT_VIEW
EXPECT_VIEW_NOT_TABLE
A tabela <tableName>
não suporta <operation>
.
Para obter mais detalhes , consulte EXPECT_VIEW_NOT_TABLE
Falha na Decodificação da Expressão
Falha ao decodificar uma linha para um valor das expressões: <expressions>
.
CODIFICAÇÃO_DE_EXPRESSÃO_FALHOU
Falha ao codificar um valor das expressões: <expressions>
para uma linha.
TIPO_DE_EXPRESSÃO_NÃO_ORDENÁVEL
A expressão de coluna <expr>
não pode ser classificada porque seu tipo <exprType>
não é ordenável.
CLONE_RASO_EXTERNO_AINDA_EXISTE
Falha ao executar a operação na tabela <sourceTable>
de origem porque o clone <targetTable>
superficial ainda existe e seu status é inválido. Se você realmente quiser continuar com essa operação, limpe o clone superficial executando explicitamente o comando DROP
.
ESQUEMA_INVÁLIDO_TABELA_EXTERNA
Tabelas externas não dão suporte ao <scheme>
esquema.
ESCOPO_INVÁLIDO_ATUALIZAÇÃO_FABRIC
Erro ao executar 'REFRESH FOREIGN <scope> <name>
'. Não é possível atualizar um Fabric <scope>
diretamente, use 'REFRESH FOREIGN CATALOG <catalogName>
' para atualizar o Catálogo do Fabric.
Falha ao Executar a Função Definida pelo Usuário
A função definida pelo usuário (<functionName>
: (<signature>
) =>
<result>
) falhou devido a: <reason>
.
CHAMADA_DE_FUNÇÃO_FALHOU
Falha na preparação da função <funcName>
para chamada. Verifique os argumentos da função duas vezes.
FAILED_JDBC
Falha do JDBC <url>
na operação:
Para obter mais detalhes , consulte FAILED_JDBC
FALHA_AO_ANALISAR_TIPO_DE_ESTRUTURA
Falha ao analisar a estrutura: <raw>
.
FAILED_READ_FILE
Erro ao ler o arquivo <path>
.
Para obter mais detalhes , consulte FAILED_READ_FILE
FALHA_AO_REGISTRAR_CLASSE_COM_O_KRYO
Falha ao registrar classes no Kryo.
FALHA_AO_RENOMEAR_CAMINHO
Falha ao renomear de <sourcePath>
para <targetPath>
pois o destino já existe.
FALHA_AO_RENOMEAR_ARQUIVO_TEMPORARIO
Falha ao tentar renomear o arquivo temporário <srcPath>
para <dstPath>
, pois FileSystem.rename retornou falso.
FAILED_ROW_TO_JSON
Falha ao converter o valor <value>
da linha da classe <class>
no tipo <sqlType>
SQL de destino no formato JSON.
FALHA_AO_CARREGAR_ROTINA
Falha ao carregar a rotina <routineName>
.
FALHA_NO_ENTENDIMENTO_MUITO_COMPLEXO
A instrução, incluindo funções SQL potenciais e exibições referenciadas, era muito complexa para ser analisada.
Para atenuar esse erro, divida a instrução em várias partes menos complexas.
RECURSO_NÃO_ATIVADO
O recurso <featureName>
não está habilitado. Considere definir a configuração <configKey>
para <configValue>
, a fim de ativar essa capacidade.
RECURSO_NÃO_ESTA_NO_ARMAZÉM_CLÁSSICO
<feature>
não é suportado em Warehouses SQL Clássicos. Para usar esse recurso, use um sql warehouse profissional ou sem servidor.
Funcionalidade requer UC
<feature>
não há suporte sem o Catálogo do Unity. Para usar esse recurso, habilite o Catálogo do Unity.
RECURSO_INDISPONÍVEL
<feature>
não é suportado no seu ambiente. Para usar esse recurso, entre em contato com o Suporte do Databricks.
CAMPO_JÁ_EXISTE
Não é possível <op>
a coluna, porque <fieldNames>
já existe em <struct>
.
CAMPO_NÃO_ENCONTRADO
Não há esse campo <fieldName>
de struct em <fields>
.
ARQUIVO_NO_CAMINHO_DE_PREPARAÇÃO_JÁ_EXISTE
O arquivo no caminho <path>
de preparo já existe, mas OVERWRITE
não está definido
ERRO_NA_FUNÇÃO_DO_USUÁRIO_FLATMAPGROUPSWITHSTATE
Erro na função fornecida pelo usuário em flatMapGroupsWithState. Motivo: <reason>
FONTE_DE_DADOS_PROIBIDA_NO_SERVERLESS
Não é permitido consultar a fonte <source>
de dados na computação sem servidor. Somente <allowlist>
fontes de dados têm suporte na computação sem servidor.
OPERAÇÃO_PROIBIDA
A operação <statement>
não é permitida em <objectType>
: <objectName>
.
ERRO_FUNÇÃO_USUÁRIO_BATCH_FOREACH
Ocorreu um erro na função fornecida pelo usuário no coletor de lote foreach. Motivo: <reason>
ERRO_FUNÇÃO_USUÁRIO_FOREACH
Ocorreu um erro na função fornecida pelo usuário no coletor foreach. Motivo: <reason>
"INCOMPATIBILIDADE_DE_CHAVE_ESTRANGEIRA (FOREIGN_KEY_MISMATCH)"
As colunas pai da chave estrangeira <parentColumns>
não correspondem às colunas filho da chave primária <childColumns>
.
O_NOME_DO_OBJETO_NÃO_PODE_SER_VAZIO
Não é possível executar esse comando porque o nome estrangeiro <objectType>
deve não estar vazio.
CONVERSÃO_DE_TABELA_ESTRANGEIRA_NÃO_SUPORTADA
A tabela não está elegível para a atualização do UC Foreign para o UC External. Razão:
Para obter mais detalhes , consulte FOREIGN_TABLE_CONVERSION_UNSUPPORTED
ENCONTRADO_FONTES_DE_DADOS_MULTIPLAS
Detectou várias fontes de dados com o nome '<provider>
'. Verifique se a fonte de dados não está registrada simultaneamente e localizada no classpath.
ATUALIZAÇÕES DE ESQUEMAS CONFLITANTES NO JSON
from_json inferência encontrou atualizações de esquema conflitantes em: <location>
REGISTRO_CORROMPIDO_DO_JSON_NA_ESQUEMA
from_json identificou columnNameOfCorruptRecord (<columnNameOfCorruptRecord>
) presente
em um objeto JSON e não pode mais continuar. Configure um valor diferente para
a opção 'columnNameOfCorruptRecord'.
DE_JSON_ESQUEMA_CORROMPIDO
A função de inferência from_json não conseguiu ler o esquema armazenado em: <location>
Falha na Inferência de JSON
from_json não foi possível inferir o esquema. Em vez disso, forneça um.
A inferência de FROM_JSON não é suportada.
a inferência from_json só tem suporte ao se definir tabelas de streaming
CONFIGURAÇÃO_INVÁLIDA_DESDE_JSON
from_json configuração é inválida:
Para obter mais detalhes , consulte FROM_JSON_INVALID_CONFIGURATION
EVOLUÇÃO_DE_ESQUEMA_JSON_FALHOU
from_json não pôde evoluir de <old>
para <new>
Os parâmetros da função devem ser nomeados
A função <function>
requer parâmetros nomeados. Parâmetros com nomes ausentes: <exprs>
. Atualize a chamada de função para adicionar nomes para todos os parâmetros, por exemplo, <function>
(param_name => ...).
COLUNA_GERADA_COM_VALOR_PADRÃO
Uma coluna não pode ter um valor padrão e uma expressão de geração, mas a coluna <colName>
tem valor padrão: (<defaultValue>
) e expressão de geração: (<genExpr>
).
TABLES_POR_TIPO_NAO_SUPORTADO_PELA_VERSAO_HIVE
O Hive 2.2 e versões inferiores não dão suporte a getTablesByType. Use o Hive 2.3 ou versão superior.
ERRO_AQUISIÇÃO_DE_RASTREAMENTO_DE_AQUECIMENTO_FALHOU
Não foi possível obter o rastreamento de inicialização. Causa: <cause>
.
FUNÇÃO_DE_RASTREAMENTO_DE_AQUECIMENTO_NÃO_PERMITIDA
Função get_warmup_tracing() não permitida.
GRAPHITE_SINK_PROTOCOLO_INVÁLIDO
Protocolo graphite inválido: <protocol>
.
PROPRIEDADE_DE_GRAFITE_SINK_EM_FALTA
O coletor de graphite requer a propriedade '<property>
'.
DESALINHAMENTO_COLUNA_AGRUPAMENTO
Não é possível encontrar a coluna de agrupamento (<grouping>
) nas colunas de agrupamento <groupingColumns>
.
Erro: Incompatibilidade de Coluna de ID de Agrupamento
Colunas de grouping_id (<groupingIdColumn>
) não correspondem a colunas de agrupamento (<groupByColumns>
).
LIMITE_DE_TAMANHO_DE_AGRUPAMENTO_EXCEDIDO
O tamanho dos conjuntos de agrupamento não pode ser maior que <maxSize>
.
GROUP_BY_AGGREGATE
Funções de agregação não são permitidas em GROUP BY
, mas foram encontradas em <sqlExpr>
.
Para obter mais detalhes , consulte GROUP_BY_AGGREGATE
AGREGAR_POR_POSIÇÃO
GROUP BY <index>
refere-se a uma expressão <aggExpr>
que contém uma função de agregação. Funções de agregação não são permitidas em GROUP BY
.
AGRUPAR_POR_POS_FORA_DO_ALCANCE
GROUP BY
a posição <index>
não está na lista de seleção (o intervalo válido é [1, <size>
]).
O_TIPO_DE_EXPRESSÃO_DO_GRUPO_NÃO_PODE_SER_ORDENADO
A expressão <sqlExpr>
não pode ser usada como uma expressão de agrupamento porque seu tipo <dataType>
de dados não é um tipo de dados orderable.
HDFS_HTTP_ERROR
Ao tentar ler do HDFS, a solicitação HTTP falhou.
Para obter mais detalhes , consulte HDFS_HTTP_ERROR
INDICAÇÃO_NÃO_SUPORTADA_PARA_DIALETO_JDBC
A opção hint
não é suportada para <jdbcDialect>
na fonte de dados JDBC. Os dialetos com suporte são MySQLDialect
, OracleDialect
e DatabricksDialect
.
Caminho Inválido do Placeholder no Metastore do Hive
A consulta ou o comando não foi executado porque a configuração 'spark.databricks.hive.metastore.tablePlaceholderPath' forneceu um caminho inválido para o placeholder de tabela do Metastore do Hive. Atualize essa configuração com um novo valor para fornecer um caminho válido e execute novamente a consulta ou o comando novamente.
HIVE_METASTORE_TABLE_PLACEHOLDER_PATH_NOT_SET
Falha na consulta ou no comando porque o caminho do espaço reservado da tabela Metastore do Hive não está definido, o que é necessário quando o local do esquema está no DBFS e o local da tabela é um objeto/arquivo. Defina spark.databricks.hive.metastore.tablePlaceholderPath como um caminho ao qual você tem acesso e execute novamente a consulta ou o comando novamente.
HLL_BUFFER_DE_ESBOÇO_DE_ENTRADA_INVÁLIDA
Chamada inválida para <function>
; somente buffers de esboço de HLL válidos são suportados como entradas (como aqueles produzidos pela função hll_sketch_agg
).
HLL_INVALID_LG_K
Chamada inválida para <function>
; o lgConfigK
valor deve ser entre <min>
e <max>
, inclusive: <value>
.
HLL_UNION_DIFFERENT_LG_K
Os esboços têm valores diferentes lgConfigK
: <left>
e <right>
. Defina o parâmetro allowDifferentLgConfigK
como true para chamar <function>
com diferentes valores de lgConfigK
.
HMS_FEDERAÇÃO_CÓPIA_RASA_NÃO_ENCONTRADA_EM_UC
O caminho do clone superficial '<path>
' não pôde ser resolvido para uma tabela no Catálogo do Unity. Verifique se a tabela existe e é federada para o Catálogo do Unity.
EXCEÇÃO_ANALISADOR_HÍBRIDO
Ocorreu uma falha ao tentar resolver uma consulta ou comando com o analisador de ponto fixo herdado, bem como o resolvedor de passagem única.
Para obter mais detalhes , consulte HYBRID_ANALYZER_EXCEPTION
IDENTIFIER_TOO_MANY_NAME_PARTS
<identifier>
não é um identificador válido, pois tem mais de 2 partes de nome.
OPCÃO_DE_GERADOR_DE_SEQUÊNCIA_DUPLICADA_DE_COLUMNAS_DE_IDENTIDADE
Opção de gerador de sequência de coluna IDENTITY
duplicada: <sequenceGeneratorOption>
.
ETAPA_ILEGAL_DAS_COLUNAS_DE_IDENTIDADE
IDENTITY
a etapa da coluna não pode ser 0.
TIPOS_DE_DADOS_NÃO_SUPORTADOS_PARA_COLUNAS_DE_IDENTIDADE
O DataType <dataType>
não é suportado para colunas IDENTITY
.
DIA_DA_SEMANA_INVÁLIDO
Entrada ilegal para o dia da semana: <string>
.
VALOR_DE_ARMAZENAMENTO_DE_ESTADO_ILEGAL
Valor ilegal fornecido ao Armazenamento de Estado
Para obter mais detalhes, consulte ILLEGAL_STATE_STORE_VALUE
ESQUEMA_URI_INAPROPRIADO_DA_OPÇÃO_DE_CONEXÃO
A conexão não pode ser criada devido ao esquema inadequado de URI <uri>
fornecido para a opção de conexão '<option>
'.
Esquemas permitidos): <allowedSchemes>
.
Adicione um esquema se ele não estiver presente no URI ou especifique um esquema dos valores permitidos.
Coluna_Pivô_Incomparável
Coluna dinâmica <columnName>
inválida. As colunas dinâmicas devem ser comparáveis.
TIPO_DE_COLUNA_INCOMPATÍVEL
<operator>
só pode ser executado em tabelas com tipos de coluna compatíveis. A coluna <columnOrdinalNumber>
da tabela <tableOrdinalNumber>
é do tipo <dataType1>
, que não é compatível com <dataType2>
na mesma coluna da primeira tabela.<hint>
REGISTRO_FONTE_DE_DADOS_INCOMPATÍVEL
Detectou um DataSourceRegister incompatível. Remova a biblioteca incompatível do classpath ou atualize-a. Erro: <message>
DADOS_INCOMPATÍVEIS_PARA_TABELA
Não é possível gravar dados incompatíveis para a tabela <tableName>
:
Consulte INCOMPATIBLE_DATA_FOR_TABLE para obter mais detalhes.
TIPOS_DE_JUNÇÃO_INCOMPATÍVEIS
Os tipos de junção <joinType1>
e <joinType2>
são incompatíveis.
ALTERAÇÃO_DE_ESQUEMA_DE_VISUALIZAÇÃO_INCOMPATÍVEL
A consulta sql de exibição <viewName>
tem uma alteração de esquema incompatível e a coluna <colName>
não pode ser resolvida. Esperava-se colunas <expectedNum>
nomeadas <colName>
, mas recebeu <actualCols>
.
Tente recriar a exibição executando: <suggestion>
.
DEFINIÇÃO_DE_TIPO_INCOMPLETO
Tipo complexo incompleto:
Para obter mais detalhes , consulte INCOMPLETE_TYPE_DEFINITION
COMPORTAMENTO_INCONSISTENTE_ENTRE_VERSÕES
Você pode obter um resultado diferente devido à atualização para uma nova versão.
Para obter mais detalhes, consulte INCONSISTENT_BEHAVIOR_CROSS_VERSION
NÚMERO_INCORRETO_DE_ARGUMENTOS
<failure>
, <functionName>
requer pelo menos <minArgs>
argumentos e, no máximo, <maxArgs>
argumentos.
TAXA_DE_CRESCIMENTO_INCORRETA
O deslocamento máximo com <rowsPerSecond>
rowsPerSecond é <maxSeconds>
, mas 'rampUpTimeSeconds' é <rampUpTimeSeconds>
.
REORDENAÇÃO_INDETERMINADA
Não foi possível determinar qual ordenação usar para a operação de cadeia de caracteres. Use a cláusula COLLATE
para definir explicitamente a ordenação.
CLASSIFICAÇÃO_INDETERMINADA_NA_EXPRESSÃO
O tipo de dados de <expr>
tem ordenação indeterminada. Use a cláusula COLLATE
para definir explicitamente a ordenação.
COLAÇÃO_INDETERMINADA_NO_ESQUEMA
O esquema contém ordenação indeterminada em: [<columnPaths>
]. Use a cláusula COLLATE
para definir explicitamente a ordenação.
ÍNDICE_JÁ_EXISTE
Não é possível criar o índice <indexName>
na tabela <tableName>
porque ele já existe.
ÍNDICE NÃO ENCONTRADO
Não é possível localizar o índice <indexName>
na tabela <tableName>
.
ACIONADOR_DE_STREAMING_INFINITO_NÃO_SUPORTADO
Não há suporte para o tipo <trigger>
de gatilho para esse tipo de cluster.
Use um tipo de gatilho diferente, por exemplo, AvailableNow, Once.
INSERIR_DISCORDÂNCIA_DE_ARIDADE_DE_COLUNA
Não é possível fazer gravações em <tableName>
devido ao motivo
Para obter mais detalhes , consulte INSERT_COLUMN_ARITY_MISMATCH
INSERTARIDADE_INCONSISTENTE_DE_COLUNA_DE_PARTIÇÃO
Não é possível gravar em '<tableName>
', <reason>
:
Colunas da tabela: <tableColumns>
.
Colunas de partição com valores estáticos: <staticPartCols>
.
Colunas de dados: <dataColumns>
.
INSERIR_SUBSTITUIR_USANDO_CONJUNTO_INVÁLIDO_DE_COLUNAS
A tabela deve ser particionada e todas as colunas especificadas devem representar o conjunto completo das colunas de partição da tabela.
As seguintes colunas não são colunas de partição: <nonPartitionColumns>
As seguintes colunas de partições estão ausentes: <missingPartitionsColumns>
INSERIR_SUBSTITUIR_USANDO_NÃO_HABILITADO
Entre em contato com seu representante do Databricks para habilitar o recurso INSERT INTO
... REPLACE USING
( ... ).
PERMISSÕES_INSUFICIENTES
Privilégios insuficientes:
<report>
Permissões Insuficientes EXT LOC
O usuário <user>
tem privilégios insuficientes para o local <location>
externo.
PERMISSÕES_INSUFICIENTES_SEM_PROPRIETÁRIO
Não há nenhum proprietário para <securableName>
. Peça ao administrador para definir um proprietário.
Permissões insuficientes para a propriedade securável
O usuário não possui <securableName>
.
PERMISSÕES_INSUFICIENTES_SEGURÁVEL
O usuário não tem permissão <action>
em <securableName>
.
PERMISSÕES_INSUFICIENTES_PROPRIETÁRIO_DO_PAI_SEGURÁVEL
O proprietário de <securableName>
é diferente do proprietário de <parentSecurableName>
.
PERMISSÕES_INSUFICIENTES_SPARK_CONECTAR_CLIENTE_CONFIGURAR_TEMPO_DE_RETENÇÃO_DE_CLOUDFETCH
O cliente não tem permissão para definir um tempo limite de retenção personalizado para os resultados do CloudFetch.
PERMISSÕES_INSUFICIENTES_ARMAZENAMENTO_CREDenciais
A credencial <credentialName>
de armazenamento tem privilégios insuficientes.
PERMISSÕES_INSUFICIENTES_SEGURÁVEIS_SUBJACENTES
O usuário não pode <action>
em <securableName>
por causa das permissões em protegíveis subjacentes.
PERMISSÕES_INSUFICIENTES_ELEMENTOS_SEGURÁVEIS_DETALHADO
O usuário não pode <action>
em <securableName>
devido a permissões em securáveis subjacentes:
<underlyingReport>
INTERVAL_ARITHMETIC_OVERFLOW
Estouro de inteiro ao operar com intervalos.
Para obter mais detalhes , consulte INTERVAL_ARITHMETIC_OVERFLOW
INTERVALO_DIVIDIDO_POR_ZERO
Divisão por zero. Use try_divide
para tolerar divisor sendo 0 e retornar NULL
em vez disso.
INVALID_AGGREGATE_FILTER
A expressão FILTER
<filterExpr>
em uma função de agregação é inválida.
Para obter mais detalhes , consulte INVALID_AGGREGATE_FILTER
CODIFICADOR_AGNÓSTICO_INVÁLIDO
Encontrei um codificador independente inválido. Espera uma instância de AgnosticEncoder, mas obteve <encoderType>
. Para obter mais informações, consulte '<docroot>
/api/java/index.html?org/apache/spark/sql/Encoder.html'.
VALOR_INVÁLIDO_DO_ALGORITMO
Valor de algoritmo de interpolação de borda inválido ou sem suporte <alg>
.
INVALID_ARRAY_INDEX
O índice <indexValue>
está fora dos limites. A matriz tem elementos <arraySize>
. Use a função SQL get()
para permitir o acesso a um elemento em um índice inválido e retornar NULL
.
Para obter mais detalhes , consulte INVALID_ARRAY_INDEX
INVALID_ARRAY_INDEX_IN_ELEMENT_AT
O índice <indexValue>
está fora dos limites. A matriz tem elementos <arraySize>
. Use try_element_at
para tolerar o acesso a um elemento em um índice inválido e, em vez disso, retornar NULL
.
Para obter mais detalhes , consulte INVALID_ARRAY_INDEX_IN_ELEMENT_AT
NOME_DE_ATRIBUTO_INVÁLIDO_SINTAXE
Erro de sintaxe no nome do atributo: <name>
. Verifique se os backticks aparecem em pares, uma cadeia de caracteres entre aspas é uma parte de nome completa e use um backtick somente dentro de partes de nome entre aspas.
AUTENTICAÇÃO_AWS_INVÁLIDA
Escolha exatamente um dos seguintes métodos de autenticação:
Forneça o nome da credencial de serviço do Databricks (
<serviceCredential>
) (como uma opção de fluxo do Spark ou como uma variável de ambiente de cluster).Forneça o AWS AccessKey (
<awsAccessKey>
) e o SecretAccessKey (<awsSecretKey>
) para usar chaves AWS.Não forneça nem as chaves da AWS nem uma credencial de serviço do Databricks para usar a cadeia padrão de provedores de credenciais da AWS para autenticação no Kinesis.
OPÇÕES_EXPLÍCITAS_DE_AUTENTICAÇÃO_AWS_INVÁLIDAS
Forneça o nome da credencial de serviço do Databricks (<serviceCredential>
)
OU ambos <awsAccessKey>
e <awsSecretKey>
POSIÇÃO_INVÁLIDA_DO_BITMAP
A posição de bitmap com índice 0 está fora do limite. O bitmap possui <bitmapNumBits>
bits (<bitmapNumBytes>
bytes).
DECLARAÇÃO_BOOLEAN_INCORRETA
Espera-se uma expressão booleana na condição, mas foi encontrado <invalidStatement>
.
FRONTEIRA_INVÁLIDA
O limite <boundary>
é inválido: <invalidValue>
.
Para obter mais detalhes , consulte INVALID_BOUNDARY
TIPO_DE_DADO_INVÁLIDO_DA_COLUNA_DO_BUCKET
Não é possível usar <type>
para a coluna bucket. Não há suporte para tipos de dados agrupados para bucketing.
ARQUIVO_DE_BUCKET_INVÁLIDO
Arquivo bucket inválido: <path>
.
INVALID_BYTE_STRING (String de bytes inválida)
O formato esperado é ByteString, mas foi <unsupported> (<class>
).
NOME_DE_COLUNA_INVÁLIDO_COMO_CAMINHO
A fonte de <datasource>
dados não pode salvar a coluna <columnName>
porque seu nome contém alguns caracteres que não são permitidos em caminhos de arquivo. Use um alias para renomeá-lo.
TIPO_DE_DADOS_INVÁLIDO_PARA_COLUNA_OU_CAMPO
A coluna ou o campo <name>
é do tipo <type>
, mas deve ser <expectedType>
.
INVALID_CONF_VALUE
O valor '<confValue>
' na configuração "<confName>
" é inválido.
Para obter mais detalhes , consulte INVALID_CONF_VALUE
TIPO_DE_REGISTRO_INVÁLIDO_CORRUPTO
A coluna <columnName>
destinada aos registros corrompidos deve ser do tipo anulável STRING
, mas está configurada como <actualType>
.
VALOR_CRS_INVÁLIDO
Valor inválido ou sem suporte de CRS (sistema de referência de coordenadas) <crs>
.
USO_INVÁLIDO_DE_DESTINATÁRIO_ATUAL
current_recipient
A função só pode ser usada na CREATE VIEW
declaração ou na ALTER VIEW
declaração para definir uma visualização de compartilhamento somente no Catálogo do Unity.
CURSOR_INVÁLIDO
O cursor é inválido.
Para obter mais detalhes , consulte INVALID_CURSOR
PADRÃO_DE_DATA_HORA_INVÁLIDO
Padrão de datetime não reconhecido: <pattern>
.
Para obter mais detalhes , consulte INVALID_DATETIME_PATTERN
VALOR_PADRÃO_INVÁLIDO
Falha ao executar <statement>
o comando porque a coluna ou variável <colName>
de destino tem um DEFAULT
valor <defaultValue>
,
Para obter mais detalhes , consulte INVALID_DEFAULT_VALUE
VALOR_INVÁLIDO_DO_DELIMITADOR
Valor inválido para delimitador.
Para obter mais detalhes , consulte INVALID_DELIMITER_VALUE
CATÁLOGO_DE_DESTINO_INVÁLIDO
O catálogo de destino do SYNC
comando deve estar no Catálogo do Unity. Encontrado <catalog>
.
MEMÓRIA_DO_DRIVER_INVÁLIDA
A memória <systemMemory>
do sistema deve ser pelo menos <minSystemMemory>
.
Aumente o tamanho do heap usando a opção --driver-memory ou "<config>
" na configuração do Spark.
OPÇÕES DINÂMICAS INVÁLIDAS
As opções passadas <option_list>
são proibidas para tabela estrangeira <table_name>
.
LOCALIZAÇÃO_INVÁLIDA_OU_VAZIA
O nome do local não pode ser uma cadeia de caracteres vazia, mas <location>
foi fornecido.
DECLARAÇÃO_INVÁLIDA_DE_CONDIÇÃO_DE_ERRO
Declaração de condição inválida.
Para obter mais detalhes , consulte INVALID_ERROR_CONDITION_DECLARATION
ESC_INVALIDO
Encontrado uma cadeia de caracteres de escape inválida: <invalidEscape>
. A cadeia de caracteres de escape deve conter apenas um caractere.
CARACTERE_DE_ESCAPE_INVÁLIDO
EscapeChar
deve ser um literal de cadeia de caracteres de comprimento um, mas tem <sqlExpr>
.
MEMÓRIA_INVÁLIDA_DO_EXECUTOR
A memória <executorMemory>
do executor deve ser pelo menos <minSystemMemory>
.
Aumente a memória do executor usando a opção --executor-memory ou "<config>
" na configuração do Spark.
CODIFICADOR_DE_EXPRESSION_INVÁLIDA
Encontrado um codificador de expressão inválido. Espera uma instância de ExpressionEncoder, mas recebeu <encoderType>
. Para obter mais informações, consulte '<docroot>
/api/java/index.html?org/apache/spark/sql/Encoder.html'.
TIPO_EXTERNO_INVÁLIDO
O tipo <externalType>
externo não é válido para o tipo <type>
na expressão <expr>
.
Tipo de campo base de extração inválido (INVALID_EXTRACT_BASE_FIELD_TYPE)
Não é possível extrair um valor de <base>
. Precisa de um tipo complexo [STRUCT
, ARRAY
, MAP
], mas obteve <other>
.
CAMPO_DE_EXTRAÇÃO_INVÁLIDO
Não é possível extrair <field>
de <expr>
.
TIPO_DE_CAMPO_DE_EXTRAÇÃO_INVÁLIDO
O nome do campo deve ser um literal de cadeia de caracteres não nula, mas é <extraction>
.
NOME_DO_CAMPO_INVÁLIDO
O nome do campo <fieldName>
é inválido: <path>
não é um struct.
FORMATO_INVÁLIDO
O formato é inválido: <format>
.
Para obter mais detalhes , consulte INVALID_FORMAT
FRAÇÃO_DE_SEGUNDO_INVÁLIDA
O intervalo válido para segundos é [0, 60] (inclusivo), mas o valor fornecido é <secAndMicros>
. Para evitar esse erro, use try_make_timestamp
, que retorna NULL
com o erro.
Se você não quiser usar a versão padrão de carimbo de data/hora da sessão para esta função, use try_make_timestamp_ntz
ou try_make_timestamp_ltz
.
USO_INVÁLIDO_GET_DIAGNOSTICS
Uso inválido da GETDIAGNOSTICS
instrução.
Para obter mais detalhes, consulte INVALID_GET_DIAGNOSTICS_USAGE
CONDIÇÃO_DE_USO_DA_DIAGNÓSTICA_INVALIDA_NUMERO_DEVE_SER_UM
Uso inválido da GETDIAGNOSTICS
instrução. O único valor com suporte para um número de condição na GETDIAGNOSTICS
instrução é 1.
INVALID_HANDLE
O identificador <handle>
é inválido.
Para obter mais detalhes , consulte INVALID_HANDLE
DECLARAÇÃO_DE_MANIPULADOR_INVÁLIDA
Declaração de manipulador inválida.
Para obter mais detalhes, consulte INVALID_HANDLER_DECLARATION
MÉTODO_DE_SOLICITAÇÃO_HTTP_INVÁLIDO
O parâmetro de entrada: método, valor: <paramValue>
não é um parâmetro válido para http_request porque não é um método HTTP válido.
CAMINHO_INVÁLIDO_DA_SOLICITAÇÃO_HTTP
O parâmetro de entrada: caminho, valor: <paramValue>
não é um parâmetro válido para http_request porque a passagem de caminho não é permitida.
IDENTIFICADOR_INVÁLIDO
O identificador <ident>
não cotado é inválido e deve ser citado novamente como: <ident>
.
Identificadores não citados só podem conter ASCII
letras ('a' - 'z', 'A' - 'Z'), dígitos ('0' - '9') e sublinhado ('_').
Os identificadores não citados também não devem começar com um dígito.
Diferentes fontes de dados e meta repositórios podem impor restrições adicionais aos identificadores válidos.
ÍNDICE_INVÁLIDO_DE_ZERO
O índice 0 é inválido. Um índice deve ser < 0
ou > 0
(o primeiro elemento tem índice 1).
INVALID_INLINE_TABLE
Tabela inline inválida.
Para obter mais detalhes , consulte INVALID_INLINE_TABLE
FORMATO_DE_INTERVALO_INVÁLIDO
Erro ao interpretar '<input>
' como intervalo. Verifique se o valor fornecido está em um formato válido para definir um intervalo. Você pode referenciar a documentação para o formato correto.
Para obter mais detalhes , consulte INVALID_INTERVAL_FORMAT
INTERVALO_INVÁLIDO_COM_ADIÇÃO_DE_MICROSSEGUNDOS
Não é possível adicionar um intervalo a uma data porque sua parte de microssegundos não é 0. Para resolver isso, converta a data de entrada em um timestamp, que suporta a adição de intervalos com microssegundos não zero.
IDENTIFICADOR_JAVA_INVÁLIDO_COMO_NOME_DE_CAMPO
<fieldName>
não é um identificador válido do Java e não pode ser usado como nome de campo
<walkedTypePath>
.
OPÇÃO_INVÁLIDA_DE_CONEXÃO_JDBC
A opção <optionKey>
não é um parâmetro válido para essa conexão jdbc.
OPÇÃO DE CONEXÃO JDBC INVÁLIDA
A opção <optionKey>
com um valor <optionValue>
não é uma opção válida para essa conexão jdbc.
INVALID_JOIN_TYPE_FOR_JOINWITH (Tipo de junção inválido para JOINWITH)
Tipo de junção inválido em joinWith: <joinType>
.
TIPO_DE_DADOS_JSON_INVÁLIDO
Falha ao converter a cadeia de caracteres JSON '<invalidType>
' em um tipo de dados. Insira um tipo de dados válido.
TIPO_DE_DADO_JSON_INVÁLIDO_PARA_COLATIONS
As ordenações só podem ser aplicadas a tipos de cadeia de caracteres, mas o tipo de dados JSON é <jsonType>
.
Tipo de Registro JSON Inválido
Detectou um tipo inválido de um registro JSON ao inferir um esquema comum no modo <failFastMode>
. Esperado um tipo STRUCT
, mas encontrado <invalidType>
.
CAMPO_RAIZ_JSON_INVÁLIDO
Não é possível converter o campo raiz JSON no tipo Spark de destino.
Tipo de mapa de esquema JSON inválido
O esquema de entrada <jsonSchema>
só pode conter STRING
como um tipo de chave para um MAP
.
TAMANHO_DO_BUFFER_DO_SERIALIZER_KRYO_INVÁLIDO
O valor da configuração "<bufferSizeConfKey>
" deve ser menor que 2048 MiB, mas tem <bufferSizeConfValue>
MiB.
USO_INVÁLIDO_DE_RÓTULO
O uso do rótulo <labelName>
é inválido.
Para mais detalhes, consulte INVALID_LABEL_USAGE
INVALID_LAMBDA_FUNCTION_CALL (Chamada de função Lambda inválida)
Chamada de função lambda inválida.
Para obter mais detalhes, consulte INVALID_LAMBDA_FUNCTION_CALL
TIPO_DE_JUNÇÃO_LATERAL_INVÁLIDO
A <joinType>
JOIN correlação com LATERAL
não é permitida porque uma subconsulta OUTER
não pode se correlacionar ao parceiro de junção. Remova a LATERAL
correlação ou use umINNER
JOIN , ou LEFT OUTER
JOIN em vez disso.
EXPRESSÃO_INVÁLIDA_TIPO_LIMITE
O limite como expressão <expr>
é inválido.
Para obter mais detalhes, consulte INVALID_LIMIT_LIKE_EXPRESSION
VERSÃO_DE_LOG_INVÁLIDA
Versão de Log Não Suportada.
Para obter mais detalhes , consulte INVALID_LOG_VERSION
CAMINHO_NÃO_ABSOLUTO_INVÁLIDO
O caminho <path>
não absoluto fornecido não pode ser qualificado. Atualize o caminho para ser um local de montagem de DBFS válido.
EXPRESSÕES INVÁLIDAS NÃO DETERMINÍSTICAS
O operador espera uma expressão determinística, mas a expressão real é <sqlExprs>
.
INTERVALO_INVÁLIDO_DE_LITERAL_NUMÉRICO
O literal numérico <rawStrippedQualifier>
está fora do intervalo válido para <typeName>
, com valor mínimo de <minValue>
e valor máximo de <maxValue>
. Ajuste o valor adequadamente.
MÉTRICAS_OBSERVADAS_INVÁLIDAS
Métricas observadas inválidas.
Para obter mais detalhes , consulte INVALID_OBSERVED_METRICS
OPÇÕES_INVÁLIDAS
Opções inválidas:
Para obter mais detalhes , consulte INVALID_OPTIONS
INVALID_PANDAS_UDF_PLACEMENT (Posição inválida do UDF Pandas)
A agregação de grupo pandas UDF <functionList>
não pode ser usada juntamente com outras funções de agregação não pandas.
VALOR_DO_MARCADOR_DE_PARÂMETRO_INVÁLIDO
Um mapeamento de parâmetro inválido foi fornecido:
Para obter mais detalhes , consulte INVALID_PARAMETER_MARKER_VALUE
INVALID_PARAMETER_VALUE
O valor dos parâmetros <parameter>
em <functionName>
é inválido:
Para obter mais detalhes , consulte INVALID_PARAMETER_VALUE
Tipo de dado de coluna de partição inválido (INVALID_PARTITION_COLUMN_DATA_TYPE)
Não é possível usar <type>
para a coluna de partição.
OPERAÇÃO_DE_PARTIÇÃO_INVÁLIDA
O comando de partição é inválido.
Para obter mais detalhes , consulte INVALID_PARTITION_OPERATION
VALOR_DE_PARTIÇÃO_INVÁLIDO
Falha ao converter valor <value>
em tipo <dataType>
de dados para a coluna <columnName>
de partição. Verifique se o valor corresponde ao tipo de dados esperado para esta coluna de partição.
Erro: INVALID_PIPELINE_ID
O ID do pipeline <pipelineId>
não é válido.
Uma ID de pipeline deve ser uma UUID no formato 'xxxxxxxx-xxxx-xxxx-xxxx-xxxx-xxxxxxx'
PRIVILÉGIO_INVÁLIDO
O privilégio <privilege>
não é válido para <securable>
.
CHAVE_DE_PROPRIEDADE_INVÁLIDA
<key>
é uma chave de propriedade inválida, use aspas, por exemplo. . SET <key>=<value>
VALOR_DE_PROPRIEDADE_INVÁLIDO
<value>
é um valor de propriedade inválido, use aspas, por exemplo, SET <key>=<value>
NOME_DA_COLUNA_QUALIFICADO_INVÁLIDO
O nome <columnName>
da coluna é inválido porque não é qualificado com um nome de tabela ou consiste em mais de 4 partes de nome.
CONSULTA_INVÁLIDA_PARÂMETROS_DE_CONSULTA_MISTURADOS
A consulta parametrizada deve usar parâmetros posicionais ou nomeados, mas não ambos.
CTE_RECURSIVO_INVÁLIDO
Definição recursiva inválida encontrada. As consultas recursivas devem conter uma instrução UNION
ou uma instrução UNION ALL
com dois filhos. O primeiro filho deve ser o termo âncora sem referências recursivas.
REFERÊNCIA_RECURSIVA_INVÁLIDA
Referência recursiva inválida encontrada dentro WITH RECURSIVE
da cláusula.
Para obter mais detalhes, consulte INVALID_RECURSIVE_REFERENCE
SUBSTITUIÇÃO_INVALIDA_REGEXP
Não foi possível realizar a função regexp_replace para a origem = "<source>
", padrão = "<pattern>
", substituição = "<replacement>
" e posição = <position>
.
FORMATO_INVÁLIDO_DO_COMANDO_DE_REDEFINIÇÃO
O formato esperado é 'RESET
' ou 'RESET
key'. Se você quiser incluir caracteres especiais na chave, use aspas, por exemplo, RESET key
.
USO_INVÁLIDO_DE_REINALIZAÇÃO
RESIGNAL
quando o manipulador não estiver ativo.
RESIGNAL
A instrução só pode ser usada dentro do bloco de código do manipulador de exceção.
CREDENCIAIS_INVÁLIDAS_PARA_CÓPIA_S3
COPY INTO
as credenciais devem incluir AWS_ACCESS_KEY
, AWS_SECRET_KEY
e AWS_SESSION_TOKEN
.
Modo_de_Gravação_Inválido
O modo <mode>
de salvamento especificado é inválido. Os modos de salvamento válidos incluem "append", "overwrite", "ignore", "error", "errorifexists" e "default".
ESQUEMA_INVÁLIDO
O esquema de entrada <inputSchema>
não é uma cadeia de caracteres de esquema válida.
Para obter mais detalhes , consulte INVALID_SCHEMA
NOME_DE_ESQUEMA_OU_RELAÇÃO_INVÁLIDO
<name>
não é um nome válido para tabelas/esquemas. Os nomes válidos contêm apenas caracteres alfabéticos, números e _.
ESQUEMA_INVÁLIDO
O catálogo do Unity não suporta <name>
como esquema de arquivos padrão.
INVALID_SECRET_LOOKUP
Consulta de segredo inválida:
Para obter mais detalhes , consulte INVALID_SECRET_LOOKUP
SINTAXE_DE_CONJUNTO_INVÁLIDA
O formato esperado é 'SET
', 'SET
key' ou 'SET
key=value'. Se você quiser incluir caracteres especiais na chave ou incluir ponto-e-vírgula no valor, use backquotes, por exemplo, SET key
=value
.
NOME_DE_ALIAS_COMPARTILHADO_INVÁLIDO
O <sharedObjectType>
nome do alias deve ser do formato "schema.name".
Coluna_de_Variante_Única_Invalida
O esquema <schema>
especificado pelo usuário é inválido quando a opção singleVariantColumn
está habilitada. O esquema deve ser um campo variante ou um campo variante mais um campo de coluna corrompido.
CATÁLOGO_FONTE_INVÁLIDO
O catálogo de origem não deve estar no Catálogo do Unity para o SYNC
comando. Encontrado <catalog>
.
FONTE_INVÁLIDA_PARA_COMANDO_DE_MERGIR_DO_SERVIÇO_DE_FILTRO
A origem da operação de serviço MERGE
de filtragem só pode conter projeções e filtros.
Ajuste o comando MERGE
ou use uma tabela de estágio como fonte.
<stmt>
INVALID_SPARK_CONFIG
Configuração inválida do Spark:
Para obter mais detalhes , consulte INVALID_SPARK_CONFIG
INVALID_SQLSTATE
Valor inválido SQLSTATE
: '<sqlState>
'.
SQLSTATE
deve ter exatamente 5 caracteres e conter apenas A-Z e 0-9.
SQLSTATE
não deve começar com '00', '01' ou 'XX'.
INVALID_SQL_ARG
O argumento <name>
de sql()
é inválido. Considere substituí-lo por um literal SQL ou por funções de construtor de coleção, como map()
, array()
ou struct()
.
SINTAXE_SQL_INVÁLIDA
Sintaxe SQL inválida:
Para obter mais detalhes , consulte INVALID_SQL_SYNTAX
PATH_INVALIDO_DE_ENCENAÇÃO_EM_CONSULTA_DE_ACESSO_DE_ENCENAÇÃO
Caminho de estágio inválido na consulta <operation>
: <path>
DECLARAÇÃO_INVÁLIDA_PARA_EXECUTAR_EM
A cláusula INTO
de EXECUTE IMMEDIATE
é válida apenas para consultas, mas a instrução fornecida não é uma consulta: <sqlString>
.
DECLARAÇÃO_OU_CLÁUSULA_INVÁLIDA
A instrução ou cláusula: <operation>
não é válida.
INTERVALO_DE_DISPARO_DO_MODO_DE_TRANSMISSÃO_EM_TEMPO_REAL_INVÁLIDO
O intervalo de gatilho em tempo real é definido como <interval>
ms. Isso é menor que o <minBatchDuration>
ms mínimo especificado por spark.databricks.streaming.realTimeMode.minBatchDuration.
INTERVALO_DE_SUBSTITUIÇÃO_DE_GATILHO_DE_MODO_DE_TEMPO_REAL_DE_TRANSMISSÃO_INVÁLIDO
O intervalo de ponto de verificação do gatilho em tempo real não pôde ser analisado. Por favor, verifique se você forneceu um número inteiro positivo.
EXPRESSÃO_INVÁLIDA_DE_SUBCONSULTA
Subconsulta inválida:
Para obter mais detalhes , consulte INVALID_SUBQUERY_EXPRESSION
ALVO_INVÁLIDO_PARA_COMANDO_ALTERAR
ALTER <commandTableType>
... <command>
não é compatível com <tableName>
. Em vez disso, use ALTER <targetTableType>
... <command>
ALVO_INVÁLIDO_PARA_COMANDO_SET_TBLPROPERTIES
ALTER <commandTableType>
... SET TBLPROPERTIES
não é compatível com <tableName>
. Em vez disso, use ALTER <targetTableType>
... SET TBLPROPERTIES
REFERÊNCIA_INVÁLIDA_DE_OBJETO_TEMPORÁRIO
Não é possível criar o objeto <objName>
persistente do tipo <obj>
porque ele faz referência ao objeto <tempObjName>
temporário do tipo <tempObj>
. Torne o objeto <tempObjName>
temporário persistente ou torne o objeto <objName>
persistente temporário.
FORMATO_DE_TIMESTAMP_INVÁLIDO
O carimbo de data/hora fornecido <timestamp>
não corresponde à sintaxe esperada <format>
.
FUSO HORÁRIO INVÁLIDO
O fuso horário: <timeZone>
é inválido. O fuso horário deve ser um identificador de zona baseado em região ou um deslocamento de fuso horário. As IDs da região devem ter a forma "área/cidade", como "América/Los_Angeles". Os deslocamentos de zona devem estar no formato '(+|-)HH', '(+|-)HH:mm' ou '(+|-)HH:mm:ss', por exemplo, '-08', '+01:00' ou '-13:33:33', e devem estar no intervalo de -18:00 a +18:00. 'Z' e 'UTC' são aceitos como sinônimos para '+00:00'.
ESPECIFICAÇÃO_INVÁLIDA_DE_VIAJEM_NO_TEMPO
Não é possível especificar a versão e o carimbo de data/hora ao percorrer a tabela.
TIMESTAMP_DE_VIAGEM_NO_TEMPO_INVÁLIDO
A expressão <expr>
de carimbo de data/hora de viagem no tempo é inválida.
Para obter mais detalhes , consulte INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
LITERAL_DIGITADO_INVÁLIDO
O valor do literal <valueType>
tipado é inválido: <value>
.
IMPLEMENTAÇÃO_INVÁLIDA_DE_UDF
A função <funcName>
não implementa um ScalarFunction ou AggregateFunction.
SINTAXE_DE_ATUALIZAÇÃO_INVÁLIDA
<command> <supportedOrNot>
a tabela de origem está no Metastore do Hive e a tabela de destino está no Catálogo do Unity.
INVALID_URL
A URL é inválida: <url>
. Use try_parse_url
para tolerar a URL inválida e retornar NULL
.
USO_INVÁLIDO_DE_ASTERISCO_OU_REGEX
Uso inválido de <elem>
em <prettyName>
.
INVALID_UTF8_STRING
Sequência de bytes UTF8 inválida encontrada na cadeia de caracteres: <str>
.
UUID inválido
A entrada <uuidInput>
não é uma UUID válida.
A UUID deve estar no formato 'xxxxxxxxx-xxxx-xxxx-xxxx-xxxx-xxxxxxx'
Verifique o formato da UUID.
DECLARAÇÃO_INVÁLIDA_DE_VARIÁVEL
Declaração de variável inválida.
Para obter mais detalhes , consulte INVALID_VARIABLE_DECLARATION
TIPO_DE_VARIÁVEL_INVÁLIDO_PARA_EXECUÇÃO_IMEDIATA_DE_CONSULTA
O tipo de variável deve ser do tipo string, mas é <varType>
.
CONVERSÃO_DE_VARIANTE_INVÁLIDA
O valor <value>
da variante não pode ser convertido em <dataType>
. Use try_variant_get
em seu lugar.
VARIANTE_INVÁLIDA_DO_PARQUET
Variante inválida.
Para obter mais detalhes, consulte INVALID_VARIANT_FROM_PARQUET
Caminho_Inválido_Variável_Obter
O caminho <path>
não é um caminho de extração variante válido em <functionName>
.
Um caminho válido deve começar $
e é seguido por zero ou mais segmentos como[123]
, , .name
['name']
ou ["name"]
.
INVALID_VARIANT_SHREDDING_SCHEMA (Esquema de fragmentação de variante inválido)
O esquema <schema>
não é um esquema de fragmentação de variante válido.
INVALID_WHERE_CONDITION
A WHERE
condição <condition>
contém expressões inválidas: <expressionList>
.
Reescreva a consulta para evitar funções de janela, funções de agregação e funções geradoras na WHERE
cláusula.
ESPECIFICAÇÃO_DE_JANELA_INVÁLIDA_PARA_FUNÇÃO_DE_AGREGAÇÃO
Não é possível especificar ORDER BY
ou um quadro de janela para <aggFunc>
.
EXPRESSÃO_INVÁLIDA_DENTRO_DO_GRUPO
Função inválida <funcName>
com WITHIN GROUP
.
Para obter mais detalhes, consulte INVALID_WITHIN_GROUP_EXPRESSION
MENSAGEM_DE_COMPROMISSO_DO_AUTOR_INVÁLIDA
O escritor de fonte de dados gerou um número inválido de mensagens de confirmação. Esperava-se exatamente uma mensagem de commit de escritor de cada tarefa, mas recebido <detail>
.
DISTRIBUIÇÃO_INVÁLIDA_DE_ESCRITA
A distribuição de gravação solicitada é inválida.
Para obter mais detalhes , consulte INVALID_WRITE_DISTRIBUTION
FALHA_DE_COMANDO_ISOLADA
Falha ao executar <command>
. Saída do comando:
<output>
FALHA_DESCONHECIDA_COMANDO_ISOLADO
Falha ao executar <command>
.
A CONDIÇÃO DE JUNÇÃO NÃO É DO TIPO BOOLEANO
A condição de junção <joinCondition>
tem um tipo inválido <conditionType>
, esperado "BOOLEAN
".
KAFKA_DATA_LOSS (perda de dados no Kafka)
Alguns dados podem ter sido perdidos porque não estão mais disponíveis no Kafka;
os dados foram excluídos pelo Kafka ou o tópico pode ter sido excluído antes de todos os dados no
o tópico foi processado.
Se você não quiser que a consulta de streaming falhe nesses casos, defina a opção de origem failOnDataLoss como false.
Razão:
Para obter mais detalhes , consulte KAFKA_DATA_LOSS
KINESIS_NÃO_CONSEGUIU_LER_FRAGMENTO_ATÉ_O_OFFSET_FINAL
Não foi possível ler até o número de sequência <endSeqNum>
desejado para o fragmento <shardId>
em
fluxo de kinesis <stream>
com modo de consumidor <consumerMode>
. A consulta falhará devido a
perda de dados potencial. O último registro lido estava no número de sequência <lastSeqNum>
.
Isso pode acontecer se os dados com endSeqNum já tiverem sido excluídos devido à idade, ou o fluxo do Kinesis ter sido interrompido.
ele foi excluído e reconstruído com o mesmo nome. O comportamento de falha pode ser substituído
definindo spark.databricks.kinesis.failOnDataLoss como false na configuração do Spark.
KINESIS_EFO_CONSUMER_NOT_FOUND
Para o fluxo <streamId>
de kinesis, o consumidor <consumerId>
de EFO registrado anteriormente do fluxo foi excluído.
Reinicie a consulta para que um novo consumidor seja registrado.
KINESIS_EFO_ASSINATURA_LIMITE_EXCEDIDO
Para shard <shard>
, a chamada anterior da API subscribeToShard estava dentro dos 5 segundos da próxima chamada.
Reinicie a consulta após 5 segundos ou mais.
Fragmento capturado pelo Kinesis é menor que o shard monitorado
O ID do fragmento mínimo buscado do Kinesis (<fetchedShardId>
)
é menor que o shardId mínimo rastreado (<trackedShardId>
).
Isso é inesperado e ocorre quando um fluxo do Kinesis é excluído e recriado com o mesmo nome,
e uma consulta de streaming usando este fluxo Kinesis é reiniciada a partir de um local já existente de ponto de verificação.
Reinicie a consulta de streaming com um novo local de ponto de verificação ou crie um fluxo com um novo nome.
MODO_DE_INTERROGAÇÃO_KINESIS_NÃO_SUPORTADO
O modo de sondagem Kinesis não é suportado.
Violação da ordem do número de sequência do registro Kinesis
Para o fragmento <shard>
, o último registro lido do Kinesis em buscas anteriores tem o número de sequência <lastSeqNum>
.
que é maior que o registro lido na busca atual com o número de sequência <recordSeqNum>
.
Isso é inesperado e pode acontecer quando a posição inicial da repetição ou da próxima busca é inicializada incorretamente e pode resultar em registros duplicados downstream.
KINESIS_SOURCE_DEVE_ESTAR_EM_MODO_EFO_PARA_CONFIGURAR_CONSUMIDORES
Para ler do Kinesis Streams com configurações de consumidor (consumerName
, consumerNamePrefix
ou registeredConsumerId
), consumerMode
deve ser efo
.
A_FONTE_KINESIS_DEVE_ESPECIFICAR_ID_E_TIPO_DE_CONSUMIDOR_REGISTRADO
Para ler do Kinesis Streams com consumidores registrados, você deve especificar as opções registeredConsumerId
e registeredConsumerIdType
.
DeveEspecificarNomesOuARNsDeCorrente_KINESIS_SOURCE
Para ler do Kinesis Streams, você deve configurar uma das opções streamName
ou streamARN
(mas não ambas ao mesmo tempo) como uma lista separada por vírgulas de nomes de fluxo/ARNs.
Fonte Kinesis Sem Opções de Consumidor com Consumidores Registrados
Para ler do Kinesis Streams com consumidores registrados, não configure consumerName
nem consumerNamePrefix
, pois elas não terão efeito.
CONTA_DESCONHECIDA_DO_CONSUMIDOR_REGISTRADO_FONTE_KINESIS
O número de IDs de consumidores registradas deve ser igual ao número de fluxos do Kinesis, mas obteve <numConsumerIds>
IDs de consumidores e <numStreams>
fluxos.
CONSUMIDOR_REGISTRADO_DE_ORIGEM_KINESIS_NÃO_ENCONTRADO
O consumidor registrado <consumerId>
fornecido não foi encontrado para streamARN <streamARN>
. Verifique se você registrou o consumidor ou não fornece a opção registeredConsumerId
.
TIPO_DE_CONSUMIDOR_REGISTRADO_ORIGEM_KINESIS_INVÁLIDO
O tipo <consumerType>
de consumidor registrado é inválido. Tem de ser ou name
ARN
.
KRYO_BUFFER_OVERFLOW
Falha na serialização do Kryo: <exceptionMsg>
. Para evitar isso, aumente o valor "<bufferSizeConfKey>
".
Inconsistência_de_Rótulos
O rótulo de início <beginLabel>
não corresponde ao rótulo de fim <endLabel>
.
Etiqueta já existe
O rótulo <label>
já existe. Escolha outro nome ou renomeie o rótulo existente.
NOME_DO_RÓTULO_PROIBIDO
O nome <label>
do rótulo é proibido.
FONTE_DE_DADOS_DA_FEDERAÇÃO_LAKEHOUSE_REQUER_VERSÃO_DBR_MAIS_RECENTE
A fonte de dados de federação do Lakehouse '<provider>
' requer uma versão mais recente do Databricks Runtime.
Para obter mais detalhes , consulte LAKEHOUSE_FEDERATION_DATA_SOURCE_REQUIRES_NEWER_DBR_VERSION
CAMINHO_PARA_CARREGAR_DADOS_NÃO_EXISTE
LOAD DATA O caminho de entrada não existe: <path>
.
LOCAL_DEVE_TER_ARQUIVO_DE_ESQUEMA
LOCAL
deve ser usado junto com o esquema de file
, mas obteve: <actualSchema>
.
LOCALIZAÇÃO_JÁ_EXISTE
Não é possível nomear a tabela gerenciada como <identifier>
, pois o local associado <location>
já existe. Escolha um nome de tabela diferente ou remova o local existente primeiro.
PARTIÇÕES_DE_TÓPICO_PERDIDAS_NO_OFFSET_FINAL_COM_DISPARADOR_DISPONÍVELAGORA
Algumas das partições nos tópicos do Kafka foram perdidas durante a execução da consulta com Trigger.AvailableNow. O erro pode ser transitório : reinicie sua consulta e relate se você ainda vir o mesmo problema.
partições de tópicos para offset mais recente: <tpsForLatestOffset>
, partições de tópicos para offset final: <tpsForEndOffset>
MENSAGEM_AVRO_MALFORMADA
Mensagens malformadas do Avro são detectadas na desserialização de mensagens. Modo de Análise Sintática: <mode>
. Para processar a mensagem malformada do Avro como resultado nulo, tente definir a opção 'mode' como 'PERMISSIVE
'.
CODIFICAÇÃO_MALFORMADA_DE_CARACTERES
Valor inválido encontrado ao executar <function>
com <charset>
REGISTRO_CSV_MALFORMADO
Registro CSV malformado: <badRecord>
Arquivo_de_Registro_Malformado (MALFORMED_LOG_FILE)
O arquivo de log foi formatado incorretamente: falhou ao ler a versão correta do log de <text>
.
MENSAGEM_PROTOBUF_MALFORMADA
Mensagens malformadas de Protobuf são detectadas na desserialização de mensagens. Modo de Análise Sintática: <failFastMode>
. Para processar a mensagem protobuf malformada como resultado nulo, tente definir a opção 'mode' como 'PERMISSIVE
'.
REGISTRO_MALFORMADO_AO_ANALISAR
Registros malformados são detectados na análise de registros: <badRecord>
.
Modo de Análise Sintática: <failFastMode>
. Para processar registros malformados como resultado nulo, tente definir a opção 'mode' como 'PERMISSIVE
'.
Para obter mais detalhes, consulte MALFORMED_RECORD_IN_PARSING
ESTADO_MALFORMADO_NA_FONTE_DE_TAXA_POR_MICRO_LOTE
Estado malformado na origem RatePerMicroBatch.
Para obter mais detalhes , consulte MALFORMED_STATE_IN_RATE_PER_MICRO_BATCH_SOURCE
Variante Malformada
O binário variante está mal formado. Verifique se a fonte de dados é válida.
GERENCIADO_ICEBERG_TENTOU_ATIVAR_AGRUPAMENTO_SEM_DESATIVAR_DVS_OU_RASTREAMENTO_DE_LINHAS
Tentou habilitar o clustering Liquid em uma tabela gerenciada do Apache Iceberg sem desabilitar os vetores de exclusão e o acompanhamento de linhas. Não há suporte para vetores de exclusão e acompanhamento de linha para tabelas de Iceberg gerenciadas, mas são necessários para simultaneidade de nível de linha com tabelas Liquid. Para habilitar o clustering Liquid em uma tabela iceberg gerenciada com controle de simultaneidade reduzido, os vetores de exclusão e o acompanhamento de linhas devem ser desabilitados para esta tabela.
OPERAÇÃO_ICEBERG_GERENCIADA_NÃO_SUPORTADA
Tabelas de Iceberg gerenciadas não dão suporte <operation>
.
TABELA_GERENCIADA_COM_CRED
Não há suporte para criar uma tabela gerenciada com credencial de armazenamento.
VISÃO_MATERIALIZADA_MESA_REFRESH_SEM_PIPELINE_ID
Não é possível <refreshType>
a exibição materializada porque ela antecede ter um pipelineId. Para habilitar <refreshType>
, elimine e recrie a visão materializada.
OPERAÇÃO_COM_VISTA_MATERIALIZADA_NÃO_PERMITIDA
A operação <operation>
de exibição materializada não é permitida:
Para obter mais detalhes , consulte MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
VISUALIZAÇÃO_MATERIALIZADA_SAÍDA_SEM_ALIAS_EXPLÍCITO
A expressão de saída <expression>
em uma exibição materializada deve ser explicitamente apelidada.
VISUALIZAÇÃO MATERIALIZADA SOBRE CONSULTA STREAMING INVÁLIDA
não foi possível criar uma exibição materializada <name>
com a consulta de streaming. Use CREATE [OR REFRESH] STREAMING TABLE
ou remova a palavra-chave STREAM
na sua cláusula FROM
para transformar essa relação em uma consulta em lote.
OPERAÇÃO_NÃO_SUPORTADA_VISTA_MATERIALIZADA
Atualmente, não há suporte para a operação <operation>
em exibições materializadas.
NÚMERO_MÁXIMO_DE_VARIÁVEIS_NA_SESSÃO_EXCEDIDO (MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED)
Não é possível criar a nova variável <variableName>
porque o número de variáveis na sessão excede o número máximo permitido (<maxNumVariables>
).
NÚMERO_MÁXIMO_DE_REGISTROS_POR_BUSCA_INVÁLIDO_PARA_ORIGEM_KINESIS
maxRecordsPerFetch precisa ser um inteiro positivo menor ou igual a <kinesisRecordLimit>
VIOLAÇÃO_CARDINALIDADE_MERGE
A ON
condição de pesquisa da MERGE
instrução correspondeu a uma única linha da tabela de destino com várias linhas da tabela de origem.
Isso pode fazer com que a linha de destino seja submetida a mais de uma execução de uma operação de atualização ou exclusão, o que não é permitido.
MESCLAR_SEM_QUANDO
Deve haver pelo menos uma WHEN
cláusula em uma MERGE
declaração.
RESTRIÇÃO_DE_MÉTRICA_NÃO_SUPORTADA
METRIC CONSTRAINT
não está habilitado.
ERRO_VALOR_ARGUMENTO_INVÁLIDO_METRIC_STORE
O valor fornecido "<argValue>
" não é suportado pelo argumento "<argName>
" para a função de METRIC_STORE
tabela.
Para obter mais detalhes, consulte METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
ERRO_DE_ARMAZENAMENTO_DE_MÉTRICA_NÃO_SUPORTADO
Atualmente, a rotina <routineName>
do Repositório de Métricas está desabilitada nesse ambiente.
CRITÉRIOS DE UNIÃO AMBÍGUOS NA VISUALIZAÇÃO DE MÉTRICAS
A definição de exibição de métrica contém uma junção com um critério ambíguo: <expr>
. [Use os using
critérios de junção ou qualifique explicitamente as colunas com o alias <sourceAlias>
.]
TABELA_DE_CACHE_DE_VISAO_METRICA_NAO_SUPORTADA
A exibição de métrica não tem permissão para usar tabelas de cache.
RECURSO DE VISUALIZAÇÃO DE MÉTRICAS DESATIVADO
O recurso de exibição de métrica está desabilitado. Verifique se "spark.databricks.sql.metricView.enabled" está definido como true.
Entrada inválida de função de medida em visualização de métrica
A MEASURE
função () usa apenas um atributo como entrada, mas tem <expr>
DEFINIÇÃO_INVÁLIDA_DE_VISUALIZAÇÃO_DE_MÉTRICA
A definição de exibição de métrica é inválida. Motivo: <reason>
.
VISUALIZAÇÃO_DE_MÉTRICA_EM_CTE_NÃO_SUPORTADA
A exibição de métrica não é permitida em definições de CTE. plano: <plan>
JUNÇÃO_DE_VISTA_DE_MÉTRICA_NÃO_SUPORTADA
A exibição de métrica não tem permissão para usar junções. plano: <plan>
MATERIALIZAÇÕES_DE_VISTA_MÉTRICA_DESATIVADAS
As materializações de visualização de métricas estão desabilitadas. Verifique se "spark.databricks.sql.metricView.materializations.enabled" está definido como true.
FALTA_FUNÇÃO_DE_MEDIDA_MÉTRICA
O uso da coluna de medida <column>
de uma exibição de métrica requer uma função MEASURE
() para produzir resultados.
RENOMEAR_VISTA_MÉTRICA_CATÁLOGO_E_ESQUEMA_DIFERENTE
A visualização de métricas <oldName>
não tem permissão para ser renomeada para um catálogo ou esquema diferente: <newName>
.
USO_NÃO_SUPORTADO_DA_VISTA_MÉTRICA
O uso da visualização métrica não é suportado. plano: <plan>
FUNÇÃO_JANELA_DA_VISÃO_DE_MÉTRICA_NÃO_SUPORTADA
A exibição de métrica não tem permissão para usar a função de janela <expr>
.
MIGRAÇÃO_NÃO_SUPORTADA
<table>
não é suportado para migração para tabela gerenciada pelo UC porque não é uma tabela <tableKind>
.
Verifique se a tabela que está sendo migrada é uma tabela delta externa UC.
ele é referenciado por seu nome em vez de caminho.
RESTAURAÇÃO DA MIGRAÇÃO NÃO SUPORTADA
<table>
não é compatível com o processo de reversão entre uma tabela gerenciada e uma tabela externa, devido ao fato de que não é uma tabela <tableKind>
.
PARTIÇÕES_DE_TÓPICO_INCOMPATÍVEIS_ENTRE_OFFSET_FINAL_E_PREFETCHED
A fonte de dados Kafka no Trigger.AvailableNow deve assegurar os mesmos deslocamentos de partições de tópico pré-fetcheados até o deslocamento final por microbatch. O erro pode ser transitório : reinicie sua consulta e relate se você ainda vir o mesmo problema.
Partições de tópicos para posições pré-obtidas: <tpsForPrefetched>
, partições de tópicos para posição final: <tpsForEndOffset>
.
AGREGAÇÃO_AUSENTE
A expressão não agregada <expression>
é baseada em colunas que não estão participando da cláusula GROUP BY
.
Adicione as colunas ou a expressão ao GROUP BY
, agrupe a expressão ou use <expressionAnyValue>
se você não se importar com quais valores em um grupo serão retornados.
Para obter mais detalhes , consulte MISSING_AGGREGATION
CLÁUSULAS_FALTANDO_PARA_OPERAÇÃO
Cláusula <clauses>
ausente para a operação <operation>
. Adicione as cláusulas necessárias.
OPÇÃO_DE_CONEXÃO_AUSENTE
As conexões do tipo '<connectionType>
' devem incluir as seguintes opções: <requiredOptions>
.
BANCO_DE_DADOS_AUSENTE_PARA_V1_CATALOGO_DE_SESSÃO
O nome do banco de dados não é especificado no catálogo de sessão v1. Certifique-se de fornecer um nome de banco de dados válido ao interagir com o catálogo v1.
GRUPO_POR_AUSENTE
A consulta não inclui uma GROUP BY
cláusula. Adicione GROUP BY
ou transforme-o nas funções de janela usando cláusulas OVER.
NOME_AUSENTE_PARA_RESTRIÇÃO_DE_VERIFICAÇÃO
CHECK
A restrição deve ter um nome.
PARÂMETRO_INEXISTENTE_PARA_KAFKA
O parâmetro <parameterName>
é necessário para Kafka, mas não é especificado em <functionName>
.
PARÂMETRO_AUSENTE_PARA_ROTINA
O parâmetro <parameterName>
é necessário, mas não é especificado em <functionName>
.
DEFINIÇÃO DE AGENDA AUSENTE
Uma definição de agenda deve ser fornecida a seguir SCHEDULE
.
CONFIGURAÇÃO_DE_TIMEOUT_AUSENTE (MISSING_TIMEOUT_CONFIGURATION)
A operação atingiu o tempo limite, mas não há tempo limite configurado. Para definir um tempo limite baseado em tempo de processamento, use 'GroupState.setTimeoutDuration()' em sua operação 'mapGroupsWithState' ou 'flatMapGroupsWithState'. Para tempo limite baseado em tempo de evento, use 'GroupState.setTimeoutTimestamp()' e defina uma marca d'água usando 'Dataset.withWatermark()'.
ESPECIFICAÇÃO_DE_JANELA_AUSENTE
A especificação da janela não está definida na WINDOW
cláusula para <windowName>
. Para obter mais informações sobre WINDOW
cláusulas, consulte '<docroot>
/sql-ref-syntax-qry-select-window.html'.
MODIFICAR_CATÁLOGO_INTERNO
Não há suporte para a modificação do catálogo <catalogName>
interno.
CAMINHO_DE_CARGA_MÚLTIPLA
O Databricks Delta não dá suporte a vários caminhos de entrada na API load().
caminhos: <pathList>
. Para criar um único DataFrame carregando
vários caminhos a partir da mesma tabela Delta, carregue o caminho raiz.
a tabela Delta com os filtros de partição correspondentes. Se os vários caminhos
são de diferentes tabelas Delta, use as funções union() ou unionByName() de Dataset
para combinar os DataFrames gerados por chamadas de API de carga() separadas.
LIMITAÇÕES_DE_COMBINAÇÃO_MÚLTIPLA
Encontrado pelo menos duas restrições correspondentes com a condição fornecida.
CLÁUSULAS_MULTIPLAS_DE_RESULTADO_DE_CONSULTA_COM_OPERADORES_PIPE
<clause1>
e <clause2>
não pode coexistir no mesmo operador de pipe SQL usando '|>'. Separe as várias cláusulas de resultado em operadores de pipe separados e repita a consulta novamente.
ESPECIFICAÇÃO_DE_VIAGEM_NO_TEMPO_MULTIPLA
Não é possível especificar a viagem no tempo tanto na cláusula de viagem no tempo quanto nas opções.
FONTE_DE_DADOS_XML_MÚLTIPLAS
Detectou várias fontes de dados com o nome <provider> (<sourceNames>
). Especifique o nome da classe totalmente qualificado ou remova <externalSource>
do classpath.
MULTI_ALIAS_SEM_GERADOR
O aliasing de várias partes (<names>
) não é compatível com <expr>
, pois não é uma função geradora.
FONTES_MÚLTIPLAS_NÃO_SUPORTADAS_PARA_EXPRESSÃO
A expressão <expr>
não dá suporte a mais de uma fonte.
MULTI_STATEMENT_TRANSACTION_CDF_SCHEMA_COM_NOME_DE_COLUNA_RESERVADO
O Feed de Dados de Alteração não pode ser habilitado em uma Transação de Várias Instruções porque uma tabela contém um nome de coluna reservado (<column_name>
).
Para continuar, verifique se a tabela usa apenas nomes de coluna não reservados.
Configuração de CDF de Transação Multi-Comando com Marcador Máximo Não Permitida
A definição manual da marca d'água alta das Identidades CDC não é permitida.
TRANSACAO_MULTI_DECLARACAO_ALTERACAO_CONCORRENTE_DE_METADADOS_DO_CATALOGO
Uma alteração concorrente de metadados foi detectada na tabela/visualização <table>
.
ROLLBACK
Execute e tente novamente essa transação. Detalhes:
Para obter mais detalhes , consulte MULTI_STATEMENT_TRANSACTION_CONCURRENT_CATALOG_METADATA_CHANGE
MULTI_DECLARAÇÃO_CONTEXTO_DE_TRANSACÇÃO_INCOMPATÍVEL
A inconsistência do contexto de transação foi detectada entre o thread atual e a sessão do Spark. Isso normalmente ocorre quando uma sessão do Spark é compartilhada em vários threads. Use uma sessão e um thread dedicados para cada transação e confirme/retorne a transação em seu respectivo thread antes de reutilizar a sessão e o thread para uma nova transação. Detalhes:
Para obter mais detalhes , consulte MULTI_STATEMENT_TRANSACTION_CONTEXT_MISMATCH
TRANSAÇÃO_COM_MÚLTIPLAS_DECLARAÇÕES_NÃO_SUPORTADA
Falha ao executar a instrução.
Para obter mais detalhes , consulte MULTI_STATEMENT_TRANSACTION_NOT_SUPPORTED
TRANSAÇÃO_MULTIPLA_SEM_TRANSAÇÃO_ATIVA
Não há nenhuma transação ativa para <action>
.
REVERTÊNCIA_DE_TRANSAÇÃO_COM_MÚLTIPLAS_DECLARAÇÕES_REQUERIDA_APÓS_ABORTO
A transação atual foi anulada.
ROLLBACK TRANSACTION
Execute antes de continuar. Motivo da anulação:
Para obter mais detalhes , consulte MULTI_STATEMENT_TRANSACTION_ROLLBACK_REQUIRED_AFTER_ABORT
MULTI_UDF_INTERFACE_ERROR (Erro de Interface de Múltiplos UDFs)
Não é permitido que a classe UDF <className>
implemente várias interfaces UDF.
Cláusulas mutuamente exclusivas
Cláusulas ou opções <clauses>
mutuamente exclusivas. Remova uma dessas cláusulas.
Tipo de backing incorreto na alteração da consulta MV_ST
A consulta de entrada espera um <expectedType>
, mas a tabela subjacente é um <givenType>
.
PARÂMETROS_NOMEADOS_NÃO_SUPORTADOS
Parâmetros nomeados não têm suporte para a função <functionName>
; tente novamente a consulta com argumentos posicionais para a chamada de função.
PARÂMETROS_NOMEADOS_NÃO_SUPORTADOS_PARA_SQL_UDFS
Não é possível chamar a função <functionName>
porque não há suporte para referências de argumento nomeado. Nesse caso, a referência de argumento nomeado foi <argument>
.
SUPORTE_AO_PARÂMETRO_NOMEADO_DESATIVADO
Não é possível chamar a função <functionName>
porque as referências de argumento nomeado não estão habilitadas aqui.
Nesse caso, a referência de argumento nomeado foi <argument>
.
Defina "spark.sql.allowNamedFunctionArguments" como "true" para ativar o recurso.
NAMESPACE_JÁ_EXISTE
Não é possível criar namespace <nameSpaceName>
porque ele já existe.
Escolha um nome diferente, solte o namespace existente ou adicione a IF NOT EXISTS
cláusula para tolerar o namespace pré-existente.
ESPAÇO_DE_NOMES_NÃO_ESTÁ_VAZIO
Não é possível descartar um namespace <nameSpaceNameName>
porque ele contém objetos.
Use DROP NAMESPACE
... CASCADE
para remover o namespace e todos os seus objetos.
NAMESPACE_NÃO_ENCONTRADO
O namespace <nameSpaceName>
não pode ser encontrado. Verifique a ortografia e a correção do namespace.
Se você não qualificou o nome, verifique a saída de current_schema() ou qualifique o nome corretamente.
Para tolerar o erro ao descartar uso, utilize DROP NAMESPACE IF EXISTS
.
NATIVE_IO_ERROR
Falha na requisição nativa. requestId: <requestId>
, nuvem: <cloud>
, operação: <operation>
request: [https: <https>
, method = <method>
, path = <path>
, params = <params>
, host = <host>
, headers = <headers>
, bodyLen = <bodyLen>
],
erro: <error>
FONTE_DE_DADOS_XML_NATIVA_NÃO_HABILITADA
A fonte de dados XML nativa não está habilitada neste cluster.
ESCALA_NEGATIVA_NÃO_PERMITIDA
A escala negativa não é permitida: '<scale>
'. Defina a configuração <sqlConf>
como "true" para permitir.
VALORES_NEGATIVOS_NA_EXPRESSÃO_DE_FREQUÊNCIA
Encontrou o valor negativo em <frequencyExpression>
: <negativeValue>
, mas esperava um valor integral positivo.
FUNÇÃO_AGREGADA_ANINHADA
Não é permitido usar uma função de agregação no argumento de outra função de agregação. Use a função de agregação interna em uma subconsulta.
NESTED_EXECUTE_IMMEDIATE
Comandos aninhados EXECUTE IMMEDIATE
não são permitidos. Verifique se a consulta SQL fornecida (<sqlString>
) não contém outro EXECUTE IMMEDIATE
comando.
NOME_DE_CAMPO_INEXISTENTE_EM_LISTA
Campo(s) <nonExistFields>
não existe(m). Campos disponíveis: <fieldNames>
ARGUMENTO_NÃO_DOBRÁVEL
A função <funcName>
requer que o parâmetro <paramName>
seja uma expressão dobrável do tipo <paramType>
, mas o argumento real é não dobrável.
CLÁUSULA_NÃO_CORRESPONDIDA_FINAL_OMITIR_CONDIÇÃO
Quando há mais de uma MATCHED
cláusula em uma MERGE
instrução, somente a última MATCHED
cláusula pode omitir a condição.
NOT_CONDIZ_OMITIDA_POR_CLÁUSULA_FONTE_NÃO_CORRESPONDENTE_ÚLTIMA
Quando há mais de uma NOT MATCHED BY SOURCE
cláusula em uma MERGE
instrução, somente a última NOT MATCHED BY SOURCE
cláusula pode omitir a condição.
NÃO_ÚLTIMO_NÃO_CORRESPONDIDO_PELA_CLÁUSULA_ALVO_OMITIR_CONDIÇÃO
Quando há mais de uma NOT MATCHED [BY TARGET
cláusula ] em uma MERGE
instrução, somente a última NOT MATCHED [BY TARGET
cláusula ] pode omitir a condição.
VALORES_DE_PIVÔ_NÃO_LITERAL
Expressões literais necessárias para valores principais, encontradas <expression>
.
COLUNA_NÃO_PARTICIONADA
PARTITION
A cláusula não pode conter a coluna de não partição: <columnName>
.
JANELA_NÃO_TEMPORAL_NÃO_SUPORTADA_EM_STREAMING
Não há suporte para a função window em <windowFunc>
(como coluna <columnName>
) no streaming de DataFrames/Conjuntos de dados.
O Streaming Estruturado dá suporte apenas à agregação de janela de tempo usando a WINDOW
função. (especificação da janela: <windowSpec>
)
NÃO_PERMITIDO_NO_DE
Na cláusula FROM
, não é permitido:
Para obter mais detalhes, consulte NOT_ALLOWED_IN_FROM
NÃO_PERMITIDO_NO_OPERADOR_PIPE_ONDE
Não permitido na cláusula WHERE
do pipe:
Para obter mais detalhes , consulte NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE
NOT_A_CONSTANT_STRING
A expressão <expr>
usada para a rotina ou cláusula <name>
deve ser uma constanteSTRING
.NOT NULL
Para obter mais detalhes , consulte NOT_A_CONSTANT_STRING
NÃO_É_UMA_TABELA_PARTICIONADA
A operação <operation>
não é permitida porque <tableIdentWithDB>
não é uma tabela particionada.
NAO_UMA_FUNCAO_ESCALAR
<functionName>
aparece como uma expressão escalar aqui, mas a função foi definida como uma função de tabela. Atualize a consulta para mover a chamada de função para a FROM
cláusula ou redefinir <functionName>
como uma função escalar.
NÃO_É_UMA_FUNÇÃO_DE_TABELA
<functionName>
aparece como uma função de tabela aqui, mas a função foi definida como uma função escalar. Atualize a consulta para mover a chamada de função para fora da FROM
cláusula ou redefinir <functionName>
como uma função de tabela.
VIOLAÇÃO_DE_ALEGAÇÃO_NÃO_NULO
NULL
valor apareceu no campo não anulável: <walkedTypePath>
se o esquema for inferido de uma tupla/caso classe Scala ou de um bean Java, tente usar scala.Option[_] ou outros tipos anuláveis (como java.lang.Integer em vez de int ou scala.Int).
VIOLAÇÃO_DE_RESTRIÇÃO_NOT_NULL
Atribuir um NULL
não é permitido aqui.
Para obter mais detalhes, consulte NOT_NULL_CONSTRAINT_VIOLATION
MUDANÇA_DE_COLUNA_NÃO_SUPORTADA
ALTER TABLE ALTER
/
CHANGE COLUMN
não é possível alterar a coluna <table>
<originName>
com tipo <originType>
para <newName>
com tipo <newType>
.
ALTERAÇÃO_NÃO_SUPORTADA_MESMA_COLUNA
ALTER TABLE ALTER
/
CHANGE COLUMN
não é compatível com a alteração da coluna de <table>
, incluindo seus campos aninhados, várias vezes no mesmo comando.
COMANDO_NÃO_SUPORTADO_PARA_TABELA_V2
<cmd>
não há suporte para tabelas v2.
COMANDO_NÃO_SUPORTADO_SEM_SUPORTE_DE_HIVE
<cmd>
não é suportado, se você quiser habilitá-lo, defina "spark.sql.catalogImplementation" como "hive".
NÃO_SUPORTADO_NO_CATÁLOGO_JDBC
Comando sem suporte no catálogo JDBC:
Para obter mais detalhes, consulte NOT_SUPPORTED_IN_JDBC_CATALOG
NÃO_SUPORTADO_COM_DB_SQL
<operation>
não é suportado para um SQL <endpoint>
.
NÃO_SUPORTADO_COM_ARQUITETURA_SEM_SERVIDOR
<operation>
não há suporte na computação sem servidor.
NÃO_CODIFICADOR_NÃO_RESOLVIDO
O codificador não resolvido era esperado, mas <attr>
foi encontrado.
VALOR_PADRÃO_DE_COLUNA_NÃO_DISPONÍVEL
Não é possível determinar o valor padrão porque <colName>
ele não é anulável e não tem valor padrão.
SEM_MANIPULADOR_PARA_UDAF
Nenhum responsável para UDAF '<functionName>
'. Em vez disso, use sparkSession.udf.register(...).
AÇÃO_DE_MESCLAGEM_NÃO_ESPECIFICADA
df.mergeInto precisa ser seguido por pelo menos uma das opções de whenMatched/whenNotMatched/whenNotMatchedBySource.
NENHUMA_LOCALIZAÇÃO_EXTERNA_PARA_O_CAMINHO_PAIS
SQLSTATE: nenhum estado atribuído
Nenhum local pai externo foi encontrado para o caminho '<path>
'. Crie um local externo em um dos caminhos pai e tente a consulta ou o comando novamente.
NO_SQL_TYPE_IN_PROTOBUF_SCHEMA
Não é possível localizar <catalystFieldPath>
no esquema Protobuf.
SEM_LOCAL_DE_ARMAZENAMENTO_PARA_TABELA
SQLSTATE: nenhum estado atribuído
Nenhum local de armazenamento foi encontrado para a tabela '<tableId>
' ao gerar credenciais de tabela. Verifique o tipo de tabela e a URL do local da tabela e tente novamente a consulta ou o comando novamente.
NENHUMA_EXCEÇÃO_DE_TAL_CATÁLOGO
O catálogo '<catalog>
' não foi encontrado. Verifique o nome do catálogo e tente novamente a consulta ou o comando novamente.
EXCEÇÃO_CLEANROOM_INEXISTENTE
SQLSTATE: nenhum estado atribuído
A sala limpa '<cleanroom>
' não existe. Verifique se o nome da sala limpa está escrito corretamente e corresponde ao nome de uma sala limpa existente válida e tente novamente a consulta ou o comando.
EXCEÇÃO_CREDENCIAL_INEXISTENTE
A credencial '<credential>
' não existe. Verifique se o nome da credencial está escrito corretamente e corresponde ao nome de uma credencial existente válida e tente novamente a consulta ou o comando.
EXCEÇÃO_LOCALIZAÇÃO_EXTERNAS_INEXISTENTE
SQLSTATE: nenhum estado atribuído
O local externo '<externalLocation>
' não existe. Verifique se o nome do local externo está correto e tente novamente a consulta ou o comando novamente.
NO_SUCH_METASTORE_EXCEPTION
SQLSTATE: nenhum estado atribuído
O metastore não foi encontrado. Peça ao administrador da conta que atribua um metastore ao workspace atual e tente novamente a consulta ou o comando novamente.
Exceção: Nenhum Provedor Encontrado (NO_SUCH_PROVIDER_EXCEPTION)
SQLSTATE: nenhum estado atribuído
O provedor de compartilhamento '<providerName>
' não existe. Verifique se o nome do provedor de compartilhamento está escrito corretamente e corresponde ao nome de um nome de provedor existente válido e tente novamente a consulta ou o comando.
EXCEÇÃO_DE_DESTINATÁRIO_INEXISTENTE
SQLSTATE: nenhum estado atribuído
O destinatário '<recipient>
' não existe. Verifique se o nome do destinatário está escrito corretamente e corresponde ao nome de um destinatário existente válido e tente novamente a consulta ou o comando novamente.
EXCEÇÃO_DE_COMPARTILHAMENTO_INEXISTENTE
SQLSTATE: nenhum estado atribuído
O compartilhamento '<share>
' não existe. Verifique se o nome do compartilhamento está escrito corretamente e corresponde ao nome de um compartilhamento existente válido e tente novamente a consulta ou o comando novamente.
EXCEÇÃO_CREDENCIAL_DE_ARMAZENAMENTO_INEXISTENTE
SQLSTATE: nenhum estado atribuído
A credencial de armazenamento '<storageCredential>
' não existe. Verifique se o nome da credencial de armazenamento está escrito corretamente e corresponde ao nome de uma credencial de armazenamento existente válida e tente novamente a consulta ou o comando.
NO_SUCH_USER_EXCEPTION (Exceção: Usuário não encontrado)
SQLSTATE: nenhum estado atribuído
O usuário '<userName>
' não existe. Verifique se o usuário ao qual você concede permissão ou altera a propriedade está escrito corretamente e corresponde ao nome de um usuário existente válido e tente novamente a consulta ou o comando novamente.
NO_UDF_INTERFACE
A classe <className>
UDF não implementa nenhuma interface UDF.
COLUNA_OU_CAMPO_NULA
A coluna ou o campo <name>
é anulável, embora devesse ser não anulável.
ATRIBUTOS_DE_ID_DE_LINHA_NULÁVEL
Atributos de ID de linha não podem ser anuláveis: <nullableRowIdAttrs>
.
OPÇÃO_FONTE_DE_DADOS_NULA
A opção de leitura/gravação <option>
da fonte de dados não pode ter valor nulo.
CHAVE_DE_MAPA_NULA
Não é possível usar nulo como chave de mapa.
NULL_QUERY_STRING_EXECUTE_IMMEDIATE
Executar imediatamente requer uma variável não nula como a cadeia de caracteres de consulta, mas a variável <varName>
fornecida é nula.
DECLARAÇÃO_DE_SINAL_DE_VALOR_NULO
Os argumentos da instrução Signal exigem valores não nulos, mas <argument>
receberam um valor nulo.
NUMÉRICO_FORA_DO_INTERVALO_SUPORTADO
O valor <value>
não pode ser interpretado como numérico porque tem mais de 38 dígitos.
NUMERIC_VALUE_OUT_OF_RANGE
Para obter mais detalhes , consulte NUMERIC_VALUE_OUT_OF_RANGE
DESCONCORDÂNCIA_NÚMERO_DE_COLUNAS
<operator>
só pode ser executado em entradas com o mesmo número de colunas, mas a primeira entrada tem <firstNumColumns>
colunas e a <invalidOrdinalNum>
entrada tem <invalidNumColumns>
colunas.
Incompatibilidade_nos_Aliases_dos_Valores_da_Tabela_Numérica
O número de aliases fornecidos não corresponde ao número de colunas de saída.
Nome da função: <funcName>
; número de aliases: <aliasesNum>
; número de colunas de saída: <outColsNum>
.
Reivindicação de Identidade Personalizada OAUTH Não Fornecida
Nenhuma declaração de identidade personalizada foi fornecida.
APENAS_FUNÇÃO_SECRETA_SUPORTADA_AQUI
A função <functionName>
não é suportada neste(a) <location>
; <supportedFunctions>
é suportado(a) aqui.
SOMENTE_SUPORTADO_COM_UC_CONECTOR_SQL
A operação <operation>
SQL só tem suporte em conectores SQL do Databricks com suporte do Unity Catalog.
OPERAÇÃO_CANCELADA
A operação foi cancelada.
A OPERAÇÃO REQUER UNITY CATALOG
A operação <operation>
requer o Catálogo do Unity habilitado.
OP_NÃO_SUPORTADO_SOMENTE_LEITURA
<plan>
não é suportado no modo de sessão somente leitura.
ORDEM_POR_POS_FORA_DO_INTERVALO
ORDER BY
a posição <index>
não está na lista de seleção (o intervalo válido é [1, <size>
]).
PARQUET_CONVERSION_FAILURE
Não é possível criar um conversor Parquet para o tipo <dataType>
de dados cujo tipo Parquet é <parquetType>
.
Para obter mais detalhes , consulte PARQUET_CONVERSION_FAILURE
TIPO_DE_PARQUET_ILEGAL
Tipo parquet ilegal: <parquetType>
.
Tipo de PARQUET não reconhecido
Tipo Parquet não reconhecido: <field>
.
TIPO_PARQUET_NÃO_SUPORTADO
Ainda não há suporte para o tipo Parquet: <parquetType>
.
"ANÁLISE_DECLARAÇÃO_VAZIA"
Erro de sintaxe, instrução vazia inesperada.
MODO_DE_ANÁLISE_NÃO_SUPORTADO
A função <funcName>
não dá suporte ao <mode>
modo. Os modos aceitáveis são PERMISSIVE
e FAILFAST
.
ERRO_DE_SINTAXE_DE_PARSE
Erro de sintaxe em ou perto <error> <hint>
.
PARTIÇÕES JÁ EXISTEM
Não é possível adicionar ou RENAME
para partições <partitionList>
na tabela <tableName>
porque elas já existem.
Escolha um nome diferente, solte a partição existente ou adicione a IF NOT EXISTS
cláusula para tolerar uma partição pré-existente.
PARTIÇÕES_NÃO_ENCONTRADAS
As partições <partitionList>
não podem ser encontradas na tabela <tableName>
.
Verifique a especificação de partição e o nome da tabela.
Para tolerar o erro ao soltar, use ALTER TABLE
…
DROP IF EXISTS PARTITION
.
COLUNA_DE_PARTIÇÃO_NÃO_ENCONTRADA_NO_ESQUEMA
Coluna de partição <column>
não encontrada no esquema <schema>
. Forneça a coluna existente para particionamento.
LOCALIZAÇÃO_DA_PARTIÇÃO_JÁ_EXISTE
O local <locationPath>
da partição já existe na tabela <tableName>
.
LOCALIZAÇÃO_DA_PARTIÇÃO_NÃO_ESTÁ_SOB_O_DIRETÓRIO_DA_TABELA
Falhou ao executar a instrução ALTER TABLE SET PARTITION LOCATION
, porque o
O local <location>
da partição não está no diretório <table>
da tabela.
Para corrigi-lo, defina o local da partição como um subdiretório de <table>
.
METADADOS_DA_PARTIÇÃO
<action>
não é permitido na tabela <tableName>
porque não há suporte para o armazenamento de metadados de partição no Catálogo do Unity.
INCONSISTÊNCIA_DE_NÚMERO_DE_PARTIÇÃO
O número de valores (<partitionNumber>
) não correspondeu ao tamanho do esquema (<partitionSchemaSize>
): os valores são <partitionValues>
, o esquema é <partitionSchema>
, o caminho do arquivo é <urlEncodedPath>
.
Materialize novamente a tabela ou entre em contato com o proprietário.
PARTITION_TRANSFORM_EXPRESSION_NÃO_EM_PARTITIONED_BY
A expressão <expression>
deve estar dentro de 'partitionedBy'.
CAMINHO_JÁ_EXISTE
O caminho <outputPath>
já existe. Defina o modo como "sobrescrever" para sobrescrever o caminho existente.
CAMINHO NÃO ENCONTRADO
O caminho não existe: <path>
.
LIMITE_DE_MEMORIA_EXCEDIDO_PHOTON_DESERIALIZED_PROTOBUF
Desserializar o plano de protobuf do Photon requer pelo menos <size>
bytes, o que excede o
limite de <limit>
bytes. Isso pode ser devido a um plano muito grande ou à presença de um objeto muito amplo.
esquema amplo. Tente simplificar a consulta, remover colunas desnecessárias ou desabilitar o Photon.
PHOTON_SERIALIZED_PROTOBUF_LIMITE_DE_MEMÓRIA_EXCEDIDO
O plano de protobuf do Photon serializado tem bytes de tamanho <size>
, o que excede o limite de
<limit>
Bytes. O tamanho serializado dos tipos de dados no plano é <dataTypeSize>
bytes.
Isso pode ser devido a um plano muito grande ou à presença de um esquema muito amplo.
Considere reescrever a consulta para remover operações e colunas indesejadas ou desabilitar o Photon.
PIPELINE_NÃO_EXISTE
O pipeline '<pipelineId>
' não existe
Para obter mais detalhes , consulte PIPELINE_DOES_NOT_EXIST
EXPRESSÃO_AGREGADA_COM_OPERADOR_DE_PIPE_NÃO_CONTÉM_FUNÇÃO_AGREGADA
A expressão de não agrupamento <expr>
é fornecida como argumento para o operador pipe |> AGGREGATE
, mas não contém nenhuma função de agregação; atualize-a para incluir uma função de agregação e tente executar novamente a consulta.
OPERADOR_PIPE_CONTÉM_FUNÇÃO_AGREGADA
A função de agregação <expr>
não é permitida ao usar a cláusula |> <clause>
do operador 'pipe'. Em vez disso, use a cláusula |> AGGREGATE
do operador 'pipe'.
Tipo de Dados do Valor de Pivô Incompatível
Valor de pivô inválido '<value>
': o tipo de dados do valor <valueType>
não corresponde ao tipo de dados da coluna de pivô <pivotType>
.
POINTER_ARRAY_OUT_OF_MEMORY (Array de ponteiros sem memória)
Memória insuficiente para aumentar a matriz de ponteiros
POLÍTICA_JÁ_EXISTE
Não é possível criar a política <policyName>
porque ela já existe.
Escolha um nome diferente ou remova a política existente para tolerar conexões pré-existentes.
POLÍTICA_NÃO_ENCONTRADA
Não é possível executar o comando <commandType>
porque a política <policyName>
em <securableFullname>
não pode ser encontrada.
Verifique a ortografia e a correção.
POLÍTICA_EM_TIPO_SEGURÁVEL_NÃO_SUPORTADO
Não é possível criar uma política no tipo segurável <securableType>
. Tipos securizáveis com suporte: <allowedTypes>
.
DESCONCORDÂNCIA_NO_NÚMERO_DE_ARGUMENTOS_DO_PROCEDIMENTO
O procedimento <procedureName>
espera <expected>
argumentos, mas <actual>
foram fornecidos.
PROCEDIMENTO_CRIAÇÃO_ROTINA_VAZIA
CREATE PROCEDURE
com uma definição de rotina vazia não é permitida.
PARÂMETRO_CRIAÇÃO_PROCEDIMENTO_SAÍDA_ENTRADA_SAÍDA_COM_PADRÃO
O parâmetro <parameterName>
é definido com o modo de parâmetro <parameterMode>
.
OUT
e INOUT
parâmetro não podem ser omitidos ao invocar uma rotina e, portanto, não dão suporte a uma DEFAULT
expressão. Para continuar, remova a DEFAULT
cláusula ou altere o modo de parâmetro para IN
.
PROCEDIMENTO_NÃO_SUPORTADO
Não há suporte para o procedimento armazenado
PROCEDIMENTO_NÃO_SUPORTADO_COM_HMS
Procedimento armazenado não é suportado com o Metastore do Hive. Em vez disso, use o Catálogo do Unity.
DEPENDÊNCIA_PROTOBUF_NÃO_ENCONTRADA
Não foi possível localizar a dependência: <dependencyName>
.
PROTOBUF_ARQUIVO_DE_DESCRITOR_NÃO_ENCONTRADO
Erro ao ler o arquivo de descritor Protobuf no caminho: <filePath>
.
PROTOBUF_CAMPO_FALTANDO
Pesquisando por <field>
no esquema Protobuf em <protobufSchema>
resultou em <matchSize>
correspondências. Candidatos: <matches>
.
CAMPO_PROTOBUF_AUSENTE_NO_ESQUEMA_SQL
Detectado <field>
no esquema Protobuf, mas não há correspondente no esquema SQL.
INCOMPATIBILIDADE_DE_TIPO_DE_CAMPO_PROTOBUF
Incompatibilidade de tipo encontrada para o campo: <field>
.
PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED (Classes Java do Protobuf não são suportadas)
Não há suporte para classes Java para <protobufFunction>
. Contate o Suporte do Databricks sobre opções alternativas.
PROTOBUF_MESSAGE_NOT_FOUND (PROTOBUF_MENSAGEM_NÃO_ENCONTRADA)
Não é possível localizar a Mensagem <messageName>
no Descritor.
FUNÇÕES_SQL_INUTILIZÁVEIS_PROTOBUF_NÃO_CARREGADO
Não é possível chamar a <functionName>
função SQL porque a fonte de dados protobuf não está carregada.
Reinicie seu trabalho ou sessão com o pacote 'spark-protobuf' carregado, como usando o argumento --packages na linha de comando e tente novamente sua consulta ou comando novamente.
PROTOBUF_TYPE_NOT_SUPPORT (Tipo de dados Protobuf não suportado)
O tipo protobuf ainda não tem suporte: <protobufType>
.
PS_FETCH_RETRY_EXCEPTION
A tarefa na etapa de obtenção de pubsub não pode ser repetida. Partição <partitionInfo>
no estágio <stageInfo>
, TID <taskId>
.
OPÇÃO_VAZIA_INVÁLIDA_PS
<key>
não pode ser uma cadeia de caracteres vazia.
PS_TIPO_DE_CHAVE_INVÁLIDO
Tipo de chave inválido para o dedup pubSub: <key>
.
PS_OPÇÃO_INVÁLIDA
A opção <key>
não tem suporte do PubSub. Ele só pode ser usado em testes.
PS_TIPO_DE_OPÇÃO_INVÁLIDO
Tipo inválido para <key>
. Tipo esperado de <key>
é tipo <type>
.
LIMITE_DE_LEITURA_INVÁLIDO_PS
Limite de leitura inválido no fluxo pubSub: <limit>
.
ConversionNote: No improvement may apply if the term needs to remain in its original form.
UnsafeRow inválido para decodificar para PubSubMessageMetadata, o esquema proto desejado é: <protoSchema>
. A entrada UnsafeRow pode estar corrompida: <unsafeRow>
.
OPÇÃO_INVÁLIDA_FEDERAÇÃO_DE_IDENTIDADE_DE_TRABALHO_PARA_PÚBLICO
Falha na consulta ou no comando devido a uma opção de leitura inválida: em spark.readStream.format("pubsub").option("workloadIdentityFederation.audience", <audience>
). Atualize <audience>
para corresponder ao seguinte formato: //iam.googleapis.com/projects/{PROJECT_NUMBER}/locations/global/workloadIdentityPools/{POOL_ID}/providers/{PROVIDER_ID}
e tente novamente a consulta ou o comando novamente.
INFORMAÇÃO DE AUTENTICAÇÃO FALTANDO
Falha ao localizar informações completas de autenticação do PubSub.
PS_OPÇÃO_OBRIGATÓRIA_FALTANDO
Não foi possível encontrar a opção necessária: <key>
.
Falha de Verificação de Ponto de Verificação PS_MOVING
Falha ao mover arquivos de ponto de verificação de dados brutos de <src>
para o diretório de destino: <dest>
.
OPÇÕES_MULTIPLAS_AUTENTICAÇÃO
Forneça sua credencial de serviço do Databricks ou suas credenciais de conta de serviço GCP.
PS_MÚLTIPLAS ÉPOCAS FALHADAS
O fluxo PubSub não pode ser iniciado, pois há mais de uma falha na busca: <failedEpochs>
.
OPÇÃO_PS_FORA_DOS_LIMITES
<key>
deve estar dentro dos seguintes limites (<min>
, <max>
), exceto em ambos os limites.
No changes are needed if it is meant to remain a variable name.
Os clusters compartilhados não dão suporte à autenticação com perfis de instância. Forneça credenciais para o fluxo diretamente usando .option().
ESPECULAÇÃO_PS_SPARK_NÃO_SUPORTADA
O conector de origem pubSub só está disponível no cluster com spark.speculation
desabilitado.
IMPOSSÍVEL_CRIAR_ASSINATURA
Ocorreu um erro ao tentar criar uma assinatura <subId>
no tópico <topicId>
. Verifique se há permissões suficientes para criar uma assinatura e tente novamente.
Erro ao tentar analisar PROTO
Não é possível analisar bytes serializados para gerar proto.
Chamada de obter deslocamento não suportada
Não há suporte para getOffset sem fornecer um limite.
Erro de Fonte de Dados Python
Falhou na <action>
fonte de dados do Python <type>
: <msg>
ERRO_DE_EXECUÇÃO_FONTE_DE_DADOS_DE_STREAMING_PYTHON
Falha ao executar fonte de dados de streaming do Python: <action>
<msg>
TABELA_CONSULTADA_INCOMPATÍVEL_COM_A_POLÍTICA_DE_MÁSCARA_DE_COLUNAS
Não é possível acessar a tabela referenciada porque uma máscara de coluna atribuída anteriormente é incompatível com o esquema de tabela; para continuar, entre em contato com o proprietário da tabela para atualizar a política:
Para obter mais detalhes , consulte QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
TABELA_CONSULTADA_INCOMPATÍVEL_COM_POLÍTICA_DE_SEGURANÇA_NO_NÍVEL_DE_LINHA
Não é possível acessar a tabela referenciada porque uma política de segurança de nível de linha atribuída anteriormente é incompatível com o esquema de tabela; para continuar, entre em contato com o proprietário da tabela para atualizar a política:
Para obter mais detalhes , consulte QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
QUERY_EXECUTION_TIMEOUT_EXCEEDED (Tempo de execução da consulta excedido)
A execução da consulta foi cancelada devido a exceder o tempo limite (<timeoutSec>
s). Você pode aumentar o limite em segundos definindo <config>
.
CONSULTA_REJEITADA
A execução da consulta foi rejeitada.
ERRO_DE_PERMISSÃO_PARA_GRAVAR_RESULTADO_DE_CONSULTA_NO_ARMAZENAMENTO_NA_NUVEM
A configuração de armazenamento interno do workspace impede que o Databricks acesse o repositório de nuvem.
ARQUIVO_ATUAL_NÃO_ENCONTRADO
<message>
É possível que os arquivos subjacentes tenham sido atualizados. Você pode invalidar explicitamente o cache no Spark executando o comando 'REFRESH TABLE
tableName' no SQL ou recriando o Dataset/DataFrame envolvido.
PARÂMETROS_AMBÍGUOS_DE_ROTINA_LEITURA_ARQUIVOS
A invocação da função <functionName>
tem <parameterName>
e <alternativeName>
definidos, que são apelidos um do outro. Defina apenas um deles.
READ_FILES_CREDENTIALS_PARSE_ERROR
Erro ao analisar as credenciais temporárias da função read_files().
Para obter mais detalhes, consulte READ_FILES_CREDENTIALS_PARSE_ERROR
LEIA_TVF_PARÂMETRO_OBRIGATÓRIO_INESPERADO
O parâmetro <functionName>
necessário da função <parameterName>
deve ser atribuído na posição <expectedPos>
sem o nome.
EXPIRAÇÃO_DO_DESTINATÁRIO_NÃO_SUPORTADA
Somente TIMESTAMP
/TIMESTAMP_LTZ
/TIMESTAMP_NTZ
tipos são suportados para o timestamp de expiração do destinatário.
LIMITE_DE_NÍVEL_DE_RECURSÃO_EXCEDIDO
Limite de nível <levelLimit>
de recursão atingido, mas a consulta não se esgotou, tente aumentá-lo, como em 'WITH RECURSIVE
t(col) MAX RECURSION LEVEL
200'.
LIMITE_DE_LINHAS_RECURSÃO_EXCEDIDO
O limite de linha <rowLimit>
de recursão foi alcançado, mas a consulta ainda não foi esgotada. Tente configurar um valor maior para LIMIT
ao consultar a relação CTE.
CTE_RECURSIVO_EM_MODO_LEGADO
Definições recursivas não podem ser usadas no modo de precedência de CTE herdado (spark.sql.legacy.ctePrecedencePolicy=LEGACY
).
RECURSIVE_CTE_WITH_LEGACY_INLINE_FLAG
Definições recursivas não podem ser usadas quando o sinalizador embutido herdado é definido como true (spark.sql.legacy.inlineCTEInCommands=true).
RECURSIVE_PROTOBUF_SCHEMA
Encontrada referência recursiva no esquema Protobuf, que não pode ser processado pelo Spark por padrão: <fieldDescriptor>
. tente definir a opção recursive.fields.max.depth
1 a 10. Não é permitido ultrapassar 10 níveis de recursão.
VISÃO RECURSIVA
Exibição recursiva <viewIdent>
detectada (ciclo: <newPath>
).
VALOR PADRÃO DE REFERÊNCIA NÃO É PERMITIDO NA PARTIÇÃO
Referências a valores de coluna em DEFAULT
não são permitidas dentro da cláusula PARTITION
.
RELAÇÃO_MAIOR_QUE_8G
Não é possível criar um <relationName>
que seja maior que 8G.
Erro: REMOTE_FUNCTION_HTTP_FAILED_ERROR
Falha na solicitação HTTP remota com código <errorCode>
e mensagem de erro <errorMessage>
ERRO_DE_ANÁLISE_DO_RESULTADO_DO_HTTP_FUNÇÃO_REMOTA
Falha ao avaliar a <functionName>
função SQL devido à incapacidade de analisar o resultado JSON da resposta HTTP remota; a mensagem de erro é <errorMessage>
. Verifique a documentação da API: <docUrl>
. Corrija o problema indicado na mensagem de erro e repita a consulta.
RESULTADO_DE_FUNÇÃO_REMOTA_HTTP_ERRO_INESPERADO
Falha ao avaliar a <functionName>
função SQL devido à incapacidade de processar a resposta HTTP remota inesperada; a mensagem de erro é <errorMessage>
. Verifique a documentação da API: <docUrl>
. Corrija o problema indicado na mensagem de erro e repita a consulta.
Função_Remota_Tempo_de_Espera_de_Nova_Tentativa_HTTP
A solicitação remota falhou após tentar <N>
vezes; o último código de erro HTTP foi <errorCode>
e a mensagem foi <errorMessage>
ERRO_DE_FALTA_DE_REQUISITOS_DA_FUNÇÃO_REMOTA
Falha ao avaliar a função SQL <functionName>
porque <errorMessage>
. Verifique os requisitos em <docUrl>
. Corrija o problema indicado na mensagem de erro e repita a consulta.
RENOMEAR_CAMINHO_ORIGEM_NÃO_ENCONTRADO
Não foi possível renomear, pois <sourcePath>
não foi encontrado.
CLÁUSULA_REPETIDA
A <clause>
cláusula pode ser usada no máximo uma vez por <operation>
operação.
PARÂMETRO NECESSÁRIO JÁ FORNECIDO POSITIONALMENTE
O parâmetro necessário para a rotina <routineName>
foi atribuído na posição <parameterName>
sem o nome.
Atualize a chamada da função para remover o argumento nomeado com <parameterName>
para este parâmetro ou remova o argumento posicional.
argumento em <positionalIndex>
e, em seguida, tente a consulta novamente.
PARAMETRO_REQUERIDO_NÃO_ENCONTRADO
Não é possível invocar a rotina <routineName>
porque o parâmetro nomeado <parameterName>
é necessário, mas a chamada de rotina não forneceu um valor. Atualize a chamada de rotina para fornecer um valor de argumento (posicionalmente no índice <index>
ou pelo nome) e tente novamente a consulta.
REQUER_NOME_DE_ESPAÇO_UNIDIRECIONAL
<sessionCatalog>
requer um namespace de parte única, mas obteve <namespace>
.
CONFLITO_DE_VARIANTE ÚNICA_COM_COLUNA_DE_DADOS RESGATADOS
A opção de leitor de API DataFrame 'rescuedDataColumn' é mutuamente exclusiva com a opção de API DataFrame 'singleVariantColumn'.
Remova um deles e repita a operação DataFrame novamente.
COLUNAS_RESERVADAS_CDC_AO_ESCREVER
A gravação contém colunas reservadas que são usadas <columnList>
internamente como metadados para o Feed de Dados de Alteração. Para escrever na tabela, renomeie ou exclua.
essas colunas ou desabilitar o Fluxo de Dados de Alteração na tabela ao definir
<config>
para falso.
PERMISSÃO_DE_OPÇÃO_DE_STREAMING_RESTRITA_APLICADA
A opção <option>
tem valores restritos em clusters compartilhados para a origem <source>
.
Para obter mais detalhes , consulte RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
ROTINA_JÁ_EXISTE
Não é possível criar o <newRoutineType> <routineName>
porque já existe um <existingRoutineType>
com esse nome.
Escolha um nome diferente, solte ou substitua o existente <existingRoutineType>
ou adicione a IF NOT EXISTS
cláusula para tolerar um pré-existente <newRoutineType>
.
ROTINA_NÃO_ENCONTRADA
A rotina <routineName>
não pode ser encontrada. Verifique a ortografia e a correção do esquema e do catálogo.
Se você não qualificou o nome com um esquema e um catálogo, verifique a saída de current_schema() ou qualifique o nome com o esquema e o catálogo corretos.
Para tolerar o erro durante a queda, use DROP
... IF EXISTS
.
PARÂMETRO_DE_ROTINA_NÃO_ENCONTRADO
A rotina <routineName>
não dá suporte ao parâmetro <parameterName>
especificado na posição <pos>
.<suggestion>
ROTINA_UTILIZA_NOME_DE_CLASSE_RESERVADO_PELO_SISTEMA
A função <routineName>
não pode ser criada porque o nome de classe '<className>
' especificado é reservado para uso do sistema. Renomeie a classe e tente novamente.
MISMATCH_SEGURANÇA_NÍVEL_DE_LINHA_ABAC
Os filtros de linha não puderam ser resolvidos <tableName>
porque havia uma incompatibilidade entre filtros de linha herdados de políticas e filtros de linha explicitamente definidos. Para continuar, desabilite o ABAC (Controle de Acesso Baseado em Atributo) e entre em contato com o suporte do Databricks.
CONSTRAINTE_DE_VERIFICAÇÃO_DE_SEGURANÇA_NÍVEL_DE_LINHA_NÃO_SUPORTADA
Não é suportada a criação de restrição CHECK
na tabela <tableName>
com políticas de segurança em nível de linha.
DUPLICAT_E DE NOME DE COLUNA DE SEGURANÇA EM NÍVEL DE LINHA
Uma <statementType>
instrução tentou atribuir uma política de segurança em nível de linha a uma tabela, mas duas ou mais colunas referenciadas tinham o mesmo nome <columnName>
, o que é considerado inválido.
RECURSO_DE_SEGURANÇA_NÍVEL_DE_LINHA_NÃO_SUPORTADO
Não há suporte para políticas de segurança em nível de linha:<tableName>
Para obter mais detalhes , consulte ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
ALTERAÇÃO_DE_ESQUEMA_INCOMPATÍVEL_COM_SEGURANÇA_EM_NÍVEL_DE_LINHA
Não é possível executar <statementType> <columnName>
na tabela <tableName>
porque ela é referenciada em uma política de segurança de nível de linha. O proprietário da tabela deve remover ou alterar essa política antes de continuar.
FONTE_NÃO_SUPORTADA_PARA_JUNÇÃO_DE_SEGURANÇA_NÍVEL_LINHA
MERGE INTO
as operações não suportam políticas de segurança em nível de linha na tabela de origem <tableName>
.
Segurança_Nível_Linha_Merge_Alvo_Não_Suportado
MERGE INTO
as operações não dão suporte à gravação na tabela <tableName>
com políticas de segurança em nível de linha.
NOME_DE_COLUNA_MULTIPARTIDA_DE_SEGURANÇA_NÍVEL_DE_LINHA
Essa instrução tentou atribuir uma política de segurança em nível de linha a uma tabela, mas a coluna <columnName>
referenciada tinha várias partes de nome, o que é inválido.
SEGURANÇA_NÍVEL_DE_LINHA_EXIGE_CATÁLOGO_UNIDADE
As políticas de segurança em nível de linha só têm suporte no Catálogo do Unity.
SEGURANÇA_NO_NÍVEL_DA_LINHA_MOSTRAR_PARTIÇÕES_NÃO_SUPORTADO
SHOW PARTITIONS
comando não é suportado para<format>
tabelas com política de segurança em nível de linha.
SEGURANÇA_NÍVEL_DE_LINHA_FONTE_CLONE_TABELA_NÃO_SUPORTADA
<mode>
não há suporte para clone da tabela <tableName>
com política de segurança em nível de linha.
ALVO DE CLONE NÃO SUPORTADO NA TABELA DE SEGURANÇA DE NÍVEL DE LINHA
<mode>
não há suporte para clonar na tabela <tableName>
com a política de segurança em nível de linha.
ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER (CONSTANTE_NÃO_SUPORTADA_COMO_PARÂMETRO_EM_SEGURANÇA_NÍVEL_DE_LINHA)
Não há suporte para o uso de uma constante como parâmetro em uma política de segurança em nível de linha. Atualize o comando SQL para remover a constante da definição de filtro de linha e tente novamente o comando.
SEGURANÇA_DE_NÍVEL_DE_LINHA_TIPO_DE_DADOS_NÃO_SUPORTADO
A função <functionName>
usada para a política de segurança em nível de linha tem parâmetro com tipo de dados <dataType>
sem suporte.
Segurança em Nível de Linha_Provedor Não Suportado
Falha ao executar o comando <statementType>
porque atribuir uma política de segurança em nível de linha não é suportado para a fonte de dados de destino com o provedor de tabela: "<provider>
".
Consulta de linha retorna muitas linhas
Mais de uma linha retornada por uma subconsulta usada como uma linha.
VALOR_DA_LINHA_NULO
Encontrado NULL
em sequência no índice <index>
, esperava um valor não-NULL
.
ID_DE_REGRA_NÃO_ENCONTRADO
Não foi encontrada uma ID para o nome da regra "<ruleName>
". Modifique RuleIdCollection.scala se você estiver adicionando uma nova regra.
SALESFORCE_DATA_SHARE_API_NÃO_AUTORIZADO
Falha na autorização para a API de Compartilhamento de Dados do Salesforce. Verifique se os detalhes da conexão do Databricks são fornecidos ao destino apropriado de compartilhamento de dados do Salesforce.
PERMISSÕES_TABELA_EXEMPLO
Permissões não são suportadas em bancos de dados/tabelas de exemplo.
FUNÇÃO_ESCALAR_NÃO_COMPATÍVEL
ScalarFunction <scalarFunc>
não substitui o método 'produceResult(InternalRow)' com implementação personalizada.
A função escalar SCALAR_FUNCTION não está totalmente implementada
ScalarFunction <scalarFunc>
não implementa ou substitui o método 'produceResult(InternalRow)'.
SUBCONSULTA_ESCALAR_ESTA_EM_GROUP_BY_OU_FUNCAO_AGREGADA
A subconsulta escalar correlacionada '<sqlExpr>
' não está presente nem em GROUP BY
, nem em uma função de agregação.
Adicione-o ao GROUP BY
usando a posição ordinal ou envolva-o em first()
(ou first_value
) se não se importar com o valor obtido.
SCALAR_SUBQUERY_DEMAIS_LINHAS
Mais de uma linha retornada por uma subconsulta usada como expressão.
HORÁRIO JÁ EXISTE
Não é possível adicionar <scheduleType>
a uma tabela que já tenha <existingScheduleType>
. Remova a agenda existente ou use ALTER TABLE
... ALTER <scheduleType>
para alterá-la.
PERÍODO_DE_AGENDAMENTO_INVÁLIDO
O período de agendamento para <timeUnit>
deve ser um valor inteiro entre 1 e <upperBound>
(inclusivo). Recebido: <actual>
.
ESQUEMA_JÁ_EXISTE
Não é possível criar o <schemaName>
esquema porque ele já existe.
Escolha um nome diferente, solte o esquema existente ou adicione a IF NOT EXISTS
cláusula para tolerar esquemas pré-existentes.
ESQUEMA_NÃO_VAZIO
Não é possível descartar um esquema <schemaName>
porque ele contém objetos.
Use DROP SCHEMA
... CASCADE
para remover o esquema e todos os seus objetos.
ESQUEMA_NÃO_ENCONTRADO
O esquema <schemaName>
não pode ser encontrado. Verifique a ortografia e a correção do esquema e do catálogo.
Se você não qualificou o nome com um catálogo, verifique a saída de current_schema() ou qualifique o nome com o catálogo correto.
Para tolerar o erro ao descartar uso, utilize DROP SCHEMA IF EXISTS
.
ERRO_DE_CONFIGURAÇÃO_DO_REGISTRO_DE_ESQUEMA
O esquema do registro de esquemas não pôde ser inicializado.
<reason>
.
SEGUNDO_ARGUMENTO_DA_FUNÇÃO_NÃO_INTEIRO
O segundo argumento da <functionName>
função precisa ser um inteiro.
FUNÇÃO_SECRETA_LOCAL_INVÁLIDO
Não é possível executar o comando <commandType>
com uma ou mais referências não criptografadas à função SECRET
; criptografe o resultado de cada chamada de função com AES_ENCRYPT
e tente o comando novamente.
EXPRESSÃO_DE_SEMENTE_NÃO_EXPANSÍVEL
A expressão <seedExpr>
de semente da expressão <exprWithSeed>
deve ser dobrável.
SERVIDOR_OCUPADO
O servidor está ocupado e não pôde lidar com a solicitação. Aguarde um momento e tente de novo.
SFTP_NÃO_CONSEGUIU_CONECTAR
Falha ao conectar ao servidor SFTP <host>
na porta <port>
com nome de usuário <user>
.
USUÁRIO_SFTP_NÃO_CORRESPONDE
O usuário recuperado da credencial <credentialUser>
não corresponde ao especificado no caminho SFTP <path>
.
MOSTRAR_COLUNAS_COM_NAMESPACE_DE_CONFLITO
SHOW COLUMNS
com namespaces conflitantes: <namespaceA>
!= <namespaceB>
.
ORDENAR_SEM_AGRUPAR_EM_CATEGORIAS
sortBy deve ser usado junto com bucketBy.
TRABALHO_SPARK_CANCELADO
Trabalho <jobId>
cancelado <reason>
ESPECIFICAR A DIVISÃO EM CATEGORIAS NÃO É PERMITIDO
Uma CREATE TABLE
sem lista de colunas explícita não pode especificar informações de bucketing.
Utilize o formulário com uma lista explícita de colunas e especifique informações de agrupamento.
Como alternativa, permita que as informações de segmentação sejam inferidas omitindo a cláusula.
ESPECIFICAR CLUSTER POR COM PARTICIONAMENTO NÃO É PERMITIDO
Não é possível especificar ambos CLUSTER BY
e CLUSTERED BY INTO BUCKETS
.
ESPECIFICAR_CLUSTER_POR_COM_PARTICIONADO_POR_NÃO_É_PERMITIDO
Não é possível especificar ambos CLUSTER BY
e PARTITIONED BY
.
ESPECIFICAR_PARTIÇÃO_NÃO_É_PERMITIDO
Uma lista de colunas sem explicitação não pode especificar CREATE TABLE
.
Use o formulário com lista de colunas explícita e especifique PARTITIONED BY
.
Como alternativa, permita que o particionamento seja inferido omitindo a PARTITION BY
cláusula.
FALHA_POR_FALTA_DE_MEMÓRIA
Erro ao chamar spill() em <consumerToSpill>
: <message>
SQL_CONF_NOT_FOUND
A configuração <sqlConf>
do SQL não pode ser encontrada. Verifique se a configuração existe.
SQL_SCRIPT_IN_EXECUTE_IMMEDIATE
Não são permitidos scripts SQL em comandos EXECUTE IMMEDIATE
. Verifique se a consulta SQL fornecida (<sqlString>
) não é um script de SQL. Verifique se o sql_string é uma instrução SQL bem formada e não contém BEGIN
e END.
NÚMERO_MÁXIMO_DE_CARACTERES_DO_SQL_SCRIPT_EXCEDIDO
O número máximo de caracteres em um script SQL (id: <scriptId>
) foi excedido. O número máximo de caracteres permitido é <maxChars>
, e o script tinha <chars>
caracteres.
O número máximo de linhas do script SQL foi excedido.
O número máximo de linhas em um script SQL (id: <scriptId>
) foi excedido. O número máximo de linhas permitidas é <maxLines>
e o script tinha <lines>
linhas.
O número máximo de declarações de variáveis locais no script SQL foi excedido.
O número máximo de declarações de variáveis locais em um script SQL (id: <scriptId>
) foi excedido. O número máximo de declarações permitidas é <maxDeclarations>
, e o script tinha <declarations>
.
Limite de chamadas aninhadas de procedimentos armazenados SQL excedido
O número máximo de chamadas de procedimento aninhado foi excedido com o procedimento (nome: <procedureName>
, callId: <procedureCallId>
). O número máximo permitido de chamadas de procedimento aninhado é <limit>
.
CAMINHO_DE_ENCENAÇÃO_ATUALMENTE_INACESSÍVEL
Erro transitório ao acessar o caminho de preparo de destino <path>
, por favor, tente novamente em alguns minutos.
STAR_GROUP_BY_POS
A estrela (*) não é permitida em uma lista de seleção quando GROUP BY
uma posição ordinal é usada.
PROCESSADOR_COM_ESTADO_NÃO_PODE_REALIZAR_OPERAÇÃO_COM_ESTADO_DE_HANDLE_INVÁLIDO
Falha ao executar uma operação de processador stateful=<operationType>
com estado de identificador inválido=<handleState>
.
PROCESSADOR_COM_ESTADO_NÃO_PODE_REALIZAR_OPERAÇÃO_COM_MODO_DE_TEMPO_INVÁLIDO
Falha ao executar a operação de processador com estado=<operationType>
com timeMode inválido=<timeMode>
PROCESSADOR_COM_ESTADO_VARIAVEL_DE_ESTADO_DUPLICADA_DEFINIDA
A variável de estado com nome <stateVarName>
já foi definida no StatefulProcessor.
PROCESSADOR_COM_ESTADO_MODO_DE_TEMPO_INCORRETO_PARA_ATRIBUIR_TTL
Não é possível usar TTL para state=<stateName>
em timeMode=<timeMode>
, use TimeMode.ProcessingTime() em vez disso.
DURAÇÃO_TTL_DO_PROCESSADOR_STATEFUL_DEVE_SER_POSITIVA
A duração da TTL deve ser maior que zero para a operação de armazenamento de estado=<operationType>
em state=<stateName>
.
Processador com Estado - Modo de Hora Desconhecido
Modo de tempo desconhecido <timeMode>
. Os modos timeMode aceitos são 'none', 'processingTime', 'eventTime'
ARMAZENAMENTO_ESTADO_NÃO_PODE_CRIAR_FAMÍLIA_DE_COLUNAS_COM_CARACTERES_RESERVADOS
Falha ao criar uma família de colunas com caractere inicial sem suporte e nome=<colFamilyName>
.
IMPOSSÍVEL UTILIZAR FAMÍLIA DE COLUNAS COM NOME INVÁLIDO NO ARMAZENAMENTO DE ESTADO
Falha ao executar a operação da coluna família=<operationName>
com nome=<colFamilyName>
inválido. O nome da família de colunas não pode estar vazio, incluir espaços antes/depois, ou usar a palavra-chave reservada 'default'.
ESQUEMA_INCOMPATÍVEL_DE_FAMÍLIA_DE_COLUNA_DO_ARMAZENAMENTO_ESTATAL
Transformação de esquema incompatível com column family=<colFamilyName>
, oldSchema=<oldSchema>
, newSchema=<newSchema>
.
A_LOJA_DE_ESTADO_NÃO_SUPORTA_ITERADOR_REUTILIZÁVEL
O StateStore <inputClass>
não dá suporte ao iterador reutilizável.
MANIPULADOR_DO_ARMAZENAMENTO_DE_ESTADO_NÃO_INICIALIZADO
A handle não foi inicializada para este StatefulProcessor.
Use apenas o StatefulProcessor dentro do operador transformWithState.
ARMAZENAMENTO_DE_ESTADO_NÚMERO_INCORRETO_DE_COLUNAS_DE_ORDENAÇÃO_PARA_EXAME_DE_INTERVALO
Número incorreto de ordinais de ordenação=<numOrderingCols>
para o codificador de varredura de intervalo. O número de ordinais de ordenação não pode ser zero ou maior que o número de colunas de esquema.
Número incorreto de colunas de prefixo para varredura de prefixo
Número incorreto de colunas de prefixo=<numPrefixCols>
para o codificador de escaneamento de prefixo. As colunas de prefixo não podem ser zero ou maiores ou iguais ao número de colunas de esquema.
LOJA_ESTADO_CONFIG_INVALIDA_APOS_REINICIO
Não é possível alterar <configName>
de <oldConfig>
para <newConfig>
entre reinicializações. Defina <configName>
como <oldConfig>
ou reinicie com um novo diretório de ponto de verificação.
PROVEDOR_INVÁLIDO_DE_ARMAZENAMENTO_DE_ESTADO
O provedor de armazenamento de estado <inputClass>
especificado não estende org.apache.spark.sql.execution.streaming.state.StateStoreProvider.
STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE [ALTERAÇÃO_INVÁLIDA_DO_TIPO_DE_VARIÁVEL_DO_ARMAZENAMENTO_DE_ESTADO]
Não é possível alterar de <stateVarName>
para <newType>
entre reinicializações de consulta. Defina <stateVarName>
como <oldType>
ou reinicie com um novo diretório de ponto de verificação.
TIMEOUT_DO_ARMAZENAMENTO_DE_ESTADO_NATIVO_ROCKSDB
Ao acessar o repositório de estado do RocksDB para a operação de streaming com estado, a chamada à função nativa <funcName>
do RocksDB atingiu o limite de tempo após esperar timeout=<timeoutMs>
ms. Tente novamente e reinicie o cluster se o erro persistir.
COLUNAS_COM_TIPO_NULO_ORDENANDO_NÃO_SUPORTADAS_NO_ESTADO_ARMAZENADO
Não há suporte para a coluna de ordenação de tipo nulo com name=<fieldName>
no index=<index>
para o codificador de escaneamento de intervalo.
PROVEDOR_DE_ARMAZENAMENTO_DE_ESTADO_NÃO_SUPORTA_RETRANSMISSÃO_DE_ESTADO_DE_GRANULARIDADE_FINA
O provedor <inputClass>
de repositório de estado determinado não estende org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay.
Portanto, ele não dá suporte à opção snapshotStartBatchId ou readChangeFeed na fonte de dados de estado.
LIMITE_DE_ARQUIVOS_DO_STATE_STORE_STATE_SCHEMA_EXCEDIDO
O número de arquivos <numStateSchemaFiles>
de esquema de estado excede o número máximo de arquivos de esquema de estado para esta consulta: <maxStateSchemaFiles>
.
Adicionado: <addedColumnFamilies>
, Removido: <removedColumnFamilies>
Defina 'spark.sql.streaming.stateStore.stateSchemaFilesThreshold' como um número maior ou reverta as modificações no esquema de estado
OPERAÇÃO NÃO SUPORTADA DA STATE_STORE NA FAMÍLIA DE COLUNAS AUSENTE
Operação de repositório de estado=<operationType>
não é suportada para a família de colunas ausente=<colFamilyName>
.
LIMITE_EXCEDIDO_EVOLUÇÃO_ESQUEMA_VALOR_STATE_STORE
O número de evoluções do esquema de estado <numSchemaEvolutions>
excede o número máximo de evoluções do esquema de estado, <maxSchemaEvolutions>
, permitido para esta família de colunas.
Família de colunas ofensiva: <colFamilyName>
Defina 'spark.sql.streaming.stateStore.valueStateSchemaEvolutionThreshold' como um número maior ou reverta as modificações de esquema de estado.
COLUNAS_DE_ORDENAÇÃO_DE_TAMANHO_VARIÁVEL_DE_ARMAZENAMENTO_DE_ESTADO_NÃO_SÃO_SUPORTADAS
Não há suporte para a coluna de ordenação de tamanho variável com nome=<fieldName>
no índice=<index>
para o codificador de varredura de intervalo.
COLUNA_DE_PARTIÇÃO_ESTÁTICA_NA_LISTA_DE_COLUNAS_DE_INSERÇÃO
A coluna <staticName>
de partição estática também é especificada na lista de colunas.
LOTE_COMMITIDO_STDS_INDISPONÍVEL
Nenhum lote confirmado encontrado, local do ponto de verificação: <checkpointLocation>
. Verifique se a consulta foi executada e se qualquer microbatch tenha sido confirmada antes de interromper.
OPÇÕES_DE_CONFLITO_STDS
As opções <options>
não podem ser especificadas em conjunto. Favor especificar qual.
STDS_FALHA_AO_LER_MATRIZ_DE_DADOS_DO_OPERADOR
Falha ao ler os metadados do operador para checkpointLocation=<checkpointLocation>
e batchId=<batchId>
.
O arquivo não existe ou o arquivo está corrompido.
Execute novamente a consulta de streaming para construir os metadados do operador e relate às comunidades ou fornecedores correspondentes se o erro persistir.
FALHA_AO_LER_ESQUEMA_DE_ESTADO
Falha ao ler o esquema de estado. O arquivo não existe ou o arquivo está corrompido. opções: <sourceOptions>
.
Execute novamente a consulta de streaming para construir o esquema de estado e relate às comunidades ou fornecedores correspondentes se o erro persistir.
STDS_VALOR_OPCAO_INVALIDO
Valor inválido para a opção de origem '<optionName>
':
Para obter mais detalhes , consulte STDS_INVALID_OPTION_VALUE
NENHUMA_PARTIÇÃO_DETECTADA_NO_ARMAZENAMENTO_DE_ESTADO
O estado não tem nenhuma partição. Verifique se a consulta aponta para o estado válido. Opções: <sourceOptions>
Registro de Offset de STDS Indisponível
O log de deslocamento para <batchId>
não existe, local do ponto de verificação: <checkpointLocation>
.
Especifique a ID do lote que está disponível para consulta. Você pode consultar as IDs do lote disponíveis usando a fonte de dados de metadados de estado.
STDS_DESLOCAMENTO_METADADOS_REGISTRO_INDISPONÍVEL
Os metadados não estão disponíveis para o log de deslocamento de <batchId>
, local do ponto de verificação: <checkpointLocation>
.
O ponto de verificação parece ser executado apenas com versões mais antigas do Spark. Execute a consulta de streaming com a versão recente do Spark, para que o Spark construa os metadados de estado.
OPÇÃO_REQUERIDA_STDS_NÃO_ESPECIFICADA
'<optionName>
' deve ser especificado.
TRANSMISSÃO_AQE_NÃO_SUPORTADO_PARA_OPERADORES_COM_ESTADO
A execução de consulta adaptável não é suportada para operadores com estado no Streaming Estruturado.
TRANSMISSÃO_DE_VISUALIZAÇÃO_MATERIALIZADA
Não é possível transmitir do modo de exibição <viewName>
materializado. Não há suporte para streaming de vistas materializadas.
MODO_DE_SAÍDA_DE_STREAMING
Modo de saída de transmissão inválido: <outputMode>
.
Para obter mais detalhes , consulte STREAMING_OUTPUT_MODE
MODO_DE_STREAMING_EM_TEMPO_REAL
O modo de streaming em tempo real tem a seguinte limitação:
Para obter mais detalhes , consulte STREAMING_REAL_TIME_MODE
OPERADOR_COM_ESTADO_DE_STREAMING_NÃO_CORRESPONDE_NO_METADADOS_DE_ESTADO
O nome do operador com estado de streaming não corresponde ao operador em metadados de estado. Isso provavelmente acontecerá quando o usuário adicionar/remover/alterar um operador stateful em uma consulta de streaming existente.
Operadores com estado nos metadados: [<OpsInMetadataSeq>
]; Operadores com estado no lote atual: [<OpsInCurBatchSeq>
].
TABELA_DE_TRANSMISSÃO_PRECISA_ATUALIZAÇÃO
a tabela <tableName>
de streaming precisa ser atualizada para realizar a execução <operation>
.
Se a tabela for criada a partir de DBSQL
, execute REFRESH STREAMING TABLE
.
Se a tabela foi criada pelo Lakeflow Declarative Pipelines, execute uma atualização do pipeline.
TABELA_DE_TRANSMISSÃO_NÃO_SUPORTADA
as tabelas de streaming só podem ser criadas e atualizadas no Lakeflow Declarative Pipelines e no Databricks SQL Warehouses.
OPERAÇÃO_EM_TABELA_STREAMING_NÃO_PERMITIDA
A operação <operation>
não é permitida:
Para obter mais detalhes , consulte STREAMING_TABLE_OPERATION_NOT_ALLOWED
CONSULTA_TABELA_STREAMING_INVÁLIDA
A tabela <tableName>
de streaming só pode ser criada a partir de uma consulta de streaming. Adicione a STREAM
palavra-chave à cláusula FROM
para transformar essa relação em uma consulta de streaming.
STREAM_NÃO_ENCONTRADA_PARA_FONTE_KINESIS
Fluxo Kinesis <streamName>
em <region>
não encontrado.
Inicie uma nova consulta apontando para o nome correto do fluxo.
INCONSISTÊNCIA_DE_COMPRIMENTO_DE_ARRAY_DE_ESTRUTURA
A linha de entrada não tem o número esperado de valores exigidos pelo esquema.
<expected>
os campos são obrigatórios quando <actual>
os valores são fornecidos.
SOMA_DO_LIMITE_E_DESLOCAMENTO_EXCEDE_INT_MÁX.
A soma das cláusulas LIMIT
e OFFSET
não deve ser maior que o valor inteiro máximo de 32 bits (2.147.483.647), mas foi encontrado limite = <limit>
, deslocamento = <offset>
.
SINCRONIZAR_APENAS_DELTA_DE_METADADOS
O comando reparar metadados de sincronização de tabela só tem suporte para a tabela delta.
SYNC_SRC_TARGET_TBL_NOT_SAME
O nome <srcTable>
da tabela de origem deve ser igual ao nome <destTable>
da tabela de destino.
SINTAXE_DESCONTINUADA
Suporte da cláusula ou palavra-chave: <clause>
foi descontinuado neste contexto.
Para obter mais detalhes , consulte SYNTAX_DISCONTINUED
TABELA_OU_VISUALIZAÇÃO_JÁ_EXISTE
Não é possível criar tabela ou exibição <relationName>
porque ela já existe.
Escolha um nome diferente, solte o objeto existente, adicione a IF NOT EXISTS
cláusula para tolerar objetos pré-existentes, adicione a cláusula OR REPLACE
para substituir a exibição materializada existente ou adicione a cláusula OR REFRESH
para atualizar a tabela de streaming existente.
TABELA_OU_VISTA_NÃO_ENCONTRADA
A tabela ou exibição <relationName>
não pode ser encontrada. Verifique a ortografia e a correção do esquema e do catálogo.
Se você não qualificou o nome com um esquema, verifique a saída current_schema() ou qualifique o nome com o esquema e o catálogo corretos.
Para tolerar o erro durante a operação de descarte, use DROP VIEW IF EXISTS
ou DROP TABLE IF EXISTS
.
Para obter mais detalhes, consulte TABLE_OR_VIEW_NOT_FOUND
ARGUMENTOS_COM_VALOR_DE_TABELA_AINDA_NÃO_IMPLEMENTADOS_PARA_FUNÇÕES_SQL
Não é possível <action>
usar a função <functionName>
definida pelo usuário do SQL com TABLE
argumentos porque essa funcionalidade ainda não foi implementada.
FALHA_NA_ANÁLISE_DA_FUNÇÃO_VALOR_TABELA_EM_PYTHON
Falha ao analisar a função de tabela definida pelo usuário do Python: <msg>
METADADOS_REQUERIDOS_DA_FUNÇÃO_COM_VALORES_TABULARES_INCOMPATÍVEIS_COM_CHAMADA
Falha ao avaliar a função de tabela <functionName>
porque seus metadados de tabela <requestedMetadata>
apresentam problemas, enquanto a chamada da função <invalidFunctionCallProperty>
.
FUNÇÃO_VALOR_TABELA_METADADOS_REQUERIDOS_INVÁLIDO
Falha ao avaliar a função <functionName>
de tabela porque os metadados da tabela eram inválidos; <reason>
.
FUNÇÃO_VALOR_TABELA_DEMORA_TABELA_ARGUMENTOS_DEMAIS
Há muitos argumentos de tabela para uma função que retorna um valor de tabela.
Ele permite um argumento de tabela, mas tem: <num>
.
Se você quiser permitir, defina "spark.sql.allowMultipleTableArguments.enabled" como "true"
TABELA_COM_ID_NÃO_ENCONTRADA
Tabela com ID <tableId>
não pode ser encontrada. Verifique a correção da UUID.
TAREFA_FALHA_AO_ESCREVER
Falha na tarefa ao gravar linhas em <path>
.
LOCALIZAÇÃO_TEMP_CHECKPOINT_NÃO_SUPORTADA
Não há suporte para locais implícitos de ponto de verificação temporário de streaming no espaço de trabalho atual, especifique um local de ponto de verificação explicitamente.
Para exibição(), defina o local do ponto de verificação usando:
display(df, checkpointLocation = "seu_caminho")
Para todas as outras consultas de streaming, use:
.option("checkpointLocation", "your_path").
CRIAÇÃO_TABELA_TEMPORÁRIA_LEGADO_COM_CONSULTA
CREATE TEMPORARY TABLE
... COMO... não há suporte aqui, use CREATE TEMPORARY VIEW
em vez disso
Especificações de criação de tabela temporária mutuamente exclusivas
CREATE TEMPORARY TABLE
não dá suporte à especificação <unsupportedSpec>
, crie uma tabela permanente em vez disso.
A CRIAÇÃO DE TABELA TEMPORÁRIA REQUER UM NOME ÚNICO
A criação de uma tabela temporária local de sessão requer um nome de tabela de parte única, mas tem <tableName>
. Atualize o comando para usar um nome de tabela de uma única parte e tente novamente.
ESPECIFICADORES_EXCLUSIVOS_MÚTUOS_PARA_EXCLUSÃO_DE_TABELA_TEMPORÁRIA
DROP TEMPORARY TABLE
não dá suporte à especificação <unsupportedSpec>
, remova essa especificação ou solte uma tabela permanente usando DROP TABLE
o comando.
A EXCLUSÃO_DE_TABELA_TEMP_REQUER_NOME_DE_PARTE_ÚNICA
Remover uma tabela temporária local de sessão requer um nome de tabela de parte única, mas tem <tableName>
. Atualize o comando DROP TEMPORARY TABLE
para usar um nome de tabela em uma única parte para remover uma tabela temporária, ou use o comando DROP TABLE
para remover uma tabela permanente.
A exclusão da tabela temporária requer o comando V2
DROP TEMPORARY TABLE
é necessário ativar os comandos V2. Defina a configuração "spark.sql.legacy.useV1Command" como false e tente novamente.
TABELA_TEMPORÁRIA_NÃO_ENCONTRADA
A tabela <tableName>
temporária não pode ser encontrada na sessão atual. Verifique a ortografia e a correção do nome da tabela e repita a consulta ou o comando novamente.
Para tolerar o erro ao soltar, use DROP
TEMP TABLE IF EXISTS
.
TABELA_TEMPORÁRIA_NÃO_SUPORTADA_COM_HMS
Não há suporte para a operação <operation>
de tabela temporária no Metastore do Hive.
OPERAÇÃO_COM_TABELA_TEMPORÁRIA_NÃO_SUPORTADA
Não há suporte para operações na tabela <tableName>
temporária local da sessão:
Para obter mais detalhes , consulte TEMP_TABLE_OPERATION_NOT_SUPPORTED
TEMP_TABLE_OR_VIEW_ALREADY_EXISTS (Tabela ou visão temporária já existe)
Não é possível criar a tabela ou exibição <relationName>
temporária porque ela já existe.
Escolha um nome diferente, solte o objeto existente ou adicione a IF NOT EXISTS
cláusula para tolerar objetos pré-existentes.
TABELA_TEMPORÁRIA_EXIGE_DELTA
As operações em tabelas temporárias locais de sessão exigem que o catálogo Delta seja habilitado. Ative o catálogo Delta e tente novamente.
TABELA_TEMPORÁRIA_EXIGE_UC
As operações em tabelas temporárias locais de sessão exigem o Catálogo do Unity. Habilite o Catálogo do Unity em seu ambiente em execução e tente novamente.
NOME_DA_VISTA_TEMPORÁRIA_MUITAS_PARTES_NOME
CREATE TEMPORARY VIEW
ou as APIs de conjunto de dados correspondentes aceitam apenas nomes de exibição de parte única, mas têm: <actualName>
.
Vírgula_Sobressalente_em_Select
Vírgula final detectada na cláusula SELECT
. Remova a vírgula à direita antes da FROM
cláusula.
TRANSAÇÃO_TIMESTAMP_MÁXIMO_DE_COMMIT_EXCEDIDO
A transação não pode ser confirmada porque o carimbo de data/hora máximo para confirmação foi ultrapassado. maxCommitTimestamp:<maxCommitTimestampMs>
commitTimestamp:<commitTimestampMs>
ERRO_TRANSFORMAR_COM_FUNÇÃO_DE_USUÁRIO_DE_ESTADO
Ocorreu um erro na função <function>
definida pelo usuário do StatefulProcessor. Motivo: <reason>
.
LIMITES DE LINHAS EXCEDIDOS NA TRANSPOSIÇÃO
O número de linhas excede o limite permitido para <maxValues>
TRANSPOSE
. Se isso for intencional, defina <config>
para pelo menos a contagem de linhas atual.
INDICE_COLUNA_INVALIDO_TRANSPOR
Coluna de índice inválida para TRANSPOSE
porque: <reason>
TRANSPOSE_NENHUM_TIPO_COMUM_MÍNIMO
O Transpose requer que as colunas que não sejam de índice compartilhem um menor tipo comum, mas <dt1>
e <dt2>
não compartilham.
INTERVALO_DE_GATILHO_INVÁLIDO
O intervalo de gatilho deve ser uma duração positiva que pode ser convertida em segundos inteiros. Recebido: <actual>
segundos.
TUPLA_ESTÁ_VAZIA
Devido ao suporte limitado de tupla do Scala, não há suporte para tupla vazia.
TAMANHO_DA_TUPLA_EXCEDE_LIMITE
Devido ao suporte limitado de tupla do Scala, não há suporte para tuplas com mais de 22 elementos.
UC_BUCKETED_TABLES
Tabelas compartimentadas não são suportadas no Catálogo Unity.
NOME_DO_CATÁLOGO_NÃO_FORNECIDO
Para o Catálogo do Unity, especifique o nome do catálogo explicitamente. Por exemplo SHOW GRANT your.address@email.com ON CATALOG
, principal.
COMANDO UC NÃO SUPORTADO
O(s) comando(s): <commandName>
não são suportados no Catálogo do Unity.
Para obter mais detalhes , consulte UC_COMMAND_NOT_SUPPORTED
UC_COMANDO_NÃO_SUPORTADO_NO_SERVERLESS
Os comandos: <commandName>
não têm suporte em clusters do Unity Catalog em ambientes sem servidor. Em vez disso, use um único usuário ou clusters compartilhados.
COMANDO_UC_NÃO_SUPORTADO_NO_MODO_DE_ACESSO_COMPARTILHADO
Os comandos <commandName>
não são compatíveis com clusters do Unity Catalog no modo de acesso compartilhado. Em vez disso, use o modo de acesso de usuário único.
Conexão não encontrada para acesso à fonte do sistema de arquivos
Não foi possível encontrar uma conexão UC válida para acessar <path>
após a avaliação <connectionNames>
.
Verifique se pelo menos uma conexão UC válida está disponível para acessar o caminho de destino.
Erros detalhados para as conexões avaliadas:
<connectionErrors>
PROPÓSITO DE CREDENCIAL UC NÃO SUPORTADO
Não há suporte para o tipo de credencial especificado.
FONTE_DE_DADOS_NÃO_SUPORTADA
Não há suporte para o formato <dataSourceFormatName>
de fonte de dados no Catálogo do Unity.
Opções de fonte de dados não suportadas
Não há suporte para opções de fonte de dados no Catálogo do Unity.
DEPENDÊNCIA_UC_NÃO_EXISTE
A dependência não existe no Catálogo do Unity:
<errorMessage>
UC_VOLUME_EXTERNO_LOCALIZAÇÃO_AUSENTE
LOCATION
a cláusula deve estar presente para o volume externo. Verifique a sintaxe 'CREATE EXTERNAL VOLUME
... LOCATION
...' para criar um volume externo.
UC_ESTADO_DE_PROVISIONAMENTO_FALHOU
A consulta falhou porque tentou fazer referência à tabela <tableName>
, mas não pôde fazer isso: <failureReason>
. Atualize a tabela <tableName>
para garantir que ela esteja em um estado de provisionamento ativo e tente novamente a consulta.
Esquema de arquivo UC para criação de tabela não é suportado.
Não há suporte para a criação de tabela no Catálogo do Unity com esquema <schemeName>
de arquivos.
Em vez disso, crie uma conexão de fonte de dados federada usando o CREATE CONNECTION
comando para o mesmo provedor de tabelas e crie um catálogo com base na conexão com um CREATE FOREIGN CATALOG
comando para fazer referência às tabelas nela.
UC_HIVE_METASTORE_FEDERATION_VISUALIZAÇÃO_ENTRE_CATÁLOGOS_NÃO_SUPORTADA
A visão de Federação do Metastore do Hive não dá suporte a dependências entre vários catálogos. A visualização <view>
no catálogo do Metastore Federation do Hive deve usar a dependência do catálogo hive_metastore ou do catálogo spark_catalog, mas sua dependência <dependency>
está em outro catálogo <referencedCatalog>
. Atualize as dependências para atender a essa restrição e tente novamente sua consulta ou comando novamente.
UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED (Federation do Metastore do Hive não está ativada)
A federação do Metastore do Hive não está habilitada neste cluster.
Não há suporte para acessar o catálogo <catalogName>
neste cluster
UC_DEPENDÊNCIAS_INVÁLIDAS
As dependências de <viewName>
são registradas como <storedDeps>
sendo analisadas como <parsedDeps>
. Isso provavelmente ocorreu por meio do uso inadequado de uma API não SQL. Você pode reparar dependências no Databricks Runtime executando ALTER VIEW <viewName>
AS <viewText>
.
UC_NOME_DE_ESPAÇO_INVÁLIDO
Namespaces aninhados ou vazios não têm suporte no Catálogo do Unity.
REFERÊNCIA_INVÁLIDA_UC
Objetos que não são do tipoUnity-Catalog não podem ser referenciados em objetos do Unity Catalog.
Escritas na federação UC_LAKEHOUSE não são permitidas
O suporte de gravação do Unity Catalog Lakehouse Federation não está habilitado para provedor <provider>
neste cluster.
LOCAL_UC_PARA_VOLUME_GERENCIADO_NÃO_SUPORTADO
O volume gerenciado não aceita a cláusula LOCATION
. Verifique a sintaxe 'CREATE VOLUME
...' para criar um volume gerenciado.
UC_NOT_ENABLED
O Catálogo do Unity não está habilitado neste cluster.
CONSULTA_UC_FEDERAÇÃO_NÃO_HABILITADA
A Federação de Consultas do Catálogo do Unity não está habilitada neste cluster.
UC_RESOLVED_DBFS_PATH_MISMATCH
A consulta falhou porque tentou fazer referência a <objectType> <name>
, mas não pôde fazer isso: o caminho do DBFS resolvido <resolvedHmsPath>
não corresponde ao local de armazenamento do Unity Catalog <ucStorageLocation>
.
UC_CREDENCIAIS_DE_SERVIÇO_NÃO_HABILITADAS
As credenciais de serviço não estão habilitadas neste cluster.
VOLUMES_NÃO_ATIVADOS
O suporte para Volumes de Catálogo do Unity não está habilitado nesta instância.
UC_COMPARTILHAMENTO_DE_VOLUMES_NÃO_ATIVADO
O suporte para compartilhamento de volume não está habilitado nesta instância.
UC_VOLUME_NOT_FOUND (Volume não encontrado)
O volume <name>
não existe. Use 'SHOW VOLUMES
' para listar volumes disponíveis.
UDF_ENVIRONMENT_ERROR
Falha ao instalar as dependências do UDF para <udfName>
devido a um erro de sistema.
Para obter mais detalhes , consulte UDF_ENVIRONMENT_ERROR
UDF_ENVIRONMENT_USER_ERROR
Falha ao instalar dependências de UDF para <udfName>
.
Para obter mais detalhes , consulte UDF_ENVIRONMENT_USER_ERROR
UDF_ERROR
SQLSTATE: nenhum estado atribuído
Falha na execução da função <fn>
Para obter mais detalhes , consulte UDF_ERROR
UDF_LIMITS
Um ou mais limites de UDF foram violados.
Para obter mais detalhes , consulte UDF_LIMITS
UDF_LIMITE_MÁXIMO_EXCEDIDO
Limite de UDF em toda a consulta excedido de <maxNumUdfs>
UDFs (limitado durante a visualização pública). Encontrado <numUdfs>
. As UDFs foram: <udfNames>
.
UDF_PYSPARK_ERROR
O trabalho do Python foi encerrado inesperadamente
Para obter mais detalhes , consulte UDF_PYSPARK_ERROR
UDF_PYSPARK_UNSUPPORTED_TYPE (TIPO_NÃO_SUPORTADO_PELO_PYSPARK)
O PySpark UDF <udf> (<eval-type>
) não tem suporte em clusters no modo de acesso compartilhado.
Erro de código do usuário UDF_PYSPARK
Falha na execução.
Para obter mais detalhes , consulte UDF_PYSPARK_USER_CODE_ERROR
UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE - Valor padrão do parâmetro sem suporte na UDF (Função Definida pelo Usuário).
Não há suporte para o valor padrão do parâmetro em uma função definida pelo <functionType>
usuário.
UDF_USER_CODE_ERROR
Falha na execução da função <fn>
.
Para obter mais detalhes , consulte UDF_USER_CODE_ERROR
UDTF_ALIAS_NUMBER_MISMATCH
O número de aliases fornecidos na cláusula AS não corresponde ao número de colunas produzidas pelo UDTF.
Esperava-se <aliasesSize>
aliases, mas obteve-se <aliasesNames>
.
Verifique se o número de aliases fornecidos corresponde ao número de colunas geradas pelo UDTF.
ALIAS_INVÁLIDO_DE_UTDF_NA_CADEIA_DE_ORDENAÇÃO_SOLICITADA_DO_MÉTODO_ANALISAR
Falha ao avaliar a função de tabela definida pelo usuário porque seu método 'analyze' retornou um OrderingColumn solicitado cuja expressão de nome de coluna incluía um alias <aliasName>
desnecessário; remova esse alias e tente a consulta novamente.
UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_DA_METODO_ANALYZE_REQUER_ALIAS
Falha ao avaliar a função de tabela definida pelo usuário porque seu método 'analyze' retornou uma expressão 'select' solicitada (<expression>
) que não inclui um alias correspondente; atualize o UDTF para especificar um alias lá e tente a consulta novamente.
NÃO_FOI_POSSÍVEL_ADQUIRIR_MEMÓRIA
Não é possível adquirir <requestedBytes>
bytes de memória, obtém <receivedBytes>
.
NÃO_FOI_POSSÍVEL_CONVERTER_PARA_TIPO_DE_MENSAGEM_PROTOBUF
Não é possível converter o tipo <toType>
SQL no tipo <protobufType>
Protobuf.
IMPOSSÍVEL_BUSCAR_TABELAS_DO_HIVE
Não é possível buscar tabelas do banco de dados hive: <dbName>
. Nome da classe de erro: <className>
.
INCAPAZ_DE_INFERIR_ESQUEMA
Não é possível inferir o esquema para <format>
. Ele deve ser especificado manualmente.
ACESSO_NÃO_AUTORIZADO
Acesso não autorizado:
<report>
Parâmetro_SQL_Desvinculado (UNBOUND_SQL_PARAMETER)
Foi encontrado o parâmetro desvinculado: <name>
. Corrija args
e forneça um mapeamento do parâmetro para um literal SQL ou funções construtoras de coleção, como map()
, array()
, struct()
.
COMENTÁRIO_ENTRE_PARÊNTESES_NÃO_FECHADO
Encontrei um comentário com colchetes não fechado. Acrescente */ ao final do comentário.
TIPO_DE_ENTRADA_INESPERADO
O parâmetro <paramIndex>
da função <functionName>
requer o <requiredType>
tipo, no entanto <inputSql>
, tem o tipo <inputType>
.
TIPO_DE_ENTRADA_INESPERADO_DE_PARÂMETRO_NOMEADO
O <namedParamKey>
parâmetro da função <functionName>
requer o <requiredType>
tipo, no entanto <inputSql>
, tem o tipo <inputType>
.<hint>
OPERADOR_INESPERADO_NA_VISUALIZAÇÃO_DE_STREAMING
Operador inesperado <op>
na instrução CREATE VIEW
como fonte de streaming.
Uma consulta de exibição de streaming deve consistir apenas em operações SELECT
, WHERE
e UNION ALL
.
ARGUMENTO_POSICIONAL_INESPERADO
Não é possível invocar a rotina <routineName>
porque ela contém argumentos posicionais após o argumento nomeado atribuído a <parameterName>
; por favor, reorganize-os para que os argumentos posicionais venham primeiro e tente a consulta novamente.
SERIALIZADOR_INESPERADO_PARA_CLASSE
A classe <className>
tem um serializador de expressão inesperado. Espera "STRUCT
" ou "IF
" que retorna "STRUCT
" mas encontrado <expr>
.
UNIÃO NÃO SUPORTADA EM CTE RECURSIVO
O UNION
operador ainda não tem suporte em expressões de tabela comuns recursivas (WITH
cláusulas que se referem a si mesmas, direta ou indiretamente). Use UNION ALL
em seu lugar.
EXCEÇÃO_CAMPO_DESCONHECIDO
Encontrado <changeType>
durante o processamento: <unknownFieldBlob>
, que pode ser corrigido por uma nova tentativa automática: <isRetryable>
Para obter mais detalhes , consulte UNKNOWN_FIELD_EXCEPTION
ARGUMENTO_POSICIONAL_DESCONHECIDO
A invocação da rotina <routineName>
contém um argumento <sqlExpr>
posicional desconhecido na posição <pos>
. Isso é inválido.
TIPO_PRIMITIVO_DESCONHECIDO_EM_VARIANTE
O tipo primitivo desconhecido com id <id>
foi encontrado em um valor variante.
TIPO_DESCONHECIDO_DE_MENSAGEM_PROTOBUF
Tentando tratar <descriptorName>
como uma mensagem, mas era <containingType>
.
UNPIVOT_REQUIRES_ATTRIBUTES (atributos necessários para UNPIVOT)
UNPIVOT
exige que todas as expressões fornecidas <given>
sejam colunas quando nenhuma <empty>
expressão é fornecida. Não são colunas: [<expressions>
].
UNPIVOT_EXIGE_COLUNAS_DE_VALORES
Pelo menos uma coluna de valor precisa ser especificada para UNPIVOT
, além de todas as colunas especificadas como IDs.
UNPIVOT_TIPO_DADO_INCOMPATÍVEL
As colunas de valor no unpivot devem compartilhar um menor tipo comum, alguns tipos não: [<types>
].
Erro_Tamanho_Desencontro_Valor_Unpivot
Todas as colunas de valor não dinâmicas devem ter o mesmo tamanho que os nomes das colunas de valor (<names>
).
NOME_DO_PARÂMETRO_NÃO_RECONHECIDO
Não é possível invocar a rotina <routineName>
porque a chamada de rotina incluiu uma referência de argumento nomeado para o argumento nomeado <argumentName>
, mas essa rotina não inclui nenhuma assinatura que contenha um argumento com esse nome. Você quis dizer um dos seguintes? [<proposal>
].
TIPO_SQL_NÃO_RECONHECIDO
Tipo SQL não reconhecido – nome: <typeName>
, id: <jdbcType>
.
ESTATÍSTICA_NÃO_RECONHECIDA
A estatística <stats>
não é reconhecida. As estatísticas válidas incluem count
, count_distinct
, approx_count_distinct
, mean
, stddev
, min
, max
e valores percentil. Percentil deve ser um valor numérico seguido por '%', dentro do intervalo de 0% a 100%.
Função de Valor de Tabela Não Resolúvel
Não foi possível resolver <name>
para uma função com valor de tabela.
Verifique se isso <name>
é definido como uma função com valor de tabela e se todos os parâmetros necessários são fornecidos corretamente.
Se <name>
não estiver definido, crie a função com valor de tabela antes de usá-la.
Para obter mais informações sobre como definir funções com valor de tabela, consulte a documentação do Apache Spark.
NÃO_SUBSTITUÍDO_TODOS_EM_AGRUPAMENTO_POR
Não é possível inferir colunas de agrupamento para GROUP BY ALL
com base na cláusula de seleção. Especifique explicitamente as colunas de agrupamento.
COLUNA_NÃO_RESOLVIDA
Não é possível resolver um parâmetro de coluna, variável ou função com nome <objectName>
.
Para obter mais detalhes , consulte UNRESOLVED_COLUMN
CAMPO_NÃO_RESOLVIDO
Um campo com nome <fieldName>
não pode ser resolvido com a coluna <columnPath>
do tipo struct.
Para obter mais detalhes , consulte UNRESOLVED_FIELD
INSERÇÃO_SUBSTITUIR_COM_USO_DE_COLUNA_NAO_RESOLVIDA
REPLACE USING
A coluna <colName>
não pode ser resolvida no <relationType>
.
Você quis dizer uma das colunas a seguir? [<suggestion>
].
CHAVE_DO_MAPA_NÃO_RESOLVIDA
Não é possível resolver a coluna <objectName>
como uma chave de mapa. Se a chave for um literal de cadeia de caracteres, adicione aspas simples '' em volta dela.
Para obter mais detalhes , consulte UNRESOLVED_MAP_KEY
ROTINA_NÃO_RESOLVIDA
Não é possível resolver a rotina <routineName>
no caminho <searchPath>
da pesquisa.
Verifique a ortografia de <routineName>
, verifique se a rotina existe e confirme se você tem USE
privilégio no catálogo e no esquema e EXECUTE
na rotina.
Para obter mais detalhes , consulte UNRESOLVED_ROUTINE
COLUNA_USO_NÃO_RESOLVIDA_PARA_JUNÇÃO
USING
não é possível resolver a coluna <colName>
no <side>
lado da junção. Colunas do lado <side>
: [<suggestion>
].
VARIÁVEL_INDEFINIDA
Não é possível resolver a variável <variableName>
no caminho <searchPath>
da pesquisa.
PROCESSAMENTO_DE_DADOS_NÃO_ESTRUTURADOS_FORMATO_DE_ARQUIVO_NÃO_SUPORTADO
Não há suporte para o formato <format>
de arquivo não estruturado. Os formatos de arquivo com suporte são <supportedFormats>
.
Atualize o format
na expressão <expr>
para um formato suportado e tente a consulta novamente.
PROCESSAMENTO_DE_DADOS_NÃO_ESTRUTURADOS_OPÇÃO_DE_MODELO_NÃO_SUPORTADA
Não há suporte para a opção de modelo não estruturado ('<option>
' ->
'<value>
'). Os valores suportados são: <supportedValues>
.
Alterne para um dos valores com suporte e tente novamente a consulta novamente.
COLUNA_OCR_NÃO_ESTRUTURADA_NÃO_PERMITIDA_COM_OPÇÃO_MODELO_DE_METADADOS
O parâmetro de função 'ocrText' deve ser NULL
ou omitido quando a opção 'metadataModel' é especificada. Uma opção "metadataModel" especificada dispara a extração de metadados, em que um 'ocrText' fornecido é proibido.
ARQUIVO_ADICIONAR_NÃO_SUPORTADO
Não dê suporte à adição de arquivo.
Para obter mais detalhes, consulte UNSUPPORTED_ADD_FILE
PARÂMETRO_ALTERAÇÃO_COLUNA_NÃO_SUPORTADO
Não há suporte para especificação <parameter>
com ALTER <commandTableType>
.
TIPO_DE_SETA_NÃO_SUPORTADO
Tipo de seta <typeName>
sem suporte.
FUNÇÃO_DE_VALORES_DE_TABELA_EM_LOTE_NÃO_SUPORTADA
A função <funcName>
não dá suporte a consultas em lote.
CHAMADA_NÃO_SUPORTADA
Não é possível chamar o método de "<methodName>
" da classe "<className>
".
Para obter mais detalhes , consulte UNSUPPORTED_CALL
CARACTER OU VARCHAR NÃO SUPORTADO COMO STRING
O tipo char/varchar não pode ser usado no esquema de tabela.
Se você quiser que o Spark os trate como tipo de cadeia de caracteres igual ao Spark 3.0 e anterior, defina "spark.sql.legacy.charVarcharAsString" como "true".
CLÁUSULA_NÃO_SUPORTADA_PARA_OPERAÇÃO
Não há suporte para <clause>
em <operation>
.
Colação Não Suportada
Não há suporte para ordenação <collationName>
para:
Para obter mais detalhes , consulte UNSUPPORTED_COLLATION
LOCALIZAÇÃO DE ANCESTRAL COMUM NÃO SUPORTADA PARA FONTE DE FLUXO DE ARQUIVO
O ancestral comum de source path e sourceArchiveDir deve ser registrado na UC.
Se você vir essa mensagem de erro, é provável que você registre o caminho de origem e o sourceArchiveDir em diferentes locais externos.
Coloque-os em um único local externo.
CARACTERÍSTICA_DE_CONEXÃO_NÃO_SUPORTADA
Não há suporte para o recurso no Spark Connect:
Para obter mais detalhes, consulte UNSUPPORTED_CONNECT_FEATURE
CLÁUSULAS DE RESTRIÇÃO NÃO SUPORTADAS
As cláusulas <clauses>
de restrição não têm suporte.
TIPO_DE_RESTRIÇÃO_NÃO_SUPORTADA
Tipo de restrição sem suporte. Apenas <supportedConstraintTypes>
são suportados
FONTE_DE_DADOS_NÃO_SUPORTADA_PARA_CONSULTA_DIRETA
Tipo de fonte de dados sem suporte para consulta direta em arquivos: <dataSourceType>
TIPO_DE_DADO_NÃO_SUPORTADO
Tipo de dados <typeName>
sem suporte.
MODO_DE_SALVAMENTO_DE_FONTE_DE_DADOS_NÃO_SUPORTADO
A fonte de dados "<source>
" não pode ser gravada no <createMode>
modo. Por favor, use o modo "Acrescentar" ou "Substituir" em vez disso.
TIPO_DE_DADO_NÃO_SUPORTADO_PARA_FONTE_DE_DADOS
A <format>
fonte de dados não dá suporte à coluna <columnName>
do tipo <columnType>
.
TIPO_DE_DADO_NÃO_SUPORTADO_PARA_ENCODER
Não é possível criar o codificador para <dataType>
. Use um tipo de dados de saída diferente para seu UDF ou DataFrame.
VALOR_PADRÃO_NÃO_SUPORTADO
Valores de coluna DEFAULT
não têm suporte.
Para obter mais detalhes, consulte UNSUPPORTED_DEFAULT_VALUE
DESSERIALIZADOR_NÃO_SUPORTADO
Não há suporte para o desserializador:
Para obter mais detalhes, consulte UNSUPPORTED_DESERIALIZER
EXPRESSÃO_NÃO_SUPORTADA_COLUNA_GERADA
Não é possível criar uma coluna gerada <fieldName>
com a expressão <expressionStr>
porque <reason>
.
EXPR_NÃO_SUPORTADA_PARA_OPERADOR
Um operador de consulta contém uma ou mais expressões sem suporte.
Considere reescrevê-lo para evitar funções de janela, funções de agregação e funções geradoras na cláusula WHERE
.
Expressões inválidas: [<invalidExprSqls>
]
EXPRESSÃO_NÃO_SUPORTADA_PARA_PARÂMETRO
Um parâmetro de consulta contém uma expressão sem suporte.
Os parâmetros podem ser variáveis ou literais.
Expressão inválida: [<invalidExprSql>
]
EXPRESSÃO_NÃO_SUPORTADA_PARA_JANELA
A expressão <sqlExpr>
não é suportada dentro de uma função de janela.
RECURSO_NÃO_SUPORTADO
Não há suporte para este recurso:
Para obter mais detalhes , consulte UNSUPPORTED_FEATURE
Tipo de função não suportado (UNSUPPORTED_FN_TYPE)
Tipo de função definida pelo usuário sem suporte: <language>
GERADOR_NÃO_SUPORTADO
Não há suporte para o gerador:
Para obter mais detalhes , consulte UNSUPPORTED_GENERATOR
EXPRESSÃO_DE_AGRUPAMENTO_NÃO_SUPORTADA
grouping()/grouping_id() só pode ser usado com GroupingSets/Cube/Rollup.
Posição inicial e par de gatilho não suportados para fonte Kinesis
<trigger>
com posição inicial <initialPosition>
não é suportado com a origem Kinesis
INSERÇÃO_NÃO_SUPORTADA
Não é possível inserir no destino.
Para obter mais detalhes, consulte UNSUPPORTED_INSERT
Tipo de junção não suportado
Tipo de junção sem suporte '<typ>
'. Os tipos de junção com suporte incluem: <supported>
.
CRIAÇÃO_DE_TABELA_GERENCIADA_NÃO_SUPORTADA
Não há suporte para a criação de uma tabela <tableName>
gerenciada usando a fonte <dataSource>
de dados. Você precisa usar a fonte de DELTA
dados ou criar uma tabela externa usando CREATE EXTERNAL TABLE <tableName>
... USING <dataSource>
...
CONDIÇÃO_DE_MISTURA_NÃO_SUPORTADA
MERGE
a operação contém uma condição sem suporte <condName>
.
Para obter mais detalhes , consulte UNSUPPORTED_MERGE_CONDITION
POLÍTICA_DE_ACESSO_A_LINHAS_OU_COLUNAS_ANINHADAS_NÃO_SUPORTADA
A tabela <tableName>
tem uma política de segurança em nível de linha ou uma máscara de coluna que indiretamente se refere a outra tabela com uma política de segurança em nível de linha ou máscara de coluna; isso não tem suporte. Sequência de chamadas: <callSequence>
SOBRESCRIÇÃO_NÃO_SUPORTADA
Não é possível sobrescrever o destino que também está sendo lido.
Para obter mais detalhes, consulte UNSUPPORTED_OVERWRITE
TRANSFORMAÇÃO_DE_PARTIÇÃO_NÃO_SUPORTADA
Transformação de partição sem suporte: <transform>
. As transformações com suporte são identity
, bucket
e clusterBy
. Verifique se sua expressão de transformação usa uma destas.
MODO_DE_SALVAMENTO_NÃO_SUPORTADO
Não há suporte para o modo <saveMode>
de salvamento para:
Para obter mais detalhes , consulte UNSUPPORTED_SAVE_MODE
MOSTRAR_CRIAÇÃO_DE_TABELA_NÃO_SUPORTADA
Sem suporte para um SHOW CREATE TABLE
comando.
Para obter mais detalhes , consulte UNSUPPORTED_SHOW_CREATE_TABLE
RECURSO_DO_ANALISADOR_DE_PASSAGEM_ÚNICA_NÃO_SUPORTADO
O analisador de passagem única não pode processar essa consulta ou comando porque ele ainda não dá suporte <feature>
.
USO_DE_UDF_SQL_NÃO_SUPORTADO
O uso da função SQL <functionName>
no <nodeName>
não é suportado.
OPERADOR_DE_STREAMING_NÃO_SUPORTADO_SEM_MARCA_D'ÁGUA
Modo de saída <outputMode>
não tem suporte para <statefulOperator>
em DataFrames/DataSets de streaming sem marca-d'água.
OPÇÕES_DE_STREAMING_NÃO_SUPORTADAS_PARA_VISUALIZAÇÃO
Sem suporte para transmitir uma exibição. Razão:
Para obter mais detalhes , consulte UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
OPÇÕES_DE_TRANSMISSÃO_NÃO_SUPORTADAS_PERMISSÃO_APLICADA
Não há suporte para opções <options>
de streaming para a fonte <source>
de dados em um cluster compartilhado. Confirme se as opções foram especificadas e escritas corretamente e verifique se https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode há limitações.
Permissão de Saída de Streaming Não Suportada Aplicada
A fonte de dados <sink>
não é suportada como um destino de streaming em um cluster compartilhado.
PERMISSÃO ENFORÇADA PARA FONTE DE STREAMING NÃO SUPORTADA
Não há suporte para a fonte <source>
de dados como uma fonte de streaming em um cluster compartilhado.
FUNÇÃO_BASEADA_EM_TABELA_STREAMING_NÃO_SUPORTADA
A função <funcName>
não dá suporte ao streaming. Remova a STREAM
palavra-chave
LIMITE_DE_LEITURA_DE_STREAM_NÃO_SUPORTADO_PARA_FONTE_KINESIS
<streamReadLimit>
não é suportado pela origem Kinesis
CATEGORIA_DE_EXCEÇÃO_DE_SUBCONSULTA_NÃO_SUPORTADA
Expressão de subconsulta sem suporte:
Para obter mais detalhes , consulte UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
UNSUPPORTED_TABLE_CHANGE_IN_JDBC_CATALOG (Mudança de tabela não suportada no catálogo JDBC)
A alteração de tabela <change>
não é suportada para o catálogo JDBC na tabela <tableName>
. As alterações com suporte incluem: AddColumn, RenameColumn, DeleteColumn, UpdateColumnType, UpdateColumnNullability.
COLUNAS_DE_SÉRIE_TEMPORAL_NÃO_SUPORTADAS
Não há suporte para a criação de chave primária com colunas de séries temporais
SÉRIE_TEMPORAL_NÃO_SUPORTADA_COM_MAIS_DE_UMA_COLUNA
Não há suporte para a criação de chave primária com mais de uma coluna <colSeq>
de série temporal.
Precisão de tempo não suportada
<precision>
A precisão em segundos do tipo de dados TIME está fora do intervalo suportado [0, 6].
TIPO_DE_TEMPO_NÃO_SUPORTADO
Não há suporte para o tipo de dados TIME.
GATILHO_NÃO_SUPORTADO_PARA_FONTE_KINESIS
<trigger>
não é suportado pela origem Kinesis
LITERAL_TIPADO_NÃO_SUPORTADO
Não há suporte para literais do tipo <unsupportedType>
. Os tipos compatíveis são <supportedTypes>
.
RECURSO_UDF_NÃO_SUPORTADO
A função <function>
usa os seguintes recursos que exigem uma versão mais recente do runtime do Databricks: <features>
. Consulte <docLink>
para obter detalhes.
TIPOS_DE_UDF_NÃO_SUPORTADOS_NO_MESMO_LOCAL
Os tipos de UDF não podem ser usados juntos: <types>
UNTYPED_SCALA_UDF
Você está usando uma UDF do Scala não tipada, que não tem informações sobre o tipo de entrada.
O Spark pode passar nulo cegamente para o fechamento scala com argumento de tipo primitivo e o fechamento verá o valor padrão do tipo Java para o argumento nulo, por exemplo udf((x: Int) => x, IntegerType)
, o resultado é 0 para entrada nula. Para se livrar desse erro, você pode:
use APIs de UDF Scala tipada (sem parâmetro de tipo de retorno), por exemplo,
udf((x: Int) => x)
.use APIs UDF do Java, por exemplo
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)
, se os tipos de entrada não forem primitivos.defina "spark.sql.legacy.allowUntypedScalaUDF" como "true" e use essa API com cuidado.
ATUALIZAÇÃO_NÃO_SUPORTADA
A tabela não está elegível para atualização do Hive Metastore para o Unity Catalog. Razão:
Para obter mais detalhes , consulte UPGRADE_NOT_SUPPORTED
FUNÇÕES_DEFINIDAS_PELO_USUÁRIO
A função definida pelo usuário é inválida:
Para obter mais detalhes , consulte USER_DEFINED_FUNCTIONS
EXCEÇÃO_INVOCADA_PELO_USUÁRIO
<errorMessage>
EXCEÇÃO_DE_USUÁRIO_LEVANTADA_INCOMPATIBILIDADE_DE_PARÂMETRO
A raise_error()
função foi usada para gerar a classe de erro: <errorClass>
que espera parâmetros: <expectedParms>
.
Os parâmetros fornecidos <providedParms>
não correspondem aos parâmetros esperados.
Forneça todos os parâmetros esperados.
EXCEÇÃO_LEVANTADA_PELO_USUÁRIO_CLASSE_DE_ERRO_DESCONHECIDA
A raise_error()
função foi usada para gerar uma classe de erro desconhecida: <errorClass>
A variável já existe
Não é possível criar a variável <variableName>
porque ela já existe.
Escolha um nome diferente ou solte ou substitua a variável existente.
VARIÁVEL_NÃO_ENCONTRADA
A variável <variableName>
não pode ser encontrada. Verifique a ortografia e a correção do esquema e do catálogo.
Se você não qualificou o nome com um esquema e um catálogo, verifique a saída de current_schema() ou qualifique o nome com o esquema e o catálogo corretos.
Para tolerar o erro ao descartar uso, utilize DROP VARIABLE IF EXISTS
.
LIMITE_DE_TAMANHO_DO_CONSTRUTOR_VARIANTE
Não é possível construir uma Variant maior que 16 MiB. O tamanho máximo permitido de um valor Variant é de 16 MiB.
VARIANTE_CHAVE_DUPLICADA
Falha ao criar variante devido a uma chave <key>
de objeto duplicada.
LIMITE_DE_TAMANHO_VARIANTE
Não é possível criar variante maior do que <sizeLimit>
em <functionName>
.
Evite cadeias de caracteres de entrada grandes para essa expressão (por exemplo, adicione chamadas de função para verificar o tamanho da expressão e convertê-la primeiro NULL
se ela for muito grande).
RECURSO_DE_TABELA_NÃO_SUPORTADO_POR_CLONE_VERSIONADO
O histórico da tabela de origem contém recurso(s) de tabela que não são suportados por clones versionados nesta versão do DBR: <unsupportedFeatureNames>
.
Atualize para uma versão mais recente do DBR.
VISÃO_JÁ_EXISTE
Não é possível criar o modo de exibição <relationName>
porque ele já existe.
Escolha um nome diferente, solte ou substitua o objeto existente ou adicione a IF NOT EXISTS
cláusula para tolerar objetos pré-existentes.
VISUALIZAÇÃO_EXCEDE_PROFUNDIDADE_MÁXIMA_ANINHADA
A profundidade da exibição <viewName>
excede a profundidade máxima de resolução da exibição (<maxNestedDepth>
).
A análise é abortada para evitar erros. Se você quiser contornar isso, tente aumentar o valor de "spark.sql.view.maxNestedViewDepth".
VISUALIZAÇÃO_NÃO_ENCONTRADA
A exibição <relationName>
não pode ser encontrada. Verifique a ortografia e a correção do esquema e do catálogo.
Se você não qualificou o nome com um esquema, verifique a saída current_schema() ou qualifique o nome com o esquema e o catálogo corretos.
Para tolerar o erro ao descartar uso, utilize DROP VIEW IF EXISTS
.
VOLUME_JÁ_EXISTE
Não é possível criar volume <relationName>
porque ele já existe.
Escolha um nome diferente, solte ou substitua o objeto existente ou adicione a IF NOT EXISTS
cláusula para tolerar objetos pré-existentes.
INCOMPATIBILIDADE_ENTRE_FUNCÃO_DE_JANELA_E_QUADRO
<funcName>
A função só pode ser avaliada em uma moldura de janela baseada em linha ordenada com um único offset: <windowExpr>
.
FUNÇÃO_JANELA_SEM_CLÁUSULA_OVER
A função janela <funcName>
requer uma cláusula OVER.
WITH_CREDENTIAL
A sintaxe WITH CREDENTIAL
não é suportada para <type>
.
Gravação de fluxo não permitida
writeStream
pode ser chamado apenas em Dataset/DataFrame em modo streaming.
CONFIGURAÇÕES_PADRÃO_DE_COLUNA_INCORRETAS_PARA_DELTA_ALTERAR_TABELA_ADICIONAR_COLUNA_NÃO_SUPORTADO
Falha ao executar o comando porque DEFAULT
não há suporte para valores ao adicionar novos
colunas para tabelas Delta existentes anteriormente; adicione a coluna sem valor padrão
Primeiro, defina o valor e, em seguida, execute um segundo comando ALTER TABLE ALTER COLUMN SET DEFAULT
para aplicar
para linhas inseridas futuras.
PADRÕES_DE_COLUNA_ERRADOS_PARA_RECURSO_DELTA_NÃO_HABILITADO
Falha ao executar o comando <commandType>
porque foi atribuído incorretamente um valor à coluna DEFAULT
.
mas o recurso de tabela correspondente não estava habilitado. Tente o comando novamente
depois de executar ALTER TABLE
tableName SET
TBLPROPERTIES
('delta.feature.allowColumnDefaults' = 'supported').
COMANDO_ERRADO_PARA_TIPO_DE_OBJETO
A operação <operation>
requer um <requiredType>
. Mas <objectName>
é um <foundType>
. Use <alternative>
em seu lugar.
NÚMERO_ERRADO_DE_ARGUMENTOS
O <functionName>
requer parâmetros <expectedNum>
, mas o número real é <actualNum>
.
Para obter mais detalhes , consulte WRONG_NUM_ARGS
Ausência da tag XML_ROW_TAG_MISSING
<rowTag>
a opção é necessária para ler/gravar arquivos no formato XML.
XML_TIPOS_ANINHADOS_NÃO_SUPORTADOS
O XML não dá suporte <innerDataType>
como tipo interno de <dataType>
. Envolva o <innerDataType>
em um campo StructType ao utilizá-lo dentro do <dataType>
.
Erro de Conflito de Dados Resgatados pelo Curinga XML
Dados resgatados e coluna curinga não podem ser habilitados simultaneamente. Remova a opção wildcardColumnName.
ZORDERBY_COLUNA_NÃO_EXISTE
A coluna <columnName>
ZOrderBy não existe.
Lago Delta
SESSÃO DE FAÍSCA ATIVA DELTA NÃO ENCONTRADA
Não foi possível localizar SparkSession ativo.
TRANSAÇÃO_ATIVA_DELTA_JÁ_DEFINIDA
Não é possível definir um novo txn como ativo quando um já está ativo.
FALHA_AO_ADICIONAR_COLUNA_COM_NOME_INTERNO
Falha ao adicionar a coluna <colName>
porque o nome está reservado.
ADIÇÃO DE VETORES DE EXCLUSÃO DELTA NÃO PERMITIDA
A operação atual tentou adicionar um vetor de exclusão a uma tabela que não permite a criação de novos vetores de exclusão. Registre um relatório de bugs.
Adição de Vetores de Eliminação DELTA com Limites Rígidos Não Permitidos
Todas as operações que adicionam vetores de exclusão devem definir a coluna tightBounds nas estatísticas como false. Registre um relatório de bugs.
DELTA_ADICIONAR_COLUNA_NO_ÍNDICE_MENOR_QUE_ZERO
O índice <columnIndex>
para adicionar coluna <columnName>
é menor que 0.
DELTA_ADICIONAR_COLUNA_PAI_NAO_ESTRUTURADO
Não é possível adicionar <columnName>
porque seu elemento pai não é um StructType. Encontrado <other>
.
DELTA_ADICIONAR_ESTRUTURA_DE_COLUNA_NÃO_ENCONTRADA
Estrutura não encontrada na posição <position>
.
DELTA_ADICIONAR_RESTRIÇÕES
Utilize ALTER TABLE
ADD CONSTRAINT
para incluir CHECK
restrições.
DELTA_AGREGADO_EM_COLUNA_GERADA
Encontrado <sqlExpr>
. Uma coluna gerada não pode usar uma expressão de agregação.
AGREGAÇÃO_DELTA_NÃO_SUPORTADA
Não há suporte para funções de agregação no <operation> <predicate>
.
ALTERAÇÃO_DE_ORDENAÇÃO_NÃO_SUPORTADA_FILTRO_DE_FLORESCÊNCIA_DELTA
Falha ao alterar a colação da coluna <column>
porque ela possui um índice de filtro de Bloom. Por favor, mantenha a ordenação existente ou remova o índice de filtro Bloom e tente o comando novamente para alterar a ordenação.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY
Falha ao alterar a ordenação da coluna <column>
porque ela é uma coluna de agrupamento. Mantenha o intercalamento existente ou altere a coluna para uma coluna não agrupada usando um comando ALTER TABLE
e então tente o comando novamente para alterar o intercalamento.
ALTERAÇÃO DE TABELA DELTA: MODIFICAÇÃO DE COLUNA NÃO SUPORTADA
ALTER TABLE CHANGE COLUMN
não há suporte para alteração de coluna <currentType>
para <newType>
.
DELTA_ALTERAR_TABELA_CLUSTER_POR_NÃO_PERMITIDO
ALTER TABLE CLUSTER BY
é suportado apenas para a tabela Delta com agrupamento Liquid.
DELTA_ALTERAR_TABELA_AGRUPAR_POR_EM_TABELA_PARTICIONADA_NÃO_PERMITIDO
ALTER TABLE CLUSTER BY
não pode ser aplicado a uma tabela particionada.
ALTERAÇÃO_DE_TABELA_DELTA_RENOMEAÇÃO_NÃO_PERMITIDA
Operação não permitida: ALTER TABLE RENAME
TO não é permitido para tabelas Delta gerenciadas no S3, pois a consistência eventual no S3 pode corromper o log de transações Delta. Se você insistir em fazer isso e tiver certeza de que nunca houve uma tabela Delta com o novo nome <newName>
antes, você poderá habilitar isso definindo <key>
como verdadeiro.
ALTERAR_TABELA_DELTA_DEFINIR_RECURSO_DE_AGRUPAMENTO_NÃO_PERMITIDO
Não é possível habilitar <tableFeature>
o recurso de tabela usando ALTER TABLE SET TBLPROPERTIES
. Use CREATE
OR REPLACE TABLE CLUSTER BY
para criar uma tabela Delta com agrupamento.
ALTERAÇÃO_DE_TABELA_DELTA_GERENCIADA_NÃO_SUPORTA_ICEBERG_UNIFORME
ALTER
TABLE
...
SET
MANAGED
não dá suporte à tabela Iceberg Uniforme. Desabilite Uniform e tente novamente.
DELTA_ALTER_TABLE_SET_MANAGED_FAILED
ALTER TABLE <table> SET MANAGED
falhou.
Para obter mais detalhes , consulte DELTA_ALTER_TABLE_SET_MANAGED_FAILED
ALTERAR_TABELA_DELTA_DEFINIR_GERENCIADO_NÃO_HABILITADO
ALTER TABLE
... SET MANAGED
O comando não está habilitado. Entre em contato com sua equipe de suporte do Databricks para obter assistência.
ERRO_AO_ALTERAR_TABELA_DELTA_GERENCIAMENTO_REMOVIDO
<table>
não pode ser revertido da tabela gerenciada para a externa.
Para obter mais detalhes , consulte DELTA_ALTER_TABLE_UNSET_MANAGED_FAILED
DELTA_ALTERAR_TABELA_REMOVER_GERENCIADO_NÃO_HABILITADO
ALTER TABLE
... UNSET MANAGED
O comando não está habilitado. Entre em contato com sua equipe de suporte do Databricks para obter assistência.
DELTA_AMBIGUOUS_DATA_TYPE_CHANGE
Não é possível alterar o tipo de dados de <column>
<from>
para <to>
. Essa alteração contém remoções de coluna e adições, portanto, elas são ambíguas. Faça essas alterações individualmente usando ALTER TABLE
[ADD | DROP | RENAME
] COLUMN
.
DELTA_AMBIGUOUS_PARTITION_COLUMN (Coluna de Partição Ambígua Delta)
A coluna <column>
de partição ambígua pode ser <colMatches>
.
CAMINHOS_AMBÍGUOS_NO_DELTA_NA_CRIAÇÃO_DE_TABELA
CREATE TABLE
contém dois locais diferentes: <identifier>
e <location>
.
Você pode remover a cláusula LOCATION
da instrução CREATE TABLE
, ou definir
<config>
para true para ignorar esta verificação.
ARQUIVOS_ARQUIVADOS_DELTA_NO_LIMITE
A tabela <table>
não contém registros suficientes em arquivos não arquivados para satisfazer os registros especificados LIMIT
<limit>
.
ARQUIVOS_DELTA_ARQUIVADOS_NA_VARREDURA
Encontrados <numArchivedFiles>
arquivos potencialmente arquivados na tabela <table>
que precisam ser verificados no contexto desta consulta.
Arquivos arquivados não podem ser acessados. O tempo atual configurado até o arquivamento é <archivalTime>
.
Ajuste os filtros de consulta para excluir todos os arquivos arquivados.
MAPEAMENTO_DE_COLUNAS_DE_BLOCO_DELTA_E_OPERAÇÃO_CDC
A operação "<opName>
" não é permitida quando a tabela habilitou o CDF (feed de dados de alteração) e passou por alterações de esquema usando DROP COLUMN
ou RENAME COLUMN
.
DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS
Não é possível remover índices de filtro Bloom para as seguintes colunas inexistentes: <unknownColumns>
.
FILTRO_DE_FLORESCÊNCIA_DELTA_OOM_AO_ESCREVER
OutOfMemoryError ocorreu ao escrever índices de filtro bloom para as seguintes colunas: <columnsWithBloomFilterIndices>
.
Você pode reduzir o volume de memória dos índices de filtro de flores escolhendo um valor menor para a opção 'numItems', um valor maior para a opção 'fpp' ou indexando menos colunas.
DELTA_NÃO_PODE_ALTERAR_TIPO_DE_DADO
Não é possível alterar o tipo de dados: <dataType>
.
DELTA_NÃO_PODE_ALTERAR_LOCALIZAÇÃO
Não é possível alterar o 'local' da tabela Delta usando SET TBLPROPERTIES
. Use ALTER TABLE SET LOCATION
em seu lugar.
DELTA_NÃO_PODE_ALTERAR_PROVEDOR
'provider' é uma propriedade de tabela reservada e não pode ser alterada.
IMPOSSÍVEL_CRIAR_FILTRO_BLOOM_COLUNA_INEXISTENTE
Não é possível criar índices de filtro de flores para as seguintes colunas inexistentes: <unknownCols>
.
DELTA_NÃO_PODE_CRIAR_CAMINHO_DE_LOG
Não é possível criar <path>
.
DELTA_NÃO_PODE_DESCREVER_HISTÓRICO_DE_VISUALIZAÇÃO
Não é possível descrever o histórico de uma visualização.
Não é possível remover o filtro Bloom de uma coluna não indexada.
Não é possível remover o índice de filtro bloom em uma coluna não indexada: <columnName>
.
DELTA_NÃO_PODE_REMOVER_RECURSO_DE_RESTRIÇÃO_DE_VERIFICAÇÃO
Não é possível descartar o recurso da tabela de restrições CHECK
.
As seguintes restrições devem ser descartadas primeiro: <constraints>
.
DELTA_NÃO_PODE_REMOVER_RECURSO_DE_ORDENAÇÕES
Não é possível descartar o recurso de tabela de ordenações.
As colunas com ordenações não padrão devem ser alteradas para usar UTF8_BINARY primeiro: <colNames>
.
DELTA_NÃO_PODE_AVALIAR_EXPRESSÃO
Não é possível avaliar a expressão: <expression>
.
DELTA_NÃO_CONSEGUE_ENCONTRAR_ESPECIFICAÇÃO_DE_BUCKET
Esperando uma tabela Delta com compartimentação, mas não conseguimos encontrar a especificação de compartimento na tabela.
DELTA_NÃO_PODE_GERAR_CÓDIGO_PARA_EXPRESSION
Não é possível gerar código para expressão: <expression>
.
DELTA_NÃO_PODE_MODIFICAR_APENDICE_APENAS
Esta tabela está configurada para permitir somente acréscimos. Se você quiser permitir atualizações ou exclusões, use 'ALTER TABLE <table_name> SET TBLPROPERTIES (<config> =false)
'.
DELTA_NÃO_PODE_MODIFICAR_DEPENDÊNCIAS_PERTENCENTES_AO_CATÁLOGO
Não é possível substituir ou desconfigurar as propriedades da tabela de marcação de tempo durante a confirmação porque a tabela pertence ao catálogo. Remova "delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion" e "delta.inCommitTimestampEnablementTimestamp" da TBLPROPERTIES
cláusula e tente novamente o comando.
DELTA_NÃO_PODE_MODIFICAR_DEPENDÊNCIAS_DE_COMMITS_COORDENADOS
<Command>
não é possível substituir ou desabilitar as propriedades da tabela de carimbo de data/hora de confirmação porque as confirmações coordenadas estão habilitadas nesta tabela e dependem delas. Remova-os ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") da TBLPROPERTIES
cláusula e tente novamente o comando.
DELTA_NÃO_PODE_MODIFICAR_PROPRIEDADE_DA_TABELA
A configuração <prop>
da tabela Delta não pode ser especificada pelo usuário.
DELTA_NÃO_PODE_SUBSTITUIR_COMMIT_UNIFICADOS_CONFS
<Command>
não pode alterar as configurações de confirmação coordenada para uma tabela de destino existente. Remova-os ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview", "delta.coordinatedCommits.tableConf-preview") da TBLPROPERTIES
cláusula e tente o comando novamente.
DELTA_NÃO_PODE_RECONSTRUIR_CAMINHO_DO_URI
Um uri (<uri>
) que não pode ser transformado em um caminho relativo foi encontrado no log de transações.
DELTA_NÃO_PODE_RELATIVIZAR_CAMINHO
Um caminho (<path>
) que não pode ser relativizado com a entrada atual encontrada no
log de transações. Execute novamente como:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<userPath>
", true)
e, em seguida, execute também:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<path>
")
DELTA_NÃO_PODE_RENOMEAR_CAMINHO
Não é possível renomear <currentPath>
para <newPath>
.
DELTA_NÃO_PODE_SUBSTITUIR_TABELA_AUSENTE
A tabela <tableName>
não pode ser substituída, pois ela não existe. Use CREATE
OR REPLACE TABLE
para criar a tabela.
DELTA_NÃO_PODE_RESOLVER_COLUNA_DE_AGRUPAMENTO
Não é possível resolver a coluna de clustering <columnName>
em <schema>
devido a um erro inesperado. Executar ALTER TABLE
... ... CLUSTER BY
para reparar metadados de clustering Delta.
DELTA_NÃO_PODE_RESOLVER_COLUNA
Não é possível resolver a coluna <columnName>
em <schema>
DELTA_NÃO_PODE_RESTAURAR_VERSÃO_DA_TABELA
Não é possível restaurar a tabela para a versão <version>
. Versões disponíveis: [<startVersion>
, <endVersion>
].
DELTA_NÃO_PODE_RESTAURAR_TIMESTAMP_ANTERIOR
Não é possível restaurar a tabela para o carimbo de data/hora (<requestedTimestamp>
) pois está antes da versão mais antiga disponível. Use um carimbo de data/hora após (<earliestTimestamp>
).
DELTA_NÃO_PODE_RESTAURAR_TIMESTAMP_MAIOR
Não é possível restaurar a tabela para o carimbo de data/hora (<requestedTimestamp>
) pois está após a versão mais recente disponível. Use um carimbo de data/hora antes (<latestTimestamp>
).
DELTA_NÃO_PODE_DEFINIR_DEPENDÊNCIAS_DE_COMMITS_COORDENADOS
<Command>
não é possível definir as propriedades da tabela de carimbo de data/hora de confirmação em conjunto com confirmações coordenadas, pois a última depende do primeiro e define o primeiro internamente. Remova-os ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") da TBLPROPERTIES
cláusula e tente novamente o comando.
DELTA_NÃO_PODE_DEFINIR_LOCALIZAÇÃO_NO_IDENTIFICADOR_DE_CAMINHO
Não é possível alterar o local de uma tabela baseada em caminho.
DELTA_NAO_PODE_DEFINIR_PROPRIEDADE_DE_COLUNAS_DE_ESTATISTICAS_GERENCIADAS
Não é possível definir delta.managedDataSkippingStatsColumns na tabela não DLT.
NÃO_FOI_POSSÍVEL_DEFINIR_CONF_DE_COORDENADOR_DE_COMMIT_UC_NO_COMANDO
Ao habilitar o 'unity-catalog' como coordenador de confirmação, a configuração "<configuration>
" não pode ser definida a partir do comando. Remova-a da TBLPROPERTIES
cláusula e repita o comando novamente.
NÃO_PODE_CONFIGURAR_COORDENADOR_DE_COMMIT_UC_NA_SESSÃO DELTA
Ao habilitar o 'unity-catalog' como coordenador de confirmação, a configuração "<configuration>
" não pode ser definida nas configurações do SparkSession. Desinstale-o executando-o spark.conf.unset("<configuration>")
e repita o comando novamente.
Content currently does not require translation due to lack of context and technical nature.
ALTER
não pode desaconstalar configurações de confirmações coordenadas. Para fazer downgrade de uma tabela de confirmações coordenadas, tente novamente usando ALTER
TABLE[table-name]
DROP FEATURE. 'coordinatedCommits-preview'
Não é possível atualizar o campo de array [DELTA_CANNOT_UPDATE_ARRAY_FIELD]
Não é possível atualizar o tipo de campo <tableName>
<fieldName>
: para isso, atualize <fieldName>
.element.
DELTA_NÃO_PODE_ATUALIZAR_CAMPO_DE_MAPA
Não é possível atualizar o campo <tableName>
ou o tipo de <fieldName>
: atualize um mapa atualizando <fieldName>.key
ou <fieldName>.value
.
DELTA_NÃO_PODE_ATUALIZAR_CAMPO_DE_OUTRO
Não é possível atualizar <tableName>
o campo do tipo <typeName>
.
DELTA_NÃO_PODE_ATUALIZAR_CAMPO_DE_ESTRUTURA
Não é possível atualizar o campo do tipo <tableName>
<fieldName>
: atualizar a estrutura adicionando, excluindo ou atualizando seus campos.
DELTA_NÃO_PODE_USAR_TODAS_AS_COLUNAS_PARA_PARTIÇÃO
Não é possível usar todas as colunas para colunas de partição.
DELTA_CANNOT_VACUUM_LITE
VACUUM
O LITE não pode excluir todos os arquivos qualificados, pois alguns arquivos não são referenciados pelo log Delta. Execute VACUUM FULL
.
DELTA_NÃO_PODE_ESCREVER_NA_VISTA (DELTA_CANNOT_WRITE_INTO_VIEW)
<table>
é uma visão. Não há suporte para gravações em um modo de exibição.
DELTA_CAST_TRANSBORDAMENTO_NA_ESCRITA_DA_TABELA
Falha ao gravar um valor de tipo <sourceType>
na coluna de tipo <targetType>
<columnName>
devido a um transbordo.
Use try_cast
no valor de entrada para tolerar estouro e retornar NULL
.
Se necessário, defina `<storeAssignmentPolicyFlag>
` como `LEGACY
` para ignorar esse erro ou configure `<updateAndMergeCastingFollowsAnsiEnabledFlag>
` como verdadeiro para reverter ao comportamento antigo e seguir `<ansiEnabledFlag>
` em `UPDATE
` e `MERGE
`.
DELTA_CDC_NÃO_PERMITIDO_NESTA_VERSÃO
A configuração delta.enableChangeDataFeed não pode ser definida. O fluxo de dados de alterações do Delta ainda não está disponível.
DELTA_CDC_LEITURA_FRONTEIRA_INTERVALO_NULO
Os parâmetros de início/término de leitura CDC não podem ser nulos. Forneça uma versão ou timestamp válido.
DELTA_CHANGE_DATA_FEED_ESQUEMA_DE_DADOS_INCOMPATÍVEL
Recuperação de alterações de tabela entre a versão <start>
e <end>
falhou por causa de um esquema de dados incompatível.
O esquema de leitura está <readSchema>
na versão <readVersion>
, mas encontramos um esquema de dados incompatível na versão <incompatibleVersion>
.
Se possível, recupere as alterações de tabela usando o esquema da versão final definindo <config>
como endVersion
, ou entre em contato com o suporte.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE (alteração de esquema incompatível no feed de dados de mudança Delta)
A recuperação de alterações de tabela entre a versão <start>
e <end>
falhou devido a uma alteração de esquema incompatível.
O esquema de leitura está <readSchema>
na versão <readVersion>
, mas encontramos uma alteração de esquema incompatível na versão <incompatibleVersion>
.
Se possível, consulte as alterações de tabela separadamente da versão <start>
para <incompatibleVersion>
- 1 e de versão <incompatibleVersion>
para <end>
.
ARQUIVO_DE_DADOS_DE_MUDANÇA_DELTA_NÃO_ENCONTRADO
O arquivo <filePath>
referenciado no log de transações não pode ser encontrado. Isso pode ocorrer quando os dados foram excluídos manualmente do sistema de arquivos em vez de usar a instrução table DELETE
. Essa solicitação parece estar direcionada ao Change Data Feed. Se for esse o caso, esse erro pode ocorrer quando o arquivo de dados de alteração estiver fora do período de retenção e tiver sido excluído pela declaração VACUUM
. Para obter mais informações, veja <faqPath>
ALTERAÇÃO_DELTA_TABELA_FEED_DESABILITADO
Não é possível gravar na tabela com delta.enableChangeDataFeed definido. O feed de dados de alteração do Delta não está disponível.
DELTA_CHECKPOINT_TABELA_INEXISTENTE
Não é possível fazer o ponto de verificação de uma tabela não existente <path>
. Você excluiu manualmente os arquivos no diretório _delta_log?
ALVO_AMBÍGUO_DE_CLONE_DELTA
Dois caminhos foram fornecidos como destino CLONE
, portanto, é ambíguo o qual usar. Um externo
local para CLONE
foi fornecido junto com <externalLocation>
ao mesmo tempo que o caminho
<targetIdentifier>
.
DELTA_CLONE_FONTE_INCOMPATÍVEL
A origem do clone tem um formato válido, mas possui uma característica não compatível com o Delta.
Para obter mais detalhes , consulte DELTA_CLONE_INCOMPATIBLE_SOURCE
CÓPIA_INCOMPLETA_DE_ARQUIVO_DELTA_CLONE
Arquivo (<fileName>
) não copiado completamente. Tamanho do arquivo esperado: <expectedSize>
, encontrado: <actualSize>
. Para continuar com a operação ignorando a verificação de tamanho do arquivo, defina <config>
como falso.
FONTE NÃO SUPORTADA PARA CÓPIA DELTA
Fonte de clone sem suporte <mode>
'<name>
', com formato <format>
.
Os formatos com suporte são 'delta', 'iceberg' e 'parquet'.
DELTA_CLONE_COM_HISTÓRICO_FONTE_NÃO_SUPORTADA
Tabela de origem sem suporte:
Para obter mais detalhes , consulte DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_SOURCE
DELTA_CLONE_COM_HISTÓRICO_ALVO_NÃO_SUPORTADO
Tabela de destino não suportada:
Para obter mais detalhes , consulte DELTA_CLONE_WITH_HISTORY_UNSUPPORTED_TARGET
A_CLONAGEM_DE_TABELA_EM_DELTA_CLUSTERING_NÃO_É_SUPORTADA
CLONE
não é compatível com a tabela Delta com clustering Liquid para a versão < 14.0
do DBR.
DELTA_TIPOS_DE_DADOS_DAS_COLUNAS_DE_AGRUPAMENTO_NÃO_SUPORTADOS
CLUSTER BY
não é suportado pelas seguintes colunas <columnsWithDataTypes>
, pois não dão suporte ao salto de dados.
DELTA_COLUNAS_DE_CLUSTERIZAÇÃO_INCORRETAS
As colunas de clustering fornecidas não correspondem às da tabela existente.
fornecido:
<providedClusteringColumns>
existente:
<existingClusteringColumns>
DELTA_AGRUPAMENTO_COLUNA_FALTANDO_ESTATÍSTICAS
O clustering líquido requer que as colunas de clustering tenham estatísticas. Não conseguimos encontrar colunas de clustering '<columns>
' no schema de estatísticas.
<schema>
CRIAÇÃO_DE_TABELA_EXTERNA_NÃO-LÍQUIDA_A_PARTIR_DE_TABELA_LÍQUIDA_COM_AGRUPAMENTO_DELTA
Não é permitida a criação de uma tabela externa sem utilizar o agrupamento dinâmico de um diretório de tabela que possua agrupamento dinâmico; caminho: <path>
.
DELTA_CLUSTERING_NOT_SUPPORTED (Agrupamento Delta não suportado)
'<operation>
' não dá suporte ao clustering.
FASE DE AGRUPAMENTO DELTA FALHOU AO DESCONTINUAR
Não é possível concluir o <phaseOutType>
da tabela com o recurso de tabela <tableFeatureToAdd>
(motivo: <reason>
). Tente o OPTIMIZE
comando novamente.
== Erro ==
<error>
SUBSTITUIR_TABELA_DELTA_CLUSTERING_COM_TABELA_PARTICIONADA
REPLACE
uma tabela Delta com clustering Liquid e uma tabela particionada não é permitida.
DELTA_CLUSTERING_EXIBIR_CRIAR_TABELA_SEM_COLUNAS_DE_AGRUPAMENTO
SHOW CREATE TABLE
não é compatível com a tabela Delta com clustering Liquid sem colunas de agrupamento.
DELTA_CLUSTERING_PARA_TABELA_PARTICIONADA_COM_COLUNAS_DE_CLUSTERING_NÃO_VAZIAS
A transição de uma tabela Delta com "Liquid clustering" para uma tabela particionada não é permitida para a operação: <operation>
, quando a tabela existente possui colunas de clustering que não estão vazias.
Execute o comando ALTER TABLE CLUSTER BY
NONE para remover primeiro as colunas de clustering.
Agrupamento Delta com Sobrescrita de Partição Dinâmica
Modo de substituição de partição dinâmica não é permitido na tabela Delta com agrupamento Liquid.
agrupamento_delta_com_predicado_de_partição
OPTIMIZE
O comando para tabela Delta com agrupamento Liquid não suporta predicados de partição. Remova os predicados: <predicates>
.
DELTA_FATIAMENTO_COM_ORDENAÇÃO_ZORDER
OPTIMIZE
O comando da tabela Delta com clustering Liquid não pode especificar ZORDER BY
. Remova (ZORDER BY (<zOrderBy>
).
DELTA_AGRUPAMENTO_POR_INADEQUAÇÃO_AUTOMÁTICA
O valor de clusterByAuto fornecido não corresponde ao da tabela existente.
CLUSTER_DELTA_POR_NUMERO_DE_COLUNAS_INVALIDO
A CLUSTER BY
para Liquid clustering suporta até <numColumnsLimit>
colunas de clustering, mas a tabela tem <actualNumColumns>
colunas de clustering. Remova as colunas de clustering extras.
DELTA_CLUSTER_POR_ESQUEMA_NÃO_FORNECIDO
Não é permitido especificar CLUSTER BY
quando o esquema não está definido. Defina o esquema para a tabela <tableName>
.
DELTA_CLUSTER_POR_COM_AGRUPAMENTO
Clustering e bucketing não podem ser definidos ao mesmo tempo. Remova CLUSTERED BY INTO BUCKETS
ou bucketBy se você quiser criar uma tabela Delta com clustering.
CLUSTER_DELTA_POR_COM_PARTICIONADO_POR
Clustering e particionamento não podem ser especificados simultaneamente. Remova PARTITIONED BY
/ partitionBy / partitionedBy caso queira criar uma tabela Delta com clustering.
DELTA_COLLATIONS_NOT_SUPPORTED (Configurações de ordenação Delta não suportadas)
Não há suporte para conjuntos de ordenação no Delta Lake.
SALTAR_DADOS_NA_COLUNA_DELTA_NÃO_SUPORTADO_COLUNA_PARTICIONADA
Não há suporte para o pulado de dados para a coluna de partição '<column>
'.
Tipo de Dados de Coluna Delta não Suportado para Skipping
Não há suporte para ignorar dados para a coluna '<column>
' do tipo <type>
.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET
A propriedade max column id (<prop>
) não está definida em uma tabela habilitada para mapeamento de coluna.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NÃO_DEFINIDO_CORRETAMENTE
A propriedade max column id (<prop>
) em uma tabela habilitada para mapeamento de coluna é <tableMax>
, que não pode ser menor que a ID máxima da coluna para todos os campos (<fieldMax>
).
Tipo de dado faltando na coluna Delta
O tipo de dados da coluna <colName>
não foi fornecido.
COLUNA_DELTA_NÃO_ENCONTRADA
Não é possível localizar a coluna <columnName>
fornecida [<columnList>
].
DELTA_COLUNA_NÃO_ENCONTRADA_NA_MESCLA
Não é possível localizar a coluna '<targetCol>
' na tabela de destino a partir das colunas INSERT
: <colNames>
.
INSERT
a cláusula deve especificar o valor para todas as colunas da tabela de destino.
COLUNA_DELTA_NÃO_ENCONTRADA_NO_ESQUEMA
Não foi possível localizar a coluna <columnName>
em:
<tableSchema>
Caminho_da_Coluna_Delta_Não_Aninhado
Era esperado que <columnPath>
fosse um tipo de dados aninhado, mas foi encontrado <other>
. Estava procurando por
índice de <column>
em um campo aninhado.
Esquema:
<schema>
MISMATCH DE TIPO DE ESTRUTURA DE COLUNA DELTA
A coluna Struct <source>
não pode ser inserida em um campo <targetType>
<targetField>
em <targetTable>
.
ESTADO_DE_REDIRECIONAMENTO_INTERMEDIÁRIO_COMMIT_DELTA
Não é possível lidar com a confirmação da tabela dentro do estado da tabela de redirecionamento '<state>
'.
VALIDACAO_FALHA_COMPACTACAO_DELTA
Falha na validação da compactação do caminho <compactedPath>
para <newPath>
: por favor, relate um relato de erro.
DELTA_COMPLEX_TYPE_COLUNA_CONTÉM_TIPO_NULO
Foi encontrado NullType aninhado na coluna <columName>
, que é de <dataType>
. O Delta não dá suporte à gravação de NullType em tipos complexos.
DELTA_ACRESCENTE_CONCORRENTE
ConcurrentAppendException: Arquivos foram adicionados a <partition>
por uma atualização simultânea. <retryMsg> <conflictingCommit>
Consulte <docLink>
para obter mais detalhes.
DELTA_EXCLUSÃO_CONCORRENTE_EXCLUIR
ConcurrentDeleteDeleteException: essa transação tentou excluir um ou mais arquivos que foram excluídos (por exemplo <file>
) por uma atualização simultânea. Tente a operação novamente.<conflictingCommit>
Consulte <docLink>
para obter mais detalhes.
EXCLUSÃO_CONCORRENTE_DELTA_LEITURA
ConcurrentDeleteReadException: essa transação tentou ler um ou mais arquivos que foram excluídos (por exemplo <file>
) por uma atualização simultânea. Tente a operação novamente.<conflictingCommit>
Consulte <docLink>
para obter mais detalhes.
DELTA_CONCURRENT_TRANSACTION (Transação Concorrente Delta)
ConcurrentTransactionException: esse erro ocorre quando várias consultas de streaming estão usando o mesmo ponto de verificação para gravar nesta tabela. Você executou várias instâncias da mesma consulta de streaming ao mesmo tempo?<conflictingCommit>
Consulte <docLink>
para obter mais detalhes.
Escrita_concorrente_delta
ConcurrentWriteException: uma transação simultânea gravou novos dados porque a transação atual leu a tabela. Tente a operação novamente.<conflictingCommit>
Consulte <docLink>
para obter mais detalhes.
DEFINIR_CONFLITO_COLUNA
Há um conflito dessas SET
colunas: <columnList>
.
SOBRESCRIÇÃO_DE_CONF_DELTA_NÃO_SUPORTADA_NO_COMANDO
Durante <command>
, a configuração "<configuration>
" não pode ser definida a partir do comando. Remova-a da TBLPROPERTIES
cláusula e repita o comando novamente.
SUBSTITUIÇÃO_DE_CONFIGURAÇÃO_DELTA_NÃO_SUPORTADA_NA_SESSÃO
Durante <command>
, a configuração "<configuration>
" não pode ser definida nas configurações do SparkSession. Desinstale-o executando-o spark.conf.unset("<configuration>")
e repita o comando novamente.
CONSTRANGIMENTO_DELTA_JÁ_EXISTE
A restrição '<constraintName>
' já existe. Exclua a restrição antiga primeiro.
Restrição antiga:
<oldConstraint>
DELTA_CONSTRAINT_DATA_TYPE_MISMATCH (Incompatibilidade de Tipo de Dados de Restrição Delta)
A coluna <columnName>
tem tipo <columnType>
de dados e não pode ser alterada para o tipo <dataType>
de dados porque essa coluna é referenciada pelas seguintes restrições de verificação:
<constraints>
ALTERAÇÃO_DELTA_CONSTRANGIMENTO_COLUNA_DEPENDENTE
Não é possível alterar a coluna <columnName>
porque essa coluna é referenciada pelas seguintes restrições de verificação:
<constraints>
CONSTRAINTE_DELTA_NÃO_EXISTE
Não é possível remover a restrição <constraintName>
inexistente da tabela <tableName>
. Para evitar gerar um erro, forneça o parâmetro IF EXISTS
ou defina a configuração <config>
da sessão SQL como <confValue>
.
Código de erro: DELTA_CONVERSION_MERGE_ON_READ_NOT_SUPPORTED
Não há suporte para a conversão da tabela Merge-On-Read <format>
: <path>
, <hint>
DELTA_CONVERSÃO_NENHUMA_PARTIÇÃO_ENCONTRADA
Não foi encontrada nenhuma informação de partição no catálogo da tabela <tableName>
. Você executou "MSCK REPAIR TABLE
" em sua tabela para descobrir partições?
CONVERSÃO_DELTA_COLUNA_DE_PARTIÇÃO_AGRUPADA_NÃO_SUPORTADA
Não é possível converter a tabela Parquet com a coluna de partição ordenada <colName>
para Delta.
Conversão DELTA: Mapeamento de coluna não suportado
A configuração '<config>
' não pode ser definida para <mode>
quando usar CONVERT
para DELTA
.
CONVERSAO_DELTA_ALTERACAO_DE_ESQUEMA_NAO_SUPORTADA
Modificações de esquema sem suporte encontradas para a tabela <format>
: <path>
, <hint>
DELTA_CONVERT_NON_PARQUET_TABLE
CONVERT
TO DELTA
oferece suporte apenas a tabelas parquet, mas você está tentando converter uma <sourceName>
origem: <tableId>
.
DELTA_CONVERTER_PARA_DELTA_RASTREAMENTO_DE_LINHAS_SEM_ESTATÍSTICAS
Não é possível habilitar o rastreamento de linhas sem coletar estatísticas.
Se você quiser habilitar o acompanhamento de linhas, faça o seguinte:
- Habilitar a coleta de estatísticas executando o comando
SET <statisticsCollectionPropertyKey>
= verdadeiro
- Execute
CONVERT
TODELTA
sem a opção NOSTATISTICS
.
Se você não quiser coletar estatísticas, desabilite o acompanhamento de linhas:
- Desativar a habilitação do recurso de tabela por padrão executando o comando:
RESET <rowTrackingTableFeatureDefaultKey>
- Desativar a propriedade da tabela por padrão executando:
SET <rowTrackingDefaultPropertyKey>
= falso
DELTA_COPY_INTO_TARGET_FORMAT
COPY INTO
o destino deve ser uma tabela Delta.
DELTA_CRIAR_TABELA_EXTERNA_SEM_ESQUEMA
Você está tentando criar uma tabela externa <tableName>
de <path>
usando Delta, mas o esquema não é especificado quando o
O caminho de entrada está vazio.
Para saber mais sobre o Delta, confira <docLink>
DELTA_CRIA_TABELA_EXTERNA_SEM_LOG_DE_TXN
Você está tentando criar uma tabela externa <tableName>
de <path>
usando o Delta, mas não há log de transações presente em <logPath>
. Verifique o trabalho upstream para verificar se ele está gravando usando formato("delta") e se o caminho é a raiz da tabela.
Para saber mais sobre o Delta, confira <docLink>
DELTA_CRIAR_TABELA_IDENTIFICADOR_LOCALIZAÇÃO_INCONSISTENTE
Não há suporte para a criação de uma tabela Delta baseada em caminho com um local diferente. Identificador: <identifier>
, Local: <location>
.
DELTA_CREATE_TABLE_NOME_TABELA_OU_LOCALIZAÇÃO_AUSENTES
O nome ou o local da tabela deve ser especificado.
DELTA_INCOERÊNCIA_NO_ESQUEMA_DE_CRIAÇÃO_DE_TABELA
O esquema especificado não corresponde ao esquema existente em <path>
.
== Especificado ==
<specifiedSchema>
== Existente ==
<existingSchema>
== Diferenças ==
<schemaDifferences>
Se sua intenção for manter o esquema existente, você poderá omitir o
esquema do comando criar tabela. Caso contrário, certifique-se de que
o esquema está em conformidade.
DELTA_CREATE_TABLE_SET_CLUSTERING_TABELA_RECURSO_NÃO_PERMITIDO
Não é possível habilitar <tableFeature>
o recurso de tabela usando TBLPROPERTIES
. Use CREATE
OR REPLACE TABLE CLUSTER BY
para criar uma tabela Delta com agrupamento.
DELTA_CRIAÇÃO_DE_TABELA_COM_AGRUPAMENTO_DIFERENTE
As colunas de clustering especificadas não correspondem às colunas de clustering existentes em <path>
.
== Especificado ==
<specifiedColumns>
== Existente ==
<existingColumns>
DELTA_CRIA_TABELA_COM_DIFERENTE_PARTICIONAMENTO
O particionamento especificado não corresponde ao particionamento existente em <path>
.
== Especificado ==
<specifiedColumns>
== Existente ==
<existingColumns>
CRIAR_TABELA_DELTA_COM_PROPRIEDADE_DIFERENTE
As propriedades especificadas não correspondem às propriedades existentes em <path>
.
== Especificado ==
<specifiedProperties>
== Existente ==
<existingProperties>
DELTA_CRIAR_TABELA_COM_LOCAL_NÃO_VAZIO
Não é possível criar tabela ('<tableId>
'). O local associado (''<tableLocation>
) não está vazio e também não é uma tabela Delta.
DELTA_MUDANÇA_DE_DADOS_FALSO
Não é possível alterar os metadados da tabela porque a opção 'dataChange' está definida como false. Tentativa de operação: '<op>
'.
ARQUIVO_PARQUET_EXCLUÍDO_DELTA_NÃO_ENCONTRADO
O arquivo <filePath>
referenciado no log de transações não pode ser encontrado. Esse arquivo parquet pode ser excluído de acordo com a política de retenção de dados da Delta.
Duração padrão de retenção de dados delta: <logRetentionPeriod>
. Horário da modificação do arquivo parquet: <modificationTime>
. Hora de exclusão do arquivo parquet: <deletionTime>
. Excluído na versão Delta: <deletionVersion>
.
VETOR_DE_ELIMINAÇÃO_DELTA_FALTANDO_NÚMERO_DE_REGISTROS
É inválido confirmar arquivos com vetores de exclusão que não têm a estatística numRecords.
DELTA_DESABILITAR_MATERIALIZAÇÃO_FONTE_NA_FUSÃO_NÃO_PERMITIDA
Não é permitido desabilitar a materialização da origem em MERGE
definindo 'spark.databricks.delta.merge.materializeSource' como 'none'.
METADADOS_DE_DOMÍNIO_DELTA_NÃO_SUPORTADOS
Ação DomainMetadata detectada para domínios <domainNames>
, mas DomainMetadataTableFeature não está habilitada.
DELTA_REMOVER_COLUNA_NO_ÍNDICE_MENOR_QUE_ZERO
O índice <columnIndex>
para remover a coluna é inferior a 0.
DELTA_REMOVER_COLUNA_EM_ESQUEMA_DE_CAMPO_ÚNICO
Não é possível eliminar uma coluna em um esquema que possui apenas uma única coluna. Esquema:
<schema>
AÇÕES_DUPLICADAS_DELTA_ENCONTRADAS
A operação de arquivo '<actionType>
' para o caminho <path>
foi especificada várias vezes.
Ele entra em conflito com <conflictingPath>
.
Não é válido que várias operações de arquivo com o mesmo caminho existam em uma única confirmação.
DELTA_COLUNAS_DUPLICADAS_ENCONTRADAS
Colunas duplicadas encontradas <coltype>
: <duplicateCols>
.
DELTA_COLUNAS_DUPLICADAS_EM_INSERÇÃO
Nomes de coluna duplicados na cláusula INSERT
.
DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE
<message>
Remova colunas duplicadas antes de atualizar sua tabela.
DELTA_PULAR_COLUNAS_DE_DADOS_DUPLICADOS
Dados duplicados ignorando colunas encontradas: <columns>
.
ERRO INTERNO DE METADADOS DE DOMÍNIO DUPLICADO DELTA
Erro interno: duas ações DomainMetadata na mesma transação têm o mesmo domínio <domainName>
.
DELTA_DV_HISTOGRAM_DESERIALIZAÇÃO
Não foi possível desserializar o histograma de contagens de registros excluídos durante a verificação de integridade da tabela.
DELTA_DESATIVADO_SOBRESCRITA_DINAMICA_DE_PARTICAO (DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED)
O modo de substituição de partição dinâmica é especificado por opções de gravação ou configuração de sessão, mas está desabilitado por spark.databricks.delta.dynamicPartitionOverwrite.enabled=false
.
Dados Delta Vazios
Os dados usados na criação da tabela Delta não têm colunas.
DELTA_EMPTY_DIRECTORY
Nenhum arquivo encontrado no diretório: <directory>
.
DELTA_EXCEED_CHAR_VARCHAR_LIMIT
O valor "<value>
" excede a limitação de comprimento do tipo char/varchar. Falha na verificação: <expr>
.
DELTA_FALHA_CONVERSÃO_VALOR_PARTIÇÃO
Falha ao converter o valor <value>
da partição em <dataType>
.
FALHA_DELTA_AO_ENCONTRAR_ATRIBUTO_NAS_COLUNAS_DE_SAÍDA
Não foi possível localizar <newAttributeName>
entre a saída de destino já existente <targetOutputColumns>
.
DELTA_FALHA_NA_INFERÊNCIA_DO_ESQUEMA
Falha ao inferir o esquema da lista de arquivos fornecida.
FALHA_NO_MERGE_DO_ARQUIVO_DE_ESQUEMA_DELTA
Falha ao mesclar o esquema do arquivo <file>
:
<schema>
OPERAÇÃO_FALHOU_NO_CLONE_SUPERFICIAL
Falha ao executar a operação na tabela <sourceTable>
de origem porque o clone <targetTable>
superficial ainda existe e o seguinte erro ocorreu no clone superficial: <message>
DELTA_FALHA_AO_LER_RODAPÉ_DO_ARQUIVO
Não foi possível ler o rodapé do arquivo: <currentFile>
.
DELTA_FALHA_AO_RECONHECER_PREDICADO
Não é possível reconhecer o predicado '<predicate>
'.
FALHA NA DIGITALIZAÇÃO DELTA COM VERSÃO HISTÓRICA
Esperava uma análise completa da versão mais recente da fonte Delta, mas encontrou uma análise histórica da versão <historicalVersion>
.
DELTA_FALHOU_AO_MESCLAR_CAMPOS
Falha ao mesclar campos '<currentField>
' e '<updateField>
'.
DELTA_CARACTERÍSTICAS_PROTOCOLO_DESACORDO_DE_METADADOS
Não é possível operar nesta tabela porque os seguintes recursos de tabela estão habilitados em metadados, mas não listados no protocolo: <features>
.
RECURSOS_DELTA_EXIGEM_ATIVAÇÃO_MANUAL
O esquema de tabela requer a habilitação manual dos seguintes recursos de tabela: <unsupportedFeatures>
.
Para fazer isso, execute o seguinte comando para cada um dos recursos listados acima:
ALTER TABLE
SET TBLPROPERTIES
table_name ('delta.feature.feature_name' = 'supported')
Substitua "table_name" e "feature_name" por valores reais.
Recursos atuais com suporte: <supportedFeatures>
.
RECURSO_DELTA_SÓ_PODE_DESCARTAR_PROTEÇÃO_DE_CHECKPOINT_COM_TRUNCAMENTO_DE_HISTÓRICO
Não foi possível remover o recurso Proteção de Ponto de Verificação.
Esse recurso só pode ser removido ao truncar o histórico.
Tente novamente com a opção TRUNCATE HISTORY
:
ALTER TABLE
DROP FEATURE
table_name checkpointProtectionTRUNCATE HISTORY
FALHA_NO_CHECKPOINT_DE_REMOÇÃO_DE_RECURSO_DELTA
A remoção <featureName>
falhou devido a uma falha na criação do ponto de verificação.
Tente novamente mais tarde. O problema persiste, entre em contato com o suporte do Databricks.
If applicable, translate based on the technical context or leave as is if it is a technical name that should be in English. Without specific context, it's difficult to propose a translation. For localization, translate terms such as "CHECKPOINT_PROTECTION" if a specific translation exists. Otherwise, it might be better left as a technical term.
A operação não foi bem-sucedida porque ainda há vestígios de recursos descartados
no histórico da tabela. CheckpointProtection não pode ser removido até que esses registros históricos
as versões expiraram.
Para remover CheckpointProtection, aguarde até que as versões históricas
expire e, em seguida, repita este comando. O período de retenção para versões históricas é
atualmente configurado para <truncateHistoryLogRetentionPeriod>
.
FALHA_DE_REVALIDAÇÃO_DE_CONFLITO_NO_DESCARTE_DE_RECURSO_DELTA
Não é possível descartar o recurso porque uma transação simultânea modificou a tabela.
Tente a operação novamente.
<concurrentCommit>
CARACTERÍSTICA_DELTA_REMOVER_CARACTERÍSTICA_DEPENDENTE
Não é possível remover a funcionalidade <feature>
na tabela porque algumas outras funcionalidades (<dependentFeatures>
) nesta mesma tabela dependem de <feature>
.
Considere removê-los primeiro antes de descartar esse recurso.
DELTA_RECURSO_REMOVER_RECURSO_NÃO_PRESENTE
Não é possível remover <feature>
dessa tabela porque ela não está presente no protocolo da tabela no momento.
DELTA_FEATURE_DROP_VERSOES_HISTORICAS_EXISTENTES
Não é possível descartar <feature>
porque o log Delta contém versões históricas que usam o recurso.
Aguarde até o período de retenção do histórico (<logRetentionPeriodKey>=<logRetentionPeriod>
)
passou porque o recurso foi ativado pela última vez.
Como alternativa, aguarde até que o TRUNCATE HISTORY
período de retenção expire (<truncateHistoryLogRetentionPeriod>
)
e, em seguida, execute:
ALTER TABLE
nome_da_tabelaDROP FEATURE
nome_do_recursoTRUNCATE HISTORY
HISTÓRICO DE ELIMINAÇÃO DE FUNCIONALIDADES DELTA NÃO PERMITIDO PARA TRUNCAGEM
O recurso específico não requer truncamento de histórico.
DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE
Não é possível descartar <feature>
porque não há suporte para remover esse recurso.
Entre em contato com o suporte do Databricks.
DELTA_RECURSO_DESCARTAR_RECURSO_CLIENTE_NÃO_SUPORTADO
Não é possível descartar <feature>
porque não há suporte para essa versão do Databricks.
Considere usar o Databricks com uma versão mais alta.
DELTA_RECURSO_EXCLUSÃO_AGUARDAR_PERÍODO_DE_RETENÇÃO
A remoção <feature>
foi parcialmente bem sucedida.
O recurso agora não é mais usado na versão atual da tabela. No entanto, o recurso
ainda está presente nas versões históricas da tabela. O recurso de tabela não pode ser descartado
do protocolo de tabela até que essas versões históricas tenham expirado.
Para remover o recurso de tabela do protocolo, aguarde que as versões históricas sejam consideradas.
expire e, em seguida, repita este comando. O período de retenção para versões históricas é
atualmente configurado como <logRetentionPeriodKey>=<logRetentionPeriod>
.
Como alternativa, aguarde até que o TRUNCATE HISTORY
período de retenção expire (<truncateHistoryLogRetentionPeriod>
)
e, em seguida, execute:
ALTER TABLE
nome_da_tabelaDROP FEATURE
nome_do_recursoTRUNCATE HISTORY
O recurso DELTA precisa de uma versão de leitor mais alta
Não é possível habilitar o recurso <feature>
de tabela porque ele requer uma versão de protocolo de leitor superior (atual <current>
). Considere atualizar a versão do protocolo de leitor da tabela para <required>
, ou para uma versão que dê suporte aos recursos da tabela de leitores. Consulte <docLink>
para mais informações sobre versões de protocolo de tabela.
RECURSO_DELTA_REQUER_VERSÃO_MAIS_ALTA_DO_ESCRITOR
Não é possível habilitar o recurso <feature>
de tabela porque ele requer uma versão de protocolo de gravador superior (atual <current>
). Considere atualizar a versão do protocolo de gravador da tabela para <required>
ou para uma versão que suporte os recursos de tabela de gravador. Consulte <docLink>
para mais informações sobre versões de protocolo de tabela.
O_ARQUIVO_DELTA_JA_EXISTE
Caminho do arquivo existente <path>
.
Lista de Arquivos Delta e Conflito de String de Padrão
Não é possível especificar a lista de arquivos e a cadeia de caracteres padrão.
ARQUIVO_DELTA_NÃO_ENCONTRADO
Caminho do arquivo <path>
.
ARQUIVO_DELTA_NÃO_ENCONTRADO_DETALHADO
O arquivo <filePath>
referenciado no log de transações não pode ser encontrado. Isso ocorre quando os dados foram excluídos manualmente do sistema de arquivos em vez de usar a instrução table DELETE
. Para obter mais informações, veja <faqPath>
DELTA_ARQUIVO_OU_DIRETÓRIO_NÃO_ENCONTRADO
Nenhum arquivo ou diretório: <path>
.
ARQUIVO_DELTA_A_SER_SUBSTITUÍDO_NÃO_ENCONTRADO
Arquivo (<path>
) a ser reescrito não encontrado entre os arquivos candidatos:
<pathList>
DELTA_FOUND_MAP_TYPE_COLUMN
Um MapType foi encontrado. Para acessar a chave ou o valor de um MapType, especifique um
de:
<key>
ou
<value>
seguido pelo nome da coluna (somente se essa coluna for um tipo de struct).
por exemplo, mymap.key.mykey
Se a coluna for um tipo básico, mymap.key ou mymap.value será suficiente.
Esquema:
<schema>
DELTA_INCOMPATIBILIDADE_TIPO_DADOS_COLUNAS_GERADAS
A coluna <columnName>
tem tipo <columnType>
de dados e não pode ser alterada para o tipo <dataType>
de dados porque essa coluna é referenciada pelas seguintes colunas geradas:
<generatedColumns>
.
ALTERAÇÃO_DE_COLUNA_DEPENDENTE_DE_COLUNAS_GERADAS_DELTA
Não é possível alterar a coluna <columnName>
porque essa coluna é referenciada pelas seguintes colunas geradas:
<generatedColumns>
.
DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH
O tipo de expressão da coluna <columnName>
gerada é <expressionType>
, mas o tipo de coluna é <columnType>
.
MISMATCH_DE_TIPO_DE_ATUALIZAÇÃO_DE_COLUNA_GERADA_DELTA
A coluna <currentName>
é uma coluna gerada ou uma coluna usada por uma coluna gerada. O tipo de dados é <currentDataType>
e não pode ser convertido em tipo <updateDataType>
de dados.
DELTA_GEOSPATIAL_NÃO_SUPORTADO
Não há suporte para tipos geoespaciais nesta versão do Delta Lake.
DELTA_GEOSPATIAL_SRID_NOT_SUPPORTED
O tipo geoespacial tem um srid sem suporte: <srid>
. As tabelas Delta dão suporte apenas a valores srid não negativos.
DELTA_ICEBERG_COMPAT_VIOLATION
A validação do IcebergCompatV<version>
falhou.
Para obter mais detalhes , consulte DELTA_ICEBERG_COMPAT_VIOLATION
DELTA_ICEBERG_WRITER_COMPAT_VIOLATION
Falha na validação do IcebergWriterCompatV<version>
.
Para obter mais detalhes , consulte DELTA_ICEBERG_WRITER_COMPAT_VIOLATION
DELTA_COLUNAS_DE_IDENTIDADE_ALTERAÇÃO_DE_COLUNA_NÃO_SUPORTADA
ALTER TABLE ALTER COLUMN
não é compatível com as colunas IDENTITY
.
COLUNAS_DE_IDENTIDADE_DELTA_ALTERAR_FORMATO_NÃO_DELTA
ALTER TABLE ALTER COLUMN SYNC IDENTITY
só tem suporte da Delta.
COLUNAS_DE_IDENTIDADE_DELTA_ALTERAR_UMA_COLUNA_NÃO_IDENTIDADE
ALTER TABLE ALTER COLUMN SYNC IDENTITY
não pode ser chamado em colunas que não são IDENTITY
.
INSERÇÃO EXPLÍCITA EM COLUNAS DE IDENTIDADE DELTA NÃO SUPORTADA
Não há suporte para fornecer valores para a coluna GENERATED ALWAYS
AS IDENTITY
<colName>
.
DELTA_COLUNAS_DE_IDENTIDADE_PASSO_ILEGAL
IDENTITY
a etapa da coluna não pode ser 0.
COLUNAS_DE_IDENTIDADE_DELTA_FORMATO_NÃO_DELTA
IDENTITY
as colunas só são suportadas pelo Delta.
PARTIÇÃO DE COLUNAS DE IDENTIDADE DO DELTA NÃO SUPORTADA
PARTITIONED BY IDENTITY
não há suporte para a coluna <colName>
.
COLUNAS DE IDENTIDADE DELTA_SUBSTITUIR_COLUNA_NÃO_SUPORTADA
ALTER TABLE REPLACE COLUMNS
não há suporte para tabela com IDENTITY
colunas.
DELTA_COLUNAS_DE_IDENTIDADE_TIPO_DE_DADOS_NÃO_SUPORTADO
O DataType <dataType>
não é suportado para colunas IDENTITY
.
ATUALIZAÇÃO_DE_COLUNAS_DE_IDENTIDADE_DELTA_NÃO_SUPORTADA
UPDATE
na coluna IDENTITY
<colName>
não é suportado.
DELTA_COLUNAS_DE_IDENTIDADE_COM_EXPRESSION_GERADA
IDENTITY
A coluna não pode ser especificada com uma expressão de coluna gerada.
DELTA_ILLEGAL_OPTION (opção ilegal)
Valor inválido '<input>
' para a opção '<name>
', <explain>
DELTA_ILLEGAL_USAGE
O uso de <option>
não é permitido quando <operation>
uma tabela Delta.
DELTA_ESPECIFICAÇÃO_DE_BUCKET_INCONSISTENTE
Especificação de Bucket na tabela Delta com bucket não corresponde à Especificação de Bucket nos metadados. Esperado: <expected>
. Atual: <actual>
.
Configurações Inconsistentes de Logstore Delta
(<setKeys>
) não pode ser definido como valores distintos. Defina apenas um deles ou defina-os com o mesmo valor.
DELTA_INCORRECT_ARRAY_ACCESS
Acessando incorretamente um ArrayType. Usar a posição do elemento arrayname.element.elementname para
adicionar a uma matriz.
DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME
Um ArrayType foi encontrado. Para acessar elementos de um ArrayType, especifique
<rightName>
em vez de<wrongName>
.
Esquema:
<schema>
DELTA_INCORRECT_GET_CONF
Use getConf()
em vez de conf.getConf()
.
IMPLEMENTAÇÃO_INCORRETA_DO_ARMAZENAMENTO_DE_LOG_DELTA
O erro normalmente ocorre quando a implementação padrão do LogStore, que
é, HDFSLogStore, é usado para gravar em uma tabela Delta em um sistema de armazenamento não HDFS.
Para obter as garantias ACID transacionais nas atualizações de tabela, você precisa usar o
implementação correta do LogStore que é apropriada para seu sistema de armazenamento.
Veja <docLink>
para obter detalhes.
ÍNDICE_DELTA_MAIOR_OU_IGUAL_À_ESTRUTURA
O índice <index>
para excluir coluna é igual a ou é maior que o comprimento da estrutura: <length>
.
DELTA_INDEX_MAIOR_QUE_STRUCT
O índice <index>
para adicionar coluna <columnName>
é maior que o comprimento do struct: <length>
.
Inconsistência de Aridade na Inserção de Coluna Delta
Não é possível gravar em '<tableName>
', <columnName>
; a tabela de destino tem <numColumns>
colunas, mas os dados inseridos têm <insertColumns>
colunas.
CONFLITO_DE_COLUNAS_DE_INSERÇÃO_DELTA
A coluna <columnName>
não é especificada em INSERT
.
DELTA_INVALID_AUTO_COMPACT_TYPE
Tipo de compactação automática inválido: <value>
. Os valores permitidos são: <allowed>
.
Contagem de Buckets Inválida - DELTA_INVALID_BUCKET_COUNT
Contagem de bucket inválida: <invalidBucketCount>
. A contagem de buckets deve ser um número positivo, potência de 2, e no mínimo 8. Em alternativa, pode utilizar <validBucketCount>
.
DELTA ÍNDICE DE BALDE INVÁLIDO
Não é possível localizar a coluna "bucket" nas colunas de partição.
DELTA_INTERVALO_DE_CALENDÁRIO_INVÁLIDO_VAZIO
O intervalo não pode ser nulo ou em branco.
Intervalo inválido de CDC Delta
O intervalo CDC do início <start>
ao fim <end>
era inválido. O fim não pode ser antes do início.
DELTA_CARACTERES_INVÁLIDOS_NO_NOME_DA_COLUNA
O nome do atributo "<columnName>
" contém caracteres inválidos entre " ,;{}()\\n\\t="
. Use o alias para renomeá-lo.
DELTA_CARACTERES_INVÁLIDOS_NOS_NOMES_DAS_COLUNAS
Caracteres inválidos encontrados entre ' ,;{}()\n\t='
nos nomes das colunas em seu esquema.
Nomes de coluna inválidos: <invalidColumnNames>
.
Use outros caracteres e tente novamente.
Como alternativa, habilite o Mapeamento de Colunas para continuar usando esses caracteres.
CAMINHO_DE_CLONAGEM_INVÁLIDO_DELTA
O local de destino para CLONE
precisa ser um caminho absoluto ou um nome de tabela. Usar um
caminho absoluto em vez de <path>
.
NOME_DE_COLUNA_DELTA_INVALIDO_AO_REMOVER_MAPEAMENTO_DE_COLUNA
Caracteres inválidos encontrados entre ' ,;{}()\n\t='
nos nomes das colunas em seu esquema.
Nomes de coluna inválidos: <invalidColumnNames>
.
O mapeamento de coluna não pode ser removido quando há caracteres inválidos nos nomes das colunas.
Renomeie as colunas para remover os caracteres inválidos e execute este comando novamente.
DELTA_FORMATO_INVÁLIDO
Formato incompatível detectado.
Um log de transações para Delta foi encontrado em <deltaRootPath>/_delta_log
,
mas você está tentando utilizar <operation> <path>
com o format("<format>
"). Você deve usar
'format("delta")' ao ler e gravar em uma tabela delta.
Para saber mais sobre o Delta, confira <docLink>
DELTA_REFERÊNCIAS_DE_COLUNA_GERADA_INVÁLIDAS
Uma coluna gerada não pode usar uma coluna inexistente ou outra coluna gerada.
OPÇÕES_DE_ESCRITAS_IDEMPOTENTES_INVÁLIDAS
Opções inválidas para gravações de dataframe idempotente: <reason>
INTERVALO_DELTA_INVALIDO
<interval>
não é válido INTERVAL
.
DELTA_ESQUEMA_DE_INVENTARIO_INVÁLIDO
O esquema do especificado INVENTORY
não contém todos os campos necessários. Os campos necessários são: <expectedSchema>
Nível de isolamento inválido DELTA
Nível de isolamento inválido '<isolationLevel>
'.
DELTA_INVALID_LOGSTORE_CONF
(<classConfig>
) e (<schemeConfig>
) não podem ser definidos ao mesmo tempo. Defina apenas um grupo deles.
ERRO_DE_SINTAXE_TABELA_GERENCIADA_DELTA_INVÁLIDA_SEM_ESQUEMA
Você está tentando criar uma tabela gerenciada <tableName>
usando Delta, mas o esquema não é especificado.
Para saber mais sobre o Delta, confira <docLink>
DELTA_COLUNA_INVÁLIDA_DE_PARTIÇÃO
<columnName>
não é uma coluna de partição válida na tabela <tableName>
.
DELTA_NOME_DE_COLUNA_DE_PARTIÇÃO_INVÁLIDO
Colunas de partição encontradas com caracteres inválidos entre " ,;{}()\n\t="
. Altere o nome das suas colunas de partição. Essa verificação pode ser desativada definindo spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false), no entanto, isso não é recomendado, pois outros recursos do Delta podem não funcionar corretamente.
DELTA_INVALID_PARTITION_COLUMN_TYPE (tipo de coluna de partição inválido no Delta)
Não há suporte para usar a coluna <name>
do tipo <dataType>
como uma coluna de partição.
DELTA_CAMINHO_DE_PARTIÇÃO_INVÁLIDO
Um fragmento de caminho de partição deve ser a forma como part1=foo/part2=bar
. O caminho da partição: <path>
.
DEGRADAÇÃO_INVÁLIDA_DE_PROTOCOLO_DELTA
A versão do protocolo não pode ser rebaixada de (<oldProtocol>
) para (<newProtocol>
).
VERSÃO_DE_PROTOCOLO_DELTA_INVÁLIDA
Versão do protocolo Delta sem suporte: a tabela "<tableNameOrPath>
" requer a versão <readerRequired>
do leitor e a versão <writerRequired>
do gravador, mas essa versão do Databricks dá suporte a versões <supportedReaders>
de leitor e versões <supportedWriters>
de gravador. Atualize para uma versão mais recente.
DELTA_FUNCAO_VALOR_TABELA_INVALIDA
A função <function>
é uma função com valor de tabela sem suporte para leituras CDC.
DELTA_FORMATO_DE_TIMESTAMP_INVÁLIDO
O carimbo de data/ <timestamp>
hora fornecido não corresponde à sintaxe <format>
esperada.
LOG_DELTA_JÁ_EXISTE
Um log Delta já existe em <path>
.
Arquivo de log DELTA não encontrado para a fonte de streaming
Se você nunca a excluiu, é provável que sua consulta esteja atrasada. Exclua seu ponto de checagem para reiniciar do zero. Para evitar que isso aconteça novamente, você pode atualizar sua política de retenção da sua tabela Delta.
DELTA_MATERIALIZADO_NOME_DA_COLUNA_DE_RASTREAMENTO_DE_LINHA_AUSENTE
Nome de coluna materializada <rowTrackingColumn>
ausente para <tableName>
.
TAMANHO_MÁXIMO_DO_ARRAY_DELTA_EXCEDIDO
Use um limite menor que Int.MaxValue – 8.
Código de erro: DELTA_MAX_COMMIT_RETRIES_EXCEEDED - Máximo de tentativas de confirmação excedidas.
Esse commit falhou, pois foi tentado <numAttempts>
vezes, mas não teve êxito.
Isso pode ser causado pela tabela Delta ser comprometida continuamente por muitos processos simultâneos.
Comete.
Confirmação iniciada na versão: <startVersion>
Falha no commit na versão: <failVersion>
Número de ações tentadas para cometer: <numActions>
Tempo total gasto tentando esta confirmação: <timeSpent>
ms
DELTA_MAX_LIST_FILE_EXCEEDED - Limite máximo de arquivos na lista excedido
A lista de arquivos deve ter no máximo <maxFileListSize>
entradas; houve <numFiles>
.
DELTA_MERGE_ADICIONAR_COLUNA_NULA
Não é possível adicionar coluna <newColumn>
com o tipo VOID. Especifique explicitamente um tipo não vazio.
DELTA_MERGE_INCOMPATÍVEL_TIPO_DE_DADOS
Falha ao mesclar tipos <currentDataType>
de dados incompatíveis e <updateDataType>
.
TIPO_DECIMAL_INCOMPATÍVEL_DELTA_MERGE
Falha ao combinar tipos decimais que são incompatíveis <decimalRanges>
.
FALHA CONTÍNUA NA MATERIALIZAÇÃO DA FONTE DE MESCLAGEM DELTA
Manter a origem da declaração materializada de forma contínua MERGE
repetidamente falhou.
DELTA_FUSÃO_FALTA_QUANDO
Deve haver pelo menos uma WHEN
cláusula em uma MERGE
declaração.
DELTA_MERGE_RESOLVIDO_ATRIBUTOS_FALTANDO_NA_ENTRADA
Atributos resolvidos <missingAttributes>
ausentes no <input>
do operador <merge>
.
CHAVE_DE_ATRIBUIÇÃO_INESPERADA_DE_DELTA_MERGE
Chave de atribuição inesperada: <unexpectedKeyClass>
- <unexpectedKeyObject>
.
DELTA_MERGE_UNRESOLVED_EXPRESSION
Não é possível resolver <sqlExpr>
em <clause>
determinadas colunas <cols>
.
DELTA_METADADOS_ALTERADOS
MetadataChangedException: os metadados da tabela Delta foram alterados por uma atualização simultânea. Tente a operação novamente.<conflictingCommit>
Consulte <docLink>
para obter mais detalhes.
DADOS_DE_ALTERAÇÃO_OMISSOS_DELTA
Erro ao obter dados de alteração para o intervalo [<startVersion>
, <endVersion>
], pois os dados de alteração não foram encontrados ou não estavam disponíveis.
gravado para a versão [<version>
]. Se você habilitou o feed de dados de mudanças nesta tabela,
use DESCRIBE HISTORY
para ver quando isso foi ativado pela primeira vez.
Caso contrário, para iniciar a gravação de dados de alteração, use ALTER TABLE table_name SET TBLPROPERTIES
(<key>
=true)'.
DELTA_MISSING_COLUMN
Não é possível localizar <columnName>
em colunas de tabela: <columnList>
.
Informação de commit ausente na delta
Esta tabela tem o recurso <featureName>
habilitado que requer a presença da ação CommitInfo em cada confirmação. No entanto, a ação CommitInfo está ausente da versão de confirmação <version>
.
DELTA_MISSING_COMMIT_TIMESTAMP
Esta tabela tem o recurso <featureName>
habilitado que requer a presença de commitTimestamp na ação CommitInfo. No entanto, esse campo não foi definido na versão de confirmação <version>
.
DELTA_TABELA_DELTA_AUSENTE
<tableName>
não é uma tabela Delta.
DELTA_TABELA_DELTA_AUSENTE_COPIAR_EM
A tabela não existe. Crie uma tabela Delta vazia primeiro usando CREATE TABLE <tableName>
.
CLASSE_ICEBERG_PERDIDA_DELTA
A classe iceberg não foi encontrada. Verifique se o suporte do Delta Iceberg está instalado.
Consulte <docLink>
para obter mais detalhes.
Valor de coluna não nulo ausente em DELTA
A coluna <columnName>
, que tem uma NOT NULL
restrição, está ausente dos dados que estão sendo gravados na tabela.
DELTA_COLUNA_DE_PARTIÇÃO_FALTANDO
Coluna de partição <columnName>
não encontrada no esquema <columnList>
.
DELTA_ARQUIVOS_DE_PARTES_FALTANDO
Não foi possível localizar todos os arquivos de parte da versão do ponto de verificação: <version>
.
Provedor faltando para conversão (DELTA_MISSING_PROVIDER_FOR_CONVERT)
CONVERT
TO DELTA
oferece suporte apenas a tabelas parquet. Reescreva seu alvo como parquet.
<path>
caso seja um diretório parquet.
DELTA_MISSING_SET_COLUMN
A coluna SET
não foi encontrada entre as colunas dadas: <columnName>
.
DELTA_LOG_DE_TRANSAÇÃO_AUSENTE
Formato incompatível detectado.
Você está tentando <operation> <path>
usando Delta, mas não há
há um log de transações Verifique o trabalho upstream para ter certeza de que ele está gravando
usando format("delta") e que você está tentando %1$s o caminho base da tabela.
Para saber mais sobre o Delta, confira <docLink>
MODO_DELTA_NÃO_SUPORTADO
Não há suporte para o modo "<mode>
" especificado. Os modos com suporte são: <supportedModes>
.
FRONTEIRA_CDC_MULTIPLO_DELTA
Vários <startingOrEnding>
argumentos fornecidos para leitura CDC. Forneça um dos carimbos de <startingOrEnding>
data/hora ou <startingOrEnding>
versão.
DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER (configuração múltipla de DELTA para uma única coluna no filtro de Bloom)
Várias configurações de índice de filtro Bloom foram passadas para o comando para a coluna: <columnName>
.
MULTIPLAS_LINHAS_DE_FONTE_DELTA_CORRESPONDENTES_A_LINHAS_ALVO_EM_MESCLAR
Não é possível executar o Merge, já que várias linhas de origem corresponderam à mesma linha de destino e tentaram modificá-la na tabela Delta de formas possivelmente conflitantes. Por semântica SQL de Mesclagem, quando várias linhas de origem correspondem à mesma linha de destino, o resultado pode ser ambíguo, pois não está claro qual linha de origem deve ser usada para atualizar ou excluir a linha de destino correspondente. É possível pré-processar a tabela de origem para eliminar a possibilidade de múltiplas correspondências. Consulte
<usageReference>
As this is a technical command, no translation is required beyond formatting or contextual explanatory additions, and maintaining the integrity as a constant or placeholder string is essential. Thus, it stays: DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND
Durante <command>
, ou ambas as configurações de confirmações coordenadas ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview") são definidas no comando, ou nenhuma delas. Ausente: "<configuration>
". Especifique essa configuração na TBLPROPERTIES
cláusula ou remova a outra configuração e repita o comando novamente.
DELTA_DEVE_CONFIGURAR_TODOS_COMPROMISSOS_COORDENADOS_CONFIRMAÇÕES_NA_SESSÃO
Durante <command>
, ou ambas as configurações de coordenador de commits ("coordinatedCommits.commitCoordinator-preview", "coordinatedCommits.commitCoordinatorConf-preview") são definidas nas configurações do SparkSession, ou nenhuma delas. Ausente: "<configuration>
". Defina essa configuração no SparkSession ou desinstale a outra configuração e repita o comando novamente.
CONFLITO_DE_NOME_DELTA_EM_TABELA_EM_BALDEAMENTO
Os nomes de coluna a seguir são reservados exclusivamente para uso interno da tabela Delta particionada: <names>
.
DELTA_CAMPOS_ANINHADOS_PRECISAM_SER_RENOMEADOS
O esquema de entrada contém campos aninhados que são capitalizados de forma diferente da tabela de destino.
Eles precisam ser renomeados para evitar a perda de dados nesses campos durante a gravação no Delta.
Campos:
<fields>
.
Esquema original:
<schema>
Restrição de Não-Nulo Aninhada DELTA
O <nestType>
tipo do campo <parent>
contém uma NOT NULL
restrição. O Delta não dá suporte NOT NULL
a restrições aninhadas em matrizes ou mapas. Para suprimir esse erro e ignorar silenciosamente as restrições especificadas, defina <configKey>
= true.
Tipo analisado <nestType>
:
<nestedPrettyJson>
CONSULTA_SUBORDINADA_ANINHADA_DO_DELTA_NÃO_SUPORTADA
Não há suporte para a subconsulta aninhada na condição <operation>
.
DELTA_NOVO_VIOLAÇÃO_RESTRIÇÃO_DE_VERIFICAÇÃO
<numRows>
as linhas em <tableName>
violam a nova CHECK
restrição (<checkConstraint>
).
VIOLAÇÃO_DELTA_NOVO_NÃO_NULO
<numRows>
as linhas em <tableName>
violam a nova NOT NULL
restrição em <colName>
.
CONSTRANGIMENTO_DE_VERIFICAÇÃO_NÃO_BOOLEANO_DELTA
CHECK
restrição '<name>
' (<expr>
) deve ser uma expressão booliana.
EXPRESSÃO_DELTA_NÃO_DETERMINÍSTICA_EM_COLUNA_GERADA
Encontrado <expr>
. Uma coluna gerada não pode usar uma expressão não determinística.
DELTA_FUNÇÃO_NÃO_DETERMINÍSTICA_NÃO_SUPORTADA (Delta Função Não Determinística Não é Suportada)
Não há suporte para funções não determinísticas no <operation> <expression>
.
DELTA_NÃO_ÚLTIMA_CORRESPONDENTE_CLÁUSULA_OMITIR_CONDIÇÃO
Quando há mais de uma MATCHED
cláusula em uma MERGE
instrução, somente a última MATCHED
cláusula pode omitir a condição.
DELTA_ULTIMO_NÃO_CORRESPONDIDO_POR_CLÁUSULA_FONTE_CONDIÇÃO_OMITIR
Quando há mais de uma NOT MATCHED BY SOURCE
cláusula em uma MERGE
instrução, somente a última NOT MATCHED BY SOURCE
cláusula pode omitir a condição.
Condição_Omitida_Cláusula_Não_Correspondida_Última_DELTA
Quando há mais de uma NOT MATCHED
cláusula em uma MERGE
instrução, somente a última NOT MATCHED
cláusula pode omitir a condição.
DELTA_NON_PARSABLE_TAG
Não foi possível interpretar a marca <tag>
.
As marcas de arquivo são: <tagList>
.
COLUNA_DELTA_NAO_PARTICIONADA_AUSENTE
Os dados gravados no Delta precisam conter pelo menos uma coluna não particionada.<details>
Referência de coluna não particionada DELTA
O predicado faz referência à coluna de não partição '<columnName>
'. Somente as colunas de partição podem ser referenciadas: [<columnList>
].
DELTA_COLUNA_NÃO_PARTICIONADA_ESPECIFICADA
Colunas não particionadas <columnList>
são especificadas em que apenas colunas de particionamento são esperadas: <fragment>
.
ESPAÇO DE NOME NÃO ÚNICO PARA CATÁLOGO DELTA
O catálogo Delta requer um namespace de parte única, mas <identifier>
é de várias partes.
DELTA_NON_UC_COMMIT_COORDENADOR_NÃO_SUPORTADO_NO_COMANDO
Não é suportado definir o coordenador de confirmação como '<nonUcCoordinatorName>
' a partir de um comando, pois as tabelas gerenciadas por UC só podem ter 'unity-catalog' como coordenador de confirmação. Altere para 'unity-catalog' ou remova todas as propriedades da tabela de Commits Coordenados da cláusula TBLPROPERTIES
e tente o comando novamente.
Coordenador de compromisso DELTA_NON_UC não é suportado na sessão
Não há suporte para a configuração do coordenador de confirmação como '<nonUcCoordinatorName>
' das configurações do SparkSession, pois as tabelas gerenciadas por UC só podem ter 'unity-catalog' como coordenador de confirmação. Altere-o para 'unity-catalog' executando spark.conf.set("<coordinatorNameDefaultKey>", "unity-catalog")
ou remova todas as propriedades da tabela commits coordenados das configurações do SparkSession executando spark.conf.unset("<coordinatorNameDefaultKey>")
, spark.conf.unset("<coordinatorConfDefaultKey>")
e spark.conf.unset("<tableConfDefaultKey>")
, e tente o comando novamente.
DELTA_NÃO_É_UMA_TABELA_DELTA_DO_DATABRICKS
<table>
não é uma tabela Delta. Elimine esta tabela primeiro se você quiser criá-la com o Databricks Delta.
DELTA_NOT_A_DELTA_TABLE
<tableName>
não é uma tabela Delta. Exclua esta tabela primeiro se você gostaria de recriá-la com Delta Lake.
COLUNA_DELTA_NOT_NULL_NÃO_ENCONTRADA_NA_ESTRUTURA
Coluna não anulável não encontrada na estrutura: <struct>
.
A VIOLAÇÃO DE CONSTRANGIMENTO DELTA_NOT_NULL
NOT NULL
restrição violada para a coluna: <columnName>
.
Campo Aninhado DELTA Não Nulo
Um campo aninhado não-nullável não pode ser adicionado a um pai anulável. Defina a nulidade da coluna pai adequadamente.
Nenhuma diferença de registro encontrada.
Nenhuma confirmação encontrada em <logPath>
.
DELTA_ERRO_NÃO_HÁ_HISTÓRICO_RECRIÁVEL_ENCONTRADO
Nenhuma confirmação recriatável encontrada em <logPath>
.
As the phrase is unchanged and appears to be a technical identifier, no translation is provided and it remains "DELTA_NO_REDIRECT_RULES_VIOLATED".
Operação não permitida: <operation>
não pode ser executada em uma tabela com recurso de redirecionamento.
As regras de não redirecionamento não estão satisfeitas <noRedirectRules>
.
DELTA_SEM_TABELA_DE_RELAÇÃO
Tabela <tableIdent>
não encontrada.
SEM_INÍCIO_PARA_LEITURA_CDC_DELTA
Nenhum startingVersion ou startingTimestamp fornecido para leitura CDC.
Esquema Nulo Delta na Escrita de Transmissão
Delta não aceita NullTypes no esquema para gravações de streaming.
DELTA_ONEOF_IN_TIMETRAVEL
Forneça 'timestampAsOf' ou 'versionAsOf' para viagem no tempo.
Operação Somente Delta (DELTA_ONLY_OPERATION)
<operation>
só há suporte para tabelas Delta.
OPERACAO_DELTA_CAMINHO_AUSENTE
Forneça o caminho ou o identificador de tabela para <operation>
.
OPERAÇÃO_DELTA_NÃO_PERMITIDA
Operação não permitida: <operation>
não há suporte para tabelas Delta.
OPERAÇÃO_DELTA_NÃO_PERMITIDA_DETALHES
Operação não permitida: <operation>
não há suporte para tabelas Delta: <tableName>
.
OPERAÇÃO_DELTA_NÃO_SUPORTADA_PARA_COLUNA_COM_ORDENAÇÃO
<operation>
não é suportado para coluna <colName>
com ordenamento não padrão <collation>
.
OPERAÇÃO DELTA NÃO SUPORTADA PARA TIPOS DE DADOS
<operation>
não há suporte para tipos de dados: <dataTypeList>
.
OPERAÇÃO_DELTA_NÃO_SUPORTADA_PARA_EXPRESSÃO_COM_COLAÇÃO
<operation>
não há suporte para expressão <exprText>
porque ela usa ordenação não padrão.
OPERAÇÃO_DELTA_SOBRE_VISTA_TEMP_COM_COLUNAS_GERADAS_NÃO_SUPORTADO
<operation>
não há suporte para o comando em uma exibição temporária que se refere a uma tabela Delta que contém colunas geradas. Execute o <operation>
comando diretamente na tabela Delta.
OPERAÇÃO_DELTA_EM_VISTA_NÃO_PERMITIDA
Operação não permitida: <operation>
não pode ser realizada em uma visualização.
DELTA_OTIMIZAR_COMPLETO_NÃO_SUPORTADO
OPTIMIZE FULL
é suportado somente para tabelas clusterizadas com colunas de agrupamento não vazias.
DELTA_OVERWRITE_DEVE_SER_VERDADEIRO
A opção de cópia overwriteSchema não pode ser especificada sem definir OVERWRITE
= 'true'.
DELTA_OVERWRITE_SCHEMA_COM_OVERWRITE_DE_PARTIÇÃO_DINÂMICA
'overwriteSchema' não pode ser usado no modo de substituição de partição dinâmica.
FALHA_NO_CAST_DA_COLUNA_DE_PARTIÇÃO_DELTA
Falha ao converter valor <value>
para <dataType>
para a coluna de partição <columnName>
.
COLUNA_DE_PARTIÇÃO_DELTA_NÃO_ENCONTRADA
Coluna de partição <columnName>
não encontrada no esquema [<schemaMap>
].
Esquema de Partição Delta em Tabelas Iceberg
Não é possível especificar o esquema de partição ao converter tabelas Iceberg. Ele é inferido automaticamente.
O_Caminho_Delta_Não_Existe
<path>
não existe ou não é uma tabela Delta.
CAMINHO_DELTA_EXISTE
Não é possível gravar no caminho <path>
já existente sem definir OVERWRITE
= 'true'.
DELTA_POST_COMMIT_HOOK_FAILED
O comprometimento com a versão <version>
da tabela Delta foi bem-sucedido, mas houve um erro ao executar o hook pós-comprometimento <name> <message>
Protocolo Delta Alterado
ProtocolChangedException: a versão do protocolo da tabela Delta foi alterada por uma atualização simultânea. <additionalInfo> <conflictingCommit>
Consulte <docLink>
para obter mais detalhes.
DELTA_PROTOCOL_PROPERTY_NOT_INT
A propriedade de protocolo <key>
precisa ser um número inteiro. Encontrado <value>
.
Protocolo DE LEITURA DE RECURSOS DELTA REQUER ESCRITA
Não é possível atualizar apenas a versão do protocolo de leitor para usar recursos de tabela. **
A versão do protocolo do gravador deve ser pelo menos <writerVersion>
para continuar. Consulte <docLink>
para mais informações sobre versões de protocolo de tabela.
LEITURA_DE_TABELA_DELTA_SEM_COLUNAS
Você está tentando ler uma tabela <tableName>
Delta que não tem colunas.
Escreva alguns novos dados com a opção mergeSchema = true
para poder ler a tabela.
DELTA_REGEX_OPT_SYNTAX_ERROR
Verifique novamente sua sintaxe para '<regExpOption>
'.
INCOMPATIBILIDADE_DE_CAMINHO_DE_RELAÇÃO_DELTA
O caminho de relação '<relation>
' é incompatível com o caminho de <targetType>
'<targetPath>
'.
DELTA_REPLACE_WHERE_IN_OVERWRITE
Você não pode usar replaceWhere em conjunto com uma substituição por filtro.
DELTA_REPLACE_WHERE_MISMATCH
Os dados escritos não estão em conformidade com a condição ou restrição de sobrescrever tabela parcial '<replaceWhere>
'.
<message>
DELTA_SUBSTITUIR_ONDE_COM_SOBRESCRITA_DE_PARTIÇÃO_DINÂMICA
Uma expressão 'replaceWhere' e 'partitionOverwriteMode'='dynamic' não podem ser definidas nas opções DataFrameWriter.
DELTA_SUBSTITUIR_ONDE_COM_FILTRO_MUDANCA_DE_DADOS_NAO_DEFINIDA
'replaceWhere' não pode ser usado com filtros de dados quando 'dataChange' é definido como false. Filtros: <dataFilters>
.
Atribuição de ID da linha Delta sem estatísticas
Não é possível atribuir IDs de linha sem estatísticas de contagem de linhas.
Collect statistics for the table by running the following code in a Scala notebook and retry:
import com.databricks.sql.transaction.tahoe.DeltaLog
import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection
import org.apache.spark.sql.catalyst.TableIdentifier
val log = DeltaLog.forTable(spark, TableIdentifier(table_name))
StatisticsCollection.recompute(spark, log)
ALTERAÇÃO_NO_ESQUEMA_DELTA
Alteração de esquema detectada:
esquema de origem de streaming: <readSchema>
esquema de arquivo de dados: <dataSchema>
Tente reiniciar a consulta. Se esse problema se repetir em várias reinicializações de consulta sem
fazendo progresso, você fez uma alteração de esquema incompatível e precisa iniciar seu
consulta do zero usando um novo diretório de ponto de verificação.
ESQUEMA_DELTA_ALTERADO_COM_OPÇÕES_INICIAIS
Alteração de esquema detectada na versão <version>
:
esquema de origem de streaming: <readSchema>
esquema de arquivo de dados: <dataSchema>
Tente reiniciar a consulta. Se esse problema se repetir em várias reinicializações de consulta sem
fazendo progresso, você fez uma alteração de esquema incompatível e precisa iniciar seu
consulta do zero usando um novo diretório de ponto de verificação. Se o problema persistir após
alterando para um novo diretório de ponto de verificação, talvez seja necessário alterar o existente
Opção 'startingVersion' ou 'startingTimestamp' para iniciar a partir de uma versão mais recente do que
<version>
com um novo diretório de ponto de verificação.
ESQUEMA_DELTA_ALTERADO_COM_VERSÃO
Alteração de esquema detectada na versão <version>
:
esquema de origem de streaming: <readSchema>
esquema de arquivo de dados: <dataSchema>
Tente reiniciar a consulta. Se esse problema se repetir em várias reinicializações de consulta sem
fazendo progresso, você fez uma alteração de esquema incompatível e precisa iniciar seu
consulta do zero usando um novo diretório de ponto de verificação.
ALTERAÇÃO_NO_ESQUEMA_DELTA_DESDE_A_ANÁLISE
O esquema da sua tabela Delta foi alterado de forma incompatível porque o seu DataFrame
ou o objeto DeltaTable foi criado. Redefina seu objeto DataFrame ou DeltaTable.
Alterações:
<schemaDiff> <legacyFlagMessage>
ESQUEMA_DELTA_NÃO_FORNECIDO
O esquema de tabela não é fornecido. Forneça o esquema (definição de coluna) da tabela ao usar REPLACE
a tabela e uma consulta AS SELECT
não é fornecida.
Esquema Delta não configurado
O esquema de tabela não está definido. Escreva dados nele ou use CREATE TABLE
para definir o esquema.
Incompatibilidade de esquema na definição de localização DELTA
O esquema do novo local Delta é diferente do esquema de tabela atual.
esquema original:
<original>
esquema de destino:
<destination>
Se essa for uma alteração pretendida, você poderá desativar essa verificação executando:
%%sql definir <config>
= verdadeiro
DELTA_SHALLOW_CLONE_FILE_NOT_FOUND (Arquivo Não Encontrado)
O arquivo <filePath>
referenciado no log de transações não pode ser encontrado. Isso pode ocorrer quando os dados foram excluídos manualmente do sistema de arquivos em vez de usar a instrução table DELETE
. Essa tabela parece ser um clone superficial, se esse for o caso, esse erro poderá ocorrer quando a tabela original da qual esta tabela foi clonada tiver excluído um arquivo que o clone ainda está usando. Se você quiser que os clones sejam independentes da tabela original, use um clone profundo.
DELTA_COMPARTILHAMENTO_NÃO_PODE_MODIFICAR_PROPRIEDADE_DE_DESTINATÁRIO_RESERVADA
As propriedades predefinidas que começam com <prefix>
não podem ser modificadas.
PROPRIEDADE_ATUAL_DO_DESTINATÁRIO_DELTA_SHARING_NÃO_DEFINIDA
Os dados são restritos pela propriedade <property>
do destinatário que não se aplica ao destinatário atual na sessão.
Para obter mais detalhes , consulte DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
OPERACAO_INVALIDA_NO_DELTA_COMPARTILHAMENTO_EM_VISAO_COMPARTILHADA_EXTERNA
<operation>
não pode ser usado em exibições do Delta Sharing que são compartilhadas entre contas.
AUTENTICAÇÃO_INVÁLIDA_DO_PROVEDOR_DELTA_COMPARTILHAMENTO
Tipo de autenticação <authenticationType>
ilegal para o provedor <provider>
.
Código de erro: DELTA_SHARING_INVALID_RECIPIENT_AUTH
O tipo de autenticação <authenticationType>
é ilegal para o destinatário <recipient>
.
NOME_DE_OBJETO_DE_DADOS_COMPARTILHADOS_INVÁLIDO_DELTA_SHARING
Nome inválido para fazer referência a um <type>
dentro de um Compartilhamento. Você pode usar o nome do <type>
dentro do compartilhamento seguindo o formato de [schema].[<type>
], ou você também pode usar o nome completo original da tabela seguindo o formato de [catalog].[schema].[>tipo>].
Se você não tiver certeza sobre qual nome usar, poderá executar "SHOW ALL IN SHARE
[compartilhamento]" para localizar o nome do <type>
que deseja remover: a coluna "name" contém o nome do <type>
dentro do compartilhamento, e a coluna "shared_object" contém o nome completo original do <type>
.
DELTA_SHARING_MAXIMUM_RECIPIENT_TOKENS_EXCEDIDO
Existem mais de dois tokens para o destinatário <recipient>
.
PROPRIEDADE_DO_DESTINATÁRIO_DELTA_SHARING_NÃO_ENCONTRADA
A propriedade <property>
do destinatário não existe.
RECIPIENT_TOKENSDELTA_SHARING__NOT_FOUND
Faltam tokens de destinatário para o destinatário <recipient>
.
DELTA_MOSTRAR_PARTIÇÃO_EM_COLUNA_NÃO_PARTICIONADA
Colunas não particionadas <badCols>
são especificadas para SHOW PARTITIONS
.
DELTA_MOSTRAR_PARTIÇÃO_EM_TABELA_NÃO_PARTICIONADA
SHOW PARTITIONS
não é permitido em uma tabela que não é particionada: <tableName>
.
DELTA_SOURCE_IGNORE_DELETE
Detectou-se dados excluídos (por exemplo <removedFile>
) da fonte de dados de streaming na versão <version>
. Não há suporte para esse recurso no momento. Se você quiser ignorar exclusões, defina a opção 'ignoreDeletes' como 'true'. A tabela de origem pode ser encontrada no caminho <dataPath>
.
DELTA_TABELA_FONTE_IGNORAR_ALTERAÇÕES
Detectou uma atualização de dados (por exemplo <file>
) na tabela de origem na versão <version>
. Não há suporte para esse recurso no momento. Se isso acontecer regularmente e você não quiser ignorar as alterações, defina a opção 'skipChangeCommits' como 'true'. Se você quiser que a atualização de dados seja refletida, reinicie essa consulta com um novo diretório de ponto de verificação ou faça uma atualização completa se estiver usando dLT. Se você precisar lidar com essas alterações, mude para MVs. A tabela de origem pode ser encontrada no caminho <dataPath>
.
VERSÃO_INICIAL_DELTA_E_TIMESTAMP_AMBOS_DEFINIDOS
Forneça '<version>
' ou '<timestamp>
'.
Coleta de Estatísticas DELTA: Coluna Não Encontrada
<statsType>
As estatísticas não foram encontradas para a coluna nos metadados Parquet: <columnPath>
.
IMPOSSÍVEL CONTINUAR O PROCESSAMENTO DE STREAMING DELTA APÓS EVOLUÇÃO DE ESQUEMA
Detectamos uma ou mais alterações de esquema não aditivas (<opType>
) entre a versão Delta <previousSchemaChangeVersion>
e <currentSchemaChangeVersion>
na fonte de streaming Delta.
Alterações:
<columnChangeDetails>
Verifique se deseja propagar manualmente as alterações de esquema para a tabela do coletor antes de prosseguirmos com o processamento de fluxo usando o esquema finalizado na versão <currentSchemaChangeVersion>
.
Depois de corrigir o esquema da tabela do coletor ou decidir que não há necessidade de corrigir, você pode definir as seguintes configurações para desbloquear as alterações de esquema não aditivas e continuar o processamento do fluxo.
Usando as opções de leitor de dataframe:
Para desbloquear esse fluxo específico apenas para esta série de alterações de esquema:
<unblockChangeOptions>
Para desbloquear este fluxo específico:
<unblockStreamOptions>
Usando configurações do SQL:
Para desbloquear esse fluxo específico apenas para esta série de alterações de esquema:
<unblockChangeConfs>
Para desbloquear este fluxo específico:
<unblockStreamConfs>
Para desbloquear todos os fluxos:
<unblockAllConfs>
DELTA_STREAMING_VERIFICAR_MAPEAMENTO_DE_COLUNA_SEM_INSTANTÂNEO
Não foi possível obter o instantâneo de log Delta para a versão de início ao verificar as alterações de esquema de mapeamento de coluna. Escolha uma versão inicial diferente ou habilite a leitura de streaming por sua conta e risco definindo '<config>
' como 'true'.
MUDANÇA_DE_ESQUEMA_INCOMPATÍVEL_DELTA_STREAMING
Leitura em streaming não é suportada em tabelas com alterações de esquema que são incompatíveis com leitura (por exemplo, alterações como renomear, remover ou mudar o tipo de dados).
Para obter mais informações e possíveis próximas etapas para resolver esse problema, examine a documentação em <docLink>
Esquema de leitura: <readSchema>
. Esquema de dados incompatível: <incompatibleSchema>
.
ALTERAÇÃO_INCOMPATÍVEL_DE_ESQUEMA_STREAMING_DELTA_USE_SCHEMA_LOG
Leitura em streaming não é suportada em tabelas com alterações de esquema que são incompatíveis com leitura (por exemplo, alterações como renomear, remover ou mudar o tipo de dados).
Forneça um 'schemaTrackingLocation' para habilitar a evolução do esquema não aditivo para o processamento de fluxo Delta.
Confira <docLink>
para obter mais detalhes.
Esquema de leitura: <readSchema>
. Esquema de dados incompatível: <incompatibleSchema>
.
EVOLUÇÃO_METADATA_DELTA_STREAMING
O esquema, a configuração da tabela ou o protocolo da tabela Delta foram alterados durante o streaming.
O log de rastreamento de esquemas ou metadados foi atualizado.
Reinicie o fluxo para continuar o processamento usando os metadados atualizados.
Esquema atualizado: <schema>
.
Configurações de tabela atualizadas: <config>
.
Protocolo de tabela atualizado: <protocol>
EVOLUÇÃO_DE_ESQUEMA_DE_STREAMING_DELTA_FILTRO_DE_LINHA_NÃO_SUPORTADO_COLUMN_MASKS
O streaming da tabela <tableId>
de origem com acompanhamento de esquema não dá suporte a filtros de linha ou máscaras de coluna.
Remova os filtros de linha ou as máscaras de coluna, ou desative o acompanhamento do esquema.
CONFLITO_DE_LOCALIZAÇÃO_DE_ESQUEMA_DE_STREAMING_DELTA
Localização de esquema conflitante detectada '<loc>
' durante o streaming de ou para a tabela localizada em '<table>
'.
Outro fluxo pode estar reutilizando o mesmo local de esquema, o que não é permitido.
Forneça um novo caminho exclusivo schemaTrackingLocation
ou streamingSourceTrackingId
como uma opção de leitor para um dos fluxos desta tabela.
DELTA_STREAMING_SCHEMA_LOCAL_NÃO_ESTÁ_SOB_VERIFICAÇÃO_DE_PONTO_DE_VERIFICAÇÃO
O local do esquema '<schemaTrackingLocation>
' deve ser colocado no local do ponto de verificação '<checkpointLocation>
'.
ERRO_DE_DESSERIALIZAÇÃO_DO_LOG_DE_ESQUEMA_DELTA_STREAMING
Arquivo de log incompleto no esquema da fonte de streaming Delta em '<location>
'.
O log de esquema pode ter sido corrompido. Escolha um novo local de esquema.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATÍVEL_DELTA_TABLE_ID
Detectou-se incompatibilidade no ID da tabela Delta ao tentar ler o fluxo Delta.
ID da tabela persistente: <persistedId>
, ID da tabela: <tableId>
O registro de esquema pode ter sido reutilizado. Escolha um novo local de esquema.
REGISTRO_DE_ESQUEMA_STREAMING_DELTA_SCHEMA_DE_PARTICIONAMENTO_INCOMPATÍVEL
Esquema de partição incompatível detectado ao tentar ler o fluxo Delta.
Esquema persistente: <persistedSchema>
, esquema de partição Delta: <partitionSchema>
Escolha um novo local de esquema para reinicializar o log de esquema se você tiver alterado manualmente o esquema de partição da tabela recentemente.
DELTA_STREAMING_SCHEMA_LOG_INICIALIZAÇÃO_FALHOU_METADADOS_INCOMPATÍVEIS
Não foi possível inicializar o log de esquema de origem de streaming Delta porque
detectamos uma alteração de protocolo ou esquema incompatível ao servir um lote de streaming da versão <a>
da tabela para <b>
.
ERRO_DE_STREAMING_DELTA_SCHEMA_LOG_FALHA_AO_ANALISAR_SCHEMA
Falha ao analisar o esquema do log do esquema da origem de streaming Delta.
O log de esquema pode ter sido corrompido. Escolha um novo local de esquema.
A tabela Delta já contém colunas CDC
Não é possível habilitar o Change Data Capture na tabela. A tabela já contém
colunas reservadas <columnList>
que
ser usado internamente como metadados para o Feed de Dados de Alterações da tabela. Para habilitar
Alterar o Feed de Dados da tabela e renomear/remover essas colunas.
TABELA_DELTA_JÁ_EXISTE
A tabela <tableName>
já existe.
DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF (Configuração Hadoop não suportada para tabela Delta no caminho)
Atualmente, DeltaTable.forPath só dá suporte a chaves de configuração hadoop começando com <allowedPrefixes>
, mas obteve <unsupportedOptions>
.
DELTA_TABLE_ID_MISMATCH
A tabela Delta em <tableLocation>
foi substituída enquanto o comando estava utilizando a tabela.
O ID da tabela era <oldId>
, mas agora é <newId>
.
Tente novamente o comando atual para garantir que ele leia uma exibição consistente da tabela.
TRANSIÇÃO_INVÁLIDA_DO_ESTADO_DE_REDIRECIONAMENTO_DO_DELTA_TABLE
Não é possível atualizar o estado de redirecionamento da tabela: tentativa de transição de estado inválida.
A tabela Delta '<table>
' não pode mudar de '<oldState>
' para '<newState>
'.
TABELA_DELTA_INVALIDA_DEFINIR_DESFAZER_REDIRECIONAMENTO
SET
Não é possível SET
ou <table>
redirecionar a propriedade em <currentProperty>
: a propriedade atual '<newProperty>
' não corresponde à nova propriedade ''.
INCONSISTÊNCIA_DE_LOCALIZAÇÃO_DA_TABELA_DELTA
O local da tabela <tableName>
existente é <existingTableLocation>
. Ele não corresponde ao local <tableLocation>
especificado.
DELTA_TABLE_NOT_FOUND (Tabela Delta não encontrada)
A tabela <tableName>
Delta não existe.
TABELA_DELTA_NÃO_SUPORTADA_NA_OPERAÇÃO
Não há suporte para tabela em <operation>
. Em vez disso, use um caminho.
OPERAÇÃO_APENAS_DE_TABELA_DELTA
<tableName>
não é uma tabela Delta.
<operation>
só há suporte para tabelas Delta.
ESPECIFICAÇÃO DE REDIRECIONAMENTO NÃO RECONHECIDA DA TABELA DELTA
O log Delta contém uma especificação não reconhecida de redirecionamento de tabela '<spec>
'.
ESQUEMA_FINAL_TABELA_ALVO_DELTA_VAZIO
O esquema final da tabela de destino está vazio.
MARCADOR_DE_TEMPO_DELTA_MAIOR_QUE_COMMIT
O carimbo de data/hora fornecido (<providedTimestamp>
) está posterior à versão mais recente disponível para este contexto.
tabela (<tableName>
). Por favor, use uma marca temporal antes ou em <maximumTimestamp>
.
DELTA_TIMESTAMP_INVALID
O carimbo de data/hora fornecido (<expr>
) não pode ser convertido em um carimbo de data/hora válido.
DELTA_VIAGEM_NO_TEMPO_VALOR_INICIAL_INVÁLIDO
<timeTravelKey>
precisa ser um valor inicial válido.
DELTA_MEMÓRIA_DE_LISTAGEM_EXCESSIVA
Falha ao listar arquivos (<numFiles>
) na tabela Delta devido à memória insuficiente. Memória necessária: <estimatedMemory>
, memória disponível: <maxMemory>
.
DELTA_LOG_DE_TRANSACAO_TRUNCADO
<path>
: não é possível reconstruir o estado na versão <version>
, pois o log de transações foi truncado devido à exclusão manual ou à política de retenção de log (<logRetentionKey>=<logRetention>
) e à política de retenção de ponto de verificação (<checkpointRetentionKey>=<checkpointRetention>
).
DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED (Truncar partição de tabela Delta não é suportado)
Operação não permitida: TRUNCATE TABLE
em tabelas Delta não dá suporte a predicados de partição; use DELETE
para excluir partições ou linhas específicas.
DELTA_UDF_IN_GENERATED_COLUMN
Encontrado <udfExpr>
. Uma coluna gerada não pode usar uma função definida pelo usuário.
DELTA_EXPRESSION_DE_AÇÃO_INESPERADA
Expressão de ação inesperada <expression>
.
DELTA_NUMERO_UNEXPECTED_DE_COLUNAS_DE_PARTIÇÃO_DO_NOME_DO_ARQUIVO
Esperando <expectedColsSize>
colunas de partição: <expectedCols>
, mas encontradas <parsedColsSize>
colunas de partição: <parsedCols>
da extração do nome do arquivo: <path>
.
DELTA_ESCANEAMENTO_PARCIAL_INESPERADO
Era esperado uma verificação completa das fontes Delta, mas foi encontrada uma verificação parcial. Caminho: <path>
.
DELTA_COLUNA_DE_PARTIÇÃO_INESPERADA_DO_NOME_DO_ARQUIVO
Esperando a coluna de partição <expectedCol>
, mas encontrou a coluna de partição <parsedCol>
ao analisar o nome do arquivo: <path>
.
DELTA_ESQUEMA_DE_PARTIÇÃO_INESPERADO_DO_USUÁRIO
CONVERT
TO DELTA
foi chamado com um esquema de partição diferente daquele inferido do catálogo; por favor, evite fornecer o esquema, para que o esquema de partição seja escolhido a partir do catálogo.
esquema de partição de catálogo:
<catalogPartitionSchema>
esquema de partição fornecido:
<userPartitionSchema>
DELTA_UNIFORM_LOCAL_DE_COMPATIBILIDADE_NÃO_PODE_SER_ALTERADO
delta.universalFormat.compatibility.location não pode ser alterado.
LOCALIZAÇÃO_DE_COMPATIBILIDADE_DELTA_UNIFORME_NÃO_REGISTRADA
delta.universalFormat.compatibility.location não está registrado no catálogo.
DELTA_UNIFORM_COMPATIBILIDADE_LOCALIZAÇÃO_FALTANDO_OU_INVÁLIDA
Local ausente ou inválido para o formato de compatibilidade uniforme. Defina um diretório vazio para delta.universalFormat.compatibility.location.
Motivo da falha:
Para obter mais detalhes , consulte DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
A leitura de Iceberg com Uniforme Delta falhou.
Para obter mais detalhes , consulte DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
Formato Ambíguo de Entrada DELTA_UNIFORM
Vários formatos de entrada do Uniforme Delta (<formats>
) são encontrados, no máximo um pode ser definido.
DELTA_UNIFORM_INGRESS_NÃO_SUPORTADO
Não há suporte para criar ou atualizar a tabela de ingresso uniforme.
DELTA_UNIFORM_INGRESS_FORMATO_NÃO_SUPORTADO
Formato <fileFormat>
não é suportado. Há suporte apenas para iceberg e hudi como formato de arquivo original.
VIOLAÇÃO_DE_INGRESSO_DELTA_UNIFORME
Falhas de leitura Delta Uniform:
Para obter mais detalhes , consulte DELTA_UNIFORM_INGRESS_VIOLATION
UNIFORME_DELTA_NÃO_SUPORTADO
O Formato Universal só tem suporte em tabelas do Catálogo do Unity.
DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT
REFRESH TABLE
com um argumento inválido:
Para obter mais detalhes , consulte DELTA_UNIFORM_REFRESH_INVALID_ARGUMENT
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
Não há suporte para o identificador REFRESH
de SYNC UNIFORM
devido ao motivo:
Para obter mais detalhes , consulte DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
ATUALIZAÇÃO_UNIFORME_DELTA_NÃO_SUPORTADA_PARA_TABELA_ICEBERG_GERENCIADA_COM_CAMINHO_DE_METADADOS
Não há suporte para REFRESH TABLE
com METADATA_PATH
em tabelas de Iceberg gerenciadas.
DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED
Falha ao converter a versão <version>
da tabela no formato <format>
universal. <message>
VIOLAÇÃO_DO_FORMATO_DELTA_UNIVERSAL_PROPS
Falha na validação do Formato Universal (<format>
) : <violation>
.
CONFIGURAÇÃO_DESCONHECIDA_DELTA
A configuração desconhecida foi especificada: <config>
.
Para desabilitar essa verificação, defina <disableCheckConfig>
=true na configuração de sessão do Spark.
PRIVILÉGIO_DESCONHECIDO_DELTA
Privilégio desconhecido: <privilege>
.
LIMITE_DE_LEITURA_DESCONHECIDO_DELTA
Limite de leitura desconhecido: <limit>
.
ALTERAÇÃO_DE_COLUNA_NÃO_RECONHECIDA_DELTA
Alteração de coluna não reconhecida <otherClass>
. Você pode estar executando uma versão desatualizada do Delta Lake.
DELTA_INVARIANT_NÃO_RECONHECIDO
Invariável não reconhecido. Atualize sua versão do Spark.
DELTA_ARQUIVO_DE_LOG_NÃO_RECONHECIDO
Arquivo de log <filename>
não reconhecido.
DELTA_CANCELAR_PROPRIEDADE_INEXISTENTE
Tentativa de remover a propriedade inexistente '<property>
' na tabela <tableName>
.
DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE
<path>
não dá suporte à adição de arquivos com um caminho absoluto.
ALTERAÇÃO_TABELA_DELTA_NÃO_SUPORTADA_ALTERAR_OP_COL
ALTER TABLE CHANGE COLUMN
não há suporte para alterar a coluna <fieldPath>
de <oldField>
para <newField>
.
DELTA_NÃO_SUPORTADO_ALTERAR_TABELA_SUBSTITUIR_OP_DE_COLUNA
Operação não suportada ALTER TABLE REPLACE COLUMNS
. Motivo: <details>
Falha ao alterar o esquema de:
<oldSchema>
para:
<newSchema>
DELTA_SUBSTITUIÇÃO_DE_CLONAGEM_NÃO_SUPORTADA_MESMA_TABELA
Você tentou alterar uma REPLACE
tabela existente (<tableName>
) com CLONE
. Esta operação é
não suportado Tente um destino diferente para CLONE
ou exclua a tabela no destino atual.
MUDANÇA_MODO_DE_MAPEAMENTO_DE_COLUNA_NÃO_SUPORTADA_DELTA
Não há suporte para alterar o modo de mapeamento de coluna de '<oldMode>
' para '<newMode>
'.
DELTA_OPERAÇÕES_DE_MAPEAMENTO_DE_COLUNAS_NÃO_SUPORTADAS_EM_COLUNAS_COM_ÍNDICE_DE_FILTRO_BLOOM
Falha ao executar a operação de mapeamento de colunas <opName>
na(s) coluna(s) <quotedColumnNames>
porque essas colunas têm índices de filtro Bloom.
Se você deseja realizar a operação de mapeamento nas colunas
com Índices de Filtro Bloom
remova primeiro o Índice(s) de Bloom Filter:
DROP BLOOMFILTER INDEX ON TABLE
nomeDaTabela FOR COLUMNS(<columnNames>
)
Se você quiser remover todos os índices de filtro Bloom na tabela, use:
DROP BLOOMFILTER INDEX ON TABLE
nomeDaTabela
DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL
A versão atual do protocolo de tabela não dá suporte à alteração dos modos de mapeamento de coluna
usando <config>
.
Versão do protocolo Delta necessária para mapeamento de coluna:
<requiredVersion>
A versão atual do protocolo Delta da tabela:
<currentVersion>
<advice>
No improvements are made as it is standard practice to keep technical error codes and identifiers in their original language to maintain consistency and avoid confusion in technical contexts.
A alteração do esquema foi detectada:
esquema antigo:
<oldTableSchema>
novo esquema:
<newTableSchema>
Alterações de esquema não são permitidas durante a alteração do modo de mapeamento de coluna.
Escreva de mapeamento de colunas não suportado_delta
Não há suporte para gravar dados com o modo de mapeamento de coluna.
TIPO_DE_COLUNA_NÃO_SUPORTADO_NO_FILTRO_BLOOM_DELTA
Não há suporte para a criação de um índice de filtro de flores em uma coluna com tipo <dataType>
: <columnName>
.
DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY
Não é possível adicionar um comentário a <fieldPath>
. Não há suporte para adicionar um comentário a um elemento de chave/valor ou matriz de mapa.
DELTA_UNSUPPORTED_DATA_TYPES (TIPOS_DE_DADOS_NÃO_SUPORTADOS)
Colunas encontradas usando tipos de dados sem suporte: <dataTypeList>
. Você pode definir '<config>
' como 'false' para desabilitar a verificação de tipo. Desabilitar essa verificação de tipo pode permitir que os usuários criem tabelas Delta sem suporte e só devem ser usadas ao tentar ler/gravar tabelas herdadas.
DELTA_TIPO_DE_DADO_NÃO_SUPORTADO_EM_COLUNA_GERADA
<dataType>
não pode ser o resultado de uma coluna gerada.
DELTA_CLONE_PROFUNDAMENTE_NÃO_SUPORTADO
Não há suporte para clonagem profunda nesta versão Delta.
DELTA_NÃO_SUPORTADO_DESCREVER_VISUALIZAÇÃO_DETALHADA
<view>
é uma visão.
DESCRIBE DETAIL
só há suporte para tabelas.
DELTA_REMOVER_COLUNA_DE_CLUSTERIZAÇÃO_NÃO_SUPORTADA
A remoção de colunas de clustering (<columnList>
) não é permitida.
DELTA_COLUNA_REMOVER_NÃO_SUPORTADA
DROP COLUMN
não há suporte para sua tabela Delta. <advice>
DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE (DELTA_ERRO_NA_TENTATIVA_DE_REMOVER_UMA_COLUNA_ANINHADA_DE_UM_TIPO_QUE_NÃO_É_STRUCT)
Só é possível remover colunas aninhadas do StructType. Encontrado <struct>
.
DELTA_NÃO_SUPORTADO_EXCLUIR_COLUNA_DE_PARTIÇÃO
A remoção de colunas de partição (<columnList>
) não é permitida.
EXPRESSÃO_NÃO_SUPORTADA_DELTA
Tipo de expressão sem suporte(<expType>
) para <causedBy>
. Os tipos com suporte são [<supportedTypes>
].
DELTA_EXPRESSÃO_NÃO_SUPORTADA_COLUNA_GERADA
<expression>
não pode ser usado em uma coluna gerada.
RECURSOS NÃO SUPORTADOS DO DELTA PARA LEITURA
Recurso de leitura Delta sem suporte: a tabela "<tableNameOrPath>
" requer recursos de tabela de leitor que não têm suporte nesta versão do Databricks: <unsupported>
. Consulte <link>
para obter mais informações sobre a compatibilidade de recursos do Delta Lake.
DELTA_RECURSOS_NÃO_SUPORTADOS_PARA_ESCRITA
Recurso de gravação Delta sem suporte: a tabela "<tableNameOrPath>
" requer recursos de tabela de gravador sem suporte nesta versão do Databricks: <unsupported>
. Consulte <link>
para obter mais informações sobre a compatibilidade de recursos do Delta Lake.
RECURSOS_NÃO_SUPORTADOS_NO_CONFIG
Os recursos de tabela configurados nas seguintes configurações do Spark ou propriedades da tabela Delta não são reconhecidos por esta versão do Databricks: <configs>
.
DELTA_UNSUPPORTED_FEATURE_STATUS (Recurso não suportado)
Esperando que o status do recurso <feature>
de tabela seja "compatível", mas recebeu "<status>
".
ATUALIZAÇÃO DE CAMPO NÃO ESTRUTURADO NÃO SUPORTADO_DELTA
A atualização de campos aninhados só tem suporte para StructType, mas você está tentando atualizar um campo de <columnName>
, que é do tipo: <dataType>
.
DELTA_NÃO_SUPORTA_FSCK_COM_VETORES_DE_EXCLUSÃO
O comando 'FSCK REPAIR TABLE
' não tem suporte em versões de tabela com arquivos de vetor de exclusão ausentes.
Contate a equipe de atendimento ao cliente.
DELETA_NÃO_SUPORTADO_GERAR_COM_VETORES_DELETADOS
O comando 'GENERATE
symlink_format_manifest' não tem suporte em versões de tabela com vetores de exclusão.
Para produzir uma versão da tabela sem vetores de exclusão, execute 'REORG TABLE
table APPLY (PURGE
)'. Em seguida, execute novamente o comando 'GENERATE
'.
Verifique se nenhuma transação simultânea está adicionando vetores de exclusão novamente entre REORG
e GENERATE
.
Se você precisar gerar manifestos regularmente ou não puder impedir transações simultâneas, considere desabilitar vetores de exclusão nesta tabela usando 'ALTER TABLE
table SET TBLPROPERTIES
(delta.enableDeletionVectors = false)'.
DELTA_INVARIANTE_NÃO_SUPORTADO_NÃO_ESTRUTURADO
Não há suporte para invariáveis em campos aninhados que não sejam StructTypes.
DELTA_NÃO_SUPORTADO_EM_SUBCONSULTA
Na condição <operation>
, não há suporte para subconsulta.
DELTA_CHAVES_NÃO_SUPORTADAS_COM_PREFIXO
listKeywithPrefix não está disponível.
GERAÇÃO_DE_MANIFESTO_NÃO_SUPORTADA_DELTA_COM_MAPEAMENTO_DE_COLUNAS
Não há suporte para a geração de manifesto para tabelas que aproveitam o mapeamento de colunas, pois os leitores externos não podem ler essas tabelas Delta. Consulte a documentação da Delta para obter mais detalhes.
EVOlUÇÃO_DE_ESQUEMA_DE_MERGE_NÃO_SUPORTADA_COM_CDC
MERGE INTO
atualmente, as operações com evolução do esquema não oferecem suporte à gravação da saída CDC.
DELTA_UNSUPPORTED_MULTI_COL_EM_PREDICADO
Não há suporte para predicados de várias colunas na <operation>
condição.
FILTRO_BLOOM_COLUNA_ANINHADA_NÃO_SUPORTADA_DELTA
Atualmente, não há suporte para a criação de um índice de filtro de Bloom em uma coluna aninhada: <columnName>
.
DELTA_CAMPO_ANINHADO_NÃO_SUPORTADO_NA_OPERAÇÃO
Não há suporte para o campo aninhado <operation>
(campo = <fieldName>
).
Clonagem não suportada não vazia_delta
A tabela de destino do clone não está vazia. Por favor, TRUNCATE
ou DELETE FROM
a tabela antes de executar CLONE
.
MODO_DE_SAÍDA_NÃO_SUPORTADO_DELTA
A fonte de <dataSource>
dados não dá suporte ao <mode>
modo de saída.
COLUNA_DE_PARTIÇÃO_NÃO_SUPORTADA_EM_FILTRO_DE_BLOOM_DO_DELTA
Não há suporte para a criação de um índice de filtro de flores em uma coluna de particionamento: <columnName>
.
DELTA_RENOMEAR_COLUNA_NÃO_SUPORTADO
Não há suporte para renomeação de coluna para sua tabela Delta. <advice>
Esquema_Desatualizado_Delta_Durante_Leitura
O Delta não dá suporte à especificação do esquema em tempo de leitura.
DELTA_ORDENAÇÃO_NÃO_SUPORTADA_EM_TABELAS_COM_PARTIÇÃO
SORTED BY
não é suportado para tabelas Delta bucketed.
Fonte Delta Não Suportada
<operation>
O destino suporta somente fontes Delta.
<plan>
PARTIÇÕES ESTÁTICAS NÃO-SUPORTADAS DELTA
No momento, não há suporte para especificar partições estáticas na especificação de partição durante as inserções.
DELTA_NOME_DE_ESTRATÉGIA_NÃO_SUPORTADA
Nome da estratégia sem suporte: <strategy>
.
CONSULTA_NÃO_SUPORTADA_DELTA
Não há suporte para subconsultas na <operation>
(condição = <cond>
).
DELTA_SUBCONSULTA_NÃO_SUPORTADA_EM_PREDICADOS_DE_PARTIÇÃO
Não há suporte para subconsultas em predicados de partição.
DELTA_FORMATOS_MÚLTIPLOS_DE_VIAJEM_NO_TEMPO_NÃO_SUPORTADOS
Não se pode especificar viagem no tempo em múltiplos formatos.
VIEWS_DE_VIAJEM_NO_TEMPO_NÃO_SUPORTADOS_DELTA
Não é possível visualizar o tempo de viagem, subconsultas, fluxos ou alterar consultas de feed de dados.
TABELAS_EXEMPLO_TRUNCADAS_NÃO_SUPORTADAS_DELTA
Não há suporte para truncar tabelas de exemplo.
DELTA_TIPO_DE_ALTERAÇÃO_NÃO_SUPORTADA_NO_ESQUEMA
Não é possível operar nesta tabela porque uma alteração de tipo sem suporte foi aplicada. O campo <fieldName>
foi alterado de <fromType>
para <toType>
.
ALTERAÇÃO DE TIPO NÃO SUPORTADA EM COLUNAS COM BLOOM FILTER INDEX DA DELTA
Falha ao alterar o tipo de dados da(s) coluna(s) <quotedColumnNames>
porque essas colunas têm Índices de Filtro Bloom.
Se você quiser alterar o tipo de dados das colunas com índices de filtro Bloom,
remova primeiro o Índice(s) de Bloom Filter:
DROP BLOOMFILTER INDEX ON TABLE
nomeDaTabela FOR COLUMNS(<columnNames>
)
Se você quiser remover todos os índices de filtro Bloom na tabela, use:
DROP BLOOMFILTER INDEX ON TABLE
nomeDaTabela
DELTA_PARTIÇÃO_ESPECÍFICA_NÃO_SUPORTADA_PELA_OPERAÇÃO_DE_LIMPEZA
Forneça o caminho base (<baseDeltaPath>
) ao executar o Vacuum em tabelas Delta. Atualmente, não há suporte para a aspiração de partições específicas.
DELTA_ESCRITAS_NÃO_SUPORTADAS_TABELA_ENCENADA
A implementação da tabela não oferece suporte a gravações: <tableName>
.
GRAVAÇÕES NÃO SUPORTADAS SEM COORDENADOR DELTA
Você está tentando executar gravações em uma tabela que foi registrada com o coordenador de confirmação <coordinatorName>
. No entanto, nenhuma implementação desse coordenador está disponível no ambiente atual e escritas sem coordenadores não são permitidas.
DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES (Tabelas de Amostra de Escrita Não Suportadas)
Não há suporte para gravação em tabelas de exemplo.
EXPRESSÃO_DE_DESCOMPATIBILIDADE_ENTRE_ESQUEMA_DE_ATUALIZAÇÃO_DELTA
Não é possível converter <fromCatalog>
em <toCatalog>
. Todas as colunas aninhadas devem corresponder.
CHECKPOINTS_DELTA_V2_EXIGIDOS_PARA_OPERAÇÃO
CHECKPOINT
A operação requer que os Pontos de Verificação V2 sejam habilitados na tabela.
O_ESTADO_DE_CÓPIA_DE_DELTA_VÁCUO_FALHOU
VACUUM
nos arquivos de dados foi bem-sucedido, mas COPY INTO
a coleta de lixo de estado falhou.
VERSÕES_DELTA_NÃO_CONTÍGUAS
As versões (<versionList>
) não são contíguas.
Uma lacuna no log delta entre versões <startVersion>
e <endVersion>
foi detectada ao tentar carregar a versão <versionToLoad>
.
Para obter mais detalhes , consulte DELTA_VERSIONS_NOT_CONTIGUOUS
VERSÃO_DELTA_INVÁLIDA
A versão fornecida (<version>
) não é uma versão válida.
VIOLAÇÃO_DE_RESTRIÇÃO_DELTA_COM_VALORES
CHECK
restrição <constraintName> <expression>
violada por linha com valores:
<values>
.
If context allows for translation, it could be presented as: "VALIDAÇÃO_DA_PROPRIEDADE_DE_TABELA_DELTA_VIOLADA_FALHOU"
A validação das propriedades da tabela <table>
foi violada:
Para obter mais detalhes , consulte DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
Escrita em DELTA para a exibição não suportada
<viewIdentifier>
é uma visão. Você não pode escrever dados em uma visão.
DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST
A coluna <columnName>
Z-Ordering não existe no esquema de dados.
ORDENAMENTO_DELTA_NO_COLUNA_SEM_ESTATÍSTICAS
A ordenação Z em <cols>
será ineficaz, pois atualmente não coletamos estatísticas para essas colunas. Consulte <link>
para obter mais informações sobre a omissão de dados e o ordenamento Z. Você pode desabilitar essa verificação definindo
SET <zorderColStatKey>
= falso
DELTA_ORDENAÇÃO_Z_EM_COLUNA_DE_PARTIÇÃO
<colName>
é uma coluna de partição. A ordenação Z só pode ser executada em colunas de dados
Compartilhamento Delta
DELTA_SHARING_ACTIVATION_NONCE_INEXISTENTE
SQLSTATE: nenhum estado atribuído
Nonce de ativação não encontrado. O link de ativação usado é inválido ou expirou. Regenerar o link de ativação e tentar novamente.
COMPARTILHAMENTO_DELTA_COMPARTILHAMENTO_ENTRE_REGIÕES_NÃO_SUPORTADO
SQLSTATE: nenhum estado atribuído
Não há suporte para o compartilhamento entre <regionHint>
regiões e regiões fora dele.
OBTENÇÃO_DE_PROPRIEDADES_DO_DESTINATÁRIO_INVALIDO_DELTA_COMPARTILHAMENTO_DEPENDENTE
SQLSTATE: nenhum estado atribuído
A exibição definida com a current_recipient
função é somente para compartilhamento e só pode ser consultada do lado do destinatário de dados. O protegível fornecido com id <securableId>
não é uma Visualização de Compartilhamento Delta.
O tipo mutável de objeto seguro DELTA_SHARING não é suportado.
SQLSTATE: nenhum estado atribuído
O tipo <securableKind>
securável fornecido não suporta alterações no Delta Sharing.
DELTA_SHARING_ROTATE_TOKEN_NÃO_AUTORIZADO_PARA_O_MARKETPLACE
SQLSTATE: nenhum estado atribuído
O tipo <securableKind>
protegível fornecido não dá suporte à ação de rotação do token iniciada pelo serviço do Marketplace.
Tipo de autenticação não disponível
SQLSTATE: nenhum estado atribuído
<dsError>
: tipo de autenticação não disponível na entidade <providerEntity>
do provedor.
DS_CDF_NÃO_ATIVADO
SQLSTATE: nenhum estado atribuído
<dsError>
: não foi possível acessar o fluxo de dados de alteração para <tableName>
. O CDF não está habilitado na tabela delta original para a versão <version>
. Entre em contato com seu provedor de dados.
DS_CDF_NOT_SHARED
SQLSTATE: nenhum estado atribuído
<dsError>
: não foi possível acessar o fluxo de dados de alteração para <tableName>
. O CDF não é compartilhado na tabela. Entre em contato com seu provedor de dados.
DS_CDF_RPC_INVALID_PARAMETER (Parâmetro inválido)
SQLSTATE: nenhum estado atribuído
<dsError>
: <message>
ERRO_DE_AUTENTICAÇÃO_DO_CLIENTE_PARA_BD_SERVIDOR_DS
SQLSTATE: nenhum estado atribuído
<dsError>
: <message>
DS_CLIENT_ERROR_FOR_DB_DS_SERVER - Erro do Cliente para Banco de Dados - Servidor DS
SQLSTATE: nenhum estado atribuído
<dsError>
: <message>
FALHA_NA_TROCA_DE_TOKEN_OAUTH_DO_CLIENTE_DS
SQLSTATE: nenhum estado atribuído
<dsError>
: <message>
DS_CLIENT_OAUTH_TOKEN_EXCHANGE_NÃO_AUTORIZADO
SQLSTATE: nenhum estado atribuído
<dsError>
: <message>
FORNECEDOR_NUVEM_INDISPONÍVEL
SQLSTATE: nenhum estado atribuído
<dsError>
: o fornecedor de nuvem está temporariamente indisponível para <rpcName>
, tente novamente.<traceId>
DS_DATA_MATERIALIZATION_COMMAND_FAILED
SQLSTATE: nenhum estado atribuído
<dsError>
: falha na execução <runId>
da tarefa de materialização de dados da organização <orgId>
no comando <command>
Comando de Materialização de Dados DS não suportado
SQLSTATE: nenhum estado atribuído
<dsError>
: a execução <runId>
da tarefa de materialização de dados da organização <orgId>
não dá suporte ao comando <command>
MATERIALIZAÇÃO DE DADOS NÃO SUPORTADA SEM SERVERLESS
SQLSTATE: nenhum estado atribuído
<dsError>
: <featureName>
não é compatível porque a arquitetura serverless não é suportada ou habilitada no espaço de trabalho do provedor. Entre em contato com seu provedor de dados para habilitar funcionalidades de computação sem servidor.
MATERIALIZAÇÃO_DE_DADOS_SEM_NAMESPACE_VÁLIDO
SQLSTATE: nenhum estado atribuído
<dsError>
: não foi possível encontrar um namespace válido para criar materialização para <tableName>
. Entre em contato com seu provedor de dados para corrigir isso.
Execução da materialização de dados DS_DATA_MATERIALIZATION_RUN_DOES_NOT_EXIST não existe
SQLSTATE: nenhum estado atribuído
<dsError>
: a execução <runId>
da tarefa de materialização de dados da organização <orgId>
não existe
ESTADO_ILLEGAL_DS_DELTA
SQLSTATE: nenhum estado atribuído
<dsError>
: <message>
DS_DELTA_ARQUIVOS_DE_PONTO_DE_VERIFICAÇÃO_AUSENTES
SQLSTATE: nenhum estado atribuído
<dsError>
: não foi possível localizar todos os arquivos parciais do ponto de verificação na versão: <version>
. <suggestion>
DS_DELTA_NULL_POINTER
SQLSTATE: nenhum estado atribuído
<dsError>
: <message>
DS_DELTA_RUNTIME_EXCEPTION
SQLSTATE: nenhum estado atribuído
<dsError>
: <message>
DS_EXPIRE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE (Token expirado não autorizado para o marketplace)
SQLSTATE: nenhum estado atribuído
<dsError>
: o tipo protegível fornecido <securableKind>
não dá suporte à ação de expiração de token iniciada pelo serviço do Marketplace.
FALHA_NO_PEDIDO_PARA_ABRIR_SERVIDOR_DS
SQLSTATE: nenhum estado atribuído
<dsError>
: <message>
DS_SOLICITACAO_FALHOU_PARA_SAP_DS_SERVER
SQLSTATE: nenhum estado atribuído
<dsError>
: <message>
Recurso_DS_apenas_para_Databricks_para_Databricks
SQLSTATE: nenhum estado atribuído
<dsError>
: <feature>
só está habilitado para o compartilhamento Delta entre Databricks e Databricks.
DS_EXCEÇÃO_DE_LISTAGEM_DE_ARQUIVOS
SQLSTATE: nenhum estado atribuído
<dsError>
: <storage>
<message>
Exceção de Assinatura de Arquivo DS
SQLSTATE: nenhum estado atribuído
<dsError>
: <message>
A tradução permanece como "DS_FOREIGN_TABLE_METADATA_REFRESH_FAILED" para manter a consistência técnica.
SQLSTATE: nenhum estado atribuído
<dsError>
: <message>
CONFIGURAÇÃO_HADOOP_NÃO_DEFINIDA
SQLSTATE: nenhum estado atribuído
<dsError>
: <key>
não é definido pelo chamador.
Estado Ilegal
SQLSTATE: nenhum estado atribuído
<dsError>
: <message>
DS_ERRO_INTERNO_DO_SERVIDOR_DB_DS
SQLSTATE: nenhum estado atribuído
<dsError>
: <message>
DS_CAMINHO_AZURE_INVÁLIDO
SQLSTATE: nenhum estado atribuído
<dsError>
: caminho inválido do Azure: <path>
.
Operação de Ação Delta Inválida (DS)
SQLSTATE: nenhum estado atribuído
<dsError>
: <message>
DS_CAMPO_INVÁLIDO
SQLSTATE: nenhum estado atribuído
<dsError>
: <message>
OPERAÇÃO_INVÁLIDA_DO_ITERADOR_DS
SQLSTATE: nenhum estado atribuído
<dsError>
: <message>
DS_VALOR_DE_PARAMETRO_INVALIDO
SQLSTATE: nenhum estado atribuído
<dsError>
: parâmetro inválido para <rpcName>
devido a <cause>
.
DS_INVALIDO_ESPECIFICAÇÃO_DE_PARTIÇÃO
SQLSTATE: nenhum estado atribuído
<dsError>
: <message>
RESPOSTA_INVÁLIDA_DO_SERVIDOR_DS
SQLSTATE: nenhum estado atribuído
<dsError>
: <message>
Erro de materialização da consulta DS
SQLSTATE: nenhum estado atribuído
<dsError>
: falha na consulta para <schema>
.
<table>
de Share <share>
.
DS_MATERIALIZATION_CONSULTA_EXPIRADA
SQLSTATE: nenhum estado atribuído
<dsError>
: a consulta atingiu o tempo limite para <schema>
.
<table>
Compartilhar <share>
após <timeoutInSec>
segundos.
CHAVE_IDEMPOTÊNCIA_AUSENTE
SQLSTATE: nenhum estado atribuído
<dsError>
: A chave de idempotência é necessária ao consultar <schema>
.
<table>
para compartilhar <share>
de forma assíncrona.
Número maior que um de conjuntos de parâmetros RPC
SQLSTATE: nenhum estado atribuído
<dsError>
: forneça apenas um de: <parameters>
.
DS_CONEXÃO_DE_REDE_ENCERRADA
SQLSTATE: nenhum estado atribuído
<dsError>
: conexão de rede para <rpcName>
fechada devido a <errorCause>
, tente novamente.<traceId>
DS_TEMPO_LIMITE_DE_CONEXÃO_DE_REDE
SQLSTATE: nenhum estado atribuído
<dsError>
: tempo limite da conexão de rede para <rpcName>
devido a <errorCause>
, por favor, tente novamente.<traceId>
Erro de Rede (DS_NETWORK_ERROR)
SQLSTATE: nenhum estado atribuído
<dsError>
: erro de rede para <rpcName>
devido a <errorCause>
, por favor, tente novamente.<traceId>
Nenhum metastore atribuído ao repositório de dados
SQLSTATE: nenhum estado atribuído
<dsError>
: Nenhum metastore atribuído ao workspace atual (workspaceId: <workspaceId>
).
Falha na geração do token de identidade da carga de trabalho do OIDC_DS_O2D
SQLSTATE: nenhum estado atribuído
<dsError>
: falha ao gerar token de identidade de carga de trabalho para o provedor OIDC O2D: <message>
.
Incompatibilidade entre Paginação e Argumentos de Consulta
SQLSTATE: nenhum estado atribuído
<dsError>
: incompatibilidade de argumentos de paginação ou consulta.
DS_COLUNAS_DA_PARTIÇÃO_RENOMEADAS
SQLSTATE: nenhum estado atribuído
<dsError>
: coluna de partição [<renamedColumns>
] renomeada na tabela compartilhada. Entre em contato com seu provedor de dados para corrigir isso.
DS_QUERY_BEFORE_START_VERSION
SQLSTATE: nenhum estado atribuído
<dsError>
: você só pode consultar dados da tabela desde a versão <startVersion>
.
Versão final da consulta DS após a versão mais recente
SQLSTATE: nenhum estado atribuído
<dsError>
: a versão final de leitura de dados fornecida (<endVersion>
) é inválida. A versão final não pode ser maior que a versão mais recente da tabela(<latestVersion>
).
DS_QUERY_INICIAR_VERSÃO_APÓS_VERSÃO_MAIS_RECENTE
SQLSTATE: nenhum estado atribuído
<dsError>
: A versão inicial (<startVersion>
) fornecida para leitura de dados é inválida. A versão inicial não pode ser maior que a versão mais recente da tabela(<latestVersion>
).
Tempo_esgotado_de_consulta_no_servidor_DS
SQLSTATE: nenhum estado atribuído
<dsError>
: ocorreu um tempo limite ao processar <queryType>
em <tableName>
após <numActions>
atualizações através de <numIter>
iterações.<progressUpdate> <suggestion> <traceId>
Limite de taxa no servidor DS
SQLSTATE: nenhum estado atribuído
<dsError>
: <message>
DS_RECIPIENT_RPC_PARÂMETRO_INVÁLIDO
SQLSTATE: nenhum estado atribuído
<dsError>
: <message>
Falha na reconfiguração de DS na RPC de escrita UC
SQLSTATE: nenhum estado atribuído
<dsError>
: UC RPC <rpcName>
não foi bem-sucedido, convertendo para INTERNAL_ERROR
.
A tradução não é necessária para o termo técnico "DS_RESOURCE_ALREADY_EXIST_ON_DS_SERVER", pois ele representa um código de erro específico que deve ser mantido em inglês.
SQLSTATE: nenhum estado atribuído
<dsError>
: <message>
DS_RECURSO_EXAURIDO
SQLSTATE: nenhum estado atribuído
<dsError>
: <resource>
excedeu o limite: [<limitSize>
]<suggestion>
.<traceId>
DS_RESOURCE_NOT_FOUND_ON_DS_SERVER
SQLSTATE: nenhum estado atribuído
<dsError>
: <message>
DS_SCHEMA_NAME_CONFLITO_ENCONTRADO
SQLSTATE: nenhum estado atribuído
<dsError>
: o catálogo <catalogName>
já contém nomes de esquema que são encontrados no compartilhamento <shareName>
.
<description>
de nomes de esquema conflitantes: <schemaNamesInCommon>
.
Tempo_de_espera_ds_servidor
SQLSTATE: nenhum estado atribuído
<dsError>
: tempo limite do servidor para <rpcName>
por causa de <errorCause>
, tente novamente.<traceId>
COMPARTILHAMENTO JÁ ANEXADO AO CATÁLOGO
SQLSTATE: nenhum estado atribuído
<dsError>
: o compartilhamento <shareName>
do provedor <providerName>
já está montado no catálogo <catalogName>
.
PERMISSÃO_NÃO_SUPORTADA_DO_GRUPO_DE_TRABALHO_DO_SISTEMA_DS
SQLSTATE: nenhum estado atribuído
Não é possível conceder privilégios ao <securableType>
grupo <principal>
gerado pelo sistema.
DS_VIAJAR_NO_TEMPO_NÃO_PERMITIDO
SQLSTATE: nenhum estado atribuído
<dsError>
: A consulta sobre viagem no tempo não é permitida, a menos que o histórico seja compartilhado em <tableName>
. Entre em contato com seu provedor de dados.
DS_Não Autorizado
SQLSTATE: nenhum estado atribuído
<dsError>
:Desautorizado.
DS_NÃO_AUTORIZADO_D2O_OIDC_DESTINATÁRIO
SQLSTATE: nenhum estado atribuído
<dsError>
: Destinatário não autorizado do OIDC D2O: <message>
.
DS_EXCEÇÃO_DESCONHECIDA
SQLSTATE: nenhum estado atribuído
<dsError>
: <traceId>
DS_UNKNOWN_QUERY_ID
SQLSTATE: nenhum estado atribuído
<dsError>
: Consulta desconhecida ID <queryID>
para <schema>
.
<table>
de Share <share>
.
STATUS_DE_CONSULTA_DESCONHECIDO
SQLSTATE: nenhum estado atribuído
<dsError>
: status de consulta desconhecido para id <queryID>
para <schema>
.
<table>
de Share <share>
.
DS_UNKNOWN_RPC
SQLSTATE: nenhum estado atribuído
<dsError>
: rpc <rpcName>
desconhecido.
Versão de Leitor Delta Não Suportada
SQLSTATE: nenhum estado atribuído
<dsError>
: a versão <tableReaderVersion>
do leitor de protocolo delta é maior que <supportedReaderVersion>
e não pode ter suporte no servidor de compartilhamento delta.
DS_FUNCIONALIDADES_DE_TABELA_DELTA_NÃO_SUPORTADAS
SQLSTATE: nenhum estado atribuído
<dsError>
: os recursos <tableFeatures>
de tabela são encontrados na tabela<versionStr> <historySharingStatusStr> <optionStr>
OPERAÇÃO_NÃO_SUPORTADA_DS
SQLSTATE: nenhum estado atribuído
<dsError>
: <message>
ESQUEMA_DE_ARMAZENAMENTO_NÃO_SUPORTADO
SQLSTATE: nenhum estado atribuído
<dsError>
: esquema de armazenamento sem suporte: <scheme>
.
DS_TIPO_DE_TABELA_NÃO_SUPORTADO
SQLSTATE: nenhum estado atribuído
<dsError>
: não foi possível recuperar <schema>
.
<table>
do Share <share>
porque a tabela com o tipo [<tableType>
] não é suportada em consultas <queryType>
.
ERRO_CONTEXTODOUSUÁRIO_DS
SQLSTATE: nenhum estado atribuído
<dsError>
: <message>
As funções de compartilhamento de visão não são permitidas
SQLSTATE: nenhum estado atribuído
<dsError>
: as seguintes funções <functions>
: não são permitidas na consulta de compartilhamento de exibição.
DS_WORKSPACE_DOMAIN_NÃO_DEFINIDO
SQLSTATE: nenhum estado atribuído
<dsError>
: o domínio do workspace <workspaceId>
não está definido.
O espaço de trabalho DS_WORKSPACE não foi encontrado.
SQLSTATE: nenhum estado atribuído
<dsError>
: workspace <workspaceId>
não foi encontrado.
Carregador Automático
CF_ADD_NEW_NÃO_SUPORTADO
Não há suporte para o modo <addNewColumnsMode>
de evolução do esquema quando o esquema é especificado. Para usar esse modo, você pode fornecer o esquema por meio de cloudFiles.schemaHints
em vez disso.
Erro: Opções de Autenticação Ambíguas CF
Foram encontradas opções de autenticação para configuração de notificação no diretório (padrão)
modo de listagem:
<options>
Se você quiser usar o modo de notificação de arquivo, defina explicitamente:
.option("cloudFiles.<useNotificationsKey>
", "true")
Como alternativa, se você quiser pular a validação de suas opções e ignorá-las
Opções de autenticação, você pode definir:
.option("cloudFiles.ValidateOptionsKey>", "false")
CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR
Modo de listagem incremental (cloudFiles.<useIncrementalListingKey>
)
e notificação de arquivo (cloudFiles.<useNotificationsKey>
)
foram habilitados ao mesmo tempo.
Certifique-se de selecionar apenas um.
CF_AZURE_AUTENTICAÇÃO_OPÇÕES_AUSENTES
Forneça uma credencial de serviço do Databricks ou uma clientId e clientSecret para autenticação com o Azure.
Autenticação do Azure: Múltiplas Opções
Quando uma credencial de serviço do Databricks é fornecida, nenhuma outra opção de credencial (por exemplo, clientId, clientSecret ou connectionString) deve ser fornecida.
CF_AZURE_STORAGE_SUFFIXES_REQUIRED
Exigir adlsBlobSuffix e adlsDfsSuffix para o Azure
CF_INCOMPATIBILIDADE_DE_BUCKET
O <storeType>
no evento de arquivo <fileEvent>
é diferente do esperado pela fonte: <source>
.
CF_NÃO_PODE_EVOLUIR_LOG_DE_ESQUEMA_VAZIO
Não é possível desenvolver o esquema quando o log de esquema está vazio. Local do log de esquema: <logPath>
CF_NÃO_PODE_ANALISAR_MENSAGEM_DA_FILA
Não é possível analisar a seguinte mensagem de fila: <message>
CF_NÃO_PODE_RESOLVER_NOME_DO_CONTÊINER
Não é possível resolver o nome do contêiner do caminho: <path>
, URI resolvido: <uri>
CF_NÃO_PODE_EXECUTAR_LISTAGEM_DE_DIRETÓRIO
Não é possível executar a listagem de diretórios quando há um thread de backfill assíncrono em execução
CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON (Permitir sobreposição em ambas as situações quando ativado)
Não é possível ativar cloudFiles.cleanSource e cloudFiles.allowOverwrites ao mesmo tempo.
CF_CLEAN_SOURCE_NÃO_PODE_MOVER_ARQUIVOS_DENTRO_DO_CAMINHO_FONTE
Não há suporte para mover arquivos para um diretório no caminho do qual está sendo ingerido.
CF_Fonte_Limpa_Não_Habilitada
O CleanSource não foi habilitado para este workspace. Entre em contato com o suporte do Databricks para obter assistência.
CF_FONTE_LIMPA_PERMISSÃO_DE_GRAVAÇÃO_NÃO_AUTORIZADA
O Carregador Automático não pode arquivar arquivos processados porque não tem permissões de gravação no diretório de origem ou no destino de movimentação.
<reason>
Para corrigir, você pode:
Conceder permissões de gravação ao diretório de origem e mover o destino OR
Definir cleanSource como 'OFF'
Você também pode desbloquear seu fluxo definindo o SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors como 'true'.
CF_COLUNA_DUPLICADA_NO_DADOS
Erro ao tentar inferir o esquema de partição da tabela. Você tem a mesma coluna duplicada nos caminhos de dados e de partição. Para ignorar o valor da partição, forneça suas colunas de partição explicitamente usando: .option("cloudFiles.<partitionColumnsKey>", "{comma-separated-list}")
Diretório vazio para inferência de esquema
Não é possível inferir o esquema quando o caminho <path>
de entrada está vazio. Tente iniciar o fluxo quando houver arquivos no caminho de entrada ou especifique o esquema.
CF_EVENT_GRID_AUTH_ERROR (Erro de autenticação na grade de eventos)
Falha ao criar uma assinatura do Event Grid. Certifique-se de que seu serviço
Uma entidade principal tem <permissionType>
assinaturas do Event Grid. Veja mais detalhes em:
<docLink>
FALHA_NA_CRIACAO_DO_GRID_DE_EVENTO_CF
Falha ao criar uma subscrição do Event Grid. Verifique se Microsoft.EventGrid está
registrado como provedor de recursos em sua assinatura. Veja mais detalhes em:
<docLink>
Erro CF_EVENT_GRID_NÃO_ENCONTRADO
Falha ao criar uma assinatura do Event Grid. Verifique se o seu armazenamento
conta (<storageAccount>
) está em seu grupo de recursos (<resourceGroup>
) e que
A conta de armazenamento é uma conta do tipo "StorageV2 (uso geral v2)". Veja mais detalhes em:
<docLink>
Not applicable in this case due to the nature of the text being a technical identifier. If context clarified it meant something more specific to convey in Portuguese, an adaptation would be provided.
Não há suporte para o modo de notificação de evento do Carregador Automático.<cloudStore>
FALHA_AO_VERIFICAR_NOVA_TRANSMISSÃO
Falha ao verificar se o fluxo é novo
Falha ao criar assinatura Pub/Sub (CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION)
Falha ao criar assinatura: <subscriptionName>
. Uma assinatura com o mesmo nome já existe e está associada a outro tópico: <otherTopicName>
. O tópico desejado é <proposedTopicName>
. Exclua a assinatura existente ou crie uma assinatura com um novo sufixo de recurso.
CF_FALHA_AO_CRIAR_TÓPICO_PUBSUB
Falha ao criar o tópico: <topicName>
. Já existe um tópico com o mesmo nome.
<reason>
Remover o tópico existente ou tentar novamente com outro sufixo de recurso
FALHA_AO_DELETAR_NOTIFICAÇÃO_GCP
Falha ao excluir a notificação com a ID <notificationId>
no bucket <bucketName>
para o tópico <topicName>
. Tente novamente ou remova manualmente a notificação por meio do console do GCP.
ERRO_AO_DESSERIALIZAR_ESQUEMA_PERSISTENTE
Falha ao desserializar o esquema persistente da cadeia de caracteres: '<jsonSchema>
'
CF_FALHA_AO_EVOLUIR_ESQUEMA
Não é possível desenvolver o esquema sem um log de esquema.
CF_FALHOU_AO_PROCURAR_PROVEDOR
Falha ao localizar o provedor para <fileFormatInput>
CF_FALHA_AO_DEDUZIR_ESQUEMA
Falha ao inferir o esquema para o formato <fileFormatInput>
de arquivos existentes no caminho <path>
de entrada.
Para obter mais detalhes , consulte CF_FAILED_TO_INFER_SCHEMA
CF_FALHA_AO_ESCREVER_NO_LOG_DE_ESQUEMA
Falha ao gravar o log de esquema na localização <path>
.
Formato de arquivo CF necessário
Não foi possível encontrar a opção necessária: cloudFiles.format.
CF_ENCONTRADO_MÚLTIPLOS_ASSINATURAS_AUTOLOADER_PUBSUB
Foram encontradas várias assinaturas com o prefixo Auto Loader (<num>
) para o tópico <topicName>
:
<subscriptionList>
Deve haver apenas uma assinatura por tópico. Verifique manualmente se o tópico não tem várias assinaturas.
Autenticação_CF_GCP
Forneça todos os seguintes: <clientEmail>
, , <client>
<privateKey>
, <privateKeyId>
ou forneça <serviceCredential>
para usar sua credencial de serviço do Databricks.
Como alternativa, não forneça nenhum deles para usar a cadeia de provedores de credenciais GCP padrão para autenticação com recursos GCP.
CONTAGEM_DE_RÓTULOS_CF_GCP_EXCEDIDA
Recebeu muitos rótulos (<num>
) para o recurso GCP. A contagem máxima de rótulos por recurso é <maxNum>
.
CONTAGEM_DE_TAGS_DE_RECURSOS_DO_GCP_EXCEDIDA
Recebeu muitas marcas de recurso (<num>
) para o recurso GCP. A contagem máxima de marcas de recurso por recurso é <maxNum>
, uma vez que as marcas de recurso são armazenadas como rótulos GCP em recursos, e marcas específicas do Databricks consomem parte dessa cota de rótulo.
Arquivo de log incompleto em esquema de log
Arquivo de log incompleto no log de esquema no caminho <path>
CF_ARQUIVO_DE_METADADOS_INCOMPLETO_NO_CHECKPOINT
Arquivo de metadados incompleto no ponto de verificação do Carregador Automático
Uso de Lote Incorreto_CF
CloudFiles é uma fonte de streaming. Use spark.readStream em vez de spark.read. Para desabilitar essa verificação, defina <cloudFilesFormatValidationEnabled>
como false.
CF_PARÂMETROS_SQL_INCORRETOS
O método cloud_files aceita dois parâmetros de cadeia de caracteres necessários: o caminho a ser carregado e o formato de arquivo. As opções de leitor de arquivo devem ser fornecidas em um mapa chave-valor de cadeia de caracteres. por exemplo, cloud_files("path", "json", map("option1", "value1")). Recebido: <params>
USO_INCORRETO_DE_FLUXO_CF
Para usar 'cloudFiles' como fonte de streaming, forneça o formato de arquivo com a opção 'cloudFiles.format' e use .load() para criar seu DataFrame. Para desabilitar essa verificação, defina <cloudFilesFormatValidationEnabled>
como false.
CF_INTERNAL_ERROR
Erro interno.
Para obter mais detalhes , consulte CF_INTERNAL_ERROR
CF_INVALID_ARN (Identificador de Recurso Amazon inválido)
ARN inválido: <arn>
CF_CERTIFICADO_AZURE_INVÁLIDO
A chave privada fornecida com a opção cloudFiles.certificate não pode ser analisada. Forneça uma chave pública válida no formato PEM.
CF_CHAVE_PRIVADA_CERTIFICADO_AZURE_INVÁLIDA
A chave privada fornecida com a opção cloudFiles.certificatePrivateKey não pode ser analisada. Forneça uma chave privada válida no formato PEM.
CF_PONTO_DE_VERIFICAÇÃO_INVÁLIDO
Esse ponto de verificação não é uma origem válida do CloudFiles
CF_INVALID_CLEAN_SOURCE_MODE
Modo inválido para a opção de origem limpa <value>
.
CF_CHAVE_DE_TAG_DE_RECURSO_GCP_INVÁLIDA
Chave de marca de recurso inválida para o recurso GCP: <key>
. As chaves devem começar com uma letra minúscula, ter entre 1 e 63 caracteres e conter apenas letras minúsculas, números, sublinhados (_) e hifens (-).
VALOR_INVÁLIDO_DE_TAG_DE_RECURSO_GCP
Valor de marca de recurso inválido para o recurso GCP: <value>
. Os valores devem ter entre 0 e 63 caracteres e devem conter apenas letras minúsculas, números, sublinhados (_) e hifens (-).
CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS
O Carregador Automático não dá suporte às seguintes opções quando usado com eventos de arquivo gerenciado:
<optionList>
Recomendamos que você remova essas opções e reinicie o fluxo.
CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
Resposta inválida do serviço de gerenciamento de eventos de arquivo. Entre em contato com o suporte do Databricks para obter assistência.
Para obter mais detalhes , consulte CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
CF_MODO_INVÁLIDO_DE_EVOLUÇÃO_DE_ESQUEMA
cloudFiles.
<schemaEvolutionModeKey>
deve ser um dos
-
<addNewColumns>
-
<failOnNewColumns>
-
<rescue>
-
<noEvolution>
Opção_de_Marcadores_de_Esquema_Inválidos_CF
As dicas de esquema só podem especificar uma coluna específica uma vez.
Nesse caso, redefinindo a coluna: <columnName>
várias vezes em schemaHints:
<schemaHints>
CF_ESQUEMA_INVÁLIDO_DICA_COLUNA
As sugestões de esquema não podem ser usadas para sobrepor os tipos aninhados de mapas e matrizes.
Coluna conflitante: <columnName>
Limite de leitura do último deslocamento CF exigido
LatestOffset deve ser chamado com um ReadLimit nesta origem.
Arquivo de log CF malformado
O arquivo de log foi formatado incorretamente: falhou ao ler a versão correta do log de <fileName>
.
CF_EVENTOS_DE_ARQUIVOS_GERENCIADOS_REABASTECIMENTO_EM_ANDAMENTO
Você solicitou que o Carregador Automático ignorasse os arquivos existentes em seu local externo definindo includeExistingFiles como false. No entanto, o serviço gerenciado de eventos de arquivo ainda está descobrindo arquivos existentes em sua localização externa. Tente novamente depois que os eventos de arquivo gerenciado tiverem concluído a descoberta de todos os arquivos em sua localização externa.
CF_GERENCIADO_ARQUIVO_EVENTOS_ENDPOINT_NÃO_ENCONTRADO
Você está usando o Carregador Automático com eventos de arquivo gerenciado, mas parece que o local externo do caminho de entrada '<path>
' não tem eventos de arquivo habilitados ou o caminho de entrada é inválido. Solicite ao Administrador do Databricks que habilite eventos de arquivo no local externo para o caminho de entrada.
O acesso à permissão CF_MANAGED_FILE_EVENTS_ENDPOINT foi negado
Você está usando o Carregador Automático com eventos de arquivo gerenciado, mas não tem acesso ao local ou volume externo para o caminho de entrada '<path>
' ou o caminho de entrada é inválido. Solicite que o Administrador do Databricks conceda permissões de leitura para o local ou volume externo ou forneça um caminho de entrada válido em um volume ou local externo existente.
CF_MANAGED_FILE_EVENTS_IS_PREVIEW
O Carregador de Arquivos Automático com eventos de arquivos gerenciados é uma funcionalidade em pré-visualização. Para continuar, entre em contato com o Suporte do Databricks ou desative a opção cloudFiles.useManagedFileEvents.
CF_MAX_DEVE_SER_POSITIVO
max deve ser positivo
Arquivo de Metadados CF Usado Simultaneamente
Várias consultas de streaming estão usando simultaneamente <metadataFile>
ERRO_ARQUIVO_DE_METADADOS_AUSENTE_CF
O arquivo de metadados no diretório de ponto de verificação de origem de streaming está ausente. Esses metadados
o arquivo contém opções padrão importantes para o fluxo, portanto, o fluxo não pode ser reiniciado
Agora. Entre em contato com o suporte do Databricks para obter assistência.
CF_MISSING_PARTITION_COLUMN_ERROR
A coluna <columnName>
de partição não existe no esquema fornecido:
<schema>
CF_AUSÊNCIA_DE_ESQUEMA_NO_MODO_SEM_CAMINHO
Especifique um esquema usando .schema() se um caminho não for fornecido para a fonte CloudFiles ao usar o modo de notificação de arquivo. Como alternativa, para ter o Carregador Automático para inferir o esquema, forneça um caminho base em .load().
CF_NOTIFICAÇÕES_PUBSUB_MULTIPLAS_PARA_TÓPICO
Notificações existentes encontradas para tópico <topicName>
no bucket <bucketName>
:
notificação,id
<notificationList>
Para evitar poluir o assinante com eventos não intencionais, exclua as notificações acima e tente novamente.
CF_NEW_PARTITION_ERROR
Novas colunas de partição foram inferidas de seus arquivos: [<filesList>
]. Forneça todas as colunas de partição em seu esquema ou forneça uma lista de colunas de partição para as quais você gostaria de extrair valores usando: .option("cloudFiles.partitionColumns", "{comma-separated-list|empty-string}")
CF_PARTITON_INFERENCE_ERROR
Erro ao tentar inferir o esquema de partição do lote atual de arquivos. Forneça suas colunas de partição explicitamente usando: .option("cloudFiles.<partitionColumnOption>", "{comma-separated-list}"
)
O caminho CF não existe para ler arquivos.
Não é possível ler arquivos quando o caminho <path>
de entrada não existe. Verifique se o caminho de entrada existe e tente novamente.
CF_PERIODIC_BACKFILL_NOT_SUPPORTED (Preenchimento periódico não suportado)
Não há suporte para backfill periódico se o backfill assíncrono estiver desabilitado. Você pode habilitar o preenchimento assíncrono/listagem de diretório definindo spark.databricks.cloudFiles.asyncDirListing
como true.
Erro de prefixo de CF: CF_PREFIX_MISMATCH
Evento incompatível encontrado: a chave <key>
não tem o prefixo: <prefix>
CF_PROTOCOL_MISMATCH
<message>
Se você não precisar fazer outras alterações no código, defina o SQL
configuração: '<sourceProtocolVersionKey> = <value>
'
para retomar sua transmissão. Consulte:
<docLink>
para obter mais detalhes.
ERRO_CF_REGIÃO_NÃO_ENCONTRADA
Não foi possível obter a região padrão do AWS. Especifique uma região usando a opção cloudFiles.region.
SUFIXO_RECURSO_CF_VAZIO
Falha ao criar serviços de notificação: o sufixo de recurso não pode estar vazio.
SUFIXO_RECURSO_INVALIDO_CARACTER_AWS
Falha ao criar serviços de notificação: o sufixo de recurso só pode ter caracteres alfanuméricos, hifens (-) e sublinhados (_).
CARACTERE_INVÁLIDO_NO_SUFIXO_DO_RECURSO_CF_AZURE
Falha ao criar serviços de notificação: o sufixo de recurso só pode ter letra minúscula, número e traço (-).
SUFIXO_DE_RECURSO_CF_CARACTERE_INVÁLIDO_GCP
Falha ao criar serviços de notificação: o sufixo de recurso só pode ter caracteres alfanuméricos, hifens (-), sublinhados (_), períodos (.), blocos (~) sinais de adição (+) e sinais de porcentagem (<percentSign>
).
CF_RESOURCE_SUFFIX_LIMIT
Falha ao criar serviços de notificação: o sufixo de recurso não pode ter mais do que <limit>
caracteres.
CF_RESOURCE_SUFFIX_LIMIT_GCP
Falha ao criar serviços de notificação: o sufixo de recurso deve estar entre os caracteres <lowerLimit>
e <upperLimit>
.
CF_CHAVE_RESTRITA_DE_TAG_DE_RECURSO_GCP
Chave de marca de recurso GCP restrita encontrada (<key>
). As seguintes chaves de marca de recurso GCP são restritas para o Carregador Automático: [<restrictedKeys>
]
CF_RETENTION_GREATER_THAN_MAX_FILE_AGE (Retenção maior que a idade máxima do arquivo)
cloudFiles.cleanSource.retentionDuration não pode ser maior que cloudFiles.maxFileAge.
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
Falha ao criar uma notificação para o tópico: <topic>
com prefixo: <prefix>
. Já existe um tópico com o mesmo nome com outro prefixo: <oldPrefix>
. Tente usar um sufixo de recurso diferente para configurar ou excluir a configuração existente.
Falha no Clone Profundo do Registro de Esquema
Falha ao clonar e migrar quaisquer entradas de log do esquema de origem.
CF_SFTP_SENHA_OU_ARQUIVO_DE_CHAVE_AUSENTE
A senha ou o arquivo de chave devem ser especificados para SFTP.
Especifique a senha no uri de origem ou via <passwordOption>
ou especifique o conteúdo do arquivo de chave por meio de <keyFileOption>
.
CF_SFTP_NOT_ENABLED (SFTP não habilitado)
O acesso a arquivos SFTP não está habilitado. Entre em contato com o suporte do Databricks para obter assistência.
CF_SFTP_REQUIRE_UC_CLUSTER (exigir cluster UC)
Um cluster habilitado para UC é necessário para acessar arquivos SFTP. Entre em contato com o suporte do Databricks para obter assistência.
CF_SFTP_USERNAME_NÃO_ENCONTRADO
O nome de usuário deve ser especificado para SFTP.
Forneça o nome de usuário no URI de origem ou via <option>
.
CF_CAMINHO_DO_DIRETÓRIO_FONTE_REQUERIDO
Forneça o caminho do diretório de origem com a opção path
CF_SOURCE_UNSUPPORTED
A fonte de arquivos de nuvem só dá suporte a caminhos S3, Armazenamento de Blobs do Azure (wasb/wasbs) e Azure Data Lake Gen1 (adl) e Gen2 (abfs/abfss) no momento. caminho: '<path>
', uri resolvido: '<uri>
'
CF_STATE_PARÂMETROS_SQL_INCORRETOS
A função cloud_files_state aceita um parâmetro de string que representa o diretório de ponto de verificação de um fluxo de cloudFiles ou um nome de tabela em várias partes identificando uma tabela de streaming, além de um segundo parâmetro inteiro opcional que representa a versão do ponto de verificação para a qual o estado deve ser carregado. O segundo parâmetro também pode ser 'mais recente' para ler o ponto de verificação mais recente. Recebido: <params>
CF_STATE_INVALID_CHECKPOINT_PATH (Caminho de ponto de verificação inválido)
O caminho <path>
do ponto de verificação de entrada é inválido. O caminho não existe ou não há fontes cloud_files encontradas.
CF_ESTADO_VERSÃO_INVÁLIDA
A versão <version>
especificada não existe ou foi removida durante a análise.
CF_THREAD_MORTO
<threadName>
Thread está morto.
CF_IMPOSSÍVEL_DERIVAR_LOCALIZAÇÃO_DO_PONTO_DE_VERIFICAÇÃO_DO_FLUXO
Não é possível derivar o local do ponto de verificação de fluxo do local do ponto de verificação de origem: <checkPointLocation>
CF_NÃO_FOI_POSSÍVEL_DETECTAR_FORMATO_DO_ARQUIVO
Não é possível detectar o formato do arquivo de origem a partir dos arquivos amostrados <fileSize>
, encontrados <formats>
. Especifique o formato.
CF_INCAPAZ_DE_EXTRAIR_INFORMAÇÃO_DO_BUCKET
Não é possível extrair informações do bucket. Caminho: '<path>
', uri resolvido: '<uri>
'.
CF_UNABLE_TO_EXTRACT_KEY_INFO - Não foi possível extrair informações da chave.
Não é possível extrair informações importantes. Caminho: '<path>
', uri resolvido: '<uri>
'.
CF_NÃO_FOI_POSSÍVEL_EXTRAIR_INFO_CONTA_DE_ARMAZENAMENTO
Não é possível extrair informações da conta de armazenamento; caminho: '<path>
', uri resolvido: '<uri>
'
CF_IMPOSSÍVEL_LISTAR_EFICIENTEMENTE
Recebeu um evento de renomeação de diretório para o caminho <path>
, mas não é possível listar esse diretório com eficiência. Para que o fluxo continue, defina a opção 'cloudFiles.ignoreDirRenames' como true e considere habilitar os backfills regulares com cloudFiles.backfillInterval para que esses dados sejam processados.
CF_UNEXPECTED_READ_LIMIT
ReadLimit inesperado: <readLimit>
ERRO_CHAVES_OPÇÃO_DESCONHECIDAS_CF
Chaves de opção desconhecidas encontradas:
<optionList>
Verifique se todas as chaves de opção fornecidas estão corretas. Se você quiser ignorar o
Para definir a validação de suas opções e ignorar estas opções desconhecidas, você pode:
.option("cloudFiles.<validateOptions>
", "false")
CF_LIMITE_DE_LEITURA_DESCONHECIDO
Limite de Leitura desconhecido: <readLimit>
CF_MOVIMENTO_FONTE_LIMPA_NÃO_SUPORTADO
A configuração do modo 'move' de cleanSource não é suportada.
Para obter mais detalhes , consulte CF_UNSUPPORTED_CLEAN_SOURCE_MOVE
FUNCION_CLOUD_FILES_SQL_NÃO_SUPORTADA_CF
A função SQL 'cloud_files' para criar uma fonte de streaming do Auto Loader tem suporte apenas em os Pipelines Declarativos do Lakeflow. Veja mais detalhes em:
<docLink>
FORMATO NÃO SUPORTADO PARA INFERÊNCIA DE ESQUEMA CF
Não há suporte para inferência de esquema para o formato: <format>
. Especifique o esquema.
CF_VERSÃO_DE_LOG_NÃO_SUPORTADA
UnsupportedLogVersion: a versão máxima de log com suporte é v<maxVersion>
, mas foi encontrada a versão v<version>
. O arquivo de log foi produzido por uma versão mais recente do DBR e não pode ser lido por esta versão. Atualize.
CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE
Não há suporte para o modo de evolução do esquema <mode>
para o formato: <format>
. Defina o modo de evolução do esquema como 'none'.
CF_USE_DELTA_FORMAT
Não há suporte para a leitura de uma tabela Delta com essa sintaxe. Se você quiser consumir dados do Delta, consulte os documentos: leia uma tabela Delta (<deltaDocLink>
) ou leia uma tabela Delta como uma fonte de fluxo (<streamDeltaDocLink>
). A fonte de streaming da Delta já está otimizada para consumo incremental de dados.
Geoespacial
EWKB_PARSE_ERROR
Erro ao analisar EWKB: <parseError>
em posição <pos>
GEOJSON_PARSE_ERROR
Erro ao analisar GeoJSON: <parseError>
em posição <pos>
Para obter mais detalhes , consulte GEOJSON_PARSE_ERROR
Erro de incompatibilidade do GEO_ENCODER_SRID
Falha ao codificar o valor <type>
porque o SRID <valueSrid>
fornecido não corresponde ao tipo SRID do valor a codificar: <typeSrid>
.
H3_ID_DE_CÉLULA_INVÁLIDO
<h3Cell>
não é uma ID de célula H3 válida
Para obter mais detalhes , consulte H3_INVALID_CELL_ID
H3_VALOR_INVÁLIDO_DE_DISTÂNCIA_DE_GRADE
A distância da grade H3 <k>
deve não ser negativa
Para obter mais detalhes , consulte H3_INVALID_GRID_DISTANCE_VALUE
H3_VALOR_DE_RESOLUÇÃO_INVÁLIDO
A resolução <r>
H3 deve estar entre <minR>
e <maxR>
, inclusive
Para obter mais detalhes , consulte H3_INVALID_RESOLUTION_VALUE
H3_NOT_ENABLED
<h3Expression>
está desabilitado ou sem suporte. Considere alternar para uma camada que dá suporte a expressões H3
Para mais detalhes, consulte H3_NOT_ENABLED
H3_PENTAGON_ENCONTROU_ERRO
Um pentágono foi encontrado enquanto se computava o anel hexagonal de <h3Cell>
, com distância de grade <k>
DISTÂNCIA DE GRADE INDEFINIDA H3
A distância da grade H3 entre <h3Cell1>
e <h3Cell2>
é indefinida
ST_VALORES_DIFERENTES_SRID
Os argumentos para "<sqlFunction>
" devem ter o mesmo valor SRID. Valores srid encontrados: <srid1>
, <srid2>
ST_ARGUMENTO_INVÁLIDO
"<sqlFunction>
": <reason>
ST_TIPO_DE_ARGUMENTO_INVÁLIDO
O argumento para "<sqlFunction>
" deve ser do tipo <validTypes>
ST_ERRO_TRANSFORMAÇÃO_CRS_INVÁLIDA
<sqlFunction>
: transformação crs inválida ou sem suporte de SRID <srcSrid>
para SRID <trgSrid>
ST_INVALID_ENDIANNESS_VALUE (Valor de endianidade inválido)
A endianidade '<e>
' deve ser 'NDR' (little-endian) ou 'XDR' (big-endian)
Valor inválido do Geohash (ST_INVALID_GEOHASH_VALUE)
<sqlFunction>
: valor de geohash inválido: '<geohash>
'. Os valores de geohash devem ser cadeias de caracteres base32 minúsculas válidas, conforme descrito em https://en.wikipedia.org/wiki/Geohash#Textual_representation
Valor de Índice Inválido
<sqlFunction>
: índice <index>
inválido para o valor geoespacial fornecido.
ST_VALOR_DE_PRECISÃO_INVÁLIDO
A precisão <p>
deve ser entre <minP>
e <maxP>
, inclusive
VALOR_SRID_INVÁLIDO
SRID inválido ou sem suporte <srid>
ST_NÃO_ATIVADO
<stExpression>
está desabilitado ou sem suporte. Considere alternar para uma camada que dê suporte a expressões ST
ST_TIPO_DE_RETORNO_NÃO_SUPORTADO
Os tipos de dados GEOGRAPHY
e GEOMETRY
não podem ser retornados em consultas. Use uma das seguintes expressões SQL para convertê-las em formatos de intercâmbio padrão: <projectionExprs>
.
WKB_PARSE_ERROR
Erro ao analisar WKB: <parseError>
na posição <pos>
Para obter mais detalhes , consulte WKB_PARSE_ERROR
WKT_PARSE_ERROR
Erro ao analisar WKT: <parseError>
na posição <pos>
Para obter mais detalhes , consulte WKT_PARSE_ERROR
Catálogo do Unity
CONFLITO_DE_NOMES_DE_COLUNAS_ERRO
A coluna <columnName>
entra em conflito com outra coluna com o mesmo nome, mas com/sem espaços em branco à direita (por exemplo, uma coluna existente chamada <columnName>
). Renomeie a coluna com um nome diferente.
CREDENCIAIS_DE_CONEXAO_NAO_SUPORTADAS_PARA_CONEXAO_TABELA_ONLINE
SQLSTATE: nenhum estado atribuído
Solicitação inválida para obter credenciais de nível de conexão para conexão do tipo <connectionType>
. Essas credenciais só estão disponíveis para conexões postgreSQL gerenciadas.
TIPO_DE_CONEXÃO_NÃO_HABILITADO
SQLSTATE: nenhum estado atribuído
O tipo de conexão '<connectionType>
' não está habilitado. Habilite a conexão para usá-la.
DELTA_SHARING_DESTINATÁRIO_SOMENTE_LEITURA_EXISTE
SQLSTATE: nenhum estado atribuído
Já existe um objeto Recipient '<existingRecipientName>
' com o mesmo identificador de compartilhamento '<existingMetastoreId>
'.
COMPARTILHAMENTO_DELTA_SOMENTE_LEITURA_TIPO_SEGURÁVEL
SQLSTATE: nenhum estado atribuído
Os dados de um tipo de compartilhamento Delta <securableKindName>
protegível são somente leitura e não podem ser criados, modificados ou excluídos.
ACESSO_EXTERNO_DESATIVADO_NO_METASTORE
SQLSTATE: nenhum estado atribuído
A distribuição de credenciais é rejeitada para ambientes que não são do Databricks porque o acesso a dados externos foi desabilitado para o metastore <metastoreName>
. Entre em contato com o administrador do metastore para habilitar a configuração de "Acesso a Dados Externos" no metastore.
ACESSO_EXTERNO_NÃO_PERMITIDO_PARA_TABELA
SQLSTATE: nenhum estado atribuído
Tabela com id <tableId>
não pode ser acessada de fora do Ambiente de Computação do Databricks devido ao seu tipo ser <securableKind>
. Somente os tipos de tabela 'TABLE_EXTERNAL
', 'TABLE_DELTA_EXTERNAL
' e 'TABLE_DELTA
' podem ser acessados externamente.
USO_EXTERNO_ESQUEMA_ATRIBUÍDO_A_TIPO_SEGURÁVEL_INCORRETO
SQLSTATE: nenhum estado atribuído
Privilege EXTERNAL
USE SCHEMA
não é aplicável a essa entidade <assignedSecurableType>
e só pode ser atribuído a um esquema ou catálogo. Remova o privilégio do objeto <assignedSecurableType>
e atribua-o a um esquema ou catálogo.
ESCRITA EXTERNA NÃO PERMITIDA PARA TABELA
SQLSTATE: nenhum estado atribuído
Tabela com id <tableId>
não pode ser gravada de fora do Ambiente de Computação do Databricks devido ao seu tipo ser <securableKind>
. Somente os tipos de tabela 'TABLE_EXTERNAL
' e 'TABLE_DELTA_EXTERNAL
' podem ser gravados externamente.
A_RAIZ_DE_ARMAZENAMENTO_DO_CATÁLOGO_ESTRANGEIRO_DEVE_SUPORTAR_ESCRITAS
SQLSTATE: nenhum estado atribuído
O local de armazenamento de um catálogo estrangeiro do tipo <catalogType>
será usado para descarregar dados e não poderá ser somente leitura.
HMS_SECURABLE_OVERLAP_LIMIT_EXCEEDED
SQLSTATE: nenhum estado atribuído
O número de <resourceType>
s para o caminho de entrada <url>
excede o limite permitido (<overlapLimit>
) para sobreposição de HMS <resourceType>
s.
NOME_DO_RECURSO_INVÁLIDO_DELTA_SHARING
SQLSTATE: nenhum estado atribuído
Não há suporte para solicitações de compartilhamento Delta usando nomes de recursos
NOME_RECURSO_ENTIDADE_TIPO_INVÁLIDO
SQLSTATE: nenhum estado atribuído
O nome de recurso fornecido faz referência ao tipo de entidade <provided>
, mas o esperado é <expected>
NOME_DE_RECURSO_INVÁLIDO_METASTORE_ID
SQLSTATE: nenhum estado atribuído
O nome do recurso fornecido faz referência a um metastore que não está no escopo da solicitação atual
SOBREPOSIÇÃO_DE_LOCALIZAÇÃO
SQLSTATE: nenhum estado atribuído
O URL do caminho de entrada '<path>
' se sobrepõe a <overlappingLocation>
dentro da chamada '<caller>
'.
<conflictingSummary>
. <permissionErrorSuggestion>
A_STRING_DE_CONEXÃO_MONGO_DB_SRV_NÃO_PERMITE_PORTA
SQLSTATE: nenhum estado atribuído
A criação ou atualização de uma conexão do MongoDB não é permitida porque a cadeia de conexão SRV do MongoDB não requer porta.
Remova a porta, pois a cadeia de conexão SRV não requer porta.
O ARMAZENAMENTO RAIZ DO CATÁLOGO ESTRANGEIRO DO REDSHIFT DEVE SER NO S3
SQLSTATE: nenhum estado atribuído
A raiz de armazenamento do catálogo estrangeiro do Redshift deve ser AWS S3.
TIPO_DE_SEGURANÇA_NÃO_SUPORTA_FEDERAÇÃO_DE_LAGO_DE_DADOS
SQLSTATE: nenhum estado atribuído
Tipo protegível <securableKind>
não oferece suporte à Federação Lakehouse.
TIPO_DE_SEGURANÇA_NÃO_ATIVADO
SQLSTATE: nenhum estado atribuído
O tipo protegível '<securableKind>
' não está habilitado. Se este for um tipo protegido associado a um recurso de visualização, habilite-o nas configurações do espaço de trabalho.
TIPO_SEGURÁVEL_NÃO_SUPORTA_FEDERAÇÃO_LAKEHOUSE
SQLSTATE: nenhum estado atribuído
Recursos com tipo <securableType>
não são compatíveis com a Federação Lakehouse.
A_CONTAGEM_DE_COLUNAS_DA_TABELA_ORIGEM_EXCEDE_O_LIMITE
SQLSTATE: nenhum estado atribuído
A tabela de origem tem mais do que <columnCount>
colunas. Reduza o número de colunas para <columnLimitation>
ou menos.
UC_AAD_TEMPO_DE_VIDA_DO_TOKEN_MUITO_CURTO
SQLSTATE: nenhum estado atribuído
O tempo de vida do token do AAD substituído está <lifetime>
, o qual está configurado para um período muito curto. Verifique a configuração do Azure AD para garantir que o token de acesso temporário tenha pelo menos uma hora de vida útil. https://learn.microsoft.com/azure/active-directory/develop/active-directory-configurable-token-lifetimes
UC_ABAC_DEPENDENCY_DIFFERING_RF_CM
SQLSTATE: nenhum estado atribuído
A dependência '<dependency>
' é referenciada várias vezes, resultando em diferentes filtros de linhas ABAC ou máscaras de colunas.
UC_ABAC_EVALUATION_ERROR
SQLSTATE: nenhum estado atribuído
Erro ao avaliar as políticas do ABAC em <resource>
.
UC_ABAC_EVALUATION_USER_ERROR
SQLSTATE: nenhum estado atribuído
Erro ao avaliar as políticas do ABAC em '<resource>
'. A política '<policyName>
' falhou com a mensagem: <message>
.
UC_ALTER_DLT_VIEW_OUTSIDE_DEFINING_PIPELINE
SQLSTATE: nenhum estado atribuído
Alterar a exibição '<viewFullName>
' fora do pipeline que a definiu não é permitida. Em vez disso, atualize a definição de exibição do pipeline que a definiu (ID do pipeline: <owningPipelineId>
).
AÇÃO NÃO SUPORTADA PELO UC_AUTHZ
SQLSTATE: nenhum estado atribuído
Não há suporte para autorização <actionName>
; verifique se o RPC invocado foi implementado para esse tipo de recurso
UC_BUILTIN_HMS_CONEXÃO_CRIAÇÃO_PERMISSÃO_NEGADA
SQLSTATE: nenhum estado atribuído
Não é possível criar a conexão para um metastore de hive embutido porque o usuário: <userId>
não é o administrador do espaço de trabalho: <workspaceId>
Conexão HMS modificar campo restrito embutido UC
SQLSTATE: nenhum estado atribuído
Tente modificar um campo restrito na conexão HMS interna '<connectionName>
'. Somente 'warehouse_directory' pode ser atualizado.
NÃO PODE RENOMEAR COLUNA DE FILTRAGEM DE PARTIÇÃO
SQLSTATE: nenhum estado atribuído
Falha ao renomear a coluna <originalLogicalColumn>
da tabela porque ela é usada para filtragem de partição em <sharedTableName>
. Para continuar, você pode remover a tabela do compartilhamento, renomear a coluna e compartilhá-la com as colunas de filtragem de partição desejadas novamente. No entanto, isso pode interromper a consulta de streaming do destinatário.
Criação de UC filhas proibida para clusters não UC
SQLSTATE: nenhum estado atribuído
Não é possível criar <securableType>
'<securable>
' em <parentSecurableType>
'<parentSecurable>
' porque a solicitação não é de um cluster UC.
FALHA_NO_ACESSO_AO_ARMAZENAMENTO_NA_NUVEM
SQLSTATE: nenhum estado atribuído
Falha ao acessar o armazenamento em nuvem: <errMsg>
exceptionTraceId=<exceptionTraceId>
Opções de Conexão em Conflito
SQLSTATE: nenhum estado atribuído
Não é possível criar uma conexão com as opções de autenticação de nome de usuário/senha e oauth. Escolha um.
UC_LIMITE_DE_CREDENCIAIS_DE_CONEXÃO_ATINGIDO
SQLSTATE: nenhum estado atribuído
O número máximo de credenciais para o nome da conexão '<connectionName>
' foi atingido. Exclua as credenciais existentes antes de criar uma nova.
UC_CREDENCIAIS_DE_CONEXÃO_NÃO_EXISTEM_PARA_USUÁRIO_COM_LOGIN
SQLSTATE: nenhum estado atribuído
A credencial para identidade do usuário('<userIdentity>
') não foi encontrada para a conexão '<connectionName>
'. Faça logon primeiro na conexão visitando <connectionPage>
TIPO_DE_CREDENCIAIS_DE_CONEXÃO_NÃO_SUPORTADO
SQLSTATE: nenhum estado atribuído
Não há suporte para a criação de credenciais para o tipo protegível '<securableType>
' . Tipos securizáveis com suporte: <allowedSecurableType>
.
Uma conexão existe para a credencial.
SQLSTATE: nenhum estado atribuído
A credencial '<credentialName>
' tem uma ou mais conexões dependentes. Você pode usar a opção force para continuar a atualizar ou excluir a credencial, mas as conexões que usam essa credencial podem não funcionar mais.
UC_CONEXÃO_TOKEN_DE_ACESSO_EXPIRADO
SQLSTATE: nenhum estado atribuído
O token de acesso associado à conexão expirou. Atualize a conexão para reiniciar o fluxo OAuth para recuperar um token.
Conexão expirada: renove o token
SQLSTATE: nenhum estado atribuído
O token de atualização associado à conexão expirou. Atualize a conexão para reiniciar o fluxo OAuth para recuperar um token novo.
CONEXÃO_UC_EM_ESTADO_FALHADO
SQLSTATE: nenhum estado atribuído
A conexão está no estado FAILED
. Atualize a conexão com credenciais válidas para reativar.
OPÇÃO_UC_CONEXÃO_AUSENTE
SQLSTATE: nenhum estado atribuído
As conexões do tipo protegível '<securableType>
' devem incluir as seguintes opções: <requiredOptions>
.
CONEXÃO_UC_FALTANDO_TOKEN_DE_ATUALIZAÇÃO
SQLSTATE: nenhum estado atribuído
Não há nenhum token de atualização associado à conexão. Atualize a integração do cliente OAuth em seu provedor de identidade para retornar tokens de atualização e atualize ou recrie a conexão para reiniciar o fluxo OAuth e recuperar os tokens necessários.
UC_CONNECTION_OAUTH_EXCHANGE_FAILED (Falha na Troca de OAuth da Conexão UC)
SQLSTATE: nenhum estado atribuído
A troca de tokens OAuth falhou com o código de status HTTP <httpStatus>
. A resposta do servidor retornada ou a mensagem de exceção é: <response>
Opção de conexão UC não suportada
SQLSTATE: nenhum estado atribuído
As conexões do tipo protegível '<securableType>
' não dão suporte às seguintes opções: <optionsNotSupported>
. Opções com suporte: <allowedOptions>
.
UC_COMMITS_COORDENADOS_NÃO_HABILITADOS
SQLSTATE: nenhum estado atribuído
Os suportes para confirmações coordenadas não estão habilitados. Entre em contato com o suporte do Databricks.
CRIAÇÃO_PROIBIDA_EM_SECURÁVEL_INATIVO
SQLSTATE: nenhum estado atribuído
Não é possível criar <securableType>
'<securableName>
' porque ele está em um <parentSecurableType>
'<parentSecurableName>
' que não está ativo. Exclua o protegível pai e recrie o pai.
UC_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED (Falha na Análise do Conector)
SQLSTATE: nenhum estado atribuído
Falha ao analisar a ID do conector de acesso fornecido: <accessConnectorId>
. Verifique sua formatação e tente novamente.
Falha ao obter o token de validação com a credencial UC
SQLSTATE: nenhum estado atribuído
Houve falha ao obter um token do AAD para validar permissões de nuvem em um conector de acesso. Tente novamente a ação.
UC_CREDENCIAL_PERMISSÕES_NUVEM_INVÁLIDAS
SQLSTATE: nenhum estado atribuído
Registrar uma credencial requer a função de colaborador no conector de acesso correspondente com o ID <accessConnectorId>
. Entre em contato com o administrador da sua conta.
UC_CREDENCIAL_TIPO_DE_CREDENCIAL_INVÁLIDO_PARA_FINALIDADE
SQLSTATE: nenhum estado atribuído
Não há suporte para o tipo de credencial '<credentialType>
' para a finalidade '<credentialPurpose>
'
UC_CREDENCIAL_PERMISSÃO_NEGADA
SQLSTATE: nenhum estado atribuído
Somente o administrador da conta pode criar ou atualizar uma credencial com o tipo <storageCredentialType>
.
POLÍTICA_DE_CONFIANÇA_DE_CREDENCIAIS_UC_ESTÁ_ABERTA
SQLSTATE: nenhum estado atribuído
A política de confiança da função IAM para permitir que a Conta do Databricks assuma a função deve exigir um ID externo. Entre em contato com o administrador da conta para adicionar a condição de ID externa. Esse comportamento é para se proteger contra o problema do Deputado Confuso (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html).
UC_CREDENTIAL_UNPRIVILEGED_SERVICE_PRINCIPAL_NOT_SUPPORTED (Credencial UC de Principal de Serviço Sem Privilégios Não Suportada)
SQLSTATE: nenhum estado atribuído
As entidades de serviço não podem usar o CREATE_STORAGE_CREDENTIAL
privilégio para registrar identidades gerenciadas. Para registrar uma identidade gerenciada, atribua à entidade de serviço a função de administrador da conta.
UC_CREDENTIAL_WORKSPACE_API_PROIBIDO
SQLSTATE: nenhum estado atribuído
Não é suportada a criação ou atualização de uma credencial por um administrador que não seja de conta na API em nível de conta. Por favor, use a API no nível do espaço de trabalho.
UC_DBR_VERSÃO_DE_CONFIANÇA_MUITO_ANTIGA
SQLSTATE: nenhum estado atribuído
O Databricks Runtime que está sendo usado não dá mais suporte a essa operação. Use a versão mais recente (talvez seja necessário reiniciar o cluster).
UC_DELTA_UNIVERSAL_FORMAT_NÃO_CONSEGUE_ANALISAR_VERSÃO_ICEBERG
SQLSTATE: nenhum estado atribuído
Não é possível analisar a versão da tabela Iceberg do local de metadados <metadataLocation>
.
UC_DELTA_UNIVERSAL_FORMAT_CONCURRENT_WRITE
SQLSTATE: nenhum estado atribuído
Uma atualização simultânea para a mesma versão de metadados do iceberg foi detectada.
UC_DELTA_FORMATO_UNIVERSAL_LOCALIZAÇÃO_DE_METADADOS_INVÁLIDA
SQLSTATE: nenhum estado atribuído
O local <metadataLocation>
de metadados confirmado é inválido. Não é um subdiretório do diretório <tableRoot>
raiz da tabela.
UC_DELTA_FORMATO_UNIVERSAL_RESTRICAO_CAMPO_AUSENTE
SQLSTATE: nenhum estado atribuído
As informações de conversão de formato de iceberg delta fornecidas estão faltando nos campos necessários.
UC_DELTA_FORMATO_UNIVERSAL_NAO_CRIAR_RESTRICAO
SQLSTATE: nenhum estado atribuído
A configuração de informações de formato iceberg delta durante a criação não é suportada.
Restrição: Formato Universal Delta Muito Grande
SQLSTATE: nenhum estado atribuído
As informações fornecidas sobre a conversão do formato de iceberg delta são excessivamente volumosas.
Atualização de Formato Universal Delta Inválida
SQLSTATE: nenhum estado atribuído
Metadados uniformes só podem ser atualizados em tabelas Delta com o recurso uniform habilitado.
LIMIT_FOR_PROFUNDIDADE_DE_DEPENDÊNCIA_EXCEDIDO
SQLSTATE: nenhum estado atribuído
<resourceType>
A profundidade '<ref>
' excede o limite (ou tem uma referência circular).
DEPENDÊNCIA_UC_NÃO_EXISTE
SQLSTATE: nenhum estado atribuído
<resourceType>
'<ref>
' é inválido porque um dos recursos subjacentes não existe. <cause>
UC_DEPENDENCY_PERMISSION_DENIED (Permissão negada devido a dependência)
SQLSTATE: nenhum estado atribuído
<resourceType>
'<ref>
' não tem privilégio suficiente para ser executado porque o proprietário de um dos recursos subjacentes falhou em uma verificação de autorização. <cause>
UC_CONEXÃO_DUPLICADA
SQLSTATE: nenhum estado atribuído
Já existe uma conexão chamada '<connectionName>
' com a mesma URL. Peça ao proprietário permissão para usar essa conexão em vez de criar uma duplicata.
UC_DUPLICATE_CRIACAO_CATALOGO_TECIDO
SQLSTATE: nenhum estado atribuído
Tentou criar um catálogo do Fabric com a URL '<storageLocation>
' que corresponde a um catálogo existente, o que não é permitido.
Criação de atribuição de tag duplicada
SQLSTATE: nenhum estado atribuído
Atribuição de etiqueta com chave <tagKey>
já existe
A_ENTIDADE_NÃO_TEM_CLUSTER_ONLINE_CORRESPONDENTE
SQLSTATE: nenhum estado atribuído
A entidade <securableType> <entityId>
não tem um cluster online correspondente.
UC_ERROR_CODE_XWYEY
SQLSTATE: nenhum estado atribuído
Se esse problema persistir, entre em contato com o suporte do Databricks com o código de erro #UC-XWYEY
.
UC_EXCEDE_LIMITE_MÁXIMO_DE_ARQUIVOS
SQLSTATE: nenhum estado atribuído
Há mais do que <maxFileResults>
arquivos. Especifique [max_results] para limitar o número de arquivos retornados.
UC_OPERAÇÃO_LOCALIZAÇÃO_EXTERNA_NÃO_PERMITIDA
SQLSTATE: nenhum estado atribuído
Não é possível <opName> <extLoc> <reason>
.
<suggestion>
.
RECURSO_UC_DESATIVADO
SQLSTATE: nenhum estado atribuído
<featureName>
está atualmente desabilitado na UC.
UC_CATALOGO_ESTRANGEIRO_PARA_TIPO_DE_CONEXÃO_NÃO_SUPORTADO
SQLSTATE: nenhum estado atribuído
Não há suporte para a criação de um catálogo estrangeiro para o tipo de conexão '<connectionType>
'. Esse tipo de conexão só pode ser usado para criar pipelines de ingestão gerenciada. Consulte a documentação do Databricks para obter mais informações.
VERIFICAÇÃO_DE_CREDENCIAL_ESTRANGEIRA_APENAS_PARA_OPERAÇÕES_DE_LEITURA
SQLSTATE: nenhum estado atribuído
Somente as credenciais de leitura podem ser recuperadas para tabelas estrangeiras.
UC_FOREIGN_HMS_DIVERGÊNCIA_CLONAGEM_SUPERFICIAL
SQLSTATE: nenhum estado atribuído
A tabela base e a tabela de clones devem estar no mesmo catálogo para clones rasos criados em catálogos metastore de Hive estrangeiros. A tabela base '<baseTableName>
' está no catálogo '<baseCatalogName>
' e a tabela de clone '<cloneTableName>
' está no catálogo '<cloneCatalogName>
'.
Chave_estrangeira_comprimento_coluna_filho_desajuste
SQLSTATE: nenhum estado atribuído
As colunas filhos da chave estrangeira <constraintName>
e as colunas pais são de tamanhos diferentes.
UC_INCOMPATIBILIDADE_COLUNA_CHAVE_ESTRANGEIRA
SQLSTATE: nenhum estado atribuído
As colunas pai da chave estrangeira não correspondem às colunas filho da chave primária a que se referem. As colunas principais da chave estrangeira são (<parentColumns>
) e as colunas secundárias da chave primária são (<primaryKeyChildColumns>
).
Tipo de Coluna de Chave Estrangeira Incompatível
SQLSTATE: nenhum estado atribuído
O tipo de coluna filho de chave estrangeira não corresponde ao tipo de coluna pai. A coluna <childColumnName>
do filho de chave estrangeira tem tipo <childColumnType>
e a coluna <parentColumnName>
do pai tem o tipo <parentColumnType>
.
UC_GCP_INVALID_PRIVATE_KEY
SQLSTATE: nenhum estado atribuído
Acesso negado. Causa: a chave privada da conta de serviço é inválida.
Formato JSON inválido da chave privada no UC_GCP
SQLSTATE: nenhum estado atribuído
A Chave Privada OAuth da Conta do Google Server deve ser um objeto JSON válido com campos necessários, forneça o arquivo JSON completo gerado na seção 'KEYS' da página de detalhes da conta de serviço.
Chave privada inválida no formato JSON do GCP: campos ausentes
SQLSTATE: nenhum estado atribuído
A Chave Privada OAuth da Conta do Google Server deve ser um objeto JSON válido com campos necessários, forneça o arquivo JSON completo gerado na seção 'KEYS' da página de detalhes da conta de serviço. Os campos ausentes são <missingFields>
UC_Função_IAM_Não_Autoassumida
SQLSTATE: nenhum estado atribuído
A função IAM para essa credencial de armazenamento foi considerada não autossutensiosa. Verifique a confiança de sua função e as políticas de IAM para garantir que sua função IAM possa se assumir de acordo com a documentação da credencial de armazenamento do Catálogo do Unity.
Conflito de Commit UC_ICEBERG_COMMIT_CONFLICT
SQLSTATE: nenhum estado atribuído
Não é possível executar <tableName>
: a localização dos metadados em <baseMetadataLocation>
foi alterada de <catalogMetadataLocation>
.
UC_ICEBERG_CONFIRMAR_TABELA_INVÁLIDA
SQLSTATE: nenhum estado atribuído
Não é possível executar a confirmação do Iceberg Gerenciado em uma tabela de Iceberg não Gerenciado: <tableName>
.
UC_ICEBERG_COMMIT_RESTRIÇÃO_CAMPO_AUSENTE
SQLSTATE: nenhum estado atribuído
Estão faltando campos obrigatórios nas informações de confirmação do Iceberg Gerenciado fornecidas.
Incompatibilidade de ID de UC
SQLSTATE: nenhum estado atribuído
O <type> <name>
não tem o ID <wrongId>
. Tente executar a operação novamente.
ACESSO_INVÁLIDO_CONEXÃO_BRICKSTORE_PG
SQLSTATE: nenhum estado atribuído
Acesso inválido à instância do banco de dados. <reason>
UC_ACESSO_INVÁLIDO_DBFS_ENTIDADE
SQLSTATE: nenhum estado atribuído
Acesso inválido de <securableType> <securableName>
no catálogo federado <catalogName>
. <reason>
UC_ID_INVÁLIDO_CONTA_CLOUDFLARE
SQLSTATE: nenhum estado atribuído
ID da conta cloudflare inválida.
UC_INVALID_CREDENTIAL_CLOUD (Credenciais inválidas para nuvem)
SQLSTATE: nenhum estado atribuído
Credencial do provedor de nuvem inválida '<cloud>
'. Provedor de nuvem permitido '<allowedCloud>
'.
UC_INVALID_CREDENTIAL_PURPOSE_VALUE - Valor de propósito de credencial inválido.
SQLSTATE: nenhum estado atribuído
Valor inválido '<value>
' para a 'finalidade' da credencial. Valores permitidos '<allowedValues>
'.
UC_TRANSIÇÃO_INVALIDA_DE_CREDENCIAIS
SQLSTATE: nenhum estado atribuído
Não é possível atualizar uma conexão de <startingCredentialType>
para <endingCredentialType>
. A única transição válida é de uma conexão baseada em nome de usuário/senha para uma conexão baseada em token OAuth.
UC_STRING_CRON_INVÁLIDA_FABRIC
SQLSTATE: nenhum estado atribuído
Sequência cron inválida. Encontrado: '<cronString>
' com exceção de interpretação: '<message>
'
UC_ACESSO_DIRETO_INVÁLIDO_TABELA_GERENCIADA
SQLSTATE: nenhum estado atribuído
Tabela gerenciada de acesso direto <tableName>
inválida. Verifique se a tabela de origem e a definição do pipeline não estão definidas.
UC_LOCALIZAÇÃO_DE_ARMAZENAMENTO_VAZIA_INVÁLIDA
SQLSTATE: nenhum estado atribuído
Local de armazenamento inesperadamente vazio para <securableType>
'<securableName>
' no catálogo '<catalogName>
'. Para corrigir esse erro, execute DESCRIBE SCHEMA <catalogName>
.
<securableName>
e atualize esta página.
UC_ATUALIZAÇÃO_OPÇÕES_INVÁLIDAS
SQLSTATE: nenhum estado atribuído
Opções inválidas fornecidas para atualização. Opções inválidas: <invalidOptions>
. Opções permitidas: <allowedOptions>
.
UC_INVALID_OPTION_VALUE (Valor de opção inválido)
SQLSTATE: nenhum estado atribuído
Valor inválido '<value>
' para '<option>
'. Valores permitidos '<allowedValues>
'.
UC_VALOR_DE_OPÇÃO_INVÁLIDO_VAZIO
SQLSTATE: nenhum estado atribuído
'<option>
' não pode estar vazio. Insira um valor não vazio.
UC_CONDIÇÃO_DE_POLÍTICA_INVÁLIDA
SQLSTATE: nenhum estado atribuído
Condição inválida na política '<policyName>
'. Erro de compilação com a mensagem '<message>
'.
UC_INVALID_R2_ACCESS_KEY_ID (Chave de Acesso R2 Inválida)
SQLSTATE: nenhum estado atribuído
ID da chave de acesso R2 inválida.
UC_INVALID_R2_SECRET_ACCESS_KEY (Chave de Acesso Secreta R2 Inválida)
SQLSTATE: nenhum estado atribuído
Chave de acesso secreta R2 inválida.
UC_ATUALIZAÇÃO_INVÁLIDA_NO_ESPACO_DE_TRABALHO_DO_SISTEMA_GRUPO_DE_ADMINISTRADORES_SEGURÁVEL_PROPRIETÁRIO
SQLSTATE: nenhum estado atribuído
Não é possível atualizar <securableType>
'<securableName>
', pois ele pertence a um grupo interno. Entre em contato com o suporte do Databricks para obter detalhes adicionais.
CREDENCIAL DE ARMAZENAMENTO DE LOCALIZAÇÃO EXTERNA WASBS INVÁLIDA
SQLSTATE: nenhum estado atribuído
Desde que a Credencial <storageCredentialName>
de Armazenamento não esteja associada à Raiz do DBFS, a criação de wasbs Local Externo é proibida.
UC_LOCATION_INVALID_SCHEME (Esquema Inválido de Localização)
SQLSTATE: nenhum estado atribuído
O local de armazenamento tem um esquema de URI inválido: <scheme>
.
UC_MALFORMED_OAUTH_SERVER_RESPONSE (Resposta do servidor OAuth malformada)
SQLSTATE: nenhum estado atribuído
A resposta do servidor de token estava sem o campo <missingField>
. A resposta do servidor retornado é: <response>
UC_METASTORE_STATUS_DE_DISTRIBUIÇÃO_INVÁLIDO
SQLSTATE: nenhum estado atribuído
'<metastoreAssignmentStatus>
' não pode ser atribuído. Somente MANUALLY_ASSIGNABLE
e AUTO_ASSIGNMENT_ENABLED
são suportados.
Certificação da UC_METASTORE não habilitada
SQLSTATE: nenhum estado atribuído
A certificação Metastore não está habilitada.
UC_METASTORE_DB_MAPEAMENTO_DE_FRAGMENTO_NÃO_ENCONTRADO
SQLSTATE: nenhum estado atribuído
Falha ao recuperar um metastore para o mapeamento de fragmentos de banco de dados para a ID <metastoreId>
do Metastore devido a um erro interno. Entre em contato com o suporte do Databricks.
UC_METASTORE_TÊM_CATÁLOGOS_ONLINE_GERENCIADOS_ATIVOS
SQLSTATE: nenhum estado atribuído
O metastore <metastoreId>
tem <numberManagedOnlineCatalogs>
catálogos administrados online. Exclua-os explicitamente e tente novamente a exclusão do metastore.
UC_METASTORE_STORAGE_ROOT_CREDENTIAL_UPDATE_INVALID
SQLSTATE: nenhum estado atribuído
A credencial raiz do metastore não pode ser definida ao atualizar o local raiz do metastore. A credencial será obtida do local externo principal do metastore.
UC_METALOJA_ARMAZENAMENTO_RAIZ_EXCLUSÃO_INVÁLIDO
SQLSTATE: nenhum estado atribuído
A tentativa de exclusão do local raiz do armazenamento do metastore falhou. <reason>
UC_METASTORE_STORAGE_ROOT_LEITURA_SOMENTE_INVÁLIDO
SQLSTATE: nenhum estado atribuído
A raiz <securableType>
de um metastore não pode ser configurada como somente leitura.
UC_ATUALIZAÇÃO_INVÁLIDA_DO_METASTORE_STORAGE_ROOT
SQLSTATE: nenhum estado atribuído
A raiz de armazenamento do Metastore não pode ser atualizada depois de definida.
UC_MODEL_INVALID_STATE (Estado inválido do modelo de UC)
SQLSTATE: nenhum estado atribuído
Não é possível gerar credenciais temporárias '<opName>
' para a versão <modelVersion>
do modelo com status <modelVersionStatus>
. As credenciais '<opName>
' só podem ser geradas para versões de modelo com status <validStatus>
UC_NO_ORG_ID_IN_CONTEXT
SQLSTATE: nenhum estado atribuído
Tentou acessar a ID de organização (ou ID de espaço de trabalho), mas o contexto não contém nenhuma.
CATÁLOGO_ONLINE_NÃO_MUTÁVEL
SQLSTATE: nenhum estado atribuído
A solicitação <rpcName>
atualiza <fieldName>
. Use a aba de cálculo da loja online para modificar qualquer coisa, exceto comentário, proprietário e isolationMode de um catálogo online.
UC_ONLINE_CATALOG_QUOTA_EXCEEDED (COTA_DO_CATÁLOGO_ONLINE_ULTRAPASSADA)
SQLSTATE: nenhum estado atribuído
Não é possível criar mais do que <quota>
lojas online no metastore e já <currentCount>
existe. Talvez você não tenha acesso a lojas online existentes. Entre em contato com o administrador do metastore para obter acesso ou para obter mais instruções.
UC_ONLINE_INDEX_CATALOG_CRUD_INVÁLIDO
SQLSTATE: nenhum estado atribuído
os catálogos de índice online devem ser <action>
por meio da API /vector-search.
UC_ONLINE_INDEX_CATALOG_NOT_MUTABLE (Catálogo de Índice Online não Mutável)
SQLSTATE: nenhum estado atribuído
A solicitação <rpcName>
atualiza <fieldName>
. Use a API /vector-search para modificar qualquer coisa que não seja comentário, proprietário e isolationMode de um catálogo de índices online.
UC_ONLINE_INDEX_CATALOG_QUOTA_EXCEDIDA
SQLSTATE: nenhum estado atribuído
Não é possível criar mais do que <quota>
catálogos de índice online no metastore, e já existem <currentCount>
. Talvez você não tenha acesso a nenhum catálogo de índice online existente. Entre em contato com o administrador do metastore para obter acesso ou para obter mais instruções.
Índice online inválido de CRUD UC
SQLSTATE: nenhum estado atribuído
os índices online devem ser <action>
por meio da API /vector-search.
UC_LOJA_ONLINE_CRUD_INVÁLIDO
SQLSTATE: nenhum estado atribuído
as lojas online devem ser <action>
por meio da aba de cálculo da loja online.
NOME_DA_COLUNA_DA_TABELA_ONLINE_MUITO_LONGO
SQLSTATE: nenhum estado atribuído
O nome <columnName>
da coluna da tabela de origem é muito longo. O comprimento máximo é <maxLength>
de caracteres.
UC_ONLINE_TABELA_CHAVE_PRIMÁRIA_COLUNA_NÃO_NA_FONTE_TABELA_RESTRIÇÃO_CHAVE_PRIMÁRIA
SQLSTATE: nenhum estado atribuído
A coluna <columnName>
não pode ser usada como uma coluna de chave primária da tabela online porque não faz parte da restrição existente PRIMARY KEY
da tabela de origem. Para obter detalhes, consulte <docLink>
CHAVE_DA_SÉRIE_TEMPORAL_NÃO_PRESENTE_NA_TABELA_FONTE_COM_RESTRIÇÃO_DE_CHAVE_PRIMÁRIA
SQLSTATE: nenhum estado atribuído
A coluna <columnName>
não pode ser usada como uma chave de timeseries da tabela online porque não é uma coluna de timeseries da restrição existente PRIMARY KEY
da tabela de origem. Para obter detalhes, consulte <docLink>
Limite de Visualizações Online por Fonte/Tabela Excedido
SQLSTATE: nenhum estado atribuído
Não é possível criar mais de <quota>
tabelas online por cada tabela de origem.
ACESSO À VISUALIZAÇÃO ONLINE NEGADO
SQLSTATE: nenhum estado atribuído
Acessar o recurso <resourceName>
requer o uso de um sql warehouse sem servidor. Verifique se o warehouse que está sendo usado para executar uma consulta ou exibir um catálogo de banco de dados na interface do usuário está sem servidor. Para obter detalhes, consulte <docLink>
Limite Contínuo para Visualização Online Excedido
SQLSTATE: nenhum estado atribuído
Não é possível criar mais do que <quota>
exibições contínuas na loja online, e já existem <currentCount>
. Talvez você não tenha acesso a visualizações online existentes. Entre em contato com o administrador da loja online para obter acesso ou para obter mais instruções.
UC_VISTA_ONLINE_NÃO_SUPORTA_DMK
SQLSTATE: nenhum estado atribuído
<tableKind>
não pode ser criado sob um local de armazenamento com chaves gerenciadas do Databricks. Escolha um esquema/catálogo diferente em um local de armazenamento sem criptografia de Chaves Gerenciadas do Databricks.
UC_VISUALIZACAO_ONLINE_CATALOGO_INVALIDO
SQLSTATE: nenhum estado atribuído
Catálogo <catalogName>
inválido com tipo <catalogKind>
para criar <tableKind>
nele.
<tableKind>
só pode ser criado em catálogos de tipos: <validCatalogKinds>
.
UC_ VISUALIZAÇÃO_ONLINE_ESQUEMA_INVÁLIDO
SQLSTATE: nenhum estado atribuído
Esquema <schemaName>
inválido com tipo <schemaKind>
para criar <tableKind>
dentro.
<tableKind>
só pode ser criado em esquemas de tipos: <validSchemaKinds>
.
UC_ONLINE_VIEW_TIPO_DE_COLUNA_DE_TEMPO_TTL_INVÁLIDO
SQLSTATE: nenhum estado atribuído
A coluna <columnName>
do tipo <columnType>
não pode ser usada como uma coluna de tempo TTL. Os tipos permitidos são <supportedTypes>
.
UC_OPERAÇÃO_NÃO_SUPORTADA
SQLSTATE: nenhum estado atribuído
Operação não suportada pelo Catálogo do Unity. <detailedMessage>
UC_FORA_DO_ESCOPO_DE_PATHS_AUTORIZADOS
SQLSTATE: nenhum estado atribuído
Erro de caminho autorizado. A <securableType>
localização <location>
não está definida dentro dos caminhos autorizados para o catálogo: <catalogName>
. Peça ao proprietário do catálogo para adicionar o caminho à lista de caminhos autorizados definidos no catálogo.
UC_CAMINHOS_AUTORIZADOS_SOBREPOSTOS
SQLSTATE: nenhum estado atribuído
A opção 'authorized_paths' contém caminhos sobrepostos: <overlappingPaths>
. Certifique-se de que cada caminho seja único e não se cruze com os outros na lista.
INCOMPATIBILIDADE_DE_PAGINAÇÃO_E_ARGUMENTOS_DE_CONSULTA
SQLSTATE: nenhum estado atribuído
O argumento de consulta '<arg>
' é definido como '<received>
' que é diferente do valor usado na primeira chamada de paginação ('<expected>
')
VIOLAÇÃO_DE_FILTRO_DE_CAMINHO_PERMITIDO_UC
SQLSTATE: nenhum estado atribuído
O caminho '<targetPath>
' com a credencial '<credentialName>
' não é permitido. Verifique se o caminho é um caminho filho de um elemento na seguinte lista: '<allowlist>
'.
CAMINHO_UC_MUITO_LONGO
SQLSTATE: nenhum estado atribuído
O caminho de entrada é muito longo. Comprimento permitido: <maxLength>
. Comprimento da entrada: <inputLength>
. Entrada: <path>
...
Limite de Concurrency de Banco de Dados do Metastore por UC Excedido
SQLSTATE: nenhum estado atribuído
Limite de simultaneidade excedido para metastore <metastoreId>
. Tente novamente mais tarde. Se o problema persistir, entre em contato com o suporte. Código de erro #UC-<errorCodeArbitraryFiveLettersUpperCase>
UC_POSTGRESQL_VISTAS_ONLINE_POR_FONTE_TABELA_QUOTA_EXCEDIDA
SQLSTATE: nenhum estado atribuído
Não é possível criar mais do que <quota>
tabelas de banco de dados sincronizadas por tabela de origem.
UC_CHAVE_PRIMÁRIA_EM_COLUNA_ANULÁVEL
SQLSTATE: nenhum estado atribuído
Não é possível criar a chave primária <constraintName>
porque sua(s) coluna(s) filha(s) <childColumnNames>
é(são) nula(s). Altere a nulidade da coluna e tente novamente.
Tempo de Solicitação Expirado (UC)
SQLSTATE: nenhum estado atribuído
Esta operação demorou muito.
UC_NOME_DO_BALDE_DE_ARMAZENAMENTO_RAIZ_S3_CONTÉM_PONTO
SQLSTATE: nenhum estado atribuído
Não há suporte para o nome do bucket S3 do armazenamento raiz que contém pontos no Unity Catalog: <uri>
Local de Armazenamento de Esquema Vazio UC
SQLSTATE: nenhum estado atribuído
Local de armazenamento vazio inesperado para o esquema '<schemaName>
' no catálogo '<catalogName>
'. Verifique se o esquema usa um esquema de caminho de <validPathSchemesListStr>
.
Armazenamento de Token de Criação em Domínio Não Confiável Sem Servidor
SQLSTATE: nenhum estado atribuído
Notebooks sem servidor não podem recuperar credenciais de armazenamento temporárias do Catálogo do Unity.
UC_STORAGE_CREDENTIAL_ACCESS_CONNECTOR_FALHA_NA_ANÁLISE
SQLSTATE: nenhum estado atribuído
Falha ao analisar a ID do conector de acesso fornecido: <accessConnectorId>
. Verifique sua formatação e tente novamente.
PERMISSÃO_NEGADA_PARA_CRIAÇÃO_DE_CREDENCIAL_DE_ARMAZENAMENTO_NO_DBFS_ROOT
SQLSTATE: nenhum estado atribuído
Não é possível criar uma credencial de armazenamento para raiz DBFS porque o usuário: <userId>
não é o administrador do workspace: <workspaceId>
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_DBFS_ENABLED
SQLSTATE: nenhum estado atribuído
A credencial de armazenamento raiz do DBFS ainda não tem suporte para workspaces com Firewall habilitado no DBFS
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_NOT_SUPPORTED
SQLSTATE: nenhum estado atribuído
A credencial de armazenamento raiz do DBFS para o workspace atual ainda não tem suporte
UC_STORAGE_CREDENTIAL_DBFS_ROOT_WORKSPACE_DISABLED
SQLSTATE: nenhum estado atribuído
A raiz DBFS não está habilitada para o workspace <workspaceId>
UC_ARMAZENAMENTO_CREDENCIAIS_FALHA_AO_OBTER_TOKEN_DE_VALIDAÇÃO
SQLSTATE: nenhum estado atribuído
Houve falha ao obter um token do AAD para validar permissões de nuvem em um conector de acesso. Tente novamente a ação.
CREDENCIAL_DE_ARMAZENAMENTO_INVÁLIDA_PERMISSÕES_NA_NUVEM
SQLSTATE: nenhum estado atribuído
Registrar uma credencial de armazenamento requer a função de colaborador no conector de acesso correspondente com o ID <accessConnectorId>
. Entre em contato com o administrador da sua conta.
Permissão negada para as credenciais de armazenamento
SQLSTATE: nenhum estado atribuído
Somente o administrador da conta pode criar ou atualizar uma credencial de armazenamento com o tipo <storageCredentialType>
.
UC_STORAGE_CREDENTIAL_SERVICE_PRINCIPAL_FALTANDO_TOKEN_DE_VALIDAÇÃO
SQLSTATE: nenhum estado atribuído
Token de validação ausente para a entidade de serviço. Forneça um token de ID Entra com escopo ARM válido no cabeçalho de solicitação 'X-Databricks-Azure-SP-Management-Token' e tente novamente. Para obter detalhes, verifique https://docs.databricks.com/api/workspace/storagecredentials
Política_de_Confiança_para_Armazenamento_aberta
SQLSTATE: nenhum estado atribuído
A política de confiança da função IAM para permitir que a Conta do Databricks assuma a função deve exigir um ID externo. Entre em contato com o administrador da conta para adicionar a condição de ID externa. Esse comportamento é para se proteger contra o problema do Deputado Confuso (https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html).
CREDENCIAL_DE_ARMAZENAMENTO_UC_PRINCIPAL_DE_SERVIÇO_SEM_PRIVILÉGIOS_NÃO_SUPORTADO
SQLSTATE: nenhum estado atribuído
As entidades de serviço não podem usar o CREATE_STORAGE_CREDENTIAL
privilégio para registrar identidades gerenciadas. Para registrar uma identidade gerenciada, atribua à entidade de serviço a função de administrador da conta.
UC_STORAGE_CREDENTIAL_WASBS_NOT_DBFS_ROOT
SQLSTATE: nenhum estado atribuído
O local <location>
não está dentro da raiz DBFS, porque não é possível criar uma credencial de armazenamento <storageCredentialName>
Armazenamento de credenciais do espaço de trabalho da API proibido.
SQLSTATE: nenhum estado atribuído
Não é suportada a criação ou atualização de uma credencial de armazenamento por um não administrador de conta na API ao nível da conta. Por favor, use a API no nível do espaço de trabalho.
UC_STORAGE_CREDENTIAL_WS_BUCKET_INVALID_LOCATION
SQLSTATE: nenhum estado atribuído
O local <requestedLocation>
não está dentro do contexto permitido <allowedLocation>
UC_CREDENCIAL_ARMAZENAMENTO_WS_CATÁLOGO_INTERNO_NÃO_SUPORTADO
SQLSTATE: nenhum estado atribuído
Ainda não há suporte para a credencial de armazenamento do catálogo interno no espaço de trabalho atual.
UC_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED (Permissão de Grupo do Espaço de Trabalho do Sistema UC Não Suportada)
SQLSTATE: nenhum estado atribuído
Não é possível conceder privilégios ao <securableType>
grupo <principal>
gerado pelo sistema.
A_TABELA_UC_NÃO_PERTENCE_AO_CATÁLOGO
SQLSTATE: nenhum estado atribuído
A solicitação para executar commit/getCommits para a tabela '<tableId>
' requer habilitar o recurso pertencente ao Catálogo na tabela.
ATRIBUIÇÃO_DE_TAG_COM_CHAVE_NÃO_EXISTE
SQLSTATE: nenhum estado atribuído
Atribuição de etiqueta com chave <tagKey>
não existe
Operação de credencial temporária não suportada (UC_TEMPORARY_CREDENTIAL_OPERATION_NOT_SUPPORTED)
SQLSTATE: nenhum estado atribuído
Não há suporte para a operação de credencial temporária.
UC_UNDROP_O_ID_DO_RECURSO_JÁ_EXISTE
SQLSTATE: nenhum estado atribuído
Não é possível desconstalar '<resourceType>
' porque já existe um '<resourceType>
' com a ID '<resourceId>
'.
UC_RECURSO_NÃO_DESCARTADO_NOME_JÁ_EXISTE
SQLSTATE: nenhum estado atribuído
Não é possível desconstalar '<resourceType>
' porque já existe um '<resourceType>
' com o nome '<resourceName>
'.
UC_RECURSO_NÃO_PRONTO_PARA_RESTAURAÇÃO
SQLSTATE: nenhum estado atribuído
Não é possível reverter '<resourceType>
' porque o '<resourceType>
' com o ID '<resourceId>
' não está pronto para ser restaurado, tente novamente mais tarde.
UC_RECURSO_RECUPERÁVEL_ALÉM_DA_JANELA
SQLSTATE: nenhum estado atribuído
Não é possível restaurar '<resourceType>
' porque a '<resourceType>
' com ID '<resourceId>
' está além do período de restauração suportado de '<maxRestorationPeriodDay>
' dias.
UC_UNSUPPORTED_HTTP_CONNECTION_BASE_PATH
SQLSTATE: nenhum estado atribuído
Caminho base inválido fornecido, o caminho base deve ser, por exemplo, /api/resources/v1. Caminho sem suporte: <path>
UC_UNSUPPORTED_HTTP_CONNECTION_HOST (Host de Conexão HTTP Não Suportado)
SQLSTATE: nenhum estado atribuído
Nome de host inválido fornecido, o nome do host deve ser algo como https://www.databricks.com sem sufixo de caminho. Host sem suporte: <host>
CARACTERE LATINO NÃO SUPORTADO NO CAMINHO
SQLSTATE: nenhum estado atribuído
Somente caracteres básicos do conjunto Latin/Latin-1 ASCII
são suportados em caminhos de localizações, volumes ou tabelas externos. Caminho sem suporte: <path>
ATUALIZAÇÃO_PROIBIDA_PARA_SEGURANÇA_DE_PROVISÃO
SQLSTATE: nenhum estado atribuído
Não é possível atualizar <securableType>
'<securableName>
' porque ele está sendo provisionado.
Conflito de Gravação UC
SQLSTATE: nenhum estado atribuído
O <type> <name>
foi modificado por outra solicitação. Tente executar a operação novamente.
UNITY_CATALOG_SOLICITAÇÃO_DE_COMMITS_COORDENADOS_EXTERNOS_NEGADA
SQLSTATE: nenhum estado atribuído
A solicitação para executar commit/getCommits para a tabela '<tableId>
' de fora do ambiente de computação habilitado pelo Databricks Unity Catalog é negada por motivos de segurança. Entre em contato com o suporte do Databricks para integrações com o Catálogo do Unity.
CATÁLOGO_UNIDADE_PEDIDO_DE_CRIAÇÃO_DE_TABELA_DE_ESTÁGIO_EXTERNO_NEGADO
SQLSTATE: nenhum estado atribuído
A solicitação para criar a tabela intermediária '<tableFullName>
' de fora do ambiente de computação habilitado para Catálogo do Databricks Unity foi negada por razões de segurança. Entre em contato com o suporte do Databricks para integrações com o Catálogo do Unity.
Solicitação de criação de tabela externa do Unity Catalog para tabela não externa negada
SQLSTATE: nenhum estado atribuído
A solicitação para criar a tabela não externa '<tableFullName>
' de fora do ambiente de computação habilitado para Catálogo do Databricks Unity é negada para segurança. Entre em contato com o suporte do Databricks para integrações com o Catálogo do Unity.
SOLICITAÇÃO DE EXCLUSÃO DE TABELA EXTERNA DENEGADA PARA TABELA NÃO EXTERNA NO UNITY_CATALOG
SQLSTATE: nenhum estado atribuído
Não é possível solicitar a exclusão de uma tabela não externa '<tableFullName>
' fora de um ambiente de computação habilitado para o Catálogo Unity do Databricks.
UNITY_CATALOG_EXTERNO_GERAR_CAMINHO_CREDENCIAIS_NEGADO
SQLSTATE: nenhum estado atribuído
A solicitação para gerar a credencial de acesso para o caminho '<path>
' foi negada por motivos de segurança, pois veio de fora do ambiente de computação com Catálogo Unity do Databricks habilitado. Entre em contato com o suporte do Databricks para integrações com o Catálogo do Unity.
ERRO_GENERAR_CREDENCIAIS_TABELA_EXTERNA_CATALOG_UNITY_NEGADO
SQLSTATE: nenhum estado atribuído
A solicitação para gerar a credencial de acesso para a tabela '<tableId>
' fora do ambiente de computação habilitado pelo Catálogo Unity do Databricks foi negada por motivos de segurança. Entre em contato com o suporte do Databricks para integrações com o Catálogo do Unity.
UNITY_CATALOG_EXTERNO_OBTER_CREDENCIAIS_ESTRANGEIRAS_NEGADO
SQLSTATE: nenhum estado atribuído
A solicitação para obter credenciais de fora para recursos protegidos vindos de fora do ambiente computacional habilitado para o Catálogo Unity do Databricks é negada por razões de segurança.
O acesso à atualização de metadados do UNITY_CATALOG_EXTERNAL_UPDATA_SNAPSHOT foi negado.
SQLSTATE: nenhum estado atribuído
A solicitação para atualizar capturas de metadados de fora do ambiente de computação habilitado para o Catálogo Unity do Databricks é negada por razões de segurança.
CREDENCIAIS_DE_ESCRITA_NÃO_SUPORTADAS_PARA_TABELA_ONLINE_GERENCIADA_LEGADA
SQLSTATE: nenhum estado atribuído
Solicitação inválida para obter credenciais de gravação para uma tabela online gerenciada em um catálogo online.
API de arquivos
ARQUIVOS_API_API_NÃO_ESTÁ_ATIVADO
SQLSTATE: nenhum estado atribuído
<api_name>
A API não está habilitada
ARQUIVOS_API_API_NÃO_ESTÁ_ATIVADO_PARA_CAMINHOS_NA_NUVEM
SQLSTATE: nenhum estado atribuído
Não há suporte para o método solicitado da API de Arquivos para caminhos de nuvem
ARQUIVOS_API_AWS_ACESSO_NEGADO
SQLSTATE: nenhum estado atribuído
O acesso ao bucket de armazenamento é negado pela AWS.
FILES_API_AWS_TODO_ACESSO_DESATIVADO
SQLSTATE: nenhum estado atribuído
Todo o acesso ao bucket de armazenamento foi desabilitado na AWS.
ARQUIVOS_API_AWS_BUCKET_NÃO_EXISTE
SQLSTATE: nenhum estado atribuído
O bucket de armazenamento não existe no AWS.
ARQUIVOS_API_AWS_PROIBIDO
SQLSTATE: nenhum estado atribuído
O acesso ao bucket de armazenamento é proibido pela AWS.
FILES_API_AWS_CABEÇALHO_DE_AUTORIZAÇÃO_INVÁLIDO
SQLSTATE: nenhum estado atribuído
O workspace está configurado incorretamente: ele deve estar na mesma região que o bucket de armazenamento raiz do workspace do AWS.
ARQUIVOS_API_AWS_NOME_DO_BUCKET_INVÁLIDO
SQLSTATE: nenhum estado atribuído
O nome do bucket de armazenamento é inválido.
As this appears to be a technical identifier, no improved translation is necessary at this point. The term should remain in its original format for technical accuracy and recognition across systems or services that use AWS.
SQLSTATE: nenhum estado atribuído
As chaves KMS configuradas para acessar o bucket de armazenamento estão desabilitadas na AWS.
API_DE_ARQUIVOS_AWS_NAO_AUTORIZADO
SQLSTATE: nenhum estado atribuído
O acesso ao recurso do AWS não é autorizado.
A_CONTA_DO_API_DE_ARQUIVOS_AZURE_ESTÁ_DESATIVADA
SQLSTATE: nenhum estado atribuído
A conta de armazenamento está desabilitada no Azure.
FILES_API_AZURE_AUTHORIZATION_PERMISSION_MISMATCH
SQLSTATE: nenhum estado atribuído
Incompatibilidade de autorização e permissão.
ARQUIVOS_API_AZURE_CONTAINER_NÃO_EXISTE
SQLSTATE: nenhum estado atribuído
O contêiner do Azure não existe.
Acesso Negado à API do Azure para Arquivos
SQLSTATE: nenhum estado atribuído
O acesso ao contêiner de armazenamento é proibido pelo Azure.
ARQUIVOS_API_AZURE_TEM_UM_CONTRATO_DE_LOCAÇÃO
SQLSTATE: nenhum estado atribuído
O Azure respondeu que atualmente há uma concessão no recurso. Tente novamente depois.
Permissão insuficiente para a conta no Azure.
SQLSTATE: nenhum estado atribuído
A conta que está sendo acessada não tem permissões suficientes para executar essa operação.
CONFIGURAÇÃO_INVÁLIDA_DA_CONTA_DE_ARMAZENAMENTO_DO_FILES_API_AZURE
SQLSTATE: nenhum estado atribuído
Não há suporte para a configuração da conta que está sendo acessada.
FILES_API_AZURE_NOME_DE_CONTA_DE_ARMAZENAMENTO_INVÁLIDO
SQLSTATE: nenhum estado atribuído
Não é possível acessar a conta de armazenamento no Azure: nome da conta de armazenamento inválido.
AUTENTICAÇÃO_BASEADA_EM_CHAVE_DO_API_AZURE_NÃO_PERMITIDA
SQLSTATE: nenhum estado atribuído
O cofre de chaves não foi encontrado no Azure. Verifique as configurações de chaves gerenciadas pelo cliente.
ARQUIVOS_API_AZURE_KEY_VAULT_CHAVE_NÃO_ENCONTRADA
SQLSTATE: nenhum estado atribuído
A chave do cofre de chaves do Azure não foi encontrada no Azure. Verifique as configurações de chaves gerenciadas pelo cliente.
ARQUIVOS_API_AZURE_KEY_VAULT_COFRE_NÃO_ENCONTRADO
SQLSTATE: nenhum estado atribuído
O cofre de chaves não foi encontrado no Azure. Verifique as configurações de chaves gerenciadas pelo cliente.
The original code should remain untranslated for accuracy and consistency: FILES_API_AZURE_MI_ACCESS_CONNECTOR_NOT_FOUND
SQLSTATE: nenhum estado atribuído
Credenciais de Identidades Gerenciadas do Azure com o Conector de Acesso não encontradas. Isso pode ocorrer porque os controles de acesso IP rejeitaram sua solicitação.
TIMEOUT_DE_OPERAÇÃO_DA_API_DE_ARQUIVOS_AZURE
SQLSTATE: nenhum estado atribuído
A operação não pôde ser concluída dentro do tempo permitido ou do número máximo de tentativas possível.
CAMINHO_ARQUIVOS_API_AZURE_INVÁLIDO
SQLSTATE: nenhum estado atribuído
O caminho solicitado não é válido para o Azure.
CAMINHO_IMUTÁVEL_NO_FILES_API_AZURE
SQLSTATE: nenhum estado atribuído
O caminho solicitado é imutável.
Cabeçalho_Não_Suportado_API_AZURE_ARQUIVOS
SQLSTATE: nenhum estado atribuído
Não há suporte para um dos cabeçalhos especificados na operação.
O parâmetro de URL não pode ser interpretado - FILES_API_CANNOT_PARSE_URL_PARAMETER
SQLSTATE: nenhum estado atribuído
O parâmetro de URL não pode ser analisado.
CATÁLOGO_DE_ARQUIVOS_API_NÃO_ENCONTRADO
SQLSTATE: nenhum estado atribuído
<unity_catalog_error_message>
ARQUIVOS_API_RECURSO_NA_NUVEM_EXAURIDO
SQLSTATE: nenhum estado atribuído
<message>
Problema de Conexão com o Provedor de Armazenamento em Nuvem
SQLSTATE: nenhum estado atribuído
Há um problema de conexão com <cloud_storage_provider>
. Tente novamente mais tarde.
API_DE_ARQUIVOS_DOIS_PONTOS_NÃO_SUPORTADO_NO_CAMINHO
SQLSTATE: nenhum estado atribuído
O caractere ':' não tem suporte em caminhos
Acesso à Zona de Rede não Permitido para o Consumidor da API de Arquivos
SQLSTATE: nenhum estado atribuído
A zona de rede do consumidor "<consumer_network_zone>
" não é permitida na zona de rede do solicitante "<requester_network_zone>
".
ARQUIVOS_API_PLANO_DE_CONTROLE_ZONA_DE_REDE_NÃO_PERMITIDA
SQLSTATE: nenhum estado atribuído
A zona de rede do plano de controle do Databricks não é permitida.
ARQUIVOS_API_DIRETÓRIOS_NÃO_PODEM_TER_CORPOS
SQLSTATE: nenhum estado atribuído
Um conteúdo foi fornecido, mas diretórios não podem ter um conteúdo de arquivo
O_DIRETÓRIO_DO_API_DE_ARQUIVOS_NÃO_ESTÁ_VAZIO
SQLSTATE: nenhum estado atribuído
O diretório não está vazio. Essa operação não tem suporte em diretórios não vazios.
DIRETÓRIO_DO_API_DE_ARQUIVOS_NÃO_ENCONTRADO
SQLSTATE: nenhum estado atribuído
O diretório que está sendo acessado não foi encontrado.
ARQUIVOS_API_DMK_CRIPTOGRAFIA_CHAVE_RAIZ_DESATIVADA
SQLSTATE: nenhum estado atribuído
A chave raiz da criptografia gerenciada pelo cliente está desabilitada.
ARQUIVOS_API_CABECALHO_DUPLICADO
SQLSTATE: nenhum estado atribuído
A solicitação continha várias cópias de um cabeçalho que só são permitidas uma vez.
FILES_API_DUPLICATE_QUERY_PARAMETER
SQLSTATE: nenhum estado atribuído
O parâmetro de consulta '<parameter_name>
' deve estar presente exatamente uma vez, mas foi fornecido várias vezes.
FILES_API_EMPTY_BUCKET_NAME
SQLSTATE: nenhum estado atribuído
O nome do bucket DBFS está vazio.
CHAVE_DE_ENCRIPTAÇÃO_FILES_API_PERMISSÃO_NEGADA
SQLSTATE: nenhum estado atribuído
O usuário não tem acesso à chave de criptografia.
OPERAÇÃO_DE_RECUPERAÇÃO_DE_CHAVE_DE_ENCRIPTAÇÃO_DA_API_DE_ARQUIVOS_TIMEOUT
SQLSTATE: nenhum estado atribuído
A operação para recuperar a chave de criptografia não pôde ser concluída dentro do tempo permitido.
API_DE_ARQUIVOS_ENTIDADE_GRANDE_DEMAIS
SQLSTATE: nenhum estado atribuído
Seu objeto excede o tamanho máximo permitido do objeto.
ERRO_FILES_API_TTL_EXPIRADO
SQLSTATE: nenhum estado atribuído
O TTL expirou.
FILES_API_ERROR_TTL_INVÁLIDO
SQLSTATE: nenhum estado atribuído
O TTL é inválido.
ERRO_DE_ARQUIVOS_API_CHAVE_PARA_WORKSPACE_NÃO_ENCONTRADA
SQLSTATE: nenhum estado atribuído
A chave do workspace não foi encontrada.
ERRO_API_ARQUIVOS_PARAMETRO_OBRIGATORIO_AUSENTE
SQLSTATE: nenhum estado atribuído
A URL não tem um parâmetro necessário.
ERRO_DE_API_DE_ARQUIVOS_TTL_NO_FUTURO
SQLSTATE: nenhum estado atribuído
O TTL está no futuro.
ERRO_DE_API_ARQUIVOS_URL_EMISSOR_SHARD_NAME_INVÁLIDO
SQLSTATE: nenhum estado atribuído
O nome do fragmento do emissor é inválido.
O tempo de expiração dos arquivos na API deve estar presente.
SQLSTATE: nenhum estado atribuído
o prazo de validade deve estar presente
TOKEN_EXPIRADO_API_ARQUIVOS
SQLSTATE: nenhum estado atribuído
O token fornecido expirou.
O TEMPO DE EXPIRAÇÃO DO ARQUIVO DA API DEVE ESTAR NO FUTURO
SQLSTATE: nenhum estado atribuído
ExpireTime deve estar no futuro
TEMPO_DE_EXPIRAÇÃO_NA_API_DE_ARQUIVOS_MUITO_DISTANTE_NO_FUTURO
SQLSTATE: nenhum estado atribuído
O TTL solicitado é maior do que o suportado (1 hora)
CAMINHO_DE_LOCALIZAÇÃO_EXTERNA_FILES_API_SOBREPÕE_OUTRA_ENTIDADE_DE_ARMAZENAMENTO_UC
SQLSTATE: nenhum estado atribuído
<unity_catalog_error_message>
ARQUIVOS_API_ARQUIVO_JÁ_EXISTE
SQLSTATE: nenhum estado atribuído
O arquivo que está sendo criado já existe.
ARQUIVOS_API_ARQUIVO_NÃO_ENCONTRADO
SQLSTATE: nenhum estado atribuído
O arquivo que está sendo acessado não foi encontrado.
ARQUIVOS_API_ARQUIVO_OU_DIRETÓRIO_TERMINA_EM_PONTO
SQLSTATE: nenhum estado atribuído
Não há suporte para arquivos ou diretórios que terminam no caractere '.'
O tamanho do arquivo excedeu o limite.
SQLSTATE: nenhum estado atribuído
O tamanho do arquivo não deve exceder <max_download_size_in_bytes>
bytes, mas foram encontrados <size_in_bytes>
bytes.
CONTA_DO_GCP_API_DE_ARQUIVOS_ESTÁ_DESATIVADA
SQLSTATE: nenhum estado atribuído
O acesso ao bucket de armazenamento foi desabilitado no GCP.
ARQUIVOS_API_GCP_BUCKET_NÃO_EXISTE
SQLSTATE: nenhum estado atribuído
O bucket de armazenamento não existe no GCP.
Acesso Proibido à API de Arquivos GCP
SQLSTATE: nenhum estado atribuído
O acesso ao bucket é proibido pelo GCP.
CHAVE_GCP_API_ARQUIVOS_DESABILITADA_OU_DESTRUÍDA
SQLSTATE: nenhum estado atribuído
A chave de criptografia gerenciada pelo cliente configurada para esse local está desabilitada ou destruída.
REQUISIÇÃO_FILES_API_GCP_PROIBIDA_PELA_POLÍTICA
SQLSTATE: nenhum estado atribuído
As solicitações GCP para o bucket são proibidas pela política, verifique os controles de serviço do VPC.
O servidor de arquivos da API está temporariamente indisponível
SQLSTATE: nenhum estado atribuído
O host do provedor de nuvem não está temporariamente disponível; Tente novamente mais tarde.
TOKEN_DE_CONTINUAÇÃO_INVÁLIDO_DA_API_DE_ARQUIVOS
SQLSTATE: nenhum estado atribuído
O token de página fornecido não é válido.
ARQUIVOS_API_HOSTNAME_INVÁLIDO
SQLSTATE: nenhum estado atribuído
O nome do host é inválido.
ARQUIVOS_API_MÉTODO_HTTP_INVÁLIDO
SQLSTATE: nenhum estado atribuído
Método http inválido. Esperava '<expected>
', mas recebeu '<actual>
'.
CABEÇALHO_DE_ID_METASTORE_INVÁLIDO_API_DE_ARQUIVOS
SQLSTATE: nenhum estado atribuído
O cabeçalho da ID do metastore é inválido.
Token de página inválido na API de arquivos
SQLSTATE: nenhum estado atribuído
token de página inválido
Caminho inválido de API de arquivos
SQLSTATE: nenhum estado atribuído
Caminho inválido: <validation_error>
ALCANCE_INVÁLIDO_NO_API_DE_ARQUIVOS
SQLSTATE: nenhum estado atribuído
O cabeçalho de alcance é inválido.
NOME_COMPLETO_DE_RECURSO_INVÁLIDO_DA_API_DE_ARQUIVOS
SQLSTATE: nenhum estado atribuído
<unity_catalog_error_message>
TOKEN_DE_SESSAO_INVALIDO_FILES_API
SQLSTATE: nenhum estado atribuído
Token de sessão inválido
TOKEN_TIPO_SESSÃO_INVÁLIDO_DA_API_DE_ARQUIVOS
SQLSTATE: nenhum estado atribuído
Tipo de token de sessão inválido. Esperava '<expected>
', mas recebeu '<actual>
'.
API_DE_ARQUIVOS_CARIMBO_DE_TEMPO_INVÁLIDO
SQLSTATE: nenhum estado atribuído
O carimbo de data/hora é inválido.
Tipo de upload inválido na API de Arquivos
SQLSTATE: nenhum estado atribuído
Tipo de upload inválido. Esperava '<expected>
', mas recebeu '<actual>
'.
FILES_API_INVALID_URL_PARAMETER
SQLSTATE: nenhum estado atribuído
A URL passada como parâmetro é inválida
FILES_API_INVALID_VALUE_FOR_OVERWRITE_QUERY_PARAMETER - Valor inválido para o parâmetro de consulta "overwrite"
SQLSTATE: nenhum estado atribuído
O parâmetro de consulta 'overwrite' deve ser um dos seguintes: true, false, mas foi: <got_values>
VALOR_INVÁLIDO_PARA_PARÂMETRO_DE_CONSULTA_API_ARQUIVOS
SQLSTATE: nenhum estado atribuído
O parâmetro de consulta '<parameter_name>
' deve ser um dos: <expected>
mas foi: <actual>
API_ARQUIVOS_CORPO_DE_REQUISIÇÃO_MALFORMADO
SQLSTATE: nenhum estado atribuído
Corpo da solicitação malformada
CATÁLOGO GERENCIADO DA API DE ARQUIVOS DESATIVADO
SQLSTATE: nenhum estado atribuído
<unity_catalog_error_message>
ARQUIVOS_API_METADADOS_NÃO_ENCONTRADO
SQLSTATE: nenhum estado atribuído
<unity_catalog_error_message>
O MÉTODO DA API DE ARQUIVOS NÃO ESTÁ HABILITADO PARA ARMAZENAMENTO DE COMPARAR ARTEFATOS DE COMPUTAÇÃO EM FUNDOS DE TRABALHO
SQLSTATE: nenhum estado atribuído
Não há suporte para o método solicitado da API de Arquivos para o Armazenamento de Artefatos de Computação em Segundo Plano de Trabalhos.
ARQUIVOS_API_COMPRIMENTO_DO_CONTEÚDO_AUSENTE
SQLSTATE: nenhum estado atribuído
O cabeçalho de comprimento de conteúdo é necessário na solicitação.
API_DE_ARQUIVOS_FALTA_PARAMETRO_DE_CONSULTA
SQLSTATE: nenhum estado atribuído
O parâmetro de consulta '<parameter_name>
' é necessário, mas está ausente da solicitação.
ARQUIVOS_API_PARÂMETRO_OBRIGATÓRIO_AUSENTE_NA_SOLICITAÇÃO
SQLSTATE: nenhum estado atribuído
A solicitação não tem um parâmetro necessário.
FILES_API_MLFLOW_PERMISSION_DENIED - Permissão negada na API MLflow
SQLSTATE: nenhum estado atribuído
<mlflow_error_message>
VERSÃO_DO_MODELO_DE_ARQUIVOS_API_NÃO_ESTÁ_PRONTA
SQLSTATE: nenhum estado atribuído
A versão do modelo ainda não está pronta
A API de Arquivos não suporta URL pré-assinada para abortar upload multipart.
SQLSTATE: nenhum estado atribuído
Não há suporte para URLs pré-assinadas para anular uploads multipartes de arquivos armazenados em <cloud_storage_provider>
.
ARQUIVOS_API_UPLOAD_MULTIPART_LISTA_PARTE_VAZIA
SQLSTATE: nenhum estado atribuído
A lista de partes deve ter pelo menos um elemento, mas estava vazia.
Envio de arquivo multipart inválido
SQLSTATE: nenhum estado atribuído
Não foi possível encontrar uma ou mais das partes especificadas. A parte pode não ter sido carregada ou a tag de entidade especificada pode não corresponder à tag de entidade da parte.
ARQUIVOS_API_UPLOAD_MULTIPART_NUMERO_DE_PARTE_INVALIDO
SQLSTATE: nenhum estado atribuído
Os números de parte devem ser maiores ou iguais a <min>
e menores ou iguais a <max>
.
FILES_API_MULTIPART_UPLOAD_MISSING_ETAG (ETAG ausente no upload multipart API de arquivos)
SQLSTATE: nenhum estado atribuído
As ETags devem ser fornecidas para arquivos armazenados em <cloud_storage_provider>
. Pelo menos uma ETag não foi fornecida ou vazia.
UPLOAD_MULTIPART_MODIFICADO_ESTADO_DE_ENTIDADE_DE_ARMAZENAMENTO
SQLSTATE: nenhum estado atribuído
O estado interno da entidade de armazenamento foi modificado desde que o upload foi iniciado, por exemplo, porque o caminho do arquivo não aponta para o mesmo local de armazenamento em nuvem subjacente. Prossiga iniciando uma nova sessão de upload.
UPLOAD_MULTIPART_ARQUIVOS_API_PARTES_NÃO_FINAIS_COM_TAMANHOS_DIFERENTES
SQLSTATE: nenhum estado atribuído
As partes carregadas como parte de uma sessão de upload de várias partes devem ter o mesmo tamanho para arquivos armazenados <cloud_storage_provider>
, exceto pela última parte que pode ser menor.
O tamanho da parte do carregamento multipart está fora do intervalo.
SQLSTATE: nenhum estado atribuído
O tamanho das partes carregadas como parte de uma sessão de upload de várias partes deve ser maior ou igual a <min>
e menor que ou igual a <max>
.
SESSÃO_DE_ENVIO_MULTIPART_DO_API_DE_ARQUIVOS_NÃO_ENCONTRADA
SQLSTATE: nenhum estado atribuído
A sessão de upload não foi encontrada. Pode ter sido abortada ou concluída.
UPLOAD_MULTIPARTES_API_ARQUIVOS_LISTA_DE_PARTES_NÃO_ORDENADA
SQLSTATE: nenhum estado atribuído
A lista de partes deve ser ordenada pelo número da parte, mas estava desordenada.
FILES_API_NOT_ENABLED_FOR_PLACE (API de arquivos não habilitada para o local)
SQLSTATE: nenhum estado atribuído
A API de arquivos para <place>
não está habilitada para este workspace/conta
ARQUIVOS_API_NÃO_SUPORTADO_PARA_ARMAZENAMENTO_INTERNO_DO_ESPAÇO_DE_TRABALHO
SQLSTATE: nenhum estado atribuído
Não há suporte para o método solicitado da API de Arquivos para o Armazenamento Interno do Workspace
A OPERAÇÃO DA API DE ARQUIVOS DEVE ESTAR PRESENTE
SQLSTATE: nenhum estado atribuído
A operação precisa estar presente
TIMEOUT_DA_OPERAÇÃO_DA_API_DE_ARQUIVOS
SQLSTATE: nenhum estado atribuído
A operação atingiu o tempo limite.
TAMANHO_DA_PÁGINA_DA_API_DE_ARQUIVOS_DEVE_SER_MAIOR_OU_IGUAL_A_ZERO
SQLSTATE: nenhum estado atribuído
page_size deve ser maior ou igual a 0
CAMINHO_DA_API_DE_ARQUIVOS_TERMINA_COM_UMA_BARRA
SQLSTATE: nenhum estado atribuído
Caminhos que terminam no caractere '/' representam diretórios. Essa API não dá suporte a operações em diretórios.
O_CAMINHO_DA_API_DE_ARQUIVOS_É_UM_DIRETÓRIO
SQLSTATE: nenhum estado atribuído
O caminho fornecido aponta para um diretório existente. Essa API não dá suporte a operações em diretórios.
CAMINHO_API_ARQUIVOS_É_UM_ARQUIVO
SQLSTATE: nenhum estado atribuído
O caminho fornecido aponta para um arquivo existente. Essa API não dá suporte a operações em arquivos.
O CAMINHO_DO_ARQUIVO_API_NÃO_É_UMA_URL_CODIFICADA_UTF8_VÁLIDA
SQLSTATE: nenhum estado atribuído
o caminho fornecido não era uma URL codificada em UTF-8 válida
CAMINHO_DA_API_DE_ARQUIVOS_NÃO_ESTÁ_ATIVADO_PARA_PROXY_DO_PLANO_DE_DADOS
SQLSTATE: nenhum estado atribuído
O caminho fornecido não está habilitado para o proxy do plano de dados
O CAMINHO DO ARQUIVO NA API DEVE ESTAR PRESENTE
SQLSTATE: nenhum estado atribuído
o caminho deve estar presente
CAMINHO_FILES_API_NÃO_SUPORTADO
SQLSTATE: nenhum estado atribuído
<rejection_message>
CAMINHO_ARQUIVOS_API_MUITO_LONGO
SQLSTATE: nenhum estado atribuído
O caminho do arquivo fornecido é muito longo.
FILES_API_FALHA_DE_PRECONDIÇÃO
SQLSTATE: nenhum estado atribuído
A solicitação falhou devido a uma pré-condição.
URLS PRÉ-ASSINADAS PARA MODELOS NÃO SUPORTADAS PELO FILES_API
SQLSTATE: nenhum estado atribuído
No momento, a API de arquivos para URLs pré-assinadas para modelos não é suportada.
CREDENCIAIS_DESATIVADAS_DO_ARQUIVOS_API_R2
SQLSTATE: nenhum estado atribuído
R2 não tem suporte no momento.
FILES_API_RANGE_NOT_SATISFIABLE
SQLSTATE: nenhum estado atribuído
O intervalo solicitado não é satisfável.
LISTA_RECURSIVA_NÃO_SUPORTADA_PELA_FILES_API
SQLSTATE: nenhum estado atribuído
Não há suporte para listar arquivos recursivamente.
ARQUIVOS_API_REQUISITANTE_ZONA_DE_REDE_DESCONHECIDA
SQLSTATE: nenhum estado atribuído
Não é possível inferir a zona de rede do solicitante.
REQUISIÇÃO_DE_ARQUIVOS_API_ENCAMINHADA_INCORRETAMENTE
SQLSTATE: nenhum estado atribuído
A solicitação foi roteada incorretamente
A solicitação da API de arquivos deve incluir informações da conta (FILES_API_REQUEST_MUST_INCLUDE_ACCOUNT_INFORMATION)
SQLSTATE: nenhum estado atribuído
A solicitação deve incluir informações da conta
A_REQUISIÇÃO_DE_API_DE_ARQUIVOS_DEVE_INCLUIR_INFORMAÇÕES_DO_USUÁRIO
SQLSTATE: nenhum estado atribuído
A solicitação deve incluir informações do usuário
FILES_API_REQUEST_DEVE_INCLUIR_INFORMAÇÕES_DO_WORKSPACE
SQLSTATE: nenhum estado atribuído
A solicitação deve incluir informações sobre o espaço de trabalho
ARQUIVOS_API_RECURSO_SOMENTE_LEITURA
SQLSTATE: nenhum estado atribuído
O recurso é de leitura apenas.
ARQUIVO_API_RECURSO_NÃO_ENCONTRADO
SQLSTATE: nenhum estado atribuído
<unity_catalog_error_message>
FILES_API_SCHEMA_NOT_FOUND
SQLSTATE: nenhum estado atribuído
<unity_catalog_error_message>
ARQUIVOS_API_URL_SEGURA_NAO_PODE_SER_ACESSADA
SQLSTATE: nenhum estado atribuído
A URL não pode ser acessada.
VERIFICAÇÃO_DE_ASSINTURA_DOS_ARQUIVOS_API_FALHOU
SQLSTATE: nenhum estado atribuído
Falha na verificação de assinatura.
CONTEXTO_DE_ARMAZENAMENTO_DO_FILES_API_NÃO_ESTÁ_DEFINIDO
SQLSTATE: nenhum estado atribuído
A configuração de armazenamento para esse workspace não está acessível.
Files_API_credencial_de_armazenamento_não_encontrada
SQLSTATE: nenhum estado atribuído
<unity_catalog_error_message>
TIPO_DE_TABELA_DO_API_DE_ARQUIVOS_NÃO_SUPORTADO
SQLSTATE: nenhum estado atribuído
Não há suporte para a API de Arquivos para <table_type>
FALHA_DE_AUTENTICAÇÃO_DE_API_DE_ARQUIVOS
SQLSTATE: nenhum estado atribuído
<unity_catalog_error_message>
API_DE_ARQUIVOS_UC_PAPEL_IAM_NAO_AUTOASSUMIDO
SQLSTATE: nenhum estado atribuído
<unity_catalog_error_message>
MODELO_API_DE_ARQUIVOS_ESTADO_INVÁLIDO
SQLSTATE: nenhum estado atribuído
<unity_catalog_error_message>
PERMISSÃO_NEGADA_API_ARQUIVOS_UC
SQLSTATE: nenhum estado atribuído
<unity_catalog_error_message>
RECURSO ESGOTADO NA API DE ARQUIVOS
SQLSTATE: nenhum estado atribuído
<message>
API_DE_ARQUIVOS_UC_CARACTERE_LATINO_NÃO_SUPORTADO_NO_CAMINHO
SQLSTATE: nenhum estado atribuído
<unity_catalog_error_message>
NOME_DO_VOLUME_ALTERADO_API_FICHEIROS
SQLSTATE: nenhum estado atribuído
<unity_catalog_error_message>
ERRO_INESPERADO_AO_ANALISAR_URI_NO_API_DE_ARQUIVOS
SQLSTATE: nenhum estado atribuído
Erro inesperado ao analisar o URI
PARÂMETROS DE CONSULTA INESPERADOS DO FILES_API
SQLSTATE: nenhum estado atribuído
Parâmetros de consulta inesperados: <unexpected_query_parameters>
Método Desconhecido do API de Arquivos
SQLSTATE: nenhum estado atribuído
Método desconhecido <method>
ERRO_DESCONHECIDO_NO_SERVIDOR_FILES_API
SQLSTATE: nenhum estado atribuído
Erro de servidor desconhecido.
ARQUIVOS_API_HOST_URL_DESCONHECIDO
SQLSTATE: nenhum estado atribuído
O host de URL é desconhecido.
MÉTODO_DE_AUTENTICAÇÃO_NÃO_SUPORTADO_PELO_API_DE_ARQUIVOS
SQLSTATE: nenhum estado atribuído
A solicitação não foi autenticada corretamente.
MÉTODO HTTP NÃO SUPORTADO PELO FILES_API
SQLSTATE: nenhum estado atribuído
Não há suporte para o httpMethod.
COMBINAÇÃO_DE_PARÂMETROS_NÃO_SUPORTADOS_FILES_API
SQLSTATE: nenhum estado atribuído
Não há suporte para a combinação de parâmetros.
ARQUIVOS_API_CAMINHO_NÃO_SUPORTADO
SQLSTATE: nenhum estado atribuído
Não há suporte para o caminho fornecido pela API de Arquivos. Verifique se o caminho fornecido não contém sequências de '../' ou './'. Verifique se o caminho fornecido não usa várias barras consecutivas (por exemplo, '///').
ARQUIVOS_API_UPLOAD_PART_URLS_COUNT_DEVE_SER_MAIOR_QUE_ZERO
SQLSTATE: nenhum estado atribuído
O parâmetro de entrada 'count' deve ser maior que 0.
GERAÇÃO_DE_URL_API_ARQUIVOS_DESATIVADA
SQLSTATE: nenhum estado atribuído
A geração de URL pré-atribuída não está habilitada para <cloud>
.
O TIPO DE VOLUME DO API DE ARQUIVOS NÃO É SUPORTADO
SQLSTATE: nenhum estado atribuído
A API de Arquivos não tem suporte para <volume_type>
.
ARQUIVOS_API_ESPAÇO_DE_TRABALHO_CANCELADO
SQLSTATE: nenhum estado atribuído
O espaço de trabalho foi cancelado.
ESPAÇO DE TRABALHO DE ARQUIVOS NÃO ENCONTRADO
SQLSTATE: nenhum estado atribuído
A configuração de armazenamento para esse workspace não está acessível.
Tecnologia de Registro Distribuído (DLT)
EXISTE_ATUALIZAÇÃO_ATIVA_PARA_PIPELINE_VINCULADO
Uma atualização ativa '<updateId>
' já existe para o pipeline vinculado '<linkedPipelineId>
'.
EXISTE_ATUALIZAÇÃO_ATIVA_PARA_PIPELINE
Uma atualização ativa '<updateId>
' já existe para o pipeline '<pipelineId>
'.
ALTERAÇÃO_NÃO_PERMITIDA_PARA_TABELA_DE_PIPELINE
ALTER
não é permitido em tabelas gerenciadas por um
Para obter mais detalhes , consulte ALTER_NOT_ALLOWED_FOR_PIPELINE_TABLE
ALTERAR_HORÁRIO_HORÁRIO_NÃO_EXISTE
Não é possível alterar <type>
em uma tabela sem um agendamento ou gatilho existente. Adicione um agendamento ou gatilho à tabela antes de tentar alterá-la.
COTA_DE_API_EXCEDIDA
Você excedeu a cota de API para a fonte de dados <sourceName>
.
Para obter mais detalhes, consulte API_QUOTA_EXCEEDED
ERRO_APLICAR_ALTERAÇÕES
Ocorreu um erro durante a operação AUTO CDC.
Para obter mais detalhes, consulte ERRO_AO_APLICAR_ALTERAÇÕES
ERRO_APLICAR_ALTERAÇÕES_DO_INSTANTÂNEO
Ocorreu um erro durante a AUTO CDC FROM SNAPSHOT
operação.
Para obter mais detalhes , consulte APPLY_CHANGES_FROM_SNAPSHOT_ERROR
APLICAÇÕES_DE_ALTERAÇÕES_A_PARTIR_DE_INSTANTÂNEO_NÃO_SUPORTADAS
O conjunto de <datasetName>
dados tem expectativas definidas, mas atualmente não há suporte para expectativas para conjuntos de dados usando AUTO CDC FROM SNAPSHOT
.
Remova as expectativas para resolver esse erro. Como alternativa, considere usar a seguinte estrutura para aplicar expectativas combinando AUTO CDC
e AUTO CDC FROM SNAPSHOT
:
Aplique alterações do instantâneo usando o scd tipo 1 a uma tabela intermediária sem expectativas.
Leia as alterações na tabela intermediária usando
spark.readStream.option("readChangeFeed", "true").table
.Aplique alterações da tabela intermediária à tabela de destino final usando
dlt.create_auto_cdc_flow
os seguintes parâmetros, além daqueles usados atualmente comdlt.acreate_auto_cdc_flow_from_snapshot
:
Para lidar com as alterações:
apply_as_deletes = "_change_type == 'delete'"
Para remover colunas adicionadas pelo CDF:
except_column_list = ["_change_type", "_commit_version", "_commit_timestamp"]
- Inclua o conjunto existente de expectativas na tabela de destino final utilizada para
dlt.create_auto_cdc_flow
.
APLICAR_MUDANÇAS_ATUALIZAÇÕES_PARCIAIS_NÃO_HABILITADAS
O recurso COLUMNS
TO UPDATE
está em versão prévia e não está habilitado para seu workspace. Entre em contato com seu representante do Databricks para saber mais sobre esse recurso e acesse a visualização privada.
FALHA_NA_MIGRAÇÃO_DA_ARQUITETURA
Para obter mais detalhes , consulte ARCHITECTURE_MIGRATION_FAILURE
ARCLIGHT_REQUER_Solução_sem_Servidor
Os pipelines direcionados a catálogos usando o Armazenamento Padrão devem usar processamento sem servidor. Se você não tiver acesso à computação sem servidor, entre em contato com o Databricks para habilitar esse recurso para seu workspace.
NÃO_PODE_ADICIONAR_COLUNA_PARA_INCLUIR_COLUNAS
Novas colunas (<columnNames>
) são adicionadas ao campo include_columns na definição de pipeline para a tabela <qualifiedTableName>
. Atualize a tabela para evitar possíveis perdas de dados ou remova essas colunas de include_columns.
NÃO_PODE_ADICIONAR_LOCAL_DE_ARMAZENAMENTO
Não é possível adicionar o local de armazenamento a um pipeline existente com catálogo definido se você quiser definir um local de armazenamento para criar um novo pipeline.
Catálogo existente: '<catalog>
'.
Local de armazenamento solicitado: <storageLocation>
.
NÃO_PODE_COMPOR_DECORADOR
SQLSTATE: nenhum estado atribuído
Não @<decoratorName>
é possível compor o<otherDecorators>
decorador.
NÃO É POSSÍVEL EXCLUIR COLUNA INEXISTENTE
A definição de pipeline exclui colunas (<columnNames>
) que não existem na tabela <qualifiedTableName>
de origem <sourceType>
. Remova essas colunas do campo exclude_columns.
NÃO_PODE_FILTRAR_COLUNA_OBRIGATÓRIA
A definição de pipeline não inclui colunas necessárias (<columnNames>
) na tabela <qualifiedTableName>
de origem <sourceType>
para ingestão. Adicione-os a include_columns ou remova-os de exclude_columns.
NÃO_PODE_INCLUIR_COLUNA_INEXISTENTE
A definição do pipeline inclui colunas (<columnNames>
) que não existem na tabela <qualifiedTableName>
de origem <sourceType>
. Remova essas colunas do campo include_columns.
IMPOSSÍVEL_INGESTIR_TABELA_SEM_CHAVE_PRIMÁRIA
A tabela <qualifiedTableName>
na origem <sourceType>
não tem uma chave primária.
Especifique uma chave primária na configuração do conector para importar a tabela se ela existir.
NÃO_PODE_MODIFICAR_PROPRIETÁRIO_DA_PIPELINE_PARA_PIPELINES_UC
A alteração do proprietário de pipelines não UC ainda não é suportada.
NÃO_PODE_MODIFICAR_PROPRIETÁRIO_DO_PIPELINE_PERMISSÃO_NEGADA
Somente os administradores do workspace podem alterar o proprietário do pipeline.
NÃO_PODE_MODIFICAR_PROPRIETÁRIO_DO_PIPELINE_QUANDO_AUSENTE
O novo dono não existe.
NÃO É POSSÍVEL MODIFICAR O TIPO DE PIPELINE
pipeline_type não pode ser atualizado.
Tipo de pipeline atual: <currentPipelineType>
.
Atualização pipeline_type: <requestedPipelineType>
.
NÃO_PODE_MODIFICAR_LOCAL_DE_ARMAZENAMENTO
Não é possível modificar o local de armazenamento de um pipeline existente.
Local de armazenamento existente: '<existingStorageLocation>
'.
Local de armazenamento solicitado: <requestedStorageLocation>
.
NÃO_PODE_REMOVER_COLUNA_DE_EXCLUIR_COLUNAS
As colunas (<columnNames>
) são removidas do campo exclude_columns na definição de pipeline da tabela <qualifiedTableName>
. Atualize completamente a tabela para evitar possíveis perdas de dados ou adicione essas colunas novamente à lista de exclude_columns.
NÃO_PODE_DEFINIR_CATÁLOGO_PARA_PIPELINE_HMS
Não é possível adicionar o catálogo a um pipeline existente com o local de armazenamento definido, se você quiser usar a UC para criar um novo pipeline e definir um catálogo.
Local de armazenamento existente: '<storageLocation>
'
Catálogo solicitado: '<catalog>
'
NÃO_PODE_DEFINIR_ID_DO_PIPELINE_LIGADO
Os IDs de pipeline são os mesmos, configurar os IDs de pipeline vinculados causará um deadlock.
NÃO É POSSÍVEL DEFINIR O ESQUEMA PARA UM PIPELINE EXISTENTE
O campo "esquema" especificado nas configurações de pipeline para o pipeline '<pipelineName>
' é ilegal. Razão:
Para obter mais detalhes , consulte CANNOT_SET_SCHEMA_FOR_EXISTING_PIPELINE
NÃO_PODEM_ESPECIFICAR_AMBOS_INCLUIR_EXCLUIR_COLUNAS
A definição do pipeline especifica tanto as colunas_incluídas quanto as colunas_excluídas para <identifier>
. Remova um deles.
NÃO_PODE_ATUALIZAR_COLUNAS_DE_CLUSTERIZAÇÃO
Não é possível atualizar colunas de clustering para tabela <tableName>
porque ela está usando colunas de partição. Uma tabela pode usar colunas de partição ou colunas de agrupamento, mas não ambas.
Para alternar entre agrupamento dinâmico e particionamento, realize uma atualização completa desta tabela.
NÃO É POSSÍVEL ATUALIZAR COLUNAS DE PARTIÇÃO
Não é possível atualizar colunas de partição para a tabela <tableName>
de streaming.
Atual: <existingPartitionColumns>
,
Solicitado: <requestedPartitionColumns>
Para aplicar essa alteração de partição, dispare uma atualização completa desta tabela e de qualquer outra tabela de streaming que tenha colunas de partição atualizadas.
Como alternativa, reverta essa alteração para continuar usando as colunas de partição existentes.
NÃO_PODE_ATUALIZAR_ESQUEMA_DA_TABELA
Falha ao mesclar os esquemas atuais e novos para a tabela <tableName>
.
Para continuar com essa alteração de esquema, você pode disparar uma atualização completa desta tabela.
Dependendo do caso de uso e das alterações de esquema, você pode ser capaz de evitar a alteração do esquema. Você pode atualizar suas consultas para que o esquema de saída seja compatível com o esquema existente (por exemplo, convertendo explicitamente colunas no tipo de dados correto).
NÃO_PODE_ESCREVER_NAS_COLUNAS_INATIVAS
<details>
No entanto, as tabelas de destino já têm colunas inativas com esse nome; as colunas estão inativas porque foram excluídas anteriormente das tabelas de origem.
Para continuar com a atualização, execute uma FULL REFRESH
nas tabelas ou solte essas colunas inativas usando o ALTER TABLE DROP COLUMN
comando.
NÃO_PODE_ESCREVER_EM_TABELAS_INATIVAS
As tabelas a seguir no destino são inativas e entram em conflito com as tabelas de origem atuais: <tables>
.
Essas tabelas permanecem inativas porque foram deletadas anteriormente da origem ou desselecionadas do conector.
Para continuar com a atualização, execute o comando FULL REFRESH
nas tabelas ou remova essas tabelas inativas do destino no Gerenciador de Catálogos ou por meio do comando DROP TABLE
, e tente novamente a atualização.
NÃO_PODE_ESCREVER_NAS_TABELAS_ENQUANTO_AGUARDA_REDEFINIÇÃO
As tabelas a seguir no destino não são redefinidas corretamente na atualização completa anterior: <tables>
.
Execute uma atualização completa para restaurar.
MAPEAMENTO_DE_CATÁLOGO_NÃO_DISPONÍVEL_NA_UC
O catálogo UC não tem o mapeamento para o catálogo '<sourceCatalog>
'.
Verifique se o catálogo está registrado no catálogo da UC.
INCOMPATIBILIDADE_DE_ESQUEMA_DO_CATÁLOGO_COM_PIPELINE_DE_DESTINO
O catálogo <destPipelineCatalog>
e o esquema <destPipelineSchema>
do pipeline de destino com o ID '<destPipelineId>
' não estão compatíveis com o catálogo e o esquema da tabela <tableName>
. O pipeline de destino deve ter o mesmo catálogo e esquema que a tabela ou o pipeline de destino deve estar usando o Modo de Publicação Direta.
ESPECIFICAÇÃO_DO_CATÁLOGO_NÃO_SUPORTADA
CatalogSpecs não são compatíveis com os conectores de banco de dados no momento. Remova a especificação do catálogo.
APLICADOR_CDC_COLUNA_UOID_NÃO_SUPORTADO
Colunas com UOID <columnNames>
da tabela <tableName>
não são suportadas em pipelines de ingestão geridos pelo CDC.
Verifique se o pipeline de ingestão dá suporte à coluna UOID ou solicite uma atualização completa.
FALHA FATAL DO APLICADOR CDC DO GATEWAY
Pipeline do Gateway encontrou um erro fatal:
<errorMessage>
Examine a falha de atualização do pipeline aqui: <link>
.
METADADOS_TABELA_REPLICADA_CDC_APLICADOR_NÃO_PRONTA
Os metadados de tabela replicados para tabela <tableName>
não estão prontos.
O carimbo de data/hora da solicitação de trabalho existente é <existingRequestTs>
, mas esperamos <expectedRequestTs>
ou posterior.
O APLICADOR DE CDC REQUER ATUALIZAÇÃO COMPLETA DE TODAS AS TABELAS DE DESTINO
Não há suporte para a atualização completa de uma tabela de destino e a atualização normal de outra tabela de destino da mesma origem.
Por favor, atualize completamente as duas tabelas para continuar, se possível.
Tabelas de atualização completa: <fullRefreshTables>
Tabelas de destino para a origem <sourceTable>
: <destinationTables>
CDC_APPLIER_ESQUEMA_ALTERADO_DURANTE_STREAMING
A versão <dataSchemaVersion>
do esquema é diferente da versão <readSchemaVersion>
do esquema de leitura.
O DLT tentará novamente a atualização.
Sequência de aplicação do CDC por coluna não encontrada
A coluna <columnName>
da tabela <tableName>
especificada em sequenceBy não existe em <columns>
.
CDC_APPLIER_SEQUENCE_BY_INVALID_TYPE
A coluna <columnName>
da tabela <tableName>
especificada em sequenceBy é do tipo <typeName>
que não tem suporte.
Os tipos com suporte para colunas sequenceBy são <allowedTypes>
.
SEQUÊNCIA_APLICADOR_CDC_POR_VÁRIAS_COLUNAS_NÃO_SUPORTADA
No máximo, uma coluna pode ser especificada em sequenceBy do pipeline de ingestão gerenciado por CDC.
Colunas especificadas: <columns>
para tabela <tableName>
.
Alterações de Esquema Incompatíveis do CDC
Encontramos uma alteração incompatível no esquema (<cause>
) da versão de esquema <previousSchemaVersion>
para <currentSchemaVersion>
.
Portanto, não podemos continuar aplicando alterações para <tableName>
. Solicite uma atualização completa da tabela.
Esquema anterior: <previousSchema>
Esquema atual: <currentSchema>
CDC_POTENCIAIS_LACUNAS_DE_DADOS
As tabelas a seguir [<needFullRefreshTableList>
] não têm uma atualização bem-sucedida há <retention>
dias.
Faça uma atualização completa nessas tabelas ou em todo o pipeline.
CDC_MESMA_TABELA_DE_MÚLTIPLAS_FONTES
Encontrou o mesmo nome da tabela <table>
de várias fontes: <sources>
.
Divida-os em pipelines diferentes para evitar conflitos.
Tabelas de origem múltiplas mapeadas para a mesma tabela de destino - CDC_MULTIPLE_SOURCE_TABLES_MAPPED_TO_SAME_DESTINATION_TABLE
Encontrado várias tabelas de origem: <source_tables>
mapeadas para a mesma tabela <destination_table>
de destino.
Mapeie-os para um nome de tabela de destino diferente ou para um esquema de destino diferente.
TABELA_CDC_NÃO_ENCONTRADA_EM_TODAS_AS_TABELAS
A tabela <table>
não é encontrada no instantâneo de todas as tabelas do banco de dados de origem.
Detalhes da especificação de tabela:
<tableSpec>
ALTERAÇÕES_HMS_PIPELINE_PARA_UC_NÃO_PERMITIDAS
A alteração de um pipeline HMS para um pipeline UC não é permitida.
ALTERAÇÕES_NO_PIPELINE_UC_PARA_HMS_NÃO_SÃO_PERMITIDAS
A alteração de um pipeline da UC para um pipeline HMS não é permitida.
ALTERAÇÃO_DO_ID_DO_PIPELINE_DA_TABELA_NÃO_SUPORTADA
Não há suporte para a alteração do pipeline de um <commandTableType>
.
ALTERAÇÃO_DO_CATÁLOGO_NÃO_PERMITIDA
Não é possível modificar o catálogo de um pipeline existente. Catálogo existente: '<existingCatalog>
'. Catálogo solicitado: '<requestedCatalog>
'.
ALTERAÇÃO_DO_ESQUEMA_DE_DESTINO_NÃO_PERMITIDA
A alteração do esquema de destino não é permitida. Motivo: <reason>
.
LIMITE_DE_POLÍTICA_DE_ORÇAMENTO_DE_CRIAÇÃO_DE_CLUSTER_EXCEDIDO
A tentativa de criar um cluster falhou porque a política de orçamento do pipeline excedeu o limite. Use uma política diferente ou entre em contato com o administrador de cobrança.
ERRO_DE_CRIACAO_DO_CLIENTE_NO_CLUSTER
Falha ao criar um cluster de pipeline: <errorMessage>
Esse erro provavelmente ocorre devido a uma configuração incorreta no pipeline.
Verifique a configuração do cluster de pipeline e a política de cluster associada.
CRÉDITOS_PARA_CRIAÇÃO_DO_CLUSTER_ESGOTADOS
Falha ao criar um cluster porque você esgotou seus créditos disponíveis. Adicione uma forma de pagamento para atualizar sua conta.
If an explanation is warranted — Criação do cluster exauriu os recursos.
Falha ao criar um cluster porque você excedeu os limites de recursos: <errorMessage>
Erro do Cliente no Lançamento do Cluster (CLUSTER_LAUNCH_CLIENT_ERROR)
Falha ao iniciar o cluster de pipeline <clusterId>
: <clusterStateMessage>
Esse erro provavelmente ocorre devido a uma configuração incorreta no pipeline.
Verifique a configuração do cluster de pipeline e a política de cluster associada.
FALHA_NO_LANCAMENTO_DA_NUVEM_DO_CLUSTER
Falha ao iniciar o cluster de pipeline <clusterId>
: <clusterStateMessage>
Esse erro pode ser transitório, reinicie seu pipeline e reporte se ainda vir o mesmo problema.
CLUSTER_SETUP_CLIENT_ERROR
Para obter mais detalhes, consulte CLUSTER_SETUP_CLIENT_ERROR
CLUSTER_INACESSÍVEL
Comunicação perdida com o controlador. O cluster <clusterId>
não pôde ser acessado por <timeoutSeconds>
segundos.
MÁSCARA_DE_COLUNA_SEM_COLUNA
Máscara de coluna encontrada para a coluna '<columnName>
' que não existe no esquema MV/ST. Se isso for devido a uma alteração no esquema da tabela base,
solte a máscara antiga com ALTER TABLE
[table_name] ALTER COLUMN
[coluna em que a máscara é aplicada] DROP
MASK; ou restaure a coluna.
COLUNA_A_ATUALIZAR_NÃO_ENCONTRADA
Coluna <column>
especificada em COLUMNS
TO UPDATE
não encontrada no Dataframe de origem.
FALHA_NO_ATUALIZAÇÃO_CONCORRENTE_AO_TENTAR_PARAR_ATUALIZAÇÃO_ANTERIOR
Iniciou a atualização '<upgradedUpdateId>
' para uma atualização, mas não conseguiu interromper a atualização anterior '<oldUpdateId>
'.
Esse erro provavelmente é transitório. O pipeline será tentado novamente automaticamente e o problema deverá se resolver por conta própria.
Relate esse erro ao Databricks se você continuar a ver o mesmo problema.
DECORADOR_DE_CONJUNTO_DE_DADOS_APLICADO_DUAS_VEZES
SQLSTATE: nenhum estado atribuído
O conjunto de <datasetName>
dados já existe. Verifique se a função de consulta só foi marcada como uma exibição ou tabela uma vez.
DATASET_NÃO_DEFINIDO
Falha ao ler o conjunto de dados '<datasetName>
'. Esse conjunto de dados não está definido no pipeline.
Se essa tabela for gerenciada por outro processo, não use dlt.read
/ dlt.readStream
para ler a tabela nem adicione a palavra-chave LIVE antes do nome.
DBFS_NÃO_ATIVADO
O DBFS não está habilitado para este workspace; Publique no Catálogo do Unity ou especifique um local de armazenamento diferente para o pipeline.
DBSQL_PIPELINE_NÃO_DEVE_TER_TABELAS_MULTIPLAS
Um DBSQL
pipeline deve ter exatamente uma exibição materializada ou uma tabela de streaming, mas foram encontradas <tablesSize>
tabelas: <tables>
CANALIZAÇÃO_DE_DESTINO_NÃO_ENCONTRADA
O pipeline de destino com o ID '<pipelineId>
' não pode ser encontrado. Verifique se você está no mesmo workspace que o pipeline, você é o proprietário do pipeline e o pipeline foi executado pelo menos uma vez.
CANAL_DE_DESTINO_NÃO_ESTÁ_NO_MODO_DE_PUBLICAÇÃO_DIRETA
O pipeline de destino com o ID '<pipelineId>
' não está usando o Modo de Publicação Direta.
PERMISSÃO_NEGADA_NO_PIPELINE_DE_DESTINO
Você não tem permissão para executar essa operação, não é o proprietário do pipeline de destino com a ID '<pipelineId>
'. Somente os proprietários podem alterar o pipeline de uma tabela.
TIPO_DE_PIPELINE_DE_DESTINO_NÃO_É_TIPO_DE_PIPELINE_DE_ESPAÇO_DE_TRABALHO
O pipeline de destino com a ID '<pipelineId>
' não é um pipeline de ETL.
REALIZAR_CRIAÇÃO_OU_EDIÇÃO_AÇÃO_INVÁLIDA_POR_USUÁRIO
Erro ao lidar com a solicitação '<action>
'.
AGENDA_DE_DESCARTA_NÃO_EXISTE
Não é possível descartar SCHEDULE
em uma tabela sem um agendamento ou gatilho existente.
DUPLICADO_DE_LOCALIZAÇÃO_DO_ESQUEMA_JSON
Chave de localização do esquema from_json duplicada: <schemaLocationKey>
.
Escolha chaves de localização de esquema exclusivas para cada consulta 'from_json' no pipeline
ESPECIFICAÇÕES_DA_TABELA_DE_CONFIGURAÇÃO_DE_INGESTÃO_DUPLICADA
A configuração do pipeline de ingestão contém tabelas duplicadas. Certifique-se de que cada tabela seja única.
OBJETOS_VAZIOS_DE_CONFIGURAÇÃO_DE_INGESTÃO
Os objetos de configuração de ingestão estão vazios.
A ESCALONAGEM AUTOMÁTICA APRIMORADA REQUER A EDIÇÃO AVANÇADA
A configuração "spare_capacity_fraction" de dimensionamento automático aprimorada só tem suporte na edição de produto avançado do Lakeflow Declarative Pipelines.
Por favor, edite as configurações do pipeline para definir "edition": "avançado", a fim de utilizar 'spare_capacity_fraction'.
RECURSO_PICKER_DE_LOG_DE_EVENTOS_NÃO_SUPORTADO
Não há suporte para a publicação do log de eventos no Catálogo do Unity para este pipeline. Se isso for inesperado, entre em contato com o suporte do Databricks.
VIOLAÇÃO_DE_EXPECTATIVA
O fluxo '<flowName>
' não conseguiu atender à expectativa.
Para obter mais detalhes , consulte EXPECTATION_VIOLATION
EXPLORE_ONLY_NÃO_PODE_SER_CONFIGURADO_COM_VALIDATE_ONLY
explore_only e validate_only não podem ser definidos como verdadeiros.
APENAS_EXPLORAR_NÃO_ESTÁ_HABILITADO
A atualização "explore_only" não está habilitada.
Apenas_explorar_em_pipeline_sem_ingestão
explore_only só pode ser definido como true para pipelines de ingestão.
FALHA_AO_CRIAR_LOG_DE_EVENTO
Falha na criação do log de eventos do pipeline (id=<pipelineId>
) com o identificador <eventLogIdentifier>
. Confira a exceção abaixo para obter mais detalhes.
FALHA_AO_PUBLICAR_VISÃO_NO_METASTORE
Falha ao publicar a view <viewName>
no metastore porque <reason>
.
FALHA_AO_ATUALIZAR_REGISTRO_DE_EVENTOS
Falha ao atualizar o identificador de log de eventos do pipeline (id=<pipelineId>
) para <newEventLogIdentifier>
. Confira a exceção abaixo para obter mais detalhes.
ESQUEMA_DE_FLUXO_ALTERADO
O Fluxo <flowName>
foi encerrado porque encontrou uma alteração de esquema durante a execução.
A alteração de esquema é compatível com o esquema de destino existente e a próxima execução do fluxo pode ser retomada com o novo esquema.
SOMENTE_SUPORTE_FOREACH_BATCH_SINK_NO_CANAL_DE_PREVISUALIZAÇÃO
O DLT ForeachBatch Sink atualmente não é suportado.
A visualização privada do coletor DLT ForeachBatch requer o PREVIEW
canal.
Coletores DLT: <sinkNames>
SCRIPTS DE INICIALIZAÇÃO DO PIPELINE DO GATEWAY NÃO PERMITIDOS
O pipeline do Gateway não permite scripts de inicialização de cluster. Remova-o de <from>
.
CONFIGURAÇÃO_DO_SPARK_DA_PIPELINE_DO_GATEWAY_NÃO_PERMITIDA
O pipeline do Gateway não permite configuração do Spark [<configs>
]. Por favor, remova-os de <from>
.
LIMITE_DE_CAPACIDADE_DE_ATUALIZAÇÃO_DE_ORGANIZAÇÃO_EXCEDIDO
O número de IDs de organização solicitadas excede o limite máximo permitido de <limit>
GOOGLE_ANALYTICS_RAW_DATA_CONNECTOR_SOURCE_CATALOG_MISSING (Catálogo de Fonte de Conector de Dados Brutos do Google Analytics ausente)
Ocorreu um erro no conector de dados brutos do Google Analytics.
O catálogo de origem para o está ausente na especificação de ingestão. O catálogo de origem aqui é a ID do projeto GCP do qual você deseja ingerir.
Verifique se o catálogo de origem está presente na especificação de ingestão para resolver esse problema.
HMS_NÃO_HABILITADO
O Metastore do Hive não está habilitado para este workspace; Publique no Catálogo do Unity.
COLUNA_ILEGAL_PARA_ATUALIZAR_TIPO_DE_DADOS
O tipo de dados da coluna especificada de COLUMNS
a UPDATE
deve ser um array de strings, mas encontrou <illegalDataType>
.
PARAM_ID_INVÁLIDO_NAS_CONFIGURAÇÕES_DO_PIPELINE
As configurações não devem conter '<fieldName>
'.
CAMPO_SCHEMA_IRREGULAR_EM_ESPECIFICAÇÃO_DE_PIPELINE
O campo "esquema" especificado nas configurações do pipeline é ilegal. Motivo: <reason>
.
INCORRECT_ROOT_PATH_TYPE
O caminho raiz '<rootPath>
' deve ser um diretório, no entanto, foi encontrado <objectType>
.
CONFIGURAÇÃO_INGESTÃO_ESQUEMA_DUPLICADO
A configuração do pipeline de ingestão contém esquemas duplicados. Verifique se cada esquema é exclusivo.
FALHA_DE_AUTENTICAÇÃO_DO_PORTAL_DE_INGESTÃO
Falha de autenticação
Para obter mais detalhes, consulte INGESTION_GATEWAY_AUTHENTICATION_FAILURE
FALHA_DA_MUDANÇA_DE_ESQUEMA_DO_GATEWAY_DE_INGESTÃO
Uma incompatibilidade de esquema foi detectada entre as tabelas de origem e de destino. Para resolver esse problema, é necessária uma atualização completa da tabela '<entityName>
' no fluxo de ingestão.
INGESTION_GATEWAY_CDC_NÃO_HABILITADO
O CDC não está habilitado em <entityType>
'<entityName>
'. Habilite o CDC e realize uma atualização completa de tabela no Pipeline de Ingestão. Mensagem de erro: “<errorMessage>
”.
FALTA DE OBJETOS DDL NO GATEWAY DE INGESTÃO
Objetos DDL ausentes em <entityType>
'<entityName>
'. Execute o script de objetos DDL e atualize completamente a tabela no pipeline de ingestão. Mensagem de erro: “<errorMessage>
”.
REFERÊNCIA_DE_CONEXÃO_AUSENTE_NO_PORTÃO_DE_INGESTÃO
A configuração do gateway de ingestão não tem uma conexão.
Adicione uma referência à conexão do Catálogo do Unity que contém suas credenciais.
Detalhes da definição do pipeline do gateway de ingestão:
<definition>
PORTÃO_DE_INGESTÃO_FALTANDO_CATÁLOGO_DE_ARMAZENAMENTO_INTERNO
A configuração do gateway de ingestão não tem o catálogo de localização de armazenamento interno.
Adicione o catálogo de locais de armazenamento interno.
Detalhes da definição do pipeline do gateway de ingestão:
<definition>
PORTA_DE_INGESTÃO_NOME_AUSENTE_DE_ARMAZENAMENTO_INTERNO
A configuração do gateway de ingestão não tem o nome do local de armazenamento interno.
Adicione o nome do local de armazenamento interno.
Detalhes da definição do pipeline do gateway de ingestão:
<definition>
INGESTÃO_GATEWAY_AUSENTE_ESQUEMA_ARMAZENAMENTO_INTERNO
A configuração do gateway de ingestão não tem o esquema de local de armazenamento interno.
Adicione o esquema de local de armazenamento interno.
Detalhes da definição do pipeline do gateway de ingestão:
<definition>
PORTA_DE_INGESTÃO_TABELA_FALTANDO_NA_FONTE
A tabela '<entityName>
' não existe no banco de dados de origem ou foi descartada. Resolva o problema e faça uma atualização completa da tabela no pipeline de Ingestão Gerenciada. Mensagem de erro: “<errorMessage>
”.
INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED (Falha ao alterar a publicação PG do gateway de ingestão)
Falha ao alterar a publicação de replicação para <entityType>
'<entityName>
'
Mensagem de erro: <errorMessage>
Para obter mais detalhes , consulte INGESTION_GATEWAY_PG_PUBLICATION_ALTER_FAILED
FALHA NA CRIAÇÃO DA PUBLICAÇÃO NO GATEWAY DE INGESTÃO PG
Falha ao criar a publicação de replicação para <entityType>
'<entityName>
'
Mensagem de erro: <errorMessage>
Para obter mais detalhes , consulte INGESTION_GATEWAY_PG_PUBLICATION_CREATION_FAILED
FALHA_NO_DROP_DE_PUBLICAÇÃO_DO_INGESTION_GATEWAY_PG
Falhou ao tentar remover a publicação de replicação para <entityType>
'<entityName>
'
Mensagem de erro: <errorMessage>
Para obter mais detalhes , consulte INGESTION_GATEWAY_PG_PUBLICATION_DROP_FAILED
SLOT_PG_DO_GATEWAY_DE_INGESTÃO_CONSUMIDO_POR_OUTRO_PROCESSO
Falha ao criar um slot de replicação para <entityType>
'<entityName>
' devido ao slot de replicação estar sendo usado por outro PID.
Mensagem de erro: <errorMessage>
FALHA_NA_CRIAÇÃO_DO_SLOT_DE_PG_DO_GATEWAY_DE_INGESTÃO
Falha ao criar o slot de replicação para <entityType>
'<entityName>
'
Mensagem de erro: <errorMessage>
Para obter mais detalhes , consulte INGESTION_GATEWAY_PG_SLOT_CREATION_FAILED
INGESTION_GATEWAY_SOURCE_INSUFFICIENT_PERMISSION_FAILURE (Falha de permissão insuficiente na fonte do gateway de ingestão)
O usuário não tem as permissões necessárias para acessar esse objeto ou executar o procedimento armazenado. Verifique se todos os privilégios necessários são concedidos. Consulte a seguinte documentação: https://docs.databricks.com/aws/en/ingestion/lakeflow-connect/sql-server/database-user-requirements.
FALHA_NO_HOST_OU_PORTA_DO_GATEWAY_DE_INGESTÃO_INATINGÍVEL
Falha na conexão devido a um nome de host <host>
incorreto e/ou porta <port>
do banco de dados de origem.
Para obter mais detalhes , consulte INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE
COMANDO_APLICAR_ALTERAÇÕES_INVÁLIDO
AUTO CDC
o comando é inválido.
<reason>
.
TIPO_DE_ARGUMENTO_INVÁLIDO
SQLSTATE: nenhum estado atribuído
Valor do tipo inválido passado para o parâmetro '<paramName>
'. Esperado <expectedType>
.
<additionalMsg>
.
OPÇÕES_DE_COMPATIBILIDADE_INVÁLIDAS
As opções de tabela especificadas para tabela <table>
são inválidas, pois
Para obter mais detalhes , consulte INVALID_COMPATIBILITY_OPTIONS
USO_INVÁLIDO_DE_DECORADOR
SQLSTATE: nenhum estado atribuído
O primeiro argumento posicional passado para @<decoratorName>
deve ser callable. Adicione @<decoratorName>
sem parâmetros à sua função ou passe opções para @<decoratorName>
usando argumentos de palavra-chave (por exemplo <exampleUsage>
).
CONFIGURAÇÃO_INVÁLIDA_DE_REGISTRO_DE_EVENTOS
Foi encontrada uma configuração inválida de log de eventos na especificação do pipeline: <message>
NOME_INVÁLIDO_EM_USO_COMANDO
Nome inválido '<name>
' no comando <command>
. Motivo: <reason>
PARÂMETRO_INVÁLIDO_PARA_DBSQL_PIPELINE
Você só pode especificar 'pipeline_id' e 'pipeline_type' ao executar 'dry_run' para um DBSQL
pipeline.
SELEÇÃO_DE_ATUALIZAÇÃO_INVÁLIDA
Os parâmetros de seleção de atualização especificados para esta atualização são inválidos, pois
Para obter mais detalhes, consulte INVALID_REFRESH_SELECTION
SOLICITAÇÃO INVÁLIDA DE ATUALIZAÇÃO DE SELEÇÃO PARA PIPELINE CONTÍNUO
Não há suporte para a seleção de atualização para o modo contínuo.
SOLICITAÇÃO DE SELEÇÃO DE ATUALIZAÇÃO INVÁLIDA COM ATUALIZAÇÃO COMPLETA
full_refresh não deve ser definido como true para uma solicitação de seleção de atualização.
CAMINHO_RAIZ_INVÁLIDO
Inválido root_path '<rootPath>
': apenas caminhos de diretório absolutos têm suporte no momento. Os caminhos de diretório devem começar com '/' e não terminar com '/'.
NOME_DE_ESQUEMA_INVÁLIDO
Esquema '<schemaName>
' inválido especificado na configuração do pipeline. Motivo: <reason>
.
TIPO_INVÁLIDO_DE_SNAPSHOT_E_VERSÃO
SQLSTATE: nenhum estado atribuído
snapshot_and_version para o fluxo com o tipo de destino '<target>
' retornou um tipo não suportado.
<additionalMsg>
.
FORMATO_DE_INTERVALO_DE_DISPARO_INVÁLIDO
A configuração de intervalo de gatilho especificada em <configurationType>
é inválida
DETALHES_DO_TRABALHO_NÃO_CORRESPONDEM
Se ambos 'update_cause_details.job_details' e 'job_task' forem dados, eles deverão corresponder, mas eles são <details>
e <jobTask>
DETALHES_DA_TAREFA_EM_FALTA
Se 'cause' for JOB_TASK
então 'job_task' ou 'update_cause_details.job_details' deve ser dado.
REFERÊNCIA_AO_VIVO_FORA_DE_DEFINIÇÃO_DE_CONSULTA_CLÁSSICA
Não há suporte para referenciar conjuntos de dados usando LIVE
esquema virtual fora da definição de consulta do conjunto de dados (isto é, @dlt.table anotação).
REFERÊNCIA_VIVA_FORA_DA_DEFINIÇÃO_DE_CONSULTA_DPM
Não há suporte para fazer referência a conjuntos de dados usando LIVE
esquema <identifier>
virtual fora da definição de consulta do conjunto de dados (ou seja, @dlt.table anotação).
REFERÊNCIA_ATIVA_FORA_DE_DEFINIÇÃO_DE_CONSULTA_SPARK_SQL
Referenciar conjuntos de dados usando o esquema virtual LIVE
na API spark.sql(...) não deve ser feito fora da definição de consulta do conjunto de dados, isto é, @dlt.table anotação. Ele só pode ser chamado dentro da definição de consulta do conjunto de dados.
TENTATIVAS MÁXIMAS ATINGIDAS ANTES DE REPROCESSAR ENZIMA
Contagem máxima de repetições atingida. Contagem de repetições:<flowRetryCount>
. ContagemMáximaDeTentativasDeRecuperaçãoDeFalhaDoFluxo:<maxFlowRetryAttempts>
. <message>
MESA_PIPELINE_INVALID_DEFINITION_TYPE
Não é permitido iniciar um <definitionType>
pipeline a partir da definição de UC.
Tipos de Pipeline Incompatíveis da MESA
A definição armazenada e atualizada deve ser do mesmo tipo de pipeline, mas tem <stored>
e <updated>
.
MESA_PIPELINE_DEFINIÇÃO_AUSENTE
O pipeline não tem uma definição válida no UC, mas uma atualização é solicitada.
MESA_PIPELINE_MISSING_DEFINITION_UNEXPECTED
Definição de pipeline ausente inesperadamente da UC.
OPERAÇÃO METASTORE EXPIRADA
As operações envolvidas na atualização das informações do metastore para <tableName>
demoraram mais do que <timeout>
.
Esse problema pode ser transitório ou pode indicar bugs no cliente metastore configurado. Tente reiniciar o pipeline e relatar esse problema se ele persistir.
PRIVILÉGIO_DE_CRIAÇÃO_DE_ESQUEMA_FALTANDO
O usuário '<userName>
' não tem permissão para criar esquema no catálogo <catalogName>
PRIVILÉGIO_AUSENTE_PARA_CRIAR_TABELA
O usuário '<userName>
' não tem permissão para criar tabela no esquema <schemaName>
USUÁRIO_DE_EXECUÇÃO_AUSENTE
Nenhuma execução como usuário foi especificada para a atualização.
OPÇÕES_MUTUAMENTE_EXCLUSIVAS
Opções mutuamente exclusivas <options>
. Remova uma destas opções.
VALOR_NEGATIVO
SQLSTATE: nenhum estado atribuído
O valor para <arg_name>
deve ser maior ou igual a 0, recebido '<arg_value>
'.
TABELA_NAO_UC_JA_GERENCIADA_POR_OUTRO_PIPELINE
A tabela '<tableName>
' já é gerenciada por pipeline <otherPipelineId>
.
Se você quiser que a tabela '<tableName>
' seja gerenciada por este pipeline -
Remova a tabela do pipeline '
<otherPipelineId>
'.Inicie uma atualização completa para este pipeline.
Se você quiser continuar gerenciando a tabela a partir de vários pipelines, desabilite esta verificação definindo pipelines.tableManagedByMultiplePipelinesCheck.enabled
como false
em suas configurações de pipeline.
Isso não é recomendado, pois operações simultâneas na tabela podem entrar em conflito entre si e levar a resultados inesperados.
LIMITE_DE_NOME_DE_BLOCO_DE_NOTAS_ATINGIDO
Caminho do bloco de anotações inválido: '<nameStart>
...<nameEnd>
'. É mais longo que <maxNotebookPathLength>
caracteres.
NOTEBOOK_NÃO_ENCONTRADO
Não é possível carregar o notebook '<notebookPath>
'.
NOTIFICAÇÕES_ALERTAS_DUPLICADOS
Alertas duplicados '<alertsDuplicates>
' especificados em [<alerts>
]
NOTIFICAÇÕES_ENDEREÇOS_DE_EMAIL_DUPLICADOS
Endereços de email duplicados '<emailRecipientsDuplicates>
' especificados em [<emailRecipients>
]
NOTIFICAÇÕES_ALERTAS_INVÁLIDOS
Foram especificados alertas inválidos para receber notificações em: <invalidAlerts>
NOTIFICAÇÕES_ENDEREÇO_DE_EMAIL_INVÁLIDO
Endereço de email inválido especificado para receber notificações: <invalidEmailAddresses>
NOTIFICAÇÕES_FALTANDO_PARÂMETROS
Especifique pelo menos um destinatário e um alerta em <setting>
NÃO_FORNECIDO_ARGUMENTO_DE_FONTE_OU_SNAPSHOT_E_VERSÃO
SQLSTATE: nenhum estado atribuído
Ou source
ou snapshot_version
deve ser definido para create_auto_cdc_flow_from_snapshot
com o destino '<target>
'.
SEM_TABELAS_NO_PIPELINE
Espera-se que os pipelines tenham pelo menos uma tabela definida, mas nenhuma tabela foi encontrada em seu pipeline.
Verifique se você incluiu os arquivos de origem esperados e se o código-fonte inclui definições de tabela (por exemplo, CREATE MATERIALIZED VIEW
no código SQL, @dlt.table no código python).
Observe que somente as tabelas são contadas para essa verificação. Você poderá também encontrar esse erro se incluir apenas visualizações ou fluxos no pipeline.
PROPRIETÁRIO_ESTÁ_FALTANDO
O proprietário não existe.
SOLICITAÇÃO_DE_PAGINAÇÃO_TEM_NOME_E_PAGINAÇÃO
Você pode fornecer um <name>
ou paginação, mas não ambos.
PATCH_DEFINIÇÃO_DO_PIPELINE_CAMPO_NÃO_SUPORTADO
PatchPipelineDefinition dá suporte apenas ao schedule
campo, mas a definição fornecida tinha outros campos preenchidos: '<updatedDefinition>
'.
VISTA PERSISTENTE LÊ DE FONTE DE STREAMING
As exibições persistentes não dão suporte à leitura de fontes de streaming.
Leituras_de_Visualização_Persistente_de_Visualização_Temporária
A visão <persistedViewName>
persistente não pode fazer referência à visão <temporaryViewName>
temporária que não estará disponível fora do escopo do pipeline. Torne a exibição persistente temporária ou persista a exibição temporária.
Clonagem de pipeline já em andamento
O pipeline já está sendo clonado para o pipeline com o ID '<pipelineId>
'.
Clonagem de pipeline inválida durante atualização ativa
O pipeline com a ID '<pipelineId>
' não pode ser clonado durante uma atualização ativa.
CAMPOS_INVÁLIDOS_NO_CLONAGEM_DO_PIPELINE
A solicitação incluiu a especificação de pipeline com campos inválidos para o clone. Os campos permitidos incluem: nome, catálogo, destino, configuração.
CLONAGEM_DE_PIPELINE_INVÁLIDA_POR_AUSÊNCIA_DE_DESTINO
O pipeline com a ID '<pipelineId>
' não publica em um esquema de destino. O pipeline de origem precisa publicar em um esquema de destino para que ele seja clonado. Tente novamente depois de especificar o campo "destino" na especificação do pipeline e executar uma nova atualização para publicar em um esquema de destino.
CLONAGEM_DE_PIPELINE_INVÁLIDA_PARA_PIPELINE_UC
O pipeline com a ID '<pipelineId>
' já é um pipeline da UC. Os pipelines de UC não podem ser clonados.
CLONAGEM_DE_PIPELINE_SEM_MODO_ESPECIFICADO
Nenhum modo de clone especificado.
CLONAGEM_DE_PIPELINE_NENHUM_ALVO_ESPECIFICADO
Nenhum catálogo de destino especificado para clonagem.
CRIAÇÃO_DE_PIPELINE_NÃO_HABILITADA_PARA_O_ESPAÇO_DE_TRABALHO
A criação de pipeline não está habilitada para esse workspace.
PIPELINE_NÃO_EXISTE
O pipeline com a ID "<pipelineId>
" não existe.
Para obter mais detalhes , consulte PIPELINE_DOES_NOT_EXIST
AMBIENTE_PIPELINE_NÃO_HABILITADO
O uso do ambiente no DLT não está habilitado.
VERSÃO_DO_AMBIENTE_DE_PIPELINE_NÃO_PERMITIDA
Atualmente, o ambiente do pipeline não dá suporte a versões de ambiente.
FALHA_AO_ATUALIZAR_TABELA_UC_DEVIDO_A_ATUALIZAÇÃO_CONCORRENTE
Falha ao atualizar a tabela UC (<tableName>
) no pipeline devido a modificações simultâneas após <attempts>
tentativas.
Verifique se não há processos externos modificando a tabela, repita a atualização e entre em contato com o suporte do Databricks se esse problema persistir.
PIPELINE_PARA_TABELA_PRECISA_ATUALIZAÇÃO
A tabela <tableName>
não está no estado necessário, a tabela não foi atualizada recentemente. O pipeline com a ID '<pipelineId>
' deve ser executado mais uma vez, para então tentar novamente a operação.
CANAL_PARA_TABELA_NÃO_ENCONTRADA
O pipeline com ID '<pipelineId>
', que gerencia a tabela <tableName>
, não pode ser encontrado. Verifique se você está no mesmo workspace que o pipeline, você é o proprietário do pipeline e o pipeline foi executado pelo menos uma vez.
CONFLITOS_EM_INCLUSÕES_DO_GLOB_NO_PIPELINE
O campo glob ou notebook/arquivo nas configurações das bibliotecas do pipeline deve ser configurado. Altere as configurações do pipeline.
INCLUSÕES DE GLOB NO PIPELINE NÃO SUPORTADAS
Usar o campo glob para incluir arquivos de origem é um recurso de visualização e está desabilitado.
Selecione novamente cada arquivo de origem a ser incluído para o pipeline para corrigir esse erro.
Entre em contato com o suporte do Databricks para saber mais sobre esse recurso e registre-se na versão prévia.
CARACTERE_ESPECIAL_NÃO_SUPORTADO_NO_PIPELINE
<specialChar>
Caracteres especiais são reservados e não devem ser usados no caminho "<path>
" incluído nas configurações do pipeline. Remover esses caracteres para corrigir o erro
LIMITE_DE_NOME_DE_CANALIZAÇÃO_ATINGIDO
O nome não pode ser maior que <maxPipelineNameLength>
caracteres.
ANÁLISE NÃO RETRYÁVEL DO PIPELINE
O pipeline falhou ao analisar as tabelas de origem (<tables>
) devido a erros não recuperáveis após a execução parcial.
Uma nova atualização do pipeline não será criada. Verifique o log de eventos e corrija os problemas adequadamente.
PIPELINE_NOT_IN_DIRECT_PUBLISHING_MODE (Modo de publicação direta desativado)
O pipeline com a ID '<pipelineId>
', gerenciando a tabela <tableName>
, não está usando o Modo de Publicação Direta.
PIPELINE_NÃO_PRONTO_PARA_ATUALIZAÇÃO_AGENDADA
A tabela ainda não está pronta para atualização
Para obter mais detalhes , consulte PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE
PERMISSÃO_NEGADA_NÃO_PROPRIETÁRIO
Você não tem permissão para executar essa operação. Você não é o proprietário do pipeline com a ID '<pipelineId>
', gerenciando a tabela <tableName>
.
CONFIGURAÇÃO_DO_PIPELINE_NÃO_PODE_SER_EDITADA
'<uneditableFieldName>
' não pode ser modificado pelos usuários. Se os usuários desejarem adicionar ou modificar o <settingName>
campo , use o campo '<editableFieldName>
'.
CONFIGURAÇÕES DO PIPELINE MODIFICADAS CONCORRENTEMENTE
As configurações de pipeline foram modificadas simultaneamente.
Configurações Não Suportadas das Definições da Pipeline
Não há suporte para as configurações <configurations>
do Lakeflow Declarative Pipelines. Remova essas configurações.
CONFIGURAÇÃO_DO_PIPELINE_NÃO_DEVE_ESPECIFICAR_DESENVOLVIMENTO
Não há suporte para iniciar uma atualização com a configuração de "desenvolvimento".
O PIPELINE_NÃO_DEVE_TER_MULTIPLAS_TABELAS
O pipeline deve ter exatamente uma tabela, mas encontrou <tablesSize>
tabelas: <tables>
Número de arquivos de origem do pipeline excedido (PIPELINE_SOURCE_FILE_NUMBER_EXCEEDED)
O número de arquivos de origem, incluindo arquivos declarados em pastas, excede o limite de <limit>
.
Remova ou mescle arquivos excessivos e modifique a especificação de pipeline correspondente, se necessário.
ou entre em contato com o suporte do Databricks para solicitar um aumento de limite.
PROFUNDIDADE DA PASTA DE ORIGEM DO PIPELINE EXCEDIDA
A pasta '<folder_path>
' excede o nível máximo de aninhamento de diretório permitido de <limit>
. Reduza o nível de aninhamento de pastas ou entre em contato com o suporte do Databricks para solicitar um aumento de limite.
ESPECIFICAÇÃO_DO_PIPELINE_PARAMETRO_NÃO_PODE_SER_ALTERADO
A modificação do parâmetro <param>
a seguir nas configurações de pipeline não é permitida
TIPO_DE_CANALIZAÇÃO_NÃO_SUPORTADO
Não há suporte para o tipo de pipeline '<pipelineType>
' .
TIPO_DE_PIPELINE_NÃO_TIPO_DE_PIPELINE_DO_WORKSPACE
O pipeline com ID '<pipelineId>
', gerenciando a tabela <tableName>
, não é um pipeline ETL.
TIPO_DE_CANALIZAÇÃO_COTA_EXCEDIDA
Não é possível iniciar a atualização '<updateId>
' porque o limite para pipelines ativos do tipo '<pipelineType>
' foi atingido.
ATUALIZAÇÃO DO PIPELINE PARA A TABELA ESTÁ EM EXECUÇÃO
O pipeline com o ID '<pipelineId>
', gerenciando a tabela <tableName>
, está em execução. Pare o pipeline antes de executar a operação.
LIMITE_DO_ESPAÇO_DE_TRABALHO_DA_PIPELINE_ATINGIDO
Criação de pipeline do tipo '<pipelineType>
' bloqueada porque o workspace '<orgId>
' já tem '<countLimit>
' pipelines. Entre em contato com o suporte do Databricks para ajustar esse limite.
PIP_ERRO_DE_INSTALAÇÃO
Ocorreu um erro ao invocar a instalação do %pip.
INSTALAR_PIP_NÃO_NO_TOPO_DO_CADERNO
Encontramos células que contêm %pip install que não estão no topo do notebook para '<notebookPath>
'
Mova todas as células de instalação %pip para o início do notebook.
PY4J_BLOCKED_API
SQLSTATE: nenhum estado atribuído
Você está usando uma API do Python que não tem suporte no ambiente atual.
Verifique a documentação do Databricks para obter alternativas.
<additionalInfo>
REFERÊNCIA_CONJUNTO_DE_DADOS_DLT_FORA_DA_DEFINIÇÃO_DE_CONSULTA
Não há suporte para fazer referência ao dataset DLT <identifier>
fora da definição de consulta do dataset (isto é, anotação @dlt.table). Leia-o dentro da definição de consulta do conjunto de dados.
REATUALIZAÇÃO_INICIADA_DE_UM_ESPAÇO_DE_TRABALHO_INVÁLIDO
A atualização deve ser iniciada no workspace <homeWorkspaceId>
, onde o recurso foi criado.
A atualização foi tentada no workspace <userWorkspaceId>
.
MODO_ATUALIZAR_JÁ_EXISTE
Não é possível adicionar <type>
a uma tabela que já tenha <existingType>
. Remova a agenda existente ou use ALTER TABLE
... ALTER <type>
para alterá-la.
PARAMETRO_OBRIGATORIO_NAO_ENCONTRADO
O parâmetro <param>
necessário não foi encontrado.
PALAVRA_RESERVADA_EM_USO_CATÁLOGO
USE CATALOG
'<reservedKeyword>
' é ilegal porque '<reservedKeyword>
' é uma palavra-chave reservada no DLT.
PALAVRA_RESERVADA_EM_USO_ESQUEMA
USE SCHEMA
'<reservedKeyword>
' é ilegal porque '<reservedKeyword>
' é uma palavra-chave reservada no DLT.
Caminho raiz não encontrado
Não é possível acessar o caminho raiz '<rootPath>
'. Verifique se você tem os privilégios de acesso necessários.
EXECUTAR_COMO_USUÁRIO_NÃO_ENCONTRADO
A execução especificada para a atualização como usuário '<runAsUserId>
' não existe no espaço de trabalho.
SAAS_CONNECTION_ERROR
Falha ao fazer uma conexão com a origem <sourceName>
. Código de erro: <saasConnectionErrorCode>
.
Para obter mais detalhes , consulte SAAS_CONNECTION_ERROR
TOKEN_DE_ATUALIZAÇÃO_DO_SAAS_CONNECTOR_EXPIRADO
O token de atualização da conexão <connectionName>
expirou. Edite a conexão, autentique novamente e execute novamente o pipeline.
ERRO_DE_MUDANÇA_DE_ESQUEMA_DO_CONECTOR_SAAS
Ocorreu uma alteração de esquema na tabela <tableName>
da origem do <sourceName>
.
Para obter mais detalhes , consulte SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR
SAAS_CONNECTOR_SOURCE_API_ERROR
Ocorreu um erro na chamada à <sourceName>
API. Tipo de API de origem: <saasSourceApiType>
. Código de erro: <saasSourceApiErrorCode>
.
Tente atualizar a tabela de destino. Se o problema persistir, registre um tíquete.
SAAS_CONNECTOR_UNSUPPORTED_ERROR (Erro: Conector SAAS não suportado)
Erro sem suporte ocorreu na fonte de dados <sourceName>
.
Para obter mais detalhes , consulte SAAS_CONNECTOR_UNSUPPORTED_ERROR
ALTERAÇÕES_INCOMPATÍVEIS_DE_ESQUEMA_DURANTE_A_INICIALIZAÇÃO_SAAS
Detectamos alterações de esquema incompatíveis ao inicializar o pipeline:
<details>
Execute uma atualização completa nas tabelas afetadas.
SAAS_PARTIAL_ANALYSIS_INPUT_CREATION_ERROR (Erro na Criação de Entrada de Análise Parcial do SAAS)
Erro encontrado durante a criação de entrada para análise parcial. Uma nova atualização do pipeline não será criada.
Verifique o log de eventos e corrija os problemas adequadamente.
DESVIO_NO_ESQUEMA_SAAS_DURANTE_ANÁLISE
O esquema analisado da tabela de origem (<table>
)divergiu do esquema esperado.
Tente novamente a atualização do pipeline e veja se o problema foi resolvido.
Se esse problema persistir, execute uma atualização completa nas tabelas mencionadas acima
Esquema esperado:
<expectedSchema>
Esquema real:
<actualSchema>
CONEXÃO_INACESSÍVEL_SAAS_UC
A Conexão <connectionName>
fornecida está inacessível. Verifique a conexão e tente novamente.
Para obter mais detalhes , consulte SAAS_UC_CONNECTION_INACCESSIBLE
Especificação do esquema - catálogo vazio
SchemaSpec tem uma cadeia de caracteres vazia no campo catálogo.
Remova a cadeia de caracteres vazia ou adicione o nome do catálogo. (Se esse esquema não pertencer a um catálogo na origem, não defina o campo.)
Detalhes da especificação de esquema:
<schemaSpec>
Esquema de Especificação: Esquema Vazio
SchemaSpec tem uma cadeia de caracteres vazia no campo de esquema.
Remova a cadeia de caracteres vazia ou adicione o nome do esquema. (Se essa tabela não pertencer a um esquema na origem, não defina o campo.)
Detalhes da especificação de esquema:
<schemaSpec>
ESQUEMA_ESPECIFICAR_EXIGE_UM_DE_CATÁLOGO_ESQUEMA
Pelo menos um do catálogo de origem ou do esquema de origem deve estar presente. Mas ambos estão vazios.
Detalhes da especificação de esquema:
<schemaSpec>
ERRO_NA_POLÍTICA_DE_ORÇAMENTO_SERVERLESS
A política de orçamento fornecida com a ID '<budgetPolicyId>
' não pode ser usada neste espaço de trabalho devido a restrições de vinculação de política ao espaço de trabalho.
A política de orçamento serverless é inválida
A política de orçamento sem servidor com a ID '<budgetPolicyId>
' é inválida.
Ausência da Política de Orçamento Serverless
A política de orçamento sem servidor com a ID '<budgetPolicyId>
' não existe.
Política de Orçamento Serverless Não Habilitada
A política de orçamento sem servidor não está habilitada, entre em contato com o suporte do Databricks.
POLÍTICA_DE_ORÇAMENTO_SEM_SERVIDOR_NÃO_HABILITADA_PARA_CONTA
A política de orçamento sem servidor não está habilitada para essa conta. O usuário não pode especificar uma política de orçamento para este pipeline. O administrador da conta deve tentar se registrar por meio do portal de visualização de recursos. Se o problema persistir, entre em contato com o suporte do Databricks.
POLÍTICA_ORÇAMENTÁRIA_SERVERLESS_NÃO_SUPORTADA_PARA_PIPELINE_NÃO_SERVERLESS
A política de orçamento sem servidor não pode ser atribuída a um pipeline sem servidor.
Política_de_Orçamento_Sem_Servidor_Não_Suportada_Para_Tipo_de_Pipeline
Não há suporte para a política de orçamento sem servidor para o tipo <pipelineType>
de pipeline.
Permissão Negada para a Política de Orçamento Serverless
O usuário não tem permissão para usar a política de orçamento sem servidor com a ID '<budgetPolicyId>
'.
SERVIÇO SERVERLESS NÃO DISPONÍVEL
A computação sem servidor não está disponível. Entre em contato com o Databricks para obter mais informações.
SERVIDORLESS_NÃO_ATIVADO
Você não pode usar a computação sem servidor com o Lakeflow Declarative Pipelines. Entre em contato com o Databricks para habilitar esse recurso para seu workspace.
SERVIDORLESS_NÃO_ATIVADO_PARA_USUÁRIO
A computação sem servidor não está habilitada para o chamador. Entre em contato com o administrador do workspace para habilitar esse recurso.
SERVERLESS_NÃO_HABILITADO_PARA_ESPAÇO_DE_TRABALHO
A computação sem servidor não está disponível para este workspace e/ou região. Entre em contato com o Databricks para obter mais informações.
REQUERIDO SEM SERVIDOR
Você deve usar a computação sem servidor neste workspace.
SERVICENOW_CONNECTION_ERROR
Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>
.
Para obter mais detalhes , consulte SERVICENOW_CONNECTION_ERROR
SERVICENOW_CONNECTOR_EMPTY_CURSOR_KEY_ERROR
Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>
.
Neste momento, o pipeline de ingestão não pode ingerir a tabela '<tableName>
' porque a chave do cursor em uma linha contém um campo vazio.
Para continuar executando o seu pipeline, remova esta tabela. Se o erro persistir, registre um tíquete.
ERRO_DE_HIBERNAÇÃO_DA_INSTÂNCIA_DO_CONECTOR_SERVICENOW
Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>
.
Falha ao se conectar à instância do ServiceNow. A instância parece estar hibernando ou inativa.
Conecte-se ao portal administrativo do ServiceNow e espere um momento até que a instância esteja totalmente operacional.
Se o erro persistir, registre um tíquete.
Erro: Instância do Conector ServiceNow Offline
Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>
.
Falha ao se conectar à instância do ServiceNow. A instância está offline.
Faça logon no portal de administração do ServiceNow e aguarde algum tempo até que a instância seja restaurada.
Se o erro persistir, registre um tíquete.
SERVICENOW_CONNECTOR_INVALID_TABLE_ERROR
Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>
.
Falha ao consultar o esquema da tabela '<tableName>
'. A tabela não existe na conta do ServiceNow para esse usuário.
Verifique o nome da tabela para erros de digitação e verifique se o usuário tem as permissões necessárias para acessar a tabela.
Se o erro persistir, registre um tíquete.
ERRO_RESTRITO_DE_ENDEREÇO_IP_DO_CONECTOR_SERVICENOW
Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>
.
Falha ao se conectar à instância do ServiceNow. A instância tem restrições de controle de acesso de endereço IP.
Para resolver isso, desabilite as restrições de endereço IP navegando até ServiceNow >> All >> System Security >> IP Address Access Control ou use IPs estáveis sem servidor
Se o erro persistir, registre um tíquete.
SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR
Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>
.
URL de ponto de extremidade de API do ServiceNow inválida detectada. A estrutura de URL não corresponde ao formato esperado do ServiceNow.
Verifique a configuração da instância do ServiceNow nas credenciais de conexão UC.
Para obter mais detalhes, consulte SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR
CONECTOR_SERVICENOW_TENTATIVAS_MÁXIMAS_FALHAS_ALCANÇADAS
Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>
.
Isso geralmente acontece quando a busca de dados para uma tabela leva muito tempo. Como primeira etapa, trabalhe com o administrador do ServiceNow para habilitar a indexação na coluna do cursor.
A coluna do cursor é selecionada na seguinte lista, em ordem de disponibilidade e preferência: sys_updated_on (primeira opção), sys_created_on (segunda opção), sys_archived (terceira opção)
Para obter instruções sobre como habilitar a indexação no ServiceNow, confira aqui: https://docs.databricks.com/ingestion/lakeflow-connect/servicenow-overview#why-is-my-servicenow-ingestion-performance-slow.
Também recomendamos aumentar o tempo limite da consulta da API REST para mais de 60 segundos para permitir mais tempo para buscar registros.
Em seguida, tente novamente o pipeline de ingestão. Se o problema persistir, abra um ticket.
SERVICENOW_CONNECTOR_SCHEMA_FIELD_TYPE_MISMATCH
Erro no ServiceNow ao buscar o esquema da tabela.
Foram encontrados dois tipos de dados conflitantes para o campo '<fieldName>
': '<firstDataType>
' e '<secondDataType>
'.
Para continuar executando o seu pipeline, remova esta tabela. Se o erro persistir, registre um tíquete.
SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
Ocorreu um erro no ServiceNow. Tipo de API de origem: <saasSourceApiType>
.
Para mais detalhes, consulte SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
Configuração_de_propriedades_de_tabela_não_permitida_para_tabela_de_pipeline
ALTER <commandTableType>
... SET TBLPROPERTIES
não há suporte. Para modificar as propriedades da tabela, altere a definição original e execute uma atualização.
SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE
A ingestão para o objeto <objName>
está incompleta porque o trabalho de consulta da API Salesforce demorou muito, falhou ou foi cancelado manualmente.
Para obter mais detalhes , consulte SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE
SFDC_CONNECTOR_QUERY_EM_LOTE_NÃO_ENCONTRADO
A ingestão do objeto <objName>
falhou porque o trabalho de consulta na API em massa do Salesforce não foi encontrado.
Execute um FULL REFRESH
na tabela de destino específica.
Conector_SFDC_Criar_Consulta_Em_Massa_Limite_API_Excedido
Erro na chamada à API do Salesforce: limite de API excedido
Aguarde a redefinição dos limites da API. Em seguida, tente atualizar a tabela de destino.
Se o erro persistir, registre um tíquete.
CONECTOR_SFDC_FALHA_AO_CRIAR_TAREFA_DE_CONSULTA_EM_LOTE
A ingestão do objeto <objName>
está incompleta porque a criação do trabalho de consulta de API em massa do Salesforce falhou. Código de erro: <saasSourceApiErrorCode>
.
<actionText>
.
PIAS_NÃO_SUPORTADAS_EM_SEG
Não há suporte para coletores DLT no pipeline em workspaces habilitados para controle de saída sem servidor. Os coletores DLT com suporte são Kafka e Delta.
Os seguintes coletores sem suporte são encontrados: <sinkNames>
, seus formatos correspondentes são: <sinkFormats>
.
TABELA_FONTE_NÃO_MATERIALIZADA
Falha ao ler o conjunto de dados dependente '<sourceTableName>
' porque ele não está materializado. Execute o pipeline inteiro para materializar todos os conjuntos de dados dependentes.
STANDALONE_PRIVATE_MVST_NÃO_SUPORTADO
Não há suporte para a criação de um MV/ST autônomo PRIVATE
. Remova o modificador PRIVATE
ALVO_DE_STREAMING_NÃO_DEFINIDO
Não é possível localizar a tabela <target>
de destino para o <command>
comando. A tabela <target>
de destino não está definida no pipeline.
ERRO_USUÁRIO_TABELA_SINCRONIZADA
Erro do usuário na tabela sincronizada do pipeline.
Para obter mais detalhes , consulte SYNCED_TABLE_USER_ERROR
TABELA_ALTERADA_DURANTE_OPERAÇÃO
A tabela <tableName>
foi modificada fora dessa transação e essa transação foi revertida. Repita a operação.
MATERIALIZAÇÃO_DE_TABELAS_DEPENDÊNCIA_CÍCLICA_DE_CHAVE_ESTRANGEIRA
Atualização para o pipeline: <pipelineId>
detectou uma cadeia cíclica de restrições de chave estrangeira: <tables>
.
ESPECIFICAÇÃO_TABELA_AMBOS_CATALOGO_ESQUEMA_REQUERIDO
TableSpec está faltando um catálogo de origem e/ou um esquema de origem.
Detalhes da especificação de tabela:
<tableSpec>
ESPECIFICAÇÃO_TABELA_CATÁLOGO_VAZIO
TableSpec tem uma cadeia de caracteres vazia no campo catálogo.
Remova a cadeia de caracteres vazia ou adicione o nome do catálogo. (Se essa tabela não pertencer a um catálogo na origem, não defina o campo.)
Detalhes da especificação de tabela:
<tableSpec>
ESQUEMA_VAZIO_DE_ESPECIFICAÇÃO_TABELA
TableSpec tem uma cadeia de caracteres vazia no campo de esquema.
Remova a cadeia de caracteres vazia ou adicione o nome do esquema. (Se essa tabela não pertencer a um esquema na origem, não defina o campo.)
Detalhes da especificação de tabela:
<tableSpec>
ESPECIFICAÇÃO_TABELA_TABELA_VAZIA
O nome da tabela está vazio. Forneça um nome de tabela.
Detalhes da especificação de tabela:
<tableSpec>
[No change necessary without further context or specific instructions regarding translating technical identifiers.]
A evolução do esquema não pode ser habilitada devido a metadados ausentes. Por favor, faça uma atualização completa.
Motivo: o token de tabela de instantâneo deve ser definido quando a evolução do esquema está habilitada.
VALOR_DO_INTERVALO_DE_DISPARO_INVÁLIDO
O intervalo de gatilho deve ser uma duração positiva, o valor máximo aceitável é de 2.147.483.647 segundos. Recebido: <actual>
segundos.
TRIGGER_ON_VIEW_READ_FROM_FILE_NOT_SUPPORTED (Acionador ao visualizar leitura de arquivo não suportado)
A origem <source>
é uma visualização que lê de um local de arquivo, o que não é atualmente suportado pelo gatilho.
TIPO_DE_FONTE_DE_DISPARO_NÃO_SUPORTADO
A origem <source>
com o tipo <type>
não é suportada por disparador no momento.
UC_CLEARING_TARGET_SCHEMA_NÃO_PERMITIDO
Limpar o campo de esquema de destino não é permitido para pipelines UC. Motivo: <reason>
.
UC_NOT_ENABLED
O uso do catálogo UC no DLT não está ativado.
UC_PIPELINE_NÃO_PODE_PUBLICAR_NO_HMS
Os pipelines habilitados para UC não podem ser publicados no Metastore do Hive. Escolha um catálogo de destino diferente.
UC_TARGET_SCHEMA_REQUERIDO
O campo de esquema de destino é necessário para pipelines UC. Motivo: <reason>
.
INCAPAZ_DE_INFERIR_ESQUEMA_DE_TABELA
Falha ao inferir o esquema da tabela <tableName>
de seus fluxos ascendentes.
Modifique os fluxos que gravam nesta tabela para tornar seus esquemas compatíveis.
Esquema inferido até agora:
<inferredDataSchema>
Esquema incompatível:
<incompatibleDataSchema>
ERRO_INESPERADO_DE_PERMISSÃO_DO_SCHEMA_DO_PIPELINE
Erro inesperado ao verificar permissões de esquema para pipeline <pipelineId>
. Entre em contato com o suporte do Databricks.
UNIFORM_COMPATIBILITY_NÃO_PODE_SER_DEFINIDO_COM_ROW_FILTERS_OU_COLUMN_MASKS
A compatibilidade uniforme não pode ser definida em exibições materializadas ou tabelas de streaming que tenham um filtro de linha ou máscaras de coluna aplicadas.
FALHA NA INICIALIZAÇÃO DO CATÁLOGO_UNITY
Encontrou um erro com o Catálogo do Unity ao configurar o pipeline no cluster <clusterId>
.
Verifique se a configuração do Catálogo do Unity está correta e se os recursos necessários (por exemplo, catálogo, esquema) existem e estão acessíveis.
Verifique também se o cluster tem permissões apropriadas para acessar o Catálogo do Unity.
Detalhes: <ucErrorMessage>
CAMINHO_DE_DESTINO_NÃO_RESOLVIDO
O caminho de armazenamento do coletor <identifier>
não pode ser resolvido. Entre em contato com o suporte do Databricks.
TABELAS_NÃO_RESOLVIDAS_PARA_MANUTENÇÃO
As tabelas a seguir foram encontradas na definição do pipeline, mas não puderam ser resolvidas durante a manutenção. Execute uma execução de atualização de pipeline com a definição de pipeline mais recente para materializar todas as tabelas na definição do pipeline e desbloquear a manutenção ou entre em contato com o suporte do Databricks se o problema persistir.
<unresolvedTableIdentifiersSet>
CAMINHO_DA_TABELA_NÃO_RESOLVIDO
Não é possível resolver o caminho de armazenamento da tabela <identifier>
. Entre em contato com o suporte do Databricks.
COMANDO_ALTERAR_NÃO_SUPORTADO
ALTER <commandTableType>
... <command>
não há suporte.
CANAL_NÃO_SUPORTADO_PARA_DPM
Canal sem suporte para o Modo de Publicação Direta. Espere um canal 'CURRENT
' ou ''PREVIEW
, mas tem 'PREVIOUS
'
COMANDO_NÃO_SUPORTADO_NA_PIPELINE_NÃO_DPM
<command>
apenas compatível com o modo de publicação direta habilitado para Pipelines Declarativos do Lakeflow
COMANDO_NÃO_SUPORTADO_NA_DEFINIÇÃO_DA_CONSULTA
Não há suporte para '<command>
' na definição de consulta. Mova o comando para fora da definição de consulta. Se for um pipeline em Python, mova o '<command>
' para fora do decorador @dlt.table()/@dlt.view(). Se for um pipeline em Scala, mova o '<command>
' para fora do método 'query'.
VERSÃO_CUSTOMIZADA_DBR_NÃO_SUPORTADA
A versão personalizada do DBR '<v>
' não é compatível nos espaços de trabalho SHIELD
e HIPAA
. Esperado um de [<supportedDbrVersions>
]
Versão de DBR não suportada (UNSUPPORTED_DBR_VERSION)
Não há suporte para a versão '<v>
' da DBR. Esperado um de [<supportedDbrVersions>
]
FUNCIONALIDADE_NÃO_SUPORTADA_PARA_AMBIENTE_DE_TRABALHO
<featureName>
não é compatível com o seu ambiente de trabalho. Entre em contato com o suporte do Databricks para habilitar esse recurso para seu workspace.
IDIOMA_NÃO_SUPORTADO
Falha ao carregar o notebook <language>
'<notebookPath>
'. Atualmente, há suporte apenas <supportedLanguages>
para notebooks.
TIPO_DE_ARQUIVO_DE_BIBLIOTECA_NÃO_SUPORTADO
O arquivo <path>
não tem sufixo .py ou .sql. Somente arquivos Python e SQL têm suporte em pipelines.
LINGUAGEM_DE_BIBLIOTECA_BLOCO_DE_NOTAS_NÃO_SUPORTADA
Idioma não suportado <language>
para notebook <path>
. Há suporte apenas para Python e SQL em pipelines
TIPO_DE_OBJETO_DE_BIBLIOTECA_NÃO_SUPORTADO
O <path>
incluído no caminho é do tipo <objectType>
que não é compatível. Atualmente, somente notebooks e arquivos podem ser usados como bibliotecas. Para resolver esse problema, remova o objeto sem suporte ou atualize as bibliotecas configuradas para esse pipeline para que somente tipos de objeto com suporte sejam incluídos.
TIPO_DE_FONTE_DE_INGESTÃO_GERENCIADA_NÃO_SUPORTADA
Definição inválida de pipeline de ingestão gerenciada, tipo de origem não suportado: <sourceType>
.
TIPO_DE_INGESTÃO_SAAS_NÃO_SUPORTADO
Não há suporte para o tipo <ingestionType>
de ingestão fornecido.
Entre em contato com o suporte do Databricks se esse problema persistir.
UNSUPPORTED_SPARK_SQL_COMMAND (Comando Spark SQL não suportado)
Não há suporte para '<command>
' na API spark.sql("...") no Python DLT. Comando com suporte: <supportedCommands>
.
CONJUNTO_DE_DEFINIÇÃO_ATUALIZADO_PARA_PIPELINE_SEM_DBSQL
Somente pipelines DBSQL
podem ter definição_atualizada.
USE_CATALOG_IN_HMS
USE CATALOG
com suporte apenas em Pipelines Declarativos do Lakeflow habilitados para UC
TEXTO_DA_VISUALIZAÇÃO_NÃO_SALVO_NO_UC
Não é possível atualizar a tabela <tableName>
, pois ela não tem uma consulta salva no Catálogo do Unity. Entre em contato com o suporte do Databricks.
ERRO_RELATÓRIO_CONECTOR_WORKDAY_NÃO_ENCONTRADO
Ocorreu um erro nos Relatórios do Workday. Tipo de API de origem: <saasSourceApiType>
.
A URL do relatório '<reportUrl>
' está incorreta. Verifique se há erros de digitação na URL base ou no nome do relatório para resolver o problema.
Se o problema persistir, abra um ticket.
ERRO_DE_ACESSO_NÃO_AUTORIZADO_DO_CONECTOR_DE_RELATÓRIOS_DO_WORKDAY
Ocorreu um erro nos Relatórios do Workday. Tipo de API de origem: <saasSourceApiType>
.
Para obter mais detalhes , consulte WORKDAY_REPORTS_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
URL_RELATÓRIO_WORKDAY_VAZIO
A URL do relatório do Workday está vazia. Pelo menos um relatório deve ser fornecido.
COTA_DO_ESPAÇO_DE_TRABALHO_EXCEDIDA
Não é possível iniciar a atualização '<updateId>
' porque já existem '<maxActiveUpdates>
' pipelines ativos sendo executados neste workspace.
Miscelânea
POLÍTICAS_ABAC_NÃO_SUPORTADAS_PARA_VERSÃO_DE_RUNTIME
SQLSTATE: nenhum estado atribuído
Consultas na tabela <tableFullName>
com a política ABAC não são suportadas em clusters atribuídos devido a <dbrVersionMessage>
. A versão <minimumSupportedVersion>
ou superior é necessária.
As credenciais do Azure Entra estão ausentes.
SQLSTATE: nenhum estado atribuído
Credenciais do Azure Entra (também conhecido como Azure Active Directory) ausentes.
Verifique se você está conectado com sua conta do Entra
ou tenha configurado um token de acesso pessoal (PAT) do Azure DevOps nas Configurações de Usuário > Integração Git.
Se você não estiver usando um PAT e estiver usando o Azure DevOps com a API de Repos,
você deve usar um token de acesso do Azure Entra.
Confira https://docs.microsoft.com/azure/databricks/dev-tools/api/latest/aad/app-aad-token as etapas para adquirir um token de acesso do Azure Entra.
AZURE_ENTRA_CREDENTIALS_PARSE_FAILURE
SQLSTATE: nenhum estado atribuído
Encontrou um erro com suas credenciais do Azure Entra (Azure Active Directory). Tente fazer logout de
Entra (https://portal.azure.com) e faça logon novamente.
Como alternativa, você também pode visitar Configurações do Usuário > Integração com Git para definir
configurar um token de acesso pessoal do Azure DevOps.
AZURE_ENTRA_LOGIN_ERROR
SQLSTATE: nenhum estado atribuído
Encontrou um erro com suas credenciais do Azure Active Directory. Tente fazer logout de
Azure Active Directory (https://portal.azure.com) e faça o login novamente.
Erro de Identidade de Trabalho do Azure Entra
SQLSTATE: nenhum estado atribuído
Ocorreu um erro com a Identidade de Trabalho do Azure com a Exceção do Azure: <azureWorkloadIdentityExceptionMessage>
ENTIDADE_NÃO_AUTORIZADA_DE_COMPARTILHAMENTO_DELTA_CLEAN_ROOM
SQLSTATE: nenhum estado atribuído
A geração de credenciais para recurso de compartilhamento delta de sala limpa não pode ser solicitada.
PERMISSÃO_NEGADA_PARA_QUARTO_LIMPO_OCULTO_SECURÁVEL
SQLSTATE: nenhum estado atribuído
Protegível <securableName>
com tipo <securableType>
e tipo <securableKind>
é gerenciado pelo sistema de sala limpo, o usuário não tem acesso.
RESTRIÇÃO_JÁ_EXISTE
SQLSTATE: nenhum estado atribuído
A restrição com o nome <constraintName>
já existe, escolha um nome diferente.
CONSTRAINT_NÃO_EXISTE
SQLSTATE: nenhum estado atribuído
A restrição <constraintName>
não existe.
NÃO_FOI_POSSÍVEL_LEER_REPOSITÓRIO_REMOTO
SQLSTATE: nenhum estado atribuído
Não foi possível ler o repositório remoto (<repoUrl>
).
Acesse seu provedor Git remoto para garantir que:
A URL do repositório Git remoto é válida.
Seu token de acesso pessoal ou senha de aplicativo tem o acesso correto ao repositório.
IMPOSSÍVEL_RESOLVER_O_HOST_DO_REPOSITÓRIO
SQLSTATE: nenhum estado atribuído
Não foi possível resolver o host para <repoUrl>
.
CSMS_INICIO_DO_TEMPO_NAO_SUPORTADO
SQLSTATE: nenhum estado atribuído
O parâmetro beginning_of_time
não pode ser verdadeiro.
TOKEN_DE_CONTINUAÇÃO_DO_CSMS_EXPIRADO
SQLSTATE: nenhum estado atribuído
Não foi possível encontrar objetos solicitados para o token de continuação.
CSMS_INVALID_CONTINUATION_TOKEN (Token de Continuação Inválido)
SQLSTATE: nenhum estado atribuído
Token de continuação inválido. Causa: <msg>
CSMS_OBJETOS_MÁXIMOS_INVÁLIDOS
SQLSTATE: nenhum estado atribuído
Valor inválido <value>
para o parâmetro max_objects, valor esperado entre [<minValue>
, <maxValue>
]
CSMS_INVALID_ID_DE_INSCRIÇÃO
SQLSTATE: nenhum estado atribuído
ID da assinatura inválida. Causa: <msg>
CSMS_INVALID_URI_FORMAT - Formato de URI inválido
SQLSTATE: nenhum estado atribuído
Formato de URI inválido. Esperado um volume (por exemplo, "/Volumes/catalog/schema/volume") ou caminho de armazenamento em nuvem (por exemplo, "s3://some-uri")
CSMS_KAFKA_TOPIC_MISSING
SQLSTATE: nenhum estado atribuído
Deve fornecer um tópico do Kafka
ERRO_DE_LOCALIZAÇÃO_CSMS
SQLSTATE: nenhum estado atribuído
Falha ao listar objetos. Há problemas no local que precisam ser resolvidos. Detalhes: <msg>
CSMS_LOCAL_NÃO_CONHECIDO
SQLSTATE: nenhum estado atribuído
Nenhum local encontrado para uri <path>
CSMS_METASTORE_ID_MISSING
SQLSTATE: nenhum estado atribuído
Deve fornecer um uuid de metastore
CSMS_METASTORE_RESOLUTION_FAILED
SQLSTATE: nenhum estado atribuído
Não é possível determinar um metastore para a solicitação.
CSMS_FALHA_AO_RESOLVER_NOME_DO_FRAGMENTO_LOCAL
SQLSTATE: nenhum estado atribuído
CSMS falhou ao resolver o nome do fragmento local
SERVIÇO_CSMS_DESATIVADO
SQLSTATE: nenhum estado atribuído
O serviço está desabilitado
Nome do Fragmento CSMS ausente na solicitação
SQLSTATE: nenhum estado atribuído
O nome do shard está ausente de uma solicitação rpc para CSMS
CSMS_UNITY_CATALOG_ENTITY_NOT_FOUND (Entidade do Catálogo de Unidade não encontrada)
SQLSTATE: nenhum estado atribuído
Entidade não encontrada no Catálogo do Unity. Verifique se o catálogo, o esquema, o volume e/ou o local externo existem.
CSMS_UNITY_CATALOG_LOCAL_EXTERNA_NÃO_EXISTE
SQLSTATE: nenhum estado atribuído
O local externo do Catálogo do Unity não existe.
CSMS_UNITY_CATALOG_SUPERPOSIÇÃO_ARMAZENAMENTO_EXTERNO
SQLSTATE: nenhum estado atribuído
O URI sobrepõe-se a outros volumes
O_METASTORE_DO_CATÁLOGO_DE_UNIDADE_CSMS_NÃO_EXISTE
SQLSTATE: nenhum estado atribuído
Não é possível determinar um metastore para a solicitação. O Metastore não existe
CATÁLOGO DE UNIDADE CSMS PERMISSÃO NEGADA
SQLSTATE: nenhum estado atribuído
Permissão negada
A_TABELA_DO_CATÁLOGO_UNITY_CSMS_NÃO_EXISTE
SQLSTATE: nenhum estado atribuído
A tabela do Unity Catalog não existe.
O_VOLUME_DO_CATÁLOGO_UNIDADE_CSMS_NÃO_EXISTE
SQLSTATE: nenhum estado atribuído
O volume do Unity Catalog não existe.
CSMS_UNSUPPORTED_SECURABLE (Elemento Seguro Não Suportado)
SQLSTATE: nenhum estado atribuído
Elemento securável não suportado
URI CSMS não está presente
SQLSTATE: nenhum estado atribuído
Deve fornecer o URI
CSMS_URI_MUITO_LONGO
SQLSTATE: nenhum estado atribuído
O URI fornecido é muito longo. O comprimento máximo permitido é <maxLength>
.
CATÁLOGOS_DMK_NÃO_PERMITIDOS_EM_COMPUTAÇÃO_CLÁSSICA
SQLSTATE: nenhum estado atribuído
O Armazenamento Padrão do Databricks não pode ser acessado usando a Computação Clássica. Use a computação sem servidor para acessar dados no Armazenamento Padrão
O aplicativo do GitHub não conseguiu atualizar as credenciais.
SQLSTATE: nenhum estado atribuído
Falha na operação porque as credenciais de aplicativo do GitHub vinculadas não puderam ser atualizadas.
Tente novamente ou vá para Configurações de Usuário > Integração Git e tente reconectar sua conta do provedor Git.
Se o problema persistir, abra um chamado de suporte.
CREDENCIAIS_DO_APLICATIVO_DO_GITHUB_SEM_ACESSO
SQLSTATE: nenhum estado atribuído
O link para sua conta do GitHub não tem acesso. Para corrigir este erro:
- Um administrador do repositório deve acessar https://github.com/apps/databricks/installations/new e instalar o aplicativo GitHub do Databricks no repositório.
Como alternativa, um proprietário de conta do GitHub pode instalar o aplicativo na conta para dar acesso aos repositórios da conta.
- Se o aplicativo já estiver instalado, peça a um administrador que verifique se, ao usar o acesso com escopo com a opção "Selecionar apenas repositórios", ele incluiu esse repositório selecionando-o.
https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app Consulte para obter mais informações.
Se o problema persistir, abra um chamado de suporte.
Credenciais expiradas do aplicativo GitHub
SQLSTATE: nenhum estado atribuído
As credenciais do aplicativo GitHub vinculado expiraram após 6 meses de inatividade.
Vá para Configurações do Usuário > Integração Git e tente revincular suas credenciais.
Se o problema persistir, abra um chamado de suporte.
INSTALAR_APP_GITHUB_EM_CONTA_DE_USUÁRIO_DIFFERENTE
SQLSTATE: nenhum estado atribuído
O link para sua conta do GitHub não tem acesso. Para corrigir este erro:
O usuário
<gitCredentialUsername>
do GitHub deve acessar https://github.com/apps/databricks/installations/new e instalar o aplicativo na conta<gitCredentialUsername>
para permitir o acesso.Se o usuário
<gitCredentialUsername>
já tiver instalado o aplicativo e estiver usando o acesso com escopo com a opção "Selecionar somente repositórios", ele deverá garantir que tenha incluído o acesso a esse repositório selecionando-o.
https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app Consulte para obter mais informações.
Se o problema persistir, abra um chamado de suporte.
INSTALAÇÃO_DE_APLICATIVO_GITHUB_EM_ORGANIZAÇÃO
SQLSTATE: nenhum estado atribuído
O link para sua conta do GitHub não tem acesso. Para corrigir este erro:
Um proprietário da organização
<organizationName>
GitHub deve acessar https://github.com/apps/databricks/installations/new e instalar o aplicativo na organização<organizationName>
para permitir o acesso.Se o aplicativo já estiver instalado na organização do GitHub
<organizationName>
, um proprietário dessa organização deve garantir que, ao usar o acesso com escopo com a opção "Somente repositórios selecionados", incluiu o acesso a este repositório ao selecioná-lo.
https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app Consulte para obter mais informações.
Se o problema persistir, abra um chamado de suporte.
INSTALAÇÃO_DO_APP_GITHUB_EM_SUA_CONTA
SQLSTATE: nenhum estado atribuído
O link para sua conta do GitHub não tem acesso. Para corrigir este erro:
https://github.com/apps/databricks/installations/new Acesse e instale o aplicativo em sua conta
<gitCredentialUsername>
para permitir o acesso.Se o aplicativo já estiver instalado e você estiver usando o acesso com escopo com a opção "Selecionar somente repositórios", verifique se você incluiu o acesso a esse repositório selecionando-o.
https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app Consulte para obter mais informações.
Se o problema persistir, abra um chamado de suporte.
Cluster Git não está pronto
SQLSTATE: nenhum estado atribuído
O cluster Git não está pronto.
GIT_CREDENTIAL_GENÉRICO_INVÁLIDO
SQLSTATE: nenhum estado atribuído
Credenciais de provedor Git inválidas para URL <repoUrl>
do repositório.
Seu provedor de credenciais git atual é <gitCredentialProvider>
e o nome de usuário é <gitCredentialUsername>
.
Acesse Configurações do Usuário > Integração Git para exibir sua credencial.
Acesse seu provedor Git remoto para garantir que:
Você inseriu o email de usuário ou nome de usuário correto do Git com suas credenciais do provedor Git.
O token ou a senha do aplicativo tem o acesso correto ao repositório.
Seu token não expirou.
Se você tiver o SSO habilitado com seu provedor Git, certifique-se de autorizar seu token.
CREDENCIAL_GIT_PAT_INVALIDO
SQLSTATE: nenhum estado atribuído
Credenciais inválidas do Token de Acesso Pessoal do provedor Git para a URL do repositório <repoUrl>
.
Seu provedor de credenciais git atual é <gitCredentialProvider>
e o nome de usuário é <gitCredentialUsername>
.
Acesse Configurações do Usuário > Integração Git para exibir sua credencial.
Acesse seu provedor Git remoto para garantir que:
Você inseriu o email de usuário ou nome de usuário correto do Git com suas credenciais do provedor Git.
O token ou a senha do aplicativo tem o acesso correto ao repositório.
Seu token não expirou.
Se você tiver o SSO habilitado com seu provedor Git, certifique-se de autorizar seu token.
CREDENCIAL_GIT_FALTANDO
SQLSTATE: nenhum estado atribuído
Nenhuma credencial git configurada, mas a credencial necessária para este repositório (<repoUrl>
).
Vá para Configurações de Usuário > Integração Git para configurar suas credenciais do Git.
GIT_CREDENTIAL_SEM_PERMISSÃO_DE_ESCRITA
SQLSTATE: nenhum estado atribuído
O acesso de gravação ao repositório <gitCredentialProvider>
(<repoUrl>
) não foi concedido.
Verifique se você (<gitCredentialUsername>
) tem acesso de gravação a esse repositório remoto.
GIT_CREDENTIAL_PROVIDER_MISMATCHED (Provedor de Credenciais do GIT Incompatível)
SQLSTATE: nenhum estado atribuído
Provedor de credenciais Git incorreto para repositório.
O provedor atual das credenciais do Git (<gitCredentialProvider>
) não corresponde ao do provedor Git do repositório <repoUrl>
.
Experimente um repositório diferente ou acesse Configurações de Usuário > Integração Git para atualizar suas credenciais do Git.
GIT_PROXY_CLUSTER_NÃO_PRONTO
SQLSTATE: nenhum estado atribuído
O cluster de proxy do Git não está pronto.
SEGREDO_GIT_NO_CÓDIGO
SQLSTATE: nenhum estado atribuído
Segredos encontrados no commit. Detalhe: <secretDetail>
. Para corrigir este erro:
Remova o segredo e tente confirmar novamente.
Se o problema persistir, abra um chamado de suporte.
NAMESPACE_HIERÁRQUICO_NÃO_HABILITADO
SQLSTATE: nenhum estado atribuído
A conta de armazenamento do Azure não tem o namespace hierárquico habilitado.
Comprimento do Campo Inválido
SQLSTATE: nenhum estado atribuído
<rpcName> <fieldName>
muito longo O comprimento máximo é <maxLength>
de caracteres.
INVALID_PARAMETER_VALUE
SQLSTATE: nenhum estado atribuído
<msg>
Para obter mais detalhes , consulte INVALID_PARAMETER_VALUE
Saída não encontrada para execução da tarefa no framework de trabalho.
SQLSTATE: nenhum estado atribuído
Estrutura de Tarefas: Não foi possível encontrar a Saída de Execução para a tarefa com runId <runId>
e orgId <orgId>
.
JOBS_TASK_FRAMEWORK_TASK_RUN_STATE_NOT_FOUND
SQLSTATE: nenhum estado atribuído
Estrutura de Tarefas: Não foi possível encontrar o Estado de Execução para a Tarefa com runId <runId>
e orgId <orgId>
.
CONFIG_TASK_CLIENTE_DOES_NOT_EXIST_NO_REGISTRO_DE_TAREFAS_JOB
SQLSTATE: nenhum estado atribuído
A configuração RPC do cliente para a tarefa com ID <taskId>
é inexistente.
A tarefa do registro de tarefas não existe
SQLSTATE: nenhum estado atribuído
A tarefa com a ID <taskId>
não existe.
REGISTRO_TAREFAS_NÃO_SUPORTADAS
SQLSTATE: nenhum estado atribuído
Registro de Tarefas: JobTask sem suporte ou desconhecido com classe <taskClassName>
.
ACESSO BASEADO EM CAMINHO NÃO SUPORTADO PARA CLONE RASO EXTERNO
SQLSTATE: nenhum estado atribuído
Não há suporte para o acesso por caminho à tabela <tableFullName>
de clone superficial externa. Por favor, use nomes de tabela para acessar o clone superficial, em vez disso.
ACESSO_COM_BASE_EM_CAMINHO_NÃO_SUPORTADO_PARA_FABRIC
SQLSTATE: nenhum estado atribuído
A tabela fabric localizada na URL '<url>
' não foi encontrada. Use o REFRESH FOREIGN CATALOG
comando para preencher tabelas do Fabric.
ACESSO BASEADO EM CAMINHO NÃO É SUPORTADO PARA TABELAS COM POLÍTICAS DE ACESSO A LINHA E COLUNA
SQLSTATE: nenhum estado atribuído
Não há suporte para acesso baseado em caminho à tabela <tableFullName>
com filtro de linha ou máscara de coluna.
PERMISSÃO_NEGADA
SQLSTATE: nenhum estado atribuído
O usuário não tem <msg>
em <resourceType>
'<resourceName>
'.
MANIPULADOR_EXCLUSÃO_ATIVO_REDASH_ENTRADA_INVÁLIDA
SQLSTATE: nenhum estado atribuído
Não é possível analisar a solicitação de objeto de exclusão: <invalidInputMsg>
Objeto não excluído permanentemente (não está na lixeira)
SQLSTATE: nenhum estado atribuído
Não é possível excluir o objeto <resourceName>
que não está no lixo
PERMISSÃO_DO_REDASH_NEGADA
SQLSTATE: nenhum estado atribuído
Não foi possível localizar ou ter permissão para acessar o recurso <resourceId>
REDASH_QUERY_NÃO_ENCONTRADO
SQLSTATE: nenhum estado atribuído
Não é possível localizar o recurso na ID da consulta <queryId>
FALHA NA CRIAÇÃO DO TRECHO DE CONSULTA REDASH
SQLSTATE: nenhum estado atribuído
Não é possível criar um novo snippet de consulta
COTA DE TRECHO DE CONSULTA REDASH EXCEDIDA
SQLSTATE: nenhum estado atribuído
A cota para o número de fragmentos de consulta foi atingida. A cota atual é <quota>
.
O GATILHO DO FRAGMENTO DE CONSULTA JÁ ESTÁ EM USO
SQLSTATE: nenhum estado atribuído
O gatilho <trigger>
especificado já está em uso por outro trecho de consulta nesta área de trabalho.
RECURSO_REDASH_NÃO_ENCONTRADO
SQLSTATE: nenhum estado atribuído
O recurso <resourceName>
solicitado não existe
REDASH_RECUPERAR_MANIPULADOR_DE_ATIVOS_ENTRADA_INVÁLIDA
SQLSTATE: nenhum estado atribuído
Não é possível analisar a solicitação de objeto de exclusão: <invalidInputMsg>
NÃO_É_POSSÍVEL_RESTAURAR_O_OBJETO_QUE_NÃO_ESTÁ_NA_LIXEIRA
SQLSTATE: nenhum estado atribuído
Não é possível restaurar o objeto <resourceName>
que não está no lixo
OBJETO_REDAÇÃO_DESCARTADO_JÁ_NA_LIXEIRA
SQLSTATE: nenhum estado atribuído
Não é possível destruir o objeto já destruído <resourceName>
REDASH_IMPOSSÍVEL_GERAR_NOME_DO_RECURSO
SQLSTATE: nenhum estado atribuído
Não foi possível gerar o nome do recurso por meio da ID <id>
FALHA_NA_CRIAÇÃO_DA_VISUALIZAÇÃO_REDASH
SQLSTATE: nenhum estado atribuído
Não é possível criar uma nova visualização
A visualização do Redash não foi encontrada
SQLSTATE: nenhum estado atribuído
Não foi possível localizar a visualização <visualizationId>
COTA DE VISUALIZAÇÃO REDASH EXCEDIDA
SQLSTATE: nenhum estado atribuído
A cota para o número de visualizações na consulta <query_id>
foi atingida. A cota atual é <quota>
.
URL_DO_REPOSITÓRIO_NÃO_ENCONTRADA
SQLSTATE: nenhum estado atribuído
Repositório remoto (<repoUrl>
) não encontrado.
Seu provedor de credenciais git atual é <gitCredentialProvider>
e o nome de usuário é <gitCredentialUsername>
.
Acesse seu provedor Git remoto para garantir que:
A URL do repositório Git remoto é válida.
Seu token de acesso pessoal ou senha de aplicativo tem o acesso correto ao repositório.
RECURSO_JÁ_EXISTE
SQLSTATE: nenhum estado atribuído
<resourceType>
'<resourceIdentifier>
' já existe
RECURSO_NÃO_EXISTE
SQLSTATE: nenhum estado atribuído
<resourceType>
'<resourceIdentifier>
' não existe.
POLÍTICAS_DE_ACESSO_A_LINHAS_E_COLUNAS_NÃO_SÃO_SUPORTADAS_EM_CLUSTERS_ATRIBUÍDOS
SQLSTATE: nenhum estado atribuído
Consulta na tabela <tableFullName>
com filtro de linha ou máscara de coluna não é suportada em clusters designados.
SEGURANÇA_DE_LINHA_COLUNA_NÃO_SUPORTADA_COM_TABELA_NO_DELTA_SHARING
SQLSTATE: nenhum estado atribuído
A tabela <tableFullName>
está sendo compartilhada com o Compartilhamento Delta e não pode usar a segurança de linha/coluna.
SERVIÇO_TEMPORARIAMENTE_INDISPONÍVEL
SQLSTATE: nenhum estado atribuído
O <serviceName>
serviço está temporariamente em manutenção. Tente novamente mais tarde.
TABELA_COM_SEGURANÇA_DE_LINHA_COLUNA_NÃO_SUPORTADA_NO_MODO_ONLINE
SQLSTATE: nenhum estado atribuído
A tabela <tableFullName>
não pode ter simultaneamente segurança de linha/coluna e visões materializadas online.
MUITAS_LINHAS_PARA_ATUALIZAR
SQLSTATE: nenhum estado atribuído
Existem muitas linhas para atualizar, abortando a atualização.