Eventos
Junte-se a nós na FabCon Vegas
31 de mar., 23 - 2 de abr., 23
O melhor evento liderado pela comunidade Microsoft Fabric, Power BI, SQL e AI. 31 de março a 2 de abril de 2025.
Registre-se hoje mesmoNão há mais suporte para esse navegador.
Atualize o Microsoft Edge para aproveitar os recursos, o suporte técnico e as atualizações de segurança mais recentes.
Aplica-se a: SQL do Databricks Databricks Runtime 12.2 e versões posteriores
As classes de erro são cadeias de caracteres descritivas, legíveis por humanos e exclusivas da condição de erro.
Você pode usar classes de erro para tratar programaticamente de erros em seu aplicativo sem a necessidade de analisar a mensagem de erro.
Essa é uma lista de condições comuns de erro nomeadas retornadas pelo Azure Databricks.
A expressão não determinística <sqlExpr>
não deve aparecer nos argumentos de uma função de agregação.
Falha ao analisar a saída do modelo ao converter para o returnType: “<dataType>
” especificado, o JSON de resposta foi: "<responseString>
". Atualize o returnType para corresponder ao conteúdo do tipo representado pelo JSON de resposta e repita a consulta.
A saída real do modelo tem mais de uma coluna “<responseString>
”. No entanto, o tipo de retorno especificado [“<dataType>
”] tem apenas uma coluna. Atualize o returnType para conter o mesmo número de colunas que a saída do modelo e repita a consulta.
Ocorreu um erro ao fazer uma solicitação HTTP para a função <funcName>
: <errorMessage>
Resposta HTTP inválida para a função <funcName>
: <errorMessage>
O número máximo de palavras deve ser um inteiro não negativo, mas recebeu <maxWords>
.
Os parâmetros de modelo fornecidos (<modelParameters>
) são inválidos na função AI_QUERY para servir o ponto de extremidade "<endpointName>
".
Para mais detalhes, consulte AI_FUNCTION_INVALID_MODEL_PARAMETERS
Erro ao analisar a resposta JSON para a função <funcName>
: <errorMessage>
Falha ao analisar o esquema para o ponto de extremidade de serviço “<endpointName>
” <errorMessage>
. A resposta JSON era: “<responseJson>
”.
Defina o parâmetro returnType
manualmente na função AI_QUERY para substituição da resolução do esquema.
Não há suporte para a função <funcName>
no ambiente atual. Ela só está disponível no Databricks SQL Pro e Serverless.
Falha ao avaliar a função SQL “<functionName>
” porque o argumento fornecido de <invalidValue>
tem "<invalidDataType>
", mas somente os seguintes tipos são compatíveis: <supportedDataTypes>
. Atualize a chamada de função para fornecer um argumento do tipo de cadeia de caracteres e tente novamente realizar a consulta.
Função de IA: “<functionName>
” não dá suporte ao seguinte tipo como tipo de retorno: “<typeName>
”. O tipo de retorno deve ser um tipo SQL válido compreendido pelo Catalyst e compatível com a função de IA. Os tipos com suporte atuais incluem: <supportedValues>
O valor fornecido “<argValue>
” não tem o suporte do argumento “<argName>
”. Os valores com suporte são: <supportedValues>
Não há suporte para "<sqlExpr>
" fornecido pelo argumento returnType.
Não há suporte para a Busca em vetores com o tipo de coluna de inserção <embeddingColumnType>
.
Não há suporte para a Busca em vetores com o tipo de índice <indexType>
.
Falha ao materializar a consulta de pesquisa vetorial do tipo <dataType>
spark para objetos nativos do scala durante a codificação da solicitação com erro: <errorMessage>
.
Não há suporte para a Busca em vetores com num_results maior que <maxLimit>
. O limite especificado foi <requestedLimit>
. Pleaase tente novamente com num_results <= <maxLimit>
Usar consultas com parâmetros de nome requer que todos os parâmetros sejam nomeados. Parâmetros com nomes ausentes: <exprs>
.
Não é possível usar todas as colunas das colunas de partição.
ALTER TABLE <type>
coluna <columnName>
especifica o descritor “<optionName>
” mais de uma vez, o que é inválido.
O nome <name>
é ambíguo em CTE aninhado.
Defina <config>
como “CORRECTED” para que o nome definido no CTE interno tenha precedência. Se defini-lo como “LEGACY”, as definições de CTE externas terão precedência.
Confira https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine’.
A coluna ou campo <name>
é ambíguo e tem <n>
correspondências.
A coluna <name>
é ambígua. Isso ocorre porque você mesclou vários DataFrames e alguns desses DataFrames são os mesmos.
Esta coluna aponta para um dos DataFrames, mas o Spark não consegue descobrir qual deles.
Dê aos DataFrames com nomes diferentes por meio de DataFrame.alias
antes de mesclá-los
e especifique a coluna usando o nome qualificado, por exemplo, df.alias("a").join(df.alias("b"), col("a.id") > col("b.id"))
.
Referência ambígua à restrição <constraint>
.
O alias de coluna lateral <name>
é ambíguo e tem <n>
correspondências.
A referência <name>
é ambígua, poderia ser: <referenceNames>
.
Referência ambígua ao campo <field>
. Aparece <count>
vezes no esquema.
NÃO há suporte para ANALYZE CONSTRAINTS.
A configuração <config>
do SQL ANSI não pode ser desabilitada neste produto.
O thread AQE é interrompido, provavelmente devido ao cancelamento da consulta pelo usuário.
A função <functionName>
inclui um parâmetro <parameterName>
na posição <pos>
que necessita de um argumento constante. Faça a computação do argumento <sqlExpr>
de forma separada e passe o resultado como uma constante.
<message>
.<alternative>
Se necessário, defina <config>
como “false” para ignorar esse erro.
Para mais detalhes, consulte ARITHMETIC_OVERFLOW
O número de colunas ou variáveis atribuídas ou com alias: <numTarget>
não corresponde ao número de expressões de origem: <numExpr>
.
Junção a partir da data inválida.
Para obter mais detalhes, consulte AS_OF_JOIN
Não há suporte para o uso de valores padrão quandorescuedDataColumn
está habilitado. Você pode remover essa verificação definindo spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue
como falso, mas os valores padrão não serão aplicados e valores nulos ainda serão usados.
Não é possível converter o Avro <avroPath>
em SQL <sqlPath>
porque o tipo de dados codificado original é <avroType>
, porém, você está tentando ler o campo como <sqlType>
, o que levaria a uma resposta incorreta.
Para permitir a leitura desse campo, habilite a configuração do SQL: “spark.sql.legacy.avro.allowIncompatibleSchema”.
Não há suporte para o uso da correspondência de campo posicional quando rescuedDataColumn
ou failOnUnknownFields
estiver habilitado. Remova essas opções para continuar.
Não foi possível encontrar um batch <batchMetadataFile>
.
As credenciais de conexão do BigQuery devem ser especificadas com o ‘parâmetro GoogleServiceAccountKeyJson’ ou todos os ‘projectId’, ‘OAuthServiceAcctEmail’, ‘OAuthPvtKey’
<value1>
<symbol>
<value2>
causou estouro.
A instrução <invalidStatement>
booleana é inválida. Linha única esperada com um valor do BOOLEAN
tipo, mas obteve uma linha vazia.
<operation>
não dá suporte a catálogos integrados.
O método <methodName>
não pode ser chamado no Dataset/DataFrame do streaming.
ALTER TABLE (ALTER|CHANGE) COLUMN não pode alterar o agrupamento de tipo/subtipos de colunas de bucket, mas encontrou a coluna de bucket <columnName>
na tabela <tableName>
.
ALTER TABLE (ALTER|ALTERAÇÃO) Não há suporte para colunas de partição, mas encontrou a coluna de partição <columnName>
na tabela <tableName>
.
A marca d'água precisa ser definida para reatribuir a coluna de tempo do evento. Falha ao encontrar a definição de marca d'água na consulta de streaming.
Não é possível converter <sourceType>
em <targetType>
.
Não é possível converter Protobuf <protobufColumn>
em SQL <sqlColumn>
porque o esquema é incompatível (protobufType = <protobufType>
, sqlType = <sqlType>
).
Não é possível converter <protobufType>
de Protobuf em tipo SQL <toType>
.
Não é possível converter SQL <sqlColumn>
em Protobuf <protobufColumn>
porque o esquema é incompatível (protobufType = <protobufType>
, sqlType = <sqlType>
).
Não é possível converter SQL <sqlColumn>
em Protobuf <protobufColumn>
porque <data>
não está em valores definidos para enumeração: <enumString>
.
Não é possível copiar o estado do catálogo, como banco de dados atual e exibições temporárias do Catálogo do Unity para um catálogo herdado.
Falha ao criar a tabela de dados <tableName>
:
Para obter mais detalhes, consulte CANNOT_CREATE_DATA_SOURCE_TABLE
A URL fornecida não pode ser decodificada: <url>
. Verifique se a URL está formatada corretamente e tente novamente.
Não é possível excluir um <resourceType>
pertencente ao sistema.
Não é possível descartar a restrição com o nome <constraintName>
compartilhado por uma restrição CHECK
e uma restrição PRIMARY KEY ou FOREIGN KEY. Você pode descartar a restrição PRIMARY KEY ou
ou FOREIGN KEY por consultas:
Não é possível estabelecer a conexão com o banco de dados <jdbcDialectName>
remoto. Verifique as informações de conexão e as credenciais, por exemplo, opções de host, porta, usuário, senha e banco de dados. ** Se você acredita que as informações estão corretas, verifique a configuração de rede do workspace e se elas não têm restrições de saída para o host. Também verifique se o host não bloqueia as conexões de entrada da rede em que os clusters Spark do espaço de trabalho são implantados. ** Mensagem de erro detalhada: <causeErrorMessage>
.
Não é possível estabelecer a conexão com o banco de dados <jdbcDialectName>
remoto. Verifique as informações de conexão e as credenciais, por exemplo, opções de host, porta, usuário, senha e banco de dados. ** Se você acredita que as informações estão corretas, permita o tráfego de entrada da Internet para o host, pois você está usando a Computação sem Servidor. Se as políticas de rede não permitirem o tráfego da Internet de entrada, use a Computação sem Servidor ou entre em contato com seu representante do Databricks para saber mais sobre a Rede Privada sem Servidor. ** Mensagem de erro detalhada: <causeErrorMessage>
.
As transformações e as ações do conjunto de dados só podem ser invocadas pela unidade, não dentro de outras transformações de conjunto de dados; por exemplo, dataset1.map(x => dataset2.values.count() * x) é inválido porque a ação de transformação e contagem de valores não pode ser executada dentro da transformação dataset1.map. Para saber mais, consulte SPARK-28702.
Não é possível carregar a classe <className>
ao registrar a função <functionName>
, verifique se ela está no classpath.
Não foi possível carregar a classe Protobuf com o nome <protobufClassName>
. <explanation>
.
Ocorreu um erro durante o estado de carregamento.
Para obter mais detalhes, consulte CANNOT_LOAD_STATE_STORE
Falha ao mesclar tipos de dados incompatíveis <left>
e <right>
. Verifique os tipos de dados das colunas que estão sendo mescladas e verifique se elas são compatíveis. Se necessário, considere converter as colunas em tipos de dados compatíveis antes de tentar a mesclagem.
Esquemas de mesclagem com falha:
Esquema inicial:
<left>
Esquema que não pode ser mesclado com o esquema inicial:
<right>
.
Não é possível modificar o valor da configuração do Spark: <key>
.
Consulte também https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements’.
Não é possível analisar decimal. Verifique se a entrada é um número válido com separadores de vírgulas ou ponto decimal opcionais.
Não é possível analisar <intervalString>
. Verifique se o valor fornecido está em um formato válido para definir um intervalo. Você pode referenciar a documentação para o formato correto. Se o problema persistir, verifique se o valor de entrada não é nulo ou vazio e tente novamente.
O nome do campo <fieldName>
e o valor <fieldValue>
do token JSON tipo <jsonType>
não podem ser analisados como o tipo de dados Spark de destino <dataType>
.
Erro ao analisar os bytes do descritor em Protobuf FileDescriptorSet.
<message>
. Se necessário, defina <ansiConfig>
como “false” para ignorar esse erro.
Não é possível consultar MV/ST durante a inicialização.
Para obter mais detalhes, consulte CANNOT_QUERY_TABLE_DURING_INITIALIZATION
Não é possível fazer a leitura do arquivo no caminho <path>
porque ele foi arquivado. Ajuste seus filtros de consulta para excluir arquivos guardados.
Não é possível ler o arquivo <format>
no caminho: <path>
.
Para obter mais detalhes, consulte CANNOT_READ_FILE
Não é possível fazer a leitura da chave confidencial ‘<key>
’ do provedor seguro.
Não é possível reconhecer a cadeia de caracteres do hive tipo: <fieldType>
, coluna: <fieldName>
. O tipo de dados especificado no campo não pode ser reconhecido pelo Spark SQL. Verifique o tipo de dados do campo especificado e se ele é um tipo de dados SQL do Spark válido. Consulte a documentação do Spark SQL para obter uma lista dos tipos de dados válidos e seu formato. Se o tipo de dados estiver correto, verifique se você está usando uma versão com suporte do Spark SQL.
Não é possível referenciar um Unity Catalog <objType>
em objetos de metastore do Hive.
Não é permitido renomear uma <type>
entre catálogos.
Não é permitido renomear uma <type>
entre esquemas.
Não é possível resolver a coluna de dataframe <name>
. Provavelmente isso é por causa de referências ilegais, como df1.select(df2.col("a"))
.
Não é possível resolver as <targetString>
.* colunas de entrada fornecidas <columns>
. Verifique se a tabela ou struct especificado existe e está acessível nas colunas de entrada.
Falha ao definir permissões no caminho criado <path>
de volta para <permission>
.
Não é possível salvar o tipo de dados variante no armazenamento externo.
Não é possível armazenar tabelas de clones rasos no Unity Catalog e no metastore do Hive.
Não é possível armazenar uma tabela <table>
de clone raso que já é um clone raso.
O clone raso só tem suporte para o tipo de tabela MANAGED. A tabela <table>
não é uma tabela MANAGED.
Não é possível atualizar o campo <table>
de tipo <fieldName>
:
Para obter mais detalhes, consulteCANNOT_READ_FILE
Não é possível converter <expression>
de <sourceType>
em <targetType>
.
<details>
Não há suporte para a validação da conexão <jdbcDialectName>
. Contate o suporte do Databricks para soluções alternativas ou defina "spark.databricks.testConnectionBeforeCreation" como "false" para ignorar o teste de conexão antes de criar um objeto de conexão.
Erro ao gravar arquivos do repositório de estado para o provedor <providerClass>
.
Para obter mais detalhes, consulte CANNOT_LOAD_STATE_STORE
O valor <expression>
do tipo <sourceType>
não pode ser convertido em <targetType>
porque está malformado. Corrija o valor de acordo com a sintaxe ou altere seu tipo de destino. Use try_cast
para tolerar entradas malformadas e retornar NULO.
Para obter mais detalhes, consulte CAST_INVALID_INPUT
O valor <value>
do tipo <sourceType>
não pode ser convertido em <targetType>
devido a um estouro. Use try_cast
para tolerar estouro e retornar NULO.
Falha ao atribuir um valor de tipo <sourceType>
à coluna de tipo <targetType>
ou variável de tipo <columnName>
devido a um estouro. Use try_cast
no valor de entrada para tolerar o estouro e retornar NULL.
O catálogo <catalogName>
não encontrado. Considere definir a configuração do SQL <config>
para um plug-in de catálogo.
Bloco de ponto de verificação <rddBlockId>
não encontrado!
O executor que originalmente marcou o ponto de verificação dessa partição não está mais vivo ou o RDD original não é persistente.
Se esse problema persistir, você poderá considerar o uso de rdd.checkpoint()
em vez disso, o que é mais lento do que o ponto de verificação local, mas mais tolerante a falhas.
<className>
deve substituir um <method1>
ou <method2>
.
MapObjects
não dá suporte à classe <cls>
como coleção resultante.
Não há suporte para comandos de Limpar Sala
Nome inválido para fazer referência a um <type>
dentro de uma Sala Limpa. Use um nome de <type>
dentro da sala limpa seguindo o formato de [catalog].[schema].[<type>
].
Se você não tiver certeza sobre qual nome usar, poderá executar “SHOW ALL IN CLEANROOM [clean_room]” e usar o valor na coluna "nome”.
Foi recebida uma notificação de arquivo para o arquivo: <filePath>
, mas ele não existe mais. Certifique-se de que os arquivos não sejam excluídos antes de serem processados. Para continuar sua transmissão, você pode definir a configuração <config>
do Spark SQL como true.
Erro do provedor de nuvem: <message>
O clustering especificado não corresponde ao da tabela <tableName>
existente.
Colunas de clustering especificadas: [<specifiedClusteringString>
].
Colunas de clustering existentes: [<existingClusteringString>
].
‘<operation>
’ não dá suporte ao clustering.
Entre em contato com o representante do Databricks para habilitar o recurso cluster por automático.
Habilite clusteringTable.enableClusteringTableFeature para usar CLUSTER BY AUTO.
CLUSTER BY AUTO requer que a Otimização Preditiva seja habilitada.
O CLUSTER BY AUTO só tem suporte em tabelas gerenciadas por UC.
O codec <codecName>
não está disponível.
Para obter mais detalhes, consulte CODEC_NOT_AVAILABLE
Não é possível encontrar um nome curto para o codec <codecName>
.
O valor <collationName>
não representa um nome de agrupamento correto. Nomes válidos de agrupamento sugeridos: [<proposals>
].
O valor <provider>
não representa um provedor de ordenação correto. Os provedores com suporte são: [<supportedProviders>
].
Não foi possível determinar qual ordenação usar para operadores e funções de cadeia de caracteres.
Para obter mais detalhes, consulte COLLATION_MISMATCH
Não é possível criar matriz com elementos <numberOfElements>
que excedem o limite de tamanho da matriz <maxRoundedArrayLength>
.
Para obter mais detalhes, consulte COLLECTION_SIZE_LIMIT_EXCEEDED
Aliases de coluna não são permitidos em <op>
.
A coluna <columnName>
já existe. Escolha outro nome ou renomeie a coluna existente.
Não há suporte para a criação da restrição CHECK na tabela <tableName>
com políticas de máscara de coluna.
Uma instrução <statementType>
tentou atribuir uma máscara a uma coluna que incluía duas ou mais colunas referenciadas na lista USING COLUMNS com o mesmo nome <columnName>
, o que é inválido.
Não há suporte para políticas de máscara de coluna para <tableName>
:
Para obter mais detalhes, confira COLUMN_MASKS_FEATURE_NOT_SUPPORTED
Não é possível <statementType>
<columnName>
da tabela <tableName>
porque ela é referenciada em uma política de máscara de coluna para coluna <maskedColumn>
. O proprietário da tabela deve remover ou alterar essa política antes de continuar.
As operações MERGE INTO não dão suporte a políticas de máscara de coluna na tabela <tableName>
de origem.
As operações MERGE INTO não dão suporte à gravação na tabela <tableName>
com políticas de máscara de coluna.
Essa instrução tentou atribuir uma política de máscara de coluna a uma coluna <columnName>
com várias partes do nome, o que é inválido.
Esse comando tentou atribuir uma política de máscara de coluna a uma coluna e a lista USING COLUMNS incluiu o nome <columnName>
com várias partes do nome, o que é inválido.
O suporte para definir máscaras de coluna não está habilitado
As políticas de máscara de coluna só têm suporte no Catálogo do Unity.
<mode>
não há suporte para clonar da tabela <tableName>
com políticas de máscara de coluna.
<mode>
não há suporte para clonar da tabela <tableName>
com políticas de máscara de coluna.
Não há suporte para o uso de uma constante como parâmetro em uma política de máscara de coluna. Atualize o comando SQL para remover a constante da definição da máscara de coluna e tente o comando novamente.
Falha ao executar o comando <statementType>
, pois não há suporte para a atribuição de políticas de máscara de coluna para a fonte de dados de destino com o provedor de tabela: “<provider>
”.
Não é possível executar <operation>
para a tabela <tableName>
, pois ela contém uma ou mais políticas de máscara de coluna com expressões de subconsulta, que ainda não têm suporte. Contate o proprietário da tabela para atualizar as políticas de máscara de coluna para poder continuar.
A coluna <columnName>
tinha o mesmo nome que a coluna de destino, o que é inválido. Remova a coluna da lista USING COLUMNS e repita o comando.
A coluna <colType>
de <colName>
não está definida na tabela <tableName>
, as colunas de tabela definidas são: <tableCols>
.
Não foi possível encontrar a coluna <colName>
. Verifique a ortografia e a exatidão do nome da coluna de acordo com a configuração <caseSensitiveConfig>
de SQL.
‘,’ inesperada antes da definição de restrições. Verifique se a cláusula de restrição não começa com uma vírgula quando colunas (e expectativas) não são definidas.
O comando COMMENT ON CONNECTION ainda não foi implementado
Para uma comparação entre <firstValue>
e <secondValue>
, o comparador retorna NULL.
Ele deve retornar um número inteiro positivo para o operador “maior que”, 0 para o operador “igual a” e um número inteiro negativo para o operador “menor que”.
Para reverter o comportamento preterido, ou seja, para tratar NULL como 0 (usando o operador “igual a”), você deve definir "spark.sql.legacy.allowNullComparisonResultInArraySort" como “true”.
Não é possível processar tipos de dados de entrada para a expressão: <expression>
.
Para obter mais detalhes, consulte COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
Outra instância dessa consulta [id: <queryId>
] acabou de ser iniciada por uma sessão simultânea [runId existente: <existingQueryRunId>
runId novo: <newQueryRunId>
].
Atualização simultânea para o log. Vários trabalhos de streaming detectados para <batchId>
.
Verifique se apenas um trabalho de streaming é executado em um local de ponto de verificação específico por vez.
A configuração <config>
não está disponível.
Nomes de coluna de partição conflitantes detectados:
<distinctPartColLists>
Para diretórios de tabela particionados, os arquivos de dados devem residir apenas em diretórios folha.
E os diretórios no mesmo nível devem ter o mesmo nome de coluna de partição.
Verifique os seguintes diretórios em busca de arquivos inesperados ou nomes de coluna de partição inconsistentes:
<suspiciousPaths>
O provedor <provider>
especificado é inconsistente com o provedor <expectedProvider>
de catálogo existente. Use ‘USING <expectedProvider>
’ e repita o comando.
Erro genérico de conector do Spark.
Para obter mais detalhes, consulte CONNECT
Não é possível criar a conexão <connectionName>
porque ela já existe.
Escolha um nome diferente, remova ou substitua a conexão existente ou adicione a cláusula IF NOT EXISTS para tolerar a conexão pré-existente.
Não é possível executar esse comando porque o nome da conexão não deve estar em branco.
Não é possível executar esse comando porque o nome da conexão <connectionName>
não foi encontrado.
As conexões do tipo ‘<connectionType>
’ não dão suporte às seguintes opções: <optionsNotSupported>
. Opções com suporte: <allowedOptions>
.
Não é possível criar a conexão do tipo ‘<connectionType>
. Tipos de conexão com suporte: <allowedTypes>
.
As restrições de tabela só têm suporte no Catálogo do Unity.
O valor <str>
(<fmt>
) não pode ser convertido em <targetType>
porque está malformado. Corrija o valor de acordo com a sintaxe ou altere o formato dele. Use <suggestion>
para tolerar entradas malformadas e retornar NULO.
Não é possível gravar no <tableName>
, o motivo é
Para obter mais detalhes, consulte COPY_INTO_COLUMN_ARITY_MISMATCH
Esquema <scheme>
inválido. As credenciais de origem COPY INTO atualmente só dão suporte a s3/s3n/s3a/wasbs/abfss.
As credenciais de origem de COPY INTO precisam especificar <keyList>
.
O commit de arquivos duplicados foi feito em uma operação COPY INTO simultânea. Tente novamente mais tarde.
Esquema <scheme>
inválido. A criptografia de origem COPY INTO atualmente só dá suporte a s3/s3n/s3a/abfss.
A criptografia COPY INTO só dá suporte ao ADLS Gen2 ou ao esquema de arquivos abfss://
A criptografia de origem COPY INTO precisa especificar ‘<key>
’.
Opção <requiredKey>
de criptografia inválida. A criptografia de origem COPY INTO precisa especificar ‘<requiredKey>
’ = ‘<keyValue>
’.
O recurso COPY INTO '<feature>
' não é compatível com '<incompatibleSetting>
'.
Um COPY INTO que não seja para acrescentar dados não pode ser executado simultaneamente com outras transações. Tente novamente mais tarde.
Falha no carregamento do estado de COPY INTO, número máximo de tentativas excedido.
Uma incompatibilidade de esquema foi detectada ao copiar para a tabela Delta (Tabela: <table>
).
Isso pode indicar um problema com os dados de entrada ou o esquema da tabela Delta pode ser evoluído automaticamente de acordo com os dados de entrada definindo:
COPY_OPTIONS (‘mergeSchema’ = ‘true’)
Diferença de esquema:
<schemaDiff>
O formato dos arquivos de origem precisa ser um entre CSV, JSON, AVRO, ORC, PARQUET, TEXT ou BINARYFILE. Não há suporte para o uso de COPY INTO em tabelas Delta como a origem, pois os dados duplicados podem ser ingeridos após operações OPTIMIZE. Essa verificação pode ser desativada executando o comando set spark.databricks.delta.copyInto.formatCheck.enabled = false
do SQL.
O diretório de origem não continha nenhum arquivo analisável do tipo <format>
. Verifique os conteúdos de ‘<source>
’.
O erro pode ser silenciado definindo ‘<config>
’ como ‘false’.
Ocorreu um erro interno durante o processamento do estado COPY INTO.
Para obter mais detalhes, consulte COPY_INTO_STATE_INTERNAL_ERROR
Falha ao analisar o comando COPY INTO.
Para obter mais detalhes, consulte COPY_INTO_SYNTAX_ERROR
O recurso COPY INTO '<feature>
' não tem suporte.
Não é possível descarregar dados no formato '<formatType>
'. Os formatos suportados são <connectionType>
: <allowedFormats>
.
O comando CREATE FOREIGN SCHEMA ainda não foi implementado
O comando CREATE FOREIGN TABLE ainda não foi implementado
Não é possível CRIAR OU ATUALIZAR exibições materializadas ou tabelas de streaming com ASYNC especificado. Remova ASYNC da instrução CREATE OR REFRESH ou use REFRESH ASYNC para atualizar exibições materializadas existentes ou tabelas de streaming de forma assíncrona.
Não é permitido criar a exibição permanente <name>
sem atribuir explicitamente um alias para a expressão <attr>
.
CREATE TABLE coluna <columnName>
especifica o descritor ‘<optionName>
’ mais de uma vez, o que é inválido.
Não é possível criar o modo de exibição <viewName>
, o motivo é
Para obter mais detalhes, consulte INSERT_COLUMN_ARITY_MISMATCH
Forneça credenciais ao criar ou atualizar locais externos.
A opção CSV enforceSchema
não pode ser configurada ao usar rescuedDataColumn
e failOnUnknownFields
como colunas, são lidas pelo nome ao invés de ordinal.
Referência de função cíclica detectada: <path>
.
Databricks Delta não está habilitado em sua conta.<hints>
Não é possível resolver <sqlExpr>
devido à incompatibilidade de tipo de dados:
Para obter mais detalhes, confira DATATYPE_MISMATCH
O DataType <type>
exige um parâmetro de comprimento, por exemplo, <type>
(10). Especifique o comprimento.
Falha na linhagem de gravação: não há relação correspondente com políticas para CLM/RLS.
A fonte de dados ‘<provider>
’ já existe. Escolha um nome diferente para a nova fonte de dados.
Erro encontrado ao salvar em uma fonte de dados externa.
A fonte de dados ‘<provider>
’ não foi encontrada. Verifique se a fonte de dados está registrada.
Não foi possível encontrar a fonte de dados: <provider>
. Verifique se o nome do provedor está correto e se o pacote está registrado corretamente e é compatível com sua versão do Spark.
A opção <option>
não deve estar vazia e não deve conter caracteres, cadeias de caracteres de consulta ou parâmetros inválidos.
Opção <option>
é obrigatória.
O esquema da tabela de fonte de dados não corresponde ao esquema esperado. Se você estiver usando a API DataFrameReader.schema ou criando uma tabela, evite especificar o esquema.
Esquema da fonte de dados: <dsSchema>
Esquema esperado: <expectedSchema>
A URL JDBC não é permitida nas opções de fonte de dados; em vez disso, especifique as opções ‘host’, ‘port’ e ‘database’.
Estouro da operação datetime: .<operation>
Você excedeu a cota de API da fonte <sourceName>
de dados.
Para obter mais detalhes, consulte DC_API_QUOTA_EXCEEDED
Falha ao fazer uma conexão com a origem <sourceName>
. Código de erro: <errorCode>
.
Para ver mais detalhes, confira DC_CONNECTION_ERROR
Erro nas chamadas à API do Dynamics, errorCode: <errorCode>
.
Para obter mais detalhes, consulte DC_DYNAMICS_API_ERROR
Erro em chamadas JDBC do Netsuite, errorCode: <errorCode>
.
Para obter mais detalhes, consulte DC_NETSUITE_ERROR
SQLSTATE: nenhuma atribuição
Ocorreu uma alteração de esquema no <tableName>
de tabela da origem do <sourceName>
.
Para obter mais detalhes, consulte DC_SCHEMA_CHANGE_ERROR
Erro nas chamadas à API do ServiceNow, errorCode: <errorCode>
.
Para obter mais detalhes, consulte DC_SERVICENOW_API_ERROR
A ingestão do objeto <objName>
está incompleta porque o trabalho de consulta da API do Salesforce demorou muito, falhou ou foi cancelado manualmente.
Para tentar novamente, você pode executar novamente todo o pipeline ou atualizar essa tabela de destino específica. Se o erro persistir, registre um tíquete. ID do trabalho: <jobId>
. Status do trabalho: <jobStatus>
.
Erro nas chamadas à API do Sharepoint, errorCode: <errorCode>
.
Para obter mais detalhes, consulte DC_SHAREPOINT_API_ERROR
Ocorreu um erro na chamada à API <sourceName>
. Tipo de API de origem: <apiType>
. Código de erro: <errorCode>
.
Às vezes, isso pode acontecer quando você’atinge um limite de API <sourceName>
. Se você não excedeu o limite de API, tente executar novamente o conector. Se o problema persistir, registre um tíquete.
Um erro sem suporte ocorreu na fonte de dados <sourceName>
.
Para obter mais detalhes, consulte DC_UNSUPPORTED_ERROR
Ocorreu um erro nas chamadas à API do RAAS do Workday, errorCode: <errorCode>
.
Para obter mais detalhes, consulte DC_WORKDAY_RAAS_API_ERROR
A precisão decimal <precision>
excede a precisão máxima <maxPrecision>
.
O banco de dados <defaultDatabase>
não existe, crie-o primeiro ou altere o banco de dados padrão para <defaultDatabase>
.
É possível que os arquivos subjacentes tenham sido atualizados. Você pode invalidar explicitamente o cache no Spark executando o comando ‘REFRESH TABLE table name’ no SQL ou recriando o conjunto de dados ou o dataframe envolvido. Se o cache de disco estiver obsoleto ou os arquivos subjacentes tiverem sido removidos, você poderá invalidar o cache de disco manualmente reiniciando o cluster.
Um palavra-chave PADRÃO em um comando MERGE, INSERT, UPDATE ou SET VARIABLE não pôde ser atribuído diretamente a uma coluna de destino porque fazia parte de uma expressão.
Por exemplo, UPDATE SET c1 = DEFAULT
é permitido, mas UPDATE T SET c1 = DEFAULT + 1
não é.
A consulta de streaming estava lendo de uma tabela Delta inesperada (id = '<newTableId>
').
Ele costumava ler de outra tabela Delta (id = '<oldTableId>
') de acordo com o ponto de verificação.
Isso pode acontecer quando você alterou o código para ler de uma nova tabela ou excluiu e
recriou uma tabela. Reverta sua alteração ou exclua o ponto de verificação de consulta de streaming
para começar do zero.
Não há suporte para as funções de janela distintas: <windowExpr>
.
Divisão por zero. Use try_divide
para tolerar divisor sendo 0 e retornar NULO. Se necessário, defina <config>
como “false” para ignorar esse erro.
Para obter mais detalhes, consulte DIVIDE_BY_ZERO
As expectativas só têm suporte em um pipeline do Delta Live Tables.
MATERIALIZED VIEWS com uma cláusula CLUSTER BY têm suporte apenas em um pipeline do Delta Live Tables.
Os locais de MATERIALIZED VIEW têm suporte apenas em um pipeline do Delta Live Tables.
Os esquemas MATERIALIZED VIEW com um tipo especificado têm suporte apenas em um pipeline do Delta Live Tables.
Cláusulas CONSTRAINT em uma exibição só têm suporte em um pipeline do Delta Live Tables.
Nomes de campos duplicados na Arrow Struct não são permitidos, foi obtido <fieldNames>
.
A chave de mapear <key>
duplicada foi encontrada, verifique os dados de entrada.
Se quiser remover as chaves duplicadas, você pode definir <mapKeyDedupPolicy>
como “LAST_WIN” para que a chave inserida por último tenha precedência.
O nome da métrica não é exclusivo: <metricName>
. O mesmo nome não pode ser usado para as métricas com resultados diferentes.
Contudo, várias instâncias de métricas com o mesmo resultado e nome são permitidas (por exemplo, autojunções).
As colunas ou variáveis <nameList>
aparecem mais de uma vez como destinos de atribuição.
Encontradas cláusulas duplicadas: <clauseName>
. Remova um deles.
Chaves duplicadas encontradas <keyColumn>
.
A chamada à rotina <functionName>
é inválida porque inclui várias atribuições de argumento para o mesmo nome de parâmetro <parameterName>
.
Para obter mais detalhes, consulte DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
Foram encontrados nomes duplicados na lista de parâmetros da rotina definida pelo usuário <routineName>
: <names>
.
Foram encontradas colunas duplicadas na lista de colunas da cláusula RETURNS da rotina definida pelo usuário <routineName>
: <columns>
.
O nó anterior emitiu uma linha com eventTime=<emittedRowEventTime>
, que é mais antiga que current_watermark_value=<currentWatermark>
Isso pode causar problemas de correção nos operadores com estado downstream no pipeline de execução.
Corrija a lógica do operador para emitir linhas após o valor da marca d'água global atual.
Falha ao analisar uma cadeia de caracteres vazia para o tipo de dados <dataType>
.
Arquivo local vazio na consulta de preparo <operation>
Não foi encontrado um codificador do tipo <typeName>
para a representação interna do Spark SQL.
Considere alterar o tipo de entrada para um com suporte em "<docroot>
/sql-ref-datatypes.html".
O rótulo <endLabel>
final não pode existir sem o rótulo inicial.
Algumas partições no deslocamento disponível do relatório de tópico(s) Kafka que é menor que o deslocamento final durante a consulta executando com Trigger.AvailableNow. O erro pode ser transitório, reinicie sua consulta e informe se você ainda estiver experimentando o mesmo problema.
último deslocamento: <latestOffset>
, deslocamento final: <endOffset>
Para fonte de dados Kafka com Trigger.AvailableNow, deslocamento final deve ter deslocamento igual ou menor por cada partição de tópico do que o deslocamento pré-coletado. O erro pode ser transitório, reinicie sua consulta e informe se você ainda estiver experimentando o mesmo problema.
deslocamento pré-coletado: <prefetchedOffset>
, deslocamento final: <endOffset>
.
Erro ao ler dados avro - encontrou uma impressão digital desconhecida: <fingerprint>
, sem saber qual esquema usar.
Isso pode acontecer se você registrou esquemas adicionais depois de iniciar o contexto do Spark.
Não é possível consultar os logs de eventos de um cluster Compartilhado Atribuído ou Sem Isolamento; em vez disso, use um cluster Compartilhado ou um repositório SQL do Databricks.
Nenhum log de eventos disponível para <tableOrPipeline>
. Tente novamente mais tarde, depois que os eventos forem gerados
O tipo de tabela de <tableIdentifier>
é <tableType>
.
A consulta de logs de eventos só dá suporte a exibições materializadas, tabelas de streaming ou pipelines do Delta Live Tables
A hora do evento <eventName>
tem o tipo <eventType>
inválido, mas espera-se “TIMESTAMP
”.
Excede a limitação de comprimento do tipo char/varchar: <limit>
.
EXCEPT coluna <columnName>
foi resolvida e esperava-se que fosse StructType, mas foi encontrado o tipo <dataType>
.
As colunas em uma lista EXCEPT precisam ser distintas e não sobrepostas, mas foi recebido (<columns>
).
EXCEPT colunas [<exceptColumns>
] foram resolvidas, mas não correspondem a nenhuma das colunas [<expandedColumns>
] da expansão de estrela.
O nome <objectName>
da coluna/campo na cláusula EXCEPT não pode ser resolvido. Você quis dizer um dos seguintes: [<objectList>
]?
Observação: as colunas aninhadas na cláusula EXCEPT podem não incluir qualificadores (nome da tabela, nome da coluna struct pai etc.) durante uma expansão do struct; tente remover os qualificadores se eles forem usados com colunas aninhadas.
Não há memória suficiente para criar a relação de transmissão <relationClassName>
. Tamanho da relação = <relationSize>
. Memória total usada por esta tarefa = <taskMemoryUsage>
. Métricas do Gerenciador de Memória do Executor: onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>
, offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>
, onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>
, offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>
. [sparkPlanId: <sparkPlanId>
]
A cláusula USING deste comando EXECUTE IMMEDIATE continha vários argumentos com o mesmo alias (<aliases>
), que é inválido; atualize o comando para especificar aliases exclusivos e tente novamente.
‘<operation>
’ espera uma visão permanente, mas <viewName>
é uma visão permanente.
‘<operation>
’ espera uma tabela mas <viewName>
é uma visão.
Para mais detalhes, consulte EXPECT_TABLE_NOT_VIEW
A tabela <tableName>
não dá suporte a <operation>
.
Para mais detalhes, consulte EXPECT_TABLE_NOT_VIEW
Falha ao decodificar uma linha no valor das expressões: <expressions>
Falha ao codificar um valor das expressões: <expressions>
para uma linha.
A expressão de coluna <expr>
não pode ser classificada porque seu tipo <exprType>
não pode ser ordenado.
As tabelas externas não dão suporte ao esquema <scheme>
.
Erro ao executar ‘REFRESH FOREIGN <scope>
<name>
’. Não foi possível atualizar diretamente um <scope>
do Fabric, use ‘REFRESH FOREIGN CATALOG <catalogName>
’ para atualizar o Catálogo do Fabric.
A função definida pelo usuário (<functionName>
: (<signature>
) =><result>
) falhou devido a: <reason>
.
Falha na preparação da função <funcName>
para chamada. Verifique duas vezes os argumentos da função.
Falha no JDBC <url>
na operação:
Para obter mais detalhes, consulte FAILED_JDBC
Falha na análise do struct: <raw>
.
Erro ao ler o arquivo <path>
.
Para obter mais detalhes, consulte FAILED_READ_FILE
Falha ao registrar classes com o Kryo.
Falha ao renomear <sourcePath>
para <targetPath>
, pois o destino já existe.
Falha ao renomear o arquivo temporário <srcPath>
para <dstPath>
já que o FileSystem.rename retornou false.
Falha ao converter o valor da linha <value>
da classe <class>
para o tipo SQL de destino <sqlType>
no formato JSON.
A instrução, incluindo funções SQL potenciais e exibições referenciadas, era muito complexa para ser analisada.
Para atenuar esse erro, divida a instrução em várias partes menos complexas.
O recurso <featureName>
não está habilitado. Considere definir a configuração <configKey>
para <configValue>
habilitar essa funcionalidade.
<feature>
não tem suporte em repositórios clássicos de SQL. Para usar esse recurso, use um SQL warehouse pro ou sem servidor. Para saber mais sobre tipos de repositórios, consulte <docLink>
<feature>
não tem suporte sem o Unity Catalog. Para usar esse recurso, habilite o Catálogo do Unity. Para saber mais sobre o Unity Catalog, consulte <docLink>
<feature>
não tem suporte em seu ambiente. Para usar esse recurso, entre em contato com o Suporte do Databricks.
Não é possível <op>
coluna, porque <fieldNames>
já existe em <struct>
.
Não existe esse campo de struct <fieldName>
em <fields>
.
O arquivo no caminho de preparo <path>
já existe, mas OVERWRITE não está definido
Ocorreu um erro na função fornecida pelo usuário em flatMapGroupsWithState. Motivo: <reason>
A operação <statement>
não é permitida em <objectType>
: <objectName>
.
Ocorreu um erro na função fornecida pelo usuário no coletor de lote foreach. Motivo: <reason>
Ocorreu um erro na função fornecida pelo usuário no coletor foreach. Motivo: <reason>
As colunas <parentColumns>
da chave estrangeira pai não correspondem às colunas <childColumns>
da chave primária filho.
Não é possível executar esse comando porque o nome de <objectType>
estrangeira não deve estar em branco.
Detectou várias fontes de dados com o nome ‘<provider>
’. Verifique se a fonte de dados não está registrada simultaneamente e localizada no classpath.
A inferência from_json encontrou atualizações de esquema conflitantes em: <location>
from_json found columnNameOfCorruptRecord (<columnNameOfCorruptRecord>
) presente
em um objeto JSON e não pode mais continuar. Configure um valor diferente para
a opção ‘columnNameOfCorruptRecord’.
A inferência from_json não pôde ler o esquema armazenado em: <location>
from_json não conseguiu inferir o esquema. Forneça um esquema.
A inferência from_json só tem suporte ao definir tabelas de streaming
A configuração from_json é inválida:
Para obter mais detalhes, consulte FROM_JSON_INVALID_CONFIGURATION
from_json não pôde evoluir de <old>
para <new>
A função <function>
requer parâmetros nomeados. Parâmetros com nomes ausentes: <exprs>
. Atualize a chamada de função para adicionar nomes para todos os parâmetros, por exemplo, <function>
(param_name => ...).
Uma coluna não pode ter um valor padrão e uma expressão de geração, mas a coluna <colName>
tem o valor padrão de: (<defaultValue>
) e a expressão de geração de: (<genExpr>
).
O Hive 2.2 e versões anteriores não dão suporte a getTablesByType. Use o Hive 2.3 ou versão superior.
Falha ao obter o rastreamento de aquecimento. Causa: <cause>
.
Função get_warmup_tracing() não permitida.
Protocolo Graphite inválido: <protocol>
.
O coletor do Graphite exige a propriedade ‘<property>
’.
Não é possível encontrar a coluna de agrupamento (<grouping>
) em colunas de agrupamento <groupingColumns>
.
As colunas de grouping_id (<groupingIdColumn>
) não correspondem às colunas de agrupamento (<groupByColumns>
).
O tamanho dos conjuntos de agrupamento não pode ser maior que <maxSize>
.
As funções de agregação não são permitidas no GROUP BY, mas foram encontradas <sqlExpr>
.
Para obter mais detalhes, consulte GROUP_BY_AGGREGATE
GROUP BY <index>
refere-se a uma expressão <aggExpr>
que contém uma função de agregação. As funções de agregação não são permitidas em GROUP BY.
GROUP BY posição <index>
não está na lista de seleção (o intervalo válido é [1, <size>
]).
A expressão <sqlExpr>
não pode ser usada como uma expressão de agrupamento porque seu tipo <dataType>
de dados não é um tipo de dados não pode ser ordenado.
Ao tentar ler do HDFS, a solicitação HTTP falhou.
Para mais detalhes, consulte HDFS_HTTP_ERROR
Chamada inválida para <function>
; somente os buffers de esboço de HLL válidos têm suporte como entradas (como aquelas produzidas pela hll_sketch_agg
função).
Chamada inválida para <function>
; o lgConfigK
valor deve ser entre <min>
e <max>
, inclusive: <value>
.
Os esboços têm valores lgConfigK
diferentes: <left>
e <right>
. Defina o allowDifferentLgConfigK
parâmetro como verdadeiro para chamar <function>
com valores diferentes lgConfigK
.
<identifier>
não é um identificador válido, pois tem mais de 2 partes de nome.
Valor ilegal fornecido ao Repositório de Estado
Para obter mais detalhes, consulte ILLEGAL_STATE_STORE_VALUE
Coluna dinâmica inválida <columnName>
. As colunas dinâmicas precisam ser comparáveis.
<operator>
só pode ser executado em tabelas com tipos de coluna compatíveis. A coluna <columnOrdinalNumber>
da tabela <tableOrdinalNumber>
é do tipo <dataType1>
, que não é compatível com <dataType2>
na mesma coluna da primeira tabela.<hint>
.
Um DataSourceRegister incompatível foi detectado. Remova a biblioteca incompatível do classpath ou atualize-a. Erro: <message>
Não é possível gravar dados incompatíveis para a tabela <tableName>
:
Para obter mais detalhes, consulte INCOMPATIBLE_DATA_FOR_TABLE
Os tipos de junção <joinType1>
e <joinType2>
são incompatíveis.
A consulta SQL da exibição <viewName>
tem uma alteração de esquema incompatível e não pode resolver a coluna <colName>
. São esperadas <expectedNum>
colunas nomeadas <colName>
, mas a coluna recebida é <actualCols>
.
Tente recriar a exibição executando: <suggestion>
.
Tipo complexo incompleto:
Para obter mais detalhes, consulte INCOMPLETE_TYPE_DEFINITION
Você pode obter um resultado diferente devido à atualização para
Para mais detalhes, consulte INCONSISTENT_BEHAVIOR_CROSS_VERSION
<failure>
, <functionName>
requer pelo menos <minArgs>
argumentos e no máximo <maxArgs>
argumentos.
O deslocamento máximo com <rowsPerSecond>
rowsPerSecond é <maxSeconds>
, mas ‘rampUpTimeSeconds’ é <rampUpTimeSeconds>
.
A função chamada requer conhecimento da ordenação que deve ser aplicada, mas a ordenação indeterminado foi encontrada. Use a função COLLATE para definir a ordenação explicitamente.
Não é possível criar o índice <indexName>
na tabela <tableName>
porque ele já existe.
Não é possível encontrar o índice <indexName>
na tabela <tableName>
.
Não há suporte para o tipo de gatilho <trigger>
para esse tipo de cluster.
Use um tipo de gatilho diferente, por exemplo, AvailableNow, Once.
Não é possível gravar no <tableName>
, o motivo é
Para obter mais detalhes, consulte INSERT_COLUMN_ARITY_MISMATCH
Não é possível gravar em ‘<tableName>
’, <reason>
:
Colunas da tabela: <tableColumns>
.
Colunas de partição com valores estáticos: <staticPartCols>
.
Colunas de dados: <dataColumns>
.
Privilégios insuficientes:
<report>
O usuário <user>
não tem privilégios suficientes para o local externo <location>
.
Não há proprietário para <securableName>
. Peça ao administrador para definir um proprietário.
O usuário não possui <securableName>
.
O usuário não tem permissões <action>
em <securableName>
.
O proprietário de <securableName>
é diferente do proprietário de <parentSecurableName>
.
A credencial de armazenamento <credentialName>
não tem privilégios suficientes.
O usuário não pode executar <action>
em <securableName>
devido às permissões em objetos protegíveis subjacentes.
O usuário não pode executar <action>
em <securableName>
devido a permissões em objetos protegíveis subjacentes:
<underlyingReport>
<message>
.<alternative>
Divisão por zero. Use try_divide
para tolerar divisor sendo 0 e retornar NULO.
A expressão FILTER <filterExpr>
em uma função de agregação é inválida.
Para obter mais detalhes, consulte INVALID_AGGREGATE_FILTER
O índice <indexValue>
está fora dos limites. A matriz tem <arraySize>
elementos. Use a função SQL get()
para tolerar o elemento de acesso no índice inválido e retornar NULO. Se necessário, defina <ansiConfig>
como “false” para ignorar esse erro.
Para obter mais detalhes, consulte INVALID_ARRAY_INDEX
O índice <indexValue>
está fora dos limites. A matriz tem <arraySize>
elementos. Use try_element_at
para tolerar o elemento de acesso no índice inválido e retornar NULO. Se necessário, defina <ansiConfig>
como “false” para ignorar esse erro.
Para obter mais detalhes, consulte INVALID_ARRAY_INDEX_IN_ELEMENT_AT
A posição do bitmap indexado em 0 <bitPosition>
está fora dos limites. O bitmap tem <bitmapNumBits>
bits (<bitmapNumBytes>
bytes).
A instrução booleana é esperada na condição, mas <invalidStatement>
foi encontrada.
O limite <boundary>
é inválido: <invalidValue>
.
Para obter mais detalhes, confira INVALID_BOUNDARY
Não é possível usar <type>
para a coluna bucket. Não há suporte para tipos de dados agrupados para bucketing.
Arquivo bucket inválido: <path>
.
O formato esperado é ByteString, mas foi <unsupported>
(<class>
).
A fonte de dados <datasource>
não pode salvar a coluna <columnName>
porque seu nome contém alguns caracteres que não são permitidos em caminhos de arquivo. Use um alias para renomeá-lo.
A coluna ou o campo <name>
é do tipo <type>
, embora seja necessário que seja <expectedType>
.
O valor '<confValue>
' na configuração "<confName>
" é inválido.
Para obter mais detalhes, consulte INVALID_CONF_VALUE
A função current_recipient
só pode ser usada na instrução CREATE VIEW
ou na instrução ALTER VIEW
para definir uma exibição somente de compartilhamento no Catálogo do Unity.
O cursor é inválido.
Para obter mais detalhes, consulte IINVALID_CURSOR
Padrão de datetime não reconhecido: <pattern>
.
Para obter mais detalhes, consulte INVALID_DATETIME_PATTERN
Falha ao executar o comando <statement>
, pois a coluna de destino ou variável <colName>
tem um valor DEFAULT <defaultValue>
,
Para obter mais detalhes, confira INVALID_DEFAULT_VALUE
Valor inválido para delimitador.
Para obter mais detalhes, consulte INVALID_DELIMITER_VALUE
O catálogo de destino do comando SYNC deve estar no Catálogo do Unity. Encontrado <catalog>
.
A memória do sistema <systemMemory>
deve ser de pelo menos <minSystemMemory>
.
Aumente o tamanho do heap usando a opção -driver-memory ou “<config>
” na configuração do Spark.
As opções passadas <option_list> são proibidas para table_name> de tabela <estrangeira.
O nome do local não pode ser uma cadeia de caracteres vazia, mas <location>
foi fornecido.
Foi encontrada uma cadeia de caracteres de escape inválida: <invalidEscape>
. A cadeia de caracteres de escape deve conter apenas um caractere.
EscapeChar
deve ser um literal de cadeia de caracteres de comprimento um, mas obteve <sqlExpr>
.
A memória do executor <executorMemory>
deve ser de pelo menos <minSystemMemory>
.
Aumente a memória do executor usando a opção -executor-memory ou “<config>
” na configuração do Spark.
Um codificador de expressão inválido foi encontrado. Espera uma instância do ExpressionEncoder, mas recebeu <encoderType>
. Para obter mais informações, consulte ‘<docroot>
/api/java/index.html?org/apache/spark/sql/Encoder.html’.
Não é possível extrair um valor de <base>
. É necessário um tipo complexo [STRUCT
, ARRAY
, MAP
], mas foi obtido <other>
.
Não é possível extrair <field>
de <expr>
.
O nome do campo deve ser um literal de cadeia de caracteres não nula, mas é <extraction>
.
O nome do campo <fieldName>
é inválido: <path>
não é um struct.
O formato é inválido: <format>
.
Para obter mais detalhes, confira INVALID_FORMAT
A fração de segundo precisa ser zero. O intervalo válido é [0, 60]. Se necessário, defina <ansiConfig>
como “false” para ignorar esse erro.
O identificador <handle>
é inválido.
Para obter mais detalhes, consulte INVALID_HANDLE
O identificador <ident>
não cotado é inválido e deve ser citado novamente como: <ident>
.
Identificadores não citados só podem conter letras ASCII ('a' - 'z', 'A' - 'Z'), dígitos ('0' - '9') e barra inferior ('_').
Os identificadores não citados também não devem começar com um dígito.
Diferentes fontes de dados e meta repositórios podem impor restrições adicionais aos identificadores válidos.
O índice 0 é inválido. Um índice deve ser < 0 ou > 0 (o índice do primeiro elemento é 1).
Tabela embutida inválida.
Para obter mais detalhes, consulte INVALID_INLINE_TABLE
Erro ao analisar '<input>
' para intervalo. Verifique se o valor fornecido está em um formato válido para definir um intervalo. Você pode referenciar a documentação para o formato correto.
Para obter mais detalhes, consulte INVALID_INTERVAL_FORMAT
Função de distribuição inversa <funcName>
inválida.
Para obter mais detalhes, consulte INVALID_INVERSE_DISTRIBUTION_FUNCTION
Tipo de junção inválido em joinWith: <joinType>
.
Falha ao converter a cadeia de caracteres JSON '<invalidType>
' em um tipo de dados. Insira um tipo de dados válido.
As ordenações só podem ser aplicadas a tipos de cadeia de caracteres, mas o tipo de dados JSON é <jsonType>
.
Não é possível converter o campo raiz JSON para o tipo Spark de destino.
O esquema de entrada <jsonSchema>
só pode conter STRING
como tipo de chave para um arquivo MAP
.
O valor da configuração "<bufferSizeConfKey>
" deve ser menor que 2048 MiB, mas obteve <bufferSizeConfValue>
MiB.
O uso do rótulo <labelName>
é inválido.
Para mais detalhes, consulte INVALID_LABEL_USAGE
Chamada de função lambda inválida.
Para obter mais detalhes, confira INVALID_LAMBDA_FUNCTION_CALL
A correlação <joinType>
JOIN com LATERAL não é permitida porque uma sub-consulta OUTER não pode ser correlacionada com seu parceiro de junção. Remova a correlação LATERAL ou use uma INNER JOIN ou LEFT OUTER JOIN.
O limite como a expressão <expr>
é inválida.
Para obter mais detalhes, confira INVALID_LIMIT_LIKE_EXPRESSION
O nome do local não pode ser um URI inválido, mas <location>
foi fornecido.
O caminho <path>
não absoluto fornecido não pode ser qualificado. Atualize o caminho para ser um local de montagem dbfs válido.
O operador espera uma expressão determinística, mas a expressão real é <sqlExprs>
.
O literal numérico <rawStrippedQualifier>
está fora do intervalo válido do <typeName>
com o valor mínimo de <minValue>
e o valor máximo de <maxValue>
. Ajuste o valor adequadamente.
Métricas observadas inválidas.
Para obter mais detalhes, consulte INVALID_OPTIONS
Opções inválidas:
Para obter mais detalhes, consulte INVALID_OPTIONS
A UDF <functionList>
de agregação de grupo do pandas não pode ser invocada junto com outras funções de agregação não pandas.
Um mapeamento de parâmetro inválido foi fornecido:
Para obter mais detalhes, confira INVALID_PARAMETER_VALUE
O valor dos parâmetros <parameter>
em <functionName>
é inválido:
Para obter mais detalhes, consulte INVALID_PARAMETER_VALUE
Não é possível usar <type>
para a coluna de partição.
O comando de partição é inválido.
Para obter mais detalhes, confira INVALID_PARTITION_OPERATION
A ID <pipelineId>
do pipeline não é válida.
A ID do pipeline deve ser uma UUID no formato ‘xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx’
O privilégio <privilege>
não é válido para <securable>
.
<key>
é uma chave de propriedade inválida, use aspas, por exemplo, SET <key>
=<value>
.
<value>
é um valor da propriedade inválido, use aspas, por exemplo, SET <key>
=<value>
A consulta parametrizada precisa usar parâmetros posicionais ou nomeados, mas não ambos.
As credenciais COPY INTO precisam incluir AWS_ACCESS_KEY, AWS_SECRET_KEY e AWS_SESSION_TOKEN.
O modo de salvamento <mode>
especificado é inválido. Os modos de salvamento válidos incluem “acrescentar”, “substituir”, “ignorar”, “erro”, “errorifexists” e “padrão”.
O esquema de entrada <inputSchema>
não é uma cadeia de caracteres de esquema válida.
Para obter mais detalhes, confira INVALID_SCHEMA
<name>
não é um nome válido para tabelas/esquemas. Os nomes válidos contêm apenas caracteres alfabéticos, números e _.
O catálogo do Unity não dá suporte a <name>
como o esquema de arquivos padrão.
Pesquisa de segredo inválida:
Para obter mais detalhes, confira INVALID_SECRET_LOOKUP
O formato esperado é ‘SET’, ‘SET key’ ou ‘SET key=value’. Se você quiser incluir caracteres especiais na chave ou incluir ponto e vírgula no valor, use aspas invertidas, por exemplo, SET key
=value
.
O <sharedObjectType>
nome do alias deve ser do formulário "schema.name".
A opção singleVariantColumn
não poderá ser usada se também houver um esquema especificado pelo usuário.
O catálogo de origem não deve estar no Catálogo do Unity para o comando SYNC. Encontrado <catalog>
.
O argumento <name>
de sql()
é inválido. Considere substituir por um SQL literal ou por funções de construção de coleção como map()
, array()
, struct()
.
Sintaxe de SQL inválida:
Para obter mais detalhes, confira INVALID_SQL_SYNTAX
Caminho de preparo inválido na consulta de preparo <operation>
: <path>
A cláusula INTO de EXECUTE IMMEDIATE só é válida para consultas, mas a instrução fornecida não é uma consulta: <sqlString>
.
A instrução ou cláusula: <operation>
não é válida.
Subconsulta inválida:
Para obter mais detalhes, confira INVALID_SUBQUERY_EXPRESSION
Não é possível criar o objeto persistente <objName>
do tipo <obj>
porque ele faz referência ao objeto temporário <tempObjName>
do tipo <tempObj>
. Defina o objeto temporário <tempObjName>
como persistente ou o objeto persistente <objName>
como um objeto temporário.
O carimbo de data/hora <timestamp>
fornecido não corresponde à sintaxe <format>
esperada.
Não é possível especificar a versão e o carimbo de data/hora ao fazer uma viagem no tempo na tabela.
A expressão de carimbo de data/hora de viagem no tempo <expr>
é inválida.
Para obter mais detalhes, consulte INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
O valor do literal digitado <valueType>
é inválido: <value>
.
A função <funcName>
não implementa ScalarFunction ou AggregateFunction.
<command>
<supportedOrNot>
a tabela de origem está no metastore do Hive e a tabela de destino está no Catálogo do Unity.
A url é inválida: <url>
. Se necessário, defina <ansiConfig>
como “false” para ignorar esse erro.
Uso inválido de <elem>
em <prettyName>
.
Sequência de bytes UTF8 inválida encontrada na string: <str>
.
A entrada <uuidInput>
não é uma UUID válida.
A UUID deve estar no formato ‘xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx’
Verifique o formato da UUID.
Declaração de variável inválida.
Para mais detalhes, consulte INVALID_VARIABLE_DECLARATION
O tipo de variável precisa ser do tipo de cadeia de caracteres, mas <varType>
foi obtido.
O valor da variante <value>
não pode ser convertido em <dataType>
. Use try_variant_get
em vez disso.
Variante inválida.
Para obter mais detalhes, confira INVALID_VARIANT_FROM_PARQUET
O caminho <path>
não é um caminho de extração de variante válido no <functionName>
.
Um caminho válido deve começar com $
e é seguido por zero ou mais segmentos como [123]
, .name
, ['name']
ou ["name"]
.
A condição WHERE <condition>
contém expressões inválidas: <expressionList>
.
Regenere a consulta para evitar funções de janela, funções de agregação e funções geradoras na cláusula WHERE.
Não é possível especificar ORDER BY ou um quadro de janela para <aggFunc>
.
O gravador de fonte de dados gerou um número inválido de mensagens de confirmação. Esperada exatamente uma mensagem de confirmação de gravador de cada tarefa, mas recebido <detail>
.
A distribuição de gravação solicitada é inválida.
Para obter mais detalhes, consulte INVALID_WRITE_DISTRIBUTION
A condição de junção <joinCondition>
tem o tipo inválido <conditionType>
, esperado “BOOLEAN
”.
Alguns dados podem ter sido perdidos porque não estão mais disponíveis no Kafka;
os dados foram excluídos pelo Kafka ou o tópico pode ter sido excluído antes de todos os dados no
tópico serem processados.
Se você não quiser que a consulta de streaming falhe nesses casos, defina a opção de origem failOnDataLoss como false.
Motivo:
Para obter mais detalhes, confira KAFKA_DATA_LOSS
Não foi possível ler até que o número <endSeqNum>
sequencial desejado para o fragmento <shardId>
em
fluxo de kinesis <stream>
com o modo de consumidor <consumerMode>
. A consulta falhará devido a
possível perda de dados. O último registro lido foi um número sequencial <lastSeqNum>
.
Isso pode ocorrer se o dado com endSeqNum já expirou ou se o fluxo Kinesis foi
excluído e reconstruído com o mesmo nome. Esta falha pode ser substituída
configurando spark.databricks.kinesis.failOnDataLoss como falso na configuração spark.
O shardId mínimo buscado do Kinesis (<fetchedShardId>
)
é menor do que o shardId mínimo rastreado (<trackedShardId>
).
Isso é inesperado e ocorre quando um fluxo do Kinesis é excluído e recriado com o mesmo nome,
e uma consulta de streaming usando esse fluxo do Kinesis é reiniciada usando um local de ponto de verificação existente.
Reinicie a consulta de streaming com um novo local de ponto de verificação ou crie um fluxo com um novo nome.
Para <shard>
de fragmentos, o último registro lido do Kinesis em buscas anteriores tem <lastSeqNum>
de número de sequência,
que é maior que o registro lido na busca atual com o número de sequência <recordSeqNum>
.
Isso é inesperado e pode acontecer quando a posição inicial da repetição ou da próxima busca é inicializada incorretamente e pode resultar em registros duplicados downstream.
Falha na serialização do Kryo: <exceptionMsg>
. Para evitar isso, aumente o valor "<bufferSizeConfKey>
".
O rótulo <beginLabel>
inicial não corresponde ao rótulo <endLabel>
final.
O caminho de entrada LOAD DATA não existe: <path>
.
O LOCAL deve ser usado junto com o esquema de file
, mas tem: <actualSchema>
.
Não é possível nomear a tabela gerenciada como <identifier>
, pois seu local associado <location>
já existe. Escolha um nome de tabela diferente ou remova o local existente primeiro.
Algumas partições de tópico(s) Kafka foram perdidas durante a execução da consulta com Trigger.AvailableNow. O erro pode ser transitório, reinicie sua consulta e informe se você ainda estiver experimentando o mesmo problema.
topic-partitions para o último deslocamento: <tpsForLatestOffset>
, topic-partitions para o deslocamento final: <tpsForEndOffset>
Mensagens Avro malformadas são detectadas na desserialização de mensagens. Modo de Análise: <mode>
. Para processar a mensagem Avro malformada como resultado nulo, tente definir a opção ''mode'' como ''PERMISSIVE''.
Valor inválido encontrado ao executar <function>
com <charset>
Registro de CSV malformado: <badRecord>
Registros malformados são detectados na análise de registros: <badRecord>
.
Modo de Análise: <failFastMode>
. Para processar os registros malformados como resultado nulo, tente definir a opção ‘mode’ como ‘PERMISSIVE’.
Para obter mais detalhes, consulte MALFORMED_RECORD_IN_PARSING
O binário da variante está malformado. Verifique se a fonte de dados é válida.
Não há suporte para criar uma tabela gerenciada com a credencial de armazenamento.
A exibição materializada não pode se tornar <refreshType>
porque ela existia antes do pipelineId. Para habilitar <refreshType>
, remova e recrie a exibição materializada.
A operação <operation>
de exibição materializada não é permitida:
Para obter mais detalhes,consulte MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
A expressão de saída <expression>
em uma exibição materializada deve ter um alias explícito.
A exibição <name>
materializada não pôde ser criada com a consulta de streaming. Use CREATE [OR REFRESH] STREAMING TABLE ou remova a palavra-chave STREAM para sua cláusula FROM para transformar essa relação em uma consulta em lote.
Não há suporte para a operação <operation>
em exibições materializadas para esta versão.
Não é possível criar a variável <variableName>
porque o número de variáveis na sessão excede o número máximo permitido (<maxNumVariables>
).
maxRecordsPerFetch precisa ser um número inteiro positivo menor ou igual a <kinesisRecordLimit>
A condição de pesquisa ON da instrução MERGE correspondeu a uma única linha da tabela de destino com várias linhas da tabela de origem.
Isso pode fazer com que a linha de destino seja operada mais de uma vez com uma operação de atualização ou exclusão e não seja permitida.
METRIC CONSTRAINT não está habilitada.
O valor fornecido "<argValue>
" não é suportado pelo argumento "<argName>
" para a função de tabela METRIC_STORE.
Para obter mais detalhes, consulte METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
A função repositório de métricas <functionName>
está desabilitada no momento nesse ambiente.
Fonte de dados Kafka em Trigger.AvailableNow deve fornecer as mesmas partições de tópico no deslocamento pré-coletado para deslocamento final para cada microlote. O erro pode ser transitório, reinicie sua consulta e informe se você ainda estiver experimentando o mesmo problema.
topic-partitions para o deslocamento pré-coletado: <tpsForPrefetched>
, topic-partitions para o deslocamento final: <tpsForEndOffset>
.
A expressão não agregada <expression>
baseia-se em colunas que não estão participando da cláusula GROUP BY.
Adicione as colunas ou a expressão à GROUP BY, agregue a expressão ou use <expressionAnyValue>
se você não se importar com quais dos valores dentro de um grupo são retornados.
Para obter mais detalhes, consulte MISSING_AGGREGATION
As conexões do tipo ‘<connectionType>
’ devem incluir as seguintes opções: <requiredOptions>
.
A consulta não inclui uma cláusula GROUP BY. Adicione GROUP BY ou transforme-a nas funções de janela usando cláusulas OVER.
A restrição CHECK deve ter um nome.
O parâmetro <parameterName>
é necessário para Kafka, mas não é especificado em <functionName>
.
O parâmetro <parameterName>
é necessário, mas não é especificado em <functionName>
.
A especificação da janela não é definida na cláusula WINDOW para <windowName>
. Para obter mais informações sobre cláusulas WINDOW, consulte '<docroot>
/sql-ref-syntax-qry-select-window.html'.
Não há suporte para a modificação do catálogo integrado <catalogName>
.
O Databricks Delta não dá suporte a vários caminhos de entrada na API load().
caminhos: <pathList>
. Para criar apenas um DataFrame carregando
vários caminhos da mesma tabela Delta, carregue o caminho raiz da
tabela Delta com os filtros de partição correspondentes. Se os vários caminhos
forem de diferentes tabelas Delta, use as APIs union()/unionByName() do conjunto de dados
para combinar os DataFrames gerados por chamadas separadas à API load().
Encontrou pelo menos duas restrições correspondentes com a condição fornecida.
Não é possível especificar a viagem no tempo tanto na cláusula de viagem no tempo quanto nas opções.
Detectou várias fontes de dados com o nome <provider>
(<sourceNames>
). Especifique o nome de classe totalmente qualificado ou remova <externalSource>
do classpath.
A expressão <expr>
não dá suporte a mais de uma fonte.
Não é permitido implementar várias interfaces UDF, UDF classe <className>
.
Cláusulas mutuamente exclusivas ou opções <clauses>
. Remova uma destas cláusulas.
A consulta de entrada espera um <expectedType>
, mas a tabela subjacente é um <givenType>
.
Não há suporte para os parâmetros nomeados da função <functionName>
; tente a consulta novamente com argumentos posicionais para a chamada de função.
Não é possível chamar a função <functionName>
porque não há suporte para referências de argumento nomeado. Nesse caso, a referência de argumento nomeado era <argument>
.
Não é possível chamar a função <functionName>
porque as referências de argumento nomeado não estão habilitadas aqui.
Nesse caso, a referência de argumento nomeado era <argument>
.
Defina "spark.sql.allowNamedFunctionArguments" como "true" para ativar o recurso.
Não é possível criar o namespace <nameSpaceName>
porque ele já existe.
Escolha um nome diferente, remova o namespace existente ou adicione a cláusula IF NOT EXISTS para tolerar o namespace pré-existente.
Não é possível remover um namespace <nameSpaceNameName>
porque ele contém objetos.
Use DROP NAMESPACE... CASCADE para remover o namespace e todos os seus objetos.
Não foi possível encontrar o namespace <nameSpaceName>
. Verifique a ortografia e a exatidão do namespace.
Se você não qualificou o nome com, verifique a saída current_schema() ou qualifique o nome com o corretamente.
Para tolerar o erro na remoção, use DROP NAMESPACE IF EXISTS.
Falha na solicitação nativa. requestId: <requestId>
, nuvem: <cloud>
, operação: <operation>
solicitação: [https: <https>
, método = <method>
, caminho = <path>
, params = <params>
, host = <host>
, cabeçalhos = <headers>
, bodyLen = <bodyLen>
],
erro: <error>
A fonte de dados XML nativa não está habilitada neste cluster.
Não é permitido usar uma função de agregação no argumento de outra função de agregação. Use a função de agregação interna em uma subconsulta.
Comandos EXECUTE IMMEDIATE aninhados não são permitidos. Verifique se a consulta SQL fornecida (<sqlString>
) não contém outro comando EXECUTE IMMEDIATE.
Field(s) <nonExistFields>
do(es) não existe. Campos disponíveis: <fieldNames>
A função <funcName>
requer que o parâmetro <paramName>
seja uma expressão dobrável do tipo <paramType>
, mas o argumento real é não dobrável.
Quando há mais de uma cláusula MATCHED em uma instrução MERGE, somente a última cláusula MATCHED pode omitir a condição.
Quando há mais de uma cláusula NOT MATCHED BY SOURCE em uma instrução MERGE, somente a última cláusula NOT MATCHED BY SOURCE pode omitir a condição.
Quando houver mais de uma cláusula NOT MATCHED [BY TARGET] em um comando MERGE, somente a última cláusula NOT MATCHED [BY TARGET] poderá omitir a condição.
Expressões literais necessárias para valores dinâmicos, encontradas <expression>
.
A cláusula PARTITION não pode conter a coluna que não seja de partição: <columnName>
.
Não há suporte para a função de janela em <windowFunc>
(como coluna <columnName>
) em DataFrames/Datasets do streaming.
O Streaming Estruturado dá suporte apenas à agregação de janela de tempo usando a função WINDOW. (especificação da janela: <windowSpec>
)
Não é permitido na cláusula FROM:
Para obter mais detalhes, confira NOT_ALLOWED_IN_FROM
A expressão <expr>
usada para a rotina ou cláusula <name>
deve ser uma constante STRING
NOT NULL.
Para obter mais detalhes, confira NOT_A_CONSTANT_STRING
A operação <operation>
não é permitida porque <tableIdentWithDB>
não é uma tabela particionada.
<functionName>
aparece como uma expressão escalar aqui, mas a função foi definida como uma função de tabela. Atualize a consulta para mover a chamada de função para a cláusula FROM ou ao invés disso redefina <functionName>
como uma função escalar.
<functionName>
aparece como uma função de tabela aqui, mas a função foi definida como uma função escalar. Atualize a consulta para mover a chamada de função para fora da cláusula FROM ou ao invés disso redefina <functionName>
como uma função de tabela.
O valor NULL apareceu no campo não anulável: <walkedTypePath>
. Se o esquema for inferido de uma classe de tupla/caso do Scala ou de um bean Java, tente usar scala.Option[_] ou outros tipos que permitem valor nulo (como java.lang.Integer em vez de int/scala.Int).
A atribuição NULL não é permitida aqui.
Para obter mais detalhes, consulte NOT_NULL_CONSTRAINT_VIOLATION
ALTER TABLE ALTER/CHANGE COLUMN não tem suporte para alterar <table>
a coluna de <originName>
com o tipo <originType>
para <newName>
com o tipo <newType>
.
<cmd>
não têm suporte para tabelas v2.
<cmd>
não há suporte, se você quiser habilitá-lo, defina "spark.sql.catalogImplementation" como "hive".
Comando sem suporte no catálogo JDBC:
Para obter mais detalhes, confira NOT_SUPPORTED_IN_JDBC_CATALOG
<operation>
não é compatível com um SQL <endpoint>
.
<operation>
não há suporte na computação sem servidor.
O codificador não resolvido era esperado, mas <attr>
foi encontrado.
Não é possível determinar o valor padrão do <colName>
, pois ele não é anulável e não tem valores padrão.
Nenhum manipulador para a UDAF ‘<functionName>
’. Em vez disso, use sparkSession.udf.register(…).
df.mergeInto precisa ser seguido por pelo menos um de whenMatched/whenNotMatched/whenNotMatchedBySource.
SQLSTATE: nenhuma atribuição
Nenhum local externo pai foi encontrado para o caminho ‘<path>
’. Crie um local externo em um dos caminhos pai e tente novamente executar a consulta ou o comando.
Não é possível encontrar <catalystFieldPath>
no esquema Protobuf.
SQLSTATE: nenhuma atribuição
Nenhum local de armazenamento foi encontrado para a tabela ‘<tableId>
‘ ao gerar credenciais de tabela. Verifique o tipo de tabela e a URL do local da tabela e tente novamente a realizar consulta ou o comando.
SQLSTATE: nenhuma atribuição
O catálogo ‘<catalog>
’ não foi encontrado. Verifique o nome do catálogo e tente novamente executar a consulta ou o comando.
SQLSTATE: nenhuma atribuição
A sala limpa ‘<cleanroom>
’ não existe. Verifique se o nome da sala limpa está escrito corretamente e corresponde a um nome de sala limpa válida existente e tente executar a consulta ou o comando novamente.
SQLSTATE: nenhuma atribuição
O local ‘ externo ’<externalLocation>
’ não existe. Verifique se o nome do local externo está correto e tente novamente executar a consulta ou o comando.
SQLSTATE: nenhuma atribuição
O metastore não foi encontrado. Peça ao administrador da conta que atribua um metastore ao workspace atual e tente novamente executar a consulta ou o comando.
SQLSTATE: nenhuma atribuição
O provedor de compartilhamento ‘<providerName>
’ não existe. Verifique se o nome do provedor de compartilhamento está escrito corretamente e corresponde a um nome de provedor válido existente e tente novamente executar a consulta ou o comando.
SQLSTATE: nenhuma atribuição
O ’<recipient>
’ do destinatário não existe. Verifique se o nome do destinatário está escrito corretamente e corresponde a um nome de destinatário válido existente e tente novamente executar a consulta ou o comando.
SQLSTATE: nenhuma atribuição
O compartilhamento ‘<share>
’ não existe. Verifique se o nome do compartilhamento está escrito corretamente e corresponde a um nome de compartilhamento válido existente e tente novamente executar a consulta ou o comando.
SQLSTATE: nenhuma atribuição
Pode ocorrer quando a credencial ‘<storageCredential>
’ não existe. Verifique se o nome da credencial de armazenamento está escrito corretamente e corresponde a um nome de credencial de armazenamento válido existente e tente novamente executar a consulta ou o comando.
SQLSTATE: nenhuma atribuição
O usuário ‘<userName>
’ não existe. Verifique se o usuário a quem você concede permissão ou cuja propriedade você altera está escrito corretamente e corresponde a um nome de usuário válido existente e tente novamente executar a consulta ou o comando.
A UDF classe <className>
não implementa nenhuma interface UDF.
A coluna ou o campo <name>
é anulável quando deveria ser não anulável.
Os atributos de ID da linha não podem ser anuláveis: <nullableRowIdAttrs>
.
A opção <option>
de leitura/gravação da fonte de dados não pode ter valor nulo.
Não é possível usar nulo como chave de mapa.
Executar imediatamente requer uma variável não nula como a cadeia de caracteres de consulta, mas a variável fornecida <varName>
é nula.
O valor <value>
não pode ser interpretado como numérico, pois tem mais de 38 dígitos.
Para obter mais detalhes, consulte NUMERIC_VALUE_OUT_OF_RANGE
<operator>
só pode ser executado em entradas com o mesmo número de colunas, mas a primeira entrada tem <firstNumColumns>
colunas e a entrada <invalidOrdinalNum>
tem <invalidNumColumns>
colunas.
O número de aliases determinados não corresponde ao número de colunas de saída.
Nome da função: <funcName>
; número de aliases: <aliasesNum>
; número de colunas de saída: <outColsNum>
.
Nenhuma declaração de identidade personalizada foi fornecida.
Não há suporte para a função <functionName>
de chamada neste <location>
; <supportedFunctions>
tem suporte aqui.
A operação do SQL <operation>
só tem suporte em conectores SQL do Databricks com suporte do Catálogo do Unity.
A operação foi cancelada.
A operação <operation>
exige o Unity Catalog habilitado.
<plan>
não há suporte no modo de sessão somente leitura.
A posição <index>
de ORDER BY não está na lista de seleção (o intervalo válido é [1, <size>
]).
Não é possível criar um conversor Parquet para o tipo <dataType>
de dados cujo tipo Parquet é <parquetType>
.
Para mais detalhes, consulte PARQUET_CONVERSION_FAILURE
Erro de sintaxe, instrução vazia inesperada.
Erro de sintaxe em ou próximo a <error>
<hint>
.
Não é possível adicionar ou renomear (ADD ou RENAME TO) as partições <partitionList>
na tabela <tableName>
porque elas já existem.
Escolha um nome diferente, remova o partição existente ou adicione a cláusula IF NOT EXISTS para tolerar a partição pré-existente.
Não foi possível encontrar as partições <partitionList>
na tabela <tableName>
.
Verifique a especificação de partição e o nome da tabela.
Para tolerar o erro na lista suspensa, use ALTER TABLE... DROP IF EXISTS PARTITION.
O local da partição <locationPath>
já existe na tabela <tableName>
.
Falha ao executar a instrução ALTER TABLE SET PARTITION LOCATION, porque o
local da partição <location>
não está no diretório da tabela <table>
.
Para corrigir isso, defina o local da partição como um subdiretório de <table>
.
<action>
não é permitido na tabela <tableName>
, pois não há suporte para o armazenamento de metadados de partição no Unity Catalog.
O caminho <outputPath>
já existe. Defina o modo como “overwrite” para substituir o caminho existente.
O caminho não existe: <path>
.
A função <expr>
agregada não é permitida ao usar o operador de tubulação |> Cláusula SELECT; Por favor, use o operador de tubulação |> AGGREGATE em vez disso
Valor dinâmico inválido ‘<value>
’: o valor do tipo de dados <valueType>
não corresponde ao tipo de dados <pivotType>
de coluna dinâmica.
O procedimento <procedureName>
espera <expected>
argumentos, mas <actual>
foram fornecidos.
CREATE PROCEDURE com uma definição de rotina vazia não é permitida.
O parâmetro <parameterName>
é definido com o modo de parâmetro <parameterMode>
. O parâmetro OUT e INOUT não podem ser omitidos ao invocar uma rotina e, portanto, não dão suporte a uma expressão DEFAULT. Para continuar, remova a cláusula DEFAULT ou altere o modo de parâmetro para IN.
Não há suporte para o procedimento armazenado
Não há suporte para o procedimento armazenado com o Metastore do Hive. Em vez disso, use o Catálogo do Unity.
Não foi possível localizar a dependência: <dependencyName>
.
Erro ao ler o arquivo do descritor Protobuf no caminho: <filePath>
.
Pesquisando por <field>
no esquema Protobuf em <protobufSchema>
forneceu <matchSize>
correspondências. Candidatos: <matches>
.
Encontrado <field>
no esquema Protobuf, mas não há correspondência no esquema SQL.
Incompatibilidade de tipo encontrada no campo: <field>
.
Não há suporte de classes Java para <protobufFunction>
. Entre em contato com o Suporte do Databricks para saber sobre as opções alternativas.
Não é possível localizar a Mensagem <messageName>
no Descritor.
O tipo de Protobuf ainda não tem suporte: <protobufType>
.
A tarefa no estágio de busca de pubsub não pode ser repetida. Partição <partitionInfo>
no estágio <stageInfo>
, TID <taskId>
.
<key>
não pode ser uma cadeia de caracteres vazia.
Tipo de chave inválido das deduções do PubSub: <key>
.
A opção <key>
não tem suporte do PubSub. Ele só pode ser usado em testes.
Tipo inválido para <key>
. O tipo esperado de <key>
ser do tipo <type>
.
Limite de leitura inválido no fluxo PubSub: <limit>
.
UnsafeRow inválido para decodificar no PubSubMessageMetadata, o esquema proto desejado é: <protoSchema>
. A entrada UnsafeRow pode estar corrompida: <unsafeRow>
.
Ocorreu um erro ao localizar informações completas de autenticação do PubSub.
Não foi possível localizar o arquivo necessário: <key>
.
Ocorreu um erro ao mover arquivos de ponto de verificação de dados brutos de <src>
para o diretório de destino: <dest>
.
O fluxo de dados PubSub não pode ser iniciado, pois há mais de uma busca com fetch: <failedEpochs>
.
<key>
deve estar dentro dos seguintes limites (<min>
, <max>
) exclusivos de ambos os limites.
Os clusters compartilhados não dão suporte à autenticação com perfis de instância. Forneça credenciais para o fluxo diretamente usando .option().
O conector de origem PubSub só está disponível no cluster com spark.speculation
desabilitado.
Ocorreu um erro ao tentar criar uma assinatura <subId>
no tópico <topicId>
. Verifique se há permissões suficientes para criar uma assinatura e tente novamente.
Não é possível analisar os bytes serializados para gerar proto.
Não há suporte para getOffset sem fornecer um limite.
Falha ao <action>
a fonte de dados do Python <type>
: <msg>
Falha quando a fonte de dados de streaming do Python executa <action>
: <msg>
Não é possível acessar a tabela referenciada porque uma máscara de coluna atribuída anteriormente é incompatível com o esquema da tabela. Para continuar, contate o proprietário da tabela para atualizar a política:
Para obter mais detalhes, confira QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
Não é possível acessar a tabela referenciada porque uma política de segurança de nível de linha atribuída anteriormente é incompatível com o esquema da tabela. Para continuar, contate o proprietário da tabela para atualizar a política:
Para obter mais detalhes, confira QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
<message>
É possível que os arquivos subjacentes tenham sido atualizados. Você pode invalidar explicitamente o cache no Spark executando o comando ‘REFRESH TABLE table name’ no SQL ou recriando o conjunto de dados ou o dataframe envolvido.
A invocação da função <functionName>
tem <parameterName>
e <alternativeName>
definidos, que são aliases um do outro. Defina apenas um deles.
O parâmetro <functionName>
necessário para a função <parameterName>
deve ser atribuído à posição <expectedPos>
sem o nome.
Somente os tipos TIMESTAMP
/TIMESTAMP_LTZ/TIMESTAMP_NTZ são compatíveis com o carimbo de data/hora de expiração do destinatário.
Referência recursiva encontrada no esquema Protobuf, que não pode ser processado pelo Spark por padrão: <fieldDescriptor>
. Tente definir a opção recursive.fields.max.depth
1 a 10. Não é permitido ultrapassar 10 níveis de recursão.
Exibição recursiva <viewIdent>
detectada (ciclo: <newPath>
).
Referências aos valores de coluna DEFAULT não são permitidas dentro da cláusula PARTITION.
Não é possível compilar um <relationName>
que seja maior que 8G.
Falha na solicitação HTTP remota com o código <errorCode>
e a mensagem de erro <errorMessage>
Falha ao avaliar a função SQL <functionName>
devido à incapacidade de analisar o resultado JSON da resposta HTTP remota; a mensagem de erro é <errorMessage>
. Verifique a API REST: <docUrl>
. Corrija o problema indicado na mensagem de erro e repita a consulta.
Falha ao avaliar a função SQL <functionName>
devido à incapacidade de processar a resposta HTTP remota inesperada; a mensagem de erro é <errorMessage>
. Verifique a API REST: <docUrl>
. Corrija o problema indicado na mensagem de erro e repita a consulta.
A solicitação remota falhou após tentar novamente <N>
vezes; o último código de erro HTTP com falha foi <errorCode>
e a mensagem foi <errorMessage>
Falha ao avaliar a função SQL <functionName>
porque <errorMessage>
. Verifique os requisitos em <docUrl>
. Corrija o problema indicado na mensagem de erro e repita a consulta.
Falha ao renomear pois <sourcePath>
não foi encontrado.
Um máximo de <clause>
cláusulas pode ser usado uma vez em cada <operation>
operação.
O parâmetro <parameterName>
necessário da função <functionName>
foi atribuído na posição <positionalIndex>
sem o nome.
Atualize a chamada de função para remover o argumento nomeado com <parameterName>
esse parâmetro ou remova o posicionamento
argumento no <positionalIndex>
e tente a consulta novamente.
Não é possível invocar a função <functionName>
porque o parâmetro chamado <parameterName>
é necessário, mas a chamada de função não forneceu um valor. Atualize a chamada de função para fornecer um valor de argumento (posicionalmente no índice <index>
ou por nome) e repita a consulta.
<sessionCatalog>
requer um namespace de parte única, mas obteve <namespace>
.
A opção de leitor de API DataFrame 'rescuedDataColumn' é mutuamente exclusiva com a opção de API DataFrame 'singleVariantColumn'.
Remova um deles e repita a operação DataFrame novamente.
A gravação contém colunas <columnList>
reservadas que são usadas
internamente como metadados do Feed de Dados de Alterações. Para gravar na tabela, renomeie/remova
essas colunas ou desabilite o Feed de Dados de Alterações na tabela definindo a opção
<config>
como false.
A opção <option>
tem valores restritos em clusters compartilhados para a origem de <source>
.
Para obter mais detalhes, consulte RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
Não é possível criar o <newRoutineType>
<routineName>
porque um <existingRoutineType>
desse nome já existe.
Escolha um nome diferente, descarte ou substitua o existente <existingRoutineType>
ou adicione a cláusula IF NOT EXISTS para tolerar um .<newRoutineType>
Não foi possível encontrar a rotina <routineName>
. Verifique a ortografia e a correção do esquema e do catálogo.
Se você não qualificou o nome com um esquema e um catálogo, verifique a saída current_schema() ou qualifique o nome com o esquema e o catálogo corretos.
Para tolerar o erro na remoção, use DROP … IF EXISTS.
A função <functionName>
não dá suporte ao parâmetro <parameterName>
especificado na posição <pos>
.<suggestion>
A função <routineName>
não pode ser criada porque o nome de classe especificado ‘<className>
’ está reservado para uso do sistema. Renomeie a classe e tente novamente.
Não há suporte para a criação da restrição CHECK na tabela <tableName>
com políticas de máscara de coluna.
Uma instrução <statementType>
tentou atribuir uma política de segurança em nível de linha a uma tabela, mas duas ou mais colunas referenciadas tinham o mesmo nome <columnName>
, o que é inválido.
Não há suporte para políticas de segurança em nível de linha para <tableName>
:
Para obter mais detalhes, confira ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
Não é possível <statementType>
<columnName>
da tabela <tableName>
porque ela é referenciada em uma política de segurança em nível de linha. O proprietário da tabela deve remover ou alterar essa política antes de continuar.
As operações MERGE INTO não dão suporte para políticas de segurança em nível de linha na tabela de origem <tableName>
.
As operações MERGE INTO não dão suporte à gravação na tabela <tableName>
com políticas de segurança em nível de linha.
Essa instrução tentou atribuir uma política de segurança em nível de linha a uma tabela, mas a coluna <columnName>
referenciada tinha várias partes do nome, o que é inválido.
As políticas de segurança em nível de linha só tem suporte no Catálogo do Unity.
<mode>
não há suporte para clonar da tabela <tableName>
com a política de segurança em nível de linha.
Não há suporte para <mode>
clonar na tabela <tableName>
com a política de segurança em nível de linha.
Não há suporte para o uso de uma constante como parâmetro em uma política no nível de linha. Atualize o comando SQL para remover a constante da definição do filtro de linha e tente o comando novamente.
Falha ao executar o comando <statementType>
, pois não há suporte para a atribuição de política de segurança em nível de linha para a fonte de dados de destino com o provedor de tabela: “<provider>
”.
Mais de uma linha retornada por uma subconsulta usada como uma expressão.
Encontrado NULL em uma linha no índice <index>
, esperava um valor não NULL.
Não foi encontrada uma ID para o nome da regra "<ruleName>
". Modifique RuleIdCollection.scala se você estiver adicionando uma nova regra.
Permissões sem suporte nos bancos de dados ou nas tabelas de exemplo.
A subconsulta escalar correlacionada '<sqlExpr>
' não está presente no GROUP BY nem em uma função de agregação.
Adicione-o ao GROUP BY usando a posição ordinal ou encapsule-o em first()
(ou first_value
) se você não se importar com o valor obtido.
Mais de uma linha retornada por uma subconsulta usada como uma expressão.
O período de agendamento para <timeUnit>
deve ser um valor inteiro entre 1 e <upperBound>
(inclusive). Recebido: <actual>
.
Não é possível criar o esquema <schemaName>
porque ele já existe.
Escolha um nome diferente, remova o esquema existente ou adicione a cláusula IF NOT EXISTS para tolerar o esquema pré-existente.
Não é possível remover um esquema <schemaName>
porque ele contém objetos.
Use DROP SCHEMA... CASCADE para remover o esquema e todos os seus objetos.
Não foi possível encontrar o esquema <schemaName>
. Verifique a ortografia e a correção do esquema e do catálogo.
Se você não qualificou o nome com um catálogo, verifique a saída current_schema() ou qualifique o nome com o catálogo correto.
Para tolerar o erro na remoção, use DROP SCHEMA IF EXISTS.
Não foi possível inicializar o esquema do registro de esquema. <reason>
.
O segundo argumento da função <functionName>
precisa ser um inteiro.
Não é possível executar o comando <commandType>
com uma ou mais referências não criptografadas à função SECRET; criptografe o resultado de cada chamada de função com AES_ENCRYPT e tente o comando novamente
A expressão <seedExpr>
de semente da expressão <exprWithSeed>
deve ser dobrável.
Este servidor está ocupado e não conseguiu tratar o pedido. Aguarde um momento e tente de novo.
O sortBy deve ser usado junto com o bucketBy.
Trabalho <jobId>
cancelado <reason>
Uma CREATE TABLE sem uma lista colunada explícita não pode especificar informação bucketing.
Use o formulário com uma lista colunada explícita e especifique a informação bucketing.
Alternativamentre, permitir informação bucketing para ser inferido ao omitir a cláusula.
CLUSTER BY e CLUSTERED BY EM BUCKETS não podem ser especificados simultaneamente.
CLUSTER BY e PARTITIONED BY não podem ser especificados simultaneamente.
Uma CREATE TABLE sem uma lista colunada explícita não pode especificar PARTICIONADO POR.
Use o formulário com uma lista colunada explícita e especifique PARTICIONADO POR.
Como alternativa, permita que o particionamento seja inferido omitindo a cláusula PARTICIONAR POR.
A configuração <sqlConf>
do SQL não pode ser encontrada. Verifique se a configuração existe.
Erro transitório ao acessar o caminho de preparação de destino <path>
, tente em alguns minutos
A estrela (*) não é permitida em uma lista de seleção quando GROUP BY uma posição ordinal é usada.
Falha ao executar a operação de processador com estado=<operationType>
com estado de identificador inválido=<handleState>
.
Falha ao executar a operação de processador com estado=<operationType>
com timeMode= inválido<timeMode>
Não é possível inicializar novamente o estado na mesma chave de agrupamento durante o tratamento de estado inicial para processador com estado. Chave de agrupamento inválida=<groupingKey>
. Verifique o estado inicial, remova linhas duplicadas e reinicie a consulta.
A variável de estado com nome <stateVarName>
já foi definida no StatefulProcessor.
Não é possível usar TTL para state=<stateName>
em timeMode=<timeMode>
, use TimeMode.ProcessingTime() em vez disso.
A duração da TTL deve ser maior que zero para a operação de armazenamento de estado=<operationType>
em state=<stateName>
.
Modo de hora <timeMode>
desconhecido . Os modos timeMode aceitos são 'none', 'processingTime', 'eventTime'
Falha ao criar uma família de colunas com caractere inicial sem suporte e name=<colFamilyName>
.
Falha ao executar a operação da família de colunas=<operationName>
com name=<colFamilyName>
inválido. O nome da família de colunas não pode estar vazio ou incluir espaços à esquerda/à direita ou usar a palavra-chave reservada=padrão
Transformação de esquema incompatível com a coluna family=<colFamilyName>
, oldSchema=<oldSchema>
, newSchema=<newSchema>
.
O identificador não foi inicializado para esse StatefulProcessor.
Use apenas o StatefulProcessor dentro do operador transformWithState.
Número incorreto de ordinais de ordenação=<numOrderingCols>
para o codificador de verificação de intervalo. O número de ordinais de ordenação não pode ser zero ou maior que o número de colunas de esquema.
Número incorreto de colunas de prefixo=<numPrefixCols>
para o codificador de verificação de prefixo. As colunas de prefixo não podem ser zero ou maiores ou iguais ao número de colunas de esquema.
Não é possível mudar <configName>
de <oldConfig>
para <newConfig>
entre reinicializações. Defina <configName>
como <oldConfig>
ou reinicie com um novo diretório de ponto de verificação.
O Provedor de Armazenamento de Estado <inputClass>
fornecido não estende org.apache.spark.sql.execution.streaming.state.StateStoreProvider.
Não é possível alterar <stateVarName>
para <newType>
entre reinicializações de consulta. Defina <stateVarName>
como <oldType>
ou reinicie com um novo diretório de ponto de verificação.
Não há suporte para a coluna de ordenação de tipo nulo com name=<fieldName>
at index=<index>
para o codificador de verificação de intervalo.
O Provedor de Armazenamento de Estado <inputClass>
fornecido não estende org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay.
Portanto, ele não dá suporte à opção snapshotStartBatchId ou readChangeFeed na fonte de dados de estado.
Operação de repositório de estado=<operationType>
não compatível com a família de colunas ausente=<colFamilyName>
.
Não há suporte para a coluna de ordenação de tamanho variável com name=<fieldName>
at index=<index>
para o codificador de verificação de intervalo.
A coluna <staticName>
de partição estática também é especificada na lista de colunas.
Nenhum lote confirmado encontrado, local do ponto de verificação: <checkpointLocation>
. Verifique se a consulta executou e confirmou qualquer microlote antes de parar.
As opções <options>
não podem ser especificadas simultaneamente. Especifique uma delas.
Falha ao ler os metadados do operador para checkpointLocation=<checkpointLocation>
e batchId=<batchId>
.
O arquivo não existe ou o arquivo está corrompido.
Execute novamente a consulta de streaming para construir os metadados do operador e relate às comunidades ou fornecedores correspondentes se o erro persistir.
Falha ao ler o esquema de estado. O arquivo não existe ou o arquivo está corrompido. opções: <sourceOptions>
.
Execute novamente a consulta de streaming para construir o esquema de estado e relate às comunidades ou fornecedores correspondentes se o erro persistir.
Valor inválido para a opção de origem ‘<optionName>
’:
Para obter mais detalhes, consulte STDS_INVALID_OPTION_VALUE
O estado não tem nenhuma partição. Verifique novamente se a consulta aponta para o estado válido. opções: <sourceOptions>
O log de deslocamento para <batchId>
não existe; local do ponto de verificação: <checkpointLocation>
.
Especifique a ID do lote que está disponível para consulta. Você pode consultar as IDs do lote disponíveis usando a fonte de dados de metadados de estado.
Os metadados não estão disponíveis para o log de deslocamento para <batchId>
, local do ponto de verificação: <checkpointLocation>
.
O ponto de verificação parece ser executado apenas com versões mais antigas do Spark. Execute a consulta de streaming com a versão recente do Spark, para que o Spark construa os metadados de estado.
‘<optionName>
’ precisa ser especificado.
Não há suporte para Execução de Consulta Adaptável para operadores com estado no Streaming Estruturado.
Não é possível transmitir a partir da visualização <viewName>
materializada. Não há suporte para streaming de exibições materializadas.
Modo de saída de streaming inválido: <outputMode>
.
Para mais detalhes, consulte STREAMING_OUTPUT_MODE
O nome do operador com estado de streaming não corresponde ao operador em metadados de estado. Isso provavelmente acontecerá quando o usuário adicionar/remover/alterar o operador com estado da consulta de streaming existente.
Operadores com estado nos metadados: [<OpsInMetadataSeq>
]; operadores com estado no lote atual: [<OpsInCurBatchSeq>
].
A tabela <tableName>
de streaming precisa ser atualizada para executar <operation>
. Execute CREATE OR REFRESH STREAMING TABLE <tableName>
AS para atualizar a tabela.
As tabelas de streaming só podem ser criadas e atualizadas em Delta Live Tables e Databricks SQL Warehouses.
A operação <operation>
não é permitida:
Para obter mais detalhes, confira STREAMING_TABLE_OPERATION_NOT_ALLOWED
A tabela <tableName>
de transmissão só pode ser criada a partir de uma consulta de transmissão. Adicione o palavra-chave STREAM à sua cláusula FROM para transformar essa relação em uma consulta de transmissão.
O fluxo do Kinesis <streamName>
não foi encontrado em <region>
.
Inicie uma nova consulta apontando para o nome correto do fluxo.
A linha de entrada não tem o número esperado de valores exigidos pelo esquema. <expected>
os campos são necessários enquanto <actual>
os valores são fornecidos.
A soma da cláusula LIMIT e da cláusula OFFSET não deve ser maior que o valor inteiro máximo de 32 bits (2.147.483.647), mas o limite encontrado = <limit>
, deslocamento = <offset>
.
O comando Reparar metadados de sincronização de tabela só tem suporte na tabela delta.
O comando Reparar metadados de sincronização de tabela só tem suporte nas tabelas do Catálogo do Unity.
O nome <srcTable>
da tabela de origem deve ser o mesmo que o nome <destTable>
da tabela de destino.
Suporte da cláusula ou palavra-chave: <clause>
foi descontinuado neste contexto.
Para obter mais detalhes, consulte SYNTAX_DISCONTINUED
Não é possível criar a tabela ou exibição <relationName>
porque ela já existe.
Escolha um nome diferente, solte o objeto existente, adicione a cláusula IF NOT EXISTS para tolerar objetos pré-existentes, adicione a cláusula OR REPLACE para substituir a exibição materializada existente ou adicione a cláusula OR REFRESH para atualizar a tabela de streaming existente.
Não foi possível encontrar a tabela ou a exibição <relationName>
. Verifique a ortografia e a correção do esquema e do catálogo.
Se você não qualificou o nome com um esquema, verifique a saída current_schema() ou qualifique o nome com o esquema e o catálogo corretos.
Para tolerar o erro na lista suspensa, use DROP VIEW IF EXISTS ou DROP TABLE IF EXISTS.
Para obter mais detalhes, consulte TABLE_OR_VIEW_NOT_FOUND
Não é possível <action>
usar a função definida pelo usuário do SQL <functionName>
com argumentos TABLE porque essa funcionalidade ainda não foi implementada.
Falha ao analisar a função de tabela definida pelo usuário do Python: <msg>
Falha ao avaliar a função de tabela <functionName>
porque seus metadados de tabela são <requestedMetadata>
, mas a função chama <invalidFunctionCallProperty>
.
Falha ao avaliar a função de tabela <functionName>
porque os metadados da tabela eram inválidos; <reason>
.
Há muitos argumentos de tabela para a função com valor de tabela.
Ele permite um argumento de tabela, mas obtém: <num>
.
Se você quiser permitir, defina "spark.sql.allowMultipleTableArguments.enabled" como "true”
Tabela com ID <tableId>
não pode ser encontrada. Verifique se a UUID está correta.
Falha na tarefa ao gravar linhas para <path>
.
Não é possível criar a exibição temporária <relationName>
porque ela já existe.
Escolha um nome diferente, remova ou substitua a exibição existente ou adicione a cláusula IF NOT EXISTS para tolerar exibições pré-existentes.
CREATE TEMPORARY VIEW ou as APIs de conjunto de dados correspondentes aceitam somente nomes de exibição de parte única, mas obtiveram: <actualName>
.
Não há suporte para tabelas em bucket no Catálogo do Unity.
No Catálogo do Unity, especifique explicitamente o nome do catálogo. Por exemplo, MOSTRAR CONCESSÃO your.address@email.com
NO CATÁLOGO principal.
Os comandos: <commandName>
não têm suporte para o Catálogo do Unity.
Para obter mais detalhes, confira UC_COMMAND_NOT_SUPPORTED
Os comandos: <commandName>
não têm suporte para clusters do Catálogo do Unity no modo de acesso compartilhado. Use o modo de acesso de usuário único.
Não há suporte para o tipo de credencial especificado.
Não há suporte para o formato de fonte de dados <dataSourceFormatName>
no Unity Catalog.
Não há suporte para opções de fonte de dados no Catálogo do Unity.
A cláusula LOCATION deve estar presente para o volume externo. Verifique a sintaxe ‘CREATE EXTERNAL VOLUME ... LOCATION ...’ para criar um volume externo.
A consulta falhou porque tentou fazer referência à tabela <tableName>
, mas não pôde fazer isso: <failureReason>
. Atualize a tabela <tableName>
para garantir que ela esteja em um estado de provisionamento ativo e tente novamente a consulta.
A criação de tabela no Catálogo do Unity com esquema de arquivo <schemeName>
não tem suporte.
Em vez disso, crie uma conexão de fonte de dados federada usando o comando CREATE CONNECTION para o mesmo provedor de tabela e crie um catálogo com base na conexão com o comando CREATE FOREIGN CATALOG para referenciar as tabelas nela contidas.
A exibição de Federação do Metastore do Hive não oferece suporte a dependências em vários catálogos. Exibir <view>
no Hive Metastore O catálogo de federação deve usar a dependência do catálogo hive_metastore ou spark_catalog, mas sua dependência <dependency>
está em outro catálogo <referencedCatalog>
. Atualize as dependências para atender a essa restrição e, em seguida, repita sua consulta ou comando novamente.
A federação de Metastore do Hive não está habilitada neste cluster.
Não há suporte para acessar o catálogo <catalogName>
neste cluster
As dependências de <viewName>
são registradas como <storedDeps>
enquanto são analisadas como <parsedDeps>
. Isto provavelmente ocorreu através do uso inadequado de uma API não SQL. Você pode reparar as dependências no Databricks Runtime executando ALTER VIEW <viewName>
AS <viewText>
.
Não há suporte para namespaces aninhados ou vazios no Catálogo do Unity.
Não pode ser feita referência a um objeto <name>
que não seja do Unity Catalog em objetos do Unity Catalog.
O suporte de gravação da Federação do Lakehouse de Catálogo do Unity não está habilitado para <provider>
de provedor neste cluster.
O volume gerenciado não aceita a cláusula LOCATION. Verifique a sintaxe ‘CREATE VOLUME ...’ para a criação de um volume gerenciado.
O Catálogo do Unity não está habilitado neste cluster.
A Federação de Consultas do Unity Catalog não está habilitada neste cluster.
As credenciais de serviço não estão habilitadas neste cluster.
O suporte para Volumes do Unity Catalog não está habilitado nesta instância.
O suporte do Compartilhamento de Volume não está ativado nesta instância.
O volume <name>
não existe. Use ‘SHOW VOLUMES’ para listar os volumes disponíveis.
SQLSTATE: nenhuma atribuição
Falha na execução da função <fn>
Para obter mais detalhes, consulte UDF_ERROR
Um ou mais limites de UDF foram violados.
Para obter mais detalhes, consulte UDF_LIMITS
Limite de UDF em toda a consulta excedido de <maxNumUdfs>
UDFs (limitado durante a versão prévia pública). Encontrado <numUdfs>
. As UDFs eram: <udfNames>
.
O trabalho do Python foi encerrado inesperadamente
Para mais detalhes, consulte UDF_PYSPARK_ERROR
Não há suporte para o PySpark UDF <udf>
(<eval-type>
) em clusters no modo de acesso compartilhado.
Falha na execução.
Para mais detalhes, consulte UDF_PYSPARK_USER_CODE_ERROR
Não há suporte para o valor padrão do parâmetro para a função <functionType>
definida pelo usuário.
Falha na execução da função <fn>
.
Para obter mais detalhes, consulte UDF_USER_CODE_ERROR
O número de aliases fornecidos na cláusula AS não corresponde ao número de colunas de saída pelo UDTF.
Aliases <aliasesSize>
esperados, mas têm <aliasesNames>
.
Verifique se o número de aliases fornecidos corresponde ao número de colunas de saída pelo UDTF.
Falha ao avaliar a função de tabela definida pelo usuário porque o ‘método de análise’ dela retornou um OrderingColumn solicitado cuja expressão de nome de coluna incluía um alias desnecessário <aliasName>
; remova esse alias e tente realizar a consulta novamente.
Falha ao avaliar a função de tabela definida pelo usuário porque seu método 'analyze' retornou uma expressão 'select' (<expression>
) que não inclui um alias correspondente; atualize o UDTF para especificar um alias lá e repita a consulta.
Não é possível adquirir <requestedBytes>
bytes de memória, foi obtido <receivedBytes>
.
Não é possível converter o tipo SQL <toType>
para o Protobuf tipo <protobufType>
.
Não é possível buscar tabelas do banco de dados Hive: <dbName>
. Nome da classe do erro: <className>
.
Não é possível inferir esquema para <format>
. Ele deve ser especificado manualmente.
Acesso não autorizado:
<report>
Encontrou o parâmetro não associado: <name>
. Corrija args
e forneça um mapeamento do parâmetro para funções de literal ou construtor de coleção do SQL, como map()
, array()
, struct()
.
Um comentário entre colchetes em aberto foi encontrado. Acrescente */ no final do comentário.
O parâmetro <paramIndex>
da função <functionName>
requer o tipo <requiredType>
, no entanto, <inputSql>
tem o tipo <inputType>
.
Operador <op>
inesperado na instrução CREATE VIEW como uma fonte de streaming.
Uma consulta de exibição de streaming deve consistir apenas em operações SELECT, WHERE e UNION ALL.
Não é possível invocar a função <functionName>
porque ela contém argumentos posicionais após argumentos nomeados<parameterName>
; reorganize-os para que os argumentos posicionais venham primeiro e tentem a consulta novamente.
A classe <className>
tem um serializador de expressão inesperado. Espera “STRUCT
” ou " IF” que retorna "STRUCT
", mas encontrou <expr>
.
Foram encontrados campos desconhecidos durante a análise: <unknownFieldBlob>
, que pode ser corrigida por uma nova tentativa automática: <isRetryable>
Para obter mais detalhes, consulte UNKNOWN_FIELD_EXCEPTION
A invocação da função <functionName>
contém um argumento posicional <sqlExpr>
desconhecido na posição <pos>
. Ele é inválido.
O tipo primitivo desconhecido com id <id>
foi encontrado em um valor variante.
Tentativa de tratar <descriptorName>
como uma Mensagem, mas era <containingType>
.
UNPIVOT exige que todas as expressões <given>
fornecidas sejam colunas quando não forem fornecidas expressões <empty>
. Essas não são colunas: [<expressions>
].
Pelo menos uma coluna de valor deve ser especificada como UNPIVOT, todas as colunas especificadas como IDs.
As colunas de valor Unpivot devem compartilhar um tipo menos comum, alguns tipos não: [<types>
].
Todas as colunas de valor não dinâmico devem ter o mesmo tamanho como há nomes de coluna de valor (<names>
).
Não é possível invocar a função <functionName>
porque a chamada de função incluiu uma referência de argumento nomeado para o argumento chamado <argumentName>
, mas essa função não inclui assinaturas que contenha um argumento com esse nome. Você quis dizer um dos seguintes? [<proposal>
].
Tipo SQL não reconhecido - nome: <typeName>
, ID: <jdbcType>
.
Não foi possível resolver <name>
a uma função com o valor de tabela.
Verifique se isso <name>
é definido como uma função com valor de tabela e se todos os parâmetros necessários são fornecidos corretamente.
Se <name>
não estiver definido, crie a função com valor de tabela antes de usá-la.
Para obter mais informações sobre como definir funções com valor de tabela, consulte a documentação do Apache Spark.
Não é possível inferir o agrupamento de colunas para GROUP BY ALL com base na cláusula de seleção. Especifique explicitamente as colunas de agrupamento.
Não é possível resolver um parâmetro de coluna ou função com nome <objectName>
.
Para obter mais detalhes, confira UNRESOLVED_COLUMN
Um campo com nome <fieldName>
não pode ser resolvido com a coluna <columnPath>
do tipo struct.
Para obter mais detalhes, confira UNRESOLVED_FIELD
Não é possível resolver a coluna <objectName>
como uma chave de mapear. Se a chave for um literal de cadeia de caracteres, adicione aspas simples ‘’ em seu entorno.
Para obter mais detalhes, confira UNRESOLVED_MAP_KEY
Não é possível resolver a rotina <routineName>
no caminho de pesquisa <searchPath>
.
Para obter mais detalhes, consulte UNRESOLVED_ROUTINE
A coluna USING <colName>
não pode ser resolvida no lado <side>
da junção. A coluna <side>
-lateral: [<suggestion>
].
Não é possível resolver a função <variableName>
no caminho de pesquisa <searchPath>
.
Não dê suporte à adição de arquivo.
Para obter mais detalhes, consulte UNSUPPORTED_ADD_FILE
Não há suporte para o tipo de seta <typeName>
.
A função <funcName>
não dá suporte para consultas em lote.
Não é possível chamar o método “<methodName>
” da classe "<className>
".
Para obter mais detalhes, consulte UNSUPPORTED_CALL
O tipo char/varchar não pode ser usado no esquema de tabela.
Se você quiser que o Spark os trate como tipo de cadeia de caracteres da mesma forma que o Spark 3.0 e anteriores, defina "spark.sql.legacy.charVarcharAsString" como "true".
O <clause>
não têm suporte para <operation>
.
Não há suporte para ordenação <collationName>
para:
Para obter mais detalhes, consulte UNSUPPORTED_COLLATION
O ancestral comum do caminho de origem e sourceArchiveDir deve ser registrado com UC.
Se você vir essa mensagem de erro, é provável que você registre o caminho de origem e sourceArchiveDir em diferentes locais externos.
Coloque-os em um único local externo.
Cláusulas de restrição <clauses>
sem suporte.
Tipo de restrição sem suporte. Apenas <supportedConstraintTypes>
tem suporte
Tipo de fonte de dados sem suporte para consultas diretas de arquivos: <dataSourceType>
Tipos de dados <typeName>
sem suporte.
A fonte de dados "<source>
" não pode ser gravada no modo <createMode>
. Em vez disso, use o modo “Acrescentar” ou “Substituir”.
A fonte de dados <format>
não é comatível com a coluna <columnName>
do tipo <columnType>
.
Não é possível criar um codificador para <dataType>
. Use um tipo de dados de saída diferente para sua UDF ou DataFrame.
Não há suporte para os valores de coluna DEFAULT.
Para obter mais detalhes, consulte UNSUPPORTED_DEFAULT_VALUE
Não há suporte para o desserializador:
Para obter mais detalhes, confira UNSUPPORTED_DESERIALIZER
A coluna gerada <fieldName>
com expressão de geração <expressionStr>
não pode ser criada devido a <reason>
.
Um operador de consulta contém uma ou mais expressões sem suporte.
Considere regenerar para evitar funções de janela, funções de agregação e funções geradoras na cláusula WHERE.
Expressões inválidas: [<invalidExprSqls>
]
Um parâmetro de consulta contém uma expressão sem suporte.
Os parâmetros podem ser variáveis ou literais.
Expressão inválida: [<invalidExprSql>
]
A expressão <sqlExpr>
não tem suporte em uma função de janela.
Não há suporte para este recurso:
Para obter mais detalhes, confira UNSUPPORTED_FEATURE
Tipo de função definida pelo usuário sem suporte: <language>
O gerador não tem suporte:
Para mais detalhes, consulte UNSUPPORTED_GENERATOR
grouping()/grouping_id() só pode ser usado com GroupingSets/Cube/Rollup.
<trigger>
com a posição inicial 8<initialPosition>
não é compatível com a fonte Kinesis
Não é possível inserir no destino.
Para obter mais detalhes, consulte UNSUPPORTED_INSERT
Tipo de junção sem suporte '<typ>
'. Os tipos de junção suportados incluem: <supported>
.
Não há suporte para a criação de uma tabela <tableName>
gerenciada usando o fonte de dados <dataSource>
. Você precisa usar a fonte de dados DELTA ou criar uma tabela externa usando CREATE EXTERNAL TABLE <tableName>
… USING <dataSource>
…
A operação MERGE contém uma condição <condName>
sem suporte.
Para obter mais detalhes, consulte UNSUPPORTED_MERGE_CONDITION
A tabela <tableName>
tem uma política de segurança em nível de linha ou máscara de coluna que se refere indiretamente a outra tabela com uma política de segurança em nível de linha ou máscara de coluna. Não há suporte para isso. Sequência de chamada: <callSequence>
Não é possível substituir o destino que também está sendo lido.
Para obter mais detalhes, confira UNSUPPORTED_OVERWRITE
O modo de salvamento <saveMode>
não é compatível com:
Para obter mais detalhes, confira UNSUPPORTED_SAVE_MODE
<outputMode>
modo de saída não suportado para <statefulOperator>
DataFrames/DataSets de streaming sem marca d'água.
Sem suporte para transmitir uma exibição. Motivo:
Para obter mais detalhes, consulte UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
As opções de transmissão <options>
não são compatíveis com uma fonte de dados <source>
em um cluster compartilhado. Confirme se as opções estão especificadas e escritas corretamente e verifiquehttps://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode se há limitações.
Não há suporte para a fonte de dados <sink>
como um coletor de transmissão em um cluster compartilhado.
Não há suporte para a fonte de dados <source>
como uma fonte de transmissão em um cluster compartilhado.
A função <funcName>
não dá suporte ao transmissão. Remova a palavra-chave STREAM
<streamReadLimit>
não tem suporte com a fonte Kinesis
Expressão de subconsulta sem suporte:
Para mais detalhes, consulte UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
Não há suporte para a criação de chave primária com colunas de séries temporais
Não há suporte para a criação de chave primária com mais de uma coluna <colSeq>
de série temporal
<trigger>
não tem suporte com a fonte Kinesis
Literais do tipo <unsupportedType>
não têm suporte. Os tipos compatíveis são <supportedTypes>
.
Você está usando uma UDF do Scala não tipado, que não tem as informações de tipo de entrada.
O Spark pode passar um valor nulo cegamente para o fechamento do Scala com o argumento de tipo primitivo, e o fechamento verá o valor padrão do tipo Java para o argumento nulo, por exemplo, em udf((x: Int) => x, IntegerType)
, o resultado é 0 para uma entrada nula. Para se livrar desse erro, você pode:
udf((x: Int) => x)
.udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)
, se os tipos de entrada forem todos não primitivos.A tabela não está qualificada para atualização do Metastore do Hive para o Catálogo do Unity. Motivo:
Para obter mais informações, consulte UPGRADE_NOT_SUPPORTED
A função definida pelo usuário é inválida:
Para obter mais detalhes, confira USER_DEFINED_FUNCTIONS
<errorMessage>
A função raise_error()
foi usada para gerar a classe de erro: <errorClass>
que espera parâmetros: <expectedParms>
.
Os parâmetros fornecidos <providedParms>
não correspondem aos parâmetros esperados.
Certifique-se de fornecer todos os parâmetros esperados.
A função raise_error()
foi usada para gerar uma classe de erro desconhecida: <errorClass>
Não é possível criar a função <variableName>
porque ela já existe.
Escolha um nome diferente ou solte ou substitua a variável existente.
A variável <variableName>
não pode ser encontrada. Verifique a ortografia e a correção do esquema e do catálogo.
Se você não qualificou o nome com um esquema e um catálogo, verifique a saída current_schema() ou qualifique o nome com o esquema e o catálogo corretos.
Para tolerar o erro na remoção, use DROP VIEW IF EXISTS.
Não é possível construir uma Variant maior que 16 MiB. O tamanho máximo permitido de um valor Variant é de 16 MiB.
Falha ao criar variante devido a uma chave de objeto duplicada <key>
.
Não é possível criar variante maior que <sizeLimit>
em <functionName>
.
Evite cadeias de caracteres de entrada grandes para essa expressão (por exemplo, adicione chamadas de função para verificar o tamanho da expressão e convertê-la em NULL primeiro se ela for muito grande).
Não é possível criar a exibição <relationName>
porque ela já existe.
Escolha um nome diferente, remova ou substitua o objeto existente ou adicione a cláusula IF NOT EXISTS para tolerar objetos pré-existentes.
A profundidade da exibição <viewName>
excede a profundidade máxima de resolução da exibição (<maxNestedDepth>
).
A análise é anulada para evitar erros. Se você quiser contornar esse problema, tente aumentar o valor de "spark.sql.view.maxNestedViewDepth".
Não foi possível encontrar a exibição <relationName>
. Verifique a ortografia e a correção do esquema e do catálogo.
Se você não qualificou o nome com um esquema, verifique a saída current_schema() ou qualifique o nome com o esquema e o catálogo corretos.
Para tolerar o erro na remoção, use DROP VIEW IF EXISTS.
Não é possível criar o volume <relationName>
porque ele já existe.
Escolha um nome diferente, remova ou substitua o objeto existente ou adicione a cláusula IF NOT EXISTS para tolerar objetos pré-existentes.
A <funcName>
função só pode ser avaliada em um quadro de janela baseado em linha ordenado com um único deslocamento: <windowExpr>
.
A função Window <funcName>
requer uma cláusula OVER.
Não há suporte para a sintaxe WITH CREDENTIAL para <type>
.
writeStream
pode ser chamado somente no conjunto de dados/DataFrame de streaming.
Falha ao executar o comando porque não há suporte para valores DEFAULT ao adicionar novas
colunas para tabelas Delta existentes anteriormente; adicione a coluna sem um valor padrão
primeiro, depois execute um segundo comando ALTER TABLE ALTER COLUMN SET DEFAULT para, em vez disso, aplicar
a linhas inseridas futuras.
Falha ao executar o comando <commandType>
porque ele atribuiu um valor DEFAULT de coluna,
mas o recurso de tabela correspondente não estava habilitado. Tente executar o comando novamente
depois de executar ALTER TABLE tableName SET
TBLPROPERTIES(‘delta.feature.allowColumnDefaults’ = ‘supported’).
A operação <operation>
requer <requiredType>
. Mas <objectName>
é <foundType>
. Use <alternative>
em vez disso.
<functionName>
requer <expectedNum>
parâmetros, mas o número real é <actualNum>
.
Para obter mais detalhes, confira WRONG_NUM_ARGS
A opção <rowTag>
é necessária para ler arquivos no formato XML.
O XML não dá suporte a <innerDataType>
como tipo interno de <dataType>
. Encapsule o <innerDataType>
dentro de um campo StructType ao usá-lo dentro de <dataType>
.
Dados resgatados e coluna curinga não podem ser habilitados simultaneamente. Remova a opção wildcardColumnName.
A coluna ZOrderBy <columnName>
não existe.
Não foi possível localizar uma SparkSession ativa
Não é possível definir um novo txn como ativo quando um já está ativo
Falhou ao adicionar a coluna <colName>
porque o nome está reservado.
A operação atual tentou adicionar um vetor de exclusão a uma tabela que não permite a criação de novos vetores de exclusão. Envie um relatório de bug.
Todas as operações que adicionam vetores de exclusão devem definir a coluna tightBounds nas estatísticas como false. Envie um relatório de bug.
O índice <columnIndex>
para adicionar a coluna <columnName>
é inferior a 0
Não é possível adicionar <columnName>
porque o elemento pai não é um StructType. Encontrado <other>
Struct não encontrado na posição <position>
Use ALTER TABLE ADD CONSTRAINT para adicionar restrições CHECK.
Encontrado <sqlExpr>
. Uma coluna gerada não pode usar uma expressão de agregação
Não há suporte para funções de agregação no <operation>
<predicate>
.
Falha ao alterar a ordenação da coluna <column>
porque ela tem um índice de filtro de bloom. Retenha a ordenação existente ou descarte o índice do filtro de bloom e tente novamente o comando novamente para alterar a ordenação.
Falha ao alterar o agrupamento da coluna <column>
porque é uma coluna de clustering. Retenha a ordenação existente ou altere a coluna para uma coluna sem clustering com um comando ALTER TABLE e, em seguida, repita o comando para alterar a ordenação.
ALTER TABLE CHANGE COLUMN não pode ser usado para alteração da coluna <currentType>
para <newType>
ALTER TABLE CLUSTER BY não é permitido para a tabela Delta com o clustering do Liquid.
ALTER TABLE CLUSTER BY não pode ser aplicado a uma tabela particionada.
Operação não permitida: ALTER TABLE RENAME TO não é permitido para tabelas Delta gerenciadas no S3, pois a consistência eventual no S3 pode corromper o log de transações Delta. Se você insistir em fazer isso e tiver certeza de que nunca houve uma tabela Delta com o novo nome <newName>
antes, poderá habilitar isso definindo <key>
como true.
Não é possível habilitar o recurso de tabela <tableFeature>
usando ALTER TABLE SET TBLPROPERTIES. Use CREATE OR REPLACE TABLE CLUSTER BY para criar uma tabela Delta com clustering.
Não é possível alterar o tipo de dados de <column>
de <from>
para<to>
. Essa alteração contém remoções de coluna e adições, portanto, elas são ambíguas. Faça essas alterações individualmente usando ALTER TABLE [ADD | DROP | RENAME] COLUMN.
A coluna <column>
de partição ambígua pode ser <colMatches>
.
CREATE TABLE contém dois locais diferentes: <identifier>
e <location>
.
Você pode remover a cláusula LOCATION da instrução CREATE TABLE ou definir
<config>
para true para ignorar essa verificação.
A tabela <table>
não contém registros suficientes em arquivos não arquivados para atender ao LIMIT especificado de <limit>
registros.
Foram encontrados <numArchivedFiles>
arquivos potencialmente arquivados na tabela <table>
que precisam ser verificados como parte dessa consulta.
Os arquivos arquivados não podem ser acessados. O tempo atual até o arquivamento é configurado como <archivalTime>
.
Ajuste seus filtros de consulta para excluir todos os arquivos guardados.
A operação “<opName>
” não é permitida quando a tabela habilitou o CDF (feed de dados de alterações) e passou por alterações de esquema usando DROP COLUMN ou RENAME COLUMN.
Não é possível descartar índices do filtro de bloom para as seguintes colunas inexistentes: <unknownColumns>
OutOfMemoryError ocorreu durante a gravação de índices de filtro bloom para as seguintes colunas: <columnsWithBloomFilterIndices>
.
Você pode reduzir o volume de memória dos índices de filtro de bloom escolhendo um valor menor para a opção 'numItems', um valor maior para a opção 'fpp' ou indexando menos colunas.
Não é possível alterar o tipo de dados: <dataType>
Não é possível alterar o 'local' da tabela Delta usando SET TBLPROPERTIES. Em vez disso, use ALTER TABLE SET LOCATION.
'provider' é uma propriedade de tabela reservada e não pode ser alterada.
Não é possível criar índices do filtro de bloom para as seguintes colunas inexistentes: <unknownCols>
Não é possível criar <path>
Não é possível descrever o histórico de uma exibição.
Não é possível remover o índice de filtro bloom em uma coluna não indexada: <columnName>
Não foi possível remover o recurso restrições CHECK de tabela.
As seguintes restrições devem ser descartadas primeiro: <constraints>
.
Não é possível avaliar a expressão: <expression>
Esperando uma tabela Delta bucketing, mas não é possível encontrar a especificação de bucket na tabela
Não é possível gerar código para a expressão: <expression>
Esta tabela está configurada para permitir somente acréscimos. Se você quiser permitir atualizações ou exclusões, use ‘ALTER TABLE <table_name> SET TBLPROPERTIES (<config>
=false)’.
<Command>
não é possível substituir ou desconfigurar as propriedades da tabela de carimbo de data/hora na confirmação porque as confirmações coordenadas estão habilitadas nesta tabela e dependem delas. Remova-os ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") da cláusula TBLPROPERTIES e tente novamente o comando.
A configuração <prop>
da tabela Delta não pode ser especificada pelo usuário
<Command>
não é possível substituir configurações de confirmações coordenadas para uma tabela de destino existente. Remova-os ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview", "delta.coordinatedCommits.tableConf-preview") da cláusula TBLPROPERTIES e tente novamente o comando.
Um uri (<uri>
) que não pode ser transformado em um caminho relativo foi encontrado no log de transações.
Um caminho (<path>
) que não pode ser relativizado com a entrada atual encontrada no
log de transações. Execute isto novamente como:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“<userPath>
”, true)
e, em seguida, também execute:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“<path>
”)
Não é possível renomear <currentPath>
para <newPath>
A tabela <tableName>
não pode ser substituída, pois ela não existe. Use CREATE OR REPLACE TABLE para criar a tabela.
Não é possível resolver a coluna <columnName>
em <schema>
Não é possível restaurar a tabela para a versão <version>
. Versões disponíveis: [<startVersion>
, <endVersion>
].
Não é possível restaurar a tabela para o carimbo de data/hora (<requestedTimestamp>
) como é antes da versão mais antiga disponível. Use um carimbo de data/hora após (<earliestTimestamp>
).
Não é possível restaurar a tabela para o carimbo de data/hora (<requestedTimestamp>
), pois ele é posterior à versão mais recente disponível. Use um carimbo de data/hora anterior a (<latestTimestamp>
)
<Command>
não é possível definir propriedades de tabela de carimbo de data/hora na confirmação junto com confirmações coordenadas, porque a última depende da primeira e define a primeira internamente. Remova-os ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") da cláusula TBLPROPERTIES e tente novamente o comando.
Não é possível alterar o local de uma tabela baseada em caminho.
Não é possível definir delta.managedDataSkippingStatsColumns em tabelas não DLT
ALTER não pode desconfigurar configurações de confirmações coordenadas. Para fazer downgrade de uma tabela de commits coordenados, tente novamente usando ALTER TABLE [table-name] DROP FEATURE 'coordinatedCommits-preview'
.
Não é possível atualizar o tipo %2$s do campo %1$s: atualize o elemento atualizando %2$s.element
Não é possível atualizar o tipo %2$s do campo %1$s: atualize um mapa atualizando %2$s.key ou %2$s.value
Não é possível atualizar o campo <tableName>
de tipo <typeName>
Não é possível atualizar o campo <tableName>
tipo <fieldName>
: atualize o struct adicionando, excluindo ou atualizando os respectivos campos
Não é possível usar todas as colunas para colunas de partição
<table>
é uma exibição. Não há suporte para gravações em uma exibição.
Ocorreu um erro ao inserir um valor de <sourceType>
tipo na <targetType>
coluna de tipo <columnName>
devido a um estouro.
Use try_cast
no valor de entrada para tolerar o estouro e retornar NULL.
Se necessário, defina <storeAssignmentPolicyFlag>
como "LEGACY" para ignorar esse erro ou defina <updateAndMergeCastingFollowsAnsiEnabledFlag>
como true para reverter ao comportamento antigo e siga <ansiEnabledFlag>
em UPDATE e MERGE.
A configuração delta.enableChangeDataFeed não pode ser definida. A alteração do feed de dados do Delta ainda não está disponível.
A recuperação de alterações de tabela entre as versões <start>
e <end>
falhou devido a um esquema de dados incompatível.
Seu esquema de leitura é <readSchema>
na versão <readVersion>
, mas encontramos um esquema de dados incompatível na versão <incompatibleVersion>
.
Se possível, recupere as alterações de tabela usando o esquema da versão final definindo <config>
para endVersion
, ou entre em contato com o suporte.
A recuperação de alterações de tabela entre as versões <start>
e <end>
falhou devido a uma alteração de esquema incompatível.
Seu esquema de leitura é <readSchema>
na versão <readVersion>
, mas encontramos uma alteração de esquema incompatível na versão <incompatibleVersion>
.
Se possível, consulte as alterações da tabela separadamente da versão <start>
para <incompatibleVersion>
- 1, e da versão <incompatibleVersion>
para <end>
.
Não é possível encontrar um arquivo <filePath>
referenciado no log de transações. Isso ocorre quando os dados são excluídos manualmente do sistema de arquivos em vez de usar a instrução da tabela DELETE
. Essa solicitação parece estar direcionando o Feed de Dados de Alterações, se esse for o caso, esse erro poderá ocorrer quando o arquivo de dados de alteração estiver fora do período de retenção e tiver sido excluído pela instrução VACUUM
. Para obter mais informações, consulte <faqPath>
.
Não é possível gravar na tabela com delta.enableChangeDataFeed definido. A alteração do feed de dados do Delta não está disponível.
Não é possível fazer o ponto de verificação de uma tabela <path>
não existente. Você excluiu manualmente arquivos no diretório _delta_log?
Dois caminhos foram fornecidos como o destino CLONE, de modo que a escolha de qual usar é ambígua. Um local
externo para CLONE foi fornecido em <externalLocation>
ao mesmo tempo que o caminho
<targetIdentifier>
.
O arquivo (<fileName>
) não foi copiado integralmente. Tamanho esperado do arquivo: <expectedSize>
, encontrado: <actualSize>
. Para continuar com a operação ignorando a verificação de tamanho do arquivo, defina <config>
como false.
Origem de clone <mode>
sem suporte ‘<name>
’, cujo formato é <format>
.
Os formatos com suporte são ‘delta’, ‘iceberg’ e ‘parquet’.
O CLONE não possui suporte da tabela Delta com o clustering do Liquid para BR versão < 14.0.
Não há suporte para CLUSTER BY porque as seguintes colunas: <columnsWithDataTypes>
não dão suporte à ignorância de dados.
As colunas de clustering fornecidas não correspondem às tabelas existentes.
<providedClusteringColumns>
<existingClusteringColumns>
O clustering líquido requer que as colunas de clustering tenham estatísticas. Não foi possível’encontrar colunas de clustering '<columns>
' no esquema de estatísticas:
<schema>
A criação de uma tabela externa sem clustering líquido de um diretório de tabela com clustering líquido não é permitida; caminho: <path>
.
‘<operation>
’ não dá suporte ao clustering.
Não é possível concluir o <phaseOutType>
da tabela com o recurso de tabela <tableFeatureToAdd>
(motivo: <reason>
). Tente o comando OPTIMIZE novamente.
== Error ==
<error>
Uma tabela Delta do REPLACE com o clustering do Liquid por uma tabela particionada não é permitido.
NÃO há suporte para SHOW CREATE TABLE na tabela Delta com o clustering do Liquid sem colunas de clustering.
A transição de uma tabela Delta com clustering líquido para uma tabela particionada não é permitida para operação: <operation>
, quando a tabela existente tem colunas de clustering não vazias.
Execute ALTER TABLE CLUSTER BY NONE para remover as colunas de clustering primeiro.
O modo de substituição de partição dinâmica não é permitido para a tabela Delta com clustering do Liquid.
O comando OPTIMIZE da tabela Delta com o clustering do Liquid não dá suporte aos predicados de partição. Remova os predicados: <predicates>
.
O comando OPTIMIZE da tabela Delta com o clustering do Liquid não pode especificar o ZORDER BY. Remova oo ZORDER BY (<zOrderBy>
).
CLUSTER BY para clustering Liquid dá suporte a <numColumnsLimit>
clustering de colunas , mas a tabela tem <actualNumColumns>
clustering de colunas. Remova as colunas extras de agrupamento.
Não é permitido especificar CLUSTER BY quando o esquema não está definido. Defina o esquema para a tabela <tableName>
.
Clustering e bucketing não podem ser especificados. Remova CLUSTERED BY INTO BUCKETS / bucketBy se você quiser criar uma tabela Delta com clustering.
Clustering e particionamento não podem ser especificados. Remova PARTITIONED BY / partitionBy / partitionedBy se você quiser criar uma tabela Delta com clustering.
Não há suporte para ordenações no Delta Lake.
Não há suporte para ignorar dados na coluna de partição “<column>
”.
Não há suporte para ignorar dados para a coluna “<column>
” do tipo <type>
.
A propriedade ID de coluna máxima (<prop>
) não está definida em uma tabela habilitada para mapeamento de coluna.
A propriedade ID de coluna máxima (<prop>
) em uma tabela habilitada para mapeamento de coluna é <tableMax>
, que não pode ser menor que a ID máxima da coluna para todos os campos (<fieldMax>
).
O tipo de dados da coluna <colName>
não foi fornecido.
Não é possível localizar a coluna <columnName>
fornecida [<columnList>
]
Não é possível localizar a coluna ‘<targetCol>
’ da tabela de destino das colunas INSERT: <colNames>
. A cláusula INSERT deve especificar o valor para todas as colunas da tabela de destino.
Não foi possível localizar a coluna <columnName>
em:
<tableSchema>
Espera-se que <columnPath>
seja um tipo de dados aninhado, mas foi encontrado <other>
. Estava procurando pelo
índice de <column>
em um campo aninhado.
Esquema:
<schema>
A coluna do struct <source>
não pode ser inserida em um campo <targetType>
de <targetField>
em <targetTable>
.
Falha na validação da compactação do caminho <compactedPath>
para <newPath>
: envie um relatório de bug.
Um NullType aninhado foi encontrado na coluna <columName>
que é de <dataType>
. O Delta não dá suporte à gravação de NullType em tipos complexos.
ConcurrentAppendException: os arquivos foram adicionados por <partition>
uma atualização simultânea. <retryMsg>
<conflictingCommit>
Consulte <docLink>
para obter mais detalhes.
ConcurrentDeleteDeleteException: essa transação tentou excluir um ou mais arquivos que foram excluídos (por exemplo <file>
) por uma atualização simultânea. Tente a operação novamente.<conflictingCommit>
Consulte <docLink>
para obter mais detalhes.
ConcurrentDeleteReadException: essa transação tentou ler um ou mais arquivos que foram excluídos (por exemplo <file>
) por uma atualização simultânea. Tente a operação novamente.<conflictingCommit>
Consulte <docLink>
para obter mais detalhes.
ConcurrentTransactionException: esse erro ocorre quando várias consultas de streaming estão usando o mesmo ponto de verificação para gravar nesta tabela. Você executou várias instâncias da mesma consulta de streaming ao mesmo tempo?<conflictingCommit>
Consulte <docLink>
para obter mais detalhes.
ConcurrentWriteException: uma transação simultânea gravou novos dados desde que a transação atual leu a tabela. Tente a operação novamente.<conflictingCommit>
Consulte <docLink>
para obter mais detalhes.
Há um conflito devido a essas colunas SET: <columnList>
.
Durante <command>
o , a configuração "<configuration>
" não pode ser definida a partir do comando. Remova-o da cláusula TBLPROPERTIES e tente novamente o comando.
Durante <command>
o , a configuração "<configuration>
" não pode ser definida nas configurações do SparkSession. Por favor, desconfigure-o executando spark.conf.unset("<configuration>")
e tente novamente o comando.
A restrição ‘<constraintName>
’ já existe. Exclua a restrição antiga primeiro.
Restrição antiga:
<oldConstraint>
A coluna <columnName>
tem tipo de dados <columnType>
e não pode ser alterada para o tipo de dados <dataType>
porque essa coluna é referenciada pelas seguintes restrições de verificação:
<constraints>
Não é possível alterar a coluna <columnName>
porque essa coluna é referenciada pelas seguintes restrições de verificação:
<constraints>
Não é possível remover a restrição inexistente <constraintName>
da tabela <tableName>
. Para evitar a geração de um erro, forneça o parâmetro IF EXISTS ou defina a configuração da sessão SQL de <config>
para <confValue>
.
Não foi encontrada nenhuma informação de partição no catálogo da tabela <tableName>
. Você executou "MSCK REPAIR TABLE" em sua tabela para descobrir partições?
Não é possível converter a tabela Parquet com coluna <colName>
de partição agrupada em Delta.
A configuração ‘<config>
’ não pode ser definida para <mode>
ao usar CONVERT TO DELTA.
CONVERT TO DELTA só dá suporte a tabelas parquet, mas você está tentando converter uma fonte <sourceName>
: <tableId>
Não é possível habilitar o rastreamento de linhas sem coletar estatísticas.
Se você quiser habilitar o acompanhamento de linhas, faça o seguinte:
Habilite a coleta de estatísticas executando o comando
SET <statisticsCollectionPropertyKey>
= true
Se não quiser coletar estatísticas, desabilite o acompanhamento de linhas:
Desative a habilitação do recurso de tabela por padrão executando o comando:
RESET <rowTrackingTableFeatureDefaultKey>
Desative a propriedade da tabela por padrão ao executar:
SET <rowTrackingDefaultPropertyKey>
= false
O destino COPY INTO deve ser uma tabela Delta.
Você está tentando criar uma tabela externa <tableName>
com base em <path>
usando Delta, mas o esquema não é especificado quando o
caminho de entrada está vazio.
Para saber mais sobre o Delta, consulte <docLink>
Você está tentando criar uma tabela externa <tableName>
com base em %2$s
usando o Delta, mas não há nenhum log de transações presente em
%2$s/_delta_log
. Verifique o trabalho upstream para verificar se ele está gravando usando
o formato ("delta") e que o caminho é a raiz da tabela.
Para saber mais sobre o Delta, consulte <docLink>
Não há suporte para a criação de uma tabela Delta baseada em caminho com um local diferente. Identificador: <identifier>
, Local: <location>
O nome ou o local da tabela deve ser especificado.
O esquema especificado não corresponde ao esquema existente em <path>
.
== Especificado ==
<specifiedSchema>
== Existente ==
<existingSchema>
== Diferenças ==
<schemaDifferences>
Se sua intenção é manter o esquema existente, você pode omitir o
esquema do comando create table. Caso contrário, verifique se
o esquema corresponde.
Não é possível habilitar o recurso de tabela <tableFeature>
usando TBLPROPERTIES. Use CREATE OR REPLACE TABLE CLUSTER BY para criar uma tabela Delta com clustering.
As colunas de clustering especificadas não correspondem às colunas de clustering existentes em <path>
.
== Especificado ==
<specifiedColumns>
== Existente ==
<existingColumns>
O particionamento especificado não corresponde ao particionamento existente em <path>
.
== Especificado ==
<specifiedColumns>
== Existente ==
<existingColumns>
As propriedades especificadas não correspondem às propriedades existentes em <path>
.
== Especificado ==
<specifiedProperties>
== Existente ==
<existingProperties>
Não é possível criar a tabela (‘<tableId>
’). O local associado (‘<tableLocation>
’) não está vazio e também não é uma tabela Delta.
Não é possível alterar os metadados da tabela porque a opção 'dataChange' está definida como false. Tentativa de operação: ‘<op>
’.
Não é possível encontrar um arquivo <filePath>
referenciado no log de transações. Esse arquivo parquet pode ser excluído na política de retenção de dados da tabela Delta.
Duração da retenção de dados Delta padrão: <logRetentionPeriod>
. Hora de modificação do arquivo parquet: <modificationTime>
. Hora de exclusão do arquivo parquet: <deletionTime>
. Excluído na versão Delta: <deletionVersion>
.
É inválido fazer commit de arquivos com vetores de exclusão que não tenham a estatística numRecords.
Foram detectadas ações DomainMetadata para domínios <domainNames>
, mas DomainMetadataTableFeature não está habilitado.
O índice <columnIndex>
para remover a coluna é inferior a 0
Não é possível remover a coluna de um esquema com uma única coluna. Esquema:
<schema>
A operação de arquivo ‘<actionType>
’ para o caminho <path>
foi especificada várias vezes.
Está em conflito com <conflictingPath>
.
Não é válido que várias operações de arquivo com o mesmo caminho existam em um único commit.
Colunas duplicadas encontradas <coltype>
: <duplicateCols>
Nomes das colunas duplicadas na cláusula INSERT
<message>
Remova as colunas duplicadas antes de atualizar sua tabela.
Foram encontrados dados duplicados ignorando colunas: <columns>
.
Erro interno: duas ações DomainMetadata na mesma transação têm o mesmo domínio <domainName>
Não foi possível desserializar o histograma de contagens de registros excluídos durante a verificação de integridade da tabela.
O modo de substituição de partição dinâmica é especificado por opções de gravação ou configuração de sessão, mas é desabilitado por spark.databricks.delta.dynamicPartitionOverwrite.enabled=false
.
Os dados usados na criação da tabela Delta não têm colunas.
Nenhum arquivo encontrado no diretório: <directory>
.
O valor "<value>
" excede a limitação de comprimento do tipo char/varchar. Verificação com falha: <expr>
.
Falha ao converter o valor <value>
para <dataType>
da partição
Não foi possível localizar <newAttributeName>
entre a saída de destino existente <targetOutputColumns>
Falha ao inferir o esquema da lista de arquivos fornecida.
Falha ao mesclar o esquema do arquivo <file>
:
<schema>
Não foi possível ler o rodapé do arquivo: <currentFile>
Não é possível reconhecer o predicado ‘<predicate>
’
Espere uma verificação completa da versão mais recente da fonte Delta, mas encontrou uma verificação do histórico da versão <historicalVersion>
Falha ao mesclar os campos ‘<currentField>
’ e ‘<updateField>
’
Não é possível operar nesta tabela porque os seguintes recursos de tabela estão habilitados em metadados, mas não estão listados no protocolo: <features>
.
Seu esquema de tabela requer a habilitação manual dos seguintes recursos de tabela: <unsupportedFeatures>
.
Para fazer isso, execute o seguinte comando para cada um dos recursos listados acima:
ALTER TABLE table_name SET TBLPROPERTIES ('delta.feature.feature_name' = 'supported')
Substitua “table_name” e “feature_name” por valores reais.
Recursos atualmente com suporte: <supportedFeatures>
.
Não é possível descartar o recurso porque uma transação simultânea modificou a tabela.
Repita a operação.
<concurrentCommit>
Não é possível descartar o recurso de tabela <feature>
porque alguns outros recursos (<dependentFeatures>
) nesta tabela dependem <feature>
.
Considere removê-los primeiro antes de descartar esse recurso.
Não é possível remover <feature>
dessa tabela porque no momento ela não está presente no protocolo da tabela.
Não é possível descartar <feature>
porque o log Delta contém versões históricas que usam o recurso.
Aguarde até o período de retenção do histórico (<logRetentionPeriodKey>
=<logRetentionPeriod>
)
passou desde que o recurso foi ativo pela última vez.
Como alternativa, aguarde até que o período de retenção TRUNCATE HISTORY expire (<truncateHistoryLogRetentionPeriod>
)
e execute:
ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY
O recurso específico não requer truncamento de histórico.
Não é possível remover <feature>
porque não há suporte para a remoção desse recurso.
Entre em contato com o suporte do Databricks.
Não é possível remover <feature>
porque não há suporte para essa versão do Databricks.
Considere usar o Databricks com uma versão superior.
A remoção <feature>
foi parcialmente bem-sucedida.
O recurso agora não é mais usado na versão atual da tabela. No entanto, o recurso
ainda está presente em versões históricas da tabela. O recurso de tabela não pode ser descartado
do protocolo da tabela até que essas versões históricas tenham expirado.
Para remover o recurso de tabela do protocolo, aguarde até que as versões históricas
expirem e repita esse comando. O período de retenção para versões históricas está
configurado como <logRetentionPeriodKey>
=<logRetentionPeriod>
no momento.
Como alternativa, aguarde até que o período de retenção TRUNCATE HISTORY expire (<truncateHistoryLogRetentionPeriod>
)
e execute:
ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY
Não é possível habilitar o recurso de tabela <feature>
porque ele exige uma versão de protocolo de leitor superior (atual <current>
). Considere atualizar a versão do protocolo de leitor da tabela para <required>
, ou para uma versão que dê suporte a recursos de tabela de leitor. Consulte <docLink>
para obter mais informações sobre versões de protocolo de tabela.
Não é possível habilitar o recurso de tabela <feature>
porque ele exige uma versão de protocolo de gravador superior (atual <current>
). Considere atualizar a versão do protocolo de gravador da tabela para <required>
, ou para uma versão que dê suporte a recursos de tabela de gravador. Consulte <docLink>
para obter mais informações sobre versões de protocolo de tabela.
Caminho do arquivo existente <path>
Não é possível especificar a lista de arquivos e a cadeia de caracteres do padrão.
Caminho do arquivo <path>
Não é possível encontrar um arquivo <filePath>
referenciado no log de transações. Isso ocorre quando os dados são excluídos manualmente do sistema de arquivos em vez de usar a instrução da tabela DELETE
. Para obter mais informações, consulte <faqPath>
.
Esse arquivo ou diretório não existe: <path>
O arquivo (<path>
) a ser gravado novamente não foi encontrado entre os arquivos candidatos:
<pathList>
Um MapType foi encontrado. Para acessar a chave ou o valor de um MapType, especifique um
de:
<key>
ou
<value>
seguido pelo nome da coluna (somente se essa coluna for um tipo struct).
por exemplo, mymap.key.mykey
Se a coluna for um tipo básico, mymap.key ou mymap.value será suficiente.
Esquema:
<schema>
A coluna <columnName>
tem tipo de dados <columnType>
e não pode ser alterada para o tipo de dados <dataType>
porque essa coluna é referenciada pelas seguintes colunas geradas:
<generatedColumns>
Não é possível alterar a coluna <columnName>
porque essa coluna é referenciada pelas seguintes colunas geradas:
<generatedColumns>
O tipo de expressão da coluna gerada <columnName>
é <expressionType>
, mas o tipo de coluna é <columnType>
A coluna <currentName>
é uma coluna gerada ou uma coluna usada por uma coluna gerada. O tipo de dados é <currentDataType>
e não pode ser convertido para o tipo de dados <updateDataType>
A validação do IcebergCompatV<version>
falhou.
Para obter mais detalhes, consulte DELTA_ICEBERG_COMPAT_VIOLATION
ALTER TABLE ALTER COLUMN não é suportado para colunas IDENTITY.
ALTER TABLE ALTER COLUMN SYNC IDENTITY só é suportado pela Delta.
ALTER TABLE ALTER COLUMN SYNC IDENTITY não pode ser chamado em colunas que não sejam IDENTITY.
Não há suporte para o fornecimento de valores para a coluna <colName>
GENERATED ALWAYS AS IDENTITY.
A etapa da coluna IDENTITY não pode ser 0.
As colunas IDENTITY são suportadas apenas pela Delta.
Não há suporte para a coluna <colName>
PARTITIONED BY IDENTITY.
ALTER TABLE REPLACE COLUMNS não é suportado para tabela com colunas IDENTITY.
Não há suporte para DataType <dataType>
para colunas IDENTITY.
UPDATE na coluna <colName>
IDENTITY não é suportada.
A coluna IDENTITY não pode ser especificada com uma expressão de coluna gerada.
Valor inválido ‘<input>
’ para a opção ‘<name>
’, <explain>
O uso de <option>
não é permitido quando <operation>
se trata de uma tabela Delta.
BucketSpec na tabela Delta com bucket não corresponde a BucketSpec de metadata.Esperado: <expected>
. Atual: <actual>
.
(<setKeys>
) não pode ser definido como valores diferentes. Defina apenas um deles ou ambos como o mesmo valor.
Um ArrayType está sendo acessado incorretamente. Use a posição arrayname.element.elementname para
adicionar a uma matriz.
Um ArrayType foi encontrado. Para acessar elementos de um ArrayType, especifique
<rightName>
em vez de<wrongName>
.
Esquema:
<schema>
Usar getConf()
em vez de 'conf.getConf()
O erro normalmente ocorre quando a implementação padrão do LogStore, que
é HDFSLogStore, é usado para gravar em uma tabela Delta em um sistema de armazenamento não HDFS.
Para obter as garantias ACID transacionais em atualizações de tabela, você precisa usar a
implementação correta do LogStore que é apropriada para o seu sistema de armazenamento.
Para obter detalhes, consulte <docLink>
.
O índice <position>
para remover a coluna é igual ou maior que o comprimento do struct: <length>
O índice <index>
para adicionar a coluna <columnName>
é maior que o comprimento do struct: <length>
Não é possível gravar para ‘<tableName>
’, <columnName>
; a tabela de destino tem <numColumns>
colunas, mas os dados inseridos têm <insertColumns>
colunas
A coluna <columnName>
não é especificada em INSERT
Tipo de compactação automática inválido: <value>
. Os valores permitidos são: <allowed>
.
Contagem de buckets inválida: <invalidBucketCount>
. A contagem de buckets deve ser um número positivo que é uma potência de 2 e é no mínimo 8. Você pode usar <validBucketCount>
em vez dela.
Não é possível localizar a coluna bucket nas colunas de partição
O intervalo não pode ser nulo nem em branco.
O intervalo do CDC do início <start>
ao fim <end>
era inválido. O fim não pode estar antes do início.
O nome do atributo “<columnName>
” contém caracteres inválidos entre “ ,;{}()\n\t=”. Use o alias para renomeá-lo.
Encontrados caracteres inválidos entre ' ,;{}()nt=' nos nomes de coluna do esquema.
Nomes de coluna inválidos: <invalidColumnNames>
.
Use outros caracteres e tente novamente.
Como alternativa, habilite o Mapeamento de Colunas para continuar usando esses caracteres.
O local de destino para CLONE precisa ser um caminho absoluto ou um nome de tabela. Usar um
caminho absoluto em vez de <path>
.
Encontrados caracteres inválidos entre ' ,;{}()nt=' nos nomes de coluna do esquema.
Nomes de coluna inválidos: <invalidColumnNames>
.
O mapeamento de coluna não pode ser removido quando há caracteres inválidos nos nomes das colunas.
Renomeie as colunas para remover os caracteres inválidos e execute este comando novamente.
Formato incompatível detectado.
Um log de transações para Delta foi encontrado em <deltaRootPath>
/_delta_log``,
mas você está tentando <operation>
<path>
usando o formato(“<format>
”). É necessário usar
‘format(“delta”)’ ao ler e gravar em uma tabela delta.
Para saber mais sobre o Delta, consulte <docLink>
Uma coluna gerada não pode usar uma coluna inexistente ou outra coluna gerada
Opções inválidas para gravações de quadro de dados idempotentes: <reason>
<interval>
não é um INTERVAL válido.
O esquema do INVENTORY especificado não contém todos os campos necessários. Os campos necessários são: <expectedSchema>
Nível de isolamento inválido ‘<isolationLevel>
’
(<classConfig>
) e (<schemeConfig>
) não podem ser definidos ao mesmo tempo. Defina apenas um grupo deles.
Você está tentando criar uma tabela gerenciada <tableName>
usando Delta, mas o esquema não está especificado.
Para saber mais sobre o Delta, consulte <docLink>
<columnName>
não é uma coluna de partição válida na tabela <tableName>
.
Colunas de partição encontradas com caracteres inválidos entre " ,;{}()nt=". Altere o nome para suas colunas de partição. Essa verificação pode ser desativada definindo spark.conf.set(“spark.databricks.delta.partitionColumnValidity.enabled”, false), no entanto, isso não é recomendado, pois outros recursos do Delta podem não funcionar corretamente.
Não há suporte para uso da coluna <name>
do tipo <dataType>
como uma coluna de partição.
Um fragmento de caminho de partição deve ser de um formato semelhante a part1=foo/part2=bar
. O caminho da partição: <path>
A versão do protocolo não pode ser rebaixada de <oldProtocol>
para <newProtocol>
Versão do protocolo Delta sem suporte: a tabela “<tableNameOrPath>
” requer a versão <readerRequired>
do leitor e versão <writerRequired>
do gravador, mas essa versão do Databricks dá suporte a versões de leitor <supportedReaders>
e versões de gravador <supportedWriters>
. Atualize para uma versão mais recente.
A função <function>
é uma função com valor de tabela sem suporte para leituras CDC.
O carimbo de data/hora <timestamp>
fornecido não corresponde à sintaxe esperada <format>
.
Já existe um log Delta em <path>
Se ela nunca foi excluída, é provável que sua consulta apresente atrasos. Exclua o ponto de verificação dela para reiniciar do zero. Para evitar que isso aconteça novamente, é possível atualizar a política de retenção da tabela Delta
O nome da coluna materializada <rowTrackingColumn>
está faltando no <tableName>
.
Use um limite menor que Int.MaxValue: 8.
Esse commit falhou, pois foram realizadas <numAttempts>
tentativas de realizá-lo, sem êxito.
Isso pode ser causado pela tabela Delta fazendo commit continuamente por muitos commits
simultâneos.
Commit iniciado na versão: <startVersion>
Falha no commit na versão: <failVersion>
Número de ações que tentaram fazer commit: <numActions>
Tempo total gasto ao tentar fazer esse commit: <timeSpent>
ms
A lista de arquivos deve ter no máximo <maxFileListSize>
entradas, tinha <numFiles>
.
Não é possível adicionar coluna <newColumn>
com o tipo VOID. Especifique explicitamente um tipo não nulo.
Falha ao mesclar tipos de dados <currentDataType>
e <updateDataType>
incompatíveis
Falha ao mesclar tipos decimais com <decimalRanges>
incompatíveis
Manter a fonte da instrução MERGE materializada tem falhado repetidamente.
Deve haver pelo menos uma cláusula WHEN em uma instrução MERGE.
Atributos <missingAttributes>
resolvidos ausentes de <input>
no operador <merge>
Chave de atribuição inesperada: <unexpectedKeyClass>
- <unexpectedKeyObject>
Não é possível resolver <sqlExpr>
em <clause>
com <cols>
fornecido.
MetadataChangedException: os metadados da tabela Delta foram alterados por uma atualização simultânea. Tente a operação novamente.<conflictingCommit>
Consulte <docLink>
para obter mais detalhes.
Erro ao obter dados de alteração para intervalo [<startVersion>
, <endVersion>
], pois os dados de alteração não foram
registrados para a versão [<version>
]. Se você habilitou o feed de dados de alterações nesta tabela,
use DESCRIBE HISTORY
para ver quando ele foi habilitado pela primeira vez.
Caso contrário, para começar a gravar dados de alterações, use 'ALTER TABLE table_name SET TBLPROPERTIES
(<key>
=true)`.
Não é possível localizar <columnName>
em colunas de tabela: <columnList>
Esta tabela tem o recurso <featureName>
habilitado que requer a presença da ação CommitInfo em cada confirmação. No entanto, a ação CommitInfo está ausente da versão de confirmação <version>
.
Esta tabela tem o recurso <featureName>
habilitado que requer a presença de commitTimestamp na ação CommitInfo. No entanto, esse campo não foi definido na versão de confirmação <version>
.
<tableName>
não é uma tabela Delta.
A tabela não existe. Crie uma tabela Delta vazia primeiro usando CREATE TABLE <tableName>
.
A classe do Iceberg não foi encontrada. Verifique se o suporte ao Delta Iceberg está instalado.
Consulte <docLink>
para obter mais detalhes.
A coluna <columnName>
, que tem uma restrição NOT NULL, está ausente dos dados que estão sendo gravados na tabela.
A coluna de partição <columnName>
não foi encontrada no esquema <columnList>
Não foi possível localizar todos os arquivos de parte da versão do ponto de verificação: <version>
CONVERT TO DELTA dá suporte apenas a tabelas parquet. Grave novamente seu destino como parquet.<path>
se for um diretório parquet.
Coluna SET <columnName>
não encontrou as colunas fornecidas: <columnList>
.
Formato incompatível detectado.
Você está tentando <operation>
<path>
usando o Delta, mas não há
log de transações presente. Verifique o trabalho upstream para verificar se ele está gravando
usando format("delta") e você está tentando %1$s o caminho base da tabela.
Para saber mais sobre o Delta, consulte <docLink>
O modo especificado ‘<mode>
’ não é compatível. Os modos compatíveis são: <supportedModes>
Vários argumentos <startingOrEnding>
fornecidos para leitura de CDC. Forneça ou o <startingOrEnding>
Carimbo de data/hora ou a Versão <startingOrEnding>
.
Várias configurações de índice de filtro bloom passadas ao comando para a coluna: <columnName>
Não é possível executar Mesclar, pois várias linhas de fonte corresponderam e tentaram modificar a mesma
linha de destino na tabela Delta de maneiras possivelmente conflitantes. Por semântica SQL de Mesclagem,
quando várias linhas de origem correspondem à mesma linha de destino, o resultado pode ser ambíguo
porque não está claro qual linha de origem deve ser usada para atualizar ou excluir a linha de destino
correspondente. É possível pré-processar a tabela de origem para eliminar a possibilidade de
várias correspondências. Consulte
<usageReference>
Durante <command>
o , ambas as configurações de confirmações coordenadas ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview") são definidas no comando ou nenhuma delas. Faltando: "<configuration>
". Especifique essa configuração na cláusula TBLPROPERTIES ou remova a outra configuração e, em seguida, repita o comando novamente.
Durante <command>
o , ambas as configurações de confirmações coordenadas ("coordinatedCommits.commitCoordinator-preview", "coordinatedCommits.commitCoordinatorConf-preview") são definidas nas configurações do SparkSession ou em nenhuma delas. Faltando: "<configuration>
". Defina essa configuração no SparkSession ou desdefina a outra configuração e repita o comando novamente.
Os seguintes nomes de coluna são reservados somente para uso interno da tabela delta com bucket: <names>
O esquema de entrada contém campos aninhados que são colocados em maiúsculas de forma diferente da tabela de destino.
Eles precisam ser renomeados para evitar a perda de dados nesses campos durante a gravação no Delta.
Campos:
<fields>
.
Esquema original:
<schema>
O tipo <nestType>
do campo <parent>
contém uma restrição NOT NULL. O Delta não dá suporte a restrições NOT NULL aninhadas em matrizes ou mapas. Para suprimir esse erro e ignorar silenciosamente as restrições especificadas, defina <configKey>
= true.
Tipo <nestType>
analisado:
<nestedPrettyJson>
A subconsulta aninhada não tem suporte na condição <operation>
.
<numRows>
linhas em <tableName>
violam a nova restrição CHECK (<checkConstraint>
)
<numRows>
linhas em <tableName>
violam a nova restrição NOT NULL em <colName>
A restrição CHECK ‘<name>
’ (<expr>
) deve ser uma expressão booliana.
Encontrado <expr>
. Uma coluna gerada não pode usar uma expressão não determinística.
Funções não determinísticas não têm suporte no <operation>
<expression>
Quando há mais de uma cláusula MATCHED em uma instrução MERGE, somente a última cláusula MATCHED pode omitir a condição.
Quando há mais de uma cláusula NOT MATCHED BY SOURCE em uma instrução MERGE, somente a última cláusula NOT MATCHED BY SOURCE pode omitir a condição.
Quando há mais de uma cláusula NOT MATCHED em uma instrução MERGE, somente a última cláusula NOT MATCHED pode omitir a condição
Não foi possível analisar a marca <tag>
.
As marcas de arquivo são: <tagList>
Os dados gravados na Delta precisam conter pelo menos uma coluna não particionada.<details>
O predicado faz referência à coluna '', que não é de partição ‘<columnName>
’. Somente as colunas de partição podem ser referenciadas: [<columnList>
]
As colunas não particionadas <columnList>
são especificadas onde apenas colunas de particionamento são esperadas: <fragment>
.
O catálogo delta exige um namespace de parte única, mas <identifier>
contém várias partes.
<table>
não é uma tabela Delta. Remova esta tabela primeiro se quiser criá-la com o Databricks Delta.
<tableName>
não é uma tabela Delta. Remova esta tabela primeiro se quiser recriá-la com o Delta Lake.
Coluna não anulável não encontrada no struct: <struct>
Restrição NOT NULL violada para a coluna: <columnName>
.
Um campo aninhado não anulável não pode ser adicionado a um pai anulável. Defina a nulidade da coluna pai adequadamente.
Não foi encontrado nenhum commit em <logPath>
Não foram encontradas commits recriáveis em <logPath>
A tabela <tableIdent>
não foi encontrada
Nenhum startingVersion ou startingTimestamp fornecido para leitura CDC.
O Delta não aceita NullTypes no esquema para gravações de streaming.
Para viagem no tempo, forneça 'timestampAsOf' ou então 'versionAsOf'.
<operation>
só é compatível com tabelas Delta.
Forneça o caminho ou o identificador da tabela para <operation>
.
Operação não permitida: <operation>
não é compatível com tabelas Delta
Operação não permitida: <operation>
não é compatível com tabelas Delta: <tableName>
<operation>
não há suporte para coluna <colName>
com ordenação não padrão <collation>
.
<operation>
não há suporte para expressão <exprText>
porque ela usa ordenação não padrão.
O comando <operation>
em uma exibição temporária referente a uma tabela Delta que contém colunas geradas não é compatível. Execute o comando <operation>
diretamente na tabela Delta
Operação não permitida: <operation>
não pode ser executada em um modo de exibição.
OPTIMIZE FULL só tem suporte para tabelas clusterizadas com colunas de clustering não vazias.
A opção de cópia overwriteSchema não pode ser especificada sem a definição de OVERWRITE = 'true'.
'overwriteSchemaV não pode ser usado no modo de substituição de partição dinâmica.
Falha ao converter o valor <value>
em <dataType>
para a coluna de partição <columnName>
A coluna de partição <columnName>
não foi encontrada no esquema [<schemaMap>
]
O esquema de partição não pode ser especificado ao converter tabelas de Iceberg. Ele é inferido automaticamente.
<path>
não existe ou não é uma tabela Delta.
Não é possível gravar no caminho <path>
já existente sem a definição de OVERWRITE = 'true'.
A confirmação da versão da tabela Delta <version>
foi bem-sucedida, mas houve um erro ao executar o gancho pós-confirmação <name>
<message>
ProtocolChangedException: a versão do protocolo da tabela Delta foi alterada por uma atualização simultânea. <additionalInfo>
<conflictingCommit>
Consulte <docLink>
para obter mais detalhes.
A propriedade <key>
do protocolo precisa ser um inteiro. Encontrado <value>
Não é possível atualizar apenas a versão do protocolo de leitor para usar recursos de tabela. A versão do protocolo de gravador deve ser pelo menos <writerVersion>
para prosseguir. Consulte <docLink>
para obter mais informações sobre versões de protocolo de tabela.
Você está tentando ler uma tabela Delta <tableName>
que não tem colunas.
Grave alguns dados novos na opção mergeSchema = true
para poder ler a tabela.
Verifique novamente sua sintaxe para ‘<regExpOption>
’
Você não pode usar o replaceWhere em conjunto com uma substituição por filtro
Os dados gravados não estão em conformidade com a condição de substituição parcial da tabela ou a restrição ‘<replaceWhere>
’.
<message>
A expressão 'replaceWhere' e a 'partitionOverwriteMode'='dynamic' não podem ser definidas nas opções DataFrameWriter.
'replaceWhere' não pode ser usada com filtros de dados quando 'dataChange' estiver definida como false. Filtros: <dataFilters>
Não é possível atribuir IDs de linha sem estatísticas de contagem de linhas.
Colete estatísticas para a tabela executando o seguinte código em um notebook Scala e tente novamente:
import com.databricks.sql.transaction.tahoe.DeltaLog
import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection
import org.apache.spark.sql.catalyst.TableIdentifier
val log = DeltaLog.forTable(spark, TableIdentifier(table_name))
StatisticsCollection.recompute(spark, log)
Alteração de esquema detectada:
esquema de origem de transmissão: <readSchema>
Esquema de arquivo de dados: <dataSchema>
Tente reiniciar a consulta. Se esse problema se repetir entre reinicializações de consulta sem
fazer progresso, você fez uma alteração de esquema incompatível e precisa iniciar sua
consulta do zero usando um novo diretório de ponto de verificação.
Alteração de esquema detectada na versão <version>
:
esquema de origem de transmissão: <readSchema>
Esquema de arquivo de dados: <dataSchema>
Tente reiniciar a consulta. Se esse problema se repetir entre reinicializações de consulta sem
fazer progresso, você fez uma alteração de esquema incompatível e precisa iniciar sua
consulta do zero usando um novo diretório de ponto de verificação. Se o problema persistir após
a alteração para um novo diretório de ponto de verificação, é aconselhável alterar a opção
''startingVersion'' ou ''startingTimestamp'' existente para iniciar de uma versão mais recente do que
<version>
com um novo diretório de ponto de verificação.
Alteração de esquema detectada na versão <version>
:
esquema de origem de transmissão: <readSchema>
Esquema de arquivo de dados: <dataSchema>
Tente reiniciar a consulta. Se esse problema se repetir entre reinicializações de consulta sem
fazer progresso, você fez uma alteração de esquema incompatível e precisa iniciar sua
consulta do zero usando um novo diretório de ponto de verificação.
O esquema da tabela Delta foi alterado de maneira incompatível desde que o objeto DataFrame
ou DeltaTable foi criado. Redefina seu objeto DataFrame ou DeltaTable.
Alterações:
<schemaDiff>
<legacyFlagMessage>
O esquema da tabela não foi fornecido. Forneça o esquema (definição de coluna) da tabela quando usar a tabela REPLACE e uma consulta AS SELECT não for fornecida.
O esquema da tabela não está definido. Escreva dados nele ou use CREATE TABLE para definir o esquema.
O esquema do novo local Delta é diferente do esquema de tabela atual.
esquema original:
<original>
esquema de destino:
<destination>
Se essa for uma alteração pretendida, você poderá desativar essa verificação executando:
%%sql set <config>
= true
Não é possível encontrar um arquivo <filePath>
referenciado no log de transações. Isso ocorre quando os dados são excluídos manualmente do sistema de arquivos em vez de usar a instrução da tabela DELETE
. Esta tabela parece ser um clone superficial. Se esse for o caso, esse erro pode ocorrer quando a tabela original da qual esta tabela foi clonada tiver excluído um arquivo que o clone ainda está usando. Se você quiser que os clones sejam independentes da tabela original, use um clone DEEP em vez disso.
As propriedades predefinidas que começam com <prefix>
não podem ser modificadas.
Os dados são restritos pela propriedade do destinatário <property>
que não se aplicam ao destinatário atual na sessão.
Para obter mais detalhes, confira DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
O <operation>
não pode ser usado em exibições de compartilhamento Delta que são compartilhadas entre contas.
Tipo de autenticação <authenticationType>
ilegal para provedor <provider>
.
Tipo de autenticação <authenticationType>
ilegal para destinatário <recipient>
.
Nome inválido para fazer referência a um <type>
dentro de um Share. Você pode usar <type>
o nome de 's dentro do compartilhamento seguindo o formato de [schema].[<type>
], ou também pode usar o nome completo original da tabela seguindo o formato de [catalog].[ esquema]. [>tipo>].
Se você não tiver certeza sobre qual nome usar, você pode executar "MOSTRAR TUDO EM COMPARTILHAR [compartilhar]" e encontrar o nome do <type>
para remover: coluna "nome" é o <type>
nome do dentro do compartilhamento e coluna "shared_object" é o nome completo original do <type>
.
Existem mais de dois tokens para o destinatário <recipient>
.
A propriedade <property>
do destinatário não existe.
Os tokens de destinatário estão ausentes para o destinatário <recipient>
.
Colunas não particionadas <badCols>
são especificadas para SHOW PARTITIONS
SHOW PARTITIONS não é permitido em uma tabela que não está particionada: <tableName>
Dados excluídos detectados (por exemplo <removedFile>
) da fonte de transmissão na versão <version>
. Não há suporte para esse recurso no momento. Se você quiser ignorar exclusões, defina a opção 'ignoreDeletes' como 'true'. A tabela de origem pode ser encontrada no caminho <dataPath>
.
Detectou uma atualização de dados (por exemplo <file>
) na tabela de origem na versão <version>
. Não há suporte para esse recurso no momento. Se isso acontecer regularmente e você não quiser ignorar as alterações, defina a opção ‘skipChangeCommits’ como ‘true’. Se você quiser que a atualização de dados seja refletida, reinicie essa consulta com um novo diretório de ponto de verificação ou atualize tudo se estiver usando DLT. Se você precisar lidar com essas alterações, alterne para MVs. A tabela de origem pode ser encontrada no caminho <dataPath>
.
Ou forneça ‘<version>
’ ou ‘<timestamp>
’
<statsType>
estatísticas não encontradas para a coluna nos metadados parquet: <columnPath>
.
Detectamos uma ou mais alterações de esquema não aditivas (<opType>
s) entre a versão <previousSchemaChangeVersion>
e <currentSchemaChangeVersion>
do Delta na fonte de streaming do Delta.
Verifique se deseja propagar manualmente as alterações de esquema para a tabela do coletor antes de prosseguirmos com o processamento de fluxo usando o esquema finalizado em <currentSchemaChangeVersion>
.
Depois de corrigir o esquema da tabela do coletor ou decidir que não há necessidade de corrigir, você pode definir (uma das) seguintes configurações de SQL para desbloquear essas alterações de esquema não aditivas e continuar o processamento da transmissão.
Para desbloquear essa transmissão específica apenas para esta série de alterações de esquema: defina <allowCkptVerKey>` = `<allowCkptVerValue>
.
Para desbloquear para essa transmissão específica: defina <allowCkptKey>` = `<allowCkptValue>
Para desbloquear todas as transmissões: defina <allowAllKey>` = `<allowAllValue>
.
Como alternativa, se aplicável, você pode substituir <allowAllMode>
por <opSpecificMode>
na configuração do SQL para desbloquear a transmissão apenas para esse tipo de alteração de esquema.
Houve falha ao obter o instantâneo de log do Delta para a versão inicial ao verificar as alterações de esquema de mapeamento de coluna. Escolha uma versão inicial diferente ou force a habilitação da leitura de transmissão por sua conta e risco definindo ‘<config>
’ como ‘true’.
A leitura de transmissão não tem suporte em tabelas com alterações de esquema incompatíveis com a leitura (por exemplo, renomear ou remover ou alterar tipo de dados).
Para obter mais informações e as próximas etapas possíveis para resolver esse problema, examine a documentação em <docLink>
Esquema de leitura: <readSchema>
. Esquema de dados incompatível: <incompatibleSchema>
.
A leitura de transmissão não tem suporte em tabelas com alterações de esquema incompatíveis com a leitura (por exemplo, renomear ou remover ou alterar tipo de dados).
Forneça um 'schemaTrackingLocation' para habilitar a evolução não aditiva do esquema para o processamento de fluxo Delta.
Confira <docLink>
para saber mais.
Esquema de leitura: <readSchema>
. Esquema de dados incompatível: <incompatibleSchema>
.
O esquema, a configuração de tabela ou o protocolo da tabela Delta foram alterados durante o streaming.
O log de rastreamento de esquemas ou metadados foi atualizado.
Reinicie o stream para continuar processando usando os metadados atualizados.
Esquema atualizado: <schema>
.
Configurações de tabela atualizadas: <config>
.
Protocolo de tabela atualizado: <protocol>
O streaming da tabela de origem <tableId>
com acompanhamento de esquema não dá suporte a filtros de linha ou máscaras de coluna.
Remova os filtros de linha ou as máscaras de coluna, ou desabilite o acompanhamento de esquema.
Detectado o local de esquema conflitante ‘<loc>
’ durante a transmissão da tabela ou da tabela localizada em ‘<table>
’.
Outra transmissão pode estar reutilizando o mesmo local de esquema, o que não é permitido.
Forneça um novo caminho exclusivo schemaTrackingLocation
ou streamingSourceTrackingId
como uma opção de leitor para uma das transmissões desta tabela.
O local do esquema ‘<schemaTrackingLocation>
’ deve ser colocado sob o local do ponto de verificação ‘<checkpointLocation>
’.
Arquivo de log incompleto no log de esquema da origem de transmissão Delta em ‘<location>
’.
O log do esquema pode ter sido corrompido. Escolha um novo local do esquema.
Foi detectada uma ID de tabela Delta incompatível durante a leitura da transmissão Delta.
ID da tabela persistente: <persistedId>
, ID da tabela: <tableId>
O log do esquema pode ter sido reutilizado. Escolha um novo local do esquema.
Foi detectado um esquema de partição incompatível ao tentar a leitura da transmissão Delta.
Esquema persistente: <persistedSchema>
, esquema de partição Delta: <partitionSchema>
Escolha um novo local de esquema para reinicializar o log do esquema se você tiver alterado manualmente o esquema de partição da tabela recentemente.
Não foi possível inicializar o registro do esquema de origem do streaming Delta porque
detectamos uma alteração incompatível de esquema ou protocolo ao servir um lote de streaming da versão da tabela <a>
para <b>
.
Falha ao analisar o esquema do log de esquema de origem de transmissão Delta.
O log do esquema pode ter sido corrompido. Escolha um novo local do esquema.
Não é possível habilitar a captura de dados de alterações na tabela. A tabela já contém
colunas <columnList>
reservadas que
serão usadas internamente como metadados para o feed de dados de alterações da tabela. Para habilitar
o feed de dados de alterações na tabela, renomeie/remova essas colunas.
A tabela <tableName>
já existe.
Atualmente, o DeltaTable.forPath dá suporte apenas a chaves de configuração do hadoop começando com <allowedPrefixes>
mas obteve <unsupportedOptions>
A tabela Delta em <tableLocation>
foi substituída enquanto esse comando estava usando a tabela.
A ID da tabela foi <oldId>
, mas agora está <newId>
.
Tente novamente o comando atual para garantir que ele leia uma exibição consistente da tabela.
O local da tabela existente <tableName>
é <existingTableLocation>
. Ele não corresponde ao local especificado <tableLocation>
.
A tabela Delta <tableName>
não existe.
A tabela não é compatível com <operation>
. Em vez disso, use um caminho.
<tableName>
não é uma tabela Delta. <operation>
só é compatível com tabelas Delta.
O esquema final da tabela de destino está vazio.
O carimbo de data/hora (<providedTimestamp>
) fornecido é posterior à versão mais recente disponível para esta
tabela (<tableName>
). Use um carimbo de data/hora até <maximumTimestamp>
.
O carimbo de data/hora fornecido (<expr>
) não pode ser convertido em um carimbo de data/hora válido.
<timeTravelKey>
precisa ser um valor inicial válido.
<path>
: não é possível reconstruir o estado na versão <version>
pois o log de transações foi truncado devido à exclusão manual ou à política de retenção de log (<logRetentionKey>
=<logRetention>
) e à política de retenção do ponto de verificação (<checkpointRetentionKey>
=<checkpointRetention>
)
Operação não permitida: TRUNCATE TABLE em tabelas Delta não é compatível com predicados de partição. Use DELETE para excluir partições ou linhas específicas.
Encontrado <udfExpr>
. Uma coluna gerada não pode usar uma função definida pelo usuário
Expressão de ação inesperada <expression>
.
Esperava <expectedColsSize>
colunas de partição: <expectedCols>
, mas encontrou <parsedColsSize>
colunas de partição: <parsedCols>
da análise do nome do arquivo: <path>
Uma verificação completa das fontes Delta era esperada, mas uma verificação parcial foi encontrada. caminho:<path>
Esperava <expectedCol>
coluna de partição, mas encontrou <parsedCol>
coluna de partição da análise de nome do arquivo: <path>
CONVERT TO DELTA foi chamado com um esquema de partição diferente daquele deduzido do catálogo, evite fornecer o esquema para que o esquema de partição possa ser escolhido no catálogo.
esquema de partição do catálogo:
<catalogPartitionSchema>
esquema de partição fornecido:
<userPartitionSchema>
A leitura de Iceberg com Uniforme Delta falhou.
Para obter mais detalhes, consulte DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
Não há suporte para criar ou atualizar a tabela de entrada uniforme.
Não há suporte para o formato <fileFormat>
. Há suporte apenas para o iceberg como formato de arquivo original.
O Formato Universal só tem suporte em tabelas do Catálogo do Unity.
Falha ao converter a versão <version>
da tabela no formato universal <format>
. <message>
Falha na validação do Formato Universal (<format>
): <violation>
Configuração desconhecida foi especificada: <config>
Privilégio desconhecido: <privilege>
ReadLimit desconhecido: <limit>
Alteração de coluna não reconhecida <otherClass>
. Você pode estar executando uma versão do Delta Lake desatualizada.
Invariável não reconhecida. Atualize sua versão do Spark.
Arquivo de log não reconhecido <fileName>
Tentativa de remover definição da propriedade ‘<property>
’ inexistente na tabela <tableName>
<path>
não dá suporte à adição de arquivos com um caminho absoluto
ALTER TABLE CHANGE COLUMN não pode ser usado para alteração da coluna <fieldPath>
de <oldField>
para <newField>
Operação ALTER TABLE REPLACE COLUMNS incompatível. Motivo: <details>
Falha ao alterar o esquema de:
<oldSchema>
para:
<newSchema>
Você tentou efetuar REPLACE de uma tabela (<tableName>
) existente com CLONE. Esta operação é
sem suporte. Tente um destino diferente para CLONE ou exclua a tabela no destino atual.
A alteração do modo de mapeamento de coluna de ‘<oldMode>
’ para ‘<newMode>
’ não é compatível.
A versão atual do protocolo de tabela não é compatível com a alteração dos modos de mapeamento de coluna
usando <config>
.
Versão do protocolo Delta exigida para o mapeamento de colunas:
<requiredVersion>
A versão atual do protocolo Delta da tabela:
<currentVersion>
<advice>
Uma alteração do esquema foi detectada:
esquema antigo:
<oldTableSchema>
novo esquema:
<newTableSchema>
Alterações de esquema não são permitidas durante a alteração do modo de mapeamento de colunas.
A gravação de dados não é compatível com o modo de mapeamento de colunas.
Não há suporte para a criação de um índice de filtro bloom em uma coluna com tipo <dataType>
: <columnName>
Não é possível adicionar um comentário a <fieldPath>
. Não há suporte para adicionar um comentário a um elemento de chave/valor ou matriz de mapa.
Foram encontradas colunas usando tipos de dados incompatíveis: <dataTypeList>
. Você pode definir ‘<config>
’ como ‘false’ para desabilitar a verificação de tipo. Desabilitar essa verificação de tipo pode permitir que os usuários criem tabelas Delta incompatíveis, e esse recurso só deve ser usado ao tentar ler/gravar tabelas herdadas.
<dataType>
não pode ser o resultado de uma coluna gerada
Não há suporte para clone profundo nesta versão do Delta.
<view>
é uma exibição. DESCRIBE DETAIL só tem suporte para tabelas.
A remoção de colunas de clustering (<columnList>
) não é permitida.
DROP COLUMN não é compatível com a sua tabela Delta. <advice>
Só é possível remover colunas aninhadas do StructType. Encontrado <struct>
A remoção de colunas de partição (<columnList>
) não é permitida.
Tipo de expressão(<expType>
) sem suporte para <causedBy>
. Os tipos com suporte são [<supportedTypes>
].
<expression>
não pode ser usada em uma coluna gerada
Recurso de leitura Delta sem suporte: “<tableNameOrPath>
” requer recursos de tabela de leitor incompatíveis com esta versão do Databricks: <unsupported>
. Consulte <link>
para obter mais informações sobre a compatibilidade de recursos do Delta Lake.
Recurso de gravação Delta sem suporte: “<tableNameOrPath>
” requer recursos de tabela de gravador incompatíveis com esta versão do Databricks: <unsupported>
. Consulte <link>
para obter mais informações sobre a compatibilidade de recursos do Delta Lake.
Os recursos de tabela configurados nas configurações do Spark ou propriedades da tabela Delta a seguir não são reconhecidos por esta versão do Databricks: <configs>
.
Esperava que o status do recurso de tabela <feature>
fosse “habilitado”, mas foi obtido “<status>
”.
A atualização de campos aninhados só é compatível com StructType, mas você está tentando atualizar um campo de <columnName>
, que é do tipo: <dataType>
.
Não há suporte para o comando ‘FSCK REPAIR TABLE’ em versões de tabela com arquivos vetores de exclusão ignorados.
Contate a equipe de suporte.
O comando 'GENERATE symlink_format_manifest' não tem suporte em versões de tabela com vetores de exclusão.
Para produzir uma versão da tabela sem vetores de exclusão, execute 'REORG TABLE table APPLY (PURGE)'. Em seguida, execute novamente o comando 'GENERATE'.
Verifique se nenhuma transação simultânea está adicionando vetores de exclusão novamente entre REORG e GENERATE.
Se você precisar gerar manifestos regularmente ou não puder impedir transações simultâneas, considere a desabilitação de vetores de exclusão nesta tabela usando 'ALTER TABLE table SET TBLPROPERTIES (delta.enableDeletionVectors = false)'.
Invariáveis não são compatíveis com campos aninhados que não sejam StructTypes.
Em consulta aninhada, não há suporte na condição <operation>
.
listKeywithPrefix não disponível
A geração de manifesto não é compatível com tabelas que aproveitam o mapeamento de colunas, pois os leitores externos não podem ler essas tabelas Delta. Confira a documentação do Delta para obter mais detalhes.
No momento, as operações MERGE INTO com evolução do esquema não são compatíveis com a gravação da saída CDC.
Predicados de várias colunas não têm suporte na condição <operation>
.
No momento, a criação de índices de arquivador bloom não é compatível com colunas aninhadas: <columnName>
Campos aninhados não têm suporte no <operation>
(field = <fieldName>
).
A tabela de destino de clone não está vazia. TRUNCATE ou DELETE FROM da tabela antes de executar CLONE.
A fonte de dados <dataSource>
não é compatível com o modo de saída <mode>
A criação de índices de filtro bloom não é compatível com colunas de particionamento: <columnName>
A renomeação de colunas não é compatível com a sua tabela Delta. <advice>
O Delta não dá suporte à especificação do esquema em tempo de leitura.
SORTED BY não é compatível com tabelas Delta em bucket
<operation>
o destino dá suporte apenas a origens Delta.
<plan>
No momento, não há suporte para especificar partições estáticas na especificação de partição durante inserções
Nome da estratégia incompatível: <strategy>
Sub-consultas não têm suporte na <operation>
(condição = <cond>
).
Subconsultas não têm suporte em predicados de partição.
Não é possível especificar viagens no tempo em vários formatos.
Não aceita versões de viagem no tempo, subconsultas, fluxos ou alterar consultas de feed de dados.
Tabelas de exemplo truncadas não têm suporte
Não é possível operar nesta tabela porque uma alteração de tipo sem suporte foi aplicada. O campo <fieldName>
foi alterado de <fromType>
para <toType>
.
Forneça o caminho base (<baseDeltaPath>
) ao aspirar tabelas Delta. Atualmente, não há suporte para aspirar partições específicas.
A implementação da tabela não dá suporte a gravações: <tableName>
Você está tentando executar gravações em uma tabela que foi registrada com o coordenador <coordinatorName>
de confirmação. No entanto, nenhuma implementação desse coordenador está disponível no ambiente atual e gravações sem coordenadores não são permitidas.
A gravação não é compatível com tabelas de exemplo
Não é possível converter <fromCatalog>
em <toCatalog>
. Todas as colunas aninhadas devem corresponder.
O VACUUM em arquivos de dados foi bem-sucedido, mas a coleta de lixo de estado COPY INTO falhou.
As versões (<versionList>
) não são contíguas.
Para obter mais detalhes, confira DELTA_VERSIONS_NOT_CONTIGUOUS
A restrição CHECK <constraintName>
<expression>
foi violada por uma linha com os valores:
<values>
A validação das propriedades da tabela <table>
foi violada:
Para obter mais detalhes, consulte DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
<viewIdentifier>
é uma exibição. Você não pode gravar dados em uma exibição.
A coluna de ordenação Z <columnName>
não existe no esquema de dados.
A ordenação Z em <cols>
será
ineficaz, porque atualmente não coletamos estatísticas para essas colunas. Consulte
<link>
para mais informações sobre ignorar dados e ordenação Z. É possível desabilitar
esta verificação definindo
‘%%sql set <zorderColStatKey>
= false’
<colName>
é uma coluna de partição. A ordenação Z só pode ser executada em colunas de dados
O modo de evolução do esquema <addNewColumnsMode>
não é compatível com a especificação de esquemas. Para usar esse modo, em vez disso, você pode fornecer o esquema por meio de cloudFiles.schemaHints
.
Opções de autenticação de configuração de notificação encontradas para o modo de listagem do
diretório (padrão):
<options>
Se você quiser usar o modo de notificação de arquivo, defina explicitamente:
.option(“cloudFiles.<useNotificationsKey>
”, “true”)
Como alternativa, se você quiser ignorar a validação de suas opções e ignorar estas
opções de autenticação, você poderá definir:
.option("cloudFiles.ValidateOptionsKey>", "false")
O modo de listagem incremental (cloudFiles.<useIncrementalListingKey>
)
e a notificação de arquivo (cloudFiles.<useNotificationsKey>
)
foram habilitados ao mesmo tempo.
Certifique-se de selecionar apenas um deles.
Exigir adlsBlobSuffix e adlsDfsSuffix para o Azure
O <storeType>
no arquivo de evento <fileEvent>
é diferente do esperado pela origem: <source>
.
Não é possível evoluir o esquema quando o log de esquema está vazio. Local do log do esquema: <logPath>
Não é possível analisar a seguinte mensagem de fila: <message>
Não é possível resolver o nome do contêiner do caminho: <path>
, URI resolvido: <uri>
Não é possível executar a listagem de diretórios quando há um thread de provisionamento assíncrono em execução
Não é possível ativar cloudFiles.cleanSource e cloudFiles.allowOverwrites ao mesmo tempo.
O Carregador Automático não pode excluir os arquivos processados porque não tem permissões de gravação no diretório de origem.
<reason>
Para corrigir, você pode:
Você também pode desbloquear sua transmissão definindo o SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors como ‘true’.
Houve um erro ao tentar inferir o esquema de partição da tabela. Você tem a mesma coluna duplicada em seus dados e caminhos de partição. Para ignorar o valor da partição, forneça explicitamente suas colunas de partição usando: .option(“cloudFiles.<partitionColumnsKey>
”, “{lista-separada-por-vírgula}”)
Não é possível inferir o esquema quando o caminho de entrada <path>
está vazio. Tente iniciar o fluxo quando houver arquivos no caminho de entrada ou especifique o esquema.
Falha ao criar uma assinatura da Grade de Eventos. Certifique-se de que a sua entidade
de serviço tenha <permissionType>
Assinaturas da Grade de Eventos. Confira mais detalhes em:
<docLink>
Falha ao criar uma assinatura da Grade de Eventos. Verifique se Microsoft.EventGrid está
registrado como provedor de recursos em sua assinatura. Confira mais detalhes em:
<docLink>
Falha ao criar uma assinatura da Grade de Eventos. Verifique se a sua conta
de armazenamento (<storageAccount>
) está em seu grupo de recursos (<resourceGroup>
) e que
a conta de armazenamento é uma conta "StorageV2 (uso geral v2)". Confira mais detalhes em:
<docLink>
Não há suporte para o modo de notificação de evento do carregador automático para <cloudStore>
.
Falha ao verificar se o fluxo é novo
Falha ao criar a assinatura: <subscriptionName>
. Uma assinatura com o mesmo nome já existe e está associada a outro tópico: <otherTopicName>
. O tópico desejado é <proposedTopicName>
. Exclua a assinatura existente ou crie uma assinatura com um novo sufixo de recurso.
Falha ao criar o tópico: <topicName>
. Já existe um tópico com o mesmo nome.<reason>
Remover o tópico existente ou tentar novamente com outro sufixo de recurso
Falha ao excluir a notificação com a ID <notificationId>
no bucket <bucketName>
para o tópico <topicName>
. Tente novamente ou remova manualmente a notificação por meio do console GCP.
Falha ao desserializar o esquema persistente da cadeia de caracteres: ‘<jsonSchema>
’
Não é possível evoluir o esquema sem um log de esquema.
Falha ao localizar o provedor para <fileFormatInput>
Falha ao inferir o esquema para o formato <fileFormatInput>
de arquivos existentes no caminho de entrada <path>
.
Para obter mais detalhes, consulte CF_FAILED_TO_INFER_SCHEMA
Falha ao gravar no log de esquema no local <path>
.
Não foi possível encontrar a opção exigida: cloudFiles.format.
Foram encontradas várias assinaturas (<num>
) com o prefixo do Carregador Automático para o tópico <topicName>
:
<subscriptionList>
Deve haver apenas uma assinatura por tópico. Verifique manualmente se o tópico não tem várias assinaturas.
Forneça todos os seguintes: <clientEmail>
, <client>
,
<privateKey>
, e <privateKeyId>
ou então não forneça nenhum deles para usar a cadeia
de provedores de credenciais GCP padrão para autenticação com recursos GCP.
Número excessivo de rótulos (<num>
) recebidos para o recurso GCP. A contagem máxima de rótulos por recurso é de <maxNum>
.
Número excessivo de marcas de recurso (<num>
) recebidas para o recurso GCP. A contagem máxima de marcas de recurso por recurso é <maxNum>
, pois as marcas de recurso são armazenadas como rótulos GCP em recursos, e marcas específicas do Databricks consomem parte dessa cota de rótulos.
Arquivo de log incompleto no log de esquema no caminho <path>
Arquivo de metadados incompleto no ponto de verificação do Carregador Automático
O método cloud_files aceita dois parâmetros de cadeia de caracteres obrigatórios: o caminho a ser carregado e o formato de arquivo. As opções de leitor de arquivos devem ser fornecidas em um mapa de valor chave da cadeia de caracteres. por exemplo, cloud_files(“path”, “json”, map(“option1”, “value1”)). Recebido: <params>
Erro interno.
Para obter mais detalhes, consulte CF_INTERNAL_ERROR
ARN inválido: <arn>
A chave privada fornecida com a opção cloudFiles.certificate não pode ser analisada. Forneça uma chave pública válida no formato PEM.
A chave privada fornecida com a opção cloudFiles.certificatePrivateKey não pode ser analisada. Forneça uma chave privada válida no formato PEM.
Esse ponto de verificação não é uma fonte válida do CloudFiles
Modo inválido para a opção de origem limpa <value>
.
Chave de marca de recurso inválida para o recurso GCP: <key>
. As chaves precisam começar com uma letra minúscula, ter entre 1 e 63 caracteres e conter apenas letras minúsculas, números, sublinhados (_) e hifens (-).
Valor da marca de recurso inválido para o recurso GCP: <value>
. Os valores precisam ter entre 0 e 63 caracteres e conter apenas letras minúsculas, números, sublinhados (_) e hifens (-).
O Carregador Automático não dá suporte às seguintes opções quando usado com eventos de arquivo gerenciado:
<optionList>
Recomendamos que você remova essas opções e reinicie o fluxo.
Resposta inválida do serviço de eventos de arquivo gerenciado. Entre em contato com o suporte do Databricks para obter assistência.
Para obter mais detalhes, consulte CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
cloudFiles.<schemaEvolutionModeKey>
deve ser um dos {
"<addNewColumns>
"
"<failOnNewColumns>
"
"<rescue>
"
"<noEvolution>
"}
As dicas de esquema só podem especificar uma coluna específica uma vez.
Nesse caso, redefina a coluna: <columnName>
várias vezes em schemaHints:
<schemaHints>
Dicas de esquema não podem ser usadas para substituir os tipos aninhados de mapas e matrizes.
Coluna conflitante: <columnName>
latestOffset deve ser chamado com um ReadLimit nesta fonte.
O arquivo de log foi malformado: falha ao ler a versão de log correta de <fileName>
.
Você solicitou que o Carregador Automático ignorasse os arquivos existentes em seu local externo definindo includeExistingFiles como falsa. No entanto, o serviço de eventos de arquivo gerenciado ainda está descobrindo arquivos existentes em sua localização externa. Tente novamente depois que os eventos de arquivo gerenciado tiverem concluído a descoberta de todos os arquivos em sua localização externa.
Você está usando o Carregador Automático com eventos de arquivo gerenciado, mas parece que o local externo do caminho de entrada ‘<path>
’ não tem eventos de arquivo habilitados ou o caminho de entrada é inválido. Solicite ao Administrador do Databricks que habilite eventos de arquivo no local externo para o caminho de entrada.
Você está usando o Carregador Automático com eventos de arquivo gerenciado, mas parece que o local externo do caminho de entrada ‘<path>
’ não tem eventos de arquivo habilitados ou o caminho de entrada é inválido. Solicite que o Administrador do Databricks conceda permissões de leitura para o local ou volume externo ou forneça um caminho de entrada válido em um volume ou local externo existente.
O Carregador Automático com eventos de arquivo gerenciado só está disponível no Databricks sem servidor. Para continuar, mova essa carga de trabalho para o Databricks sem servidor ou desative a opção cloudFiles.useManagedFileEvents.
max precisa ser positivo
Várias consultas de transmitir estão usando simultaneamente <metadataFile>
O arquivo de metadados no diretório de ponto de verificação da fonte de streaming está ausente. Este arquivo de
metadados contém opções padrão importantes para o fluxo, portanto, o fluxo não pode ser reiniciado
no momento. Entre em contato com o suporte do Databricks para obter assistência.
A coluna de partição <columnName>
não existe no esquema fornecido:
<schema>
Especifique um esquema usando .schema() se um caminho não for fornecido à fonte CloudFiles ao usar o modo de notificação de arquivo. Como alternativa, para fazer o Carregador Automático inferir o esquema, forneça um caminho base em .load().
Notificações existentes encontradas para o tópico <topicName>
no bucket <bucketName>
:
notificação,ID
<notificationList>
Para evitar poluir o assinante com eventos não intencionais, exclua as notificações acima e tente novamente.
Novas colunas de partição foram inferidas de seus arquivos: [<filesList>
]. Forneça todas as colunas de partição em seu esquema ou forneça uma lista de colunas de partição para as quais você gostaria de extrair valores usando: .option("cloudFiles.partitionColumns", "{lista-separada-por-vírgula|cadeia-de-caracteres-vazia}")
Houve um erro ao tentar inferir o esquema de partição do lote atual de arquivos. Forneça explicitamente suas colunas de partição usando: .option(“cloudFiles.<partitionColumnOption>
”, “{comma-separated-list}”)
Não é possível ler arquivos quando o caminho de entrada <path>
não existe. Verifique se o caminho de entrada existe e tente novamente.
Não há suporte para o provisionamento periódico se o provisionamento assíncrono está desabilitado. Você pode habilitar a listagem de diretórios/provisionamento assíncrono definindo spark.databricks.cloudFiles.asyncDirListing
como true
Evento sem correspondência encontrado: a chave <key>
não tem o prefixo: <prefix>
<message>
Se você não precisar fazer outras alterações no código, defina a configuração
do SQL: ‘<sourceProtocolVersionKey>
= <value>
’
para retomar o fluxo. Consulte:
<docLink>
para obter mais detalhes.
Não foi possível obter a região padrão do AWS. Especifique uma região usando a opção cloudFiles.region.
Falha ao criar serviços de notificação: o sufixo do recurso não pode estar vazio.
Falha ao criar serviços de notificação: o sufixo do recurso só pode ter caracteres alfanuméricos, hifens (-) e sublinhados (_).
Falha ao criar serviços de notificação: o sufixo do recurso só pode ter letra minúscula, número e traço (-).
Falha ao criar serviços de notificação: o sufixo de recurso só pode ter caracteres alfanuméricos, hifens (-), sublinhados (_), pontos (.), til (~) sinais de adição (+) e sinais percentuais (<percentSign>
).
Falha ao criar serviços de notificação: o sufixo do recurso não pode ter mais do que <limit>
caracteres.
Falha ao criar serviços de notificação: o sufixo do recurso precisa estar entre <lowerLimit>
e <upperLimit>
caracteres.
Chave de marca de recurso GCP restrita encontrada (<key>
). As seguintes chaves de marca de recurso GCP são restritas para o Carregador Automático: [<restrictedKeys>
]
cloudFiles.cleanSource.retentionDuration não pode ser maior que cloudFiles.maxFileAge.
Falha ao criar notificação para tópico: <topic>
com o prefixo: <prefix>
. Já existe um tópico com o mesmo nome com outro prefixo: <oldPrefix>
. Tente usar um sufixo de recurso diferente para configurar ou excluir a configuração existente.
Forneça o caminho do diretório de origem com a opção path
A fonte de arquivos de nuvem só é compatível com caminhos S3, Armazenamento de Blobs do Azure (wasb/wasbs) e Azure Data Lake Gen1 (adl) e Gen2 (abfs/abfss) atualmente. Caminho: ‘<path>
’, URI resolvido: ‘<uri>
’.
A função cloud_files_state aceita um parâmetro de cadeia de caracteres que representa o diretório do ponto de verificação de um fluxo do cloudFiles ou um tableName de várias partes que identifica uma tabela de fluxo e um segundo parâmetro inteiro opcional que representa a versão do ponto de verificação para a qual carregar o estado. O segundo parâmetro também pode ser "mais recente" para ler o ponto de verificação mais recente. Recebido: <params>
O caminho <path>
do ponto de verificação de entrada é inválido. Ou o caminho não existe ou não foram encontradas fontes de cloud_files.
A versão especificada <version>
não existe ou foi removida durante a análise.
O thread <threadName>
está inativo.
Não é possível derivar o local do ponto de verificação de fluxo do local de ponto de verificação de origem: <checkPointLocation>
O formato do arquivo de origem de <fileSize>
arquivos de amostra não pôde ser detectado, <formats>
foram encontrados. Especifique o formato.
Não é possível extrair informações do bucket. Caminho: ‘<path>
’, URI resolvido: ‘<uri>
’.
Não é possível extrair informações de chave. Caminho: ‘<path>
’, URI resolvido: ‘<uri>
’.
Não é possível extrair informações da conta de armazenamento; caminho: ‘<path>
’, URI resolvido: <uri>
Um evento de renomeação de diretório foi recebido para o caminho <path>
, mas não foi possível listar esse diretório com eficiência. Para que o fluxo continue, defina a opção 'cloudFiles.ignoreDirRenames' como true e considere habilitar os provisionamentos comuns com cloudFiles.backfillInterval para que esses dados sejam processados.
ReadLimit inesperado: <readLimit>
Chaves de opção desconhecidas encontradas:
<optionList>
Verifique se todas as chaves de opção fornecidas estão corretas. Se você quiser ignorar a
validação de suas opções e ignorar essas opções desconhecidas, poderá definir:
.option(“cloudFiles.<validateOptions>
”, “false”)
ReadLimit desconhecido: <readLimit>
A função ‘cloud_files’ SQL para criar uma fonte de streaming do Carregador Automático tem suporte apenas em um pipeline do Delta Live Tables. Confira mais detalhes em:
<docLink>
A inferência de esquema não é compatível com o formato: <format>
. Especifique o esquema.
UnsupportedLogVersion: a versão máxima de log compatível é v<maxVersion>``, but encountered v``<version>
. O arquivo de log foi produzido por uma versão mais recente do DBR e não pode ser lido por esta versão. Faça a atualização.
O modo de evolução de esquema <mode>
não é compatível com o formato: <format>
. Defina o modo de evolução do esquema como ‘none’.
Não há suporte para a leitura de uma tabela Delta com essa sintaxe. Se desejar consumir dados do Delta, consulte os documentos: ler uma tabela Delta (<deltaDocLink>
) ou ler uma tabela Delta como uma fonte de transmissão (<streamDeltaDocLink>
). A fonte de streaming do Delta já está otimizada para consumo incremental de dados.
Erro ao analisar EWKB: <parseError>
na posição <pos>
Erro ao analisar GeoJSON: <parseError>
na posição <pos>
Para obter mais detalhes, consulte GEOJSON_PARSE_ERROR
<h3Cell>
não é uma ID de célula H3 válida
Para obter mais detalhes, consulte H3_INVALID_CELL_ID
A distância da grade H3 <k>
deve não ser negativa
Para obter mais detalhes, consulte H3_INVALID_GRID_DISTANCE_VALUE
A resolução H3 <r>
deve estar entre <minR>
e <maxR>
, inclusive
Para obter mais detalhes, consulte H3_INVALID_RESOLUTION_VALUE
<h3Expression>
está desabilitado ou sem suporte. Considere habilitar o Photon ou alternar para uma camada que dê suporte a expressões H3
Para obter mais detalhes, consulte H3_NOT_ENABLED
Um pentágono foi encontrado durante a computação do anel hexagonal de <h3Cell>
com distância de grade <k>
H3 A distância da grade entre <h3Cell1>
e <h3Cell2>
é indefinida
Os argumentos para “<sqlFunction>
” devem ter o mesmo valor SRID. Valor SRID encontrado: <srid1>
, <srid2>
"<sqlFunction>
": <reason>
O argumento de “<sqlFunction>
” deve ser do tipo <validTypes>
<sqlFunction>
: transformação de CRS inválida ou sem suporte do SRID <srcSrid>
para o SRID <trgSrid>
A ordenação <e>
deve ser 'NDR' (little-endian) ou 'XDR' (big-endian)
<sqlFunction>
: valor de geohash inválido: ‘<geohash>
’. Os valores de geohash devem ser cadeias de caracteres base32 minúsculas válidas, conforme descrito em https://en.wikipedia.org/wiki/Geohash#Textual_representation
A precisão <p>
deve estar entre <minP>
e <maxP>
, inclusive
Inválido ou SRID sem suporte <srid>
<stExpression>
está desabilitado ou sem suporte. Considere habilitar o Photon ou alternar para uma camada que dê suporte a expressões ST
Os tipos de dados GEOGRAPHY e GEOMETRY não podem ser retornados em consultas. Use uma das seguintes expressões SQL para convertê-las em formatos de intercâmbio padrão: <projectionExprs>
.
Erro ao analisar WKB: <parseError>
na posição <pos>
Para obter mais detalhes, consulte WKB_PARSE_ERROR
Erro ao analisar WKT: <parseError>
na posição <pos>
Para obter mais detalhes, consulte WKT_PARSE_ERROR
Eventos
Junte-se a nós na FabCon Vegas
31 de mar., 23 - 2 de abr., 23
O melhor evento liderado pela comunidade Microsoft Fabric, Power BI, SQL e AI. 31 de março a 2 de abril de 2025.
Registre-se hoje mesmoTreinamento
Módulo
Otimizar o desempenho com o Spark e o Delta Live Tables - Training
Otimize o desempenho com Spark e Delta Live Tables no Azure Databricks.