Falha ao analisar a saída do modelo ao converter para o returnType: “<dataType>” especificado, o JSON de resposta foi: "<responseString>". Atualize o returnType para corresponder ao conteúdo do tipo representado pelo JSON de resposta e repita a consulta.
A saída real do modelo tem mais de uma coluna “<responseString>”. No entanto, o tipo de retorno especificado [“<dataType>”] tem apenas uma coluna. Atualize o returnType para conter o mesmo número de colunas que a saída do modelo e repita a consulta.
Falha ao avaliar a função SQL “<functionName>” porque o argumento fornecido de <invalidValue> tem "<invalidDataType>", mas somente os seguintes tipos são compatíveis: <supportedDataTypes>. Atualize a chamada de função para fornecer um argumento do tipo de cadeia de caracteres e tente novamente realizar a consulta.
Função de IA: “<functionName>” não dá suporte ao seguinte tipo como tipo de retorno: “<typeName>”. O tipo de retorno deve ser um tipo SQL válido compreendido pelo Catalyst e compatível com a função de IA. Os tipos com suporte atuais incluem: <supportedValues>
Falha ao materializar a consulta de pesquisa vetorial do tipo <dataType> spark para objetos nativos do scala durante a codificação da solicitação com erro: <errorMessage>.
Não há suporte para a Busca em vetores com num_results maior que <maxLimit>. O limite especificado foi <requestedLimit>. Pleaase tente novamente com num_results <= <maxLimit>
Defina <config> como “CORRECTED” para que o nome definido no CTE interno tenha precedência. Se defini-lo como “LEGACY”, as definições de CTE externas terão precedência.
A função <functionName> inclui um parâmetro <parameterName> na posição <pos> que necessita de um argumento constante. Faça a computação do argumento <sqlExpr> de forma separada e passe o resultado como uma constante.
Não há suporte para o uso de valores padrão quandorescuedDataColumn está habilitado. Você pode remover essa verificação definindo spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue como falso, mas os valores padrão não serão aplicados e valores nulos ainda serão usados.
Não é possível converter o Avro <avroPath> em SQL <sqlPath> porque o tipo de dados codificado original é <avroType>, porém, você está tentando ler o campo como <sqlType>, o que levaria a uma resposta incorreta.
Para permitir a leitura desse campo, habilite a configuração do SQL: “spark.sql.legacy.avro.allowIncompatibleSchema”.
Não há suporte para o uso da correspondência de campo posicional quando rescuedDataColumn ou failOnUnknownFields estiver habilitado. Remova essas opções para continuar.
As credenciais de conexão do BigQuery devem ser especificadas com o ‘parâmetro GoogleServiceAccountKeyJson’ ou todos os ‘projectId’, ‘OAuthServiceAcctEmail’, ‘OAuthPvtKey’
ALTER TABLE (ALTER|CHANGE) COLUMN não pode alterar o agrupamento de tipo/subtipos de colunas de bucket, mas encontrou a coluna de bucket <columnName> na tabela <tableName>.
A marca d'água precisa ser definida para reatribuir a coluna de tempo do evento. Falha ao encontrar a definição de marca d'água na consulta de streaming.
Não é possível converter Protobuf <protobufColumn> em SQL <sqlColumn> porque o esquema é incompatível (protobufType = <protobufType>, sqlType = <sqlType>).
Não é possível converter SQL <sqlColumn> em Protobuf <protobufColumn> porque o esquema é incompatível (protobufType = <protobufType>, sqlType = <sqlType>).
Não é possível estabelecer a conexão com o banco de dados <jdbcDialectName> remoto. Verifique as informações de conexão e as credenciais, por exemplo, opções de host, porta, usuário, senha e banco de dados. ** Se você acredita que as informações estão corretas, verifique a configuração de rede do workspace e se elas não têm restrições de saída para o host. Também verifique se o host não bloqueia as conexões de entrada da rede em que os clusters Spark do espaço de trabalho são implantados. ** Mensagem de erro detalhada: <causeErrorMessage>.
Não é possível estabelecer a conexão com o banco de dados <jdbcDialectName> remoto. Verifique as informações de conexão e as credenciais, por exemplo, opções de host, porta, usuário, senha e banco de dados. ** Se você acredita que as informações estão corretas, permita o tráfego de entrada da Internet para o host, pois você está usando a Computação sem Servidor. Se as políticas de rede não permitirem o tráfego da Internet de entrada, use a Computação sem Servidor ou entre em contato com seu representante do Databricks para saber mais sobre a Rede Privada sem Servidor. ** Mensagem de erro detalhada: <causeErrorMessage>.
As transformações e as ações do conjunto de dados só podem ser invocadas pela unidade, não dentro de outras transformações de conjunto de dados; por exemplo, dataset1.map(x => dataset2.values.count() * x) é inválido porque a ação de transformação e contagem de valores não pode ser executada dentro da transformação dataset1.map. Para saber mais, consulte SPARK-28702.
Falha ao mesclar tipos de dados incompatíveis <left> e <right>. Verifique os tipos de dados das colunas que estão sendo mescladas e verifique se elas são compatíveis. Se necessário, considere converter as colunas em tipos de dados compatíveis antes de tentar a mesclagem.
Não é possível analisar <intervalString>. Verifique se o valor fornecido está em um formato válido para definir um intervalo. Você pode referenciar a documentação para o formato correto. Se o problema persistir, verifique se o valor de entrada não é nulo ou vazio e tente novamente.
O nome do campo <fieldName> e o valor <fieldValue> do token JSON tipo <jsonType> não podem ser analisados como o tipo de dados Spark de destino <dataType>.
Não é possível reconhecer a cadeia de caracteres do hive tipo: <fieldType>, coluna: <fieldName>. O tipo de dados especificado no campo não pode ser reconhecido pelo Spark SQL. Verifique o tipo de dados do campo especificado e se ele é um tipo de dados SQL do Spark válido. Consulte a documentação do Spark SQL para obter uma lista dos tipos de dados válidos e seu formato. Se o tipo de dados estiver correto, verifique se você está usando uma versão com suporte do Spark SQL.
Não é possível resolver as <targetString>.* colunas de entrada fornecidas <columns>. Verifique se a tabela ou struct especificado existe e está acessível nas colunas de entrada.
Não há suporte para a validação da conexão <jdbcDialectName>. Contate o suporte do Databricks para soluções alternativas ou defina "spark.databricks.testConnectionBeforeCreation" como "false" para ignorar o teste de conexão antes de criar um objeto de conexão.
O valor <expression> do tipo <sourceType> não pode ser convertido em <targetType> porque está malformado. Corrija o valor de acordo com a sintaxe ou altere seu tipo de destino. Use try_cast para tolerar entradas malformadas e retornar NULO.
Falha ao atribuir um valor de tipo <sourceType> à coluna de tipo <targetType> ou variável de tipo <columnName> devido a um estouro. Use try_cast no valor de entrada para tolerar o estouro e retornar NULL.
Bloco de ponto de verificação <rddBlockId> não encontrado!
O executor que originalmente marcou o ponto de verificação dessa partição não está mais vivo ou o RDD original não é persistente.
Se esse problema persistir, você poderá considerar o uso de rdd.checkpoint() em vez disso, o que é mais lento do que o ponto de verificação local, mas mais tolerante a falhas.
Nome inválido para fazer referência a um <type> dentro de uma Sala Limpa. Use um nome de <type> dentro da sala limpa seguindo o formato de [catalog].[schema].[<type>].
Se você não tiver certeza sobre qual nome usar, poderá executar “SHOW ALL IN CLEANROOM [clean_room]” e usar o valor na coluna "nome”.
Foi recebida uma notificação de arquivo para o arquivo: <filePath>, mas ele não existe mais. Certifique-se de que os arquivos não sejam excluídos antes de serem processados. Para continuar sua transmissão, você pode definir a configuração <config> do Spark SQL como true.
Uma instrução <statementType> tentou atribuir uma máscara a uma coluna que incluía duas ou mais colunas referenciadas na lista USING COLUMNS com o mesmo nome <columnName>, o que é inválido.
Não é possível <statementType><columnName> da tabela <tableName> porque ela é referenciada em uma política de máscara de coluna para coluna <maskedColumn>. O proprietário da tabela deve remover ou alterar essa política antes de continuar.
Esse comando tentou atribuir uma política de máscara de coluna a uma coluna e a lista USING COLUMNS incluiu o nome <columnName> com várias partes do nome, o que é inválido.
Não há suporte para o uso de uma constante como parâmetro em uma política de máscara de coluna. Atualize o comando SQL para remover a constante da definição da máscara de coluna e tente o comando novamente.
Falha ao executar o comando <statementType>, pois não há suporte para a atribuição de políticas de máscara de coluna para a fonte de dados de destino com o provedor de tabela: “<provider>”.
Não é possível executar <operation> para a tabela <tableName>, pois ela contém uma ou mais políticas de máscara de coluna com expressões de subconsulta, que ainda não têm suporte. Contate o proprietário da tabela para atualizar as políticas de máscara de coluna para poder continuar.
Não foi possível encontrar a coluna <colName>. Verifique a ortografia e a exatidão do nome da coluna de acordo com a configuração <caseSensitiveConfig> de SQL.
‘,’ inesperada antes da definição de restrições. Verifique se a cláusula de restrição não começa com uma vírgula quando colunas (e expectativas) não são definidas.
Para uma comparação entre <firstValue> e <secondValue>, o comparador retorna NULL.
Ele deve retornar um número inteiro positivo para o operador “maior que”, 0 para o operador “igual a” e um número inteiro negativo para o operador “menor que”.
Para reverter o comportamento preterido, ou seja, para tratar NULL como 0 (usando o operador “igual a”), você deve definir "spark.sql.legacy.allowNullComparisonResultInArraySort" como “true”.
Outra instância dessa consulta [id: <queryId>] acabou de ser iniciada por uma sessão simultânea [runId existente: <existingQueryRunId> runId novo: <newQueryRunId>].
O provedor <provider> especificado é inconsistente com o provedor <expectedProvider> de catálogo existente. Use ‘USING <expectedProvider>’ e repita o comando.
O valor <str> (<fmt>) não pode ser convertido em <targetType> porque está malformado. Corrija o valor de acordo com a sintaxe ou altere o formato dele. Use <suggestion> para tolerar entradas malformadas e retornar NULO.
Uma incompatibilidade de esquema foi detectada ao copiar para a tabela Delta (Tabela: <table>).
Isso pode indicar um problema com os dados de entrada ou o esquema da tabela Delta pode ser evoluído automaticamente de acordo com os dados de entrada definindo:
O formato dos arquivos de origem precisa ser um entre CSV, JSON, AVRO, ORC, PARQUET, TEXT ou BINARYFILE. Não há suporte para o uso de COPY INTO em tabelas Delta como a origem, pois os dados duplicados podem ser ingeridos após operações OPTIMIZE. Essa verificação pode ser desativada executando o comando set spark.databricks.delta.copyInto.formatCheck.enabled = falsedo SQL.
Não é possível CRIAR OU ATUALIZAR exibições materializadas ou tabelas de streaming com ASYNC especificado. Remova ASYNC da instrução CREATE OR REFRESH ou use REFRESH ASYNC para atualizar exibições materializadas existentes ou tabelas de streaming de forma assíncrona.
A opção CSV enforceSchema não pode ser configurada ao usar rescuedDataColumn e failOnUnknownFields como colunas, são lidas pelo nome ao invés de ordinal.
Não foi possível encontrar a fonte de dados: <provider>. Verifique se o nome do provedor está correto e se o pacote está registrado corretamente e é compatível com sua versão do Spark.
O esquema da tabela de fonte de dados não corresponde ao esquema esperado. Se você estiver usando a API DataFrameReader.schema ou criando uma tabela, evite especificar o esquema.
A ingestão do objeto <objName> está incompleta porque o trabalho de consulta da API do Salesforce demorou muito, falhou ou foi cancelado manualmente.
Para tentar novamente, você pode executar novamente todo o pipeline ou atualizar essa tabela de destino específica. Se o erro persistir, registre um tíquete. ID do trabalho: <jobId>. Status do trabalho: <jobStatus>.
Ocorreu um erro na chamada à API <sourceName>. Tipo de API de origem: <apiType>. Código de erro: <errorCode>.
Às vezes, isso pode acontecer quando você’atinge um limite de API <sourceName>. Se você não excedeu o limite de API, tente executar novamente o conector. Se o problema persistir, registre um tíquete.
É possível que os arquivos subjacentes tenham sido atualizados. Você pode invalidar explicitamente o cache no Spark executando o comando ‘REFRESH TABLE table name’ no SQL ou recriando o conjunto de dados ou o dataframe envolvido. Se o cache de disco estiver obsoleto ou os arquivos subjacentes tiverem sido removidos, você poderá invalidar o cache de disco manualmente reiniciando o cluster.
Um palavra-chave PADRÃO em um comando MERGE, INSERT, UPDATE ou SET VARIABLE não pôde ser atribuído diretamente a uma coluna de destino porque fazia parte de uma expressão.
Por exemplo, UPDATE SET c1 = DEFAULT é permitido, mas UPDATE T SET c1 = DEFAULT + 1 não é.
Algumas partições no deslocamento disponível do relatório de tópico(s) Kafka que é menor que o deslocamento final durante a consulta executando com Trigger.AvailableNow. O erro pode ser transitório, reinicie sua consulta e informe se você ainda estiver experimentando o mesmo problema.
último deslocamento: <latestOffset>, deslocamento final: <endOffset>
Para fonte de dados Kafka com Trigger.AvailableNow, deslocamento final deve ter deslocamento igual ou menor por cada partição de tópico do que o deslocamento pré-coletado. O erro pode ser transitório, reinicie sua consulta e informe se você ainda estiver experimentando o mesmo problema.
Não é possível consultar os logs de eventos de um cluster Compartilhado Atribuído ou Sem Isolamento; em vez disso, use um cluster Compartilhado ou um repositório SQL do Databricks.
O nome <objectName> da coluna/campo na cláusula EXCEPT não pode ser resolvido. Você quis dizer um dos seguintes: [<objectList>]?
Observação: as colunas aninhadas na cláusula EXCEPT podem não incluir qualificadores (nome da tabela, nome da coluna struct pai etc.) durante uma expansão do struct; tente remover os qualificadores se eles forem usados com colunas aninhadas.
Não há memória suficiente para criar a relação de transmissão <relationClassName>. Tamanho da relação = <relationSize>. Memória total usada por esta tarefa = <taskMemoryUsage>. Métricas do Gerenciador de Memória do Executor: onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>, offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>, onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>, offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>. [sparkPlanId: <sparkPlanId>]
A cláusula USING deste comando EXECUTE IMMEDIATE continha vários argumentos com o mesmo alias (<aliases>), que é inválido; atualize o comando para especificar aliases exclusivos e tente novamente.
Erro ao executar ‘REFRESH FOREIGN <scope><name>’. Não foi possível atualizar diretamente um <scope> do Fabric, use ‘REFRESH FOREIGN CATALOG <catalogName>’ para atualizar o Catálogo do Fabric.
<feature> não tem suporte em repositórios clássicos de SQL. Para usar esse recurso, use um SQL warehouse pro ou sem servidor. Para saber mais sobre tipos de repositórios, consulte <docLink>
<feature> não tem suporte sem o Unity Catalog. Para usar esse recurso, habilite o Catálogo do Unity. Para saber mais sobre o Unity Catalog, consulte <docLink>
A função <function> requer parâmetros nomeados. Parâmetros com nomes ausentes: <exprs>. Atualize a chamada de função para adicionar nomes para todos os parâmetros, por exemplo, <function> (param_name => ...).
Uma coluna não pode ter um valor padrão e uma expressão de geração, mas a coluna <colName> tem o valor padrão de: (<defaultValue>) e a expressão de geração de: (<genExpr>).
A expressão <sqlExpr> não pode ser usada como uma expressão de agrupamento porque seu tipo <dataType> de dados não é um tipo de dados não pode ser ordenado.
Chamada inválida para <function>; somente os buffers de esboço de HLL válidos têm suporte como entradas (como aquelas produzidas pela hll_sketch_agg função).
Os esboços têm valores lgConfigK diferentes: <left> e <right>. Defina o allowDifferentLgConfigK parâmetro como verdadeiro para chamar <function> com valores diferentes lgConfigK .
<operator> só pode ser executado em tabelas com tipos de coluna compatíveis. A coluna <columnOrdinalNumber> da tabela <tableOrdinalNumber> é do tipo <dataType1>, que não é compatível com <dataType2> na mesma coluna da primeira tabela.<hint>.
A consulta SQL da exibição <viewName> tem uma alteração de esquema incompatível e não pode resolver a coluna <colName>. São esperadas <expectedNum> colunas nomeadas <colName>, mas a coluna recebida é <actualCols>.
Tente recriar a exibição executando: <suggestion>.
A função chamada requer conhecimento da ordenação que deve ser aplicada, mas a ordenação indeterminado foi encontrada. Use a função COLLATE para definir a ordenação explicitamente.
O índice <indexValue> está fora dos limites. A matriz tem <arraySize> elementos. Use a função SQL get() para tolerar o elemento de acesso no índice inválido e retornar NULO. Se necessário, defina <ansiConfig> como “false” para ignorar esse erro.
O índice <indexValue> está fora dos limites. A matriz tem <arraySize> elementos. Use try_element_at para tolerar o elemento de acesso no índice inválido e retornar NULO. Se necessário, defina <ansiConfig> como “false” para ignorar esse erro.
A fonte de dados <datasource> não pode salvar a coluna <columnName> porque seu nome contém alguns caracteres que não são permitidos em caminhos de arquivo. Use um alias para renomeá-lo.
A função current_recipient só pode ser usada na instrução CREATE VIEW ou na instrução ALTER VIEW para definir uma exibição somente de compartilhamento no Catálogo do Unity.
Um codificador de expressão inválido foi encontrado. Espera uma instância do ExpressionEncoder, mas recebeu <encoderType>. Para obter mais informações, consulte ‘<docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html’.
Erro ao analisar '<input>' para intervalo. Verifique se o valor fornecido está em um formato válido para definir um intervalo. Você pode referenciar a documentação para o formato correto.
A correlação <joinType> JOIN com LATERAL não é permitida porque uma sub-consulta OUTER não pode ser correlacionada com seu parceiro de junção. Remova a correlação LATERAL ou use uma INNER JOIN ou LEFT OUTER JOIN.
O literal numérico <rawStrippedQualifier> está fora do intervalo válido do <typeName> com o valor mínimo de <minValue> e o valor máximo de <maxValue>. Ajuste o valor adequadamente.
O modo de salvamento <mode> especificado é inválido. Os modos de salvamento válidos incluem “acrescentar”, “substituir”, “ignorar”, “erro”, “errorifexists” e “padrão”.
O formato esperado é ‘SET’, ‘SET key’ ou ‘SET key=value’. Se você quiser incluir caracteres especiais na chave ou incluir ponto e vírgula no valor, use aspas invertidas, por exemplo, SET key=value.
Não é possível criar o objeto persistente <objName> do tipo <obj> porque ele faz referência ao objeto temporário <tempObjName> do tipo <tempObj>. Defina o objeto temporário <tempObjName> como persistente ou o objeto persistente <objName> como um objeto temporário.
O gravador de fonte de dados gerou um número inválido de mensagens de confirmação. Esperada exatamente uma mensagem de confirmação de gravador de cada tarefa, mas recebido <detail>.
Para <shard>de fragmentos, o último registro lido do Kinesis em buscas anteriores tem <lastSeqNum> de número de sequência,
que é maior que o registro lido na busca atual com o número de sequência <recordSeqNum>.
Isso é inesperado e pode acontecer quando a posição inicial da repetição ou da próxima busca é inicializada incorretamente e pode resultar em registros duplicados downstream.
Não é possível nomear a tabela gerenciada como <identifier>, pois seu local associado <location> já existe. Escolha um nome de tabela diferente ou remova o local existente primeiro.
Algumas partições de tópico(s) Kafka foram perdidas durante a execução da consulta com Trigger.AvailableNow. O erro pode ser transitório, reinicie sua consulta e informe se você ainda estiver experimentando o mesmo problema.
topic-partitions para o último deslocamento: <tpsForLatestOffset>, topic-partitions para o deslocamento final: <tpsForEndOffset>
Mensagens Avro malformadas são detectadas na desserialização de mensagens. Modo de Análise: <mode>. Para processar a mensagem Avro malformada como resultado nulo, tente definir a opção ''mode'' como ''PERMISSIVE''.
A exibição materializada não pode se tornar <refreshType> porque ela existia antes do pipelineId. Para habilitar <refreshType>, remova e recrie a exibição materializada.
A exibição <name> materializada não pôde ser criada com a consulta de streaming. Use CREATE [OR REFRESH] STREAMING TABLE ou remova a palavra-chave STREAM para sua cláusula FROM para transformar essa relação em uma consulta em lote.
Fonte de dados Kafka em Trigger.AvailableNow deve fornecer as mesmas partições de tópico no deslocamento pré-coletado para deslocamento final para cada microlote. O erro pode ser transitório, reinicie sua consulta e informe se você ainda estiver experimentando o mesmo problema.
topic-partitions para o deslocamento pré-coletado: <tpsForPrefetched>, topic-partitions para o deslocamento final: <tpsForEndOffset>.
A expressão não agregada <expression> baseia-se em colunas que não estão participando da cláusula GROUP BY.
Adicione as colunas ou a expressão à GROUP BY, agregue a expressão ou use <expressionAnyValue> se você não se importar com quais dos valores dentro de um grupo são retornados.
A especificação da janela não é definida na cláusula WINDOW para <windowName>. Para obter mais informações sobre cláusulas WINDOW, consulte '<docroot>/sql-ref-syntax-qry-select-window.html'.
Detectou várias fontes de dados com o nome <provider> (<sourceNames>). Especifique o nome de classe totalmente qualificado ou remova <externalSource> do classpath.
Não é possível chamar a função <functionName> porque não há suporte para referências de argumento nomeado. Nesse caso, a referência de argumento nomeado era <argument>.
Comandos EXECUTE IMMEDIATE aninhados não são permitidos. Verifique se a consulta SQL fornecida (<sqlString>) não contém outro comando EXECUTE IMMEDIATE.
Quando houver mais de uma cláusula NOT MATCHED [BY TARGET] em um comando MERGE, somente a última cláusula NOT MATCHED [BY TARGET] poderá omitir a condição.
<functionName> aparece como uma expressão escalar aqui, mas a função foi definida como uma função de tabela. Atualize a consulta para mover a chamada de função para a cláusula FROM ou ao invés disso redefina <functionName> como uma função escalar.
<functionName> aparece como uma função de tabela aqui, mas a função foi definida como uma função escalar. Atualize a consulta para mover a chamada de função para fora da cláusula FROM ou ao invés disso redefina <functionName> como uma função de tabela.
O valor NULL apareceu no campo não anulável: <walkedTypePath>. Se o esquema for inferido de uma classe de tupla/caso do Scala ou de um bean Java, tente usar scala.Option[_] ou outros tipos que permitem valor nulo (como java.lang.Integer em vez de int/scala.Int).
ALTER TABLE ALTER/CHANGE COLUMN não tem suporte para alterar <table>a coluna de <originName> com o tipo <originType> para <newName> com o tipo <newType>.
df.mergeInto precisa ser seguido por pelo menos um de whenMatched/whenNotMatched/whenNotMatchedBySource.
NO_PARENT_EXTERNAL_LOCATION_FOR_PATH
SQLSTATE: nenhuma atribuição
Nenhum local externo pai foi encontrado para o caminho ‘<path>’. Crie um local externo em um dos caminhos pai e tente novamente executar a consulta ou o comando.
Não é possível encontrar <catalystFieldPath> no esquema Protobuf.
NO_STORAGE_LOCATION_FOR_TABLE
SQLSTATE: nenhuma atribuição
Nenhum local de armazenamento foi encontrado para a tabela ‘<tableId>‘ ao gerar credenciais de tabela. Verifique o tipo de tabela e a URL do local da tabela e tente novamente a realizar consulta ou o comando.
NO_SUCH_CATALOG_EXCEPTION
SQLSTATE: nenhuma atribuição
O catálogo ‘<catalog>’ não foi encontrado. Verifique o nome do catálogo e tente novamente executar a consulta ou o comando.
NO_SUCH_CLEANROOM_EXCEPTION
SQLSTATE: nenhuma atribuição
A sala limpa ‘<cleanroom>’ não existe. Verifique se o nome da sala limpa está escrito corretamente e corresponde a um nome de sala limpa válida existente e tente executar a consulta ou o comando novamente.
NO_SUCH_EXTERNAL_LOCATION_EXCEPTION
SQLSTATE: nenhuma atribuição
O local ‘ externo ’<externalLocation>’ não existe. Verifique se o nome do local externo está correto e tente novamente executar a consulta ou o comando.
NO_SUCH_METASTORE_EXCEPTION
SQLSTATE: nenhuma atribuição
O metastore não foi encontrado. Peça ao administrador da conta que atribua um metastore ao workspace atual e tente novamente executar a consulta ou o comando.
NO_SUCH_PROVIDER_EXCEPTION
SQLSTATE: nenhuma atribuição
O provedor de compartilhamento ‘<providerName>’ não existe. Verifique se o nome do provedor de compartilhamento está escrito corretamente e corresponde a um nome de provedor válido existente e tente novamente executar a consulta ou o comando.
NO_SUCH_RECIPIENT_EXCEPTION
SQLSTATE: nenhuma atribuição
O ’<recipient>’ do destinatário não existe. Verifique se o nome do destinatário está escrito corretamente e corresponde a um nome de destinatário válido existente e tente novamente executar a consulta ou o comando.
NO_SUCH_SHARE_EXCEPTION
SQLSTATE: nenhuma atribuição
O compartilhamento ‘<share>’ não existe. Verifique se o nome do compartilhamento está escrito corretamente e corresponde a um nome de compartilhamento válido existente e tente novamente executar a consulta ou o comando.
NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION
SQLSTATE: nenhuma atribuição
Pode ocorrer quando a credencial ‘<storageCredential>’ não existe. Verifique se o nome da credencial de armazenamento está escrito corretamente e corresponde a um nome de credencial de armazenamento válido existente e tente novamente executar a consulta ou o comando.
NO_SUCH_USER_EXCEPTION
SQLSTATE: nenhuma atribuição
O usuário ‘<userName>’ não existe. Verifique se o usuário a quem você concede permissão ou cuja propriedade você altera está escrito corretamente e corresponde a um nome de usuário válido existente e tente novamente executar a consulta ou o comando.
<operator> só pode ser executado em entradas com o mesmo número de colunas, mas a primeira entrada tem <firstNumColumns> colunas e a entrada <invalidOrdinalNum> tem <invalidNumColumns> colunas.
A função <expr> agregada não é permitida ao usar o operador de tubulação |> Cláusula SELECT; Por favor, use o operador de tubulação |> AGGREGATE em vez disso
O parâmetro <parameterName> é definido com o modo de parâmetro <parameterMode>. O parâmetro OUT e INOUT não podem ser omitidos ao invocar uma rotina e, portanto, não dão suporte a uma expressão DEFAULT. Para continuar, remova a cláusula DEFAULT ou altere o modo de parâmetro para IN.
UnsafeRow inválido para decodificar no PubSubMessageMetadata, o esquema proto desejado é: <protoSchema>. A entrada UnsafeRow pode estar corrompida: <unsafeRow>.
Ocorreu um erro ao tentar criar uma assinatura <subId> no tópico <topicId>. Verifique se há permissões suficientes para criar uma assinatura e tente novamente.
Não é possível acessar a tabela referenciada porque uma máscara de coluna atribuída anteriormente é incompatível com o esquema da tabela. Para continuar, contate o proprietário da tabela para atualizar a política:
Não é possível acessar a tabela referenciada porque uma política de segurança de nível de linha atribuída anteriormente é incompatível com o esquema da tabela. Para continuar, contate o proprietário da tabela para atualizar a política:
É possível que os arquivos subjacentes tenham sido atualizados. Você pode invalidar explicitamente o cache no Spark executando o comando ‘REFRESH TABLE table name’ no SQL ou recriando o conjunto de dados ou o dataframe envolvido.
Referência recursiva encontrada no esquema Protobuf, que não pode ser processado pelo Spark por padrão: <fieldDescriptor>. Tente definir a opção recursive.fields.max.depth 1 a 10. Não é permitido ultrapassar 10 níveis de recursão.
Falha ao avaliar a função SQL <functionName> devido à incapacidade de analisar o resultado JSON da resposta HTTP remota; a mensagem de erro é <errorMessage>. Verifique a API REST: <docUrl>. Corrija o problema indicado na mensagem de erro e repita a consulta.
Falha ao avaliar a função SQL <functionName> devido à incapacidade de processar a resposta HTTP remota inesperada; a mensagem de erro é <errorMessage>. Verifique a API REST: <docUrl>. Corrija o problema indicado na mensagem de erro e repita a consulta.
Falha ao avaliar a função SQL <functionName> porque <errorMessage>. Verifique os requisitos em <docUrl>. Corrija o problema indicado na mensagem de erro e repita a consulta.
Não é possível invocar a função <functionName> porque o parâmetro chamado <parameterName> é necessário, mas a chamada de função não forneceu um valor. Atualize a chamada de função para fornecer um valor de argumento (posicionalmente no índice <index> ou por nome) e repita a consulta.
Não é possível criar o <newRoutineType><routineName> porque um <existingRoutineType> desse nome já existe.
Escolha um nome diferente, descarte ou substitua o existente <existingRoutineType>ou adicione a cláusula IF NOT EXISTS para tolerar um .<newRoutineType>
Não foi possível encontrar a rotina <routineName>. Verifique a ortografia e a correção do esquema e do catálogo.
Se você não qualificou o nome com um esquema e um catálogo, verifique a saída current_schema() ou qualifique o nome com o esquema e o catálogo corretos.
Para tolerar o erro na remoção, use DROP … IF EXISTS.
A função <routineName> não pode ser criada porque o nome de classe especificado ‘<className>’ está reservado para uso do sistema. Renomeie a classe e tente novamente.
Uma instrução <statementType> tentou atribuir uma política de segurança em nível de linha a uma tabela, mas duas ou mais colunas referenciadas tinham o mesmo nome <columnName>, o que é inválido.
Não é possível <statementType><columnName> da tabela <tableName> porque ela é referenciada em uma política de segurança em nível de linha. O proprietário da tabela deve remover ou alterar essa política antes de continuar.
Essa instrução tentou atribuir uma política de segurança em nível de linha a uma tabela, mas a coluna <columnName> referenciada tinha várias partes do nome, o que é inválido.
Não há suporte para o uso de uma constante como parâmetro em uma política no nível de linha. Atualize o comando SQL para remover a constante da definição do filtro de linha e tente o comando novamente.
Falha ao executar o comando <statementType>, pois não há suporte para a atribuição de política de segurança em nível de linha para a fonte de dados de destino com o provedor de tabela: “<provider>”.
Não é possível executar o comando <commandType> com uma ou mais referências não criptografadas à função SECRET; criptografe o resultado de cada chamada de função com AES_ENCRYPT e tente o comando novamente
Não é possível inicializar novamente o estado na mesma chave de agrupamento durante o tratamento de estado inicial para processador com estado. Chave de agrupamento inválida=<groupingKey>. Verifique o estado inicial, remova linhas duplicadas e reinicie a consulta.
Falha ao executar a operação da família de colunas=<operationName> com name=<colFamilyName>inválido. O nome da família de colunas não pode estar vazio ou incluir espaços à esquerda/à direita ou usar a palavra-chave reservada=padrão
Número incorreto de ordinais de ordenação=<numOrderingCols> para o codificador de verificação de intervalo. O número de ordinais de ordenação não pode ser zero ou maior que o número de colunas de esquema.
Número incorreto de colunas de prefixo=<numPrefixCols> para o codificador de verificação de prefixo. As colunas de prefixo não podem ser zero ou maiores ou iguais ao número de colunas de esquema.
Não é possível mudar <configName> de <oldConfig> para <newConfig> entre reinicializações. Defina <configName> como <oldConfig>ou reinicie com um novo diretório de ponto de verificação.
Não é possível alterar <stateVarName> para <newType> entre reinicializações de consulta. Defina <stateVarName> como <oldType>ou reinicie com um novo diretório de ponto de verificação.
Nenhum lote confirmado encontrado, local do ponto de verificação: <checkpointLocation>. Verifique se a consulta executou e confirmou qualquer microlote antes de parar.
Falha ao ler os metadados do operador para checkpointLocation=<checkpointLocation> e batchId=<batchId>.
O arquivo não existe ou o arquivo está corrompido.
Execute novamente a consulta de streaming para construir os metadados do operador e relate às comunidades ou fornecedores correspondentes se o erro persistir.
Falha ao ler o esquema de estado. O arquivo não existe ou o arquivo está corrompido. opções: <sourceOptions>.
Execute novamente a consulta de streaming para construir o esquema de estado e relate às comunidades ou fornecedores correspondentes se o erro persistir.
O log de deslocamento para <batchId> não existe; local do ponto de verificação: <checkpointLocation>.
Especifique a ID do lote que está disponível para consulta. Você pode consultar as IDs do lote disponíveis usando a fonte de dados de metadados de estado.
Os metadados não estão disponíveis para o log de deslocamento para <batchId>, local do ponto de verificação: <checkpointLocation>.
O ponto de verificação parece ser executado apenas com versões mais antigas do Spark. Execute a consulta de streaming com a versão recente do Spark, para que o Spark construa os metadados de estado.
O nome do operador com estado de streaming não corresponde ao operador em metadados de estado. Isso provavelmente acontecerá quando o usuário adicionar/remover/alterar o operador com estado da consulta de streaming existente.
Operadores com estado nos metadados: [<OpsInMetadataSeq>]; operadores com estado no lote atual: [<OpsInCurBatchSeq>].
A tabela <tableName> de streaming precisa ser atualizada para executar <operation>. Execute CREATE OR REFRESH STREAMING TABLE <tableName> AS para atualizar a tabela.
A tabela <tableName> de transmissão só pode ser criada a partir de uma consulta de transmissão. Adicione o palavra-chave STREAM à sua cláusula FROM para transformar essa relação em uma consulta de transmissão.
A linha de entrada não tem o número esperado de valores exigidos pelo esquema. <expected> os campos são necessários enquanto <actual> os valores são fornecidos.
A soma da cláusula LIMIT e da cláusula OFFSET não deve ser maior que o valor inteiro máximo de 32 bits (2.147.483.647), mas o limite encontrado = <limit>, deslocamento = <offset>.
Não é possível criar a tabela ou exibição <relationName> porque ela já existe.
Escolha um nome diferente, solte o objeto existente, adicione a cláusula IF NOT EXISTS para tolerar objetos pré-existentes, adicione a cláusula OR REPLACE para substituir a exibição materializada existente ou adicione a cláusula OR REFRESH para atualizar a tabela de streaming existente.
Não é possível <action> usar a função definida pelo usuário do SQL <functionName> com argumentos TABLE porque essa funcionalidade ainda não foi implementada.
Falha ao avaliar a função de tabela <functionName> porque seus metadados de tabela são <requestedMetadata>, mas a função chama <invalidFunctionCallProperty>.
A cláusula LOCATION deve estar presente para o volume externo. Verifique a sintaxe ‘CREATE EXTERNAL VOLUME ... LOCATION ...’ para criar um volume externo.
A consulta falhou porque tentou fazer referência à tabela <tableName>, mas não pôde fazer isso: <failureReason>. Atualize a tabela <tableName> para garantir que ela esteja em um estado de provisionamento ativo e tente novamente a consulta.
A criação de tabela no Catálogo do Unity com esquema de arquivo <schemeName> não tem suporte.
Em vez disso, crie uma conexão de fonte de dados federada usando o comando CREATE CONNECTION para o mesmo provedor de tabela e crie um catálogo com base na conexão com o comando CREATE FOREIGN CATALOG para referenciar as tabelas nela contidas.
A exibição de Federação do Metastore do Hive não oferece suporte a dependências em vários catálogos. Exibir <view> no Hive Metastore O catálogo de federação deve usar a dependência do catálogo hive_metastore ou spark_catalog, mas sua dependência <dependency> está em outro catálogo <referencedCatalog>. Atualize as dependências para atender a essa restrição e, em seguida, repita sua consulta ou comando novamente.
As dependências de <viewName> são registradas como <storedDeps> enquanto são analisadas como <parsedDeps>. Isto provavelmente ocorreu através do uso inadequado de uma API não SQL. Você pode reparar as dependências no Databricks Runtime executando ALTER VIEW <viewName> AS <viewText>.
Limite de UDF em toda a consulta excedido de <maxNumUdfs> UDFs (limitado durante a versão prévia pública). Encontrado <numUdfs>. As UDFs eram: <udfNames>.
Falha ao avaliar a função de tabela definida pelo usuário porque o ‘método de análise’ dela retornou um OrderingColumn solicitado cuja expressão de nome de coluna incluía um alias desnecessário <aliasName>; remova esse alias e tente realizar a consulta novamente.
Falha ao avaliar a função de tabela definida pelo usuário porque seu método 'analyze' retornou uma expressão 'select' (<expression>) que não inclui um alias correspondente; atualize o UDTF para especificar um alias lá e repita a consulta.
Encontrou o parâmetro não associado: <name>. Corrija args e forneça um mapeamento do parâmetro para funções de literal ou construtor de coleção do SQL, como map(), array(), struct().
Não é possível invocar a função <functionName> porque ela contém argumentos posicionais após argumentos nomeados<parameterName>; reorganize-os para que os argumentos posicionais venham primeiro e tentem a consulta novamente.
UNPIVOT exige que todas as expressões <given> fornecidas sejam colunas quando não forem fornecidas expressões <empty>. Essas não são colunas: [<expressions>].
Não é possível invocar a função <functionName> porque a chamada de função incluiu uma referência de argumento nomeado para o argumento chamado <argumentName>, mas essa função não inclui assinaturas que contenha um argumento com esse nome. Você quis dizer um dos seguintes? [<proposal>].
Não é possível inferir o agrupamento de colunas para GROUP BY ALL com base na cláusula de seleção. Especifique explicitamente as colunas de agrupamento.
Não é possível resolver a coluna <objectName> como uma chave de mapear. Se a chave for um literal de cadeia de caracteres, adicione aspas simples ‘’ em seu entorno.
O tipo char/varchar não pode ser usado no esquema de tabela.
Se você quiser que o Spark os trate como tipo de cadeia de caracteres da mesma forma que o Spark 3.0 e anteriores, defina "spark.sql.legacy.charVarcharAsString" como "true".
Não há suporte para a criação de uma tabela <tableName> gerenciada usando o fonte de dados <dataSource>. Você precisa usar a fonte de dados DELTA ou criar uma tabela externa usando CREATE EXTERNAL TABLE <tableName> … USING <dataSource> …
A tabela <tableName> tem uma política de segurança em nível de linha ou máscara de coluna que se refere indiretamente a outra tabela com uma política de segurança em nível de linha ou máscara de coluna. Não há suporte para isso. Sequência de chamada: <callSequence>
Você está usando uma UDF do Scala não tipado, que não tem as informações de tipo de entrada.
O Spark pode passar um valor nulo cegamente para o fechamento do Scala com o argumento de tipo primitivo, e o fechamento verá o valor padrão do tipo Java para o argumento nulo, por exemplo, em udf((x: Int) => x, IntegerType), o resultado é 0 para uma entrada nula. Para se livrar desse erro, você pode:
usar APIs de Scala UDF com tipo (sem parâmetro de tipo de retorno), por exemplo, udf((x: Int) => x).
usar APIs de Java UDF, por exemplo, udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType), se os tipos de entrada forem todos não primitivos.
definir spark.sql.legacy.allowUntypedScalaUDF para “true” e usar essa API com cuidado.
A variável <variableName> não pode ser encontrada. Verifique a ortografia e a correção do esquema e do catálogo.
Se você não qualificou o nome com um esquema e um catálogo, verifique a saída current_schema() ou qualifique o nome com o esquema e o catálogo corretos.
Para tolerar o erro na remoção, use DROP VIEW IF EXISTS.
Não é possível criar variante maior que <sizeLimit> em <functionName>.
Evite cadeias de caracteres de entrada grandes para essa expressão (por exemplo, adicione chamadas de função para verificar o tamanho da expressão e convertê-la em NULL primeiro se ela for muito grande).
O XML não dá suporte a <innerDataType> como tipo interno de <dataType>. Encapsule o <innerDataType> dentro de um campo StructType ao usá-lo dentro de <dataType>.
Falha ao alterar a ordenação da coluna <column> porque ela tem um índice de filtro de bloom. Retenha a ordenação existente ou descarte o índice do filtro de bloom e tente novamente o comando novamente para alterar a ordenação.
Falha ao alterar o agrupamento da coluna <column> porque é uma coluna de clustering. Retenha a ordenação existente ou altere a coluna para uma coluna sem clustering com um comando ALTER TABLE e, em seguida, repita o comando para alterar a ordenação.
Operação não permitida: ALTER TABLE RENAME TO não é permitido para tabelas Delta gerenciadas no S3, pois a consistência eventual no S3 pode corromper o log de transações Delta. Se você insistir em fazer isso e tiver certeza de que nunca houve uma tabela Delta com o novo nome <newName> antes, poderá habilitar isso definindo <key> como true.
Não é possível habilitar o recurso de tabela <tableFeature> usando ALTER TABLE SET TBLPROPERTIES. Use CREATE OR REPLACE TABLE CLUSTER BY para criar uma tabela Delta com clustering.
Não é possível alterar o tipo de dados de <column> de <from> para<to>. Essa alteração contém remoções de coluna e adições, portanto, elas são ambíguas. Faça essas alterações individualmente usando ALTER TABLE [ADD | DROP | RENAME] COLUMN.
A operação “<opName>” não é permitida quando a tabela habilitou o CDF (feed de dados de alterações) e passou por alterações de esquema usando DROP COLUMN ou RENAME COLUMN.
OutOfMemoryError ocorreu durante a gravação de índices de filtro bloom para as seguintes colunas: <columnsWithBloomFilterIndices>.
Você pode reduzir o volume de memória dos índices de filtro de bloom escolhendo um valor menor para a opção 'numItems', um valor maior para a opção 'fpp' ou indexando menos colunas.
Esta tabela está configurada para permitir somente acréscimos. Se você quiser permitir atualizações ou exclusões, use ‘ALTER TABLE <table_name> SET TBLPROPERTIES (<config>=false)’.
<Command> não é possível substituir ou desconfigurar as propriedades da tabela de carimbo de data/hora na confirmação porque as confirmações coordenadas estão habilitadas nesta tabela e dependem delas. Remova-os ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") da cláusula TBLPROPERTIES e tente novamente o comando.
<Command> não é possível substituir configurações de confirmações coordenadas para uma tabela de destino existente. Remova-os ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview", "delta.coordinatedCommits.tableConf-preview") da cláusula TBLPROPERTIES e tente novamente o comando.
Não é possível restaurar a tabela para o carimbo de data/hora (<requestedTimestamp>) como é antes da versão mais antiga disponível. Use um carimbo de data/hora após (<earliestTimestamp>).
Não é possível restaurar a tabela para o carimbo de data/hora (<requestedTimestamp>), pois ele é posterior à versão mais recente disponível. Use um carimbo de data/hora anterior a (<latestTimestamp>)
<Command> não é possível definir propriedades de tabela de carimbo de data/hora na confirmação junto com confirmações coordenadas, porque a última depende da primeira e define a primeira internamente. Remova-os ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") da cláusula TBLPROPERTIES e tente novamente o comando.
ALTER não pode desconfigurar configurações de confirmações coordenadas. Para fazer downgrade de uma tabela de commits coordenados, tente novamente usando ALTER TABLE [table-name] DROP FEATURE 'coordinatedCommits-preview'.
Ocorreu um erro ao inserir um valor de <sourceType> tipo na <targetType> coluna de tipo <columnName> devido a um estouro.
Use try_cast no valor de entrada para tolerar o estouro e retornar NULL.
Se necessário, defina <storeAssignmentPolicyFlag> como "LEGACY" para ignorar esse erro ou defina <updateAndMergeCastingFollowsAnsiEnabledFlag> como true para reverter ao comportamento antigo e siga <ansiEnabledFlag> em UPDATE e MERGE.
A recuperação de alterações de tabela entre as versões <start> e <end> falhou devido a uma alteração de esquema incompatível.
Seu esquema de leitura é <readSchema> na versão <readVersion>, mas encontramos uma alteração de esquema incompatível na versão <incompatibleVersion>.
Se possível, consulte as alterações da tabela separadamente da versão <start> para <incompatibleVersion> - 1, e da versão <incompatibleVersion> para <end>.
Não é possível encontrar um arquivo <filePath> referenciado no log de transações. Isso ocorre quando os dados são excluídos manualmente do sistema de arquivos em vez de usar a instrução da tabela DELETE. Essa solicitação parece estar direcionando o Feed de Dados de Alterações, se esse for o caso, esse erro poderá ocorrer quando o arquivo de dados de alteração estiver fora do período de retenção e tiver sido excluído pela instrução VACUUM. Para obter mais informações, consulte <faqPath>.
O arquivo (<fileName>) não foi copiado integralmente. Tamanho esperado do arquivo: <expectedSize>, encontrado: <actualSize>. Para continuar com a operação ignorando a verificação de tamanho do arquivo, defina <config> como false.
O clustering líquido requer que as colunas de clustering tenham estatísticas. Não foi possível’encontrar colunas de clustering '<columns>' no esquema de estatísticas:
A transição de uma tabela Delta com clustering líquido para uma tabela particionada não é permitida para operação: <operation>, quando a tabela existente tem colunas de clustering não vazias.
Execute ALTER TABLE CLUSTER BY NONE para remover as colunas de clustering primeiro.
CLUSTER BY para clustering Liquid dá suporte a <numColumnsLimit> clustering de colunas , mas a tabela tem <actualNumColumns> clustering de colunas. Remova as colunas extras de agrupamento.
Clustering e particionamento não podem ser especificados. Remova PARTITIONED BY / partitionBy / partitionedBy se você quiser criar uma tabela Delta com clustering.
A propriedade ID de coluna máxima (<prop>) em uma tabela habilitada para mapeamento de coluna é <tableMax>, que não pode ser menor que a ID máxima da coluna para todos os campos (<fieldMax>).
Não é possível localizar a coluna ‘<targetCol>’ da tabela de destino das colunas INSERT: <colNames>. A cláusula INSERT deve especificar o valor para todas as colunas da tabela de destino.
ConcurrentDeleteDeleteException: essa transação tentou excluir um ou mais arquivos que foram excluídos (por exemplo <file>) por uma atualização simultânea. Tente a operação novamente.<conflictingCommit>
ConcurrentDeleteReadException: essa transação tentou ler um ou mais arquivos que foram excluídos (por exemplo <file>) por uma atualização simultânea. Tente a operação novamente.<conflictingCommit>
ConcurrentTransactionException: esse erro ocorre quando várias consultas de streaming estão usando o mesmo ponto de verificação para gravar nesta tabela. Você executou várias instâncias da mesma consulta de streaming ao mesmo tempo?<conflictingCommit>
ConcurrentWriteException: uma transação simultânea gravou novos dados desde que a transação atual leu a tabela. Tente a operação novamente.<conflictingCommit>
Durante <command>o , a configuração "<configuration>" não pode ser definida a partir do comando. Remova-o da cláusula TBLPROPERTIES e tente novamente o comando.
Durante <command>o , a configuração "<configuration>" não pode ser definida nas configurações do SparkSession. Por favor, desconfigure-o executando spark.conf.unset("<configuration>") e tente novamente o comando.
A coluna <columnName> tem tipo de dados <columnType> e não pode ser alterada para o tipo de dados <dataType> porque essa coluna é referenciada pelas seguintes restrições de verificação:
Não é possível remover a restrição inexistente <constraintName> da tabela <tableName>. Para evitar a geração de um erro, forneça o parâmetro IF EXISTS ou defina a configuração da sessão SQL de <config> para <confValue>.
Não foi encontrada nenhuma informação de partição no catálogo da tabela <tableName>. Você executou "MSCK REPAIR TABLE" em sua tabela para descobrir partições?
Não é possível habilitar o recurso de tabela <tableFeature> usando TBLPROPERTIES. Use CREATE OR REPLACE TABLE CLUSTER BY para criar uma tabela Delta com clustering.
Não é possível encontrar um arquivo <filePath> referenciado no log de transações. Esse arquivo parquet pode ser excluído na política de retenção de dados da tabela Delta.
Duração da retenção de dados Delta padrão: <logRetentionPeriod>. Hora de modificação do arquivo parquet: <modificationTime>. Hora de exclusão do arquivo parquet: <deletionTime>. Excluído na versão Delta: <deletionVersion>.
O modo de substituição de partição dinâmica é especificado por opções de gravação ou configuração de sessão, mas é desabilitado por spark.databricks.delta.dynamicPartitionOverwrite.enabled=false.
Não é possível operar nesta tabela porque os seguintes recursos de tabela estão habilitados em metadados, mas não estão listados no protocolo: <features>.
Não é possível habilitar o recurso de tabela <feature> porque ele exige uma versão de protocolo de leitor superior (atual <current>). Considere atualizar a versão do protocolo de leitor da tabela para <required>, ou para uma versão que dê suporte a recursos de tabela de leitor. Consulte <docLink> para obter mais informações sobre versões de protocolo de tabela.
Não é possível habilitar o recurso de tabela <feature> porque ele exige uma versão de protocolo de gravador superior (atual <current>). Considere atualizar a versão do protocolo de gravador da tabela para <required>, ou para uma versão que dê suporte a recursos de tabela de gravador. Consulte <docLink> para obter mais informações sobre versões de protocolo de tabela.
Não é possível encontrar um arquivo <filePath> referenciado no log de transações. Isso ocorre quando os dados são excluídos manualmente do sistema de arquivos em vez de usar a instrução da tabela DELETE. Para obter mais informações, consulte <faqPath>.
A coluna <columnName> tem tipo de dados <columnType> e não pode ser alterada para o tipo de dados <dataType> porque essa coluna é referenciada pelas seguintes colunas geradas:
A coluna <currentName> é uma coluna gerada ou uma coluna usada por uma coluna gerada. O tipo de dados é <currentDataType> e não pode ser convertido para o tipo de dados <updateDataType>
Não é possível gravar para ‘<tableName>’, <columnName>; a tabela de destino tem <numColumns> colunas, mas os dados inseridos têm <insertColumns> colunas
Contagem de buckets inválida: <invalidBucketCount>. A contagem de buckets deve ser um número positivo que é uma potência de 2 e é no mínimo 8. Você pode usar <validBucketCount> em vez dela.
Colunas de partição encontradas com caracteres inválidos entre " ,;{}()nt=". Altere o nome para suas colunas de partição. Essa verificação pode ser desativada definindo spark.conf.set(“spark.databricks.delta.partitionColumnValidity.enabled”, false), no entanto, isso não é recomendado, pois outros recursos do Delta podem não funcionar corretamente.
Versão do protocolo Delta sem suporte: a tabela “<tableNameOrPath>” requer a versão <readerRequired> do leitor e versão <writerRequired> do gravador, mas essa versão do Databricks dá suporte a versões de leitor <supportedReaders> e versões de gravador <supportedWriters>. Atualize para uma versão mais recente.
Se ela nunca foi excluída, é provável que sua consulta apresente atrasos. Exclua o ponto de verificação dela para reiniciar do zero. Para evitar que isso aconteça novamente, é possível atualizar a política de retenção da tabela Delta
Esta tabela tem o recurso <featureName> habilitado que requer a presença da ação CommitInfo em cada confirmação. No entanto, a ação CommitInfo está ausente da versão de confirmação <version>.
Esta tabela tem o recurso <featureName> habilitado que requer a presença de commitTimestamp na ação CommitInfo. No entanto, esse campo não foi definido na versão de confirmação <version>.
Vários argumentos <startingOrEnding> fornecidos para leitura de CDC. Forneça ou o <startingOrEnding>Carimbo de data/hora ou a Versão <startingOrEnding>.
Durante <command>o , ambas as configurações de confirmações coordenadas ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview") são definidas no comando ou nenhuma delas. Faltando: "<configuration>". Especifique essa configuração na cláusula TBLPROPERTIES ou remova a outra configuração e, em seguida, repita o comando novamente.
Durante <command>o , ambas as configurações de confirmações coordenadas ("coordinatedCommits.commitCoordinator-preview", "coordinatedCommits.commitCoordinatorConf-preview") são definidas nas configurações do SparkSession ou em nenhuma delas. Faltando: "<configuration>". Defina essa configuração no SparkSession ou desdefina a outra configuração e repita o comando novamente.
O tipo <nestType> do campo <parent> contém uma restrição NOT NULL. O Delta não dá suporte a restrições NOT NULL aninhadas em matrizes ou mapas. Para suprimir esse erro e ignorar silenciosamente as restrições especificadas, defina <configKey> = true.
O comando <operation> em uma exibição temporária referente a uma tabela Delta que contém colunas geradas não é compatível. Execute o comando <operation> diretamente na tabela Delta
Não é possível atualizar apenas a versão do protocolo de leitor para usar recursos de tabela. A versão do protocolo de gravador deve ser pelo menos <writerVersion> para prosseguir. Consulte <docLink> para obter mais informações sobre versões de protocolo de tabela.
O esquema da tabela não foi fornecido. Forneça o esquema (definição de coluna) da tabela quando usar a tabela REPLACE e uma consulta AS SELECT não for fornecida.
Não é possível encontrar um arquivo <filePath> referenciado no log de transações. Isso ocorre quando os dados são excluídos manualmente do sistema de arquivos em vez de usar a instrução da tabela DELETE. Esta tabela parece ser um clone superficial. Se esse for o caso, esse erro pode ocorrer quando a tabela original da qual esta tabela foi clonada tiver excluído um arquivo que o clone ainda está usando. Se você quiser que os clones sejam independentes da tabela original, use um clone DEEP em vez disso.
Nome inválido para fazer referência a um <type> dentro de um Share. Você pode usar <type>o nome de 's dentro do compartilhamento seguindo o formato de [schema].[<type>], ou também pode usar o nome completo original da tabela seguindo o formato de [catalog].[ esquema]. [>tipo>].
Se você não tiver certeza sobre qual nome usar, você pode executar "MOSTRAR TUDO EM COMPARTILHAR [compartilhar]" e encontrar o nome do <type> para remover: coluna "nome" é o <type>nome do dentro do compartilhamento e coluna "shared_object" é o nome completo original do <type>.
Dados excluídos detectados (por exemplo <removedFile>) da fonte de transmissão na versão <version>. Não há suporte para esse recurso no momento. Se você quiser ignorar exclusões, defina a opção 'ignoreDeletes' como 'true'. A tabela de origem pode ser encontrada no caminho <dataPath>.
Detectou uma atualização de dados (por exemplo <file>) na tabela de origem na versão <version>. Não há suporte para esse recurso no momento. Se isso acontecer regularmente e você não quiser ignorar as alterações, defina a opção ‘skipChangeCommits’ como ‘true’. Se você quiser que a atualização de dados seja refletida, reinicie essa consulta com um novo diretório de ponto de verificação ou atualize tudo se estiver usando DLT. Se você precisar lidar com essas alterações, alterne para MVs. A tabela de origem pode ser encontrada no caminho <dataPath>.
Detectamos uma ou mais alterações de esquema não aditivas (<opType>s) entre a versão <previousSchemaChangeVersion> e <currentSchemaChangeVersion> do Delta na fonte de streaming do Delta.
Verifique se deseja propagar manualmente as alterações de esquema para a tabela do coletor antes de prosseguirmos com o processamento de fluxo usando o esquema finalizado em <currentSchemaChangeVersion>.
Depois de corrigir o esquema da tabela do coletor ou decidir que não há necessidade de corrigir, você pode definir (uma das) seguintes configurações de SQL para desbloquear essas alterações de esquema não aditivas e continuar o processamento da transmissão.
Para desbloquear essa transmissão específica apenas para esta série de alterações de esquema: defina <allowCkptVerKey>` = `<allowCkptVerValue>.
Para desbloquear para essa transmissão específica: defina <allowCkptKey>` = `<allowCkptValue>
Para desbloquear todas as transmissões: defina <allowAllKey>` = `<allowAllValue>.
Como alternativa, se aplicável, você pode substituir <allowAllMode> por <opSpecificMode> na configuração do SQL para desbloquear a transmissão apenas para esse tipo de alteração de esquema.
Houve falha ao obter o instantâneo de log do Delta para a versão inicial ao verificar as alterações de esquema de mapeamento de coluna. Escolha uma versão inicial diferente ou force a habilitação da leitura de transmissão por sua conta e risco definindo ‘<config>’ como ‘true’.
A leitura de transmissão não tem suporte em tabelas com alterações de esquema incompatíveis com a leitura (por exemplo, renomear ou remover ou alterar tipo de dados).
Para obter mais informações e as próximas etapas possíveis para resolver esse problema, examine a documentação em <docLink>
Esquema de leitura: <readSchema>. Esquema de dados incompatível: <incompatibleSchema>.
A leitura de transmissão não tem suporte em tabelas com alterações de esquema incompatíveis com a leitura (por exemplo, renomear ou remover ou alterar tipo de dados).
Forneça um 'schemaTrackingLocation' para habilitar a evolução não aditiva do esquema para o processamento de fluxo Delta.
Confira <docLink> para saber mais.
Esquema de leitura: <readSchema>. Esquema de dados incompatível: <incompatibleSchema>.
<path>: não é possível reconstruir o estado na versão <version> pois o log de transações foi truncado devido à exclusão manual ou à política de retenção de log (<logRetentionKey>=<logRetention>) e à política de retenção do ponto de verificação (<checkpointRetentionKey>=<checkpointRetention>)
Operação não permitida: TRUNCATE TABLE em tabelas Delta não é compatível com predicados de partição. Use DELETE para excluir partições ou linhas específicas.
Esperava <expectedColsSize> colunas de partição: <expectedCols>, mas encontrou <parsedColsSize> colunas de partição: <parsedCols> da análise do nome do arquivo: <path>
CONVERT TO DELTA foi chamado com um esquema de partição diferente daquele deduzido do catálogo, evite fornecer o esquema para que o esquema de partição possa ser escolhido no catálogo.
Foram encontradas colunas usando tipos de dados incompatíveis: <dataTypeList>. Você pode definir ‘<config>’ como ‘false’ para desabilitar a verificação de tipo. Desabilitar essa verificação de tipo pode permitir que os usuários criem tabelas Delta incompatíveis, e esse recurso só deve ser usado ao tentar ler/gravar tabelas herdadas.
Recurso de leitura Delta sem suporte: “<tableNameOrPath>” requer recursos de tabela de leitor incompatíveis com esta versão do Databricks: <unsupported>. Consulte <link> para obter mais informações sobre a compatibilidade de recursos do Delta Lake.
Recurso de gravação Delta sem suporte: “<tableNameOrPath>” requer recursos de tabela de gravador incompatíveis com esta versão do Databricks: <unsupported>. Consulte <link> para obter mais informações sobre a compatibilidade de recursos do Delta Lake.
Os recursos de tabela configurados nas configurações do Spark ou propriedades da tabela Delta a seguir não são reconhecidos por esta versão do Databricks: <configs>.
A atualização de campos aninhados só é compatível com StructType, mas você está tentando atualizar um campo de <columnName>, que é do tipo: <dataType>.
O comando 'GENERATE symlink_format_manifest' não tem suporte em versões de tabela com vetores de exclusão.
Para produzir uma versão da tabela sem vetores de exclusão, execute 'REORG TABLE table APPLY (PURGE)'. Em seguida, execute novamente o comando 'GENERATE'.
Verifique se nenhuma transação simultânea está adicionando vetores de exclusão novamente entre REORG e GENERATE.
Se você precisar gerar manifestos regularmente ou não puder impedir transações simultâneas, considere a desabilitação de vetores de exclusão nesta tabela usando 'ALTER TABLE table SET TBLPROPERTIES (delta.enableDeletionVectors = false)'.
A geração de manifesto não é compatível com tabelas que aproveitam o mapeamento de colunas, pois os leitores externos não podem ler essas tabelas Delta. Confira a documentação do Delta para obter mais detalhes.
Não é possível operar nesta tabela porque uma alteração de tipo sem suporte foi aplicada. O campo <fieldName> foi alterado de <fromType> para <toType>.
Você está tentando executar gravações em uma tabela que foi registrada com o coordenador <coordinatorName>de confirmação. No entanto, nenhuma implementação desse coordenador está disponível no ambiente atual e gravações sem coordenadores não são permitidas.
O modo de evolução do esquema <addNewColumnsMode> não é compatível com a especificação de esquemas. Para usar esse modo, em vez disso, você pode fornecer o esquema por meio de cloudFiles.schemaHints.
Houve um erro ao tentar inferir o esquema de partição da tabela. Você tem a mesma coluna duplicada em seus dados e caminhos de partição. Para ignorar o valor da partição, forneça explicitamente suas colunas de partição usando: .option(“cloudFiles.<partitionColumnsKey>”, “{lista-separada-por-vírgula}”)
Não é possível inferir o esquema quando o caminho de entrada <path> está vazio. Tente iniciar o fluxo quando houver arquivos no caminho de entrada ou especifique o esquema.
Falha ao criar a assinatura: <subscriptionName>. Uma assinatura com o mesmo nome já existe e está associada a outro tópico: <otherTopicName>. O tópico desejado é <proposedTopicName>. Exclua a assinatura existente ou crie uma assinatura com um novo sufixo de recurso.
Falha ao criar o tópico: <topicName>. Já existe um tópico com o mesmo nome.<reason> Remover o tópico existente ou tentar novamente com outro sufixo de recurso
Falha ao excluir a notificação com a ID <notificationId> no bucket <bucketName> para o tópico <topicName>. Tente novamente ou remova manualmente a notificação por meio do console GCP.
Número excessivo de marcas de recurso (<num>) recebidas para o recurso GCP. A contagem máxima de marcas de recurso por recurso é <maxNum>, pois as marcas de recurso são armazenadas como rótulos GCP em recursos, e marcas específicas do Databricks consomem parte dessa cota de rótulos.
O método cloud_files aceita dois parâmetros de cadeia de caracteres obrigatórios: o caminho a ser carregado e o formato de arquivo. As opções de leitor de arquivos devem ser fornecidas em um mapa de valor chave da cadeia de caracteres. por exemplo, cloud_files(“path”, “json”, map(“option1”, “value1”)). Recebido: <params>
Chave de marca de recurso inválida para o recurso GCP: <key>. As chaves precisam começar com uma letra minúscula, ter entre 1 e 63 caracteres e conter apenas letras minúsculas, números, sublinhados (_) e hifens (-).
Valor da marca de recurso inválido para o recurso GCP: <value>. Os valores precisam ter entre 0 e 63 caracteres e conter apenas letras minúsculas, números, sublinhados (_) e hifens (-).
Você solicitou que o Carregador Automático ignorasse os arquivos existentes em seu local externo definindo includeExistingFiles como falsa. No entanto, o serviço de eventos de arquivo gerenciado ainda está descobrindo arquivos existentes em sua localização externa. Tente novamente depois que os eventos de arquivo gerenciado tiverem concluído a descoberta de todos os arquivos em sua localização externa.
Você está usando o Carregador Automático com eventos de arquivo gerenciado, mas parece que o local externo do caminho de entrada ‘<path>’ não tem eventos de arquivo habilitados ou o caminho de entrada é inválido. Solicite ao Administrador do Databricks que habilite eventos de arquivo no local externo para o caminho de entrada.
Você está usando o Carregador Automático com eventos de arquivo gerenciado, mas parece que o local externo do caminho de entrada ‘<path>’ não tem eventos de arquivo habilitados ou o caminho de entrada é inválido. Solicite que o Administrador do Databricks conceda permissões de leitura para o local ou volume externo ou forneça um caminho de entrada válido em um volume ou local externo existente.
O Carregador Automático com eventos de arquivo gerenciado só está disponível no Databricks sem servidor. Para continuar, mova essa carga de trabalho para o Databricks sem servidor ou desative a opção cloudFiles.useManagedFileEvents.
Especifique um esquema usando .schema() se um caminho não for fornecido à fonte CloudFiles ao usar o modo de notificação de arquivo. Como alternativa, para fazer o Carregador Automático inferir o esquema, forneça um caminho base em .load().
Novas colunas de partição foram inferidas de seus arquivos: [<filesList>]. Forneça todas as colunas de partição em seu esquema ou forneça uma lista de colunas de partição para as quais você gostaria de extrair valores usando: .option("cloudFiles.partitionColumns", "{lista-separada-por-vírgula|cadeia-de-caracteres-vazia}")
Houve um erro ao tentar inferir o esquema de partição do lote atual de arquivos. Forneça explicitamente suas colunas de partição usando: .option(“cloudFiles.<partitionColumnOption>”, “{comma-separated-list}”)
Não há suporte para o provisionamento periódico se o provisionamento assíncrono está desabilitado. Você pode habilitar a listagem de diretórios/provisionamento assíncrono definindo spark.databricks.cloudFiles.asyncDirListing como true
Falha ao criar serviços de notificação: o sufixo de recurso só pode ter caracteres alfanuméricos, hifens (-), sublinhados (_), pontos (.), til (~) sinais de adição (+) e sinais percentuais (<percentSign>).
Chave de marca de recurso GCP restrita encontrada (<key>). As seguintes chaves de marca de recurso GCP são restritas para o Carregador Automático: [<restrictedKeys>]
Falha ao criar notificação para tópico: <topic> com o prefixo: <prefix>. Já existe um tópico com o mesmo nome com outro prefixo: <oldPrefix>. Tente usar um sufixo de recurso diferente para configurar ou excluir a configuração existente.
A fonte de arquivos de nuvem só é compatível com caminhos S3, Armazenamento de Blobs do Azure (wasb/wasbs) e Azure Data Lake Gen1 (adl) e Gen2 (abfs/abfss) atualmente. Caminho: ‘<path>’, URI resolvido: ‘<uri>’.
A função cloud_files_state aceita um parâmetro de cadeia de caracteres que representa o diretório do ponto de verificação de um fluxo do cloudFiles ou um tableName de várias partes que identifica uma tabela de fluxo e um segundo parâmetro inteiro opcional que representa a versão do ponto de verificação para a qual carregar o estado. O segundo parâmetro também pode ser "mais recente" para ler o ponto de verificação mais recente. Recebido: <params>
Um evento de renomeação de diretório foi recebido para o caminho <path>, mas não foi possível listar esse diretório com eficiência. Para que o fluxo continue, defina a opção 'cloudFiles.ignoreDirRenames' como true e considere habilitar os provisionamentos comuns com cloudFiles.backfillInterval para que esses dados sejam processados.
A função ‘cloud_files’ SQL para criar uma fonte de streaming do Carregador Automático tem suporte apenas em um pipeline do Delta Live Tables. Confira mais detalhes em:
UnsupportedLogVersion: a versão máxima de log compatível é v<maxVersion>``, but encountered v``<version>. O arquivo de log foi produzido por uma versão mais recente do DBR e não pode ser lido por esta versão. Faça a atualização.
Não há suporte para a leitura de uma tabela Delta com essa sintaxe. Se desejar consumir dados do Delta, consulte os documentos: ler uma tabela Delta (<deltaDocLink>) ou ler uma tabela Delta como uma fonte de transmissão (<streamDeltaDocLink>). A fonte de streaming do Delta já está otimizada para consumo incremental de dados.
Os tipos de dados GEOGRAPHY e GEOMETRY não podem ser retornados em consultas. Use uma das seguintes expressões SQL para convertê-las em formatos de intercâmbio padrão: <projectionExprs>.
Saiba mais sobre os erros SQLSTATE no Azure Databricks. Um SQLSTATE é uma codificação padrão SQL para condições de erro usadas por JDBC, ODBC e outras APIs de cliente.