Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Os recursos e melhorias do SQL do Databricks a seguir foram lançados em 2026.
Fevereiro de 2026
O Databricks SQL versão 2025.40 está sendo implantado no Current
23 de fevereiro de 2026
O Databricks SQL versão 2025.40 está sendo distribuído para o canal Atual . Confira os recursos em 2025.40.
O Databricks SQL versão 2025.40 agora está disponível na versão prévia
11 de fevereiro de 2026
O Databricks SQL versão 2025.40 agora está disponível no canal versão prévia . Examine a seção a seguir para saber mais sobre novos recursos, alterações comportamentais e correções de bugs.
O script SQL está amplamente disponível.
O script SQL agora está disponível em geral. Escreva lógica de procedimento com SQL, incluindo instruções condicionais, loops, variáveis locais e tratamento de exceções.
Os marcadores de parâmetro agora têm suporte em mais contextos SQL
Agora você pode usar marcadores de parâmetro nomeados (:param) e não nomeados (?) em qualquer lugar em que um valor literal do tipo apropriado é permitido. Isso inclui instruções DDL, como CREATE VIEW v AS SELECT ? AS c1, tipos de coluna, como DECIMAL(:p, :s), e comentários, como COMMENT ON t IS :comment. Isso permite que você parametrize uma grande variedade de instruções SQL sem expor seu código a ataques de injeção de SQL. Consulte marcadores de parâmetros.
IDENTIFIER cláusula expandida para mais contextos SQL
A IDENTIFIER cláusula, que converte cadeias de caracteres em nomes de objeto SQL, agora tem suporte em quase todos os contextos em que um identificador é permitido. Combinado com o marcador de parâmetro expandido e o suporte à associação de cadeia de caracteres literal, você pode parametrizar qualquer coisa, desde aliases de coluna (AS IDENTIFIER(:name)) até definições de coluna (IDENTIFIER(:pk) BIGINT NOT NULL). Consulte a cláusula IDENTIFIER.
Mesclagem de cadeia de caracteres literal com suporte em todas as plataformas
Literais de cadeia de caracteres sequenciais, como 'Hello' ' World', agora se agrupam em 'Hello World' em qualquer contexto em que literais de cadeia de caracteres são permitidos, incluindo COMMENT 'This' ' is a ' 'comment'. Consulte STRING tipo.
Nova função de BITMAP_AND_AGG
Uma nova função BITMAP_AND_AGG agora está disponível para complementar a biblioteca de BITMAP funções existente.
Novas funções Theta Sketch para contagens distintas aproximadas
Uma nova biblioteca de funções para operações aproximadas de contagem distinta e de conjunto, usando o Theta Sketch do Datasketches, agora está disponível.
-
theta_sketch_aggfunção de agregação -
theta_union_aggfunção de agregação -
theta_intersection_aggfunção de agregação -
theta_sketch_estimatefunção -
theta_unionfunção -
theta_differencefunção -
theta_intersectionfunção
Novas funções de esboço kll para quantiles aproximados
Uma nova biblioteca de funções para a criação de Esboços KLL para cálculo de quantis aproximados agora está disponível.
-
kll_sketch_agg_bigintfunção de agregação -
kll_sketch_get_quantile_bigintfunção -
kll_sketch_merge_bigintfunção -
kll_sketch_agg_doublefunção de agregação -
kll_sketch_get_quantile_doublefunção -
kll_sketch_merge_doublefunção -
kll_sketch_agg_floatfunção de agregação -
kll_sketch_get_quantile_floatfunção -
kll_sketch_merge_floatfunção -
kll_sketch_get_n_bigintfunção -
kll_sketch_get_rank_bigintfunção -
kll_sketch_to_string_bigintfunção -
kll_sketch_get_n_doublefunção -
kll_sketch_get_rank_doublefunção -
kll_sketch_to_string_doublefunção -
kll_sketch_get_n_floatfunção -
kll_sketch_get_rank_floatfunção -
kll_sketch_to_string_floatfunção
Você pode mesclar vários esboços KLL em um contexto de agregação usando kll_merge_agg_bigint, kll_merge_agg_double e kll_merge_agg_float.
Funções da janela SQL em exibições de métrica
Agora você pode usar funções de janela SQL em exibições de métrica para calcular totais em execução, classificações e outros cálculos baseados em janela.
Novas funções geoespaciais
As seguintes novas funções geoespaciais agora estão disponíveis:
-
st_azimuthfunção: retorna o azimute baseado no norte do primeiro ponto para o segundo em radianos em[0, 2π). -
st_boundaryfunção: retorna o limite da geometria de entrada. -
st_closestpointfunção: retorna a projeção 2D de um ponto na primeira geometria mais próxima da segunda geometria. -
st_geogfromewktfunção: analisa uma descrição EWKT (Texto Well-Known Estendido) de uma geografia. -
st_geomfromewktfunção: analisa uma descrição de geometria pelo EWKT (Extended Well-Known Text).
Suporte de entrada EWKT para funções de geometria e geografia existentes
As seguintes funções agora aceitam Texto Bem-Conhecido Estendido (EWKT) como entrada:
Desempenho aprimorado para consultas repetidas em tabelas com filtros de linha e máscaras de coluna
Consultas qualificadas repetidas em tabelas com filtros de linha e máscaras de coluna agora se beneficiam de um cache de resultados de consulta aprimorado, resultando em tempos de execução mais rápidos.
Desempenho aprimorado da função geoespacial
O desempenho de junção espacial é aprimorado com suporte para junção espacial com embaralhamento. As seguintes funções ST agora têm implementações de Photon:
FSCK REPAIR TABLE inclui reparo de metadados por padrão
FSCK REPAIR TABLE agora inclui uma etapa inicial de reparo de metadados antes de verificar se há arquivos de dados ausentes, permitindo que ele funcione em tabelas com pontos de verificação corrompidos ou valores de partição inválidos. Além disso, a dataFilePath coluna no FSCK REPAIR TABLE DRY RUN esquema de saída agora aceita valor nulo para dar suporte a novos tipos de questões em que o caminho do arquivo de dados não é aplicável.
DESCRIBE TABLE a saída inclui a coluna de metadados
A saída de DESCRIBE TABLE [EXTENDED] agora inclui uma coluna de metadata para todos os tipos de tabela. Esta coluna contém metadados semânticos (nome de exibição, formato e sinônimos) definidos na tabela como uma cadeia de caracteres JSON.
Structs NULL preservadas em operações de mesclagem, UPDATE, e operações de escrita em fluxo
Os structs NULL agora são mantidos como NULL no Delta Lake MERGE, UPDATE e operações de gravação de streaming que incluem conversões para o tipo struct. Anteriormente, os structs NULL eram expandidos para structs com todos os campos definidos como NULL.
Colunas de partição materializadas em arquivos Parquet
As tabelas particionadas do Delta Lake agora materializam colunas de partições em arquivos de dados Parquet recém-gravados. Anteriormente, os valores de partição eram armazenados apenas nos metadados do log de transações do Delta Lake. As cargas de trabalho que leem diretamente arquivos Parquet gravados pelo Delta Lake veem colunas de partição adicionais em arquivos gravados recentemente.
Valores de partição de carimbo de data/hora respeitam o fuso horário da sessão
Agora, os valores de partição de carimbo de data/hora são ajustados corretamente usando a configuração spark.sql.session.timeZone. Anteriormente, eles eram convertidos incorretamente em UTC usando o fuso horário JVM.
Restrições de viagem no tempo atualizadas
O Azure Databricks agora bloqueia consultas de viagem no tempo que excedam o deletedFileRetentionDuration limite para todas as tabelas. O VACUUM comando ignora o argumento de duração de retenção, exceto quando o valor é de 0 horas. Você não pode definir deletedFileRetentionDuration maior que logRetentionDuration.
SHOW TABLES DROPPED respeita a cláusula LIMIT
SHOW TABLES DROPPED agora respeita corretamente a LIMIT cláusula.