Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
As seguintes funcionalidades e melhorias do Databricks SQL foram lançadas em 2026.
Fevereiro de 2026
Databricks SQL versão 2025.40 está a ser implementada em Current
23 de fevereiro de 2026
A versão 2025.40 do Databricks SQL está a ser implementada no canal Current. Veja as reportagens em 2025.40.
A versão 2025.40 do Databricks SQL está agora disponível em Pré-visualização
11 de fevereiro de 2026
A versão 2025.40 do SQL do Databricks está agora disponível no canal de Pré-visualização . Consulte a seção a seguir para saber mais sobre novos recursos, mudanças comportamentais e correções de bugs.
SQL scripting está geralmente disponível
SQL scripting está agora geralmente disponível. Escreva lógica procedural com SQL, incluindo instruções condicionais, ciclos, variáveis locais e tratamento de exceções.
Marcadores de parâmetros agora suportados em mais contextos SQL
Agora pode usar marcadores de parâmetros nomeados (:param) e não nomeados (?) em qualquer lugar onde seja permitido um valor literal do tipo apropriado. Isto inclui instruções DDL como CREATE VIEW v AS SELECT ? AS c1, tipos de colunas como DECIMAL(:p, :s), e comentários como COMMENT ON t IS :comment. Isto permite-lhe parametrizar uma grande variedade de instruções SQL sem expor o seu código a ataques de injeção SQL.
Ver Marcadores de parâmetros.
IDENTIFIER cláusula expandida para mais contextos SQL
A cláusula IDENTIFIER, que converte strings em nomes de objetos SQL, é agora suportada em quase todos os contextos em que um identificador é permitido. Combinado com suporte expandido para combinação de marcadores de parâmetros e cadeias literais, pode parametrizar qualquer coisa, desde aliases de colunas (AS IDENTIFIER(:name)) até definições de colunas (IDENTIFIER(:pk) BIGINT NOT NULL). Consulte a cláusula IDENTIFIER.
A coalescência literal das cordas é suportada em todo o lado
Literais sequenciais de cadeia como 'Hello' ' World' agora fundem-se em 'Hello World' em qualquer contexto onde os literais de cadeia sejam permitidos, incluindo COMMENT 'This' ' is a ' 'comment'. Consulte STRING tipo.
Nova função BITMAP_AND_AGG
Uma nova função BITMAP_AND_AGG está agora disponível para complementar a biblioteca de BITMAP funções existente.
Novas funções Theta Sketch para contagens aproximadas distintas
Uma nova biblioteca de funções para operações aproximadas de contagem e conjunto distintas usando o Datasketches Theta Sketches está agora disponível:
-
theta_sketch_aggfunção de agregação -
theta_union_aggfunção de agregação -
theta_intersection_aggfunção de agregação -
theta_sketch_estimateFunção -
theta_unionFunção -
theta_differenceFunção -
theta_intersectionFunção
Novas funções KLL Sketch para quantiles aproximados
Uma nova biblioteca de funções para construir KLL Sketches para computação aproximada de quantis está agora disponível.
-
kll_sketch_agg_bigintfunção de agregação -
kll_sketch_get_quantile_bigintFunção -
kll_sketch_merge_bigintFunção -
kll_sketch_agg_doublefunção de agregação -
kll_sketch_get_quantile_doubleFunção -
kll_sketch_merge_doubleFunção -
kll_sketch_agg_floatfunção de agregação -
kll_sketch_get_quantile_floatFunção -
kll_sketch_merge_floatFunção -
kll_sketch_get_n_bigintFunção -
kll_sketch_get_rank_bigintFunção -
kll_sketch_to_string_bigintFunção -
kll_sketch_get_n_doubleFunção -
kll_sketch_get_rank_doubleFunção -
kll_sketch_to_string_doubleFunção -
kll_sketch_get_n_floatFunção -
kll_sketch_get_rank_floatFunção -
kll_sketch_to_string_floatFunção
Pode combinar múltiplos esboços KLL num contexto de agregação usando kll_merge_agg_bigint, kll_merge_agg_double e kll_merge_agg_float.
Funções de janela SQL em vistas métricas
Agora pode usar funções SQL de janela em vistas métricas para calcular totais acumulados, classificações e outros cálculos com base em janelas.
Novas funções geoespaciais
As seguintes novas funções geoespaciais estão agora disponíveis:
-
st_azimuthfunção: Devolve o azimute baseado no norte do primeiro ponto para o segundo em radianos em[0, 2π). -
st_boundaryfunção: Devolve a fronteira da geometria de entrada. -
st_closestpointfunção: Devolve a projeção 2D de um ponto na primeira geometria que está mais próximo da segunda geometria. -
st_geogfromewktfunção: Interpreta uma descrição geográfica em Extended Well-Known Text (EWKT). -
st_geomfromewktfunção: Analisa uma descrição em Texto Well-Known Estendido (EWKT) de uma geometria.
Suporte de entrada EWKT para funções de geometria e geografia existentes
As seguintes funções agora aceitam Extended Well-Known Text (EWKT) como entrada:
Desempenho melhorado para consultas repetidas sobre tabelas com filtros de linhas e máscaras de coluna
Consultas elegíveis repetidas sobre tabelas com filtros de linhas e máscaras de colunas beneficiam agora de uma melhoria na cache dos resultados das consultas, resultando em tempos de execução mais rápidos.
Melhoria do desempenho da função geoespacial
O desempenho da junção espacial é melhorado com suporte para junção espacial embaralhada. As seguintes funções ST têm agora implementações Photon:
FSCK REPAIR TABLE inclui reparação de metadados por padrão
FSCK REPAIR TABLE Agora inclui um passo inicial de reparação de metadados antes de verificar ficheiros de dados em falta, permitindo que funcione em tabelas com checkpoints corrompidos ou valores de partição inválidos. Além disso, a dataFilePath coluna no FSCK REPAIR TABLE DRY RUN esquema de saída é agora anulável para suportar novos tipos de questão em que o caminho do ficheiro de dados não se aplica.
DESCRIBE TABLE A saída inclui a coluna de metadados
A saída de DESCRIBE TABLE [EXTENDED] agora inclui uma metadata coluna para todos os tipos de tabela. Esta coluna contém metadados semânticos (nome de visualização, formato e sinónimos) definidos na tabela como uma cadeia JSON.
Estruturas NULL preservadas em MERGE, UPDATE, e operações de escrita em streaming
As estruturas NULL são agora preservadas como NULL em Delta Lake MERGE, UPDATE, e operações de escrita em streaming que incluem casts de tipos de struct. Anteriormente, as estruturas NULL eram expandidas para estruturas com todos os campos definidos como NULL.
Colunas de partição materializadas nos ficheiros Parquet
Tabelas Delta Lake particionadas agora materializam colunas de partição em ficheiros de dados Parquet recém-escritos. Anteriormente, os valores das partições eram armazenados apenas nos metadados do registo de transações do Delta Lake. Cargas de trabalho que leem diretamente ficheiros Parquet, escritos pela Delta Lake, veem colunas de partição adicionais em ficheiros recém-escritos.
Os valores das partições de carimbo temporal respeitam o fuso horário da sessão
Os valores das partições de timestamp são agora ajustados corretamente usando a configuração spark.sql.session.timeZone. Anteriormente, eram convertidos incorretamente para UTC usando o fuso horário da JVM.
Restrições de viagem no tempo atualizadas
O Azure Databricks bloqueia agora consultas de viagem no tempo para além do deletedFileRetentionDuration limiar para todas as tabelas. O VACUUM comando ignora o argumento da duração de retenção, exceto quando o valor é 0 horas. Não pode definir deletedFileRetentionDuration maior que logRetentionDuration.
SHOW TABLES DROPPED Respeita LIMIT a cláusula
SHOW TABLES DROPPED agora respeita corretamente a LIMIT cláusula.