Partilhar via


Notas de lançamento do Databricks SQL 2026

As seguintes funcionalidades e melhorias do Databricks SQL foram lançadas em 2026.

Fevereiro de 2026

Databricks SQL versão 2025.40 está a ser implementada em Current

23 de fevereiro de 2026

A versão 2025.40 do Databricks SQL está a ser implementada no canal Current. Veja as reportagens em 2025.40.

A versão 2025.40 do Databricks SQL está agora disponível em Pré-visualização

11 de fevereiro de 2026

A versão 2025.40 do SQL do Databricks está agora disponível no canal de Pré-visualização . Consulte a seção a seguir para saber mais sobre novos recursos, mudanças comportamentais e correções de bugs.

SQL scripting está geralmente disponível

SQL scripting está agora geralmente disponível. Escreva lógica procedural com SQL, incluindo instruções condicionais, ciclos, variáveis locais e tratamento de exceções.

Marcadores de parâmetros agora suportados em mais contextos SQL

Agora pode usar marcadores de parâmetros nomeados (:param) e não nomeados (?) em qualquer lugar onde seja permitido um valor literal do tipo apropriado. Isto inclui instruções DDL como CREATE VIEW v AS SELECT ? AS c1, tipos de colunas como DECIMAL(:p, :s), e comentários como COMMENT ON t IS :comment. Isto permite-lhe parametrizar uma grande variedade de instruções SQL sem expor o seu código a ataques de injeção SQL. Ver Marcadores de parâmetros.

IDENTIFIER cláusula expandida para mais contextos SQL

A cláusula IDENTIFIER, que converte strings em nomes de objetos SQL, é agora suportada em quase todos os contextos em que um identificador é permitido. Combinado com suporte expandido para combinação de marcadores de parâmetros e cadeias literais, pode parametrizar qualquer coisa, desde aliases de colunas (AS IDENTIFIER(:name)) até definições de colunas (IDENTIFIER(:pk) BIGINT NOT NULL). Consulte a cláusula IDENTIFIER.

A coalescência literal das cordas é suportada em todo o lado

Literais sequenciais de cadeia como 'Hello' ' World' agora fundem-se em 'Hello World' em qualquer contexto onde os literais de cadeia sejam permitidos, incluindo COMMENT 'This' ' is a ' 'comment'. Consulte STRING tipo.

Nova função BITMAP_AND_AGG

Uma nova função BITMAP_AND_AGG está agora disponível para complementar a biblioteca de BITMAP funções existente.

Novas funções Theta Sketch para contagens aproximadas distintas

Uma nova biblioteca de funções para operações aproximadas de contagem e conjunto distintas usando o Datasketches Theta Sketches está agora disponível:

Novas funções KLL Sketch para quantiles aproximados

Uma nova biblioteca de funções para construir KLL Sketches para computação aproximada de quantis está agora disponível.

Pode combinar múltiplos esboços KLL num contexto de agregação usando kll_merge_agg_bigint, kll_merge_agg_double e kll_merge_agg_float.

Funções de janela SQL em vistas métricas

Agora pode usar funções SQL de janela em vistas métricas para calcular totais acumulados, classificações e outros cálculos com base em janelas.

Novas funções geoespaciais

As seguintes novas funções geoespaciais estão agora disponíveis:

Suporte de entrada EWKT para funções de geometria e geografia existentes

As seguintes funções agora aceitam Extended Well-Known Text (EWKT) como entrada:

Desempenho melhorado para consultas repetidas sobre tabelas com filtros de linhas e máscaras de coluna

Consultas elegíveis repetidas sobre tabelas com filtros de linhas e máscaras de colunas beneficiam agora de uma melhoria na cache dos resultados das consultas, resultando em tempos de execução mais rápidos.

Melhoria do desempenho da função geoespacial

O desempenho da junção espacial é melhorado com suporte para junção espacial embaralhada. As seguintes funções ST têm agora implementações Photon:

FSCK REPAIR TABLE inclui reparação de metadados por padrão

FSCK REPAIR TABLE Agora inclui um passo inicial de reparação de metadados antes de verificar ficheiros de dados em falta, permitindo que funcione em tabelas com checkpoints corrompidos ou valores de partição inválidos. Além disso, a dataFilePath coluna no FSCK REPAIR TABLE DRY RUN esquema de saída é agora anulável para suportar novos tipos de questão em que o caminho do ficheiro de dados não se aplica.

DESCRIBE TABLE A saída inclui a coluna de metadados

A saída de DESCRIBE TABLE [EXTENDED] agora inclui uma metadata coluna para todos os tipos de tabela. Esta coluna contém metadados semânticos (nome de visualização, formato e sinónimos) definidos na tabela como uma cadeia JSON.

Estruturas NULL preservadas em MERGE, UPDATE, e operações de escrita em streaming

As estruturas NULL são agora preservadas como NULL em Delta Lake MERGE, UPDATE, e operações de escrita em streaming que incluem casts de tipos de struct. Anteriormente, as estruturas NULL eram expandidas para estruturas com todos os campos definidos como NULL.

Colunas de partição materializadas nos ficheiros Parquet

Tabelas Delta Lake particionadas agora materializam colunas de partição em ficheiros de dados Parquet recém-escritos. Anteriormente, os valores das partições eram armazenados apenas nos metadados do registo de transações do Delta Lake. Cargas de trabalho que leem diretamente ficheiros Parquet, escritos pela Delta Lake, veem colunas de partição adicionais em ficheiros recém-escritos.

Os valores das partições de carimbo temporal respeitam o fuso horário da sessão

Os valores das partições de timestamp são agora ajustados corretamente usando a configuração spark.sql.session.timeZone. Anteriormente, eram convertidos incorretamente para UTC usando o fuso horário da JVM.

Restrições de viagem no tempo atualizadas

O Azure Databricks bloqueia agora consultas de viagem no tempo para além do deletedFileRetentionDuration limiar para todas as tabelas. O VACUUM comando ignora o argumento da duração de retenção, exceto quando o valor é 0 horas. Não pode definir deletedFileRetentionDuration maior que logRetentionDuration.

SHOW TABLES DROPPED Respeita LIMIT a cláusula

SHOW TABLES DROPPED agora respeita corretamente a LIMIT cláusula.

Janeiro de 2026