Partage via


Notes de publication de Databricks SQL 2026

Les fonctionnalités et améliorations de Databricks SQL suivantes ont été publiées en 2026.

Février 2026

Databricks SQL version 2025.40 est déployée dans Current

23 février 2026

Databricks SQL version 2025.40 est en cours de déploiement sur le canal Actuel. Consultez les fonctionnalités de la version 2025.40.

Databricks SQL version 2025.40 est désormais disponible en préversion

11 février 2026

Databricks SQL version 2025.40 est désormais disponible dans le canal d’évaluation . Passez en revue la section suivante pour en savoir plus sur les nouvelles fonctionnalités, les modifications comportementales et les correctifs de bogues.

Le script SQL est généralement disponible

Le script SQL est désormais en disponibilité générale. Écrivez une logique procédurale avec SQL, notamment des instructions conditionnelles, des boucles, des variables locales et la gestion des exceptions.

Marqueurs de paramètres désormais pris en charge dans d’autres contextes SQL

Vous pouvez maintenant utiliser des marqueurs de paramètres nommés (:param) et non nommés (?) n’importe où une valeur littérale du type approprié est autorisée. Cela inclut des instructions DDL telles que CREATE VIEW v AS SELECT ? AS c1, des types de colonnes tels que DECIMAL(:p, :s), et des commentaires tels que COMMENT ON t IS :comment. Cela vous permet de paramétrer une grande variété d’instructions SQL sans exposer votre code aux attaques par injection SQL. Consultez les marqueurs de paramètre.

IDENTIFIER clause développée vers d’autres contextes SQL

La IDENTIFIER clause, qui convertit les chaînes en noms d’objets SQL, est désormais prise en charge dans presque tous les contextes où un identificateur est autorisé. Combiné avec la prise en charge élargie des marqueurs de paramètre et du rassemblement des chaînes littérales, vous pouvez paramétrer n’importe quoi, des alias de colonne (AS IDENTIFIER(:name)) aux définitions de colonne (IDENTIFIER(:pk) BIGINT NOT NULL). Consultez la clause IDENTIFIER.

Fusion de chaîne littérale prise en charge partout

Littéraux de chaîne séquentiels tels que 'Hello' ' World' se combinent maintenant avec 'Hello World' dans tout contexte où les littéraux de chaîne sont autorisés, y compris COMMENT 'This' ' is a ' 'comment'. Voir STRING type.

Nouvelle fonction BITMAP_AND_AGG

Une nouvelle fonction BITMAP_AND_AGG est désormais disponible pour compléter la bibliothèque existante de BITMAP fonctions.

Nouvelles fonctions Theta Sketch pour des nombres distincts approximatifs

Une nouvelle bibliothèque de fonctions pour le comptage approximatif des éléments distincts et les opérations sur des ensembles en utilisant Datasketches Theta Sketch est désormais disponible :

Nouvelles fonctions de croquis KLL pour les quantiles approximatifs

Une nouvelle bibliothèque de fonctions permettant de générer des croquis KLL pour un calcul quantile approximatif est désormais disponible :

Vous pouvez fusionner plusieurs croquis KLL dans un contexte d’agrégation à l’aide de kll_merge_agg_bigint, de kll_merge_agg_double et de kll_merge_agg_float.

Fonctions de fenêtre SQL dans les vues de métriques

Vous pouvez désormais utiliser des fonctions de fenêtre SQL dans les vues de métriques pour calculer les totaux en cours d’exécution, les classements et d’autres calculs basés sur des fenêtres.

Nouvelles fonctions géospatiales

Les nouvelles fonctions géospatiales suivantes sont désormais disponibles :

Prise en charge des entrées EWKT pour les fonctions géométriques et géographiques existantes

Les fonctions suivantes acceptent désormais le texte étendu Well-Known (EWKT) comme entrée :

Amélioration des performances pour les requêtes répétées sur des tables avec des filtres de lignes et des masques de colonne

Les requêtes éligibles répétées sur des tables avec des filtres de lignes et des masques de colonne bénéficient désormais d’une mise en cache améliorée des résultats des requêtes, ce qui accélère l’exécution.

Amélioration des performances des fonctions géospatiales

Les performances de jointure spatiale sont améliorées avec la prise en charge de la jointure spatiale redistribuée. Les fonctions ST suivantes ont désormais des implémentations Photon :

FSCK REPAIR TABLE inclut la réparation des métadonnées par défaut

FSCK REPAIR TABLE inclut désormais une étape de réparation des métadonnées initiale avant de vérifier les fichiers de données manquants, ce qui lui permet de travailler sur des tables avec des points de contrôle endommagés ou des valeurs de partition non valides. En outre, la dataFilePath colonne du FSCK REPAIR TABLE DRY RUN schéma de sortie est désormais nullable pour prendre en charge de nouveaux types de problèmes où le chemin d’accès au fichier de données n’est pas applicable.

DESCRIBE TABLE la sortie inclut la colonne de métadonnées

La sortie de DESCRIBE TABLE [EXTENDED] inclut maintenant une colonne metadata pour tous les types de tables. Cette colonne contient des métadonnées sémantiques (nom d’affichage, format et synonymes) définies sur la table en tant que chaîne JSON.

Structs NULL conservés dans MERGE, UPDATE, et les opérations d'écriture en flux

Les structs NULL sont désormais conservés comme NULL dans Delta LakeMERGEUPDATE, ainsi que dans les opérations d’écriture en streaming qui incluent des casts de type struct. Auparavant, les structures NULL étaient transformées en structures avec tous les champs définis sur NULL.

Colonnes de partition matérialisées dans des fichiers Parquet

Les tables Delta Lake partitionnées matérialisent maintenant les colonnes de partition dans les fichiers de données Parquet récemment écrits. Auparavant, les valeurs de partition étaient stockées uniquement dans les métadonnées du journal des transactions Delta Lake. Les charges de travail qui lisent directement les fichiers Parquet écrits par Delta Lake voient des colonnes de partition supplémentaires dans les fichiers nouvellement écrits.

Les valeurs de partition timestamp respectent le fuseau horaire de session

Les valeurs de partition d’horodatage sont désormais correctement ajustées à l’aide de la spark.sql.session.timeZone configuration. Auparavant, ils étaient convertis incorrectement en UTC à l’aide du fuseau horaire JVM.

Restrictions de voyage temporelle mises à jour

Azure Databricks bloque désormais les requêtes de voyage dans le temps au-delà du deletedFileRetentionDuration seuil pour toutes les tables. La VACUUM commande ignore l’argument de durée de rétention, sauf lorsque la valeur est de 0 heures. Vous ne pouvez pas définir deletedFileRetentionDuration plus grand que logRetentionDuration.

SHOW TABLES DROPPED respecte la disposition de LIMIT

SHOW TABLES DROPPED respecte maintenant correctement la LIMIT clause.

Janvier 2026