Partager via


Notes de publication de Databricks SQL

Cet article répertorie les nouvelles fonctionnalités et améliorations de Databricks SQL, ainsi que les problèmes connus et les FAQ.

Processus de mise en production

Databricks publie des mises à jour de l’interface utilisateur de l’application web Databricks SQL de manière continue, avec tous les utilisateurs obtenant les mêmes mises à jour déployées sur une brève période de temps.

En outre, Databricks publie régulièrement de nouvelles versions de la capacité de calcul d’entrepôt SQL. Deux canaux sont toujours disponibles : aperçu et actuel.

Notes

Les publications se font par étapes. Votre compte Databricks peut ne pas être mis à jour avec une nouvelle version de SQL Warehouse ou une nouvelle fonctionnalité Databricks SQL jusqu’à une semaine ou plus après la date de publication initiale.

Notes

Databricks SQL Serverless n’est pas disponible dans Azure Chine. Databricks SQL n’est pas disponible dans les régions Azure Government.

Chaînes

Les chaînes vous permettent de choisir d’utiliser la version de capacité de calcul d’entrepôt SQL Actuelle ou en Préversion. Les versions préliminaires vous permettent d’essayer des fonctionnalités avant qu’elles ne deviennent la norme pour Databricks SQL. Profitez des versions préliminaires pour tester vos requêtes et tableaux de bord de production par rapport aux changements à venir.

En règle générale, une version d’évaluation est promue au canal actuel environ deux semaines après avoir été libérée dans le canal de préversion. Certaines fonctionnalités, telles que les fonctionnalités de sécurité, les mises à jour de maintenance et les correctifs de bogues, peuvent être publiées directement sur le canal actuel. De temps à autre, Databricks peut promouvoir une version préliminaire du canal actuel selon une planification différente. Chaque nouvelle version sera annoncée dans les sections suivantes.

Pour savoir comment basculer un entrepôt SQL existant vers le canal de préversion, consultez Canaux de préversion. Les fonctionnalités listées dans les sections des mises à jour de l’interface utilisateur sont indépendantes des versions de capacité de calcul d’entrepôt SQL décrites dans la section Canaux des notes de publication.

Versions de Databricks SQL disponibles

Chaîne actuelle: Databricks SQL version 2024.50

Canal de préversion : Databricks SQL version 2024.50

  • Consultez les fonctionnalités de 2024.50.

30 janvier 2025

Les fonctionnalités et mises à jour suivantes ont été publiées au cours de la semaine du 30 janvier 2025.

Mises à jour de l’interface utilisateur

Entrepôt SQL

Un graphique sur le Nombre de requêtes complétées (préversion publique) est désormais disponible dans l’IU de surveillance de l’entrepôt SQL. Ce nouveau graphique affiche le nombre de requêtes terminées dans une fenêtre de temps, y compris les requêtes annulées et ayant échoué. Le graphique peut être utilisé avec les autres graphiques et la table Historique des requêtes pour évaluer et dépanner les performances de l’entrepôt. La requête est attribuée à la fenêtre temporelle dans laquelle elle est terminée. Les nombres sont moyens par minute. Pour plus d’informations, consultez Surveiller un entrepôt SQL.

éditeur SQL

  • Affichage des données étendues dans les graphiques : les visualisations créées dans l'éditeur SQL prennent désormais en charge jusqu'à 15 000 lignes de données.

23 janvier 2025

Les fonctionnalités et mises à jour suivantes ont été publiées au cours de la semaine du 23 janvier 2025.

Changements dans 2024.50

Databricks SQL version 2024.50 inclut les modifications comportementales suivantes, les nouvelles fonctionnalités et les améliorations.

Modifications de comportement

  • Le type de données VARIANT ne peut plus être utilisé avec des opérations nécessitant des comparaisons

Vous ne pouvez pas utiliser les clauses ou opérateurs suivants dans les requêtes incluant un type de données VARIANT :

  • DISTINCT
  • INTERSECT
  • EXCEPT
  • UNION
  • DISTRIBUTE BY

Ces opérations effectuent des comparaisons, et les comparaisons utilisant le type de données VARIANT produisent des résultats indéfinis et ne sont pas prises en charge dans Databricks. Si vous utilisez le type VARIANT dans vos charges de travail ou tables Azure Databricks, Databricks recommande les modifications suivantes :

  • Mettez à jour les requêtes ou expressions pour convertir explicitement des valeurs VARIANT en types de données nonVARIANT.
  • Si vous avez des champs devant être utilisés avec l’une des opérations ci-dessus, extrayez ces champs du type de données VARIANT et stockez-les à l’aide de types de données nonVARIANT.

Pour plus d'informations, consultez les données de variante de requête .

Améliorations et nouvelles fonctionnalités

  • Prise en charge du paramétrage de la clause USE CATALOG with IDENTIFIER

La clause IDENTIFIER est prise en charge pour l’instruction USE CATALOG. Avec cette prise en charge, vous pouvez paramétrer le catalogue actuel en fonction d’une variable de chaîne ou d’un marqueur de paramètre.

  • COMMENT ON COLUMN prend en charge des tables et des vues

L’instruction COMMENT ON prend en charge la modification des commentaires pour les colonnes des vues et des tables.

  • Nouvelles fonctions SQL

Les nouvelles fonctions SQL intégrées suivantes sont disponibles :

  • dayname(expr) renvoie l’acronyme anglais à trois lettres du jour de la semaine pour la date donnée.
  • uniform(expr1, expr2 [,seed]) renvoie une valeur aléatoire avec des valeurs indépendantes et distribuées de façon identique dans la plage de nombres spécifiée.
  • randstr(length) renvoie une chaîne aléatoire de caractères alphanumériques length.
  • Invocation de paramètre nommé pour plus de fonctions

Les fonctions suivantes prennent en charge l’appel de paramètre nommé :

Résolution des bogues

  • Les types imbriqués acceptent désormais correctement les contraintes NULL

Cette version corrige un bogue affectant certaines colonnes générées par delta de types imbriqués, par exemple, STRUCT. Ces colonnes rejettent parfois incorrectement les expressions basées sur des contraintes de NULL ou de NOT NULL des champs imbriqués. Cela a été corrigé.

15 janvier 2025

Les mises à jour suivantes ont été publiées au cours de la semaine du 15 janvier 2025.

Mises à jour de l’interface utilisateur

éditeur SQL

Le nouvel éditeur SQL (préversion publique) dispose désormais des fonctionnalités suivantes :

  • Dénomination des téléchargements : les sorties téléchargées sont désormais nommées d’après la requête.
  • Ajustements de taille de police : ajustez rapidement la taille de police dans l’éditeur SQL à l’aide de Alt + et de Alt - pour Windows/Linux, ou Opt + et Opt - pour macOS.
  • @Mentions dans les commentaires : mentionnez des utilisateurs spécifiques avec @ dans les commentaires. Les utilisateurs mentionnés recevront des notifications par e-mail.
  • Amélioration du changement d’onglet : le changement d’onglet est jusqu’à 80 % plus rapide pour les onglets chargés et 62 % plus rapide pour les onglets non chargés.
  • Voir les détails de l’entrepôt : la taille de SQL Warehouse est désormais visible dans le sélecteur de calcul sans clics supplémentaires.
  • Modifier les valeurs des paramètres : utilisez Ctrl + Enter pour Windows/Linux ou Cmd + Enter pour macOS, pour exécuter une requête lors de la modification d’une valeur de paramètre.
  • Conserver les résultats de la requête dans l’historique des versions : les résultats de la requête sont désormais stockés avec l’historique des versions.

Visualisations

  • Les nouveaux graphiques sont désormais disponibles : de nouveaux graphiques aux performances améliorées, aux couleurs améliorées et avec une interactivité plus rapide sont désormais disponibles. Consultez Visualisation dans Databricks SQL et Types de visualisation.

Problèmes connus

  • Les lectures à partir de sources de données autres que Delta Lake dans des points de terminaison SQL à charge équilibrée de plusieurs clusters peuvent être incohérentes.
  • Les tables Delta accessibles dans Databricks SQL chargent leurs propriétés de schéma et de table dans le metastore configuré. Si vous utilisez un metastore externe, vous pouvez y voir les informations Delta Lake. Delta Lake tente d’actualiser ces informations aussi souvent que possible pour qu’elles soient le plus à jour possible. Vous pouvez également utiliser la commande DESCRIBE <table> pour vérifier que les informations sont mises à jour dans votre metastore.
  • Databricks SQL ne prend pas en charge les décalages de zone comme « GMT+8 » comme fuseaux horaires de session. La solution de contournement consiste à utiliser à la place un fuseau horaire basé sur une région https://en.wikipedia.org/wiki/List_of_tz_database_time_zones), comme « Etc/GMT+8 ». Pour plus d’informations sur la définition des fuseaux horaires, consultez SET TIME ZONE.

Forum Aux Questions (FAQ)

Utilisez la liste suivante pour découvrir les réponses aux questions courantes.

Comment les charges de travail Databricks SQL sont-elles facturées ?

Les charges de travail Databricks SQL sont facturées sur la base de la référence SKU de calcul des travaux standard.

Où s’exécutent les entrepôts SQL ?

Les entrepôts SQL classiques et professionnels sont créés et gérés dans votre compte Azure. Les entrepôts SQL gèrent automatiquement les clusters optimisés pour SQL dans votre compte et s’adaptent à la demande de l’utilisateur final.

Les entrepôts SQL serverless, en revanche, utilisent des ressources de calcul dans votre compte Databricks. Les entrepôts SQL serverless simplifient la configuration et l’utilisation des entrepôts SQL et accélèrent les temps de lancement. L’option serverless est disponible uniquement si elle a été activée pour l’espace de travail. Pour plus d’informations, consultez le Plan de calcul serverless.

Puis-je utiliser des entrepôts SQL à partir d’un notebook dans le même espace de travail ?

Oui. Pour savoir comment attacher un carnet de notes à un entrepôt de données SQL, consultez Utiliser un carnet de notes avec un entrepôt de données SQL.

J’ai reçu un accès aux données avec des informations d’identification de fournisseur cloud. Pourquoi ne puis-je pas accéder à ces données dans Databricks SQL ?

Dans Databricks SQL, tout accès aux données est soumis au contrôle d’accès aux données. Un administrateur ou un propriétaire de données doit d’abord vous accorder les privilègesappropriés.