Partager via


Étapes suivantes ?

Découvrez des informations sur les prochaines versions publiées d’Azure Databricks.

Optimisation prédictive activée par défaut sur tous les nouveaux comptes Azure Databricks

Le 11 novembre, Databricks active l’optimisation prédictive comme valeur par défaut pour tous les nouveaux comptes Azure Databricks. Auparavant, elle a été désactivée par défaut et peut être activée par votre administrateur de compte. Lorsque l’optimisation prédictive est activée, Azure Databricks exécute automatiquement les opérations de maintenance pour les tables gérées par le catalogue Unity. Pour plus d’informations sur l’optimisation prédictive, consultez Optimisation prédictive pour les tables managées du catalogue Unity.

Réduction des coûts et plus de contrôle des performances par rapport au coût de votre calcul serverless pour les charges de travail de flux de travail

En plus des optimisations automatiques des performances actuellement prises en charge, les améliorations apportées au calcul serverless pour les fonctionnalités d’optimisation des flux de travail vous permettent de mieux contrôler si les charges de travail sont optimisées pour les performances ou les coûts. Pour plus d’informations, consultez Économies sur le calcul serverless pour les notebooks, les travaux et les pipelines.

Modifications apportées à l’activation des valeurs par défaut pour AI/BI Genie

Le 11 novembre 2024, le bouton bascule permettant d’accéder à la préversion publique de Genie sera activé par défaut. Pour gérer les préversions, consultez Gérer les préversions d’Azure Databricks. AI/BI Genie deviendra généralement disponible le 9 décembre 2024, auquel point les utilisateurs disposant de privilèges élevés, tels que les administrateurs de compte et d’espace de travail, peuvent contrôler l’accès à Genie à l’aide du bouton bascule qui contrôle l’accès aux fonctionnalités d’assistance IA basées sur Azure AI Services. Consultez Utiliser l’Assistant Databricks.

Modifications apportées à la prise en charge des versions de tableau de bord héritées

Databricks recommande d’utiliser des tableaux de bord IA/BI (anciennement tableaux de bord Lakeview). Les versions antérieures des tableaux de bord, précédemment appelées tableaux de bord Databricks SQL, sont désormais appelées tableaux de bord hérités. Databricks déconseille de créer des tableaux de bord hérités. Les tableaux de bord IA/BI offrent des fonctionnalités améliorées par rapport aux tableaux de bord hérités, notamment la création assistée par l’IA, les modes brouillons et publiés et le filtrage croisé.

Pour faciliter la transition vers la dernière version, les outils de mise à niveau sont disponibles à la fois dans l’interface utilisateur et l’API. Pour obtenir des instructions sur l’utilisation de l’outil de migration intégré dans l’interface utilisateur, consultez Cloner un tableau de bord hérité sur un tableau de bord IA/BI. Pour obtenir des didacticiels sur la création et la gestion de tableaux de bord à l’aide de l’API REST, utilisez les API Azure Databricks pour gérer les tableaux de bord.

Modifications apportées à l’attribution de charge de travail de calcul serverless

Actuellement, votre table système d’utilisation facturable peut peut-être inclure des enregistrements de facturation de référence SKU serverless avec des valeurs nulles pour run_as, job_id, job_run_id et notebook_id. Ces enregistrements représentent les coûts associés à des ressources partagées qui ne sont pas directement attribuables à une charge de travail particulière.

Pour simplifier la création de rapports sur les coûts, Databricks attribuera prochainement ces coûts partagés aux charges de travail spécifiques les ayant subis. Vous ne verrez plus aucun enregistrement de facturation avec des valeurs nulles dans des champs d’identificateur de charge de travail. À mesure que vous augmenterez votre utilisation du calcul serverless et ajouterez davantage de charges de travail, la proportion de ces coûts partagés sur votre facture diminuera car ils seront partagés entre davantage de charges de travail.

Pour découvrir plus d’informations sur le monitoring des coûts de calcul serverless, consultez Surveiller le coût du calcul serverless.

Le champ sourceIpAddress dans les journaux d’audit n’inclut plus de numéro de port

En raison d’un bogue, certains journaux d’audit d’autorisation et d’authentification incluent un numéro de port en plus de l’adresse IP dans le champ sourceIPAddress (par exemple, "sourceIPAddress":"10.2.91.100:0"). Le numéro de port, qui est enregistré en tant que 0, ne fournit aucune valeur réelle et n’est pas cohérent avec le reste des journaux d’audit Databricks. Pour améliorer la cohérence des journaux d’audit, Databricks prévoit de modifier le format de l’adresse IP pour ces événements de journal d’audit. Cette modification sera progressivement déployée à partir de début août 2024.

Si le journal d’audit contient un sourceIpAddress de 0.0.0.0, Databricks peut arrêter sa journalisation .

intégration Git héritée est EOL le 31 janvier

À compter du 31 janvier 2024, Databricks supprime les intégrations Git héritées de notebook. Cette fonctionnalité est dans un état hérité depuis plus de deux ans et une note relative à la suppression de fonctionnalités s’affiche dans l’interface utilisateur du produit depuis novembre 2023.

Pour obtenir plus d’informations sur la migration vers Dossiers Git Databricks (anciennement appelé Repos), consultez Basculer vers Databricks Repos à partir de l’intégration Git héritée. Si cette suppression vous affecte et que vous avez besoin d’une extension, contactez l’équipe de votre compte Databricks.

JDK8 et JDK11 ne seront pas pris en charge

Azure Databricks prévoit de supprimer la prise en charge de JDK 8 avec la prochaine version majeure de Databricks Runtime, à l’occasion de la publication de Spark 4.0. Azure Databricks prévoit de supprimer la prise en charge de JDK 11 avec la prochaine version LTS de Databricks Runtime 14.x.

Activation automatique de Unity Catalog pour les nouveaux espaces de travail

Databricks commencera bientôt à activer automatiquement Unity Catalog pour les nouveaux espaces de travail. Cela évite aux administrateurs de compte d’avoir à configurer Unity Catalog après la création d’un espace de travail. Le lancement se fera progressivement sur les comptes.

Mise à niveau de sqlite-jdbc

Databricks Runtime prévoit de mettre à niveau la version sqlite-jdbc de 3.8.11.2 vers 3.42.0.0 dans toutes les versions de maintenance de Databricks Runtime. Les API de la version 3.42.0.0 ne sont pas entièrement compatibles avec la version 3.8.11.2. Vérifiez que vos méthodes et le type de retour utilisent la version 3.42.0.0.

Si vous utilisez sqlite-jdbc dans votre code, case activée le rapport de compatibilité sqlite-jdbc.