Partager via


Databricks Runtime 17.1

Les notes de publication suivantes fournissent des informations sur Databricks Runtime 17.1, optimisées par Apache Spark 4.0.0.

Azure Databricks a publié cette version en août 2025.

Conseil / Astuce

Pour afficher les notes de publication des versions de Databricks Runtime qui ont atteint la fin de la prise en charge (EoS), consultez les notes de publication des versions de Databricks Runtime ayant atteint la fin de la prise en charge. Les versions d’EoS Databricks Runtime ont été supprimées et peuvent ne pas être mises à jour.

Nouvelles fonctionnalités et améliorations

Expressions SQL spatiales développées et types de données GEOMETRY et GEOGRAPHY

Vous pouvez désormais stocker des données géospatiales dans des colonnes intégrées GEOMETRY et GEOGRAPHY, améliorant ainsi les performances des requêtes spatiales. Cette version ajoute plus de 80 nouvelles expressions SQL spatiales, notamment les fonctions d’importation, d’exportation, de mesure, de construction, de modification, de validation, de transformation et de détermination des relations topologiques avec des jointures spatiales. Consultez les fonctions géospatiales ST, GEOGRAPHY le type et GEOMETRY le type.

Expressions de table courantes récursives (GA)

Les expressions de table courantes récursives (RCTEs) sont désormais en disponibilité générale. Utilisez les RCTEs pour naviguer dans les données hiérarchiques avec un CTE auto-référençant et UNION ALL pour suivre les relations récursives.

Fonctions de table python de catalogue Unity User-Defined (UDF)

Vous pouvez maintenant inscrire des fonctions définies par l’utilisateur Python dans le catalogue Unity pour la gouvernance centralisée et la logique réutilisable dans les requêtes SQL. Consultez les fonctions de table définies par l’utilisateur Python dans le catalogue Unity.

Prise en charge du classement par défaut au niveau du schéma et du catalogue

Vous pouvez maintenant définir un classement par défaut pour les schémas et les catalogues dans Databricks Runtime 17.1. Cela vous permet de définir un classement qui s’applique à tous les objets créés dans le schéma ou le catalogue, ce qui garantit un comportement de classement cohérent sur vos données.

Environnement d’exécution d’isolation partagée pour les fonctions définies par l’utilisateur python du catalogue Batch Unity

Les UDF Python du catalogue Batch Unity avec le même propriétaire peuvent désormais partager un environnement d’isolation par défaut. Cela peut améliorer les performances et réduire l’utilisation de la mémoire en réduisant le nombre d’environnements distincts qui doivent être lancés.

Pour garantir qu’une fonction UDF s’exécute toujours dans un environnement entièrement isolé, ajoutez la STRICT ISOLATION clause caractéristique. Consultez l’isolation de l’environnement.

Meilleure gestion des options JSON avec VARIANT

Les fonctions from_json et to_json appliquent désormais correctement les options JSON lors de l’utilisation de schémas de niveau supérieur VARIANT. Cela garantit un comportement cohérent avec d’autres types de données pris en charge.

display() prend en charge le mode Streaming Real-Time

Vous pouvez utiliser la display() fonction avec des requêtes de streaming qui utilisent un déclencheur en temps réel. Dans ce mode, display() utilise update automatiquement le mode de sortie et évite d’ajouter une LIMIT clause, qui n’est pas prise en charge avec update. L’intervalle d’actualisation de l’affichage est également découplé du temps de traitement par lots pour mieux supporter la réactivité en temps réel.

La source de débit prend en charge le mode streaming Real-Time

La source de débit dans Structured Streaming fonctionne désormais avec des déclencheurs en temps réel, ce qui permet la génération de données continue pour les pipelines de streaming à l’aide du mode streaming Real-Time.

Minuteurs de temps d’événement pris en charge pour les fenêtres temporelles

Azure Databricks prend en charge les déclencheurs basés sur les événements pour les opérations de fenêtre basées sur le temps en mode streaming Real-Time. Cela permet une gestion plus précise des données tardives et du filigrane dans les requêtes de streaming en temps réel.

Les fonctions définies par l’utilisateur Python scalaire prennent en charge les informations d’identification du service

Les fonctions définies par l’utilisateur Python scalaire peuvent utiliser les informations d’identification du service catalogue Unity pour accéder en toute sécurité aux services cloud externes. Cela est utile pour intégrer des opérations telles que la tokenisation basée sur le cloud, le chiffrement ou la gestion des secrets directement dans vos transformations de données.

Amélioration de la liste des schémas

Le connecteur Snowflake utilise la INFORMATION_SCHEMA table au lieu de la SHOW SCHEMAS commande pour répertorier les schémas. Cette modification supprime la limite de 10 000 schémas de l’approche précédente et améliore la prise en charge des bases de données avec un grand nombre de schémas.

Amélioration du mappage des colonnes de chaînes de caractères dans les opérations d'écriture Redshift.

Lors de l’écriture de tables dans Redshift à l’aide de spark.write, les colonnes de chaîne sans longueur explicite sont mappées à VARCHAR(MAX) plutôt qu’à TEXT. Cela évite que le comportement par défaut de Redshift n'interprète TEXT comme VARCHAR(256), ce qui pourrait entraîner des erreurs lors de l'écriture de chaînes de caractères plus longues.

Prise en charge de DDL, SHOW et DESCRIBE sur les tables à accès contrôlé

Les commandes SQL telles que DDL, SHOWet DESCRIBE s’exécutent désormais sur des tables contrôlées par accès affinées à l’aide de clusters dédiés. Si nécessaire pour appliquer des contrôles d’accès, Azure Databricks achemine ces commandes via le calcul serverless, comme pour les lectures, les fusions et les ajouts. Consultez la prise en charge de DDL, SHOW, DESCRIBE et d’autres commandes.

Utilisation réduite de la mémoire pour les schémas larges dans l’enregistreur Photon

Des améliorations ont été apportées au moteur Photon qui réduit considérablement l’utilisation de la mémoire pour les schémas larges, en traitant les scénarios qui ont entraîné des erreurs de mémoire insuffisante.

Prise en charge de la syntaxe TIMESTAMP WITHOUT TIME ZONE

Vous pouvez maintenant spécifier TIMESTAMP WITHOUT TIME ZONE au lieu de TIMESTAMP_NTZ. Cette modification améliore la compatibilité avec sql Standard.

Changements comportementaux

Résolution du problème de corrélation de sous-requête

Azure Databricks ne corrèle plus incorrectement les expressions sémantiquement égales d'agrégation entre sous-requêtes et requêtes externes. Auparavant, cela pourrait entraîner des résultats de requête incorrects.

Les littéraux NTZ d’horodatage ne sont plus transférés

Pour le connecteur Snowflake et Snowflake Lakehouse Federation, TIMESTAMP_NTZ les littéraux (d’horodatage sans fuseau horaire) ne sont plus transférés vers Snowflake. Cette modification empêche les échecs de requête causés par la gestion des horodatages incompatibles et améliore la fiabilité des requêtes affectées.

Erreur générée par des contraintes invalides CHECK

Azure Databricks lève désormais une AnalysisException si une expression de contrainte CHECK ne peut pas être résolue lors de la validation des contraintes.

Le connecteur Pulsar n’expose plus le château de Bouncy

La bibliothèque Bouncy Castle est désormais ombrée dans le connecteur Pulsar pour empêcher les conflits classpath. Par conséquent, les travaux Spark ne peuvent plus accéder aux org.bouncycastle.* classes à partir du connecteur. Si votre code d’application dépend de Bouncy Castle, installez la bibliothèque manuellement sur votre cluster.

Le chargeur automatique utilise les événements de fichier par défaut si disponible

Le chargeur automatique utilise des événements de fichier au lieu d’une liste de répertoires lorsque le chemin de chargement est un emplacement externe avec les événements de fichier activés. La valeur par défaut useManagedFileEvents est maintenant if_available (était false). Cela peut améliorer les performances d’ingestion et journalise un avertissement si les événements de fichier ne sont pas encore activés.

Propriétés de table internes filtrées à partir de SHOW CREATE TABLE

SHOW CREATE TABLE n’inclut plus les propriétés internes qui ne peuvent pas être définies manuellement ou transmises à CREATE TABLE. Cela réduit la confusion et aligne la sortie avec les options configurables par l’utilisateur.

Règles plus strictes pour les jointures de flux de flux en mode d’ajout

Azure Databricks interdit désormais les requêtes de diffusion en continu en mode Ajout qui utilisent une jointure de flux de flux suivi d’une agrégation de fenêtres, sauf si des filigranes sont définis sur les deux côtés. Les requêtes sans filigranes appropriés peuvent produire des résultats non finals, en violation des garanties en mode d’ajout.

Le connecteur Teradata corrige la comparaison de chaînes sensibles à la casse

Le connecteur Teradata est désormais défini par défaut TMODE=ANSIsur , en alignant le comportement de comparaison des chaînes avec Azure Databricks en le rendant sensible à la casse. Cette modification est configurable et n’affecte pas les utilisateurs existants, sauf s’ils optent.

Mises à niveau de la bibliothèque

  • Bibliothèques Python mises à niveau :

    • google-auth de 2.40.1 à 2.40.0
    • mlflow-skinny de 3.0.0 à 3.0.1
    • opentelemetry-api de 1.33.0 à 1.32.1
    • opentelemetry-sdk de 1.33.0 à 1.32.1
    • opentelemetry-semantic-conventions de la version 0.54b0 à la version 0.53b1
    • empaquetage de 24.1 à 24.2
    • pip de 24.2 à 25.0.1
  • Bibliothèques R mises à niveau :

  • cli de 3.6.4 à 3.6.5

  • curl de 6.2.1 à 6.4.0

  • génériques de 0.1.3 à 0.1.4

  • globals de 0.16.3 à 0.18.0

  • openssl de 2.3.2 à 2.3.3.3

  • pilier de 1.10.1 à 1.11.0

  • rlang de 1.1.5 à 1.1.6

  • sparklyr de 1.9.0 à 1.9.1

  • stringi de 1.8.4 à 1.8.7

  • tibble de 3.2.1 à 3.3.0

  • utf8 de 1.2.4 à 1.2.6

  • Bibliothèques Java mises à niveau :

    • software.amazon.cryptools.AmazonCorrettoCryptoProvider de 2.4.1-linux-x86_64 à 2.5.0-linux-x86_64

Apache Spark

Databricks Runtime 17.1 inclut Apache Spark 4.0.0. Cette version inclut tous les correctifs et améliorations Spark inclus dans la version 17.0, ainsi que les correctifs de bogues supplémentaires suivants et les améliorations apportées à Spark :

  • SPARK-52721 Corriger le paramètre de message pour CANNOT_PARSE_DATATYPE
  • SPARK-51919 Autoriser le remplacement de la source de données Python inscrite statiquement
  • SPARK-52632 Rétablir : Assez afficher les nœuds de plan d’écriture V2
  • SPARK-52715 Chaîne SQL bien présentée de TIME - DAY-TIME INTERVAL
  • SPARK-51268 Rendre TreeNode sans verrou
  • SPARK-52701 Corriger l’élargissement du type float32 dans mod avec bool sous ANSI
  • SPARK-52563 Correction d'un bug de nommage de variable dans _assert_pandas_almost_equal
  • SPARK-52541 Ajouter un guide de programmation pour les pipelines déclaratifs
  • SPARK-51695 Corriger les échecs de test provoqués par la modification de la syntaxe CHECK CONSTRAINT
  • SPARK-52666 Mapper le type défini par l’utilisateur pour corriger MutableValue dans SpecificInternalRow
  • SPARK-52660 Ajouter un type de temps à CodeGenerator#javaClass
  • SPARK-52693 Prendre en charge des intervalles de jour/heure ANSI +/- vers/depuis TIME
  • SPARK-52705 Refactorisation de la vérification déterministe pour les expressions de regroupement
  • SPARK-52699 Prendre en charge l’agrégation du type TIME en mode interprété
  • SPARK-52503 Correction de la suppression lorsque la colonne d’entrée n’existe pas
  • SPARK-52535 Améliorer la lisibilité du code de la règle ApplyColumnarRulesAndInsertTransitions
  • SPARK-52551 Ajouter un nouveau prédicat v2 BOOLEAN_EXPRESSION
  • SPARK-52698 Rétablir : Améliorer les indicateurs de type pour le module de source de données
  • SPARK-52684 Rendre les commandes CACHE TABLE atomiques en cas d’erreur d’exécution
  • SPARK-52671 RowEncoder ne recherche pas un UDT résolu
  • SPARK-52670 Utiliser HiveResult avec UserDefinedType#stringifyValue
  • SPARK-52692 Prise en charge de la mise en cache du type TIME
  • SPARK-51516 Prendre en charge TIME depuis le serveur Thrift
  • SPARK-52674 Nettoyer l’utilisation des API déconseillées liées à RandomStringUtils
  • SPARK-51428 Affecter des alias pour les arborescences d’expressions compilées de manière déterministe
  • SPARK-52672 Ne remplacez pas les expressions Sort/Having par des alias si l’expression existe dans Aggregate
  • SPARK-52618 Conversion de TIME(n) en TIME(m)
  • SPARK-52656 Corriger current_time()
  • SPARK-52630 Réorganiser le code et les répertoires de gestion de l’opérateur de streaming et de l’état
  • SPARK-52649 Découper les alias avant de mettre en correspondance les expressions Sort/Having/Filter dans buildAggExprList
  • SPARK-52578 Ajouter des mesures pour les lignes afin de suivre le cas et l'action dans MergeRowsExec
  • SPARK-49428 Déplacer le client Scala de Connect vers SQL
  • SPARK-52494 Prendre en charge la syntaxe de l’opérateur deux-points pour accéder aux champs Variante
  • SPARK-52642 Utiliser daemonWorkers.get(worker) pour éviter une désynchronisation inattendue entre idleWorkers et daemonWorkers
  • SPARK-52570 Activer la division par zéro pour le rmod numérique avec ANSI activé
  • SPARK-52633 Dédupliquer la sortie enfant Union unique avant DeduplicateRelations
  • SPARK-52600 Déplacer CompletionIterator vers utilitaires communs
  • SPARK-52626 Autoriser le regroupement par type de temps
  • SPARK-52395 Échec immédiat de la tâche de réduction en cas d’échec de la requête d'extraction Prism
  • SPARK-52596 Essayez de créer TIMESTAMP_NTZ à partir de DATE et HEURE
  • SPARK-52595 Renommer l’expression TimeAdd en TimestampAddInterval
  • SPARK-52586 Introduire AnyTimeType
  • SPARK-52583 Ajouter l’API développeur pour les valeurs de chaîne dans UserDefinedType
  • SPARK-52354 Ajout d'une coercition de type sur UnionLoop
  • SPARK-52579 Définir un vidage périodique de traceback pour les workers Python
  • SPARK-52456 Réduire la limite minimale de spark.eventLog.rolling.maxFileSize
  • SPARK-52536 Définir extractionDir dans AsyncProfilerLoader pour le répertoire local Spark
  • SPARK-52405 Étendre V2JDBCTest pour tester la lecture de plusieurs partitions
  • SPARK-52303 Promouvoir ExternalCommandRunner en stable
  • SPARK-52572 Éviter une erreur CAST_INVALID_INPUT pour DataFrame.isin en mode ANSI
  • SPARK-52349 Activer les tests de division booléenne avec ANSI activé
  • SPARK-52402 Corriger les erreurs de division par zéro dans la corrélation Kendall et Pearson en mode ANSI
  • SPARK-52356 Activer la division par zéro pour le mod/rmod booléen avec ANSI activé
  • SPARK-52288 Évitez INVALID_ARRAY_INDEX en fractionnement/rsplit lorsque le mode ANSI est activé
  • SPARK-52557 Éviter CAST_INVALID_INPUT lors de l'usage de to_numeric(errors='coerce') en mode ANSI
  • SPARK-52440 Ajouter une installation supplémentaire de python pour les pipelines déclaratifs
  • SPARK-52569 Correction de l’exception de cast de classe dans SecondsOfTimeWithFraction
  • SPARK-52540 Rendre TIMESTAMP_NTZ à partir de DATE et HEURE
  • SPARK-52539 Introduire des hooks de session
  • SPARK-52554 Éviter plusieurs allers-retours pour la vérification de la configuration dans Spark Connect
  • SPARK-52553 Correction de NumberFormatException lors de la lecture du journal des modifications v1
  • SPARK-52534 Rendre MLCache et MLHandler thread-safe
  • SPARK-52460 Stocker des valeurs TIME internes sous forme de nanosecondes
  • SPARK-52482 Prise en charge de ZStandard pour le lecteur de sources de données de fichiers
  • SPARK-52531 OuterReference dans l’agrégat de sous-requête est incorrectement lié à l’agrégat de requêtes externes
  • SPARK-52339 Correction de la comparaison des instances InMemoryFileIndex
  • SPARK-52418 Ajouter une variable d’état noElements au PercentileHeap pour éviter les calculs répétitifs d’isEmpty()
  • SPARK-52537 Imprimer la trace d’appels lors de l’échec de la création d’un répertoire temporaire
  • SPARK-52462 Appliquer le forçage de type avant la déduplication de la sortie enfant dans Union
  • SPARK-52528 Activer la division par zéro pour le mod numérique avec ANSI activé
  • SPARK-52458 Prise en charge de spark.eventLog.excludedPatterns
  • SPARK-52493 Prendre en charge TIMESTAMP WITHOUT TIME ZONE
  • SPARK-51563 Prendre en charge le nom de type qualifié complet TIME(n) WITHOUT TIME ZONE
  • SPARK-52450 Améliorer les performances de la copie en profondeur du schéma
  • SPARK-52519 Activer la division par zéro pour floordiv numérique avec ANSI activé
  • SPARK-52489 Interdire les gestionnaires SQLEXCEPTION et NOT FOUND en double dans le script SQL
  • SPARK-52488 Supprimer l'alias avant d'emballer les références externes sous HAVING
  • SPARK-52383 Améliorer les erreurs dans SparkConnectPlanner
  • SPARK-52335 Unifier l’erreur de nombre de compartiments non valide pour Connect et Classic
  • SPARK-52337 Transformer InvalidPlanInput en une erreur destinée à l’utilisateur
  • SPARK-52312 Ignorer V2WriteCommand lors de la mise en cache de DataFrame
  • SPARK-52487 Ajouter une durée et une heure d’envoi de phase au détail StagePage
  • SPARK-52433 Unifier la contrainte de chaîne dans createDataFrame
  • SPARK-52427 Normaliser la liste d’expressions d’agrégation couverte par un projet
  • SPARK-51745 Appliquer la machine d’état pour RocksDBStateStore
  • SPARK-52447 Déplacer la normalisation GetViewColumnByNameAndOrdinal vers SessionCatalogSuite
  • SPARK-52397 Idempotent ExecutePlan : second ExecutePlan avec le même operationId et les mêmes attaques de plan
  • SPARK-52355 Inférer le type d’objet VariantVal en tant que VariantType lors de la création d’un DataFrame
  • SPARK-52425 Refactoriser ExtractValue pour la réutilisation dans l’implémentation à passe unique
  • SPARK-52249 Activer la division par zéro pour truediv numérique avec ANSI activé
  • SPARK-52228 Intégrer le microbenchmark d’interaction d’état dans Quicksilver (TCP)
  • SPARK-48356 Améliorer l’inférence de schéma de colonne de l’instruction FOR
  • SPARK-48353 Améliorations apportées à la gestion des exceptions
  • SPARK-52060 Créer un nœud OneRowRelationExec
  • SPARK-52391 Refactoriser les fonctions/vars TransformWithStateExec en classe de base pour Scala et Python
  • SPARK-52218 Rendre à nouveau évaluables les fonctions de date et heure actuelles
  • SPARK-52350 Correction du lien pour le guide de programmation SS dans la version 4.0
  • SPARK-52385 Supprimer TempResolvedColumns du nom InheritAnalysisRules
  • SPARK-52392 Nouvelle fonctionnalité de l’analyseur à passe unique
  • SPARK-52243 Ajouter le support NERF pour les erreurs InvalidPlanInput liées au schéma
  • SPARK-52338 Hériter du classement par défaut du schéma à l’affichage
  • SPARK-52307 Prendre en charge la fonction définie par l’utilisateur d’itérateur de flèche scalaire
  • SPARK-52300 Faire en sorte que la résolution SQL UDTVF utilise des configurations cohérentes avec la résolution d’affichage
  • SPARK-52219 Prise en charge de la collation au niveau du schéma pour les tables
  • SPARK-52272 V2SessionCatalog ne modifie pas le schéma sur le catalogue Hive
  • SPARK-51890 Ajouter un options paramètre à la vue plan logique
  • SPARK-51936 ReplaceTableAsSelect doit remplacer une nouvelle table au lieu d’ajouter
  • SPARK-51302 Spark Connect, qui prend en charge JDBC, doit utiliser l’API DataFrameReader
  • SPARK-50137 Éviter les échecs de secours pour les méthodes hive incompatibles lors de la création d’une table
  • SPARK-52184 Encapsuler les erreurs de syntaxe du moteur externe JDBC par une exception unifiée
  • SPARK-47618 Utiliser Magic Committer pour tous les compartiments S3 par défaut
  • SPARK-52305 Affiner la docstring pour isnotnull, equal_null, nullif, nullifzero, nvl, nvl2, zeroifnull
  • SPARK-52174 Activer spark.checkpoint.compress par défaut
  • SPARK-52224 Introduire pyyaml en tant que dépendance pour le client Python
  • SPARK-52233 Corriger map_zip_with pour les types à virgule flottante
  • SPARK-52036 Ajoutez la caractéristique SQLConfHelper à la version 2. FileScan
  • SPARK-52159 Supprimer une condition trop large pour le dialecte MariaDB
  • SPARK-50104 Prise en charge de SparkSession.executeCommand dans Connect
  • SPARK-52240 Correction de l’utilisation de l’index de ligne lors de l’explosion de tableaux compressés dans un lecteur vectorisé
  • SPARK-52153 Corriger from_json et to_json avec variante
  • SPARK-48618 Améliorer le test de non-existence pour vérifier les noms à 3 parties et à 2 parties
  • SPARK-52216 Faire d’InvalidCommandInput une erreur visible pour l’utilisateur
  • SPARK-52299 Remplacer jsonNode.fields déconseillé
  • SPARK-52287 Améliorer SparkContext pour ne pas remplir le paramètre o.a.s.internal.io.cloud.* s’il n’existe pas
  • SPARK-51430 Empêcher l’enregistreur de contexte PySpark de propager les journaux vers stdout
  • SPARK-52278 La fonction UDF scalaire Arrow prend en charge les arguments nommés
  • SPARK-52026 Bloquer l’API Pandas sur Spark en mode ANSI par défaut
  • SPARK-52171 Implémentation de jointure StateDataSource pour l’état v3
  • SPARK-52159 Gérer correctement la vérification de l’existence d’une table pour les dialectes jdbc
  • SPARK-52158 Ajouter un objet InvalidInputErrors pour centraliser les erreurs dans SparkConnectPlanner
  • SPARK-52195 Correction du problème de suppression de la colonne de l'état initial pour Python TWS
  • SPARK-52211 Suffixe $ strip à partir du journal INFO SparkConnectServer
  • SPARK-52239 Prendre en charge la fonction définie par l’utilisateur d’enregistrement d’une flèche
  • SPARK-52215 Implémenter la fonction scalaire Arrow UDF
  • SPARK-52188 Correctif pour StateDataSource où StreamExecution.RUN_ID_KEY n’est pas défini
  • SPARK-52189 Nouveaux tests de fichiers dorés pour NATURAL JOIN avec GROUP BY, HAVING, ORDER BY et LCAs
  • SPARK-52079 Normaliser l’ordre des attributs dans les listes de projets internes
  • SPARK-52234 Correction d’une erreur sur l’entrée non-chaîne pour schema_of_csv/xml
  • SPARK-52221 Refactoriser SqlScriptingLocalVariableManager dans un gestionnaire de contexte plus générique
  • SPARK-52181 Augmenter la limite de taille de variante à 128MiB
  • SPARK-52217 Ignorer la validation de référence externe sous Filtre dans le programme de résolution à passage unique
  • SPARK-51260 Déplacer V2ExpressionBuilder et PushableExpression vers le module Catalyst
  • SPARK-52156 Placer le fournisseur hérité CREATE TEMPORARY TABLE … USING sous l’indicateur
  • SPARK-51012 Supprimer SparkStrategy de Connect Shims
  • SPARK-52109 Ajouter l’API listTableSummaries à l’API catalogue de tables V2 source de données
  • SPARK-50915 Ajouter getCondition et déprécier getErrorClass dans PySparkException
  • SPARK-52022 Ajouter la méthode check in default pour SparkThrowable.getQueryContext
  • SPARK-51147 Réorganiser les classes liées au streaming dans un répertoire dédié au streaming
  • SPARK-52120 Passer la session à ConnectHelper
  • SPARK-52021 Modèles d’opérateur et d’expression distincts
  • SPARK-51722 Supprimer l’origine « stop » de ParseException
  • SPARK-52096 Reclasser l’erreur d’assertion de décalage de source Kafka
  • SPARK-51985 Supprimer expérimental de l’accumulateurSource
  • SPARK-51156 Prise en charge de l’authentification par jeton statique dans Spark Connect
  • SPARK-52157 Utiliser un nom calculé antérieur pour OuterReference dans le programme de résolution à passe unique
  • SPARK-52100 Activer la substitution de la limite de niveau de récursivité dans la syntaxe
  • SPARK-51605 Créer le répertoire parent avant de toucher le logFile
  • SPARK-52127 Compresser le protocole de MapState KEYS / VALUES / ITERATOR pour transformWithState dans PySpark
  • SPARK-52040 ResolveLateralColumnAliasReference devrait conserver l’ID de plan
  • SPARK-51638 Correction de la récupération des blocs RDD stockés sur disque distant via le service de shuffle externe
  • SPARK-51983 Préparer l’environnement de test pour l’API Pandas sur Spark avec le mode ANSI activé
  • SPARK-52087 Ajouter la copie de balises et d’origine à AliasHelper.trimNonTopLevelAliases
  • SPARK-51210 Ajouter --enable-native-access=ALL-UNNAMED aux options Java pour Java 24+
  • SPARK-52052 Ajouter .broadcast dans l’objet complémentaire de SerializableConfiguration
  • SPARK-51823 Ajouter une configuration pour ne pas conserver le magasin d’états sur les exécuteurs
  • SPARK-51291 Reclassifier les erreurs de validation déclenchées lors du chargement du stockage d'état
  • SPARK-52006 Exclure l’accumulateur CollectMetricsExec de l’IU Spark, des journaux d’événements et des pulsations de métrique
  • SPARK-52076 Ferme explicitement ExecutePlanResponseReattachableIterator après l’utilisation
  • SPARK-51428 Affecter des alias pour les arborescences d’expressions compilées de manière déterministe
  • SPARK-52079 Normaliser l’ordre des attributs dans les listes de projets internes
  • SPARK-52033 Correction du bogue générer un nœud où la sortie du nœud enfant peut avoir plusieurs copies du même attribut
  • SPARK-51428 Affecter des alias pour les arborescences d’expressions compilées de manière déterministe
  • SPARK-52055 Suppression de l'exception dans ExecutePlanResponseReattachableIterator. del
  • SPARK-51921 Utiliser un type long pour la durée TTL en millisecondes dans transformWithState
  • SPARK-50763 Ajouter une règle Analyzer pour la résolution des fonctions de table SQL
  • SPARK-51884 Ajouter des attributs d’étendue externe pour SubqueryExpression
  • SPARK-50762 Ajouter une règle d’Analyseur pour la résolution des fonctions scalaires SQL définies par l’utilisateur
  • SPARK-51814 Utilise list(self) au lieu de StructType.fields pour l’ancien compat de version
  • SPARK-51537 Construire le classloader spécifique à la session en fonction du chargeur de classes de session par défaut sur l’exécuteur
  • SPARK-507777 Supprimer les méthodes d’init/destruction redondantes de no-op des classes Filter
  • SPARK-51691 SerializationDebugger doit avaler une exception lorsque vous essayez de trouver la raison du problème de sérialisation
  • SPARK-51386 Attribuer le nom aux conditions d’erreur _LEGACY_ERROR_TEMP_3300-3302
  • SPARK-50734 Ajouter l’API de catalogue pour la création et l’enregistrement de fonctions SQL définies par l’utilisateur
  • SPARK-51989 Ajouter des sous-classes de filtre manquantes à toutes les listes dans la source de données
  • SPARK-52037 L’ordre dans les listes de projets internes de LCA doit respecter l’ordre dans la liste de projets d’origine
  • SPARK-52007 Les ID d’expression ne doivent pas être présents dans les expressions de regroupement lors de l’utilisation d’ensembles de regroupement
  • SPARK-51860 Désactiver spark.connect.grpc.debug.enabled par défaut
  • SPARK-47952 Prise en charge de la récupération de l’adresse GRPC SparkConnectService réelle et du port par programmation lors de l’exécution sur Yarn
  • SPARK-50906 Ajouter une vérification de la nullabilité si les entrées de to_avro s’alignent sur le schéma
  • Prise en charge des correctifs SPARK-50581 pour UDAF dans Dataset.observe()
  • SPARK-49946 Exiger une classe d’erreur dans SparkOutOfMemoryError
  • SPARK-49748 Ajouter getCondition et déprécier getErrorClass dans SparkThrowable
  • SPARK-51959 Modifier les fonctions pour ne pas importer ParentDataFrame
  • SPARK-51964 Résoudre correctement les attributs de la sortie masqué dans ORDER BY et HAVING au-dessus d’un agrégat dans l’Analyseur à passage unique
  • SPARK-49942 Renommer errorClass en condition dans classException()
  • SPARK-51963 Simplifier l'opération IndexToString.transform
  • SPARK-51946 Échec immédiat lors de la création d'une table de source de données incompatible avec Hive, avec « col » comme nom de partition
  • SPARK-51553 Modifier EXTRACT pour prendre en charge le type de données TIME
  • SPARK-51891 Compresser le protocole de ListState GET / PUT / APPENDLIST pour transformWithState dans PySpark
  • SPARK-51931 Ajouter maxBytesPerOutputBatch pour limiter la taille en octets des lots de sortie d'Arrow
  • SPARK-51441 Ajouter des API DSv2 pour les contraintes
  • SPARK-51814 Utilisez RecordBatch.schema.names au lieu de column_names pour la compatibilité avec les anciennes versions de pyarrow
  • SPARK-51913 JDBCTableCatalog#loadTable devrait correctement générer une erreur de table inexistante
  • SPARK-51840 Restaurer des colonnes de partition dans HiveExternalCatalog#alterTable
  • SPARK-51414 Ajouter la fonction make_time()
  • SPARK-49700 Interface Scala unifiée pour Connect et Classic
  • SPARK-51914 Ajouter com.mysql.cj à spark.sql.hive.metastore.sharedPrefixes
  • SPARK-51827 Prise en charge de Spark Connect pour transformWithState dans PySpark
  • SPARK-51901 Interdire les fonctions de générateur dans les jeux de regroupement
  • SPARK-51423 Ajouter la fonction current_time() pour le type de données TIME
  • SPARK-51680 Définir le type logique pour TIME dans l’enregistreur Parquet
  • SPARK-51889 Correction d’un bogue pour MapState clear() dans Python TWS
  • SPARK-51869 Créer une classification pour les erreurs utilisateur dans les fonctions UDF pour Scala TransformWithState
  • SPARK-51878 améliorez fillDefaultValue par exécuter l'expression pliable par défaut.
  • SPARK-51757 Corriger le décalage de la fonction LEAD/LAG qui dépasse la taille des groupes de fenêtres
  • SPARK-51805 Une fonction appelée avec un argument incorrect doit lever une exception appropriée au lieu d'une exception interne.
  • SPARK-51900 Générer correctement l’incompatibilité de type de données dans l’Analyseur à passage unique
  • SPARK-51421 Obtenir les secondes du type de données TIME
  • SPARK-51661 Découverte des partitions des valeurs de colonne TIME
  • SPARK-51687 Transférer des filtres avec des valeurs TIME vers Parquet
  • SPARK-51419 Extraire les heures du type de données 'TIME'
  • SPARK-51881 Rendre AvroOptions comparable
  • SPARK-51861 Supprimer les informations dupliquées/inutiles du plan détaillé InMemoryRelation
  • SPARK-51814 Présentation d’une nouvelle transformation d’APIWithState dans PySpark
  • SPARK-51779 Utiliser des familles de colonnes virtuelles pour les jointures entre flux
  • SPARK-51649 Écritures/lectures dynamiques des partitions TIME
  • SPARK-51634 Prendre en charge TIME dans les vecteurs de colonne hors tas
  • SPARK-518777 Ajouter des fonctions 'chr', 'random' et 'uuid'
  • SPARK-51610 Prendre en charge le type de données TIME dans la source de données Parquet
  • SPARK-51420 Obtenir les minutes du type de données TIME
  • SPARK-51822 Génération d'une erreur classifiée lorsque des fonctions non autorisées sont appelées pendant StatefulProcessor.init()
  • SPARK-51868 Déplacer la validation de contrainte de type vers un objet distinct
  • SPARK-49747 Migrer des fichiers de connexion vers une journalisation structurée

Prise en charge du pilote ODBC/JDBC d'Azure Databricks

Azure Databricks prend en charge les pilotes ODBC/JDBC publiés au cours des 2 dernières années. Téléchargez les pilotes et la mise à niveau récemment publiés (téléchargez ODBC, téléchargez JDBC).

Mises à jour de maintenance

Consultez les mises à jour de maintenance d’Azure Databricks Runtime 17.1.

Environnement du système

  • Système d’exploitation : Ubuntu 24.04.2 LTS
  • Java : Zulu17.58+21-CA
  • Scala : 2.13.16
  • Python : 3.12.3
  • R : 4.4.2
  • Delta Lake : 4.0.0

Bibliothèques Python installées

Bibliothèque Version Bibliothèque Version Bibliothèque Version
annotated-types 0.7.0 anyio 4.6.2 argon2-cffi 21.3.0
argon2-cffi-bindings 21.2.0 flèche 1.3.0 asttokens 2.0.5
astunparse 1.6.3 async-lru 2.0.4 attrs 24.3.0
autocommand 2.2.2 azure-common 1.1.28 azure-core 1.34.0
azure-identity 1.20.0 azure-mgmt-core 1.5.0 azure-mgmt-web 8.0.0
azure-storage-blob 12.23.0 Azure Storage File Data Lake 12.17.0 babel 2.16.0
backports.tarfile 1.2.0 bellesoupe4 4.12.3 black 24.10.0
bleach 6.2.0 blinker 1.7.0 boto3 1.36.2
botocore 1.36.3 cachetools 5.5.1 certifi 2025.1.31
cffi 1.17.1 chardet 4.0.0 charset-normalizer 3.3.2
cliquez 8.1.7 cloudpickle 3.0.0 comm 0.2.1
contourpy 1.3.1 cryptographie 43.0.3 cycliste 0.11.0
Cython 3.0.12 Kit de développement logiciel Databricks (SDK) 0.49.0 dbus-python 1.3.2
debugpy 1.8.11 décorateur 5.1.1 defusedxml 0.7.1
Déconseillé 1.2.13 distlib 0.3.9 Conversion de docstring en markdown 0.11
executing 0.8.3 aperçu des facettes 1.1.1 fastapi 0.115.12
fastjsonschema 2.21.1 verrou de fichier 3.18.0 outils de police 4.55.3
fqdn 1.5.1 fsspec 2023.5.0 gitdb 4.0.11
GitPython 3.1.43 google-api-core 2.20.0 google-auth 2.40.0
google-cloud-core 2.4.3 google-cloud-storage (Stockage dans le cloud de Google) 3.1.0 google-crc32c 1.7.1
google-resumable-media 2.7.2 googleapis-common-protos 1.65.0 grpcio 1.67.0
grpcio-status 1.67.0 h11 0.14.0 httpcore 1.0.2
httplib2 0.20.4 httpx 0.27.0 idna 3.7
importlib-metadata 6.6.0 importlib_resources 6.4.0 inflect 7.3.1
iniconfig 1.1.1 ipyflow-core 0.0.209 ipykernel 6.29.5
ipython 8.30.0 ipython-genutils 0.2.0 ipywidgets (un outil de widgets interactifs pour Python) 7.8.1
isodate 0.6.1 isoduration 20.11.0 jaraco.context 5.3.0
jaraco.functools 4.0.1 jaraco.text 3.12.1 Jedi 0.19.2
Jinja2 3.1.5 jmespath 1.0.1 joblib 1.4.2
json5 0.9.25 jsonpointer 3.0.0 jsonschema 4.23.0
spécifications du schéma JSON 2023.7.1 événements Jupyter 0.10.0 jupyter-lsp 2.2.0
jupyter_client 8.6.3 jupyter_core 5.7.2 serveur Jupyter 2.14.1
jupyter_server_terminals 0.4.4 jupyterlab 4.3.4 jupyterlab-pygments 0.1.2
jupyterlab-widgets (widgets pour JupyterLab) 1.0.0 jupyterlab_server 2.27.3 kiwisolver 1.4.8
launchpadlib 1.11.0 lazr.restfulclient 0.14.6 lazr.uri 1.0.6
markdown-it-py 2.2.0 MarkupSafe 3.0.2 matplotlib 3.10.0
matplotlib-inline 0.1.7 mccabe 0.7.0 mdurl 0.1.0
mistune 2.0.4 mlflow-skinny 3.0.1 mmh3 5.1.0
more-itertools 10.3.0 msal 1.32.3 msal-extensions 1.3.1
mypy-extensions 1.0.0 nbclient 0.8.0 nbconvert 7.16.4
nbformat 5.10.4 nest-asyncio 1.6.0 nodeenv 1.9.1
notebook 7.3.2 notebook_shim 0.2.3 numpy 2.1.3
oauthlib 3.2.2 opentelemetry-api 1.32.1 opentelemetry-sdk 1.32.1
opentelemetry-semantic-conventions 0.53b1 remplace 7.4.0 empaquetage 24,2
Pandas 2.2.3 pandocfilters 1.5.0 parso 0.8.4
pathspec 0.10.3 patsy 1.0.1 pexpect 4.8.0
pillow 11.1.0 pip 25.0.1 platformdirs 3.10.0
plotly 5.24.1 pluggy 1.5.0 prometheus_client 0.21.0
prompt-toolkit 3.0.43 proto-plus 1.26.1 protobuf 5.29.4
psutil 5.9.0 psycopg2 2.9.3 ptyprocess 0.7.0
pure-eval 0.2.2 pyarrow 19.0.1 pyasn1 0.4.8
pyasn1-modules 0.2.8 pyccolo 0.0.71 pycparser 2.21
pydantic 2.10.6 pydantic_core 2.27.2 pyflakes 3.2.0
Pygments 2.15.1 PyGObject 3.48.2 pyiceberg 0.9.0
PyJWT 2.10.1 pyodbc 5.2.0 pyparsing 3.2.0
pyright 1.1.394 pytest 8.3.5 python-dateutil 2.9.0.post0
python-json-logger 3.2.1 python-lsp-jsonrpc 1.1.2 python-lsp-server 1.12.0
pytoolconfig 1.2.6 pytz 2024.1 PyYAML 6.0.2
pyzmq 26.2.0 référencement 0.30.2 Requêtes 2.32.3
RFC3339 validateur 0.1.4 rfc3986-validator 0.1.1 rich 13.9.4
rope 1.12.0 rpds-py 0.22.3 rsa 4.9.1
s3transfer 0.11.3 scikit-learn 1.6.1 scipy 1.15.1
seaborn 0.13.2 Send2Trash 1.8.2 setuptools 74.0.0
six 1.16.0 smmap 5.0.0 sniffio 1.3.0
sortedcontainers 2.4.0 soupsieve 2,5 sqlparse 0.5.3
ssh-import-id 5.11 données en pile 0.2.0 starlette 0.46.2
statsmodels, une bibliothèque Python pour la modélisation statistique 0.14.4 strictyaml 1.7.3 ténacité 9.0.0
terminado 0.17.1 threadpoolctl 3.5.0 tinycss2 1.4.0
tokenize_rt 6.1.0 tomli 2.0.1 tornade 6.4.2
traitlets 5.14.3 typeguard 4.3.0 types-python-dateutil 2.9.0.20241206
typing_extensions 4.12.2 tzdata 2024.1 ujson 5.10.0
unattended-upgrades 0.1 uri-template 1.3.0 urllib3 2.3.0
uvicorn 0.34.2 virtualenv 20.29.3 wadllib 1.3.6
wcwidth 0.2.5 webcolores 24.11.1 webencodings 0.5.1
websocket-client 1.8.0 c’est quoi le patch 1.0.2 roue 0.45.1
widgetsnbextension 3.6.6 wrapt 1.17.0 yapf 0.40.2
zipp 3.21.0

Bibliothèques R installées

Les bibliothèques R sont installées à partir de l'instantané CRAN du gestionnaire de packages en date du 20-03-2025.

Bibliothèque Version Bibliothèque Version Bibliothèque Version
flèche 19.0.1 Askpass 1.2.1 assertthat 0.2.1
backports 1.5.0 base 4.4.2 base64enc 0.1-3
bigD 0.3.0 bit 4.6.0 bit64 4.6.0-1
bitops 1.0-9 objet BLOB 1.2.4 boot 1.3-30
brew 1.0-10 brio 1.1.5 broom 1.0.7
bslib 0.9.0 cachemire 1.1.0 callr 3.7.6
caret 7.0-1 cellranger 1.1.0 chron 2.3-62
classe 7.3-22 cli 3.6.5 clipr 0.8.0
horloge 0.7.2 cluster 2.1.6 codetools 0.2-20
colorspace 2.1-1 commonmark 1.9.5 compilateur 4.4.2
config 0.3.2 conflicted 1.2.0 cpp11 0.5.2
crayon 1.5.3 credentials 2.0.2 curl 6.4.0
data.table 1.17.0 ensembles de données 4.4.2 DBI 1.2.3
dbplyr 2.5.0 desc 1.4.3 devtools 2.4.5
diagramme 1.6.5 diffobj 0.3.5 digérer 0.6.37
downlit 0.4.4 dplyr 1.1.4 dtplyr 1.3.1
e1071 1.7-16 ellipse 0.3.2 évaluer 1.0.3
fans 1.0.6 farver 2.1.2 carte rapide 1.2.0
fontawesome 0.5.3 forcats 1.0.0 foreach 1.5.2
foreign 0.8-86 forge 0.2.0 fs 1.6.5
futur 1.34.0 future.apply 1.11.3 gargle 1.5.2
produits génériques 0.1.4 gert 2.1.4 ggplot2 3.5.1
gh 1.4.1 git2r 0.35.0 gitcreds 0.1.2
glmnet 4.1-8 globals 0.18.0 glue 1.8.0
googledrive 2.1.1 googlesheets4 1.1.1 gower 1.0.2
graphisme 4.4.2 grDevices 4.4.2 grid 4.4.2
gridExtra 2.3 gsubfn 0,7 gt 0.11.1
gtable 0.3.6 hardhat 1.4.1 haven 2.5.4
highr 0.11 hms 1.1.3 outils HTML 0.5.8.1
htmlwidgets 1.6.4 httpuv 1.6.15 httr 1.4.7
httr2 1.1.1 ids 1.0.1 ini 0.3.1
ipred 0.9-15 isoband 0.2.7 iterators 1.0.14
jquerylib 0.1.4 jsonlite 1.9.1 juicyjuice 0.1.0
KernSmooth 2.23-22 knitr 1,50 étiquetage 0.4.3
plus tard 1.4.1 lattice 0.22-5 lave 1.8.1
cycle de vie 1.0.4 listenv 0.9.1 lubridate 1.9.4
magrittr 2.0.3 markdown 1.13 MASS 7.3-60.0.1
Matrix 1.6-5 memoise 2.0.1 méthodes 4.4.2
mgcv 1.9-1 mime 0,13 miniUI 0.1.1.1
mlflow 2.20.4 ModelMetrics 1.2.2.2 modèleur 0.1.11
munsell 0.5.1 nlme 3.1-164 nnet 7.3-19
numDeriv 2016.8-1.1 openssl 2.3.3 parallel 4.4.2
parallelly 1.42.0 pilier 1.11.0 pkgbuild 1.4.6
pkgconfig 2.0.3 pkgdown 2.1.1 pkgload 1.4.0
plogr 0.2.0 plyr (un package logiciel pour le traitement de données) 1.8.9 éloge 1.0.0
prettyunits 1.2.0 pROC 1.18.5 processx 3.8.6
prodlim 2024.06.25 profvis 0.4.0 progrès 1.2.3
progressr 0.15.1 promesses 1.3.2 proto 1.0.0
proxy 0,4-27 p.s. 1.9.0 purrr 1.0.4
R6 2.6.1 ragg 1.3.3 randomForest (algorithme d'apprentissage automatique) 4.7-1.2
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp 1.0.14 RcppEigen 0.3.4.0.2 réactif 0.4.4
reactR 0.6.1 readr 2.1.5 readxl 1.4.5
recettes 1.2.0 match retour 2.0.0 revanche2 2.1.2
remotes 2.5.0 reprex 2.1.1 reshape2 1.4.4
rlang 1.1.6 rmarkdown 2.29 RODBC 1.3-26
roxygen2 7.3.2 rpart 4.1.23 rprojroot 2.0.4
Rserve 1.8-15 RSQLite 2.3.9 rstudioapi 0.17.1
rversions 2.1.2 rvest 1.0.4 sass 0.4.9
écailles 1.3.0 selectr 0,4-2 informations sur la session 1.2.3
shape 1.4.6.1 brillant 1.10.0 sourcetools 0.1.7-1
sparklyr 1.9.1 SparkR 4.0.0 sparsevctrs 0.3.1
spatial 7.3-17 splines 4.4.2 sqldf 0.4-11
SQUAREM 2021.1 Statistiques 4.4.2 statistiques4 4.4.2
stringi 1.8.7 stringr 1.5.1 survival 3.5-8
swagger 5.17.14.1 sys 3.4.3 systemfonts 1.2.1
tcltk 4.4.2 testthat 3.2.3 mise en forme de texte 1.0.0
tibble 3.3.0 tidyr 1.3.1 tidyselect 1.2.1
tidyverse 2.0.0 changement d'heure 0.3.0 date-heure 4041.110
tinytex 0.56 outils 4.4.2 tzdb 0.5.0
vérificateur d'URL 1.0.1 Utilise ça 3.1.0 utf8 1.2.6
utils 4.4.2 Identifiant unique universel (UUID) 1.2-1 V8 6.0.2
vctrs 0.6.5 viridisLite 0.4.2 vroom 1.6.5
Waldo 0.6.1 whisker 0.4.1 withr 3.0.2
xfun 0,51 xml2 1.3.8 xopen 1.0.1
xtable 1.8-4 yaml 2.3.10 zeallot 0.1.0
zip 2.3.2

Bibliothèques Java et Scala installées (version du cluster Scala 2.13)

ID de groupe ID d’artefact Version
antlr antlr 2.7.7
com.amazonaws Amazon Kinesis Client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.638
com.amazonaws aws-java-sdk-cloudformation 1.12.638
com.amazonaws aws-java-sdk-cloudfront 1.12.638
com.amazonaws aws-java-sdk-cloudhsm 1.12.638
com.amazonaws aws-java-sdk-cloudsearch 1.12.638
com.amazonaws aws-java-sdk-cloudtrail 1.12.638
com.amazonaws aws-java-sdk-cloudwatch 1.12.638
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.638
com.amazonaws aws-java-sdk-codedeploy 1.12.638
com.amazonaws aws-java-sdk-cognitoidentity 1.12.638
com.amazonaws aws-java-sdk-cognitosync 1.12.638
com.amazonaws aws-java-sdk-config 1.12.638
com.amazonaws aws-java-sdk-core 1.12.638
com.amazonaws aws-java-sdk-datapipeline 1.12.638
com.amazonaws aws-java-sdk-directconnect 1.12.638
com.amazonaws aws-java-sdk-directory 1.12.638
com.amazonaws aws-java-sdk-dynamodb 1.12.638
com.amazonaws aws-java-sdk-ec2 1.12.638
com.amazonaws aws-java-sdk-ecs 1.12.638
com.amazonaws aws-java-sdk-efs 1.12.638
com.amazonaws aws-java-sdk-elasticache 1.12.638
com.amazonaws AWS Java SDK pour Elastic Beanstalk 1.12.638
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.638
com.amazonaws aws-java-sdk-elastictranscoder 1.12.638
com.amazonaws aws-java-sdk-emr 1.12.638
com.amazonaws aws-java-sdk-glacier 1.12.638
com.amazonaws aws-java-sdk-glue 1.12.638
com.amazonaws aws-java-sdk-iam 1.12.638
com.amazonaws aws-java-sdk-importexport 1.12.638
com.amazonaws aws-java-sdk-kinesis 1.12.638
com.amazonaws aws-java-sdk-kms 1.12.638
com.amazonaws aws-java-sdk-lambda 1.12.638
com.amazonaws aws-java-sdk-logs 1.12.638
com.amazonaws aws-java-sdk-machinelearning (kit de développement logiciel AWS pour l'apprentissage automatique en Java) 1.12.638
com.amazonaws aws-java-sdk-opsworks 1.12.638
com.amazonaws aws-java-sdk-rds 1.12.638
com.amazonaws aws-java-sdk-redshift 1.12.638
com.amazonaws aws-java-sdk-route53 1.12.638
com.amazonaws aws-java-sdk-s3 1.12.638
com.amazonaws aws-java-sdk-ses 1.12.638
com.amazonaws aws-java-sdk-simpledb 1.12.638
com.amazonaws aws-java-sdk-simpleworkflow 1.12.638
com.amazonaws aws-java-sdk-sns 1.12.638
com.amazonaws aws-java-sdk-sqs 1.12.638
com.amazonaws aws-java-sdk-ssm 1.12.638
com.amazonaws aws-java-sdk-storagegateway 1.12.638
com.amazonaws aws-java-sdk-sts 1.12.638
com.amazonaws aws-java-sdk-support 1.12.638
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.638
com.amazonaws jmespath-java 1.12.638
com.clearspring.analytics ruisseau 2.9.8
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.27.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb scalapb-runtime_2.13 0.4.15-11
com.esotericsoftware kryo-shaded 4.0.3
com.esotericsoftware minlog 1.3.0
com.fasterxml Camarade de classe 1.5.1
com.fasterxml.jackson.core jackson-annotations 2.18.2
com.fasterxml.jackson.core jackson-core 2.18.2
com.fasterxml.jackson.core jackson-databind 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.18.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.18.2
com.fasterxml.jackson.module jackson-module-paranamer 2.18.2
com.fasterxml.jackson.module jackson-module-scala_2.13 2.18.2
com.github.ben-manes.caffeine caféine 2.9.3
com.github.blemale scaffeine_2.13 4.1.0
com.github.fommil jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1 natifs
com.github.fommil.netlib système_natif-java 1.1
com.github.fommil.netlib système_natif-java 1.1 natifs
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1 natifs
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1 natifs
com.github.luben zstd-jni 1.5.6-10
com.github.virtuald curvesapi 1.08
com.github.wendykierp JTransforms 3.1
com.google.api.grpc proto-google-common-protos 2.5.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.11.0
com.google.crypto.tink tink 1.16.0
com.google.errorprone annotations_sujettes_aux_erreurs 2.36.0
com.google.flatbuffers flatbuffers-java 24.3.25
com.google.guava failureaccess 1.0.2
com.google.guava guava 33.4.0-jre
com.google.guava listenablefuture 9999.0-empty-to-avoid-conflict-with-guava
com.google.j2objc j2objc-annotations 3.0.0
com.google.protobuf protobuf-java 3.25.5
com.google.protobuf protobuf-java-util 3.25.5
com.helger profiler 1.1.1
com.ibm.icu icu4j 75.1
com.jcraft jsch 0.1.55
com.lihaoyi fansi_2.13 0.5.0
com.lihaoyi sourcecode_2.13 0.1.9
com.microsoft.azure Azure Data Lake Store SDK (kit de développement logiciel pour le magasin Azure Data Lake) 2.3.10
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.microsoft.sqlserver mssql-jdbc 12.8.0.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.13 0.4.13
com.twitter chill-java 0.10.0
com.twitter chill_2.13 0.10.0
com.twitter util-app_2.13 19.8.1
com.twitter util-core_2.13 19.8.1
com.twitter util-function_2.13 19.8.1
com.twitter util-jvm_2.13 19.8.1
com.twitter util-lint_2.13 19.8.1
com.twitter util-registry_2.13 19.8.1
com.twitter util-stats_2.13 19.8.1
com.typesafe config 1.4.3
com.typesafe.scala-logging scala-logging_2.13 3.9.2
com.uber h3 3.7.3
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
com.zaxxer SparseBitSet 1.3
commons-cli commons-cli 1.9.0
commons-codec commons-codec 1.17.2
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1,5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.18.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compresseur d'air 2.0.2
io.delta delta-sharing-client_2.13 1.3.3
io.dropwizard.metrics annotation des métriques 4.2.30
io.dropwizard.metrics métriques de base 4.2.30
io.dropwizard.metrics metrics-graphite 4.2.30
io.dropwizard.metrics métriques-vérifications de santé 4.2.30
io.dropwizard.metrics metrics-jetty9 4.2.30
io.dropwizard.metrics metrics-jmx 4.2.30
io.dropwizard.metrics metrics-json 4.2.30
io.dropwizard.metrics metrics-jvm 4.2.30
io.dropwizard.metrics servlets de métriques 4.2.30
io.github.java-diff-utils java-diff-utils 4.15
io.netty netty-all 4.1.118.Final
io.netty netty-buffer 4.1.118.Final
io.netty netty-codec 4.1.118.Final
io.netty netty-codec-http 4.1.118.Final
io.netty netty-codec-http2 4.1.118.Final
io.netty netty-codec-socks 4.1.118.Final
io.netty netty-common 4.1.118.Final
io.netty netty-handler 4.1.118.Final
io.netty netty-handler-proxy 4.1.118.Final
io.netty netty-resolver 4.1.118.Final
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-windows-x86_64
io.netty netty-tcnative-classes 2.0.70.Final
io.netty netty-transport 4.1.118.Final
io.netty netty-transport-classes-epoll 4.1.118.Final
io.netty netty-transport-classes-kqueue 4.1.118.Final
io.netty netty-transport-native-epoll 4.1.118.Final
io.netty netty-transport-native-epoll 4.1.118.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.118.Final-linux-riscv64
io.netty netty-transport-native-epoll 4.1.118.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.118.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.118.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.118.Final
io.prometheus simpleclient 0.16.1-databricks
io.prometheus simpleclient_common 0.16.1-databricks
io.prometheus simpleclient_dropwizard 0.16.1-databricks
io.prometheus simpleclient_pushgateway 0.16.1-databricks
io.prometheus simpleclient_servlet 0.16.1-databricks
io.prometheus simpleclient_servlet_common 0.16.1-databricks
io.prometheus simpleclient_tracer_common 0.16.1-databricks
io.prometheus simpleclient_tracer_otel 0.16.1-databricks
io.prometheus simpleclient_tracer_otel_agent 0.16.1-databricks
io.prometheus.jmx collectionneur 0.18.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation activation 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.media jai_core jai_core_dummy
javax.transaction jta 1.1
javax.transaction transaction-api 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.13.0
net.java.dev.jna jna 5.8.0
net.razorvine pickle 1,5
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.13.1
org.antlr stringtemplate 3.2.1
org.apache.ant ant 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant ant-launcher 1.10.11
org.apache.arrow arrow-format 18.2.0
org.apache.arrow arrow-memory-core 18.2.0
org.apache.arrow arrow-memory-netty 18.2.0
org.apache.arrow arrow-memory-netty-buffer-patch 18.2.0
org.apache.arrow vecteur-flèche 18.2.0
org.apache.avro avro 1.12.0
org.apache.avro avro-ipc 1.12.0
org.apache.avro avro-mapred 1.12.0
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.27.1
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.17.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.13.0
org.apache.curator curator-client 5.7.1
org.apache.curator curator-framework 5.7.1
org.apache.curator curator-recipes 5.7.1
org.apache.datasketches datasketches-java 6.1.1
org.apache.datasketches datasketches-memory 3.0.2
org.apache.derby derby 10.14.2.0
org.apache.hadoop environnement d'exécution du client Hadoop 3.4.1
org.apache.hive hive-beeline 2.3.10
org.apache.hive hive-cli 2.3.10
org.apache.hive hive-jdbc 2.3.10
org.apache.hive hive-llap-client 2.3.10
org.apache.hive hive-llap-common 2.3.10
org.apache.hive hive-serde 2.3.10
org.apache.hive hive-shims 2.3.10
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.10
org.apache.hive.shims hive-shims-common 2.3.10
org.apache.hive.shims hive-shims-scheduler 2.3.10
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy ivy 2.5.3
org.apache.logging.log4j log4j-1.2-api 2.24.3
org.apache.logging.log4j log4j-api 2.24.3
org.apache.logging.log4j log4j-core 2.24.3
org.apache.logging.log4j log4j-layout-template-json 2.24.3
org.apache.logging.log4j log4j-slf4j2-impl 2.24.3
org.apache.orc orc-core 2.1.1-shaded-protobuf
org.apache.orc orc-format 1.1.0-shaded-protobuf
org.apache.orc orc-mapreduce 2.1.1-shaded-protobuf
org.apache.orc orc-shims 2.1.1
org.apache.poi poi 5.4.1
org.apache.poi poi-ooxml 5.4.1
org.apache.poi poi-ooxml-full 5.4.1
org.apache.poi poi-ooxml-lite 5.4.1
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.16.0
org.apache.ws.xmlschema xmlschema-core 2.3.1
org.apache.xbean xbean-asm9-shaded 4,26
org.apache.xmlbeans xmlbeans 5.3.0
org.apache.yetus audience-annotations 0.13.0
org.apache.zookeeper gardien de zoo 3.9.3
org.apache.zookeeper zookeeper-jute 3.9.3
org.checkerframework checker-qual 3.43.0
org.codehaus.janino compilateur commun 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.53.v20231009
org.eclipse.jetty jetty-continuation 9.4.53.v20231009
org.eclipse.jetty jetty-http 9.4.53.v20231009
org.eclipse.jetty jetty-io 9.4.53.v20231009
org.eclipse.jetty jetty-jndi 9.4.53.v20231009
org.eclipse.jetty jetty-plus 9.4.53.v20231009
org.eclipse.jetty jetty-proxy 9.4.53.v20231009
org.eclipse.jetty jetty-security (sécurité de quai) 9.4.53.v20231009
org.eclipse.jetty serveur jetty 9.4.53.v20231009
org.eclipse.jetty jetty-servlet 9.4.53.v20231009
org.eclipse.jetty jetty-servlets 9.4.53.v20231009
org.eclipse.jetty jetty-util 9.4.53.v20231009
org.eclipse.jetty jetty-util-ajax 9.4.53.v20231009
org.eclipse.jetty jetty-webapp 9.4.53.v20231009
org.eclipse.jetty jetty-xml 9.4.53.v20231009
org.eclipse.jetty.websocket WebSocket-API 9.4.53.v20231009
org.eclipse.jetty.websocket websocket-client 9.4.53.v20231009
org.eclipse.jetty.websocket websocket-common 9.4.53.v20231009
org.eclipse.jetty.websocket serveur websocket 9.4.53.v20231009
org.eclipse.jetty.websocket websocket-servlet 9.4.53.v20231009
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 OSGi Localisateur de Ressources 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.41
org.glassfish.jersey.containers jersey-container-servlet-core 2.41
org.glassfish.jersey.core jersey-client 2.41
org.glassfish.jersey.core jersey-common 2.41
org.glassfish.jersey.core jersey-server 2.41
org.glassfish.jersey.inject jersey-hk2 2.41
org.hibernate.validator hibernate-validator 6.2.5.Final
org.ini4j ini4j 0.5.4
org.javassist javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.4.1.Final
org.jdbi jdbi 2.63.1
org.jetbrains annotations 17.0.0
org.jline jline 3.27.1-jdk8
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.13 4.0.7
org.json4s json4s-core_2.13 4.0.7
org.json4s json4s-jackson-core_2.13 4.0.7
org.json4s json4s-jackson_2.13 4.0.7
org.json4s json4s-scalap_2.13 4.0.7
org.lz4 lz4-java 1.8.0-databricks-1
org.mlflow mlflow-spark_2.13 2.9.1
org.objenesis objenèse 3.3
org.postgresql postgresql 42.6.1
org.roaringbitmap RoaringBitmap 1.2.1
org.rocksdb rocksdbjni 9.8.4
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.13 2.13.16
org.scala-lang scala-library_2.13 2.13.16
org.scala-lang scala-reflect_2.13 2.13.16
org.scala-lang.modules scala-collection-compat_2.13 2.11.0
org.scala-lang.modules scala-java8-compat_2.13 0.9.1
org.scala-lang.modules scala-parallel-collections_2.13 1.2.0
org.scala-lang.modules scala-parser-combinators_2.13 2.4.0
org.scala-lang.modules scala-xml_2.13 2.3.0
org.scala-sbt interface de test 1,0
org.scalacheck scalacheck_2.13 1.18.0
org.scalactic scalactic_2.13 3.2.19
org.scalameta common_2.13 4.13.5
org.scalameta io_2.13 4.13.5
org.scalameta mdoc-parser_2.13 2.6.4
org.scalameta metaconfig-core_2.13 0.15.0
org.scalameta metaconfig-pprint_2.13 0.15.0
org.scalameta metaconfig-typesafe-config_2.13 0.15.0
org.scalameta parsers_2.13 4.13.5
org.scalameta scalafmt-config_2.13 3.9.6
org.scalameta scalafmt-core_2.13 3.9.6
org.scalameta scalafmt-macros_2.13 3.9.6
org.scalameta scalafmt-sysops_2.13 3.9.6
org.scalameta scalameta_2.13 4.13.5
org.scalameta trees_2.13 4.13.5
org.scalanlp breeze-macros_2.13 2.1.0
org.scalanlp breeze_2.13 2.1.0
org.scalatest compatible avec scalatest 3.2.19
org.scalatest scalatest-core_2.13 3.2.19
org.scalatest scalatest-diagrams_2.13 3.2.19
org.scalatest scalatest-featurespec_2.13 3.2.19
org.scalatest scalatest-flatspec_2.13 3.2.19
org.scalatest scalatest-freespec_2.13 3.2.19
org.scalatest scalatest-funspec_2.13 3.2.19
org.scalatest scalatest-funsuite_2.13 3.2.19
org.scalatest scalatest-matchers-core_2.13 3.2.19
org.scalatest scalatest-mustmatchers_2.13 3.2.19
org.scalatest scalatest-propspec_2.13 3.2.19
org.scalatest scalatest-refspec_2.13 3.2.19
org.scalatest scalatest-shouldmatchers_2.13 3.2.19
org.scalatest scalatest-wordspec_2.13 3.2.19
org.scalatest scalatest_2.13 3.2.19
org.slf4j jcl-over-slf4j 2.0.16
org.slf4j jul-to-slf4j 2.0.16
org.slf4j slf4j-api 2.0.16
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.8.0
org.tukaani xz 1,10
org.typelevel algebra_2.13 2.8.0
org.typelevel cats-kernel_2.13 2.8.0
org.typelevel paiges-core_2.13 0.4.4
org.typelevel spire-macros_2.13 0.18.0
org.typelevel spire-platform_2.13 0.18.0
org.typelevel spire-util_2.13 0.18.0
org.typelevel spire_2.13 0.18.0
org.wildfly.openssl wildfly-openssl 1.1.3.Finale
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1,5
software.amazon.cryptools AmazonCorrettoCryptoProvider 2.5.0-linux-x86_64
stax stax-api 1.0.1

Conseil / Astuce

Pour afficher les notes de publication des versions de Databricks Runtime qui ont atteint la fin de la prise en charge (EoS), consultez les notes de publication des versions de Databricks Runtime ayant atteint la fin de la prise en charge. Les versions d’EoS Databricks Runtime ont été supprimées et peuvent ne pas être mises à jour.