Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Les notes de publication suivantes fournissent des informations sur Databricks Runtime 16.4 LTS, basé sur Apache Spark 3.5.2.
Databricks a publié cette version LTS en mai 2025. Il existe deux variantes pour cette version, l’une prenant en charge Scala 2.12 et une autre prenant en charge Scala 2.13.
À compter de DBR 17 (Spark 4), seul Scala 2.13 sera pris en charge. Pour vous aider à effectuer la transition, deux images sont disponibles dans 16,4 LTS : une avec Scala 2.12 et une avec Scala 2.13. Utilisez l’image 2.13 pour tester et mettre à jour votre base de code sur Scala 2.13 avant de migrer vers DBR 17.
Conseils de migration Scala 2.13
- Toutes les autres fonctionnalités sont identiques dans les versions databricks Runtime 16.4 LTS.
- Les versions de dépendance peuvent différer entre l’image Databricks Runtime 16.4 Scala 2.12 et l’image 16.4 Scala 2.13. Les versions des bibliothèques prises en charge dans chaque image sont répertoriées ci-dessous sur cette page.
- Vérifiez que votre code est écrit dans Scala 2.13 et que votre exécutable est compilé avec Scala 2.13.
- Générez votre projet sur Spark 3.5.
Si votre code utilise la sparklyr bibliothèque R, vous devez utiliser l’image qui prend en charge Scala 2.12 à la place.
Modifications majeures entre Scala 2.12 et 2.13
Changements cassants majeurs
Databricks Runtime considère qu'un changement cassant est majeur lorsqu'il nécessite des modifications importantes du code pour être pris en charge.
Incompatibilité de collection : lisez cette page officielle de documents Scala pour plus d’informations sur la migration des collections vers Scala 2.13. Si votre code utilise une version antérieure du code Scala, les collections sont la source principale des incompatibilités lors de l’utilisation de Databricks, en particulier avec les paramètres d’API et les types de retour.
Algorithme de hachage : lors de l’examen de votre code généré avec Scala 2.12, ne reposez pas sur l’ordre implicite des structures de données qui ne garantissent pas l’ordre, tel que
HashMapetSet. Les collections qui effectuent un classement implicite peuvent classer leurs éléments différemment lorsqu’ils sont exécutés sous la version 2.13 (vs. 2.12) lorsque vous effectuez une itération dans ces éléments.
Changements cassants mineurs
Databricks Runtime considère qu'un changement cassant est mineur lorsqu'aucun message d'erreur spécifique n'est généré en raison de changements de version, mais que votre code échoue généralement à la compilation sous cette version. Dans ce cas, les messages d’erreur peuvent fournir suffisamment d’informations pour mettre à jour votre code.
- Inférence de type plus stricte : lors de la compilation du code développé pour Scala 2.12 avec la version 2.13, le compilateur peut signaler qu’il ne peut pas déduire le type ou l’indicateur de l’ambiguïté du type. Annoter explicitement les variables avec leur type de données résout souvent ce problème.
-
Suppression d’une syntaxe spécifique : une syntaxe a été déconseillée dans Scala 2.13, telle que le littéral de chaîne à guillemet unique, l’opérateur
+de concaténation de chaîne lorsqu’elle est utilisée avec un type nonStringà gauche et l’opérateur postfix (utilisez plutôt la notation par points). Pour plus d’informations, consultez : Fonctionnalités supprimées Scala dans la documentation Scala officielle. -
Messages de sortie : les résultats de texte des messages retournés à partir de REPL peuvent être différents entre Scala 2.12 et 2.13. Toute différence ne signifie pas que la syntaxe ou le calcul est incorrect ; plutôt, le message décrit le problème ou le contexte différemment ou le présente dans un format de représentation différent. Par exemple,
f: Foo = Foo(1)peut devenirf: Foo = Foo(i = 1)dans certains messages.
Liste des versions de bibliothèque prises en charge par chaque version Scala de Databricks Runtime 16.4 LTS :
Nouvelles fonctionnalités et améliorations
- Les tableaux de bord, les alertes et les requêtes sont pris en charge en tant que fichiers d’espace de travail
- Amélioration de la compression automatique du clustering Liquid
- Le chargeur automatique peut désormais nettoyer les fichiers traités dans le répertoire source
- Ajout de la prise en charge de l'élargissement de type pour la diffusion à partir de tables Delta
- IDENTIFIER Prise en charge désormais disponible dans DBSQL pour les opérations de catalogue
- Les expressions rassemblées fournissent maintenant des alias transitoires générés automatiquement
- Ajout de la prise en charge de l'API de transfert de filtre aux sources de données Python
- Amélioration du traceback de la fonction UDF Python
- UNION/EXCEPT/INTERSECT dans une vue et EXECUTE IMMEDIATE renvoient désormais des résultats corrects
- Configuration du plan mis en cache de la source de données et guide de migration
-
Nouvelles
listaggetstring_aggfonctions -
La prise en charge des
MERGE INTOtables avec un contrôle d’accès affiné sur le calcul dédié est désormais en disponibilité générale (GA)
Les tableaux de bord, les alertes et les requêtes sont pris en charge en tant que fichiers d’espace de travail
Les tableaux de bord, les alertes et les requêtes sont désormais pris en charge en tant que fichiers d’espace de travail. Vous pouvez désormais interagir par programmation avec ces objets Databricks depuis n’importe où le système de fichiers de l’espace de travail est disponible, notamment l’écriture, la lecture et la suppression de ces objets comme n’importe quel autre fichier. Pour en savoir plus, consultez Qu’est-ce que les fichiers d’espace de travail ? et interagissez par programmation avec les fichiers d’espace de travail.
Amélioration de la compression automatique du clustering Liquid
Les tables de clustering Liquid gérées par Unity Catalog déclenchent désormais la compaction automatique afin de réduire automatiquement les problèmes liés aux petits fichiers entre les exécutions OPTIMIZE.
Pour plus d’informations, consultez Compactage automatique pour Delta Lake sur Azure Databricks.
Le chargeur automatique peut désormais nettoyer les fichiers traités dans le répertoire source
Les clients peuvent désormais demander au chargeur automatique de déplacer ou de supprimer automatiquement des fichiers qui ont été traités. Optez pour cette fonctionnalité à l’aide de l’option cloudFiles.cleanSource Chargeur automatique.
Pour plus d’informations, consultez les options du chargeur automatique sous cloudFiles.cleanSource.
Ajout de la prise en charge de l'élargissement de type pour la diffusion à partir de tables Delta
Cette version ajoute la prise en charge de la diffusion à partir d'une table Delta qui contient des données de colonne à type élargi, ainsi que du partage d'une table Delta avec l'élargissement de type activé à l'aide du partage Delta Databricks-to-Databricks. La fonctionnalité d'élargissement de type est actuellement en préversion publique.
Pour plus d'informations, consultez Élargissement de type.
IDENTIFIER la prise en charge est désormais disponible dans DBSQL pour les opérations de catalogue
Les clients Azure Databricks peuvent désormais utiliser la IDENTIFIER clause lors de l’exécution des opérations de catalogue suivantes :
CREATE CATALOGDROP CATALOGCOMMENT ON CATALOGALTER CATALOG
Cette nouvelle syntaxe permet aux clients de spécifier dynamiquement des noms de catalogue à l’aide de paramètres définis pour ces opérations, ce qui permet des flux de travail SQL plus flexibles et réutilisables. En guise d’exemple de syntaxe, considérez CREATE CATALOG IDENTIFIER(:param) où param est un paramètre fourni pour spécifier un nom de catalogue.
Pour plus d’informations, consultez IDENTIFIER la clause.
Les expressions compilées fournissent désormais des alias temporaires générés automatiquement
Les alias générés automatiquement pour les expressions compilées incorporeront dorénavant systématiquement des informations COLLATE. Les alias générés automatiquement sont temporaires (instables) et ne doivent pas être pris en compte. Au lieu de cela, en tant que meilleure pratique, utilisez expression AS alias de manière cohérente et explicite.
Ajout de la prise en charge de l'API de transfert de filtre aux sources de données Python
Dans Databricks Runtime 16.4 LTS, Azure Databricks a ajouté la prise en charge du transfert vers le bas des filtres à la lecture par lots de sources de données Python sous la forme d'une API similaire à l'interface SupportsPushDownFilters. Vous pouvez désormais implémenter DataSourceReader.pushFilters pour recevoir des filtres qui peuvent être poussés vers le bas. Vous pouvez également implémenter cette API pour fournir une logique permettant de sélectionner des filtres à pousser vers le bas, de les suivre et de retourner les filtres restants pour l’application par Apache Spark.
Le transfert vers le bas des filtres permet à la source de données de gérer un sous-ensemble de filtres. Cela peut améliorer les performances en réduisant la quantité de données qui doivent être traitées par Spark.
Le transfert vers le bas des filtres est uniquement pris en charge pour les lectures par lots, et non pour les lectures en flux. La nouvelle API doit être ajoutée à DataSourceReader et non à DataSource ou DataSourceStreamReader. La liste des filtres doit être interprétée comme la logique AND des éléments dans votre implémentation. Cette méthode est appelée une fois pendant la planification des requêtes. Dans l’implémentation par défaut, elle retourne tous les filtres qui indiquent qu’aucun filtre ne peut être poussé vers le bas. Utilisez des sous-classes pour redéfinir cette méthode et implémenter votre logique pour le filtrage en aval.
Initialement et pour simplifier l’API, Azure Databricks prend uniquement en charge les filtres V1 qui ont une colonne, un opérateur booléen et une valeur littérale. La sérialisation du filtre est un espace réservé et sera implémentée dans une future PR. Par exemple:
class DataSourceReader(ABC):
...
def pushFilters(self, filters: List["Filter"]) -> Iterable["Filter"]:
Azure Databricks vous recommande d’implémenter cette méthode uniquement pour les sources de données qui prennent en charge le filtrage en mode natif, comme les bases de données et les API GraphQL.
Amélioration du traceback de la fonction UDF Python
Le suivi UDF Python inclut désormais des images du pilote et de l’exécuteur, ainsi que des images clientes, ce qui entraîne de meilleurs messages d’erreur qui affichent des détails plus importants et plus pertinents (tels que le contenu de ligne des images à l’intérieur d’une fonction UDF).
UNION/EXCEPT/INTERSECT dans une vue et EXECUTE IMMEDIATE renvoient désormais des résultats corrects
Requêtes pour les définitions de vues temporaires et persistantes avec des colonnes de niveau supérieur UNION/EXCEPT/INTERSECT et non alignées retournaient auparavant des résultats incorrects parce que les mots clés UNION/EXCEPT/INTERSECT étaient considérés comme des alias. À présent, ces requêtes effectuent correctement l’opération d'ensemble entière.
EXECUTE IMMEDIATE ... INTO avec un UNION/EXCEPT/INTERSECT de niveau supérieur et des colonnes sans alias écrivait également un résultat incorrect d'une opération d'ensemble dans la variable spécifiée, car l'analyseur interprétait ces mots-clés comme des alias. De même, les requêtes SQL avec du texte de fin non valide ont également été autorisées. Les opérations définies dans ces cas écrivent désormais un résultat correct dans la variable spécifiée ou échouent en cas de texte SQL non valide.
Configuration du plan mis en cache de la source de données et guide de migration
Depuis la version 16.4.0 de DBR, la lecture depuis une table de source de fichier respecte correctement les options de requête, comme les délimiteurs. Auparavant, le premier plan de requête a été mis en cache et les modifications d’option suivantes sont ignorées. Pour restaurer le comportement précédent, affectez à spark.sql.legacy.readFileSourceTableCacheIgnoreOptions la valeur true.
Nouvelles fonctions listagg et string_agg
À compter de cette version, vous pouvez utiliser les fonctions listagg ou string_agg pour agréger les valeurs STRING et BINARY au sein d’un groupe.
Pour plus d’informations, consultez string_agg .
La prise en charge des MERGE INTO tables avec un contrôle d’accès affiné sur le calcul dédié est désormais en disponibilité générale (GA)
Dans Databricks Runtime 16.3 et versions ultérieures, le calcul dédié prend en charge les tables du catalogue Unity MERGE INTO qui utilisent un contrôle d’accès affiné. Cette fonctionnalité est désormais en disponibilité générale.
Consultez le contrôle d’accès affiné sur le calcul dédié.
Changements comportementaux DBR 16.4 LTS
- Tables Delta : la commande "DESCRIBE DETAIL table" affiche désormais l’état clusterByAuto de la table
- Correction pour respecter les options des plans mis en cache de la source de données
- Règle de rédaction déplacée de l'analyseur vers l'optimiseur
- variant_get et get_json_object tiennent désormais compte des espaces de début dans les chemins dans Apache Spark
- Activation de l'indicateur pour interdire la désactivation de la matérialisation de la source pour les opérations MERGE
- Déplacement de l'ancrage d'activation du journal des métadonnées de partition vers la table
- Rétrograder json4s de 4.0.7 à 3.7.0-M11 dans DBR 16.2 et 16.3
Tables delta : « DESCRIBE DETAIL table » affiche désormais le statut clusterByAuto de la table
DESCRIBE DETAIL {table} affiche maintenant l’état clusterByAuto de la table (true ou false) en regard des colonnes de clustering actuelles. Pour plus d’informations sur clusterByAuto, consultez le regroupement automatique de liquides.
Correction pour respecter les options des plans mis en cache de la source de données
Cette mise à jour garantit que les lectures de table respectent les options définies pour tous les plans de source de données lorsqu’elles sont mises en cache, et non seulement la première lecture de la table mise en cache.
Auparavant, la lecture de la table de la source de données mettait en cache le premier plan, mais ne tenait pas compte des différentes options dans les requêtes suivantes.
Par exemple, dans la requête qui suit :
spark.sql("CREATE TABLE t(a string, b string) USING CSV".stripMargin)
spark.sql("INSERT INTO TABLE t VALUES ('a;b', 'c')")
spark.sql("SELECT * FROM t").show()
spark.sql("SELECT * FROM t WITH ('delimiter' = ';')")
produirait ce résultat :
+----+----+
|col1|col2|
+----+----+
| a;b| c |
+----+----+
+----+----+
|col1|col2|
+----+----+
| a;b| c |
+----+----+
Avec ce correctif, elle retourne maintenant la sortie attendue :
+----+----+
|col1|col2|
+----+----+
| a;b| c |
+----+----+
+----+----+
|col1|col2|
+----+----+
| a | b,c|
+----+----+
Si vos charges de travail ont des dépendances sur le comportement incorrect précédent, vous pouvez voir des résultats différents après cette modification.
Règle de rédaction déplacée de l’analyseur vers l’optimiseur
Auparavant, les DataFrames pouvaient créer des tables qui contenaient des valeurs régérées lorsque des fonctions SECRET SQL valides étaient utilisées. Cette modification supprime la rédaction lors de la sauvegarde des DataFrames avec un accès secret valide à une table, et la règle de rédaction a été déplacée de l’analyseur vers l’optimiseur.
variant_get et get_json_object prennent désormais en compte les espaces de début dans les chemins d’accès dans Apache Spark
Avant cette modification, les espaces et les onglets en début de chemin dans les expressions variant_get et get_json_object étaient ignorés lorsque Photon était désactivé. Par exemple, select get_json_object('{" key": "value"}', '$[' key']') ne serait pas efficace dans l’extraction de la valeur de " key". Toutefois, les utilisateurs pourront extraire ces clés.
Activation de l'indicateur pour interdire la désactivation de la matérialisation de la source pour les opérations MERGE
Auparavant, les utilisateurs pouvaient désactiver la matérialisation source dans MERGE en définissant merge.materializeSource sur none. Avec le nouvel indicateur activé, cela sera interdit et provoquera une erreur. Databricks prévoit d’activer l’indicateur uniquement pour les clients qui n’ont pas déjà utilisé cet indicateur de configuration. Par conséquent, aucun client ne doit remarquer aucun changement de comportement.
Déplacement de l'ancrage d'activation du journal des métadonnées de partition vers la table
La fonctionnalité de journal des métadonnées de partition a été modifiée, de sorte qu'une fois qu'une table est créée avec spark.databricks.nonDelta.partitionLog.enabled = true, vous pouvez l'associer à une autre table pour qu'un cluster n’applique pas spark.databricks.nonDelta.partitionLog.enabled = true à toutes les tables traitées par ce cluster.
Rétrograder Json4s de 4.0.7 à 3.7.0-M11 dans DBR 16.2 et 16.3
Les clients ne peuvent pas utiliser databricks-connect 16.1+ et Apache Spark™ 3.5.x ensemble dans la même application en raison de différences significatives dans le comportement de l’API entre json4s version 3.7.0-M11 et version 4.0.7. Pour résoudre ce problème, Azure Databricks a rétrogradé Json4s à 3.7.0-M11.
Mises à niveau de bibliothèque (s’applique uniquement à l’image Scala 2.12)
- Bibliothèques R mises à niveau :
- sparklyr de 1.8.4 à 1.8.6 (s'applique uniquement à l'image Scala 2.12 pour la version Databricks Runtime 16.4 LTS)
- Bibliothèques Java mises à niveau :
- io.delta.delta-sharing-client_2.12 de 1.2.3 à 1.2.4
- org.json4s.json4s-ast_2.12 de 4.0.7 à 3.7.0-M11
- org.json4s.json4s-core_2.12 de 4.0.7 à 3.7.0-M11
- org.json4s.json4s-jackson_2.12 de 4.0.7 à 3.7.0-M11
- org.json4s.json4s-scalap_2.12 de 4.0.7 à 3.7.0-M11
La version Scala 2.13 Databricks Runtime est considérée comme une « nouvelle » version et peut avoir des versions de bibliothèque différentes de la version 2.12. Veuillez vous référer au tableau ci-dessous pour connaître les versions spécifiques des bibliothèques dans cette image de version. Il n’est pas inclus sparklyr dans cette version.
Apache Spark
Databricks Runtime 16.4 LTS inclut Apache Spark 3.5.2. Cette version inclut tous les correctifs et améliorations Spark inclus dans Databricks Runtime 16.3 (EoS), ainsi que les correctifs de bogues et améliorations supplémentaires suivants apportés à Spark :
- [SPARK-51206] [PYTHON][connect] Déplacement des aides à la conversion Arrow hors de Spark Connect
- [SPARK-51566] [PYTHON] Amélioration du suivi UDF Python
- [SPARK-51675] [SS] Correction de la création de la famille col après l'ouverture de la base de données locale afin d'éviter la création d'instantanés, si cela n'est pas nécessaire
- [SPARK-50892] [SQL]Add UnionLoopExec, opérateur physique pour la récursivité, pour exécuter l’exécution de requêtes récursives
- [SPARK-51670] [SQL] Refactoriser Intersect et Except pour suivre l'exemple de Union afin de les réutiliser dans l'Analyseur à passage unique
- [SPARK-47895] [BEHAVE-266][sql] Le regroupement par alias doit être idempotent
- [SPARK-51614] [ SQL] Introduire la règle ResolveUnresolvedHaving dans l’analyseur
- [SPARK-51662] [SQL] Rendre OrcFileFormat comparable
- [SPARK-51374] Rétablir « [CORE] Basculer vers l’utilisation de java.util.Map dans les API de journalisation »
- [SPARK-51652] [SQL] Externalisation du calcul de SetOperation afin de pouvoir le réutiliser dans l'analyseur à passe unique.
- [SPARK-51622] [UI] Titrer les sections sur la page ExecutionPage
- [SPARK-51586] [SS] Initialiser les partitions d'entrée indépendamment de la prise en charge des colonnes en mode continu
-
[SPARK-51070] [SQL] Utiliser
scala.collection.Setau lieu de Définir dans ValidateExternalType - [SPARK-51559] [SQL] Rendre la taille maximale de la table de diffusion configurable
- [SPARK-51496] [SQL] La comparaison CaseInsensitiveStringMap doit ignorer la casse
- [SPARK-50416] [CORE] Un test de terminal/pipe plus portable est nécessaire pour bin/load-spark-env.sh
- [SPARK-51509] [CORE][ui] Faire en sorte que la page Environnement prenne en charge les filtres
- [SPARK-51374] [CORE] Basculer vers l’utilisation de java.util.Map dans les API de journalisation
- [SPARK-50820] [SQL] DSv2 : Nullification conditionnelle des colonnes de métadonnées dans DML
- [SPARK-48922] [SQL] Éviter une transformation de tableau redondante d’expression identique pour le type de carte
- [SPARK-51446] [SQL] Améliorer le codecNameMap pour le codec de compression
- [SPARK-51341] [CORE] Annuler une tâche liée au temps d'une manière appropriée.
- [SPARK-51452] [UI] Amélioration de la recherche dans le tableau des dumps de threads
-
[SPARK-51444] [CORE] Supprimer la branche inaccessible
ifdeTaskSchedulerImpl#statusUpdate -
[SPARK-51401] [SQL] Modifier
ExplainUtils.generateFieldStringpour appeler directementQueryPlan.generateFieldString - [SPARK-49507] [SQL] Correction du problème de cas après l'activation de metastorePartitionPruningFastFallback
- [SPARK-51506] [PYTHON][ss] Ne pas imposer aux utilisateurs d’implémenter close() dans TransformWithStateInPandas
- [SPARK-51624] [SQL] Propagation des métadonnées GetStructField dans CreateNamedStruct.dataType
- [SPARK-51201] [SQL] Permettre aux indications de partitionnement de prendre en charge les valeurs de type byte et short
-
[SPARK-51186] [PYTHON] Ajouter
StreamingPythonRunnerInitializationExceptionà l’exception de base PySpark - [SPARK-50286] [SQL] Propage correctement les options SQL vers WriteBuilder
- [SPARK-51616] [SQL] Exécuter CollationTypeCasts avant ResolveAliases et ResolveAggregateFunctions
- [SPARK-51023] [CORE] Enregistrement de l'adresse distante dans le journal lors d'une exception RPC
- [SPARK-51087] [PYTHON][connect] Déclencher un avertissement lorsque le profileur de mémoire n’est pas installé pour le profilage de la mémoire
-
[SPARK-51073] [SQL] Supprimer
Unstablede laSparkSessionExtensionsProvidercaractéristique - [SPARK-51471] [ SS] RatePerMicroBatchStream : classifier l’erreur ASSERT lorsque l'offset/le timestamp dans le startOffset est supérieur à celui dans le endOffset
- [SPARK-51062] [PYTHON] Corriger assertSchemaEqual pour comparer la précision et l'échelle des décimales
- [SPARK-51612] [SQL] Afficher les confs Spark définis lors de la création de l’affichage dans Desc As Json
- [SPARK-51573] [SS] Correction de la condition de concurrence checkpointInfo dans Streaming State Checkpoint v2
- [SPARK-51252] [SS] Ajouter des métriques d’instance pour la dernière version de capture instantanée chargée dans les magasins d’états HDFS
- [SPARK-51552] [SQL] Interdire les variables temporaires dans les vues persistantes lorsqu’elles sont sous l’identificateur
- [SPARK-51625] [SQL] La commande dans les relations CTE doit déclencher l'inlining
- [SPARK-51584] [SQL] Ajouter une règle qui pousse le projet via Offset et Suite qui le teste
-
[SPARK-51593] [SQL] Refactorisation de l'instanciation
QueryExecutionMetering - [SPARK-49082] [SQL] Prise en charge de l'élargissement de Date à TimestampNTZ dans le lecteur Avro
- [SPARK-50220] [PYTHON] Prise en charge de listagg dans PySpark
-
[SPARK-51581] [CORE][sql] Utilisation de
nonEmpty/isEmptypour la vérification de vide pourIterableexplicite - [SPARK-42746] [SQL] Correction dans la classification des classes d’erreur pour les nouvelles exceptions avec listagg
-
[SPARK-51580] [SQL] Affichage d'un message d'erreur approprié pour l'utilisateur lorsque la fonction lambda n'est pas à sa place dans
HigherOrderFunction - [SPARK-51589] [SQL] Correction d'un bogue mineur empêchant la vérification des fonctions d'agrégation dans |>SELECT
- [SPARK-50821] [ PYTHON] Mettre à niveau Py4J de 0.10.9.8 à 0.10.9.9
- [SPARK-42746] [SQL] Implémenter la fonction LISTAGG
- [SPARK-48399] [SQL] Teradata : ByteType doit être mappé à BYTEINT au lieu de BYTE(binary)
- [SPARK-43221] [CORE] La récupération des blocs locaux hôtes doit utiliser le statut d'un bloc stocké sur le disque
- [SPARK-51467] [UI] Rendre les tables de la page d'environnement filtrables
-
[SPARK-51569] [SQL] Ne pas réinstancier
InSubquerydansInTypeCoercions'il n'y a pas de modification de type. - [SPARK-51280] [CONNECT] Améliorer la classe d'erreur RESPONSE_ALREADY_RECEIVED
- [SPARK-51525] [SQL] Champ de collation pour Desc As JSON StringType
- [SPARK-51565] [SQL] Prise en charge des paramètres SQL dans la clause de trame de fenêtre
- [SPARK-51544] [SQL] Ajouter uniquement des colonnes de métadonnées uniques et nécessaires
- [SPARK-49349] [SQL] Améliorer le message d’erreur pour LCA avec Generate
- [SPARK-51418] [SQL] Correction de DataSource PARTITON TABLE avec des colonnes de partition incompatibles avec le type Hive
- [SPARK-51269] [ SQL] Simplifiez AvroCompressionCodec en supprimant defaultCompressionLevel
- [SPARK-50618] [SS][sql] Faire en sorte que DataFrameReader et DataStreamReader tirent davantage parti de l'analyseur.
- [SPARK-51097] [SS] Réintroduction des mesures d'instance de la dernière version de l'instantané chargé dans le magasin d'état RocksDB
- [SPARK-51321] [SQL] Ajout de la prise en charge de rpad et lpad pour le pushdown d'expressions PostgresDialect et MsSQLServerDialect
- [SPARK-51428] [BEHAVE-264][sql] Réaffecter les alias pour les arborescences d’expressions compilées de manière déterministe
- [SPARK-51528] [SQL] Ne pas comparer les codes de hachage directement dans ProtobufCatalystDataConversionSuite
- [SPARK-51443] [SS] Correction d’une colonne à variante unique dans DSv2 et readStream.
- [SPARK-51397] [SS] Corriger le problème de gestion de l’arrêt du pool de maintenance à l’origine de temps de test longs
- [SPARK-51522] [SQL] Désactivation du test de union lazy pour les enfants pour l'analyseur à passage unique
- [SPARK-51079] [Fix-forward] Prise en charge des types de variables volumineuses dans pandas UDF, createDataFrame et toPandas avec Arrow
-
[SPARK-51112] [ES-1348599][connect] Éviter d’utiliser pyarrow’s
to_pandassur une table vide - [SPARK-51438] [SQL] Rendre CatalystDataToProtobuf et ProtobufDataToCatalyst correctement comparables et hachables
- [SPARK-50855] [DBR16.x][ss][CONNECT] Prise en charge de Spark Connect pour TransformWithState dans Scala
-
[SPARK-51208] [SQL]
ColumnDefinition.toV1Columndoit conserver laEXISTS_DEFAULTrésolution - [SPARK-51468] [SQL] Revert « From json/xml should not change collations in the given schema »
- [SPARK-51453] [SQL] AssertTrue utilise toPrettySQL au lieu de simpleString
- [SPARK-51409] [SS] Ajout d'une classification des erreurs dans le chemin de création du rédacteur du journal des modifications
- [SPARK-51440] [SS] classer le NPE lorsque la valeur du champ de sujet null se trouve dans les données de message kafka et qu’il n’existe aucune option de sujet.
-
[SPARK-51425] [ Connect] Ajouter une API cliente pour définir une API personnalisée
operation_id - [SPARK-50652] [SS] Ajouter des vérifications à la compatibilité descendante de RocksDB V2
- [SPARK-49164] [SQL] Correction de NullSafeEqual dans le prédicat de la requête SQL dans JDBC Relation
- [SPARK-50880] [SQL] Ajouter une nouvelle méthode visitBinaryComparison à V2ExpressionSQLBuilder
- [SPARK-50838] [ SQL]Effectue des vérifications supplémentaires dans les CTE récursives pour lever une erreur si un cas interdit est rencontré
- [SPARK-51307] [SQL] locationUri dans CatalogStorageFormat doit être décodé pour l’affichage
- [SPARK-51079] [PYTHON] Prise en charge des types de variables volumineuses dans pandas UDF, createDataFrame et toPandas avec Arrow
- [SPARK-50792] [SQL] Format des données binaires en tant que littéral binaire dans JDBC.
Prise en charge du pilote ODBC/JDBC Databricks
Databricks prend en charge les pilotes ODBC/JDBC publiés au cours des 2 dernières années. Téléchargez les pilotes récemment publiés ici :
Environnement du système
-
Système d’exploitation : Ubuntu 24.04.2 LTS.
- Remarque : Il s’agit de la version Ubuntu utilisée par les conteneurs Databricks Runtime. Les conteneurs Databricks Runtime s’exécutent sur les machines virtuelles du fournisseur cloud, qui peuvent utiliser une autre version Ubuntu ou distribution Linux.
- Java : Zulu17.54+21-CA
- Scala : 2.12.15 ou 2.13.10
- Python : 3.12.3
- R : 4.4.0
- Delta Lake : 3.3.1
Bibliothèques Python installées
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| annotated-types | 0.7.0 | asttokens | 2.0.5 | astunparse | 1.6.3 |
| autocommand | 2.2.2 | azure-core | 1.31.0 | azure-storage-blob | 12.23.0 |
| Azure Storage File Data Lake | 12.17.0 | backports.tarfile | 1.2.0 | black | 24.4.2 |
| blinker | 1.7.0 | boto3 | 1.34.69 | botocore | 1.34.69 |
| cachetools | 5.3.3 | certifi | 2024.6.2 | cffi | 1.16.0 |
| chardet | 4.0.0 | charset-normalizer | 2.0.4 | cliquez | 8.1.7 |
| cloudpickle | 2.2.1 | comm | 0.2.1 | contourpy | 1.2.0 |
| cryptographie | 42.0.5 | cycliste | 0.11.0 | Cython | 3.0.11 |
| Kit de développement logiciel Databricks (SDK) | 0.30.0 | dbus-python | 1.3.2 | debugpy | 1.6.7 |
| décorateur | 5.1.1 | Déconseillé | 1.2.14 | distlib | 0.3.8 |
| Conversion de docstring en markdown | 0.11 | exécuter | 0.8.3 | aperçu des facettes | 1.1.1 |
| verrou de fichier | 3.15.4 | outils de police | 4.51.0 | gitdb | 4.0.11 |
| GitPython | 3.1.37 | google-api-core | 2.20.0 | google-auth | 2.35.0 |
| google-cloud-core | 2.4.1 | google-cloud-storage (Stockage dans le cloud de Google) | 2.18.2 | google-crc32c | 1.6.0 |
| google-resumable-media | 2.7.2 | googleapis-common-protos | 1.65.0 | grpcio | 1.60.0 |
| grpcio-status | 1.60.0 | httplib2 | 0.20.4 | IDNA | 3.7 |
| importlib-metadata | 6.0.0 | importlib_resources | 6.4.0 | inflect | 7.3.1 |
| ipyflow-core | 0.0.201 | ipykernel | 6.28.0 | ipython | 8.25.0 |
| ipython-genutils | 0.2.0 | ipywidgets (un outil de widgets interactifs pour Python) | 7.7.2 | isodate | 0.6.1 |
| jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 |
| Jedi | 0.19.1 | jmespath | 1.0.1 | joblib | 1.4.2 |
| jupyter_client | 8.6.0 | jupyter_core | 5.7.2 | kiwisolver | 1.4.4 |
| launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 | lazr.uri | 1.0.6 |
| matplotlib | 3.8.4 | matplotlib-inline | 0.1.6 | mccabe | 0.7.0 |
| mlflow-skinny | 2.19.0 | more-itertools | 10.3.0 | mypy | 1.10.0 |
| mypy-extensions | 1.0.0 | nest-asyncio | 1.6.0 | nodeenv | 1.9.1 |
| numpy | 1.26.4 | oauthlib | 3.2.2 | opentelemetry-api | 1.27.0 |
| opentelemetry-sdk | 1.27.0 | opentelemetry-semantic-conventions | 0.48b0 | empaquetage | 24.1 |
| Pandas | 1.5.3 | parso | 0.8.3 | pathspec | 0.10.3 |
| patsy | 0.5.6 | pexpect | 4.8.0 | pillow | 10.3.0 |
| pip | 24,2 | platformdirs | 3.10.0 | plotly | 5.22.0 |
| pluggy | 1.0.0 | prompt-toolkit | 3.0.43 | proto-plus | 1.24.0 |
| protobuf | 4.24.1 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
| ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 15.0.2 |
| pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 | pyccolo | 0.0.65 |
| pycparser | 2.21 | pydantic | 2.8.2 | pydantic_core | 2.20.1 |
| pyflakes | 3.2.0 | Pygments | 2.15.1 | PyGObject | 3.48.2 |
| PyJWT | 2.7.0 | pyodbc | 5.0.1 | pyparsing | 3.0.9 |
| pyright | 1.1.294 | python-dateutil | 2.9.0.post0 | python-lsp-jsonrpc | 1.1.2 |
| python-lsp-server | 1.10.0 | pytoolconfig | 1.2.6 | pytz | 2024.1 |
| PyYAML | 6.0.1 | pyzmq | 25.1.2 | Requêtes | 2.32.2 |
| rope | 1.12.0 | rsa | 4,9 | s3transfer | 0.10.2 |
| scikit-learn | 1.4.2 | scipy | 1.13.1 | seaborn | 0.13.2 |
| setuptools | 74.0.0 | six | 1.16.0 | smmap | 5.0.0 |
| sqlparse | 0.5.1 | ssh-import-id | 5.11 | données en pile | 0.2.0 |
| statsmodels, une bibliothèque Python pour la modélisation statistique | 0.14.2 | ténacité | 8.2.2 | threadpoolctl | 2.2.0 |
| tokenize-rt | 4.2.1 | tomli | 2.0.1 | tornade | 6.4.1 |
| traitlets | 5.14.3 | typeguard | 4.3.0 | types-protobuf | 3.20.3 |
| types-psutil | 5.9.0 | types-pytz | 2023.3.1.1 | types-PyYAML | 6.0.0 |
| types de requêtes | 2.31.0.0 | types-setuptools | 68.0.0.0 | types-six | 1.16.0 |
| types-urllib3 | 1.26.25.14 | typing_extensions | 4.11.0 | ujson | 5.10.0 |
| unattended-upgrades | 0.1 | urllib3 | 1.26.16 | virtualenv | 20.26.2 |
| wadllib | 1.3.6 | wcwidth | 0.2.5 | c’est quoi le patch | 1.0.2 |
| roue | 0.43.0 | wrapt | 1.14.1 | yapf | 0.33.0 |
| zipp | 3.17.0 |
Bibliothèques R installées
Les bibliothèques R sont installées à partir de l’instantané CRAN du Gestionnaire de package Posit le 04-08-2024.
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| flèche | 16.1.0 | Askpass | 1.2.0 | assertthat | 0.2.1 |
| backports | 1.5.0 | base | 4.4.0 | base64enc | 0.1-3 |
| bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
| bitops | 1,0-8 | objet BLOB | 1.2.4 | boot | 1.3-30 |
| brew | 1.0-10 | brio | 1.1.5 | broom | 1.0.6 |
| bslib | 0.8.0 | cachemire | 1.1.0 | callr | 3.7.6 |
| caret | 6.0-94 | cellranger | 1.1.0 | chron | 2.3-61 |
| classe | 7.3-22 | cli | 3.6.3 | clipr | 0.8.0 |
| horloge | 0.7.1 | cluster | 2.1.6 | codetools | 0.2-20 |
| colorspace | 2.1-1 | commonmark | 1.9.1 | compilateur | 4.4.0 |
| config | 0.3.2 | conflicted | 1.2.0 | cpp11 | 0.4.7 |
| crayon | 1.5.3 | credentials | 2.0.1 | curl | 5.2.1 |
| data.table | 1.15.4 | ensembles de données | 4.4.0 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | desc | 1.4.3 | devtools | 2.4.5 |
| diagramme | 1.6.5 | diffobj | 0.3.5 | digérer | 0.6.36 |
| downlit | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-14 | ellipse | 0.3.2 | évaluer | 0.24.0 |
| fans | 1.0.6 | farver | 2.1.2 | carte rapide | 1.2.0 |
| fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
| foreign | 0.8-86 | forge | 0.2.0 | fs | 1.6.4 |
| futur | 1.34.0 | future.apply | 1.11.2 | gargle | 1.5.2 |
| produits génériques | 0.1.3 | gert | 2.1.0 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | git2r | 0.33.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globals | 0.16.3 | glue | 1.7.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.1 |
| graphisme | 4.4.0 | grDevices | 4.4.0 | grid | 4.4.0 |
| gridExtra | 2.3 | gsubfn | 0,7 | gt | 0.11.0 |
| gtable | 0.3.5 | hardhat | 1.4.0 | haven | 2.5.4 |
| highr | 0.11 | hms | 1.1.3 | outils HTML | 0.5.8.1 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.0.2 | ids | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-15 | isoband | 0.2.7 | iterators | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-22 | knitr | 1,48 | étiquetage | 0.4.3 |
| plus tard | 1.3.2 | lattice | 0.22-5 | lave | 1.8.0 |
| cycle de vie | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
| magrittr | 2.0.3 | markdown | 1.13 | MASS | 7.3-60.0.1 |
| Matrice | 1.6-5 | memoise | 2.0.1 | méthodes | 4.4.0 |
| mgcv | 1.9-1 | mime | 0.12 | miniUI | 0.1.1.1 |
| mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | modèleur | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-165 | nnet | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl | 2.2.0 | parallel | 4.4.0 |
| parallelly | 1.38.0 | pilier | 1.9.0 | pkgbuild | 1.4.4 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr (un package logiciel pour le traitement de données) | 1.8.9 | éloge | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.4 |
| prodlim | 2024.06.25 | profvis | 0.3.8 | progrès | 1.2.3 |
| progressr | 0.14.0 | promesses | 1.3.0 | proto | 1.0.0 |
| proxy | 0,4-27 | p.s. | 1.7.7 | purrr | 1.0.2 |
| R6 | 2.5.1 | ragg | 1.3.2 | randomForest (algorithme d'apprentissage automatique) | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | réactif | 0.4.4 |
| reactR | 0.6.0 | readr | 2.1.5 | readxl | 1.4.3 |
| recettes | 1.1.0 | match retour | 2.0.0 | revanche2 | 2.1.2 |
| remotes | 2.5.0 | reprex | 2.1.1 | reshape2 | 1.4.4 |
| rlang | 1.1.4 | rmarkdown | 2,27 | RODBC | 1.3-23 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1,8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
| rversions | 2.1.2 | rvest | 1.0.4 | sass | 0.4.9 |
| écailles | 1.3.0 | selectr | 0,4-2 | informations sur la session | 1.2.2 |
| shape | 1.4.6.1 | brillant | 1.9.1 | sourcetools | 0.1.7-1 |
| sparklyr (voir remarque ci-dessous) | 1.8.6 | SparkR | 3.5.2 | spatial | 7.3-17 |
| splines | 4.4.0 | sqldf | 0.4-11 | SQUAREM | 2021.1 |
| Statistiques | 4.4.0 | statistiques4 | 4.4.0 | stringi | 1.8.4 |
| stringr | 1.5.1 | survival | 3.6-4 | fichier Swagger | 5.17.14.1 |
| sys | 3.4.2 | systemfonts | 1.1.0 | tcltk | 4.4.0 |
| testthat | 3.2.1.1 | mise en forme de texte | 0.4.0 | tibble | 3.2.1 |
| tidyr | 1.3.1 | tidyselect | 1.2.1 | tidyverse | 2.0.0 |
| changement d'heure | 0.3.0 | date-heure | 4032.109 | tinytex | 0.52 |
| outils | 4.4.0 | tzdb | 0.4.0 | vérificateur d'URL | 1.0.1 |
| Utilise ça | 3.0.0 | utf8 | 1.2.4 | utils | 4.4.0 |
| Identifiant unique universel (UUID) | 1.2-1 | V8 | 4.4.2 | vctrs | 0.6.5 |
| viridisLite | 0.4.2 | vroom | 1.6.5 | Waldo | 0.5.2 |
| whisker | 0.4.1 | withr | 3.0.1 | xfun | 0.46 |
| xml2 | 1.3.6 | xopen | 1.0.1 | xtable | 1.8-4 |
| yaml | 2.3.10 | zeallot | 0.1.0 | zip | 2.3.1 |
Remarque
sparklyr est uniquement pris en charge dans l'image de version Databricks Runtime 16.4 LTS avec prise en charge de Scala 2.12. Il n'est pas pris en charge dans l'image de version DBR 16.4 avec prise en charge de Scala 2.13.
Bibliothèques Java et Scala installées (version du cluster Scala 2.13)
| ID de groupe | ID d’artefact | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | AWS Java SDK pour Elastic Beanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-machinelearning (kit de développement logiciel AWS pour l'apprentissage automatique en Java) | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | aws-java-sdk-support | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | ruisseau | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | kryo-shaded | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | Camarade de classe | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.15.2 |
| com.github.ben-manes.caffeine | caféine | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 natifs |
| com.github.fommil.netlib | système_natif-java | 1.1 |
| com.github.fommil.netlib | système_natif-java | 1.1 natifs |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1 natifs |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1 natifs |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | tink | 1.9.0 |
| com.google.errorprone | annotations_sujettes_aux_erreurs | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 26/05/2023 |
| com.google.guava | guava | 15,0 |
| com.google.protobuf | protobuf-java | 3.25.1 |
| com.helger | profiler | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK (kit de développement logiciel pour le magasin Azure Data Lake) | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.3.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1,5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compresseur d'air | 0.27 |
| io.delta | delta-sharing-client_2.13 | 1.2.3 |
| io.dropwizard.metrics | annotation des métriques | 4.2.19 |
| io.dropwizard.metrics | métriques de base | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | métriques-vérifications de santé | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrics-jmx | 4.2.19 |
| io.dropwizard.metrics | metrics-json | 4.2.19 |
| io.dropwizard.metrics | metrics-jvm | 4.2.19 |
| io.dropwizard.metrics | servlets de métriques | 4.2.19 |
| io.github.java-diff-utils | java-diff-utils | 4,12 |
| io.netty | netty-all | 4.1.108.Final |
| io.netty | netty-buffer | 4.1.108.Final |
| io.netty | netty-codec | 4.1.108.Final |
| io.netty | netty-codec-http | 4.1.108.Final |
| io.netty | netty-codec-http2 | 4.1.108.Final |
| io.netty | netty-codec-socks | 4.1.108.Final |
| io.netty | netty-common | 4.1.108.Final |
| io.netty | netty-handler | 4.1.108.Final |
| io.netty | netty-handler-proxy | 4.1.108.Final |
| io.netty | netty-resolver | 4.1.108.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Final |
| io.netty | netty-transport | 4.1.108.Final |
| io.netty | netty-transport-classes-epoll | 4.1.108.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.108.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | collectionneur | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activation | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | transaction-api | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | pickle | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | ant | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | arrow-format | 15.0.0 |
| org.apache.arrow | arrow-memory-core | 15.0.0 |
| org.apache.arrow | arrow-memory-netty | 15.0.0 |
| org.apache.arrow | vecteur-flèche | 15.0.0 |
| org.apache.avro | avro | 1.11.3 |
| org.apache.avro | avro-ipc | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.10.0 |
| org.apache.curator | curator-client | 2.13.0 |
| org.apache.curator | curator-framework | 2.13.0 |
| org.apache.curator | curator-recipes | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | match de derby | 10.14.2.0 |
| org.apache.hadoop | environnement d'exécution du client Hadoop | 3.3.6 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | ivy | 2.5.2 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-shims | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.23 |
| org.apache.yetus | audience-annotations | 0.13.0 |
| org.apache.zookeeper | gardien de zoo | 3.9.2 |
| org.apache.zookeeper | zookeeper-jute | 3.9.2 |
| org.checkerframework | checker-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | compilateur commun | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | eclipse-collections | 11.1.0 |
| org.eclipse.collections | eclipse-collections-api | 11.1.0 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-security (sécurité de quai) | 9.4.52.v20230823 |
| org.eclipse.jetty | serveur jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | serveur websocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | OSGi Localisateur de Ressources | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | jersey-common | 2.40 |
| org.glassfish.jersey.core | jersey-server | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | hibernate-validator | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | annotations | 17.0.0 |
| org.jline | jline | 3.21.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.13 | 3.7.0-M11 |
| org.json4s | json4s-core_2.13 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.13 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.13 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.9.1 |
| org.objenesis | objenèse | 2.5.1 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | shims | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 9.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.10 |
| org.scala-lang | scala-library_2.13 | 2.13.10 |
| org.scala-lang | scala-reflect_2.13 | 2.13.10 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.0.4 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.13 | 1.2.0 |
| org.scala-sbt | interface de test | 1,0 |
| org.scalacheck | scalacheck_2.13 | 1.14.2 |
| org.scalactic | scalactic_2.13 | 3.2.16 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | compatible avec scalatest | 3.2.16 |
| org.scalatest | scalatest-core_2.13 | 3.2.16 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.16 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.16 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.16 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.16 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.16 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.16 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.16 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.16 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.16 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.16 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.16 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.16 |
| org.scalatest | scalatest_2.13 | 3.2.16 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Finale |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1,5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
| stax | stax-api | 1.0.1 |
Bibliothèques Java et Scala installées (version du cluster Scala 2.12)
| ID de groupe | ID d’artefact | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | AWS Java SDK pour Elastic Beanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-machinelearning (kit de développement logiciel AWS pour l'apprentissage automatique en Java) | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | aws-java-sdk-support | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.azure | azure-core | 1.30.0 |
| com.azure | azure-core-http-netty | 1.12.3 |
| com.azure | azure-identity | 1.5.3 |
| com.azure | azure-security-keyvault-keys | 4.4.4 |
| com.clearspring.analytics | ruisseau | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo-shaded | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | Camarade de classe | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-xml | 2.13.3 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.fasterxml.woodstox | woodstox-core | 6.4.0 |
| com.github.ben-manes.caffeine | caféine | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 natifs |
| com.github.fommil.netlib | système_natif-java | 1.1 |
| com.github.fommil.netlib | système_natif-java | 1.1 natifs |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1 natifs |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1 natifs |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.stephenc.jcip | jcip-annotations | 1.0-1 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | tink | 1.9.0 |
| com.google.errorprone | annotations_sujettes_aux_erreurs | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 26/05/2023 |
| com.google.guava | guava | 15,0 |
| com.google.protobuf | protobuf-java | 3.25.1 |
| com.helger | profiler | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK (kit de développement logiciel pour le magasin Azure Data Lake) | 2.3.9 |
| com.microsoft.azure | msal4j | 1.13.0 |
| com.microsoft.azure | msal4j-persistence-extension | 1.1.0 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.3.jre8 |
| com.nimbusds | type de contenu | 2,2 |
| com.nimbusds | lang-tag | 1.6 |
| com.nimbusds | nimbus-jose-jwt | 9,31 |
| com.nimbusds | oauth2-oidc-sdk | 9.35 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1,5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compresseur d'air | 0.27 |
| io.delta | delta-sharing-client_2.12 | 1.2.4 |
| io.dropwizard.metrics | annotation des métriques | 4.2.19 |
| io.dropwizard.metrics | métriques de base | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | métriques-vérifications de santé | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrics-jmx | 4.2.19 |
| io.dropwizard.metrics | metrics-json | 4.2.19 |
| io.dropwizard.metrics | metrics-jvm | 4.2.19 |
| io.dropwizard.metrics | servlets de métriques | 4.2.19 |
| io.netty | netty-all | 4.1.108.Final |
| io.netty | netty-buffer | 4.1.108.Final |
| io.netty | netty-codec | 4.1.108.Final |
| io.netty | netty-codec-dns | 4.1.77.Final |
| io.netty | netty-codec-http | 4.1.108.Final |
| io.netty | netty-codec-http2 | 4.1.108.Final |
| io.netty | netty-codec-socks | 4.1.108.Final |
| io.netty | netty-common | 4.1.108.Final |
| io.netty | netty-handler | 4.1.108.Final |
| io.netty | netty-handler-proxy | 4.1.108.Final |
| io.netty | netty-resolver | 4.1.108.Final |
| io.netty | netty-resolver-dns | 4.1.77.Final |
| io.netty | netty-resolver-dns-classes-macos | 4.1.77.Final |
| io.netty | netty-resolver-dns-native-macos | 4.1.77.Final-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Final |
| io.netty | netty-transport | 4.1.108.Final |
| io.netty | netty-transport-classes-epoll | 4.1.108.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.108.Final |
| io.projectreactor | cœur du réacteur | 3.4.19 |
| io.projectreactor.netty | reactor-netty-core | 1.0.20 |
| io.projectreactor.netty | reactor-netty-http | 1.0.20 |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | collectionneur | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activation | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | transaction-api | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.java.dev.jna | jna-platform | 5.6.0 |
| net.minidev | accessors-smart | 2.4.11 |
| net.minidev | json-smart | 2.4.11 |
| net.razorvine | pickle | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | ant | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | arrow-format | 15.0.0 |
| org.apache.arrow | arrow-memory-core | 15.0.0 |
| org.apache.arrow | arrow-memory-netty | 15.0.0 |
| org.apache.arrow | vecteur-flèche | 15.0.0 |
| org.apache.avro | avro | 1.11.3 |
| org.apache.avro | avro-ipc | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.10.0 |
| org.apache.curator | curator-client | 2.13.0 |
| org.apache.curator | curator-framework | 2.13.0 |
| org.apache.curator | curator-recipes | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | match de derby | 10.14.2.0 |
| org.apache.hadoop | environnement d'exécution du client Hadoop | 3.3.6 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | ivy | 2.5.2 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-shims | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.23 |
| org.apache.yetus | audience-annotations | 0.13.0 |
| org.apache.zookeeper | gardien de zoo | 3.9.2 |
| org.apache.zookeeper | zookeeper-jute | 3.9.2 |
| org.bouncycastle | bcprov-jdk15on | 1.70 |
| org.checkerframework | checker-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | compilateur commun | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.codehaus.woodstox | stax2-api | 4.2.1 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | eclipse-collections | 11.1.0 |
| org.eclipse.collections | eclipse-collections-api | 11.1.0 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-security (sécurité de quai) | 9.4.52.v20230823 |
| org.eclipse.jetty | serveur jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | serveur websocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | OSGi Localisateur de Ressources | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | jersey-common | 2.40 |
| org.glassfish.jersey.core | jersey-server | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | hibernate-validator | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | annotations | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.12 | 2.9.1 |
| org.objenesis | objenèse | 2.5.1 |
| org.ow2.asm | asm | 9.3 |
| org.postgresql | postgresql | 42.6.1 |
| org.reactivestreams | flux réactifs | 1.0.4 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | shims | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 9.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de test | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.16 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | compatible avec scalatest | 3.2.16 |
| org.scalatest | scalatest-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
| org.scalatest | scalatest_2.12 | 3.2.16 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Finale |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1,5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
| stax | stax-api | 1.0.1 |
Conseil / Astuce
Pour afficher les notes de publication des versions de Databricks Runtime qui ont atteint la fin de la prise en charge (EoS), consultez les notes de publication des versions de Databricks Runtime ayant atteint la fin de la prise en charge. Les versions d’EoS Databricks Runtime ont été supprimées et peuvent ne pas être mises à jour.