Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Les notes de publication suivantes fournissent des informations sur Databricks Runtime 17.1, optimisées par Apache Spark 4.0.0.
Azure Databricks a publié cette version en août 2025.
Conseil / Astuce
Pour afficher les notes de publication des versions de Databricks Runtime qui ont atteint la fin de la prise en charge (EoS), consultez les notes de publication des versions de Databricks Runtime ayant atteint la fin de la prise en charge. Les versions d’EoS Databricks Runtime ont été supprimées et peuvent ne pas être mises à jour.
Nouvelles fonctionnalités et améliorations
- Expressions SQL spatiales développées et types de données GEOMETRY et GEOGRAPHY
- Expressions de table courantes récursives (GA)
- Fonctions de table python de catalogue Unity User-Defined (UDF)
- Prise en charge du classement par défaut au niveau du schéma et du catalogue
- Environnement d’exécution d’isolation partagée pour les fonctions définies par l’utilisateur python du catalogue Batch Unity
-
Meilleure gestion des options JSON avec
VARIANT -
display()prend en charge le mode de diffusion en continu Real-Time - La source de débit prend en charge le mode streaming en temps réel
- Minuteurs de temps d’événement pris en charge pour les fenêtres temporelles
- Les fonctions définies par l’utilisateur Python scalaire prennent en charge les informations d’identification du service
- Amélioration de la liste des schémas
- Amélioration du mappage des colonnes de chaîne dans les écritures Redshift
- Prise en charge de DDL, SHOW et DESCRIBE sur les tables à accès contrôlé
- Utilisation réduite de la mémoire pour les schémas larges dans l’enregistreur Photon
- Prise en charge de la syntaxe TIMESTAMP WITHOUT TIME ZONE
Expressions SQL spatiales développées et types de données GEOMETRY et GEOGRAPHY
Vous pouvez désormais stocker des données géospatiales dans des colonnes intégrées GEOMETRY et GEOGRAPHY, améliorant ainsi les performances des requêtes spatiales. Cette version ajoute plus de 80 nouvelles expressions SQL spatiales, notamment les fonctions d’importation, d’exportation, de mesure, de construction, de modification, de validation, de transformation et de détermination des relations topologiques avec des jointures spatiales. Consultez les fonctions géospatiales ST, GEOGRAPHY le type et GEOMETRY le type.
Expressions de table courantes récursives (GA)
Les expressions de table courantes récursives (RCTEs) sont désormais en disponibilité générale. Utilisez les RCTEs pour naviguer dans les données hiérarchiques avec un CTE auto-référençant et UNION ALL pour suivre les relations récursives.
Fonctions de table python de catalogue Unity User-Defined (UDF)
Vous pouvez maintenant inscrire des fonctions définies par l’utilisateur Python dans le catalogue Unity pour la gouvernance centralisée et la logique réutilisable dans les requêtes SQL. Consultez les fonctions de table définies par l’utilisateur Python dans le catalogue Unity.
Prise en charge du classement par défaut au niveau du schéma et du catalogue
Vous pouvez maintenant définir un classement par défaut pour les schémas et les catalogues dans Databricks Runtime 17.1. Cela vous permet de définir un classement qui s’applique à tous les objets créés dans le schéma ou le catalogue, ce qui garantit un comportement de classement cohérent sur vos données.
Environnement d’exécution d’isolation partagée pour les fonctions définies par l’utilisateur python du catalogue Batch Unity
Les UDF Python du catalogue Batch Unity avec le même propriétaire peuvent désormais partager un environnement d’isolation par défaut. Cela peut améliorer les performances et réduire l’utilisation de la mémoire en réduisant le nombre d’environnements distincts qui doivent être lancés.
Pour garantir qu’une fonction UDF s’exécute toujours dans un environnement entièrement isolé, ajoutez la STRICT ISOLATION clause caractéristique. Consultez l’isolation de l’environnement.
Meilleure gestion des options JSON avec VARIANT
Les fonctions from_json et to_json appliquent désormais correctement les options JSON lors de l’utilisation de schémas de niveau supérieur VARIANT. Cela garantit un comportement cohérent avec d’autres types de données pris en charge.
display() prend en charge le mode Streaming Real-Time
Vous pouvez utiliser la display() fonction avec des requêtes de streaming qui utilisent un déclencheur en temps réel. Dans ce mode, display() utilise update automatiquement le mode de sortie et évite d’ajouter une LIMIT clause, qui n’est pas prise en charge avec update. L’intervalle d’actualisation de l’affichage est également découplé du temps de traitement par lots pour mieux supporter la réactivité en temps réel.
La source de débit prend en charge le mode streaming Real-Time
La source de débit dans Structured Streaming fonctionne désormais avec des déclencheurs en temps réel, ce qui permet la génération de données continue pour les pipelines de streaming à l’aide du mode streaming Real-Time.
Minuteurs de temps d’événement pris en charge pour les fenêtres temporelles
Azure Databricks prend en charge les déclencheurs basés sur les événements pour les opérations de fenêtre basées sur le temps en mode streaming Real-Time. Cela permet une gestion plus précise des données tardives et du filigrane dans les requêtes de streaming en temps réel.
Les fonctions définies par l’utilisateur Python scalaire prennent en charge les informations d’identification du service
Les fonctions définies par l’utilisateur Python scalaire peuvent utiliser les informations d’identification du service catalogue Unity pour accéder en toute sécurité aux services cloud externes. Cela est utile pour intégrer des opérations telles que la tokenisation basée sur le cloud, le chiffrement ou la gestion des secrets directement dans vos transformations de données.
Amélioration de la liste des schémas
Le connecteur Snowflake utilise la INFORMATION_SCHEMA table au lieu de la SHOW SCHEMAS commande pour répertorier les schémas. Cette modification supprime la limite de 10 000 schémas de l’approche précédente et améliore la prise en charge des bases de données avec un grand nombre de schémas.
Amélioration du mappage des colonnes de chaînes de caractères dans les opérations d'écriture Redshift.
Lors de l’écriture de tables dans Redshift à l’aide de spark.write, les colonnes de chaîne sans longueur explicite sont mappées à VARCHAR(MAX) plutôt qu’à TEXT. Cela évite que le comportement par défaut de Redshift n'interprète TEXT comme VARCHAR(256), ce qui pourrait entraîner des erreurs lors de l'écriture de chaînes de caractères plus longues.
Prise en charge de DDL, SHOW et DESCRIBE sur les tables à accès contrôlé
Les commandes SQL telles que DDL, SHOWet DESCRIBE s’exécutent désormais sur des tables contrôlées par accès affinées à l’aide de clusters dédiés. Si nécessaire pour appliquer des contrôles d’accès, Azure Databricks achemine ces commandes via le calcul serverless, comme pour les lectures, les fusions et les ajouts. Consultez la prise en charge de DDL, SHOW, DESCRIBE et d’autres commandes.
Utilisation réduite de la mémoire pour les schémas larges dans l’enregistreur Photon
Des améliorations ont été apportées au moteur Photon qui réduit considérablement l’utilisation de la mémoire pour les schémas larges, en traitant les scénarios qui ont entraîné des erreurs de mémoire insuffisante.
Prise en charge de la syntaxe TIMESTAMP WITHOUT TIME ZONE
Vous pouvez maintenant spécifier TIMESTAMP WITHOUT TIME ZONE au lieu de TIMESTAMP_NTZ. Cette modification améliore la compatibilité avec sql Standard.
Changements comportementaux
- Résolution du problème de corrélation de sous-requête
- Les littéraux NTZ d’horodatage ne sont plus transférés
-
Erreur générée pour les contraintes
CHECKnon valides - Le connecteur Pulsar n’expose plus le château de Bouncy
- Le chargeur automatique utilise les événements de fichier par défaut si disponible
-
Propriétés de table internes filtrées à partir de
SHOW CREATE TABLE - Règles plus strictes pour les jointures de flux de flux en mode d’ajout
- Le connecteur Teradata corrige la comparaison de chaînes sensibles à la casse
Résolution du problème de corrélation de sous-requête
Azure Databricks ne corrèle plus incorrectement les expressions sémantiquement égales d'agrégation entre sous-requêtes et requêtes externes. Auparavant, cela pourrait entraîner des résultats de requête incorrects.
Les littéraux NTZ d’horodatage ne sont plus transférés
Pour le connecteur Snowflake et Snowflake Lakehouse Federation, TIMESTAMP_NTZ les littéraux (d’horodatage sans fuseau horaire) ne sont plus transférés vers Snowflake. Cette modification empêche les échecs de requête causés par la gestion des horodatages incompatibles et améliore la fiabilité des requêtes affectées.
Erreur générée par des contraintes invalides CHECK
Azure Databricks lève désormais une AnalysisException si une expression de contrainte CHECK ne peut pas être résolue lors de la validation des contraintes.
Le connecteur Pulsar n’expose plus le château de Bouncy
La bibliothèque Bouncy Castle est désormais ombrée dans le connecteur Pulsar pour empêcher les conflits classpath. Par conséquent, les travaux Spark ne peuvent plus accéder aux org.bouncycastle.* classes à partir du connecteur. Si votre code d’application dépend de Bouncy Castle, installez la bibliothèque manuellement sur votre cluster.
Le chargeur automatique utilise les événements de fichier par défaut si disponible
Le chargeur automatique utilise des événements de fichier au lieu d’une liste de répertoires lorsque le chemin de chargement est un emplacement externe avec les événements de fichier activés. La valeur par défaut useManagedFileEvents est maintenant if_available (était false). Cela peut améliorer les performances d’ingestion et journalise un avertissement si les événements de fichier ne sont pas encore activés.
Propriétés de table internes filtrées à partir de SHOW CREATE TABLE
SHOW CREATE TABLE n’inclut plus les propriétés internes qui ne peuvent pas être définies manuellement ou transmises à CREATE TABLE. Cela réduit la confusion et aligne la sortie avec les options configurables par l’utilisateur.
Règles plus strictes pour les jointures de flux de flux en mode d’ajout
Azure Databricks interdit désormais les requêtes de diffusion en continu en mode Ajout qui utilisent une jointure de flux de flux suivi d’une agrégation de fenêtres, sauf si des filigranes sont définis sur les deux côtés. Les requêtes sans filigranes appropriés peuvent produire des résultats non finals, en violation des garanties en mode d’ajout.
Le connecteur Teradata corrige la comparaison de chaînes sensibles à la casse
Le connecteur Teradata est désormais défini par défaut TMODE=ANSIsur , en alignant le comportement de comparaison des chaînes avec Azure Databricks en le rendant sensible à la casse. Cette modification est configurable et n’affecte pas les utilisateurs existants, sauf s’ils optent.
Mises à niveau de la bibliothèque
Bibliothèques Python mises à niveau :
- google-auth de 2.40.1 à 2.40.0
- mlflow-skinny de 3.0.0 à 3.0.1
- opentelemetry-api de 1.33.0 à 1.32.1
- opentelemetry-sdk de 1.33.0 à 1.32.1
- opentelemetry-semantic-conventions de la version 0.54b0 à la version 0.53b1
- empaquetage de 24.1 à 24.2
- pip de 24.2 à 25.0.1
Bibliothèques R mises à niveau :
cli de 3.6.4 à 3.6.5
curl de 6.2.1 à 6.4.0
génériques de 0.1.3 à 0.1.4
globals de 0.16.3 à 0.18.0
openssl de 2.3.2 à 2.3.3.3
pilier de 1.10.1 à 1.11.0
rlang de 1.1.5 à 1.1.6
sparklyr de 1.9.0 à 1.9.1
stringi de 1.8.4 à 1.8.7
tibble de 3.2.1 à 3.3.0
utf8 de 1.2.4 à 1.2.6
Bibliothèques Java mises à niveau :
- software.amazon.cryptools.AmazonCorrettoCryptoProvider de 2.4.1-linux-x86_64 à 2.5.0-linux-x86_64
Apache Spark
Databricks Runtime 17.1 inclut Apache Spark 4.0.0. Cette version inclut tous les correctifs et améliorations Spark inclus dans la version 17.0, ainsi que les correctifs de bogues supplémentaires suivants et les améliorations apportées à Spark :
- SPARK-52721 Corriger le paramètre de message pour CANNOT_PARSE_DATATYPE
- SPARK-51919 Autoriser le remplacement de la source de données Python inscrite statiquement
- SPARK-52632 Rétablir : Assez afficher les nœuds de plan d’écriture V2
- SPARK-52715 Chaîne SQL bien présentée de TIME - DAY-TIME INTERVAL
- SPARK-51268 Rendre TreeNode sans verrou
- SPARK-52701 Corriger l’élargissement du type float32 dans mod avec bool sous ANSI
- SPARK-52563 Correction d'un bug de nommage de variable dans _assert_pandas_almost_equal
- SPARK-52541 Ajouter un guide de programmation pour les pipelines déclaratifs
- SPARK-51695 Corriger les échecs de test provoqués par la modification de la syntaxe CHECK CONSTRAINT
- SPARK-52666 Mapper le type défini par l’utilisateur pour corriger MutableValue dans SpecificInternalRow
- SPARK-52660 Ajouter un type de temps à CodeGenerator#javaClass
- SPARK-52693 Prendre en charge des intervalles de jour/heure ANSI +/- vers/depuis TIME
- SPARK-52705 Refactorisation de la vérification déterministe pour les expressions de regroupement
- SPARK-52699 Prendre en charge l’agrégation du type TIME en mode interprété
- SPARK-52503 Correction de la suppression lorsque la colonne d’entrée n’existe pas
- SPARK-52535 Améliorer la lisibilité du code de la règle ApplyColumnarRulesAndInsertTransitions
- SPARK-52551 Ajouter un nouveau prédicat v2 BOOLEAN_EXPRESSION
- SPARK-52698 Rétablir : Améliorer les indicateurs de type pour le module de source de données
- SPARK-52684 Rendre les commandes CACHE TABLE atomiques en cas d’erreur d’exécution
- SPARK-52671 RowEncoder ne recherche pas un UDT résolu
- SPARK-52670 Utiliser HiveResult avec UserDefinedType#stringifyValue
- SPARK-52692 Prise en charge de la mise en cache du type TIME
- SPARK-51516 Prendre en charge TIME depuis le serveur Thrift
- SPARK-52674 Nettoyer l’utilisation des API déconseillées liées à RandomStringUtils
- SPARK-51428 Affecter des alias pour les arborescences d’expressions compilées de manière déterministe
- SPARK-52672 Ne remplacez pas les expressions Sort/Having par des alias si l’expression existe dans Aggregate
- SPARK-52618 Conversion de TIME(n) en TIME(m)
- SPARK-52656 Corriger current_time()
- SPARK-52630 Réorganiser le code et les répertoires de gestion de l’opérateur de streaming et de l’état
- SPARK-52649 Découper les alias avant de mettre en correspondance les expressions Sort/Having/Filter dans buildAggExprList
- SPARK-52578 Ajouter des mesures pour les lignes afin de suivre le cas et l'action dans MergeRowsExec
- SPARK-49428 Déplacer le client Scala de Connect vers SQL
- SPARK-52494 Prendre en charge la syntaxe de l’opérateur deux-points pour accéder aux champs Variante
- SPARK-52642 Utiliser daemonWorkers.get(worker) pour éviter une désynchronisation inattendue entre idleWorkers et daemonWorkers
- SPARK-52570 Activer la division par zéro pour le rmod numérique avec ANSI activé
- SPARK-52633 Dédupliquer la sortie enfant Union unique avant DeduplicateRelations
- SPARK-52600 Déplacer CompletionIterator vers utilitaires communs
- SPARK-52626 Autoriser le regroupement par type de temps
- SPARK-52395 Échec immédiat de la tâche de réduction en cas d’échec de la requête d'extraction Prism
- SPARK-52596 Essayez de créer TIMESTAMP_NTZ à partir de DATE et HEURE
- SPARK-52595 Renommer l’expression TimeAdd en TimestampAddInterval
- SPARK-52586 Introduire AnyTimeType
- SPARK-52583 Ajouter l’API développeur pour les valeurs de chaîne dans UserDefinedType
- SPARK-52354 Ajout d'une coercition de type sur UnionLoop
- SPARK-52579 Définir un vidage périodique de traceback pour les workers Python
- SPARK-52456 Réduire la limite minimale de spark.eventLog.rolling.maxFileSize
- SPARK-52536 Définir extractionDir dans AsyncProfilerLoader pour le répertoire local Spark
- SPARK-52405 Étendre V2JDBCTest pour tester la lecture de plusieurs partitions
- SPARK-52303 Promouvoir ExternalCommandRunner en stable
- SPARK-52572 Éviter une erreur CAST_INVALID_INPUT pour DataFrame.isin en mode ANSI
- SPARK-52349 Activer les tests de division booléenne avec ANSI activé
- SPARK-52402 Corriger les erreurs de division par zéro dans la corrélation Kendall et Pearson en mode ANSI
- SPARK-52356 Activer la division par zéro pour le mod/rmod booléen avec ANSI activé
- SPARK-52288 Évitez INVALID_ARRAY_INDEX en fractionnement/rsplit lorsque le mode ANSI est activé
- SPARK-52557 Éviter CAST_INVALID_INPUT lors de l'usage de to_numeric(errors='coerce') en mode ANSI
- SPARK-52440 Ajouter une installation supplémentaire de python pour les pipelines déclaratifs
- SPARK-52569 Correction de l’exception de cast de classe dans SecondsOfTimeWithFraction
- SPARK-52540 Rendre TIMESTAMP_NTZ à partir de DATE et HEURE
- SPARK-52539 Introduire des hooks de session
- SPARK-52554 Éviter plusieurs allers-retours pour la vérification de la configuration dans Spark Connect
- SPARK-52553 Correction de NumberFormatException lors de la lecture du journal des modifications v1
- SPARK-52534 Rendre MLCache et MLHandler thread-safe
- SPARK-52460 Stocker des valeurs TIME internes sous forme de nanosecondes
- SPARK-52482 Prise en charge de ZStandard pour le lecteur de sources de données de fichiers
- SPARK-52531 OuterReference dans l’agrégat de sous-requête est incorrectement lié à l’agrégat de requêtes externes
- SPARK-52339 Correction de la comparaison des instances InMemoryFileIndex
- SPARK-52418 Ajouter une variable d’état noElements au PercentileHeap pour éviter les calculs répétitifs d’isEmpty()
- SPARK-52537 Imprimer la trace d’appels lors de l’échec de la création d’un répertoire temporaire
- SPARK-52462 Appliquer le forçage de type avant la déduplication de la sortie enfant dans Union
- SPARK-52528 Activer la division par zéro pour le mod numérique avec ANSI activé
- SPARK-52458 Prise en charge de spark.eventLog.excludedPatterns
- SPARK-52493 Prendre en charge TIMESTAMP WITHOUT TIME ZONE
- SPARK-51563 Prendre en charge le nom de type qualifié complet TIME(n) WITHOUT TIME ZONE
- SPARK-52450 Améliorer les performances de la copie en profondeur du schéma
- SPARK-52519 Activer la division par zéro pour floordiv numérique avec ANSI activé
- SPARK-52489 Interdire les gestionnaires SQLEXCEPTION et NOT FOUND en double dans le script SQL
- SPARK-52488 Supprimer l'alias avant d'emballer les références externes sous HAVING
- SPARK-52383 Améliorer les erreurs dans SparkConnectPlanner
- SPARK-52335 Unifier l’erreur de nombre de compartiments non valide pour Connect et Classic
- SPARK-52337 Transformer InvalidPlanInput en une erreur destinée à l’utilisateur
- SPARK-52312 Ignorer V2WriteCommand lors de la mise en cache de DataFrame
- SPARK-52487 Ajouter une durée et une heure d’envoi de phase au détail StagePage
- SPARK-52433 Unifier la contrainte de chaîne dans createDataFrame
- SPARK-52427 Normaliser la liste d’expressions d’agrégation couverte par un projet
- SPARK-51745 Appliquer la machine d’état pour RocksDBStateStore
- SPARK-52447 Déplacer la normalisation GetViewColumnByNameAndOrdinal vers SessionCatalogSuite
- SPARK-52397 Idempotent ExecutePlan : second ExecutePlan avec le même operationId et les mêmes attaques de plan
- SPARK-52355 Inférer le type d’objet VariantVal en tant que VariantType lors de la création d’un DataFrame
- SPARK-52425 Refactoriser ExtractValue pour la réutilisation dans l’implémentation à passe unique
- SPARK-52249 Activer la division par zéro pour truediv numérique avec ANSI activé
- SPARK-52228 Intégrer le microbenchmark d’interaction d’état dans Quicksilver (TCP)
- SPARK-48356 Améliorer l’inférence de schéma de colonne de l’instruction FOR
- SPARK-48353 Améliorations apportées à la gestion des exceptions
- SPARK-52060 Créer un nœud OneRowRelationExec
- SPARK-52391 Refactoriser les fonctions/vars TransformWithStateExec en classe de base pour Scala et Python
- SPARK-52218 Rendre à nouveau évaluables les fonctions de date et heure actuelles
- SPARK-52350 Correction du lien pour le guide de programmation SS dans la version 4.0
- SPARK-52385 Supprimer TempResolvedColumns du nom InheritAnalysisRules
- SPARK-52392 Nouvelle fonctionnalité de l’analyseur à passe unique
- SPARK-52243 Ajouter le support NERF pour les erreurs InvalidPlanInput liées au schéma
- SPARK-52338 Hériter du classement par défaut du schéma à l’affichage
- SPARK-52307 Prendre en charge la fonction définie par l’utilisateur d’itérateur de flèche scalaire
- SPARK-52300 Faire en sorte que la résolution SQL UDTVF utilise des configurations cohérentes avec la résolution d’affichage
- SPARK-52219 Prise en charge de la collation au niveau du schéma pour les tables
- SPARK-52272 V2SessionCatalog ne modifie pas le schéma sur le catalogue Hive
-
SPARK-51890 Ajouter un
optionsparamètre à la vue plan logique - SPARK-51936 ReplaceTableAsSelect doit remplacer une nouvelle table au lieu d’ajouter
- SPARK-51302 Spark Connect, qui prend en charge JDBC, doit utiliser l’API DataFrameReader
- SPARK-50137 Éviter les échecs de secours pour les méthodes hive incompatibles lors de la création d’une table
- SPARK-52184 Encapsuler les erreurs de syntaxe du moteur externe JDBC par une exception unifiée
- SPARK-47618 Utiliser Magic Committer pour tous les compartiments S3 par défaut
- SPARK-52305 Affiner la docstring pour isnotnull, equal_null, nullif, nullifzero, nvl, nvl2, zeroifnull
- SPARK-52174 Activer spark.checkpoint.compress par défaut
- SPARK-52224 Introduire pyyaml en tant que dépendance pour le client Python
- SPARK-52233 Corriger map_zip_with pour les types à virgule flottante
- SPARK-52036 Ajoutez la caractéristique SQLConfHelper à la version 2. FileScan
- SPARK-52159 Supprimer une condition trop large pour le dialecte MariaDB
- SPARK-50104 Prise en charge de SparkSession.executeCommand dans Connect
- SPARK-52240 Correction de l’utilisation de l’index de ligne lors de l’explosion de tableaux compressés dans un lecteur vectorisé
- SPARK-52153 Corriger from_json et to_json avec variante
- SPARK-48618 Améliorer le test de non-existence pour vérifier les noms à 3 parties et à 2 parties
- SPARK-52216 Faire d’InvalidCommandInput une erreur visible pour l’utilisateur
- SPARK-52299 Remplacer jsonNode.fields déconseillé
- SPARK-52287 Améliorer SparkContext pour ne pas remplir le paramètre o.a.s.internal.io.cloud.* s’il n’existe pas
- SPARK-51430 Empêcher l’enregistreur de contexte PySpark de propager les journaux vers stdout
- SPARK-52278 La fonction UDF scalaire Arrow prend en charge les arguments nommés
- SPARK-52026 Bloquer l’API Pandas sur Spark en mode ANSI par défaut
- SPARK-52171 Implémentation de jointure StateDataSource pour l’état v3
- SPARK-52159 Gérer correctement la vérification de l’existence d’une table pour les dialectes jdbc
- SPARK-52158 Ajouter un objet InvalidInputErrors pour centraliser les erreurs dans SparkConnectPlanner
- SPARK-52195 Correction du problème de suppression de la colonne de l'état initial pour Python TWS
- SPARK-52211 Suffixe $ strip à partir du journal INFO SparkConnectServer
- SPARK-52239 Prendre en charge la fonction définie par l’utilisateur d’enregistrement d’une flèche
- SPARK-52215 Implémenter la fonction scalaire Arrow UDF
- SPARK-52188 Correctif pour StateDataSource où StreamExecution.RUN_ID_KEY n’est pas défini
- SPARK-52189 Nouveaux tests de fichiers dorés pour NATURAL JOIN avec GROUP BY, HAVING, ORDER BY et LCAs
- SPARK-52079 Normaliser l’ordre des attributs dans les listes de projets internes
- SPARK-52234 Correction d’une erreur sur l’entrée non-chaîne pour schema_of_csv/xml
- SPARK-52221 Refactoriser SqlScriptingLocalVariableManager dans un gestionnaire de contexte plus générique
- SPARK-52181 Augmenter la limite de taille de variante à 128MiB
- SPARK-52217 Ignorer la validation de référence externe sous Filtre dans le programme de résolution à passage unique
- SPARK-51260 Déplacer V2ExpressionBuilder et PushableExpression vers le module Catalyst
- SPARK-52156 Placer le fournisseur hérité CREATE TEMPORARY TABLE … USING sous l’indicateur
- SPARK-51012 Supprimer SparkStrategy de Connect Shims
- SPARK-52109 Ajouter l’API listTableSummaries à l’API catalogue de tables V2 source de données
- SPARK-50915 Ajouter getCondition et déprécier getErrorClass dans PySparkException
- SPARK-52022 Ajouter la méthode check in default pour SparkThrowable.getQueryContext
- SPARK-51147 Réorganiser les classes liées au streaming dans un répertoire dédié au streaming
- SPARK-52120 Passer la session à ConnectHelper
- SPARK-52021 Modèles d’opérateur et d’expression distincts
- SPARK-51722 Supprimer l’origine « stop » de ParseException
- SPARK-52096 Reclasser l’erreur d’assertion de décalage de source Kafka
- SPARK-51985 Supprimer expérimental de l’accumulateurSource
- SPARK-51156 Prise en charge de l’authentification par jeton statique dans Spark Connect
- SPARK-52157 Utiliser un nom calculé antérieur pour OuterReference dans le programme de résolution à passe unique
- SPARK-52100 Activer la substitution de la limite de niveau de récursivité dans la syntaxe
- SPARK-51605 Créer le répertoire parent avant de toucher le logFile
- SPARK-52127 Compresser le protocole de MapState KEYS / VALUES / ITERATOR pour transformWithState dans PySpark
- SPARK-52040 ResolveLateralColumnAliasReference devrait conserver l’ID de plan
- SPARK-51638 Correction de la récupération des blocs RDD stockés sur disque distant via le service de shuffle externe
- SPARK-51983 Préparer l’environnement de test pour l’API Pandas sur Spark avec le mode ANSI activé
- SPARK-52087 Ajouter la copie de balises et d’origine à AliasHelper.trimNonTopLevelAliases
- SPARK-51210 Ajouter --enable-native-access=ALL-UNNAMED aux options Java pour Java 24+
- SPARK-52052 Ajouter .broadcast dans l’objet complémentaire de SerializableConfiguration
- SPARK-51823 Ajouter une configuration pour ne pas conserver le magasin d’états sur les exécuteurs
- SPARK-51291 Reclassifier les erreurs de validation déclenchées lors du chargement du stockage d'état
- SPARK-52006 Exclure l’accumulateur CollectMetricsExec de l’IU Spark, des journaux d’événements et des pulsations de métrique
- SPARK-52076 Ferme explicitement ExecutePlanResponseReattachableIterator après l’utilisation
- SPARK-51428 Affecter des alias pour les arborescences d’expressions compilées de manière déterministe
- SPARK-52079 Normaliser l’ordre des attributs dans les listes de projets internes
- SPARK-52033 Correction du bogue générer un nœud où la sortie du nœud enfant peut avoir plusieurs copies du même attribut
- SPARK-51428 Affecter des alias pour les arborescences d’expressions compilées de manière déterministe
- SPARK-52055 Suppression de l'exception dans ExecutePlanResponseReattachableIterator. del
- SPARK-51921 Utiliser un type long pour la durée TTL en millisecondes dans transformWithState
- SPARK-50763 Ajouter une règle Analyzer pour la résolution des fonctions de table SQL
- SPARK-51884 Ajouter des attributs d’étendue externe pour SubqueryExpression
- SPARK-50762 Ajouter une règle d’Analyseur pour la résolution des fonctions scalaires SQL définies par l’utilisateur
- SPARK-51814 Utilise list(self) au lieu de StructType.fields pour l’ancien compat de version
- SPARK-51537 Construire le classloader spécifique à la session en fonction du chargeur de classes de session par défaut sur l’exécuteur
- SPARK-507777 Supprimer les méthodes d’init/destruction redondantes de no-op des classes Filter
- SPARK-51691 SerializationDebugger doit avaler une exception lorsque vous essayez de trouver la raison du problème de sérialisation
- SPARK-51386 Attribuer le nom aux conditions d’erreur _LEGACY_ERROR_TEMP_3300-3302
- SPARK-50734 Ajouter l’API de catalogue pour la création et l’enregistrement de fonctions SQL définies par l’utilisateur
- SPARK-51989 Ajouter des sous-classes de filtre manquantes à toutes les listes dans la source de données
- SPARK-52037 L’ordre dans les listes de projets internes de LCA doit respecter l’ordre dans la liste de projets d’origine
- SPARK-52007 Les ID d’expression ne doivent pas être présents dans les expressions de regroupement lors de l’utilisation d’ensembles de regroupement
- SPARK-51860 Désactiver spark.connect.grpc.debug.enabled par défaut
- SPARK-47952 Prise en charge de la récupération de l’adresse GRPC SparkConnectService réelle et du port par programmation lors de l’exécution sur Yarn
- SPARK-50906 Ajouter une vérification de la nullabilité si les entrées de to_avro s’alignent sur le schéma
- Prise en charge des correctifs SPARK-50581 pour UDAF dans Dataset.observe()
- SPARK-49946 Exiger une classe d’erreur dans SparkOutOfMemoryError
- SPARK-49748 Ajouter getCondition et déprécier getErrorClass dans SparkThrowable
- SPARK-51959 Modifier les fonctions pour ne pas importer ParentDataFrame
- SPARK-51964 Résoudre correctement les attributs de la sortie masqué dans ORDER BY et HAVING au-dessus d’un agrégat dans l’Analyseur à passage unique
- SPARK-49942 Renommer errorClass en condition dans classException()
- SPARK-51963 Simplifier l'opération IndexToString.transform
- SPARK-51946 Échec immédiat lors de la création d'une table de source de données incompatible avec Hive, avec « col » comme nom de partition
- SPARK-51553 Modifier EXTRACT pour prendre en charge le type de données TIME
- SPARK-51891 Compresser le protocole de ListState GET / PUT / APPENDLIST pour transformWithState dans PySpark
- SPARK-51931 Ajouter maxBytesPerOutputBatch pour limiter la taille en octets des lots de sortie d'Arrow
- SPARK-51441 Ajouter des API DSv2 pour les contraintes
- SPARK-51814 Utilisez RecordBatch.schema.names au lieu de column_names pour la compatibilité avec les anciennes versions de pyarrow
- SPARK-51913 JDBCTableCatalog#loadTable devrait correctement générer une erreur de table inexistante
- SPARK-51840 Restaurer des colonnes de partition dans HiveExternalCatalog#alterTable
- SPARK-51414 Ajouter la fonction make_time()
- SPARK-49700 Interface Scala unifiée pour Connect et Classic
- SPARK-51914 Ajouter com.mysql.cj à spark.sql.hive.metastore.sharedPrefixes
- SPARK-51827 Prise en charge de Spark Connect pour transformWithState dans PySpark
- SPARK-51901 Interdire les fonctions de générateur dans les jeux de regroupement
- SPARK-51423 Ajouter la fonction current_time() pour le type de données TIME
- SPARK-51680 Définir le type logique pour TIME dans l’enregistreur Parquet
- SPARK-51889 Correction d’un bogue pour MapState clear() dans Python TWS
- SPARK-51869 Créer une classification pour les erreurs utilisateur dans les fonctions UDF pour Scala TransformWithState
- SPARK-51878 améliorez fillDefaultValue par exécuter l'expression pliable par défaut.
- SPARK-51757 Corriger le décalage de la fonction LEAD/LAG qui dépasse la taille des groupes de fenêtres
- SPARK-51805 Une fonction appelée avec un argument incorrect doit lever une exception appropriée au lieu d'une exception interne.
- SPARK-51900 Générer correctement l’incompatibilité de type de données dans l’Analyseur à passage unique
- SPARK-51421 Obtenir les secondes du type de données TIME
- SPARK-51661 Découverte des partitions des valeurs de colonne TIME
- SPARK-51687 Transférer des filtres avec des valeurs TIME vers Parquet
- SPARK-51419 Extraire les heures du type de données 'TIME'
- SPARK-51881 Rendre AvroOptions comparable
- SPARK-51861 Supprimer les informations dupliquées/inutiles du plan détaillé InMemoryRelation
- SPARK-51814 Présentation d’une nouvelle transformation d’APIWithState dans PySpark
- SPARK-51779 Utiliser des familles de colonnes virtuelles pour les jointures entre flux
- SPARK-51649 Écritures/lectures dynamiques des partitions TIME
- SPARK-51634 Prendre en charge TIME dans les vecteurs de colonne hors tas
- SPARK-518777 Ajouter des fonctions 'chr', 'random' et 'uuid'
- SPARK-51610 Prendre en charge le type de données TIME dans la source de données Parquet
- SPARK-51420 Obtenir les minutes du type de données TIME
- SPARK-51822 Génération d'une erreur classifiée lorsque des fonctions non autorisées sont appelées pendant StatefulProcessor.init()
- SPARK-51868 Déplacer la validation de contrainte de type vers un objet distinct
- SPARK-49747 Migrer des fichiers de connexion vers une journalisation structurée
Prise en charge du pilote ODBC/JDBC d'Azure Databricks
Azure Databricks prend en charge les pilotes ODBC/JDBC publiés au cours des 2 dernières années. Téléchargez les pilotes et la mise à niveau récemment publiés (téléchargez ODBC, téléchargez JDBC).
Mises à jour de maintenance
Consultez les mises à jour de maintenance d’Azure Databricks Runtime 17.1.
Environnement du système
- Système d’exploitation : Ubuntu 24.04.2 LTS
- Java : Zulu17.58+21-CA
- Scala : 2.13.16
- Python : 3.12.3
- R : 4.4.2
- Delta Lake : 4.0.0
Bibliothèques Python installées
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| annotated-types | 0.7.0 | anyio | 4.6.2 | argon2-cffi | 21.3.0 |
| argon2-cffi-bindings | 21.2.0 | flèche | 1.3.0 | asttokens | 2.0.5 |
| astunparse | 1.6.3 | async-lru | 2.0.4 | attrs | 24.3.0 |
| autocommand | 2.2.2 | azure-common | 1.1.28 | azure-core | 1.34.0 |
| azure-identity | 1.20.0 | azure-mgmt-core | 1.5.0 | azure-mgmt-web | 8.0.0 |
| azure-storage-blob | 12.23.0 | Azure Storage File Data Lake | 12.17.0 | babel | 2.16.0 |
| backports.tarfile | 1.2.0 | bellesoupe4 | 4.12.3 | black | 24.10.0 |
| bleach | 6.2.0 | blinker | 1.7.0 | boto3 | 1.36.2 |
| botocore | 1.36.3 | cachetools | 5.5.1 | certifi | 2025.1.31 |
| cffi | 1.17.1 | chardet | 4.0.0 | charset-normalizer | 3.3.2 |
| cliquez | 8.1.7 | cloudpickle | 3.0.0 | comm | 0.2.1 |
| contourpy | 1.3.1 | cryptographie | 43.0.3 | cycliste | 0.11.0 |
| Cython | 3.0.12 | Kit de développement logiciel Databricks (SDK) | 0.49.0 | dbus-python | 1.3.2 |
| debugpy | 1.8.11 | décorateur | 5.1.1 | defusedxml | 0.7.1 |
| Déconseillé | 1.2.13 | distlib | 0.3.9 | Conversion de docstring en markdown | 0.11 |
| executing | 0.8.3 | aperçu des facettes | 1.1.1 | fastapi | 0.115.12 |
| fastjsonschema | 2.21.1 | verrou de fichier | 3.18.0 | outils de police | 4.55.3 |
| fqdn | 1.5.1 | fsspec | 2023.5.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.20.0 | google-auth | 2.40.0 |
| google-cloud-core | 2.4.3 | google-cloud-storage (Stockage dans le cloud de Google) | 3.1.0 | google-crc32c | 1.7.1 |
| google-resumable-media | 2.7.2 | googleapis-common-protos | 1.65.0 | grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.14.0 | httpcore | 1.0.2 |
| httplib2 | 0.20.4 | httpx | 0.27.0 | idna | 3.7 |
| importlib-metadata | 6.6.0 | importlib_resources | 6.4.0 | inflect | 7.3.1 |
| iniconfig | 1.1.1 | ipyflow-core | 0.0.209 | ipykernel | 6.29.5 |
| ipython | 8.30.0 | ipython-genutils | 0.2.0 | ipywidgets (un outil de widgets interactifs pour Python) | 7.8.1 |
| isodate | 0.6.1 | isoduration | 20.11.0 | jaraco.context | 5.3.0 |
| jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 | Jedi | 0.19.2 |
| Jinja2 | 3.1.5 | jmespath | 1.0.1 | joblib | 1.4.2 |
| json5 | 0.9.25 | jsonpointer | 3.0.0 | jsonschema | 4.23.0 |
| spécifications du schéma JSON | 2023.7.1 | événements Jupyter | 0.10.0 | jupyter-lsp | 2.2.0 |
| jupyter_client | 8.6.3 | jupyter_core | 5.7.2 | serveur Jupyter | 2.14.1 |
| jupyter_server_terminals | 0.4.4 | jupyterlab | 4.3.4 | jupyterlab-pygments | 0.1.2 |
| jupyterlab-widgets (widgets pour JupyterLab) | 1.0.0 | jupyterlab_server | 2.27.3 | kiwisolver | 1.4.8 |
| launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 | lazr.uri | 1.0.6 |
| markdown-it-py | 2.2.0 | MarkupSafe | 3.0.2 | matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | mccabe | 0.7.0 | mdurl | 0.1.0 |
| mistune | 2.0.4 | mlflow-skinny | 3.0.1 | mmh3 | 5.1.0 |
| more-itertools | 10.3.0 | msal | 1.32.3 | msal-extensions | 1.3.1 |
| mypy-extensions | 1.0.0 | nbclient | 0.8.0 | nbconvert | 7.16.4 |
| nbformat | 5.10.4 | nest-asyncio | 1.6.0 | nodeenv | 1.9.1 |
| notebook | 7.3.2 | notebook_shim | 0.2.3 | numpy | 2.1.3 |
| oauthlib | 3.2.2 | opentelemetry-api | 1.32.1 | opentelemetry-sdk | 1.32.1 |
| opentelemetry-semantic-conventions | 0.53b1 | remplace | 7.4.0 | empaquetage | 24,2 |
| Pandas | 2.2.3 | pandocfilters | 1.5.0 | parso | 0.8.4 |
| pathspec | 0.10.3 | patsy | 1.0.1 | pexpect | 4.8.0 |
| pillow | 11.1.0 | pip | 25.0.1 | platformdirs | 3.10.0 |
| plotly | 5.24.1 | pluggy | 1.5.0 | prometheus_client | 0.21.0 |
| prompt-toolkit | 3.0.43 | proto-plus | 1.26.1 | protobuf | 5.29.4 |
| psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | pyarrow | 19.0.1 | pyasn1 | 0.4.8 |
| pyasn1-modules | 0.2.8 | pyccolo | 0.0.71 | pycparser | 2.21 |
| pydantic | 2.10.6 | pydantic_core | 2.27.2 | pyflakes | 3.2.0 |
| Pygments | 2.15.1 | PyGObject | 3.48.2 | pyiceberg | 0.9.0 |
| PyJWT | 2.10.1 | pyodbc | 5.2.0 | pyparsing | 3.2.0 |
| pyright | 1.1.394 | pytest | 8.3.5 | python-dateutil | 2.9.0.post0 |
| python-json-logger | 3.2.1 | python-lsp-jsonrpc | 1.1.2 | python-lsp-server | 1.12.0 |
| pytoolconfig | 1.2.6 | pytz | 2024.1 | PyYAML | 6.0.2 |
| pyzmq | 26.2.0 | référencement | 0.30.2 | Requêtes | 2.32.3 |
| RFC3339 validateur | 0.1.4 | rfc3986-validator | 0.1.1 | rich | 13.9.4 |
| rope | 1.12.0 | rpds-py | 0.22.3 | rsa | 4.9.1 |
| s3transfer | 0.11.3 | scikit-learn | 1.6.1 | scipy | 1.15.1 |
| seaborn | 0.13.2 | Send2Trash | 1.8.2 | setuptools | 74.0.0 |
| six | 1.16.0 | smmap | 5.0.0 | sniffio | 1.3.0 |
| sortedcontainers | 2.4.0 | soupsieve | 2,5 | sqlparse | 0.5.3 |
| ssh-import-id | 5.11 | données en pile | 0.2.0 | starlette | 0.46.2 |
| statsmodels, une bibliothèque Python pour la modélisation statistique | 0.14.4 | strictyaml | 1.7.3 | ténacité | 9.0.0 |
| terminado | 0.17.1 | threadpoolctl | 3.5.0 | tinycss2 | 1.4.0 |
| tokenize_rt | 6.1.0 | tomli | 2.0.1 | tornade | 6.4.2 |
| traitlets | 5.14.3 | typeguard | 4.3.0 | types-python-dateutil | 2.9.0.20241206 |
| typing_extensions | 4.12.2 | tzdata | 2024.1 | ujson | 5.10.0 |
| unattended-upgrades | 0.1 | uri-template | 1.3.0 | urllib3 | 2.3.0 |
| uvicorn | 0.34.2 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | webcolores | 24.11.1 | webencodings | 0.5.1 |
| websocket-client | 1.8.0 | c’est quoi le patch | 1.0.2 | roue | 0.45.1 |
| widgetsnbextension | 3.6.6 | wrapt | 1.17.0 | yapf | 0.40.2 |
| zipp | 3.21.0 |
Bibliothèques R installées
Les bibliothèques R sont installées à partir de l'instantané CRAN du gestionnaire de packages en date du 20-03-2025.
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| flèche | 19.0.1 | Askpass | 1.2.1 | assertthat | 0.2.1 |
| backports | 1.5.0 | base | 4.4.2 | base64enc | 0.1-3 |
| bigD | 0.3.0 | bit | 4.6.0 | bit64 | 4.6.0-1 |
| bitops | 1.0-9 | objet BLOB | 1.2.4 | boot | 1.3-30 |
| brew | 1.0-10 | brio | 1.1.5 | broom | 1.0.7 |
| bslib | 0.9.0 | cachemire | 1.1.0 | callr | 3.7.6 |
| caret | 7.0-1 | cellranger | 1.1.0 | chron | 2.3-62 |
| classe | 7.3-22 | cli | 3.6.5 | clipr | 0.8.0 |
| horloge | 0.7.2 | cluster | 2.1.6 | codetools | 0.2-20 |
| colorspace | 2.1-1 | commonmark | 1.9.5 | compilateur | 4.4.2 |
| config | 0.3.2 | conflicted | 1.2.0 | cpp11 | 0.5.2 |
| crayon | 1.5.3 | credentials | 2.0.2 | curl | 6.4.0 |
| data.table | 1.17.0 | ensembles de données | 4.4.2 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | desc | 1.4.3 | devtools | 2.4.5 |
| diagramme | 1.6.5 | diffobj | 0.3.5 | digérer | 0.6.37 |
| downlit | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-16 | ellipse | 0.3.2 | évaluer | 1.0.3 |
| fans | 1.0.6 | farver | 2.1.2 | carte rapide | 1.2.0 |
| fontawesome | 0.5.3 | forcats | 1.0.0 | foreach | 1.5.2 |
| foreign | 0.8-86 | forge | 0.2.0 | fs | 1.6.5 |
| futur | 1.34.0 | future.apply | 1.11.3 | gargle | 1.5.2 |
| produits génériques | 0.1.4 | gert | 2.1.4 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | git2r | 0.35.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globals | 0.18.0 | glue | 1.8.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.2 |
| graphisme | 4.4.2 | grDevices | 4.4.2 | grid | 4.4.2 |
| gridExtra | 2.3 | gsubfn | 0,7 | gt | 0.11.1 |
| gtable | 0.3.6 | hardhat | 1.4.1 | haven | 2.5.4 |
| highr | 0.11 | hms | 1.1.3 | outils HTML | 0.5.8.1 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.1.1 | ids | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-15 | isoband | 0.2.7 | iterators | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.9.1 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-22 | knitr | 1,50 | étiquetage | 0.4.3 |
| plus tard | 1.4.1 | lattice | 0.22-5 | lave | 1.8.1 |
| cycle de vie | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.4 |
| magrittr | 2.0.3 | markdown | 1.13 | MASS | 7.3-60.0.1 |
| Matrix | 1.6-5 | memoise | 2.0.1 | méthodes | 4.4.2 |
| mgcv | 1.9-1 | mime | 0,13 | miniUI | 0.1.1.1 |
| mlflow | 2.20.4 | ModelMetrics | 1.2.2.2 | modèleur | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-164 | nnet | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl | 2.3.3 | parallel | 4.4.2 |
| parallelly | 1.42.0 | pilier | 1.11.0 | pkgbuild | 1.4.6 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.1 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr (un package logiciel pour le traitement de données) | 1.8.9 | éloge | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.6 |
| prodlim | 2024.06.25 | profvis | 0.4.0 | progrès | 1.2.3 |
| progressr | 0.15.1 | promesses | 1.3.2 | proto | 1.0.0 |
| proxy | 0,4-27 | p.s. | 1.9.0 | purrr | 1.0.4 |
| R6 | 2.6.1 | ragg | 1.3.3 | randomForest (algorithme d'apprentissage automatique) | 4.7-1.2 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.14 | RcppEigen | 0.3.4.0.2 | réactif | 0.4.4 |
| reactR | 0.6.1 | readr | 2.1.5 | readxl | 1.4.5 |
| recettes | 1.2.0 | match retour | 2.0.0 | revanche2 | 2.1.2 |
| remotes | 2.5.0 | reprex | 2.1.1 | reshape2 | 1.4.4 |
| rlang | 1.1.6 | rmarkdown | 2.29 | RODBC | 1.3-26 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-15 | RSQLite | 2.3.9 | rstudioapi | 0.17.1 |
| rversions | 2.1.2 | rvest | 1.0.4 | sass | 0.4.9 |
| écailles | 1.3.0 | selectr | 0,4-2 | informations sur la session | 1.2.3 |
| shape | 1.4.6.1 | brillant | 1.10.0 | sourcetools | 0.1.7-1 |
| sparklyr | 1.9.1 | SparkR | 4.0.0 | sparsevctrs | 0.3.1 |
| spatial | 7.3-17 | splines | 4.4.2 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | Statistiques | 4.4.2 | statistiques4 | 4.4.2 |
| stringi | 1.8.7 | stringr | 1.5.1 | survival | 3.5-8 |
| swagger | 5.17.14.1 | sys | 3.4.3 | systemfonts | 1.2.1 |
| tcltk | 4.4.2 | testthat | 3.2.3 | mise en forme de texte | 1.0.0 |
| tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | changement d'heure | 0.3.0 | date-heure | 4041.110 |
| tinytex | 0.56 | outils | 4.4.2 | tzdb | 0.5.0 |
| vérificateur d'URL | 1.0.1 | Utilise ça | 3.1.0 | utf8 | 1.2.6 |
| utils | 4.4.2 | Identifiant unique universel (UUID) | 1.2-1 | V8 | 6.0.2 |
| vctrs | 0.6.5 | viridisLite | 0.4.2 | vroom | 1.6.5 |
| Waldo | 0.6.1 | whisker | 0.4.1 | withr | 3.0.2 |
| xfun | 0,51 | xml2 | 1.3.8 | xopen | 1.0.1 |
| xtable | 1.8-4 | yaml | 2.3.10 | zeallot | 0.1.0 |
| zip | 2.3.2 |
Bibliothèques Java et Scala installées (version du cluster Scala 2.13)
| ID de groupe | ID d’artefact | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | AWS Java SDK pour Elastic Beanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-machinelearning (kit de développement logiciel AWS pour l'apprentissage automatique en Java) | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | aws-java-sdk-support | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | ruisseau | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | kryo-shaded | 4.0.3 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | Camarade de classe | 1.5.1 |
| com.fasterxml.jackson.core | jackson-annotations | 2.18.2 |
| com.fasterxml.jackson.core | jackson-core | 2.18.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.caffeine | caféine | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 natifs |
| com.github.fommil.netlib | système_natif-java | 1.1 |
| com.github.fommil.netlib | système_natif-java | 1.1 natifs |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1 natifs |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1 natifs |
| com.github.luben | zstd-jni | 1.5.6-10 |
| com.github.virtuald | curvesapi | 1.08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos | 2.5.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.11.0 |
| com.google.crypto.tink | tink | 1.16.0 |
| com.google.errorprone | annotations_sujettes_aux_erreurs | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 24.3.25 |
| com.google.guava | failureaccess | 1.0.2 |
| com.google.guava | guava | 33.4.0-jre |
| com.google.guava | listenablefuture | 9999.0-empty-to-avoid-conflict-with-guava |
| com.google.j2objc | j2objc-annotations | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | profiler | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | fansi_2.13 | 0.5.0 |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK (kit de développement logiciel pour le magasin Azure Data Lake) | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.9.0 |
| commons-codec | commons-codec | 1.17.2 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1,5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.18.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compresseur d'air | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.3 |
| io.dropwizard.metrics | annotation des métriques | 4.2.30 |
| io.dropwizard.metrics | métriques de base | 4.2.30 |
| io.dropwizard.metrics | metrics-graphite | 4.2.30 |
| io.dropwizard.metrics | métriques-vérifications de santé | 4.2.30 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.30 |
| io.dropwizard.metrics | metrics-jmx | 4.2.30 |
| io.dropwizard.metrics | metrics-json | 4.2.30 |
| io.dropwizard.metrics | metrics-jvm | 4.2.30 |
| io.dropwizard.metrics | servlets de métriques | 4.2.30 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all | 4.1.118.Final |
| io.netty | netty-buffer | 4.1.118.Final |
| io.netty | netty-codec | 4.1.118.Final |
| io.netty | netty-codec-http | 4.1.118.Final |
| io.netty | netty-codec-http2 | 4.1.118.Final |
| io.netty | netty-codec-socks | 4.1.118.Final |
| io.netty | netty-common | 4.1.118.Final |
| io.netty | netty-handler | 4.1.118.Final |
| io.netty | netty-handler-proxy | 4.1.118.Final |
| io.netty | netty-resolver | 4.1.118.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.70.Final |
| io.netty | netty-transport | 4.1.118.Final |
| io.netty | netty-transport-classes-epoll | 4.1.118.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.118.Final |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | simpleclient_common | 0.16.1-databricks |
| io.prometheus | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometheus | simpleclient_pushgateway | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel_agent | 0.16.1-databricks |
| io.prometheus.jmx | collectionneur | 0.18.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activation | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | jta | 1.1 |
| javax.transaction | transaction-api | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.13.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | pickle | 1,5 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.13.1 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | ant | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | arrow-format | 18.2.0 |
| org.apache.arrow | arrow-memory-core | 18.2.0 |
| org.apache.arrow | arrow-memory-netty | 18.2.0 |
| org.apache.arrow | arrow-memory-netty-buffer-patch | 18.2.0 |
| org.apache.arrow | vecteur-flèche | 18.2.0 |
| org.apache.avro | avro | 1.12.0 |
| org.apache.avro | avro-ipc | 1.12.0 |
| org.apache.avro | avro-mapred | 1.12.0 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.27.1 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.17.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.13.0 |
| org.apache.curator | curator-client | 5.7.1 |
| org.apache.curator | curator-framework | 5.7.1 |
| org.apache.curator | curator-recipes | 5.7.1 |
| org.apache.datasketches | datasketches-java | 6.1.1 |
| org.apache.datasketches | datasketches-memory | 3.0.2 |
| org.apache.derby | derby | 10.14.2.0 |
| org.apache.hadoop | environnement d'exécution du client Hadoop | 3.4.1 |
| org.apache.hive | hive-beeline | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | hive-jdbc | 2.3.10 |
| org.apache.hive | hive-llap-client | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | hive-serde | 2.3.10 |
| org.apache.hive | hive-shims | 2.3.10 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | hive-shims-common | 2.3.10 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | ivy | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.1.1-shaded-protobuf |
| org.apache.orc | orc-format | 1.1.0-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 2.1.1-shaded-protobuf |
| org.apache.orc | orc-shims | 2.1.1 |
| org.apache.poi | poi | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4,26 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | audience-annotations | 0.13.0 |
| org.apache.zookeeper | gardien de zoo | 3.9.3 |
| org.apache.zookeeper | zookeeper-jute | 3.9.3 |
| org.checkerframework | checker-qual | 3.43.0 |
| org.codehaus.janino | compilateur commun | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-continuation | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-http | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-io | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-jndi | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-plus | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-proxy | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-security (sécurité de quai) | 9.4.53.v20231009 |
| org.eclipse.jetty | serveur jetty | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlet | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlets | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-webapp | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-xml | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-client | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | serveur websocket | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.53.v20231009 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | OSGi Localisateur de Ressources | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.41 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.41 |
| org.glassfish.jersey.core | jersey-client | 2.41 |
| org.glassfish.jersey.core | jersey-common | 2.41 |
| org.glassfish.jersey.core | jersey-server | 2.41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41 |
| org.hibernate.validator | hibernate-validator | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | annotations | 17.0.0 |
| org.jline | jline | 3.27.1-jdk8 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.9.1 |
| org.objenesis | objenèse | 3.3 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rocksdb | rocksdbjni | 9.8.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.3.0 |
| org.scala-sbt | interface de test | 1,0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalameta | common_2.13 | 4.13.5 |
| org.scalameta | io_2.13 | 4.13.5 |
| org.scalameta | mdoc-parser_2.13 | 2.6.4 |
| org.scalameta | metaconfig-core_2.13 | 0.15.0 |
| org.scalameta | metaconfig-pprint_2.13 | 0.15.0 |
| org.scalameta | metaconfig-typesafe-config_2.13 | 0.15.0 |
| org.scalameta | parsers_2.13 | 4.13.5 |
| org.scalameta | scalafmt-config_2.13 | 3.9.6 |
| org.scalameta | scalafmt-core_2.13 | 3.9.6 |
| org.scalameta | scalafmt-macros_2.13 | 3.9.6 |
| org.scalameta | scalafmt-sysops_2.13 | 3.9.6 |
| org.scalameta | scalameta_2.13 | 4.13.5 |
| org.scalameta | trees_2.13 | 4.13.5 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | compatible avec scalatest | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | xz | 1,10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | paiges-core_2.13 | 0.4.4 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Finale |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1,5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| stax | stax-api | 1.0.1 |
Conseil / Astuce
Pour afficher les notes de publication des versions de Databricks Runtime qui ont atteint la fin de la prise en charge (EoS), consultez les notes de publication des versions de Databricks Runtime ayant atteint la fin de la prise en charge. Les versions d’EoS Databricks Runtime ont été supprimées et peuvent ne pas être mises à jour.