Note
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de changer d’annuaire.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de changer d’annuaire.
Les notes de publication suivantes fournissent des informations sur Databricks Runtime 17.2, alimenté par Apache Spark 4.0.0.
Cette version intègre toutes les fonctionnalités, améliorations et correctifs de bogues de toutes les versions précédentes de Databricks Runtime. Databricks a publié cette version en septembre 2025.
Nouvelles fonctionnalités et améliorations
- LIKE prend en charge le classement UTF8_LCASE
-
st_exteriorringla fonction est désormais prise en charge -
Afficher les détails du pushdown dans
EXPLAINet l’interface utilisateur Spark pour analyses à distance -
Déclarer plusieurs variables de session ou locales dans une seule
DECLAREinstruction -
Prise en charge du mot clé
TEMPORARYpour la création d'une vue métrique - Prendre en charge des commandes supplémentaires avec un contrôle d’accès affiné
-
Remplacer de manière sélective et atomique les données par
INSERT REPLACE USINGetINSERT REPLACE ON(GA) -
Utiliser des E/S natives pour
LokiFileSystem.getFileStatusS3 - Mode ANSI activé par défaut pour l’API Pandas sur Spark
-
Auto Loader déduit les colonnes de partition en
singleVariantColumnmode
LIKE prend en charge le classement UTF8_LCASE
L’opérateur LIKE prend désormais en charge le classement, ce qui permet une correspondance non sensible à la UTF8_LCASE casse.
st_exteriorring la fonction est désormais prise en charge
Vous pouvez maintenant utiliser la st_exteriorring fonction pour extraire la limite externe d’un polygone et la renvoyer en tant que chaîne de ligne. Consultez Fonction st_exteriorring.
Afficher les détails de la réduction dans EXPLAIN et l’interface utilisateur Spark pour les analyses à distance.
La EXPLAIN commande et l’interface utilisateur Spark pour RemoteSparkConnectScan le calcul dédié affichent désormais les prédicats, les agrégations, les clauses GROUP BY, les limites et les échantillons qui sont poussés vers le bas dans l’analyse distante.
Déclarer plusieurs variables de session ou locales dans une seule DECLARE instruction
Dans Databricks Runtime 17.2 et versions ultérieures, vous pouvez déclarer plusieurs variables de session ou locales du même type et de la même valeur par défaut dans une instruction unique DECLARE . Voir DECLARE VARIABLE et instruction composée BEGIN END.
Prise en charge du mot clé TEMPORARY pour la création d'une vue de métrique
Vous pouvez maintenant utiliser le mot clé TEMPORARY lors de la création d’une vue de métrique. Les vues de métriques temporaires sont visibles uniquement dans la session qui les a créées et sont supprimées lorsque la session se termine. Voir CREATE VIEW.
Prendre en charge des commandes supplémentaires avec un contrôle d’accès affiné
Le contrôle d’accès affiné sur le calcul dédié prend désormais en charge les commandes FSCK REPAIR TABLE et DESCRIBE DETAIL.
Remplacer de manière sélective et atomique les données par INSERT REPLACE USING et INSERT REPLACE ON (GA)
INSERT REPLACE USING et INSERT REPLACE ON sont désormais en disponibilité générale pour Databricks Runtime 17.2. Les deux commandes SQL remplacent une partie de la table par le résultat d’une requête.
INSERT REPLACE USING remplace les lignes lorsque les USING colonnes sont égales.
INSERT REPLACE ON remplace les lignes lorsqu’elles correspondent à une condition définie par l’utilisateur.
Voir INSERT dans la référence du langage SQL et remplacer sélectivement les données avec Delta Lake.
Utiliser des E/S natives pour LokiFileSystem.getFileStatus sur S3
LokiFileSystem.getFileStatus utilise désormais la pile d’E/S native pour le trafic Amazon S3 et retourne org.apache.hadoop.fs.FileStatus des objets au lieu de shaded.databricks.org.apache.hadoop.fs.s3a.S3AFileStatus.
Mode ANSI activé par défaut pour l’API Pandas sur Spark
ANSI_MODE est désormais activé par défaut pour l’API Pandas sur Spark, compute.ansi_mode_support=Truece qui garantit la parité de conformité ANSI avec pandas natifs. L’option s’applique toujours si compute.ansi_mode_support est configurée sur False.
Auto Loader déduit les colonnes de partition en mode singleVariantColumn
Le chargeur automatique déduit désormais les colonnes de partition à partir de chemins de fichiers lors de l’ingestion de données au format de type semi-structuré à l’aide de l’option singleVariantColumn. Auparavant, les colonnes de partition n’ont pas été détectées automatiquement. Consultez les options du chargeur automatique.
Changements comportementaux
-
DESCRIBE CONNECTIONaffiche les paramètres d’environnement pour les connexions JDBC - Option permettant de tronquer l’historique uniforme pendant la migration des tables managées
- Syntaxe SQL pour les options de lecture Delta dans les requêtes de streaming
-
Résultats corrects pour
splitavec une expression régulière vide et une limite positive -
Correction
url_decodeettry_url_decodegestion des erreurs dans Photon - Environnement d’exécution partagée pour les UDTF Python du catalogue Unity
- Suivi des lignes activé par défaut pour les nouvelles tables
- TABLE prise en charge des arguments pour les UDTF Python du catalogue Unity
DESCRIBE CONNECTION affiche les paramètres d’environnement pour les connexions JDBC
Azure Databricks inclut désormais les paramètres d’environnement définis par l’utilisateur dans la DESCRIBE CONNECTION sortie des connexions JDBC qui prennent en charge les pilotes personnalisés et s’exécutent en isolation. Les autres types de connexion restent inchangés.
Option permettant de tronquer l’historique uniforme pendant la migration des tables managées
Vous pouvez désormais tronquer l'historique uniforme lors de la migration de tables avec Uniform/Iceberg activé en utilisant ALTER TABLE...SET MANAGED. Cela simplifie les migrations et réduit les temps d’arrêt par rapport à la désactivation et à la réactivation manuelle d’Uniform.
Syntaxe SQL pour les options de lecture Delta dans les requêtes de streaming
Vous pouvez maintenant spécifier des options de lecture Delta pour les requêtes de streaming basées sur SQL à l’aide de la WITH clause. Par exemple:
SELECT * FROM STREAM tbl WITH (SKIPCHANGECOMMITS=true, STARTINGVERSION=X);
Corriger les résultats pour split avec une expression régulière vide et une limite positive
Azure Databricks retourne désormais des résultats corrects lors de l’utilisation split function avec un regex vide et une limite positive. Précédemment, la fonction a tronqué incorrectement la chaîne restante au lieu de l’inclure dans le dernier élément.
Correction de la gestion des erreurs url_decode et try_url_decode dans Photon
Dans Photon, try_url_decode() et url_decode() avec failOnError = false retournent maintenant NULL pour les chaînes encodées URL non valides, au lieu d’échouer la requête.
Environnement d’exécution partagée pour les UDTFs Python du Catalogue Unity
Azure Databricks partage désormais l’environnement d’exécution pour les fonctions de table définies par l’utilisateur Python (UDF) à partir du même propriétaire et de la même session Spark. Une clause facultative STRICT ISOLATION permet de désactiver le partage des fonctions définies par l'utilisateur ayant des effets secondaires, comme modifier des variables d'environnement ou exécuter du code arbitraire.
Suivi des lignes activé par défaut pour les nouvelles tables
Azure Databricks active désormais le suivi des lignes par défaut pour toutes les tables managées du catalogue Unity nouvellement créées. Les tables existantes ne sont pas affectées et conservent leurs paramètres de suivi des lignes actuels.
TABLE prise en charge des arguments pour les UDTF Python dans Unity Catalog
Unity Catalog Python UDTFs prennent en charge TABLE les arguments, ce qui permet aux fonctions d’accepter des tables entières en tant que paramètres d’entrée, ce qui permet d’effectuer des transformations et des agrégations de données plus complexes sur des jeux de données structurés. Consultez les fonctions de table définies par l’utilisateur Python dans le catalogue Unity. (Rétroporté à partir de 17.3 LTS).
Mises à niveau de la bibliothèque
Bibliothèques Python mises à niveau :
Aucune bibliothèque Python n’a été mise à niveau dans cette version.
Bibliothèques R mises à niveau :
Aucune bibliothèque R n’a été mise à niveau dans cette version.
Bibliothèques Java mises à niveau :
- io.delta.delta-sharing-client_2.13 de 1.3.3 à 1.3.5
Apache Spark
Databricks Runtime 17.2 inclut Apache Spark 4.0.0. Cette version inclut tous les correctifs et améliorations Spark inclus dans la version précédente, ainsi que les éléments suivants :
-
SPARK-53183 Utiliser Java
Files.readStringau lieu deo.a.s.sql.catalyst.util.fileToString - SPARK-51817 Réintroduisez les champs ansiConfig dans messageParameters de CAST_INVALID_INPUT et CAST_OVERFLOW
- SPARK-53124 Supprimer des champs inutiles à partir de JsonTuple
- SPARK-53106 Ajouter des tests d'évolution des schémas pour les suites de connexion TWS Spark Scala
-
SPARK-53201 Utiliser
SparkFileUtils.contentEqualsau lieu deFiles.equal - SPARK-53308 Ne supprimez pas les alias dans RemoveRedundantAliases qui provoqueraient des doublons
-
SPARK-53241 Prise en charge
createArraydansSparkCollectionUtils -
SPARK-53239 Améliorer les performances de
MapSortetSortArrayviaparallelSort - SPARK-53184 Correction de melt() lorsque les colonnes de valeur combinent des chaînes et des nombres
- SPARK-53144 Rendre CreateViewCommand dans SparkConnectPlanner sans effet secondaire
- SPARK-53303 Utilisez l’encodeur d’état vide lorsque l’état initial n’est pas fourni dans TWS
- SPARK-52917 Prise en charge de lecture pour activer l’aller-retour pour le fichier binaire au format xml
- SPARK-53110 Implémenter la fonction time_trunc dans PySpark
- SPARK-53107 Implémenter la fonction time_trunc dans Scala
- SPARK-52146 Détecter les références de fonctions cycliques dans les UDF SQL
- SPARK-52469 Utiliser l’API JEP 223 pour traiter la version Java
- SPARK-53094 Corriger CUBE avec un agrégat contenant des HAVING clauses
- SPARK-51874 Ajouter TypedConfigBuilder pour l’énumération Scala
- SPARK-53287 Ajouter un guide de migration ANSI
- SPARK-43100 Les métriques shuffle basées sur push doivent être désérialisées correctement
- SPARK-53045 DESCRIBE EXTENDED doit être résilient aux métadonnées endommagées
-
SPARK-53114 Prise en charge
joindansJavaUtils - SPARK-53297 Correction de la docstring de l’API des pipelines déclaratifs pour StreamingTable
- SPARK-53181 Activer les tests de documentation sous ANSI
- SPARK-52482 Améliorer la gestion des exceptions pour lire certains fichiers zstd endommagés
-
SPARK-52990 Soutien
StringSubstitutor - SPARK-51874 Ajouter TypedConfigBuilder pour l’énumération Scala
-
SPARK-53169 Supprimer les commentaires liés à «
Set the logger level of File Appender to» delog4j2.properties -
SPARK-53080 Prise en charge de
cleanDirectorydansSparkFileUtilsetJavaUtils - SPARK-53045 DESCRIBE EXTENDED doit être résilient aux métadonnées endommagées
-
SPARK-53000 Renommer
StringUtils.scalaenStringConcat.scaladans le modulesql/api - SPARK-52952 Ajouter un script de développement de forçage de type UDF PySpark
- SPARK-52998 Déclaration de plusieurs variables dans la fonction
- SPARK-51817 Réintroduire les champs ansiConfig dans les paramètres de message de CAST_INVALID_INPUT et CAST_OVERFLOW
- SPARK-52820 Capturer des plans complets dans des fichiers dorés
- SPARK-53274 Prise en charge de la poussée vers le bas des jointures gauche et droite dans JDBCScanBuilder
- SPARK-52110 Implémenter la prise en charge de la syntaxe SQL pour les pipelines
- SPARK-52950 Activer le mode ANSI dans DataSourceV2StrategySuite
- SPARK-52947 Corriger le chemin d’accès à l’image dans le guide de programmation des pipelines déclaratifs
- SPARK-52592 Prise en charge de la création d'une ps.Series à partir d'une autre ps.Series
- SPARK-53301 Différencier les annotations de type des UDF de Pandas et des UDF d'Arrow
- SPARK-53146 Rendre MergeIntoTable dans SparkConnectPlanner sans effets secondaires
-
SPARK-53166 Utiliser
SparkExitCode.EXIT_FAILUREdans l’objetSparkPipelines - SPARK-53288 Correction de l’erreur d’assertion avec la limite globale de flux de données en continu
- SPARK-52394 Correction de l'erreur de division par zéro de l'autocorrélation en mode ANSI
- SPARK-51555 Ajouter la fonction time_diff()
- SPARK-52948 Activer test_np_spark_compat_frame sous ANSI
- SPARK-53134 Nettoyer les importations ANSI inutilisées dans les tests
-
SPARK-52593 Éviter CAST_INVALID_INPUT de
MultiIndex.to_series,Series.dotetDataFrame.doten mode ANSI - SPARK-53291 Correction de nullité pour la colonne valeur
- SPARK-53097 Rendre WriteOperationV2 sans effet secondaire dans SparkConnectPlanner
- SPARK-53305 Support de TimeType dans createDataFrame
-
SPARK-52914 Prise en charge des
On-Demand Log Loadingjournaux tournants dansHistory Server - SPARK-33538 Envoyer directement des prédicats IN/NOT au metastore Hive
-
SPARK-52849 Ajouter
stringifyExceptionào.a.s.util.Utils -
SPARK-52771 Correction de l’élargissement du type float32 dans
truediv/floordiv - SPARK-52502 Vue d’ensemble du nombre de threads
- SPARK-52788 Correction de l’erreur de conversion de la valeur binaire dans BinaryType en XML
-
SPARK-53123 Prise en charge
getRootCausedansSparkErrorUtils -
SPARK-53129 Améliorer l’importation
SparkShellpar défaut dejava.net._ -
SPARK-53061 Prise en charge
copyFileToDirectorydansSparkFileUtils - SPARK-52683 Prise en charge de ExternalCatalog alterTableSchema
-
SPARK-52871 Fusionner
o.a.s.sql.catalyst.util.SparkStringUtilsverso.a.s.util.SparkStringUtils - SPARK-52817 Corriger la performance des expressions
- SPARK-52545 Normaliser l’échappement de guillemets doubles pour suivre la spécification SQL
-
SPARK-52711 Correction de l’élargissement du type float32 sous
mul/rmulANSI - SPARK-52615 Remplacer File.mkdirs par Utils.createDirectory
- SPARK-52381 JsonProtocol : Accepter uniquement les sous-classes de SparkListenerEvent
- SPARK-52613 Restaurer l’impression complète stacktrace lorsque HBase/Hive DelegationTokenProvider a atteint l’exception
- SPARK-52651 Gérer le type défini par l’utilisateur dans ColumnVector imbriqué
- SPARK-52611 Correction de la version SQLConf pour excludeSubqueryRefsFromRemoveRedundantAliases...
- SPARK-52552 Ignorer l'application de contrainte CHECK pour les suppressions de vecteurs de suppression de données
- Paramètre de support SPARK-52587 spark-shell 2.13
-i-I - SPARK-52492 Rendre InMemoryRelation.convertToColumnarIfPossible personnalisable
- SPARK-52451 Rendre WriteOperation dans SparkConnectPlanner sans effet secondaire
- SPARK-53272 Refactoriser la logique pushdown SPJ hors de BatchScanExec
-
SPARK-53071 Prise en charge
copyFiledansSparkFileUtils - SPARK-51415 Prise en charge du type temporel par make_timestamp()
- SPARK-51554 Ajouter la fonction time_trunc()
- SPARK-52426 Supporter la redirection de stdout/stderr vers le système de journalisation
- SPARK-51834 Prise en charge de la gestion des contraintes de table de bout en bout
- SPARK-53063 Implémenter et appeler de nouvelles API dans FileCommitProtocol au lieu de l'obsolète
- Spark-52546 vérifiez sparkContext si elle s’est arrêtée lors de l’exécution du bloc de code catch dans execute(), sinon, elle retourne un état incorrect.
-
SPARK-53023 Supprimer la
commons-iodépendance dusql/apimodule - SPARK-52396 Le répertoire racine d’artefact doit utiliser tmpdir
-
SPARK-53131 Améliorer
SparkShelll’importationjava.nio.file._par défaut - SPARK-42322 Attribuer un nom to_LEGACY_ERROR_TEMP_2235
- SPARK-51834 Prise en charge de la gestion des contraintes de table de bout en bout
- SPARK-52484 Ignorer l’assertion child.supportsColumnar côté pilote dans ColumnarToRowExec
- SPARK-52384 Correction d'un bug : la connexion doit être insensible aux options JDBC
- SPARK-52034 Ajouter des méthodes courantes dans SparkOperation trait pour les opérations thriftserver
-
SPARK-53031 Prise en charge
getFiledansSparkFileUtils - SPARK-52976 Correction de la fonction UDF Python qui n’accepte pas la chaîne triée en tant que type de paramètre d'entrée/de retour (17.x)
- SPARK-52943 Activer arrow_cast pour tous les types d’évaluation UDF pandas
- SPARK-53263 Prise en charge de TimeType pour df.toArrow
- SPARK-53141 Ajouter des API pour obtenir la taille de mémoire de surcharge et la taille de mémoire offheap à partir du profil de ressource
- SPARK-53259 Corrigez le message pour INVALID_UDF_EVAL_TYPE
- SPARK-53167 Le lanceur Spark isRemote respecte également le fichier de propriétés
-
SPARK-53165 Ajouter
SparkExitCode.CLASS_NOT_FOUND - SPARK-53171 Amélioration de la répétition d'UTF8String
-
SPARK-53170 Améliorer
SparkUserAppExceptionpour avoircauseun paramètre - SPARK-52989 Ajouter une API close() explicite aux itérateurs du magasin de l'état
- SPARK-53074 Éviter un clustering partiel dans SPJ pour répondre à la distribution requise d’un enfant
- SPARK-52252 Les encodeurs ScalaUDF dans la sous-requête doivent être résolus
- SPARK-53244 Ne stockez pas les configurations avec double exécution et mode provisoire activés lors de la création de la vue.
- SPARK-53192 Toujours mettre en cache une source de données dans le cache du plan Spark Connect
- SPARK-51813 Ajouter un DefaultCachedBatchKryoSerializer nonullable pour éviter la propagation null dans DefaultCachedBatch serde
- SPARK-52904 Réappliquer "[SC-202233][python] Enable convertToArrowArrayS...
-
SPARK-53253 Correction de l'enregistrement de l'UDF de type
SQL_SCALAR_ARROW_ITER_UDF - SPARK-53243 Répertorier les types d'évaluation pris en charge dans les nœuds Arrow
-
SPARK-53130 Corriger le
toJsoncomportement des types de chaînes compilés -
SPARK-53003 Prise en charge
stripdansSparkStringUtils - SPARK-51902 Synchroniser OSS : Appliquer la contrainte de vérification lors de l’insertion dans la table
- SPARK-52047 Déclencher PySparkValueError pour les types de tracés non pris en charge
-
SPARK-53004 Prise en charge de
abbreviatedansSparkStringUtils - SPARK-53066 Améliorer la sortie pour le EXPLAIN pushdown de jointure DSv2
- SPARK-30848 Supprimer productHash de TreeNode
-
SPARK-53046 Utiliser Java
readAllBytesau lieu deIOUtils.toByteArray -
SPARK-53206 Utiliser
SparkFileUtils.moveau lieu decom.google.common.io.Files.move - SPARK-53066 Améliorer la sortie pour le EXPLAIN pushdown de jointure DSv2
- SPARK-53069 Corriger les métriques incorrectes de stockage d'état avec les familles de colonnes virtuelles.
- SPARK-52904 Activer convertToArrowArraySafely par défaut [17.x]
- SPARK-52821 ajouter une contrainte de coercion de type de retour int->DecimalType dans le udf pyspark
-
SPARK-51562 Ajouter une
timefonction - SPARK-52971 Limiter la taille de la file d'attente des processus Python inactifs
-
SPARK-53057 Prise en charge
sizeOfdansSparkFileUtilsetJavaUtils - SPARK-53040 Interdire les auto-références dans les CTEs les plus élevés des CTEs récursives
- SPARK-53104 Introduire ansi_mode_context pour éviter plusieurs vérifications de configuration par appel d’API
-
SPARK-47547 Ajouter
BloomFilterV2 et l’utiliser comme valeur par défaut -
SPARK-53098
DeduplicateRelationsne doit pas remaper les expressions si l'ancienneExprIdexiste encore dans le résultat -
SPARK-53049 Support
toStringdansSparkStreamUtils -
SPARK-53062 Prise en charge dans
deleteQuietly,SparkFileUtilsetJavaUtils -
SPARK-53070 Support
is(Not)?EmptydansSparkCollectionUtils - SPARK-53020 Les arguments JPMS doivent également s’appliquer au processus non-SparkSubmit
- SPARK-52968 Émettre des métriques de store d’état supplémentaires
- SPARK-52975 Simplifier les noms de champs dans la jointure pushdown sql
- SPARK-52926 Ajout de SQLMetric pour la durée de récupération de schéma à distance.
- SPARK-53059 Arrow UDF n'a pas besoin d'être dépendant de pandas
-
SPARK-52646 Éviter CAST_INVALID_INPUT en mode ANSI
__eq__ -
SPARK-52622 Éviter CAST_INVALID_INPUT en mode ANSI
DataFrame.melt - SPARK-52985 Lever TypeError pour l’opérande pandas numpy dans les opérateurs de comparaison
-
SPARK-52580 Éviter CAST_INVALID_INPUT de
replaceen mode ANSI - SPARK-52549 Désactiver les références auto-référentielles CTE récursives dans les fonctions de fenêtre et à l'intérieur des tris
-
SPARK-52895 N’ajoutez pas d’éléments en double dans
resolveExprsWithAggregate - SPARK-50748 Résolution d’un problème de condition de concurrence qui survient au cours de l’interruption des opérations
- SPARK-52737 Transfert de prédicat et nombre d’applications vers FsHistoryProvider lors de la liste des applications.
- SPARK-53018 ArrowStreamArrowUDFSerializer doit respecter l’argument arrow_cast
- SPARK-53013 Correction de l’UDTF Python optimisé par Arrow ne retournant aucune ligne lors d'une jointure latérale
- SPARK-51834 Synchroniser OSS : prise en charge de la modification des contraintes de table de bout en bout, ajout/suppression de contrainte
- SPARK-52921 Spécifier le partitionnement de sortie pour UnionExec pour le même partitionnement de sortie que les opérateurs enfants
- SPARK-52908 Empêcher que le nom de la variable itérateur soit en conflit avec les noms d’étiquettes dans le chemin d’accès à la racine d’AST
- SPARK-52954 Prise en charge des UDF Arrow pour la coercition du type de retour
- SPARK-52925 Renvoyer un message d’erreur correct pour les références d’auto-ancrage dans les rCTE
- SPARK-52889 Implémenter la fonction current_time dans PySpark
- SPARK-52675 Interrompre les gestionnaires de tâches ML suspendus dans les tests
- SPARK-52959 Prise en charge de l’UDT dans UDTF Python optimisé par Arrow
- SPARK-52962 BroadcastExchangeExec ne doit pas réinitialiser les métriques
- SPARK-52956 Conserver les métadonnées d’alias lors de la compression des projets
- SPARK-52890 Implémenter les fonctions to_time et try_to_time dans PySpark
- SPARK-52888 Implémenter la fonction make_time dans PySpark
- SPARK-52892 Assurer la prise en charge de TIME dans les fonctions heure, minute et seconde dans PySpark
- SPARK-52837 Support du TimeType dans pyspark
- SPARK-52023 Corriger la corruption des données / segfault en retournant Option[Produit] à partir d’UDAF
- SPARK-52955 Modifier les types de retour de WindowResolution.resolveOrder et WindowResolution.resolveFrame en WindowExpression
- SPARK-52166 Ajouter la prise en charge des Événements de Pipeline
- SPARK-51834 Correctif : supprimer la validité de toDDL
- SPARK-52735 Corriger les conditions d’erreur manquantes pour les fonctions définies par l’utilisateur SQL
- SPARK-51834 Synchronisation de la prise en charge OSS pour la création/remplacement de tables avec contrainte de bout en bout
- SPARK-51834 Synchroniser les appels unapply liés à la mise à jour de la synchronisation OSS ResolvedIdentifier
- SPARK-52929 Prise en charge du connecteur MySQL et SQL Server pour le pushdown de jointure DSv2
- SPARK-52448 Ajouter une expression.littérale struct simplifiée
- SPARK-52882 Implémenter la fonction current_time dans Scala
- SPARK-52905 Flèche UDF pour la fenêtre
-
SPARK-52876 Correction d’une faute de frappe
bufferenbodydansChunkFetchSuccess.toString - SPARK-52883 Implémenter les fonctions to_time et try_to_time dans Scala
-
SPARK-52751 Ne validez pas avec impatience le nom de colonne dans
dataframe['col_name'] - SPARK-52791 Corriger l’erreur lors de l’inférence d’un UDT avec un premier élément Null
-
SPARK-52686
Unionne doit être résolu que s’il n’y a pas de doublons - SPARK-52881 Implémenter la fonction make_time dans Scala
- SPARK-52919 Correction du pushdown de jointure DSv2 pour utiliser la colonne précédemment aliasée
-
SPARK-52866 Ajouter une prise en charge pour
try_to_date - SPARK-52846 Ajouter une métrique dans JDBCRDD pour mesurer le temps nécessaire à l'extraction du jeu de résultats
- SPARK-52859 Ajouter la caractéristique SparkSystemUtils
- SPARK-52823 Prise en charge du pushdown de jointure DSv2 pour le connecteur Oracle
- SPARK-52165 Configurer l'infrastructure de construction pour le projet de pipelines.
- SPARK-52869 Ajouter la validation FrameLessOffsetWindowFunction à validateResolvedWindowExpression pour la réutilisation dans l'analyseur en un seul passage
- SPARK-52885 Implémenter les fonctions d’heure, de minute et de seconde dans Scala pour le type TIME
- SPARK-52903 Supprimer les alias de niveau non supérieur avant la résolution des LCA
- SPARK-52832 Correction de la mise entre guillemets des identificateurs de dialecte JDBC
-
SPARK-52870 Citer correctement les noms de variables dans l'instruction
FOR -
SPARK-52859 Ajouter une
SparkSystemUtilscaractéristique -
SPARK-52900 Utiliser
SparkStringUtils.stringToSeqdansFsHistoryProvider - SPARK-52809 Ne pas garder de références de lecteur et d'itérateur pour toutes les partitions dans les auditeurs de fin de tâche lors de la mise à jour des métriques
-
SPARK-52815 Améliorer
SparkClassUtilspour prendre en chargegetAllInterfaces - SPARK-52795 Inclure runId dans les journaux du magasin d'état
- SPARK-52779 Prise en charge du littéral TimeType dans Connect
- SPARK-52899 Correction du test QueryExecutionErrorsSuite pour réinscrire H2Dialect
-
SPARK-52862 Correction de la vérification de la nullabilité de
Decimal('NaN') - SPARK-52214 Flèche UDF pour l’agrégation
- SPARK-52787 Réorganiser le répertoire d’exécution de streaming autour des zones de runtime et de point de contrôle
- SPARK-51564 Analyse de l'heure au format 12 heures
-
SPARK-52859 Ajouter une
SparkSystemUtilscaractéristique -
SPARK-51562 Ajouter une
timefonction - SPARK-52850 Ignorer l'appel des conversions si la fonction est une identité
- SPARK-52863 Nettoyer les chemins de code pour les anciennes versions de pandas
- SPARK-52516 Ne conservez pas la référence d’itérateur précédente après l’avancement vers le fichier suivant dans ParquetPartitionReaderFactory
-
SPARK-52848 Évitez d’effectuer un
Doublecast dans la conversion de TIME/TIMESTAMP en DECIMAL -
SPARK-52770 Prise en charge du type
TIMEdans le protocole de connexion - SPARK-52842 Nouvelles fonctionnalités et correctifs de bogues pour l’analyseur à passe unique
- SPARK-52620 Prise en charge de la conversion de TIME en DECIMAL
- SPARK-52783 Refactoriser la logique de validation windowFunction à partir de checkAnalysis pour la réutilisation dans l’analyseur à passe unique
- SPARK-51695 Synchroniser la table de création/remplacement/modification du système d’exploitation pour une contrainte unique via DSv2
- SPARK-51695 Synchroniser l'abandon de contrainte OSS par DSv2
- SPARK-52824 Classification des erreurs CheckpointFileManager
- SPARK-52829 Correction de LocalDataToArrowConversion.convert pour gérer correctement les lignes vides
- SPARK-52811 Optimiser ArrowTableToRowsConversion.convert pour améliorer ses performances
- SPARK-52796 Optimiser LocalDataToArrowConversion.convert pour améliorer ses performances
- SPARK-51695 Synchroniser les modifications apportées à l’analyseur de contraintes ALTER Table OSS
- SPARK-52619 Cast TimeType en IntegralType
- SPARK-52187 Présentation du pushdown de jointure pour DSv2
- SPARK-52782 Retourner NULL à partir de +/- à datetime avec NULL
- SPARK-51695 Introduire des modifications de parseur pour les contraintes de table (CHECK, PK, FK)
-
SPARK-52808
spark.history.retainedApplicationsdoit être positif - SPARK-52776 Ne fractionnez pas le champ comm dans ProcfsMetricsGetter
-
SPARK-52793 Support
isUnixau niveau deo.a.s.util.Utils -
SPARK-52792 Supprimer la
commons-lang3dépendance denetwork-common -
SPARK-52797 Utiliser
Utils.isWindowsau lieu de réévaluer dansPythonWorkerFactory - SPARK-52784 Ajouter un cast TimeZoneAware dans WindowFrameTypeCoercion.createBoundaryCast
- SPARK-52725 Retarder l’initialisation du gestionnaire de profils de ressources jusqu’à ce que le plug-in soit chargé
- SPARK-52565 Appliquer la résolution ordinale avant d’autres expressions d’ordre de tri
- SPARK-52740 Correction de NPE dans HDFSBackedStateStoreProvider accédant à StateStoreConf.sqlConf lorsque la version du format de point de contrôle est >=2
- SPARK-52673 Ajouter la prise en charge de RetryInfo grpc aux politiques de réessai Spark Connect
- SPARK-52724 Améliorer la gestion des erreurs OOM dans la jointure diffusée avec la prise en charge des indicateurs SHUFFLE_MERGE
- SPARK-52781 Correction de la faute de frappe dtyeps dans internal.py
- SPARK-52730 Stocker le pilote sous-jacent et la version de base de données dans JDBCRDD
- SPARK-52727 Refactoriser la résolution de fenêtre afin de la réutiliser dans l’analyseur à passe unique
- SPARK-52695 Prise en charge de l’écriture de type défini par l’utilisateur pour le format de fichier XML
- SPARK-52722 Mettre hors service la classe JdbcRDD
- SPARK-51695 Introduire des modifications de l'analyseur pour les contraintes de table (CHECK, PK, FK)
- SPARK-52763 Prise en charge de la soustraction TIME
- SPARK-52768 Correction de la faute de frappe « moveing » dans pandas/series.py
- SPARK-52730 Stocker le pilote sous-jacent et la version de base de données dans JDBCRDD
-
SPARK-52694 Ajouter une
o.a.s.sql.Encoders#udtAPI -
SPARK-52720 Correction de l’élargissement du type float32 sous
add/raddANSI - SPARK-52723 Validation du nom de colonne côté serveur
-
SPARK-52760 Correction de l’élargissement du type float32 sous
sub/rsubANSI -
SPARK-52738 Prise en charge de l’agrégation du type TIME avec un UDAF lorsque la mémoire tampon sous-jacente est une
UnsafeRow - SPARK-52704 Simplifier les interopérations entre les options SQLConf et de format de fichier dans TextBasedFileFormats
- SPARK-52706 Corriger les incohérences et les types primitifs refactorisables dans l’analyseur
-
SPARK-52718 Correction de l’élargissement du type float32 sous
rmod/modANSI - SPARK-52736 Correction des fautes de frappe « déplacement » dans pyspark/pandas/generic.py
Prise en charge du pilote ODBC/JDBC d'Azure Databricks
Databricks prend en charge les pilotes ODBC/JDBC publiés au cours des 2 dernières années. Téléchargez les pilotes et la mise à niveau récemment publiés (téléchargez ODBC, téléchargez JDBC).
Environnement du système
- Système d’exploitation : Ubuntu 24.04.3 LTS
- Java : Zulu17.58+21-CA
- Scala : 2.13.16
- Python : 3.12.3
- R : 4.4.2
- Delta Lake : 4.0.0
Bibliothèques Python installées
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| annotated-types | 0.7.0 | anyio | 4.6.2 | argon2-cffi | 21.3.0 |
| argon2-cffi-bindings | 21.2.0 | flèche | 1.3.0 | asttokens | 2.0.5 |
| astunparse | 1.6.3 | async-lru | 2.0.4 | attributs | 24.3.0 |
| commande automatique | 2.2.2 | azure-common | 1.1.28 | azure-core | 1.34.0 |
| azure-identity | 1.20.0 | azure-mgmt-core | 1.5.0 | azure-mgmt-web | 8.0.0 |
| azure-storage-blob (service de stockage de blobs Azure) | 12.23.0 | Azure Storage File Data Lake | 12.17.0 | babel | 2.16.0 |
| backports.tarfile | 1.2.0 | bellesoupe4 | 4.12.3 | black | 24.10.0 |
| bleach | 6.2.0 | clignotant | 1.7.0 | boto3 | 1.36.2 |
| botocore | 1.36.3 | cachetools | 5.5.1 | certifi | 2025.1.31 |
| cffi | 1.17.1 | chardet | 4.0.0 | charset-normalizer | 3.3.2 |
| cliquez | 8.1.7 | cloudpickle | 3.0.0 | comm | 0.2.1 |
| contourpy | 1.3.1 | cryptographie | 43.0.3 | cycliste | 0.11.0 |
| Cython | 3.0.12 | Kit de développement logiciel Databricks (SDK) | 0.49.0 | dbus-python | 1.3.2 |
| debugpy | 1.8.11 | décorateur | 5.1.1 | defusedxml | 0.7.1 |
| Deprecated | 1.2.13 | distlib | 0.3.9 | Conversion de docstring en markdown | 0.11 |
| executing | 0.8.3 | aperçu des facettes | 1.1.1 | fastapi | 0.115.12 |
| validation rapide des schémas JSON (fastjsonschema) | 2.21.1 | verrou de fichier | 3.18.0 | outils de police | 4.55.3 |
| fqdn | 1.5.1 | fsspec | 2023.5.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.20.0 | google-auth | 2.40.0 |
| google-cloud-core | 2.4.3 | google-cloud-storage (Stockage dans le cloud de Google) | 3.1.0 | google-crc32c | 1.7.1 |
| google-resumable-media | 2.7.2 | googleapis-common-protos | 1.65.0 | grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.14.0 | httpcore | 1.0.2 |
| httplib2 | 0.20.4 | httpx | 0.27.0 | IDNA | 3.7 |
| importlib-metadata | 6.6.0 | importlib_resources | 6.4.0 | inflect | 7.3.1 |
| iniconfig | 1.1.1 | ipyflow-core | 0.0.209 | ipykernel | 6.29.5 |
| ipython | 8.30.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.8.1 |
| isodate | 0.6.1 | isoduration | 20.11.0 | jaraco.context | 5.3.0 |
| jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 | Jedi | 0.19.2 |
| Jinja2 | 3.1.5 | jmespath | 1.0.1 | joblib | 1.4.2 |
| json5 | 0.9.25 | jsonpointer | 3.0.0 | jsonschema | 4.23.0 |
| spécifications du schéma JSON | 2023.7.1 | événements Jupyter | 0.10.0 | jupyter-lsp | 2.2.0 |
| jupyter_client | 8.6.3 | jupyter_core | 5.7.2 | serveur Jupyter | 2.14.1 |
| jupyter_server_terminals | 0.4.4 | jupyterlab | 4.3.4 | jupyterlab-pygments | 0.1.2 |
| jupyterlab-widgets (widgets pour JupyterLab) | 1.0.0 | jupyterlab_server | 2.27.3 | kiwisolver | 1.4.8 |
| launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 | lazr.uri | 1.0.6 |
| markdown-it-py | 2.2.0 | MarkupSafe | 3.0.2 | matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | mccabe | 0.7.0 | mdurl | 0.1.0 |
| mistune | 2.0.4 | mlflow-skinny (version légère de mlflow) | 3.0.1 | mmh3 | 5.1.0 |
| more-itertools | 10.3.0 | msal | 1.32.3 | msal-extensions | 1.3.1 |
| mypy-extensions | 1.0.0 | nbclient | 0.8.0 | nbconvert | 7.16.4 |
| nbformat | 5.10.4 | nest-asyncio | 1.6.0 | nodeenv | 1.9.1 |
| notebook | 7.3.2 | notebook_shim | 0.2.3 | numpy | 2.1.3 |
| oauthlib | 3.2.2 | opentelemetry-api | 1.32.1 | opentelemetry-sdk | 1.32.1 |
| opentelemetry-semantic-conventions | 0.53b1 | remplace | 7.4.0 | empaquetage | 24,2 |
| Pandas | 2.2.3 | pandocfilters | 1.5.0 | parso | 0.8.4 |
| pathspec | 0.10.3 | patsy | 1.0.1 | pexpect | 4.8.0 |
| pillow | 11.1.0 | pip | 25.0.1 | platformdirs | 3.10.0 |
| plotly | 5.24.1 | pluggy | 1.5.0 | prometheus_client | 0.21.0 |
| prompt-toolkit | 3.0.43 | proto-plus | 1.26.1 | protobuf | 5.29.4 |
| psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | pyarrow | 19.0.1 | pyasn1 | 0.4.8 |
| pyasn1-modules | 0.2.8 | pyccolo | 0.0.71 | pycparser | 2.21 |
| pydantic | 2.10.6 | pydantic_core | 2.27.2 | pyflakes | 3.2.0 |
| Pygments | 2.15.1 | PyGObject | 3.48.2 | pyiceberg | 0.9.0 |
| PyJWT | 2.10.1 | pyodbc | 5.2.0 | pyparsing | 3.2.0 |
| pyright | 1.1.394 | pytest | 8.3.5 | python-dateutil | 2.9.0.post0 |
| python-json-logger | 3.2.1 | python-lsp-jsonrpc | 1.1.2 | python-lsp-server | 1.12.0 |
| pytoolconfig | 1.2.6 | pytz | 2024.1 | PyYAML | 6.0.2 |
| pyzmq | 26.2.0 | référencement | 0.30.2 | requests | 2.32.3 |
| RFC3339 validateur | 0.1.4 | rfc3986-validator | 0.1.1 | rich | 13.9.4 |
| corde | 1.12.0 | rpds-py | 0.22.3 | rsa | 4.9.1 |
| s3transfer | 0.11.3 | scikit-learn | 1.6.1 | scipy (bibliothèque Python pour le calcul scientifique) | 1.15.1 |
| seaborn | 0.13.2 | Send2Trash | 1.8.2 | setuptools | 74.0.0 |
| six | 1.16.0 | smmap | 5.0.0 | sniffio | 1.3.0 |
| sortedcontainers | 2.4.0 | soupsieve | 2.5 | sqlparse | 0.5.3 |
| ssh-import-id | 5.11 | données en pile | 0.2.0 | starlette | 0.46.2 |
| statsmodels, une bibliothèque Python pour la modélisation statistique | 0.14.4 | strictyaml | 1.7.3 | ténacité | 9.0.0 |
| terminé | 0.17.1 | threadpoolctl | 3.5.0 | tinycss2 | 1.4.0 |
| tokenize_rt | 6.1.0 | tomli | 2.0.1 | tornade | 6.4.2 |
| Traitlets | 5.14.3 | typeguard | 4.3.0 | types-python-dateutil | 2.9.0.20241206 |
| typing_extensions | 4.12.2 | tzdata | 2024.1 | ujson | 5.10.0 |
| unattended-upgrades | 0.1 | uri-template | 1.3.0 | urllib3 | 2.3.0 |
| uvicorn | 0.34.2 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | webcolores | 24.11.1 | webencodings | 0.5.1 |
| websocket-client | 1.8.0 | c’est quoi le patch | 1.0.2 | roue | 0.45.1 |
| widgetsnbextension | 3.6.6 | wrapt | 1.17.0 | yapf | 0.40.2 |
| zipp | 3.21.0 |
Bibliothèques R installées
Les bibliothèques R sont installées à partir de l'instantané CRAN du gestionnaire de packages en date du 20-03-2025.
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| flèche | 19.0.1 | Askpass | 1.2.1 | assertthat | 0.2.1 |
| backports | 1.5.0 | base | 4.4.2 | base64enc | 0.1-3 |
| bigD | 0.3.0 | bit | 4.6.0 | bit 64 | 4.6.0-1 |
| bitops | 1.0-9 | objet BLOB | 1.2.4 | boot | 1.3-30 |
| brew | 1.0-10 | brio | 1.1.5 | balai | 1.0.7 |
| bslib | 0.9.0 | cachemire | 1.1.0 | callr | 3.7.6 |
| caret | 7.0-1 | cellranger | 1.1.0 | chron | 2.3-62 |
| classe | 7.3-22 | cli | 3.6.5 | clipr | 0.8.0 |
| horloge | 0.7.2 | cluster | 2.1.6 | codetools | 0,2-20 |
| espace colorimétrique | 2.1-1 | commonmark | 1.9.5 | compilateur | 4.4.2 |
| config | 0.3.2 | conflicted | 1.2.0 | cpp11 | 0.5.2 |
| crayon | 1.5.3 | credentials | 2.0.2 | friser | 6.4.0 |
| data.table | 1.17.0 | ensembles de données | 4.4.2 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | desc | 1.4.3 | devtools | 2.4.5 |
| diagramme | 1.6.5 | diffobj | 0.3.5 | digérer | 0.6.37 |
| downlit | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-16 | ellipse | 0.3.2 | évaluer | 1.0.3 |
| fans | 1.0.6 | couleurs | 2.1.2 | carte rapide | 1.2.0 |
| fontawesome | 0.5.3 | condamnés | 1.0.0 | foreach | 1.5.2 |
| foreign | 0.8-86 | forge | 0.2.0 | fs | 1.6.5 |
| futur | 1.34.0 | future.apply | 1.11.3 | gargle | 1.5.2 |
| produits génériques | 0.1.4 | gert | 2.1.4 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | git2r | 0.35.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globals | 0.18.0 | colle | 1.8.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.2 |
| graphisme | 4.4.2 | grDevices | 4.4.2 | grid | 4.4.2 |
| gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.11.1 |
| gtable | 0.3.6 | hardhat | 1.4.1 | haven | 2.5.4 |
| highr | 0.11 | hms | 1.1.3 | outils HTML | 0.5.8.1 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.1.1 | ids | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-15 | isoband | 0.2.7 | itérateurs | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.9.1 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-22 | knitr | 1,50 | étiquetage | 0.4.3 |
| plus tard | 1.4.1 | lattice | 0.22-5 | lave | 1.8.1 |
| cycle de vie | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.4 |
| magrittr | 2.0.3 | markdown | 1.13 | MASS | 7.3-60.0.1 |
| Matrix | 1.6-5 | memoise | 2.0.1 | méthodes | 4.4.2 |
| mgcv | 1.9-1 | mime | 0,13 | miniUI | 0.1.1.1 |
| mlflow | 2.20.4 | ModelMetrics | 1.2.2.2 | modèleur | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-164 | nnet | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl | 2.3.3 | parallèle | 4.4.2 |
| parallèlement | 1.42.0 | pilier | 1.11.0 | pkgbuild | 1.4.6 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.1 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr (un package logiciel pour le traitement de données) | 1.8.9 | éloge | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.6 |
| prodlim | 2024.06.25 | profvis | 0.4.0 | progrès | 1.2.3 |
| progressr | 0.15.1 | promesses | 1.3.2 | proto | 1.0.0 |
| mandataire | 0,4-27 | p.s. | 1.9.0 | purrr | 1.0.4 |
| R6 | 2.6.1 | ragg | 1.3.3 | randomForest (algorithme d'apprentissage automatique) | 4.7-1.2 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.14 | RcppEigen | 0.3.4.0.2 | réactif | 0.4.4 |
| reactR | 0.6.1 | readr | 2.1.5 | readxl | 1.4.5 |
| recettes | 1.2.0 | match retour | 2.0.0 | revanche2 | 2.1.2 |
| remotes | 2.5.0 | exemple reproductible | 2.1.1 | reshape2 | 1.4.4 |
| rlang | 1.1.6 | rmarkdown | 2.29 | RODBC | 1.3-26 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-15 | RSQLite | 2.3.9 | rstudioapi | 0.17.1 |
| rversions | 2.1.2 | rvest | 1.0.4 | sass | 0.4.9 |
| écailles | 1.3.0 | selectr | 0,4-2 | informations sur la session | 1.2.3 |
| forme | 1.4.6.1 | brillant | 1.10.0 | sourcetools | 0.1.7-1 |
| sparklyr | 1.9.1 | SparkR | 4.0.0 | sparsevctrs | 0.3.1 |
| spatial | 7.3-17 | splines | 4.4.2 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | Statistiques | 4.4.2 | statistiques4 | 4.4.2 |
| chaine | 1.8.7 | stringr | 1.5.1 | survie | 3.5-8 |
| swagger | 5.17.14.1 | sys | 3.4.3 | systemfonts | 1.2.1 |
| tcltk | 4.4.2 | testthat | 3.2.3 | mise en forme de texte | 1.0.0 |
| tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | changement d'heure | 0.3.0 | date-heure | 4041.110 |
| tinytex | 0.56 | outils | 4.4.2 | tzdb | 0.5.0 |
| vérificateur d'URL | 1.0.1 | Utilise ça | 3.1.0 | utf8 | 1.2.6 |
| utilitaires | 4.4.2 | Identifiant unique universel (UUID) | 1.2-1 | V8 | 6.0.2 |
| vctrs | 0.6.5 | viridisLite | 0.4.2 | Vroom | 1.6.5 |
| Waldo | 0.6.1 | vibrisse | 0.4.1 | flétrir | 3.0.2 |
| xfun | 0,51 | xml2 | 1.3.8 | xopen | 1.0.1 |
| xtable | 1.8-4 | yaml | 2.3.10 | zeallot | 0.1.0 |
| zip | 2.3.2 |
Bibliothèques Java et Scala installées (version du cluster Scala 2.13)
| ID de groupe | ID d’artefact | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | AWS Java SDK pour Elastic Beanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport (kit de développement logiciel Java AWS pour l'importation et l'exportation) | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-machinelearning (kit de développement logiciel AWS pour l'apprentissage automatique en Java) | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | aws-java-sdk-support | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | ruisseau | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | kryo-shaded | 4.0.3 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | Camarade de classe | 1.5.1 |
| com.fasterxml.jackson.core | jackson-annotations | 2.18.2 |
| com.fasterxml.jackson.core | jackson-core | 2.18.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.caffeine | caféine | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 natifs |
| com.github.fommil.netlib | système_natif-java | 1.1 |
| com.github.fommil.netlib | système_natif-java | 1.1 natifs |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1 natifs |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1 natifs |
| com.github.luben | zstd-jni | 1.5.6-10 |
| com.github.virtuald | curvesapi | 1.08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos | 2.5.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.11.0 |
| com.google.crypto.tink | tink | 1.16.0 |
| com.google.errorprone | annotations_sujettes_aux_erreurs | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 24.3.25 |
| com.google.guava | failureaccess | 1.0.2 |
| com.google.guava | goyave | 33.4.0-jre |
| com.google.guava | listenablefuture | 9999.0-empty-to-avoid-conflict-with-guava |
| com.google.j2objc | j2objc-annotations | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | profileur | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK (kit de développement logiciel pour le magasin Azure Data Lake) | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre8 |
| com.ning | compress-lzf (compression utilisant l'algorithme LZF) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-analyseurs | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.9.0 |
| commons-codec | commons-codec | 1.17.2 |
| commons-collections (bibliothèque de collections communes) | commons-collections (bibliothèque de collections communes) | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1,5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.18.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compresseur d'air | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.5 |
| io.dropwizard.metrics | annotation des métriques | 4.2.30 |
| io.dropwizard.metrics | métriques de base | 4.2.30 |
| io.dropwizard.metrics | metrics-graphite | 4.2.30 |
| io.dropwizard.metrics | métriques-vérifications de santé | 4.2.30 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.30 |
| io.dropwizard.metrics | Metrics-JMX | 4.2.30 |
| io.dropwizard.metrics | metrics-json | 4.2.30 |
| io.dropwizard.metrics | metrics-jvm | 4.2.30 |
| io.dropwizard.metrics | servlets de métriques | 4.2.30 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all | 4.1.118.Final |
| io.netty | netty-buffer | 4.1.118.Final |
| io.netty | netty-codec | 4.1.118.Final |
| io.netty | netty-codec-http | 4.1.118.Final |
| io.netty | netty-codec-http2 | 4.1.118.Final |
| io.netty | netty-codec-socks | 4.1.118.Final |
| io.netty | netty-common | 4.1.118.Final |
| io.netty | netty-handler | 4.1.118.Final |
| io.netty | netty-handler-proxy | 4.1.118.Final |
| io.netty | netty-resolver | 4.1.118.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.70.Final |
| io.netty | netty-transport | 4.1.118.Final |
| io.netty | netty-transport-classes-epoll | 4.1.118.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-x86_64 |
| io.netty | transport-netty-natif-commun-unix | 4.1.118.Final |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | simpleclient_common | 0.16.1-databricks |
| io.prometheus | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometheus | simpleclient_pushgateway | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel_agent | 0.16.1-databricks |
| io.prometheus.jmx | collectionneur | 0.18.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activation | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | jta | 1.1 |
| javax.transaction | transaction-api | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.13.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | conserve | 1,5 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk (module d'ingestion de Snowflake) | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.13.1 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | fourmi | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | arrow-format | 18.2.0 |
| org.apache.arrow | arrow-memory-core | 18.2.0 |
| org.apache.arrow | arrow-memory-netty | 18.2.0 |
| org.apache.arrow | arrow-memory-netty-buffer-patch | 18.2.0 |
| org.apache.arrow | vecteur-flèche | 18.2.0 |
| org.apache.avro | Avro | 1.12.0 |
| org.apache.avro | avro-ipc | 1.12.0 |
| org.apache.avro | avro-mapred | 1.12.0 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.27.1 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.17.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | texte commun | 1.13.0 |
| org.apache.curator | curator-client | 5.7.1 |
| org.apache.curator | curator-framework | 5.7.1 |
| org.apache.curator | curator-recipes | 5.7.1 |
| org.apache.datasketches | datasketches-java | 6.1.1 |
| org.apache.datasketches | datasketches-memory (mémoire de croquis de données) | 3.0.2 |
| org.apache.derby | derby | 10.14.2.0 |
| org.apache.hadoop | environnement d'exécution du client Hadoop | 3.4.1 |
| org.apache.hive | hive-beeline (outil de ligne de commande d'Apache Hive) | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | hive-jdbc | 2.3.10 |
| org.apache.hive | hive-llap-client | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | hive-serde | 2.3.10 |
| org.apache.hive | hive-shims | 2.3.10 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | Composant commun de hive-shims | 2.3.10 |
| org.apache.hive.shims | programmeur de cales de hive | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | lierre | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.1.1-shaded-protobuf |
| org.apache.orc | orc-format | 1.1.0-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 2.1.1-shaded-protobuf |
| org.apache.orc | orc-shims | 2.1.1 |
| org.apache.poi | poi | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4,26 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | audience-annotations | 0.13.0 |
| org.apache.zookeeper | gardien de zoo | 3.9.3 |
| org.apache.zookeeper | zookeeper-jute | 3.9.3 |
| org.checkerframework | checker-qual | 3.43.0 |
| org.codehaus.janino | compilateur commun | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-continuation | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-http | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-io | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-jndi | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-plus | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-proxy | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-security (sécurité de quai) | 9.4.53.v20231009 |
| org.eclipse.jetty | serveur jetty | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlet | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlets | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-webapp | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-xml | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-client | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | serveur websocket | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.53.v20231009 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | OSGi Localisateur de Ressources | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | servlet de conteneur jersey | 2.41 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.41 |
| org.glassfish.jersey.core | jersey-client | 2.41 |
| org.glassfish.jersey.core | jersey-common | 2.41 |
| org.glassfish.jersey.core | jersey-server | 2.41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41 |
| org.hibernate.validator | hibernate-validator | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | annotations | 17.0.0 |
| org.jline | jline | 3.27.1-jdk8 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.9.1 |
| org.objenesis | objenèse | 3.3 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rocksdb | rocksdbjni | 9.8.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.3.0 |
| org.scala-sbt | interface de test | 1,0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | compatible avec scalatest | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | xz | 1,10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly.openssl | 1.1.3.Finale |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1,5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| stax | stax-api | 1.0.1 |
Conseil / Astuce
Pour afficher les notes de publication des versions de Databricks Runtime qui ont atteint la fin de la prise en charge (EoS), consultez les notes de publication des versions de Databricks Runtime ayant atteint la fin de la prise en charge. Les versions d’EoS Databricks Runtime ont été supprimées et peuvent ne pas être mises à jour.