Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Les notes de publication suivantes fournissent des informations sur Databricks Runtime 18.1 (bêta).
Cette version intègre toutes les fonctionnalités, améliorations et correctifs de bogues de toutes les versions précédentes de Databricks Runtime. Databricks a publié cette version en février 2026.
Important
Databricks Runtime 18.1 est en version bêta. Le contenu des environnements pris en charge peut changer pendant la version bêta. Les modifications peuvent inclure la liste des packages ou des versions des packages installés.
Nouvelles fonctionnalités et améliorations
- Le chargeur automatique utilise les événements de fichier par défaut lorsqu’il est disponible
- Écritures optimisées pour des tables d'Unity Catalog partitionnées créées avec CRTAS
- Prise en charge des types de données DATETIMEOFFSET pour Microsoft Azure Synapse
- Commentaires de table Google BigQuery
- Évolution du schéma avec les déclarations INSERT
- Valeurs de struct NULL conservées dans les INSERT opérations
- Prise en charge de la gestion des transactions multi-instructions avec Delta Sharing
- Points de contrôle DataFrame dans les chemins de volumes
- Les commandes SQL ne sont plus réexécuter lors de l’appel du cache()
- parse_timestamp fonction SQL
- Prise en charge du curseur SQL dans les instructions composées
- Fonctions de croquis top-k approximatives
- Fonctions d'esquisse de tuple
Le chargeur automatique utilise les événements de fichiers par défaut lorsqu'ils sont disponibles
Le chargeur automatique utilise les événements de fichier par défaut lors du chargement à partir d’un emplacement externe avec des événements de fichier activés, ce qui réduit les opérations de liste et le coût par rapport à la liste des répertoires. Consultez le chargeur automatique avec la vue d’ensemble des événements de fichier. Les événements de fichier ne sont pas utilisés si votre code de flux de données définit useIncrementalListing ou useNotifications. Pour utiliser la liste d’annuaires à la place, définissez useManagedFileEvents sur false.
Écritures optimisées pour les tables du catalogue Unity partitionnées créées avec CRTAS
Les écritures optimisées s'appliquent aux tables de catalogue Unity partitionnées créées par CREATE OR REPLACE TABLE ... AS SELECT (CRTAS), qui produisent moins de fichiers plus volumineux. Ce comportement est activé par défaut. Pour désactiver, définissez spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled sur false.
Prise en charge des types de données DATETIMEOFFSET pour Microsoft Azure Synapse
Le DATETIMEOFFSET type de données est pris en charge pour les connexions Microsoft Azure Synapse.
Commentaires de table Google BigQuery
Les descriptions des tables Google BigQuery sont résolues et exposées en tant que commentaires de table.
Évolution du schéma avec INSERT des déclarations
Utilisez la WITH SCHEMA EVOLUTION clause avec des instructions SQL INSERT pour faire évoluer automatiquement le schéma de la table cible pendant les opérations d’insertion. La clause est prise en charge pour INSERT INTO, INSERT OVERWRITE, et INSERT INTO ... REPLACE formats. Par exemple:
INSERT WITH SCHEMA EVOLUTION INTO students TABLE visiting_students_with_additional_id;
Le schéma de la table Delta Lake cible est mis à jour pour accueillir des colonnes supplémentaires ou des types élargis issus de la source. Pour plus d’informations, consultez la syntaxe de l’évolution du schéma et INSERT de l’instruction.
Les valeurs de struct NULL sont conservées dans les opérations INSERT.
INSERT les opérations avec l'évolution du schéma ou le castage implicite conservent NULL les valeurs du struct lorsque les tables source et cible ont des ordres des champs différents dans le struct.
Prise en charge des transactions multi-instructions pour Delta Sharing
Les tables de partage Delta qui utilisent des modes de partage par URL pré-signé ou par jeton cloud prennent en charge les transactions multi-instructions. Lors du premier accès au sein d’une transaction, la version de la table est épinglée et réutilisée pour toutes les lectures suivantes dans la transaction.
Limitations :
- Les déplacements dans le temps, le flux de données modifiées et la diffusion en continu ne sont pas pris en charge.
- Les transactions multi-énoncés ne sont pas prises en charge pour les tables partagées sans historique.
- Les vues partagées et les entités externes ne sont pas autorisées sur l'informatique non approuvée.
Points de contrôle DataFrame dans les chemins de volume
Les checkpoints de DataFrame prennent en charge les chemins d'accès des volumes de Unity Catalog. Configurez le chemin de point de contrôle en utilisant SparkContext.setCheckpointDir pour le calcul dédié ou la configuration spark.checkpoint.dir pour le calcul standard.
Les commandes SQL ne sont plus réexécuter lors de l’appel du cache()
Les commandes SQL ne sont plus réexécuter lors de l’appel .cache() sur le DataFrame de résultat. Cela inclut des commandes telles que SHOW TABLES et SHOW NAMESPACES.
parse_timestamp fonction SQL
La parse_timestamp fonction SQL analyse les chaînes d’horodatage par rapport à plusieurs modèles. Il est photonisé pour une évaluation plus rapide avec des horodatages dans différents formats. Consultez les modèles Datetime pour plus d’informations sur la mise en forme des modèles datetime.
Support du curseur SQL dans les instructions composées
Les instructions composées de script SQL prennent désormais en charge le traitement des curseurs. Utilisez DECLARE CURSOR pour définir un curseur, puis l’instruction OPEN, l’instruction FETCH et l’instruction CLOSE pour exécuter la requête et consommer des lignes une par une. Les curseurs peuvent utiliser des marqueurs de paramètres et des gestionnaires de conditions tels que NOT FOUND pour le traitement de ligne par ligne.
Fonctions d'esquisse top-k approximatives
De nouvelles fonctions permettent de créer et de combiner des croquis approximatifs de top-K pour l’agrégation top-K distribuée.
-
approx_top_k_accumulate: crée un croquis par groupe. Voirapprox_top_k_accumulatela fonction d’agrégation. -
approx_top_k_combine: Fusionne les croquis. Voirapprox_top_k_combinela fonction d’agrégation. -
approx_top_k_estimate: retourne les éléments K principaux avec des nombres estimés. Consultez Fonctionapprox_top_k_estimate.
Pour plus d’informations, consultez approx_top_k fonctions d’agrégation et fonctions intégrées.
Fonctions de croquis tuple
Les nouvelles fonctions d’agrégation et scalaires pour le croquis tuple prennent en charge le comptage et l’agrégation distincts sur des paires de synthèse de clés.
Fonctions d’agrégation :
-
tuple_sketch_agg_doublefonction d’agrégation -
tuple_sketch_agg_integerfonction d’agrégation -
tuple_union_agg_doublefonction d’agrégation -
tuple_union_agg_integerfonction d’agrégation -
tuple_intersection_agg_doublefonction d’agrégation -
tuple_intersection_agg_integerfonction d’agrégation
Fonctions scalaires :
tuple_sketch_estimatetuple_sketch_summarytuple_sketch_thetatuple_uniontuple_intersectiontuple_difference
Consultez les fonctions intégrées.
Changements comportementaux
- Clause FILTER pour les fonctions d’agrégation MEASURE
- Écritures optimisées pour les opérations CRTAS du Unity Catalog
- Actualisation du cache DataFrame pour les tables de contrôle d’accès affinées
- Les valeurs de partition timestamp utilisent le fuseau horaire de session
- Mot-clé réservé DESCRIBE FLOW
- Amélioration des performances des opérations géospatiales
- Types d’exceptions pour SQLSTATE
- Élargissement automatique du type de diffusion en continu
Clause FILTER pour les fonctions d’agrégation MEASURE
Les fonctions d’agrégation MEASURE prennent désormais en charge les clauses FILTER. Auparavant, les filtres étaient ignorés en mode silencieux.
Écritures optimisées pour les opérations CRTAS du Unity Catalog
CRÉER OU REMPLACER TABLE PAR SELECT (CRTAS) les opérations sur les tables de Catalogue Unity partitionnées appliquent désormais des écritures optimisées par défaut. Pour désactiver, définissez spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled sur false.
Actualisation du cache DataFrame pour les tables de contrôle d’accès affinées
L’écriture dans des tables de contrôle d’accès affinées sur le calcul dédié actualise désormais les DataFrames mis en cache qui dépendent de la table.
Les valeurs de partition timestamp utilisent le fuseau horaire de session
Les valeurs de partition timestamp utilisent le fuseau horaire de session Spark au lieu du fuseau horaire JVM. Si vous avez des partitions d’horodatage écrites avant Databricks Runtime 18.0, exécutez SHOW PARTITIONS pour vérifier vos métadonnées de partition avant d’écrire de nouvelles données.
Mot clé réservé « DESCRIBE FLOW »
La DESCRIBE FLOW commande est désormais disponible. Si vous avez une table nommée flow, utilisez DESCRIBE schema.flow, DESCRIBE TABLE flowou DESCRIBE `flow` avec des backticks.
Amélioration des performances des opérations géospatiales
Les opérations logiques géospatiales utilisent une nouvelle implémentation avec des performances améliorées. Des différences de précision mineures peuvent se produire après la 15e décimale.
Types d’exceptions pour SQLSTATE
Les types d’exceptions sont mis à jour pour prendre en charge SQLSTATE. Si votre code analyse les exceptions par chaîne correspondante ou intercepte des types d’exceptions spécifiques, mettez à jour votre logique de gestion des erreurs.
Élargissement automatique du type de streaming
Les lectures en continu sur les tables Delta gèrent automatiquement l’élargissement du type de colonne. Pour exiger un accusé de réception manuel, définissez spark.databricks.delta.typeWidening.enableStreamingSchemaTracking sur true.
Mises à niveau de la bibliothèque
Aucune bibliothèque n’a été mise à niveau dans cette version.
Apache Spark
Databricks Runtime 18.1 inclut Apache Spark 4.1.0. Cette version inclut tous les correctifs et améliorations Spark inclus dans Databricks Runtime 18.0, ainsi que les correctifs de bogues et améliorations supplémentaires suivants apportés à Spark :
- SPARK-55350 Corriger la perte de nombre de lignes lors de la création de DataFrame à partir de pandas avec 0 colonnes
- SPARK-55364 Rendre le protocole SupportsIAdd et SupportsOrdering plus raisonnable
- SPARK-53656 Refactoriser MemoryStream pour utiliser SparkSession au lieu de SQLContext
-
SPARK-55472 Déclencher
AttributeErrordes méthodes supprimées dans pandas 3 - SPARK-55224 Utiliser Spark DataType comme référence pour la sérialisation Pandas-Arrow
- SPARK-55402 Déplacer streamingSourceIdentifierName de CatalogTable vers DataSource
- SPARK-55459 Correction de la régression des performances 3x dans applyInPandas pour les grands groupes
- SPARK-55317 Ajouter un nœud de plan logique SéquentielUnion et une règle de planification
-
SPARK-55424 Transmettez explicitement le nom de la série dans
convert_numpy -
SPARK-55175 Extraire le
to_pandastransformateur des sérialiseurs - SPARK-55304 Présentation de la prise en charge du contrôle d’admission et de Trigger.AvailableNow dans la source de données Python - Lecteur de streaming
-
SPARK-55382 Créer
Executorun journalRunning Spark version - SPARK-55408 Gérer les erreurs d’argument de mot clé inattendues liées à datetime avec pandas 3
- SPARK-55345 Ne pas passer l’unité et fermé à Timedelta pour pandas 3
- SPARK-54759 Logique de protection correcte dans le Gestionnaire de variables de script après l’introduction du curseur
- SPARK-55409 Gérer une erreur d’argument de mot clé inattendue de read_excel avec pandas 3
- SPARK-55403 Corriger une erreur dans les tests de graphique avec pandas 3
- SPARK-55256 Annuler la modification « [SC-218596][SQL] Prise en charge de IGNORE NULLS / RESPECT NULLS pour array_agg et collect_list »
- SPARK-55256 Prise en charge de IGNORE NULLS / RESPECT NULLS pour array_agg et collect_list
-
SPARK-55395 Désactiver le cache RDD dans
DataFrame.zipWithIndex - SPARK-55131 Introduire un nouveau délimiteur d'opérateur de fusion pour RocksDB permettant de concaténer des chaînes vides sans délimiteur
- SPARK-55376 Rendre l'argument numeric_only dans les fonctions groupby accepter uniquement un booléen avec pandas 3
-
SPARK-55334 Activer
TimestampTypeetTimestampNTZTypeinconvert_numpy - SPARK-55281 Ajouter ipykernel et IPython à la liste de packages facultatifs mypy
- SPARK-55336 Permettre à createDF d'utiliser la logique de create_batch pour le découplage
-
SPARK-55366 Supprimer
errorOnDuplicatedFieldNamesdes UDFs Python - SPARK-54759 Prise en charge des curseurs de script SQL
-
SPARK-55302 Corriger les métriques personnalisées en cas de
KeyGroupedPartitioning - SPARK-55228 Implémenter Dataset.zipWithIndex dans l’API Scala
- SPARK-55373 Améliorer le message d’erreur noHandlerFoundForExtension
- SPARK-55356 Support d'alias pour la clause PIVOT
-
SPARK-55359 Promouvoir
TaskResourceRequestversStable - SPARK-55365 Généraliser les utils pour la conversion de tableau de flèches
- SPARK-55106 Ajouter un test d’intégration de repartition pour les opérateurs TransformWithState
- SPARK-55086 Ajouter DataSourceReader.pushFilters à la documentation de l’API de source de données Python
- SPARK-46165 Ajouter la prise en charge de DataFrame.all axis=None
- SPARK-55289 Annuler « [SC-218749][SQL] Corriger le test instable dans in-set-operations.sql en désactivant la jointure de diffusion »
- SPARK-55297 Restaurer le dtype timedelta en fonction du dtype d’origine
- SPARK-55291 Prétraiter les en-têtes de métadonnées lors de la construction de l'intercepteur client
-
SPARK-55155 Réappliquer "[SC-218401][SQL] Prise en charge des expressions pliables dans l’instruction
SET CATALOG - SPARK-55318 Optimisations des performances pour vector_avg/vector_sum
- SPARK-55295 Étendre la fonction ST_GeomFromWKB pour prendre une valeur SRID facultative
- SPARK-55280 Ajouter GetStatus proto pour prendre en charge la surveillance de l’état d’exécution
- SPARK-54969 Implémenter une nouvelle conversion arrow-pandas>
-
SPARK-55176 Extraire
arrow_to_pandasle convertisseur dans ArrowArrayToPandasConversion - SPARK-55111 Rétablir « [SC-217817][SC-210791][SS] Détection de repartitionnement non terminée lors du redémarrage de la requête »
-
SPARK-55252 Améliorer
HttpSecurityFilterpour ajouter un en-têteContent-Security-Policy - SPARK-55111 Détection de repartitionnement non terminée lors du redémarrage de la requête
- SPARK-55105 Ajouter un test d’intégration pour l’opérateur de jointure
- SPARK-55260 Implémenter la prise en charge de l’écriture Parquet pour les types géographiques
- SPARK-54523 Correction de la résolution par défaut lors du transfert de la variante
- SPARK-55328 Réutiliser PythonArrowInput.codec dans GroupedPythonArrowInput
- SPARK-55246 Ajouter un test pour Pyspark TWS et TWSInPandas et corriger le bogue StatePartitionAllColumnFamiliesWriter
- SPARK-55289 Corriger le test in-set-operations.sql instable en désactivant la jointure de diffusion
- SPARK-55040 Refactorisez TaskContext et le protocole Worker associé avec le correctif pyspark du moteur.
- SPARK-47996 prend en charge la fusion croisée dans l’API Pandas
- SPARK-55031 Ajouter des expressions de fonction d’agrégation moyenne/somme vectorielle
- SPARK-54410 Correction de la prise en charge de la lecture pour l’annotation de type logique variant
- SPARK-54776 Rétablir « [SC-216482][SQL] Amélioration du message de journal concernant la fonction lambda avec l’UDF SQL »
- SPARK-55123 Ajouter SequentialUnionOffset pour le suivi du traitement de la source séquentielle
- SPARK-54972 Améliorer les sous-requêtes NOT IN avec des colonnes non nullables
- SPARK-54776 Amélioration du message des journaux concernant la fonction lambda avec UDF SQL
-
SPARK-53807 Résoudre les problèmes de condition de compétition entre
unlocketreleaseAllLocksForTaskdansBlockInfoManager - SPARK-51831 Rétablir « [SC-207389][SQL] Élagage de colonnes avec existsJoin pour Datasource V2 »
-
SPARK-54881 Améliorer
BooleanSimplificationpour gérer la négation de la conjonction et de la disjonction en une seule passe - SPARK-54696 Nettoyer les ArrowBuffers dans Connect
-
SPARK-55009 Supprimer la copie de mémoire superflue dans le constructeur de
LevelDBTypeInfo/RocksDBTypeInfo.Index - SPARK-54877 Rendre stacktrace d’affichage sur la page d’erreur de l’interface utilisateur configurable
- SPARK-51831 Taille des colonnes avec existsJoin pour la source de données V2
-
SPARK-55285 Corriger l’initialisation de
PythonArrowInput - SPARK-53960 Permettre à approx_top_k_accumulate/combine/estimate de gérer les valeurs NULL
- SPARK-49110 Simplifier SubqueryAlias.metadataOutput pour propager toujours les colonnes de métadonnées
-
SPARK-55155 Rétablir « [SC-218401][SQL] Prise en charge des expressions pliables dans l’instruction
SET CATALOG» -
SPARK-55155 Prise en charge des expressions pliables dans l’instruction
SET CATALOG - SPARK-49110 Revert « [SC-218594][SQL] Simplifier SubqueryAlias.metadataOutput pour propager toujours les colonnes de métadonnées »
- SPARK-54399 Implémenter la fonction st_setsrid dans Scala et PySpark
- SPARK-49110 Simplifier SubqueryAlias.metadataOutput pour propager toujours les colonnes de métadonnées
- SPARK-55133 Corriger la condition de concurrence dans la gestion du cycle de vie de IsolatedSessionState
- SPARK-55262 Bloquer les types géographiques dans toutes les sources de données basées sur des fichiers, à l’exception de Parquet
- SPARK-54202 Autoriser la conversion de GeometryType(srid) en GeometryType(ANY)
- SPARK-54142 Implémenter la fonction st_srid dans Scala et PySpark
- SPARK-54887 Toujours définir un état sql dans le client Spark Connect
- SPARK-55237 Supprimer les messages ennuyeux lors de la recherche de bases de données inexistantes
- SPARK-55040 Rétablir « [SC-217628][PYTHON] Réorganiser TaskContext et protocole de travailleur associé »
- SPARK-55243 Autoriser la définition d’en-têtes binaires via le suffixe -bin dans le client Scala Connect
- SPARK-55259 Implémenter la conversion de schéma Parquet pour les types géographiques
- SPARK-55282 Évitez d’utiliser worker_util côté pilote
- SPARK-54151 Présentation de l’infrastructure pour l’ajout de fonctions ST dans PySpark
- SPARK-55194 Supprimer GroupArrowUDFSerializer en déplaçant la logique d'aplatissement vers le mappage
- SPARK-55020 Désactiver gc lors de l’exécution de la commande gRPC
- SPARK-55053 Refactoriser les workers d’analyse de source de données/udtf afin qu’ils disposent d’une entrée unifiée
- SPARK-55040 Refactoriser TaskContext et le protocole Worker associé
- SPARK-55244 Utiliser np.nan comme valeur par défaut pour les types de chaîne pandas
- SPARK-55225 Restaurer sur le dtype d’origine pour Datetime
- SPARK-55154 Supprimer le chemin rapide vers pd.Series pour pandas 3
- SPARK-55030 Ajout de la prise en charge des expressions de fonction de norme/normalisation de vecteurs
- SPARK-55202 Corrigez UNEXPECTED_USE_OF_PARAMETER_MARKER lors de l’utilisation de param...
- SPARK-54201 Autoriser la conversion de GeographyType(srid) en GeographyType(ANY)
- SPARK-54244 Introduire la prise en charge de la coercition de type pour les types de données GEOMETRY
- SPARK-54160 Implémenter l’expression ST_SetSrid dans SQL
- SPARK-55046 PySpark ajoute une métrique de temps de traitement udf
- SPARK-54101 Présentation de l’infrastructure pour l’ajout de fonctions ST dans Scala
- SPARK-54683 Unifier le blocage des types géographiques et temporels
- SPARK-55249 Rendre DataFrame.toJSON capable de retourner un dataframe
- SPARK-54521 Ajouter à et à partir de WKB pour le type Geometry
- SPARK-54162 Autoriser la conversion de GeographyType en GeometryType
- SPARK-55146 Revérifier l’API State Repartition pour PySpark
- SPARK-55140 Ne pas lier les fonctions intégrées à la version numpy pour pandas 3
- SPARK-54243 Introduire la prise en charge du forçage de type pour les types de données GEOGRAPHY
- SPARK-55058 Générer une erreur sur les métadonnées de point de contrôle incohérentes
- SPARK-55108 Utiliser les versions les plus récentes des pandas-stubs pour la vérification des types
- SPARK-54091 Implémenter l’expression ST_Srid dans SQL
- SPARK-55104 Ajouter la prise en charge de Spark Connect pour DataStreamReader.name()
- SPARK-54996 Rapport du temps d'arrivée pour les enregistrements de LowLatencyMemoryStream
- SPARK-55118 Remplacer les importations d’opcodes ASM avec des caractères génériques
- SPARK-54365 Ajouter un test d’intégration de repartition pour les opérateurs Aggregate, Dedup, FMGWS et SessionWindow
- SPARK-55119 Correction du gestionnaire continue : empêcher l'apparition d'INTERNAL_ERROR et l'interruption des instructions conditionnelles incorrectes
- SPARK-54104 Interdire la conversion de types géospatiaux vers/depuis d’autres types de données
- SPARK-55240 Refactoriser la gestion de la pile LazyTry pour utiliser un wrapper au lieu d’une exception supprimée
-
SPARK-55238 Déplacer la logique de mappage Geo SRS de
main/scalaversmain/java -
SPARK-55179 Ignorer la validation préalable des noms de colonnes dans
df.col_name - SPARK-55055 Prise en charge de SparkSession.Builder.create pour PySpark Classic
- SPARK-55186 Rendre ArrowArrayToPandasConversion.convert_legacy capable de retourner un pd.DataFrame
- SPARK-54079 Présentation de l’infrastructure pour l’ajout d’expressions ST dans Catalyst
- SPARK-54096 Prise en charge du mappage de système de référence spatiale dans PySpark
- SPARK-54801 Marquer quelques nouvelles configurations 4.1 en tant que configurations internes
- SPARK-55146 Rétablir « [SC-217936][SC-210779][SS] State Repartition API for PySpark »
- SPARK-54559 Utiliser runnerConf pour passer l’option profiler
- SPARK-55205 Corriger les tests dans lesquels il suppose que le type de chaîne est converti en objet
- SPARK-55171 Corriger le profileur de mémoire pour iter UDF
- SPARK-55226 Reconnaître datetime et timedelta avec des unités autres que [ns]
- SPARK-55027 Déplacer writeConf vers PythonWorkerUtils
- SPARK-55197 Extraire l'outil pour dédupliquer la logique de signal START_ARROW_STREAM
- SPARK-54179 Ajouter la prise en charge native des croquis Apache Tuple (#190848) (#191111)
- SPARK-55151 Correction de l'erreur dans "RocksDBSuite testWithStateStoreCheckpointIds"
- SPARK-55146 API de répartition d'état pour PySpark
- SPARK-54232 Activer la sérialisation Arrow pour les types Géographie et Géométrie
- SPARK-53957 Prendre en charge GEOGRAPHY et GEOMETRY dans SpatialReferenceSystemMapper
- SPARK-55169 Utiliser ArrowBatchTransformer.flatten_struct dans ArrowStreamArrowUDTFSerializer
-
SPARK-55134 Correction
BasicExecutorFeatureSteppour déclencherIllegalArgumentExceptionen cas de configurations incorrectes du CPU de l’exécuteur - SPARK-54166 Introduire des encodeurs de type pour les types géospatiaux dans PySpark
-
SPARK-55138 Correction d'une levée d'exception
convertToMapData - SPARK-55168 Utiliser ArrowBatchTransformer.flatten_struct dans GroupArrowUDFSerializer
- SPARK-55032 Refactorisation des profils dans workers.py
- SPARK-54990 Correction de l’implémentation de classproperty dans session.py
- SPARK-55076 Résoudre le problème d’indicateur de type dans ml/mllib et ajouter une exigence scipy
- SPARK-55162 Extraire des transformateurs d'ArrowStreamUDFSerializer
- SPARK-55121 Ajouter DataStreamReader.name() à PySpark classique
- SPARK-54887 Ajouter un sqlstate facultatif aux sparkthrowables
- SPARK-54169 Introduction des types Geography et Geometry dans le gestionnaire Arrow
- SPARK-51658 Introduire les formats wrapper Geometry et Geography en mémoire
- SPARK-54110 Introduction des encodeurs de type pour les types de géographie et de géométrie
- SPARK-54956 Unifier la solution de réessai de shuffle indéterminée
-
SPARK-55137 Refactorisation du code
GroupingAnalyticsTransformeretAnalyzer - SPARK-54103 Présentation des classes Geography et Geometry côté client
- SPARK-55160 Passer directement le schéma d’entrée aux sérialiseurs
- SPARK-55170 Extraire le schéma de lecture de flux en groupe à partir des sérialiseurs
-
SPARK-55125 Supprimer les méthodes redondantes
__init__dans les sérialiseurs Arrow - SPARK-55126 Supprimer le fuseau horaire inutilisé et assign_cols_by_name de ArrowStreamArrowUDFSerializer
- SPARK-54980 Convertir le niveau d’isolation JDBC en chaîne
- SPARK-55051 La chaîne d’octets accepte KiB, MiB, GiB, TiB, PiB
- SPARK-55025 Améliorer les performances dans Pandas en utilisant la compréhension de listes
- SPARK-46165 Ajouter la prise en charge de pandas.DataFrame.all axis=1
- SPARK-55037 Ré-implémenter l’observation sans utiliser QueryExecutionListener
- SPARK-54965 Extraire le convertisseur hérité pa.Array -> pd.Series
- SPARK-55016 Rendre SQLConf une propriété directe de SparkSession pour empêcher le dépassement de pile
- SPARK-55091 Réduire les appels RPC Hive pour DROP TABLE commande
- SPARK-55097 Correction de l'ajout des artefacts mis en cache, ce qui supprime les blocs silencieusement.
- SPARK-55026 Optimisez BestEffortLazyVal.
- SPARK-55091 Rétablir « [SC-217410][SQL] Réduire les appels RPC Hive pour la commande DROP TABLE »
- SPARK-54590 Prise en charge du point de contrôle V2 pour le réécriture d’état et le repartitionnement
- SPARK-55016 Faire de SQLConf une propriété directe de SparkSession pour empêcher le débordement de pile
- SPARK-55091 Réduire les appels RPC Hive pour DROP TABLE commande
- SPARK-55016 Annuler « [SC-217401][SQL] Rendre SQLConf une propriété directe de SparkSession pour empêcher le dépassement de pile »
- SPARK-55016 Faire de SQLConf une propriété directe de SparkSession pour empêcher le débordement de pile
- SPARK-55098 Les UDFs vectorisées avec le contrôle de la taille du lot de sortie échouent en raison d’une fuite de mémoire
- SPARK-54824 Ajouter la prise en charge de multiGet et deleteRange pour Rocksdb State Store
- SPARK-55054 Ajouter la prise en charge d'IDENTIFIED BY pour les fonctions de tableau de diffusion en continu
- SPARK-55029 Propager le nom identifiant de la source de flux via le pipeline de résolution
- SPARK-55071 Faire en sorte que spark.addArtifact fonctionne avec des chemins Windows
- SPARK-54103 Rétablir « [SC-210400][Geo][SQL] Introduire les classes Geography et Geometry côté client »
- SPARK-54103 Présentation des classes Geography et Geometry côté client
- SPARK-54033 Présentation des classes d’exécution géospatiales côté serveur De Catalyst
- SPARK-54176 Présentation des types de données Geography et Geometry dans PySpark Connect
- SPARK-55089 Corriger le schéma de sortie de toJSON
- SPARK-55035 Effectuer un nettoyage de shuffle dans les sous-exécutions
-
SPARK-55036 Ajouter
ArrowTimestampConversionpour la gestion des fuseaux horaires de flèche -
SPARK-55090 Implémenter
DataFrame.toJSONdans le client Python - SPARK-54873 Simplifier la résolution de V2TableReference car elle peut être contenue uniquement dans une vue temporaire.
- SPARK-52828 Rendre le hachage pour le classement de chaînes compilées indépendant
- SPARK-54175 Ajouter les types Géographie et Géométrie au protocole Spark Connect
-
SPARK-54961 Introduire
GroupingAnalyticsTransformer - SPARK-55088 Conserver les métadonnées dans/from_arrow_type/schéma
- SPARK-55070 Autoriser la colonne masquée dans la résolution de colonnes de DataFrame
- SPARK-55044 Conserver les métadonnées dans toArrowSchema/fromArrowSchema
- SPARK-55043 Corriger le voyage dans le temps avec la sous-requête contenant des références de table
-
SPARK-54987 Modifiez la valeur par défaut de prefer_timestamp_ntz sur True dans
from_arrow_type/from_arrow_schema - SPARK-54866 Refactoriser drop/RefreshFunction pour éviter la recherche de catalogue
- SPARK-55024 Utiliser l'erreur REQUIRES_SINGLE_PART_NAMESPACE pour la validation de l’espace de noms du catalogue des sessions
- SPARK-54992 Remplacer le cast par une vérification du runtime pour make_timestamp
- SPARK-55024 Annulation de "[SC-216987][SQL] Utiliser l'erreur REQUIRES_SINGLE_PART_NAMESPACE pour la validation de l'espace de noms du catalogue des sessions"
- SPARK-54866 Rétablir « [SC-216753][SQL] Refactoriser Drop/RefreshFunction pour éviter la recherche dans le catalogue »
- SPARK-55024 Utilisez l'erreur REQUIRES_SINGLE_PART_NAMESPACE pour la validation de l’espace de noms du catalogue de sessions.
- SPARK-54866 Refactoriser drop/RefreshFunction pour éviter la recherche de catalogue
- SPARK-54991 Indicateur de type correct pour la diffusion en continu/listener.py
- SPARK-54925 Ajouter la fonctionnalité de vidage de threads pour pyspark
- SPARK-54803 Prise en charge de BY NAME avec INSERT ... REMPLACER WHERE
- SPARK-54785 Ajouter la prise en charge des agrégations de croquis binaires dans KLL (#188370) (#188860)
- SPARK-54949 Déplacer pyproject.toml vers la racine du dépôt
- SPARK-54954 Corriger les indicateurs de type liés à distance dans util.py
- SPARK-54922 Unifier la façon dont les arguments sont passés aux workers Python
- SPARK-54870 Prise en charge des classements pour char/varchar et CTAS/RTAS
-
SPARK-54762 Corriger et
_create_convertersurchargercovertla signature - SPARK-55019 Autoriser DROP TABLE la suppression de vue
- SPARK-53103 Lève une erreur si le répertoire d’état n’est pas vide au démarrage de la requête
- SPARK-54995 Créer un chemin rapide pour foreachPartition
- SPARK-54634 Ajouter un message d’erreur clair pour le prédicat IN vide
- SPARK-54984 Exécution de la répartition de l'état et intégration avec State Rewriter
- SPARK-54443 Intégrer PartitionKeyExtractor dans le lecteur de re-partitionnement
- SPARK-54907 Introduction de la règle d'analyse NameStreamingSources pour l'évolution des sources de streaming
- SPARK-54609 Mettre à jour la configuration de type TIME afin de la faire correspondre au logiciel open-source
- SPARK-54988 Simplifier l’implémentation d’ObservationManager.tryComplete
- SPARK-54959 Désactiver la non-correspondance de somme de contrôle de remaniement lors du réessai complet lorsque le remaniement basé sur l'envoi est activé
- SPARK-54940 Ajouter des tests pour l’inférence de type pa.scalar
- SPARK-54634 Rétablir « [SC-216478][SQL] Ajouter un message d’erreur clair pour le prédicat IN vide »
- SPARK-54337 Ajouter la prise en charge de PyCapsule à Pyspark
- SPARK-54634 Ajouter un message d’erreur clair pour le prédicat IN vide
- SPARK-53785 Source de mémoire pour RTM
- SPARK-54883 Nettoyer les messages d’erreur pour l’interface CLI et ajouter un nouveau mode d’erreur DEBUG
- SPARK-54713 Ajout du support pour les expressions des fonctions de similarité/distance vectorielle
- SPARK-54962 Correction de la gestion des entiers nullables dans la fonction UDF Pandas
- SPARK-54864 Ajouter des nœuds rCTE à NormalizePlan
- SPARK-53847 Ajouter ContinuousMemorySink pour les tests en mode temps réel
- SPARK-54865 Ajouter la méthode foreachWithSubqueriesAndPruning à QueryPlan
- SPARK-54930 Supprimer l’appel redondant _accumulatorRegistry.clear() dans worker.py
- SPARK-54929 Corriger la réinitialisation de taskContext._resources dans la boucle, ce qui provoque la rétention de seulement la dernière ressource.
-
SPARK-54963 Veiller à ce que
createDataFramerespecteprefer_timestamp_ntzlorsqueinfer_pandas_dict_as_map -
SPARK-54920 Déplacer la logique d’extraction d’analytique de regroupement vers une logique courante
GroupingAnalyticsExtractor - SPARK-54924 Réécriture d’état pour lire l’état, le transformer et écrire un nouvel état
- SPARK-54872 Unifier la gestion des valeurs par défaut de colonne entre les commandes v1 et v2
- SPARK-54905 Simplifier l’implémentation de foreachWithSubqueries dans QueryPlan
- SPARK-54682 Prise en charge de l’affichage des paramètres dans DESCRIBE PROCEDURE
-
SPARK-54933 Évitez d’extraire à plusieurs reprises la configuration
binary_as_bytesdanstoLocalIterator - SPARK-54872 Rétablir « [SC-216260][SQL] Unifier la gestion des valeurs par défaut de colonne entre les commandes v1 et v2 »
- SPARK-51936 ReplaceTableAsSelect doit remplacer la nouvelle table au lieu d’ajouter
- SPARK-54771 Supprimer la règle ResolveUserSpecifiedColumns de RuleIdCollection
- SPARK-54872 Unifier la gestion des valeurs par défaut de colonne entre les commandes v1 et v2
- SPARK-54313 Ajouter l’option --extra-properties-file pour la couche de configuration
- SPARK-54468 Ajouter des classes d’erreur manquantes
- SPARK-46741 La table de cache avec CTE doit fonctionner quand CTE est dans la sous-requête de l'expression de plan
- SPARK-46741 La table de cache avec CTE ne fonctionnera pas
- SPARK-54615 Passez toujours runner_conf au worker Python
- SPARK-53737 Ajouter un déclencheur en mode temps réel
- SPARK-54541 Renommer _LEGACY_ERROR_TEMP_1007 et ajouter sqlState
- SPARK-54718 Conserver les noms d’attributs pendant CTE newInstance()
- SPARK-54621 Fusionner dans l'ensemble des mises à jour * conserver les champs imbriqués si ... coerceNestedTypes est activé
- SPARK-54595 Conserver le comportement existant de MERGE INTO sans la clause EVOLUTION SCHEMA
- SPARK-54903 Rendre to_arrow_schema/to_arrow_type en mesure de définir le fuseau horaire
- SPARK-52326 Ajouter des partitions liées à ExternalCatalogEvent et les publier dans les opérations correspondantes
- SPARK-54541 Annuler "[SC-215212][SQL] Renommer _LEGACY_ERROR_TEMP_1007 et ajouter sqlState"
-
SPARK-54578 Effectuer le nettoyage du code sur
AssignmentUtils - SPARK-54830 Activer la nouvelle tentative de réécriture indéterminée basée sur la somme de contrôle par défaut
- SPARK-54525 Désactiver le forçage de struct imbriqué dans MERGE INTO une configuration
- SPARK-53784 API sources supplémentaires nécessaires pour prendre en charge l’exécution de RTM
- SPARK-54496 Corriger la fusion dans l’évolution du schéma pour l’API DataFrame
- SPARK-54835 Éviter l’exécution de requête temporaire inutile pour l’exécution de commandes imbriquées
- SPARK-54541 Renommer _LEGACY_ERROR_TEMP_1007 et ajouter sqlState
- SPARK-54289 Autoriser MERGE INTO à conserver les champs de struct existants pour UPDATESET * lorsque le struct source a moins de champs imbriqués que le struct cible
- SPARK-54720 Ajouter SparkSession.emptyDataFrame avec un schéma
- SPARK-54800 Implémentation par défaut modifiée pour isObjectNotFoundException
- SPARK-54686 Assouplir les vérifications de table DSv2 dans les vues temporaires pour autoriser de nouvelles colonnes principales
- SPARK-54619 Ajouter un contrôle d’intégrité pour les numéros de configuration
- SPARK-54726 Améliorer un peu de performances pour InsertAdaptiveSparkPlan
- SPARK-51966 Remplacez select.select() par select.poll() lors de l’exécution sur le système d’exploitation POSIX
- SPARK-54749 Correction de la métrique numOutputRows incorrecte dans OneRowRelationExec
- SPARK-54411 Introduction du Repartition Writer qui prend en charge les multi-CF
- SPARK-54835 Annuler « [SC-215823][SQL] Éviter l'exécution inutile de QueryExecution pour l'exécution de commande imbriquée »
- SPARK-54867 Introduire le wrapper NamedStreamingRelation pour l’identification de la source pendant l’analyse
- SPARK-54835 Éviter l’exécution de requête temporaire inutile pour l’exécution de commandes imbriquées
- SPARK-54491 Correction de l’insertion dans une vue temporaire échouée sur une table DSv2
- SPARK-54871 Élaguer les alias des expressions de regroupement et d’agrégation avant de gérer l’analyse de regroupement
- SPARK-51920 Correction de la gestion des types de namedTuple pour transfromWithState
- SPARK-54526 Renommer _LEGACY_ERROR_TEMP_1133 et ajouter sqlState
- SPARK-54424 Les échecs lors de la mise en cache ne doivent pas interrompre les opérations
-
SPARK-54894 Corriger le passage d’argument
to_arrow_type - SPARK-53448 La conversion d’un DataFrame pyspark avec une colonne Variant en pandas échoue avec une erreur
- SPARK-54882 Supprimer PYARROW_IGNORE_TIMEZONE legacy
- SPARK-54504 Correction de la mise à jour de version pour les tables DSv2 avec des sous-requêtes
- SPARK-54444 Assouplir les vérifications de table DSv2 pour restaurer le comportement précédent
- SPARK-54859 Documentation de référence de l'API UDF PySpark Arrow par défaut
- SPARK-54387 Révocation de « [ES-1688666] Révocation de « [SC-212394][SQL] Correction du recaching des tables DSv2 » »
- SPARK-54753 corrige la fuite de mémoire d’ArtifactManager
- SPARK-54387 Revenir « [SC-212394][SQL] Correction de la mise en cache des tables DSv2 »
- SPARK-54436 Corriger le formatage des erreurs lors des vérifications des métadonnées de table incompatibles
-
SPARK-54849 Mettre à niveau la version minimale de
pyarrow18.0.0 - SPARK-54022 Rendre le mécanisme de résolution des tables DSv2 sensible aux tables mises en cache
- SPARK-54387 Correction de la récupération des tables DSv2
- SPARK-53924 Recharger les tables DSv2 dans les vues créées à l’aide de plans lors de chaque accès aux vues
-
SPARK-54561 Support de breakpoint() pour
run-tests.py - SPARK-54157 Correction de l’actualisation des tables DSv2 dans le jeu de données
- SPARK-54830 Rétablir « [CORE] Activer par défaut la réexécution indéterminée du shuffle basée sur la somme de contrôle »
- SPARK-54861 Réinitialiser le nom du thread de tâche à IDLE_TASK_THREAD_NAME une fois la tâche terminée
- SPARK-54834 Ajouter de nouvelles interfaces SimpleProcedure et SimpleFunction
- SPARK-54760 DelegatingCatalogExtension comme catalogue de session prend en charge les fonctions V1 et V2
- SPARK-54685 Supprimer les réponses de métriques observées redondantes
-
SPARK-54853 Toujours vérifier
hive.exec.max.dynamic.partitionsdu côté Spark - SPARK-54840 Pré-allocation OrcList
- SPARK-54830 Activer la nouvelle tentative de réécriture indéterminée basée sur la somme de contrôle par défaut
-
SPARK-54850 Améliorer
extractShuffleIdspour trouverAdaptiveSparkPlanExecn’importe où dans l’arborescence du plan - SPARK-54843 L'expression Try_to_number ne donne pas de résultat pour une saisie de chaîne vide
- SPARK-54556 Restauration des étapes de mappage aléatoires réussies lors de la non-correspondance de somme de contrôle aléatoire détectée
- SPARK-54760 Annuler « [SC-215670][SQL] DelegatingCatalogExtension en tant que catalogue de sessions supporte les fonctions V1 et V2 »
- SPARK-54760 Le catalogue de sessions DelegatingCatalogExtension prend en charge à la fois les fonctions V1 et V2.
- SPARK-54818 L'allocation par TaskMemoryManager a échoué devrait consigner la pile d’erreurs pour vérifier l’utilisation de la mémoire
-
SPARK-54827 Ajouter une fonction d’assistance
TreeNode.containsTag - SPARK-54777 Réversion de "[SC-215740][SQL] Modification de la gestion des erreurs dropTable dans JDBCTableCatalog.dropTable(...)"
- SPARK-54777 Modification de la gestion des erreurs dropTable dans JDBCTableCatalog.dropTable(...)
-
SPARK-54817 Refactoriser
Unpivotla logique de résolution pourUnpivotTransformer -
SPARK-54820 Rendre
pandas_on_spark_typecompatible avec numpy 2.4.0 -
SPARK-54799 Refactor
UnpivotCoercion - SPARK-54754 OrcSerializer ne doit pas analyser le schéma chaque fois qu’il est sérialisé
- SPARK-54226 Étendre la compression Arrow à Pandas UDF
- SPARK-54787 Utiliser la compréhension de liste au lieu de boucles `for` dans pandas
-
SPARK-54690 Rendre
Frame.__repr__insensible à l’optimisation des flèches - SPARK-46166 Implémentation de pandas.DataFrame.any avec axis=None
- SPARK-54696 Nettoyer les buffers Arrow - suivi
- SPARK-54769 Supprimer le code mort dans conversion.py
- SPARK-54787 Utiliser la compréhension de liste dans pandas _bool_column_labels
-
SPARK-54794 Supprimer les journaux d’analyse détaillés
FsHistoryProvider.checkForLogs - SPARK-54745 Corriger l’erreur d’importation PySpark provoquée par l’absence d’UnixStreamServer sur Windows
- SPARK-54782 Corriger les versions de configuration
- SPARK-54781 Retourner des informations de cache de modèle au format JSON
- SPARK-54419 Le lecteur de l'état de répartition hors connexion supporte les familles multi-colonnes
- SPARK-54722 Inscrire pandas Groupd Iter Aggregate UDF pour l’utilisation de SQL
-
SPARK-54762 Annuler « [SC-215422][PYTHON] Corriger la signature de surcharge de
_create_converteretcovert» - SPARK-54652 Rétablir "[SC-215452][SQL] Conversion complète de IDENTIFIER()"
-
SPARK-54762 Corriger et
_create_convertersurchargercovertla signature - SPARK-52819 Création de KryoSerializationCodec sérialisable pour corriger les erreurs java.io.NotSerializableException dans différents cas d’usage
- SPARK-54711 Ajouter un délai d’expiration pour la connexion worker créée par le démon
- SPARK-54738 Ajouter la prise en charge du profileur pour pandas Grouped Iter Aggregate UDF
- SPARK-54652 Conversion complète de IDENTIFIER()
- SPARK-54581 Création d’une option fetchsize sans respect de la casse pour le connecteur Postgres
- SPARK-54589 Fusionner ArrowStreamAggPandasIterUDFSerializer dans ArrowStreamAggPandasUDFSerializer
- SPARK-41916 Serveur de distribution de torche : prendre en charge plusieurs processus torchrun par tâche si task.gpu.amount > 1
-
SPARK-54707 Réorganiser la logique principale de résolution dans le
PivotTransformer - SPARK-54706 Rendre DistributedLDAModel fonctionner avec le système de fichiers local
- SPARK-53616 Introduction de l’API d’itérateur pour pandas groupés agg UDF
- SPARK-54116 Ajouter le support pour le mode mémoire hors-tas pour LongHashedRelation
- SPARK-54656 Refactorisation de SupportsPushDownVariants pour en faire un mix-in de ScanBuilder
- SPARK-54687 Ajouter un fichier doré avec des cas de périphérie de résolution de générateurs
- SPARK-54708 Optimiser le nettoyage du cache ML avec la création différée de répertoires
- SPARK-54116 Rétablir « [SC-213108][SQL] Ajouter la prise en charge du mode off-tas pour LongHashedRelation »
- SPARK-54116 Ajout de la prise en charge du mode mémoire en dehors du tas pour LongHashedRelation
- SPARK-54443 Extraction de clé de partition pour tous les opérateurs avec état de streaming
- SPARK-54687 Rétablir « [SC-214791][SQL] Ajouter un fichier doré avec des cas de périphérie de résolution de générateurs »
- SPARK-54116 Annuler « [SC-213108][SQL] Ajouter la prise en charge du mode off-tas pour LongHashedRelation »
- SPARK-54687 Ajouter un fichier doré avec des cas de périphérie de résolution de générateurs
- SPARK-54116 Ajouter la prise en charge du mode hors tas pour LongHashedRelation
- SPARK-54420 Introduction du repartitionnement hors ligne StatePartitionWriter pour une seule famille de colonnes
-
SPARK-54689 Créer un
org.apache.spark.sql.pipelinespackage interne et rendreEstimatorUtilsprivé - SPARK-54673 Refactoriser le code d’analyse de la syntaxe de canal SQL pour le partage et la réutilisation
- SPARK-54668 Ajouter des tests pour les CTE dans les opérateurs multi-enfants
- SPARK-54669 Supprimer la conversion redondante dans les rCTEs
- SPARK-54587 Consolider tout runner_conf code associé
- SPARK-54628 Supprimer tous les arguments super() explicites inutiles
- SPARK-54675 Ajouter un délai d’arrêt de force configurable pour le pool de threads de maintenance StateStore
- SPARK-54639 Éviter la création inutile de tables dans les sérialiseurs de flèche
- SPARK-49635 Supprimer la suggestion de configuration ANSI dans les messages d’erreur CAST
-
SPARK-54664 Nettoyer le code lié à
listenerCachepartir deconnect.StreamingQueryManager - SPARK-54640 Remplacer select.select par select.poll sur UNIX
-
SPARK-54662 Ajouter
viztraceretdebugpyindev/requirements.txt - SPARK-54632 Ajouter l’option permettant d’utiliser ruff pour lint
- SPARK-54585 Correction du rollback du magasin d'états lorsque le thread est dans un état interrompu
- SPARK-54172 Fusion avec l'évolution du schéma ne doit ajouter que les colonnes référencées
- SPARK-54438 Consolider ArrowStreamAggArrowIterUDFSerializer dans ArrowStreamAggArrowUDFSerializer
- SPARK-54627 Supprimer les initialisations redondantes dans les sérialiseurs
- SPARK-54631 Ajouter la prise en charge du profiler pour l'UDF d'agrégation groupée avec Apache Arrow
-
SPARK-54316 Réappliquer [SC-213971][CORE][PYTHON][SQL] Consolider
GroupPandasIterUDFSerializeravecGroupPandasUDFSerializer - SPARK-54392 Optimiser la communication JVM-Python pour l’état initial TWS
- SPARK-54617 Activer l'enregistrement des UDF pour l'agrégation groupée par itération d'Arrow dans SQL
- SPARK-54544 Activer la vérification flake8 F811
-
SPARK-54650 Déplacer int vers la conversion décimale en
_create_converter_from_pandas -
SPARK-54316 Annuler «[SC-213971][CORE][PYTHON][SQL] Unifier
GroupPandasIterUDFSerializeravecGroupPandasUDFSerializer» - SPARK-53687 Introduire WATERMARK une clause dans l’instruction SQL
-
SPARK-54316 Consolider
GroupPandasIterUDFSerializeravecGroupPandasUDFSerializer - SPARK-54598 Extraire la logique pour lire les fonctions définies par l’utilisateur
-
SPARK-54622 Promouvoir
RequiresDistributionAndOrderinget ses interfaces requises àEvolving - SPARK-54624 Vérifier que le nom d’utilisateur dans la page d’historique est échappé
- SPARK-54580 Considérez Hive 4.1 dans HiveVersionSuite et HiveClientImpl
-
SPARK-54068 Correctif
to_featherpour prendre en charge PyArrow 22.0.0 -
SPARK-54618 Promouvoir
LocalScanversStable -
SPARK-54616 Marquer
SupportsPushDownVariantscommeExperimental -
SPARK-54607 Supprimer la méthode
toStringHelperinutilisée deAbstractFetchShuffleBlocks.java - SPARK-53615 Introduction de l’API d’itérateur pour la fonction UDF d’agrégation groupée de flèches
- SPARK-54608 Éviter la mise en cache double du convertisseur de type dans UDTF
-
SPARK-54600 N’utilisez pas pickle pour enregistrer/charger des modèles dans
pyspark.ml.connect -
SPARK-54592 Rendre
estimatedSizeprivé - SPARK-54388 Présentation de StatePartitionReader qui analyse les octets bruts pour Single ColFamily
- SPARK-54570 Propager correctement la classe d’erreur dans Spark Connect
- SPARK-54577 Optimiser les appels Py4J dans l’inférence de schéma
- SPARK-54568 Éviter une conversion pandas inutile lors de la création d'un DataFrame à partir d'un ndarray
- SPARK-54576 Ajouter une documentation pour les nouvelles fonctions d’agrégation basées sur Datasketches
- SPARK-54574 Réactiver FPGrowth à la connexion
- SPARK-54557 Rendre CSV/JSON/XmlOptions et CSV/JSON/XmlInferSchema comparables
- SPARK-52798 Ajouter une fonction approx_top_k_combine
- SPARK-54446 FPGrowth prend en charge le système de fichiers local avec le format de fichier Arrow
-
SPARK-54547 Renommer
hostPortune variable danshostlesTaskSchedulerImpl.(executorLost|logExecutorLoss)méthodes - SPARK-54558 Corriger l’exception interne lorsque les gestionnaires d’exceptions sans BEGIN/END sont utilisés
- SPARK-52923 Autoriser ShuffleManager à contrôler la fusion par poussée lors de l'enregistrement du shuffle
- SPARK-54474 Ignorer le rapport XML sur les tests censés échouer
- SPARK-54473 Ajouter la prise en charge de la lecture et de l'écriture Avro pour le type TIME
- SPARK-54472 Ajouter la prise en charge de lecture et d’écriture ORC pour le type TIME
- SPARK-54463 Ajouter la prise en charge de la sérialisation et de la désérialisation CSV pour le type TIME
- SPARK-52588 Approx_top_k : accumuler et estimer
- SPARK-54461 Ajouter la prise en charge de la sérialisation et de la désérialisation XML pour le type TIME
- SPARK-54451 Ajouter la sérialisation JSON et la prise en charge de la désérialisation pour le type TIME
- SPARK-54537 Correction de SparkConnectDatabaseMetaData getSchemas/getTables sur les catalogues dont la capabilité d'espace de noms est manquante.
- SPARK-54442 Ajouter des fonctions de conversion numérique pour le type TIME
- SPARK-54451 Rétablir « [SC-212861][SQL] Ajouter la prise en charge de la sérialisation et de la désérialisation JSON pour le type TIME »
- SPARK-54492 Renommer _LEGACY_ERROR_TEMP_1201 et ajouter sqlState
- SPARK-54531 Présentation de ArrowStreamAggPandasUDFSerializer
- SPARK-54223 Ajouter des métriques de contexte de tâche et de données aux logs du processus Python
- SPARK-54272 Ajouter aggTime pour SortAggregateExec
- SPARK-53469 Possibilité de nettoyer le shuffle sur le serveur Thrift
-
SPARK-54219 Configuration de la prise en charge
spark.cleaner.referenceTracking.blocking.timeout - SPARK-54475 Ajouter master-server, branch-4.0-client, Python 3.11
- SPARK-54451 Ajouter la sérialisation JSON et la prise en charge de la désérialisation pour le type TIME
- SPARK-54285 Mettre en cache les informations sur le fuseau horaire pour éviter une conversion d’horodatage coûteuse
-
SPARK-49133 Rendre le membre
MemoryConsumer#usedatomique pour éviter un blocage causé par le code utilisateur - SPARK-46166 Implémentation de pandas.DataFrame.any avec axis=1
- SPARK-54532 Ajouter la prise en charge de sqlstate pour PySparkException
- SPARK-54435 spark-pipelines init doit éviter d'écraser le répertoire existant.
- SPARK-54247 Fermer le socket explicitement pour util._load_from_socket
Prise en charge du pilote ODBC/JDBC Databricks
Databricks prend en charge les pilotes ODBC/JDBC publiés au cours des 2 dernières années. Téléchargez les pilotes et la mise à niveau récemment publiés (téléchargez ODBC, téléchargez JDBC).
Environnement du système
- Système d’exploitation : Ubuntu 24.04.3 LTS
- Java : Zulu21.42+19-CA
- Scala : 2.13.16
- Python : 3.12.3
- R : 4.5.1
- Delta Lake : 4.0.1
Bibliothèques Python installées
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| aiohappyeyeballs | 2.4.4 | AIOHTTP | 3.11.10 | aiosignal | 1.2.0 |
| document annoté | 0.0.4 | annotated-types | 0.7.0 | anyio | 4.7.0 |
| argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 | arro3-core | 0.6.5 |
| flèche | 1.3.0 | asttokens | 3.0.0 | astunparse | 1.6.3 |
| async-lru | 2.0.4 | attributs | 24.3.0 | commande automatique | 2.2.2 |
| azure-common | 1.1.28 | azure-core | 1.37.0 | azure-identity | 1.20.0 |
| azure-mgmt-core | 1.6.0 | azure-mgmt-web | 8.0.0 | azure-storage-blob (service de stockage de blobs Azure) | 12.28.0 |
| Azure Storage File Data Lake | 12.22.0 | babel | 2.16.0 | backports.tarfile | 1.2.0 |
| bellesoupe4 | 4.12.3 | black | 24.10.0 | bleach | 6.2.0 |
| clignotant | 1.7.0 | boto3 | 1.40.45 | botocore | 1.40.45 |
| cachetools | 5.5.1 | certifi | 2025.4.26 | cffi | 1.17.1 |
| chardet | 4.0.0 | charset-normalizer | 3.3.2 | cliquez | 8.1.8 |
| cloudpickle | 3.0.0 | comm | 0.2.1 | contourpy | 1.3.1 |
| chiffrement | 44.0.1 | cycliste | 0.11.0 | Cython | 3.1.5 |
| databricks-agents | 1.9.1 | Kit de développement logiciel Databricks (SDK) | 0.67.0 | dataclasses-json | 0.6.7 |
| dbus-python | 1.3.2 | debugpy | 1.8.11 | décorateur | 5.1.1 |
| defusedxml | 0.7.1 | deltalake | 1.1.4 | Deprecated | 1.2.18 |
| distlib | 0.3.9 | Conversion de docstring en markdown | 0.11 | exécution | 1.2.0 |
| aperçu des facettes | 1.1.1 | fastapi | 0.128.0 | validation rapide des schémas JSON (fastjsonschema) | 2.21.1 |
| verrou de fichier | 3.17.0 | outils de police | 4.55.3 | fqdn | 1.5.1 |
| frozenlist | 1.5.0 | fsspec | 2023.5.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.28.1 | google-auth | 2.47.0 |
| google-cloud-core | 2.5.0 | google-cloud-storage (Stockage dans le cloud de Google) | 3.7.0 | google-crc32c | 1.8.0 |
| google-resumable-media | 2.8.0 | googleapis-common-protos | 1.65.0 | grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.16.0 | hf-xet | 1.2.0 |
| httpcore | 1.0.9 | httplib2 | 0.20.4 | httpx | 0.28.1 |
| huggingface_hub | 1.2.4 | IDNA | 3.7 | importlib_metadata | 8.5.0 |
| inflect | 7.3.1 | iniconfig | 1.1.1 | ipyflow-core | 0.0.209 |
| ipykernel | 6.29.5 | ipython | 8.30.0 | ipython-genutils | 0.2.0 |
| ipywidgets | 7.8.1 | isodate | 0.7.2 | isoduration | 20.11.0 |
| jaraco.collections | 5.1.0 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
| jaraco.text | 3.12.1 | Jedi | 0.19.2 | Jinja2 | 3.1.6 |
| jiter | 0.12.0 | jmespath | 1.0.1 | joblib | 1.4.2 |
| json5 | 0.9.25 | jsonpatch | 1.33 | jsonpointer | 3.0.0 |
| jsonschema | 4.23.0 | spécifications du schéma JSON | 2023.7.1 | événements Jupyter | 0.12.0 |
| jupyter-lsp | 2.2.5 | jupyter_client | 8.6.3 | jupyter_core | 5.7.2 |
| serveur Jupyter | 2.15.0 | jupyter_server_terminals | 0.5.3 | jupyterlab | 4.3.4 |
| jupyterlab_pygments | 0.3.0 | jupyterlab_server | 2.27.3 | jupyterlab_widgets | 1.1.11 |
| kiwisolver | 1.4.8 | langchain-core | 1.2.6 | langchain-openai | 1.1.6 |
| langsmith | 0.6.1 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
| lazr.uri | 1.0.6 | litellm | 1.75.9 | markdown-it-py | 2.2.0 |
| MarkupSafe | 3.0.2 | guimauve | 3.26.2 | matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | Mccabe | 0.7.0 | mdurl | 0.1.0 |
| mistune | 3.1.2 | mlflow-skinny (version légère de mlflow) | 3.8.1 | mmh3 | 5.2.0 |
| more-itertools | 10.3.0 | msal | 1.34.0 | msal-extensions | 1.3.1 |
| Multidict | 6.1.0 | mypy-extensions | 1.0.0 | nbclient | 0.10.2 |
| nbconvert | 7.16.6 | nbformat | 5.10.4 | nest-asyncio | 1.6.0 |
| nodeenv | 1.10.0 | notebook | 7.3.2 | notebook_shim | 0.2.4 |
| numpy | 2.1.3 | oauthlib | 3.2.2 | openai | 2.14.0 |
| opentelemetry-api | 1.39.1 | opentelemetry-proto | 1.39.1 | opentelemetry-sdk | 1.39.1 |
| opentelemetry-semantic-conventions | 0.60b1 | orjson | 3.11.5 | remplace | 7.4.0 |
| empaquetage | 24,2 | Pandas | 2.2.3 | pandocfilters | 1.5.0 |
| parso | 0.8.4 | pathspec | 0.10.3 | patsy | 1.0.1 |
| pexpect | 4.8.0 | pillow | 11.1.0 | pip | 25.0.1 |
| platformdirs | 4.3.7 | plotly | 5.24.1 | pluggy | 1.5.0 |
| prometheus_client | 0.21.1 | prompt-toolkit | 3.0.43 | propcache | 0.3.1 |
| proto-plus | 1.27.0 | protobuf | 5.29.4 | psutil | 5.9.0 |
| psycopg2 | 2.9.11 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| pyarrow | 21.0.0 | pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 |
| pyccolo | 0.0.71 | pycparser | 2.21 | pydantic | 2.10.6 |
| pydantic_core | 2.27.2 | pyflakes | 3.2.0 | Pygments | 2.19.1 |
| PyGObject | 3.48.2 | pyiceberg | 0.10.0 | PyJWT | 2.10.1 |
| pyodbc | 5.2.0 | pyparsing | 3.2.0 | pyright | 1.1.394 |
| pyroaring | 1.0.3 | pytest | 8.3.5 | python-dateutil | 2.9.0.post0 |
| python-dotenv | 1.2.1 | python-json-logger | 3.2.1 | python-lsp-jsonrpc | 1.1.2 |
| python-lsp-server | 1.12.2 | pytoolconfig | 1.2.6 | pytz | 2024.1 |
| PyYAML | 6.0.2 | pyzmq | 26.2.0 | référencement | 0.30.2 |
| regex | 2024.11.6 | requests | 2.32.3 | requests-toolbelt | 1.0.0 |
| RFC3339 validateur | 0.1.4 | rfc3986-validator | 0.1.1 | rich | 13.9.4 |
| corde | 1.13.0 | rpds-py | 0.22.3 | Rsa | 4.9.1 |
| s3transfer | 0.14.0 | scikit-learn | 1.6.1 | scipy (bibliothèque Python pour le calcul scientifique) | 1.15.3 |
| seaborn | 0.13.2 | Send2Trash | 1.8.2 | setuptools | 78.1.1 |
| shellingham | 1.5.4 | six | 1.17.0 | smmap | 5.0.0 |
| sniffio | 1.3.0 | sortedcontainers | 2.4.0 | soupsieve | 2.5 |
| sqlparse | 0.5.5 | ssh-import-id | 5.11 | données en pile | 0.6.3 |
| starlette | 0.50.0 | strictyaml | 1.7.3 | ténacité | 9.0.0 |
| terminé | 0.17.1 | threadpoolctl | 3.5.0 | tiktoken | 0.12.0 |
| tinycss2 | 1.4.0 | tokenize_rt | 6.1.0 | générateurs de jetons | 0.22.2 |
| tomli | 2.0.1 | tornade | 6.5.1 | tqdm | 4.67.1 |
| Traitlets | 5.14.3 | typeguard | 4.3.0 | typer-slim | 0.21.1 |
| types-python-dateutil | 2.9.0.20251115 | saisie-inspection | 0.9.0 | typing_extensions | 4.12.2 |
| tzdata | 2024.1 | ujson | 5.10.0 | unattended-upgrades | 0.1 |
| uri-template | 1.3.0 | urllib3 | 2.3.0 | uuid_utils | 0.12.0 |
| uvicorn | 0.40.0 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | webcolores | 25.10.0 | webencodings | 0.5.1 |
| websocket-client | 1.8.0 | c’est quoi le patch | 1.0.2 | roue | 0.45.1 |
| chaque fois que | 0.7.3 | widgetsnbextension | 3.6.6 | enveloppé | 1.17.0 |
| yapf | 0.40.2 | yarl | 1.18.0 | zipp | 3.21.0 |
| zstandard | 0.23.0 |
Bibliothèques R installées
Les bibliothèques R sont installées à partir de l’instantané CRAN du Gestionnaire de paquets Posit du 20 novembre 2025.
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| flèche | 22.0.0 | Askpass | 1.2.1 | assertthat | 0.2.1 |
| backports | 1.5.0 | base | 4.5.1 | base64enc | 0.1-3 |
| bigD | 0.3.1 | bit | 4.6.0 | bit 64 | 4.6.0-1 |
| bitops | 1.0-9 | blob | 1.2.4 | boot | 1.3-30 |
| brew | 1.0-10 | brio | 1.1.5 | balai | 1.0.10 |
| bslib | 0.9.0 | cachemire | 1.1.0 | callr | 3.7.6 |
| caret | 7.0-1 | cellranger | 1.1.0 | chron | 2.3-62 |
| classe | 7.3-22 | cli | 3.6.5 | clipr | 0.8.0 |
| horloge | 0.7.3 | cluster | 2.1.6 | codetools | 0,2-20 |
| commonmark | 2.0.0 | compilateur | 4.5.1 | config | 0.3.2 |
| En conflit | 1.2.0 | cpp11 | 0.5.2 | crayon | 1.5.3 |
| credentials | 2.0.3 | friser | 7.0.0 | data.table | 1.17.8 |
| ensembles de données | 4.5.1 | DBI | 1.2.3 | dbplyr | 2.5.1 |
| desc | 1.4.3 | devtools | 2.4.6 | diagramme | 1.6.5 |
| diffobj | 0.3.6 | digérer | 0.6.39 | downlit | 0.4.5 |
| dplyr | 1.1.4 | dtplyr | 1.3.2 | e1071 | 1.7-16 |
| ellipse | 0.3.2 | évaluer | 1.0.5 | fans | 1.0.7 |
| couleurs | 2.1.2 | carte rapide | 1.2.0 | fontawesome | 0.5.3 |
| condamnés | 1.0.1 | foreach | 1.5.2 | foreign | 0.8-86 |
| fs | 1.6.6 | futur | 1.68.0 | future.apply | 1.20.0 |
| gargle | 1.6.0 | produits génériques | 0.1.4 | gert | 2.2.0 |
| ggplot2 | 4.0.1 | gh | 1.5.0 | git2r | 0.36.2 |
| gitcreds | 0.1.2 | glmnet | 4.1-10 | globals | 0.18.0 |
| colle | 1.8.0 | googledrive | 2.1.2 | googlesheets4 | 1.1.2 |
| gower | 1.0.2 | graphisme | 4.5.1 | grDevices | 4.5.1 |
| grid | 4.5.1 | gridExtra | 2.3 | gsubfn | 0.7 |
| gt | 1.1.0 | gtable | 0.3.6 | hardhat | 1.4.2 |
| haven | 2.5.5 | highr | 0.11 | hms | 1.1.4 |
| outils HTML | 0.5.8.1 | htmlwidgets | 1.6.4 | httpuv | 1.6.16 |
| httr | 1.4.7 | httr2 | 1.2.1 | ids | 1.0.1 |
| ini | 0.3.1 | ipred | 0.9-15 | isoband | 0.2.7 |
| itérateurs | 1.0.14 | jquerylib | 0.1.4 | jsonlite | 2.0.0 |
| juicyjuice | 0.1.0 | KernSmooth | 2.23-22 | knitr | 1,50 |
| étiquetage | 0.4.3 | plus tard | 1.4.4 | lattice | 0.22-5 |
| lave | 1.8.2 | cycle de vie | 1.0.4 | listenv | 0.10.0 |
| litedown | 0.8 | lubridate | 1.9.4 | magrittr | 2.0.4 |
| markdown | 2.0 | MASS | 7.3-60.0.1 | Matrix | 1.6-5 |
| memoise | 2.0.1 | méthodes | 4.5.1 | mgcv | 1.9-1 |
| mime | 0,13 | miniUI | 0.1.2 | mlflow | 3.6.0 |
| ModelMetrics | 1.2.2.2 | modèleur | 0.1.11 | nlme | 3.1-164 |
| nnet | 7.3-19 | numDeriv | 2016.8-1.1 | openssl | 2.3.4 |
| otel | 0.2.0 | parallèle | 4.5.1 | parallèlement | 1.45.1 |
| pilier | 1.11.1 | pkgbuild | 1.4.8 | pkgconfig | 2.0.3 |
| pkgdown | 2.2.0 | pkgload | 1.4.1 | plogr | 0.2.0 |
| plyr (un package logiciel pour le traitement de données) | 1.8.9 | éloge | 1.0.0 | prettyunits | 1.2.0 |
| pROC | 1.19.0.1 | processx | 3.8.6 | prodlim | 2025.04.28 |
| profvis | 0.4.0 | progrès | 1.2.3 | progressr | 0.18.0 |
| promesses | 1.5.0 | proto | 1.0.0 | mandataire | 0,4-27 |
| p.s. | 1.9.1 | purrr | 1.2.0 | R6 | 2.6.1 |
| ragg | 1.5.0 | randomForest (algorithme d'apprentissage automatique) | 4.7-1.2 | rappdirs | 0.3.3 |
| rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.1.0 |
| RcppEigen | 0.3.4.0.2 | réactif | 0.4.4 | reactR | 0.6.1 |
| readr | 2.1.6 | readxl | 1.4.5 | recettes | 1.3.1 |
| match retour | 2.0.0 | revanche2 | 2.1.2 | remotes | 2.5.0 |
| exemple reproductible | 2.1.1 | reshape2 | 1.4.5 | rlang | 1.1.6 |
| rmarkdown | 2.30 | RODBC | 1.3-26 | roxygen2 | 7.3.3 |
| rpart | 4.1.23 | rprojroot | 2.1.1 | Rserve | 1.8-15 |
| RSQLite | 2.4.4 | rstudioapi | 0.17.1 | rversions | 3.0.0 |
| rvest | 1.0.5 | S7 | 0.2.1 | sass | 0.4.10 |
| écailles | 1.4.0 | selectr | 0,4-2 | informations sur la session | 1.2.3 |
| forme | 1.4.6.1 | brillant | 1.11.1 | sourcetools | 0.1.7-1 |
| sparklyr | 1.9.3 | SparkR | 4.1.0 | sparsevctrs | 0.3.4 |
| spatial | 7.3-17 | splines | 4.5.1 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | Statistiques | 4.5.1 | statistiques4 | 4.5.1 |
| chaine | 1.8.7 | stringr | 1.6.0 | survie | 3.5-8 |
| swagger | 5.17.14.1 | sys | 3.4.3 | systemfonts | 1.3.1 |
| tcltk | 4.5.1 | testthat | 3.3.0 | mise en forme de texte | 1.0.4 |
| tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | changement d'heure | 0.3.0 | date-heure | 4051.111 |
| tinytex | 0.58 | outils | 4.5.1 | tzdb | 0.5.0 |
| vérificateur d'URL | 1.0.1 | Utilise ça | 3.2.1 | utf8 | 1.2.6 |
| utilitaires | 4.5.1 | Identifiant unique universel (UUID) | 1.2-1 | V8 | 8.0.1 |
| vctrs | 0.6.5 | viridisLite | 0.4.2 | Vroom | 1.6.6 |
| Waldo | 0.6.2 | vibrisse | 0.4.1 | flétrir | 3.0.2 |
| xfun | 0.54 | xml2 | 1.5.0 | xopen | 1.0.1 |
| xtable | 1.8-4 | yaml | 2.3.10 | zeallot | 0.2.0 |
| fichier ZIP | 2.3.3 |
Bibliothèques Java et Scala installées (version du cluster Scala 2.13)
| ID de groupe | ID d’artefact | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.15.3 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.681 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.681 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.681 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.681 |
| com.amazonaws | aws-java-sdk-config | 1.12.681 |
| com.amazonaws | aws-java-sdk-core | 1.12.681 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.681 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.681 |
| com.amazonaws | aws-java-sdk-directory | 1.12.681 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.681 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.681 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.681 |
| com.amazonaws | aws-java-sdk-efs | 1.12.681 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.681 |
| com.amazonaws | AWS Java SDK pour Elastic Beanstalk | 1.12.681 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.681 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.681 |
| com.amazonaws | aws-java-sdk-emr | 1.12.681 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.681 |
| com.amazonaws | aws-java-sdk-glue | 1.12.681 |
| com.amazonaws | aws-java-sdk-iam | 1.12.681 |
| com.amazonaws | aws-java-sdk-importexport (kit de développement logiciel Java AWS pour l'importation et l'exportation) | 1.12.681 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.681 |
| com.amazonaws | aws-java-sdk-kms | 1.12.681 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.681 |
| com.amazonaws | aws-java-sdk-logs | 1.12.681 |
| com.amazonaws | aws-java-sdk-machinelearning (kit de développement logiciel AWS pour l'apprentissage automatique en Java) | 1.12.681 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.681 |
| com.amazonaws | aws-java-sdk-rds | 1.12.681 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.681 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.681 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.681 |
| com.amazonaws | aws-java-sdk-ses | 1.12.681 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.681 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.681 |
| com.amazonaws | aws-java-sdk-sns | 1.12.681 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.681 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.681 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.681 |
| com.amazonaws | aws-java-sdk-sts | 1.12.681 |
| com.amazonaws | aws-java-sdk-support | 1.12.681 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.681 |
| com.amazonaws | jmespath-java | 1.12.681 |
| com.clearspring.analytics | ruisseau | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.53.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | kryo-shaded | 4.0.3 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | Camarade de classe | 1.5.1 |
| com.fasterxml.jackson.core | jackson-annotations | 2.18.2 |
| com.fasterxml.jackson.core | jackson-core | 2.18.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.3 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.caffeine | caféine | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 natifs |
| com.github.fommil.netlib | système_natif-java | 1.1 |
| com.github.fommil.netlib | système_natif-java | 1.1 natifs |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1 natifs |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1 natifs |
| com.github.luben | zstd-jni | 1.5.7-6 |
| com.github.virtuald | curvesapi | 1.08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos | 2.5.1 |
| com.google.auth | google-auth-library-credentials | 1.20.0 |
| com.google.auth | google-auth-library-oauth2-http | 1.20.0 |
| com.google.auto.value | annotations de valeur automatique | 1.10.4 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.11.0 |
| com.google.crypto.tink | tink | 1.16.0 |
| com.google.errorprone | annotations_sujettes_aux_erreurs | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 25.2.10 |
| com.google.guava | failureaccess | 1.0.3 |
| com.google.guava | goyave | 33.4.8-jre |
| com.google.http-client | google-http-client | 1.43.3 |
| com.google.http-client | google-http-client-gson | 1.43.3 |
| com.google.j2objc | j2objc-annotations | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | profileur | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK (kit de développement logiciel pour le magasin Azure Data Lake) | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre11 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre8 |
| com.ning | compress-lzf (compression utilisant l'algorithme LZF) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-analyseurs | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.10.0 |
| commons-codec | commons-codec | 1.19.0 |
| commons-collections (bibliothèque de collections communes) | commons-collections (bibliothèque de collections communes) | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.6.0 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.21.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.4 |
| dev.ludovic.netlib | blas | 3.0.4 |
| dev.ludovic.netlib | lapack | 3.0.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compresseur d'air | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.9 |
| io.dropwizard.metrics | annotation des métriques | 4.2.37 |
| io.dropwizard.metrics | métriques de base | 4.2.37 |
| io.dropwizard.metrics | metrics-graphite | 4.2.37 |
| io.dropwizard.metrics | métriques-vérifications de santé | 4.2.37 |
| io.dropwizard.metrics | metrics-jetty10 | 4.2.37 |
| io.dropwizard.metrics | Metrics-JMX | 4.2.37 |
| io.dropwizard.metrics | metrics-json | 4.2.37 |
| io.dropwizard.metrics | metrics-jvm | 4.2.37 |
| io.dropwizard.metrics | servlets de métriques | 4.2.37 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all | 4.2.7.Final |
| io.netty | netty-buffer | 4.2.7.Final |
| io.netty | netty-codec | 4.2.7.Final |
| io.netty | netty-codec-base | 4.2.7.Final |
| io.netty | netty-codec-classes-quic | 4.2.7.Final |
| io.netty | netty-codec-compression | 4.2.7.Final |
| io.netty | netty-codec-http | 4.2.7.Final |
| io.netty | netty-codec-http2 | 4.2.7.Final |
| io.netty | netty-codec-http3 | 4.2.7.Final |
| io.netty | netty-codec-marshalling | 4.2.7.Final |
| io.netty | netty-codec-native-quic | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-osx-aarch_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-osx-x86_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-windows-x86_64 |
| io.netty | netty-codec-protobuf | 4.2.7.Final |
| io.netty | netty-codec-socks | 4.2.7.Final |
| io.netty | netty-common | 4.2.7.Final |
| io.netty | netty-handler | 4.2.7.Final |
| io.netty | netty-handler-proxy | 4.2.7.Final |
| io.netty | netty-resolver | 4.2.7.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.74.Final |
| io.netty | netty-transport | 4.2.7.Final |
| io.netty | netty-transport-classes-epoll | 4.2.7.Final |
| io.netty | netty-transport-classes-io_uring | 4.2.7.Final |
| io.netty | netty-transport-classes-kqueue | 4.2.7.Final |
| io.netty | netty-transport-native-epoll | 4.2.7.Final |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-riscv64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.2.7.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.2.7.Final-osx-x86_64 |
| io.netty | transport-netty-natif-commun-unix | 4.2.7.Final |
| io.opencensus | opencensus-api | 0.31.1 |
| io.opencensus | opencensus-contrib-http-util | 0.31.1 |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | simpleclient_common | 0.16.1-databricks |
| io.prometheus | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometheus | simpleclient_pushgateway | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel_agent | 0.16.1-databricks |
| io.prometheus.jmx | collectionneur | 0.18.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activation | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | jta | 1.1 |
| javax.transaction | transaction-api | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.14.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | conserve | 1,5 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk (module d'ingestion de Snowflake) | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.13.1 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | fourmi | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | compression de flèches | 18.3.0 |
| org.apache.arrow | arrow-format | 18.3.0 |
| org.apache.arrow | arrow-memory-core | 18.3.0 |
| org.apache.arrow | arrow-memory-netty | 18.3.0 |
| org.apache.arrow | arrow-memory-netty-buffer-patch | 18.3.0 |
| org.apache.arrow | vecteur-flèche | 18.3.0 |
| org.apache.avro | Avro | 1.12.1 |
| org.apache.avro | avro-ipc | 1.12.1 |
| org.apache.avro | avro-mapred | 1.12.1 |
| org.apache.commons | commons-collections4 | 4.5.0 |
| org.apache.commons | commons-compress | 1.28.0 |
| org.apache.commons | commons-configuration2 | 2.11.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.19.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | texte commun | 1.14.0 |
| org.apache.curator | curateur-client | 5.9.0 |
| org.apache.curator | curator-framework | 5.9.0 |
| org.apache.curator | créateur de recettes | 5.9.0 |
| org.apache.datasketches | datasketches-java | 6.2.0 |
| org.apache.datasketches | datasketches-memory (mémoire de croquis de données) | 3.0.2 |
| org.apache.derby | match de derby | 10.14.2.0 |
| org.apache.hadoop | environnement d'exécution du client Hadoop | 3.4.2 |
| org.apache.hive | hive-beeline (outil de ligne de commande d'Apache Hive) | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | hive-jdbc | 2.3.10 |
| org.apache.hive | hive-llap-client | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | hive-serde | 2.3.10 |
| org.apache.hive | hive-shims | 2.3.10 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | Composant commun de hive-shims | 2.3.10 |
| org.apache.hive.shims | programmeur de cales de hive | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | lierre | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.2.0-shaded-protobuf |
| org.apache.orc | orc-format | 1.1.1-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 2.2.0-shaded-protobuf |
| org.apache.orc | orc-shims | 2.2.0 |
| org.apache.poi | poi | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4.28 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | audience-annotations | 0.13.0 |
| org.apache.zookeeper | gardien de zoo | 3.9.4 |
| org.apache.zookeeper | zookeeper-jute | 3.9.4 |
| org.checkerframework | checker-qual | 3.43.0 |
| org.codehaus.janino | compilateur commun | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-alpn-client | 10.0.26 |
| org.eclipse.jetty | jetty-client | 10.0.26 |
| org.eclipse.jetty | jetty-http | 10.0.26 |
| org.eclipse.jetty | jetty-io | 10.0.26 |
| org.eclipse.jetty | jetty-jndi | 10.0.26 |
| org.eclipse.jetty | jetty-plus | 10.0.26 |
| org.eclipse.jetty | jetty-proxy | 10.0.26 |
| org.eclipse.jetty | jetty-security (sécurité de quai) | 10.0.26 |
| org.eclipse.jetty | serveur jetty | 10.0.26 |
| org.eclipse.jetty | jetty-servlet | 10.0.26 |
| org.eclipse.jetty | jetty-servlets | 10.0.26 |
| org.eclipse.jetty | jetty-util | 10.0.26 |
| org.eclipse.jetty | jetty-webapp | 10.0.26 |
| org.eclipse.jetty | jetty-xml | 10.0.26 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | OSGi Localisateur de Ressources | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | servlet de conteneur jersey | 2.41 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.41 |
| org.glassfish.jersey.core | jersey-client | 2.41 |
| org.glassfish.jersey.core | jersey-common | 2.41 |
| org.glassfish.jersey.core | jersey-server | 2.41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41 |
| org.hibernate.validator | hibernate-validator | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jline | jline | 3.27.1-jdk8 |
| org.joda | joda-convert | 1.7 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.locationtech.jts | jts-core | 1.20.0 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.22.1 |
| org.objenesis | objenèse | 3.4 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rocksdb | rocksdbjni | 9.8.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.4.0 |
| org.scala-sbt | interface de test | 1,0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | compatible avec scalatest | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | xz | 1,10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly.openssl | 1.1.3.Finale |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1,5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| stax | stax-api | 1.0.1 |