Runtime 1.2

Microsoft Fabric Runtime est une plateforme intégrée à Azure basée sur Apache Spark qui permet l’exécution et la gestion d’expériences d’ingénierie des données et de science des données. Ce document couvre les composants et versions du Runtime 1.2.

Le runtime 1.2 de Microsoft Fabric est la dernière version du runtime en GA. Les principaux composants de Runtime 1.2 sont les suivants :

  • Apache Spark 3.4.1
  • Système d’exploitation : Mariner 2.0
  • Java : 11
  • Scala : 2.12.17
  • Python : 3.10
  • Delta Lake : 2.4.0
  • R: 4.2.2

Screenshot showing where to select runtime version.

Microsoft Fabric Runtime 1.2 est fourni avec une collection de packages de niveau par défaut, y compris une installation complète d’Anaconda et des bibliothèques couramment utilisées pour Java/Scala, Python et R. Ces bibliothèques sont automatiquement incluses lors de l’utilisation de notebooks ou de travaux dans la plateforme Microsoft Fabric. Reportez-vous à la documentation pour obtenir la liste complète des bibliothèques. Microsoft Fabric déploie régulièrement des mises à jour de maintenance pour Runtime 1.2, fournissant des correctifs de bogues, des améliorations des performances et des correctifs de sécurité. Rester à jour garantit des performances et une fiabilité optimales pour vos tâches de traitement des données.

Nouvelles fonctionnalités et améliorations de la version 3.4.1 de Spark

Apache Spark 3.4.0 est la cinquième version de la ligne 3.x. Cette version, pilotée par la communauté open source, a résolu plus de 2 600 tickets Jira. Elle introduit un client Python pour Spark Connect, améliore la diffusion de flux structuré avec le suivi de progression asynchrone et le traitement avec état Python. Elle étend la couverture de l’API Pandas avec la prise en charge des entrées NumPy, simplifie la migration à partir d’entrepôts de données traditionnels par le biais de la conformité ANSI et de nouvelles fonctions intégrées. Elle améliore également la productivité et la capacité de débogage du développement avec le profilage de la mémoire. En outre, Runtime 1.2 est basé sur Apache Spark 3.4.1, une version de maintenance axée sur les correctifs de stabilité.

Points clés

  • Implémentation de la prise en charge des valeurs DEFAULT pour les colonnes des tables (SPARK-38334)
  • Prise en charge du type de données HORODATAGE SANS TIMESTAMP (SPARK-35662)
  • Prise en charge des « références d’alias de colonne latérale » (SPARK-27561)
  • Renforcer l’utilisation de SQLSTATE pour les classes d’erreur (SPARK-41994)
  • Activer les jointures de filtre Bloom par défaut (SPARK-38841)
  • Amélioration de la scalabilité de l’interface utilisateur Spark et de la stabilité des pilotes pour les applications volumineuses (SPARK-41053)
  • Suivi de progression asynchrone dans la diffusion de flux structuré (SPARK-39591)
  • Python Arbitrary Stateful Processing dans Structured Streaming avec Python (SPARK-40434)
  • Améliorations de la couverture de l’API Pandas (SPARK-42882) et prise en charge des entrées NumPy dans PySpark (SPARK-39405)
  • Fournir un profileur de mémoire pour les fonctions pySpark définies par l’utilisateur (SPARK-40281)
  • Implémenter le serveur de distribution PyTorch (SPARK-41589)
  • Publication des artefacts SBOM (nomenclature logicielle) (SPARK-41893)
  • Implémentation de la prise en charge des valeurs DEFAULT pour les colonnes des tables (SPARK-38334)
  • Prise en charge de SQL paramétrable (SPARK-41271, SPARK-42702)
  • Implémentation de la prise en charge des valeurs DEFAULT pour les colonnes des tables (SPARK-38334)
  • Ajouter Dataset.as(StructType) (SPARK-39625)
  • Prise en charge de SQL paramétrable (SPARK-41271, SPARK-42702)
  • Ajouter unpivot/ melt (SPARK-38864, SPARK-39876)
  • Prise en charge des « références d’alias de colonne latérale » (SPARK-27561)
  • Clause de décalage de résultat de prise en charge (SPARK-28330, SPARK-39159)
  • Prise en charge de l’horodatage sans type de données de fuseau horaire (SPARK-35662)
  • Prise en charge de la sous-requête scalaire dans le temps (SPARK-39306)
  • Rendre l’API catalogue compatible avec l’espace de noms à 3 couches (SPARK-39235)
  • Prise en charge de l’horodatage en secondes pour TimeTravel à l’aide des options de DataFrame [SPARK-39633]
  • Ajouter SparkSession.config(Carte) (SPARK-40163)
  • Prise en charge de la modification de la base de données par défaut du catalogue de sessions(SPARK-35242)
  • Prise en charge de Protobuf pour Spark - from_protobuf AND to_protobuf (SPARK-40654)
  • Ajout de la clause WHEN NOT MATCHED BY SOURCE à MERGE INTO (SPARK-40921)
  • Contrainte de classement souple pour les options de colonne CREATE TABLE (SPARK-40944)
  • Equivalent Sql de la commande Remplacer Dataframe (SPARK-40956)
  • Prise en charge de la génération sans sortie enfant requise vers les références externes de l'hôte (SPARK-41441)
  • ORDER BY ALL (SPARK-41637)
  • GROUP BY ALL (SPARK-41635)
  • Ajouter flatMapSortedGroups et cogroupSorted (SPARK-38591)
  • Prise en charge de sous-requêtes avec des prédicats de non-égalité corrélés (SPARK-36114)
  • Prise en charge des sous-requêtes avec corrélation via UNION/INTERSECT/EXCEPT (SPARK-36124)
  • Correction de l’erreur OOM ne peut pas être signalée quand AQE (exécution de requête adaptative) est activé (SPARK-42290)
  • Correction de la logique de découpage n’a pas correctement géré les caractères de contrôle ASCII (SPARK-44383)
  • La jointure externe Dataframe.joinWith doit retourner une valeur Null pour une ligne sans correspondance (SPARK-37829)
  • Utilisation des utilitaires pour obtenir le commutateur d’allocation dynamique utilisé dans le point de contrôle local (SPARK-42421)
  • Ajout de CapturedException aux utilitaires (SPARK-42078)
  • Prise en charge de SELECT DEFAULT avec ORDER BY, LIMIT, OFFSET pour la relation source INSERT (SPARK-43071)
  • Client Python pour Spark Connect (SPARK-39375)

Lisez la version complète des notes de publication d’une version spécifique d’Apache Spark en visitant Spark 3.4.0 et Spark 3.4.1.

Nouvelles optimisations de requête personnalisées

Prise en charge des écritures simultanées dans Spark

La présence d’une erreur 404 avec le message « Échec de l’opération : le chemin spécifié n’existe pas » est un problème courant lors de l’exécution d’insertions de données parallèles dans la même table à l’aide d’une requête SQL INSERT INTO. Cette erreur peut entraîner une perte de données. Notre nouvelle fonctionnalité, l’algorithme de commiteur de sortie de fichier, résout ce problème, ce qui permet aux clients d’effectuer en toute transparence l’insertion de données parallèles.

Pour accéder à cette fonctionnalité, activez l’indicateur de fonctionnalité spark.sql.enable.concurrentWrites, qui est activé par défaut à partir de Runtime 1.2 (Spark 3.4). Bien que cette fonctionnalité soit également disponible dans d’autres versions de Spark 3, elle n’est pas activée par défaut. Cette fonctionnalité ne prend pas en charge l’exécution parallèle de requêtes INSERT OVERWRITE où chaque travail simultané remplace les données sur différentes partitions de la même table de manière dynamique. À cet effet, Spark offre une autre fonctionnalité, qui peut être activée en configurant le paramètre spark.sql.sources.partitionOverwriteMode sur dynamique.

Lectures actives, qui ignorent les fichiers des travaux ayant échoué

Dans le système de commiteur Spark actuel, lorsqu’une insertion dans un travail de table échoue mais que certaines tâches réussissent, les fichiers générés par les tâches réussies coexistent avec les fichiers du travail ayant échoué. Cette coexistence peut entraîner une confusion pour les utilisateurs, car il devient difficile de distinguer les fichiers appartenant à des travaux réussis et non réussis. En outre, lorsqu’un travail lit à partir d’une table tandis qu’un autre insère des données simultanément dans la même table, le travail de lecture peut accéder aux données non commitées. En cas d’échec d’un travail d’écriture, le travail de lecture peut traiter des données incorrectes.

L’indicateur spark.sql.auto.cleanup.enabled contrôle notre nouvelle fonctionnalité, en répondant à ce problème. Lorsqu’il est activé, Spark ignore automatiquement la lecture des fichiers qui n’ont pas été commités lorsqu’il effectue spark.read ou sélectionne des requêtes à partir d’une table. Les fichiers écrits avant l’activation de cette fonctionnalité continuent d’être lus comme d’habitude.

Voici les modifications visibles :

  • Tous les fichiers incluent désormais un identificateur tid-{jobID} dans leurs noms de fichiers.
  • Au lieu du marqueur _success généralement créé à l’emplacement de sortie lors de la réussite de la tâche, un nouveau marqueur _committed_{jobID} est généré. Ce marqueur associe les ID des travaux réussis à des noms de fichiers spécifiques.
  • Nous avons introduit une nouvelle commande SQL que les utilisateurs peuvent exécuter régulièrement pour gérer le stockage et nettoyer les fichiers non commités. La syntaxe de cette commande est la suivante :
    • Pour nettoyer un répertoire spécifique : CLEANUP ('/path/to/dir') [RETAIN number HOURS];
    • Pour nettoyer une table spécifique : CLEANUP [db_name.]table_name [RETAIN number HOURS]; Dans cette syntaxe, path/to/dir représente l’URI d’emplacement où le nettoyage est requis et number est une valeur de type double représentant la période de rétention. La période de rétention par défaut est définie à sept jours.
  • Nous avons introduit une nouvelle option de configuration appelée spark.sql.deleteUncommittedFilesWhileListing, définie sur false par défaut. L’activation de cette option entraîne la suppression automatique de fichiers non commités pendant les lectures, mais ce scénario peut ralentir les opérations de lecture. Il est recommandé d’exécuter manuellement la commande de nettoyage lorsque le cluster est inactif au lieu d’activer cet indicateur.

Guide de migration de Runtime 1.1 vers Runtime 1.2

Lors de la migration de Runtime 1.1 avec Apache Spark 3.3, vers Runtime 1.2 avec Apache Spark 3.4, passez en revue le guide de migration officiel. Voici les principaux points forts :

Core

  • À partir de Spark 3.4, le pilote Spark est propriétaire de PersistentVolumnClaims et tente de le réutiliser s’ils ne sont pas affectés à des exécuteurs en direct. Pour restaurer le comportement utilisé avant la mise à niveau vers Spark 3.4, vous pouvez définir spark.kubernetes.driver.ownPersistentVolumeClaim sur false et spark.kubernetes.driver.reusePersistentVolumeClaim sur false.
  • À partir de Spark 3.4, le pilote Spark effectue le suivi des données aléatoires lorsque l’allocation dynamique est activée sans service aléatoire. Pour restaurer le comportement utilisé avant la mise à niveau vers Spark 3.4, vous pouvez définir spark.dynamicAllocation.shuffleTracking.enabled sur false.
  • À partir de Spark 3.4, Spark tente de désactiver le RDD (jeu de données distribué résilient) mis en cache et de randomiser les blocs si spark.decommission.enabled et spark.storage.decommission.enabled sont vrais. Pour restaurer le comportement utilisé avant la mise à niveau vers Spark 3.4, vous pouvez définir spark.storage.decommission.rddBlocks.enabled et spark.storage.decommission.shuffleBlocks.enabled sur false.
  • À partir de Spark 3.4, Spark utilise le magasin RocksDB si spark.history.store.hybridStore.enabled est vrai. Pour restaurer le comportement utilisé avant la mise à niveau vers Spark 3.4, vous pouvez définir spark.history.store.hybridStore.diskBackend sur LEVELDB.

PySpark

  • Dans Spark 3.4, le schéma d’une colonne de tableau est déduit en fusionnant les schémas de tous les éléments du tableau. Pour restaurer le comportement précédent où le schéma est déduit uniquement à partir du premier élément, vous pouvez définir spark.sql.pyspark.legacy.inferArrayTypeFromFirstElement.enabled sur true.
  • Dans Spark 3.4, lorsque vous utilisez l’API Pandas sur Spark Groupby.apply, si le type de retour du paramètre func n’est pas spécifié et que compute.shortcut_limit est défini sur 0, le nombre de lignes d’échantillonnage est automatiquement défini sur 2. Cet ajustement garantit qu’il existe toujours au moins deux lignes d’échantillonnage pour maintenir une inférence de schéma précise.
  • Dans Spark 3.4, si l’API Pandas sur Spark Index.insert est hors limites, elle déclenche IndexError avec index {} is out of bounds for axis 0 with size {} pour suivre le comportement de pandas 1.4.
  • Dans Spark 3.4, le nom de la série est conservé dans l’API Pandas sur Spark Series.mode pour s’aligner sur le comportement de pandas 1.4.
  • Dans Spark 3.4, l’API Pandas sur Spark Index.__setitem__ vérifie d’abord que le type value est le type Column pour éviter de soulever des ValueError inattendus dans is_list_like comme Impossible de convertir une colonne en bool : utilisez « & » pour « and », « | » pour « or », « ~ » pour « not » lors de la construction d’expressions booléennes DataFrame.
  • Dans Spark 3.4, l’API Pandas sur Spark astype('category') actualise également categories.dtype en fonction des données d’origine dtype pour suivre le comportement de pandas 1.4.
  • Dans Spark 3.4, l’API Pandas sur Spark prend en charge le regroupement par index positionnel dans GroupBy.head et GroupBy.tail pour suivre pandas 1.4. Les arguments négatifs fonctionnent désormais correctement et entraînent des plages relatives à la fin et au début de chaque groupe. Auparavant, les arguments négatifs renvoyaient des trames vides.
  • Dans Spark 3.4, le processus de schéma déduit de groupby.apply dans Pandas sur Spark déduit d’abord le type pandas pour garantir la précision des dtype pandas autant que possible.
  • Dans Spark 3.4, le paramètre de tri Series.concat est respecté pour suivre les comportements de pandas 1.4.
  • Dans Spark 3.4, le DataFrame.__setitem__ copie et remplace les tableaux préexistants, qui ne seront PAS écrasés, pour suivre les comportements de pandas 1.4.
  • Dans Spark 3.4, le SparkSession.sql et l’API Pandas sur Spark sql ont le nouveau paramètre args, qui fournit la liaison de paramètres nommés à leurs littéraux SQL.
  • Dans Spark 3.4, l’API Pandas sur Spark suit pour pandas 2.0 et certaines API ont été déconseillées ou supprimées dans Spark 3.4 en fonction des modifications apportées dans pandas 2.0. Reportez-vous aux [notes de publication de pandas](https://pandas.pydata.org/docs/dev/whatsnew/) pour plus d’informations.

SQL, jeux de données et trames de données

  • À partir de Spark 3.4, les commandes INSERT INTO avec une liste de colonnes explicite comprenant moins de colonnes que la table cible ajoutent automatiquement les valeurs par défaut correspondantes pour les colonnes restantes (ou NULL pour toute colonne ne disposant pas d’une valeur par défaut attribuée explicitement). Dans Spark 3.3 ou version antérieure, ces commandes échoueraient en retournant des erreurs indiquant que le nombre de colonnes fournies ne correspond pas au nombre de colonnes dans la table cible. La désactivation de spark.sql.defaultColumn.useNullsForMissingDefaultValues entraîne la restauration du comportement précédent.
  • À partir de Spark 3.4, Number ou Number(*) de Teradata est traité comme Decimal(38,18). Dans Spark 3.3 ou version antérieure, Number ou Number(*) de Teradata est traité comme Decimal(38, 0), auquel cas la partie fractionnaire est supprimée.
  • À partir de Spark 3.4, la base de données, la table, l’affichage permanent et l’identificateur de fonction v1 inclut « spark_catalog » comme nom de catalogue si la base de données est définie, par exemple, un identificateur de table est : spark_catalog.default.t. Pour restaurer le comportement hérité, définissez spark.sql.legacy.v1IdentifierNoCatalog sur true.
  • À partir de Spark 3.4, lorsque le mode ANSI SQL (configuration spark.sql.ansi.enabled) est activé, Spark SQL retourne toujours le résultat NULL lors de l’obtention d’une valeur de carte avec une clé inexistante. Dans Spark 3.3 ou version antérieure, une erreur s’affiche.
  • Depuis Spark 3.4, l’interface CLI spark-sql SQL n’imprime pas le préfixe Error in query: avant le message d’erreur de AnalysisException.
  • À partir de Spark 3.4, la fonction split ignore les chaînes vides de fin lorsque le paramètre regex est vide.
  • Depuis Spark 3.4, la fonction to_binary lève une erreur pour une entrée str incorrecte. Utilisez try_to_binary pour tolérer une entrée incorrecte et retourner la valeur NULL à la place.
    • La chaîne Base64 valide doit inclure les symboles de l’alphabet base64 (A-Za-z0-9+/), le remplissage facultatif (=) et les espaces blancs facultatifs. Les espaces blancs sont ignorés dans la conversion, sauf lorsqu’ils sont précédés de symboles de remplissage. Si le remplissage est présent, il doit conclure la chaîne et suivre les règles décrites dans RFC 4648 § 4.
    • Les chaînes hexadécimales valides doivent inclure uniquement les symboles autorisés (0-9A-Fa-f).
    • Les valeurs valides pour fmt sont au format hex, base64, utf-8, utf8 et ne respectent pas la casse.
  • À partir de Spark 3.4, Spark lève uniquement PartitionsAlreadyExistException lorsqu’il crée des partitions, mais que certaines d’entre elles existent déjà. Dans Spark 3.3 ou version antérieure, Spark peut lever PartitionsAlreadyExistException ou PartitionAlreadyExistsException.
  • À partir de Spark 3.4, Spark valide la spécification de partition dans ALTER PARTITION pour suivre le comportement de spark.sql.storeAssignmentPolicy, ce qui peut provoquer une exception si la conversion de type échoue, par exemple ALTER TABLE .. ADD PARTITION(p='a') si la colonne p est de type int. Pour restaurer le comportement hérité, définissez spark.sql.legacy.skipTypeValidationOnAlterPartition sur true.
  • À partir de Spark 3.4, les lecteurs vectorisés sont activés par défaut pour les types de données imbriqués (tableau, carte et struct). Pour restaurer le comportement hérité, définissez spark.sql.orc.enableNestedColumnVectorizedReader et spark.sql.parquet.enableNestedColumnVectorizedReader sur false.
  • À partir de Spark 3.4, BinaryType n’est pas pris en charge dans la source de données CSV. Dans Spark 3.3 ou version antérieure, les utilisateurs peuvent écrire des colonnes binaires dans la source de données CSV, mais le contenu de sortie dans les fichiers CSV est Object.toString(), ce qui est sans signification ; pendant ce temps, si les utilisateurs lisent des tables CSV avec des colonnes binaires, Spark lève une exception Unsupported type: binary.
  • À partir de Spark 3.4, les jointures de filtre bloom sont activées par défaut. Pour restaurer le comportement hérité, définissez spark.sql.optimizer.runtime.bloomFilter.enabled sur false.

Structured Streaming

  • À partir de Spark 3.4, Trigger.Once est déconseillé et les utilisateurs sont encouragés à migrer de Trigger.Once vers Trigger.AvailableNow. Pour plus d’informations, reportez-vous à SPARK-39805.
  • À partir de Spark 3.4, la valeur par défaut de la configuration pour l’extraction de décalage Kafka (spark.sql.streaming.kafka.useDeprecatedOffsetFetching) est remplacée de true à false. Le comportement par défaut ne dépend plus de la planification basée sur un groupe de consommateurs, ce qui affecte la liste de contrôle d’accès requise. Pour plus d’informations, consultez Intégration Kafka de diffusion de flux structuré.

Améliorations et nouvelles fonctionnalités de Delta Lake 2.4

Delta Lake est un projet open source qui permet de créer une architecture lakehouse au-dessus des lacs de données. Delta Lake propose des transactions ACID et une gestion des métadonnées scalable, et il unifie le traitement de données en streaming et par lots par-dessus les lacs de données existants.

Plus précisément, Delta Lake offre :

  • Transactions ACID sur Spark : les niveaux d’isolation sérialisables garantissent que les lecteurs ne voient jamais des données incohérentes.
  • Gestion des métadonnées scalable : utilise la puissance de traitement distribuée Spark pour gérer toutes les métadonnées des tables à l’échelle du pétaoctet avec des milliards de fichiers en toute simplicité.
  • Unification de la diffusion en continu et du traitement par lots : une table dans Delta Lake est une table de lots ainsi qu’une source et un récepteur de diffusion en continu. L’ingestion de données de streaming, le renvoi d’historique de lot et les requêtes interactives fonctionnent sans nécessiter de configuration.
  • Mise en œuvre de schéma : gère automatiquement les variations de schéma afin d’empêcher l’insertion d’enregistrements incorrects lors de l’ingestion.
  • Voyage dans le temps : le versioning de données autorise les restaurations, les pistes d’audit historiques complètes et les expériences de Machine Learning reproductibles.
  • Upserts et suppressions : prend en charge les opérations de fusion, de mise à jour et de suppression pour activer des cas d’usage complexes tels que les opérations de capture des changements de données, les opérations de dimension à évolution lente (SCD), la diffusion en continu d’upserts, ainsi de suite.

Les principales fonctionnalités de cette version sont les suivantes

  • Prise en charge d’Apache Spark 3.4.
  • Prise en charge de l’écriture de vecteurs de suppression pour la commande DELETE. Auparavant, lors de la suppression de lignes d’une table Delta, tout fichier avec au moins une ligne correspondante serait réécrit. Avec les vecteurs de suppression, ces réécritures coûteuses peuvent être évitées. Pour plus d’informations, consultez Que sont les vecteurs de suppression ?.
  • Prise en charge de toutes les opérations d’écriture sur les tables avec les vecteurs de suppression activés.
  • Prise en chargePURGE de la suppression de vecteurs de suppression de la version actuelle d’une table Delta en réécrivant tous les fichiers de données avec des vecteurs de suppression. Pour plus d’informations, consultez la documentation .
  • Prise en charge de la lecture du flux des changements de données pour les tables avec des vecteurs de suppression activés.
  • Prise en charge REPLACE WHERE des expressions dans SQL pour remplacer de manière sélective les données. Auparavant, les options « replaceWhere » étaient uniquement prises en charge dans les API DataFrameWriter.
  • Prise en chargeWHEN NOT MATCHED BY SOURCE des clauses dans SQL pour la commande Merge.
  • Prise en charge de l’omission des colonnes générées à partir de la liste des colonnes pour les requêtes SQL INSERT INTO. Delta génère automatiquement les valeurs des colonnes générées non spécifiées.
  • Prise en charge du type de données TimestampNTZ ajoutée dans Spark 3.3. L’utilisation de TimestampNTZ nécessite une mise à niveau de protocole Delta ; consultez la documentation pour plus d’informations.
  • Autorisation de modifier le type de colonne d’une colonne char ou varchar en type compatible dans la commande ALTER TABLE. Le nouveau comportement est le même que dans Apache Spark et permet l’upcasting de char ou varchar vers varchar ou string.
  • Blocage à l’aide de overwriteSchema avec le remplacement dynamique de partition. Ce scénario peut endommager la table, car toutes les données ne peuvent pas être supprimées, et le schéma des partitions nouvellement écrites ne peut pas correspondre au schéma des partitions inchangées.
  • Retour d’une valeur DataFrame vide pour les lectures de flux des changements de données lorsqu’il n’y a pas de validations dans la plage de timestamp fournie. Auparavant, une erreur serait levée.
  • Correction d’un bogue dans les lectures de flux des changements de données pour les enregistrements créés pendant l’heure ambiguë lors du changement d’heure d’été.
  • Correction d’un bogue dans lequel l’interrogation d’une table Delta externe à la racine d’un compartiment S3 génère une erreur.
  • Suppression des métadonnées Spark internes divulguées du journal Delta pour rendre à nouveau lisibles les tables affectées.

Lisez la version complète des notes de publication pour Delta Lake 2.4.

Packages de niveau par défaut pour les bibliothèques Java/Scala

Le tableau ci-dessous répertorie tous les packages de niveau par défaut pour Java/Scala et leurs versions respectives.

GroupId ArtifactId Version
com.aliyun aliyun-java-sdk-core 4.5.10
com.aliyun aliyun-java-sdk-kms 2.11.0
com.aliyun aliyun-java-sdk-ram 3.1.0
com.aliyun aliyun-sdk-oss 3.13.0
com.amazonaws aws-java-sdk-bundle 1.12.262
com.clearspring.analytics flux 2.9.6
com.esotericsoftware kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml.jackson jackson-annotations 2.14.2
com.fasterxml.jackson jackson-core 2.14.2
com.fasterxml.jackson jackson-core-asl 1.9.13
com.fasterxml.jackson jackson-databind 2.14.2
com.fasterxml.jackson jackson-dataformat-cbor 2.14.2
com.fasterxml.jackson jackson-mapper-asl 1.9.13
com.fasterxml.jackson jackson-module-scala_2.12 2.14.2
com.github.joshelser dropwizard-metrics-hadoop-metrics2-reporter 0.1.2
com.github.luben zstd-jni 1.5.2-5
com.github.vowpalwabbit vw-jni 9.3.0
com.github.wendykierp JTransforms 3.1
com.google.cloud.bigdataoss gcs-connector hadoop3-2.2.11
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.2.4
com.google.crypto.tink tink 1.7.0
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava guava 14.0.1
com.google.protobuf protobuf-java 2.5.0
com.googlecode.json-simple json-simple 1.1.1
com.jcraft jsch 0.1.54
com.jolbox bonecp 0.8.0.RELEASE
com.linkedin.isolation-forest isolation-forest_3.2.0_2.12 2.0.8
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.azure azure-eventhubs 3.3.0
com.microsoft.azure azure-eventhubs-spark_2.12 2.3.22
com.microsoft.azure azure-keyvault-core 1.0.0
com.microsoft.azure azure-storage 7.0.1
com.microsoft.azure cosmos-analytics-spark-3.4.1-connector_2.12 1.8.10
com.microsoft.azure qpid-proton-j-extensions 1.2.4
com.microsoft.azure synapseml_2.12 0.11.2-spark3.4
com.microsoft.azure synapseml-cognitive_2.12 0.11.2-spark3.4
com.microsoft.azure synapseml-core_2.12 0.11.2-spark3.4
com.microsoft.azure synapseml-deep-learning_2.12 0.11.2-spark3.4
com.microsoft.azure synapseml-internal_2.12 0.11.2-spark3.4
com.microsoft.azure synapseml-lightgbm_2.12 0.11.2-spark3.4
com.microsoft.azure synapseml-opencv_2.12 0.11.2-spark3.4
com.microsoft.azure synapseml-vw_2.12 0.11.2-spark3.4
com.microsoft.azure.kusto kusto-data 3.2.1
com.microsoft.azure.kusto kusto-ingest 3.2.1
com.microsoft.azure.kusto kusto-spark_3.0_2.12 3.1.16
com.microsoft.azure.kusto spark-kusto-synapse-connector_3.1_2.12 1.3.3
com.microsoft.cognitiveservices.speech client-jar-sdk 1.14.0
com.microsoft.sqlserver msslq-jdbc 8.4.1.jre8
com.ning compress-lzf 1.1.2
com.sun.istack istack-commons-runtime 3.0.8
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.typesafe config 1.3.4
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 2.5.1
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4.jar
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
io.airlift aircompressor 0,21
io.delta delta-core_2.12 2.4.0
io.delta delta-storage 2.4.0
io.dropwizard.metrics metrics-core 4.2.15
io.dropwizard.metrics metrics-graphite 4.2.15
io.dropwizard.metrics metrics-jmx 4.2.15
io.dropwizard.metrics metrics-json 4.2.15
io.dropwizard.metrics metrics-jvm 4.2.15
io.github.resilience4j resilience4j-core 1.7.1
io.github.resilience4j resilience4j-retry 1.7.1
io.netty netty-all 4.1.87.Final
io.netty netty-buffer 4.1.87.Final
io.netty netty-codec 4.1.87.Final
io.netty netty-codec-http2 4.1.87.Final
io.netty netty-codec-http-4 4.1.87.Final
io.netty netty-codec-socks 4.1.87.Final
io.netty netty-common 4.1.87.Final
io.netty netty-handler 4.1.87.Final
io.netty netty-handler-proxy 4.1.87.Final
io.netty netty-resolver 4.1.87.Final
io.netty netty-transport 4.1.87.Final
io.netty netty-transport-classes-epoll 4.1.87.Final
io.netty netty-transport-classes-kqueue 4.1.87.Final
io.netty netty-transport-native-epoll 4.1.87.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.87.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.87.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.87.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.87.Final
io.opentracing opentracing-api 0.33.0
io.opentracing opentracing-noop 0.33.0
io.opentracing opentracing-util 0.33.0
io.spray spray-json_2.12 1.3.5
io.vavr vavr 0.10.4
io.vavr vavr-match 0.10.4
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.inject jakarta.inject 2.6.1
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
jakarta.xml.bind jakarta.xml.bind-api 2.3.2
javax.activation activation 1.1.1
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction transaction-api 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.2
mysql mysql-connector-java 8.0.18
net.razorvine pickle 1.3
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.py4j py4j 0.10.9.7
net.sourceforge.f2j arpack_combined_all 0.1
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.apache.arrow arrow-format 11.0.0
org.apache.arrow arrow-memory-core 11.0.0
org.apache.arrow arrow-memory-netty 11.0.0
org.apache.arrow arrow-vector 11.0.0
org.apache.avro avro 1.11.1
org.apache.avro avro-ipc 1.11.1
org.apache.avro avro-mapred 1.11.1
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.22
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-pool2 2.11.1
org.apache.commons commons-text 1.10.0
org.apache.curator curator-client 2.13.0
org.apache.curator curator-framework 2.13.0
org.apache.curator curator-recipes 2.13.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop hadoop-aliyun 3.3.4.5.3-105251583
org.apache.hadoop hadoop-annotations 3.3.4.5.3-105251583
org.apache.hadoop hadoop-aws 3.3.4.5.3-105251583
org.apache.hadoop hadoop-azure 3.3.4.5.3-105251583
org.apache.hadoop hadoop-azure-datalake 3.3.4.5.3-105251583
org.apache.hadoop hadoop-client-api 3.3.4.5.3-105251583
org.apache.hadoop hadoop-client-runtime 3.3.4.5.3-105251583
org.apache.hadoop hadoop-cloud-storage 3.3.4.5.3-105251583
org.apache.hadoop hadoop-openstack 3.3.4.5.3-105251583
org.apache.hadoop hadoop-shaded-guava 1.1.1
org.apache.hadoop hadoop-yarn-server-web-proxy 3.3.4.5.3-105251583
org.apache.hive hive-common 2.3.9
org.apache.hive hive-exec 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-metastore 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims-0.23 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-shims-common 2.3.9
org.apache.hive hive-shims-scheduler 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.httpcomponents httpmime 4.5.14
org.apache.httpcomponents.client5 httpclient5 5.1.3
org.apache.iceberg delta-iceberg 2.4.0.6
org.apache.ivy ivy 2.5.1
org.apache.kafka kafka-clients 3.3.2
org.apache.logging.log4j log4j-1.2-api 2.19.0
org.apache.logging.log4j log4j-api 2.19.0
org.apache.logging.log4j log4j-core 2.19.0
org.apache.logging.log4j log4j-slf4j-impl 2.19.0
org.apache.orc orc-core 1.8.4
org.apache.orc orc-mapreduce 1.8.4
org.apache.orc orc-shims 1.8.4
org.apache.parquet parquet-column 1.12.3
org.apache.parquet parquet-common 1.12.3
org.apache.parquet parquet-encoding 1.12.3
org.apache.parquet parquet-format-structures 1.12.3
org.apache.parquet parquet-hadoop 1.12.3
org.apache.parquet parquet-jackson 1.12.3
org.apache.qpid proton-j 0.33.8
org.apache.spark spark-avro_2.12 3.4.1.5.3-105251583
org.apache.spark spark-catalyst_2.12 3.4.1.5.3-105251583
org.apache.spark spark-core_2.12 3.4.1.5.3-105251583
org.apache.spark spark-graphx_2.12 3.4.1.5.3-105251583
org.apache.spark spark-hadoop-cloud_2.12 3.4.1.5.3-105251583
org.apache.spark spark-hive_2.12 3.4.1.5.3-105251583
org.apache.spark spark-kvstore_2.12 3.4.1.5.3-105251583
org.apache.spark spark-launcher_2.12 3.4.1.5.3-105251583
org.apache.spark spark-mllib_2.12 3.4.1.5.3-105251583
org.apache.spark spark-mllib-local_2.12 3.4.1.5.3-105251583
org.apache.spark spark-network-common_2.12 3.4.1.5.3-105251583
org.apache.spark spark-network-shuffle_2.12 3.4.1.5.3-105251583
org.apache.spark spark-repl_2.12 3.4.1.5.3-105251583
org.apache.spark spark-sketch_2.12 3.4.1.5.3-105251583
org.apache.spark spark-sql_2.12 3.4.1.5.3-105251583
org.apache.spark spark-sql-kafka-0-10_2.12 3.4.1.5.3-105251583
org.apache.spark spark-streaming_2.12 3.4.1.5.3-105251583
org.apache.spark spark-streaming-kafka-0-10-assembly_2.12 3.4.1.5.3-105251583
org.apache.spark spark-tags_2.12 3.4.1.5.3-105251583
org.apache.spark spark-token-provider-kafka-0-10_2.12 3.4.1.5.3-105251583
org.apache.spark spark-unsafe_2.12 3.4.1.5.3-105251583
org.apache.spark spark-yarn_2.12 3.4.1.5.3-105251583
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4,22
org.apache.yetus audience-annotations 0.5.0
org.apache.zookeeper zookeeper 3.6.3.5.3-105251583
org.apache.zookeeper zookeeper-jute 3.6.3.5.3-105251583
org.apiguardian apiguardian-api 1.1.0
org.codehaus.janino commons-compiler 3.1.9
org.codehaus.janino janino 3.1.9
org.codehaus.jettison jettison 1.1
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleusjavax.jdo 3.2.0-m3
org.eclipse.jetty jetty-util 9.4.50.v20221201
org.eclipse.jetty jetty-util-ajax 9.4.50.v20221201
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.jaxb jaxb-runtime 2.3.2
org.glassfish.jersey.containers jersey-container-servlet 2,36
org.glassfish.jersey.containers jersey-container-servlet-core 2,36
org.glassfish.jersey.core jersey-client 2,36
org.glassfish.jersey.core jersey-common 2,36
org.glassfish.jersey.core jersey-server 2,36
org.glassfish.jersey.inject jersey-hk2 2,36
org.ini4j ini4j 0.5.4
org.javassist javassist 3.25.0-GA
org.javatuples javatuples 1.2
org.jdom jdom2 2.0.6
org.jetbrains annotations 17.0.0
org.jodd jodd-core 3.5.2
org.json json 20210307
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.junit.jupiter junit-jupiter 5.5.2
org.junit.jupiter junit-jupiter-api 5.5.2
org.junit.jupiter junit-jupiter-engine 5.5.2
org.junit.jupiter junit-jupiter-params 5.5.2
org.junit.platform junit-platform-commons 1.5.2
org.junit.platform junit-platform-engine 1.5.2
org.lz4 lz4-java 1.8.0
org.objenesis objenesis 3.2
org.openpnp opencv 3.2.0-1
org.opentest4j opentest4j 1.2.0
org.postgresql postgresql 42.2.9
org.roaringbitmap RoaringBitmap 0.9.38
org.roaringbitmap shims 0.9.38
org.rocksdb rocksdbjni 7.9.2
org.scala-lang scala-compiler 2.12.17
org.scala-lang scala-library 2.12.17
org.scala-lang scala-reflect 2.12.17
org.scala-lang.modules scala-collection-compat_2.12 2.7.0
org.scala-lang.modules scala-java8-compat_2.12 0.9.0
org.scala-lang.modules scala-parser-combinators_2.12 2.1.1
org.scala-lang.modules scala-xml_2.12 2.1.0
org.scalactic scalactic_2.12 3.2.14
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.slf4j jcl-over-slf4j 2.0.6
org.slf4j jul-to-slf4j 2.0.6
org.slf4j slf4j-api 2.0.6
org.threeten threeten-extra 1.7.1
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel spire_2.12 0.17.0
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.0.7.Final
org.xerial.snappy snappy-java 1.1.10.1
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
stax stax-api 1.0.1

Packages de niveau par défaut pour Python

Le tableau ci-dessous répertorie tous les packages de niveau par défaut pour Python et leurs versions respectives.

Bibliothèque Version Bibliothèque Version Bibliothèque Version
_libgcc_mutex 0.1 jupyter_client 8.5.0 pycosat 0.6.6
_openmp_mutex 4.5 jupyter_core 5.4.0 pycparser 2.21
_py-xgboost-mutex 2.0 jupyter_events 0.8.0 pydantic 1.10.9
absl-py 2.0.0 jupyter_server 2.7.3 pygments 2.16.1
adal 1.2.7 jupyter_server_terminals 0.4.4 pyjwt 2.8.0
adlfs 2023.4.0 jupyterlab_pygments 0.2.2 pynacl 1.5.0
aiohttp 3.8.6 jupyterlab_widgets 3.0.9 pyodbc 4.0.39
aiosignal 1.3.1 keras 2.12.0 pyopenssl 23.2.0
alembic 1.12.0 keras-preprocessing 1.1.2 pyparsing 3.0.9
alsa-lib 1.2.10 keyutils 1.6.1 pyperclip 1.8.2
ansi2html 1.8.0 kiwisolver 1.4.5 pypika 0.48.9
anyio 3.7.1 krb5 1.21.2 pyqt 5.15.9
appdirs 1.4.4 lame=3.100 3.100 pyqt5-sip 12.12.2
argon2-cffi 23.1.0 lcms2 2.15 pysocks 1.7.1
argon2-cffi-bindings 21.2.0 ld_impl_linux-64 2.40 python 3.10.12
flèche 1.3.0 lerc 4.0.0 python-dateutil 2.8.2
asttokens 2.4.0 liac-arff 2.5.0 python-fastjsonschema 2.18.1
astunparse 1.6.3 libabseil 20230125.3 python-flatbuffers 23.5.26
async-timeout 4.0.3 libaec 1.1.2 python-graphviz 0.20.1
atk-1.0 2.38.0 libarrow 12.0.1 python-json-logger 2.0.7
attr 2.5.1 libbrotlicommon 1.0.9 python-tzdata 2023.3
attrs 23.1.0 libbrotlidec 1.0.9 python-xxhash 3.4.1
autopage 0.5.2 libbrotlienc 1.0.9 python_abi 3.10
aws-c-auth 0.7.3 libcap 2.69 pythonnet 3.0.1
aws-c-cal 0.6.1 libclang 15.0.7 pytorch 2.0.1
aws-c-common 0.9.0 libclang13 15.0.7 pytorch-mutex 1.0
aws-c-compression 0.2.17 libcrc32c 1.1.2 pytz 2023.3.post1
aws-c-event-stream 0.3.1 libcups 2.3.3 pyu2f 0.1.5
aws-c-http 0.7.11 libcurl 8.4.0 pywin32-on-windows 0.1.0
aws-c-io 0.13.32 libdeflate 1,19 pyyaml 6.0.1
aws-c-mqtt 0.9.3 libebm 0.4.3 pyzmq 25.1.1
aws-c-s3 0.3.14 libedit 3.1.20191231 qt-main 5.15.8
aws-c-sdkutils 0.1.12 libev 4.33 rdma-core 28,9
aws-checksums 0.1.17 libevent 2.1.12 re2 2023.03.02
aws-crt-cpp 0.21.0 libexpat 2.5.0 readline 8,2
aws-sdk-cpp 1.10.57 libffi 3.4.2 referencing 0.30.2
azure-core 1.29.4 libflac 1.4.3 regex 2023.8.8
azure-datalake-store 0.0.51 libgcc-ng 13.2.0 requests 2.31.0
azure-identity 1.14.1 libgcrypt 1.10.1 requests-oauthlib 1.3.1
azure-storage-blob 12.18.3 libgd 2.3.3 retrying 1.3.3
azure-storage-file-datalake 12.12.0 libgfortran-ng 13.2.0 rfc3339-validator 0.1.4
backcall 0.2.0 libgfortran5 13.2.0 rfc3986-validator 0.1.1
backoff 1.11.1 libglib 2.78.0 rich 13.6.0
backports 1.0 libgoogle-cloud 2.12.0 rpds-py 0.10.6
backports.functools_lru_cache 1.6.5 libgpg-error 1.47 rsa 4,9
bcrypt 4.0.1 libgrpc 1.54.3 ruamel_yaml 0.17.32
beautifulsoup4 4.12.2 libhwloc 2.9.3 ruamel.yaml.clib 0.2.7
blas 1.0 libiconv 1.17 ruamel_yaml 0.15.80
bleach 6.1.0 libjpeg-turbo 2.1.5.1 s2n 1.3.49
blinker 1.6.3 libllvm14 14.0.6 sacremoses 0.0.53
brotli 1.0.9 libllvm15 15.0.7 salib 1.4.7
brotli-bin 1.0.9 libnghttp2 1.52.0 scikit-learn 1.3.0
brotli-python 1.0.9 libnsl 2.0.1 scipy 1.10.1
bzip2 1.0.8 libnuma 2.0.16 seaborn 0.12.2
c-ares 1.20.1 libogg 1.3.4 seaborn-base 0.12.2
ca-certificates 2023.7.22 libopus 1.3.1 send2trash 1.8.2
cached-property 1.5.2 libpng 1.6.39 sentence-transformers 2.0.0
cached_property 1.5.2 libpq 15,4 sentry-sdk 1.32.0
cachetools 5.3.2 libprotobuf 3.21.12 seqeval 1.2.2
cairo 1.18.0 libpulsar 3.2.0 setproctitle 1.3.3
catboost 1.1.1 librsvg 2.56.3 setuptools 68.2.2
certifi 2023.7.22 libsndfile 1.2.2 shap 0.42.1
cffi 1.16.0 libsodium 1.0.18 shellingham 1.5.4
charset-normalizer 3.3.1 libsqlite 3.43.2 sip 6.7.12
chroma-hnswlib 0.7.3 libssh2 1.11.0 six 1.16.0
chromadb 0.4.13 libstdcxx-ng 13.2.0 segment 0.0.7
click 8.1.7 libsystemd0 254 smmap 5.0.0
cliff 4.2.0 libthrift 0.18.1 snappy 1.1.10
cloudpickle 2.2.1 libtiff 4.6.0 sniffio 1.3.0
clr_loader 0.2.6 libtool==2.4.2 2.4.7 soupsieve 2,5
cmaes 0.10.0 libutf8proc 2.8.0 sqlalchemy 2.0.22
cmd2 2.4.3 libuuid 2.38.1 sqlparse 0.4.4
colorama 0.4.6 libuv 1.46.0 stack_data 0.6.2
coloredlogs 15.0.1 libvorbis 1.3.7 starlette 0.27.0
colorlog 6.7.0 libwebp 1.3.2 statsmodels 0.14.0
comm 0.1.4 libwebp-base 1.3.2 stevedore 5.1.0
conda-package-handling 2.2.0 libxcb 1.15 sympy 1.12
conda-package-streaming 0.9.0 libxgboost 1.7.6 tabulate 0.9.0
configparser 5.3.0 libxkbcommon 1.6.0 tbb 2021.10.0
contourpy 1.1.1 libxml2 2.11.5 tenacity 8.2.3
chiffrement 41.0.5 libxslt 1.1.37 tensorboard 2.12.3
cycler 0.12.1 libzlib 1.2.13 tensorboard-data-server 0.7.0
cython 3.0.4 lightgbm 4.0.0 tensorflow 2.12.1
tiret 2.14.0 lime 0.2.0.1 tensorflow-base 2.12.1
dash-core-components 2.0.0 llvm-openmp 17.0.3 tensorflow-estimator 2.12.1
dash-html-components 2.0.0 llvmlite 0.40.1 termcolor 2.3.0
dash-table 5.0.0 lxml 4.9.3 terminado 0.17.1
dash_cytoscape 0.2.0 lz4-c 1.9.4 threadpoolctl 3.2.0
databricks-cli 0.18.0 mako 1.2.4 tiktoken 0.5.1
dataclasses 0,8 markdown 3.4.4 tinycss2 1.2.1
jeux de données 2.14.6 markdown-it-py 3.0.0 tk 8.6.13
dbus 1.13.6 markupsafe 2.1.3 générateurs de jetons 0.13.3
debugpy 1.8.0 matplotlib 3.7.2 toml 0.10.2
decorator 5.1.1 matplotlib-base 3.7.2 tomli 2.0.1
defusedxml 0.7.1 matplotlib-inline 0.1.6 toolz 0.12.0
dill 0.3.7 mdurl 0.1.0 tornado 6.3.3
diskcache 5.6.3 mistune 3.0.1 tqdm 4.66.1
distlib 0.3.7 mkl 2021.4.0 traitlets 5.12.0
docker-py 6.1.3 mkl-service 2.4.0 transformateurs 4.26.0
docker-pycreds 0.4.0 mkl_fft 1.3.1 treeinterpreter 0.2.2
entrypoints 0,4 mkl_random 1.2.2 typed-ast 1.5.5
et_xmlfile 1.1.0 ml_dtypes 0.3.1 typer 0.9.0
exceptiongroup 1.1.3 mlflow-skinny 2.6.0 types-python-dateutil 2.8.19.14
exécuter 1.2.0 monotonic 1.5 types-pytz 2023.3.1.1
expat 2.5.0 mpc 1.3.1 typing_extensions 4.5.0
fastapi 0.103.2 mpfr 4.2.1 typing_utils 0.1.0
flaml 2.1.1dev2 mpg123 1.32.3 tzdata 2023c
flask 3.0.0 mpmath 1.3.0 ucx 1.14.1
flatbuffers 23.5.26 msal 1.24.1 unicodedata2 15.1.0
font-ttf-dejavu-sans-mono 2,37 msal_extensions 1.0.0 unixodbc 2.3.12
font-ttf-inconsolata 3.000 multidict 6.0.4 uri-template 1.3.0
font-ttf-source-code-pro 2.038 multiprocess 0.70.15 urllib3 1.26.17
font-ttf-ubuntu 0.83 munkres 1.1.4 uvicorn 0.23.2
fontconfig 2.14.2 mysql-common 8.0.33 virtualenv 20.23.1
fonts-conda-ecosystem 1 mysql-libs 8.0.33 wandb 0.15.12
fonts-conda-forge 1 nbclient 0.8.0 wcwidth 0.2.8
fonttools 4.43.1 nbconvert-core 7.9.2 webcolors 1.13
fqdn 1.5.1 nbformat 5.9.2 webencodings 0.5.1
freetype 2.12.1 ncurses 6.4 websocket-client 1.6.4
fribidi 1.0.10 nest-asyncio 1.5.8 werkzeug 3.0.1
frozenlist 1.4.0 networkx 3.2 wheel 0.41.2
fsspec 2023.10.0 nltk 3.8.1 widgetsnbextension 4.0.9
gast 0.4.0 nspr 4.35 wrapt 1.15.0
gdk-pixbuf 2.42.10 nss 3,94 xcb-util 0.4.0
geographiclib 1,52 numba 0.57.1 xcb-util-image 0.4.0
geopy 2.3.0 numpy 1.24.3 xcb-util-keysyms 0.4.0
gettext 0.21.1 numpy-base 1.24.3 xcb-util-renderutil 0.3.9
gevent 23.9.0.post1 oauthlib 3.2.2 xcb-util-wm 0.4.1
gflags 2.2.2 onnxruntime 1.16.1 xgboost 1.7.6
giflib 5.2.1 openai 0.27.8 xkeyboard-config 2.40
gitdb 4.0.11 openjpeg 2.5.0 xorg-kbproto 1.0.7
gitpython 3.1.40 openpyxl 3.1.2 xorg-libice 1.1.1
glib 2.78.0 openssl 3.1.4 xorg-libsm 1.2.4
glib-tools 2.78.0 opt-einsum 3.3.0 xorg-libx11 1.8.7
glog 0.6.0 opt_einsum 3.3.0 xorg-libxau 1.0.11
gmp 6.2.1 optuna 2.8.0 xorg-libxdmcp 1.1.3
gmpy2 2.1.2 orc 1.9.0 xorg-libxext 1.3.4
google-auth 2.23.3 remplace 7.4.0 xorg-libxrender 0.9.11
google-auth-oauthlib 1.0.0 empaquetage 23,2 xorg-renderproto 0.11.1
google-pasta 0.2.0 pandas 2.0.3 xorg-xextproto 7.3.0
graphite2 1.3.13 pandas-stubs 2.1.1.230928 xorg-xf86vidmodeproto 2.3.1
graphviz 8.1.0 pandasql 0.7.3 xorg-xproto 7.0.31
greenlet 3.0.1 pandocfilters 1.5.0 xxhash 0.8.2
grpcio 1.54.3 pango 1.50.14 xz 5.2.6
gst-plugins-base 1.22.6 paramiko 3.3.1 yaml 0.2.5
gstreamer 1.22.6 parso 0.8.3 yarl 1.9.2
gtk2 2.24.33 pathos 0.3.1 zeromq 4.3.5
gts 0.7.6 pathtools 0.1.2 zipp 3.17.0
h11 0.14.0 patsy 0.5.3 zlib 1.2.13
h5py 3.10.0 pbr 5.11.1 zope.event 5.0
harfbuzz 8.2.1 pcre2 10.40 zope.interface 6.1
hdf5 1.14.2 pexpect 4.8.0 zstandard 0.21.0
holidays 0,35 pickleshare 0.7.5 zstd 1.5.5
html5lib 1.1 pillow 10.0.1 astor 0.8.1
huggingface_hub 0.18.0 pip 23.1.2 contextlib2 21.6.0
humanfriendly 10.0 pixman 0.42.2 filelock 3.11.0
icu 73,2 pkgutil-resolve-name 1.3.10 fluent-logger 0.10.0
idna 3.4 platformdirs 3.5.1 gson 0.0.3
imageio 2.31.1 plotly 5.16.1 jaraco-context 4.3.0
importlib-metadata 6.8.0 ply 3.11 joblibspark 0.5.2
importlib-resources 6.1.0 pooch 1.8.0 json-tricks 3.17.3
importlib_metadata 6.8.0 portalocker 2.8.2 jupyter-ui-poll 0.2.2
importlib_resources 6.1.0 posthog 3.0.2 more-itertools 10.1.0
intel-openmp 2021.4.0 pox 0.3.3 msgpack 1.0.7
interpret 0.4.3 ppft 1.7.6.7 mypy 1.4.1
interpret-core 0.4.3 prettytable 3.8.0 mypy-extensions 1.0.0
ipykernel 6.26.0 prometheus_client 0.17.1 nni 2.10.1
ipython 8.14.0 prompt-toolkit 3.0.39 powerbiclient 3.1.1
ipywidgets 8.0.7 prompt_toolkit 3.0.39 pyspark 3.4.1.5.3.20230713
isodate 0.6.1 protobuf 4.21.12 pythonwebhdfs 0.2.3
isoduration 20.11.0 psutil 5.9.5 responses 0.23.3
itsdangerous 2.1.2 pthread-stubs 0,4 rouge-score 0.1.2
jax 0.4.17 ptyprocess 0.7.0 schéma 0.7.5
jaxlib 0.4.14 pulsar-client 3.3.0 simplejson 3.19.2
jedi 0.19.1 pulseaudio-client 16,1 synapseml-mlflow 1.0.22.post2
jinja2 3.1.2 pure_eval 0.2.2 synapseml-utils 1.0.18.post1
joblib 1.3.2 py-xgboost 1.7.6 typeguard 2.13.3
jsonpointer 2.4 py4j 0.10.9.7 types-pyyaml 6.0.12.12
jsonschema 4.19.1 pyarrow 12.0.1 typing-extensions 4.8.0
jsonschema-specifications 2023.7.1 pyasn1 0.5.0 websockets 12.0
jsonschema-with-format-nongpl 4.19.1 pyasn1-modules 0.3.0 wolframalpha 5.0.0
xmltodict 0.13.0

Packages de niveau par défaut pour R

Le tableau ci-dessous répertorie tous les packages de niveau par défaut pour R et leurs versions respectives.

Bibliothèque Version Bibliothèque Version Bibliothèque Version
_libgcc_mutex 0.1 r-caret 6.0_94 r-praise 1.0.0
_openmp_mutex 4.5 r-cellranger 1.1.0 r-prettyunits 1.2.0
_r-mutex 1.0.1 r-class 7.3_22 r-proc 1.18.4
_r-xgboost-mutex 2.0 r-cli 3.6.1 r-processx 3.8.2
aws-c-auth 0.7.0 r-clipr 0.8.0 r-prodlim 2023.08.28
aws-c-cal 0.6.0 r-clock 0.7.0 r-profvis 0.3.8
aws-c-common 0.8.23 r-codetools 0.2_19 r-progress 1.2.2
aws-c-compression 0.2.17 r-collections 0.3.7 r-progressr 0.14.0
aws-c-event-stream 0.3.1 r-colorspace 2.1_0 r-promises 1.2.1
aws-c-http 0.7.10 r-commonmark 1.9.0 r-proxy 0.4_27
aws-c-io 0.13.27 r-config 0.3.2 r-pryr 0.1.6
aws-c-mqtt 0.8.13 r-conflicted 1.2.0 r-ps 1.7.5
aws-c-s3 0.3.12 r-coro 1.0.3 r-purrr 1.0.2
aws-c-sdkutils 0.1.11 r-cpp11 0.4.6 r-quantmod 0.4.25
aws-checksums 0.1.16 r-crayon 1.5.2 r-r2d3 0.2.6
aws-crt-cpp 0.20.2 r-credentials 2.0.1 r-r6 2.5.1
aws-sdk-cpp 1.10.57 r-crosstalk 1.2.0 r-r6p 0.3.0
binutils_impl_linux-64 2.40 r-crul 1.4.0 r-ragg 1.2.6
bwidget 1.9.14 r-curl 5.1.0 r-rappdirs 0.3.3
bzip2 1.0.8 r-data.table 1.14.8 r-rbokeh 0.5.2
c-ares 1.20.1 r-dbi 1.1.3 r-rcmdcheck 1.4.0
ca-certificates 2023.7.22 r-dbplyr 2.3.4 r-rcolorbrewer 1.1_3
cairo 1.18.0 r-desc 1.4.2 r-rcpp 1.0.11
cmake 3.27.6 r-devtools 2.4.5 r-reactable 0.4.4
curl 8.4.0 r-diagram 1.6.5 r-reactr 0.5.0
expat 2.5.0 r-dials 1.2.0 r-readr 2.1.4
font-ttf-dejavu-sans-mono 2,37 r-dicedesign 1.9 r-readxl 1.4.3
font-ttf-inconsolata 3.000 r-diffobj 0.3.5 r-recipes 1.0.8
font-ttf-source-code-pro 2.038 r-digest 0.6.33 r-rematch 2.0.0
font-ttf-ubuntu 0.83 r-downlit 0.4.3 r-rematch2 2.1.2
fontconfig 2.14.2 r-dplyr 1.1.3 r-remotes 2.4.2.1
fonts-conda-ecosystem 1 r-dtplyr 1.3.1 r-reprex 2.0.2
fonts-conda-forge 1 r-e1071 1.7_13 r-reshape2 1.4.4
freetype 2.12.1 r-ellipsis 0.3.2 r-rjson 0.2.21
fribidi 1.0.10 r-evaluate 0.23 r-rlang 1.1.1
gcc_impl_linux-64 13.2.0 r-fansi 1.0.5 r-rlist 0.4.6.2
gettext 0.21.1 r-farver 2.1.1 r-rmarkdown 2.22
gflags 2.2.2 r-fastmap 1.1.1 r-rodbc 1.3_20
gfortran_impl_linux-64 13.2.0 r-fontawesome 0.5.2 r-roxygen2 7.2.3
glog 0.6.0 r-forcats 1.0.0 r-rpart 4.1.21
glpk 5.0 r-foreach 1.5.2 r-rprojroot 2.0.3
gmp 6.2.1 r-forge 0.2.0 r-rsample 1.2.0
graphite2 1.3.13 r-fs 1.6.3 r-rstudioapi 0.15.0
gsl 2.7 r-furrr 0.3.1 r-rversions 2.1.2
gxx_impl_linux-64 13.2.0 r-future 1.33.0 r-rvest 1.0.3
harfbuzz 8.2.1 r-future.apply 1.11.0 r-sass 0.4.7
icu 73,2 r-gargle 1.5.2 r-scales 1.2.1
kernel-headers_linux-64 2.6.32 r-generics 0.1.3 r-selectr 0.4_2
keyutils 1.6.1 r-gert 2.0.0 r-sessioninfo 1.2.2
krb5 1.21.2 r-ggplot2 3.4.2 r-shape 1.4.6
ld_impl_linux-64 2.40 r-gh 1.4.0 r-shiny 1.7.5.1
lerc 4.0.0 r-gistr 0.9.0 r-slider 0.3.1
libabseil 20230125.3 r-gitcreds 0.1.2 r-sourcetools 0.1.7_1
libarrow 12.0.0 r-globals 0.16.2 r-sparklyr 1.8.2
libblas 3.9.0 r-glue 1.6.2 r-squarem 2021.1
libbrotlicommon 1.0.9 r-googledrive 2.1.1 r-stringi 1.7.12
libbrotlidec 1.0.9 r-googlesheets4 1.1.1 r-stringr 1.5.0
libbrotlienc 1.0.9 r-gower 1.0.1 r-survival 3.5_7
libcblas 3.9.0 r-gpfit 1.0_8 r-sys 3.4.2
libcrc32c 1.1.2 r-gt 0.9.0 r-systemfonts 1.0.5
libcurl 8.4.0 r-gtable 0.3.4 r-testthat 3.2.0
libdeflate 1,19 r-gtsummary 1.7.2 r-textshaping 0.3.7
libedit 3.1.20191231 r-hardhat 1.3.0 r-tibble 3.2.1
libev 4.33 r-haven 2.5.3 r-tidymodels 1.1.0
libevent 2.1.12 r-hexbin 1.28.3 r-tidyr 1.3.0
libexpat 2.5.0 r-highcharter 0.9.4 r-tidyselect 1.2.0
libffi 3.4.2 r-highr 0.10 r-tidyverse 2.0.0
libgcc-devel_linux-64 13.2.0 r-hms 1.1.3 r-timechange 0.2.0
libgcc-ng 13.2.0 r-htmltools 0.5.6.1 r-timedate 4022.108
libgfortran-ng 13.2.0 r-htmlwidgets 1.6.2 r-tinytex 0,48
libgfortran5 13.2.0 r-httpcode 0.3.0 r-torch 0.11.0
libgit2 1.7.1 r-httpuv 1.6.12 r-triebeard 0.4.1
libglib 2.78.0 r-httr 1.4.7 r-ttr 0.24.3
libgomp 13.2.0 r-httr2 0.2.3 r-tune 1.1.2
libgoogle-cloud 2.12.0 r-ids 1.0.1 r-tzdb 0.4.0
libgrpc 1.55.1 r-igraph 1.5.1 r-urlchecker 1.0.1
libiconv 1.17 r-infer 1.0.5 r-urltools 1.7.3
libjpeg-turbo 3.0.0 r-ini 0.3.1 r-usethis 2.2.2
liblapack 3.9.0 r-ipred 0.9_14 r-utf8 1.2.4
libnghttp2 1.55.1 r-isoband 0.2.7 r-uuid 1.1_1
libnuma 2.0.16 r-iterators 1.0.14 r-v8 4.4.0
libopenblas=0.3.12 0.3.24 r-jose 1.2.0 r-vctrs 0.6.4
libpng 1.6.39 r-jquerylib 0.1.4 r-viridislite 0.4.2
libprotobuf 4.23.2 r-jsonlite 1.8.7 r-vroom 1.6.4
libsanitizer 13.2.0 r-juicyjuice 0.1.0 r-waldo 0.5.1
libssh2 1.11.0 r-kernsmooth 2.23_22 r-warp 0.2.0
libstdcxx-devel_linux-64 13.2.0 r-knitr 1,45 r-whisker 0.4.1
libstdcxx-ng 13.2.0 r-labeling 0.4.3 r-withr 2.5.2
libthrift 0.18.1 r-labelled 2.12.0 r-workflows 1.1.3
libtiff 4.6.0 r-later 1.3.1 r-workflowsets 1.0.1
libutf8proc 2.8.0 r-lattice 0.22_5 r-xfun 0.41
libuuid 2.38.1 r-lava 1.7.2.1 r-xgboost 1.7.4
libuv 1.46.0 r-lazyeval 0.2.2 r-xml 3.99_0.14
libv8 8.9.83 r-lhs 1.1.6 r-xml2 1.3.5
libwebp-base 1.3.2 r-lifecycle 1.0.3 r-xopen 1.0.0
libxcb 1.15 r-lightgbm 3.3.5 r-xtable 1.8_4
libxgboost 1.7.4 r-listenv 0.9.0 r-xts 0.13.1
libxml2 2.11.5 r-lobstr 1.1.2 r-yaml 2.3.7
libzlib 1.2.13 r-lubridate 1.9.3 r-yardstick 1.2.0
lz4-c 1.9.4 r-magrittr 2.0.3 r-zip 2.3.0
make 4.3 r-maps 3.4.1 r-zoo 1.8_12
ncurses 6.4 r-markdown 1,11 rdma-core 28,9
openssl 3.1.4 r-mass 7.3_60 re2 2023.03.02
orc 1.8.4 r-matrix 1.6_1.1 readline 8,2
pandoc 2.19.2 r-memoise 2.0.1 rhash 1.4.4
pango 1.50.14 r-mgcv 1.9_0 s2n 1.3.46
pcre2 10.40 r-mime 0,12 sed 4.8
pixman 0.42.2 r-miniui 0.1.1.1 snappy 1.1.10
pthread-stubs 0,4 r-modeldata 1.2.0 sysroot_linux-64 2.12
r-arrow 12.0.0 r-modelenv 0.1.1 tk 8.6.13
r-askpass 1.2.0 r-modelmetrics 1.2.2.2 tktable 2,10
r-assertthat 0.2.1 r-modelr 0.1.11 ucx 1.14.1
r-backports 1.4.1 r-munsell 0.5.0 unixodbc 2.3.12
r-base 4.2.3 r-nlme 3.1_163 xorg-kbproto 1.0.7
r-base64enc 0.1_3 r-nnet 7.3_19 xorg-libice 1.1.1
r-bigd 0.2.0 r-numderiv 2016.8_1.1 xorg-libsm 1.2.4
r-bit 4.0.5 r-openssl 2.1.1 xorg-libx11 1.8.7
r-bit64 4.0.5 r-parallelly 1.36.0 xorg-libxau 1.0.11
r-bitops 1.0_7 r-parsnip 1.1.1 xorg-libxdmcp 1.1.3
r-blob 1.2.4 r-patchwork 1.1.3 xorg-libxext 1.3.4
r-brew 1.0_8 r-pillar 1.9.0 xorg-libxrender 0.9.11
r-brio 1.1.3 r-pkgbuild 1.4.2 xorg-libxt 1.3.0
r-broom 1.0.5 r-pkgconfig 2.0.3 xorg-renderproto 0.11.1
r-broom.helpers 1.14.0 r-pkgdown 2.0.7 xorg-xextproto 7.3.0
r-bslib 0.5.1 r-pkgload 1.3.3 xorg-xproto 7.0.31
r-cachem 1.0.8 r-plotly 4.10.2 xz 5.2.6
r-callr 3.7.3 r-plyr 1.8.9 zlib 1.2.13
zstd 1.5.5