Runtime 1.2
Microsoft Fabric Runtime est une plateforme intégrée à Azure basée sur Apache Spark qui permet l’exécution et la gestion d’expériences d’ingénierie des données et de science des données. Ce document couvre les composants et versions du Runtime 1.2.
Le runtime 1.2 de Microsoft Fabric est la dernière version du runtime en GA. Les principaux composants de Runtime 1.2 sont les suivants :
- Apache Spark 3.4.1
- Système d’exploitation : Mariner 2.0
- Java : 11
- Scala : 2.12.17
- Python : 3.10
- Delta Lake : 2.4.0
- R: 4.2.2
Microsoft Fabric Runtime 1.2 est fourni avec une collection de packages de niveau par défaut, y compris une installation complète d’Anaconda et des bibliothèques couramment utilisées pour Java/Scala, Python et R. Ces bibliothèques sont automatiquement incluses lors de l’utilisation de notebooks ou de travaux dans la plateforme Microsoft Fabric. Reportez-vous à la documentation pour obtenir la liste complète des bibliothèques. Microsoft Fabric déploie régulièrement des mises à jour de maintenance pour Runtime 1.2, fournissant des correctifs de bogues, des améliorations des performances et des correctifs de sécurité. Rester à jour garantit des performances et une fiabilité optimales pour vos tâches de traitement des données.
Nouvelles fonctionnalités et améliorations de la version 3.4.1 de Spark
Apache Spark 3.4.0 est la cinquième version de la ligne 3.x. Cette version, pilotée par la communauté open source, a résolu plus de 2 600 tickets Jira. Elle introduit un client Python pour Spark Connect, améliore la diffusion de flux structuré avec le suivi de progression asynchrone et le traitement avec état Python. Elle étend la couverture de l’API Pandas avec la prise en charge des entrées NumPy, simplifie la migration à partir d’entrepôts de données traditionnels par le biais de la conformité ANSI et de nouvelles fonctions intégrées. Elle améliore également la productivité et la capacité de débogage du développement avec le profilage de la mémoire. En outre, Runtime 1.2 est basé sur Apache Spark 3.4.1, une version de maintenance axée sur les correctifs de stabilité.
Points clés
- Implémentation de la prise en charge des valeurs DEFAULT pour les colonnes des tables (SPARK-38334)
- Prise en charge du type de données HORODATAGE SANS TIMESTAMP (SPARK-35662)
- Prise en charge des « références d’alias de colonne latérale » (SPARK-27561)
- Renforcer l’utilisation de SQLSTATE pour les classes d’erreur (SPARK-41994)
- Activer les jointures de filtre Bloom par défaut (SPARK-38841)
- Amélioration de la scalabilité de l’interface utilisateur Spark et de la stabilité des pilotes pour les applications volumineuses (SPARK-41053)
- Suivi de progression asynchrone dans la diffusion de flux structuré (SPARK-39591)
- Python Arbitrary Stateful Processing dans Structured Streaming avec Python (SPARK-40434)
- Améliorations de la couverture de l’API Pandas (SPARK-42882) et prise en charge des entrées NumPy dans PySpark (SPARK-39405)
- Fournir un profileur de mémoire pour les fonctions pySpark définies par l’utilisateur (SPARK-40281)
- Implémenter le serveur de distribution PyTorch (SPARK-41589)
- Publication des artefacts SBOM (nomenclature logicielle) (SPARK-41893)
- Implémentation de la prise en charge des valeurs DEFAULT pour les colonnes des tables (SPARK-38334)
- Prise en charge de SQL paramétrable (SPARK-41271, SPARK-42702)
- Implémentation de la prise en charge des valeurs DEFAULT pour les colonnes des tables (SPARK-38334)
- Ajouter Dataset.as(StructType) (SPARK-39625)
- Prise en charge de SQL paramétrable (SPARK-41271, SPARK-42702)
- Ajouter unpivot/ melt (SPARK-38864, SPARK-39876)
- Prise en charge des « références d’alias de colonne latérale » (SPARK-27561)
- Clause de décalage de résultat de prise en charge (SPARK-28330, SPARK-39159)
- Prise en charge de l’horodatage sans type de données de fuseau horaire (SPARK-35662)
- Prise en charge de la sous-requête scalaire dans le temps (SPARK-39306)
- Rendre l’API catalogue compatible avec l’espace de noms à 3 couches (SPARK-39235)
- Prise en charge de l’horodatage en secondes pour TimeTravel à l’aide des options de DataFrame [SPARK-39633]
- Ajouter SparkSession.config(Carte) (SPARK-40163)
- Prise en charge de la modification de la base de données par défaut du catalogue de sessions(SPARK-35242)
- Prise en charge de Protobuf pour Spark - from_protobuf AND to_protobuf (SPARK-40654)
- Ajout de la clause WHEN NOT MATCHED BY SOURCE à MERGE INTO (SPARK-40921)
- Contrainte de classement souple pour les options de colonne CREATE TABLE (SPARK-40944)
- Equivalent Sql de la commande Remplacer Dataframe (SPARK-40956)
- Prise en charge de la génération sans sortie enfant requise vers les références externes de l'hôte (SPARK-41441)
- ORDER BY ALL (SPARK-41637)
- GROUP BY ALL (SPARK-41635)
- Ajouter flatMapSortedGroups et cogroupSorted (SPARK-38591)
- Prise en charge de sous-requêtes avec des prédicats de non-égalité corrélés (SPARK-36114)
- Prise en charge des sous-requêtes avec corrélation via UNION/INTERSECT/EXCEPT (SPARK-36124)
- Correction de l’erreur OOM ne peut pas être signalée quand AQE (exécution de requête adaptative) est activé (SPARK-42290)
- Correction de la logique de découpage n’a pas correctement géré les caractères de contrôle ASCII (SPARK-44383)
- La jointure externe Dataframe.joinWith doit retourner une valeur Null pour une ligne sans correspondance (SPARK-37829)
- Utilisation des utilitaires pour obtenir le commutateur d’allocation dynamique utilisé dans le point de contrôle local (SPARK-42421)
- Ajout de CapturedException aux utilitaires (SPARK-42078)
- Prise en charge de SELECT DEFAULT avec ORDER BY, LIMIT, OFFSET pour la relation source INSERT (SPARK-43071)
- Client Python pour Spark Connect (SPARK-39375)
Lisez la version complète des notes de publication d’une version spécifique d’Apache Spark en visitant Spark 3.4.0 et Spark 3.4.1.
Nouvelles optimisations de requête personnalisées
Prise en charge des écritures simultanées dans Spark
La présence d’une erreur 404 avec le message « Échec de l’opération : le chemin spécifié n’existe pas » est un problème courant lors de l’exécution d’insertions de données parallèles dans la même table à l’aide d’une requête SQL INSERT INTO. Cette erreur peut entraîner une perte de données. Notre nouvelle fonctionnalité, l’algorithme de commiteur de sortie de fichier, résout ce problème, ce qui permet aux clients d’effectuer en toute transparence l’insertion de données parallèles.
Pour accéder à cette fonctionnalité, activez l’indicateur de fonctionnalité spark.sql.enable.concurrentWrites
, qui est activé par défaut à partir de Runtime 1.2 (Spark 3.4). Bien que cette fonctionnalité soit également disponible dans d’autres versions de Spark 3, elle n’est pas activée par défaut. Cette fonctionnalité ne prend pas en charge l’exécution parallèle de requêtes INSERT OVERWRITE où chaque travail simultané remplace les données sur différentes partitions de la même table de manière dynamique. À cet effet, Spark offre une autre fonctionnalité, qui peut être activée en configurant le paramètre spark.sql.sources.partitionOverwriteMode
sur dynamique.
Lectures actives, qui ignorent les fichiers des travaux ayant échoué
Dans le système de commiteur Spark actuel, lorsqu’une insertion dans un travail de table échoue mais que certaines tâches réussissent, les fichiers générés par les tâches réussies coexistent avec les fichiers du travail ayant échoué. Cette coexistence peut entraîner une confusion pour les utilisateurs, car il devient difficile de distinguer les fichiers appartenant à des travaux réussis et non réussis. En outre, lorsqu’un travail lit à partir d’une table tandis qu’un autre insère des données simultanément dans la même table, le travail de lecture peut accéder aux données non commitées. En cas d’échec d’un travail d’écriture, le travail de lecture peut traiter des données incorrectes.
L’indicateur spark.sql.auto.cleanup.enabled
contrôle notre nouvelle fonctionnalité, en répondant à ce problème. Lorsqu’il est activé, Spark ignore automatiquement la lecture des fichiers qui n’ont pas été commités lorsqu’il effectue spark.read
ou sélectionne des requêtes à partir d’une table. Les fichiers écrits avant l’activation de cette fonctionnalité continuent d’être lus comme d’habitude.
Voici les modifications visibles :
- Tous les fichiers incluent désormais un identificateur
tid-{jobID}
dans leurs noms de fichiers. - Au lieu du marqueur
_success
généralement créé à l’emplacement de sortie lors de la réussite de la tâche, un nouveau marqueur_committed_{jobID}
est généré. Ce marqueur associe les ID des travaux réussis à des noms de fichiers spécifiques. - Nous avons introduit une nouvelle commande SQL que les utilisateurs peuvent exécuter régulièrement pour gérer le stockage et nettoyer les fichiers non commités. La syntaxe de cette commande est la suivante :
- Pour nettoyer un répertoire spécifique :
CLEANUP ('/path/to/dir') [RETAIN number HOURS];
- Pour nettoyer une table spécifique :
CLEANUP [db_name.]table_name [RETAIN number HOURS];
Dans cette syntaxe,path/to/dir
représente l’URI d’emplacement où le nettoyage est requis etnumber
est une valeur de type double représentant la période de rétention. La période de rétention par défaut est définie à sept jours.
- Pour nettoyer un répertoire spécifique :
- Nous avons introduit une nouvelle option de configuration appelée
spark.sql.deleteUncommittedFilesWhileListing
, définie surfalse
par défaut. L’activation de cette option entraîne la suppression automatique de fichiers non commités pendant les lectures, mais ce scénario peut ralentir les opérations de lecture. Il est recommandé d’exécuter manuellement la commande de nettoyage lorsque le cluster est inactif au lieu d’activer cet indicateur.
Guide de migration de Runtime 1.1 vers Runtime 1.2
Lors de la migration de Runtime 1.1 avec Apache Spark 3.3, vers Runtime 1.2 avec Apache Spark 3.4, passez en revue le guide de migration officiel. Voici les principaux points forts :
Core
- À partir de Spark 3.4, le pilote Spark est propriétaire de
PersistentVolumnClaim
s et tente de le réutiliser s’ils ne sont pas affectés à des exécuteurs en direct. Pour restaurer le comportement utilisé avant la mise à niveau vers Spark 3.4, vous pouvez définirspark.kubernetes.driver.ownPersistentVolumeClaim
surfalse
etspark.kubernetes.driver.reusePersistentVolumeClaim
surfalse
. - À partir de Spark 3.4, le pilote Spark effectue le suivi des données aléatoires lorsque l’allocation dynamique est activée sans service aléatoire. Pour restaurer le comportement utilisé avant la mise à niveau vers Spark 3.4, vous pouvez définir
spark.dynamicAllocation.shuffleTracking.enabled
surfalse
. - À partir de Spark 3.4, Spark tente de désactiver le RDD (jeu de données distribué résilient) mis en cache et de randomiser les blocs si
spark.decommission.enabled
etspark.storage.decommission.enabled
sont vrais. Pour restaurer le comportement utilisé avant la mise à niveau vers Spark 3.4, vous pouvez définirspark.storage.decommission.rddBlocks.enabled
etspark.storage.decommission.shuffleBlocks.enabled
surfalse
. - À partir de Spark 3.4, Spark utilise le magasin RocksDB si
spark.history.store.hybridStore.enabled
est vrai. Pour restaurer le comportement utilisé avant la mise à niveau vers Spark 3.4, vous pouvez définirspark.history.store.hybridStore.diskBackend
surLEVELDB
.
PySpark
- Dans Spark 3.4, le schéma d’une colonne de tableau est déduit en fusionnant les schémas de tous les éléments du tableau. Pour restaurer le comportement précédent où le schéma est déduit uniquement à partir du premier élément, vous pouvez définir
spark.sql.pyspark.legacy.inferArrayTypeFromFirstElement.enabled
surtrue
. - Dans Spark 3.4, lorsque vous utilisez l’API Pandas sur Spark
Groupby.apply
, si le type de retour du paramètrefunc
n’est pas spécifié et quecompute.shortcut_limit
est défini sur 0, le nombre de lignes d’échantillonnage est automatiquement défini sur 2. Cet ajustement garantit qu’il existe toujours au moins deux lignes d’échantillonnage pour maintenir une inférence de schéma précise. - Dans Spark 3.4, si l’API Pandas sur Spark
Index.insert
est hors limites, elle déclenche IndexError avecindex {} is out of bounds for axis 0 with size {}
pour suivre le comportement de pandas 1.4. - Dans Spark 3.4, le nom de la série est conservé dans l’API Pandas sur Spark
Series.mode
pour s’aligner sur le comportement de pandas 1.4. - Dans Spark 3.4, l’API Pandas sur Spark
Index.__setitem__
vérifie d’abord que le typevalue
est le typeColumn
pour éviter de soulever desValueError
inattendus dansis_list_like
comme Impossible de convertir une colonne en bool : utilisez « & » pour « and », « | » pour « or », « ~ » pour « not » lors de la construction d’expressions booléennes DataFrame. - Dans Spark 3.4, l’API Pandas sur Spark
astype('category')
actualise égalementcategories.dtype
en fonction des données d’originedtype
pour suivre le comportement de pandas 1.4. - Dans Spark 3.4, l’API Pandas sur Spark prend en charge le regroupement par index positionnel dans
GroupBy.head
etGroupBy.tail
pour suivre pandas 1.4. Les arguments négatifs fonctionnent désormais correctement et entraînent des plages relatives à la fin et au début de chaque groupe. Auparavant, les arguments négatifs renvoyaient des trames vides. - Dans Spark 3.4, le processus de schéma déduit de
groupby.apply
dans Pandas sur Spark déduit d’abord le type pandas pour garantir la précision desdtype
pandas autant que possible. - Dans Spark 3.4, le paramètre de tri
Series.concat
est respecté pour suivre les comportements de pandas 1.4. - Dans Spark 3.4, le
DataFrame.__setitem__
copie et remplace les tableaux préexistants, qui ne seront PAS écrasés, pour suivre les comportements de pandas 1.4. - Dans Spark 3.4, le
SparkSession.sql
et l’API Pandas sur Sparksql
ont le nouveau paramètreargs
, qui fournit la liaison de paramètres nommés à leurs littéraux SQL. - Dans Spark 3.4, l’API Pandas sur Spark suit pour pandas 2.0 et certaines API ont été déconseillées ou supprimées dans Spark 3.4 en fonction des modifications apportées dans pandas 2.0. Reportez-vous aux [notes de publication de pandas](https://pandas.pydata.org/docs/dev/whatsnew/) pour plus d’informations.
SQL, jeux de données et trames de données
- À partir de Spark 3.4, les commandes INSERT INTO avec une liste de colonnes explicite comprenant moins de colonnes que la table cible ajoutent automatiquement les valeurs par défaut correspondantes pour les colonnes restantes (ou NULL pour toute colonne ne disposant pas d’une valeur par défaut attribuée explicitement). Dans Spark 3.3 ou version antérieure, ces commandes échoueraient en retournant des erreurs indiquant que le nombre de colonnes fournies ne correspond pas au nombre de colonnes dans la table cible. La désactivation de
spark.sql.defaultColumn.useNullsForMissingDefaultValues
entraîne la restauration du comportement précédent. - À partir de Spark 3.4, Number ou Number(*) de Teradata est traité comme Decimal(38,18). Dans Spark 3.3 ou version antérieure, Number ou Number(*) de Teradata est traité comme Decimal(38, 0), auquel cas la partie fractionnaire est supprimée.
- À partir de Spark 3.4, la base de données, la table, l’affichage permanent et l’identificateur de fonction v1 inclut « spark_catalog » comme nom de catalogue si la base de données est définie, par exemple, un identificateur de table est :
spark_catalog.default.t
. Pour restaurer le comportement hérité, définissezspark.sql.legacy.v1IdentifierNoCatalog
surtrue
. - À partir de Spark 3.4, lorsque le mode ANSI SQL (configuration
spark.sql.ansi.enabled
) est activé, Spark SQL retourne toujours le résultat NULL lors de l’obtention d’une valeur de carte avec une clé inexistante. Dans Spark 3.3 ou version antérieure, une erreur s’affiche. - Depuis Spark 3.4, l’interface CLI
spark-sql
SQL n’imprime pas le préfixeError in query:
avant le message d’erreur deAnalysisException
. - À partir de Spark 3.4, la fonction
split
ignore les chaînes vides de fin lorsque le paramètreregex
est vide. - Depuis Spark 3.4, la fonction
to_binary
lève une erreur pour une entréestr
incorrecte. Utiliseztry_to_binary
pour tolérer une entrée incorrecte et retourner la valeur NULL à la place.- La chaîne
Base64
valide doit inclure les symboles de l’alphabetbase64
(A-Za-z0-9+/), le remplissage facultatif (=
) et les espaces blancs facultatifs. Les espaces blancs sont ignorés dans la conversion, sauf lorsqu’ils sont précédés de symboles de remplissage. Si le remplissage est présent, il doit conclure la chaîne et suivre les règles décrites dans RFC 4648 § 4. - Les chaînes hexadécimales valides doivent inclure uniquement les symboles autorisés (0-9A-Fa-f).
- Les valeurs valides pour
fmt
sont au formathex
,base64
,utf-8
,utf8
et ne respectent pas la casse.
- La chaîne
- À partir de Spark 3.4, Spark lève uniquement
PartitionsAlreadyExistException
lorsqu’il crée des partitions, mais que certaines d’entre elles existent déjà. Dans Spark 3.3 ou version antérieure, Spark peut leverPartitionsAlreadyExistException
ouPartitionAlreadyExistsException
. - À partir de Spark 3.4, Spark valide la spécification de partition dans ALTER PARTITION pour suivre le comportement de
spark.sql.storeAssignmentPolicy
, ce qui peut provoquer une exception si la conversion de type échoue, par exempleALTER TABLE .. ADD PARTITION(p='a')
si la colonnep
est de type int. Pour restaurer le comportement hérité, définissezspark.sql.legacy.skipTypeValidationOnAlterPartition
surtrue
. - À partir de Spark 3.4, les lecteurs vectorisés sont activés par défaut pour les types de données imbriqués (tableau, carte et struct). Pour restaurer le comportement hérité, définissez
spark.sql.orc.enableNestedColumnVectorizedReader
etspark.sql.parquet.enableNestedColumnVectorizedReader
surfalse
. - À partir de Spark 3.4,
BinaryType
n’est pas pris en charge dans la source de données CSV. Dans Spark 3.3 ou version antérieure, les utilisateurs peuvent écrire des colonnes binaires dans la source de données CSV, mais le contenu de sortie dans les fichiers CSV estObject.toString()
, ce qui est sans signification ; pendant ce temps, si les utilisateurs lisent des tables CSV avec des colonnes binaires, Spark lève une exceptionUnsupported type: binary
. - À partir de Spark 3.4, les jointures de filtre bloom sont activées par défaut. Pour restaurer le comportement hérité, définissez
spark.sql.optimizer.runtime.bloomFilter.enabled
surfalse
.
Structured Streaming
- À partir de Spark 3.4,
Trigger.Once
est déconseillé et les utilisateurs sont encouragés à migrer deTrigger.Once
versTrigger.AvailableNow
. Pour plus d’informations, reportez-vous à SPARK-39805. - À partir de Spark 3.4, la valeur par défaut de la configuration pour l’extraction de décalage Kafka (
spark.sql.streaming.kafka.useDeprecatedOffsetFetching
) est remplacée detrue
àfalse
. Le comportement par défaut ne dépend plus de la planification basée sur un groupe de consommateurs, ce qui affecte la liste de contrôle d’accès requise. Pour plus d’informations, consultez Intégration Kafka de diffusion de flux structuré.
Améliorations et nouvelles fonctionnalités de Delta Lake 2.4
Delta Lake est un projet open source qui permet de créer une architecture lakehouse au-dessus des lacs de données. Delta Lake propose des transactions ACID et une gestion des métadonnées scalable, et il unifie le traitement de données en streaming et par lots par-dessus les lacs de données existants.
Plus précisément, Delta Lake offre :
- Transactions ACID sur Spark : les niveaux d’isolation sérialisables garantissent que les lecteurs ne voient jamais des données incohérentes.
- Gestion des métadonnées scalable : utilise la puissance de traitement distribuée Spark pour gérer toutes les métadonnées des tables à l’échelle du pétaoctet avec des milliards de fichiers en toute simplicité.
- Unification de la diffusion en continu et du traitement par lots : une table dans Delta Lake est une table de lots ainsi qu’une source et un récepteur de diffusion en continu. L’ingestion de données de streaming, le renvoi d’historique de lot et les requêtes interactives fonctionnent sans nécessiter de configuration.
- Mise en œuvre de schéma : gère automatiquement les variations de schéma afin d’empêcher l’insertion d’enregistrements incorrects lors de l’ingestion.
- Voyage dans le temps : le versioning de données autorise les restaurations, les pistes d’audit historiques complètes et les expériences de Machine Learning reproductibles.
- Upserts et suppressions : prend en charge les opérations de fusion, de mise à jour et de suppression pour activer des cas d’usage complexes tels que les opérations de capture des changements de données, les opérations de dimension à évolution lente (SCD), la diffusion en continu d’upserts, ainsi de suite.
Les principales fonctionnalités de cette version sont les suivantes
- Prise en charge d’Apache Spark 3.4.
- Prise en charge de l’écriture de vecteurs de suppression pour la commande
DELETE
. Auparavant, lors de la suppression de lignes d’une table Delta, tout fichier avec au moins une ligne correspondante serait réécrit. Avec les vecteurs de suppression, ces réécritures coûteuses peuvent être évitées. Pour plus d’informations, consultez Que sont les vecteurs de suppression ?. - Prise en charge de toutes les opérations d’écriture sur les tables avec les vecteurs de suppression activés.
- Prise en charge
PURGE
de la suppression de vecteurs de suppression de la version actuelle d’une table Delta en réécrivant tous les fichiers de données avec des vecteurs de suppression. Pour plus d’informations, consultez la documentation . - Prise en charge de la lecture du flux des changements de données pour les tables avec des vecteurs de suppression activés.
- Prise en charge
REPLACE WHERE
des expressions dans SQL pour remplacer de manière sélective les données. Auparavant, les options « replaceWhere » étaient uniquement prises en charge dans les API DataFrameWriter. - Prise en charge
WHEN NOT MATCHED BY SOURCE
des clauses dans SQL pour la commande Merge. - Prise en charge de l’omission des colonnes générées à partir de la liste des colonnes pour les requêtes SQL
INSERT INTO
. Delta génère automatiquement les valeurs des colonnes générées non spécifiées. - Prise en charge du type de données
TimestampNTZ
ajoutée dans Spark 3.3. L’utilisation deTimestampNTZ
nécessite une mise à niveau de protocole Delta ; consultez la documentation pour plus d’informations. - Autorisation de modifier le type de colonne d’une colonne
char
ouvarchar
en type compatible dans la commandeALTER TABLE
. Le nouveau comportement est le même que dans Apache Spark et permet l’upcasting dechar
ouvarchar
versvarchar
oustring
. - Blocage à l’aide de
overwriteSchema
avec le remplacement dynamique de partition. Ce scénario peut endommager la table, car toutes les données ne peuvent pas être supprimées, et le schéma des partitions nouvellement écrites ne peut pas correspondre au schéma des partitions inchangées. - Retour d’une valeur
DataFrame
vide pour les lectures de flux des changements de données lorsqu’il n’y a pas de validations dans la plage de timestamp fournie. Auparavant, une erreur serait levée. - Correction d’un bogue dans les lectures de flux des changements de données pour les enregistrements créés pendant l’heure ambiguë lors du changement d’heure d’été.
- Correction d’un bogue dans lequel l’interrogation d’une table Delta externe à la racine d’un compartiment S3 génère une erreur.
- Suppression des métadonnées Spark internes divulguées du journal Delta pour rendre à nouveau lisibles les tables affectées.
Lisez la version complète des notes de publication pour Delta Lake 2.4.
Packages de niveau par défaut pour les bibliothèques Java/Scala
Le tableau ci-dessous répertorie tous les packages de niveau par défaut pour Java/Scala et leurs versions respectives.
GroupId | ArtifactId | Version |
---|---|---|
com.aliyun | aliyun-java-sdk-core | 4.5.10 |
com.aliyun | aliyun-java-sdk-kms | 2.11.0 |
com.aliyun | aliyun-java-sdk-ram | 3.1.0 |
com.aliyun | aliyun-sdk-oss | 3.13.0 |
com.amazonaws | aws-java-sdk-bundle | 1.12.262 |
com.clearspring.analytics | flux | 2.9.6 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml.jackson | jackson-annotations | 2.14.2 |
com.fasterxml.jackson | jackson-core | 2.14.2 |
com.fasterxml.jackson | jackson-core-asl | 1.9.13 |
com.fasterxml.jackson | jackson-databind | 2.14.2 |
com.fasterxml.jackson | jackson-dataformat-cbor | 2.14.2 |
com.fasterxml.jackson | jackson-mapper-asl | 1.9.13 |
com.fasterxml.jackson | jackson-module-scala_2.12 | 2.14.2 |
com.github.joshelser | dropwizard-metrics-hadoop-metrics2-reporter | 0.1.2 |
com.github.luben | zstd-jni | 1.5.2-5 |
com.github.vowpalwabbit | vw-jni | 9.3.0 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.cloud.bigdataoss | gcs-connector | hadoop3-2.2.11 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.2.4 |
com.google.crypto.tink | tink | 1.7.0 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 14.0.1 |
com.google.protobuf | protobuf-java | 2.5.0 |
com.googlecode.json-simple | json-simple | 1.1.1 |
com.jcraft | jsch | 0.1.54 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.linkedin.isolation-forest | isolation-forest_3.2.0_2.12 | 2.0.8 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.azure | azure-eventhubs | 3.3.0 |
com.microsoft.azure | azure-eventhubs-spark_2.12 | 2.3.22 |
com.microsoft.azure | azure-keyvault-core | 1.0.0 |
com.microsoft.azure | azure-storage | 7.0.1 |
com.microsoft.azure | cosmos-analytics-spark-3.4.1-connector_2.12 | 1.8.10 |
com.microsoft.azure | qpid-proton-j-extensions | 1.2.4 |
com.microsoft.azure | synapseml_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure | synapseml-cognitive_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure | synapseml-core_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure | synapseml-deep-learning_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure | synapseml-internal_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure | synapseml-lightgbm_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure | synapseml-opencv_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure | synapseml-vw_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure.kusto | kusto-data | 3.2.1 |
com.microsoft.azure.kusto | kusto-ingest | 3.2.1 |
com.microsoft.azure.kusto | kusto-spark_3.0_2.12 | 3.1.16 |
com.microsoft.azure.kusto | spark-kusto-synapse-connector_3.1_2.12 | 1.3.3 |
com.microsoft.cognitiveservices.speech | client-jar-sdk | 1.14.0 |
com.microsoft.sqlserver | msslq-jdbc | 8.4.1.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.istack | istack-commons-runtime | 3.0.8 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.typesafe | config | 1.3.4 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 2.5.1 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4.jar |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
io.airlift | aircompressor | 0,21 |
io.delta | delta-core_2.12 | 2.4.0 |
io.delta | delta-storage | 2.4.0 |
io.dropwizard.metrics | metrics-core | 4.2.15 |
io.dropwizard.metrics | metrics-graphite | 4.2.15 |
io.dropwizard.metrics | metrics-jmx | 4.2.15 |
io.dropwizard.metrics | metrics-json | 4.2.15 |
io.dropwizard.metrics | metrics-jvm | 4.2.15 |
io.github.resilience4j | resilience4j-core | 1.7.1 |
io.github.resilience4j | resilience4j-retry | 1.7.1 |
io.netty | netty-all | 4.1.87.Final |
io.netty | netty-buffer | 4.1.87.Final |
io.netty | netty-codec | 4.1.87.Final |
io.netty | netty-codec-http2 | 4.1.87.Final |
io.netty | netty-codec-http-4 | 4.1.87.Final |
io.netty | netty-codec-socks | 4.1.87.Final |
io.netty | netty-common | 4.1.87.Final |
io.netty | netty-handler | 4.1.87.Final |
io.netty | netty-handler-proxy | 4.1.87.Final |
io.netty | netty-resolver | 4.1.87.Final |
io.netty | netty-transport | 4.1.87.Final |
io.netty | netty-transport-classes-epoll | 4.1.87.Final |
io.netty | netty-transport-classes-kqueue | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.87.Final |
io.opentracing | opentracing-api | 0.33.0 |
io.opentracing | opentracing-noop | 0.33.0 |
io.opentracing | opentracing-util | 0.33.0 |
io.spray | spray-json_2.12 | 1.3.5 |
io.vavr | vavr | 0.10.4 |
io.vavr | vavr-match | 0.10.4 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.inject | jakarta.inject | 2.6.1 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation-api | 2.0.2 | |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
jakarta.xml.bind | jakarta.xml.bind-api | 2.3.2 |
javax.activation | activation | 1.1.1 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.2 |
mysql | mysql-connector-java | 8.0.18 |
net.razorvine | pickle | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.py4j | py4j | 0.10.9.7 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.apache.arrow | arrow-format | 11.0.0 |
org.apache.arrow | arrow-memory-core | 11.0.0 |
org.apache.arrow | arrow-memory-netty | 11.0.0 |
org.apache.arrow | arrow-vector | 11.0.0 |
org.apache.avro | avro | 1.11.1 |
org.apache.avro | avro-ipc | 1.11.1 |
org.apache.avro | avro-mapred | 1.11.1 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.22 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-pool2 | 2.11.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recipes | 2.13.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-aliyun | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-annotations | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-aws | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-azure | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-azure-datalake | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-client-api | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-client-runtime | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-cloud-storage | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-openstack | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-shaded-guava | 1.1.1 |
org.apache.hadoop | hadoop-yarn-server-web-proxy | 3.3.4.5.3-105251583 |
org.apache.hive | hive-common | 2.3.9 |
org.apache.hive | hive-exec | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-metastore | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims-0.23 | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-shims-common | 2.3.9 |
org.apache.hive | hive-shims-scheduler | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.httpcomponents | httpmime | 4.5.14 |
org.apache.httpcomponents.client5 | httpclient5 | 5.1.3 |
org.apache.iceberg | delta-iceberg | 2.4.0.6 |
org.apache.ivy | ivy | 2.5.1 |
org.apache.kafka | kafka-clients | 3.3.2 |
org.apache.logging.log4j | log4j-1.2-api | 2.19.0 |
org.apache.logging.log4j | log4j-api | 2.19.0 |
org.apache.logging.log4j | log4j-core | 2.19.0 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.19.0 |
org.apache.orc | orc-core | 1.8.4 |
org.apache.orc | orc-mapreduce | 1.8.4 |
org.apache.orc | orc-shims | 1.8.4 |
org.apache.parquet | parquet-column | 1.12.3 |
org.apache.parquet | parquet-common | 1.12.3 |
org.apache.parquet | parquet-encoding | 1.12.3 |
org.apache.parquet | parquet-format-structures | 1.12.3 |
org.apache.parquet | parquet-hadoop | 1.12.3 |
org.apache.parquet | parquet-jackson | 1.12.3 |
org.apache.qpid | proton-j | 0.33.8 |
org.apache.spark | spark-avro_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-catalyst_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-core_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-graphx_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-hadoop-cloud_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-hive_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-kvstore_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-launcher_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-mllib_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-mllib-local_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-network-common_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-network-shuffle_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-repl_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-sketch_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-sql_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-sql-kafka-0-10_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-streaming_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-streaming-kafka-0-10-assembly_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-tags_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-token-provider-kafka-0-10_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-unsafe_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-yarn_2.12 | 3.4.1.5.3-105251583 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4,22 |
org.apache.yetus | audience-annotations | 0.5.0 |
org.apache.zookeeper | zookeeper | 3.6.3.5.3-105251583 |
org.apache.zookeeper | zookeeper-jute | 3.6.3.5.3-105251583 |
org.apiguardian | apiguardian-api | 1.1.0 |
org.codehaus.janino | commons-compiler | 3.1.9 |
org.codehaus.janino | janino | 3.1.9 |
org.codehaus.jettison | jettison | 1.1 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleusjavax.jdo | 3.2.0-m3 | |
org.eclipse.jetty | jetty-util | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-util-ajax | 9.4.50.v20221201 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.jaxb | jaxb-runtime | 2.3.2 |
org.glassfish.jersey.containers | jersey-container-servlet | 2,36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2,36 |
org.glassfish.jersey.core | jersey-client | 2,36 |
org.glassfish.jersey.core | jersey-common | 2,36 |
org.glassfish.jersey.core | jersey-server | 2,36 |
org.glassfish.jersey.inject | jersey-hk2 | 2,36 |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.25.0-GA |
org.javatuples | javatuples | 1.2 |
org.jdom | jdom2 | 2.0.6 |
org.jetbrains | annotations | 17.0.0 |
org.jodd | jodd-core | 3.5.2 |
org.json | json | 20210307 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.junit.jupiter | junit-jupiter | 5.5.2 |
org.junit.jupiter | junit-jupiter-api | 5.5.2 |
org.junit.jupiter | junit-jupiter-engine | 5.5.2 |
org.junit.jupiter | junit-jupiter-params | 5.5.2 |
org.junit.platform | junit-platform-commons | 1.5.2 |
org.junit.platform | junit-platform-engine | 1.5.2 |
org.lz4 | lz4-java | 1.8.0 |
org.objenesis | objenesis | 3.2 |
org.openpnp | opencv | 3.2.0-1 |
org.opentest4j | opentest4j | 1.2.0 |
org.postgresql | postgresql | 42.2.9 |
org.roaringbitmap | RoaringBitmap | 0.9.38 |
org.roaringbitmap | shims | 0.9.38 |
org.rocksdb | rocksdbjni | 7.9.2 |
org.scala-lang | scala-compiler | 2.12.17 |
org.scala-lang | scala-library | 2.12.17 |
org.scala-lang | scala-reflect | 2.12.17 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.7.0 |
org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.0 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 2.1.1 |
org.scala-lang.modules | scala-xml_2.12 | 2.1.0 |
org.scalactic | scalactic_2.12 | 3.2.14 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.slf4j | jcl-over-slf4j | 2.0.6 |
org.slf4j | jul-to-slf4j | 2.0.6 |
org.slf4j | slf4j-api | 2.0.6 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire_2.12 | 0.17.0 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial.snappy | snappy-java | 1.1.10.1 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
stax | stax-api | 1.0.1 |
Packages de niveau par défaut pour Python
Le tableau ci-dessous répertorie tous les packages de niveau par défaut pour Python et leurs versions respectives.
Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
---|---|---|---|---|---|
_libgcc_mutex | 0.1 | jupyter_client | 8.5.0 | pycosat | 0.6.6 |
_openmp_mutex | 4.5 | jupyter_core | 5.4.0 | pycparser | 2.21 |
_py-xgboost-mutex | 2.0 | jupyter_events | 0.8.0 | pydantic | 1.10.9 |
absl-py | 2.0.0 | jupyter_server | 2.7.3 | pygments | 2.16.1 |
adal | 1.2.7 | jupyter_server_terminals | 0.4.4 | pyjwt | 2.8.0 |
adlfs | 2023.4.0 | jupyterlab_pygments | 0.2.2 | pynacl | 1.5.0 |
aiohttp | 3.8.6 | jupyterlab_widgets | 3.0.9 | pyodbc | 4.0.39 |
aiosignal | 1.3.1 | keras | 2.12.0 | pyopenssl | 23.2.0 |
alembic | 1.12.0 | keras-preprocessing | 1.1.2 | pyparsing | 3.0.9 |
alsa-lib | 1.2.10 | keyutils | 1.6.1 | pyperclip | 1.8.2 |
ansi2html | 1.8.0 | kiwisolver | 1.4.5 | pypika | 0.48.9 |
anyio | 3.7.1 | krb5 | 1.21.2 | pyqt | 5.15.9 |
appdirs | 1.4.4 | lame=3.100 | 3.100 | pyqt5-sip | 12.12.2 |
argon2-cffi | 23.1.0 | lcms2 | 2.15 | pysocks | 1.7.1 |
argon2-cffi-bindings | 21.2.0 | ld_impl_linux-64 | 2.40 | python | 3.10.12 |
flèche | 1.3.0 | lerc | 4.0.0 | python-dateutil | 2.8.2 |
asttokens | 2.4.0 | liac-arff | 2.5.0 | python-fastjsonschema | 2.18.1 |
astunparse | 1.6.3 | libabseil | 20230125.3 | python-flatbuffers | 23.5.26 |
async-timeout | 4.0.3 | libaec | 1.1.2 | python-graphviz | 0.20.1 |
atk-1.0 | 2.38.0 | libarrow | 12.0.1 | python-json-logger | 2.0.7 |
attr | 2.5.1 | libbrotlicommon | 1.0.9 | python-tzdata | 2023.3 |
attrs | 23.1.0 | libbrotlidec | 1.0.9 | python-xxhash | 3.4.1 |
autopage | 0.5.2 | libbrotlienc | 1.0.9 | python_abi | 3.10 |
aws-c-auth | 0.7.3 | libcap | 2.69 | pythonnet | 3.0.1 |
aws-c-cal | 0.6.1 | libclang | 15.0.7 | pytorch | 2.0.1 |
aws-c-common | 0.9.0 | libclang13 | 15.0.7 | pytorch-mutex | 1.0 |
aws-c-compression | 0.2.17 | libcrc32c | 1.1.2 | pytz | 2023.3.post1 |
aws-c-event-stream | 0.3.1 | libcups | 2.3.3 | pyu2f | 0.1.5 |
aws-c-http | 0.7.11 | libcurl | 8.4.0 | pywin32-on-windows | 0.1.0 |
aws-c-io | 0.13.32 | libdeflate | 1,19 | pyyaml | 6.0.1 |
aws-c-mqtt | 0.9.3 | libebm | 0.4.3 | pyzmq | 25.1.1 |
aws-c-s3 | 0.3.14 | libedit | 3.1.20191231 | qt-main | 5.15.8 |
aws-c-sdkutils | 0.1.12 | libev | 4.33 | rdma-core | 28,9 |
aws-checksums | 0.1.17 | libevent | 2.1.12 | re2 | 2023.03.02 |
aws-crt-cpp | 0.21.0 | libexpat | 2.5.0 | readline | 8,2 |
aws-sdk-cpp | 1.10.57 | libffi | 3.4.2 | referencing | 0.30.2 |
azure-core | 1.29.4 | libflac | 1.4.3 | regex | 2023.8.8 |
azure-datalake-store | 0.0.51 | libgcc-ng | 13.2.0 | requests | 2.31.0 |
azure-identity | 1.14.1 | libgcrypt | 1.10.1 | requests-oauthlib | 1.3.1 |
azure-storage-blob | 12.18.3 | libgd | 2.3.3 | retrying | 1.3.3 |
azure-storage-file-datalake | 12.12.0 | libgfortran-ng | 13.2.0 | rfc3339-validator | 0.1.4 |
backcall | 0.2.0 | libgfortran5 | 13.2.0 | rfc3986-validator | 0.1.1 |
backoff | 1.11.1 | libglib | 2.78.0 | rich | 13.6.0 |
backports | 1.0 | libgoogle-cloud | 2.12.0 | rpds-py | 0.10.6 |
backports.functools_lru_cache | 1.6.5 | libgpg-error | 1.47 | rsa | 4,9 |
bcrypt | 4.0.1 | libgrpc | 1.54.3 | ruamel_yaml | 0.17.32 |
beautifulsoup4 | 4.12.2 | libhwloc | 2.9.3 | ruamel.yaml.clib | 0.2.7 |
blas | 1.0 | libiconv | 1.17 | ruamel_yaml | 0.15.80 |
bleach | 6.1.0 | libjpeg-turbo | 2.1.5.1 | s2n | 1.3.49 |
blinker | 1.6.3 | libllvm14 | 14.0.6 | sacremoses | 0.0.53 |
brotli | 1.0.9 | libllvm15 | 15.0.7 | salib | 1.4.7 |
brotli-bin | 1.0.9 | libnghttp2 | 1.52.0 | scikit-learn | 1.3.0 |
brotli-python | 1.0.9 | libnsl | 2.0.1 | scipy | 1.10.1 |
bzip2 | 1.0.8 | libnuma | 2.0.16 | seaborn | 0.12.2 |
c-ares | 1.20.1 | libogg | 1.3.4 | seaborn-base | 0.12.2 |
ca-certificates | 2023.7.22 | libopus | 1.3.1 | send2trash | 1.8.2 |
cached-property | 1.5.2 | libpng | 1.6.39 | sentence-transformers | 2.0.0 |
cached_property | 1.5.2 | libpq | 15,4 | sentry-sdk | 1.32.0 |
cachetools | 5.3.2 | libprotobuf | 3.21.12 | seqeval | 1.2.2 |
cairo | 1.18.0 | libpulsar | 3.2.0 | setproctitle | 1.3.3 |
catboost | 1.1.1 | librsvg | 2.56.3 | setuptools | 68.2.2 |
certifi | 2023.7.22 | libsndfile | 1.2.2 | shap | 0.42.1 |
cffi | 1.16.0 | libsodium | 1.0.18 | shellingham | 1.5.4 |
charset-normalizer | 3.3.1 | libsqlite | 3.43.2 | sip | 6.7.12 |
chroma-hnswlib | 0.7.3 | libssh2 | 1.11.0 | six | 1.16.0 |
chromadb | 0.4.13 | libstdcxx-ng | 13.2.0 | segment | 0.0.7 |
click | 8.1.7 | libsystemd0 | 254 | smmap | 5.0.0 |
cliff | 4.2.0 | libthrift | 0.18.1 | snappy | 1.1.10 |
cloudpickle | 2.2.1 | libtiff | 4.6.0 | sniffio | 1.3.0 |
clr_loader | 0.2.6 | libtool==2.4.2 | 2.4.7 | soupsieve | 2,5 |
cmaes | 0.10.0 | libutf8proc | 2.8.0 | sqlalchemy | 2.0.22 |
cmd2 | 2.4.3 | libuuid | 2.38.1 | sqlparse | 0.4.4 |
colorama | 0.4.6 | libuv | 1.46.0 | stack_data | 0.6.2 |
coloredlogs | 15.0.1 | libvorbis | 1.3.7 | starlette | 0.27.0 |
colorlog | 6.7.0 | libwebp | 1.3.2 | statsmodels | 0.14.0 |
comm | 0.1.4 | libwebp-base | 1.3.2 | stevedore | 5.1.0 |
conda-package-handling | 2.2.0 | libxcb | 1.15 | sympy | 1.12 |
conda-package-streaming | 0.9.0 | libxgboost | 1.7.6 | tabulate | 0.9.0 |
configparser | 5.3.0 | libxkbcommon | 1.6.0 | tbb | 2021.10.0 |
contourpy | 1.1.1 | libxml2 | 2.11.5 | tenacity | 8.2.3 |
chiffrement | 41.0.5 | libxslt | 1.1.37 | tensorboard | 2.12.3 |
cycler | 0.12.1 | libzlib | 1.2.13 | tensorboard-data-server | 0.7.0 |
cython | 3.0.4 | lightgbm | 4.0.0 | tensorflow | 2.12.1 |
tiret | 2.14.0 | lime | 0.2.0.1 | tensorflow-base | 2.12.1 |
dash-core-components | 2.0.0 | llvm-openmp | 17.0.3 | tensorflow-estimator | 2.12.1 |
dash-html-components | 2.0.0 | llvmlite | 0.40.1 | termcolor | 2.3.0 |
dash-table | 5.0.0 | lxml | 4.9.3 | terminado | 0.17.1 |
dash_cytoscape | 0.2.0 | lz4-c | 1.9.4 | threadpoolctl | 3.2.0 |
databricks-cli | 0.18.0 | mako | 1.2.4 | tiktoken | 0.5.1 |
dataclasses | 0,8 | markdown | 3.4.4 | tinycss2 | 1.2.1 |
jeux de données | 2.14.6 | markdown-it-py | 3.0.0 | tk | 8.6.13 |
dbus | 1.13.6 | markupsafe | 2.1.3 | générateurs de jetons | 0.13.3 |
debugpy | 1.8.0 | matplotlib | 3.7.2 | toml | 0.10.2 |
decorator | 5.1.1 | matplotlib-base | 3.7.2 | tomli | 2.0.1 |
defusedxml | 0.7.1 | matplotlib-inline | 0.1.6 | toolz | 0.12.0 |
dill | 0.3.7 | mdurl | 0.1.0 | tornado | 6.3.3 |
diskcache | 5.6.3 | mistune | 3.0.1 | tqdm | 4.66.1 |
distlib | 0.3.7 | mkl | 2021.4.0 | traitlets | 5.12.0 |
docker-py | 6.1.3 | mkl-service | 2.4.0 | transformateurs | 4.26.0 |
docker-pycreds | 0.4.0 | mkl_fft | 1.3.1 | treeinterpreter | 0.2.2 |
entrypoints | 0,4 | mkl_random | 1.2.2 | typed-ast | 1.5.5 |
et_xmlfile | 1.1.0 | ml_dtypes | 0.3.1 | typer | 0.9.0 |
exceptiongroup | 1.1.3 | mlflow-skinny | 2.6.0 | types-python-dateutil | 2.8.19.14 |
exécuter | 1.2.0 | monotonic | 1.5 | types-pytz | 2023.3.1.1 |
expat | 2.5.0 | mpc | 1.3.1 | typing_extensions | 4.5.0 |
fastapi | 0.103.2 | mpfr | 4.2.1 | typing_utils | 0.1.0 |
flaml | 2.1.1dev2 | mpg123 | 1.32.3 | tzdata | 2023c |
flask | 3.0.0 | mpmath | 1.3.0 | ucx | 1.14.1 |
flatbuffers | 23.5.26 | msal | 1.24.1 | unicodedata2 | 15.1.0 |
font-ttf-dejavu-sans-mono | 2,37 | msal_extensions | 1.0.0 | unixodbc | 2.3.12 |
font-ttf-inconsolata | 3.000 | multidict | 6.0.4 | uri-template | 1.3.0 |
font-ttf-source-code-pro | 2.038 | multiprocess | 0.70.15 | urllib3 | 1.26.17 |
font-ttf-ubuntu | 0.83 | munkres | 1.1.4 | uvicorn | 0.23.2 |
fontconfig | 2.14.2 | mysql-common | 8.0.33 | virtualenv | 20.23.1 |
fonts-conda-ecosystem | 1 | mysql-libs | 8.0.33 | wandb | 0.15.12 |
fonts-conda-forge | 1 | nbclient | 0.8.0 | wcwidth | 0.2.8 |
fonttools | 4.43.1 | nbconvert-core | 7.9.2 | webcolors | 1.13 |
fqdn | 1.5.1 | nbformat | 5.9.2 | webencodings | 0.5.1 |
freetype | 2.12.1 | ncurses | 6.4 | websocket-client | 1.6.4 |
fribidi | 1.0.10 | nest-asyncio | 1.5.8 | werkzeug | 3.0.1 |
frozenlist | 1.4.0 | networkx | 3.2 | wheel | 0.41.2 |
fsspec | 2023.10.0 | nltk | 3.8.1 | widgetsnbextension | 4.0.9 |
gast | 0.4.0 | nspr | 4.35 | wrapt | 1.15.0 |
gdk-pixbuf | 2.42.10 | nss | 3,94 | xcb-util | 0.4.0 |
geographiclib | 1,52 | numba | 0.57.1 | xcb-util-image | 0.4.0 |
geopy | 2.3.0 | numpy | 1.24.3 | xcb-util-keysyms | 0.4.0 |
gettext | 0.21.1 | numpy-base | 1.24.3 | xcb-util-renderutil | 0.3.9 |
gevent | 23.9.0.post1 | oauthlib | 3.2.2 | xcb-util-wm | 0.4.1 |
gflags | 2.2.2 | onnxruntime | 1.16.1 | xgboost | 1.7.6 |
giflib | 5.2.1 | openai | 0.27.8 | xkeyboard-config | 2.40 |
gitdb | 4.0.11 | openjpeg | 2.5.0 | xorg-kbproto | 1.0.7 |
gitpython | 3.1.40 | openpyxl | 3.1.2 | xorg-libice | 1.1.1 |
glib | 2.78.0 | openssl | 3.1.4 | xorg-libsm | 1.2.4 |
glib-tools | 2.78.0 | opt-einsum | 3.3.0 | xorg-libx11 | 1.8.7 |
glog | 0.6.0 | opt_einsum | 3.3.0 | xorg-libxau | 1.0.11 |
gmp | 6.2.1 | optuna | 2.8.0 | xorg-libxdmcp | 1.1.3 |
gmpy2 | 2.1.2 | orc | 1.9.0 | xorg-libxext | 1.3.4 |
google-auth | 2.23.3 | remplace | 7.4.0 | xorg-libxrender | 0.9.11 |
google-auth-oauthlib | 1.0.0 | empaquetage | 23,2 | xorg-renderproto | 0.11.1 |
google-pasta | 0.2.0 | pandas | 2.0.3 | xorg-xextproto | 7.3.0 |
graphite2 | 1.3.13 | pandas-stubs | 2.1.1.230928 | xorg-xf86vidmodeproto | 2.3.1 |
graphviz | 8.1.0 | pandasql | 0.7.3 | xorg-xproto | 7.0.31 |
greenlet | 3.0.1 | pandocfilters | 1.5.0 | xxhash | 0.8.2 |
grpcio | 1.54.3 | pango | 1.50.14 | xz | 5.2.6 |
gst-plugins-base | 1.22.6 | paramiko | 3.3.1 | yaml | 0.2.5 |
gstreamer | 1.22.6 | parso | 0.8.3 | yarl | 1.9.2 |
gtk2 | 2.24.33 | pathos | 0.3.1 | zeromq | 4.3.5 |
gts | 0.7.6 | pathtools | 0.1.2 | zipp | 3.17.0 |
h11 | 0.14.0 | patsy | 0.5.3 | zlib | 1.2.13 |
h5py | 3.10.0 | pbr | 5.11.1 | zope.event | 5.0 |
harfbuzz | 8.2.1 | pcre2 | 10.40 | zope.interface | 6.1 |
hdf5 | 1.14.2 | pexpect | 4.8.0 | zstandard | 0.21.0 |
holidays | 0,35 | pickleshare | 0.7.5 | zstd | 1.5.5 |
html5lib | 1.1 | pillow | 10.0.1 | astor | 0.8.1 |
huggingface_hub | 0.18.0 | pip | 23.1.2 | contextlib2 | 21.6.0 |
humanfriendly | 10.0 | pixman | 0.42.2 | filelock | 3.11.0 |
icu | 73,2 | pkgutil-resolve-name | 1.3.10 | fluent-logger | 0.10.0 |
idna | 3.4 | platformdirs | 3.5.1 | gson | 0.0.3 |
imageio | 2.31.1 | plotly | 5.16.1 | jaraco-context | 4.3.0 |
importlib-metadata | 6.8.0 | ply | 3.11 | joblibspark | 0.5.2 |
importlib-resources | 6.1.0 | pooch | 1.8.0 | json-tricks | 3.17.3 |
importlib_metadata | 6.8.0 | portalocker | 2.8.2 | jupyter-ui-poll | 0.2.2 |
importlib_resources | 6.1.0 | posthog | 3.0.2 | more-itertools | 10.1.0 |
intel-openmp | 2021.4.0 | pox | 0.3.3 | msgpack | 1.0.7 |
interpret | 0.4.3 | ppft | 1.7.6.7 | mypy | 1.4.1 |
interpret-core | 0.4.3 | prettytable | 3.8.0 | mypy-extensions | 1.0.0 |
ipykernel | 6.26.0 | prometheus_client | 0.17.1 | nni | 2.10.1 |
ipython | 8.14.0 | prompt-toolkit | 3.0.39 | powerbiclient | 3.1.1 |
ipywidgets | 8.0.7 | prompt_toolkit | 3.0.39 | pyspark | 3.4.1.5.3.20230713 |
isodate | 0.6.1 | protobuf | 4.21.12 | pythonwebhdfs | 0.2.3 |
isoduration | 20.11.0 | psutil | 5.9.5 | responses | 0.23.3 |
itsdangerous | 2.1.2 | pthread-stubs | 0,4 | rouge-score | 0.1.2 |
jax | 0.4.17 | ptyprocess | 0.7.0 | schéma | 0.7.5 |
jaxlib | 0.4.14 | pulsar-client | 3.3.0 | simplejson | 3.19.2 |
jedi | 0.19.1 | pulseaudio-client | 16,1 | synapseml-mlflow | 1.0.22.post2 |
jinja2 | 3.1.2 | pure_eval | 0.2.2 | synapseml-utils | 1.0.18.post1 |
joblib | 1.3.2 | py-xgboost | 1.7.6 | typeguard | 2.13.3 |
jsonpointer | 2.4 | py4j | 0.10.9.7 | types-pyyaml | 6.0.12.12 |
jsonschema | 4.19.1 | pyarrow | 12.0.1 | typing-extensions | 4.8.0 |
jsonschema-specifications | 2023.7.1 | pyasn1 | 0.5.0 | websockets | 12.0 |
jsonschema-with-format-nongpl | 4.19.1 | pyasn1-modules | 0.3.0 | wolframalpha | 5.0.0 |
xmltodict | 0.13.0 |
Packages de niveau par défaut pour R
Le tableau ci-dessous répertorie tous les packages de niveau par défaut pour R et leurs versions respectives.
Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
---|---|---|---|---|---|
_libgcc_mutex | 0.1 | r-caret | 6.0_94 | r-praise | 1.0.0 |
_openmp_mutex | 4.5 | r-cellranger | 1.1.0 | r-prettyunits | 1.2.0 |
_r-mutex | 1.0.1 | r-class | 7.3_22 | r-proc | 1.18.4 |
_r-xgboost-mutex | 2.0 | r-cli | 3.6.1 | r-processx | 3.8.2 |
aws-c-auth | 0.7.0 | r-clipr | 0.8.0 | r-prodlim | 2023.08.28 |
aws-c-cal | 0.6.0 | r-clock | 0.7.0 | r-profvis | 0.3.8 |
aws-c-common | 0.8.23 | r-codetools | 0.2_19 | r-progress | 1.2.2 |
aws-c-compression | 0.2.17 | r-collections | 0.3.7 | r-progressr | 0.14.0 |
aws-c-event-stream | 0.3.1 | r-colorspace | 2.1_0 | r-promises | 1.2.1 |
aws-c-http | 0.7.10 | r-commonmark | 1.9.0 | r-proxy | 0.4_27 |
aws-c-io | 0.13.27 | r-config | 0.3.2 | r-pryr | 0.1.6 |
aws-c-mqtt | 0.8.13 | r-conflicted | 1.2.0 | r-ps | 1.7.5 |
aws-c-s3 | 0.3.12 | r-coro | 1.0.3 | r-purrr | 1.0.2 |
aws-c-sdkutils | 0.1.11 | r-cpp11 | 0.4.6 | r-quantmod | 0.4.25 |
aws-checksums | 0.1.16 | r-crayon | 1.5.2 | r-r2d3 | 0.2.6 |
aws-crt-cpp | 0.20.2 | r-credentials | 2.0.1 | r-r6 | 2.5.1 |
aws-sdk-cpp | 1.10.57 | r-crosstalk | 1.2.0 | r-r6p | 0.3.0 |
binutils_impl_linux-64 | 2.40 | r-crul | 1.4.0 | r-ragg | 1.2.6 |
bwidget | 1.9.14 | r-curl | 5.1.0 | r-rappdirs | 0.3.3 |
bzip2 | 1.0.8 | r-data.table | 1.14.8 | r-rbokeh | 0.5.2 |
c-ares | 1.20.1 | r-dbi | 1.1.3 | r-rcmdcheck | 1.4.0 |
ca-certificates | 2023.7.22 | r-dbplyr | 2.3.4 | r-rcolorbrewer | 1.1_3 |
cairo | 1.18.0 | r-desc | 1.4.2 | r-rcpp | 1.0.11 |
cmake | 3.27.6 | r-devtools | 2.4.5 | r-reactable | 0.4.4 |
curl | 8.4.0 | r-diagram | 1.6.5 | r-reactr | 0.5.0 |
expat | 2.5.0 | r-dials | 1.2.0 | r-readr | 2.1.4 |
font-ttf-dejavu-sans-mono | 2,37 | r-dicedesign | 1.9 | r-readxl | 1.4.3 |
font-ttf-inconsolata | 3.000 | r-diffobj | 0.3.5 | r-recipes | 1.0.8 |
font-ttf-source-code-pro | 2.038 | r-digest | 0.6.33 | r-rematch | 2.0.0 |
font-ttf-ubuntu | 0.83 | r-downlit | 0.4.3 | r-rematch2 | 2.1.2 |
fontconfig | 2.14.2 | r-dplyr | 1.1.3 | r-remotes | 2.4.2.1 |
fonts-conda-ecosystem | 1 | r-dtplyr | 1.3.1 | r-reprex | 2.0.2 |
fonts-conda-forge | 1 | r-e1071 | 1.7_13 | r-reshape2 | 1.4.4 |
freetype | 2.12.1 | r-ellipsis | 0.3.2 | r-rjson | 0.2.21 |
fribidi | 1.0.10 | r-evaluate | 0.23 | r-rlang | 1.1.1 |
gcc_impl_linux-64 | 13.2.0 | r-fansi | 1.0.5 | r-rlist | 0.4.6.2 |
gettext | 0.21.1 | r-farver | 2.1.1 | r-rmarkdown | 2.22 |
gflags | 2.2.2 | r-fastmap | 1.1.1 | r-rodbc | 1.3_20 |
gfortran_impl_linux-64 | 13.2.0 | r-fontawesome | 0.5.2 | r-roxygen2 | 7.2.3 |
glog | 0.6.0 | r-forcats | 1.0.0 | r-rpart | 4.1.21 |
glpk | 5.0 | r-foreach | 1.5.2 | r-rprojroot | 2.0.3 |
gmp | 6.2.1 | r-forge | 0.2.0 | r-rsample | 1.2.0 |
graphite2 | 1.3.13 | r-fs | 1.6.3 | r-rstudioapi | 0.15.0 |
gsl | 2.7 | r-furrr | 0.3.1 | r-rversions | 2.1.2 |
gxx_impl_linux-64 | 13.2.0 | r-future | 1.33.0 | r-rvest | 1.0.3 |
harfbuzz | 8.2.1 | r-future.apply | 1.11.0 | r-sass | 0.4.7 |
icu | 73,2 | r-gargle | 1.5.2 | r-scales | 1.2.1 |
kernel-headers_linux-64 | 2.6.32 | r-generics | 0.1.3 | r-selectr | 0.4_2 |
keyutils | 1.6.1 | r-gert | 2.0.0 | r-sessioninfo | 1.2.2 |
krb5 | 1.21.2 | r-ggplot2 | 3.4.2 | r-shape | 1.4.6 |
ld_impl_linux-64 | 2.40 | r-gh | 1.4.0 | r-shiny | 1.7.5.1 |
lerc | 4.0.0 | r-gistr | 0.9.0 | r-slider | 0.3.1 |
libabseil | 20230125.3 | r-gitcreds | 0.1.2 | r-sourcetools | 0.1.7_1 |
libarrow | 12.0.0 | r-globals | 0.16.2 | r-sparklyr | 1.8.2 |
libblas | 3.9.0 | r-glue | 1.6.2 | r-squarem | 2021.1 |
libbrotlicommon | 1.0.9 | r-googledrive | 2.1.1 | r-stringi | 1.7.12 |
libbrotlidec | 1.0.9 | r-googlesheets4 | 1.1.1 | r-stringr | 1.5.0 |
libbrotlienc | 1.0.9 | r-gower | 1.0.1 | r-survival | 3.5_7 |
libcblas | 3.9.0 | r-gpfit | 1.0_8 | r-sys | 3.4.2 |
libcrc32c | 1.1.2 | r-gt | 0.9.0 | r-systemfonts | 1.0.5 |
libcurl | 8.4.0 | r-gtable | 0.3.4 | r-testthat | 3.2.0 |
libdeflate | 1,19 | r-gtsummary | 1.7.2 | r-textshaping | 0.3.7 |
libedit | 3.1.20191231 | r-hardhat | 1.3.0 | r-tibble | 3.2.1 |
libev | 4.33 | r-haven | 2.5.3 | r-tidymodels | 1.1.0 |
libevent | 2.1.12 | r-hexbin | 1.28.3 | r-tidyr | 1.3.0 |
libexpat | 2.5.0 | r-highcharter | 0.9.4 | r-tidyselect | 1.2.0 |
libffi | 3.4.2 | r-highr | 0.10 | r-tidyverse | 2.0.0 |
libgcc-devel_linux-64 | 13.2.0 | r-hms | 1.1.3 | r-timechange | 0.2.0 |
libgcc-ng | 13.2.0 | r-htmltools | 0.5.6.1 | r-timedate | 4022.108 |
libgfortran-ng | 13.2.0 | r-htmlwidgets | 1.6.2 | r-tinytex | 0,48 |
libgfortran5 | 13.2.0 | r-httpcode | 0.3.0 | r-torch | 0.11.0 |
libgit2 | 1.7.1 | r-httpuv | 1.6.12 | r-triebeard | 0.4.1 |
libglib | 2.78.0 | r-httr | 1.4.7 | r-ttr | 0.24.3 |
libgomp | 13.2.0 | r-httr2 | 0.2.3 | r-tune | 1.1.2 |
libgoogle-cloud | 2.12.0 | r-ids | 1.0.1 | r-tzdb | 0.4.0 |
libgrpc | 1.55.1 | r-igraph | 1.5.1 | r-urlchecker | 1.0.1 |
libiconv | 1.17 | r-infer | 1.0.5 | r-urltools | 1.7.3 |
libjpeg-turbo | 3.0.0 | r-ini | 0.3.1 | r-usethis | 2.2.2 |
liblapack | 3.9.0 | r-ipred | 0.9_14 | r-utf8 | 1.2.4 |
libnghttp2 | 1.55.1 | r-isoband | 0.2.7 | r-uuid | 1.1_1 |
libnuma | 2.0.16 | r-iterators | 1.0.14 | r-v8 | 4.4.0 |
libopenblas=0.3.12 | 0.3.24 | r-jose | 1.2.0 | r-vctrs | 0.6.4 |
libpng | 1.6.39 | r-jquerylib | 0.1.4 | r-viridislite | 0.4.2 |
libprotobuf | 4.23.2 | r-jsonlite | 1.8.7 | r-vroom | 1.6.4 |
libsanitizer | 13.2.0 | r-juicyjuice | 0.1.0 | r-waldo | 0.5.1 |
libssh2 | 1.11.0 | r-kernsmooth | 2.23_22 | r-warp | 0.2.0 |
libstdcxx-devel_linux-64 | 13.2.0 | r-knitr | 1,45 | r-whisker | 0.4.1 |
libstdcxx-ng | 13.2.0 | r-labeling | 0.4.3 | r-withr | 2.5.2 |
libthrift | 0.18.1 | r-labelled | 2.12.0 | r-workflows | 1.1.3 |
libtiff | 4.6.0 | r-later | 1.3.1 | r-workflowsets | 1.0.1 |
libutf8proc | 2.8.0 | r-lattice | 0.22_5 | r-xfun | 0.41 |
libuuid | 2.38.1 | r-lava | 1.7.2.1 | r-xgboost | 1.7.4 |
libuv | 1.46.0 | r-lazyeval | 0.2.2 | r-xml | 3.99_0.14 |
libv8 | 8.9.83 | r-lhs | 1.1.6 | r-xml2 | 1.3.5 |
libwebp-base | 1.3.2 | r-lifecycle | 1.0.3 | r-xopen | 1.0.0 |
libxcb | 1.15 | r-lightgbm | 3.3.5 | r-xtable | 1.8_4 |
libxgboost | 1.7.4 | r-listenv | 0.9.0 | r-xts | 0.13.1 |
libxml2 | 2.11.5 | r-lobstr | 1.1.2 | r-yaml | 2.3.7 |
libzlib | 1.2.13 | r-lubridate | 1.9.3 | r-yardstick | 1.2.0 |
lz4-c | 1.9.4 | r-magrittr | 2.0.3 | r-zip | 2.3.0 |
make | 4.3 | r-maps | 3.4.1 | r-zoo | 1.8_12 |
ncurses | 6.4 | r-markdown | 1,11 | rdma-core | 28,9 |
openssl | 3.1.4 | r-mass | 7.3_60 | re2 | 2023.03.02 |
orc | 1.8.4 | r-matrix | 1.6_1.1 | readline | 8,2 |
pandoc | 2.19.2 | r-memoise | 2.0.1 | rhash | 1.4.4 |
pango | 1.50.14 | r-mgcv | 1.9_0 | s2n | 1.3.46 |
pcre2 | 10.40 | r-mime | 0,12 | sed | 4.8 |
pixman | 0.42.2 | r-miniui | 0.1.1.1 | snappy | 1.1.10 |
pthread-stubs | 0,4 | r-modeldata | 1.2.0 | sysroot_linux-64 | 2.12 |
r-arrow | 12.0.0 | r-modelenv | 0.1.1 | tk | 8.6.13 |
r-askpass | 1.2.0 | r-modelmetrics | 1.2.2.2 | tktable | 2,10 |
r-assertthat | 0.2.1 | r-modelr | 0.1.11 | ucx | 1.14.1 |
r-backports | 1.4.1 | r-munsell | 0.5.0 | unixodbc | 2.3.12 |
r-base | 4.2.3 | r-nlme | 3.1_163 | xorg-kbproto | 1.0.7 |
r-base64enc | 0.1_3 | r-nnet | 7.3_19 | xorg-libice | 1.1.1 |
r-bigd | 0.2.0 | r-numderiv | 2016.8_1.1 | xorg-libsm | 1.2.4 |
r-bit | 4.0.5 | r-openssl | 2.1.1 | xorg-libx11 | 1.8.7 |
r-bit64 | 4.0.5 | r-parallelly | 1.36.0 | xorg-libxau | 1.0.11 |
r-bitops | 1.0_7 | r-parsnip | 1.1.1 | xorg-libxdmcp | 1.1.3 |
r-blob | 1.2.4 | r-patchwork | 1.1.3 | xorg-libxext | 1.3.4 |
r-brew | 1.0_8 | r-pillar | 1.9.0 | xorg-libxrender | 0.9.11 |
r-brio | 1.1.3 | r-pkgbuild | 1.4.2 | xorg-libxt | 1.3.0 |
r-broom | 1.0.5 | r-pkgconfig | 2.0.3 | xorg-renderproto | 0.11.1 |
r-broom.helpers | 1.14.0 | r-pkgdown | 2.0.7 | xorg-xextproto | 7.3.0 |
r-bslib | 0.5.1 | r-pkgload | 1.3.3 | xorg-xproto | 7.0.31 |
r-cachem | 1.0.8 | r-plotly | 4.10.2 | xz | 5.2.6 |
r-callr | 3.7.3 | r-plyr | 1.8.9 | zlib | 1.2.13 |
zstd | 1.5.5 |
Contenu connexe
Commentaires
https://aka.ms/ContentUserFeedback.
Bientôt disponible : Tout au long de 2024, nous allons supprimer progressivement GitHub Issues comme mécanisme de commentaires pour le contenu et le remplacer par un nouveau système de commentaires. Pour plus d’informations, consultezEnvoyer et afficher des commentaires pour