Runtime 1.2
Microsoft Fabric Runtime è una piattaforma integrata in Azure basata su Apache Spark che consente l'esecuzione e la gestione di esperienze di data engineering e data science. Questo documento illustra i componenti e le versioni di Runtime 1.2.
Microsoft Fabric Runtime 1.2 è la versione più recente del runtime ga. I componenti principali di Runtime 1.2 includono:
- Apache Spark 3.4.1
- Sistema operativo: Mariner 2.0
- Java: 11
- Scala: 2.12.17
- Python: 3.10
- Delta Lake: 2.4.0
- R: 4.2.2
Microsoft Fabric Runtime 1.2 include una raccolta di pacchetti di livello predefiniti, tra cui un'installazione completa di Anaconda e librerie comunemente usate per Java/Scala, Python e R. Queste librerie vengono incluse automaticamente quando si usano notebook o processi nella piattaforma Microsoft Fabric. Per un elenco completo delle librerie, vedere la documentazione. Microsoft Fabric implementa periodicamente gli aggiornamenti di manutenzione per Runtime 1.2, fornendo correzioni di bug, miglioramenti delle prestazioni e patch di sicurezza. Rimanere aggiornati garantisce prestazioni e affidabilità ottimali per le attività di elaborazione dei dati.
Nuove funzionalità e miglioramenti di Spark Release 3.4.1
Apache Spark 3.4.0 è la quinta versione nella riga 3.x. Questa versione, guidata dalla community open source, ha risolto oltre 2.600 ticket Jira. Introduce un client Python per Spark Connessione, migliora Structured Streaming con il rilevamento dello stato asincrono e l'elaborazione con stato Python. Espande la copertura dell'API Pandas con il supporto dell'input NumPy, semplifica la migrazione dai data warehouse tradizionali tramite la conformità ANSI e le nuove funzioni predefinite. Migliora anche la produttività e il debug dello sviluppo con la profilatura della memoria. Inoltre, Runtime 1.2 è basato su Apache Spark 3.4.1, una versione di manutenzione incentrata sulle correzioni di stabilità.
In primo piano
- Implementare il supporto per i valori DEFAULT per le colonne nelle tabelle (SPARK-38334)
- Supporto del tipo di dati TIMESTAMP WITHOUT TIMEZONE (SPARK-35662)
- Supporto di "Riferimenti alias di colonna laterale" (SPARK-27561)
- Rafforzare l'utilizzo di SQLSTATE per le classi di errore (SPARK-41994)
- Abilitare join di filtro Bloom per impostazione predefinita (SPARK-38841)
- Maggiore scalabilità dell'interfaccia utente Spark e stabilità dei driver per applicazioni di grandi dimensioni (SPARK-41053)
- Rilevamento dello stato asincrono in Structured Streaming (SPARK-39591)
- Elaborazione arbitraria con stato python in structured streaming (SPARK-40434)
- Miglioramenti della copertura api Pandas (SPARK-42882) e supporto dell'input NumPy in PySpark (SPARK-39405)
- Fornire un profiler di memoria per le funzioni definite dall'utente pySpark (SPARK-40281)
- Implementare il server di distribuzione PyTorch (SPARK-41589)
- Pubblicare artefatti SBOM (distinta software di materiali) (SPARK-41893)
- Implementare il supporto per i valori DEFAULT per le colonne nelle tabelle (SPARK-38334)
- Supporto di SQL con parametri (SPARK-41271, SPARK-42702)
- Implementare il supporto per i valori DEFAULT per le colonne nelle tabelle (SPARK-38334)
- Aggiungere Dataset.as(StructType) (SPARK-39625)
- Supporto di SQL con parametri (SPARK-41271, SPARK-42702)
- Aggiungere unpivot/melt (SPARK-38864, SPARK-39876)
- Supporto di "riferimenti alias di colonna laterale" (SPARK-27561)
- Clausola di offset dei risultati di supporto (SPARK-28330, SPARK-39159)
- Supporto del timestamp senza tipo di dati fuso orario (SPARK-35662)
- Supportare la sottoquery scalare nel tempo di spostamento (SPARK-39306)
- Rendere l'API catalogo compatibile con uno spazio dei nomi a 3 livelli (SPARK-39235)
- Supporto del timestamp in secondi per TimeFrame con le opzioni del dataframe (SPARK-39633)
- Aggiungere SparkSession.config(Map) (SPARK-40163)
- Supporto della modifica del database predefinito del catalogo di sessioni (SPARK-35242)
- Supporto protobuf per Spark - from_protobuf AND to_protobuf (SPARK-40654)
- Aggiungere la clausola WHEN NOT MATCHED BY SOURCE a MERGE INTO (SPARK-40921)
- Vincolo di ordinamento rilassante per le opzioni di colonna CREATE TABLE (SPARK-40944)
- Equivalente SQL per il comando di sovrascrittura del dataframe (SPARK-40956)
- Supporto della generazione senza output figlio necessario per ospitare riferimenti esterni (SPARK-41441)
- ORDER BY ALL (SPARK-41637)
- GROUP BY ALL (SPARK-41635)
- Aggiungere flatMapSortedGroups e cogroupSorted (SPARK-38591)
- Supportare sottoquery con predicati di non uguaglianza correlati (SPARK-36114)
- Supportare sottoquery con correlazione tramite UNION/INTER edizione Standard CT/EXCEPT (SPARK-36124)
- Correggere l'errore OOM non può essere segnalato quando AQE (esecuzione di query adattive) in (SPARK-42290)
- Correggere la logica di taglio non ha gestito correttamente i caratteri di controllo ASCII (SPARK-44383)
- Dataframe.joinWith outer-join deve restituire un valore Null per la riga senza corrispondenza (SPARK-37829)
- Usare le utilità per ottenere l'opzione per l'allocazione dinamica usata nel checkpoint locale (SPARK-42421)
- Aggiungere CapturedException alle utilità (SPARK-42078)
- Supporto di edizione Standard LECT DEFAULT con ORDER BY, LIMIT, OFF edizione Standard T per la relazione di origine IN edizione Standard RT (SPARK-43071)
- Client Python per spark Connessione (SPARK-39375)
Leggere la versione completa delle note sulla versione per una versione specifica di Apache Spark visitando sia Spark 3.4.0 che Spark 3.4.1.
Nuove ottimizzazioni di query personalizzate
Supporto delle scritture simultanee in Spark
Se si verifica un errore 404 con il messaggio "Operazione non riuscita: il percorso specificato non esiste" è un problema comune quando si eseguono inserimenti di dati paralleli nella stessa tabella usando una query SQL IN edizione Standard RT INTO. Questo errore può causare la perdita di dati. La nuova funzionalità, l'algoritmo di commit dell'output dei file, risolve questo problema, consentendo ai clienti di eseguire facilmente l'inserimento parallelo dei dati.
Per accedere a questa funzionalità, abilitare il spark.sql.enable.concurrentWrites
flag di funzionalità, che è abilitato per impostazione predefinita a partire da Runtime 1.2 (Spark 3.4). Anche se questa funzionalità è disponibile anche in altre versioni di Spark 3, non è abilitata per impostazione predefinita. Questa funzionalità non supporta l'esecuzione parallela di query IN edizione Standard RT OVERWRITE in cui ogni processo simultaneo sovrascrive i dati in partizioni diverse della stessa tabella in modo dinamico. A questo scopo, Spark offre una funzionalità alternativa, che può essere attivata configurando l'impostazione spark.sql.sources.partitionOverwriteMode
su dinamica.
Letture intelligenti, che ignorano i file dai processi non riusciti
Nel sistema di commit di Spark corrente, quando un inserimento in un processo di tabella ha esito negativo ma alcune attività hanno esito positivo, i file generati dalle attività riuscite coesistono con i file del processo non riuscito. Questa coesistenza può causare confusione per gli utenti perché diventa difficile distinguere tra i file appartenenti a processi riusciti e non riusciti. Inoltre, quando un processo legge da una tabella mentre un altro inserisce i dati contemporaneamente nella stessa tabella, il processo di lettura potrebbe accedere ai dati non inviati. Se un processo di scrittura non riesce, il processo di lettura potrebbe elaborare dati non corretti.
Il spark.sql.auto.cleanup.enabled
flag controlla la nuova funzionalità, risolvendo questo problema. Quando è abilitata, Spark ignora automaticamente i file di lettura che non sono stati sottoposti a commit quando esegue spark.read
o seleziona query da una tabella. I file scritti prima di abilitare questa funzionalità continuano a essere letti come di consueto.
Ecco le modifiche visibili:
- Tutti i file ora includono un
tid-{jobID}
identificatore nei nomi file. - Invece del
_success
marcatore creato in genere nella posizione di output al completamento del processo, viene generato un nuovo_committed_{jobID}
marcatore. Questo marcatore associa gli ID processo riusciti a nomi di file specifici. - È stato introdotto un nuovo comando SQL che gli utenti possono eseguire periodicamente per gestire l'archiviazione e pulire i file di cui non è stato eseguito il commit. La sintassi per questo comando è la seguente:
- Per pulire una directory specifica:
CLEANUP ('/path/to/dir') [RETAIN number HOURS];
- Per pulire una tabella specifica:
CLEANUP [db_name.]table_name [RETAIN number HOURS];
in questa sintassi rappresentapath/to/dir
l'URI della posizione in cui è necessaria la pulizia ednumber
è un valore di tipo doppio che rappresenta il periodo di conservazione. Il periodo di conservazione predefinito è impostato su sette giorni.
- Per pulire una directory specifica:
- È stata introdotta una nuova opzione di configurazione denominata
spark.sql.deleteUncommittedFilesWhileListing
, che è impostata su perfalse
impostazione predefinita. L'abilitazione di questa opzione comporta l'eliminazione automatica dei file di cui non è stato eseguito il commit durante le letture, ma questo scenario potrebbe rallentare le operazioni di lettura. È consigliabile eseguire manualmente il comando cleanup quando il cluster è inattiva anziché abilitare questo flag.
Guida alla migrazione da Runtime 1.1 a Runtime 1.2
Quando si esegue la migrazione da Runtime 1.1, basato su Apache Spark 3.3, a Runtime 1.2, basato su Apache Spark 3.4, vedere la guida ufficiale alla migrazione. Ecco le principali evidenziazioni:
Memoria centrale
- A partire da Spark 3.4, il driver Spark è proprietario
PersistentVolumnClaim
e tenta di riutilizzare se non sono assegnati agli executor live. Per ripristinare il comportamento prima di Spark 3.4, è possibile impostare suspark.kubernetes.driver.ownPersistentVolumeClaim
false
espark.kubernetes.driver.reusePersistentVolumeClaim
sufalse
. - A partire da Spark 3.4, il driver Spark tiene traccia dei dati casuali quando l'allocazione dinamica è abilitata senza servizio casuale. Per ripristinare il comportamento prima di Spark 3.4, è possibile impostare su
spark.dynamicAllocation.shuffleTracking.enabled
false
. - A partire da Spark 3.4, Spark tenta di rimuovere le autorizzazioni rdd memorizzate nella cache (set di dati distribuiti resilienti) e i blocchi casuali se entrambi
spark.decommission.enabled
espark.storage.decommission.enabled
sono true. Per ripristinare il comportamento prima di Spark 3.4, è possibile impostare siaspark.storage.decommission.rddBlocks.enabled
chespark.storage.decommission.shuffleBlocks.enabled
sufalse
. - A partire da Spark 3.4, Spark usa l'archivio RocksDB se
spark.history.store.hybridStore.enabled
è true. Per ripristinare il comportamento prima di Spark 3.4, è possibile impostare suspark.history.store.hybridStore.diskBackend
LEVELDB
.
PySpark
- In Spark 3.4 lo schema di una colonna di matrice viene dedotto unendo gli schemi di tutti gli elementi nella matrice. Per ripristinare il comportamento precedente in cui lo schema viene dedotto solo dal primo elemento, è possibile impostare su
spark.sql.pyspark.legacy.inferArrayTypeFromFirstElement.enabled
true
. - In Spark 3.4, quando si usa l'API
Groupby.apply
Pandas in Spark , se il tipo restituito delfunc
parametro non è specificato ecompute.shortcut_limit
è impostato su 0, il numero di righe di campionamento viene impostato automaticamente su 2. Questa regolazione garantisce che siano sempre presenti almeno due righe di campionamento per mantenere l'inferenza accurata dello schema. - In Spark 3.4, se Pandas nell'API
Index.insert
Spark non è limitato, genera IndexError conindex {} is out of bounds for axis 0 with size {}
per seguire il comportamento pandas 1.4. - In Spark 3.4 il nome della serie viene mantenuto in Pandas nell'API
Series.mode
Spark per allinearsi al comportamento pandas 1.4. - In Spark 3.4 il tipo di controllo dell'API
Index.__setitem__
value
Pandas on Spark èColumn
il tipo per evitare la generazione di colonne imprevisteValueError
, ad esempio Impossibile convertire la colonna inis_list_like
bool: usare '&' per 'and', '|' per 'or', '~' per 'not' durante la compilazione di espressioni booleane del dataframe. - In Spark 3.4, l'API
astype('category')
Pandas in Spark vienecategories.dtype
aggiornata anche in base ai datidtype
originali per seguire il comportamento di Pandas 1.4. - In Spark 3.4 l'API Pandas on Spark supporta il raggruppamento in base all'indicizzazione posizionale in
GroupBy.head
eGroupBy.tail
per seguire pandas 1.4. Gli argomenti negativi ora funzionano correttamente e generano intervalli relativi alla fine e all'inizio di ogni gruppo. In precedenza, gli argomenti negativi restituivano fotogrammi vuoti. - In Spark 3.4, il processo di inferenza dello schema di
groupby.apply
in Pandas in Spark, dedurrà innanzitutto il tipo pandas per garantire l'accuratezza dei pandasdtype
il più possibile. - In Spark 3.4 il
Series.concat
parametro di ordinamento viene rispettato per seguire i comportamenti pandas 1.4. - In Spark 3.4,
DataFrame.__setitem__
crea una copia e sostituisce matrici preesistenti, che non verranno sovrascritto per seguire i comportamenti pandas 1.4. - In Spark 3.4,
SparkSession.sql
e l'APIsql
Pandas in Spark hanno ottenuto il nuovo parametroargs
, che fornisce l'associazione di parametri denominati ai relativi valori letterali SQL. - In Spark 3.4, l'API Pandas in Spark segue per pandas 2.0 e alcune API sono deprecate o rimosse in Spark 3.4 in base alle modifiche apportate in pandas 2.0. Per altri dettagli, vedere [note sulla versione di pandas](https://pandas.pydata.org/docs/dev/whatsnew/).
SQL, set di dati e dataframe
- A partire da Spark 3.4, i comandi IN edizione Standard RT INTO con elenco di colonne esplicite che comprendono un numero inferiore di colonne rispetto alla tabella di destinazione aggiunge automaticamente i valori predefiniti corrispondenti per le colonne rimanenti (o NULL per qualsiasi colonna priva di un valore predefinito assegnato in modo esplicito). In Spark 3.3 o versioni precedenti questi comandi hanno esito negativo, restituendo errori che segnalano che il numero di colonne fornite non corrisponde al numero di colonne nella tabella di destinazione. La disabilitazione
spark.sql.defaultColumn.useNullsForMissingDefaultValues
ripristina il comportamento precedente. - Poiché Spark 3.4, Number o Number(*) da Teradata viene considerato decimale(38,18). In Spark 3.3 o versioni precedenti, Number o Number(*) da Teradata viene considerato Decimal(38, 0), nel qual caso la parte frazionaria viene rimossa.
- Dal momento che Spark 3.4, database v1, tabella, vista permanente e identificatore di funzione includono 'spark_catalog' come nome del catalogo se il database è definito, ad esempio, un identificatore di tabella è :
spark_catalog.default.t
. Per ripristinare il comportamento legacy, impostare suspark.sql.legacy.v1IdentifierNoCatalog
true
. - A partire da Spark 3.4, quando è attivata la modalità SQL ANSI (configurazione
spark.sql.ansi.enabled
), Spark SQL restituisce sempre un risultato NULL per ottenere un valore di mappa con una chiave non existing. In Spark 3.3 o versioni precedenti si verifica un errore. - A partire da Spark 3.4, l'interfaccia della riga di comando
spark-sql
di SQL non stampa il prefissoError in query:
prima del messaggio di errore diAnalysisException
. - Poiché Spark 3.4,
split
la funzione ignora le stringhe vuote finali quandoregex
il parametro è vuoto. - A partire da Spark 3.4, la
to_binary
funzione genera un errore per un input in formato non validostr
. Usaretry_to_binary
per tollerare l'input in formato non valido e restituire invece NULL.- La stringa valida
Base64
deve includere simboli inbase64
alfabeto (A-Za-z0-9+/), spazi vuoti facoltativi (=
) e spazi vuoti facoltativi. Gli spazi vuoti vengono ignorati nella conversione tranne quando sono preceduti da simboli di riempimento. Se la spaziatura interna è presente, deve concludere la stringa e seguire le regole descritte in RFC 4648 § 4. - Le stringhe esadecimali valide devono includere solo i simboli consentiti (0-9A-Fa-f).
- I valori validi per
fmt
sono senza distinzione trahex
maiuscole e minuscole, ,base64
utf-8
,utf8
.
- La stringa valida
- A partire da Spark 3.4, Spark genera un'eccezione solo
PartitionsAlreadyExistException
quando crea partizioni, ma alcune di esse esistono già. In Spark 3.3 o versioni precedenti Spark può generarePartitionsAlreadyExistException
oPartitionAlreadyExistsException
. - A partire da Spark 3.4, Spark convalida la specifica di partizione in ALTER PARTITION per seguire il comportamento di , che può causare un'eccezione se la conversione del
spark.sql.storeAssignmentPolicy
tipo non riesce, ad esempioALTER TABLE .. ADD PARTITION(p='a')
se la colonnap
è di tipo int. Per ripristinare il comportamento legacy, impostare suspark.sql.legacy.skipTypeValidationOnAlterPartition
true
. - A partire da Spark 3.4, i lettori vettorializzati sono abilitati per impostazione predefinita per i tipi di dati annidati (matrice, mappa e struct). Per ripristinare il comportamento legacy, impostare
spark.sql.orc.enableNestedColumnVectorizedReader
espark.sql.parquet.enableNestedColumnVectorizedReader
sufalse
. - Poiché Spark 3.4,
BinaryType
non è supportato nell'origine dati CSV. In Spark 3.3 o versioni precedenti gli utenti possono scrivere colonne binarie nell'origine dati CSV, ma il contenuto di output nei file CSV èObject.toString()
, che non ha significato. Nel frattempo, se gli utenti leggono tabelle CSV con colonne binarie, Spark genera un'eccezioneUnsupported type: binary
. - A partire da Spark 3.4, i join di filtro bloom sono abilitati per impostazione predefinita. Per ripristinare il comportamento legacy, impostare su
spark.sql.optimizer.runtime.bloomFilter.enabled
false
.
Structured Streaming
- Poiché Spark 3.4,
Trigger.Once
è deprecato e gli utenti sono invitati a eseguire la migrazione daTrigger.Once
aTrigger.AvailableNow
. Per altri dettagli, vedere SPARK-39805 . - A partire da Spark 3.4, il valore predefinito della configurazione per il recupero dell'offset Kafka (
spark.sql.streaming.kafka.useDeprecatedOffsetFetching
) viene modificato datrue
afalse
. Il valore predefinito non si basa più sulla pianificazione basata sul gruppo di consumer, che influisce sull'ACL richiesto. Per altre informazioni, vedere Structured Streaming Kafka Integration.For more information, see Structured Streaming Kafka Integration.
Nuove funzionalità e miglioramenti di Delta Lake 2.4
Delta Lake è un progetto open source che consente di creare un'architettura lakehouse su data lake lake. Delta Lake offre transazioni ACID, gestione scalabile dei metadati e unifica l'elaborazione dei dati in streaming e batch su data lake esistenti.
In particolare, Delta Lake offre:
- Transazioni ACID in Spark: i livelli di isolamento serializzabili assicurano che i lettori non visualizzino mai dati incoerenti.
- Gestione scalabile dei metadati: usa la potenza di elaborazione distribuita spark per gestire tutti i metadati per le tabelle con scalabilità petabyte con miliardi di file con facilità.
- Streaming e unificazione batch : una tabella in Delta Lake è una tabella batch e un'origine di streaming e un sink. Inserimento di dati in streaming, riempimento cronologico batch, query interattive funzionano tutti al di fuori della scatola.
- Imposizione dello schema: gestisce automaticamente le varianti dello schema per impedire l'inserimento di record non validi durante l'inserimento.
- Tempo di spostamento: il controllo delle versioni dei dati consente il rollback, i audit trail cronologici completi e gli esperimenti di Machine Learning riproducibili.
- Upserts ed eliminazioni: supporta operazioni di merge, aggiornamento ed eliminazione per abilitare casi d'uso complessi come change-data-capture, operazioni a modifica lenta della dimensione (SCD), upsert di streaming e così via.
Le funzionalità principali di questa versione sono le seguenti:
- Supporto per Apache Spark 3.4.
- Supporto per la scrittura di vettori di eliminazione per il
DELETE
comando . In precedenza, quando si eliminano righe da una tabella Delta, qualsiasi file con almeno una riga corrispondente verrà riscritto. Con i vettori di eliminazione è possibile evitare queste costose riscritture. Per altri dettagli, vedere Che cosa sono i vettori di eliminazione? - Supporto per tutte le operazioni di scrittura su tabelle con vettori di eliminazione abilitati.
- Supporto
PURGE
per rimuovere i vettori di eliminazione dalla versione corrente di una tabella Delta riscrivendo tutti i file di dati con vettori di eliminazione. Per altri dettagli, vedere la documentazione. - Supporto per la lettura del feed di dati delle modifiche per le tabelle con vettori di eliminazione abilitati.
- Supportare
REPLACE WHERE
le espressioni in SQL per sovrascrivere in modo selettivo i dati. Le opzioni "replaceWhere" in precedenza erano supportate solo nelle API DataFrameWriter. - Clausole di supporto
WHEN NOT MATCHED BY SOURCE
in SQL per il comando Merge. - Supporto dell'omissione di colonne generate dall'elenco di colonne per le query SQL
INSERT INTO
. Delta genera automaticamente i valori per le colonne generate non specificate. - Supportare il
TimestampNTZ
tipo di dati aggiunto in Spark 3.3. L'usoTimestampNTZ
di richiede un aggiornamento del protocollo Delta. Per altre informazioni, vedere la documentazione . - Consente di modificare il tipo di colonna di una
char
colonna ovarchar
in un tipo compatibile nelALTER TABLE
comando. Il nuovo comportamento è identico a quello di Apache Spark e consente il upcast dachar
ovarchar
avarchar
ostring
. - Blocca l'uso con
overwriteSchema
la sovrascrittura della partizione dinamica. Questo scenario può danneggiare la tabella perché non tutti i dati possono essere rimossi e lo schema delle nuove partizioni scritte non può corrispondere allo schema delle partizioni non modificate. - Restituisce un valore vuoto
DataFrame
per le letture del feed di dati di modifica quando non sono presenti commit nell'intervallo di timestamp specificato. In precedenza verrà generato un errore. - Correzione di un bug nelle letture del feed di dati delle modifiche per i record creati durante l'ora ambigua in cui si verifica l'ora legale.
- Correzione di un bug per cui l'esecuzione di query su una tabella Delta esterna nella radice di un bucket S3 genererebbe un errore.
- Rimuovere i metadati di Spark interni persi dal log Delta per rendere nuovamente leggibili le tabelle interessate.
Leggere la versione completa delle note sulla versione per Delta Lake 2.4.
Pacchetti di livello predefiniti per le librerie Java/Scala
La tabella seguente elenca tutti i pacchetti di livello predefiniti per Java/Scala e le rispettive versioni.
GroupId | ArtifactId | Versione |
---|---|---|
com.aliyun | aliyun-java-sdk-core | 4.5.10 |
com.aliyun | aliyun-java-sdk-kms | 2.11.0 |
com.aliyun | aliyun-java-sdk-ram | 3.1.0 |
com.aliyun | aliyun-sdk-oss | 3.13.0 |
com.amazonaws | aws-java-sdk-bundle | 1.12.262 |
com.clearspring.analytics | stream | 2.9.6 |
com.mdfsoftware | kryo-shaded | 4.0.2 |
com.mdfsoftware | minlog | 1.3.0 |
com.fasterxml.jackson | annotazioni jackson | 2.14.2 |
com.fasterxml.jackson | jackson-core | 2.14.2 |
com.fasterxml.jackson | jackson-core-asl | 1.9.13 |
com.fasterxml.jackson | jackson-databind | 2.14.2 |
com.fasterxml.jackson | jackson-dataformat-cbor | 2.14.2 |
com.fasterxml.jackson | jackson-mapper-asl | 1.9.13 |
com.fasterxml.jackson | jackson-module-scala_2.12 | 2.14.2 |
com.github.joshelser | dropwizard-metrics-hadoop-metrics2-reporter | 0.1.2 |
com.github.luben | zstd-jni | 1.5.2-5 |
com.github.vowpalwabbit | vw-jni | 9.3.0 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.cloud.bigdataoss | gcs-connector | hadoop3-2.2.11 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.2.4 |
com.google.crypto.tink | Tink | 1.7.0 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | Guava | 14.0.1 |
com.google.protobuf | protobuf-java | 2.5.0 |
com.googlecode.json-simple | json-simple | 1.1.1 |
com.jcraft | jsch | 0.1.54 |
com.jolbox | bonecp | 0.8.0.RELEA edizione Standard |
com.linkedin.isolation-forest | isolation-forest_3.2.0_2.12 | 2.0.8 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.azure | azure-eventhubs | 3.3.0 |
com.microsoft.azure | azure-eventhubs-spark_2.12 | 2.3.22 |
com.microsoft.azure | azure-keyvault-core | 1.0.0 |
com.microsoft.azure | azure-storage | 7.0.1 |
com.microsoft.azure | cosmos-analytics-spark-3.4.1-connector_2.12 | 1.8.10 |
com.microsoft.azure | qpid-proton-j-extensions | 1.2.4 |
com.microsoft.azure | synapseml_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure | synapseml-cognitive_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure | synapseml-core_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure | synapseml-deep-learning_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure | synapseml-internal_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure | synapseml-lightgbm_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure | synapseml-opencv_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure | synapseml-vw_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure.kusto | kusto-data | 3.2.1 |
com.microsoft.azure.kusto | kusto-ingest | 3.2.1 |
com.microsoft.azure.kusto | kusto-spark_3.0_2.12 | 3.1.16 |
com.microsoft.azure.kusto | spark-kusto-synapse-connector_3.1_2.12 | 1.3.3 |
com.microsoft.cognitiveservices.speech | client-jar-sdk | 1.14.0 |
com.microsoft.sqlserver | msslq-jdbc | 8.4.1.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.istack | istack-commons-runtime | 3.0.8 |
com.tdunning | JSON | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.typesafe | config | 1.3.4 |
com.univocità | univocità-parser | 2.9.1 |
com.zaxxer | HikariCP | 2.5.1 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4.jar |
dev.sdk.netlib | arpack | 3.0.3 |
dev.sdk.netlib | blas | 3.0.3 |
dev.sdk.netlib | lapack | 3.0.3 |
io.airlift | aircompressor | 0.21 |
io.delta | delta-core_2.12 | 2.4.0 |
io.delta | archiviazione differenziale | 2.4.0 |
io.dropwizard.metrics | metrics-core | 4.2.15 |
io.dropwizard.metrics | metrics-graphite | 4.2.15 |
io.dropwizard.metrics | metrics-jmx | 4.2.15 |
io.dropwizard.metrics | metrics-json | 4.2.15 |
io.dropwizard.metrics | metrics-jvm | 4.2.15 |
io.github.resilience4j | resilience4j-core | 1.7.1 |
io.github.resilience4j | resilience4j-retry | 1.7.1 |
io.netty | netty-all | 4.1.87.Final |
io.netty | netty-buffer | 4.1.87.Final |
io.netty | netty-codec | 4.1.87.Final |
io.netty | netty-codec-http2 | 4.1.87.Final |
io.netty | netty-codec-http-4 | 4.1.87.Final |
io.netty | netty-codec-socks | 4.1.87.Final |
io.netty | netty-common | 4.1.87.Final |
io.netty | netty-handler | 4.1.87.Final |
io.netty | netty-handler-proxy | 4.1.87.Final |
io.netty | netty-resolver | 4.1.87.Final |
io.netty | netty-transport | 4.1.87.Final |
io.netty | netty-transport-classes-epoll | 4.1.87.Final |
io.netty | netty-transport-classes-kqueue | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.87.Final |
io.opentracing | opentracing-api | 0.33.0 |
io.opentracing | opentracing-noop | 0.33.0 |
io.opentracing | opentracing-util | 0.33.0 |
io.spray | spray-json_2.12 | 1.3.5 |
io.vavr | vavr | 0.10.4 |
io.vavr | vavr-match | 0.10.4 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.inject | jakarta.inject | 2.6.1 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation-api | 2.0.2 | |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
jakarta.xml.bind | jakarta.xml.bind-api | 2.3.2 |
javax.activation | activation | 1.1.1 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.2 |
mysql | mysql-connector-java | 8.0.18 |
net.razorvine | Sottaceto | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.py4j | py4j | 0.10.9.7 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.apache.arrow | formato freccia | 11.0.0 |
org.apache.arrow | arrow-memory-core | 11.0.0 |
org.apache.arrow | arrow-memory-netty | 11.0.0 |
org.apache.arrow | freccia-vettore | 11.0.0 |
org.apache.avro | avro | 1.11.1 |
org.apache.avro | avro-ipc | 1.11.1 |
org.apache.avro | avro-mapred | 1.11.1 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.22 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-pool2 | 2.11.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curatore-cliente | 2.13.0 |
org.apache.curator | curatore-framework | 2.13.0 |
org.apache.curator | ricette curatori | 2.13.0 |
org.apache.derby | Derby | 10.14.2.0 |
org.apache.hadoop | hadoop-aliyun | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-annotations | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-aws | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-azure | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-azure-datalake | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-client-api | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-client-runtime | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-cloud-storage | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-openstack | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-shaded-guava | 1.1.1 |
org.apache.hadoop | hadoop-yarn-server-web-proxy | 3.3.4.5.3-105251583 |
org.apache.hive | hive-common | 2.3.9 |
org.apache.hive | hive-exec | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-metastore | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims-0.23 | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-shims-common | 2.3.9 |
org.apache.hive | hive-shims-scheduler | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.httpcomponents | httpmime | 4.5.14 |
org.apache.httpcomponents.client5 | httpclient5 | 5.1.3 |
org.apache.iceberg | delta-iceberg | 2.4.0.6 |
org.apache.ivy | ivy | 2.5.1 |
org.apache.kafka | kafka-clients | 3.3.2 |
org.apache.logging.log4j | log4j-1.2-api | 2.19.0 |
org.apache.logging.log4j | log4j-api | 2.19.0 |
org.apache.logging.log4j | log4j-core | 2.19.0 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.19.0 |
org.apache.orc | orc-core | 1.8.4 |
org.apache.orc | orc-mapreduce | 1.8.4 |
org.apache.orc | orc-shim | 1.8.4 |
org.apache.parquet | parquet-column | 1.12.3 |
org.apache.parquet | parquet-common | 1.12.3 |
org.apache.parquet | codifica parquet | 1.12.3 |
org.apache.parquet | strutture parquet-format-structures | 1.12.3 |
org.apache.parquet | parquet-hadoop | 1.12.3 |
org.apache.parquet | parquet-jackson | 1.12.3 |
org.apache.qpid | proton-j | 0.33.8 |
org.apache.spark | spark-avro_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-catalyst_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-core_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-graphx_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-hadoop-cloud_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-hive_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-kvstore_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-launcher_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-mllib_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-mllib-local_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-network-common_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-network-shuffle_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-repl_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-sketch_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-sql_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-sql-kafka-0-10_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-streaming_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-streaming-kafka-0-10-assembly_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-tags_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-token-provider-kafka-0-10_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-unsafe_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-yarn_2.12 | 3.4.1.5.3-105251583 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.22 |
org.apache.yetus | annotazioni del gruppo di destinatari | 0.5.0 |
org.apache.zookeeper | zookeeper | 3.6.3.5.3-105251583 |
org.apache.zookeeper | zookeeper-jute | 3.6.3.5.3-105251583 |
org.apiguardian | apiguardian-api | 1.1.0 |
org.codehaus.janino | commons-compiler | 3.1.9 |
org.codehaus.janino | janino | 3.1.9 |
org.codehaus.jettison | jettison | 1.1 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleusjavax.jdo | 3.2.0-m3 | |
org.eclipse.jetty | jetty-util | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-util-ajax | 9.4.50.v20221201 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.jaxb | jaxb-runtime | 2.3.2 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | maglia-comune | 2.36 |
org.glassfish.jersey.core | jersey-server | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.25.0-GA |
org.javatuples | javatuple | 1.2 |
org.jdom | jdom2 | 2.0.6 |
org.jetbrains | annotations | 17.0.0 |
org.jodd | jodd-core | 3.5.2 |
org.json | JSON | 20210307 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.junit.giove | junit-giove | 5.5.2 |
org.junit.giove | junit-jupiter-api | 5.5.2 |
org.junit.giove | junit-jupiter-engine | 5.5.2 |
org.junit.giove | junit-giove-params | 5.5.2 |
org.junit.platform | junit-platform-commons | 1.5.2 |
org.junit.platform | junit-platform-engine | 1.5.2 |
org.lz4 | lz4-java | 1.8.0 |
org.objenesis | objenesis | 3.2 |
org.openpnp | opencv | 3.2.0-1 |
org.opentest4j | opentest4j | 1.2.0 |
org.postgresql | postgresql | 42.2.9 |
org.roaringbitmap | RoaringBitmap | 0.9.38 |
org.roaringbitmap | Spessori | 0.9.38 |
org.rocksdb | rocksdbjni | 7.9.2 |
org.scala-lang | scala-compiler | 2.12.17 |
org.scala-lang | scala-library | 2.12.17 |
org.scala-lang | scala-reflect | 2.12.17 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.7.0 |
org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.0 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 2.1.1 |
org.scala-lang.modules | scala-xml_2.12 | 2.1.0 |
org.scalactic | scalactic_2.12 | 3.2.14 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.slf4j | jcl-over-slf4j | 2.0.6 |
org.slf4j | jul-to-slf4j | 2.0.6 |
org.slf4j | slf4j-api | 2.0.6 |
org.threeten | treten-extra | 1.7.1 |
org.cortanaani | xz | 1,9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire_2.12 | 0.17.0 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial.snappy | snappy-java | 1.1.10.1 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1,5 |
Stax | stax-api | 1.0.1 |
Pacchetti a livello predefinito per Python
La tabella seguente elenca tutti i pacchetti di livello predefiniti per Python e le rispettive versioni.
Libreria | Versione | Libreria | Versione | Libreria | Versione |
---|---|---|---|---|---|
_libgcc_mutex | 0,1 | jupyter_client | 8.5.0 | pycosat | 0.6.6 |
_openmp_mutex | 4.5 | jupyter_core | 5.4.0 | pycparser | 2.21 |
_py-xgboost-mutex | 2.0 | jupyter_events | 0.8.0 | pydantic | 1.10.9 |
absl-py | 2.0.0 | jupyter_server | 2.7.3 | pygments | 2.16.1 |
adal | 1.2.7 | jupyter_server_terminals | 0.4.4 | pyjwt | 2.8.0 |
adlfs | 2023.4.0 | jupyterlab_pygments | 0.2.2 | pynacl | 1.5.0 |
aiohttp | 3.8.6 | jupyterlab_widgets | 3.0.9 | pyodbc | 4.0.39 |
aiosignal | 1.3.1 | keras | 2.12.0 | pyopenssl | 23.2.0 |
Alembic | 1.12.0 | keras-preprocessing | 1.1.2 | pyparsing | 3.0.9 |
alsa-lib | 1.2.10 | keyutils | 1.6.1 | pyperclip | 1.8.2 |
ansi2html | 1.8.0 | kiwisolver | 1.4.5 | pypika | 0.48.9 |
anyio | 3.7.1 | krb5 | 1.21.2 | pyqt | 5.15.9 |
appdirs | 1.4.4 | lame | 3.100 | pyqt5-sip | 12.12.2 |
argon2-cffi | 23.1.0 | lcms2 | 2.15 | pysocks | 1.7.1 |
argon2-cffi-bindings | 21.2.0 | ld_impl_linux-64 | 2.40 | Python | 3.10.12 |
freccia | 1.3.0 | lerc | 4.0.0 | python-dateutil | 2.8.2 |
asttoken | 2.4.0 | liac-arff | 2.5.0 | python-fastjsonschema | 2.18.1 |
astunparse | 1.6.3 | libabseil | 20230125.3 | python-flatbuffers | 23.5.26 |
async-timeout | 4.0.3 | libaec | 1.1.2 | python-graphviz | 0.20.1 |
atk-1.0 | 2.38.0 | libarrow | 12.0.1 | python-json-logger | 2.0.7 |
Attr | 2.5.1 | libbrotlicommon | 1.0.9 | python-tzdata | 2023.3 |
attrs | 23.1.0 | libbrotlidec | 1.0.9 | python-xxhash | 3.4.1 |
pagina automatica | 0.5.2 | libbrotlienc | 1.0.9 | python_abi | 3.10 |
aws-c-auth | 0.7.3 | libcap | 2.69 | pythonnet | 3.0.1 |
aws-c-cal | 0.6.1 | libclang | 15.0.7 | pytorch | 2.0.1 |
aws-c-common | 0.9.0 | libclang13 | 15.0.7 | pytorch-mutex | 1.0 |
aws-c-compression | 0.2.17 | libcrc32c | 1.1.2 | pytz | 2023.3.post1 |
aws-c-event-stream | 0.3.1 | libcups | 2.3.3 | pyu2f | 0.1.5 |
aws-c-http | 0.7.11 | libcurl | 8.4.0 | pywin32-on-windows | 0.1.0 |
aws-c-io | 0.13.32 | libdeflate | 1,19 | pyyaml | 6.0.1 |
aws-c-mqtt | 0.9.3 | libebm | 0.4.3 | pyzmq | 25.1.1 |
aws-c-s3 | 0.3.14 | libedit | 3.1.20191231 | qt-main | 5.15.8 |
aws-c-sdkutils | 0.1.12 | libev | 4.33 | rdma-core | 28.9 |
aws-checksums | 0.1.17 | libevent | 2.1.12 | re2 | 2023.03.02 |
aws-crt-cpp | 0.21.0 | libexpat | 2.5.0 | readline | 8.2 |
aws-sdk-cpp | 1.10.57 | libffi | 3.4.2 | referencing | 0.30.2 |
azure-core | 1.29.4 | libflac | 1.4.3 | regex | 2023.8.8 |
azure-datalake-store | 0.0.51 | libgcc-ng | 13.2.0 | requests | 2.31.0 |
azure-identity | 1.14.1 | Libgcrypt | 1.10.1 | requests-oauthlib | 1.3.1 |
azure-storage-blob | 12.18.3 | libgd | 2.3.3 | retrying | 1.3.3 |
azure-storage-file-datalake | 12.12.0 | libgfortran-ng | 13.2.0 | rfc3339-validator | 0.1.4 |
backcall | 0.2.0 | libgfortran5 | 13.2.0 | rfc3986-validator | 0.1.1 |
backoff | 1.11.1 | libglib | 2.78.0 | rich | 13.6.0 |
Backports | 1.0 | libgoogle-cloud | 2.12.0 | rpds-py | 0.10.6 |
backports.functools_lru_cache | 1.6.5 | libgpg-error | 1,47 | rsa | 4.9 |
bcrypt | 4.0.1 | libgrpc | 1.54.3 | michelemel.yaml | 0.17.32 |
beautifulsoup4 | 4.12.2 | libhwloc | 2.9.3 | michelemel.yaml.clib | 0.2.7 |
blas | 1.0 | libiconv | 1.17 | ruamel_yaml | 0.15.80 |
bleach | 6.1.0 | libjpeg-turbo | 2.1.5.1 | s2n | 1.3.49 |
blinker | 1.6.3 | libllvm14 | 14.0.6 | sacrimoses | 0.0.53 |
brotli | 1.0.9 | libllvm15 | 15.0.7 | salib | 1.4.7 |
brotli-bin | 1.0.9 | libnghttp2 | 1.52.0 | scikit-learn | 1.3.0 |
brotli-python | 1.0.9 | libnsl | 2.0.1 | Scipy | 1.10.1 |
bzip2 | 1.0.8 | libnuma | 2.0.16 | seaborn | 0.12.2 |
c-ares | 1.20.1 | libogg | 1.3.4 | seaborn-base | 0.12.2 |
ca-certificates | 2023.7.22 | libopus | 1.3.1 | send2trash | 1.8.2 |
cached-property | 1.5.2 | libpng | 1.6.39 | trasformatori di frase | 2.0.0 |
cached_property | 1.5.2 | libpq | 15,4 | sentry-sdk | 1.32.0 |
cachetools | 5.3.2 | libprotobuf | 3.21.12 | seqeval | 1.2.2 |
cairo | 1.18.0 | libpulsar | 3.2.0 | setproctitle | 1.3.3 |
catboost | 1.1.1 | librsvg | 2.56.3 | setuptools | 68.2.2 |
certifi | 2023.7.22 | libsndfile | 1.2.2 | shap | 0.42.1 |
cffi | 1.16.0 | libsodium | 1.0.18 | shellingham | 1.5.4 |
charset-normalizer | 3.3.1 | libsqlite | 3.43.2 | sip | 6.7.12 |
chroma-hnswlib | 0.7.3 | libssh2 | 1.11.0 | sei | 1.16.0 |
chromadb | 0.4.13 | libstdcxx-ng | 13.2.0 | filtro dei dati | 0.0.7 |
Clic | 8.1.7 | libsystemd0 | 254 | smmap | 5.0.0 |
Scogliera | 4.2.0 | libthrift | 0.18.1 | snappy | 1.1.10 |
cloudpickle | 2.2.1 | libtiff | 4.6.0 | sniffio | 1.3.0 |
clr_loader | 0.2.6 | Libtool | 2.4.7 | soupsieve | 2.5 |
cmaes | 0.10.0 | libutf8proc | 2.8.0 | sqlalchemy | 2.0.22 |
cmd2 | 2.4.3 | libuuid | 2.38.1 | sqlparse | 0.4.4 |
Colorama | 0.4.6 | libuv | 1.46.0 | stack_data | 0.6.2 |
coloratilogi | 15.0.1 | libvorbis | 1.3.7 | starlette | 0.27.0 |
colorlog | 6.7.0 | libwebp | 1.3.2 | statsmodels | 0.14.0 |
serv | 0.1.4 | libwebp-base | 1.3.2 | stevedore | 5.1.0 |
conda-package-handling | 2.2.0 | libxcb | 1.15 | sympy | 1.12 |
conda-package-streaming | 0.9.0 | libxgboost | 1.7.6 | tabulate | 0.9.0 |
configparser | 5.3.0 | libxkbcommon | 1.6.0 | Tbb | 2021.10.0 |
contourpy | 1.1.1 | libxml2 | 2.11.5 | tenacity | 8.2.3 |
Crittografia | 41.0.5 | libxslt | 1.1.37 | tensorboard | 2.12.3 |
cycler | 0.12.1 | libzlib | 1.2.13 | tensorboard-data-server | 0.7.0 |
cython | 3.0.4 | lightgbm | 4.0.0 | tensorflow | 2.12.1 |
trattino | 2.14.0 | lime | 0.2.0.1 | tensorflow-base | 2.12.1 |
dash-core-components | 2.0.0 | llvm-openmp | 17.0.3 | tensorflow-estimator | 2.12.1 |
dash-html-components | 2.0.0 | llvmlite | 0.40.1 | termcolor | 2.3.0 |
dash-table | 5.0.0 | lxml | 4.9.3 | terminado | 0.17.1 |
dash_cytoscape | 0.2.0 | lz4-c | 1.9.4 | threadpoolctl | 3.2.0 |
databricks-cli | 0.18.0 | Mako | 1.2.4 | tiktoken | 0.5.1 |
dataclasses | 0,8 | Markdown | 3.4.4 | tinycss2 | 1.2.1 |
datasets | 2.14.6 | markdown-it-py | 3.0.0 | tk | 8.6.13 |
dbus | 1.13.6 | markupsafe | 2.1.3 | tokenizer | 0.13.3 |
debugpy | 1.8.0 | matplotlib | 3.7.2 | toml | 0.10.2 |
decorator | 5.1.1 | matplotlib-base | 3.7.2 | tomli | 2.0.1 |
defusedxml | 0.7.1 | matplotlib-inline | 0.1.6 | toolz | 0.12.0 |
dill | 0.3.7 | mdurl | 0.1.0 | tornado | 6.3.3 |
diskcache | 5.6.3 | mistune | 3.0.1 | tqdm | 4.66.1 |
distlib | 0.3.7 | mkl | 2021.4.0 | traitlets | 5.12.0 |
docker-py | 6.1.3 | mkl-service | 2.4.0 | Trasformatori | 4.26.0 |
docker-pycreds | 0.4.0 | mkl_fft | 1.3.1 | treeinterpreter | 0.2.2 |
entrypoints | 0,4 | mkl_random | 1.2.2 | typed-ast | 1.5.5 |
et_xmlfile | 1.1.0 | ml_dtypes | 0.3.1 | Typer | 0.9.0 |
exceptiongroup | 1.1.3 | mlflow-skinny | 2.6.0 | types-python-dateutil | 2.8.19.14 |
executing | 1.2.0 | Monotono | 1,5 | types-pytz | 2023.3.1.1 |
expat | 2.5.0 | Mpc | 1.3.1 | typing_extensions | 4.5.0 |
fastapi | 0.103.2 | mpfr | 4.2.1 | typing_utils | 0.1.0 |
flaml | 2.1.1dev2 | mpeg123 | 1.32.3 | tzdata | 2023c |
flask | 3.0.0 | mpmath | 1.3.0 | Ucx | 1.14.1 |
flatbuffers | 23.5.26 | msal | 1.24.1 | unicodedata2 | 15.1.0 |
font-ttf-dejavu-sans-mono | 2.37 | msal_extensions | 1.0.0 | unixodbc | 2.3.12 |
font-ttf-inconsolata | 3.000 | multidict | 6.0.4 | Modello URI | 1.3.0 |
font-ttf-source-code-pro | 2.038 | multiprocesso | 0.70.15 | urllib3 | 1.26.17 |
font-ttf-ubuntu | 0.83 | munkres | 1.1.4 | uvicorn | 0.23.2 |
fontconfig | 2.14.2 | mysql-common | 8.0.33 | virtualenv | 20.23.1 |
fonts-conda-ecosystem | 1 | mysql-libs | 8.0.33 | wandb | 0.15.12 |
font-conda-forge | 1 | nbclient | 0.8.0 | wcwidth | 0.2.8 |
fonttools | 4.43.1 | nbconvert-core | 7.9.2 | webcolors | 1.13 |
fqdn | 1.5.1 | nbformat | 5.9.2 | webencodings | 0.5.1 |
freetype | 2.12.1 | ncurses | 6.4 | websocket-client | 1.6.4 |
fribidi | 1.0.10 | nest-asyncio | 1.5.8 | werkzeug | 3.0.1 |
frozenlist | 1.4.0 | networkx | 3.2 | wheel | 0.41.2 |
fsspec | 2023.10.0 | nltk | 3.8.1 | widgetsnbextension | 4.0.9 |
gast | 0.4.0 | nspr | 4.35 | wrapt | 1.15.0 |
gdk-pixbuf | 2.42.10 | nss | 3,94 | xcb-util | 0.4.0 |
geographiclib | 1,52 | numba | 0.57.1 | xcb-util-image | 0.4.0 |
geopy | 2.3.0 | numpy | 1.24.3 | xcb-util-keysyms | 0.4.0 |
gettext | 0.21.1 | numpy-base | 1.24.3 | xcb-util-renderutil | 0.3.9 |
gevent | 23.9.0.post1 | oauthlib | 3.2.2 | xcb-util-wm | 0.4.1 |
gflags | 2.2.2 | onnxruntime | 1.16.1 | xgboost | 1.7.6 |
giflib | 5.2.1 | openai | 0.27.8 | xkeyboard-config | 2.40 |
gitdb | 4.0.11 | openjpeg | 2.5.0 | xorg-kbproto | 1.0.7 |
gitpython | 3.1.40 | openpyxl | 3.1.2 | xorg-libice | 1.1.1 |
glib | 2.78.0 | openssl | 3.1.4 | xorg-libsm | 1.2.4 |
glib-tools | 2.78.0 | opt-einsum | 3.3.0 | xorg-libx11 | 1.8.7 |
glog | 0.6.0 | opt_einsum | 3.3.0 | xorg-libxau | 1.0.11 |
Gmp | 6.2.1 | optuna | 2.8.0 | xorg-libxdmcp | 1.1.3 |
gmpy2 | 2.1.2 | orc | 1.9.0 | xorg-libxext | 1.3.4 |
google-auth | 2.23.3 | Esegue l' override | 7.4.0 | xorg-libxrender | 0.9.11 |
google-auth-oauthlib | 1.0.0 | creazione del pacchetto | 23,2 | xorg-renderproto | 0.11.1 |
google-pasta | 0.2.0 | pandas | 2.0.3 | xorg-xextproto | 7.3.0 |
graphite2 | 1.3.13 | pandas-stub | 2.1.1.230928 | xorg-xf86vidmodeproto | 2.3.1 |
graphviz | 8.1.0 | pandasql | 0.7.3 | xorg-xproto | 7.0.31 |
greenlet | 3.0.1 | pandocfilters | 1.5.0 | xxhash | 0.8.2 |
grpcio | 1.54.3 | Pango | 1.50.14 | xz | 5.2.6 |
gst-plugins-base | 1.22.6 | paramiko | 3.3.1 | Yaml | 0.2.5 |
gstreamer | 1.22.6 | parso | 0.8.3 | yarl | 1.9.2 |
gtk2 | 2.24.33 | Pathos | 0.3.1 | zeromq | 4.3.5 |
Gts | 0.7.6 | pathtools | 0.1.2 | zipp | 3.17.0 |
h11 | 0.14.0 | patsy | 0.5.3 | zlib | 1.2.13 |
h5py | 3.10.0 | Pbr | 5.11.1 | zope.event | 5.0 |
harfbuzz | 8.2.1 | pcre2 | 10.40 | zope.interface | 6.1 |
hdf5 | 1.14.2 | pexpect | 4.8.0 | zstandard | 0.21.0 |
festività | 0,35 | pickleshare | 0.7.5 | zstd | 1.5.5 |
html5lib | 1.1 | pillow | 10.0.1 | astor | 0.8.1 |
huggingface_hub | 0.18.0 | pip | 23.1.2 | contextlib2 | 21.6.0 |
amico umano | 10.0 | pixman | 0.42.2 | filelock | 3.11.0 |
icu | 73,2 | pkgutil-resolve-name | 1.3.10 | fluent-logger | 0.10.0 |
idna | 3.4 | platformdirs | 3.5.1 | gson | 0.0.3 |
imageio | 2.31.1 | plotly | 5.16.1 | jaraco-context | 4.3.0 |
importlib-metadata | 6.8.0 | Ply | 3.11 | joblibspark | 0.5.2 |
importlib-resources | 6.1.0 | pooch | 1.8.0 | json-tricks | 3.17.3 |
importlib_metadata | 6.8.0 | portalocker | 2.8.2 | jupyter-ui-poll | 0.2.2 |
importlib_resources | 6.1.0 | posthog | 3.0.2 | more-itertools | 10.1.0 |
intel-openmp | 2021.4.0 | Pox | 0.3.3 | msgpack | 1.0.7 |
interpret | 0.4.3 | ppft | 1.7.6.7 | mypy | 1.4.1 |
interpret-core | 0.4.3 | bellatable | 3.8.0 | mypy-extensions | 1.0.0 |
ipykernel | 6.26.0 | prometheus_client | 0.17.1 | nni | 2.10.1 |
ipython | 8.14.0 | prompt-toolkit | 3.0.39 | powerbiclient | 3.1.1 |
ipywidgets | 8.0.7 | prompt_toolkit | 3.0.39 | pyspark | 3.4.1.5.3.20230713 |
isodate | 0.6.1 | protobuf | 4.21.12 | pythonwebhdfs | 0.2.3 |
isoduration | 20.11.0 | psutil | 5.9.5 | responses | 0.23.3 |
itsdangerous | 2.1.2 | pthread-stub | 0,4 | rouge-score | 0.1.2 |
Jax | 0.4.17 | ptyprocess | 0.7.0 | schema | 0.7.5 |
jaxlib | 0.4.14 | pulsar-client | 3.3.0 | simplejson | 3.19.2 |
jedi | 0.19.1 | pulseaudio-client | 16.1 | synapseml-mlflow | 1.0.22.post2 |
jinja2 | 3.1.2 | pure_eval | 0.2.2 | synapseml-utils | 1.0.18.post1 |
joblib | 1.3.2 | py-xgboost | 1.7.6 | typeguard | 2.13.3 |
jsonpointer | 2.4 | py4j | 0.10.9.7 | types-pyyaml | 6.0.12.12 |
jsonschema | 4.19.1 | pyarrow | 12.0.1 | typing-extensions | 4.8.0 |
jsonschema-specifications | 2023.7.1 | pyasn1 | 0.5.0 | Websockets | 12.0 |
jsonschema-with-format-nongpl | 4.19.1 | pyasn1-modules | 0.3.0 | wolframalpha | 5.0.0 |
xmltodict | 0.13.0 |
Pacchetti a livello predefinito per R
Nella tabella seguente sono elencati tutti i pacchetti di livello predefiniti per R e le rispettive versioni.
Libreria | Versione | Libreria | Versione | Libreria | Versione |
---|---|---|---|---|---|
_libgcc_mutex | 0,1 | r-caret | 6.0_94 | r-lodi | 1.0.0 |
_openmp_mutex | 4.5 | r-cellranger | 1.1.0 | r-prettyunits | 1.2.0 |
_r-mutex | 1.0.1 | r-class | 7.3_22 | r-proc | 1.18.4 |
_r-xgboost-mutex | 2.0 | r-cli | 3.6.1 | r-processx | 3.8.2 |
aws-c-auth | 0.7.0 | r-clipr | 0.8.0 | r-prodlim | 2023.08.28 |
aws-c-cal | 0.6.0 | r-clock | 0.7.0 | r-profvis | 0.3.8 |
aws-c-common | 0.8.23 | r-codetools | 0.2_19 | r-progress | 1.2.2 |
aws-c-compression | 0.2.17 | r-collections | 0.3.7 | r-progressr | 0.14.0 |
aws-c-event-stream | 0.3.1 | r-colorspace | 2.1_0 | promesse r | 1.2.1 |
aws-c-http | 0.7.10 | r-commonmark | 1.9.0 | r-proxy | 0.4_27 |
aws-c-io | 0.13.27 | r-config | 0.3.2 | r-pryr | 0.1.6 |
aws-c-mqtt | 0.8.13 | r-conflicted | 1.2.0 | r-ps | 1.7.5 |
aws-c-s3 | 0.3.12 | r-coro | 1.0.3 | r-purrr | 1.0.2 |
aws-c-sdkutils | 0.1.11 | r-cpp11 | 0.4.6 | r-quantmod | 0.4.25 |
aws-checksums | 0.1.16 | r-crayon | 1.5.2 | r-r2d3 | 0.2.6 |
aws-crt-cpp | 0.20.2 | r-credentials | 2.0.1 | r-r6 | 2.5.1 |
aws-sdk-cpp | 1.10.57 | r-crosstalk | 1.2.0 | r-r6p | 0.3.0 |
binutils_impl_linux-64 | 2.40 | r-crul | 1.4.0 | r-ragg | 1.2.6 |
bwidget | 1.9.14 | r-curl | 5.1.0 | r-rappdirs | 0.3.3 |
bzip2 | 1.0.8 | r-data.table | 1.14.8 | r-rbokeh | 0.5.2 |
c-ares | 1.20.1 | r-dbi | 1.1.3 | r-rcmdcheck | 1.4.0 |
ca-certificates | 2023.7.22 | r-dbplyr | 2.3.4 | r-rcolorbrewer | 1.1_3 |
cairo | 1.18.0 | r-desc | 1.4.2 | r-rcpp | 1.0.11 |
Cmake | 3.27.6 | r-devtools | 2.4.5 | r-reactable | 0.4.4 |
curl | 8.4.0 | Diagramma r | 1.6.5 | r-reactr | 0.5.0 |
expat | 2.5.0 | r-dials | 1.2.0 | r-readr | 2.1.4 |
font-ttf-dejavu-sans-mono | 2.37 | r-dicedesign | 1,9 | r-readxl | 1.4.3 |
font-ttf-inconsolata | 3.000 | r-diffobj | 0.3.5 | r-ricette | 1.0.8 |
font-ttf-source-code-pro | 2.038 | r-digest | 0.6.33 | r-rematch | 2.0.0 |
font-ttf-ubuntu | 0.83 | r-downlit | 0.4.3 | r-rematch2 | 2.1.2 |
fontconfig | 2.14.2 | r-dplyr | 1.1.3 | r-remotes | 2.4.2.1 |
fonts-conda-ecosystem | 1 | r-dtplyr | 1.3.1 | r-reprex | 2.0.2 |
font-conda-forge | 1 | r-e1071 | 1.7_13 | r-reshape2 | 1.4.4 |
freetype | 2.12.1 | puntini di sospensione r | 0.3.2 | r-rjson | 0.2.21 |
fribidi | 1.0.10 | r-evaluate | 0,23 | r-rlang | 1.1.1 |
gcc_impl_linux-64 | 13.2.0 | r-fansi | 1.0.5 | r-rlist | 0.4.6.2 |
gettext | 0.21.1 | r-farver | 2.1.1 | r-rmarkdown | 2,22 |
gflags | 2.2.2 | r-fastmap | 1.1.1 | r-rodbc | 1.3_20 |
gfortran_impl_linux-64 | 13.2.0 | r-fontawesome | 0.5.2 | r-roxygen2 | 7.2.3 |
glog | 0.6.0 | r-forcats | 1.0.0 | r-rpart | 4.1.21 |
glpk | 5.0 | r-foreach | 1.5.2 | r-rprojroot | 2.0.3 |
Gmp | 6.2.1 | r-forge | 0.2.0 | r-rsample | 1.2.0 |
graphite2 | 1.3.13 | r-fs | 1.6.3 | r-rstudioapi | 0.15.0 |
Gsl | 2.7 | r-furrr | 0.3.1 | r-rversions | 2.1.2 |
gxx_impl_linux-64 | 13.2.0 | r-future | 1.33.0 | r-rvest | 1.0.3 |
harfbuzz | 8.2.1 | r-future.apply | 1.11.0 | r-sass | 0.4.7 |
icu | 73,2 | r-gargle | 1.5.2 | r-scales | 1.2.1 |
kernel-headers_linux-64 | 2.6.32 | r-generics | 0.1.3 | r-selectr | 0.4_2 |
keyutils | 1.6.1 | r-gert | 2.0.0 | r-sessioninfo | 1.2.2 |
krb5 | 1.21.2 | r-ggplot2 | 3.4.2 | r-shape | 1.4.6 |
ld_impl_linux-64 | 2.40 | r-gh | 1.4.0 | r-lucidi | 1.7.5.1 |
lerc | 4.0.0 | r-gistr | 0.9.0 | dispositivo di scorrimento r | 0.3.1 |
libabseil | 20230125.3 | r-gitcreds | 0.1.2 | r-sourcetools | 0.1.7_1 |
libarrow | 12.0.0 | r-globals | 0.16.2 | r-sparklyr | 1.8.2 |
libblas | 3.9.0 | r-glue | 1.6.2 | r-squarem | 2021.1 |
libbrotlicommon | 1.0.9 | r-googledrive | 2.1.1 | r-stringi | 1.7.12 |
libbrotlidec | 1.0.9 | r-googlesheets4 | 1.1.1 | r-stringr | 1.5.0 |
libbrotlienc | 1.0.9 | r-gower | 1.0.1 | r-survival | 3.5_7 |
libcblas | 3.9.0 | r-gpfit | 1.0_8 | r-sys | 3.4.2 |
libcrc32c | 1.1.2 | r-gt | 0.9.0 | r-systemfonts | 1.0.5 |
libcurl | 8.4.0 | r-gtable | 0.3.4 | r-testat | 3.2.0 |
libdeflate | 1,19 | r-gtsummary | 1.7.2 | r-textshaping | 0.3.7 |
libedit | 3.1.20191231 | r-hardhat | 1.3.0 | r-tibble | 3.2.1 |
libev | 4.33 | r-haven | 2.5.3 | r-tidymodels | 1.1.0 |
libevent | 2.1.12 | r-hexbin | 1.28.3 | r-tidyr | 1.3.0 |
libexpat | 2.5.0 | r-highcharter | 0.9.4 | r-tidyselect | 1.2.0 |
libffi | 3.4.2 | r-highr | 0,10 | r-tidyverse | 2.0.0 |
libgcc-devel_linux-64 | 13.2.0 | r-hms | 1.1.3 | r-timechange | 0.2.0 |
libgcc-ng | 13.2.0 | r-htmltools | 0.5.6.1 | r-timedate | 4022.108 |
libgfortran-ng | 13.2.0 | r-htmlwidgets | 1.6.2 | r-tinytex | 0.48 |
libgfortran5 | 13.2.0 | r-httpcode | 0.3.0 | r-torch | 0.11.0 |
libgit2 | 1.7.1 | r-httpuv | 1.6.12 | r-triebeard | 0.4.1 |
libglib | 2.78.0 | r-httr | 1.4.7 | r-ttr | 0.24.3 |
libgomp | 13.2.0 | r-httr2 | 0.2.3 | r-tune | 1.1.2 |
libgoogle-cloud | 2.12.0 | r-ids | 1.0.1 | r-tzdb | 0.4.0 |
libgrpc | 1.55.1 | r-igraph | 1.5.1 | r-urlchecker | 1.0.1 |
libiconv | 1.17 | r-infer | 1.0.5 | r-urltools | 1.7.3 |
libjpeg-turbo | 3.0.0 | r-ini | 0.3.1 | r-usethis | 2.2.2 |
liblapack | 3.9.0 | r-ipred | 0.9_14 | r-utf8 | 1.2.4 |
libnghttp2 | 1.55.1 | r-isoband | 0.2.7 | r-uuid | 1.1_1 |
libnuma | 2.0.16 | r-iteratori | 1.0.14 | r-v8 | 4.4.0 |
libopenblas | 0.3.24 | r-jose | 1.2.0 | r-vctrs | 0.6.4 |
libpng | 1.6.39 | r-jquerylib | 0.1.4 | r-viridislite | 0.4.2 |
libprotobuf | 4.23.2 | r-jsonlite | 1.8.7 | r-vroom | 1.6.4 |
libsanitizer | 13.2.0 | r-juicyjuice | 0.1.0 | r-waldo | 0.5.1 |
libssh2 | 1.11.0 | r-kernsmooth | 2.23_22 | r-warp | 0.2.0 |
libstdcxx-devel_linux-64 | 13.2.0 | r-knitr | 1.45 | r-whisker | 0.4.1 |
libstdcxx-ng | 13.2.0 | etichettatura r | 0.4.3 | r-withr | 2.5.2 |
libthrift | 0.18.1 | r etichettato | 2.12.0 | flussi di lavoro r | 1.1.3 |
libtiff | 4.6.0 | r-later | 1.3.1 | set di flussi di lavoro r | 1.0.1 |
libutf8proc | 2.8.0 | r-reticolo | 0.22_5 | r-xfun | 0,41 |
libuuid | 2.38.1 | r-lava | 1.7.2.1 | r-xgboost | 1.7.4 |
libuv | 1.46.0 | r-lazyeval | 0.2.2 | r-xml | 3.99_0.14 |
libv8 | 8.9.83 | r-lhs | 1.1.6 | r-xml2 | 1.3.5 |
libwebp-base | 1.3.2 | ciclo di vita r | 1.0.3 | r-xopen | 1.0.0 |
libxcb | 1.15 | r-lightgbm | 3.3.5 | r-xtable | 1.8_4 |
libxgboost | 1.7.4 | r-listenv | 0.9.0 | r-xts | 0.13.1 |
libxml2 | 2.11.5 | r-lobstr | 1.1.2 | r-yaml | 2.3.7 |
libzlib | 1.2.13 | r-lubridate | 1.9.3 | r-yardstick | 1.2.0 |
lz4-c | 1.9.4 | r-magrittr | 2.0.3 | r-zip | 2.3.0 |
make | 4.3 | r-maps | 3.4.1 | r-zoo | 1.8_12 |
ncurses | 6.4 | r-markdown | 1.11 | rdma-core | 28.9 |
openssl | 3.1.4 | r-mass | 7.3_60 | re2 | 2023.03.02 |
orc | 1.8.4 | r-matrix | 1.6_1.1 | readline | 8.2 |
pandoc | 2.19.2 | r-memoise | 2.0.1 | rhash | 1.4.4 |
Pango | 1.50.14 | r-mgcv | 1.9_0 | s2n | 1.3.46 |
pcre2 | 10.40 | r-mime | 0.12 | berlina | 4.8 |
pixman | 0.42.2 | r-miniui | 0.1.1.1 | snappy | 1.1.10 |
pthread-stub | 0,4 | r-modeldata | 1.2.0 | sysroot_linux-64 | 2.12 |
freccia r | 12.0.0 | r-modelenv | 0.1.1 | tk | 8.6.13 |
r-askpass | 1.2.0 | r-modelmetrics | 1.2.2.2 | tktable | 2.10 |
r-assertthat | 0.2.1 | r-modelr | 0.1.11 | Ucx | 1.14.1 |
r-backports | 1.4.1 | r-munsell | 0.5.0 | unixodbc | 2.3.12 |
r-base | 4.2.3 | r-nlme | 3.1_163 | xorg-kbproto | 1.0.7 |
r-base64enc | 0.1_3 | r-nnet | 7.3_19 | xorg-libice | 1.1.1 |
r-bigd | 0.2.0 | r-numderiv | 2016.8_1.1 | xorg-libsm | 1.2.4 |
r-bit | 4.0.5 | r-openssl | 2.1.1 | xorg-libx11 | 1.8.7 |
r-bit64 | 4.0.5 | r in parallelo | 1.36.0 | xorg-libxau | 1.0.11 |
r-bitops | 1.0_7 | r-parsnip | 1.1.1 | xorg-libxdmcp | 1.1.3 |
r-blob | 1.2.4 | r-patchwork | 1.1.3 | xorg-libxext | 1.3.4 |
r-brew | 1.0_8 | r-pillar | 1.9.0 | xorg-libxrender | 0.9.11 |
r-brio | 1.1.3 | r-pkgbuild | 1.4.2 | xorg-libxt | 1.3.0 |
scopa | 1.0.5 | r-pkgconfig | 2.0.3 | xorg-renderproto | 0.11.1 |
r-broom.helpers | 1.14.0 | r-pkgdown | 2.0.7 | xorg-xextproto | 7.3.0 |
r-bslib | 0.5.1 | r-pkgload | 1.3.3 | xorg-xproto | 7.0.31 |
r-cachem | 1.0.8 | r plotly | 4.10.2 | xz | 5.2.6 |
r-callr | 3.7.3 | r-plyr | 1.8.9 | zlib | 1.2.13 |
zstd | 1.5.5 |
Contenuto correlato
Commenti e suggerimenti
https://aka.ms/ContentUserFeedback.
Presto disponibile: Nel corso del 2024 verranno gradualmente disattivati i problemi di GitHub come meccanismo di feedback per il contenuto e ciò verrà sostituito con un nuovo sistema di feedback. Per altre informazioni, vedereInvia e visualizza il feedback per