Runtime 1.2

Microsoft Fabric Runtime è una piattaforma integrata in Azure basata su Apache Spark che consente l'esecuzione e la gestione di esperienze di data engineering e data science. Questo documento illustra i componenti e le versioni di Runtime 1.2.

Microsoft Fabric Runtime 1.2 è la versione più recente del runtime ga. I componenti principali di Runtime 1.2 includono:

  • Apache Spark 3.4.1
  • Sistema operativo: Mariner 2.0
  • Java: 11
  • Scala: 2.12.17
  • Python: 3.10
  • Delta Lake: 2.4.0
  • R: 4.2.2

Screenshot showing where to select runtime version.

Microsoft Fabric Runtime 1.2 include una raccolta di pacchetti di livello predefiniti, tra cui un'installazione completa di Anaconda e librerie comunemente usate per Java/Scala, Python e R. Queste librerie vengono incluse automaticamente quando si usano notebook o processi nella piattaforma Microsoft Fabric. Per un elenco completo delle librerie, vedere la documentazione. Microsoft Fabric implementa periodicamente gli aggiornamenti di manutenzione per Runtime 1.2, fornendo correzioni di bug, miglioramenti delle prestazioni e patch di sicurezza. Rimanere aggiornati garantisce prestazioni e affidabilità ottimali per le attività di elaborazione dei dati.

Nuove funzionalità e miglioramenti di Spark Release 3.4.1

Apache Spark 3.4.0 è la quinta versione nella riga 3.x. Questa versione, guidata dalla community open source, ha risolto oltre 2.600 ticket Jira. Introduce un client Python per Spark Connessione, migliora Structured Streaming con il rilevamento dello stato asincrono e l'elaborazione con stato Python. Espande la copertura dell'API Pandas con il supporto dell'input NumPy, semplifica la migrazione dai data warehouse tradizionali tramite la conformità ANSI e le nuove funzioni predefinite. Migliora anche la produttività e il debug dello sviluppo con la profilatura della memoria. Inoltre, Runtime 1.2 è basato su Apache Spark 3.4.1, una versione di manutenzione incentrata sulle correzioni di stabilità.

In primo piano

  • Implementare il supporto per i valori DEFAULT per le colonne nelle tabelle (SPARK-38334)
  • Supporto del tipo di dati TIMESTAMP WITHOUT TIMEZONE (SPARK-35662)
  • Supporto di "Riferimenti alias di colonna laterale" (SPARK-27561)
  • Rafforzare l'utilizzo di SQLSTATE per le classi di errore (SPARK-41994)
  • Abilitare join di filtro Bloom per impostazione predefinita (SPARK-38841)
  • Maggiore scalabilità dell'interfaccia utente Spark e stabilità dei driver per applicazioni di grandi dimensioni (SPARK-41053)
  • Rilevamento dello stato asincrono in Structured Streaming (SPARK-39591)
  • Elaborazione arbitraria con stato python in structured streaming (SPARK-40434)
  • Miglioramenti della copertura api Pandas (SPARK-42882) e supporto dell'input NumPy in PySpark (SPARK-39405)
  • Fornire un profiler di memoria per le funzioni definite dall'utente pySpark (SPARK-40281)
  • Implementare il server di distribuzione PyTorch (SPARK-41589)
  • Pubblicare artefatti SBOM (distinta software di materiali) (SPARK-41893)
  • Implementare il supporto per i valori DEFAULT per le colonne nelle tabelle (SPARK-38334)
  • Supporto di SQL con parametri (SPARK-41271, SPARK-42702)
  • Implementare il supporto per i valori DEFAULT per le colonne nelle tabelle (SPARK-38334)
  • Aggiungere Dataset.as(StructType) (SPARK-39625)
  • Supporto di SQL con parametri (SPARK-41271, SPARK-42702)
  • Aggiungere unpivot/melt (SPARK-38864, SPARK-39876)
  • Supporto di "riferimenti alias di colonna laterale" (SPARK-27561)
  • Clausola di offset dei risultati di supporto (SPARK-28330, SPARK-39159)
  • Supporto del timestamp senza tipo di dati fuso orario (SPARK-35662)
  • Supportare la sottoquery scalare nel tempo di spostamento (SPARK-39306)
  • Rendere l'API catalogo compatibile con uno spazio dei nomi a 3 livelli (SPARK-39235)
  • Supporto del timestamp in secondi per TimeFrame con le opzioni del dataframe (SPARK-39633)
  • Aggiungere SparkSession.config(Map) (SPARK-40163)
  • Supporto della modifica del database predefinito del catalogo di sessioni (SPARK-35242)
  • Supporto protobuf per Spark - from_protobuf AND to_protobuf (SPARK-40654)
  • Aggiungere la clausola WHEN NOT MATCHED BY SOURCE a MERGE INTO (SPARK-40921)
  • Vincolo di ordinamento rilassante per le opzioni di colonna CREATE TABLE (SPARK-40944)
  • Equivalente SQL per il comando di sovrascrittura del dataframe (SPARK-40956)
  • Supporto della generazione senza output figlio necessario per ospitare riferimenti esterni (SPARK-41441)
  • ORDER BY ALL (SPARK-41637)
  • GROUP BY ALL (SPARK-41635)
  • Aggiungere flatMapSortedGroups e cogroupSorted (SPARK-38591)
  • Supportare sottoquery con predicati di non uguaglianza correlati (SPARK-36114)
  • Supportare sottoquery con correlazione tramite UNION/INTER edizione Standard CT/EXCEPT (SPARK-36124)
  • Correggere l'errore OOM non può essere segnalato quando AQE (esecuzione di query adattive) in (SPARK-42290)
  • Correggere la logica di taglio non ha gestito correttamente i caratteri di controllo ASCII (SPARK-44383)
  • Dataframe.joinWith outer-join deve restituire un valore Null per la riga senza corrispondenza (SPARK-37829)
  • Usare le utilità per ottenere l'opzione per l'allocazione dinamica usata nel checkpoint locale (SPARK-42421)
  • Aggiungere CapturedException alle utilità (SPARK-42078)
  • Supporto di edizione Standard LECT DEFAULT con ORDER BY, LIMIT, OFF edizione Standard T per la relazione di origine IN edizione Standard RT (SPARK-43071)
  • Client Python per spark Connessione (SPARK-39375)

Leggere la versione completa delle note sulla versione per una versione specifica di Apache Spark visitando sia Spark 3.4.0 che Spark 3.4.1.

Nuove ottimizzazioni di query personalizzate

Supporto delle scritture simultanee in Spark

Se si verifica un errore 404 con il messaggio "Operazione non riuscita: il percorso specificato non esiste" è un problema comune quando si eseguono inserimenti di dati paralleli nella stessa tabella usando una query SQL IN edizione Standard RT INTO. Questo errore può causare la perdita di dati. La nuova funzionalità, l'algoritmo di commit dell'output dei file, risolve questo problema, consentendo ai clienti di eseguire facilmente l'inserimento parallelo dei dati.

Per accedere a questa funzionalità, abilitare il spark.sql.enable.concurrentWrites flag di funzionalità, che è abilitato per impostazione predefinita a partire da Runtime 1.2 (Spark 3.4). Anche se questa funzionalità è disponibile anche in altre versioni di Spark 3, non è abilitata per impostazione predefinita. Questa funzionalità non supporta l'esecuzione parallela di query IN edizione Standard RT OVERWRITE in cui ogni processo simultaneo sovrascrive i dati in partizioni diverse della stessa tabella in modo dinamico. A questo scopo, Spark offre una funzionalità alternativa, che può essere attivata configurando l'impostazione spark.sql.sources.partitionOverwriteMode su dinamica.

Letture intelligenti, che ignorano i file dai processi non riusciti

Nel sistema di commit di Spark corrente, quando un inserimento in un processo di tabella ha esito negativo ma alcune attività hanno esito positivo, i file generati dalle attività riuscite coesistono con i file del processo non riuscito. Questa coesistenza può causare confusione per gli utenti perché diventa difficile distinguere tra i file appartenenti a processi riusciti e non riusciti. Inoltre, quando un processo legge da una tabella mentre un altro inserisce i dati contemporaneamente nella stessa tabella, il processo di lettura potrebbe accedere ai dati non inviati. Se un processo di scrittura non riesce, il processo di lettura potrebbe elaborare dati non corretti.

Il spark.sql.auto.cleanup.enabled flag controlla la nuova funzionalità, risolvendo questo problema. Quando è abilitata, Spark ignora automaticamente i file di lettura che non sono stati sottoposti a commit quando esegue spark.read o seleziona query da una tabella. I file scritti prima di abilitare questa funzionalità continuano a essere letti come di consueto.

Ecco le modifiche visibili:

  • Tutti i file ora includono un tid-{jobID} identificatore nei nomi file.
  • Invece del _success marcatore creato in genere nella posizione di output al completamento del processo, viene generato un nuovo _committed_{jobID} marcatore. Questo marcatore associa gli ID processo riusciti a nomi di file specifici.
  • È stato introdotto un nuovo comando SQL che gli utenti possono eseguire periodicamente per gestire l'archiviazione e pulire i file di cui non è stato eseguito il commit. La sintassi per questo comando è la seguente:
    • Per pulire una directory specifica: CLEANUP ('/path/to/dir') [RETAIN number HOURS];
    • Per pulire una tabella specifica: CLEANUP [db_name.]table_name [RETAIN number HOURS]; in questa sintassi rappresenta path/to/dir l'URI della posizione in cui è necessaria la pulizia ed number è un valore di tipo doppio che rappresenta il periodo di conservazione. Il periodo di conservazione predefinito è impostato su sette giorni.
  • È stata introdotta una nuova opzione di configurazione denominata spark.sql.deleteUncommittedFilesWhileListing, che è impostata su per false impostazione predefinita. L'abilitazione di questa opzione comporta l'eliminazione automatica dei file di cui non è stato eseguito il commit durante le letture, ma questo scenario potrebbe rallentare le operazioni di lettura. È consigliabile eseguire manualmente il comando cleanup quando il cluster è inattiva anziché abilitare questo flag.

Guida alla migrazione da Runtime 1.1 a Runtime 1.2

Quando si esegue la migrazione da Runtime 1.1, basato su Apache Spark 3.3, a Runtime 1.2, basato su Apache Spark 3.4, vedere la guida ufficiale alla migrazione. Ecco le principali evidenziazioni:

Memoria centrale

  • A partire da Spark 3.4, il driver Spark è proprietario PersistentVolumnClaime tenta di riutilizzare se non sono assegnati agli executor live. Per ripristinare il comportamento prima di Spark 3.4, è possibile impostare su spark.kubernetes.driver.ownPersistentVolumeClaimfalse e spark.kubernetes.driver.reusePersistentVolumeClaim su false.
  • A partire da Spark 3.4, il driver Spark tiene traccia dei dati casuali quando l'allocazione dinamica è abilitata senza servizio casuale. Per ripristinare il comportamento prima di Spark 3.4, è possibile impostare su spark.dynamicAllocation.shuffleTracking.enabledfalse.
  • A partire da Spark 3.4, Spark tenta di rimuovere le autorizzazioni rdd memorizzate nella cache (set di dati distribuiti resilienti) e i blocchi casuali se entrambi spark.decommission.enabled e spark.storage.decommission.enabled sono true. Per ripristinare il comportamento prima di Spark 3.4, è possibile impostare sia spark.storage.decommission.rddBlocks.enabled che spark.storage.decommission.shuffleBlocks.enabled su false.
  • A partire da Spark 3.4, Spark usa l'archivio RocksDB se spark.history.store.hybridStore.enabled è true. Per ripristinare il comportamento prima di Spark 3.4, è possibile impostare su spark.history.store.hybridStore.diskBackendLEVELDB.

PySpark

  • In Spark 3.4 lo schema di una colonna di matrice viene dedotto unendo gli schemi di tutti gli elementi nella matrice. Per ripristinare il comportamento precedente in cui lo schema viene dedotto solo dal primo elemento, è possibile impostare su spark.sql.pyspark.legacy.inferArrayTypeFromFirstElement.enabledtrue.
  • In Spark 3.4, quando si usa l'API Groupby.applyPandas in Spark , se il tipo restituito del func parametro non è specificato e compute.shortcut_limit è impostato su 0, il numero di righe di campionamento viene impostato automaticamente su 2. Questa regolazione garantisce che siano sempre presenti almeno due righe di campionamento per mantenere l'inferenza accurata dello schema.
  • In Spark 3.4, se Pandas nell'API Index.insert Spark non è limitato, genera IndexError con index {} is out of bounds for axis 0 with size {} per seguire il comportamento pandas 1.4.
  • In Spark 3.4 il nome della serie viene mantenuto in Pandas nell'API Series.mode Spark per allinearsi al comportamento pandas 1.4.
  • In Spark 3.4 il tipo di controllo dell'API Index.__setitem__value Pandas on Spark è Column il tipo per evitare la generazione di colonne impreviste ValueError , ad esempio Impossibile convertire la colonna in is_list_like bool: usare '&' per 'and', '|' per 'or', '~' per 'not' durante la compilazione di espressioni booleane del dataframe.
  • In Spark 3.4, l'API astype('category') Pandas in Spark viene categories.dtype aggiornata anche in base ai dati dtype originali per seguire il comportamento di Pandas 1.4.
  • In Spark 3.4 l'API Pandas on Spark supporta il raggruppamento in base all'indicizzazione posizionale in GroupBy.head e GroupBy.tail per seguire pandas 1.4. Gli argomenti negativi ora funzionano correttamente e generano intervalli relativi alla fine e all'inizio di ogni gruppo. In precedenza, gli argomenti negativi restituivano fotogrammi vuoti.
  • In Spark 3.4, il processo di inferenza dello schema di groupby.apply in Pandas in Spark, dedurrà innanzitutto il tipo pandas per garantire l'accuratezza dei pandas dtype il più possibile.
  • In Spark 3.4 il Series.concat parametro di ordinamento viene rispettato per seguire i comportamenti pandas 1.4.
  • In Spark 3.4, DataFrame.__setitem__ crea una copia e sostituisce matrici preesistenti, che non verranno sovrascritto per seguire i comportamenti pandas 1.4.
  • In Spark 3.4, SparkSession.sql e l'API sql Pandas in Spark hanno ottenuto il nuovo parametro args, che fornisce l'associazione di parametri denominati ai relativi valori letterali SQL.
  • In Spark 3.4, l'API Pandas in Spark segue per pandas 2.0 e alcune API sono deprecate o rimosse in Spark 3.4 in base alle modifiche apportate in pandas 2.0. Per altri dettagli, vedere [note sulla versione di pandas](https://pandas.pydata.org/docs/dev/whatsnew/).

SQL, set di dati e dataframe

  • A partire da Spark 3.4, i comandi IN edizione Standard RT INTO con elenco di colonne esplicite che comprendono un numero inferiore di colonne rispetto alla tabella di destinazione aggiunge automaticamente i valori predefiniti corrispondenti per le colonne rimanenti (o NULL per qualsiasi colonna priva di un valore predefinito assegnato in modo esplicito). In Spark 3.3 o versioni precedenti questi comandi hanno esito negativo, restituendo errori che segnalano che il numero di colonne fornite non corrisponde al numero di colonne nella tabella di destinazione. La disabilitazione spark.sql.defaultColumn.useNullsForMissingDefaultValues ripristina il comportamento precedente.
  • Poiché Spark 3.4, Number o Number(*) da Teradata viene considerato decimale(38,18). In Spark 3.3 o versioni precedenti, Number o Number(*) da Teradata viene considerato Decimal(38, 0), nel qual caso la parte frazionaria viene rimossa.
  • Dal momento che Spark 3.4, database v1, tabella, vista permanente e identificatore di funzione includono 'spark_catalog' come nome del catalogo se il database è definito, ad esempio, un identificatore di tabella è : spark_catalog.default.t. Per ripristinare il comportamento legacy, impostare su spark.sql.legacy.v1IdentifierNoCatalogtrue.
  • A partire da Spark 3.4, quando è attivata la modalità SQL ANSI (configurazione spark.sql.ansi.enabled), Spark SQL restituisce sempre un risultato NULL per ottenere un valore di mappa con una chiave non existing. In Spark 3.3 o versioni precedenti si verifica un errore.
  • A partire da Spark 3.4, l'interfaccia della riga di comando spark-sql di SQL non stampa il prefisso Error in query: prima del messaggio di errore di AnalysisException.
  • Poiché Spark 3.4, split la funzione ignora le stringhe vuote finali quando regex il parametro è vuoto.
  • A partire da Spark 3.4, la to_binary funzione genera un errore per un input in formato non valido str . Usare try_to_binary per tollerare l'input in formato non valido e restituire invece NULL.
    • La stringa valida Base64 deve includere simboli in base64 alfabeto (A-Za-z0-9+/), spazi vuoti facoltativi (=) e spazi vuoti facoltativi. Gli spazi vuoti vengono ignorati nella conversione tranne quando sono preceduti da simboli di riempimento. Se la spaziatura interna è presente, deve concludere la stringa e seguire le regole descritte in RFC 4648 § 4.
    • Le stringhe esadecimali valide devono includere solo i simboli consentiti (0-9A-Fa-f).
    • I valori validi per fmt sono senza distinzione tra hexmaiuscole e minuscole, , base64utf-8, utf8.
  • A partire da Spark 3.4, Spark genera un'eccezione solo PartitionsAlreadyExistException quando crea partizioni, ma alcune di esse esistono già. In Spark 3.3 o versioni precedenti Spark può generare PartitionsAlreadyExistException o PartitionAlreadyExistsException.
  • A partire da Spark 3.4, Spark convalida la specifica di partizione in ALTER PARTITION per seguire il comportamento di , che può causare un'eccezione se la conversione del spark.sql.storeAssignmentPolicytipo non riesce, ad esempio ALTER TABLE .. ADD PARTITION(p='a') se la colonna p è di tipo int. Per ripristinare il comportamento legacy, impostare su spark.sql.legacy.skipTypeValidationOnAlterPartitiontrue.
  • A partire da Spark 3.4, i lettori vettorializzati sono abilitati per impostazione predefinita per i tipi di dati annidati (matrice, mappa e struct). Per ripristinare il comportamento legacy, impostare spark.sql.orc.enableNestedColumnVectorizedReader e spark.sql.parquet.enableNestedColumnVectorizedReader su false.
  • Poiché Spark 3.4, BinaryType non è supportato nell'origine dati CSV. In Spark 3.3 o versioni precedenti gli utenti possono scrivere colonne binarie nell'origine dati CSV, ma il contenuto di output nei file CSV è Object.toString(), che non ha significato. Nel frattempo, se gli utenti leggono tabelle CSV con colonne binarie, Spark genera un'eccezione Unsupported type: binary .
  • A partire da Spark 3.4, i join di filtro bloom sono abilitati per impostazione predefinita. Per ripristinare il comportamento legacy, impostare su spark.sql.optimizer.runtime.bloomFilter.enabledfalse.

Structured Streaming

  • Poiché Spark 3.4, Trigger.Once è deprecato e gli utenti sono invitati a eseguire la migrazione da Trigger.Once a Trigger.AvailableNow. Per altri dettagli, vedere SPARK-39805 .
  • A partire da Spark 3.4, il valore predefinito della configurazione per il recupero dell'offset Kafka (spark.sql.streaming.kafka.useDeprecatedOffsetFetching) viene modificato da true a false. Il valore predefinito non si basa più sulla pianificazione basata sul gruppo di consumer, che influisce sull'ACL richiesto. Per altre informazioni, vedere Structured Streaming Kafka Integration.For more information, see Structured Streaming Kafka Integration.

Nuove funzionalità e miglioramenti di Delta Lake 2.4

Delta Lake è un progetto open source che consente di creare un'architettura lakehouse su data lake lake. Delta Lake offre transazioni ACID, gestione scalabile dei metadati e unifica l'elaborazione dei dati in streaming e batch su data lake esistenti.

In particolare, Delta Lake offre:

  • Transazioni ACID in Spark: i livelli di isolamento serializzabili assicurano che i lettori non visualizzino mai dati incoerenti.
  • Gestione scalabile dei metadati: usa la potenza di elaborazione distribuita spark per gestire tutti i metadati per le tabelle con scalabilità petabyte con miliardi di file con facilità.
  • Streaming e unificazione batch : una tabella in Delta Lake è una tabella batch e un'origine di streaming e un sink. Inserimento di dati in streaming, riempimento cronologico batch, query interattive funzionano tutti al di fuori della scatola.
  • Imposizione dello schema: gestisce automaticamente le varianti dello schema per impedire l'inserimento di record non validi durante l'inserimento.
  • Tempo di spostamento: il controllo delle versioni dei dati consente il rollback, i audit trail cronologici completi e gli esperimenti di Machine Learning riproducibili.
  • Upserts ed eliminazioni: supporta operazioni di merge, aggiornamento ed eliminazione per abilitare casi d'uso complessi come change-data-capture, operazioni a modifica lenta della dimensione (SCD), upsert di streaming e così via.

Le funzionalità principali di questa versione sono le seguenti:

  • Supporto per Apache Spark 3.4.
  • Supporto per la scrittura di vettori di eliminazione per il DELETE comando . In precedenza, quando si eliminano righe da una tabella Delta, qualsiasi file con almeno una riga corrispondente verrà riscritto. Con i vettori di eliminazione è possibile evitare queste costose riscritture. Per altri dettagli, vedere Che cosa sono i vettori di eliminazione?
  • Supporto per tutte le operazioni di scrittura su tabelle con vettori di eliminazione abilitati.
  • SupportoPURGE per rimuovere i vettori di eliminazione dalla versione corrente di una tabella Delta riscrivendo tutti i file di dati con vettori di eliminazione. Per altri dettagli, vedere la documentazione.
  • Supporto per la lettura del feed di dati delle modifiche per le tabelle con vettori di eliminazione abilitati.
  • SupportareREPLACE WHERE le espressioni in SQL per sovrascrivere in modo selettivo i dati. Le opzioni "replaceWhere" in precedenza erano supportate solo nelle API DataFrameWriter.
  • Clausole di supportoWHEN NOT MATCHED BY SOURCE in SQL per il comando Merge.
  • Supporto dell'omissione di colonne generate dall'elenco di colonne per le query SQL INSERT INTO . Delta genera automaticamente i valori per le colonne generate non specificate.
  • Supportare il TimestampNTZ tipo di dati aggiunto in Spark 3.3. L'uso TimestampNTZ di richiede un aggiornamento del protocollo Delta. Per altre informazioni, vedere la documentazione .
  • Consente di modificare il tipo di colonna di una char colonna o varchar in un tipo compatibile nel ALTER TABLE comando. Il nuovo comportamento è identico a quello di Apache Spark e consente il upcast da char o varchar a varchar o string.
  • Blocca l'uso con overwriteSchema la sovrascrittura della partizione dinamica. Questo scenario può danneggiare la tabella perché non tutti i dati possono essere rimossi e lo schema delle nuove partizioni scritte non può corrispondere allo schema delle partizioni non modificate.
  • Restituisce un valore vuoto DataFrame per le letture del feed di dati di modifica quando non sono presenti commit nell'intervallo di timestamp specificato. In precedenza verrà generato un errore.
  • Correzione di un bug nelle letture del feed di dati delle modifiche per i record creati durante l'ora ambigua in cui si verifica l'ora legale.
  • Correzione di un bug per cui l'esecuzione di query su una tabella Delta esterna nella radice di un bucket S3 genererebbe un errore.
  • Rimuovere i metadati di Spark interni persi dal log Delta per rendere nuovamente leggibili le tabelle interessate.

Leggere la versione completa delle note sulla versione per Delta Lake 2.4.

Pacchetti di livello predefiniti per le librerie Java/Scala

La tabella seguente elenca tutti i pacchetti di livello predefiniti per Java/Scala e le rispettive versioni.

GroupId ArtifactId Versione
com.aliyun aliyun-java-sdk-core 4.5.10
com.aliyun aliyun-java-sdk-kms 2.11.0
com.aliyun aliyun-java-sdk-ram 3.1.0
com.aliyun aliyun-sdk-oss 3.13.0
com.amazonaws aws-java-sdk-bundle 1.12.262
com.clearspring.analytics stream 2.9.6
com.mdfsoftware kryo-shaded 4.0.2
com.mdfsoftware minlog 1.3.0
com.fasterxml.jackson annotazioni jackson 2.14.2
com.fasterxml.jackson jackson-core 2.14.2
com.fasterxml.jackson jackson-core-asl 1.9.13
com.fasterxml.jackson jackson-databind 2.14.2
com.fasterxml.jackson jackson-dataformat-cbor 2.14.2
com.fasterxml.jackson jackson-mapper-asl 1.9.13
com.fasterxml.jackson jackson-module-scala_2.12 2.14.2
com.github.joshelser dropwizard-metrics-hadoop-metrics2-reporter 0.1.2
com.github.luben zstd-jni 1.5.2-5
com.github.vowpalwabbit vw-jni 9.3.0
com.github.wendykierp JTransforms 3.1
com.google.cloud.bigdataoss gcs-connector hadoop3-2.2.11
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.2.4
com.google.crypto.tink Tink 1.7.0
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava Guava 14.0.1
com.google.protobuf protobuf-java 2.5.0
com.googlecode.json-simple json-simple 1.1.1
com.jcraft jsch 0.1.54
com.jolbox bonecp 0.8.0.RELEA edizione Standard
com.linkedin.isolation-forest isolation-forest_3.2.0_2.12 2.0.8
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.azure azure-eventhubs 3.3.0
com.microsoft.azure azure-eventhubs-spark_2.12 2.3.22
com.microsoft.azure azure-keyvault-core 1.0.0
com.microsoft.azure azure-storage 7.0.1
com.microsoft.azure cosmos-analytics-spark-3.4.1-connector_2.12 1.8.10
com.microsoft.azure qpid-proton-j-extensions 1.2.4
com.microsoft.azure synapseml_2.12 0.11.2-spark3.4
com.microsoft.azure synapseml-cognitive_2.12 0.11.2-spark3.4
com.microsoft.azure synapseml-core_2.12 0.11.2-spark3.4
com.microsoft.azure synapseml-deep-learning_2.12 0.11.2-spark3.4
com.microsoft.azure synapseml-internal_2.12 0.11.2-spark3.4
com.microsoft.azure synapseml-lightgbm_2.12 0.11.2-spark3.4
com.microsoft.azure synapseml-opencv_2.12 0.11.2-spark3.4
com.microsoft.azure synapseml-vw_2.12 0.11.2-spark3.4
com.microsoft.azure.kusto kusto-data 3.2.1
com.microsoft.azure.kusto kusto-ingest 3.2.1
com.microsoft.azure.kusto kusto-spark_3.0_2.12 3.1.16
com.microsoft.azure.kusto spark-kusto-synapse-connector_3.1_2.12 1.3.3
com.microsoft.cognitiveservices.speech client-jar-sdk 1.14.0
com.microsoft.sqlserver msslq-jdbc 8.4.1.jre8
com.ning compress-lzf 1.1.2
com.sun.istack istack-commons-runtime 3.0.8
com.tdunning JSON 1.8
com.thoughtworks.paranamer paranamer 2.8
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.typesafe config 1.3.4
com.univocità univocità-parser 2.9.1
com.zaxxer HikariCP 2.5.1
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4.jar
dev.sdk.netlib arpack 3.0.3
dev.sdk.netlib blas 3.0.3
dev.sdk.netlib lapack 3.0.3
io.airlift aircompressor 0.21
io.delta delta-core_2.12 2.4.0
io.delta archiviazione differenziale 2.4.0
io.dropwizard.metrics metrics-core 4.2.15
io.dropwizard.metrics metrics-graphite 4.2.15
io.dropwizard.metrics metrics-jmx 4.2.15
io.dropwizard.metrics metrics-json 4.2.15
io.dropwizard.metrics metrics-jvm 4.2.15
io.github.resilience4j resilience4j-core 1.7.1
io.github.resilience4j resilience4j-retry 1.7.1
io.netty netty-all 4.1.87.Final
io.netty netty-buffer 4.1.87.Final
io.netty netty-codec 4.1.87.Final
io.netty netty-codec-http2 4.1.87.Final
io.netty netty-codec-http-4 4.1.87.Final
io.netty netty-codec-socks 4.1.87.Final
io.netty netty-common 4.1.87.Final
io.netty netty-handler 4.1.87.Final
io.netty netty-handler-proxy 4.1.87.Final
io.netty netty-resolver 4.1.87.Final
io.netty netty-transport 4.1.87.Final
io.netty netty-transport-classes-epoll 4.1.87.Final
io.netty netty-transport-classes-kqueue 4.1.87.Final
io.netty netty-transport-native-epoll 4.1.87.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.87.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.87.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.87.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.87.Final
io.opentracing opentracing-api 0.33.0
io.opentracing opentracing-noop 0.33.0
io.opentracing opentracing-util 0.33.0
io.spray spray-json_2.12 1.3.5
io.vavr vavr 0.10.4
io.vavr vavr-match 0.10.4
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.inject jakarta.inject 2.6.1
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
jakarta.xml.bind jakarta.xml.bind-api 2.3.2
javax.activation activation 1.1.1
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction transaction-api 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.2
mysql mysql-connector-java 8.0.18
net.razorvine Sottaceto 1.3
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.py4j py4j 0.10.9.7
net.sourceforge.f2j arpack_combined_all 0,1
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.apache.arrow formato freccia 11.0.0
org.apache.arrow arrow-memory-core 11.0.0
org.apache.arrow arrow-memory-netty 11.0.0
org.apache.arrow freccia-vettore 11.0.0
org.apache.avro avro 1.11.1
org.apache.avro avro-ipc 1.11.1
org.apache.avro avro-mapred 1.11.1
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.22
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-pool2 2.11.1
org.apache.commons commons-text 1.10.0
org.apache.curator curatore-cliente 2.13.0
org.apache.curator curatore-framework 2.13.0
org.apache.curator ricette curatori 2.13.0
org.apache.derby Derby 10.14.2.0
org.apache.hadoop hadoop-aliyun 3.3.4.5.3-105251583
org.apache.hadoop hadoop-annotations 3.3.4.5.3-105251583
org.apache.hadoop hadoop-aws 3.3.4.5.3-105251583
org.apache.hadoop hadoop-azure 3.3.4.5.3-105251583
org.apache.hadoop hadoop-azure-datalake 3.3.4.5.3-105251583
org.apache.hadoop hadoop-client-api 3.3.4.5.3-105251583
org.apache.hadoop hadoop-client-runtime 3.3.4.5.3-105251583
org.apache.hadoop hadoop-cloud-storage 3.3.4.5.3-105251583
org.apache.hadoop hadoop-openstack 3.3.4.5.3-105251583
org.apache.hadoop hadoop-shaded-guava 1.1.1
org.apache.hadoop hadoop-yarn-server-web-proxy 3.3.4.5.3-105251583
org.apache.hive hive-common 2.3.9
org.apache.hive hive-exec 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-metastore 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims-0.23 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-shims-common 2.3.9
org.apache.hive hive-shims-scheduler 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.httpcomponents httpmime 4.5.14
org.apache.httpcomponents.client5 httpclient5 5.1.3
org.apache.iceberg delta-iceberg 2.4.0.6
org.apache.ivy ivy 2.5.1
org.apache.kafka kafka-clients 3.3.2
org.apache.logging.log4j log4j-1.2-api 2.19.0
org.apache.logging.log4j log4j-api 2.19.0
org.apache.logging.log4j log4j-core 2.19.0
org.apache.logging.log4j log4j-slf4j-impl 2.19.0
org.apache.orc orc-core 1.8.4
org.apache.orc orc-mapreduce 1.8.4
org.apache.orc orc-shim 1.8.4
org.apache.parquet parquet-column 1.12.3
org.apache.parquet parquet-common 1.12.3
org.apache.parquet codifica parquet 1.12.3
org.apache.parquet strutture parquet-format-structures 1.12.3
org.apache.parquet parquet-hadoop 1.12.3
org.apache.parquet parquet-jackson 1.12.3
org.apache.qpid proton-j 0.33.8
org.apache.spark spark-avro_2.12 3.4.1.5.3-105251583
org.apache.spark spark-catalyst_2.12 3.4.1.5.3-105251583
org.apache.spark spark-core_2.12 3.4.1.5.3-105251583
org.apache.spark spark-graphx_2.12 3.4.1.5.3-105251583
org.apache.spark spark-hadoop-cloud_2.12 3.4.1.5.3-105251583
org.apache.spark spark-hive_2.12 3.4.1.5.3-105251583
org.apache.spark spark-kvstore_2.12 3.4.1.5.3-105251583
org.apache.spark spark-launcher_2.12 3.4.1.5.3-105251583
org.apache.spark spark-mllib_2.12 3.4.1.5.3-105251583
org.apache.spark spark-mllib-local_2.12 3.4.1.5.3-105251583
org.apache.spark spark-network-common_2.12 3.4.1.5.3-105251583
org.apache.spark spark-network-shuffle_2.12 3.4.1.5.3-105251583
org.apache.spark spark-repl_2.12 3.4.1.5.3-105251583
org.apache.spark spark-sketch_2.12 3.4.1.5.3-105251583
org.apache.spark spark-sql_2.12 3.4.1.5.3-105251583
org.apache.spark spark-sql-kafka-0-10_2.12 3.4.1.5.3-105251583
org.apache.spark spark-streaming_2.12 3.4.1.5.3-105251583
org.apache.spark spark-streaming-kafka-0-10-assembly_2.12 3.4.1.5.3-105251583
org.apache.spark spark-tags_2.12 3.4.1.5.3-105251583
org.apache.spark spark-token-provider-kafka-0-10_2.12 3.4.1.5.3-105251583
org.apache.spark spark-unsafe_2.12 3.4.1.5.3-105251583
org.apache.spark spark-yarn_2.12 3.4.1.5.3-105251583
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4.22
org.apache.yetus annotazioni del gruppo di destinatari 0.5.0
org.apache.zookeeper zookeeper 3.6.3.5.3-105251583
org.apache.zookeeper zookeeper-jute 3.6.3.5.3-105251583
org.apiguardian apiguardian-api 1.1.0
org.codehaus.janino commons-compiler 3.1.9
org.codehaus.janino janino 3.1.9
org.codehaus.jettison jettison 1.1
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleusjavax.jdo 3.2.0-m3
org.eclipse.jetty jetty-util 9.4.50.v20221201
org.eclipse.jetty jetty-util-ajax 9.4.50.v20221201
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.jaxb jaxb-runtime 2.3.2
org.glassfish.jersey.containers jersey-container-servlet 2.36
org.glassfish.jersey.containers jersey-container-servlet-core 2.36
org.glassfish.jersey.core jersey-client 2.36
org.glassfish.jersey.core maglia-comune 2.36
org.glassfish.jersey.core jersey-server 2.36
org.glassfish.jersey.inject jersey-hk2 2.36
org.ini4j ini4j 0.5.4
org.javassist javassist 3.25.0-GA
org.javatuples javatuple 1.2
org.jdom jdom2 2.0.6
org.jetbrains annotations 17.0.0
org.jodd jodd-core 3.5.2
org.json JSON 20210307
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.junit.giove junit-giove 5.5.2
org.junit.giove junit-jupiter-api 5.5.2
org.junit.giove junit-jupiter-engine 5.5.2
org.junit.giove junit-giove-params 5.5.2
org.junit.platform junit-platform-commons 1.5.2
org.junit.platform junit-platform-engine 1.5.2
org.lz4 lz4-java 1.8.0
org.objenesis objenesis 3.2
org.openpnp opencv 3.2.0-1
org.opentest4j opentest4j 1.2.0
org.postgresql postgresql 42.2.9
org.roaringbitmap RoaringBitmap 0.9.38
org.roaringbitmap Spessori 0.9.38
org.rocksdb rocksdbjni 7.9.2
org.scala-lang scala-compiler 2.12.17
org.scala-lang scala-library 2.12.17
org.scala-lang scala-reflect 2.12.17
org.scala-lang.modules scala-collection-compat_2.12 2.7.0
org.scala-lang.modules scala-java8-compat_2.12 0.9.0
org.scala-lang.modules scala-parser-combinators_2.12 2.1.1
org.scala-lang.modules scala-xml_2.12 2.1.0
org.scalactic scalactic_2.12 3.2.14
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.slf4j jcl-over-slf4j 2.0.6
org.slf4j jul-to-slf4j 2.0.6
org.slf4j slf4j-api 2.0.6
org.threeten treten-extra 1.7.1
org.cortanaani xz 1,9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel spire_2.12 0.17.0
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.0.7.Final
org.xerial.snappy snappy-java 1.1.10.1
oro oro 2.0.8
pl.edu.icm JLargeArrays 1,5
Stax stax-api 1.0.1

Pacchetti a livello predefinito per Python

La tabella seguente elenca tutti i pacchetti di livello predefiniti per Python e le rispettive versioni.

Libreria Versione Libreria Versione Libreria Versione
_libgcc_mutex 0,1 jupyter_client 8.5.0 pycosat 0.6.6
_openmp_mutex 4.5 jupyter_core 5.4.0 pycparser 2.21
_py-xgboost-mutex 2.0 jupyter_events 0.8.0 pydantic 1.10.9
absl-py 2.0.0 jupyter_server 2.7.3 pygments 2.16.1
adal 1.2.7 jupyter_server_terminals 0.4.4 pyjwt 2.8.0
adlfs 2023.4.0 jupyterlab_pygments 0.2.2 pynacl 1.5.0
aiohttp 3.8.6 jupyterlab_widgets 3.0.9 pyodbc 4.0.39
aiosignal 1.3.1 keras 2.12.0 pyopenssl 23.2.0
Alembic 1.12.0 keras-preprocessing 1.1.2 pyparsing 3.0.9
alsa-lib 1.2.10 keyutils 1.6.1 pyperclip 1.8.2
ansi2html 1.8.0 kiwisolver 1.4.5 pypika 0.48.9
anyio 3.7.1 krb5 1.21.2 pyqt 5.15.9
appdirs 1.4.4 lame 3.100 pyqt5-sip 12.12.2
argon2-cffi 23.1.0 lcms2 2.15 pysocks 1.7.1
argon2-cffi-bindings 21.2.0 ld_impl_linux-64 2.40 Python 3.10.12
freccia 1.3.0 lerc 4.0.0 python-dateutil 2.8.2
asttoken 2.4.0 liac-arff 2.5.0 python-fastjsonschema 2.18.1
astunparse 1.6.3 libabseil 20230125.3 python-flatbuffers 23.5.26
async-timeout 4.0.3 libaec 1.1.2 python-graphviz 0.20.1
atk-1.0 2.38.0 libarrow 12.0.1 python-json-logger 2.0.7
Attr 2.5.1 libbrotlicommon 1.0.9 python-tzdata 2023.3
attrs 23.1.0 libbrotlidec 1.0.9 python-xxhash 3.4.1
pagina automatica 0.5.2 libbrotlienc 1.0.9 python_abi 3.10
aws-c-auth 0.7.3 libcap 2.69 pythonnet 3.0.1
aws-c-cal 0.6.1 libclang 15.0.7 pytorch 2.0.1
aws-c-common 0.9.0 libclang13 15.0.7 pytorch-mutex 1.0
aws-c-compression 0.2.17 libcrc32c 1.1.2 pytz 2023.3.post1
aws-c-event-stream 0.3.1 libcups 2.3.3 pyu2f 0.1.5
aws-c-http 0.7.11 libcurl 8.4.0 pywin32-on-windows 0.1.0
aws-c-io 0.13.32 libdeflate 1,19 pyyaml 6.0.1
aws-c-mqtt 0.9.3 libebm 0.4.3 pyzmq 25.1.1
aws-c-s3 0.3.14 libedit 3.1.20191231 qt-main 5.15.8
aws-c-sdkutils 0.1.12 libev 4.33 rdma-core 28.9
aws-checksums 0.1.17 libevent 2.1.12 re2 2023.03.02
aws-crt-cpp 0.21.0 libexpat 2.5.0 readline 8.2
aws-sdk-cpp 1.10.57 libffi 3.4.2 referencing 0.30.2
azure-core 1.29.4 libflac 1.4.3 regex 2023.8.8
azure-datalake-store 0.0.51 libgcc-ng 13.2.0 requests 2.31.0
azure-identity 1.14.1 Libgcrypt 1.10.1 requests-oauthlib 1.3.1
azure-storage-blob 12.18.3 libgd 2.3.3 retrying 1.3.3
azure-storage-file-datalake 12.12.0 libgfortran-ng 13.2.0 rfc3339-validator 0.1.4
backcall 0.2.0 libgfortran5 13.2.0 rfc3986-validator 0.1.1
backoff 1.11.1 libglib 2.78.0 rich 13.6.0
Backports 1.0 libgoogle-cloud 2.12.0 rpds-py 0.10.6
backports.functools_lru_cache 1.6.5 libgpg-error 1,47 rsa 4.9
bcrypt 4.0.1 libgrpc 1.54.3 michelemel.yaml 0.17.32
beautifulsoup4 4.12.2 libhwloc 2.9.3 michelemel.yaml.clib 0.2.7
blas 1.0 libiconv 1.17 ruamel_yaml 0.15.80
bleach 6.1.0 libjpeg-turbo 2.1.5.1 s2n 1.3.49
blinker 1.6.3 libllvm14 14.0.6 sacrimoses 0.0.53
brotli 1.0.9 libllvm15 15.0.7 salib 1.4.7
brotli-bin 1.0.9 libnghttp2 1.52.0 scikit-learn 1.3.0
brotli-python 1.0.9 libnsl 2.0.1 Scipy 1.10.1
bzip2 1.0.8 libnuma 2.0.16 seaborn 0.12.2
c-ares 1.20.1 libogg 1.3.4 seaborn-base 0.12.2
ca-certificates 2023.7.22 libopus 1.3.1 send2trash 1.8.2
cached-property 1.5.2 libpng 1.6.39 trasformatori di frase 2.0.0
cached_property 1.5.2 libpq 15,4 sentry-sdk 1.32.0
cachetools 5.3.2 libprotobuf 3.21.12 seqeval 1.2.2
cairo 1.18.0 libpulsar 3.2.0 setproctitle 1.3.3
catboost 1.1.1 librsvg 2.56.3 setuptools 68.2.2
certifi 2023.7.22 libsndfile 1.2.2 shap 0.42.1
cffi 1.16.0 libsodium 1.0.18 shellingham 1.5.4
charset-normalizer 3.3.1 libsqlite 3.43.2 sip 6.7.12
chroma-hnswlib 0.7.3 libssh2 1.11.0 sei 1.16.0
chromadb 0.4.13 libstdcxx-ng 13.2.0 filtro dei dati 0.0.7
Clic 8.1.7 libsystemd0 254 smmap 5.0.0
Scogliera 4.2.0 libthrift 0.18.1 snappy 1.1.10
cloudpickle 2.2.1 libtiff 4.6.0 sniffio 1.3.0
clr_loader 0.2.6 Libtool 2.4.7 soupsieve 2.5
cmaes 0.10.0 libutf8proc 2.8.0 sqlalchemy 2.0.22
cmd2 2.4.3 libuuid 2.38.1 sqlparse 0.4.4
Colorama 0.4.6 libuv 1.46.0 stack_data 0.6.2
coloratilogi 15.0.1 libvorbis 1.3.7 starlette 0.27.0
colorlog 6.7.0 libwebp 1.3.2 statsmodels 0.14.0
serv 0.1.4 libwebp-base 1.3.2 stevedore 5.1.0
conda-package-handling 2.2.0 libxcb 1.15 sympy 1.12
conda-package-streaming 0.9.0 libxgboost 1.7.6 tabulate 0.9.0
configparser 5.3.0 libxkbcommon 1.6.0 Tbb 2021.10.0
contourpy 1.1.1 libxml2 2.11.5 tenacity 8.2.3
Crittografia 41.0.5 libxslt 1.1.37 tensorboard 2.12.3
cycler 0.12.1 libzlib 1.2.13 tensorboard-data-server 0.7.0
cython 3.0.4 lightgbm 4.0.0 tensorflow 2.12.1
trattino 2.14.0 lime 0.2.0.1 tensorflow-base 2.12.1
dash-core-components 2.0.0 llvm-openmp 17.0.3 tensorflow-estimator 2.12.1
dash-html-components 2.0.0 llvmlite 0.40.1 termcolor 2.3.0
dash-table 5.0.0 lxml 4.9.3 terminado 0.17.1
dash_cytoscape 0.2.0 lz4-c 1.9.4 threadpoolctl 3.2.0
databricks-cli 0.18.0 Mako 1.2.4 tiktoken 0.5.1
dataclasses 0,8 Markdown 3.4.4 tinycss2 1.2.1
datasets 2.14.6 markdown-it-py 3.0.0 tk 8.6.13
dbus 1.13.6 markupsafe 2.1.3 tokenizer 0.13.3
debugpy 1.8.0 matplotlib 3.7.2 toml 0.10.2
decorator 5.1.1 matplotlib-base 3.7.2 tomli 2.0.1
defusedxml 0.7.1 matplotlib-inline 0.1.6 toolz 0.12.0
dill 0.3.7 mdurl 0.1.0 tornado 6.3.3
diskcache 5.6.3 mistune 3.0.1 tqdm 4.66.1
distlib 0.3.7 mkl 2021.4.0 traitlets 5.12.0
docker-py 6.1.3 mkl-service 2.4.0 Trasformatori 4.26.0
docker-pycreds 0.4.0 mkl_fft 1.3.1 treeinterpreter 0.2.2
entrypoints 0,4 mkl_random 1.2.2 typed-ast 1.5.5
et_xmlfile 1.1.0 ml_dtypes 0.3.1 Typer 0.9.0
exceptiongroup 1.1.3 mlflow-skinny 2.6.0 types-python-dateutil 2.8.19.14
executing 1.2.0 Monotono 1,5 types-pytz 2023.3.1.1
expat 2.5.0 Mpc 1.3.1 typing_extensions 4.5.0
fastapi 0.103.2 mpfr 4.2.1 typing_utils 0.1.0
flaml 2.1.1dev2 mpeg123 1.32.3 tzdata 2023c
flask 3.0.0 mpmath 1.3.0 Ucx 1.14.1
flatbuffers 23.5.26 msal 1.24.1 unicodedata2 15.1.0
font-ttf-dejavu-sans-mono 2.37 msal_extensions 1.0.0 unixodbc 2.3.12
font-ttf-inconsolata 3.000 multidict 6.0.4 Modello URI 1.3.0
font-ttf-source-code-pro 2.038 multiprocesso 0.70.15 urllib3 1.26.17
font-ttf-ubuntu 0.83 munkres 1.1.4 uvicorn 0.23.2
fontconfig 2.14.2 mysql-common 8.0.33 virtualenv 20.23.1
fonts-conda-ecosystem 1 mysql-libs 8.0.33 wandb 0.15.12
font-conda-forge 1 nbclient 0.8.0 wcwidth 0.2.8
fonttools 4.43.1 nbconvert-core 7.9.2 webcolors 1.13
fqdn 1.5.1 nbformat 5.9.2 webencodings 0.5.1
freetype 2.12.1 ncurses 6.4 websocket-client 1.6.4
fribidi 1.0.10 nest-asyncio 1.5.8 werkzeug 3.0.1
frozenlist 1.4.0 networkx 3.2 wheel 0.41.2
fsspec 2023.10.0 nltk 3.8.1 widgetsnbextension 4.0.9
gast 0.4.0 nspr 4.35 wrapt 1.15.0
gdk-pixbuf 2.42.10 nss 3,94 xcb-util 0.4.0
geographiclib 1,52 numba 0.57.1 xcb-util-image 0.4.0
geopy 2.3.0 numpy 1.24.3 xcb-util-keysyms 0.4.0
gettext 0.21.1 numpy-base 1.24.3 xcb-util-renderutil 0.3.9
gevent 23.9.0.post1 oauthlib 3.2.2 xcb-util-wm 0.4.1
gflags 2.2.2 onnxruntime 1.16.1 xgboost 1.7.6
giflib 5.2.1 openai 0.27.8 xkeyboard-config 2.40
gitdb 4.0.11 openjpeg 2.5.0 xorg-kbproto 1.0.7
gitpython 3.1.40 openpyxl 3.1.2 xorg-libice 1.1.1
glib 2.78.0 openssl 3.1.4 xorg-libsm 1.2.4
glib-tools 2.78.0 opt-einsum 3.3.0 xorg-libx11 1.8.7
glog 0.6.0 opt_einsum 3.3.0 xorg-libxau 1.0.11
Gmp 6.2.1 optuna 2.8.0 xorg-libxdmcp 1.1.3
gmpy2 2.1.2 orc 1.9.0 xorg-libxext 1.3.4
google-auth 2.23.3 Esegue l' override 7.4.0 xorg-libxrender 0.9.11
google-auth-oauthlib 1.0.0 creazione del pacchetto 23,2 xorg-renderproto 0.11.1
google-pasta 0.2.0 pandas 2.0.3 xorg-xextproto 7.3.0
graphite2 1.3.13 pandas-stub 2.1.1.230928 xorg-xf86vidmodeproto 2.3.1
graphviz 8.1.0 pandasql 0.7.3 xorg-xproto 7.0.31
greenlet 3.0.1 pandocfilters 1.5.0 xxhash 0.8.2
grpcio 1.54.3 Pango 1.50.14 xz 5.2.6
gst-plugins-base 1.22.6 paramiko 3.3.1 Yaml 0.2.5
gstreamer 1.22.6 parso 0.8.3 yarl 1.9.2
gtk2 2.24.33 Pathos 0.3.1 zeromq 4.3.5
Gts 0.7.6 pathtools 0.1.2 zipp 3.17.0
h11 0.14.0 patsy 0.5.3 zlib 1.2.13
h5py 3.10.0 Pbr 5.11.1 zope.event 5.0
harfbuzz 8.2.1 pcre2 10.40 zope.interface 6.1
hdf5 1.14.2 pexpect 4.8.0 zstandard 0.21.0
festività 0,35 pickleshare 0.7.5 zstd 1.5.5
html5lib 1.1 pillow 10.0.1 astor 0.8.1
huggingface_hub 0.18.0 pip 23.1.2 contextlib2 21.6.0
amico umano 10.0 pixman 0.42.2 filelock 3.11.0
icu 73,2 pkgutil-resolve-name 1.3.10 fluent-logger 0.10.0
idna 3.4 platformdirs 3.5.1 gson 0.0.3
imageio 2.31.1 plotly 5.16.1 jaraco-context 4.3.0
importlib-metadata 6.8.0 Ply 3.11 joblibspark 0.5.2
importlib-resources 6.1.0 pooch 1.8.0 json-tricks 3.17.3
importlib_metadata 6.8.0 portalocker 2.8.2 jupyter-ui-poll 0.2.2
importlib_resources 6.1.0 posthog 3.0.2 more-itertools 10.1.0
intel-openmp 2021.4.0 Pox 0.3.3 msgpack 1.0.7
interpret 0.4.3 ppft 1.7.6.7 mypy 1.4.1
interpret-core 0.4.3 bellatable 3.8.0 mypy-extensions 1.0.0
ipykernel 6.26.0 prometheus_client 0.17.1 nni 2.10.1
ipython 8.14.0 prompt-toolkit 3.0.39 powerbiclient 3.1.1
ipywidgets 8.0.7 prompt_toolkit 3.0.39 pyspark 3.4.1.5.3.20230713
isodate 0.6.1 protobuf 4.21.12 pythonwebhdfs 0.2.3
isoduration 20.11.0 psutil 5.9.5 responses 0.23.3
itsdangerous 2.1.2 pthread-stub 0,4 rouge-score 0.1.2
Jax 0.4.17 ptyprocess 0.7.0 schema 0.7.5
jaxlib 0.4.14 pulsar-client 3.3.0 simplejson 3.19.2
jedi 0.19.1 pulseaudio-client 16.1 synapseml-mlflow 1.0.22.post2
jinja2 3.1.2 pure_eval 0.2.2 synapseml-utils 1.0.18.post1
joblib 1.3.2 py-xgboost 1.7.6 typeguard 2.13.3
jsonpointer 2.4 py4j 0.10.9.7 types-pyyaml 6.0.12.12
jsonschema 4.19.1 pyarrow 12.0.1 typing-extensions 4.8.0
jsonschema-specifications 2023.7.1 pyasn1 0.5.0 Websockets 12.0
jsonschema-with-format-nongpl 4.19.1 pyasn1-modules 0.3.0 wolframalpha 5.0.0
xmltodict 0.13.0

Pacchetti a livello predefinito per R

Nella tabella seguente sono elencati tutti i pacchetti di livello predefiniti per R e le rispettive versioni.

Libreria Versione Libreria Versione Libreria Versione
_libgcc_mutex 0,1 r-caret 6.0_94 r-lodi 1.0.0
_openmp_mutex 4.5 r-cellranger 1.1.0 r-prettyunits 1.2.0
_r-mutex 1.0.1 r-class 7.3_22 r-proc 1.18.4
_r-xgboost-mutex 2.0 r-cli 3.6.1 r-processx 3.8.2
aws-c-auth 0.7.0 r-clipr 0.8.0 r-prodlim 2023.08.28
aws-c-cal 0.6.0 r-clock 0.7.0 r-profvis 0.3.8
aws-c-common 0.8.23 r-codetools 0.2_19 r-progress 1.2.2
aws-c-compression 0.2.17 r-collections 0.3.7 r-progressr 0.14.0
aws-c-event-stream 0.3.1 r-colorspace 2.1_0 promesse r 1.2.1
aws-c-http 0.7.10 r-commonmark 1.9.0 r-proxy 0.4_27
aws-c-io 0.13.27 r-config 0.3.2 r-pryr 0.1.6
aws-c-mqtt 0.8.13 r-conflicted 1.2.0 r-ps 1.7.5
aws-c-s3 0.3.12 r-coro 1.0.3 r-purrr 1.0.2
aws-c-sdkutils 0.1.11 r-cpp11 0.4.6 r-quantmod 0.4.25
aws-checksums 0.1.16 r-crayon 1.5.2 r-r2d3 0.2.6
aws-crt-cpp 0.20.2 r-credentials 2.0.1 r-r6 2.5.1
aws-sdk-cpp 1.10.57 r-crosstalk 1.2.0 r-r6p 0.3.0
binutils_impl_linux-64 2.40 r-crul 1.4.0 r-ragg 1.2.6
bwidget 1.9.14 r-curl 5.1.0 r-rappdirs 0.3.3
bzip2 1.0.8 r-data.table 1.14.8 r-rbokeh 0.5.2
c-ares 1.20.1 r-dbi 1.1.3 r-rcmdcheck 1.4.0
ca-certificates 2023.7.22 r-dbplyr 2.3.4 r-rcolorbrewer 1.1_3
cairo 1.18.0 r-desc 1.4.2 r-rcpp 1.0.11
Cmake 3.27.6 r-devtools 2.4.5 r-reactable 0.4.4
curl 8.4.0 Diagramma r 1.6.5 r-reactr 0.5.0
expat 2.5.0 r-dials 1.2.0 r-readr 2.1.4
font-ttf-dejavu-sans-mono 2.37 r-dicedesign 1,9 r-readxl 1.4.3
font-ttf-inconsolata 3.000 r-diffobj 0.3.5 r-ricette 1.0.8
font-ttf-source-code-pro 2.038 r-digest 0.6.33 r-rematch 2.0.0
font-ttf-ubuntu 0.83 r-downlit 0.4.3 r-rematch2 2.1.2
fontconfig 2.14.2 r-dplyr 1.1.3 r-remotes 2.4.2.1
fonts-conda-ecosystem 1 r-dtplyr 1.3.1 r-reprex 2.0.2
font-conda-forge 1 r-e1071 1.7_13 r-reshape2 1.4.4
freetype 2.12.1 puntini di sospensione r 0.3.2 r-rjson 0.2.21
fribidi 1.0.10 r-evaluate 0,23 r-rlang 1.1.1
gcc_impl_linux-64 13.2.0 r-fansi 1.0.5 r-rlist 0.4.6.2
gettext 0.21.1 r-farver 2.1.1 r-rmarkdown 2,22
gflags 2.2.2 r-fastmap 1.1.1 r-rodbc 1.3_20
gfortran_impl_linux-64 13.2.0 r-fontawesome 0.5.2 r-roxygen2 7.2.3
glog 0.6.0 r-forcats 1.0.0 r-rpart 4.1.21
glpk 5.0 r-foreach 1.5.2 r-rprojroot 2.0.3
Gmp 6.2.1 r-forge 0.2.0 r-rsample 1.2.0
graphite2 1.3.13 r-fs 1.6.3 r-rstudioapi 0.15.0
Gsl 2.7 r-furrr 0.3.1 r-rversions 2.1.2
gxx_impl_linux-64 13.2.0 r-future 1.33.0 r-rvest 1.0.3
harfbuzz 8.2.1 r-future.apply 1.11.0 r-sass 0.4.7
icu 73,2 r-gargle 1.5.2 r-scales 1.2.1
kernel-headers_linux-64 2.6.32 r-generics 0.1.3 r-selectr 0.4_2
keyutils 1.6.1 r-gert 2.0.0 r-sessioninfo 1.2.2
krb5 1.21.2 r-ggplot2 3.4.2 r-shape 1.4.6
ld_impl_linux-64 2.40 r-gh 1.4.0 r-lucidi 1.7.5.1
lerc 4.0.0 r-gistr 0.9.0 dispositivo di scorrimento r 0.3.1
libabseil 20230125.3 r-gitcreds 0.1.2 r-sourcetools 0.1.7_1
libarrow 12.0.0 r-globals 0.16.2 r-sparklyr 1.8.2
libblas 3.9.0 r-glue 1.6.2 r-squarem 2021.1
libbrotlicommon 1.0.9 r-googledrive 2.1.1 r-stringi 1.7.12
libbrotlidec 1.0.9 r-googlesheets4 1.1.1 r-stringr 1.5.0
libbrotlienc 1.0.9 r-gower 1.0.1 r-survival 3.5_7
libcblas 3.9.0 r-gpfit 1.0_8 r-sys 3.4.2
libcrc32c 1.1.2 r-gt 0.9.0 r-systemfonts 1.0.5
libcurl 8.4.0 r-gtable 0.3.4 r-testat 3.2.0
libdeflate 1,19 r-gtsummary 1.7.2 r-textshaping 0.3.7
libedit 3.1.20191231 r-hardhat 1.3.0 r-tibble 3.2.1
libev 4.33 r-haven 2.5.3 r-tidymodels 1.1.0
libevent 2.1.12 r-hexbin 1.28.3 r-tidyr 1.3.0
libexpat 2.5.0 r-highcharter 0.9.4 r-tidyselect 1.2.0
libffi 3.4.2 r-highr 0,10 r-tidyverse 2.0.0
libgcc-devel_linux-64 13.2.0 r-hms 1.1.3 r-timechange 0.2.0
libgcc-ng 13.2.0 r-htmltools 0.5.6.1 r-timedate 4022.108
libgfortran-ng 13.2.0 r-htmlwidgets 1.6.2 r-tinytex 0.48
libgfortran5 13.2.0 r-httpcode 0.3.0 r-torch 0.11.0
libgit2 1.7.1 r-httpuv 1.6.12 r-triebeard 0.4.1
libglib 2.78.0 r-httr 1.4.7 r-ttr 0.24.3
libgomp 13.2.0 r-httr2 0.2.3 r-tune 1.1.2
libgoogle-cloud 2.12.0 r-ids 1.0.1 r-tzdb 0.4.0
libgrpc 1.55.1 r-igraph 1.5.1 r-urlchecker 1.0.1
libiconv 1.17 r-infer 1.0.5 r-urltools 1.7.3
libjpeg-turbo 3.0.0 r-ini 0.3.1 r-usethis 2.2.2
liblapack 3.9.0 r-ipred 0.9_14 r-utf8 1.2.4
libnghttp2 1.55.1 r-isoband 0.2.7 r-uuid 1.1_1
libnuma 2.0.16 r-iteratori 1.0.14 r-v8 4.4.0
libopenblas 0.3.24 r-jose 1.2.0 r-vctrs 0.6.4
libpng 1.6.39 r-jquerylib 0.1.4 r-viridislite 0.4.2
libprotobuf 4.23.2 r-jsonlite 1.8.7 r-vroom 1.6.4
libsanitizer 13.2.0 r-juicyjuice 0.1.0 r-waldo 0.5.1
libssh2 1.11.0 r-kernsmooth 2.23_22 r-warp 0.2.0
libstdcxx-devel_linux-64 13.2.0 r-knitr 1.45 r-whisker 0.4.1
libstdcxx-ng 13.2.0 etichettatura r 0.4.3 r-withr 2.5.2
libthrift 0.18.1 r etichettato 2.12.0 flussi di lavoro r 1.1.3
libtiff 4.6.0 r-later 1.3.1 set di flussi di lavoro r 1.0.1
libutf8proc 2.8.0 r-reticolo 0.22_5 r-xfun 0,41
libuuid 2.38.1 r-lava 1.7.2.1 r-xgboost 1.7.4
libuv 1.46.0 r-lazyeval 0.2.2 r-xml 3.99_0.14
libv8 8.9.83 r-lhs 1.1.6 r-xml2 1.3.5
libwebp-base 1.3.2 ciclo di vita r 1.0.3 r-xopen 1.0.0
libxcb 1.15 r-lightgbm 3.3.5 r-xtable 1.8_4
libxgboost 1.7.4 r-listenv 0.9.0 r-xts 0.13.1
libxml2 2.11.5 r-lobstr 1.1.2 r-yaml 2.3.7
libzlib 1.2.13 r-lubridate 1.9.3 r-yardstick 1.2.0
lz4-c 1.9.4 r-magrittr 2.0.3 r-zip 2.3.0
make 4.3 r-maps 3.4.1 r-zoo 1.8_12
ncurses 6.4 r-markdown 1.11 rdma-core 28.9
openssl 3.1.4 r-mass 7.3_60 re2 2023.03.02
orc 1.8.4 r-matrix 1.6_1.1 readline 8.2
pandoc 2.19.2 r-memoise 2.0.1 rhash 1.4.4
Pango 1.50.14 r-mgcv 1.9_0 s2n 1.3.46
pcre2 10.40 r-mime 0.12 berlina 4.8
pixman 0.42.2 r-miniui 0.1.1.1 snappy 1.1.10
pthread-stub 0,4 r-modeldata 1.2.0 sysroot_linux-64 2.12
freccia r 12.0.0 r-modelenv 0.1.1 tk 8.6.13
r-askpass 1.2.0 r-modelmetrics 1.2.2.2 tktable 2.10
r-assertthat 0.2.1 r-modelr 0.1.11 Ucx 1.14.1
r-backports 1.4.1 r-munsell 0.5.0 unixodbc 2.3.12
r-base 4.2.3 r-nlme 3.1_163 xorg-kbproto 1.0.7
r-base64enc 0.1_3 r-nnet 7.3_19 xorg-libice 1.1.1
r-bigd 0.2.0 r-numderiv 2016.8_1.1 xorg-libsm 1.2.4
r-bit 4.0.5 r-openssl 2.1.1 xorg-libx11 1.8.7
r-bit64 4.0.5 r in parallelo 1.36.0 xorg-libxau 1.0.11
r-bitops 1.0_7 r-parsnip 1.1.1 xorg-libxdmcp 1.1.3
r-blob 1.2.4 r-patchwork 1.1.3 xorg-libxext 1.3.4
r-brew 1.0_8 r-pillar 1.9.0 xorg-libxrender 0.9.11
r-brio 1.1.3 r-pkgbuild 1.4.2 xorg-libxt 1.3.0
scopa 1.0.5 r-pkgconfig 2.0.3 xorg-renderproto 0.11.1
r-broom.helpers 1.14.0 r-pkgdown 2.0.7 xorg-xextproto 7.3.0
r-bslib 0.5.1 r-pkgload 1.3.3 xorg-xproto 7.0.31
r-cachem 1.0.8 r plotly 4.10.2 xz 5.2.6
r-callr 3.7.3 r-plyr 1.8.9 zlib 1.2.13
zstd 1.5.5