Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Nota
Il supporto per questa versione di Databricks Runtime è terminato. Per la data di fine del supporto, vedere Cronologia di fine del supporto. Per tutte le versioni supportate di Databricks Runtime, consultare le note di rilascio sulle versioni e compatibilità di Databricks Runtime.
Databricks ha rilasciato questa versione nel marzo 2018.
Importante
Questa versione è stata dichiarata obsoleta il 1° novembre 2018. Per altre informazioni sui criteri di deprecazione e sulla pianificazione di Databricks Runtime, vedere Ciclo di vita del supporto di Databricks.
Le note sulla versione seguenti forniscono informazioni su Databricks Runtime 4.0, basate su Apache Spark.
Modifiche e miglioramenti
- L'origine dati JSON tenta ora di rilevare automaticamente la codifica invece di presumere che sia UTF-8. Nei casi in cui il rilevamento automatico ha esito negativo, gli utenti possono specificare l'opzione charset per applicare una determinata codifica. Vedere Rilevamento automatico del set di caratteri.
- L'assegnazione di punteggi e la stima usando le pipeline MLlib Spark in Structured Streaming sono completamente supportate.
- L'esportazione del modello di Machine Learning di Databricks è completamente supportata. Con questa funzionalità è possibile eseguire il training di un modello Spark MLlib in Databricks, esportarlo con una chiamata di funzione e usare una libreria Databricks nel sistema preferito per importare il modello e assegnare un punteggio ai nuovi dati.
- Una nuova fonte dati di Spark offre accessibilità scalabile in lettura/scrittura ad Azure Synapse Analytics. Vedi Spark - Synapse Analytics Connector.
- Lo schema della funzione
from_jsonviene ora sempre convertito in uno schema nullable. In altre parole, tutti i campi, inclusi quelli annidati, sono nullable. Ciò garantisce che i dati siano compatibili con lo schema, impedendo il danneggiamento quando un campo risulta mancante nei dati e lo schema fornito dall'utente dichiara il campo come non annullabile, dopo aver scritto i dati in parquet. - Aggiornamento di alcune librerie Python installate:
- futures: da 3.1.1 a 3.2.0
- pandas: da 0.18.1 a 0.19.2
- pyarrow: da 0.4.1 a 0.8.0
- setuptools: da 38.2.3 a 38.5.1
- tornado: da 4.5.2 a 4.5.3
- Aggiornamento di diverse librerie R installate. Consulta Librerie R installate.
- Aggiornamento di AWS Java SDK dalla versione 1.11.126 alla versione 1.11.253.
- Aggiornamento del driver JDBC di SQL Server dalla versione 6.1.0.jre8 alla versione 6.2.2.jre8.
- Aggiornamento del driver JDBC PostgreSQL da 9.4-1204-jdbc41 a 42.1.4.
Apache Spark
Databricks Runtime 4.0 include Apache Spark 2.3.0.
Core, PySpark e Spark SQL
Funzionalità principali
-
Lettore ORC vettorializzato: [SPARK-16060]: aggiunge il supporto per il nuovo lettore ORC che migliora notevolmente la velocità effettiva dell'analisi ORC tramite vettorizzazione (2-5x). Per abilitare il lettore, gli utenti possono impostare
spark.sql.orc.implsunative. - Spark History Server V2: [SPARK-18085]: nuovo back-end del server di cronologia Spark (SHS) che offre una migliore scalabilità per applicazioni su larga scala con un meccanismo di archiviazione eventi più efficiente.
- API origine dati V2: [SPARK-15689][SPARK-22386]: Un'API sperimentale per l'integrazione di nuove origini dati in Spark. La nuova API tenta di risolvere diverse limitazioni dell'API V1 e mira a facilitare lo sviluppo di origini dati esterne con prestazioni elevate, facili da gestire ed estendibili. Questa API è ancora in fase di sviluppo attivo e dovrebbero essere previste modifiche di rilievo.
- Miglioramenti delle prestazioni di PySpark: [SPARK-22216][SPARK-21187]: miglioramenti significativi delle prestazioni e dell'interoperabilità di Python tramite la serializzazione rapida dei dati e l'esecuzione vettorializzata.
Prestazioni e stabilità
- [SPARK-21975]: Supporto per gli istogrammi nell'ottimizzatore basato sui costi.
- [SPARK-20331]: Migliore supporto per l'ottimizzazione delle condizioni per il pruning delle partizioni Hive.
- [SPARK-19112]: supporto per il codec di compressione ZStandard.
- [SPARK-21113]: supporto per il flusso di input 'read ahead' per ammortizzare il costo di I/O del disco nel lettore di 'spill'.
- [SPARK-22510][SPARK-22692][SPARK-21871]: stabilizza ulteriormente il framework codegen per evitare di raggiungere il limite di bytecode JVM di 64 KB per il metodo Java e il limite del pool costante del compilatore Java.
- [SPARK-23207]: correzione di un bug di lunga durata in Spark in cui shuffle+repartition consecutivi in un dataframe potrebbe causare risposte errate in determinati casi chirurgici.
- [SPARK-22062][SPARK-17788][SPARK-21907]: correzione di varie cause di oem.
- [SPARK-22489][SPARK-22916][SPARK-22895][SPARK-20758][SPARK-22266][SPARK-19122][SPARK-22662][SPARK-21652]: miglioramenti nell'utilità di ottimizzazione basata su regole e nello strumento di pianificazione.
Altre modifiche rilevanti
- [SPARK-20236]: supporta la semantica di sovrascrittura della partizione dinamica in stile Hive.
-
[SPARK-4131]: Supporto
INSERT OVERWRITE DIRECTORYper scrivere dati direttamente nel filesystem attraverso una query. - [SPARK-19285][SPARK-22945][SPARK-21499][SPARK-20586][SPARK-20416][SPARK-20668]: miglioramenti delle UDF.
- [SPARK-20463][SPARK-19951][SPARK-22934][SPARK-21055][SPARK-17729][SPARK-20962][SPARK-20963][SPARK-20841][SPARK-17642][SPARK-22475][SPARK-22934]: miglioramento della conformità SQL ANSI e della compatibilità Hive.
- [SPARK-20746]: funzioni sql predefinite più complete.
- [SPARK-21485]: generazione della documentazione di Spark SQL per le funzioni predefinite.
-
[SPARK-19810]: Rimuovere il supporto per Scala
2.10. -
[SPARK-22324]: aggiorna freccia a
0.8.0e Netty a4.1.17.
Streaming Strutturato
Elaborazione continua
- Nuovo motore di elaborazione in grado di eseguire query di streaming con latenza complessiva inferiore al millisecondo modificando solo una singola riga di codice utente. Per altre informazioni, vedere la guida alla programmazione.
Unioni tra flussi
- Possibilità di unire due flussi di dati, memorizzando nel buffer le righe fino all'arrivo delle tuple corrispondenti nell'altro flusso. I predicati possono essere usati contro le colonne relative all'ora dell'evento per limitare la quantità di stato da conservare.
Streaming API V2
- API sperimentale per il collegamento di nuove fonti e destinazioni che funzionano per batch, micro-batch ed esecuzione continua. Questa API è ancora in fase di sviluppo attivo e dovrebbero essere previste modifiche di rilievo.
MLlib
Caratteristiche salienti
- Ml Prediction ora funziona con Structured Streaming, usando le API aggiornate. I dettagli seguono.
API nuove e migliorate
- [SPARK-21866]: supporto predefinito per la lettura di immagini in un dataframe (Scala/Java/Python).
- [SPARK-19634]: funzioni dataframe per statistiche di riepilogo descrittive sulle colonne vettoriali (Scala/Java).
-
[SPARK-14516]:
ClusteringEvaluatorper ottimizzare gli algoritmi di clustering, supportando la silhouette del Coseno e le metriche della silhouette euclidea quadrata (Scala/Java/Python). - [SPARK-3181]: regressione lineare affidabile con perdita di Huber (Scala/Java/Python).
-
[SPARK-13969]:
FeatureHashertrasformatore (Scala/Java/Python). - Supporto di più colonne per diversi trasformatori di funzionalità:
-
[SPARK-13030]:
OneHotEncoderEstimator(Scala/Java/Python) -
[SPARK-22397]:
QuantileDiscretizer(Scala/Java) -
[SPARK-20542]:
Bucketizer(Scala/Java/Python)
-
[SPARK-13030]:
- [SPARK-21633] e SPARK-21542]: supporto migliorato per i componenti della pipeline personalizzati in Python.
Nuove funzionalità
-
[SPARK-21087]:
CrossValidatoreTrainValidationSplitpossono raccogliere tutti i modelli quando vengono adattati (Scala/Java). In questo modo è possibile controllare o salvare tutti i modelli montati. -
[SPARK-19357]: meta-algoritmi
CrossValidator,TrainValidationSplit,OneVsRestsupporta un parametro di parallelismo per l'adattamento di più modelli secondari in processi Spark paralleli. - [SPARK-17139]: Riepilogo dei modelli per la regressione logistica multinomiale (Scala/Java/Python)
- [SPARK-18710]: Aggiunta dell'offset in GLM.
-
[SPARK-20199]: Aggiunto
featureSubsetStrategyil Param aGBTClassifiereGBTRegressor. L'uso di questa funzionalità per la sottosample può migliorare significativamente la velocità di training; questa opzione è stata un punto di forza chiave dixgboost.
Altre modifiche rilevanti
-
[SPARK-22156]: scalabilità della frequenza di apprendimento fissa
Word2Vecconnumiterazioni. La nuova impostazione del tasso di apprendimento è fatta in modo che corrisponda al codice C originaleWord2Vece dovrebbe offrire risultati migliori durante l'addestramento. -
[SPARK-22289]: aggiunta
JSONdel supporto per i parametri Matrix (Correzione di un bug per la persistenza ml conLogisticRegressionModelquando si usano limiti sui coefficienti). -
[SPARK-22700]:
Bucketizer.transformelimina erroneamente la riga contenenteNaN. Quando ParamhandleInvalidè stato impostato su "skip",Bucketizerrilascia una riga con un valore valido nella colonna di input se un'altra colonna (irrilevante) ha unNaNvalore. -
[SPARK-22446]: Catalyst Optimizer a volte ha causato
StringIndexerModella generazione di un'eccezione "Unseen label" non corretta quandohandleInvalidè stata impostata su "error". Questo problema può verificarsi per i dati filtrati, a causa del push-down del predicato, causando errori anche dopo che le righe non valide sono già state filtrate dal set di dati di input. - [SPARK-21681]: correzione di un bug del case edge nella regressione logistica multinomiale che causava coefficienti non corretti quando alcune funzionalità avevano una varianza zero.
- Ottimizzazioni principali:
-
[SPARK-22707]: riduzione del consumo di memoria per
CrossValidator. -
[SPARK-22949]: riduzione del consumo di memoria per
TrainValidationSplit. -
[SPARK-21690]:
Imputerdeve eseguire il training usando un singolo passaggio sui dati. -
[SPARK-14371]:
OnlineLDAOptimizerevita di raccogliere statistiche sul driver per ogni mini batch.
-
[SPARK-22707]: riduzione del consumo di memoria per
SparkR
L'obiettivo principale di SparkR nella versione 2.3.0 è stato quello di migliorare la stabilità delle funzioni definite dall'utente e di aggiungere diversi nuovi wrapper di SparkR per le API esistenti.
Funzionalità principali
- Parità delle funzioni migliorata tra SQL e R
-
[SPARK-22933]: API di streaming strutturato per
withWatermark,trigger,partitionBye join di stream-stream. - [SPARK-21266]: funzione definita dall'utente SparkR con supporto dello schema in formato DDL.
- [SPARK-20726][SPARK-22924][SPARK-22843]: diversi wrapper api del frame di dati.
- [SPARK-15767][SPARK-21622][SPARK-20917][SPARK-20307][SPARK-20906]: diversi wrapper dell'API SparkML.
GraphX
Ottimizzazioni
-
[SPARK-5484]: Pregel ora salva i checkpoint a intervalli regolari per evitare
StackOverflowErrors. - [SPARK-21491]: piccolo miglioramento delle prestazioni in diversi punti.
Elementi deprecati
Pitone
-
[SPARK-23122]: Deprecare
register*per UDFs inSQLContexteCatalogin PySpark
MLlib
-
[SPARK-13030]:
OneHotEncoderè stato deprecato e verrà rimosso nella versione 3.0. È stato sostituito dal nuovoOneHotEncoderEstimatoroggetto.OneHotEncoderEstimatorverrà rinominatoOneHotEncoderin in 3.0 (maOneHotEncoderEstimatorverrà mantenuto come alias).
Modifiche del comportamento
SparkSQL
-
[SPARK-22036]: per impostazione predefinita le operazioni aritmetiche tra decimali restituiscono un valore arrotondato se non è possibile una rappresentazione esatta (anziché restituire
NULLnelle versioni precedenti) -
[SPARK-22937]: quando tutti gli input sono binari, SQL
elt()restituisce un output come binario. In caso contrario, restituisce una stringa. Nelle versioni precedenti, viene sempre restituito come stringa indipendentemente dai tipi di input. - [SPARK-22895]: i predicati deterministici di Join/Filter dopo i primi predicati non deterministici vengono inseriti anche negli operatori figlio, se possibile. Nelle versioni precedenti, questi filtri non erano idonei per il pushdown del predicato.
-
[SPARK-22771]: quando tutti gli input sono binari,
functions.concat()restituisce un output come binario. In caso contrario, restituisce una stringa. Nelle versioni precedenti, viene sempre restituito come stringa indipendentemente dai tipi di input. - [SPARK-22489]: quando uno dei lati del join è trasmissibile, è preferibile trasmettere la tabella specificata in modo esplicito in un suggerimento di trasmissione.
-
[SPARK-22165]: L'inferenza delle colonne di partizione aveva precedentemente trovato un tipo comune non corretto per tipi dedotti differenti. Ad esempio, in passato risultava il tipo
doublecome tipo comune perdoubleedate. Ora trova il tipo comune corretto per tali conflitti. Per informazioni dettagliate, vedere la guida alla migrazione. -
[SPARK-22100]: La funzione
percentile_approxin precedenza accettava input di tiponumerice restituiva risultati di tipodouble. Ora supporta i tipidate,timestampenumericcome tipi di input. Il tipo di risultato viene modificato anche in modo che corrisponda al tipo di input, che è più ragionevole per i percentili. -
[SPARK-21610]: le query dai file JSON/CSV non elaborati non sono consentite quando le colonne a cui si fa riferimento includono solo la colonna di record danneggiata interna (denominata
_corrupt_recordper impostazione predefinita). È invece possibile memorizzare nella cache o salvare i risultati analizzati e quindi inviare la stessa query. - [SPARK-23421]: a partire da Spark 2.2.1 e 2.3.0, lo schema viene sempre dedotto in fase di esecuzione quando le tabelle dell'origine dati hanno le colonne presenti sia nello schema di partizione che nello schema di dati. Lo schema dedotto non include le colonne partizionate. Quando si legge la tabella, Spark rispetta i valori di partizione di queste colonne sovrapposte anziché i valori archiviati nei file di origine dati. Nella versione 2.2.0 e 2.1.x lo schema dedotto viene partizionato, ma i dati della tabella sono invisibili agli utenti (ad esempio, il set di risultati è vuoto).
PySpark
-
[SPARK-19732]:
na.fill()o accetta anchefillnavalori booleani e sostituisce i valori Null con valori booleani. Nelle versioni precedenti di Spark, PySpark lo ignora e restituisce il set di dati/dataframe originale. -
[SPARK-22395]: pandas
0.19.2o upper è necessario per l'uso di funzionalità correlate a Pandas, ad esempiotoPandas,createDataFrameda pandas DataFrame e così via. - [SPARK-22395]: il comportamento dei valori di timestamp per le funzionalità correlate a Pandas è stato modificato in modo da rispettare il fuso orario di sessione, che viene ignorato nelle versioni precedenti.
-
[SPARK-23328]:
df.replacenon consente di ometterevaluequandoto_replacenon è un dizionario. In precedenza,valuepoteva essere omesso negli altri casi e avereNonecome impostazione predefinita, il che è controintuitivo e soggetto a errori.
MLlib
-
Modifiche radicali dell'API: la gerarchia di classi e caratteristiche per i riepiloghi del modello di regressione logistica è stata modificata in modo da essere più chiara e più adeguata all'aggiunta del riepilogo multiclasse. Si tratta di una modifica radicale per il codice utente che esegue il cast di
LogisticRegressionTrainingSummaryaBinaryLogisticRegressionTrainingSummary. Gli utenti devono invece usare ilmodel.binarySummarymetodo . Vedere [SPARK-17139]: per altri dettagli (si noti che si tratta di un'API@Experimental). Questo non influisce sul metodo di riepilogo python, che funzionerà comunque correttamente per i casi multinomiali e binari. -
[SPARK-21806]: :
BinaryClassificationMetrics.pr()primo punto (0.0, 1.0) fuorviante ed è stato sostituito da (0,0, p) dove la precisione p corrisponde al punto di richiamo più basso. - [SPARK-16957]: gli alberi delle decisioni ora usano punti medi ponderati quando si scelgono valori suddivisi. Questo potrebbe influenzare i risultati dell'addestramento del modello.
-
[SPARK-14657]:
RFormulasenza intercetta viene ora restituita la categoria di riferimento quando si codificano i termini di stringa, in modo da corrispondere al comportamento R nativo. Questo potrebbe influenzare i risultati dell'addestramento del modello. -
[SPARK-21027]: il parallelismo predefinito usato in
OneVsRestè ora impostato su 1 (ovvero seriale). Nella versione 2.2 e versioni precedenti, il livello di parallelismo è stato impostato sulle dimensioni predefinite del pool di thread in Scala. Ciò può modificare le prestazioni. -
[SPARK-21523]: Aggiornamento di Breeze a
0.13.2. Ciò includeva una correzione di bug importante nella ricerca di righe di Wolfe forte per L-BFGS. - [SPARK-15526]: la dipendenza JPMML è ora ombreggiata.
- Vedere anche la sezione "Correzioni di bug" per le modifiche del comportamento risultanti dalla correzione di bug.
Problemi noti
-
[SPARK-23523][SQL]: risultato errato causato dalla regola
OptimizeMetadataOnlyQuery. - [SPARK-23406]: bug nei self-join del flusso di flusso.
Aggiornamenti di manutenzione
Vedere Aggiornamenti della manutenzione di Databricks Runtime 4.0.
Ambiente di sistema
- Sistema operativo: Ubuntu 16.04.4 LTS
- Java: 1.8.0_151
- Scala: 2.11.8
- Python: 2.7.12 (o 3.5.2 se si usa Python 3)
- R: R versione 3.4.3 (2017-11-30)
-
Cluster GPU: sono installate le librerie GPU NVIDIA seguenti:
- Autista Tesla 375.66
- CUDA 8.0
- CUDNN 6.0
Librerie Python installate
| Biblioteca | Versione | Biblioteca | Versione | Biblioteca | Versione |
|---|---|---|---|---|---|
| ansi2html (strumento per convertire ANSI in HTML) | 1.1.1 | argparse | 1.2.1 | backports-abc | 0,5 |
| bot | 2.42.0 | boto3 | 1.4.1 | botocore | 1.4.70 |
| brewer2mpl | 1.4.1 | certificato | 2016.2.28 | cffi | 1.7.0 |
| chardet | 2.3.0 | colorama | 0.3.7 | configobj | 5.0.6 |
| criptografia | 1,5 | ciclatore | 0.10.0 | Cython, un linguaggio di programmazione | 0.24.1 |
| decoratore | 4.0.10 | docutils | 0.14 | enum34 | 1.1.6 |
| et-xmlfile | 1.0.1 | freetype-py | 1.0.2 | funcsig | 1.0.2 |
| fusepy | 2.0.4 | contratti futures | 3.2.0 | ggplot | 0.6.8 |
| html5lib | 0,999 | IDNA | 2.1 | indirizzo IP | 1.0.16 |
| ipython | 2.2.0 | ipython-genutils | 0.1.0 | jdcal | 1,2 |
| Jinja2 | 2.8 | jmespath | 0.9.0 | llvmlite | 0.13.0 |
| lxml | 3.6.4 | MarkupSafe | 0,23 | matplotlib | 1.5.3 |
| mpld3 | 0.2 | msgpack-python | 0.4.7 | ndg-httpsclient | 0.3.3 |
| nmbalo | 0.28.1 | numpy | 1.11.1 | openpyxl | 2.3.2 |
| Panda | 0.19.2 | pathlib2 | 2.1.0 | capro espiatorio | 0.4.1 |
| pexpect | 4.0.1 | pickleshare (libreria di software Python) | 0.7.4 | Cuscino | 3.3.1 |
| seme | 9.0.1 | filo | 3.9 | prompt-toolkit | 1.0.7 |
| Psycopg2 | 2.6.2 | ptyprocess | 0.5.1 | py4j | (0.10.3) |
| pyarrow | 0.8.0 | pyasn1 | 0.1.9 | pycparser (un parser scritto in Python) | 2.14 |
| Pygments | 2.1.3 | PyGObject | 3.20.0 | pyOpenSSL | 16.0.0 |
| pyparsing | 2.2.0 | pypng | 0.0.18 | Pitone | 2.7.12 |
| python-dateutil (libreria Python per la gestione delle date) | 2.5.3 | python-geohash | 0.8.5 | pytz | 1/6/2016 |
| richieste | 2.11.1 | s3transfer | 0.1.9 | scikit-learn | 0.18.1 |
| scipy | 0.18.1 | strofinare | 0,32 | Seaborn | 0.7.1 |
| setuptools (pacchetto Python per gestire la configurazione e la distribuzione) | 38.5.1 | simplejson | 3.8.2 | simples3 | 1.0 |
| singledispatch (funzionalità di sovraccarico di funzioni in Python) | 3.4.0.3 | sei | 1.10.0 | statsmodels | 0.6.1 |
| tornado | 4.5.3 | traitlets (una libreria per la configurazione dei parametri nei programmi Python) | 4.3.0 | urllib3 | 1.19.1 |
| virtualenv | 15.0.1 | wcwidth (funzione per determinare la larghezza dei caratteri) | 0.1.7 | ruota | 0.30.0 |
| wsgiref | 0.1.2 |
Librerie R installate
| Biblioteca | Versione | Biblioteca | Versione | Biblioteca | Versione |
|---|---|---|---|---|---|
| abind | 1.4-5 | assicura che | 0.2.0 | retroportazioni | 1.1.1 |
| base | 3.4.3 | BH | 1.65.0-1 | bindr | 0,1 |
| bindrcpp | 0.2 | pezzo | 1.1-12 | bit 64 | 0.9-7 |
| bitops | 1.0-6 | massa amorfa | 1.1.0 | stivale | 1.3-20 |
| infuso | 1.0-6 | Scopa | 0.4.3 | auto | 2.1-6 |
| Interpunzione | 6.0-77 | cron | 2.3-51 | classe | 7.3-14 |
| raggruppamento | 2.0.6 | strumenti per la codifica | 0.2-15 | spazio colore | 1.3-2 |
| segno comune | 1.4 | compilatore | 3.4.3 | pastello | 1.3.4 |
| curva | 3.0 | Trombosi Venosa del Seno Cerebrale | 0,2-1 | tabella di dati | 1.10.4-3 |
| insiemi di dati | 3.4.3 | DBI | 0,7 | ddalpha | 1.3.1 |
| DEoptimR | 1.0-8 | descrizione | 1.1.1 | strumenti per sviluppatori | 1.13.4 |
| dicromato | 2.0-0 | sommario | 0.6.12 | dimRed | 0.1.0 |
| doMC | 1.3.4 | dplyr | 0.7.4 | Piano di Disaster Recovery | 0.0.2 |
| foreach | 1.4.3 | straniero | 0.8-69 | Gbm | 2.1.3 |
| ggplot2 | 2.2.1 | git2r | 0.19.0 | glmnet | 2.0-13 |
| colla | 1.2.0 | Gower | 0.1.2 | grafica | 3.4.3 |
| grDispositivi | 3.4.3 | griglia | 3.4.3 | gsubfn | 0.6-6 |
| gtable | 0.2.0 | H₂O | 3.16.0.1 | httr | 1.3.1 |
| hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ipred | 0.9-6 |
| Iteratori | 1.0.8 | jsonlite | 1,5 | kernlab | 0.9-25 |
| KernSmooth | 2.23-15 | Etichettatura | 0,3 | Reticolo | 0.20-35 |
| lava | 1.5.1 | lazyeval | 0.2.1 | più piccolo | 0.3.2 |
| lme4 | 1.1-14 | lubridate | 1.7.1 | magrittr | 1,5 |
| mapproj | 1.2-5 | mappe | 3.2.0 | Massa | 7.3-48 |
| Matrice | 1.2-11 | MatrixModels | 0.4-1 | memorizza | 1.1.0 |
| metodi | 3.4.3 | mgcv | 1.8-23 | mimo | 0,5 |
| minqa | 1.2.4 | mnormt | 1.5-5 | ModelMetrics | 1.1.0 |
| munsell | 0.4.3 | mvtnorm | 1.0-6 | nlme | 3.1-131 |
| nloptr | 1.0.4 | nnet | 7.3-12 | Derivazione numerica | 2016.8-1 |
| openssl | 0.9.9 | parallelo | 3.4.3 | pbkrtest | 0.4-7 |
| pkgconfig | 2.0.1 | pkgKitten | 0.1.4 | plogr | 0.1-1 |
| plyr | 1.8.4 | elogio | 1.0.0 | Proc | 1.10.0 |
| prodlim | 1.6.1 | proto / prototipo | 1.0.0 | psico | 1.7.8 |
| purrr | 0.2.4 | Quantreg | 5,34 | R.methodsS3 | 1.7.1 |
| R.oo | 1.21.0 | R.utils | 2.6.0 | R6 | 2.2.2 |
| randomForest | 4.6-12 | RColorBrewer | 1.1-2 | Rcpp (una libreria per il linguaggio di programmazione R) | 0.12.14 |
| RcppEigen | 0.3.3.3.1 | RcppRoll | 0.2.2 | RCurl | 1.95-4.8 |
| ricette | 0.1.1 | reshape2 | 1.4.2 | rlang | 0.1.4 |
| robustbase | 0.92-8 | RODBC | 1.3-15 | roxygen2 | 6.0.1 |
| rpart | 4.1-12 | rprojroot | 1,2 | Rserve | 1.7-3 |
| RSQLite | 2.0 | rstudioapi | 0,7 | Scalabilità | 0.5.0 |
| sfsmisc | 1.1-1 | Sp | 1.2-5 | SparkR | 2.3.0 |
| SparseM | 1.77 | spaziale | 7.3-11 | Spline | 3.4.3 |
| sqldf | 0,4-11 | statmod | 1.4.30 | statistiche | 3.4.3 |
| statistiche4 | 3.4.3 | perizoma | 1.1.6 | stringr | 1.2.0 |
| Sopravvivenza | 2.41-3 | tcltk | 3.4.3 | Dimostrazioni di Insegnamento | 2.10 |
| testatat | 1.0.2 | Tibble | 1.3.4 | tidyr | 0.7.2 |
| tidyselect | 0.2.3 | tempoData | 3042.101 | strumenti | 3.4.3 |
| Utilità | 3.4.3 | viridisLite | 0.2.0 | baffi | 0,3-2 |
| withr | 2.1.0 | xml2 | 1.1.1 |
Librerie installate di Java e Scala (versione del cluster Scala 2.11)
| ID gruppo | ID dell'artefatto | Versione |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.7.3 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.11.253 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.11.253 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.11.253 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.11.253 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.11.253 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.11.253 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.11.253 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.253 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.11.253 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.253 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.11.253 |
| com.amazonaws | aws-java-sdk-config (configurazione SDK Java per AWS) | 1.11.253 |
| com.amazonaws | aws-java-sdk-core | 1.11.253 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.11.253 |
| com.amazonaws | aws-java-sdk-directconnect (strumento per la connessione diretta in Java di AWS) | 1.11.253 |
| com.amazonaws | aws-java-sdk-directory | 1.11.253 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.11.253 |
| com.amazonaws | aws-java-sdk-ec2 | 1.11.253 |
| com.amazonaws | aws-java-sdk-ecs | 1.11.253 |
| com.amazonaws | aws-java-sdk-efs | 1.11.253 |
| com.amazonaws | aws-java-sdk-elasticache | 1.11.253 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.253 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.253 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.253 |
| com.amazonaws | aws-java-sdk-emr | 1.11.253 |
| com.amazonaws | AWS Java SDK per Glacier | 1.11.253 |
| com.amazonaws | aws-java-sdk-iam | 1.11.253 |
| com.amazonaws | aws-java-sdk-importexport | 1.11.253 |
| com.amazonaws | aws-java-sdk-consultas | 1.11.253 |
| com.amazonaws | aws-java-sdk-kms | 1.11.253 |
| com.amazonaws | aws-java-sdk-lambda | 1.11.253 |
| com.amazonaws | aws-java-sdk-logs | 1.11.253 |
| com.amazonaws | AWS Java SDK Machine Learning | 1.11.253 |
| com.amazonaws | aws-java-sdk-opsworks | 1.11.253 |
| com.amazonaws | aws-java-sdk-rds | 1.11.253 |
| com.amazonaws | aws-java-sdk-redshift | 1.11.253 |
| com.amazonaws | aws-java-sdk-route53 | 1.11.253 |
| com.amazonaws | aws-java-sdk-s3 | 1.11.253 |
| com.amazonaws | aws-java-sdk-ses | 1.11.253 |
| com.amazonaws | aws-java-sdk-simpledb | 1.11.253 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.253 |
| com.amazonaws | aws-java-sdk-sns | 1.11.253 |
| com.amazonaws | aws-java-sdk-sqs | 1.11.253 |
| com.amazonaws | aws-java-sdk-ssm | 1.11.253 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK di AWS per Java per Storage Gateway) | 1.11.253 |
| com.amazonaws | aws-java-sdk-sts | 1.11.253 |
| com.amazonaws | aws-java-sdk-support (supporto del kit di sviluppo software Java per AWS) | 1.11.253 |
| com.amazonaws | Librerie aws-java-sdk-swf | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.11.253 |
| com.amazonaws | jmespath-java | 1.11.253 |
| com.carrotsearch | hppc | 0.7.2 |
| com.chuusai | shapeless_2.11 | 2.3.2 |
| com.clearspring.analytics | torrente | 2.7.0 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | dbml-local_2.11 | 0.3.0-db1-spark2.3 |
| com.databricks | dbml-local_2.11-tests | 0.3.0-db1-spark2.3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.11 | 0.4.15-9 |
| com.databricks.scalapb | scalapb-runtime_2.11 | 0.4.15-9 |
| com.mdfsoftware | ombreggiato criogenico | 3.0.3 |
| com.mdfsoftware | minlog | 1.3.0 |
| com.fasterxml | compagno di classe | 1.0.0 |
| com.fasterxml.jackson.core | annotazioni Jackson | 2.6.7 |
| com.fasterxml.jackson.core | jackson-core | 2.6.7 |
| com.fasterxml.jackson.core | jackson-databind | 2.6.7.1 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.6.7 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.6.7 |
| com.fasterxml.jackson.module | jackson-module-scala_2.11 | 2.6.7.1 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | nucleo | 1.1.2 |
| com.github.fommil.netlib | riferimento_nativo-java | 1.1 |
| com.github.fommil.netlib | riferimento_nativo-java-native | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java-nitidi | 1.1 |
| com.github.fommil.netlib | "netlib-native_ref-linux-x86_64-natives" | 1.1 |
| com.github.fommil.netlib | netlib-sistema_nativo-linux-x86_64-natives | 1.1 |
| com.github.luben | zstd-jni (libreria open-source per compressione con Java Native Interface) | 1.3.2-2 |
| com.github.rwl | jtransforms | 2.4.0 |
| com.google.code.findbugs | jsr305 | 2.0.1 |
| com.google.code.gson | gson | 2.2.4 |
| com.google.guava | guaiava | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.googlecode.javaewah | JavaEWAH | 0.3.2 |
| com.h2database | h2 | 1.3.174 |
| com.jamesmurty.utils | java-xmlbuilder | 1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | bonecp | 0.8.0.RILASCIO |
| com.mchange | c3p0 | 0.9.5.1 |
| com.mchange | mchange-commons-java | 0.2.10 |
| com.microsoft.azure | Azure Data Lake Store SDK | 2.0.11 |
| com.microsoft.sqlserver | mssql-jdbc | 6.2.2.jre8 |
| com.ning | compress-lzf (algoritmo di compressione) | 1.0.3 |
| com.sun.mail | javax.mail (package Java per la gestione della posta elettronica) | 1.5.2 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.11 | 0,3 |
| com.twitter | chill-java | 0.8.4 |
| com.twitter | chill_2.11 | 0.8.4 |
| com.twitter | parquet-hadoop-bundle | 1.6.0 |
| com.twitter | util-app_2.11 | 6.23.0 |
| com.twitter | util-core_2.11 | 6.23.0 |
| com.twitter | util-jvm_2.11 | 6.23.0 |
| com.typesafe | configurazione | 1.2.1 |
| com.typesafe.scala-logging | scala-logging-api_2.11 (API di logging per Scala v2.11) | 2.1.2 |
| com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
| com.univocità | univocità-parser | 2.5.9 |
| com.vlkan | FlatBuffers | 1.2.0-3f79e055 |
| com.zaxxer | HikariCP | 2.4.1 |
| commons-beanutils | commons-beanutils | 1.7.0 |
| commons-beanutils | commons-beanutils-core | 1.8.0 |
| commons-cli | commons-cli | 1,2 |
| commons-codec (libreria per la codifica comune) | commons-codec (libreria per la codifica comune) | 1.10 |
| collezioni-comuni | collezioni-comuni | 3.2.2 |
| commons-configuration | commons-configuration | 1.6 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-digester | commons-digester | 1.8 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.4 |
| commons-lang | commons-lang | 2.6 |
| commons-logging (no translation needed) | commons-logging (no translation needed) | 1.1.3 |
| commons-net | commons-net | 2.2 |
| commons-pool | commons-pool | 1.5.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
| io.airlift | compressore d'aria | 0,8 |
| io.dropwizard.metrics | nucleo delle metriche | 3.1.5 |
| io.dropwizard.metrics | metrics-ganglia | 3.1.5 |
| io.dropwizard.metrics | metrics-graphite | 3.1.5 |
| io.dropwizard.metrics | metriche-controlli di integrità | 3.1.5 |
| io.dropwizard.metrics | metrics-jetty9 | 3.1.5 |
| io.dropwizard.metrics | metrics-json (Specificare ulteriormente se necessario a seconda del contesto) | 3.1.5 |
| io.dropwizard.metrics | metrics-jvm | 3.1.5 |
| io.dropwizard.metrics | metrics-log4j | 3.1.5 |
| io.dropwizard.metrics | metriche-servlet | 3.1.5 |
| io.netty | Netty | 3.9.9.Final |
| io.netty | netty-all | 4.1.17.Final |
| io.prometheus | simpleclient | 0.0.16 |
| io.prometheus | sempliceclient_comune | 0.0.16 |
| io.prometheus | simpleclient_dropwizard | 0.0.16 |
| io.prometheus | simpleclient_servlet | 0.0.16 |
| io.prometheus.jmx | agente di raccolta | 0,7 |
| javax.activation | attivazione | 1.1.1 |
| javax.annotation | javax.annotation-api | 1,2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.servlet | javax.servlet-api | 3.1.0 |
| javax.servlet.jsp | jsp-api | 2.1 |
| javax.transaction | Java Transaction API (JTA) | 1.1 |
| javax.validation | validation-api | 1.1.0.Final |
| javax.ws.rs | javax.ws.rs-api | 2.0.1 |
| javax.xml.bind | jaxb-api | 2.2.2 |
| javax.xml.flusso | stax-api | 1.0-2 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.11 |
| joda-time | joda-time | 2.9.3 |
| log4j | apache-log4j-extras | 1.2.17 |
| log4j | log4j | 1.2.17 |
| net.idromatico | eigenbase-properties | 1.1.5 |
| net.iharder | base64 | 2.3.8 |
| net.java.dev.jets3t | jets3t | 0.9.4 |
| net.razorvine | pirolite | 4.13 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv (formato CSV avanzato) | 2.2.0 |
| net.sourceforge.f2j | arpack_combinato_tutto | 0,1 |
| org.acplt | oncrpc | 1.0.7 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.4 |
| org.antlr | antlr4-runtime | 4.7 |
| org.antlr | modello di stringa | 3.2.1 |
| org.apache.ant | formica | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | ant launcher | 1.9.2 |
| org.apache.arrow | formato freccia | 0.8.0 |
| org.apache.arrow | freccia-memoria | 0.8.0 |
| org.apache.arrow | freccia-vettore | 0.8.0 |
| org.apache.avro | Avro | 1.7.7 |
| org.apache.avro | avro-ipc | 1.7.7 |
| org.apache.avro | Test di avro-ipc | 1.7.7 |
| org.apache.avro | avro-mapred-hadoop2 | 1.7.7 |
| org.apache.calcite | Calcite-Avatica | Versione 1.2.0-incubazione |
| org.apache.calcite | nucleo di calcite | Versione 1.2.0-incubazione |
| org.apache.calcite | calcite-linq4j | Versione 1.2.0-incubazione |
| org.apache.commons | commons-compress | 1.4.1 |
| org.apache.commons | commons-crypto | 1.0.0 |
| org.apache.commons | commons-lang3 | 3.5 |
| org.apache.commons | commons-math3 | 3.4.1 |
| org.apache.curator | cliente del curatore | 2.7.1 |
| org.apache.curator | framework del curatore | 2.7.1 |
| org.apache.curator | ricette dei curatori | 2.7.1 |
| org.apache.derby | derby sportivo | 10.12.1.1 |
| org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
| org.apache.directory.api | api-util | 1.0.0-M20 |
| org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
| org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
| org.apache.hadoop | annotazioni di Hadoop | 2.7.3 |
| org.apache.hadoop | hadoop-auth | 2.7.3 |
| org.apache.hadoop | hadoop-cliente | 2.7.3 |
| org.apache.hadoop | hadoop-common | 2.7.3 |
| org.apache.hadoop | hadoop-hdfs | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-common (cliente comune di Hadoop MapReduce) | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-client | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-common | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-server-common | 2.7.3 |
| org.apache.htrace | htrace-core | Incubazione 3.1.0 |
| org.apache.httpcomponents | httpclient | 4.5.4 |
| org.apache.httpcomponents | httpcore | 4.4.8 |
| org.apache.ivy | Edera | 2.4.0 |
| org.apache.orc | orc-core-nohive | 1.4.1 |
| org.apache.orc | orc-mapreduce-nohive | 1.4.1 |
| org.apache.parquet | colonna parquet | 1.8.2-databricks1 |
| org.apache.parquet | parquet-comune | 1.8.2-databricks1 |
| org.apache.parquet | codifica parquet | 1.8.2-databricks1 |
| org.apache.parquet | formato parquet | 2.3.1 |
| org.apache.parquet | parquet-hadoop | 1.8.2-databricks1 |
| org.apache.parquet | parquet-jackson | 1.8.2-databricks1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.9.3 |
| org.apache.xbean | xbean-asm5-shaded | 4.4 |
| org.apache.zookeeper | guardiano dello zoo | 3.4.6 |
| org.bouncycastle | bcprov-jdk15on | 1,58 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.jackson | jackson-xc | 1.9.13 |
| org.codehaus.janino | Commons-Compiler | 3.0.8 |
| org.codehaus.janino | janino | 3.0.8 |
| org.datanucleus | datanucleus-api-jdo | 3.2.6 |
| org.datanucleus | datanucleus-core | 3.2.10 |
| org.datanucleus | datanucleus-rdbms | 3.2.9 |
| org.eclipse.jetty | jetty-client | 9.3.20.v20170531 |
| org.eclipse.jetty | continuazione di jetty | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-http | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-io | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-jndi | 9.3.20.v20170531 |
| org.eclipse.jetty | Jetty Plus | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-proxy | 9.3.20.v20170531 |
| org.eclipse.jetty | sicurezza del molo | 9.3.20.v20170531 |
| org.eclipse.jetty | Jetty Server | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-servlet | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-servlets | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-util | 9.3.20.v20170531 |
| org.eclipse.jetty | applicazione web di Jetty | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-xml | 9.3.20.v20170531 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.4.0-b34 |
| org.glassfish.hk2 | hk2-localizzatore | 2.4.0-b34 |
| org.glassfish.hk2 | hk2-utils | 2.4.0-b34 |
| org.glassfish.hk2 | localizzatore di risorse OSGi | 1.0.1 |
| org.glassfish.hk2.external | aopalliance-repackaged (riconfezionato) | 2.4.0-b34 |
| org.glassfish.hk2.external | javax.inject | 2.4.0-b34 |
| org.glassfish.jersey.bundles.repackaged | maglia-guava | 2.22.2 |
| org.glassfish.jersey.containers | jersey-container-servlet (servlet contenitore Jersey) | 2.22.2 |
| org.glassfish.jersey.containers | modulo-nucleo-servlet-contenitore-jersey (if a translation is required as per the context) | 2.22.2 |
| org.glassfish.jersey.core | jersey-client | 2.22.2 |
| org.glassfish.jersey.core | maglia-comune | 2.22.2 |
| org.glassfish.jersey.core | Jersey-server | 2.22.2 |
| org.glassfish.jersey.media | jersey-media-jaxb (libreria per la gestione dei dati multimediali in Jersey usando JAXB) | 2.22.2 |
| org.hibernate | validatore di Hibernate | 5.1.1.Final |
| org.iq80.snappy | vivace | 0.2 |
| org.javassist | javassist | 3.18.1-GA |
| org.jboss.logging | jboss-logging (strumento di registrazione per JBoss) | 3.1.3.GA |
| org.jdbi | jdbi | 2.63.1 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.11 | 3.2.11 |
| org.json4s | json4s-core_2.11 | 3.2.11 |
| org.json4s | json4s-jackson_2.11 | 3.2.11 |
| org.lz4 | lz4-java | 1.4.0 |
| org.mariadb.jdbc | mariadb-java-client - Libreria Java per MariaDB | 2.1.2 |
| org.mockito | mockito-all | 1.9.5 |
| org.objenesis | objenesis | 2.1 |
| org.postgresql | postgresql | 42.1.4 |
| org.roaringbitmap | RoaringBitmap | 0.5.11 |
| org.rocksdb | rocksdbjni | 5.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.11 | 2.11.8 |
| org.scala-lang | scala-library_2.11 | 2.11.8 |
| org.scala-lang | scala-reflect_2.11 | 2.11.8 |
| org.scala-lang | scalap_2.11 | 2.11.8 |
| org.scala-lang.modules | scala-parser-combinators_2.11 | 1.0.2 |
| org.scala-lang.modules | scala-xml_2.11 | 1.0.5 |
| org.scala-sbt | interfaccia di test | 1.0 |
| org.scalacheck | scalacheck_2.11 | 1.12.5 |
| org.scalanlp | breeze-macros_2.11 | 0.13.2 |
| org.scalanlp | breeze_2.11 | 0.13.2 |
| org.scalatest | scalatest_2.11 | 2.2.6 |
| org.slf4j | jcl-over-slf4j | 1.7.16 |
| org.slf4j | jul-to-slf4j | 1.7.16 |
| org.slf4j | slf4j-api | 1.7.16 |
| org.slf4j | slf4j-log4j12 | 1.7.16 |
| org.spark-project.hive | hive-beeline | 1.2.1.spark2 |
| org.spark-project.hive | hive-cli | 1.2.1.spark2 |
| org.spark-project.hive | hive-exec | 1.2.1.spark2 |
| org.spark-project.hive | Hive-JDBC | 1.2.1.spark2 |
| org.spark-project.hive | Hive-Metastore | 1.2.1.spark2 |
| org.spark-project.spark | inutilizzato | 1.0.0 |
| org.spire-math | spire-macros_2.11 | 0.13.0 |
| org.spire-math | spire_2.11 | 0.13.0 |
| org.springframework | Spring Core | 4.1.4.RILASCIO |
| org.springframework | test di primavera | 4.1.4.RILASCIO |
| org.cortanaani | xz | 1.0 |
| org.typelevel | macchinista_2.11 | 0.6.1 |
| org.typelevel | macro-compat_2.11 | 1.1.1 |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.2.6 |
| org.yaml | snakeyaml | 1,16 |
| oro | oro | 2.0.8 |
| software.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |
| xmlenc | xmlenc | 0,52 |