Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Nota
Il supporto per questa versione di Databricks Runtime è terminato. Per la data di fine del supporto, vedere Cronologia di fine del supporto. Per tutte le versioni supportate di Databricks Runtime, fare riferimento a Note di rilascio di Databricks Runtime: versioni e compatibilità.
Le note sulla versione seguenti forniscono informazioni su Databricks Runtime 13.2, basate su Apache Spark 3.4.0.
Databricks ha rilasciato questa versione a luglio 2023.
Miglioramenti e nuove funzionalità
- Checkpoint del log delle modifiche per l'archivio stati di RocksDB
- Affidabilità avanzata per VACUUM con clone superficiale in Unity Catalog.
- Supporto per funzioni definite dall'utente Python in SQL
- Delta Lake UniForm per Apache Iceberg è disponibile in anteprima pubblica
- Il liquid clustering di Delta Lake è disponibile in anteprima pubblica
- Supporto dell'archiviazione in Azure Databricks
- IDENTIFIER clausola supporto
- Supporto per il Catalogo Unity per le funzioni definite dall'utente Python e Pandas (UDFs)
- Condividere schemi utilizzando Delta Sharing
- Correzioni di bug
Checkpoint del changelog per l'archivio di stato di RocksDB
È possibile abilitare il checkpoint del log delle modifiche per ridurre la durata del checkpoint e la latenza end-to-end per i carichi di lavoro Structured Streaming con stato. Databricks raccomanda di abilitare il checkpoint del log delle modifiche per tutte le query con stato di Structured Streaming. Vedere Abilitare il checkpoint del log delle modifiche.
Affidabilità avanzata per VACUUM con clone superficiale nel Catalogo Unity.
Quando si usano le tabelle gestite di Unity Catalog per l'origine e la destinazione di un'operazione clone superficiale, Unity Catalog gestisce i file di dati sottostanti per migliorare l'affidabilità per l'origine e la destinazione dell'operazione di clonazione. L'esecuzione di VACUUM sull'origine di un clone superficiale non interrompe la tabella clonata. Consulta Vacuum e i cloni superficiali di Unity Catalog.
Supporto per funzioni definite dall'utente Python in SQL
È ora possibile dichiarare funzioni definite dall'utente usando Python all'interno di istruzioni SQL CREATE FUNCTION nel catalogo Unity. Consultare le funzioni definite dall'utente (UDF) in Unity Catalog.
Delta Lake UniForm per Apache Iceberg è disponibile in anteprima pubblica
Delta Lake Universal Format (UniForm) consente di leggere le tabelle Delta con client Apache Iceberg. Vedi Leggi le tabelle Delta con i client Iceberg.
Il clustering di liquidi Delta Lake è disponibile in anteprima pubblica
Il clustering liquido di Delta Lake sostituisce il partizionamento delle tabelle e ZORDER per semplificare le decisioni relative al layout dei dati e ottimizzare le prestazioni delle query. Vedere Usare clustering liquido per le tabelle.
Supporto dell'archiviazione in Azure Databricks
Il supporto per l'archiviazione in Azure Databricks introduce una raccolta di funzionalità che consentono di usare i criteri di ciclo di vita basati sul cloud nello storage di oggetti cloud contenenti tabelle Delta, per spostare i file nei livelli di archiviazione a lungo termine. Vedere Supporto dell'archiviazione in Azure Databricks.
supporto della clausola IDENTIFIER
Usare IDENTIFIER(:mytable) per parametrizzare in modo sicuro i nomi di tabella, colonna, funzione e schema in molte istruzioni SQL.
Supporto di Unity Catalog per le funzioni definite dall'utente (UDF) in Python e Pandas
In Databricks Runtime 13.2 e versioni successive, le funzioni definite dall'utente scritte in Python sono supportate nei cluster che usano la modalità di accesso standard (in precedenza modalità di accesso condiviso) in un'area di lavoro abilitata per Unity Catalog. Sono incluse le UDFs (funzioni definite dall'utente) di Python e Pandas. Per informazioni sulle funzioni di Python definite dall'utente, vedere Funzioni scalari definite dall'utente - Python.
Condividere schemi usando Delta Sharing
Databricks Runtime 13.2 aggiunge la possibilità di usare ALTER SHARE <share-name> ADD SCHEMA <schema-name> per condividere un intero schema usando la condivisione delta, concedendo al destinatario l'accesso a tutte le tabelle e le viste nello schema al momento della condivisione, insieme alle tabelle e alle viste aggiunte allo schema in futuro. Vedere Aggiungere schemi a una condivisione e ALTER SHARE.
Correzioni di bug
- Correzione di un bug con il lettore JSON, in cui i record sono stati analizzati in modalità
PERMISSIVEsefailOnUnknownFieldsmodeè stato abilitato. I record vengono ora eliminati in modalitàDROPMALFORMEDparsero vengono scritti nelbadRecordsPath, se una di queste opzioni è impostata.FAILFASTgenera un errore se un tipo di colonna non corrisponde.
Aggiornamenti della libreria
- Librerie Python aggiornate:
- nodeenv dalla versione 1.7.0 alla versione 1.8.0
- Librerie R aggiornate:
- Librerie Java aggiornate:
- io.delta.delta-sharing-spark_2.12 da 0.6.7 a 0.7.0
Apache Spark
Databricks Runtime 13.2 include Apache Spark 3.4.0. Questa versione include tutte le correzioni e i miglioramenti di Spark inclusi in Databricks Runtime 13.1 (EoS), nonché le correzioni di bug e i miglioramenti aggiuntivi seguenti apportati a Spark:
- [SPARK-42750] [SC-133452][dbrrm-273] Supporto per l'istruzione 'Inserisci per Nome'
- [SPARK-43133] [SC-133728] Supporto di Scala Client DataStreamWriter Foreach
-
[SPARK-43663] [SC-134135][connect][PS] Abilitare
SeriesParityTests.test_compare -
[SPARK-43684] [SC-134162][spark-43685][SPARK-43686][spark-43691][CONNECT][ps] Correzione
(NullOps|NumOps).(eq|ne)per Spark Connect. - [SPARK-44021] [SC-134109][sql] Aggiungere spark.sql.files.maxPartitionNum
-
[SPARK-43910] [SC-132936][sql] Rimuovi
__auto_generated_subquery_namedagli id negli errori - [SPARK-43976] [SC-133375][core] Gestire il caso in cui modifiedConfigs non esiste nei registri eventi
- [SPARK-32559] [SC-133992][sql] La logica di rimozione non gestiva correttamente i caratteri di controllo ASCII.
- [SPARK-43421] [SC-132930][ss] Implementare il checkpointing basato su Changelog per il provider dell'archivio stati RocksDB
- [SPARK-43594] [SC-133851][sql] Aggiungere LocalDateTime a anyToMicros
- [SPARK-43884] [SC-133867] Marcatori parametri in DDL
- [SPARK-43398] [SC-133894][core] Il timeout dell'executor deve essere il massimo tra il timeout inattivo di shuffle e il timeout inattivo di rdd
-
[SPARK-43610] [SC-133892][connect][PS] Abilitare
InternalFrame.attach_distributed_columnin Spark Connect. - [SPARK-43971] [SC-133826][connect][PYTHON] Supportare il createDataFrame di Python in modalità di streaming
- [SPARK-44006] [SC-133652][connect][PYTHON] Supporto per il caching degli artefatti
-
[SPARK-43790] [SC-133468][python][CONNECT][ml] Aggiungi
copyFromLocalToFsAPI - [SPARK-43921] [SC-133461][protobuf] Generare file descrittori Protobuf in fase di compilazione
- [SPARK-43906] [SC-133638][sc-133404][PYTHON][connect] Implementare il supporto dei file in SparkSession.addArtifacts
- [SPARK-44010] [SC-133744][python][SS][minore] Correzione del tipo rowsPerSecond in Python StreamingQueryProgress
- [SPARK-43768] [SC-132398][python][CONNECT] Supporto della gestione delle dipendenze Python in Python Spark Connect
- [SPARK-43979] [13.X] Revert “[SC-133456][sql] CollectedMetrics deve essere trattato come lo stesso per il self-join”
- [SPARK-42290] [SC-133696][sql] Risoluzione del problema per cui l'errore OOM non può essere segnalato quando AQE è attivo.
- [SPARK-43943] [SC-133648][sql][PYTHON][connect] Aggiungere funzioni matematiche SQL a Scala e Python
- [SPARK-43747] [SC-132047][python][CONNECT] Implementare il supporto pyfile in SparkSession.addArtifacts
-
[SPARK-43700] [SC-133726][spark-43701][CONNECT][ps] Abilitare
TimedeltaOps.(sub|rsub)con Spark Connect -
[SPARK-43712] [SC-133641][spark-43713][CONNECT][ps] Abilita il test di parità:
test_line_plot,test_pie_plot. - [SPARK-43867] [SC-132895][sql] Migliorare i candidati suggeriti per l'attributo non risolto
- [SPARK-43901] [SC-133454][sql] Avro supporto per tipo decimale personalizzato basato su Long
- [SPARK-43267] [SC-133024][jdbc] Gestire la colonna postgres sconosciuta definita dall'utente come stringa nella matrice
- [SPARK-43935] [SC-133637][sql][PYTHON][connect] Aggiungere xpath_* funzioni a Scala e Python
- [SPARK-43916] [SC-133647][sql][PYTHON][connect] Aggiungere percentile all'API Scala e Python
- [SPARK-43717] [SC-133455][connect] Il client Scala reduce agg non può gestire partizioni Null per gli input primitivi scala
-
[SPARK-43984] [SC-133469][sql][PROTOBUF] Modifica da usare
foreachquandomapnon produce risultati - [SPARK-43612] [SC-132011][connect][PYTHON] Implementare SparkSession.addArtifact(s) nel client di Python
- [SPARK-44002] [SC-133606][connect] Correzione del gestore dello stato degli artefatti
- [SPARK-43933] [SC-133470][sql][PYTHON][connect] Aggiungere funzioni di aggregazione di regressione lineare a Scala e Python
- [SPARK-43920] [SC-133614][sql][CONNECT] Creare un modulo sql/api
- [SPARK-43979] [SC-133456][sql] CollectedMetrics deve essere considerato come lo stesso per il self-join
-
[SPARK-43977] [SC-133373][connect] Correzione del risultato imprevisto del controllo
dev/connect-jvm-client-mima-check - [SPARK-43985] [SC-133412][protobuf] spark protobuf: correzione del bug che trasformava le enumerazioni in numeri interi
- [SPARK-43930] [SC-133406][sql][PYTHON][connect] Aggiungere unix_* funzioni a Scala e Python
- [SPARK-43807] [SC-132545][sql] Eseguire la migrazione di _LEGACY_ERROR_TEMP_1269 a PARTITION_SCHEMA_IS_EMPTY
- [SPARK-43956] [SC-133123][sql] Correzione del bug che impedisce la visualizzazione della sql della colonna per Percentile[Cont|Disc]
- [SPARK-42626] [SC-133248][connect] Aggiungi Iteratore Distruttivo per SparkResult
- [SPARK-43333] [SC-132898][sql] Consentire ad Avro di convertire il tipo di unione in SQL con nome di campo stabile con tipo
-
[SPARK-43953] [SC-133134][connect] Rimuovi
pass - [SPARK-43970] [SC-133403][python][CONNECT] Nascondere i metodi del dataframe non supportati dal completamento automatico
- [SPARK-43973] [SC-133272][ss][UI] L'interfaccia utente di Structured Streaming dovrebbe visualizzare correttamente le query non riuscite
- [SPARK-42577] [SC-125445][core] Aggiungere il limite massimo di tentativi per le fasi per evitare potenziali tentativi infiniti
-
[SPARK-43841] [SC-132699][sql] Gestire gli attributi candidati senza prefisso in
StringUtils#orderSuggestedIdentifiersBySimilarity - [SPARK-41497] [SC-124795][core][Aggiornamento] Modifica la versione di supporto della configurazione a 3.5.0
- [SPARK-37942] [SC-130983][core][SQL] Eseguire la migrazione delle classi di errore
-
[SPARK-43898] [SC-132926][core] Registrare automaticamente
immutable.ArraySeq$ofRefaKryoSerializerper Scala 2.13 - [SPARK-43775] [SC-132891][sql] DataSource V2: Consenti la rappresentazione degli aggiornamenti come eliminazioni e inserimenti
- [SPARK-43817] [SC-132662][spark-43702][PYTHON] Supporto per UserDefinedType in createDataFrame da pandas DataFrame e toPandas
- [SPARK-43418] [SC-132753][sc-130685][CONNECT] Add SparkSession.Builder.getOrCreate
- [SPARK-43549] [SC-132383][sql] Convertire _LEGACY_ERROR_TEMP_0036 in INVALID_SQL_SYNTAX. ANALYZE_TABLE_UNEXPECTED_NOSCAN
- [SPARK-41497] [SC-124644][core] Correzione della sottovalutazione degli accumulatori nel caso dell'attività di ritentativo con la cache RDD
-
[SPARK-43892] [SC-133006][python] Aggiungere il supporto del completamento automatico per
df[|]inpyspark.sql.dataframe.DataFrame - [SPARK-43881] [SC-133140][sql][PYTHON][connect] Aggiungere un modello facoltativo per Catalog.listDatabases
- [SPARK-43205] [SC-132623] IDENTIFIER clausola
- [SPARK-43545] [SC-132378][sql][PYTHON] Supporta il tipo di timestamp annidato
- [SPARK-43949] [SC-133048][python] Aggiornare cloudpickle a 2.2.1
- [SPARK-43760] [SC-132809][sql] Annullabilità dei risultati delle sottoquery scalari
-
[SPARK-43696] [SC-132737][spark-43697][SPARK-43698][spark-43699][PS] Correzione
TimedeltaOpsper Spark Connect - [SPARK-43895] [SC-132897][connect][GO] Preparare il percorso del pacchetto go
- [SPARK-43894] [SC-132892][python] Correzione del bug in df.cache()
- [SPARK-43509] [SC-131625][connect] Supporto per la creazione di più sessioni di Spark Connect
- [SPARK-43882] [SC-132888][sql] Assegnare il nome a _LEGACY_ERROR_TEMP_2122
-
[SPARK-43687] [SC-132747][spark-43688][SPARK-43689][spark-43690][PS] Correzione
NumOpsper Spark Connect -
[SPARK-43604] [SC-132165][sql] Ristrutturare
INVALID_SQL_SYNTAXper evitare di incorporare il testo dell'errore nel codice sorgente - [SPARK-43859] [SC-132883][sql] Sovrascrivere il metodo toString in LateralColumnAliasReference
- [SPARK-43792] [SC-132939][sql][PYTHON][connect] Aggiungere un modello facoltativo per Catalog.listCatalogs
- [SPARK-43353] Ripristina “[SC-132734][python] Migrare gli errori di sessione rimanenti nella classe di errore”
- [SPARK-43375] [SC-130309][connect] Migliorare i messaggi di errore per INVALID_CONNECT_URL
-
[SPARK-43863] [SC-132721][connect] Rimuovere elementi ridondanti
toSeqdaSparkConnectPlannerper Scala 2.13 -
[SPARK-43676] [SC-132708][spark-43677][SPARK-43678][spark-43679][PS] Correzione
DatetimeOpsper Spark Connect -
[SPARK-43666] [SC-132689][spark-43667][SPARK-43668][spark-43669][PS] Correzione
BinaryOpsper Spark Connect -
[SPARK-43680] [SC-132709][spark-43681][SPARK-43682][spark-43683][PS] Correzione
NullOpsper Spark Connect - [SPARK-43782] [SC-132885][core] Supporto della configurazione del livello di log con Spark conf statica
- [SPARK-43132] [SC-131623] [SS] [CONNECT] API Python Client DataStreamWriter foreach()
- [SPARK-43290] [SC-131961][sql] Aggiunge il supporto AES IV e AAD a ExpressionImplUtils
- [SPARK-43795] [SC-132532][connect] Rimuovere i parametri non usati per SparkConnectPlanner
- [SPARK-42317] [SC-129194][sql] Assegna un nome a _LEGACY_ERROR_TEMP_2247: CANNOT_MERGE_SCHEMAS
- [SPARK-43597] [SC-131960][sql] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_0017
-
[SPARK-43834] [SC-132679][sql] Utilizzare le classi di errore per gli errori di compilazione di
ResolveDefaultColumns - [SPARK-43749] [SC-132423][spark-43750][SQL] Assegnare nomi alla classe di errore _LEGACY_ERROR_TEMP_240[4-5]
- [SPARK-43576] [SC-132533][core] Rimuovere le dichiarazioni inutilizzate dal modulo Core
- [SPARK-43314] [SC-129970][connect][PYTHON] Eseguire la migrazione degli errori del client Spark Connect nella classe di errore
- [SPARK-43799] [SC-132715][python] Aggiungere l'opzione binaria del descrittore all'API Pyspark Protobuf
- [SPARK-43837] [SC-132678][sql] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_103[1-2]
- [SPARK-43862] [SC-132750][sql] Assegnare un nome alla classe di errore LEGACY_ERROR_TEMP(1254 & 1315)
- [SPARK-43886] [SC-132808][python] Accetta la tupla generica come suggerimenti di tipo nei Pandas UDF
- [SPARK-43530] [SC-132653][protobuf] Leggere il file di descrittori solo una volta
- [SPARK-43820] [SC-132676][spark-43822][SPARK-43823][spark-43826][SPARK-43827] Assegnare nomi alla classe di errore _LEGACY_ERROR_TEMP_241[1-7]
-
[SPARK-43671] [SC-132519][spark-43672][SPARK-43673][spark-43674][PS] Correzione
CategoricalOpsper Spark Connect - [SPARK-39979] [SC-132685][sql] Aggiungi opzione per utilizzare vettori di grandi dimensioni e larghezza variabile per le operazioni UDF Arrow
-
[SPARK-43692] [SC-132660][spark-43693][SPARK-43694][spark-43695][PS] Correzione
StringOpsper Spark Connect - [SPARK-43353] [SC-132734][python] Eseguire la migrazione degli errori di sessione rimanenti nella classe di errore
-
[SPARK-43815] [SC-132781][sql] Aggiungi
to_varcharalias perto_char - [SPARK-43543] [13.x][sc-131839][PYTHON] Correzione del comportamento del MapType annidato nelle UDF di Pandas
- [SPARK-43361] [SC-131789][protobuf] aggiornare la documentazione sugli errori relativi alla serializzazione degli enum
-
[SPARK-43740] [SC-132035][python][CONNECT] Nascondere i metodi non supportati
sessiondal completamento automatico - [SPARK-43022] [SC-131681][connect] Supportare le funzioni protobuf per il client Scala
-
[SPARK-43304] [13.x][sc-129969][CONNECT][python] Eseguire la migrazione
NotImplementedErrorinPySparkNotImplementedError - [SPARK-43860] [SC-132713][sql] Abilitare la ricorsione finale laddove possibile
- [SPARK-42421] [SC-132695][core] Usare le utilità per ottenere l'opzione per l'allocazione dinamica usata nel checkpoint locale
-
[SPARK-43590] [SC-132012][connect] Effettua
connect-jvm-client-mima-checkper supportare il controllo mima con il moduloprotobuf - [SPARK-43315] [13.x][connect][PYTHON][ss] Eseguire la migrazione degli errori rimanenti dal DataFrame(Reader|Writer) nella classe di errore
- [SPARK-43361] [SC-130980][protobuf] spark-protobuf: consenti la serializzazione e deserializzazione con enum come interi
- [SPARK-43789] [SC-132397][r] Usa 'spark.sql.execution.arrow.maxRecordsPerBatch' in R createDataFrame con Arrow per impostazione predefinita
- [SPARK-43596] [SC-126994][sql] Gestire il predicato IsNull in rewriteDomainJoins
- [SPARK-42249] [SC-122565][sql] Ridefinizione del collegamento HTML per la documentazione nei messaggi di errore.
- [SPARK-43128] [SC-131628][connect][SS] Rendere e
recentProgressrestituirelastProgresscoerente con l'API Scala nativa - [SPARK-43387] [SC-130448][sql] Fornire un codice di errore leggibile per _LEGACY_ERROR_TEMP_1168.
- [SPARK-43334] [SC-132358] [interfaccia utente] Correzione dell'errore durante la serializzazione di ExecutorPeakMetricsDistributions nella risposta dell'API
-
[SPARK-42958] [SC-131475][connect] Riorganizzare
connect-jvm-client-mima-checkper supportare il controllo mima con il modulo avro - [SPARK-43591] [SC-131977][sql] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_0013
- [SPARK-38464] [SC-132211][core] Usare classi di errore in org.apache.spark.io
- [SPARK-43759] [SC-132189][sql][PYTHON] Esporre TimestampNTZType in pyspark.sql.types
- [SPARK-43649] [SC-132036][spark-43650][SPARK-43651][sql] Assegnare nomi alla classe di errore _LEGACY_ERROR_TEMP_240[1-3]
-
[SPARK-43719] [SC-132016][webui] Gestire il campo
missing row.excludedInStages - [SPARK-42956] [SC-127257][connect] Implementare le funzioni Avro per il client Scala
- [SPARK-43487] [SC-131975][sql] Correzione del messaggio di errore CTE annidato
- [SPARK-43265] [SC-129653] Spostare il framework degli errori in un modulo utils comune
- [SPARK-40912] [SC-131547][core]Sovraccarico delle eccezioni in KryoDeserializationStream
- [SPARK-43583] [SC-131976][core] ottenere MergedBlockedMetaReqHandler dal delegato anziché dall'istanza SaslRpcHandler
- [SPARK-42996] [SC-131997][connect][PS][ml] Creare e assegnare ticket JIRA appropriati per tutti i test non superati.
- [SPARK-38469] [SC-131425][core] Usare la classe di errore in org.apache.spark.network
- [SPARK-43718] [SC-132014][sql] Imposta correttamente il valore nullo per le chiavi nei join USING
-
[SPARK-43502] [SC-131419][python][CONNECT]
DataFrame.dropdeve accettare una colonna vuota - [SPARK-43743] [SC-132038][sql] Porta HIVE-12188(DoAs non funziona correttamente in HS2 protetto non Kerberos)
- [SPARK-43598] [SC-131929][sql] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_2400
- [SPARK-43138] [SC-131031][core] Fix ClassNotFoundException durante la migrazione
- [SPARK-43360] [SC-131526][ss][CONNECT] StreamingQueryManager client Scala
- [SPARK-38467] [SC-131025][core] Usare classi di errore in org.apache.spark.memory
- [SPARK-43345] [SC-131790][spark-43346][SQL] Rinominare le classi di errore LEGACY_ERROR_TEMP[0041|1206]
- [SPARK-42815] [SC-126450][sql] Supporto per l'eliminazione delle sottoespressioni nel contesto dell'espressione di shortcut.
- [SPARK-38462] [SC-130449][core] Aggiungi classe di errore INTERNAL_ERROR_EXECUTOR
-
[SPARK-43589] [SC-131798][sql] Correggere
cannotBroadcastTableOverMaxTableBytesErrorper utilizzarebytesToString - [SPARK-43539] [SC-131830][sql] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_0003
- [SPARK-43157] [SC-131688][sql] Clonare il piano inMemoryRelation memorizzato nella cache per impedire che il piano clonato faccia riferimento agli stessi oggetti
- [SPARK-43309] [SC-129746][spark-38461][CORE] Estendere INTERNAL_ERROR con categorie e aggiungere INTERNAL_ERROR_BROADCAST classe di errore
- [SPARK-43281] [SC-131370][sql] Correzione del problema per cui il writer simultaneo non aggiorna le metriche dei file
-
[SPARK-43383] [SC-130660][sql] Aggiungere
rowCountstatistiche a LocalRelation - [SPARK-43574] [SC-131739][python][SQL] Supporto per impostare l'eseguibile Python per le API delle funzioni UDF e funzioni pandas nei lavoratori durante il runtime
- [SPARK-43569] [SC-131694][sql] Rimuovere la soluzione alternativa per HADOOP-14067
- [SPARK-43183] [SC-128938][ss][13.x] Introdurre un nuovo callback "onQueryIdle" in StreamingQueryListener
- [SPARK-43528] [SC-131531][sql][PYTHON] Supportare nomi di campo duplicati in createDataFrame con DataFrame pandas
- [SPARK-43548] [SC-131686][ss] Rimuovere la soluzione alternativa per HADOOP-16255
-
[SPARK-43494] [SC-131272][core] Chiamare direttamente
replicate()perHdfsDataOutputStreamBuilderinvece di utilizzare la riflessione inSparkHadoopUtil#createFile - [SPARK-43471] [SC-131063][core] Gestire hadoopProperties e metricsProperties mancanti
- [SPARK-42899] [SC-126456][sql] Correzione di DataFrame.to(schema) per gestire il caso in cui sia presente un campo annidato non annullabile in un campo annullabile
- [SPARK-43302] [SC-129747][sql] Converti UDAF Python in AggregateFunction
- [SPARK-43223] [SC-131270][connect] Funzioni di aggregazione e riduzione tipizzate, RelationalGroupedDataset#as
- [SPARK-43482] [SC-131375][ss] Espandere QueryTerminatedEvent per contenere la classe di errore se esiste nell'eccezione
- [SPARK-43359] [SC-131463][sql] L'eliminazione dalla tabella Hive dovrebbe generare "UNSUPPORTED_FEATURE.TABLE_OPERATION"
- [SPARK-43284] [SC-130313] Tornare alle stringhe con codifica URL
-
[SPARK-43492] [SC-131227][sql] Aggiungere alias
DATE_ADDdi funzione 3-args eDATE_DIFF - [SPARK-43473] [SC-131372][python] Integrare il supporto per il tipo struct in createDataFrame da pandas DataFrame
-
[SPARK-43386] [SC-131110][sql] Miglioramento dell'elenco di colonne/attributi suggeriti nella
UNRESOLVED_COLUMN.WITH_SUGGESTIONclasse di errore - [SPARK-43443] [SC-131332][sql] Aggiungere benchmark per l'inferenza del tipo Timestamp quando si usa un valore non valido
-
[SPARK-43518] [SC-131420][sql] Converti
_LEGACY_ERROR_TEMP_2029in INTERNAL_ERROR - [SPARK-42604] [SC-130648][connect] Implementare functions.typedlit
-
[SPARK-42323] [ES-669513] Ripristina "[SC-123479][sql] Assegnare il nome a
_LEGACY_ERROR_TEMP_2332" - [SPARK-43357] [SC-130649][sql] Filtra data tipo tra virgolette data
- [SPARK-43410] [SC-130526][sql] Migliorare il ciclo vettorializzato per skipValues compressi
-
[SPARK-43441] [SC-130995][core]
makeDotNodenon deve fallire quando DeterministicLevel è assente - [SPARK-43324] [SC-130455][sql] Gestire i comandi UPDATE per le origini basate su delta
-
[SPARK-43272] [SC-131168][core] Chiamata diretta
createFileanziché riflessione - [SPARK-43296] [13.x][sc-130627][CONNECT][python] Eseguire la migrazione degli errori di sessione di Spark Connect nella classe di errore
-
[SPARK-43405] [SC-130987][sql] Rimuovere inutili
getRowFormatSQL,inputRowFormatSQL, ,outputRowFormatSQLmetodo - [SPARK-43447] [SC-131017][r] Supporto R 4.3.0
-
[SPARK-43425] [SC-130981][sql] Aggiungi
TimestampNTZTypeaColumnarBatchRow - [SPARK-41532] [SC-130523][connect][CLIENT] Aggiungere il controllo per le operazioni che coinvolgono più frame di dati
- [SPARK-43262] [SC-129270][connect][SS][python] Eseguire la migrazione degli errori di Spark Connect Structured Streaming nella classe di errore
- [SPARK-42992] [13.x][sc-129465][PYTHON] Introduc PySparkRuntimeError
- [SPARK-43422] [SC-130982][sql] Mantieni tag in LogicalRelation con output dei metadati
- [SPARK-43390] [SC-130646][sql] DSv2 consente a CTAS/RTAS di preservare la nullabilità dello schema
- [SPARK-43430] [SC-130989][connect][PROTO] ExecutePlanRequest supporta opzioni di richiesta arbitrarie.
- [SPARK-43313] [SC-130254][sql] Aggiunta dei valori di DEFAULT mancanti per le colonne nelle azioni MERGE INSERT
- [SPARK-42842] [SC-130438][sql] Unire la classe di errore _LEGACY_ERROR_TEMP_2006 in REGEX_GROUP_INDEX
-
[SPARK-43377] [SC-130405][sql] Abilita
spark.sql.thriftServer.interruptOnCancelper impostazione predefinita -
[SPARK-43292] [SC-130525][core][CONNECT] Spostare
ExecutorClassLoaderincoremodulo e semplificareExecutor#addReplClassLoaderIfNeeded - [SPARK-43040] [SC-130310][sql] Migliorare il supporto del tipo TimestampNTZ nell'origine dati JDBC
- [SPARK-43343] [SC-130629][ss] FileStreamSource deve disabilitare un controllo glob di file aggiuntivo durante la creazione di DataSource
- [SPARK-43312] [SC-130294][protobuf] Opzione per convertire tutti i campi in JSON
- [SPARK-43404] [SC-130586][ss] Ignorare il riutilizzo del file sst per la stessa versione dell'archivio stati di RocksDB per evitare errori di mancata corrispondenza id
-
[SPARK-43397] [SC-130614][core] Registrare la durata del decommissionamento dell'executor nel metodo
executorLost. - [SPARK-42388] [SC-128568][sql] Evitare che il footer Parquet venga letto due volte nel lettore vettoriale
- [SPARK-43306] [13.x][sc-130320][PYTHON] Eseguire la migrazione di ValueError dai tipi SPARK SQL alla classe di errore
- [SPARK-43337] [SC-130353][ui][3.4] Icone della freccia Asc/desc per l'ordinamento della colonna non vengono visualizzate nella colonna della tabella
-
[SPARK-43279] [SC-130351][core] Pulizia dei membri inutilizzati da
SparkHadoopUtil -
[SPARK-43250] [SC-130147][sql] Sostituire la classe
_LEGACY_ERROR_TEMP_2014di errore con un errore interno -
[SPARK-43363] [SC-130299][sql][PYTHON] Effettuare la chiamata
astypeal tipo di categoria solo quando il tipo di freccia non è specificato -
[SPARK-43261] [SC-130154][python] Eseguire la migrazione
TypeErrordai tipi SPARK SQL alla classe di errore - [SPARK-41971] [SC-130230][sql][PYTHON] Aggiungere una configurazione per la conversione pandas come gestire i tipi di struct
- [SPARK-43381] [SC-130464][connect] Rendi 'transformStatCov' pigro
- [SPARK-43362] [SC-130481][sql] Gestione speciale del tipo JSON per il connettore MySQL
- [SPARK-42843] [SC-130196][sql] Aggiornare la classe di errore _LEGACY_ERROR_TEMP_2007 a REGEX_GROUP_INDEX
- [SPARK-42585] [SC-129968][connect] Streaming delle relazioni locali
-
[SPARK-43181] [SC-130476][sql] Mostra UI WebURL nel
spark-sqlterminale - [SPARK-43051] [SC-130194][connect] Aggiungere l'opzione per emettere valori predefiniti
- [SPARK-43204] [SC-129296][sql] Allineare le assegnazioni MERGE con attributi di tabella
-
[SPARK-43348] [SC-130082][python] Supporto
Python 3.8in PyPy3 - [SPARK-42845] [SC-130078][sql] Aggiornare la classe di errore _LEGACY_ERROR_TEMP_2010 a InternalError
- [SPARK-43211] [SC-128978][hive] Rimuovere il supporto hadoop2 in IsolatedClientLoader
Ambiente di sistema
- Sistema operativo: Ubuntu 22.04.2 LTS
- Java: Zulu 8.70.0.23-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.2.2
- Delta Lake: 2.4.0
Librerie Python installate
| Biblioteca | Versione | Biblioteca | Versione | Biblioteca | Versione |
|---|---|---|---|---|---|
| appdirs | 1.4.4 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
| asttoken | 2.2.1 | att. | 21.4.0 | chiamata di ritorno | 0.2.0 |
| beautifulsoup4 | 4.11.1 | nero | 22.6.0 | candeggiare | 4.1.0 |
| freccia | 1.4 | boto3 | 1.24.28 | botocore | 1.27.28 |
| certificato | 2022.9.14 | cffi | 1.15.1 | chardet | 4.0.0 |
| normalizzatore di set di caratteri | 2.0.4 | clic | 8.0.4 | criptografia | 37.0.1 |
| ciclatore | 0.11.0 | Cython, un linguaggio di programmazione | 0.29.32 | Databricks SDK | 0.1.6 |
| dbus-python | 1.2.18 | debugpy | 1.5.1 | decoratore | 5.1.1 |
| defusedxml (una libreria per migliorare la sicurezza nell'elaborazione di XML) | 0.7.1 | distlib | 0.3.6 | Conversione da docstring a markdown | 0.12 |
| punti di ingresso | 0.4 | eseguendo | 1.2.0 | panoramica delle faccette | 1.0.3 |
| fastjsonschema (Una libreria per la convalida veloce dei dati JSON) | 2.16.3 | blocco dei file | 3.12.0 | fonttools (strumenti per caratteri) | 4.25.0 |
| googleapis-common-protos | 1.56.4 | grpcio | 1.48.1 | grpcio-status | 1.48.1 |
| httplib2 | 0.20.2 | IDNA | 3.3 | importlib-metadata | 4.6.4 |
| ipykernel | 6.17.1 | ipython | 8.10.0 | ipython-genutils | 0.2.0 |
| ipywidgets (una libreria Python per widget interattivi) | 7.7.2 | jedi | 0.18.1 | mezzo di trasporto pubblico filippino chiamato jeepney | 0.7.1 |
| Jinja2 | 2.11.3 | jmespath | 0.10.0 | joblib | 1.2.0 |
| jsonschema | 4.16.0 | jupyter-client | 7.3.4 | jupyter_core | 4.11.2 |
| jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 | portachiavi | 23.5.0 |
| kiwisolver | 1.4.2 | launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 |
| lazr.uri | 1.0.6 | MarkupSafe | 2.0.1 | matplotlib | 3.5.2 |
| matplotlib-inline | 0.1.6 | Mccabe | 0.7.0 | disintonare | 0.8.4 |
| more-itertools | 8.10.0 | mypy-extensions | 0.4.3 | nbclient | 0.5.13 |
| nbconvert | 6.4.4 | nbformat | 5.5.0 | nest-asyncio | 1.5.5 |
| nodeenv | 1.8.0 | taccuino | 6.4.12 | numpy | 1.21.5 |
| oauthlib | 3.2.0 | imballaggio | 21,3 | Panda | 1.4.4 |
| pandocfilters | 1.5.0 | parso | 0.8.3 | pathspec | 0.9.0 |
| capro espiatorio | 0.5.2 | pexpect | 4.8.0 | pickleshare (libreria di software Python) | 0.7.5 |
| Cuscino | 9.2.0 | seme | 22.2.2 | platformdirs | 2.5.2 |
| plotly (software di visualizzazione dati) | 5.9.0 | connettivita | 1.0.0 | prometheus-client | 0.14.1 |
| prompt-toolkit | 3.0.36 | protobuf | 3.19.4 | psutil | 5.9.0 |
| psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| pyarrow | 8.0.0 | pycparser (un parser scritto in Python) | 2.21 | pydantic | 1.10.6 |
| pyflakes | 3.0.1 | Pygments | 2.11.2 | PyGObject | 3.42.1 |
| PyJWT | 2.3.0 | pyodbc | 4.0.32 | pyparsing | 3.0.9 |
| pyright | 1.1.294 | pirsistente | 0.18.0 | python-dateutil (libreria Python per la gestione delle date) | 2.8.2 |
| python-lsp-jsonrpc | 1.0.0 | python-lsp-server | 1.7.1 | pytoolconfig | 1.2.2 |
| pytz | 2022.1 | pyzmq | 23.2.0 | richieste | 2.28.1 |
| corda | 1.7.0 | s3transfer | 0.6.0 | scikit-learn | 1.1.1 |
| scipy | 1.9.1 | Seaborn | 0.11.2 | SecretStorage | 3.3.1 |
| Send2Trash | 1.8.0 | setuptools (pacchetto Python per gestire la configurazione e la distribuzione) | 63.4.1 | sei | 1.16.0 |
| colino per la zuppa | 2.3.1 | ssh-import-id (comando per l'importazione di chiavi SSH) | 5.11 | dati accatastati | 0.6.2 |
| statsmodels | 0.13.2 | tenacia | 8.1.0 | terminato | 0.13.1 |
| percorso di test | 0.6.0 | threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 |
| tomli | 2.0.1 | tornado | 6.1 | traitlets (una libreria per la configurazione dei parametri nei programmi Python) | 5.1.1 |
| typing_extensions | 4.3.0 | ujson (una libreria per la gestione di JSON in Python) | 5.4.0 | aggiornamenti automatici | 0,1 |
| urllib3 | 1.26.11 | virtualenv | 20.16.3 | wadllib | 1.3.6 |
| wcwidth (funzione per determinare la larghezza dei caratteri) | 0.2.5 | codifiche web | 0.5.1 | Che cosa è la patch | 1.0.2 |
| ruota | 0.37.1 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
| Zipp | 1.0.0 |
Librerie R installate
Le librerie R vengono installate dallo snapshot di Microsoft CRAN nel 2023-02-10.
| Biblioteca | Versione | Biblioteca | Versione | Biblioteca | Versione |
|---|---|---|---|---|---|
| freccia | 10.0.1 | askpass | 1.1 | assicura che | 0.2.1 |
| retroportazioni | 1.4.1 | base | 4.2.2 | base64enc | 0.1-3 |
| pezzo | 4.0.5 | bit 64 | 4.0.5 | massa amorfa | 1.2.3 |
| stivale | 1.3-28 | fermentare | 1.0-8 | Brio | 1.1.3 |
| Scopa | 1.0.3 | bslib | 0.4.2 | cashmere | 1.0.6 |
| chiamante | 3.7.3 | Interpunzione | 6.0-93 | cellranger | 1.1.0 |
| cronometro | 2.3-59 | classe | 7.3-21 | CLI | 3.6.0 |
| Clipr | 0.8.0 | orologio | 0.6.1 | raggruppamento | 2.1.4 |
| strumenti per la codifica | 0,2-19 | spazio colore | 2.1-0 | segno comune | 1.8.1 |
| compilatore | 4.2.2 | configurazione | 0.3.1 | cpp11 | 0.4.3 |
| pastello | 1.5.2 | credenziali | 1.3.2 | curva | 5.0.0 |
| tabella di dati | 1.14.6 | insiemi di dati | 4.2.2 | DBI | 1.1.3 |
| dbplyr | 2.3.0 | descrizione | 1.4.2 | strumenti per sviluppatori | 2.4.5 |
| diffobj | 0.3.5 | sommario | 0.6.31 | illuminato verso il basso | 0.4.2 |
| dplyr | 1.1.0 | dtplyr | 1.2.2 | e1071 | 1.7-13 |
| puntini di sospensione | 0.3.2 | valutare | 0,20 | fan | 1.0.4 |
| colori | 2.1.1 | mappatura veloce | 1.1.0 | fontawesome | 0.5.0 |
| per gatti | 1.0.0 | foreach | 1.5.2 | straniero | 0.8-82 |
| forgiare | 0.2.0 | Fs | 1.6.1 | futuro | 1.31.0 |
| futuro.applicare | 1.10.0 | gargarismo | 1.3.0 | generici | 0.1.3 |
| Gert | 1.9.2 | ggplot2 | 3.4.0 | Gh | 1.3.1 |
| gitcreds | 0.1.2 | glmnet | 4.1-6 | elementi globali | 0.16.2 |
| colla | 1.6.2 | Google Drive | 2.0.0 | Googlesheets4 | 1.0.1 |
| Gower | 1.0.1 | grafica | 4.2.2 | grDispositivi | 4.2.2 |
| griglia | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
| gtable | 0.3.1 | casco protettivo | 1.2.0 | rifugio | 2.5.1 |
| più alto | 0,10 | HMS | 1.1.2 | strumenti HTML | 0.5.4 |
| htmlwidgets | 1.6.1 | httpuv | 1.6.8 | httr | 1.4.4 |
| documenti di identità | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
| banderelle isografiche | 0.2.7 | Iteratori | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.4 | KernSmooth | 2.23-20 | magliare | 1.42 |
| Etichettatura | 0.4.2 | più tardi | 1.3.0 | reticolo | 0.20-45 |
| lava | 1.7.1 | ciclo di vita | 1.0.3 | ascolta | 0.9.0 |
| lubridate | 1.9.1 | magrittr | 2.0.3 | Markdown | 1,5 |
| Massa | 7.3-58.2 | Matrice | 1.5-1 | memorizzare | 2.0.1 |
| metodi | 4.2.2 | mgcv | 1.8-41 | mimo | 0.12 |
| miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.10 |
| munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
| Derivazione numerica | 2016.8-1.1 | openssl | 2.0.5 | parallelo | 4.2.2 |
| parallelamente | 1.34.0 | Pilastro | 1.8.1 | pkgbuild | 1.4.0 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2 |
| plogr | 0.2.0 | plyr | 1.8.8 | elogio | 1.0.0 |
| prettyunits | 1.1.1 | Proc | 1.18.0 | processx | 3.8.0 |
| prodlim | 2019.11.13 | profvis | 0.3.7 | Avanzamento | 1.2.2 |
| progressr | 0.13.0 | promesse | 1.2.0.1 | prototipo | 1.0.0 |
| intermediario | 0,4–27 | P.S. | 1.7.2 | purrr | 1.0.1 |
| r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
| randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrewer | 1.1-3 | Rcpp (una libreria per il linguaggio di programmazione R) | 1.0.10 | RcppEigen | 0.3.3.9.3 |
| readr | 2.1.3 | readxl (software per leggere documenti Excel) | 1.4.2 | ricette | 1.0.4 |
| rivincita | 1.0.1 | rematch2 | 2.1.2 | Telecomandi | 2.4.2 |
| esempio riproducibile | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.0.6 |
| rmarkdown | 2.20 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
| rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
| RSQLite | 2.2.20 | rstudioapi | 0.14 | rversions | 2.1.2 |
| rvest | 1.0.3 | insolenza | 0.4.5 | Scalabilità | 1.2.1 |
| selettore | 0,4-2 | informazioni sulla sessione | 1.2.2 | Forma | 1.4.6 |
| lucido | 1.7.4 | sourcetools | 0.1.7-1 | sparklyr | 1.7.9 |
| SparkR | 3.4.0 | spaziale | 7.3-15 | Spline | 4.2.2 |
| sqldf | 0,4-11 | SQUAREM | 2021.1 | statistiche | 4.2.2 |
| statistiche4 | 4.2.2 | perizoma | 1.7.12 | stringr | 1.5.0 |
| Sopravvivenza | 3.5-3 | sys | 3.4.1 | systemfonts | 1.0.4 |
| tcltk | 4.2.2 | testatat | 3.1.6 | formattazione del testo | 0.3.6 |
| Tibble | 3.1.8 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
| tidyverse | 1.3.2 | cambio dell'ora | 0.2.0 | data e ora | 4022.108 |
| tinytex | 0.44 | strumenti | 4.2.2 | tzdb | 0.3.0 |
| verificatore di URL | 1.0.1 | Usa questo | 2.1.6 | UTF8 | 1.2.3 |
| Utilità | 4.2.2 | identificatore univoco universale (UUID) | 1.1-0 | vctrs | 0.5.2 |
| viridisLite | 0.4.1 | brum | 1.6.1 | Waldo | 0.4.0 |
| baffi | 0.4.1 | withr | 2.5.0 | xfun | 0,37 |
| xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
| yaml | 2.3.7 | formato zip | 2.2.2 |
Librerie Java e Scala installate (versione cluster Scala 2.12)
| ID del gruppo | ID artefatto | Versione |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
| com.amazonaws | aws-java-sdk-config (configurazione SDK Java per AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-core | 1.12.390 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
| com.amazonaws | aws-java-sdk-directconnect (strumento per la connessione diretta in Java di AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-directory | 1.12.390 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
| com.amazonaws | aws-java-sdk-efs | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
| com.amazonaws | aws-java-sdk-emr | 1.12.390 |
| com.amazonaws | AWS Java SDK per Glacier | 1.12.390 |
| com.amazonaws | aws-java-sdk-glue (collegamento SDK Java AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-iam | 1.12.390 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
| com.amazonaws | aws-java-sdk-consultas | 1.12.390 |
| com.amazonaws | aws-java-sdk-kms | 1.12.390 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
| com.amazonaws | aws-java-sdk-logs | 1.12.390 |
| com.amazonaws | AWS Java SDK Machine Learning | 1.12.390 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
| com.amazonaws | aws-java-sdk-rds | 1.12.390 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ses | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
| com.amazonaws | aws-java-sdk-sns | 1.12.390 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK di AWS per Java per Storage Gateway) | 1.12.390 |
| com.amazonaws | aws-java-sdk-sts | 1.12.390 |
| com.amazonaws | aws-java-sdk-support (supporto del kit di sviluppo software Java per AWS) | 1.12.390 |
| com.amazonaws | Librerie aws-java-sdk-swf | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
| com.amazonaws | jmespath-java | 1.12.390 |
| com.clearspring.analytics | flusso | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.mdfsoftware | kryo-ombreggiato | 4.0.2 |
| com.mdfsoftware | minlog | 1.3.0 |
| com.fasterxml | compagno di classe | 1.3.4 |
| com.fasterxml.jackson.core | annotazioni Jackson | 2.14.2 |
| com.fasterxml.jackson.core | jackson-core | 2.14.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.14.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.14.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.14.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.14.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.14.2 |
| com.github.ben-manes.caffeina | caffeina | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | riferimento_nativo-java | 1.1 |
| com.github.fommil.netlib | riferimento_nativo-java | 1.1-nativi |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java | 1.1-nativi |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-nativi |
| com.github.fommil.netlib | netlib-sistema_nativo-linux-x86_64 | 1.1-nativi |
| com.github.luben | zstd-jni (libreria open-source per compressione con Java Native Interface) | 1.5.2-5 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.8.9 |
| com.google.crypto.tink | Tink | 1.7.0 |
| com.google.errorprone | annotazioni_soggette_a_errori | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | guaiava | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 2.1.214 |
| com.helger | profilatore | 1.1.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.RILASCIO |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.ning | compress-lzf (algoritmo di compressione) | 1.1.2 |
| com.sun.mail | javax.mail (package Java per la gestione della posta elettronica) | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | JSON | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenti_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | configurazione | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 (libreria per la gestione dei log in Scala, versione 2.12) | 3.7.2 |
| com.uber | h3 | 3.7.0 |
| com.univocità | univocità-parser | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec (libreria per la codifica comune) | commons-codec (libreria per la codifica comune) | 1.15 |
| collezioni-comuni | collezioni-comuni | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| funzione di caricamento file dei Commons | funzione di caricamento file dei Commons | 1,5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.11.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging (no translation needed) | commons-logging (no translation needed) | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.sdk.netlib | arpack | 3.0.3 |
| dev.sdk.netlib | Blas | 3.0.3 |
| dev.sdk.netlib | LAPACK | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compressore d'aria | 0.21 |
| io.delta | delta-sharing-spark_2.12 | 0.7.0 |
| io.dropwizard.metrics | nucleo delle metriche | 4.2.10 |
| io.dropwizard.metrics | metrics-graphite | 4.2.10 |
| io.dropwizard.metrics | controlli della salute delle metriche | 4.2.10 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.10 |
| io.dropwizard.metrics | metrics-jmx | 4.2.10 |
| io.dropwizard.metrics | metriche-json | 4.2.10 |
| io.dropwizard.metrics | metrics-jvm | 4.2.10 |
| io.dropwizard.metrics | metriche-servlet | 4.2.10 |
| io.netty | netty-all | 4.1.87.Final |
| io.netty | netty-buffer | 4.1.87.Final |
| io.netty | netty-codec | 4.1.87.Final |
| io.netty | netty-codec-http (codec HTTP di Netty) | 4.1.87.Final |
| io.netty | netty-codec-http2 | 4.1.87.Final |
| io.netty | netty-codec-socks | 4.1.87.Final |
| io.netty | netty-common | 4.1.87.Final |
| io.netty | netty-handler | 4.1.87.Final |
| io.netty | netty-handler-proxy | 4.1.87.Final |
| io.netty | netty-resolver | 4.1.87.Final |
| io.netty | netty-transport | 4.1.87.Final |
| io.netty | netty-transport-classes-epoll | 4.1.87.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.87.Final |
| io.netty | netty-transport-native-epoll | 4.1.87.Final |
| io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-comune | 4.1.87.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | sempliceclient_comune | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | agente di raccolta | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | attivazione | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | Java Transaction API (JTA) | 1.1 |
| javax.transaction | API di transazione | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| ml.combust.mleap | mleap-databricks-runtime_2.12 | v0.20.0-db2 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | sottaceto | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv (formato CSV avanzato) | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk (kit di sviluppo software per l'ingestione dati) | 0.9.6 |
| net.snowflake | snowflake-jdbc | 3.13.29 |
| net.sourceforge.f2j | arpack_combinato_tutto | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | modello di stringa | 3.2.1 |
| org.apache.ant | formica | 1.9.16 |
| org.apache.ant | ant-jsch | 1.9.16 |
| org.apache.ant | ant launcher | 1.9.16 |
| org.apache.arrow | formato freccia | 11.0.0 |
| org.apache.arrow | arrow-nucleo-di-memoria | 11.0.0 |
| org.apache.arrow | arrow-memory-netty | 11.0.0 |
| org.apache.arrow | freccia-vettore | 11.0.0 |
| org.apache.avro | Avro | 1.11.1 |
| org.apache.avro | avro-ipc | 1.11.1 |
| org.apache.avro | avro-mapred | 1.11.1 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.21 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | testo comune | 1.10.0 |
| org.apache.curator | curatore-cliente | 2.13.0 |
| org.apache.curator | framework del curatore | 2.13.0 |
| org.apache.curator | ricette dei curatori | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | derby sportivo | 10.14.2.0 |
| org.apache.hadoop | runtime del client Hadoop | 3.3.4 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | Hive-JDBC | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | spessori del sistema Hive | 2.3.9 |
| org.apache.hive | API di archiviazione Hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | Hive-shims-common | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | Edera | 2.5.1 |
| org.apache.logging.log4j | log4j-1.2-api | 2.19.0 |
| org.apache.logging.log4j | log4j-api | 2.19.0 |
| org.apache.logging.log4j | log4j-core | 2.19.0 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.19.0 |
| org.apache.mesos | Mesos | 1.11.0-shaded-protobuf |
| org.apache.orc | orc-core | 1.8.3-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.8.3-shaded-protobuf |
| org.apache.orc | orc-shim | 1.8.3 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.22 |
| org.apache.yetus | annotazioni del pubblico | 0.13.0 |
| org.apache.zookeeper | custode dello zoo | 3.6.3 |
| org.apache.zookeeper | guardiano dello zoo-juta | 3.6.3 |
| org.checkerframework | verificatore qualità | 3.19.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | Commons-Compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.50.v20221201 |
| org.eclipse.jetty | continuazione di jetty | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-http | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-io | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-jndi | 9.4.50.v20221201 |
| org.eclipse.jetty | Jetty Plus | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-proxy | 9.4.50.v20221201 |
| org.eclipse.jetty | sicurezza del molo | 9.4.50.v20221201 |
| org.eclipse.jetty | Jetty Server | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-servlet | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-servlets | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-util | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.50.v20221201 |
| org.eclipse.jetty | applicazione web di Jetty | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-xml | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | cliente WebSocket | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | websocket-comune | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | websocket-server | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.50.v20221201 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-localizzatore | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | localizzatore di risorse osgi | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged (riconfezionato) | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (servlet del contenitore Jersey) | 2.36 |
| org.glassfish.jersey.containers | modulo-nucleo-servlet-contenitore-jersey (if a translation is required as per the context) | 2.36 |
| org.glassfish.jersey.core | jersey-client | 2.36 |
| org.glassfish.jersey.core | maglia-comune | 2.36 |
| org.glassfish.jersey.core | Jersey-server | 2.36 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
| org.hibernate.validator | validatore di Hibernate | 6.1.7.Versione finale |
| org.javassist | javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging (strumento di registrazione per JBoss) | 3.3.2.Finale |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | annotazioni | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mariadb.jdbc | mariadb-java-client - Libreria Java per MariaDB | 2.7.4 |
| org.mlflow | mlflow-spark | 2.2.0 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.3.8 |
| org.roaringbitmap | RoaringBitmap | 0.9.39 |
| org.roaringbitmap | Spessori | 0.9.39 |
| org.rocksdb | rocksdbjni | 7.8.3 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interfaccia di test | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.15 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | compatibile con scalatest | 3.2.15 |
| org.scalatest | scalatest-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
| org.scalatest | scalatest_2.12 | 3.2.15 |
| org.slf4j | jcl-over-slf4j | 2.0.6 |
| org.slf4j | jul-to-slf4j | 2.0.6 |
| org.slf4j | slf4j-api | 2.0.6 |
| org.threeten | treten-extra | 1.7.1 |
| org.cortanaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.8.4 |
| org.yaml | snakeyaml | 1,33 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1,5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| software.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |