Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Nota
Il supporto per questa versione di Databricks Runtime è terminato. Per la data di fine del supporto, vedere Cronologia di fine del supporto. Per tutte le versioni supportate di Databricks Runtime, vedere note di rilascio di Databricks Runtime: versioni e compatibilità.
Le seguenti note sulla versione forniscono informazioni su Databricks Runtime 14.1, con tecnologia Apache Spark 3.5.0.
Databricks ha rilasciato questa versione nell’ottobre 2023.
Nuove funzionalità e miglioramenti
- array_insert() è basato su 1 per gli indici negativi
- Checkpoint di Delta v2 attivati per impostazione predefinita con clustering liquido
- funzionalità di eliminazione della tabella Delta in anteprima pubblica
- Condivisione Delta: i destinatari possono eseguire query batch su tabelle condivise con vettori di eliminazione (Anteprima Pubblica)
- Condivisione Delta: I destinatari possono eseguire query batch su tabelle condivise con mapping di colonne (Anteprima pubblica)
- Trasmetti dalle viste del catalogo Unity in anteprima pubblica
- Connettore Apache Pulsar in anteprima pubblica
- Driver Snowflake aggiornato
- Variabili di sessione SQL
- Invocazione di parametri nominati per le funzioni SQL e UDF di Python.
- Gli argomenti delle tabelle per le funzioni supportano il partizionamento e l'ordinamento.
- Funzioni SQL predefinite nuove e migliorate
- Gestione migliorata delle sottoquery correlate
array_insert() è basato su 1 per gli indici negativi
array_insert è basato su 1 per gli indici sia positivi che negativi. Adesso inserisce un nuovo elemento alla fine delle matrici di input per l'indice -1. Per ripristinare il comportamento precedente, impostare spark.sql.legacy.negativeIndexInArrayInsert su true.
I checkpoint Delta v2 abilitati per impostazione predefinita con raggruppamento liquido
Le tabelle Delta appena create con clustering liquido usano punti di controllo v2 per impostazione predefinita. Consultare Compatibilità per le tabelle con raggruppamento dinamico.
Rimuovere la funzionalità della tabella Delta nella versione di anteprima pubblica
È ora possibile eliminare alcune funzionalità delle tabelle Delta. Il supporto corrente include l'eliminazione di deletionVectors e v2Checkpoint. Vedere Eliminare una funzionalità di tabella Delta Lake e effettuare il downgrade del protocollo di tabella.
Delta Sharing: i destinatari possono eseguire query in batch su tabelle condivise con vettori di eliminazione (in anteprima pubblica)
I destinatari del Delta Sharing possono ora eseguire query in batch su tabelle condivise che usano vettori di eliminazione. Vedi Aggiungi tabelle con vettori di eliminazione o mapping di colonne a una condivisione, Leggi le tabelle con vettori di eliminazione o mapping di colonne abilitatie leggi le tabelle con vettori di eliminazione o mapping di colonne abilitati.
Delta Sharing: i destinatari possono eseguire query batch su tabelle condivise con mappatura delle colonne (anteprima pubblica)
I destinatari di Delta Sharing possono ora eseguire query batch su tabelle condivise che utilizzano il mapping delle colonne. Vedi Aggiungi tabelle con vettori di eliminazione o mapping di colonne a una condivisione, Leggi le tabelle con vettori di eliminazione o mapping di colonne abilitatie leggi le tabelle con vettori di eliminazione o mapping di colonne abilitati.
Effettuare lo streaming dalle visualizzazioni di Unity Catalog in versione anteprima pubblica
È ora possibile usare Structured Streaming per eseguire letture in streaming dalle visualizzazioni registrate con Unity Catalog. Azure Databricks supporta solo le letture in streaming dalle viste definite nelle tabelle Delta.
Connettore Apache Pulsar in anteprima pubblica
È ora possibile usare Structured Streaming per trasmettere dati da Apache Pulsar in Azure Databricks. Vedere Flusso da Apache Pulsar.
Driver Snowflake aggiornato
Il driver JDBC Snowflake usa ora la versione 3.13.33.
Variabili di sessione SQL
Questa versione introduce la possibilità di dichiarare variabili temporanee in una sessione che è possibile impostare e quindi fare riferimento all'interno delle query. Vedere variabili .
Utilizzo di parametri nominativi nelle funzioni definite dall'utente in SQL e Python.
È ora possibile usare la chiamata di parametri denominati in SQL e Python UDF.
Gli argomenti di tabella per le funzioni supportano il partizionamento e l'ordinamento.
È ora possibile usare clausole PARTITION BY e ORDER BY per controllare il modo in cui gli argomenti della tabella vengono passati a una funzione durante la chiamata di funzione .
Funzioni SQL predefinite nuove e migliorate
Sono state aggiunte le funzioni predefinite seguenti:
-
from_xml: analizza un codice XML
STRINGin un oggettoSTRUCT. -
schema_of_xml: deriva uno schema da un
STRINGXML. - session_user: restituisce l'utente connesso.
-
try_reflect: restituisce
NULLanziché l'eccezione se un metodo Java ha esito negativo.
Sono state migliorate le funzioni predefinite seguenti:
- mode: supporto per un parametro opzionale che forza un risultato deterministico.
-
to_char: nuovo supporto per
DATE,TIMESTAMPeBINARY. -
to_varchar: nuovo supporto per
DATE,TIMESTAMPeBINARY.
Gestione migliorata delle sottoquery correlate
La possibilità di elaborare la correlazione nelle sottoquery è stata estesa:
- Gestione di limite e ordinamento nelle sottoquery scalari correlate (laterali).
- Supporto delle funzioni di finestra nelle sottoquery scalari correlate.
- Supportare i riferimenti correlati nei predicati di join per sottoquery scalari e laterali
Cambiamento di comportamento
Controllo rigoroso dei tipi nel lettore Photon Parquet
Photon fallisce quando si tenta di leggere un valore decimale da una colonna Parquet che non è di tipo decimale. Anche quando si prova a leggere una matrice di byte a lunghezza fissa da Parquet come stringa, Photon non riesce.
Aggiornamenti della libreria
- Librerie Python aggiornate:
- filelock da 3.12.2 a 3.12.3
- s3transfer da 0.6.1 a 0.6.2
- Librerie Java aggiornate:
- com.uber.h3 da 3.7.0 a 3.7.3
- io.airlift.aircompressor da 0.24 a 0.25
- io.delta.delta-sharing-spark_2.12 da 0.7.1 a 0.7.5
- io.netty.netty-all da 4.1.93.Final a 4.1.96.Final
- io.netty.netty-buffer da 4.1.93.Final a 4.1.96.Final
- io.netty.netty-codec da 4.1.93.Final a 4.1.96.Final
- io.netty.netty-codec-http da 4.1.93.Final a 4.1.96.Final
- io.netty.netty-codec-http2 da 4.1.93.Final a 4.1.96.Final
- io.netty.netty-codec-socks da "4.1.93.Final" a "4.1.96.Final"
- io.netty.netty-common da 4.1.93.Final a 4.1.96.Final
- io.netty.netty-handler da 4.1.93.Final a 4.1.96.Final
- io.netty.netty-handler-proxy da 4.1.93.Final a 4.1.96.Final
- io.netty.netty-resolver da 4.1.93.Final a 4.1.96.Final
- io.netty.netty-transport da 4.1.93.Final a 4.1.96.Final
- io.netty.netty-transport-classes-epoll da 4.1.93.Final a 4.1.96.Final
- io.netty.netty-transport-classes-kqueue da 4.1.93.Final a 4.1.96.Final
- io.netty.netty-transport-native-epoll da 4.1.93.Final-linux-x86_64 a 4.1.96.Final-linux-x86_64
- io.netty.netty-transport-native-kqueue da 4.1.93.Final-osx-x86_64 a 4.1.96.Final-osx-x86_64
- io.netty.netty-transport-native-unix-common, aggiornamento dalla versione 4.1.93.Final alla 4.1.96.Final
- net.snowflake.snowflake-jdbc da 3.13.29 a 3.13.33
- org.apache.orc.orc-core da 1.9.0-shaded-protobuf a 1.9.1-shaded-protobuf
- org.apache.orc.orc-mapreduce da 1.9.0-shaded-protobuf a 1.9.1-shaded-protobuf
- org.apache.orc.orc-shims da 1.9.0 a 1.9.1
Apache Spark
Databricks Runtime 14.1 include Apache Spark 3.5.0. Questa versione include tutte le correzioni e i miglioramenti di Spark inclusi in Databricks Runtime 14.0 (EoS), nonché le correzioni di bug e i miglioramenti aggiuntivi seguenti apportati a Spark:
- [SPARK-45088] [DBRRM-557] Ripristinare "[SC-142785][python][CONNECT] Make getitem work with duplicated column"
-
[SPARK-43453] [DBRRM-557] Revert "[SC-143135][ps] Ignora il
namesdiMultiIndexquandoaxis=1perconcat" - [SPARK-45225] [SC-143207][sql] XML: supporto dell'URL del file XSD
-
[SPARK-45156] [SC-142782][sql] Racchiudere
inputNamecon i backtick nellaNON_FOLDABLE_INPUTclasse di errore - [SPARK-44910] [SC-143082][sql] Encoders.bean non supporta le superclassi con argomenti di tipo generico
-
[SPARK-43453] [SC-143135][ps] Ignora il
namesdiMultiIndexquandoaxis=1perconcat - [SPARK-44463] [SS][connect] Migliorare la gestione degli errori per il worker Python in streaming di Connect
- [SPARK-44960] [SC-141023][ui] Unescape e consiste nel riepilogo degli errori nelle pagine dell'interfaccia utente
- [SPARK-44788] [SC-142980][connect][PYTHON][sql] Aggiungere from_xml e schema_of_xml a pyspark, spark connect e funzione SQL
- [SPARK-44614] [SC-138460][python][CONNECT][3.5] Aggiungere pacchetti mancanti in setup.py
- [SPARK-45151] [SC-142861][core][UI] Supporto del dump del thread al livello di task
- [SPARK-45056] [SC-142779][python][SS][connect] Test di terminazione per streamingQueryListener e foreachBatch
- [SPARK-45084] [SC-142828][ss] StateOperatorProgress per utilizzare un numero efficace e accurato di partizioni di mescolamento
- [SPARK-44872] [SC-142405][connect] Infrastruttura di test del server e ReattachableExecuteSuite
-
[SPARK-45197] [SC-142984][core] Rendere
StandaloneRestServeraggiungereJavaModuleOptionsai driver - [SPARK-44404] [SC-139601][sql] Assegnare nomi alla classe di errore LEGACY_ERROR_TEMP[1009,1010,1013,1015,1016,1278]
- [SPARK-44647] [SC-142297][sql] Supporta SPJ in cui le chiavi di join sono minori delle chiavi del cluster
-
[SPARK-45088] [SC-142785][python][CONNECT] Rendere
getitemcompatibile con colonne duplicate -
[SPARK-45128] [SC-142851][sql] Supporto
CalendarIntervalTypein Arrow - [SPARK-45130] [SC-142976][connect][ML][python] Evitare che il modello Spark Connect ML modifichi il DataFrame Pandas di input
- [SPARK-45034] [SC-142959][sql] Aggiungere il supporto per la funzione in modalità deterministica
- [SPARK-45173] [SC-142931][ui] Rimuovere alcuni file sourceMapping non necessari nell'interfaccia utente
-
[SPARK-45162] [SC-142781][sql] Supporto di mappe e parametri di matrice costruiti tramite
call_function - [SPARK-45143] [SC-142840][python][CONNECT] Rendere PySpark compatibile con PyArrow 13.0.0
-
[SPARK-45174] [SC-142837][core] Supporto
spark.deploy.maxDrivers -
[SPARK-45167] [SC-142956][connect][PYTHON] Il client Python deve chiamare
release_all - [SPARK-36191] [SC-142777][sql] Gestire il limite e l'ordine in base alle sottoquery scalari correlate (laterale)
- [SPARK-45159] [SC-142829][python] Gestire argomenti denominati solo quando necessario
- [SPARK-45133] [SC-142512][connect] Rendi le query di Spark Connect TERMINATE quando l'ultimo task dei risultati è completato.
- [SPARK-44801] [SC-140802][sql][UI] Catturando query con errori nel Listener e nell'interfaccia utente
- [SPARK-45139] [SC-142527][sql] Aggiungere DatabricksDialect per gestire la conversione dei tipi SQL
-
[SPARK-45157] [SC-142546][sql] Evitare controlli ripetuti
ifin[On|Off|HeapColumnVector - [SPARK-45077] Ripristinare "[SC-142069][ui] Aggiornare dagre-d3.js da 04.3 a 0.6.4"
- [SPARK-45145] [SC-142521][esempio] Aggiungere l'esempio JavaSparkSQLCli
-
[SPARK-43295] Ripristina “[SC-142254][ps] Supporta colonne di tipo stringa per
DataFrameGroupBy.sum” - [SPARK-44915] [SC-142383][core] Convalidare il checksum dei dati di shuffle del PVC rimontato prima del ripristino
-
[SPARK-45147] [SC-142524][core] Rimuovere l'utilizzo di
System.setSecurityManager -
[SPARK-45104] [SC-142206][ui] Aggiornamento
graphlib-dot.min.jsalla versione 1.0.2 -
[SPARK-44238] [SC-141606][core][SQL] Introdurre un nuovo
readFrommetodo con input di matrice di byte perBloomFilter -
[SPARK-45060] [SC-141742][sql] Correggere un errore interno nel formato
to_char()NULL -
[SPARK-43252] [SC-142381][sql] Sostituire la classe
_LEGACY_ERROR_TEMP_2016di errore con un errore interno - [SPARK-45069] [SC-142279][sql] La variabile SQL deve essere sempre risolta dopo il riferimento esterno
- [SPARK-44911] [SC-142388][sql] Creare una tabella hive con una colonna non valida deve restituire la classe di errore
- [SPARK-42754] [SC-125567][sql][UI] Correzione del problema di compatibilità con le versioni precedenti nell'esecuzione SQL annidata
-
[SPARK-45121] [SC-142375][connect][PS] Supporto
Series.emptyper Spark Connect. - [SPARK-44805] [SC-142203][sql] getBytes/getShorts/getInts/etc. deve funzionare in un vettore di colonna con un dizionario
-
[SPARK-45027] [SC-142248][python] Nascondere funzioni/variabili interne dal
pyspark.sql.functionscompletamento automatico -
[SPARK-45073] [SC-141791][ps][CONNECT] Sostituire
LastNotNullconLast(ignoreNulls=True) - [SPARK-44901] [SC-141676][sql] Backport manuale: Aggiungere il metodo 'analyze' dell'API Python in UDTF per restituire espressioni di partizionamento/ordinamento
-
[SPARK-45076] [SC-141795][ps] Passare alla funzione predefinita
repeat - [SPARK-44162] [SC-141605][core] Supporta G1GC nelle metriche Spark
- [SPARK-45053] [SC-141733][python][MINOR] Miglioramento del registro nella mancata corrispondenza della versione di Python
-
[SPARK-44866] [SC-142221][sql] Aggiungere
SnowflakeDialectper gestire correttamente il tipo BOOLEAN -
[SPARK-45064] [SC-141775][python][CONNECT] Aggiungere il parametro mancante
scaleinceil/ceiling -
[SPARK-45059] [SC-141757][connect][PYTHON] Aggiungere
try_reflectfunzioni a Scala e Python -
[SPARK-43251] [SC-142280][sql] Sostituire la classe
_LEGACY_ERROR_TEMP_2015di errore con un errore interno - [SPARK-45052] [SC-141736][sql][PYTHON][connect] Rendere il nome della colonna di output degli alias delle funzioni coerente con SQL
- [SPARK-44239] [SC-141502][sql] Memoria libera allocata da vettori di grandi dimensioni quando i vettori vengono reimpostati
-
[SPARK-43295] [SC-142254][ps] Supportare colonne di tipo stringa per
DataFrameGroupBy.sum - [SPARK-45080] [SC-142062][ss] Evidenziare il supporto per columnar nelle origini dati di streaming DSv2
- [SPARK-45036] [SC-141768][sql] SPJ: Semplificare la logica per gestire la distribuzione parzialmente in cluster
- [SPARK-45077] [SC-142069][ui] Aggiornare dagre-d3.js da 0.4.3 a 0.6.4
-
[SPARK-45091] [SC-142020][python][CONNECT][sql] Function
floor/round/broundaccetta Column typescale -
[SPARK-45090] [SC-142019][python][CONNECT]
DataFrame.{cube, rollup}supporta gli ordinali delle colonne -
[SPARK-44743] [SC-141625][sql] Aggiungere la funzione
try_reflect - [SPARK-45086] [SC-142052][ui] Visualizzare l'esadecimale per il codice hash del blocco di thread
- [SPARK-44952] [SC-141644][sql][PYTHON] Supporto di argomenti denominati nelle funzioni aggregate Pandas definite dall'utente
-
[SPARK-44987] [SC-141552][sql] Assegnare un nome alla classe di errore
_LEGACY_ERROR_TEMP_1100 -
[SPARK-45032] [SC-141730][connect] Correzione degli avvisi di compilazione correlati a
Top-level wildcard is not allowed and will error under -Xsource:3 - [SPARK-45048] [SC-141629][connect] Aggiungere altri test per il client Python e l'esecuzione associabile
- [SPARK-45072] [SC-141807][connect] Correggere gli ambiti esterni per le classi ammonite
-
[SPARK-45033] [SC-141759][sql] Supporta le mappe tramite parametrizzazione
sql() -
[SPARK-45066] [SC-141772][sql][PYTHON][connect] Rendere la funzione
repeataccettare tipo-colonnan - [SPARK-44860] [SC-141103][sql] Aggiungere SESSION_USER funzione
-
[SPARK-45074] [SC-141796][python][CONNECT]
DataFrame.{sort, sortWithinPartitions}supporto per gli ordinali di colonna -
[SPARK-45047] [SC-141774][python][CONNECT]
DataFrame.groupBysupporta gli ordinali - [SPARK-44863] [SC-140798][ui] Aggiungere un pulsante per scaricare il dump del thread come txt nell'interfaccia utente di Spark
-
[SPARK-45026] [SC-141604][connect]
spark.sqldeve supportare i tipi di dati non compatibili con la freccia -
[SPARK-44999] [SC-141145][core] Rifattorizzare
ExternalSorterper ridurre i controlli quando si chiamashouldPartition -
[SPARK-42304] [SC-141501][sql] Rename
_LEGACY_ERROR_TEMP_2189toGET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION - [SPARK-43781] [SC-139450][sql] Fix IllegalStateException quando si raggruppano due set di dati derivati dalla stessa origine
- [SPARK-45018] [SC-141516][python][CONNECT] Aggiungi CalendarIntervalType al client Python
- [SPARK-45024] [SC-141513][python][CONNECT] Filtrare alcune configurazioni nella creazione della sessione
-
[SPARK-45017] [SC-141508][python] Aggiungere
CalendarIntervalTypea PySpark - [SPARK-44720] [SC-139375][connect] Fare in modo che Dataset utilizzi Encoder invece di AgnosticEncoder
- [SPARK-44982] [SC-141027][connect] Contrassegnare le configurazioni del server Spark Connect come statiche
- [SPARK-44839] [SC-140900][ss][CONNECT] Miglioramento della registrazione degli errori quando l'utente tenta di serializzare la sessione Spark
- [SPARK-44865] [SC-140905][ss] Rendere StreamingRelationV2 compatibile con la colonna dei metadati
- [SPARK-45001] [SC-141141][python][CONNECT] Implement DataFrame.foreachPartition
- [SPARK-44497] [SC-141017][webui] Mostra l'ID di partizione del task nella tabella Task
- [SPARK-45006] [SC-141143][ui] Usa lo stesso formato di data degli altri elementi di data dell'interfaccia utente per l'asse x delle timeline.
- [SPARK-45000] [SC-141135][python][CONNECT] Implement DataFrame.foreach
- [SPARK-44967] [SC-141137][sql][CONNECT] L'unità deve essere considerata prima di usare Boolean per TreeNodeTag
-
[SPARK-44993] [SC-141088][core] Aggiunta
ShuffleChecksumUtils.compareChecksumsriutilizzandoShuffleChecksumTestHelp.compareChecksums - [SPARK-44807] [SC-140176][connect] Aggiungere Dataset.metadataColumn al Client Scala
-
[SPARK-44965] [SC-141098][python] Nascondi funzioni/variabili interne da
pyspark.sql.functions -
[SPARK-44983] [SC-141030][sql] Convertire binario in stringa tramite
to_charper i formati:hex,base64,utf-8 - [SPARK-44980] [DBRRM-462][sc-141024][PYTHON][connect] Correggere le namedtuples ereditate per funzionare con createDataFrame
- [SPARK-44985] [SC-141033][core] Utilizzare toString invece di stacktrace per il dump del thread reaper delle attività
-
[SPARK-44984] [SC-141028][python][CONNECT] Remove
_get_aliasfrom DataFrame - [SPARK-44975] [SC-141013][sql] Rimuovere l'override inutile di BinaryArithmetic risolto
-
[SPARK-44969] [SC-140957][sql] Riutilizzo
ArrayInsertinArrayAppend - [SPARK-44549] [SC-140714][sql] Supportare le funzioni della finestra nelle sottoquery scalari correlate
-
[SPARK-44938] [SC-140811][sql] Impostare il valore predefinito su
spark.sql.maxSinglePartitionBytes128m - [SPARK-44918] [SC-140816][sql][PYTHON] Supporto per argomenti nominati nelle UDF scalari in Python/Pandas
-
[SPARK-44966] [SC-140907][core][CONNECT] Modificare il valore che non è mai stato modificato
varinval - [SPARK-41471] [SC-140804][sql] Ridurre lo shuffle di Spark quando solo uno dei lati di un join utilizza il raggruppamento delle partizioni per chiavi.
- [SPARK-44214] [SC-140528][core] Supportare l'interfaccia utente del log live del driver Spark
- [SPARK-44861] [SC-140716][connect] jsonignore SparkListenerConnectOperationStarted.planRequest
- [SPARK-44776] [SC-140519][connect] Aggiungi ProducedRowCount a SparkListenerConnectOperationFinished
-
[SPARK-42017] [SC-140765][python][CONNECT]
df['col_name']deve convalidare il nome della colonna - [SPARK-40178] [SC-140433][sql][COONECT] Supporta hint di unione con facilità per PySpark e R
- [SPARK-44840] [SC-140593][sql] Utilizzare la base 1 per gli indici negativi
- [SPARK-44939] [SC-140778][r] Supporto di Java 21 nei Requisiti di Sistema di SparkR
- [SPARK-44936] [SC-140770][core] Semplificare il log quando Spark HybridStore raggiunge il limite di memoria
- [SPARK-44908] [SC-140712][ml][CONNECT] Correzione della funzionalità del parametro foldCol nel cross validator
- [SPARK-44816] [SC-140717][connect] Migliorare il messaggio di errore quando la classe UDF non viene trovata
- [SPARK-44909] [SC-140710][ml] Ignorare l'avvio del server di streaming dei log del distributore di Torch quando non è disponibile
- [SPARK-44920] [SC-140707][core] Usare await() anziché awaitUninterruptibly() in TransportClientFactory.createClient()
- [SPARK-44905] [SC-140703][sql] Stateful lastRegex causa un NullPointerException durante l'eval di regexp_replace
- [SPARK-43987] [SC-139594][shuffle] Separare l'elaborazione di finalizeShuffleMerge in pool di thread dedicati.
- [SPARK-42768] [SC-140549][sql] Abilitare il piano memorizzato nella cache per applicare AQE per impostazione predefinita
-
[SPARK-44741] [SC-139447][core] Supporto di MetricFilter basato su regex in
StatsdSink - [SPARK-44751] [SC-140532][sql] Implementazione dell'interfaccia FileFormat XML
-
[SPARK-44868] [SC-140438][sql] Convertire datetime in string by
to_char/to_varchar - [SPARK-44748] [SC-140504][sql] Esecuzione di query per la PARTITION clausola BY negli argomenti UDTF TABLE
- [SPARK-44873] [SC-140427] Supporto della modifica della visualizzazione con colonne annidate nel client Hive
- [SPARK-44876] [SC-140431][python] Correzione della UDF Python ottimizzata per Arrow in Spark Connect
- [SPARK-44520] [SC-137845][sql] Sostituire il termine UNSUPPORTED_DATA_SOURCE_FOR_DIRECT_QUERY con UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY e radice di divulgazione AE
-
[SPARK-42664] [SC-139769][connect] Funzione di supporto
bloomFilterperDataFrameStatFunctions -
[SPARK-43567] [SC-139227][ps] Supporto
use_na_sentinelperfactorize - [SPARK-44859] [SC-140254][ss] Correzione del nome della proprietà non corretto nella documentazione di structured streaming
- [SPARK-44822] [SC-140182][python][SQL] Rendi le UDTF Python di default non-deterministiche
- [SPARK-44731] [SC-139524][python][CONNECT] Make TimestampNTZ funziona con valori letterali in Python Spark Connect
- [SPARK-44836] [SC-140180][python] Rifattorizzazione Arrow Python UDTF
- [SPARK-44714] [SC-139238] Allentamento della restrizione nella risoluzione LCA riguardante le query con HAVING
- [SPARK-44749] [SC-139664][sql][PYTHON] Supporto per argomenti denominati in Python UDTF
- [SPARK-44737] [SC-139512][sql][UI] Non dovrebbe visualizzare errori di formato JSON nella pagina SQL per non SparkThrowables nella scheda SQL
- [SPARK-44665] [SC-139307][python] Aggiungere il supporto per pandas DataFrame assertDataFrameEqual
- [SPARK-44736] [SC-139622][connect] Aggiungere Dataset.explode al client Scala di Spark Connect
- [SPARK-44732] [SC-139422][sql] Supporto dell'origine dati XML predefinita
- [SPARK-44694] [SC-139213][python][CONNECT] Effettuare il refactoring delle sessioni attive ed esporle come API
- [SPARK-44652] [SC-138881] Genera un errore quando uno solo df è None
- [SPARK-44562] [SC-138824][sql] Aggiungi OptimizeOneRowRelationSubquery nel batch di Sottquery
- [SPARK-44717] [SC-139319][python][PS] Rispettare TimestampNTZ nel campionamento
- [SPARK-42849] [SC-139365][SQL] Variabili di sessione
-
[SPARK-44236] [SC-139239][sql] Disabilita WholeStageCodegen quando impostato su
spark.sql.codegen.factoryModeNO_CODEGEN -
[SPARK-44695] [SC-139316][python] Miglioramento del messaggio di errore per
DataFrame.toDF -
[SPARK-44680] [SC-139234][sql] Migliorare il messaggio di errore per i parametri in
DEFAULT - [SPARK-43402] [SC-138321][sql] FileSourceScanExec supporta l'abbassamento del filtro dei dati con sottoquery scalare
- [SPARK-44641] [SC-139216][sql] Risultato non corretto in determinati scenari quando SPJ non viene attivato
-
[SPARK-44689] [SC-139219][connect] Rendere più universale la gestione delle eccezioni della funzione
SparkConnectPlanner#unpackScalarScalaUDF -
[SPARK-41636] [SC-139061][sql] Assicurarsi di
selectFiltersrestituire predicati in ordine deterministico -
[SPARK-44132] [SC-139197][sql] Materializza i
Streamnomi delle colonne di join per evitare errori di codegen -
[SPARK-42330] [SC-138838][sql] Assegnare il nome
RULE_ID_NOT_FOUNDalla classe error_LEGACY_ERROR_TEMP_2175 - [SPARK-44683] [SC-139214][ss] Il livello di registrazione non viene passato correttamente al provider dell'archivio stati RocksDB
-
[SPARK-44658] [SC-138868][core]
ShuffleStatus.getMapStatusdeve restituireNoneanzichéSome(null) - [SPARK-44603] [SC-138353] Aggiungi pyspark.testing a setup.py
- [SPARK-44252] [SC-137505][ss] Definire una nuova classe di errore e applicare il caso in cui lo stato di caricamento da DFS non riesca
- [SPARK-29497] [DBRRM-396][sc-138477][CONNECT] Genera un errore quando UDF non è deserializzabile.
- [SPARK-44624] [DBRRM-396][sc-138900][CONNECT] Ripetere ExecutePlan nel caso in cui la richiesta iniziale non raggiunga il server
- [SPARK-41400] [DBRRM-396][sc-138287][CONNECT] Rimuovere la dipendenza Catalyst del client Connect
- [SPARK-44059] [SC-138833][sql] Aggiungere messaggi di errore migliori per argomenti nominati SQL
-
[SPARK-44620] [SC-138831][sql][PS][connect] Rendi
ResolvePivotmantenere ilPlan_ID_TAG - [SPARK-43838] [SC-137413][sql] Correggere la sottoquery su una singola tabella con clausola having che non può essere ottimizzata
- [SPARK-44555] [SC-138820][sql] Usare checkError() per controllare l'eccezione nel comando Suite e assegnare alcuni nomi di classe di errore
- [SPARK-44280] [SC-138821][sql] Aggiungere convertJavaTimestampToTimestamp nell'API JDBCDialect
-
[SPARK-44602] [SC-138337][sql][CONNECT][ps] Fai
WidenSetOperationTypesmantenere ilPlan_ID_TAG - [SPARK-42941] [SC-138389][ss][CONNECT] Python StreamingQueryListener
- [SPARK-43838] Ripristinato “[SC-137413][sql] Correzione della sottoquery in un'unica tabella...”
- [SPARK-44538] [SC-138178][connect][SQL] Ripristina Row.jsonValue e associati
- [SPARK-44421] [SC-138434][spark-44423][CONNECT] Esecuzione ricollegabile in Spark Connect
- [SPARK-43838] [SC-137413][sql] Correggere la sottoquery su una singola tabella con clausola having che non può essere ottimizzata
- [SPARK-44587] [SC-138315][sql][CONNECT] Aumentare il limite di ricorsione del marshaller protobuf
- [SPARK-44605] [SC-138338][core] Perfezionare l'API ShuffleWriteProcessor interna
- [SPARK-44394] [SC-138291][connect][WEBUI] Aggiungere una pagina dell'interfaccia utente Spark per Spark Connect
- [SPARK-44585] [SC-138286][mllib] Correzione della condizione di avviso in MLLib RankingMetrics ndcgAk
- [SPARK-44198] [SC-138137][core] Supporto della propagazione del livello di log agli executor
- [SPARK-44454] [SC-138071][sql][HIVE] HiveShim getTablesByType supporto per il fallback
- [SPARK-44425] [SC-138135][connect] Verificare che l'ID sessione fornito dall'utente sia un UUID
-
[SPARK-43611] [SC-138051][sql][PS][conncect] Far sì che
ExtractWindowExpressionsmantenga ilPLAN_ID_TAG - [SPARK-44560] [SC-138117][python][CONNECT] Migliorare i test e la documentazione per l'UDF Arrow Python
- [SPARK-44482] [SC-138067][connect] Il server Connect deve essere in grado di specificare l'indirizzo di associazione
- [SPARK-44528] [SC-138047][connect] Supportare l'uso corretto di hasattr() per Connect dataframe
- [SPARK-44525] [SC-138043][sql] Migliorare il messaggio di errore quando il metodo Invoke non viene trovato
- [SPARK-44355] [SC-137878][sql] Spostare WithCTE nelle query di comando
Supporto del driver ODBC/JDBC di Databricks
Databricks supporta i driver ODBC/JDBC rilasciati negli ultimi 2 anni. Scaricare i driver rilasciati di recente e aggiornare (scaricare ODBC, scaricare JDBC).
Vedere Aggiornamenti della manutenzione di Databricks Runtime 14.1.
Ambiente di sistema
- Sistema operativo: Ubuntu 22.04.3 LTS
- Java: Zulu 8.72.0.17-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.3.1
- Delta Lake: 3.0.0
Librerie installate di Python
| Libreria | Versione | Libreria | Versione | Libreria | Versione |
|---|---|---|---|---|---|
| anyio | 3.5.0 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
| asttoken | 2.0.5 | att. | 22.1.0 | chiamata di ritorno | 0.2.0 |
| beautifulsoup4 | 4.11.1 | nero | 22.6.0 | candeggiare | 4.1.0 |
| indicatore di direzione | 1.4 | boto3 | 1.24.28 | botocore | 1.27.96 |
| certificato | 2022.12.7 | cffi | 1.15.1 | chardet | 4.0.0 |
| normalizzatore di set di caratteri | 2.0.4 | fai clic | 8.0.4 | comunicazione | 0.1.2 |
| contourpy | 1.0.5 | criptografia | 39.0.1 | ciclista | 0.11.0 |
| Cython, un linguaggio di programmazione | 0.29.32 | Databricks SDK | 0.1.6 | dbus-python | 1.2.18 |
| debugpy | 1.6.7 | Decoratore | 5.1.1 | defusedxml (una libreria per migliorare la sicurezza nell'elaborazione di XML) | 0.7.1 |
| distlib | 0.3.7 | Conversione da docstring a markdown | 0.11 | punti di ingresso | 0.4 |
| esecuzione | 0.8.3 | panoramica delle facette | 1.1.1 | fastjsonschema (Una libreria per la convalida veloce dei dati JSON) | 2.18.0 |
| blocco dei file | 3.12.3 | fonttools (strumenti per caratteri) | 4.25.0 | Libreria di runtime GCC | 1.10.0 |
| googleapis-common-protos | 1.60.0 | grpcio | 1.48.2 | grpcio-status | 1.48.1 |
| httplib2 | 0.20.2 | IDNA | 3.4 | importlib-metadata | 4.6.4 |
| ipykernel | 6.25.0 | ipython | 8.14.0 | ipython-genutils | 0.2.0 |
| ipywidgets (una libreria Python per widget interattivi) | 7.7.2 | jedi | 0.18.1 | Jeepney (mezzo di trasporto pubblico tipico delle Filippine) | 0.7.1 |
| Jinja2 | 3.1.2 | jmespath | 0.10.0 | joblib | 1.2.0 |
| jsonschema | 4.17.3 | jupyter-client | 7.3.4 | Jupyter Server | 1.23.4 |
| jupyter_core | 5.2.0 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
| portachiavi | 23.5.0 | kiwisolver | 1.4.4 | launchpadlib | 1.10.16 |
| lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 | lxml | 4.9.1 |
| MarkupSafe | 2.1.1 | matplotlib | 3.7.0 | matplotlib-inline | 0.1.6 |
| Mccabe | 0.7.0 | misintonazione. | 0.8.4 | more-itertools | 8.10.0 |
| mypy-extensions | 0.4.3 | nbclassic | 0.5.2 | nbclient | 0.5.13 |
| nbconvert | 6.5.4 | nbformat | 5.7.0 | nest-asyncio | 1.5.6 |
| nodeenv | 1.8.0 | taccuino | 6.5.2 | notebook_shim | 0.2.2 |
| numpy | 1.23.5 | oauthlib | 3.2.0 | imballaggio | 22.0 |
| Panda | 1.5.3 | pandocfilters | 1.5.0 | parso | 0.8.3 |
| pathspec | 0.10.3 | vittima | 0.5.3 | pexpect | 4.8.0 |
| pickleshare (libreria di software Python) | 0.7.5 | Cuscino | 9.4.0 | seme | 22.3.1 |
| platformdirs | 2.5.2 | plotly (software di visualizzazione dati) | 5.9.0 | connettivita | 1.0.0 |
| prometheus-client | 0.14.1 | prompt-toolkit | 3.0.36 | protobuf | 4.24.0 |
| psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | pyarrow | 8.0.0 | pycparser (un parser scritto in Python) | 2.21 |
| pydantic | 1.10.6 | pyflakes | 3.0.1 | Pygments | 2.11.2 |
| PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.32 |
| pyparsing | 3.0.9 | pyright | 1.1.294 | pirsistente | 0.18.0 |
| python-dateutil (libreria Python per la gestione delle date) | 2.8.2 | python-lsp-jsonrpc | 1.0.0 | python-lsp-server | 1.7.1 |
| pytoolconfig | 1.2.5 | pytz | 2022.7 | pyzmq | 23.2.0 |
| richieste | 2.28.1 | corda | 1.7.0 | s3transfer | 0.6.2 |
| scikit-learn | 1.1.1 | Seaborn | 0.12.2 | SecretStorage | 3.3.1 |
| Send2Trash | 1.8.0 | setuptools (pacchetto Python per gestire la configurazione e la distribuzione) | 65.6.3 | sei | 1.16.0 |
| sniffio | 1.2.0 | colino da zuppa | 2.3.2.post1 | ssh-import-id (comando per l'importazione di chiavi SSH) | 5.11 |
| dati accatastati | 0.2.0 | statsmodels | 0.13.5 | tenacità | 8.1.0 |
| finito | 0.17.1 | threadpoolctl | 2.2.0 | tinycss2 | 1.2.1 |
| tokenize-rt | 4.2.1 | tomli | 2.0.1 | tornado | 6.1 |
| traitlets (una libreria per la configurazione dei parametri nei programmi Python) | 5.7.1 | typing_extensions | 4.4.0 | ujson (una libreria per la gestione di JSON in Python) | 5.4.0 |
| aggiornamenti non supervisionati | 0,1 | urllib3 | 1.26.14 | virtualenv | 20.16.7 |
| wadllib | 1.3.6 | wcwidth (funzione per determinare la larghezza dei caratteri) | 0.2.5 | codifiche web | 0.5.1 |
| cliente WebSocket | 0.58.0 | Che cosa è la patch | 1.0.2 | ruota | 0.38.4 |
| widgetsnbextension | 3.6.1 | yapf | 0.31.0 | Zipp | 1.0.0 |
| SciPy | 1.10.1 |
Librerie R installate
Le librerie R vengono installate dallo snapshot del Gestore di Pacchetti Posit CRAN il 10 febbraio 2023.
| Libreria | Versione | Libreria | Versione | Libreria | Versione |
|---|---|---|---|---|---|
| freccia | 12.0.1 | askpass | 1.1 | assicura che | 0.2.1 |
| retroportazioni | 1.4.1 | base | 4.3.1 | base64enc | 0.1-3 |
| pezzo | 4.0.5 | bit 64 | 4.0.5 | massa amorfa | 1.2.4 |
| stivale | 1.3-28 | fermentare | 1.0-8 | Brio | 1.1.3 |
| scopa | 1.0.5 | bslib | 0.5.0 | cashmere | 1.0.8 |
| chiamante | 3.7.3 | Interpunzione | 6.0-94 | cellranger | 1.1.0 |
| cronometro | 2,3-61 | classe | 7.3-22 | CLI | 3.6.1 |
| Clipr | 0.8.0 | orologio | 0.7.0 | raggruppamento | 2.1.4 |
| strumenti per la codifica | 0,2-19 | spazio di colore | 2.1-0 | segno comune | 1.9.0 |
| compilatore | 4.3.1 | configurazione | 0.3.1 | Confuso | 1.2.0 |
| cpp11 | 0.4.4 | pastello | 1.5.2 | credenziali | 1.3.2 |
| curva | 5.0.1 | tabella di dati | 1.14.8 | Insiemi di dati | 4.3.1 |
| DBI | 1.1.3 | dbplyr | 2.3.3 | descrizione | 1.4.2 |
| strumenti per sviluppatori | 2.4.5 | diagramma | 1.6.5 | diffobj | 0.3.5 |
| digerire | 0.6.33 | illuminazione rivolta verso il basso | 0.4.3 | dplyr | 1.1.2 |
| dtplyr | 1.3.1 | e1071 | 1.7-13 | ellissi | 0.3.2 |
| valutare | 0.21 | fan | 1.0.4 | colori | 2.1.1 |
| mappatura veloce | 1.1.1 | fontawesome | 0.5.1 | forzati | 1.0.0 |
| foreach | 1.5.2 | straniero | 0.8-82 | forgiare | 0.2.0 |
| Fs | 1.6.2 | futuro | 1.33.0 | futuro.applicare | 1.11.0 |
| fare gargarismi | 1.5.1 | elementi generici | 0.1.3 | Gert | 1.9.2 |
| ggplot2 | 3.4.2 | Gh | 1.4.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-7 | elementi globali | 0.16.2 | colla | 1.6.2 |
| Google Drive | 2.1.1 | Googlesheets4 | 1.1.1 | Gower | 1.0.1 |
| grafiche | 4.3.1 | grDispositivi | 4.3.1 | griglia | 4.3.1 |
| gridExtra | 2.3 | gsubfn | 0,7 | gtable | 0.3.3 |
| casco protettivo | 1.3.0 | rifugio | 2.5.3 | più alto | 0.10 |
| HMS | 1.1.3 | strumenti HTML | 0.5.5 | htmlwidgets | 1.6.2 |
| httpuv | 1.6.11 | httr | 1.4.6 | httr2 | 0.2.3 |
| documenti di identità | 1.0.1 | ini | 0.3.1 | ipred | 0.9-14 |
| banderelle isografiche | 0.2.7 | Iteratori | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.7 | KernSmooth | 2.23-21 | magliare | 1,43 |
| etichettatura | 0.4.2 | più tardi | 1.3.1 | reticolo | 0.21-8 |
| lava | 1.7.2.1 | ciclo di vita | 1.0.3 | ascolta | 0.9.0 |
| lubridate | 1.9.2 | magrittr | 2.0.3 | Markdown | 1.7 |
| Massa | 7.3-60 | Matrice | 1.5-4.1 | memorizza | 2.0.1 |
| metodi | 4.3.1 | mgcv | 1.8-42 | mimo | 0.12 |
| miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
| munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-19 |
| Derivazione numerica | 2016.8-1.1 | openssl | 2.0.6 | parallelo | 4.3.1 |
| parallelamente | 1.36.0 | pilastro | 1.9.0 | pkgbuild | 1.4.2 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2.1 |
| plogr | 0.2.0 | plyr | 1.8.8 | elogio | 1.0.0 |
| prettyunits | 1.1.1 | Proc | 1.18.4 | processx | 3.8.2 |
| prodlim | 2023.03.31 | profvis | 0.3.8 | Avanzamento | 1.2.2 |
| progressr | 0.13.0 | promesse | 1.2.0.1 | proto / prototipo | 1.0.0 |
| intermediario | 0,4–27 | P.S. | 1.7.5 | purrr | 1.0.1 |
| r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
| randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrewer | 1.1-3 | Rcpp (una libreria per il linguaggio di programmazione R) | 1.0.11 | RcppEigen | 0.3.3.9.3 |
| readr | 2.1.4 | readxl (pacchetto per leggere file Excel) | 1.4.3 | ricette | 1.0.6 |
| rivincita (nuovo incontro) | 1.0.1 | rematch2 | 2.1.2 | Telecomandi | 2.4.2 |
| esempio riproducibile (reprex) | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.1.1 |
| rmarkdown | 2,23 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
| rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-11 |
| RSQLite | 2.3.1 | rstudioapi | 0.15.0 | rversions | 2.1.2 |
| rvest | 1.0.3 | insolenza | 0.4.6 | Scalabilità | 1.2.1 |
| selettore | 0,4-2 | informazioni sulla sessione | 1.2.2 | forma | 1.4.6 |
| brillante | 1.7.4.1 | sourcetools | 0.1.7-1 | sparklyr | 1.8.1 |
| SparkR | 3.5.0 | spaziale | 7.3-15 | Spline | 4.3.1 |
| sqldf | 0,4-11 | SQUAREM | 2021.1 | statistiche | 4.3.1 |
| statistiche4 | 4.3.1 | perizoma | 1.7.12 | stringr | 1.5.0 |
| Sopravvivenza | 3.5-5 | sys | 3.4.2 | systemfonts | 1.0.4 |
| tcltk | 4.3.1 | testatat | 3.1.10 | modellazione del testo | 0.3.6 |
| Tibble | 3.2.1 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
| tidyverse | 2.0.0 | cambio d'ora | 0.2.0 | data e ora | 4022.108 |
| tinytex | 0.45 | strumenti | 4.3.1 | tzdb | 0.4.0 |
| verificatore di URL | 1.0.1 | Usa questo | 2.2.2 | utf8 | 1.2.3 |
| Utilità | 4.3.1 | UUID (Identificatore Unico Universale) | 1.1-0 | vctrs | 0.6.3 |
| viridisLite | 0.4.2 | vrooom | 1.6.3 | Waldo | 0.5.1 |
| baffi | 0.4.1 | withr | 2.5.0 | xfun | 0,39 |
| xml2 | 1.3.5 | xopen | 1.0.0 | xtable | 1.8-4 |
| yaml | 2.3.7 | formato zip | 2.3.0 |
Librerie installate di Java e Scala (versione del cluster Scala 2.12)
| ID del Gruppo | ID dell'artefatto | Versione |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
| com.amazonaws | aws-java-sdk-config (configurazione SDK Java per AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-core | 1.12.390 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
| com.amazonaws | aws-java-sdk-directconnect (strumento per la connessione diretta in Java di AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-directory | 1.12.390 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
| com.amazonaws | aws-java-sdk-efs | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
| com.amazonaws | aws-java-sdk-emr | 1.12.390 |
| com.amazonaws | AWS Java SDK per Glacier | 1.12.390 |
| com.amazonaws | aws-java-sdk-glue (collegamento SDK Java AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-iam | 1.12.390 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
| com.amazonaws | aws-java-sdk-consultas | 1.12.390 |
| com.amazonaws | aws-java-sdk-kms | 1.12.390 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
| com.amazonaws | aws-java-sdk-logs | 1.12.390 |
| com.amazonaws | AWS Java SDK Machine Learning | 1.12.390 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
| com.amazonaws | aws-java-sdk-rds | 1.12.390 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ses | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
| com.amazonaws | aws-java-sdk-sns | 1.12.390 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK di AWS per Java per Storage Gateway) | 1.12.390 |
| com.amazonaws | aws-java-sdk-sts | 1.12.390 |
| com.amazonaws | aws-java-sdk-support (supporto del kit di sviluppo software Java per AWS) | 1.12.390 |
| com.amazonaws | Librerie aws-java-sdk-swf | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
| com.amazonaws | jmespath-java | 1.12.390 |
| com.clearspring.analytics | corrente | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.7.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.mdfsoftware | ombreggiato criogenico | 4.0.2 |
| com.mdfsoftware | minlog | 1.3.0 |
| com.fasterxml | compagno di classe | 1.3.4 |
| com.fasterxml.jackson.core | annotazioni di Jackson | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.15.1 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.caffeina | caffeina | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | riferimento_nativo-java | 1.1 |
| com.github.fommil.netlib | riferimento_nativo-java | 1.1-indigeni |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java | 1.1-indigeni |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-indigeni |
| com.github.fommil.netlib | netlib-sistema_nativo-linux-x86_64 | 1.1-indigeni |
| com.github.luben | zstd-jni (libreria open-source per compressione con Java Native Interface) | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | Tink | 1.9.0 |
| com.google.errorprone | annotazioni soggette a errori | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | guaiava | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.helger | profilatore | 1.1.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.RILASCIO |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.ning | compress-lzf (algoritmo di compressione) | 1.1.2 |
| com.sun.mail | javax.mail (package Java per la gestione della posta elettronica) | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | JSON | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenti_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | configurazione | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 (libreria per la gestione dei log in Scala, versione 2.12) | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocità | parser di univocità | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec (libreria per la codifica comune) | commons-codec (libreria per la codifica comune) | 1.16.0 |
| commons-collections (una libreria di Apache Commons per le collezioni) | commons-collections (una libreria di Apache Commons per le collezioni) | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| funzione di caricamento file dei Commons | funzione di caricamento file dei Commons | 1,5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging (no translation needed) | commons-logging (no translation needed) | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.sdk.netlib | arpack | 3.0.3 |
| dev.sdk.netlib | Blas | 3.0.3 |
| dev.sdk.netlib | LAPACK (pacchetto di algebra lineare) | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compressore d'aria | 0.25 |
| io.delta | delta-sharing-spark_2.12 | 0.7.5 |
| io.dropwizard.metrics | annotazione delle metriche | 4.2.19 |
| io.dropwizard.metrics | nucleo delle metriche | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | metriche-controlli di salute | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrics-jmx | 4.2.19 |
| io.dropwizard.metrics | metrics-json (Specificare ulteriormente se necessario a seconda del contesto) | 4.2.19 |
| io.dropwizard.metrics | metrics-jvm | 4.2.19 |
| io.dropwizard.metrics | metriche-servlet | 4.2.19 |
| io.netty | netty-all | 4.1.96.Final |
| io.netty | netty-buffer | 4.1.96.Final |
| io.netty | netty-codec | 4.1.96.Final |
| io.netty | netty-codec-http (codec HTTP di Netty) | 4.1.96.Final |
| io.netty | netty-codec-http2 | 4.1.96.Final |
| io.netty | netty-codec-socks | 4.1.96.Final |
| io.netty | netty-common | 4.1.96.Final |
| io.netty | netty-handler | 4.1.96.Final |
| io.netty | netty-handler-proxy | 4.1.96.Final |
| io.netty | netty-resolver | 4.1.96.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Final |
| io.netty | netty-transport | 4.1.96.Final |
| io.netty | netty-transport-classes-epoll | 4.1.96.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-comune | 4.1.96.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | sempliceclient_comune | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | collettore / collezionista | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | attivazione | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | Java Transaction API (JTA) | 1.1 |
| javax.transaction | API di transazione | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | sottaceto | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv (formato CSV avanzato) | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk (kit di sviluppo software per l'ingestione dati) | 0.9.6 |
| net.snowflake | snowflake-jdbc | 3.13.33 |
| net.sourceforge.f2j | arpack_combinato_tutto | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | modello di stringa | 3.2.1 |
| org.apache.ant | formica | 1.9.16 |
| org.apache.ant | ant-jsch | 1.9.16 |
| org.apache.ant | ant launcher | 1.9.16 |
| org.apache.arrow | formato a freccia | 12.0.1 |
| org.apache.arrow | arrow-nucleo-di-memoria | 12.0.1 |
| org.apache.arrow | arrow-memory-netty | 12.0.1 |
| org.apache.arrow | freccia-vettore | 12.0.1 |
| org.apache.avro | Avro | 1.11.2 |
| org.apache.avro | avro-ipc | 1.11.2 |
| org.apache.avro | avro-mapred | 1.11.2 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | testo comune | 1.10.0 |
| org.apache.curator | cliente del curatore | 2.13.0 |
| org.apache.curator | framework del curatore | 2.13.0 |
| org.apache.curator | ricette del curatore | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | derby sportivo | 10.14.2.0 |
| org.apache.hadoop | hadoop-client-runtime (ambiente di esecuzione client di Hadoop) | 3.3.6 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | Hive-JDBC | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | spessori del sistema Hive | 2.3.9 |
| org.apache.hive | API di archiviazione Hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | Hive-shims-common | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | Edera | 2.5.1 |
| org.apache.logging.log4j | log4j-1.2-api | 2.20.0 |
| org.apache.logging.log4j | log4j-api | 2.20.0 |
| org.apache.logging.log4j | log4j-core | 2.20.0 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.20.0 |
| org.apache.mesos | Mesos | 1.11.0-shaded-protobuf |
| org.apache.orc | orc-core | 1.9.1-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.1-shaded-protobuf |
| org.apache.orc | orc-shim | 1.9.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.23 |
| org.apache.yetus | annotazioni per il pubblico | 0.13.0 |
| org.apache.zookeeper | guardiano dello zoo | 3.6.3 |
| org.apache.zookeeper | guardiano dello zoo-juta | 3.6.3 |
| org.checkerframework | verificatore qualità | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | Commons-Compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-continuazione | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty Plus | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | sicurezza jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty Server | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | applicazione web di Jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | cliente WebSocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-comune | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-localizzatore | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | localizzatore di risorse OSGi | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged (riconfezionato) | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (servlet contenitore Jersey) | 2.40 |
| org.glassfish.jersey.containers | modulo-nucleo-servlet-contenitore-jersey (if a translation is required as per the context) | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | jersey-comune | 2.40 |
| org.glassfish.jersey.core | Jersey-server | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | validatore di Hibernate | 6.1.7.Versione finale |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging (strumento di registrazione per JBoss) | 3.3.2.Finale |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | annotazioni | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mariadb.jdbc | mariadb-java-client - Libreria Java per MariaDB | 2.7.9 |
| org.mlflow | mlflow-spark | 2.2.0 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.6.0 |
| org.roaringbitmap | RoaringBitmap | 0.9.45 |
| org.roaringbitmap | spessori | 0.9.45 |
| org.rocksdb | rocksdbjni | 8.3.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.9.0 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interfaccia di prova | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.15 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | compatibile con scalatest | 3.2.15 |
| org.scalatest | scalatest-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
| org.scalatest | scalatest_2.12 | 3.2.15 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.threeten | treten-extra | 1.7.1 |
| org.cortanaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1,5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| software.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |