Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Annotazioni
Il supporto per questa versione di Databricks Runtime è terminato. Per la data di fine del supporto, vedere Cronologia di fine del supporto. Per tutte le versioni supportate di Databricks Runtime, vedere note di rilascio di Databricks Runtime: versioni e compatibilità.
Le note sulla versione seguenti forniscono informazioni su Databricks Runtime 16.3, basate su Apache Spark 3.5.2.
Databricks ha rilasciato questa versione a marzo 2025.
Modifiche comportamentali
Correzione di bug per le opzioni del caricatore automatico: modifiedBefore, modifiedAfter, pathGlobFilter
In precedenza, la modifica dei valori delle opzioni modifiedBeforedel caricatore automatico , modifiedAftere pathGlobFilter non aveva alcun effetto. Il problema è stato risolto.
Ora, quando si modificano i valori di questi filtri, il caricatore automatico inserisce nuovi file che passano i filtri. Se un numero inferiore di file è idoneo in base ai valori di filtro aggiornati, i file non più idonei non vengono rimossi dal sink, ma rimangono inseriti.
Messaggio di errore migliorato quando kafka.sasl.client.callback.handler.class viene assegnato un valore non valido
Questa versione include una modifica per restituire un messaggio di errore più descrittivo quando kafka.sasl.client.callback.handler.class viene assegnato un valore non valido.
Il nuovo messaggio di errore è org.apache.spark.sql.AnalysisException: [RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED.KAFKA_CLIENT_CALLBACK_SHADED_CLASS] The option kafka.sasl.client.callback.handler.class has restricted values on Shared clusters for the kafka source. The Kafka client callback class must be "shadedmskiam.software.amazon.msk.auth.iam.IAMClientCallbackHandler". SQLSTATE: 0A000
In precedenza, il messaggio di errore restituito era org.apache.spark.sql.AnalysisException: [UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED] Streaming options kafka.sasl.client.callback.handler.class are not supported for data source kafka on a shared cluster. Please confirm that the options are specified and spelled correctly, and check https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-shared for limitations. SQLSTATE: 0A000
Nuove funzionalità e miglioramenti
- Il supporto per il lettore di stato è disponibile a livello generale per le operazioni di calcolo standard
- Il downgrade del protocollo di tabella Delta è disponibile per la distribuzione generale con protezione checkpoint
- Scrivere script SQL procedurali basati su SQL/PSM ANSI (anteprima pubblica)
- Collatione predefinita a livello di tabella e vista
- Installare dipendenze personalizzate negli UDF Python di Unity Catalog (versione di anteprima pubblica)
- Modificare più colonne di tabella in un'istruzione ALTER TABLE
-
Supporto per
transformWithStateInPandasper il calcolo standard -
Supporto alle
MERGE INTOtabelle dotate di controllo di accesso a granularità fine nelle risorse di calcolo dedicate (anteprima pubblica) - Supporto per l'aggiunta di dati a tabelle con accesso controllato in modo granulare nella computazione dedicata
- Supporto migliorato per i self-join con oggetti a controllo di accesso dettagliato su calcolo riservato
- Nuove funzioni H3
Il supporto del lettore di stato è disponibile a livello generale (GA) per la computazione standard.
Il supporto per la lettura delle informazioni sullo stato per le query di Structured Streaming è ora generalmente disponibile per i calcoli configurati con la modalità di accesso standard. Vedi Leggi le informazioni sullo stato di Structured Streaming.
Il downgrade del protocollo della tabella Delta è ora generalmente disponibile con protezione dei punti di controllo.
DROP FEATURE è disponibile a livello generale per rimuovere le funzionalità della tabella Delta Lake e effettuare il downgrade del protocollo di tabella. Per impostazione predefinita, DROP FEATURE ora crea checkpoint protetti per un'esperienza di downgrade più ottimizzata e semplificata che non richiede alcun tempo di attesa o troncamento della cronologia. Vedere Eliminare una funzionalità di tabella Delta Lake e effettuare il downgrade del protocollo di tabella.
Scrivere script SQL procedurali basati su SQL/PSM ANSI (anteprima pubblica)
È ora possibile usare le funzionalità di scripting basate su SQL/PSM ANSI per scrivere logica procedurale con SQL, incluse istruzioni del flusso di controllo, variabili locali e gestione delle eccezioni. Consulta Scripting SQL.
Regole di collatione predefinite a livello di tabella e vista
È ora possibile specificare regole di confronto predefinite per tabelle e viste. Ciò semplifica la creazione di tabelle e viste in cui tutte o la maggior parte delle colonne condividono le stesse regole di confronto. Vedi regole di confronto.
Installare dipendenze personalizzate in UDF Python del catalogo Unity (anteprima pubblica)
Estendere la funzionalità delle UDF Python oltre l'ambiente Databricks Runtime, definendo dipendenze personalizzate per librerie esterne. Consultare Come estendere le funzioni definite dall'utente utilizzando dipendenze personalizzate.
Modificare più colonne di tabella in un comando ALTER TABLE
In Databricks Runtime 16.3 è possibile modificare più colonne in una singola ALTER TABLE istruzione. Vedere ALTER TABLE la clausola ... COLUMN.
Supporto per transformWithStateInPandas in un ambiente di calcolo standard
È ora possibile usare transformWithStateInPandas nel calcolo configurato con la modalità di accesso standard. Consultare Creare un'applicazione personalizzata con stato.
Supporto per le tabelle con controllo di accesso con granularità fine nelle risorse di calcolo dedicate (anteprima pubblica)
In Databricks Runtime 16.3 e versioni successive, il calcolo dedicato supporta MERGE INTO per le tabelle di Unity Catalog che usano il controllo di accesso con granularità fine. Analogamente alla lettura da questi oggetti, i MERGE comandi vengono passati automaticamente al calcolo serverless quando necessario.
Vedere Controllo di accesso con granularità fine in calcolo dedicato.
Supporto per l'aggiunta di dati a tabelle con accesso controllato a livello granulare nel calcolo dedicato
In Databricks Runtime 16.3 e versioni successive, il calcolo dedicato supporta l'aggiunta a oggetti di Unity Catalog che usano un controllo di accesso a grana fine. Per usare questa funzionalità, usare la DataFrame.write.mode("append") funzione nell'API Apache Spark. Analogamente alla lettura da questi oggetti, le scritture di appending vengono passate automaticamente all'ambiente di calcolo serverless se necessario.
Per altre informazioni sull'uso di risorse di calcolo dedicate con oggetti del catalogo Unity controllati con granularità fine, vedere Controllo di accesso con granularità fine in un ambiente di calcolo dedicato.
Supporto avanzato per i self-join con oggetti a controllo di accesso granulare su calcolo dedicato
In Databricks Runtime 16.3 e versioni successive, la funzionalità di filtro dei dati per il controllo di accesso con granularità fine in un ambiente di calcolo dedicato ora sincronizza automaticamente gli snapshot tra risorse di calcolo dedicate e serverless, ad eccezione delle viste materializzate e delle eventuali viste e tabelle di streaming condivise tramite Delta Sharing. Questa funzionalità avanzata garantisce che i self-join restituiscono snapshot identici quando viene usato il filtro dei dati. Vedere Controllo di accesso con granularità fine in calcolo dedicato.
Nuove funzioni H3
Sono state aggiunte tre nuove funzioni H3: h3_try_coverash3, h3_try_coverash3string e h3_try_tessellateaswkb.
Aggiornamenti della libreria
Librerie Python aggiornate:
- mlflow-skinny dalle versioni 2.15.1 a 2.19.0
Librerie R aggiornate:
Librerie Java aggiornate:
Apache Spark
Databricks Runtime 16.3 includono Apache Spark 3.5.2. Questa versione include tutte le correzioni e i miglioramenti di Spark inclusi in Databricks Runtime 16.2 (EoS), nonché le correzioni di bug e i miglioramenti aggiuntivi seguenti apportati a Spark:
- [SPARK-51594] [DBRRM-1604][sc-192125][SQL] Usare uno schema vuoto quando si salva una vista che non è compatibile con Hive
- [SPARK-51388] [SC-190503][sql] Migliorare la propagazione dei frammenti SQL in to_timestamp e UNION
- [SPARK-51394] [SC-190492][ml] Ottimizzare l'operazione di shuffle aggiuntiva nei test statistici
- [SPARK-51385] [SC-190486][sql] Normalizzare la proiezione esterna aggiunta in DeduplicateRelations per la deduplicazione dell'output del figlio dell'unione
- [SPARK-51357] [SC-190485][sql] Mantenere il livello di registrazione delle modifiche del piano per le visualizzazioni
- [SPARK-50654] [SC-186686][ss] CommitMetadata deve impostare stateUniqueIds su Nessuno nella versione 1
- [SPARK-51362] [SC-190352][sql] Passare aJSON per usare l'API NextIterator per eliminare le dipendenze dei record adiacenti
-
[SPARK-51375] [SC-190355][sql][CONNECT] Eliminare
SparkConnect(Execution|Session)Manager.periodicMaintenancemessaggi di log - [SPARK-50596] [SC-184060][python] Aggiornare Py4J da 0.10.9.7 a 0.10.9.8
- [SPARK-51097] [SC-190456][revert] Ripristina la modifica delle metriche dell'istanza RocksDB
-
[SPARK-51363] [SC-190343][sql]
Desc As JSONnomi delle colonne di clusterizzazione - [SPARK-51373] [SC-190370] [SS] Eliminazione della copia extra del prefisso della famiglia di colonne da 'ReplyChangelog'
- [SPARK-51378] [SC-190363][core] Applicare accumulableExcludeList di JsonProtocol a ExecutorMetricsUpdate e TaskEndReason
- [SPARK-51369] [SC-190253][sql] Correzione della variabile cursore FOR per l'uso con nomi in maiuscole e minuscole miste
-
[SPARK-51381] [SC-190360][sql][CONNECT] Mostra
Session IDnella paginaSpark Connect Session - [SPARK-51119] [SC-188491][sql] Lettori su executor che risolvono EXISTS_DEFAULT non dovrebbero chiamare cataloghi
- [SPARK-51322] [SC-190013][sql] Messaggio di errore più chiaro per l'espressione della sottoquery di streaming
- [SPARK-50817] [SC-186642][ss] Correzione della segnalazione errori di RocksDB
- [SPARK-51370] [SC-190286] Miglioramenti della chiarezza del codice per INSERT codici di analisi INTO in AstBuilder.scala
- [SPARK-51083] [SC-189217][core][16.x] Modificare JavaUtils per evitare di ignorare InterruptedExceptions
- [SPARK-51324] [SC-189997][sql] Correzione dell'istruzione FOR annidata che genera un errore se risultato vuoto
- [SPARK-49756] [SC-178793][sql] Il dialetto Postgres supporta le funzioni datetime pushdown.
- [SPARK-51270] [SC-190108][sql] Supporto per il tipo UUID in Variant
- [SPARK-51310] [SC-190018][sql] Risolvere il tipo di stringa predefinita che produce espressioni
- [SPARK-49488] [SC-176685][sql] Il dialetto MySQL supporta le funzioni datetime pushdown.
- [SPARK-50856] [DBR16.x][sc-189812][SS][python][CONNECT] Supporto di Spark Connect per TransformWithStateInPandas in Python
-
[SPARK-50553] [SC-190076][connect] Lanciare
InvalidPlanInputper un messaggio di piano non valido - [SPARK-51337] [16.x][sc-190105][SQL] Aggiungere maxRows alla CTERelationDef e alla CTERelationRef
- [SPARK-51281] [SC-190033][sql] DataFrameWriterV2 deve rispettare l'opzione path
- [SPARK-51323] [SC-190005][python] Duplicare il "totale" nelle metriche Py SQL
-
[SPARK-48618] [SC-174007][sql] Utilizzare le
ErrorCodee leSQLStaterestituite in SQLException per rendere gli errori più accurati - [SPARK-47871] [SC-162873][sql] Oracle: Mappa TimestampType in TIMESTAMP CON FUSO ORARIO LOCALE
- [SPARK-50993] [SC-187319][sql] Trasferire nullDataSourceOption da QueryCompilationErrors a QueryExecutionErrors
- [SPARK-47761] [SC-162288][sql] Oracle: Supporto per la lettura di tipi di intervallo ANSI
- [SPARK-51265] [SC-189826][sql] IncrementalExecution deve impostare correttamente il codice di esecuzione del comando
- [SPARK-50785] [SC-189722][sql] Rifattorizzare l'istruzione FOR per usare correttamente le variabili locali.
- [SPARK-51315] [SC-189838][sql] Abilitazione delle regole di confronto a livello di oggetto per impostazione predefinita
- [SPARK-51312] [SC-189824][sql] Correzione di createDataFrame da RDD[Row]
-
[SPARK-51305] [SC-189625][sql][CONNECT] Migliorare
SparkConnectPlanExecution.createObservedMetricsResponse - [SPARK-51313] [SC-189816][python] Correzione del formato timestamp per PySparkLogger
- [SPARK-51095] [SC-189623][core][SQL] Includere il contesto del chiamante per i log di audit di HDFS per le chiamate provenienti dal driver
- [SPARK-51292] [SC-189566][sql] Rimuovere l'ereditarietà non necessaria da PlanTestBase, ExpressionEvalHelper e PlanTest
- [SPARK-50739] [SC-186903][sql][FOLLOW] Semplificare ResolveRecursiveCTESuite con DSL
- [SPARK-51097] [SC-189428] [SS] Aggiunta delle metriche dell'istanza di archiviazione degli stati per l'ultima versione dello snapshot caricata in RocksDB
- [SPARK-49912] [SC-189615] Ristrutturare l'istruzione CASE semplice per valutare la variabile *case* una sola volta
- [SPARK-50655] [16x][sc-189235][SS] Spostare il mapping correlato alla famiglia di colonne virtuali nel livello del database anziché nel codificatore
-
[SPARK-51177] [SC-188989][python][CONNECT] Aggiungere
InvalidCommandInputal client Python spark Connect -
[SPARK-51278] [SC-189608][python] Usare la struttura appropriata del formato JSON per
PySparkLogger - [SPARK-48530] [SC-189357][sql] Supporto per le variabili locali nello scripting SQL
- [SPARK-51258] [SC-189551][sql] Rimuovere l'ereditarietà non necessaria da SQLConfHelper
- [SPARK-50739] [SC-186818][sql] CTE ricorsivo. Le modifiche all'analizzatore vengono apportate per dipanare e risolvere i componenti ricorsivi.
- [SPARK-51284] [SC-189483][sql] Correggere l'esecuzione dello script SQL per ottenere risultati vuoti
- [SPARK-50881] [SC-188407][python] Usare lo schema memorizzato nella cache, se possibile, nella connessione dataframe.py
- [SPARK-51274] [SC-189516][python] PySparkLogger deve rispettare gli argomenti delle parole chiave previsti
- [SPARK-50636] [SC-184783][sql] Estensione di CTESubstitution.scala per renderlo consapevole della ricorsione
-
[SPARK-50960] [SC-188821][python][CONNECT] Aggiungere
InvalidPlanInputal client Python Spark Connect - [SPARK-51109] [SC-188394][sql] CTE nell'espressione subquery come colonna di raggruppamento
- [SPARK-51067] [16.x][sc-188855][SQL] Ripristinare le regole di confronto a livello di sessione per le query DML e applicare regole di confronto a livello di oggetto per le query DDL
- [SPARK-50849] [SC-189071][connect] Aggiungere un progetto di esempio per illustrare le librerie del server Spark Connect
- [SPARK-51259] [SC-189344][sql] Rifattorizzare il calcolo delle chiavi di join naturali e usando
- [SPARK-51185] [SC-188832][core] Ripristinare le semplificazioni all'API PartitionedFileUtil per ridurre i requisiti di memoria
- [SPARK-51237] [16x][sc-189028][SS] Aggiungere i dettagli dell'API per le nuove API ausiliarie transformWithState secondo necessità
- [SPARK-51247] [SC-189236][sql] Spostare SubstituteExecuteImmediate nel batch "resolution" e prepararlo per le variabili locali dello scripting SQL.
-
[SPARK-50403] [SC-186416][sql] Correzione di
EXECUTE IMMEDIATEcon parametri - [SPARK-50598] [SC-183992][sql] Un primo no-op PR che aggiunge nuovi parametri alle classi già esistenti UnresolvedWith, CTERelationRef e CTERelationDef per abilitare l'implementazione successiva delle CTE ricorsive.
- [SPARK-48114] [SC-189176][sql] Spostare la validazione della sottoquery da CheckAnalysis
-
[SPARK-50767] [SC-189169][sql] Rimuovere codegen di
from_json - [SPARK-51242] [SC-189200][conenct][PYTHON] Migliorare le prestazioni delle colonne quando DQC è disabilitato
- [SPARK-51202] [SC-189208][ml][PYTHON] Trasmettere la sessione nei writer di algoritmi meta in Python
- [SPARK-51246] [SC-189175][sql] Fai sì che InTypeCoercion produca Casts risolti
-
[SPARK-51192] [SC-189070][connect] Rendere visibile
processWithoutResponseObserverForTestinginSparkConnectPlanner - [SPARK-51183] [SC-189010][sql] Collegamento alla specifica Parquet nei documenti di Variant
-
[SPARK-51189] [SC-188829][core] Alzare di livello
JobFailedaDeveloperApi -
[SPARK-51184] [SC-188801][core] Rimuovere la logica
TaskState.LOSTdaTaskSchedulerImpl - [SPARK-51218] [SC-189012][sql] Evitare l'uso di map/flatMap in NondeterministicExpressionCollection
- [SPARK-51228] [SC-189022][sql] Introdurre la normalizzazione delle sottoquery in NormalizePlan
- [SPARK-51113] [SC-188883][sql] Correggere la correttezza con UNION/EXCEPT/INTERSECT all'interno di una vista o di un EXECUTE IMMEDIATE
-
[SPARK-51209] [SC-188987][core] Migliorare
getCurrentUserNameper gestire Java 24+ - [SPARK-50953] [SC-188409][python][CONNECT] Aggiungere il supporto per percorsi non letterali in VariantGet
- [SPARK-51181] [SC-188854] [SQL] Applicare determinismo quando si estraggono espressioni non deterministiche dal piano logico
- [SPARK-50872] [SC-186901][sql][UI] L'espressione ToPrettyString non influisce sulla presentazione dell'interfaccia utente
- [SPARK-51150] [SC-188512][ml] Passare in modo esplicito la sessione negli scrittori di algoritmi meta
- [SPARK-51008] [SC-188655][sql] Aggiungere ResultStage per AQE
- [SPARK-51114] [SC-188633] [SQL] Rifattorizzare la regola PullOutNondeterministic
- [SPARK-51160] [SC-188666][sql] Riformulazione della risoluzione delle funzioni letterali
- [SPARK-51127] [SC-188366][python] Terminare il worker Python in caso di timeout di inattività
- [SPARK-51099] [SC-188350][python] Aggiungere registri quando il worker Python sembra bloccato
- [SPARK-51157] [SC-188536][sql] Aggiungi l'annotazione mancante @varargs di Scala per le API delle funzioni Scala
-
[SPARK-51155] [CORE] Make
SparkContextmostrare il tempo totale di runtime dopo l'arresto - [SPARK-51140] [SC-188487][ml] Ordinare i parametri prima di salvare
- [SPARK-51135] [SC-188392][sql] Correzione di ViewResolverSuite per le modalità ANSI
- [SPARK-51057] [SC-188191][ss] Rimuovere la variante dell'API basata sull'opzione Scala per lo stato del valore
- [SPARK-51131] [SC-188359][sql] Generare un'eccezione quando lo script SQL viene trovato all'interno del comando EXECUTE IMMEDIATE
- [SPARK-51048] [SC-188369][core] Supporto per l'arresto del contesto Spark Java con codice di uscita
- [SPARK-50234] [SC-181433][python][SQL] Migliorare il messaggio di errore e testare la trasposizione dell'API DataFrame
- [SPARK-51074] [SC-188153][ss][CONNECT] Impostare il timeout per la comunicazione delle configurazioni iniziali nel flusso foreachBatch
- [SPARK-48353] [SC-187986][sql] Introduzione del meccanismo di gestione delle eccezioni nello scripting SQL
- [SPARK-50596] [SC-184060][python] Aggiornare Py4J da 0.10.9.7 a 0.10.9.8
- [SPARK-51043] [SC-187928][ss][CONNECT] Registrazione dettagliata degli utenti per Spark Connect foreachBatch
-
[SPARK-51084] [ES-1336002][sc-188171][SQL] Assegnare la classe di errore appropriata per
negativeScaleNotAllowedError - [SPARK-51042] [SC-188216][sql] Leggere e scrivere i campi del mese e dei giorni degli intervalli con una singola chiamata all'interno delle classi Unsafe*
- [SPARK-51010] [SC-188188][sql] Correzione dello stato di risoluzione di AlterColumnSpec non riportato correttamente.
- [SPARK-50799] [SC-188169][python] Ottimizzare la docstring di rlike, length, octet_length, bit_length e transform
-
[SPARK-51061] [SC-187910][core] Nascondere
Jettyinformazioni nell'API di invio REST - [SPARK-51055] [SC-187993][ss][CONNECT] Streaming foreachBatch deve chiamare la logica init all'interno di un tentativo
- [SPARK-50982] [SC-188059][sql] Supportare altre funzionalità di percorso di lettura SQL/DataFrame in Analizzatore a pass singolo
-
[SPARK-51081] [SC-188092][sql] Rifattorizzazione
Join.outputper il resolver a passaggio singolo -
[SPARK-51064] [SC-188039][sql] Abilitare
spark.sql.sources.v2.bucketing.enabledper impostazione predefinita - [SPARK-50883] [LC-5998][sc-187120][SQL] Supporta la modifica di più colonne nello stesso comando
- [SPARK-51034] [SC-187985][sql] Riformattare Descrizione come dizionario di statistiche JSON per la parsabilità
- [SPARK-51058] [SC-187961][python] Evitare di usare jvm. SparkSession
- [SPARK-51056] [SC-187871][python] Evitare la creazione di oggetti non necessari in SparkSession.getActiveSession.
- [SPARK-50967] [SC-187860][ss] Aggiungere l'opzione per ignorare la generazione di chiavi di stato iniziali all'interno dell'operatore FMGWS
- [SPARK-50813] [SC-186457][sql] Consenti solo nomi di etichette non qualificati all'interno degli script SQL
- [SPARK-50858] [SC-187399][python] Aggiungere la configurazione per nascondere la traccia dello stack UDF Python
- [SPARK-50853] [SC-187219][core] Chiudere il canale di scrittura del file di shuffle temporaneo
- [SPARK-50663] [SC-187541][sql] Correzione della grammatica per l'istruzione IF ELSE (ELSE IF -> ELSEIF)
-
[SPARK-51027] [SC-187502][sql] Impedire
HiveClient.runSqlHivechiamata in ambiente non di test - [SPARK-50977] [SC-187400][sc-187006][CORE] Migliorare la disponibilità della logica per l'aggregazione dei risultati dell'accumulatore.
- [SPARK-51001] [SC-187442][sql] Perfezionare arrayEquals
- [SPARK-50962] [SC-187168][sql] Evitare di generare una StringIndexOutOfBoundsException in AttributeNameParser
- [SPARK-50683] [SC-184728][sql] Integra l'espressione comune in WITH se usata una volta
- [SPARK-50959] [SC-187139][ml][PYTHON] Ignorare l'eccezione di JavaWrapper.del
- [SPARK-50558] [SC-187337][sql] Introduc simpleString for ExpressionSet
- [SPARK-50648] [SC-184706][core] Pulizia dei task zombie in fasi non in esecuzione quando il processo viene annullato
-
[SPARK-50990] [SC-187316][sql] Effettuare il refactoring della risoluzione
UpCastal di fuori diAnalyzer - [SPARK-49491] [SC-184714][sql] Sostituire AnyRefMap con HashMap
- [SPARK-50685] [SC-186941][python] Migliorare le prestazioni di Py4J sfruttando getattr
- [SPARK-50688] [SC-184666][sql] Eliminare l'ambiguità relativa a rowTag mancante nel percorso di scrittura XML
-
[SPARK-50976] [SC-187265][ml][PYTHON] Correggere il salvataggio/caricamento di
TargetEncoder - [SPARK-49639] [SC-187297][sql] Rimuovere il suggerimento di configurazione di ANSI da INVALID_INTERVAL_WITH_MICROSECONDS_ADDITION
- [SPARK-50118] [SC-187110]Revertire "[CONNECT] Reimpostare la cache dello stato isolato quando le attività sono in esecuzione"
- [SPARK-47579] [16.x][sc-166971][CORE][part3] Spark core: Migrare logInfo con variabili al framework di logging strutturato
- [SPARK-50669] [SC-184566][es-1327450][PHOTON][test-only] Estendere i test unitari photon per l'espressione TimestampAdd con tipi long
- [SPARK-50909] [SC-187119][python] Configura faulthandler in PythonPlannerRunners
- [SPARK-50774] [SC-186349][sql] Centralizzare i nomi delle regole di confronto in un unico punto
- [SPARK-50804] [SC-186684][sql] to_protobuf() non deve generare MatchError
- [SPARK-50957] [SC-187136][protobuf] Rendere private le protobuf.utils.SchemaConverters
- [SPARK-50900] [SC-186948][ml][CONNECT] Aggiungere VectorUDT e MatrixUDT a ProtoDataTypes
- [SPARK-50895] [SC-186998][sql] Creare un'interfaccia comune per le espressioni che producono il tipo stringa predefinito
- [SPARK-50558] [SC-184216][sql] Aggiungere limiti di registrazione configurabili per il numero di elementi in InSet e In
- [SPARK-50875] [SC-186951][sql][16.x] Aggiungere regole di confronto RTRIM a TVF
-
[SPARK-50579] [SC-183826][sql] Correzione
truncatedString
Supporto del driver ODBC/JDBC di Databricks
Databricks supporta i driver ODBC/JDBC rilasciati negli ultimi 2 anni. Scaricare i driver rilasciati di recente e aggiornare (scaricare ODBC, scaricare JDBC).
Ambiente di sistema
-
Sistema operativo: Ubuntu 24.04.2 LTS
- Nota: questa è la versione ubuntu usata dai contenitori di Databricks Runtime. I contenitori di Databricks Runtime vengono eseguiti nelle macchine virtuali del provider di servizi cloud, che potrebbero usare una versione ubuntu diversa o una distribuzione Linux diversa.
- Java: Zulu17.54+21-CA
- Scala: 2.12.15
- python: 3.12.3
- R: 4.4.0
- Delta Lake: 3.3.0
Librerie installate di Python
| Libreria | Versione | Libreria | Versione | Libreria | Versione |
|---|---|---|---|---|---|
| tipi annotati | 0.7.0 | asttoken | 2.0.5 | astunparse | 1.6.3 |
| comando automatico | 2.2.2 | azure-core | 1.31.0 | Azure Storage Blob | 12.23.0 |
| file di archiviazione Azure Data Lake | 12.17.0 | backports.tarfile | 1.2.0 | nero | 24.4.2 |
| indicatore di direzione | 1.7.0 | boto3 | 1.34.69 | botocore | 1.34.69 |
| cachetools (strumento per la gestione della cache) | 5.3.3 | certifi | 2024.6.2 | cffi | 1.16.0 |
| chardet | 4.0.0 | normalizzatore di set di caratteri | 2.0.4 | fai clic | 8.1.7 |
| cloudpickle (libreria Python per la serializzazione degli oggetti) | 2.2.1 | comunicazione | 0.2.1 | contourpy | 1.2.0 |
| criptografia | 42.0.5 | ciclista | 0.11.0 | Cython, un linguaggio di programmazione | 3.0.11 |
| Databricks SDK | 0.30.0 | dbus-python | 1.3.2 | debugpy | 1.6.7 |
| Decoratore | 5.1.1 | Deprecated | 1.2.14 | distlib | 0.3.8 |
| Conversione da docstring a markdown | 0.11 | esecuzione | 0.8.3 | panoramica delle facette | 1.1.1 |
| blocco dei file | 3.15.4 | fonttools (strumenti per caratteri) | 4.51.0 | gitdb | 4.0.11 |
| GitPython | 3.1.37 | google-api-core | 2.20.0 | google-auth (autenticazione Google) | 2.35.0 |
| google-cloud-core | 2.4.1 | archiviazione su Google Cloud | 2.18.2 | google-crc32c | 1.6.0 |
| google-resumable-media (media riprendibile di Google) | 2.7.2 | googleapis-common-protos | 1.65.0 | grpcio | 1.60.0 |
| grpcio-status | 1.60.0 | httplib2 | 0.20.4 | IDNA | 3.7 |
| importlib-metadata | 6.0.0 | importlib_resources (libreria per la gestione delle risorse in Python) | 6.4.0 | inflettere | 7.3.1 |
| ipyflow-core | 0.0.201 | ipykernel | 6.28.0 | ipython | 8.25.0 |
| ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 | isodate | 0.6.1 |
| jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 |
| jedi | 0.19.1 | jmespath | 1.0.1 | joblib | 1.4.2 |
| jupyter_client | 8.6.0 | jupyter_core | 5.7.2 | kiwisolver | 1.4.4 |
| launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 | lazr.uri | 1.0.6 |
| matplotlib | 3.8.4 | matplotlib-inline | 0.1.6 | mccabe | 0.7.0 |
| mlflow versione leggera | 2.19.0 | more-itertools | 10.3.0 | mypy | 1.10.0 |
| mypy-extensions | 1.0.0 | nest-asyncio | 1.6.0 | nodeenv | 1.9.1 |
| numpy | 1.26.4 | oauthlib | 3.2.2 | opentelemetry-api | 1.27.0 |
| opentelemetry-sdk | 1.27.0 | Convenzioni Semanticche di OpenTelemetry | 0.48b0 | imballaggio | 24.1 |
| Panda | 1.5.3 | parso | 0.8.3 | pathspec | 0.10.3 |
| vittima | 0.5.6 | pexpect | 4.8.0 | guanciale | 10.3.0 |
| seme | 24,2 | platformdirs | 3.10.0 | plotly (software di visualizzazione dati) | 5.22.0 |
| connettivita | 1.0.0 | prompt-toolkit | 3.0.43 | proto-plus | 1.24.0 |
| protobuf | 4.24.1 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
| ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 15.0.2 |
| pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 | pyccolo | 0.0.65 |
| pycparser (un parser scritto in Python) | 2.21 | pydantic | 2.8.2 | pydantic_core | 2.20.1 |
| pyflakes | 3.2.0 | Pygments | 2.15.1 | PyGObject | 3.48.2 |
| PyJWT | 2.7.0 | pyodbc | 5.0.1 | pyparsing | 3.0.9 |
| pyright | 1.1.294 | python-dateutil (libreria Python per la gestione delle date) | 2.9.0.post0 | python-lsp-jsonrpc | 1.1.2 |
| python-lsp-server | 1.10.0 | pytoolconfig | 1.2.6 | pytz | 2024.1 |
| PyYAML | 6.0.1 | pyzmq | 25.1.2 | richieste | 2.32.2 |
| corda | 1.12.0 | rsa | 4.9 | s3transfer | 0.10.2 |
| scikit-learn | 1.4.2 | scipy | 1.13.1 | Seaborn | 0.13.2 |
| setuptools (pacchetto Python per gestire la configurazione e la distribuzione) | 74.0.0 | sei | 1.16.0 | smmap | 5.0.0 |
| sqlparse | 0.5.1 | ssh-import-id (comando per l'importazione di chiavi SSH) | 5.11 | dati accatastati | 0.2.0 |
| statsmodels | 0.14.2 | tenacità | 8.2.2 | threadpoolctl | 2.2.0 |
| tokenize-rt | 4.2.1 | tomli | 2.0.1 | tornado | 6.4.1 |
| traitlets (una libreria per la configurazione dei parametri nei programmi Python) | 5.14.3 | typeguard | 4.3.0 | tipi-protobuf | 3.20.3 |
| types-psutil | 5.9.0 | types-pytz | 2023.3.1.1 | types-PyYAML | 6.0.0 |
| tipi di richieste | 2.31.0.0 | types-setuptools | 68.0.0.0 | sei tipi | 1.16.0 |
| tipi-urllib3 | 1.26.25.14 | typing_extensions | 4.11.0 | ujson (una libreria per la gestione di JSON in Python) | 5.10.0 |
| aggiornamenti non supervisionati | 0,1 | urllib3 | 1.26.16 | virtualenv | 20.26.2 |
| wadllib | 1.3.6 | wcwidth (funzione per determinare la larghezza dei caratteri) | 0.2.5 | Che cosa è la patch | 1.0.2 |
| ruota | 0.43.0 | rapito | 1.14.1 | yapf | 0.33.0 |
| Zipp | 3.17.0 |
Librerie R installate
Le librerie R vengono installate dallo snapshot CRAN del Posit Package Manager il 2024-08-04.
| Libreria | Versione | Libreria | Versione | Libreria | Versione |
|---|---|---|---|---|---|
| freccia | 16.1.0 | askpass | 1.2.0 | assicura che | 0.2.1 |
| retroportazioni | 1.5.0 | base | 4.4.0 | base64enc | 0.1-3 |
| bigD | 0.2.0 | pezzo | 4.0.5 | bit 64 | 4.0.5 |
| bitops | 1.0-8 | massa amorfa | 1.2.4 | boot | 1,3-30 |
| fermentare | 1.0-10 | Brio | 1.1.5 | scopa | 1.0.6 |
| bslib | 0.8.0 | cashmere | 1.1.0 | chiamante | 3.7.6 |
| caret | 6.0-94 | cellranger | 1.1.0 | cronometro | 2,3-61 |
| classe | 7.3-22 | CLI | 3.6.3 | Clipr | 0.8.0 |
| orologio | 0.7.1 | raggruppamento | 2.1.6 | strumenti per la codifica | 0.2-20 |
| spazio di colore | 2.1-1 | segno comune | 1.9.1 | compilatore | 4.4.0 |
| config | 0.3.2 | Confuso | 1.2.0 | cpp11 | 0.4.7 |
| crayon | 1.5.3 | credentials | 2.0.1 | curva | 5.2.1 |
| tabella di dati | 1.15.4 | Insiemi di dati | 4.4.0 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | descrizione | 1.4.3 | strumenti per sviluppatori | 2.4.5 |
| diagramma | 1.6.5 | diffobj | 0.3.5 | digerire | 0.6.36 |
| illuminazione rivolta verso il basso | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-14 | ellissi | 0.3.2 | valutare | 0.24.0 |
| fan | 1.0.6 | colori | 2.1.2 | mappatura veloce | 1.2.0 |
| fontawesome | 0.5.2 | forzati | 1.0.0 | foreach | 1.5.2 |
| straniero | 0.8 - 86 | forgiare | 0.2.0 | fs | 1.6.4 |
| futuro | 1.34.0 | futuro.applicare | 1.11.2 | fare gargarismi | 1.5.2 |
| elementi generici | 0.1.3 | gert | 2.1.0 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | git2r | 0.33.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | elementi globali | 0.16.3 | colla | 1.7.0 |
| Google Drive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
| grafiche | 4.4.0 | grDispositivi | 4.4.0 | grid | 4.4.0 |
| gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.11.0 |
| gtable | 0.3.5 | casco protettivo | 1.4.0 | rifugio | 2.5.4 |
| più alto | 0.11 | HMS | 1.1.3 | strumenti HTML | 0.5.8.1 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.0.2 | documenti di identità | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-15 | banderelle isografiche | 0.2.7 | Iteratori | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-22 | knitr | 1.48 | etichettatura | 0.4.3 |
| più tardi | 1.3.2 | reticolo | 0,22-5 | lava | 1.8.0 |
| ciclo di vita | 1.0.4 | ascolta | 0.9.1 | lubridate | 1.9.3 |
| magrittr | 2.0.3 | Markdown | 1.13 | Massa | 7.3-60.0.1 |
| Matrix | 1.6-5 | memorizza | 2.0.1 | metodi | 4.4.0 |
| mgcv | 1.9-1 | MIME | 0.12 | miniUI | 0.1.1.1 |
| mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-165 | nnet | 7.3-19 |
| Derivazione numerica | 2016.8-1.1 | openssl | 2.2.0 | parallelo | 4.4.0 |
| parallelamente | 1.38.0 | pilastro | 1.9.0 | pkgbuild | 1.4.4 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | elogio | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.4 |
| prodlim | 2024.06.25 | profvis | 0.3.8 | Avanzamento | 1.2.3 |
| progressr | 0.14.0 | promesse | 1.3.0 | proto / prototipo | 1.0.0 |
| intermediario | 0,4–27 | P.S. | 1.7.7 | purrr | 1.0.2 |
| R6 | 2.5.1 | ragg | 1.3.2 | randomForest | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp (una libreria per il linguaggio di programmazione R) | 1.0.13 | RcppEigen | 0.3.4.0.0 | reagibile | 0.4.4 |
| reactR | 0.6.0 | readr | 2.1.5 | readxl (software per leggere documenti Excel) | 1.4.3 |
| ricette | 1.1.0 | nuovo incontro | 2.0.0 | rematch2 | 2.1.2 |
| Telecomandi | 2.5.0 | esempio riproducibile (reprex) | 2.1.1 | reshape2 | 1.4.4 |
| rlang | 1.1.4 | rmarkdown | 2.27 | RODBC | 1.3-23 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
| rversions | 2.1.2 | rvest | 1.0.4 | insolenza | 0.4.9 |
| Scala | 1.3.0 | selettore | 0,4-2 | informazioni sulla sessione | 1.2.2 |
| forma | 1.4.6.1 | brillante | 1.9.1 | sourcetools | 0.1.7-1 |
| sparklyr | 1.8.6 | SparkR | 3.5.2 | spaziale | 7.3-17 |
| splines | 4.4.0 | sqldf | 0,4-11 | SQUAREM | 2021.1 |
| statistiche | 4.4.0 | statistiche4 | 4.4.0 | perizoma | 1.8.4 |
| stringr | 1.5.1 | Sopravvivenza | 3.6-4 | spavalderia | 5.17.14.1 |
| sys | 3.4.2 | systemfonts | 1.1.0 | tcltk | 4.4.0 |
| testthat | 3.2.1.1 | modellazione del testo | 0.4.0 | Tibble | 3.2.1 |
| tidyr | 1.3.1 | tidyselect | 1.2.1 | tidyverse | 2.0.0 |
| cambio d'ora | 0.3.0 | data e ora | 4032.109 | tinytex | 0,52 |
| strumenti | 4.4.0 | tzdb | 0.4.0 | verificatore di URL | 1.0.1 |
| Usa questo | 3.0.0 | utf8 | 1.2.4 | Utilità | 4.4.0 |
| UUID (Identificatore Unico Universale) | 1.2-1 | V8 | 4.4.2 | vctrs | 0.6.5 |
| viridisLite | 0.4.2 | vrooom | 1.6.5 | Waldo | 0.5.2 |
| baffi | 0.4.1 | withr | 3.0.1 | xfun | 0,46 |
| xml2 | 1.3.6 | xopen | 1.0.1 | xtable | 1.8-4 |
| yaml | 2.3.10 | zeallot | 0.1.0 | formato zip | 2.3.1 |
Librerie installate di Java e Scala (versione del cluster Scala 2.12)
| ID del Gruppo | ID dell'artefatto | Versione |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config (configurazione SDK Java per AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect (strumento per la connessione diretta in Java di AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | AWS Java SDK per Glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue (collegamento SDK Java AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | AWS Java SDK Machine Learning | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK di AWS per Java per Storage Gateway) | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | aws-java-sdk-support (supporto del kit di sviluppo software Java per AWS) | 1.12.638 |
| com.amazonaws | Librerie aws-java-sdk-swf | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | torrente | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | ombreggiato criogenico | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | compagno di classe | 1.3.4 |
| com.fasterxml.jackson.core | Annotazioni di Jackson | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.caffeine | caffeina | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | riferimento_nativo-java | 1.1 |
| com.github.fommil.netlib | riferimento_nativo-java | 1.1-indigeni |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java | 1.1-indigeni |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-indigeni |
| com.github.fommil.netlib | netlib-sistema_nativo-linux-x86_64 | 1.1-indigeni |
| com.github.luben | zstd-jni (libreria open-source per compressione con Java Native Interface) | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | tink | 1.9.0 |
| com.google.errorprone | annotazioni soggette a errori | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 23/05/2026 |
| com.google.guava | guava | 15,0 |
| com.google.protobuf | protobuf-java | 3.25.1 |
| com.helger | profilatore | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.RILASCIO |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.3.jre8 |
| com.ning | compress-lzf (algoritmo di compressione) | 1.1.2 |
| com.sun.mail | javax.mail (package Java per la gestione della posta elettronica) | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | JSON | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenti_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.12 (libreria per la gestione dei log in Scala, versione 2.12) | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | parser di univocità | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec (libreria per la codifica comune) | commons-codec (libreria per la codifica comune) | 1.16.0 |
| collezioni-comuni | collezioni-comuni | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| funzione di caricamento file dei Commons | funzione di caricamento file dei Commons | 1,5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging (no translation needed) | commons-logging (no translation needed) | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | LAPACK | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compressore d'aria | 0.27 |
| io.delta | delta-sharing-client_2.12 | 1.2.3 |
| io.dropwizard.metrics | annotazione delle metriche | 4.2.19 |
| io.dropwizard.metrics | nucleo delle metriche | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | metriche-controlli di salute | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrics-jmx | 4.2.19 |
| io.dropwizard.metrics | metrics-json (Specificare ulteriormente se necessario a seconda del contesto) | 4.2.19 |
| io.dropwizard.metrics | metrics-jvm | 4.2.19 |
| io.dropwizard.metrics | metriche-servlet | 4.2.19 |
| io.netty | netty-all | 4.1.108.Final |
| io.netty | netty-buffer | 4.1.108.Final |
| io.netty | netty-codec | 4.1.108.Final |
| io.netty | netty-codec-http (codec HTTP di Netty) | 4.1.108.Final |
| io.netty | netty-codec-http2 | 4.1.108.Final |
| io.netty | netty-codec-socks | 4.1.108.Final |
| io.netty | netty-common | 4.1.108.Final |
| io.netty | netty-handler | 4.1.108.Final |
| io.netty | netty-handler-proxy | 4.1.108.Final |
| io.netty | netty-resolver | 4.1.108.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Final |
| io.netty | netty-transport | 4.1.108.Final |
| io.netty | netty-transport-classes-epoll | 4.1.108.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-comune | 4.1.108.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | sempliceclient_comune | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | collezionista | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | attivazione | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | Java Transaction API (JTA) | 1.1 |
| javax.transaction | API per le transazioni | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | sottaceto | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv (formato CSV avanzato) | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk (kit di sviluppo software per l'ingestione dati) | 0.9.6 |
| net.sourceforge.f2j | arpack_combinato_tutto | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | modello di stringa | 3.2.1 |
| org.apache.ant | formica | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant launcher | 1.10.11 |
| org.apache.arrow | formato a freccia | 15.0.0 |
| org.apache.arrow | arrow-nucleo-di-memoria | 15.0.0 |
| org.apache.arrow | arrow-memory-netty | 15.0.0 |
| org.apache.arrow | freccia-vettore | 15.0.0 |
| org.apache.avro | Avro | 1.11.3 |
| org.apache.avro | avro-ipc | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | testo comune | 1.10.0 |
| org.apache.curator | cliente del curatore | 2.13.0 |
| org.apache.curator | framework del curatore | 2.13.0 |
| org.apache.curator | ricette del curatore | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | derby sportivo | 10.14.2.0 |
| org.apache.hadoop | runtime del client Hadoop | 3.3.6 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | Hive-JDBC | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | spessori del sistema Hive | 2.3.9 |
| org.apache.hive | API di archiviazione Hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | Hive-shims-common | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | Edera | 2.5.2 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-struttura-modello-json | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-shims | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.23 |
| org.apache.yetus | annotazioni per il pubblico | 0.13.0 |
| org.apache.zookeeper | guardiano dello zoo | 3.9.2 |
| org.apache.zookeeper | guardiano dello zoo-juta | 3.9.2 |
| org.checkerframework | verificatore qualità | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | Commons-Compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | Datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | eclipse-collections (collezioni Eclipse) | 11.1.0 |
| org.eclipse.collections | API delle collezioni di Eclipse (eclipse-collections-api) | 11.1.0 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | continuazione di jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty Plus | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | sicurezza del molo | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty Server | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | applicazione web di Jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | cliente WebSocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-comune | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-localizzatore | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | localizzatore di risorse OSGi | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged (riconfezionato) | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (servlet del contenitore Jersey) | 2.40 |
| org.glassfish.jersey.containers | modulo-nucleo-servlet-contenitore-jersey (if a translation is required as per the context) | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | jersey-comune | 2.40 |
| org.glassfish.jersey.core | Jersey-server | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | validatore di Hibernate | 6.1.7.Versione finale |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging (strumento di registrazione per JBoss) | 3.3.2.Finale |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | annotazioni | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 4.0.7 |
| org.json4s | json4s-core_2.12 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.12 | 4.0.7 |
| org.json4s | json4s-jackson_2.12 | 4.0.7 |
| org.json4s | json4s-scalap_2.12 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.12 | 2.9.1 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | Rondelle di regolazione | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 9.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interfaccia di prova | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.16 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | compatibile con scalatest | 3.2.16 |
| org.scalatest | scalatest-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
| org.scalatest | scalatest_2.12 | 3.2.16 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1,5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
| Stax | stax-api | 1.0.1 |