Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Le note sulla versione seguenti forniscono informazioni su Databricks Runtime 18.1 (Beta).
Questa versione incorpora tutte le funzionalità, i miglioramenti e le correzioni di bug di tutte le versioni precedenti di Databricks Runtime. Databricks ha rilasciato questa versione a febbraio 2026.
Important
Databricks Runtime 18.1 è in versione beta. Il contenuto degli ambienti supportati potrebbe cambiare durante la versione beta. Le modifiche possono includere l'elenco dei pacchetti o delle versioni dei pacchetti installati.
Nuove funzionalità e miglioramenti
- Auto Loader utilizza gli eventi di file come impostazione predefinita quando questi sono disponibili
- Scritture ottimizzate per le tabelle del Unity Catalog partizionate create con CRTAS
- Supporto dei tipi di dati DATETIMEOFFSET per Microsoft Azure Synapse
- Commenti della tabella Google BigQuery
- Evoluzione dello schema con INSERT dichiarazioni
- Valori di struct NULL conservati nelle INSERT operazioni
- Supporto delle transazioni con più istruzioni delta
- Checkpoint dei DataFrame nei percorsi volume
- I comandi SQL non vengono più eseguiti nuovamente quando si chiama cache()
- funzione SQL parse_timestamp
- Supporto del cursore SQL nelle istruzioni composte
- Funzioni approssimative di top-k sketch
- Funzioni di schema tupla
Il caricatore automatico utilizza gli eventi di file, quando disponibili, per impostazione predefinita.
Il caricatore automatico utilizza per impostazione predefinita gli eventi di file durante il caricamento da un percorso esterno con eventi di file abilitati, il che riduce le operazioni di elenco e i costi rispetto all'elenco di directory. Vedere Panoramica del caricatore automatico con eventi di file. Gli eventi di file non vengono usati se il codice di flusso imposta useIncrementalListing o useNotifications. Per usare l'elenco di directory, impostare useManagedFileEvents su false.
Scritture ottimizzate per le tabelle partizionate del Catalogo Unity create con CRTAS
Le scritture ottimizzate si applicano alle tabelle del catalogo Unity partizionate create da CREATE OR REPLACE TABLE ... AS SELECT (CRTAS), producendo meno file di dimensioni maggiori. Questo comportamento è abilitato per impostazione predefinita. Per disabilitare, impostare spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled su false.
Supporto dei tipi di dati DATETIMEOFFSET per Microsoft Azure Synapse
Il DATETIMEOFFSET tipo di dati è supportato per le connessioni a Microsoft Azure Synapse.
Commenti della tabella Google BigQuery
Le descrizioni delle tabelle di Google BigQuery vengono risolte ed esposte come commenti di tabella.
Evoluzione dello schema con istruzioni INSERT
Usare la WITH SCHEMA EVOLUTION clausola con istruzioni SQL INSERT per evolvere automaticamente lo schema della tabella di destinazione durante le operazioni di inserimento. La clausola è supportata per INSERT INTO, INSERT OVERWRITE e INSERT INTO ... REPLACE. Per esempio:
INSERT WITH SCHEMA EVOLUTION INTO students TABLE visiting_students_with_additional_id;
Lo schema della tabella Delta Lake di destinazione viene aggiornato per supportare colonne aggiuntive o tipi ampliati dall'origine. Per informazioni dettagliate, vedere Evoluzione dello schema e INSERT sintassi delle istruzioni.
Valori NULL della struct conservati nelle operazioni INSERT
INSERT le operazioni con evoluzione dello schema o cast implicito preservano NULL i valori struct quando le tabelle di origine e di destinazione hanno ordini di campi struct diversi.
Supporto per le transazioni a più istruzioni di Delta Sharing
Le tabelle Delta Sharing che utilizzano le modalità di condivisione con URL o token cloud prefirmati supportano transazioni con più istruzioni. Al primo accesso all'interno di una transazione, la versione della tabella viene bloccata e riutilizzata per tutte le letture successive in tale transazione.
Limitations:
- Il viaggio nel tempo, il feed di dati delle modifiche e lo streaming non sono supportati.
- Le transazioni con più istruzioni non sono supportate nelle tabelle condivise senza cronologia.
- Le visualizzazioni condivise e le entità esterne non sono consentite in un ambiente di calcolo non attendibile.
Checkpoint dei DataFrame nei percorsi del volume
I checkpoint del dataframe supportano i percorsi dei volumi di Unity Catalog. Configurare il percorso del checkpoint nel calcolo dedicato usando SparkContext.setCheckpointDir o configurare spark.checkpoint.dir nel calcolo standard.
I comandi SQL non vengono più eseguiti nuovamente quando si chiama cache()
I comandi SQL non vengono più eseguiti nuovamente quando si chiama .cache() sul dataframe del risultato. Sono inclusi comandi come SHOW TABLES e SHOW NAMESPACES.
parse_timestamp funzione SQL
La parse_timestamp funzione SQL analizza le stringhe di timestamp rispetto a più modelli. Viene fotonizzata per una valutazione più veloce con timestamp in vari formati. Per informazioni sulla formattazione dei modelli datetime, vedere Modelli datetime .
Supporto del cursore SQL nelle istruzioni composte
Le istruzioni composte di scripting SQL supportano ora l'elaborazione del cursore. Usare DECLARE CURSOR per definire un cursore, quindi l'istruzione OPEN, l'istruzione FETCH e l'istruzione CLOSE per eseguire la query e utilizzare le righe una alla volta. I cursori possono usare marcatori di parametro e gestori di condizioni, ad NOT FOUND esempio per l'elaborazione riga per riga.
Funzioni di schizzo top-k approssimative
Le nuove funzioni consentono di creare e combinare schizzi top-K approssimativi per l'aggregazione top-K distribuita:
-
approx_top_k_accumulate: crea uno schizzo per gruppo. Vedere la funzione di aggregazioneapprox_top_k_accumulatee. -
approx_top_k_combine: unisce schizzi. Vedere la funzione di aggregazioneapprox_top_k_combinee. -
approx_top_k_estimate: restituisce i primi K elementi con conteggi stimati. Vedi la funzioneapprox_top_k_estimate.
Per altre informazioni, vedere approx_top_k Funzioni di aggregazione e Funzioni predefinite.
Funzioni di bozza tupla
Le nuove funzioni di aggregazione e scalari per lo schizzo della tupla supportano conteggio e aggregazione distinti su coppie di riepilogo chiave.
Funzioni di aggregazione:
-
tuple_sketch_agg_doublefunzione di aggregazione -
tuple_sketch_agg_integerfunzione di aggregazione -
tuple_union_agg_doublefunzione di aggregazione -
tuple_union_agg_integerfunzione di aggregazione -
tuple_intersection_agg_doublefunzione di aggregazione -
tuple_intersection_agg_integerfunzione di aggregazione
Funzioni scalari:
tuple_sketch_estimatetuple_sketch_summarytuple_sketch_thetatuple_uniontuple_intersectiontuple_difference
Vedere Funzioni predefinite.
Modifiche comportamentali
- Clausola FILTER per le funzioni di aggregazione MEASURE
- Scritture ottimizzate per le operazioni CRTAS su Unity Catalog
- Aggiornamento della cache del dataframe per tabelle di controllo di accesso con granularità fine
- I valori della partizione timestamp usano il fuso orario di sessione
- Parola chiave riservata DESCRIBE FLOW
- Miglioramento delle prestazioni delle operazioni geospaziali
- Tipi di eccezione per SQLSTATE
- Estensione automatica dei tipi di streaming
Clausola FILTER per le funzioni di aggregazione MEASURE
Le funzioni di aggregazione MEASURE supportano ora le clausole FILTER. In precedenza, i filtri venivano ignorati automaticamente.
Scritture ottimizzate per le operazioni CRTAS del catalogo Unity
CREATE OR REPLACE TABLE Le operazioni AS SELECT (CRTAS) nelle tabelle del catalogo Unity partizionate ora applicano le scritture ottimizzate per impostazione predefinita. Per disabilitare, impostare spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled su false.
Aggiornamento della cache del dataframe per tabelle di controllo di accesso con granularità fine
La scrittura in tabelle di controllo di accesso con granularità fine in calcolo dedicato ora aggiorna i dataframe memorizzati nella cache che dipendono dalla tabella.
I valori della partizione timestamp usano il fuso orario di sessione
I valori della partizione timestamp usano il fuso orario della sessione Spark anziché il fuso orario JVM. Se sono presenti partizioni timestamp scritte prima di Databricks Runtime 18.0, eseguire SHOW PARTITIONS per verificare i metadati della partizione prima di scrivere nuovi dati.
Parola chiave riservata DESCRIBE FLOW
Il DESCRIBE FLOW comando è ora disponibile. Se si dispone di una tabella denominata flow, usare DESCRIBE schema.flow, DESCRIBE TABLE flow o DESCRIBE `flow` con i backtick.
Miglioramento delle prestazioni delle operazioni geospaziali
Le operazioni dei set booleani geospaziali usano una nuova implementazione con prestazioni migliorate. Possono verificarsi differenze minime di precisione dopo la 15° cifra decimale.
Tipi di eccezione per SQLSTATE
I tipi di eccezione vengono aggiornati per supportare SQLSTATE. Se il codice analizza le eccezioni in base alla corrispondenza di stringhe o rileva tipi di eccezione specifici, aggiornare la logica di gestione degli errori.
Estensione automatica dei tipi di streaming
La lettura in streaming delle tabelle Delta gestisce automaticamente l'estensione dei tipi di colonna. Per richiedere la conferma manuale, impostare spark.databricks.delta.typeWidening.enableStreamingSchemaTracking su true.
Aggiornamenti della libreria
Nessuna libreria è stata aggiornata in questa versione.
Apache Spark
Databricks Runtime 18.1 include Apache Spark 4.1.0. Questa versione include tutte le correzioni e i miglioramenti di Spark inclusi in Databricks Runtime 18.0, nonché le correzioni di bug e i miglioramenti aggiuntivi seguenti apportati a Spark:
- SPARK-55350 Correzione della perdita di conteggio delle righe durante la creazione di dataframe da pandas con 0 colonne
- SPARK-55364 Rendere più ragionevole il protocollo SupportsIAdd e SupportsOrdering
- SPARK-53656 Effettuare il refactoring di MemoryStream per usare SparkSession invece di SQLContext
- SPARK-55472 Genera eccezioni da metodi rimossi in Pandas 3
- SPARK-55224 Usare il tipo di dato Spark come fonte di verità nella serializzazione tramite Pandas-Arrow
- SPARK-55402 Spostare streamingSourceIdentifyingName da CatalogTable a DataSource
- SPARK-55459 Correzione della regressione delle prestazioni 3x in applyInPandas per gruppi di grandi dimensioni
- SPARK-55317 Aggiungere un nodo di piano logico SequentialUnion e una regola di pianificazione
-
SPARK-55424 Passare in modo esplicito il nome della serie in
convert_numpy -
SPARK-55175 Estrarre
to_pandastrasformatore da serializzatori - SPARK-55304 Introduzione del supporto per l'Admission Control e per Trigger.AvailableNow nella sorgente dati Python - Streaming Reader
-
SPARK-55382 Crea
Executorper registrareRunning Spark version - SPARK-55408 Gestire gli errori imprevisti degli argomenti delle parole chiave correlati a datetime con pandas 3
- SPARK-55345 Non passare unità e chiuso a Timedelta per pandas 3
- SPARK-54759 Proteggere correttamente la logica nella Gestione delle variabili di scripting dopo l'introduzione del Cursor
- SPARK-55409 Gestire un errore di argomento chiave inaspettato in read_excel con pandas 3
- SPARK-55403 Corregge l'errore nei test sui grafici con pandas 3
- SPARK-55256 Ripristina "[SC-218596][SQL] Supporto di IGNORE NULLS/RESPECT NULLS per array_agg e collect_list"
- SPARK-55256 Supporto di IGNORE NULLS/RESPECT NULLS per array_agg e collect_list
-
SPARK-55395 Disabilitare la cache RDD in
DataFrame.zipWithIndex - SPARK-55131 Introdurre un nuovo delimitatore dell'operatore di merge per RocksDB per concatenare senza delimitatori tramite una stringa vuota
- SPARK-55376 Rendere l'argomento numeric_only nelle funzioni groupby tale da accettare solo valori booleani con pandas 3
-
SPARK-55334 Abilitare
TimestampTypeeTimestampNTZTypeinconvert_numpy - SPARK-55281 Aggiungere ipykernel e IPython all'elenco di pacchetti facoltativi mypy
- SPARK-55336 Consentire a createDF di usare la logica di create_batch per il disaccoppiamento
-
SPARK-55366 Rimuovere
errorOnDuplicatedFieldNamesdalle UDF Python (funzioni definite dall'utente) - SPARK-54759 Supporto del cursore di scripting SQL
-
SPARK-55302 Correggere le metriche personalizzate in caso di
KeyGroupedPartitioning - SPARK-55228 Implementare Dataset.zipWithIndex nell'API Scala
- SPARK-55373 Miglioramento del messaggio di errore noHandlerFoundForExtension
- SPARK-55356 Supporto per l'alias della PIVOT clausola
-
SPARK-55359 Alzare di livello
TaskResourceRequestaStable - SPARK-55365 Generalizzare le utilità per la conversione di matrici di frecce
- SPARK-55106 Aggiungere un test di integrazione per il ripartizionamento degli operatori TransformWithState
- SPARK-55086 Aggiungere DataSourceReader.pushFilters alla documentazione dell'API di origine dati in Python
- SPARK-46165 Aggiunta del supporto per DataFrame.all axis=None
- SPARK-55289 Reversione di "[SC-218749][SQL] Correzione del file in-set-operations.sql per il test instabile disabilitando il broadcast join"
- SPARK-55297 Ripristinare timedelta dtype in base al dtype originale
- SPARK-55291 Pre-elaborare le intestazioni dei metadati in fase di costruzione dell'intercettore client
-
SPARK-55155 Riapplicare "[SC-218401][SQL] Supportare espressioni piegabili nell'istruzione
SET CATALOG - SPARK-55318 Ottimizzazioni delle prestazioni per vector_avg/vector_sum
- SPARK-55295 Estendere la funzione ST_GeomFromWKB per accettare un valore SRID facoltativo
- SPARK-55280 Aggiungere GetStatus proto per supportare il monitoraggio dello stato di esecuzione
- SPARK-54969 Implementare la nuova conversione arrow-pandas>
-
SPARK-55176 Estrarre
arrow_to_pandasil convertitore in ArrowArrayToPandasConversion - SPARK-55111 Annullare "[SC-217817][SC-210791][SS] Rilevamento di ripartizione incompleta al riavvio della query"
- `SPARK-55252 Migliora
HttpSecurityFilterper aggiungere l'intestazioneContent-Security-Policy` - SPARK-55111 Rilevamento di ripartizioni non completate al riavvio della query
- SPARK-55105 Aggiungere il test di integrazione per l'operatore join
- SPARK-55260 Implementare il supporto alla scrittura in formato Parquet per i tipi geografici
- SPARK-54523 Correzione della risoluzione predefinita durante la variante di pushdown
- SPARK-55328 Riutilizzare PythonArrowInput.codec in GroupedPythonArrowInput
- SPARK-55246 Aggiungere il test per Pyspark TWS e TWSInPandas e correggere statePartitionAllColumnFamiliesWriter Bug
- SPARK-55289 Correggere il test instabile in in-set-operations.sql disabilitando il join in broadcast
- SPARK-55040 Effettuare il refactoring di TaskContext e del protocollo worker correlato con un aggiornamento al motore PySpark.
- SPARK-47996 supporta l'unione incrociata nell'API Pandas
- SPARK-55031 Aggiungere espressioni di funzione di aggregazione vector avg/sum
- SPARK-54410 Correzione del supporto di lettura per l'annotazione del tipo logico variant
- SPARK-54776 Ripristinare "[SC-216482][SQL] Miglioramento del messaggio di log relativo alla funzione lambda con funzioni definite dall'utente SQL"
- SPARK-55123 Aggiungere SequentialUnionOffset per tenere traccia dell'elaborazione sequenziale dell'origine
- SPARK-54972 Migliorare le sottoquery NOT IN con colonne non nullabili
- SPARK-54776 Migliorati i messaggi di log relativi alla funzione lambda con UDF SQL
-
SPARK-53807 Risolvere i problemi di race condition tra
unlockereleaseAllLocksForTaskinBlockInfoManager - SPARK-51831 Ripristinare "[SC-207389][SQL] Potatura delle colonne con existsJoin per Datasource V2"
-
SPARK-54881 Migliorare
BooleanSimplificationla gestione della negazione di congiunzione e disgiunzione in un unico passo - SPARK-54696 Pulizia dei ArrowBuffers in Connect
-
SPARK-55009 Rimuovere la copia di memoria non necessaria dal costruttore di
LevelDBTypeInfo/RocksDBTypeInfo.Index - SPARK-54877 Rendere lo stacktrace visualizzato nella pagina di errore dell'interfaccia utente configurabile
- SPARK-51831 Potatura delle colonne con existsJoin per DataSource V2
-
SPARK-55285 Correggere l'inizializzazione di
PythonArrowInput - SPARK-53960 Consenti approx_top_k_accumulate/combinare/stimare di gestire NULL
- SPARK-49110 Semplificare SubqueryAlias.metadataOutput per propagare sempre le colonne di metadati
-
SPARK-55155 Ripristinare "[SC-218401][SQL] Supportare espressioni piegabili nell'istruzione
SET CATALOG" -
SPARK-55155 Supportare espressioni piegabili nell'istruzione
SET CATALOG - SPARK-49110 Annullare "[SC-218594][SQL] Semplificare SubqueryAlias.metadataOutput per propagare sempre le colonne di metadati"
- SPARK-54399 Implementare la funzione st_setsrid in Scala e PySpark
- SPARK-49110 Semplificare SubqueryAlias.metadataOutput per propagare sempre le colonne di metadati
- SPARK-55133 Correggere la race condition nella gestione del ciclo di vita di IsolatedSessionState
- SPARK-55262 Bloccare i tipi geografici in tutte le origini dati basate su file ad eccezione di Parquet
- SPARK-54202 Consenti cast da GeometryType(srid) a GeometryType(ANY)
- SPARK-54142 Implementare la funzione st_srid in Scala e PySpark
- SPARK-54887 Impostare sempre uno stato sql nel client spark connect
- SPARK-55237 Eliminare i messaggi fastidiosi durante la ricerca di database inesistenti
- SPARK-55040 Annullare "[SC-217628][PYTHON] Refattorizzare TaskContext e il protocollo di lavoro correlato"
- SPARK-55243 Consentire l'impostazione delle intestazioni binarie tramite il suffisso -bin nel client Scala Connect
- SPARK-55259 Implementare la conversione dello schema Parquet per i tipi geografici
- SPARK-55282 Evitare di usare worker_util nel lato Driver
- SPARK-54151 Introdurre il framework per l'aggiunta di funzioni ST in PySpark
- SPARK-55194 Rimuovere GroupArrowUDFSerializer spostando la logica di appiattimento nel mapper
- SPARK-55020 Disabilitare gc durante l'esecuzione del comando gRPC
- SPARK-55053 Eseguire il refactoring dei processi di lavoro di analisi dell'origine dati/udtf in modo che abbiano un punto d'ingresso unificato.
- SPARK-55040 Eseguire il refactoring di TaskContext e il protocollo di lavoro correlato
- SPARK-55244 Usare np.nan come valore predefinito per i tipi di stringa di pandas
- SPARK-55225 Ripristinare il dtype originale per Datetime
- SPARK-55154 Rimuovere fastpath in pd. Serie per pandas 3
- SPARK-55030 Aggiunta del supporto per le espressioni delle funzioni di norma e normalizzazione vettoriali
- SPARK-55202 Correzione per UNEXPECTED_USE_OF_PARAMETER_MARKER quando si utilizza param...
- SPARK-54201 Consenti la conversione da GeographyType(srid) a GeographyType(ANY)
- SPARK-54244 Introdurre il supporto della coercizione dei tipi per i tipi di dati GEOMETRY
- SPARK-54160 Implementare l'espressione ST_SetSrid in SQL
- SPARK-55046 PySpark aggiunge la metrica del tempo di elaborazione UDF
- SPARK-54101 Introdurre il framework per l'aggiunta di funzioni ST in Scala
- SPARK-54683 Unificare i tipi geografici e temporali nel blocco
- SPARK-55249 Rendere DataFrame.toJSON in grado di restituire il dataframe
- SPARK-54521 Conversioni da e verso WKB per il tipo Geometry
- SPARK-54162 Consenti cast da GeographyType a GeometryType
- SPARK-55146 Ricontrollare l'API di ripartizione dello stato per PySpark
- SPARK-55140 Non eseguire il mapping delle funzioni predefinite alla versione numpy per pandas 3
- SPARK-54243 Introdurre il supporto della coercizione dei tipi di dati GEOGRAPHY
- SPARK-55058 Sollevare un errore nei metadati incoerenti del checkpoint
- SPARK-55108 Usare gli ultimi pandas-stub per il controllo del tipo
- SPARK-54091 Implementare l'espressione ST_Srid in SQL
- SPARK-55104 Aggiungere il supporto di Spark Connect per DataStreamReader.name()
- SPARK-54996 Report ArrivalTime per i record di LowLatencyMemoryStream
- SPARK-55118 Sostituire le wildcard import relative agli ASM Opcodes
- SPARK-54365 Aggiungere il test di integrazione di ripartizione per gli operatori Aggregate, Dedup, FMGWS e SessionWindow
- SPARK-55119 Correzione del continua handler: impedire errori INTERNI e l'interruzione delle istruzioni condizionali non corrette
- SPARK-54104 Vietare il casting di tipi geospaziali da e verso altri tipi di dati
- SPARK-55240 Effettuare il refactoring della gestione dello stacktrace LazyTry per usare wrapper anziché eccezione soppressa
-
SPARK-55238 Spostare la logica di mappatura del sistema di riferimento spaziale da
main/scalaamain/java -
SPARK-55179 Ignorare la convalida anticipata del nome della colonna in
df.col_name - SPARK-55055 Supporto di SparkSession.Builder.create per PySpark Classic
- SPARK-55186 Permettere a ArrowArrayToPandasConversion.convert_legacy di restituire pd.DataFrame
- SPARK-54079 Introdurre il framework per l'aggiunta di espressioni ST in Catalyst
- SPARK-54096 Supporto per il mapping del sistema di riferimento spaziale in PySpark
- SPARK-54801 Contrassegnare alcune nuove configurazioni 4.1 come interne
- SPARK-55146 Reverti "[SC-217936][SC-210779][SS] API dello stato di ripartizione per PySpark"
- SPARK-54559 Usare runnerConf per passare l'opzione profiler
- SPARK-55205 Correzione dei test in cui presuppone che il tipo stringa venga convertito in oggetto
- SPARK-55171 Correzione del profiler di memoria su UDF iterativi
- SPARK-55226 Riconoscere datetime e timedelta con unità differenti da [ns]
- SPARK-55027 Spostare writeConf in PythonWorkerUtils
- SPARK-55197 Estrarre l'helper per deduplicare la logica del segnale START_ARROW_STREAM
- SPARK-54179 Aggiungere il supporto nativo per i Tuple Sketches di Apache (#190848) (#191111)
- SPARK-55151 Correzione di RocksDBSuite testWithStateStoreCheckpointIds
- SPARK-55146 API di Ridistribuzione dello Stato per PySpark
- SPARK-54232 Abilitare la serializzazione Arrow per i tipi di Geography e Geometry
- SPARK-53957 Supporto di GEOGRAPHY e GEOMETRY nel SpatialReferenceSystemMapper
- SPARK-55169 Usare ArrowBatchTransformer.flatten_struct in ArrowStreamArrowUDTFSerializer
-
SPARK-55134 Correzione
BasicExecutorFeatureStepper lanciareIllegalArgumentExceptionin caso di configurazioni errate della CPU dell'executor - SPARK-54166 Introdurre codificatori di tipi per i tipi geospaziali in PySpark
-
SPARK-55138 Correzione
convertToMapDatadi un'eccezioneNullPointerException - SPARK-55168 Usare ArrowBatchTransformer.flatten_struct in GroupArrowUDFSerializer
- SPARK-55032 Refactoring dei profiler in workers.py
- SPARK-54990 Correzione della modalità di implementazione della classe in session.py
- SPARK-55076 Risolvere il problema dell'hint di tipo in ml/mllib e aggiungere il requisito di scipy
- SPARK-55162 Estrarre trasformatori da ArrowStreamUDFSerializer
- SPARK-55121 Aggiungere DataStreamReader.name() a PySpark classico
- SPARK-54887 Aggiungere sqlstate facoltativo a sparkthrowables
- SPARK-54169 Introdurre tipi di Geography e Geometry nel writer Arrow
- SPARK-51658 Introdurre formati wrapper per Geometry e Geography in memoria
- SPARK-54110 Introdurre codificatori di tipi per i tipi *Geografia* e *Geometria*
- SPARK-54956 Unificare la soluzione di ri-esecuzione del mescolamento indeterminata
-
SPARK-55137 Rifattorizzare
GroupingAnalyticsTransformereAnalyzercodice - SPARK-54103 Introdurre classi Geography e Geometry lato client
- SPARK-55160 Passare direttamente lo schema di input ai serializzatori
- SPARK-55170 Estrarre il modello di lettura del flusso raggruppato dai serializzatori
-
SPARK-55125 Rimuovere i metodi ridondanti
__init__nei serializzatori freccia - SPARK-55126 Rimuovere il fuso orario non usato e la funzione assign_cols_by_name da ArrowStreamArrowUDFSerializer
- SPARK-54980 Convertire il livello di isolamento JDBC in una stringa
- SPARK-55051 Stringa di byte accetta KiB, MiB, GiB, TiB, PiB
- SPARK-55025 Migliorare le prestazioni in Pandas usando la comprensione dell'elenco
- SPARK-46165 Aggiungere il supporto per pandas.DataFrame.all axis=1
- SPARK-55037 Implementare nuovamente l'osservazione senza usare QueryExecutionListener
- SPARK-54965 Separare il vecchio pa.Array -> pd.Series converter
- SPARK-55016 Rendere SQLConf una proprietà diretta di SparkSession per evitare l'overflow dello stack
- SPARK-55091 Ridurre le chiamate RPC Hive per il comando DROP TABLE
- SPARK-55097 Correzione del problema relativo alla ripetizione dell'aggiunta di artefatti memorizzati nella cache che elimina blocchi silenziosamente
- SPARK-55026 Ottimizzare BestEffortLazyVal.
- SPARK-55091 Annulla "[SC-217410][SQL] Riduci le chiamate RPC di Hive per il comando DROP TABLE"
- SPARK-54590 Supporta il checkpoint V2 per lo stato del rewriter e il ripartizionamento
- SPARK-55016 Rendere SQLConf una proprietà diretta di SparkSession per evitare l'overflow dello stack
- SPARK-55091 Ridurre le chiamate RPC Hive per DROP TABLE il comando
- SPARK-55016 Ripristina "[SC-217401][SQL] Impedire l'overflow dello stack rendendo SQLConf una proprietà diretta di SparkSession"
- SPARK-55016 Rendere SQLConf una proprietà diretta di SparkSession per evitare l'overflow dello stack
- SPARK-55098 Le funzioni definite dall'utente vettorializzate con il controllo delle dimensioni del batch di uscita presentano una perdita di memoria.
- SPARK-54824 Aggiunta del supporto per multiGet e deleteRange per l'archivio di stato di Rocksdb
- SPARK-55054 Aggiunta del supporto per IDENTIFIED BY nelle funzioni a valori di tabella in streaming
- SPARK-55029 Propagare il nome identificativo dell'origine di streaming attraverso la pipeline di risoluzione
- SPARK-55071 Rendere spark.addArtifact funzionante con i percorsi di Windows
- SPARK-54103 Ripristinare "[SC-210400][Geo][SQL] Introdurre classi Geography e Geometry lato client"
- SPARK-54103 Introdurre le classi Geography e Geometry sul lato client
- SPARK-54033 Introdurre classi di esecuzione geospaziali sul lato server Catalyst
- SPARK-54176 Introdurre tipi di dato Geography e Geometry in PySpark Connect
- SPARK-55089 Correggere lo schema di output di toJSON
- SPARK-55035 Eseguire la pulizia dello shuffle nelle esecuzioni figlie
-
SPARK-55036 Aggiungere
ArrowTimestampConversionper la gestione del fuso orario tramite Arrow -
SPARK-55090 Implementare
DataFrame.toJSONnel client Python - SPARK-54873 Semplificare la risoluzione di V2TableReference poiché solo la vista temporanea può contenerla
- SPARK-52828 Eseguire l'hashing per stringhe in modo indipendente dalla collatione
- SPARK-54175 Aggiungere i tipi Geography e Geometry al protocollo Spark Connect
-
SPARK-54961 Introdotto
GroupingAnalyticsTransformer - SPARK-55088 Mantenere i metadati in/from_arrow_type/schema
- SPARK-55070 Consenti colonna nascosta nella risoluzione delle colonne del dataframe
- SPARK-55044 Mantenere i metadati in toArrowSchema/fromArrowSchema
- SPARK-55043 Correzione della traslazione temporale con sottoquery contenente riferimenti alle tabelle
-
SPARK-54987 Modificare il valore predefinito di prefer_timestamp_ntz in True in
from_arrow_type/from_arrow_schema - SPARK-54866 Refactoring Drop/RefreshFunction per evitare la ricerca nel catalogo
- SPARK-55024 Usare l'errore REQUIRES_SINGLE_PART_NAMESPACE per la convalida dello spazio dei nomi nel catalogo sessioni
- SPARK-54992 Sostituire cast con un controllo di runtime per make_timestamp
- SPARK-55024 Ripristina "[SC-216987][SQL] Usa l'errore REQUIRES_SINGLE_PART_NAMESPACE per la convalida dello spazio dei nomi del catalogo della sessione"
- SPARK-54866 Ripristinare "[SC-216753][SQL] Refactoring Drop/RefreshFunction per evitare la ricerca nel catalogo"
- SPARK-55024 Usare l'errore REQUIRES_SINGLE_PART_NAMESPACE per la convalida dello spazio dei nomi del catalogo della sessione
- SPARK-54866 Refactoring Drop/RefreshFunction per evitare la ricerca nel catalogo
- SPARK-54991 Hint di tipo corretto per lo streaming/listener.py
- SPARK-54925 Aggiungere la funzionalità per eseguire il dump dei thread per pyspark
- SPARK-54803 Supporto di BY NAME con INSERT ... SOSTITUIRE WHERE
- SPARK-54785 Aggiungere il supporto per le aggregazioni di sketch binario in KLL (#188370) (#188860)
- SPARK-54949 Spostare pyproject.toml nella radice del repository
- SPARK-54954 Correzione delle indicazioni di tipo relative al remoto in util.py
- SPARK-54922 Unificare il modo in cui gli argomenti vengono passati ai worker di Python
- SPARK-54870 Supporto delle regole di confronto per char/varchar e CTAS/RTAS
-
SPARK-54762 Correzione
_create_converterecovertfirma di overload - SPARK-55019 Consenti di DROP TABLE eliminare la VIEW
- SPARK-53103 Genera un errore se la directory di stato non è vuota all'avvio della query
- SPARK-54995 Creare un percorso rapido per foreachPartition
- SPARK-54634 Aggiungere un messaggio di errore non crittografato per il predicato IN vuoto
- SPARK-54984 Esecuzione di State Repartition e integrazione con State Rewriter
- SPARK-54443 Integrare PartitionKeyExtractor nel lettore di ripartizioni
- SPARK-54907 Introdurre la regola dell'analizzatore NameStreamingSources per l'evoluzione dell'origine di streaming
- SPARK-54609 Aggiornare la configurazione del tipo TIME in modo che corrisponda a quella del software open source
- SPARK-54988 Semplificare l'implementazione di ObservationManager.tryComplete
- SPARK-54959 Disabilitare il completo rinvio per mancata corrispondenza del checksum dello shuffle quando lo shuffle basato su push è abilitato.
- SPARK-54940 Aggiungere i test per l'inferenza del tipo di dato pa.scalar
- SPARK-54634 Annullare "[SC-216478][SQL] Aggiungere un messaggio di errore chiaro per il predicato IN vuoto"
- SPARK-54337 Aggiungere il supporto per PyCapsule a Pyspark
- SPARK-54634 Aggiungere un messaggio di errore non crittografato per il predicato IN vuoto
- SPARK-53785 Origine memoria per RTM
- SPARK-54883 Rivedere i messaggi di errore per l'interfaccia a riga di comando e aggiungere una nuova modalità di errore DEBUG.
- SPARK-54713 Aggiunta del supporto per espressioni di funzione vector similarity/distance
- SPARK-54962 Correzione della gestione dei numeri interi nullable nella UDF di Pandas
- SPARK-54864 Aggiungere nodi rCTE a NormalizePlan
- SPARK-53847 Aggiungere ContinuousMemorySink per i test in modalità in tempo reale
- SPARK-54865 Aggiungere il metodo foreachWithSubqueriesAndPruning a QueryPlan
- SPARK-54930 Rimuovere la chiamata ridondante _accumulatorRegistry.clear() in worker.py
- SPARK-54929 Correzione del reset di taskContext._resources nel ciclo che causa il mantenimento solo dell'ultima risorsa
-
SPARK-54963 Rispetta
createDataFrameprefer_timestamp_ntzquandoinfer_pandas_dict_as_map -
SPARK-54920 Spostare la logica di estrazione delle analisi di raggruppamento in un contesto comune
GroupingAnalyticsExtractor - SPARK-54924 State Rewriter per leggere lo stato, trasformarlo e scrivere nuovo stato
- SPARK-54872 Unificare la gestione dei valori predefiniti delle colonne tra i comandi v1 e v2
- SPARK-54905 Semplificare l'implementazione di foreachWithSubqueries in QueryPlan
- SPARK-54682 Supporto per la visualizzazione dei parametri in DESCRIBE PROCEDURE
-
SPARK-54933 Evitare ripetutamente il recupero della configurazione
binary_as_bytesintoLocalIterator - SPARK-54872 Ripristinare "[SC-216260][SQL] Unify column default value handling between v1 and v2 commands"
- SPARK-51936 ReplaceTableAsSelect deve sovrascrivere la nuova tabella anziché accodare
- SPARK-54771 Rimuovere la regola ResolveUserSpecifiedColumns da RuleIdCollection
- SPARK-54872 Unificare la gestione dei valori predefiniti delle colonne tra i comandi v1 e v2
- SPARK-54313 Aggiungere l'opzione --extra-properties-file per la configurazione a più livelli
- SPARK-54468 Aggiungere classi di errore mancanti
- SPARK-46741 La tabella cache con CTE dovrebbe funzionare quando il CTE è nel sottoquery dell'espressione del piano
- SPARK-46741 La tabella cache con CTE non funzionerà
- SPARK-54615 Passare sempre runner_conf al ruolo di lavoro Python
- SPARK-53737 Aggiungere modalità in tempo reale attivatore
- SPARK-54541 Rinominare _LEGACY_ERROR_TEMP_1007 e aggiungere sqlState
- SPARK-54718 Mantenere i nomi degli attributi durante cTE newInstance()
- SPARK-54621 Unisci al set di aggiornamento * preserva i campi annidati se ... coerceNestedTypes è abilitato
- SPARK-54595 Mantenere il comportamento esistente di MERGE INTO in assenza della clausola EVOLUTION SCHEMA
- SPARK-54903 Rendere to_arrow_schema/to_arrow_type in grado di impostare il fuso orario
- SPARK-52326 Aggiungere partizioni correlate a ExternalCatalogEvent e pubblicarle nelle operazioni corrispondenti
- SPARK-54541 Ripristina "[SC-215212][SQL] Rinomina _LEGACY_ERROR_TEMP_1007 e aggiungi sqlState"
-
SPARK-54578 Eseguire la pulizia del codice in
AssignmentUtils - SPARK-54830 Abilitare per impostazione predefinita il rientro di bilanciamento indeterminato basato su checksum.
- SPARK-54525 Disabilitare la coercizione degli struct annidati in MERGE INTO in una configurazione
- SPARK-53784 API di origine aggiuntive necessarie per supportare l'esecuzione RTM
- SPARK-54496 Correzione della fusione nell'evoluzione dello schema per l'API DataFrame
- SPARK-54835 Evitare QueryExecution temporanea non necessaria per l'esecuzione di comandi annidati
- SPARK-54541 Rinominare _LEGACY_ERROR_TEMP_1007 e aggiungere sqlState
- SPARK-54289 Consenti MERGE INTO di mantenere i campi struct esistenti per UPDATESET * quando lo struct di origine ha campi annidati inferiori a quelli dello struct di destinazione
- SPARK-54720 Aggiungere SparkSession.emptyDataFrame con uno schema
- SPARK-54800 Implementazione predefinita modificata per isObjectNotFoundException
- SPARK-54686 Ridurre i controlli delle tabelle DSv2 nelle viste temporanee per consentire nuove colonne di primo livello
- SPARK-54619 Aggiungere un controllo di integrità per i numeri di configurazione
- SPARK-54726 Migliorare alcune prestazioni per InsertAdaptiveSparkPlan
- SPARK-51966 Sostituire select.select() con select.poll() durante l'esecuzione nel sistema operativo POSIX
- SPARK-54749 Correzione della metrica numOutputRows non corretta in OneRowRelationExec
- Introdurre un ripartitore che supporta multi-CF
- SPARK-54835 Ripristinare "[SC-215823][SQL] Evitare query query non necessarie per l'esecuzione di comandi annidati"
- SPARK-54867 Introdurre il wrapper NamedStreamingRelation per l'identificazione dell'origine durante l'analisi
- SPARK-54835 Evitare esecuzioni temporanee non necessarie di QueryExecution per l'esecuzione di comandi annidati
- SPARK-54491 Correzione dell'inserimento nella visualizzazione temporanea in caso di errore della tabella DSv2
- SPARK-54871 Ridurre gli alias dal raggruppamento e dalle espressioni di aggregazione prima di gestire l'analisi di raggruppamento
- SPARK-51920 Correzione della gestione dei tipi di namedTuple per transfromWithState
- SPARK-54526 Rinominare _LEGACY_ERROR_TEMP_1133 e aggiungere sqlState
- SPARK-54424 Gli errori durante il ri-caching non devono compromettere le operazioni
-
SPARK-54894 Correzione del passaggio degli argomenti in
to_arrow_type - SPARK-53448 La conversione di un `pyspark DataFrame` con una colonna Variant in pandas si verifica un errore.
- SPARK-54882 Rimuovere PYARROW_IGNORE_TIMEZONE legacy
- SPARK-54504 Correzione dell'aggiornamento di versione per le tabelle DSv2 con sottoquery
- SPARK-54444 Ridurre i controlli delle tabelle DSv2 per ripristinare il comportamento precedente
- SPARK-54859 Documentazione di riferimento API UDF PySpark di Arrow per impostazione predefinita
- SPARK-54387 Ripristinare "[ES-1688666] Ripristinare "[SC-212394][SQL] Correzione del ricaching delle tabelle DSv2""
- SPARK-54753 correzione della perdita di memoria di ArtifactManager
- SPARK-54387 Ripristina "[SC-212394][SQL] Correzione del ricaching delle tabelle DSv2"
- SPARK-54436 Correzione della formattazione degli errori per i controlli dei metadati della tabella incompatibili
-
SPARK-54849 Aggiornare la versione minima di
pyarrowa 18.0.0 - SPARK-54022 Rendere la risoluzione della tabella DSv2 consapevole delle tabelle memorizzate nella cache
- SPARK-54387 Correzione del ricaching delle tabelle DSv2
- SPARK-53924 Ricaricare le tabelle DSv2 nelle viste create usando i piani per ogni accesso alla visualizzazione
-
SPARK-54561 Supporto del punto di interruzione () per
run-tests.py - SPARK-54157 Correzione dell'aggiornamento delle tabelle DSv2 nel set di dati
- SPARK-54830 Ripristinare "[CORE] Enable checksum based indeterminate shuffle retry by default"
- SPARK-54861 Reimpostare il nome del thread di attività in IDLE_TASK_THREAD_NAME al termine dell'attività
- SPARK-54834 Aggiungere nuove interfacce SimpleProcedure e SimpleFunction
- SPARK-54760 DelegatingCatalogExtension come catalogo di sessione supporta sia le funzioni V1 che le funzioni V2
- SPARK-54685 Rimuovere risposte ridondanti sulle metriche osservate
-
SPARK-54853 Controllare
hive.exec.max.dynamic.partitionssempre sul lato Spark - SPARK-54840 Pre-allocazione OrcList
- SPARK-54830 Abilitare per impostazione predefinita il rientro di bilanciamento indeterminato basato su checksum.
-
SPARK-54850 Migliorare
extractShuffleIdsper trovareAdaptiveSparkPlanExecin qualsiasi punto nell'albero del piano - SPARK-54843 L'espressione Try_to_number non funziona per input di stringa vuoto.
- SPARK-54556 Ripristino delle fasi di mappa di shuffle riuscite quando è rilevata una mancata corrispondenza del checksum di shuffle
- SPARK-54760 Ripristina "[SC-215670][SQL] DelegatingCatalogExtension come catalogo di sessione supporta sia le funzioni V1 che V2"
- SPARK-54760 DelegatingCatalogExtension come catalogo di sessione supporta sia le funzioni V1 che V2
- SPARK-54818 TaskMemoryManager ha fallito l'allocazione, dovrebbe registrare lo stack degli errori per aiutare a verificare l'utilizzo della memoria
-
SPARK-54827 Aggiungere la funzione helper
TreeNode.containsTag - SPARK-54777 Ripristinare "[SC-215740][SQL] Modifica della gestione degli errori dropTable in JDBCTableCatalog.dropTable(...)"
- SPARK-54777 Modificata la gestione degli errori di dropTable in JDBCTableCatalog.dropTable(...)
-
SPARK-54817 Riprogettare la logica di risoluzione in
UnpivotTransformer -
SPARK-54820 Rendere
pandas_on_spark_typecompatibile con numpy 2.4.0 -
SPARK-54799 Refactor
UnpivotCoercion - SPARK-54754 OrcSerializer non deve analizzare lo schema ogni volta che viene serializzato
- SPARK-54226 Estendere la compressione Arrow alle UDF Pandas
- SPARK-54787 Usare le comprensioni di lista anziché i loop in pandas
-
SPARK-54690 Rendere
Frame.__repr__insensibile all'ottimizzazione delle frecce - SPARK-46166 Implementazione di pandas.DataFrame.any con axis=None
- SPARK-54696 Pulizia dei buffer di Arrow - Follow-up
- SPARK-54769 Rimuovere il codice morto in conversion.py
- SPARK-54787 Usare la comprensione dell'elenco in pandas _bool_column_labels
-
SPARK-54794 Sopprimere i log di scansione dettagliati
FsHistoryProvider.checkForLogs - SPARK-54745 Correzione dell'errore di importazione di PySpark causato dalla mancanza di UnixStreamServer in Windows
- SPARK-54782 Correggere le versioni di configurazione
- SPARK-54781 Restituire informazioni sulla cache dei modelli in formato JSON
- SPARK-54419 Lettore dello stato di ripartizione offline supporta famiglie a più colonne
- SPARK-54722 Registrare UDF di aggregazione iterativa su gruppi di Pandas per l'utilizzo in SQL
-
SPARK-54762 Rimuovere "[SC-215422][PYTHON] Correggi la firma di overload di
_create_converterecovert" - SPARK-54652 Ripristinare "[SC-215452][SQL] Conversione completa di IDENTIFIER()"
-
SPARK-54762 Correzione
_create_converterecovertfirma di overload - SPARK-52819 Rendere serializzabile KryoSerializationCodec per correggere gli errori java.io.NotSerializableException in vari casi d'uso
- SPARK-54711 Aggiungere un timeout per la connessione di lavoro creata dal daemon
- SPARK-54738 Aggiungere il supporto del profiler per UDF di aggregazione iterativa raggruppata in Pandas
- SPARK-54652 Conversione completa di IDENTIFIER()
- SPARK-54581 Rendere l'opzione fetchsize senza distinzione tra maiuscole e minuscole per il connettore Postgres
- SPARK-54589 Consolidare ArrowStreamAggPandasIterUDFSerializer in ArrowStreamAggPandasUDFSerializer
- SPARK-41916 Distributore Torch: supporta più processi di torchrun per ogni attività se task.gpu.amount > 1
-
SPARK-54707 Refattorizzare
PIVOTla logica principale di risoluzione nelPivotTransformer - SPARK-54706 Rendere DistributedLDAModel funzionante con il file system locale
- SPARK-53616 Introdurre l'API iteratore per la funzione definita dall'utente di aggregazione raggruppata di pandas.
- SPARK-54116 Aggiungere il supporto della modalità off-heap per LongHashedRelation
- SPARK-54656 Rifattorizzare SupportsPushDownVariants in un mix-in ScanBuilder
- SPARK-54687 Aggiungere un file di riferimento con i casi limite di risoluzione dei generatori
- SPARK-54708 Ottimizzare la pulizia della cache ML attraverso la creazione differita di directory
- SPARK-54116 Annullare "[SC-213108][SQL] Aggiungere il supporto della modalità off-heap per LongHashedRelation"
- SPARK-54116 Aggiungere il supporto della modalità off-heap per LongHashedRelation
- SPARK-54443 Estrazione di chiavi di partizione per tutti gli operatori con stato di streaming
- SPARK-54687 Ripristinare "[SC-214791][SQL] Aggiungere un file dorato con i generatori di casi limite di risoluzione"
- SPARK-54116 Ripristina "[SC-213108][SQL] Aggiungere il supporto della modalità off-heap per LongHashedRelation"
- SPARK-54687 Aggiungere un file di riferimento con i casi limite di risoluzione dei generatori
- SPARK-54116 Aggiungere il supporto della modalità off-heap per LongHashedRelation
- SPARK-54420 Introduzione di StatePartitionWriter offline per una singola famiglia di colonne
-
SPARK-54689 Rendere
org.apache.spark.sql.pipelinesil pacchetto interno e rendereEstimatorUtilsprivato - SPARK-54673 Eseguire il refactoring del codice di analisi della sintassi della pipe SQL per la condivisione e il riutilizzo
- SPARK-54668 Aggiungere test per le CTE negli operatori multi-nodo
- SPARK-54669 Rimuovere il cast ridondante in rCTEs
- SPARK-54587 Consolidare tutto il codice correlato runner_conf
- SPARK-54628 Rimuovere tutti gli argomenti super() espliciti non necessari
- SPARK-54675 Aggiungere un timeout di arresto forzato configurabile per il pool di thread di manutenzione StateStore
- SPARK-54639 Evitare la creazione di tabelle non necessarie nei serializer Arrow
- SPARK-49635 Rimuovere il suggerimento di configurazione ANSI nei messaggi di errore CAST
-
SPARK-54664 Pulire il codice correlato a
listenerCachedaconnect.StreamingQueryManager - SPARK-54640 Sostituire select.select con select.poll in UNIX.
-
SPARK-54662 Aggiungere
viztraceredebugpyindev/requirements.txt - SPARK-54632 Aggiungere l'opzione per usare ruff per lint
- SPARK-54585 Risoluzione del rollback dell'archivio di stato quando il thread è in stato interrotto
- SPARK-54172 Merge Into di Schema Evolution deve aggiungere solo le colonne di riferimento
- SPARK-54438 Consolidare ArrowStreamAggArrowIterUDFSerializer in ArrowStreamAggArrowUDFSerializer
- SPARK-54627 Rimuovere le inizializzazioni ridondanti nei serializzatori
- SPARK-54631 Aggiungere il supporto del profiler per la UDF di aggregazione iterativa raggruppata di Arrow
-
SPARK-54316 Riapplicare [SC-213971][CORE][PYTHON][SQL] Consolidare
GroupPandasIterUDFSerializerconGroupPandasUDFSerializer - SPARK-54392 Ottimizzare la comunicazione JVM-Python per lo stato iniziale di TWS
- SPARK-54617 Abilitare la registrazione delle funzioni definite dall'utente aggregata Arrow Grouped Iter per SQL
- SPARK-54544 Abilitare il controllo flake8 F811
-
SPARK-54650 Sposta int nella conversione decimale in
_create_converter_from_pandas -
SPARK-54316 Ripristinare "[SC-213971][CORE][PYTHON][SQL] Consolidare
GroupPandasIterUDFSerializerconGroupPandasUDFSerializer" - SPARK-53687 Introdurre WATERMARK la clausola nell'istruzione SQL
-
SPARK-54316 Consolidare
GroupPandasIterUDFSerializerconGroupPandasUDFSerializer - SPARK-54598 Estrarre la logica per leggere le UDF
-
SPARK-54622 Alzare di livello
RequiresDistributionAndOrderinge le relative interfacce necessarie aEvolving - SPARK-54624 Assicurarsi che il nome utente nella pagina cronologia venga preceduto da un escape
- SPARK-54580 Prendere in considerazione Hive 4.1 in HiveVersionSuite e HiveClientImpl
-
SPARK-54068 Correzione
to_featherper supportare PyArrow 22.0.0 -
SPARK-54618 Alzare di livello
LocalScanaStable -
SPARK-54616 Contrassegna
SupportsPushDownVariantscomeExperimental -
SPARK-54607 Rimuovere il metodo
toStringHelperinutilizzato daAbstractFetchShuffleBlocks.java - SPARK-53615 Introdurre l'API dell'iteratore per l'aggregazione raggruppata UDF in Arrow
- SPARK-54608 Evitare la doppia memorizzazione nella cache del convertitore di tipi in UDTF
-
SPARK-54600 Non usare pickle per salvare/caricare i modelli in
pyspark.ml.connect -
SPARK-54592 Rendi
estimatedSizeprivato - SPARK-54388 Introdurre StatePartitionReader che analizza i byte non elaborati per Single ColFamily
- SPARK-54570 Propagare correttamente la classe di errore in Spark Connect
- SPARK-54577 Ottimizzare le chiamate Py4J nell'inferenza dello schema
- SPARK-54568 Evitare la conversione pandas non necessaria nella creazione di dataframe da ndarray
- SPARK-54576 Aggiungere la documentazione per le nuove funzioni di aggregazione basate su Datasketches
- SPARK-54574 Riabilitare FPGrowth su connessione
- SPARK-54557 Rendere CSV/JSON/XmlOptions e CSV/JSON/XmlInferSchema comparabili
- SPARK-52798 Aggiungere la funzione approx_top_k_combine
- SPARK-54446 FPGrowth supporta il file system locale con formato di file Arrow
-
SPARK-54547 Rinominare la
hostPortvariabile inhostneiTaskSchedulerImpl.(executorLost|logExecutorLoss)metodi - SPARK-54558 Correzione dell'eccezione interna quando vengono usati gestori eccezioni senza BEGIN/END
- SPARK-52923 Consenti a ShuffleManager di controllare la fusione push durante la registrazione di mescolamento
- SPARK-54474 Rimuovere il report XML sui test che dovrebbero non riuscire
- SPARK-54473 Aggiungere il supporto di lettura e scrittura Avro per il tipo TIME
- SPARK-54472 Aggiungere il supporto di lettura e scrittura ORC per il tipo TIME
- SPARK-54463 Aggiungere il supporto per la serializzazione e la deserializzazione CSV per il tipo TIME
- SPARK-52588 Approx_top_k: accumulare e stimare
- SPARK-54461 Aggiungere il supporto di serializzazione e deserializzazione XML per il tipo TIME
- SPARK-54451 Aggiungere il supporto per la serializzazione e la deserializzazione JSON per il tipo TIME
- SPARK-54537 Correzione di SparkConnectDatabaseMetaData getSchemas/getTables nei cataloghi privi della funzionalità di gestione dello spazio dei nomi.
- SPARK-54442 Aggiungere funzioni di conversione numerica per il tipo TIME
- SPARK-54451 Ripristinare "[SC-212861][SQL] Aggiungere il supporto per la serializzazione e la deserializzazione JSON per il tipo TIME"
- SPARK-54492 Rinominare _LEGACY_ERROR_TEMP_1201 e aggiungere sqlState
- SPARK-54531 Introduzione a ArrowStreamAggPandasUDFSerializer
- SPARK-54223 Aggiungere il contesto di attività e le metriche dei dati ai log dell'esecutore Python
- SPARK-54272 Aggiungere il aggTime per SortAggregateExec
- SPARK-53469 Possibilità di eseguire la pulizia delle operazioni di shuffle nel server Thrift
-
SPARK-54219 Configurazione del supporto
spark.cleaner.referenceTracking.blocking.timeout - SPARK-54475 Aggiungere master-server, branch-4.0-client, Python 3.11
- SPARK-54451 Aggiungere il supporto per la serializzazione e la deserializzazione JSON per il tipo TIME
- SPARK-54285 Informazioni sul fuso orario della cache per evitare costose conversioni di timestamp
-
SPARK-49133 Rendere il membro
MemoryConsumer#usedatomico affinché il codice utente non causi deadlock. - SPARK-46166 Implementazione di pandas.DataFrame.any con axis=1
- SPARK-54532 Aggiunta del supporto per sqlstate per PySparkException
- Spark-54435 spark-pipelines init deve evitare di sovrascrivere la directory esistente
- SPARK-54247 Chiudere esplicitamente il socket per util._load_from_socket
Supporto del driver ODBC/JDBC di Databricks
Databricks supporta i driver ODBC/JDBC rilasciati negli ultimi 2 anni. Scaricare i driver rilasciati di recente e aggiornare (scaricare ODBC, scaricare JDBC).
Ambiente di sistema
- Sistema operativo: Ubuntu 24.04.3 LTS
- Java: Zulu21.42+19-CA
- Scala: 2.13.16
- python: 3.12.3
- R: 4.5.1
- Delta Lake: 4.0.1
Librerie installate di Python
| Libreria | Versione | Libreria | Versione | Libreria | Versione |
|---|---|---|---|---|---|
| aiohappyeyeballs | 2.4.4 | aiohttp | 3.11.10 | aiosignal | 1.2.0 |
| documento annotato | 0.0.4 | tipi annotati | 0.7.0 | anyio | 4.7.0 |
| argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 | arro3-core | 0.6.5 |
| freccia | 1.3.0 | asttoken | 3.0.0 | astunparse | 1.6.3 |
| async-lru | 2.0.4 | att. | 24.3.0 | comando automatico | 2.2.2 |
| azure-common | 1.1.28 | azure-core | 1.37.0 | azure-identity (servizio di identità Azure) | 1.20.0 |
| azure-mgmt-core | 1.6.0 | azure-mgmt-web | 8.0.0 | Azure Storage Blob | 12.28.0 |
| file di archiviazione Azure Data Lake | 12.22.0 | Babele | 2.16.0 | backports.tarfile | 1.2.0 |
| beautifulsoup4 | 4.12.3 | nero | 24.10.0 | candeggiare | 6.2.0 |
| indicatore di direzione | 1.7.0 | boto3 | 1.40.45 | botocore | 1.40.45 |
| cachetools (strumento per la gestione della cache) | 5.5.1 | certifi | 2025.4.26 | cffi | 1.17.1 |
| chardet | 4.0.0 | normalizzatore di set di caratteri | 3.3.2 | fai clic | 8.1.8 |
| cloudpickle (libreria Python per la serializzazione degli oggetti) | 3.0.0 | comunicazione | 0.2.1 | contourpy | 1.3.1 |
| criptografia | 44.0.1 | ciclista | 0.11.0 | Cython, un linguaggio di programmazione | 3.1.5 |
| databricks-agents | 1.9.1 | Databricks SDK | 0.67.0 | dataclasses-json | 0.6.7 |
| dbus-python | 1.3.2 | debugpy | 1.8.11 | Decoratore | 5.1.1 |
| defusedxml (una libreria per migliorare la sicurezza nell'elaborazione di XML) | 0.7.1 | deltalake | 1.1.4 | Deprecated | 1.2.18 |
| distlib | 0.3.9 | Conversione da docstring a markdown | 0.11 | esecuzione | 1.2.0 |
| panoramica delle facette | 1.1.1 | fastapi | 0.128.0 | fastjsonschema (Una libreria per la convalida veloce dei dati JSON) | 2.21.1 |
| blocco dei file | 3.17.0 | fonttools (strumenti per caratteri) | 4.55.3 | fqdn (nome di dominio completo) | 1.5.1 |
| frozenlist | 1.5.0 | fsspec | 2023.5.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.28.1 | google-auth (autenticazione Google) | 2.47.0 |
| google-cloud-core | 2.5.0 | archiviazione su Google Cloud | 3.7.0 | google-crc32c | 1.8.0 |
| google-resumable-media (media riprendibile di Google) | 2.8.0 | googleapis-common-protos | 1.65.0 | grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.16.0 | hf-xet | 1.2.0 |
| httpcore | 1.0.9 | httplib2 | 0.20.4 | httpx | 0.28.1 |
| huggingface_hub | 1.2.4 | IDNA | 3.7 | importlib_metadata | 8.5.0 |
| inflettere | 7.3.1 | iniconfig | 1.1.1 | ipyflow-core | 0.0.209 |
| ipykernel | 6.29.5 | ipython | 8.30.0 | ipython-genutils | 0.2.0 |
| ipywidgets | 7.8.1 | isodate | 0.7.2 | isodurazione | 20.11.0 |
| jaraco.collections | 5.1.0 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
| jaraco.text | 3.12.1 | jedi | 0.19.2 | Jinja2 | 3.1.6 |
| jiter | 0.12.0 | jmespath | 1.0.1 | joblib | 1.4.2 |
| json5 | 0.9.25 | jsonpatch | 1.33 | jsonpointer | 3.0.0 |
| jsonschema | 4.23.0 | jsonschema-specifications | 2023.7.1 | eventi-jupyter | 0.12.0 |
| jupyter-lsp | 2.2.5 | jupyter_client | 8.6.3 | jupyter_core | 5.7.2 |
| jupyter_server | 2.15.0 | terminali_del_server_Jupyter | 0.5.3 | jupyterlab | 4.3.4 |
| jupyterlab_pygments | 0.3.0 | jupyterlab_server | 2.27.3 | jupyterlab_widgets | 1.1.11 |
| kiwisolver | 1.4.8 | langchain-core | 1.2.6 | langchain-openai | 1.1.6 |
| langsmith | 0.6.1 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
| lazr.uri | 1.0.6 | litellm | 1.75.9 | markdown-it-py | 2.2.0 |
| MarkupSafe | 3.0.2 | zefiro | 3.26.2 | matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | mccabe | 0.7.0 | mdurl | 0.1.0 |
| Mistune | 3.1.2 | mlflow versione leggera | 3.8.1 | mmh3 | 5.2.0 |
| more-itertools | 10.3.0 | msal | 1.34.0 | msal-extensions | 1.3.1 |
| multidict | 6.1.0 | mypy-extensions | 1.0.0 | nbclient | 0.10.2 |
| nbconvert | 7.16.6 | nbformat | 5.10.4 | nest-asyncio | 1.6.0 |
| nodeenv | 1.10.0 | taccuino | 7.3.2 | notebook_shim | 0.2.4 |
| numpy | 2.1.3 | oauthlib | 3.2.2 | OpenAI | 2.14.0 |
| opentelemetry-api | 1.39.1 | opentelemetry-proto | 1.39.1 | opentelemetry-sdk | 1.39.1 |
| Convenzioni Semanticche di OpenTelemetry | 0.60b1 | orjson | 3.11.5 | sostituisce | 7.4.0 |
| imballaggio | 24,2 | Panda | 2.2.3 | pandocfilters | 1.5.0 |
| parso | 0.8.4 | pathspec | 0.10.3 | vittima | 1.0.1 |
| pexpect | 4.8.0 | guanciale | 11.1.0 | seme | 25.0.1 |
| platformdirs | 4.3.7 | plotly (software di visualizzazione dati) | 5.24.1 | connettivita | 1.5.0 |
| prometheus_client | 0.21.1 | prompt-toolkit | 3.0.43 | propcache | 0.3.1 |
| proto-plus | 1.27.0 | protobuf | 5.29.4 | psutil | 5.9.0 |
| psycopg2 | 2.9.11 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| pyarrow | 21.0.0 | pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 |
| pyccolo | 0.0.71 | pycparser (un parser scritto in Python) | 2.21 | pydantic | 2.10.6 |
| pydantic_core | 2.27.2 | pyflakes | 3.2.0 | Pygments | 2.19.1 |
| PyGObject | 3.48.2 | pyiceberg | 0.10.0 | PyJWT | 2.10.1 |
| pyodbc | 5.2.0 | pyparsing | 3.2.0 | pyright | 1.1.394 |
| piroaring | 1.0.3 | pytest | 8.3.5 | python-dateutil (libreria Python per la gestione delle date) | 2.9.0.post0 |
| python-dotenv | 1.2.1 | python-json-logger (registratore JSON per Python) | 3.2.1 | python-lsp-jsonrpc | 1.1.2 |
| python-lsp-server | 1.12.2 | pytoolconfig | 1.2.6 | pytz | 2024.1 |
| PyYAML | 6.0.2 | pyzmq | 26.2.0 | Riferimento | 0.30.2 |
| regex | 2024.11.6 | richieste | 2.32.3 | requests-toolbelt | 1.0.0 |
| rfc3339-validator | 0.1.4 | rfc3986-validator | 0.1.1 | ricco | 13.9.4 |
| corda | 1.13.0 | rpds-py | 0.22.3 | rsa | 4.9.1 |
| s3transfer | 0.14.0 | scikit-learn | 1.6.1 | scipy | 1.15.3 |
| Seaborn | 0.13.2 | Send2Trash | 1.8.2 | setuptools (pacchetto Python per gestire la configurazione e la distribuzione) | 78.1.1 |
| "Shellingham" | 1.5.4 | sei | 1.17.0 | smmap | 5.0.0 |
| sniffio | 1.3.0 | contenitori ordinati | 2.4.0 | colino per la zuppa | 2.5 |
| sqlparse | 0.5.5 | ssh-import-id (comando per l'importazione di chiavi SSH) | 5.11 | dati accatastati | 0.6.3 |
| starlette | 0.50.0 | strictyaml | 1.7.3 | tenacità | 9.0.0 |
| finito | 0.17.1 | threadpoolctl | 3.5.0 | tiktoken | 0.12.0 |
| tinycss2 | 1.4.0 | tokenize_rt | 6.1.0 | tokenizzatori | 0.22.2 |
| tomli | 2.0.1 | tornado | 6.5.1 | tqdm | 4.67.1 |
| traitlets (una libreria per la configurazione dei parametri nei programmi Python) | 5.14.3 | typeguard | 4.3.0 | typer-slim | 0.21.1 |
| types-python-dateutil | 2.9.0.20251115 | ispezione di digitazione | 0.9.0 | typing_extensions | 4.12.2 |
| tzdata | 2024.1 | ujson (una libreria per la gestione di JSON in Python) | 5.10.0 | aggiornamenti non supervisionati | 0,1 |
| Modello URI | 1.3.0 | urllib3 | 2.3.0 | uuid_utils | 0.12.0 |
| uvicorn | 0.40.0 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth (funzione per determinare la larghezza dei caratteri) | 0.2.5 | webcolors | 25.10.0 | codifiche web | 0.5.1 |
| cliente WebSocket | 1.8.0 | Che cosa è la patch | 1.0.2 | ruota | 0.45.1 |
| ogni volta | 0.7.3 | widgetsnbextension | 3.6.6 | rapito | 1.17.0 |
| yapf | 0.40.2 | yarl | 1.18.0 | Zipp | 3.21.0 |
| zstandard | 0.23.0 |
Librerie R installate
Le librerie R vengono installate dallo snapshot CRAN del Posit Package Manager il 20 novembre 2025.
| Libreria | Versione | Libreria | Versione | Libreria | Versione |
|---|---|---|---|---|---|
| freccia | 22.0.0 | askpass | 1.2.1 | assicura che | 0.2.1 |
| retroportazioni | 1.5.0 | base | 4.5.1 | base64enc | 0.1-3 |
| bigD | 0.3.1 | pezzo | 4.6.0 | bit 64 | 4.6.0-1 |
| bitops | 1.0-9 | massa amorfa | 1.2.4 | boot | 1,3-30 |
| fermentare | 1.0-10 | Brio | 1.1.5 | Scopa | 1.0.10 |
| bslib | 0.9.0 | cashmere | 1.1.0 | chiamante | 3.7.6 |
| caret | 7.0-1 | cellranger | 1.1.0 | cronometro | 2.3-62 |
| classe | 7.3-22 | CLI | 3.6.5 | Clipr | 0.8.0 |
| orologio | 0.7.3 | raggruppamento | 2.1.6 | strumenti per la codifica | 0.2-20 |
| segno comune | 2.0.0 | compilatore | 4.5.1 | config | 0.3.2 |
| Confuso | 1.2.0 | cpp11 | 0.5.2 | crayon | 1.5.3 |
| credentials | 2.0.3 | curva | 7.0.0 | tabella di dati | 1.17.8 |
| Insiemi di dati | 4.5.1 | DBI | 1.2.3 | dbplyr | 2.5.1 |
| descrizione | 1.4.3 | strumenti per sviluppatori | 2.4.6 | diagramma | 1.6.5 |
| diffobj | 0.3.6 | digerire | 0.6.39 | illuminazione rivolta verso il basso | 0.4.5 |
| dplyr | 1.1.4 | dtplyr | 1.3.2 | e1071 | 1.7-16 |
| puntini di sospensione | 0.3.2 | valutare | 1.0.5 | fan | 1.0.7 |
| colori | 2.1.2 | mappatura veloce | 1.2.0 | fontawesome | 0.5.3 |
| forzati | 1.0.1 | foreach | 1.5.2 | straniero | 0.8 - 86 |
| fs | 1.6.6 | futuro | 1.68.0 | futuro.applicare | 1.20.0 |
| fare gargarismi | 1.6.0 | elementi generici | 0.1.4 | gert | 2.2.0 |
| ggplot2 | 4.0.1 | gh | 1.5.0 | git2r | 0.36.2 |
| gitcreds | 0.1.2 | glmnet | 4.1-10 | elementi globali | 0.18.0 |
| colla | 1.8.0 | Google Drive | 2.1.2 | googlesheets4 | 1.1.2 |
| Gower | 1.0.2 | grafica | 4.5.1 | grDispositivi | 4.5.1 |
| grid | 4.5.1 | gridExtra | 2.3 | gsubfn | 0.7 |
| gt | 1.1.0 | gtable | 0.3.6 | casco protettivo | 1.4.2 |
| rifugio | 2.5.5 | più alto | 0.11 | HMS | 1.1.4 |
| strumenti HTML | 0.5.8.1 | htmlwidgets | 1.6.4 | httpuv | 1.6.16 |
| httr | 1.4.7 | httr2 | 1.2.1 | documenti di identità | 1.0.1 |
| ini | 0.3.1 | ipred | 0.9-15 | banderelle isografiche | 0.2.7 |
| Iteratori | 1.0.14 | jquerylib | 0.1.4 | jsonlite | 2.0.0 |
| juicyjuice | 0.1.0 | KernSmooth | 2.23-22 | knitr | 1.50 |
| etichettatura | 0.4.3 | più tardi | 1.4.4 | reticolo | 0,22-5 |
| lava | 1.8.2 | ciclo di vita | 1.0.4 | ascolta | 0.10.0 |
| litedown | 0.8 | lubridate | 1.9.4 | magrittr | 2.0.4 |
| Markdown | 2.0 | Massa | 7.3-60.0.1 | Matrix | 1.6-5 |
| memorizza | 2.0.1 | metodi | 4.5.1 | mgcv | 1.9-1 |
| MIME | 0.13 | miniUI | 0.1.2 | mlflow | 3.6.0 |
| ModelMetrics | 1.2.2.2 | modelr | 0.1.11 | nlme | 3.1-164 |
| nnet | 7.3-19 | Derivazione numerica | 2016.8-1.1 | openssl | 2.3.4 |
| rà | 0.2.0 | parallelo | 4.5.1 | parallelamente | 1.45.1 |
| pilastro | 1.11.1 | pkgbuild | 1.4.8 | pkgconfig | 2.0.3 |
| pkgdown | 2.2.0 | pkgload | 1.4.1 | plogr | 0.2.0 |
| plyr | 1.8.9 | elogio | 1.0.0 | prettyunits | 1.2.0 |
| pROC | 1.19.0.1 | processx | 3.8.6 | prodlim | 2025.04.28 |
| profvis | 0.4.0 | Avanzamento | 1.2.3 | progressr | 0.18.0 |
| promesse | 1.5.0 | proto / prototipo | 1.0.0 | intermediario | 0,4–27 |
| P.S. | 1.9.1 | purrr | 1.2.0 | R6 | 2.6.1 |
| ragg | 1.5.0 | randomForest | 4.7-1.2 | rappdirs | 0.3.3 |
| rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp (una libreria per il linguaggio di programmazione R) | 1.1.0 |
| RcppEigen | 0.3.4.0.2 | reagibile | 0.4.4 | reactR | 0.6.1 |
| readr | 2.1.6 | readxl (software per leggere documenti Excel) | 1.4.5 | ricette | 1.3.1 |
| nuovo incontro | 2.0.0 | rematch2 | 2.1.2 | Telecomandi | 2.5.0 |
| esempio riproducibile (reprex) | 2.1.1 | reshape2 | 1.4.5 | rlang | 1.1.6 |
| rmarkdown | 2.30 | RODBC | 1.3-26 | roxygen2 | 7.3.3 |
| rpart | 4.1.23 | rprojroot | 2.1.1 | Rserve | 1,8-15 |
| RSQLite | 2.4.4 | rstudioapi | 0.17.1 | rversions | 3.0.0 |
| rvest | 1.0.5 | S7 | 0.2.1 | insolenza | 0.4.10 |
| Scala | 1.4.0 | selettore | 0,4-2 | informazioni sulla sessione | 1.2.3 |
| forma | 1.4.6.1 | brillante | 1.11.1 | sourcetools | 0.1.7-1 |
| sparklyr | 1.9.3 | SparkR | 4.1.0 | sparsevctrs | 0.3.4 |
| spaziale | 7.3-17 | Spline | 4.5.1 | sqldf | 0,4-11 |
| SQUAREM | 2021.1 | statistiche | 4.5.1 | statistiche4 | 4.5.1 |
| perizoma | 1.8.7 | stringr | 1.6.0 | Sopravvivenza | 3,5-8 |
| spavalderia | 5.17.14.1 | sys | 3.4.3 | systemfonts | 1.3.1 |
| tcltk | 4.5.1 | testthat | 3.3.0 | modellazione del testo | 1.0.4 |
| Tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | cambio d'ora | 0.3.0 | data e ora | 4051.111 |
| tinytex | 0.58 | strumenti | 4.5.1 | tzdb | 0.5.0 |
| verificatore di URL | 1.0.1 | Usa questo | 3.2.1 | utf8 | 1.2.6 |
| Utilità | 4.5.1 | UUID (Identificatore Unico Universale) | 1.2-1 | V8 | 8.0.1 |
| vctrs | 0.6.5 | viridisLite | 0.4.2 | vrooom | 1.6.6 |
| Waldo | 0.6.2 | baffi | 0.4.1 | withr | 3.0.2 |
| xfun | 0,54 | xml2 | 1.5.0 | xopen | 1.0.1 |
| xtable | 1.8-4 | yaml | 2.3.10 | zeallot | 0.2.0 |
| zip | 2.3.3 |
Librerie Java e Scala installate (versione cluster Scala 2.13)
| ID del Gruppo | ID dell'artefatto | Versione |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.15.3 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.681 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.681 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.681 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.681 |
| com.amazonaws | aws-java-sdk-config (configurazione SDK Java per AWS) | 1.12.681 |
| com.amazonaws | aws-java-sdk-core | 1.12.681 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.681 |
| com.amazonaws | aws-java-sdk-directconnect (strumento per la connessione diretta in Java di AWS) | 1.12.681 |
| com.amazonaws | aws-java-sdk-directory | 1.12.681 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.681 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.681 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.681 |
| com.amazonaws | aws-java-sdk-efs | 1.12.681 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.681 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.681 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.681 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.681 |
| com.amazonaws | aws-java-sdk-emr | 1.12.681 |
| com.amazonaws | AWS Java SDK per Glacier | 1.12.681 |
| com.amazonaws | aws-java-sdk-glue (collegamento SDK Java AWS) | 1.12.681 |
| com.amazonaws | aws-java-sdk-iam | 1.12.681 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.681 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.681 |
| com.amazonaws | aws-java-sdk-kms | 1.12.681 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.681 |
| com.amazonaws | aws-java-sdk-logs | 1.12.681 |
| com.amazonaws | AWS Java SDK Machine Learning | 1.12.681 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.681 |
| com.amazonaws | aws-java-sdk-rds | 1.12.681 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.681 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.681 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.681 |
| com.amazonaws | aws-java-sdk-ses | 1.12.681 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.681 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.681 |
| com.amazonaws | aws-java-sdk-sns | 1.12.681 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.681 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.681 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK di AWS per Java per Storage Gateway) | 1.12.681 |
| com.amazonaws | aws-java-sdk-sts | 1.12.681 |
| com.amazonaws | aws-java-sdk-support (supporto del kit di sviluppo software Java per AWS) | 1.12.681 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.681 |
| com.amazonaws | jmespath-java | 1.12.681 |
| com.clearspring.analytics | torrente | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.53.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | ombreggiato criogenico | 4.0.3 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | compagno di classe | 1.5.1 |
| com.fasterxml.jackson.core | Annotazioni di Jackson | 2.18.2 |
| com.fasterxml.jackson.core | jackson-core | 2.18.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.3 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.caffeine | caffeina | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | riferimento_nativo-java | 1.1 |
| com.github.fommil.netlib | riferimento_nativo-java | 1.1-indigeni |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java | 1.1-indigeni |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-indigeni |
| com.github.fommil.netlib | netlib-sistema_nativo-linux-x86_64 | 1.1-indigeni |
| com.github.luben | zstd-jni (libreria open-source per compressione con Java Native Interface) | 1.5.7-6 |
| com.github.virtuald | curvesapi | 1,08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos | 2.5.1 |
| com.google.auth | google-auth-library-credentials | 1.20.0 |
| com.google.auth | google-auth-library-oauth2-http | 1.20.0 |
| com.google.auto.value | annotazioni a valore automatico | 1.10.4 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.11.0 |
| com.google.crypto.tink | tink | 1.16.0 |
| com.google.errorprone | annotazioni soggette a errori | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 25.2.10 |
| com.google.guava | errore di accesso | 1.0.3 |
| com.google.guava | guava | 33.4.8-jre |
| com.google.http-client | google-http-client | 1.43.3 |
| com.google.http-client | google-http-client-gson | 1.43.3 |
| com.google.j2objc | j2objc-annotations | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | profilatore | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre11 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre8 |
| com.ning | compress-lzf (algoritmo di compressione) | 1.1.2 |
| com.sun.mail | javax.mail (package Java per la gestione della posta elettronica) | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | JSON | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenti_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | parser di univocità | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.10.0 |
| commons-codec (libreria per la codifica comune) | commons-codec (libreria per la codifica comune) | 1.19.0 |
| collezioni-comuni | collezioni-comuni | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| funzione di caricamento file dei Commons | funzione di caricamento file dei Commons | 1.6.0 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.21.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging (no translation needed) | commons-logging (no translation needed) | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.4 |
| dev.ludovic.netlib | Blas | 3.0.4 |
| dev.ludovic.netlib | LAPACK | 3.0.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compressore d'aria | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.9 |
| io.dropwizard.metrics | annotazione delle metriche | 4.2.37 |
| io.dropwizard.metrics | nucleo delle metriche | 4.2.37 |
| io.dropwizard.metrics | metrics-graphite | 4.2.37 |
| io.dropwizard.metrics | metriche-controlli di salute | 4.2.37 |
| io.dropwizard.metrics | metrics-jetty10 | 4.2.37 |
| io.dropwizard.metrics | metrics-jmx | 4.2.37 |
| io.dropwizard.metrics | metrics-json (Specificare ulteriormente se necessario a seconda del contesto) | 4.2.37 |
| io.dropwizard.metrics | metrics-jvm | 4.2.37 |
| io.dropwizard.metrics | metriche-servlet | 4.2.37 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all | 4.2.7.Final |
| io.netty | netty-buffer | 4.2.7.Final |
| io.netty | netty-codec | 4.2.7.Final |
| io.netty | netty-codec-base | 4.2.7.Final |
| io.netty | netty-codec-classes-quic | 4.2.7.Final |
| io.netty | netty-codec-compression | 4.2.7.Final |
| io.netty | netty-codec-http (codec HTTP di Netty) | 4.2.7.Final |
| io.netty | netty-codec-http2 | 4.2.7.Final |
| io.netty | netty-codec-http3 | 4.2.7.Final |
| io.netty | netty-codec-marshalling | 4.2.7.Final |
| io.netty | netty-codec-native-quic | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-osx-aarch_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-osx-x86_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-windows-x86_64 |
| io.netty | netty-codec-protobuf | 4.2.7.Final |
| io.netty | netty-codec-socks | 4.2.7.Final |
| io.netty | netty-common | 4.2.7.Final |
| io.netty | netty-handler | 4.2.7.Final |
| io.netty | netty-handler-proxy | 4.2.7.Final |
| io.netty | netty-resolver | 4.2.7.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.74.Final |
| io.netty | netty-transport | 4.2.7.Final |
| io.netty | netty-transport-classes-epoll | 4.2.7.Final |
| io.netty | netty-transport-classes-io_uring | 4.2.7.Final |
| io.netty | netty-transport-classes-kqueue | 4.2.7.Final |
| io.netty | netty-transport-native-epoll | 4.2.7.Final |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-riscv64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.2.7.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.2.7.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-comune | 4.2.7.Final |
| io.opencensus | opencensus-api | 0.31.1 |
| io.opencensus | opencensus-contrib-http-util | 0.31.1 |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | sempliceclient_comune | 0.16.1-databricks |
| io.prometheus | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometheus | simpleclient_pushgateway | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel_agent | 0.16.1-databricks |
| io.prometheus.jmx | collezionista | 0.18.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | attivazione | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | Java Transaction API (JTA) | 1.1 |
| javax.transaction | API per le transazioni | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.14.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | sottaceto | 1,5 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv (formato CSV avanzato) | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk (kit di sviluppo software per l'ingestione dati) | 0.9.6 |
| net.sourceforge.f2j | arpack_combinato_tutto | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.13.1 |
| org.antlr | modello di stringa | 3.2.1 |
| org.apache.ant | formica | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant launcher | 1.10.11 |
| org.apache.arrow | compressione freccia | 18.3.0 |
| org.apache.arrow | formato a freccia | 18.3.0 |
| org.apache.arrow | arrow-nucleo-di-memoria | 18.3.0 |
| org.apache.arrow | arrow-memory-netty | 18.3.0 |
| org.apache.arrow | patch-buffer-netty-memoria-freccia | 18.3.0 |
| org.apache.arrow | freccia-vettore | 18.3.0 |
| org.apache.avro | Avro | 1.12.1 |
| org.apache.avro | avro-ipc | 1.12.1 |
| org.apache.avro | avro-mapred | 1.12.1 |
| org.apache.commons | commons-collections4 | 4.5.0 |
| org.apache.commons | commons-compress | 1.28.0 |
| org.apache.commons | commons-configuration2 | 2.11.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.19.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | testo comune | 1.14.0 |
| org.apache.curator | cliente del curatore | 5.9.0 |
| org.apache.curator | framework del curatore | 5.9.0 |
| org.apache.curator | ricette del curatore | 5.9.0 |
| org.apache.datasketches | datasketches-java | 6.2.0 |
| org.apache.datasketches | datasketches-memory | 3.0.2 |
| org.apache.derby | derby sportivo | 10.14.2.0 |
| org.apache.hadoop | runtime del client Hadoop | 3.4.2 |
| org.apache.hive | hive-beeline | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | Hive-JDBC | 2.3.10 |
| org.apache.hive | hive-llap-client | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | hive-serde | 2.3.10 |
| org.apache.hive | spessori del sistema Hive | 2.3.10 |
| org.apache.hive | API di archiviazione Hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | Hive-shims-common | 2.3.10 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | Edera | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | log4j-struttura-modello-json | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.2.0-shaded-protobuf |
| org.apache.orc | formato orc | 1.1.1-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 2.2.0-shaded-protobuf |
| org.apache.orc | orc-shims | 2.2.0 |
| org.apache.poi | POI | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4.28 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | annotazioni per il pubblico | 0.13.0 |
| org.apache.zookeeper | guardiano dello zoo | 3.9.4 |
| org.apache.zookeeper | guardiano dello zoo-juta | 3.9.4 |
| org.checkerframework | verificatore qualità | 3.43.0 |
| org.codehaus.janino | Commons-Compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | Datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-alpn-client | 10.0.26 |
| org.eclipse.jetty | jetty-client | 10.0.26 |
| org.eclipse.jetty | jetty-http | 10.0.26 |
| org.eclipse.jetty | jetty-io | 10.0.26 |
| org.eclipse.jetty | jetty-jndi | 10.0.26 |
| org.eclipse.jetty | Jetty Plus | 10.0.26 |
| org.eclipse.jetty | jetty-proxy | 10.0.26 |
| org.eclipse.jetty | sicurezza del molo | 10.0.26 |
| org.eclipse.jetty | Jetty Server | 10.0.26 |
| org.eclipse.jetty | jetty-servlet | 10.0.26 |
| org.eclipse.jetty | jetty-servlets | 10.0.26 |
| org.eclipse.jetty | jetty-util | 10.0.26 |
| org.eclipse.jetty | applicazione web di Jetty | 10.0.26 |
| org.eclipse.jetty | jetty-xml | 10.0.26 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-localizzatore | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | localizzatore di risorse OSGi | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged (riconfezionato) | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (servlet del contenitore Jersey) | 2.41 |
| org.glassfish.jersey.containers | modulo-nucleo-servlet-contenitore-jersey (if a translation is required as per the context) | 2.41 |
| org.glassfish.jersey.core | jersey-client | 2.41 |
| org.glassfish.jersey.core | jersey-comune | 2.41 |
| org.glassfish.jersey.core | Jersey-server | 2.41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41 |
| org.hibernate.validator | validatore di Hibernate | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging (strumento di registrazione per JBoss) | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jline | jline | 3.27.1-jdk8 |
| org.joda | joda-convert | 1.7 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.locationtech.jts | jts-core | 1.20.0 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.22.1 |
| org.objenesis | objenesis | 3.4 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rocksdb | rocksdbjni | 9.8.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.4.0 |
| org.scala-sbt | interfaccia di prova | 1.0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | compatibile con scalatest | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | xz | 1.10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1,5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| Stax | stax-api | 1.0.1 |