Condividi tramite


Databricks Runtime 18.1 (beta)

Le note sulla versione seguenti forniscono informazioni su Databricks Runtime 18.1 (Beta).

Questa versione incorpora tutte le funzionalità, i miglioramenti e le correzioni di bug di tutte le versioni precedenti di Databricks Runtime. Databricks ha rilasciato questa versione a febbraio 2026.

Important

Databricks Runtime 18.1 è in versione beta. Il contenuto degli ambienti supportati potrebbe cambiare durante la versione beta. Le modifiche possono includere l'elenco dei pacchetti o delle versioni dei pacchetti installati.

Nuove funzionalità e miglioramenti

Il caricatore automatico utilizza gli eventi di file, quando disponibili, per impostazione predefinita.

Il caricatore automatico utilizza per impostazione predefinita gli eventi di file durante il caricamento da un percorso esterno con eventi di file abilitati, il che riduce le operazioni di elenco e i costi rispetto all'elenco di directory. Vedere Panoramica del caricatore automatico con eventi di file. Gli eventi di file non vengono usati se il codice di flusso imposta useIncrementalListing o useNotifications. Per usare l'elenco di directory, impostare useManagedFileEvents su false.

Scritture ottimizzate per le tabelle partizionate del Catalogo Unity create con CRTAS

Le scritture ottimizzate si applicano alle tabelle del catalogo Unity partizionate create da CREATE OR REPLACE TABLE ... AS SELECT (CRTAS), producendo meno file di dimensioni maggiori. Questo comportamento è abilitato per impostazione predefinita. Per disabilitare, impostare spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled su false.

Supporto dei tipi di dati DATETIMEOFFSET per Microsoft Azure Synapse

Il DATETIMEOFFSET tipo di dati è supportato per le connessioni a Microsoft Azure Synapse.

Commenti della tabella Google BigQuery

Le descrizioni delle tabelle di Google BigQuery vengono risolte ed esposte come commenti di tabella.

Evoluzione dello schema con istruzioni INSERT

Usare la WITH SCHEMA EVOLUTION clausola con istruzioni SQL INSERT per evolvere automaticamente lo schema della tabella di destinazione durante le operazioni di inserimento. La clausola è supportata per INSERT INTO, INSERT OVERWRITE e INSERT INTO ... REPLACE. Per esempio:

INSERT WITH SCHEMA EVOLUTION INTO students TABLE visiting_students_with_additional_id;

Lo schema della tabella Delta Lake di destinazione viene aggiornato per supportare colonne aggiuntive o tipi ampliati dall'origine. Per informazioni dettagliate, vedere Evoluzione dello schema e INSERT sintassi delle istruzioni.

Valori NULL della struct conservati nelle operazioni INSERT

INSERT le operazioni con evoluzione dello schema o cast implicito preservano NULL i valori struct quando le tabelle di origine e di destinazione hanno ordini di campi struct diversi.

Supporto per le transazioni a più istruzioni di Delta Sharing

Le tabelle Delta Sharing che utilizzano le modalità di condivisione con URL o token cloud prefirmati supportano transazioni con più istruzioni. Al primo accesso all'interno di una transazione, la versione della tabella viene bloccata e riutilizzata per tutte le letture successive in tale transazione.

Limitations:

  • Il viaggio nel tempo, il feed di dati delle modifiche e lo streaming non sono supportati.
  • Le transazioni con più istruzioni non sono supportate nelle tabelle condivise senza cronologia.
  • Le visualizzazioni condivise e le entità esterne non sono consentite in un ambiente di calcolo non attendibile.

Checkpoint dei DataFrame nei percorsi del volume

I checkpoint del dataframe supportano i percorsi dei volumi di Unity Catalog. Configurare il percorso del checkpoint nel calcolo dedicato usando SparkContext.setCheckpointDir o configurare spark.checkpoint.dir nel calcolo standard.

I comandi SQL non vengono più eseguiti nuovamente quando si chiama cache()

I comandi SQL non vengono più eseguiti nuovamente quando si chiama .cache() sul dataframe del risultato. Sono inclusi comandi come SHOW TABLES e SHOW NAMESPACES.

parse_timestamp funzione SQL

La parse_timestamp funzione SQL analizza le stringhe di timestamp rispetto a più modelli. Viene fotonizzata per una valutazione più veloce con timestamp in vari formati. Per informazioni sulla formattazione dei modelli datetime, vedere Modelli datetime .

Supporto del cursore SQL nelle istruzioni composte

Le istruzioni composte di scripting SQL supportano ora l'elaborazione del cursore. Usare DECLARE CURSOR per definire un cursore, quindi l'istruzione OPEN, l'istruzione FETCH e l'istruzione CLOSE per eseguire la query e utilizzare le righe una alla volta. I cursori possono usare marcatori di parametro e gestori di condizioni, ad NOT FOUND esempio per l'elaborazione riga per riga.

Funzioni di schizzo top-k approssimative

Le nuove funzioni consentono di creare e combinare schizzi top-K approssimativi per l'aggregazione top-K distribuita:

  • approx_top_k_accumulate: crea uno schizzo per gruppo. Vedere la funzione di aggregazione approx_top_k_accumulatee.
  • approx_top_k_combine: unisce schizzi. Vedere la funzione di aggregazione approx_top_k_combinee.
  • approx_top_k_estimate: restituisce i primi K elementi con conteggi stimati. Vedi la funzione approx_top_k_estimate.

Per altre informazioni, vedere approx_top_k Funzioni di aggregazione e Funzioni predefinite.

Funzioni di bozza tupla

Le nuove funzioni di aggregazione e scalari per lo schizzo della tupla supportano conteggio e aggregazione distinti su coppie di riepilogo chiave.

Funzioni di aggregazione:

Funzioni scalari:

  • tuple_sketch_estimate
  • tuple_sketch_summary
  • tuple_sketch_theta
  • tuple_union
  • tuple_intersection
  • tuple_difference

Vedere Funzioni predefinite.

Modifiche comportamentali

Clausola FILTER per le funzioni di aggregazione MEASURE

Le funzioni di aggregazione MEASURE supportano ora le clausole FILTER. In precedenza, i filtri venivano ignorati automaticamente.

Scritture ottimizzate per le operazioni CRTAS del catalogo Unity

CREATE OR REPLACE TABLE Le operazioni AS SELECT (CRTAS) nelle tabelle del catalogo Unity partizionate ora applicano le scritture ottimizzate per impostazione predefinita. Per disabilitare, impostare spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled su false.

Aggiornamento della cache del dataframe per tabelle di controllo di accesso con granularità fine

La scrittura in tabelle di controllo di accesso con granularità fine in calcolo dedicato ora aggiorna i dataframe memorizzati nella cache che dipendono dalla tabella.

I valori della partizione timestamp usano il fuso orario di sessione

I valori della partizione timestamp usano il fuso orario della sessione Spark anziché il fuso orario JVM. Se sono presenti partizioni timestamp scritte prima di Databricks Runtime 18.0, eseguire SHOW PARTITIONS per verificare i metadati della partizione prima di scrivere nuovi dati.

Parola chiave riservata DESCRIBE FLOW

Il DESCRIBE FLOW comando è ora disponibile. Se si dispone di una tabella denominata flow, usare DESCRIBE schema.flow, DESCRIBE TABLE flow o DESCRIBE `flow` con i backtick.

Miglioramento delle prestazioni delle operazioni geospaziali

Le operazioni dei set booleani geospaziali usano una nuova implementazione con prestazioni migliorate. Possono verificarsi differenze minime di precisione dopo la 15° cifra decimale.

Tipi di eccezione per SQLSTATE

I tipi di eccezione vengono aggiornati per supportare SQLSTATE. Se il codice analizza le eccezioni in base alla corrispondenza di stringhe o rileva tipi di eccezione specifici, aggiornare la logica di gestione degli errori.

Estensione automatica dei tipi di streaming

La lettura in streaming delle tabelle Delta gestisce automaticamente l'estensione dei tipi di colonna. Per richiedere la conferma manuale, impostare spark.databricks.delta.typeWidening.enableStreamingSchemaTracking su true.

Aggiornamenti della libreria

Nessuna libreria è stata aggiornata in questa versione.

Apache Spark

Databricks Runtime 18.1 include Apache Spark 4.1.0. Questa versione include tutte le correzioni e i miglioramenti di Spark inclusi in Databricks Runtime 18.0, nonché le correzioni di bug e i miglioramenti aggiuntivi seguenti apportati a Spark:

  • SPARK-55350 Correzione della perdita di conteggio delle righe durante la creazione di dataframe da pandas con 0 colonne
  • SPARK-55364 Rendere più ragionevole il protocollo SupportsIAdd e SupportsOrdering
  • SPARK-53656 Effettuare il refactoring di MemoryStream per usare SparkSession invece di SQLContext
  • SPARK-55472 Genera eccezioni da metodi rimossi in Pandas 3
  • SPARK-55224 Usare il tipo di dato Spark come fonte di verità nella serializzazione tramite Pandas-Arrow
  • SPARK-55402 Spostare streamingSourceIdentifyingName da CatalogTable a DataSource
  • SPARK-55459 Correzione della regressione delle prestazioni 3x in applyInPandas per gruppi di grandi dimensioni
  • SPARK-55317 Aggiungere un nodo di piano logico SequentialUnion e una regola di pianificazione
  • SPARK-55424 Passare in modo esplicito il nome della serie in convert_numpy
  • SPARK-55175 Estrarre to_pandas trasformatore da serializzatori
  • SPARK-55304 Introduzione del supporto per l'Admission Control e per Trigger.AvailableNow nella sorgente dati Python - Streaming Reader
  • SPARK-55382 Crea Executor per registrare Running Spark version
  • SPARK-55408 Gestire gli errori imprevisti degli argomenti delle parole chiave correlati a datetime con pandas 3
  • SPARK-55345 Non passare unità e chiuso a Timedelta per pandas 3
  • SPARK-54759 Proteggere correttamente la logica nella Gestione delle variabili di scripting dopo l'introduzione del Cursor
  • SPARK-55409 Gestire un errore di argomento chiave inaspettato in read_excel con pandas 3
  • SPARK-55403 Corregge l'errore nei test sui grafici con pandas 3
  • SPARK-55256 Ripristina "[SC-218596][SQL] Supporto di IGNORE NULLS/RESPECT NULLS per array_agg e collect_list"
  • SPARK-55256 Supporto di IGNORE NULLS/RESPECT NULLS per array_agg e collect_list
  • SPARK-55395 Disabilitare la cache RDD in DataFrame.zipWithIndex
  • SPARK-55131 Introdurre un nuovo delimitatore dell'operatore di merge per RocksDB per concatenare senza delimitatori tramite una stringa vuota
  • SPARK-55376 Rendere l'argomento numeric_only nelle funzioni groupby tale da accettare solo valori booleani con pandas 3
  • SPARK-55334 Abilitare TimestampType e TimestampNTZType in convert_numpy
  • SPARK-55281 Aggiungere ipykernel e IPython all'elenco di pacchetti facoltativi mypy
  • SPARK-55336 Consentire a createDF di usare la logica di create_batch per il disaccoppiamento
  • SPARK-55366 Rimuovere errorOnDuplicatedFieldNames dalle UDF Python (funzioni definite dall'utente)
  • SPARK-54759 Supporto del cursore di scripting SQL
  • SPARK-55302 Correggere le metriche personalizzate in caso di KeyGroupedPartitioning
  • SPARK-55228 Implementare Dataset.zipWithIndex nell'API Scala
  • SPARK-55373 Miglioramento del messaggio di errore noHandlerFoundForExtension
  • SPARK-55356 Supporto per l'alias della PIVOT clausola
  • SPARK-55359 Alzare di livello TaskResourceRequest a Stable
  • SPARK-55365 Generalizzare le utilità per la conversione di matrici di frecce
  • SPARK-55106 Aggiungere un test di integrazione per il ripartizionamento degli operatori TransformWithState
  • SPARK-55086 Aggiungere DataSourceReader.pushFilters alla documentazione dell'API di origine dati in Python
  • SPARK-46165 Aggiunta del supporto per DataFrame.all axis=None
  • SPARK-55289 Reversione di "[SC-218749][SQL] Correzione del file in-set-operations.sql per il test instabile disabilitando il broadcast join"
  • SPARK-55297 Ripristinare timedelta dtype in base al dtype originale
  • SPARK-55291 Pre-elaborare le intestazioni dei metadati in fase di costruzione dell'intercettore client
  • SPARK-55155 Riapplicare "[SC-218401][SQL] Supportare espressioni piegabili nell'istruzione SET CATALOG
  • SPARK-55318 Ottimizzazioni delle prestazioni per vector_avg/vector_sum
  • SPARK-55295 Estendere la funzione ST_GeomFromWKB per accettare un valore SRID facoltativo
  • SPARK-55280 Aggiungere GetStatus proto per supportare il monitoraggio dello stato di esecuzione
  • SPARK-54969 Implementare la nuova conversione arrow-pandas>
  • SPARK-55176 Estrarre arrow_to_pandas il convertitore in ArrowArrayToPandasConversion
  • SPARK-55111 Annullare "[SC-217817][SC-210791][SS] Rilevamento di ripartizione incompleta al riavvio della query"
  • `SPARK-55252 Migliora HttpSecurityFilter per aggiungere l'intestazione Content-Security-Policy`
  • SPARK-55111 Rilevamento di ripartizioni non completate al riavvio della query
  • SPARK-55105 Aggiungere il test di integrazione per l'operatore join
  • SPARK-55260 Implementare il supporto alla scrittura in formato Parquet per i tipi geografici
  • SPARK-54523 Correzione della risoluzione predefinita durante la variante di pushdown
  • SPARK-55328 Riutilizzare PythonArrowInput.codec in GroupedPythonArrowInput
  • SPARK-55246 Aggiungere il test per Pyspark TWS e TWSInPandas e correggere statePartitionAllColumnFamiliesWriter Bug
  • SPARK-55289 Correggere il test instabile in in-set-operations.sql disabilitando il join in broadcast
  • SPARK-55040 Effettuare il refactoring di TaskContext e del protocollo worker correlato con un aggiornamento al motore PySpark.
  • SPARK-47996 supporta l'unione incrociata nell'API Pandas
  • SPARK-55031 Aggiungere espressioni di funzione di aggregazione vector avg/sum
  • SPARK-54410 Correzione del supporto di lettura per l'annotazione del tipo logico variant
  • SPARK-54776 Ripristinare "[SC-216482][SQL] Miglioramento del messaggio di log relativo alla funzione lambda con funzioni definite dall'utente SQL"
  • SPARK-55123 Aggiungere SequentialUnionOffset per tenere traccia dell'elaborazione sequenziale dell'origine
  • SPARK-54972 Migliorare le sottoquery NOT IN con colonne non nullabili
  • SPARK-54776 Migliorati i messaggi di log relativi alla funzione lambda con UDF SQL
  • SPARK-53807 Risolvere i problemi di race condition tra unlock e releaseAllLocksForTask in BlockInfoManager
  • SPARK-51831 Ripristinare "[SC-207389][SQL] Potatura delle colonne con existsJoin per Datasource V2"
  • SPARK-54881 Migliorare BooleanSimplification la gestione della negazione di congiunzione e disgiunzione in un unico passo
  • SPARK-54696 Pulizia dei ArrowBuffers in Connect
  • SPARK-55009 Rimuovere la copia di memoria non necessaria dal costruttore di LevelDBTypeInfo/RocksDBTypeInfo.Index
  • SPARK-54877 Rendere lo stacktrace visualizzato nella pagina di errore dell'interfaccia utente configurabile
  • SPARK-51831 Potatura delle colonne con existsJoin per DataSource V2
  • SPARK-55285 Correggere l'inizializzazione di PythonArrowInput
  • SPARK-53960 Consenti approx_top_k_accumulate/combinare/stimare di gestire NULL
  • SPARK-49110 Semplificare SubqueryAlias.metadataOutput per propagare sempre le colonne di metadati
  • SPARK-55155 Ripristinare "[SC-218401][SQL] Supportare espressioni piegabili nell'istruzione SET CATALOG "
  • SPARK-55155 Supportare espressioni piegabili nell'istruzione SET CATALOG
  • SPARK-49110 Annullare "[SC-218594][SQL] Semplificare SubqueryAlias.metadataOutput per propagare sempre le colonne di metadati"
  • SPARK-54399 Implementare la funzione st_setsrid in Scala e PySpark
  • SPARK-49110 Semplificare SubqueryAlias.metadataOutput per propagare sempre le colonne di metadati
  • SPARK-55133 Correggere la race condition nella gestione del ciclo di vita di IsolatedSessionState
  • SPARK-55262 Bloccare i tipi geografici in tutte le origini dati basate su file ad eccezione di Parquet
  • SPARK-54202 Consenti cast da GeometryType(srid) a GeometryType(ANY)
  • SPARK-54142 Implementare la funzione st_srid in Scala e PySpark
  • SPARK-54887 Impostare sempre uno stato sql nel client spark connect
  • SPARK-55237 Eliminare i messaggi fastidiosi durante la ricerca di database inesistenti
  • SPARK-55040 Annullare "[SC-217628][PYTHON] Refattorizzare TaskContext e il protocollo di lavoro correlato"
  • SPARK-55243 Consentire l'impostazione delle intestazioni binarie tramite il suffisso -bin nel client Scala Connect
  • SPARK-55259 Implementare la conversione dello schema Parquet per i tipi geografici
  • SPARK-55282 Evitare di usare worker_util nel lato Driver
  • SPARK-54151 Introdurre il framework per l'aggiunta di funzioni ST in PySpark
  • SPARK-55194 Rimuovere GroupArrowUDFSerializer spostando la logica di appiattimento nel mapper
  • SPARK-55020 Disabilitare gc durante l'esecuzione del comando gRPC
  • SPARK-55053 Eseguire il refactoring dei processi di lavoro di analisi dell'origine dati/udtf in modo che abbiano un punto d'ingresso unificato.
  • SPARK-55040 Eseguire il refactoring di TaskContext e il protocollo di lavoro correlato
  • SPARK-55244 Usare np.nan come valore predefinito per i tipi di stringa di pandas
  • SPARK-55225 Ripristinare il dtype originale per Datetime
  • SPARK-55154 Rimuovere fastpath in pd. Serie per pandas 3
  • SPARK-55030 Aggiunta del supporto per le espressioni delle funzioni di norma e normalizzazione vettoriali
  • SPARK-55202 Correzione per UNEXPECTED_USE_OF_PARAMETER_MARKER quando si utilizza param...
  • SPARK-54201 Consenti la conversione da GeographyType(srid) a GeographyType(ANY)
  • SPARK-54244 Introdurre il supporto della coercizione dei tipi per i tipi di dati GEOMETRY
  • SPARK-54160 Implementare l'espressione ST_SetSrid in SQL
  • SPARK-55046 PySpark aggiunge la metrica del tempo di elaborazione UDF
  • SPARK-54101 Introdurre il framework per l'aggiunta di funzioni ST in Scala
  • SPARK-54683 Unificare i tipi geografici e temporali nel blocco
  • SPARK-55249 Rendere DataFrame.toJSON in grado di restituire il dataframe
  • SPARK-54521 Conversioni da e verso WKB per il tipo Geometry
  • SPARK-54162 Consenti cast da GeographyType a GeometryType
  • SPARK-55146 Ricontrollare l'API di ripartizione dello stato per PySpark
  • SPARK-55140 Non eseguire il mapping delle funzioni predefinite alla versione numpy per pandas 3
  • SPARK-54243 Introdurre il supporto della coercizione dei tipi di dati GEOGRAPHY
  • SPARK-55058 Sollevare un errore nei metadati incoerenti del checkpoint
  • SPARK-55108 Usare gli ultimi pandas-stub per il controllo del tipo
  • SPARK-54091 Implementare l'espressione ST_Srid in SQL
  • SPARK-55104 Aggiungere il supporto di Spark Connect per DataStreamReader.name()
  • SPARK-54996 Report ArrivalTime per i record di LowLatencyMemoryStream
  • SPARK-55118 Sostituire le wildcard import relative agli ASM Opcodes
  • SPARK-54365 Aggiungere il test di integrazione di ripartizione per gli operatori Aggregate, Dedup, FMGWS e SessionWindow
  • SPARK-55119 Correzione del continua handler: impedire errori INTERNI e l'interruzione delle istruzioni condizionali non corrette
  • SPARK-54104 Vietare il casting di tipi geospaziali da e verso altri tipi di dati
  • SPARK-55240 Effettuare il refactoring della gestione dello stacktrace LazyTry per usare wrapper anziché eccezione soppressa
  • SPARK-55238 Spostare la logica di mappatura del sistema di riferimento spaziale da main/scala a main/java
  • SPARK-55179 Ignorare la convalida anticipata del nome della colonna in df.col_name
  • SPARK-55055 Supporto di SparkSession.Builder.create per PySpark Classic
  • SPARK-55186 Permettere a ArrowArrayToPandasConversion.convert_legacy di restituire pd.DataFrame
  • SPARK-54079 Introdurre il framework per l'aggiunta di espressioni ST in Catalyst
  • SPARK-54096 Supporto per il mapping del sistema di riferimento spaziale in PySpark
  • SPARK-54801 Contrassegnare alcune nuove configurazioni 4.1 come interne
  • SPARK-55146 Reverti "[SC-217936][SC-210779][SS] API dello stato di ripartizione per PySpark"
  • SPARK-54559 Usare runnerConf per passare l'opzione profiler
  • SPARK-55205 Correzione dei test in cui presuppone che il tipo stringa venga convertito in oggetto
  • SPARK-55171 Correzione del profiler di memoria su UDF iterativi
  • SPARK-55226 Riconoscere datetime e timedelta con unità differenti da [ns]
  • SPARK-55027 Spostare writeConf in PythonWorkerUtils
  • SPARK-55197 Estrarre l'helper per deduplicare la logica del segnale START_ARROW_STREAM
  • SPARK-54179 Aggiungere il supporto nativo per i Tuple Sketches di Apache (#190848) (#191111)
  • SPARK-55151 Correzione di RocksDBSuite testWithStateStoreCheckpointIds
  • SPARK-55146 API di Ridistribuzione dello Stato per PySpark
  • SPARK-54232 Abilitare la serializzazione Arrow per i tipi di Geography e Geometry
  • SPARK-53957 Supporto di GEOGRAPHY e GEOMETRY nel SpatialReferenceSystemMapper
  • SPARK-55169 Usare ArrowBatchTransformer.flatten_struct in ArrowStreamArrowUDTFSerializer
  • SPARK-55134 Correzione BasicExecutorFeatureStep per lanciare IllegalArgumentException in caso di configurazioni errate della CPU dell'executor
  • SPARK-54166 Introdurre codificatori di tipi per i tipi geospaziali in PySpark
  • SPARK-55138 Correzione convertToMapData di un'eccezione NullPointerException
  • SPARK-55168 Usare ArrowBatchTransformer.flatten_struct in GroupArrowUDFSerializer
  • SPARK-55032 Refactoring dei profiler in workers.py
  • SPARK-54990 Correzione della modalità di implementazione della classe in session.py
  • SPARK-55076 Risolvere il problema dell'hint di tipo in ml/mllib e aggiungere il requisito di scipy
  • SPARK-55162 Estrarre trasformatori da ArrowStreamUDFSerializer
  • SPARK-55121 Aggiungere DataStreamReader.name() a PySpark classico
  • SPARK-54887 Aggiungere sqlstate facoltativo a sparkthrowables
  • SPARK-54169 Introdurre tipi di Geography e Geometry nel writer Arrow
  • SPARK-51658 Introdurre formati wrapper per Geometry e Geography in memoria
  • SPARK-54110 Introdurre codificatori di tipi per i tipi *Geografia* e *Geometria*
  • SPARK-54956 Unificare la soluzione di ri-esecuzione del mescolamento indeterminata
  • SPARK-55137 Rifattorizzare GroupingAnalyticsTransformer e Analyzer codice
  • SPARK-54103 Introdurre classi Geography e Geometry lato client
  • SPARK-55160 Passare direttamente lo schema di input ai serializzatori
  • SPARK-55170 Estrarre il modello di lettura del flusso raggruppato dai serializzatori
  • SPARK-55125 Rimuovere i metodi ridondanti __init__ nei serializzatori freccia
  • SPARK-55126 Rimuovere il fuso orario non usato e la funzione assign_cols_by_name da ArrowStreamArrowUDFSerializer
  • SPARK-54980 Convertire il livello di isolamento JDBC in una stringa
  • SPARK-55051 Stringa di byte accetta KiB, MiB, GiB, TiB, PiB
  • SPARK-55025 Migliorare le prestazioni in Pandas usando la comprensione dell'elenco
  • SPARK-46165 Aggiungere il supporto per pandas.DataFrame.all axis=1
  • SPARK-55037 Implementare nuovamente l'osservazione senza usare QueryExecutionListener
  • SPARK-54965 Separare il vecchio pa.Array -> pd.Series converter
  • SPARK-55016 Rendere SQLConf una proprietà diretta di SparkSession per evitare l'overflow dello stack
  • SPARK-55091 Ridurre le chiamate RPC Hive per il comando DROP TABLE
  • SPARK-55097 Correzione del problema relativo alla ripetizione dell'aggiunta di artefatti memorizzati nella cache che elimina blocchi silenziosamente
  • SPARK-55026 Ottimizzare BestEffortLazyVal.
  • SPARK-55091 Annulla "[SC-217410][SQL] Riduci le chiamate RPC di Hive per il comando DROP TABLE"
  • SPARK-54590 Supporta il checkpoint V2 per lo stato del rewriter e il ripartizionamento
  • SPARK-55016 Rendere SQLConf una proprietà diretta di SparkSession per evitare l'overflow dello stack
  • SPARK-55091 Ridurre le chiamate RPC Hive per DROP TABLE il comando
  • SPARK-55016 Ripristina "[SC-217401][SQL] Impedire l'overflow dello stack rendendo SQLConf una proprietà diretta di SparkSession"
  • SPARK-55016 Rendere SQLConf una proprietà diretta di SparkSession per evitare l'overflow dello stack
  • SPARK-55098 Le funzioni definite dall'utente vettorializzate con il controllo delle dimensioni del batch di uscita presentano una perdita di memoria.
  • SPARK-54824 Aggiunta del supporto per multiGet e deleteRange per l'archivio di stato di Rocksdb
  • SPARK-55054 Aggiunta del supporto per IDENTIFIED BY nelle funzioni a valori di tabella in streaming
  • SPARK-55029 Propagare il nome identificativo dell'origine di streaming attraverso la pipeline di risoluzione
  • SPARK-55071 Rendere spark.addArtifact funzionante con i percorsi di Windows
  • SPARK-54103 Ripristinare "[SC-210400][Geo][SQL] Introdurre classi Geography e Geometry lato client"
  • SPARK-54103 Introdurre le classi Geography e Geometry sul lato client
  • SPARK-54033 Introdurre classi di esecuzione geospaziali sul lato server Catalyst
  • SPARK-54176 Introdurre tipi di dato Geography e Geometry in PySpark Connect
  • SPARK-55089 Correggere lo schema di output di toJSON
  • SPARK-55035 Eseguire la pulizia dello shuffle nelle esecuzioni figlie
  • SPARK-55036 Aggiungere ArrowTimestampConversion per la gestione del fuso orario tramite Arrow
  • SPARK-55090 Implementare DataFrame.toJSON nel client Python
  • SPARK-54873 Semplificare la risoluzione di V2TableReference poiché solo la vista temporanea può contenerla
  • SPARK-52828 Eseguire l'hashing per stringhe in modo indipendente dalla collatione
  • SPARK-54175 Aggiungere i tipi Geography e Geometry al protocollo Spark Connect
  • SPARK-54961 Introdotto GroupingAnalyticsTransformer
  • SPARK-55088 Mantenere i metadati in/from_arrow_type/schema
  • SPARK-55070 Consenti colonna nascosta nella risoluzione delle colonne del dataframe
  • SPARK-55044 Mantenere i metadati in toArrowSchema/fromArrowSchema
  • SPARK-55043 Correzione della traslazione temporale con sottoquery contenente riferimenti alle tabelle
  • SPARK-54987 Modificare il valore predefinito di prefer_timestamp_ntz in True in from_arrow_type/from_arrow_schema
  • SPARK-54866 Refactoring Drop/RefreshFunction per evitare la ricerca nel catalogo
  • SPARK-55024 Usare l'errore REQUIRES_SINGLE_PART_NAMESPACE per la convalida dello spazio dei nomi nel catalogo sessioni
  • SPARK-54992 Sostituire cast con un controllo di runtime per make_timestamp
  • SPARK-55024 Ripristina "[SC-216987][SQL] Usa l'errore REQUIRES_SINGLE_PART_NAMESPACE per la convalida dello spazio dei nomi del catalogo della sessione"
  • SPARK-54866 Ripristinare "[SC-216753][SQL] Refactoring Drop/RefreshFunction per evitare la ricerca nel catalogo"
  • SPARK-55024 Usare l'errore REQUIRES_SINGLE_PART_NAMESPACE per la convalida dello spazio dei nomi del catalogo della sessione
  • SPARK-54866 Refactoring Drop/RefreshFunction per evitare la ricerca nel catalogo
  • SPARK-54991 Hint di tipo corretto per lo streaming/listener.py
  • SPARK-54925 Aggiungere la funzionalità per eseguire il dump dei thread per pyspark
  • SPARK-54803 Supporto di BY NAME con INSERT ... SOSTITUIRE WHERE
  • SPARK-54785 Aggiungere il supporto per le aggregazioni di sketch binario in KLL (#188370) (#188860)
  • SPARK-54949 Spostare pyproject.toml nella radice del repository
  • SPARK-54954 Correzione delle indicazioni di tipo relative al remoto in util.py
  • SPARK-54922 Unificare il modo in cui gli argomenti vengono passati ai worker di Python
  • SPARK-54870 Supporto delle regole di confronto per char/varchar e CTAS/RTAS
  • SPARK-54762 Correzione _create_converter e covert firma di overload
  • SPARK-55019 Consenti di DROP TABLE eliminare la VIEW
  • SPARK-53103 Genera un errore se la directory di stato non è vuota all'avvio della query
  • SPARK-54995 Creare un percorso rapido per foreachPartition
  • SPARK-54634 Aggiungere un messaggio di errore non crittografato per il predicato IN vuoto
  • SPARK-54984 Esecuzione di State Repartition e integrazione con State Rewriter
  • SPARK-54443 Integrare PartitionKeyExtractor nel lettore di ripartizioni
  • SPARK-54907 Introdurre la regola dell'analizzatore NameStreamingSources per l'evoluzione dell'origine di streaming
  • SPARK-54609 Aggiornare la configurazione del tipo TIME in modo che corrisponda a quella del software open source
  • SPARK-54988 Semplificare l'implementazione di ObservationManager.tryComplete
  • SPARK-54959 Disabilitare il completo rinvio per mancata corrispondenza del checksum dello shuffle quando lo shuffle basato su push è abilitato.
  • SPARK-54940 Aggiungere i test per l'inferenza del tipo di dato pa.scalar
  • SPARK-54634 Annullare "[SC-216478][SQL] Aggiungere un messaggio di errore chiaro per il predicato IN vuoto"
  • SPARK-54337 Aggiungere il supporto per PyCapsule a Pyspark
  • SPARK-54634 Aggiungere un messaggio di errore non crittografato per il predicato IN vuoto
  • SPARK-53785 Origine memoria per RTM
  • SPARK-54883 Rivedere i messaggi di errore per l'interfaccia a riga di comando e aggiungere una nuova modalità di errore DEBUG.
  • SPARK-54713 Aggiunta del supporto per espressioni di funzione vector similarity/distance
  • SPARK-54962 Correzione della gestione dei numeri interi nullable nella UDF di Pandas
  • SPARK-54864 Aggiungere nodi rCTE a NormalizePlan
  • SPARK-53847 Aggiungere ContinuousMemorySink per i test in modalità in tempo reale
  • SPARK-54865 Aggiungere il metodo foreachWithSubqueriesAndPruning a QueryPlan
  • SPARK-54930 Rimuovere la chiamata ridondante _accumulatorRegistry.clear() in worker.py
  • SPARK-54929 Correzione del reset di taskContext._resources nel ciclo che causa il mantenimento solo dell'ultima risorsa
  • SPARK-54963 Rispetta createDataFrameprefer_timestamp_ntz quando infer_pandas_dict_as_map
  • SPARK-54920 Spostare la logica di estrazione delle analisi di raggruppamento in un contesto comune GroupingAnalyticsExtractor
  • SPARK-54924 State Rewriter per leggere lo stato, trasformarlo e scrivere nuovo stato
  • SPARK-54872 Unificare la gestione dei valori predefiniti delle colonne tra i comandi v1 e v2
  • SPARK-54905 Semplificare l'implementazione di foreachWithSubqueries in QueryPlan
  • SPARK-54682 Supporto per la visualizzazione dei parametri in DESCRIBE PROCEDURE
  • SPARK-54933 Evitare ripetutamente il recupero della configurazione binary_as_bytes in toLocalIterator
  • SPARK-54872 Ripristinare "[SC-216260][SQL] Unify column default value handling between v1 and v2 commands"
  • SPARK-51936 ReplaceTableAsSelect deve sovrascrivere la nuova tabella anziché accodare
  • SPARK-54771 Rimuovere la regola ResolveUserSpecifiedColumns da RuleIdCollection
  • SPARK-54872 Unificare la gestione dei valori predefiniti delle colonne tra i comandi v1 e v2
  • SPARK-54313 Aggiungere l'opzione --extra-properties-file per la configurazione a più livelli
  • SPARK-54468 Aggiungere classi di errore mancanti
  • SPARK-46741 La tabella cache con CTE dovrebbe funzionare quando il CTE è nel sottoquery dell'espressione del piano
  • SPARK-46741 La tabella cache con CTE non funzionerà
  • SPARK-54615 Passare sempre runner_conf al ruolo di lavoro Python
  • SPARK-53737 Aggiungere modalità in tempo reale attivatore
  • SPARK-54541 Rinominare _LEGACY_ERROR_TEMP_1007 e aggiungere sqlState
  • SPARK-54718 Mantenere i nomi degli attributi durante cTE newInstance()
  • SPARK-54621 Unisci al set di aggiornamento * preserva i campi annidati se ... coerceNestedTypes è abilitato
  • SPARK-54595 Mantenere il comportamento esistente di MERGE INTO in assenza della clausola EVOLUTION SCHEMA
  • SPARK-54903 Rendere to_arrow_schema/to_arrow_type in grado di impostare il fuso orario
  • SPARK-52326 Aggiungere partizioni correlate a ExternalCatalogEvent e pubblicarle nelle operazioni corrispondenti
  • SPARK-54541 Ripristina "[SC-215212][SQL] Rinomina _LEGACY_ERROR_TEMP_1007 e aggiungi sqlState"
  • SPARK-54578 Eseguire la pulizia del codice in AssignmentUtils
  • SPARK-54830 Abilitare per impostazione predefinita il rientro di bilanciamento indeterminato basato su checksum.
  • SPARK-54525 Disabilitare la coercizione degli struct annidati in MERGE INTO in una configurazione
  • SPARK-53784 API di origine aggiuntive necessarie per supportare l'esecuzione RTM
  • SPARK-54496 Correzione della fusione nell'evoluzione dello schema per l'API DataFrame
  • SPARK-54835 Evitare QueryExecution temporanea non necessaria per l'esecuzione di comandi annidati
  • SPARK-54541 Rinominare _LEGACY_ERROR_TEMP_1007 e aggiungere sqlState
  • SPARK-54289 Consenti MERGE INTO di mantenere i campi struct esistenti per UPDATESET * quando lo struct di origine ha campi annidati inferiori a quelli dello struct di destinazione
  • SPARK-54720 Aggiungere SparkSession.emptyDataFrame con uno schema
  • SPARK-54800 Implementazione predefinita modificata per isObjectNotFoundException
  • SPARK-54686 Ridurre i controlli delle tabelle DSv2 nelle viste temporanee per consentire nuove colonne di primo livello
  • SPARK-54619 Aggiungere un controllo di integrità per i numeri di configurazione
  • SPARK-54726 Migliorare alcune prestazioni per InsertAdaptiveSparkPlan
  • SPARK-51966 Sostituire select.select() con select.poll() durante l'esecuzione nel sistema operativo POSIX
  • SPARK-54749 Correzione della metrica numOutputRows non corretta in OneRowRelationExec
  • Introdurre un ripartitore che supporta multi-CF
  • SPARK-54835 Ripristinare "[SC-215823][SQL] Evitare query query non necessarie per l'esecuzione di comandi annidati"
  • SPARK-54867 Introdurre il wrapper NamedStreamingRelation per l'identificazione dell'origine durante l'analisi
  • SPARK-54835 Evitare esecuzioni temporanee non necessarie di QueryExecution per l'esecuzione di comandi annidati
  • SPARK-54491 Correzione dell'inserimento nella visualizzazione temporanea in caso di errore della tabella DSv2
  • SPARK-54871 Ridurre gli alias dal raggruppamento e dalle espressioni di aggregazione prima di gestire l'analisi di raggruppamento
  • SPARK-51920 Correzione della gestione dei tipi di namedTuple per transfromWithState
  • SPARK-54526 Rinominare _LEGACY_ERROR_TEMP_1133 e aggiungere sqlState
  • SPARK-54424 Gli errori durante il ri-caching non devono compromettere le operazioni
  • SPARK-54894 Correzione del passaggio degli argomenti in to_arrow_type
  • SPARK-53448 La conversione di un `pyspark DataFrame` con una colonna Variant in pandas si verifica un errore.
  • SPARK-54882 Rimuovere PYARROW_IGNORE_TIMEZONE legacy
  • SPARK-54504 Correzione dell'aggiornamento di versione per le tabelle DSv2 con sottoquery
  • SPARK-54444 Ridurre i controlli delle tabelle DSv2 per ripristinare il comportamento precedente
  • SPARK-54859 Documentazione di riferimento API UDF PySpark di Arrow per impostazione predefinita
  • SPARK-54387 Ripristinare "[ES-1688666] Ripristinare "[SC-212394][SQL] Correzione del ricaching delle tabelle DSv2""
  • SPARK-54753 correzione della perdita di memoria di ArtifactManager
  • SPARK-54387 Ripristina "[SC-212394][SQL] Correzione del ricaching delle tabelle DSv2"
  • SPARK-54436 Correzione della formattazione degli errori per i controlli dei metadati della tabella incompatibili
  • SPARK-54849 Aggiornare la versione minima di pyarrow a 18.0.0
  • SPARK-54022 Rendere la risoluzione della tabella DSv2 consapevole delle tabelle memorizzate nella cache
  • SPARK-54387 Correzione del ricaching delle tabelle DSv2
  • SPARK-53924 Ricaricare le tabelle DSv2 nelle viste create usando i piani per ogni accesso alla visualizzazione
  • SPARK-54561 Supporto del punto di interruzione () per run-tests.py
  • SPARK-54157 Correzione dell'aggiornamento delle tabelle DSv2 nel set di dati
  • SPARK-54830 Ripristinare "[CORE] Enable checksum based indeterminate shuffle retry by default"
  • SPARK-54861 Reimpostare il nome del thread di attività in IDLE_TASK_THREAD_NAME al termine dell'attività
  • SPARK-54834 Aggiungere nuove interfacce SimpleProcedure e SimpleFunction
  • SPARK-54760 DelegatingCatalogExtension come catalogo di sessione supporta sia le funzioni V1 che le funzioni V2
  • SPARK-54685 Rimuovere risposte ridondanti sulle metriche osservate
  • SPARK-54853 Controllare hive.exec.max.dynamic.partitions sempre sul lato Spark
  • SPARK-54840 Pre-allocazione OrcList
  • SPARK-54830 Abilitare per impostazione predefinita il rientro di bilanciamento indeterminato basato su checksum.
  • SPARK-54850 Migliorare extractShuffleIds per trovare AdaptiveSparkPlanExec in qualsiasi punto nell'albero del piano
  • SPARK-54843 L'espressione Try_to_number non funziona per input di stringa vuoto.
  • SPARK-54556 Ripristino delle fasi di mappa di shuffle riuscite quando è rilevata una mancata corrispondenza del checksum di shuffle
  • SPARK-54760 Ripristina "[SC-215670][SQL] DelegatingCatalogExtension come catalogo di sessione supporta sia le funzioni V1 che V2"
  • SPARK-54760 DelegatingCatalogExtension come catalogo di sessione supporta sia le funzioni V1 che V2
  • SPARK-54818 TaskMemoryManager ha fallito l'allocazione, dovrebbe registrare lo stack degli errori per aiutare a verificare l'utilizzo della memoria
  • SPARK-54827 Aggiungere la funzione helper TreeNode.containsTag
  • SPARK-54777 Ripristinare "[SC-215740][SQL] Modifica della gestione degli errori dropTable in JDBCTableCatalog.dropTable(...)"
  • SPARK-54777 Modificata la gestione degli errori di dropTable in JDBCTableCatalog.dropTable(...)
  • SPARK-54817 Riprogettare la logica di risoluzione in UnpivotTransformer
  • SPARK-54820 Rendere pandas_on_spark_type compatibile con numpy 2.4.0
  • SPARK-54799 Refactor UnpivotCoercion
  • SPARK-54754 OrcSerializer non deve analizzare lo schema ogni volta che viene serializzato
  • SPARK-54226 Estendere la compressione Arrow alle UDF Pandas
  • SPARK-54787 Usare le comprensioni di lista anziché i loop in pandas
  • SPARK-54690 Rendere Frame.__repr__ insensibile all'ottimizzazione delle frecce
  • SPARK-46166 Implementazione di pandas.DataFrame.any con axis=None
  • SPARK-54696 Pulizia dei buffer di Arrow - Follow-up
  • SPARK-54769 Rimuovere il codice morto in conversion.py
  • SPARK-54787 Usare la comprensione dell'elenco in pandas _bool_column_labels
  • SPARK-54794 Sopprimere i log di scansione dettagliati FsHistoryProvider.checkForLogs
  • SPARK-54745 Correzione dell'errore di importazione di PySpark causato dalla mancanza di UnixStreamServer in Windows
  • SPARK-54782 Correggere le versioni di configurazione
  • SPARK-54781 Restituire informazioni sulla cache dei modelli in formato JSON
  • SPARK-54419 Lettore dello stato di ripartizione offline supporta famiglie a più colonne
  • SPARK-54722 Registrare UDF di aggregazione iterativa su gruppi di Pandas per l'utilizzo in SQL
  • SPARK-54762 Rimuovere "[SC-215422][PYTHON] Correggi la firma di overload di _create_converter e covert"
  • SPARK-54652 Ripristinare "[SC-215452][SQL] Conversione completa di IDENTIFIER()"
  • SPARK-54762 Correzione _create_converter e covert firma di overload
  • SPARK-52819 Rendere serializzabile KryoSerializationCodec per correggere gli errori java.io.NotSerializableException in vari casi d'uso
  • SPARK-54711 Aggiungere un timeout per la connessione di lavoro creata dal daemon
  • SPARK-54738 Aggiungere il supporto del profiler per UDF di aggregazione iterativa raggruppata in Pandas
  • SPARK-54652 Conversione completa di IDENTIFIER()
  • SPARK-54581 Rendere l'opzione fetchsize senza distinzione tra maiuscole e minuscole per il connettore Postgres
  • SPARK-54589 Consolidare ArrowStreamAggPandasIterUDFSerializer in ArrowStreamAggPandasUDFSerializer
  • SPARK-41916 Distributore Torch: supporta più processi di torchrun per ogni attività se task.gpu.amount > 1
  • SPARK-54707 Refattorizzare PIVOT la logica principale di risoluzione nel PivotTransformer
  • SPARK-54706 Rendere DistributedLDAModel funzionante con il file system locale
  • SPARK-53616 Introdurre l'API iteratore per la funzione definita dall'utente di aggregazione raggruppata di pandas.
  • SPARK-54116 Aggiungere il supporto della modalità off-heap per LongHashedRelation
  • SPARK-54656 Rifattorizzare SupportsPushDownVariants in un mix-in ScanBuilder
  • SPARK-54687 Aggiungere un file di riferimento con i casi limite di risoluzione dei generatori
  • SPARK-54708 Ottimizzare la pulizia della cache ML attraverso la creazione differita di directory
  • SPARK-54116 Annullare "[SC-213108][SQL] Aggiungere il supporto della modalità off-heap per LongHashedRelation"
  • SPARK-54116 Aggiungere il supporto della modalità off-heap per LongHashedRelation
  • SPARK-54443 Estrazione di chiavi di partizione per tutti gli operatori con stato di streaming
  • SPARK-54687 Ripristinare "[SC-214791][SQL] Aggiungere un file dorato con i generatori di casi limite di risoluzione"
  • SPARK-54116 Ripristina "[SC-213108][SQL] Aggiungere il supporto della modalità off-heap per LongHashedRelation"
  • SPARK-54687 Aggiungere un file di riferimento con i casi limite di risoluzione dei generatori
  • SPARK-54116 Aggiungere il supporto della modalità off-heap per LongHashedRelation
  • SPARK-54420 Introduzione di StatePartitionWriter offline per una singola famiglia di colonne
  • SPARK-54689 Rendere org.apache.spark.sql.pipelines il pacchetto interno e rendere EstimatorUtils privato
  • SPARK-54673 Eseguire il refactoring del codice di analisi della sintassi della pipe SQL per la condivisione e il riutilizzo
  • SPARK-54668 Aggiungere test per le CTE negli operatori multi-nodo
  • SPARK-54669 Rimuovere il cast ridondante in rCTEs
  • SPARK-54587 Consolidare tutto il codice correlato runner_conf
  • SPARK-54628 Rimuovere tutti gli argomenti super() espliciti non necessari
  • SPARK-54675 Aggiungere un timeout di arresto forzato configurabile per il pool di thread di manutenzione StateStore
  • SPARK-54639 Evitare la creazione di tabelle non necessarie nei serializer Arrow
  • SPARK-49635 Rimuovere il suggerimento di configurazione ANSI nei messaggi di errore CAST
  • SPARK-54664 Pulire il codice correlato a listenerCache da connect.StreamingQueryManager
  • SPARK-54640 Sostituire select.select con select.poll in UNIX.
  • SPARK-54662 Aggiungere viztracer e debugpy in dev/requirements.txt
  • SPARK-54632 Aggiungere l'opzione per usare ruff per lint
  • SPARK-54585 Risoluzione del rollback dell'archivio di stato quando il thread è in stato interrotto
  • SPARK-54172 Merge Into di Schema Evolution deve aggiungere solo le colonne di riferimento
  • SPARK-54438 Consolidare ArrowStreamAggArrowIterUDFSerializer in ArrowStreamAggArrowUDFSerializer
  • SPARK-54627 Rimuovere le inizializzazioni ridondanti nei serializzatori
  • SPARK-54631 Aggiungere il supporto del profiler per la UDF di aggregazione iterativa raggruppata di Arrow
  • SPARK-54316 Riapplicare [SC-213971][CORE][PYTHON][SQL] Consolidare GroupPandasIterUDFSerializer con GroupPandasUDFSerializer
  • SPARK-54392 Ottimizzare la comunicazione JVM-Python per lo stato iniziale di TWS
  • SPARK-54617 Abilitare la registrazione delle funzioni definite dall'utente aggregata Arrow Grouped Iter per SQL
  • SPARK-54544 Abilitare il controllo flake8 F811
  • SPARK-54650 Sposta int nella conversione decimale in _create_converter_from_pandas
  • SPARK-54316 Ripristinare "[SC-213971][CORE][PYTHON][SQL] Consolidare GroupPandasIterUDFSerializer con GroupPandasUDFSerializer"
  • SPARK-53687 Introdurre WATERMARK la clausola nell'istruzione SQL
  • SPARK-54316 Consolidare GroupPandasIterUDFSerializer con GroupPandasUDFSerializer
  • SPARK-54598 Estrarre la logica per leggere le UDF
  • SPARK-54622 Alzare di livello RequiresDistributionAndOrdering e le relative interfacce necessarie a Evolving
  • SPARK-54624 Assicurarsi che il nome utente nella pagina cronologia venga preceduto da un escape
  • SPARK-54580 Prendere in considerazione Hive 4.1 in HiveVersionSuite e HiveClientImpl
  • SPARK-54068 Correzione to_feather per supportare PyArrow 22.0.0
  • SPARK-54618 Alzare di livello LocalScan a Stable
  • SPARK-54616 Contrassegna SupportsPushDownVariants come Experimental
  • SPARK-54607 Rimuovere il metodo toStringHelper inutilizzato da AbstractFetchShuffleBlocks.java
  • SPARK-53615 Introdurre l'API dell'iteratore per l'aggregazione raggruppata UDF in Arrow
  • SPARK-54608 Evitare la doppia memorizzazione nella cache del convertitore di tipi in UDTF
  • SPARK-54600 Non usare pickle per salvare/caricare i modelli in pyspark.ml.connect
  • SPARK-54592 Rendi estimatedSize privato
  • SPARK-54388 Introdurre StatePartitionReader che analizza i byte non elaborati per Single ColFamily
  • SPARK-54570 Propagare correttamente la classe di errore in Spark Connect
  • SPARK-54577 Ottimizzare le chiamate Py4J nell'inferenza dello schema
  • SPARK-54568 Evitare la conversione pandas non necessaria nella creazione di dataframe da ndarray
  • SPARK-54576 Aggiungere la documentazione per le nuove funzioni di aggregazione basate su Datasketches
  • SPARK-54574 Riabilitare FPGrowth su connessione
  • SPARK-54557 Rendere CSV/JSON/XmlOptions e CSV/JSON/XmlInferSchema comparabili
  • SPARK-52798 Aggiungere la funzione approx_top_k_combine
  • SPARK-54446 FPGrowth supporta il file system locale con formato di file Arrow
  • SPARK-54547 Rinominare la hostPort variabile in host nei TaskSchedulerImpl.(executorLost|logExecutorLoss) metodi
  • SPARK-54558 Correzione dell'eccezione interna quando vengono usati gestori eccezioni senza BEGIN/END
  • SPARK-52923 Consenti a ShuffleManager di controllare la fusione push durante la registrazione di mescolamento
  • SPARK-54474 Rimuovere il report XML sui test che dovrebbero non riuscire
  • SPARK-54473 Aggiungere il supporto di lettura e scrittura Avro per il tipo TIME
  • SPARK-54472 Aggiungere il supporto di lettura e scrittura ORC per il tipo TIME
  • SPARK-54463 Aggiungere il supporto per la serializzazione e la deserializzazione CSV per il tipo TIME
  • SPARK-52588 Approx_top_k: accumulare e stimare
  • SPARK-54461 Aggiungere il supporto di serializzazione e deserializzazione XML per il tipo TIME
  • SPARK-54451 Aggiungere il supporto per la serializzazione e la deserializzazione JSON per il tipo TIME
  • SPARK-54537 Correzione di SparkConnectDatabaseMetaData getSchemas/getTables nei cataloghi privi della funzionalità di gestione dello spazio dei nomi.
  • SPARK-54442 Aggiungere funzioni di conversione numerica per il tipo TIME
  • SPARK-54451 Ripristinare "[SC-212861][SQL] Aggiungere il supporto per la serializzazione e la deserializzazione JSON per il tipo TIME"
  • SPARK-54492 Rinominare _LEGACY_ERROR_TEMP_1201 e aggiungere sqlState
  • SPARK-54531 Introduzione a ArrowStreamAggPandasUDFSerializer
  • SPARK-54223 Aggiungere il contesto di attività e le metriche dei dati ai log dell'esecutore Python
  • SPARK-54272 Aggiungere il aggTime per SortAggregateExec
  • SPARK-53469 Possibilità di eseguire la pulizia delle operazioni di shuffle nel server Thrift
  • SPARK-54219 Configurazione del supporto spark.cleaner.referenceTracking.blocking.timeout
  • SPARK-54475 Aggiungere master-server, branch-4.0-client, Python 3.11
  • SPARK-54451 Aggiungere il supporto per la serializzazione e la deserializzazione JSON per il tipo TIME
  • SPARK-54285 Informazioni sul fuso orario della cache per evitare costose conversioni di timestamp
  • SPARK-49133 Rendere il membro MemoryConsumer#used atomico affinché il codice utente non causi deadlock.
  • SPARK-46166 Implementazione di pandas.DataFrame.any con axis=1
  • SPARK-54532 Aggiunta del supporto per sqlstate per PySparkException
  • Spark-54435 spark-pipelines init deve evitare di sovrascrivere la directory esistente
  • SPARK-54247 Chiudere esplicitamente il socket per util._load_from_socket

Supporto del driver ODBC/JDBC di Databricks

Databricks supporta i driver ODBC/JDBC rilasciati negli ultimi 2 anni. Scaricare i driver rilasciati di recente e aggiornare (scaricare ODBC, scaricare JDBC).

Ambiente di sistema

  • Sistema operativo: Ubuntu 24.04.3 LTS
  • Java: Zulu21.42+19-CA
  • Scala: 2.13.16
  • python: 3.12.3
  • R: 4.5.1
  • Delta Lake: 4.0.1

Librerie installate di Python

Libreria Versione Libreria Versione Libreria Versione
aiohappyeyeballs 2.4.4 aiohttp 3.11.10 aiosignal 1.2.0
documento annotato 0.0.4 tipi annotati 0.7.0 anyio 4.7.0
argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0 arro3-core 0.6.5
freccia 1.3.0 asttoken 3.0.0 astunparse 1.6.3
async-lru 2.0.4 att. 24.3.0 comando automatico 2.2.2
azure-common 1.1.28 azure-core 1.37.0 azure-identity (servizio di identità Azure) 1.20.0
azure-mgmt-core 1.6.0 azure-mgmt-web 8.0.0 Azure Storage Blob 12.28.0
file di archiviazione Azure Data Lake 12.22.0 Babele 2.16.0 backports.tarfile 1.2.0
beautifulsoup4 4.12.3 nero 24.10.0 candeggiare 6.2.0
indicatore di direzione 1.7.0 boto3 1.40.45 botocore 1.40.45
cachetools (strumento per la gestione della cache) 5.5.1 certifi 2025.4.26 cffi 1.17.1
chardet 4.0.0 normalizzatore di set di caratteri 3.3.2 fai clic 8.1.8
cloudpickle (libreria Python per la serializzazione degli oggetti) 3.0.0 comunicazione 0.2.1 contourpy 1.3.1
criptografia 44.0.1 ciclista 0.11.0 Cython, un linguaggio di programmazione 3.1.5
databricks-agents 1.9.1 Databricks SDK 0.67.0 dataclasses-json 0.6.7
dbus-python 1.3.2 debugpy 1.8.11 Decoratore 5.1.1
defusedxml (una libreria per migliorare la sicurezza nell'elaborazione di XML) 0.7.1 deltalake 1.1.4 Deprecated 1.2.18
distlib 0.3.9 Conversione da docstring a markdown 0.11 esecuzione 1.2.0
panoramica delle facette 1.1.1 fastapi 0.128.0 fastjsonschema (Una libreria per la convalida veloce dei dati JSON) 2.21.1
blocco dei file 3.17.0 fonttools (strumenti per caratteri) 4.55.3 fqdn (nome di dominio completo) 1.5.1
frozenlist 1.5.0 fsspec 2023.5.0 gitdb 4.0.11
GitPython 3.1.43 google-api-core 2.28.1 google-auth (autenticazione Google) 2.47.0
google-cloud-core 2.5.0 archiviazione su Google Cloud 3.7.0 google-crc32c 1.8.0
google-resumable-media (media riprendibile di Google) 2.8.0 googleapis-common-protos 1.65.0 grpcio 1.67.0
grpcio-status 1.67.0 h11 0.16.0 hf-xet 1.2.0
httpcore 1.0.9 httplib2 0.20.4 httpx 0.28.1
huggingface_hub 1.2.4 IDNA 3.7 importlib_metadata 8.5.0
inflettere 7.3.1 iniconfig 1.1.1 ipyflow-core 0.0.209
ipykernel 6.29.5 ipython 8.30.0 ipython-genutils 0.2.0
ipywidgets 7.8.1 isodate 0.7.2 isodurazione 20.11.0
jaraco.collections 5.1.0 jaraco.context 5.3.0 jaraco.functools 4.0.1
jaraco.text 3.12.1 jedi 0.19.2 Jinja2 3.1.6
jiter 0.12.0 jmespath 1.0.1 joblib 1.4.2
json5 0.9.25 jsonpatch 1.33 jsonpointer 3.0.0
jsonschema 4.23.0 jsonschema-specifications 2023.7.1 eventi-jupyter 0.12.0
jupyter-lsp 2.2.5 jupyter_client 8.6.3 jupyter_core 5.7.2
jupyter_server 2.15.0 terminali_del_server_Jupyter 0.5.3 jupyterlab 4.3.4
jupyterlab_pygments 0.3.0 jupyterlab_server 2.27.3 jupyterlab_widgets 1.1.11
kiwisolver 1.4.8 langchain-core 1.2.6 langchain-openai 1.1.6
langsmith 0.6.1 launchpadlib 1.11.0 lazr.restfulclient 0.14.6
lazr.uri 1.0.6 litellm 1.75.9 markdown-it-py 2.2.0
MarkupSafe 3.0.2 zefiro 3.26.2 matplotlib 3.10.0
matplotlib-inline 0.1.7 mccabe 0.7.0 mdurl 0.1.0
Mistune 3.1.2 mlflow versione leggera 3.8.1 mmh3 5.2.0
more-itertools 10.3.0 msal 1.34.0 msal-extensions 1.3.1
multidict 6.1.0 mypy-extensions 1.0.0 nbclient 0.10.2
nbconvert 7.16.6 nbformat 5.10.4 nest-asyncio 1.6.0
nodeenv 1.10.0 taccuino 7.3.2 notebook_shim 0.2.4
numpy 2.1.3 oauthlib 3.2.2 OpenAI 2.14.0
opentelemetry-api 1.39.1 opentelemetry-proto 1.39.1 opentelemetry-sdk 1.39.1
Convenzioni Semanticche di OpenTelemetry 0.60b1 orjson 3.11.5 sostituisce 7.4.0
imballaggio 24,2 Panda 2.2.3 pandocfilters 1.5.0
parso 0.8.4 pathspec 0.10.3 vittima 1.0.1
pexpect 4.8.0 guanciale 11.1.0 seme 25.0.1
platformdirs 4.3.7 plotly (software di visualizzazione dati) 5.24.1 connettivita 1.5.0
prometheus_client 0.21.1 prompt-toolkit 3.0.43 propcache 0.3.1
proto-plus 1.27.0 protobuf 5.29.4 psutil 5.9.0
psycopg2 2.9.11 ptyprocess 0.7.0 pure-eval 0.2.2
pyarrow 21.0.0 pyasn1 0.4.8 pyasn1-modules 0.2.8
pyccolo 0.0.71 pycparser (un parser scritto in Python) 2.21 pydantic 2.10.6
pydantic_core 2.27.2 pyflakes 3.2.0 Pygments 2.19.1
PyGObject 3.48.2 pyiceberg 0.10.0 PyJWT 2.10.1
pyodbc 5.2.0 pyparsing 3.2.0 pyright 1.1.394
piroaring 1.0.3 pytest 8.3.5 python-dateutil (libreria Python per la gestione delle date) 2.9.0.post0
python-dotenv 1.2.1 python-json-logger (registratore JSON per Python) 3.2.1 python-lsp-jsonrpc 1.1.2
python-lsp-server 1.12.2 pytoolconfig 1.2.6 pytz 2024.1
PyYAML 6.0.2 pyzmq 26.2.0 Riferimento 0.30.2
regex 2024.11.6 richieste 2.32.3 requests-toolbelt 1.0.0
rfc3339-validator 0.1.4 rfc3986-validator 0.1.1 ricco 13.9.4
corda 1.13.0 rpds-py 0.22.3 rsa 4.9.1
s3transfer 0.14.0 scikit-learn 1.6.1 scipy 1.15.3
Seaborn 0.13.2 Send2Trash 1.8.2 setuptools (pacchetto Python per gestire la configurazione e la distribuzione) 78.1.1
"Shellingham" 1.5.4 sei 1.17.0 smmap 5.0.0
sniffio 1.3.0 contenitori ordinati 2.4.0 colino per la zuppa 2.5
sqlparse 0.5.5 ssh-import-id (comando per l'importazione di chiavi SSH) 5.11 dati accatastati 0.6.3
starlette 0.50.0 strictyaml 1.7.3 tenacità 9.0.0
finito 0.17.1 threadpoolctl 3.5.0 tiktoken 0.12.0
tinycss2 1.4.0 tokenize_rt 6.1.0 tokenizzatori 0.22.2
tomli 2.0.1 tornado 6.5.1 tqdm 4.67.1
traitlets (una libreria per la configurazione dei parametri nei programmi Python) 5.14.3 typeguard 4.3.0 typer-slim 0.21.1
types-python-dateutil 2.9.0.20251115 ispezione di digitazione 0.9.0 typing_extensions 4.12.2
tzdata 2024.1 ujson (una libreria per la gestione di JSON in Python) 5.10.0 aggiornamenti non supervisionati 0,1
Modello URI 1.3.0 urllib3 2.3.0 uuid_utils 0.12.0
uvicorn 0.40.0 virtualenv 20.29.3 wadllib 1.3.6
wcwidth (funzione per determinare la larghezza dei caratteri) 0.2.5 webcolors 25.10.0 codifiche web 0.5.1
cliente WebSocket 1.8.0 Che cosa è la patch 1.0.2 ruota 0.45.1
ogni volta 0.7.3 widgetsnbextension 3.6.6 rapito 1.17.0
yapf 0.40.2 yarl 1.18.0 Zipp 3.21.0
zstandard 0.23.0

Librerie R installate

Le librerie R vengono installate dallo snapshot CRAN del Posit Package Manager il 20 novembre 2025.

Libreria Versione Libreria Versione Libreria Versione
freccia 22.0.0 askpass 1.2.1 assicura che 0.2.1
retroportazioni 1.5.0 base 4.5.1 base64enc 0.1-3
bigD 0.3.1 pezzo 4.6.0 bit 64 4.6.0-1
bitops 1.0-9 massa amorfa 1.2.4 boot 1,3-30
fermentare 1.0-10 Brio 1.1.5 Scopa 1.0.10
bslib 0.9.0 cashmere 1.1.0 chiamante 3.7.6
caret 7.0-1 cellranger 1.1.0 cronometro 2.3-62
classe 7.3-22 CLI 3.6.5 Clipr 0.8.0
orologio 0.7.3 raggruppamento 2.1.6 strumenti per la codifica 0.2-20
segno comune 2.0.0 compilatore 4.5.1 config 0.3.2
Confuso 1.2.0 cpp11 0.5.2 crayon 1.5.3
credentials 2.0.3 curva 7.0.0 tabella di dati 1.17.8
Insiemi di dati 4.5.1 DBI 1.2.3 dbplyr 2.5.1
descrizione 1.4.3 strumenti per sviluppatori 2.4.6 diagramma 1.6.5
diffobj 0.3.6 digerire 0.6.39 illuminazione rivolta verso il basso 0.4.5
dplyr 1.1.4 dtplyr 1.3.2 e1071 1.7-16
puntini di sospensione 0.3.2 valutare 1.0.5 fan 1.0.7
colori 2.1.2 mappatura veloce 1.2.0 fontawesome 0.5.3
forzati 1.0.1 foreach 1.5.2 straniero 0.8 - 86
fs 1.6.6 futuro 1.68.0 futuro.applicare 1.20.0
fare gargarismi 1.6.0 elementi generici 0.1.4 gert 2.2.0
ggplot2 4.0.1 gh 1.5.0 git2r 0.36.2
gitcreds 0.1.2 glmnet 4.1-10 elementi globali 0.18.0
colla 1.8.0 Google Drive 2.1.2 googlesheets4 1.1.2
Gower 1.0.2 grafica 4.5.1 grDispositivi 4.5.1
grid 4.5.1 gridExtra 2.3 gsubfn 0.7
gt 1.1.0 gtable 0.3.6 casco protettivo 1.4.2
rifugio 2.5.5 più alto 0.11 HMS 1.1.4
strumenti HTML 0.5.8.1 htmlwidgets 1.6.4 httpuv 1.6.16
httr 1.4.7 httr2 1.2.1 documenti di identità 1.0.1
ini 0.3.1 ipred 0.9-15 banderelle isografiche 0.2.7
Iteratori 1.0.14 jquerylib 0.1.4 jsonlite 2.0.0
juicyjuice 0.1.0 KernSmooth 2.23-22 knitr 1.50
etichettatura 0.4.3 più tardi 1.4.4 reticolo 0,22-5
lava 1.8.2 ciclo di vita 1.0.4 ascolta 0.10.0
litedown 0.8 lubridate 1.9.4 magrittr 2.0.4
Markdown 2.0 Massa 7.3-60.0.1 Matrix 1.6-5
memorizza 2.0.1 metodi 4.5.1 mgcv 1.9-1
MIME 0.13 miniUI 0.1.2 mlflow 3.6.0
ModelMetrics 1.2.2.2 modelr 0.1.11 nlme 3.1-164
nnet 7.3-19 Derivazione numerica 2016.8-1.1 openssl 2.3.4
0.2.0 parallelo 4.5.1 parallelamente 1.45.1
pilastro 1.11.1 pkgbuild 1.4.8 pkgconfig 2.0.3
pkgdown 2.2.0 pkgload 1.4.1 plogr 0.2.0
plyr 1.8.9 elogio 1.0.0 prettyunits 1.2.0
pROC 1.19.0.1 processx 3.8.6 prodlim 2025.04.28
profvis 0.4.0 Avanzamento 1.2.3 progressr 0.18.0
promesse 1.5.0 proto / prototipo 1.0.0 intermediario 0,4–27
P.S. 1.9.1 purrr 1.2.0 R6 2.6.1
ragg 1.5.0 randomForest 4.7-1.2 rappdirs 0.3.3
rcmdcheck 1.4.0 RColorBrewer 1.1-3 Rcpp (una libreria per il linguaggio di programmazione R) 1.1.0
RcppEigen 0.3.4.0.2 reagibile 0.4.4 reactR 0.6.1
readr 2.1.6 readxl (software per leggere documenti Excel) 1.4.5 ricette 1.3.1
nuovo incontro 2.0.0 rematch2 2.1.2 Telecomandi 2.5.0
esempio riproducibile (reprex) 2.1.1 reshape2 1.4.5 rlang 1.1.6
rmarkdown 2.30 RODBC 1.3-26 roxygen2 7.3.3
rpart 4.1.23 rprojroot 2.1.1 Rserve 1,8-15
RSQLite 2.4.4 rstudioapi 0.17.1 rversions 3.0.0
rvest 1.0.5 S7 0.2.1 insolenza 0.4.10
Scala 1.4.0 selettore 0,4-2 informazioni sulla sessione 1.2.3
forma 1.4.6.1 brillante 1.11.1 sourcetools 0.1.7-1
sparklyr 1.9.3 SparkR 4.1.0 sparsevctrs 0.3.4
spaziale 7.3-17 Spline 4.5.1 sqldf 0,4-11
SQUAREM 2021.1 statistiche 4.5.1 statistiche4 4.5.1
perizoma 1.8.7 stringr 1.6.0 Sopravvivenza 3,5-8
spavalderia 5.17.14.1 sys 3.4.3 systemfonts 1.3.1
tcltk 4.5.1 testthat 3.3.0 modellazione del testo 1.0.4
Tibble 3.3.0 tidyr 1.3.1 tidyselect 1.2.1
tidyverse 2.0.0 cambio d'ora 0.3.0 data e ora 4051.111
tinytex 0.58 strumenti 4.5.1 tzdb 0.5.0
verificatore di URL 1.0.1 Usa questo 3.2.1 utf8 1.2.6
Utilità 4.5.1 UUID (Identificatore Unico Universale) 1.2-1 V8 8.0.1
vctrs 0.6.5 viridisLite 0.4.2 vrooom 1.6.6
Waldo 0.6.2 baffi 0.4.1 withr 3.0.2
xfun 0,54 xml2 1.5.0 xopen 1.0.1
xtable 1.8-4 yaml 2.3.10 zeallot 0.2.0
zip 2.3.3

Librerie Java e Scala installate (versione cluster Scala 2.13)

ID del Gruppo ID dell'artefatto Versione
antlr antlr 2.7.7
com.amazonaws Amazon Kinesis Client 1.15.3
com.amazonaws aws-java-sdk-autoscaling 1.12.681
com.amazonaws aws-java-sdk-cloudformation 1.12.681
com.amazonaws aws-java-sdk-cloudfront 1.12.681
com.amazonaws aws-java-sdk-cloudhsm 1.12.681
com.amazonaws aws-java-sdk-cloudsearch 1.12.681
com.amazonaws aws-java-sdk-cloudtrail 1.12.681
com.amazonaws aws-java-sdk-cloudwatch 1.12.681
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.681
com.amazonaws aws-java-sdk-codedeploy 1.12.681
com.amazonaws aws-java-sdk-cognitoidentity 1.12.681
com.amazonaws aws-java-sdk-cognitosync 1.12.681
com.amazonaws aws-java-sdk-config (configurazione SDK Java per AWS) 1.12.681
com.amazonaws aws-java-sdk-core 1.12.681
com.amazonaws aws-java-sdk-datapipeline 1.12.681
com.amazonaws aws-java-sdk-directconnect (strumento per la connessione diretta in Java di AWS) 1.12.681
com.amazonaws aws-java-sdk-directory 1.12.681
com.amazonaws aws-java-sdk-dynamodb 1.12.681
com.amazonaws aws-java-sdk-ec2 1.12.681
com.amazonaws aws-java-sdk-ecs 1.12.681
com.amazonaws aws-java-sdk-efs 1.12.681
com.amazonaws aws-java-sdk-elasticache 1.12.681
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.681
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.681
com.amazonaws aws-java-sdk-elastictranscoder 1.12.681
com.amazonaws aws-java-sdk-emr 1.12.681
com.amazonaws AWS Java SDK per Glacier 1.12.681
com.amazonaws aws-java-sdk-glue (collegamento SDK Java AWS) 1.12.681
com.amazonaws aws-java-sdk-iam 1.12.681
com.amazonaws aws-java-sdk-importexport 1.12.681
com.amazonaws aws-java-sdk-kinesis 1.12.681
com.amazonaws aws-java-sdk-kms 1.12.681
com.amazonaws aws-java-sdk-lambda 1.12.681
com.amazonaws aws-java-sdk-logs 1.12.681
com.amazonaws AWS Java SDK Machine Learning 1.12.681
com.amazonaws aws-java-sdk-opsworks 1.12.681
com.amazonaws aws-java-sdk-rds 1.12.681
com.amazonaws aws-java-sdk-redshift 1.12.681
com.amazonaws aws-java-sdk-route53 1.12.681
com.amazonaws aws-java-sdk-s3 1.12.681
com.amazonaws aws-java-sdk-ses 1.12.681
com.amazonaws aws-java-sdk-simpledb 1.12.681
com.amazonaws aws-java-sdk-simpleworkflow 1.12.681
com.amazonaws aws-java-sdk-sns 1.12.681
com.amazonaws aws-java-sdk-sqs 1.12.681
com.amazonaws aws-java-sdk-ssm 1.12.681
com.amazonaws aws-java-sdk-storagegateway (SDK di AWS per Java per Storage Gateway) 1.12.681
com.amazonaws aws-java-sdk-sts 1.12.681
com.amazonaws aws-java-sdk-support (supporto del kit di sviluppo software Java per AWS) 1.12.681
com.amazonaws aws-java-sdk-workspaces 1.12.681
com.amazonaws jmespath-java 1.12.681
com.clearspring.analytics torrente 2.9.8
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.53.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb scalapb-runtime_2.13 0.4.15-11
com.esotericsoftware ombreggiato criogenico 4.0.3
com.esotericsoftware minlog 1.3.0
com.fasterxml compagno di classe 1.5.1
com.fasterxml.jackson.core Annotazioni di Jackson 2.18.2
com.fasterxml.jackson.core jackson-core 2.18.2
com.fasterxml.jackson.core jackson-databind 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.18.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.18.3
com.fasterxml.jackson.module jackson-module-paranamer 2.18.2
com.fasterxml.jackson.module jackson-module-scala_2.13 2.18.2
com.github.ben-manes.caffeine caffeina 2.9.3
com.github.blemale scaffeine_2.13 4.1.0
com.github.fommil jniloader 1.1
com.github.fommil.netlib riferimento_nativo-java 1.1
com.github.fommil.netlib riferimento_nativo-java 1.1-indigeni
com.github.fommil.netlib sistema_nativo-java 1.1
com.github.fommil.netlib sistema_nativo-java 1.1-indigeni
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-indigeni
com.github.fommil.netlib netlib-sistema_nativo-linux-x86_64 1.1-indigeni
com.github.luben zstd-jni (libreria open-source per compressione con Java Native Interface) 1.5.7-6
com.github.virtuald curvesapi 1,08
com.github.wendykierp JTransforms 3.1
com.google.api.grpc proto-google-common-protos 2.5.1
com.google.auth google-auth-library-credentials 1.20.0
com.google.auth google-auth-library-oauth2-http 1.20.0
com.google.auto.value annotazioni a valore automatico 1.10.4
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.11.0
com.google.crypto.tink tink 1.16.0
com.google.errorprone annotazioni soggette a errori 2.36.0
com.google.flatbuffers flatbuffers-java 25.2.10
com.google.guava errore di accesso 1.0.3
com.google.guava guava 33.4.8-jre
com.google.http-client google-http-client 1.43.3
com.google.http-client google-http-client-gson 1.43.3
com.google.j2objc j2objc-annotations 3.0.0
com.google.protobuf protobuf-java 3.25.5
com.google.protobuf protobuf-java-util 3.25.5
com.helger profilatore 1.1.1
com.ibm.icu icu4j 75.1
com.jcraft jsch 0.1.55
com.lihaoyi sourcecode_2.13 0.1.9
com.microsoft.azure Azure Data Lake Store SDK 2.3.10
com.microsoft.sqlserver mssql-jdbc 12.8.0.jre11
com.microsoft.sqlserver mssql-jdbc 12.8.0.jre8
com.ning compress-lzf (algoritmo di compressione) 1.1.2
com.sun.mail javax.mail (package Java per la gestione della posta elettronica) 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning JSON 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenti_2.13 0.4.13
com.twitter chill-java 0.10.0
com.twitter chill_2.13 0.10.0
com.twitter util-app_2.13 19.8.1
com.twitter util-core_2.13 19.8.1
com.twitter util-function_2.13 19.8.1
com.twitter util-jvm_2.13 19.8.1
com.twitter util-lint_2.13 19.8.1
com.twitter util-registry_2.13 19.8.1
com.twitter util-stats_2.13 19.8.1
com.typesafe config 1.4.3
com.typesafe.scala-logging scala-logging_2.13 3.9.2
com.uber h3 3.7.3
com.univocity parser di univocità 2.9.1
com.zaxxer HikariCP 4.0.3
com.zaxxer SparseBitSet 1.3
commons-cli commons-cli 1.10.0
commons-codec (libreria per la codifica comune) commons-codec (libreria per la codifica comune) 1.19.0
collezioni-comuni collezioni-comuni 3.2.2
commons-dbcp commons-dbcp 1.4
funzione di caricamento file dei Commons funzione di caricamento file dei Commons 1.6.0
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.21.0
commons-lang commons-lang 2.6
commons-logging (no translation needed) commons-logging (no translation needed) 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.4
dev.ludovic.netlib Blas 3.0.4
dev.ludovic.netlib LAPACK 3.0.4
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compressore d'aria 2.0.2
io.delta delta-sharing-client_2.13 1.3.9
io.dropwizard.metrics annotazione delle metriche 4.2.37
io.dropwizard.metrics nucleo delle metriche 4.2.37
io.dropwizard.metrics metrics-graphite 4.2.37
io.dropwizard.metrics metriche-controlli di salute 4.2.37
io.dropwizard.metrics metrics-jetty10 4.2.37
io.dropwizard.metrics metrics-jmx 4.2.37
io.dropwizard.metrics metrics-json (Specificare ulteriormente se necessario a seconda del contesto) 4.2.37
io.dropwizard.metrics metrics-jvm 4.2.37
io.dropwizard.metrics metriche-servlet 4.2.37
io.github.java-diff-utils java-diff-utils 4.15
io.netty netty-all 4.2.7.Final
io.netty netty-buffer 4.2.7.Final
io.netty netty-codec 4.2.7.Final
io.netty netty-codec-base 4.2.7.Final
io.netty netty-codec-classes-quic 4.2.7.Final
io.netty netty-codec-compression 4.2.7.Final
io.netty netty-codec-http (codec HTTP di Netty) 4.2.7.Final
io.netty netty-codec-http2 4.2.7.Final
io.netty netty-codec-http3 4.2.7.Final
io.netty netty-codec-marshalling 4.2.7.Final
io.netty netty-codec-native-quic 4.2.7.Final-linux-aarch_64
io.netty netty-codec-native-quic 4.2.7.Final-linux-x86_64
io.netty netty-codec-native-quic 4.2.7.Final-osx-aarch_64
io.netty netty-codec-native-quic 4.2.7.Final-osx-x86_64
io.netty netty-codec-native-quic 4.2.7.Final-windows-x86_64
io.netty netty-codec-protobuf 4.2.7.Final
io.netty netty-codec-socks 4.2.7.Final
io.netty netty-common 4.2.7.Final
io.netty netty-handler 4.2.7.Final
io.netty netty-handler-proxy 4.2.7.Final
io.netty netty-resolver 4.2.7.Final
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-windows-x86_64
io.netty netty-tcnative-classes 2.0.74.Final
io.netty netty-transport 4.2.7.Final
io.netty netty-transport-classes-epoll 4.2.7.Final
io.netty netty-transport-classes-io_uring 4.2.7.Final
io.netty netty-transport-classes-kqueue 4.2.7.Final
io.netty netty-transport-native-epoll 4.2.7.Final
io.netty netty-transport-native-epoll 4.2.7.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.2.7.Final-linux-riscv64
io.netty netty-transport-native-epoll 4.2.7.Final-linux-x86_64
io.netty netty-transport-native-io_uring 4.2.7.Final-linux-aarch_64
io.netty netty-transport-native-io_uring 4.2.7.Final-linux-riscv64
io.netty netty-transport-native-io_uring 4.2.7.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.2.7.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.2.7.Final-osx-x86_64
io.netty netty-transport-native-unix-comune 4.2.7.Final
io.opencensus opencensus-api 0.31.1
io.opencensus opencensus-contrib-http-util 0.31.1
io.prometheus simpleclient 0.16.1-databricks
io.prometheus sempliceclient_comune 0.16.1-databricks
io.prometheus simpleclient_dropwizard 0.16.1-databricks
io.prometheus simpleclient_pushgateway 0.16.1-databricks
io.prometheus simpleclient_servlet 0.16.1-databricks
io.prometheus simpleclient_servlet_common 0.16.1-databricks
io.prometheus simpleclient_tracer_common 0.16.1-databricks
io.prometheus simpleclient_tracer_otel 0.16.1-databricks
io.prometheus simpleclient_tracer_otel_agent 0.16.1-databricks
io.prometheus.jmx collezionista 0.18.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation attivazione 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.media jai_core jai_core_dummy
javax.transaction Java Transaction API (JTA) 1.1
javax.transaction API per le transazioni 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.14.0
net.java.dev.jna jna 5.8.0
net.razorvine sottaceto 1,5
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv (formato CSV avanzato) 2.2.0
net.snowflake snowflake-ingest-sdk (kit di sviluppo software per l'ingestione dati) 0.9.6
net.sourceforge.f2j arpack_combinato_tutto 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.13.1
org.antlr modello di stringa 3.2.1
org.apache.ant formica 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant ant launcher 1.10.11
org.apache.arrow compressione freccia 18.3.0
org.apache.arrow formato a freccia 18.3.0
org.apache.arrow arrow-nucleo-di-memoria 18.3.0
org.apache.arrow arrow-memory-netty 18.3.0
org.apache.arrow patch-buffer-netty-memoria-freccia 18.3.0
org.apache.arrow freccia-vettore 18.3.0
org.apache.avro Avro 1.12.1
org.apache.avro avro-ipc 1.12.1
org.apache.avro avro-mapred 1.12.1
org.apache.commons commons-collections4 4.5.0
org.apache.commons commons-compress 1.28.0
org.apache.commons commons-configuration2 2.11.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.19.0
org.apache.commons commons-math3 3.6.1
org.apache.commons testo comune 1.14.0
org.apache.curator cliente del curatore 5.9.0
org.apache.curator framework del curatore 5.9.0
org.apache.curator ricette del curatore 5.9.0
org.apache.datasketches datasketches-java 6.2.0
org.apache.datasketches datasketches-memory 3.0.2
org.apache.derby derby sportivo 10.14.2.0
org.apache.hadoop runtime del client Hadoop 3.4.2
org.apache.hive hive-beeline 2.3.10
org.apache.hive hive-cli 2.3.10
org.apache.hive Hive-JDBC 2.3.10
org.apache.hive hive-llap-client 2.3.10
org.apache.hive hive-llap-common 2.3.10
org.apache.hive hive-serde 2.3.10
org.apache.hive spessori del sistema Hive 2.3.10
org.apache.hive API di archiviazione Hive 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.10
org.apache.hive.shims Hive-shims-common 2.3.10
org.apache.hive.shims hive-shims-scheduler 2.3.10
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy Edera 2.5.3
org.apache.logging.log4j log4j-1.2-api 2.24.3
org.apache.logging.log4j log4j-api 2.24.3
org.apache.logging.log4j log4j-core 2.24.3
org.apache.logging.log4j log4j-struttura-modello-json 2.24.3
org.apache.logging.log4j log4j-slf4j2-impl 2.24.3
org.apache.orc orc-core 2.2.0-shaded-protobuf
org.apache.orc formato orc 1.1.1-shaded-protobuf
org.apache.orc orc-mapreduce 2.2.0-shaded-protobuf
org.apache.orc orc-shims 2.2.0
org.apache.poi POI 5.4.1
org.apache.poi poi-ooxml 5.4.1
org.apache.poi poi-ooxml-full 5.4.1
org.apache.poi poi-ooxml-lite 5.4.1
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.16.0
org.apache.ws.xmlschema xmlschema-core 2.3.1
org.apache.xbean xbean-asm9-shaded 4.28
org.apache.xmlbeans xmlbeans 5.3.0
org.apache.yetus annotazioni per il pubblico 0.13.0
org.apache.zookeeper guardiano dello zoo 3.9.4
org.apache.zookeeper guardiano dello zoo-juta 3.9.4
org.checkerframework verificatore qualità 3.43.0
org.codehaus.janino Commons-Compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus Datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-alpn-client 10.0.26
org.eclipse.jetty jetty-client 10.0.26
org.eclipse.jetty jetty-http 10.0.26
org.eclipse.jetty jetty-io 10.0.26
org.eclipse.jetty jetty-jndi 10.0.26
org.eclipse.jetty Jetty Plus 10.0.26
org.eclipse.jetty jetty-proxy 10.0.26
org.eclipse.jetty sicurezza del molo 10.0.26
org.eclipse.jetty Jetty Server 10.0.26
org.eclipse.jetty jetty-servlet 10.0.26
org.eclipse.jetty jetty-servlets 10.0.26
org.eclipse.jetty jetty-util 10.0.26
org.eclipse.jetty applicazione web di Jetty 10.0.26
org.eclipse.jetty jetty-xml 10.0.26
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-localizzatore 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 localizzatore di risorse OSGi 1.0.3
org.glassfish.hk2.external aopalliance-repackaged (riconfezionato) 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet (servlet del contenitore Jersey) 2.41
org.glassfish.jersey.containers modulo-nucleo-servlet-contenitore-jersey (if a translation is required as per the context) 2.41
org.glassfish.jersey.core jersey-client 2.41
org.glassfish.jersey.core jersey-comune 2.41
org.glassfish.jersey.core Jersey-server 2.41
org.glassfish.jersey.inject jersey-hk2 2.41
org.hibernate.validator validatore di Hibernate 6.2.5.Final
org.ini4j ini4j 0.5.4
org.javassist javassist 3.29.2-GA
org.jboss.logging jboss-logging (strumento di registrazione per JBoss) 3.4.1.Final
org.jdbi jdbi 2.63.1
org.jline jline 3.27.1-jdk8
org.joda joda-convert 1.7
org.json4s json4s-ast_2.13 4.0.7
org.json4s json4s-core_2.13 4.0.7
org.json4s json4s-jackson-core_2.13 4.0.7
org.json4s json4s-jackson_2.13 4.0.7
org.json4s json4s-scalap_2.13 4.0.7
org.locationtech.jts jts-core 1.20.0
org.lz4 lz4-java 1.8.0-databricks-1
org.mlflow mlflow-spark_2.13 2.22.1
org.objenesis objenesis 3.4
org.postgresql postgresql 42.6.1
org.roaringbitmap RoaringBitmap 1.2.1
org.rocksdb rocksdbjni 9.8.4
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.13 2.13.16
org.scala-lang scala-library_2.13 2.13.16
org.scala-lang scala-reflect_2.13 2.13.16
org.scala-lang.modules scala-collection-compat_2.13 2.11.0
org.scala-lang.modules scala-java8-compat_2.13 0.9.1
org.scala-lang.modules scala-parallel-collections_2.13 1.2.0
org.scala-lang.modules scala-parser-combinators_2.13 2.4.0
org.scala-lang.modules scala-xml_2.13 2.4.0
org.scala-sbt interfaccia di prova 1.0
org.scalacheck scalacheck_2.13 1.18.0
org.scalactic scalactic_2.13 3.2.19
org.scalanlp breeze-macros_2.13 2.1.0
org.scalanlp breeze_2.13 2.1.0
org.scalatest compatibile con scalatest 3.2.19
org.scalatest scalatest-core_2.13 3.2.19
org.scalatest scalatest-diagrams_2.13 3.2.19
org.scalatest scalatest-featurespec_2.13 3.2.19
org.scalatest scalatest-flatspec_2.13 3.2.19
org.scalatest scalatest-freespec_2.13 3.2.19
org.scalatest scalatest-funspec_2.13 3.2.19
org.scalatest scalatest-funsuite_2.13 3.2.19
org.scalatest scalatest-matchers-core_2.13 3.2.19
org.scalatest scalatest-mustmatchers_2.13 3.2.19
org.scalatest scalatest-propspec_2.13 3.2.19
org.scalatest scalatest-refspec_2.13 3.2.19
org.scalatest scalatest-shouldmatchers_2.13 3.2.19
org.scalatest scalatest-wordspec_2.13 3.2.19
org.scalatest scalatest_2.13 3.2.19
org.slf4j jcl-over-slf4j 2.0.16
org.slf4j jul-to-slf4j 2.0.16
org.slf4j slf4j-api 2.0.16
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.8.0
org.tukaani xz 1.10
org.typelevel algebra_2.13 2.8.0
org.typelevel cats-kernel_2.13 2.8.0
org.typelevel spire-macros_2.13 0.18.0
org.typelevel spire-platform_2.13 0.18.0
org.typelevel spire-util_2.13 0.18.0
org.typelevel spire_2.13 0.18.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1,5
software.amazon.cryptools AmazonCorrettoCryptoProvider 2.5.0-linux-x86_64
Stax stax-api 1.0.1