Condividi tramite


Databricks Runtime 17.1

Le note sulla versione seguenti forniscono informazioni su Databricks Runtime 17.1, basate su Apache Spark 4.0.0.

Azure Databricks ha rilasciato questa versione nell'agosto 2025.

Suggerimento

Per visualizzare le note sulle versioni di Databricks Runtime che hanno raggiunto l'EoS (fine del supporto), vedere Note sulle versioni di Databricks Runtime che hanno raggiunto l'EoS. Le versioni di EoS Databricks Runtime sono state ritirate e potrebbero non essere aggiornate.

Nuove funzionalità e miglioramenti

Tipi di dati "GEOMETRY" e "GEOGRAPHY" ed espressioni SQL spaziali ampliate

È ora possibile memorizzare dati geospaziali in colonne predefinite GEOMETRY e GEOGRAPHY per migliorare le prestazioni delle query spaziali. Questa versione aggiunge più di 80 nuove espressioni SQL spaziali, incluse le funzioni per l'importazione, l'esportazione, la misurazione, la costruzione, la modifica, la convalida, la trasformazione e la determinazione di relazioni topologiche con join spaziali. Vedere ST geospatial functions, GEOGRAPHY tipo e GEOMETRY tipo.

Espressioni di tabella comuni ricorsive (GA)

Le espressioni di tabella comuni ricorsive (rCTEs) sono ora disponibili a livello generale. Usare rCTEs per esplorare i dati gerarchici con un CTE autoferenziante e UNION ALL per seguire le relazioni ricorsive.

Funzioni tabella python User-Defined del catalogo Unity (UDF)

È ora possibile registrare funzioni definite dall'utente Python nel catalogo unity per la governance centralizzata e la logica riutilizzabile tra query SQL. Vedere Funzioni di tabella definite dall'utente python (UDF) nel catalogo unity.

Supporto per le regole di confronto predefinite a livello di schema e catalogo

È ora possibile impostare regole di confronto predefinite per schemi e cataloghi in Databricks Runtime 17.1. In questo modo è possibile definire regole di confronto applicabili a tutti gli oggetti creati all'interno dello schema o del catalogo, garantendo un comportamento coerente delle regole di confronto tra i dati.

Ambiente di esecuzione dell'isolamento condiviso per le funzioni definite dall'utente Python del catalogo Di Batch Unity

Le funzioni definite dall'utente python del catalogo Di Batch Unity con lo stesso proprietario possono ora condividere un ambiente di isolamento per impostazione predefinita. In questo modo è possibile migliorare le prestazioni e ridurre l'utilizzo della memoria riducendo il numero di ambienti separati da avviare.

Per garantire che una funzione definita dall'utente venga sempre eseguita in un ambiente completamente isolato, aggiungere la clausola caratteristica STRICT ISOLATION . Vedere Isolamento dell'ambiente.

Gestione migliore delle opzioni JSON con VARIANT

Le from_json funzioni e to_json ora applicano correttamente le opzioni JSON quando si utilizzano schemi di primo livello VARIANT . In questo modo si garantisce un comportamento coerente con altri tipi di dati supportati.

display() supporta la modalità streaming Real-Time

È possibile utilizzare la funzione display() con query di streaming che usano un trigger in tempo reale. In questa modalità usa display() automaticamente la update modalità di output ed evita l'aggiunta di una LIMIT clausola , non supportata con update. L'intervallo di aggiornamento dello schermo è anche disaccoppiato dalla durata del batch per supportare meglio la velocità di risposta in tempo reale.

La sorgente della frequenza supporta lo Streaming in modalità Real-Time

L'origine della frequenza in Structured Streaming ora funziona con trigger in tempo reale, abilitando la generazione continua dei dati per le pipeline di streaming usando la modalità streaming Real-Time.

Timer basati sull'ora dell'evento supportati per le finestre temporali

Azure Databricks supporta i trigger basati sull'ora dell'evento per le operazioni di finestra basate sul tempo in modalità di streaming Real-Time. In questo modo è possibile gestire in modo più accurato i dati in ritardo e la filigrana nelle query di streaming in tempo reale.

Le funzioni definite dall'utente Python scalari supportano le credenziali del servizio

Le funzioni definite dall'utente Python scalari possono usare le credenziali del servizio Catalogo Unity per accedere in modo sicuro ai servizi cloud esterni. Ciò è utile per l'integrazione di operazioni quali la tokenizzazione basata sul cloud, la crittografia o la gestione dei segreti direttamente nelle trasformazioni dei dati.

Elenco di schemi migliorato

Il connettore Snowflake usa la INFORMATION_SCHEMA tabella anziché il SHOW SCHEMAS comando per elencare gli schemi. Questa modifica rimuove il limite di 10.000 schemi dell'approccio precedente e migliora il supporto per i database con un numero elevato di schemi.

Miglioramento del mapping delle colonne di stringhe nelle operazioni di scrittura in Redshift

Quando si scrivono tabelle in Redshift usando spark.write, le colonne stringa senza lunghezza esplicita vengono mappate a VARCHAR(MAX) anziché a TEXT. In questo modo si evita il comportamento predefinito di Redshift di interpretare TEXT come VARCHAR(256), che potrebbe causare errori durante la scrittura di stringhe più lunghe.

Supporto per DDL, SHOW e DESCRIBE nelle tabelle con controllo degli accessi

I comandi SQL come DDL, SHOWe DESCRIBE ora vengono eseguiti in tabelle controllate dall'accesso con granularità fine usando cluster dedicati. Quando è necessario applicare i controlli di accesso, Azure Databricks instrada questi comandi tramite il calcolo serverless, esattamente come avviene per letture, merge e accodamenti. Vedere Supporto per DDL, SHOW, DESCRIBE e altri comandi.

Riduzione dell'utilizzo della memoria per schemi estesi nel writer Photon

Sono stati apportati miglioramenti al motore Photon che riduce significativamente l'utilizzo della memoria per gli schemi wide, risolvendo gli scenari che in precedenza causavano errori di memoria insufficiente.

Supporto per la sintassi TIMESTAMP WITHOUT TIME ZONE

È ora possibile specificare TIMESTAMP WITHOUT TIME ZONE anziché TIMESTAMP_NTZ. Questa modifica migliora la compatibilità con SQL Standard.

Modifiche comportamentali

Problema di correlazione delle sottoquery risolte

Azure Databricks non correla più in modo errato espressioni di aggregazione semanticamente uguali tra una sottoquery e la relativa query esterna. In precedenza, questo potrebbe causare risultati di query non corretti.

I valori letterali NTZ timestamp non vengono più spostati verso il basso

Sia per il connettore Snowflake che per Snowflake Lakehouse Federation, TIMESTAMP_NTZ i valori letterali (timestamp senza fuso orario) non vengono più inseriti in Snowflake. Questa modifica impedisce gli errori di query causati dalla gestione del timestamp incompatibile e migliora l'affidabilità per le query interessate.

Errore generato per vincoli non validi CHECK

Azure Databricks genera ora un AnalysisException se un'espressione di vincolo CHECK non è risolvibile nella validazione dei vincoli.

Il connettore Pulsar non espone più Bouncy Castle

La libreria Bouncy Castle è ora ombreggiata nel connettore Pulsar per evitare conflitti classpath. Di conseguenza, i processi Spark non possono più accedere alle org.bouncycastle.* classi dal connettore. Se il codice dell'applicazione dipende da Bouncy Castle, installare la libreria manualmente nel cluster.

Il caricatore automatico usa eventi di file per impostazione predefinita, se disponibile

Il caricatore automatico usa gli eventi di file anziché l'elenco di directory quando il percorso di caricamento è un percorso esterno con eventi di file abilitati. Il valore predefinito per useManagedFileEvents è ora if_available (era false). Ciò può migliorare le prestazioni di inserimento e registra un avviso se gli eventi di file non sono ancora abilitati.

Proprietà interne della tabella filtrate da SHOW CREATE TABLE

SHOW CREATE TABLE non include più proprietà interne che non possono essere impostate manualmente o passate a CREATE TABLE. In questo modo si riduce la confusione e l'output viene allineato alle opzioni configurabili dall'utente.

Regole più rigide per i join stream-stream in modalità di accodamento

Azure Databricks ora non consente le query di streaming in modalità di accodamento che usano un join di flusso seguito dall'aggregazione di finestre, a meno che non siano definite filigrane su entrambi i lati. Le query senza filigrane appropriate possono produrre risultati non finali, violando le garanzie di modalità di accodamento.

Il connettore Teradata corregge il confronto tra stringhe con distinzione tra maiuscole e minuscole

Il connettore Teradata ora usa TMODE=ANSIper impostazione predefinita , allineando il comportamento di confronto delle stringhe con Azure Databricks, rendendo la distinzione tra maiuscole e minuscole. Questa modifica è configurabile e non influisce sugli utenti esistenti, a meno che non acconsentino esplicitamente.

Aggiornamenti della libreria

  • Librerie Python aggiornate:

    • Google-auth dalla versione 2.40.1 alla versione 2.40.0
    • mlflow-skinny da 3.0.0 a 3.0.1
    • opentelemetry-api dalla versione 1.33.0 alla versione 1.32.1
    • opentelemetry-sdk dalla versione 1.33.0 alla versione 1.32.1
    • opentelemetry-semantic-conventions da 0.54b0 a 0.53b1
    • imballaggio da 24.1 a 24.2
    • pip da 24.2 a 25.0.1
  • Librerie R aggiornate:

  • cli dalla versione 3.6.4 alla versione 3.6.5

  • curl da 6.2.1 a 6.4.0

  • generics da 0.1.3 a 0.1.4

  • globals da 0.16.3 a 0.18.0

  • openssl dalla versione 2.3.2 alla versione 2.3.3

  • pilastro da 1.10.1 a 1.11.0

  • rlang da 1.1.5 a 1.1.6

  • sparklyr da 1.9.0 a 1.9.1

  • stringi da 1.8.4 a 1.8.7

  • tibble da 3.2.1 a 3.3.0

  • utf8 da 1.2.4 a 1.2.6

  • Librerie Java aggiornate:

    • software.amazon.cryptools.AmazonCorrettoCryptoProvider da 2.4.1-linux-x86_64 a 2.5.0-linux-x86_64

Apache Spark

Databricks Runtime 17.1 include Apache Spark 4.0.0. Questa versione include tutte le correzioni e i miglioramenti di Spark inclusi nella versione 17.0, nonché le correzioni di bug e i miglioramenti aggiuntivi seguenti apportati a Spark:

  • SPARK-52721 Correzione del parametro del messaggio per CANNOT_PARSE_DATATYPE
  • SPARK-51919 Consentire la sovrascrittura dell'origine dati Python registrata in modo statico
  • SPARK-52632 Ripristina: visualizzare i nodi del piano di scrittura V2
  • SPARK-52715 Bella stringa SQL di TIME - DAY-TIME INTERVAL
  • SPARK-51268 Rendere senza blocco TreeNode
  • SPARK-52701 Correzione dell'estensione del tipo float32 in mod con bool in ANSI
  • SPARK-52563 Correzione del bug nel nome della variabile in _assert_pandas_almost_equal
  • SPARK-52541 Aggiungere guida di programmazione per le pipeline dichiarative
  • SPARK-51695 Correggere gli errori di test causati dalla modifica della sintassi CHECK CONSTRAINT
  • SPARK-52666 Mappa il tipo definito dall'utente al corretto MutableValue in SpecificInternalRow
  • SPARK-52660 Aggiungere un tipo di ora a CodeGenerator#javaClass
  • SPARK-52693 Supporto +/- Intervalli di tempo di giorno ANSI da/verso TIME
  • SPARK-52705 Effettuare il refactoring del controllo deterministico per le espressioni di raggruppamento
  • SPARK-52699 Supporto per l'aggregazione del tipo TIME in modalità interpretata
  • SPARK-52503 Correzione dell'eliminazione quando la colonna di input non è esistente
  • SPARK-52535 Migliorare la leggibilità del codice della regola ApplyColumnarRulesAndInsertTransitions
  • SPARK-52551 Aggiungere un nuovo predicato v2 BOOLEAN_EXPRESSION
  • SPARK-52698 Ripristina: migliorare gli hint di tipo per il modulo dell'origine dati
  • SPARK-52684 Rendere CACHE TABLE atomici i comandi durante la verifica degli errori di esecuzione
  • SPARK-52671 RowEncoder non cercherà un tipo definito dall'utente risolto
  • SPARK-52670 Far funzionare HiveResult con UserDefinedType#stringifyValue
  • SPARK-52692 Supporto della memorizzazione nella cache del tipo TIME
  • SPARK-51516 Supporto di TIME dal server Thrift
  • SPARK-52674 Pulire l'utilizzo delle API deprecate correlate a RandomStringUtils
  • SPARK-51428 Assegnare alias per alberi delle espressioni raggruppati in modo deterministico
  • SPARK-52672 Non sostituire le espressioni Sort/Having con alias se l'espressione esiste in Aggregazione
  • Conversione di TIME(n) in TIME(m)
  • SPARK-52656 Correggere current_time()
  • SPARK-52630 Riorganizzare l'operatore di streaming e il codice di gestione dello stato e delle directory.
  • SPARK-52649 Tagliare gli alias prima delle espressioni Sort/Having/Filter corrispondenti in buildAggExprList
  • SPARK-52578 Aggiungere metriche per le righe per tenere traccia dei casi e delle azioni in MergeRowsExec
  • SPARK-49428 Spostare Connect Scala Client from Connector to SQL (Connettere il client Scala dal connettore a SQL)
  • SPARK-52494 Supportare la sintassi dell'operatore con segno di due punti per accedere ai campi Variant
  • SPARK-52642 Usare daemonWorkers.get(worker) per evitare la desincronizzazione imprevista tra idleWorkers e daemonWorkers
  • SPARK-52570 Abilitare divisione per zero per rmod numerico con ANSI abilitato
  • SPARK-52633 Deduplicare l'output figlio unione singola prima di DeduplicateRelations
  • SPARK-52600 Spostare CompletionIterator in comuni/utilità
  • SPARK-52626 Consentire il raggruppamento in base al tipo di ora
  • SPARK-52395 Fallire immediatamente l'attività del riduttore quando la richiesta di recupero di Prism fallisce
  • SPARK-52596 Provare a creare TIMESTAMP_NTZ da DATE e TIME
  • SPARK-52595 Rinominare l'espressione TimeAdd in TimestampAddInterval
  • SPARK-52586 Introduzione a AnyTimeType
  • SPARK-52583 Aggiungere l'API developer per la stringa dei valori in UserDefinedType
  • SPARK-52354 Aggiungere la coercizione di tipo a UnionLoop
  • SPARK-52579 Configurare il dump periodico di traceback per i lavoratori Python
  • SPARK-52456 Ridurre il limite minimo di spark.eventLog.rolling.maxFileSize
  • SPARK-52536 Impostare extractionDir di AsyncProfilerLoader nella directory locale di Spark
  • SPARK-52405 Estendere V2JDBCTest per testare la lettura di più partizioni
  • SPARK-52303 Alzare di livello ExternalCommandRunner a Stable
  • SPARK-52572 Evitare CAST_INVALID_INPUT di DataFrame.isin in modalità ANSI
  • SPARK-52349 Abilitare i test di operazioni booleane con ANSI attivato
  • SPARK-52402 Correggere gli errori di divisione per zero nella correlazione Kendall e Pearson in modalità ANSI
  • SPARK-52356 Abilitare la divisione per zero per il mod/rmod booleano con ANSI abilitato
  • SPARK-52288 Evitare INVALID_ARRAY_INDEX in split/rsplit quando la modalità ANSI è attivata
  • SPARK-52557 Evitare l'errore CAST_INVALID_INPUT durante l'utilizzo di to_numeric(errors='coerce') in modalità ANSI
  • SPARK-52440 Aggiungere l'installazione python aggiuntiva per le pipeline dichiarative
  • SPARK-52569 Correggere l'eccezione cast della classe in SecondsOfTimeWithFraction
  • SPARK-52540 Crea TIMESTAMP_NTZ da DATA e ORA
  • SPARK-52539 Introduzione di session hooks
  • SPARK-52554 Evitare più viaggi di andata e ritorno per la verifica della configurazione in Spark Connect
  • SPARK-52553 Correzione di NumberFormatException durante la lettura del log delle modifiche v1
  • SPARK-52534 Rendere MLCache e MLHandler thread-safe
  • SPARK-52460 Archiviare i valori interni di TIME come nanosecondi
  • SPARK-52482 Supporto ZStandard per il lettore delle origini dati dei file
  • SPARK-52531 OuterReference nell'aggregazione sottoquery non è associato in modo errato all'aggregazione di query esterna
  • SPARK-52339 Correzione del confronto tra le istanze di InMemoryFileIndex
  • SPARK-52418 Aggiungere una variabile di stato noElements a PercentileHeap per evitare calcoli ripetitivi di isEmpty()
  • SPARK-52537 Stampare lo stacktrace in caso di errore nella creazione di una dir temporanea
  • SPARK-52462 Applicare la coercizione dei tipi prima della deduplicazione degli output dei sottoelementi nella Union
  • SPARK-52528 Abilitare la divisione per zero per il mod numerico con ANSI abilitato
  • SPARK-52458 Supporto di spark.eventLog.excludedPatterns
  • SPARK-52493 Supporto TIMESTAMP SENZA FUSO ORARIO
  • SPARK-51563 Supportare il nome completamente qualificato del tipo TIME(n) WITHOUT TIME ZONE
  • SPARK-52450 Migliorare le prestazioni del deepcopy dello schema
  • SPARK-52519 Abilitare la divisione per numeri interi con zero per floordiv numerico quando ANSI è abilitato
  • SPARK-52489 Impedire i gestori SQLEXCEPTION duplicati e NOT FOUND all'interno dello script SQL
  • SPARK-52488 Strip alias prima di avvolgere i riferimenti esterni sotto HAVING
  • SPARK-52383 Migliorare gli errori in SparkConnectPlanner
  • SPARK-52335 Unificare l'errore di numero di bucket non valido per Connect e Classic
  • SPARK-52337 Rendere InvalidPlanInput un errore visibile all'utente
  • SPARK-52312 Ignora V2WriteCommand durante la memorizzazione nella cache del dataframe
  • SPARK-52487 Aggiungere l'ora d'invio e la durata della fase ai dettagli della StagePage
  • SPARK-52433 Unificare la coercizione della stringa in createDataFrame
  • SPARK-52427 Normalizzare l'elenco di espressioni di aggregazione coperto da un progetto
  • SPARK-51745 Imponi macchina a stati per RocksDBStateStore
  • SPARK-52447 Spostare GetViewColumnByNameAndOrdinal normalizzazione su SessionCatalogSuite
  • SPARK-52397 Idempotent ExecutePlan: secondo ExecutePlan con lo stesso operationId e ricollegamento del piano
  • SPARK-52355 Dedurre il tipo di oggetto VariantVal come VariantType durante la creazione di un dataframe
  • SPARK-52425 Refactoring ExtractValue per il riutilizzo nell'implementazione a passaggio singolo
  • SPARK-52249 Abilitare divide per zero per truediv numerico con ANSI abilitato
  • SPARK-52228 Integrare il microbenchmark di interazione con stato in Quicksilver (TCP)
  • SPARK-48356 Migliorare l'inferenza dello schema di colonna dell'istruzione FOR
  • SPARK-48353 Miglioramenti alla gestione delle eccezioni
  • SPARK-52060 Creare un nodo OneRowRelationExec
  • SPARK-52391 Refactoring delle funzioni TransformWithStateExec/vars nella classe base per Scala e Python
  • SPARK-52218 Rendere nuovamente valutabili le funzioni datetime correnti
  • SPARK-52350 Aggiornamento del collegamento per la guida alla programmazione SS nella versione 4.0
  • SPARK-52385 Rimuovere TempResolvedColumns dal nome InheritAnalysisRules
  • SPARK-52392 Nuova funzionalità dell'analizzatore a passaggio singolo
  • SPARK-52243 Aggiungere il supporto NERF per gli errori InvalidPlanInput correlati allo schema
  • SPARK-52338 Ereditare le regole di confronto predefinite dallo schema alla visualizzazione
  • SPARK-52307 Sostegno per la funzione definita dall'utente Scalar Arrow Iterator
  • SPARK-52300 Rendere la risoluzione UDTVF di SQL usare configurazioni coerenti con la risoluzione delle visualizzazioni
  • SPARK-52219 Supporto delle collazioni a livello di schema per le tabelle
  • SPARK-52272 V2SessionCatalog non modifica lo schema nel catalogo Hive
  • SPARK-51890 Aggiungere options un parametro alla visualizzazione piano logico
  • SPARK-51936 ReplaceTableAsSelect deve sovrascrivere una nuova tabella anziché accodare
  • SPARK-51302 Spark Connect supporta JDBC e dovrebbe usare l'API DataFrameReader
  • SPARK-50137 Evitare il fallback in modi incompatibili con Hive durante la creazione di tabelle non riesce
  • SPARK-52184 Eseguire il wrapping degli errori di sintassi JDBC del motore esterno con un'eccezione unificata
  • SPARK-47618 Usare Magic Commiter per tutti i bucket S3 per impostazione predefinita
  • SPARK-52305 Perfezionare la docstring per isnotnull, equal_null, nullif, nullifzero, nvl, nvl2, zeroifnull
  • SPARK-52174 Abilitare spark.checkpoint.compress per impostazione predefinita
  • SPARK-52224 Introdurre pyyaml come dipendenza per il client Python
  • SPARK-52233 Correzione map_zip_with per i tipi a virgola mobile
  • SPARK-52036 Aggiungere il trait SQLConfHelper a v2.FileScan
  • SPARK-52159 Rimuovere una condizione troppo ampia per il dialetto MariaDB
  • SPARK-50104 Supporto di SparkSession.executeCommand in Connect
  • SPARK-52240 Correzione dell'utilizzo dell'indice di riga quando si esplodeno matrici in lettura vettorializzata
  • SPARK-52153 Correzione di from_json e to_json con variant
  • SPARK-48618 Migliorare il test 'not exists' per verificare i nomi a 3 e 2 parti
  • SPARK-52216 Rendere InvalidCommandInput un errore rivolto all'utente
  • SPARK-52299 Sostituire JsonNode.fields deprecato
  • SPARK-52287 Migliorare SparkContext per non popolare l'impostazione o.a.s.internal.io.cloud.* se non esiste
  • SPARK-51430 Arrestare il logger di contesto PySpark dalla propagazione dei log a stdout
  • SPARK-52278 Supporto per UDF scalari Arrow con argomenti nominati
  • SPARK-52026 Bloccare l'API Pandas in spark in modalità ANSI per impostazione predefinita
  • SPARK-52171 Implementazione di join StateDataSource per lo stato v3
  • SPARK-52159 Gestire correttamente il controllo dell'esistenza delle tabelle per i dialetti jdbc
  • SPARK-52158 Aggiungere l'oggetto InvalidInputErrors per centralizzare gli errori in SparkConnectPlanner
  • SPARK-52195 Correzione del problema di eliminazione della colonna dello stato iniziale per TWS Python
  • SPARK-52211 Strip $ suffix from SparkConnectServer INFO log (Strip $ suffix from SparkConnectServer INFO log)
  • SPARK-52239 Supporto per la registrazione di una UDF Arrow
  • SPARK-52215 Implementare Scalar Arrow UDF
  • SPARK-52188 Correzione per StateDataSource in cui StreamExecution.RUN_ID_KEY non è impostato
  • SPARK-52189 Nuovi test di file d'oro per NATURAL JOIN con GROUP BY, HAVINGORDER BY e LCA
  • SPARK-52079 Normalizzare l'ordine degli attributi negli elenchi di progetti interni
  • SPARK-52234 Correzione dell'errore nell'input non stringa in schema_of_csv/xml
  • SPARK-52221 Eseguire il refactoring di SqlScriptingLocalVariableManager in un gestore di contesto più generico
  • SPARK-52181 Aumentare il limite di dimensioni varianti a 128MiB
  • SPARK-52217 Ignorare la convalida dei riferimenti esterni in Filtro nel sistema di risoluzione a passaggio singolo
  • SPARK-51260 Spostare V2ExpressionBuilder e PushableExpression nel modulo Catalyst
  • SPARK-52156 Metti CREATE TEMPORARY TABLE legacy... UTILIZZANDO il provider sotto il flag
  • SPARK-51012 Rimuovere SparkStrategy da Connect Shims
  • SPARK-52109 Aggiungere l'API listTableSummaries all'API Catalogo Tabelle V2 della Sorgente Dati
  • SPARK-50915 Aggiungere getCondition e deprecare getErrorClass in PySparkException
  • SPARK-52022 Aggiungere il metodo check-in predefinito per SparkThrowable.getQueryContext
  • SPARK-51147 Effettuare il refactoring delle classi correlate allo streaming in una directory di streaming dedicata
  • SPARK-52120 Passare la sessione a ConnectHelper
  • SPARK-52021 Modelli di operatore ed espressione separati
  • SPARK-51722 Rimuovere l'origine "stop" da ParseException
  • SPARK-52096 Riclassificare errore di asserzione dell'offset della sorgente kafka
  • SPARK-51985 Rimuovere sperimentale da AccumulatorSource
  • SPARK-51156 Supporto dell'autenticazione dei token statici in Spark Connect
  • SPARK-52157 Usare il nome calcolato precedente per OuterReference nel resolver a passaggio singolo
  • SPARK-52100 Abilitare l'override del limite del livello di ricorsione nella sintassi
  • SPARK-51605 Creare la directory padre prima di toccare il file di log
  • SPARK-52127 Ottimizzare il protocollo di MapState KEYS/ITERATOR per transformWithState in PySpark
  • SPARK-52040 ResolveLateralColumnAliasReference deve mantenere l'ID del piano
  • SPARK-51638 Correzione del recupero di blocchi RDD archiviati su disco remoto tramite un servizio di shuffle esterno
  • SPARK-51983 Preparare l'ambiente di test per l'API Pandas in Spark con la modalità ANSI abilitata
  • SPARK-52087 Aggiungere la copia dei tag e dell'origine a AliasHelper.trimNonTopLevelAliases
  • SPARK-51210 Aggiungere --enable-native-access=ALL-UNNAMED alle opzioni Java per Java 24+
  • SPARK-52052 Aggiungere .broadcast nell'oggetto complementare di SerializableConfiguration
  • SPARK-51823 Aggiungere la configurazione per non rendere persistente l'archivio stati negli executor
  • SPARK-51291 Riclassificare gli errori di convalida generati dal caricamento dell'archivio stati
  • SPARK-52006 Escludere l'accumulatore CollectMetricsExec dall'interfaccia utente di Spark, dai registri eventi e dagli heartbeat delle metriche.
  • SPARK-52076 Chiude in modo esplicito ExecutePlanResponseReattachableIterator dopo l'utilizzo
  • SPARK-51428 Assegnare alias per alberi delle espressioni raggruppati in modo deterministico
  • SPARK-52079 Normalizzare l'ordine degli attributi negli elenchi di progetti interni
  • SPARK-52033 Correzione del bug genera nodo in cui l'output del nodo figlio può avere più copie dello stesso attributo
  • SPARK-51428 Assegnare alias per alberi delle espressioni raggruppati in modo deterministico
  • SPARK-52055 Eliminare l'eccezione in ExecutePlanResponseReattachableIterator. del
  • SPARK-51921 Usare il tipo long per la durata TTL in millisecondo in transformWithState
  • SPARK-50763 Aggiungere una regola dell'analizzatore per la risoluzione delle funzioni della tabella SQL
  • SPARK-51884 Aggiungere attributi di ambito esterno per SubqueryExpression
  • SPARK-50762 Aggiungere una regola dell'analizzatore per la risoluzione delle funzioni definite dall'utente scalari SQL
  • SPARK-51814 Usa list(self) anziché StructType.fields per il compatibilità versione precedente
  • SPARK-51537 Costruire il classloader specifico della sessione in base al classloader di sessione predefinito nell'executor
  • SPARK-50777 Rimuovere i metodi init/destroy ridondanti no-op dalle classi Filter
  • SPARK-51691 SerializzazioneDebugger deve ingoiare un'eccezione quando si tenta di trovare il motivo del problema di serializzazione
  • SPARK-51386 Assegnare il nome alle condizioni di errore _LEGACY_ERROR_TEMP_3300-3302
  • SPARK-50734 Aggiungere l'API del catalogo per creare e registrare le UDF SQL (funzioni definite dall'utente)
  • SPARK-51989 Aggiungere le sottoclassi Filter mancanti al elenco completo nell'origine dati
  • SPARK-52037 L'ordine negli elenchi di progetti interni LCA deve rispettare l'ordine nell'elenco dei progetti originali
  • SPARK-52007 Gli ID espressione non devono essere presenti nelle espressioni di raggruppamento quando si usano insiemi di raggruppamento
  • SPARK-51860 Disabilitare spark.connect.grpc.debug.enabled per impostazione predefinita
  • SPARK-47952 Supporto del recupero dell'indirizzo e della porta SPARKConnectService reali a livello di codice durante l'esecuzione in Yarn
  • SPARK-50906 Aggiungere un controllo di nullità per verificare se gli input di to_avro allineano allo schema
  • Correzione di SPARK-50581 per UDAF in Dataset.observe()
  • SPARK-49946 Richiedere una classe di errore in SparkOutOfMemoryError
  • SPARK-49748 Aggiungere getCondition e deprecare getErrorClass in SparkThrowable
  • SPARK-51959 Fare in modo che le funzioni non importino ParentDataFrame
  • SPARK-51964 Risolvere correttamente gli attributi dall'output nascosto in ORDER BY e HAVING sopra un'operazione di aggregazione nell'analizzatore a passaggio unico
  • SPARK-49942 Rinominare errorClass in condizione in classifyException()
  • SPARK-51963 Semplificare IndexToString.transform
  • SPARK-51946 Fallimento immediato per la creazione di una tabella dell'origine dati non compatibile con hive quando 'col' è un nome di partizione
  • SPARK-51553 Modificare EXTRACT per supportare il tipo di dati TIME
  • SPARK-51891 Ottimizzare il protocollo di ListState GET / PUT / APPENDLIST per transformWithState in PySpark
  • SPARK-51931 Inserire maxBytesPerOutputBatch per limitare il numero di byte del batch di output Arrow
  • SPARK-51441 Aggiungere API DSv2 per i vincoli
  • SPARK-51814 Usare RecordBatch.schema.names anziché column_names per la compatibilità con le versioni precedenti di pyarrow
  • SPARK-51913 JDBCTableCatalog#loadTable non genera correttamente un errore di tale tabella
  • SPARK-51840 Ripristina le colonne di partizione in HiveExternalCatalog#alterTable
  • SPARK-51414 Aggiungere la funzione make_time()
  • SPARK-49700 Interfaccia Scala unificata per Connect e Classic
  • SPARK-51914 Aggiungere com.mysql.cj a spark.sql.hive.metastore.sharedPrefixes
  • SPARK-51827 Supporto di Spark Connect per transformWithState in PySpark
  • SPARK-51901 Non consentire le funzioni del generatore nei set di raggruppamento
  • SPARK-51423 Aggiungere la funzione current_time() per il tipo di dati TIME
  • SPARK-51680 Impostare il tipo logico per il tempo nello scrittore Parquet
  • SPARK-51889 Correzione di un bug per MapState clear() in TWS Python
  • SPARK-51869 Creazione di una classificazione per gli errori utente all'interno delle UDF per Scala TransformWithState
  • SPARK-51878 Migliorare 'fillDefaultValue' eseguendo l'espressione predefinita e piegabile.
  • SPARK-51757 Correzione dell'offset della funzione LEAD/LAG supera le dimensioni del gruppo di finestre
  • SPARK-51805 La funzione Get con argomento non corretto dovrebbe generare un'eccezione appropriata anziché un'eccezione interna
  • SPARK-51900 Segnalare correttamente la discrepanza del tipo di dati nell'analizzatore a pass singolo
  • SPARK-51421 Ottenere secondi di tipo di dati TIME
  • SPARK-51661 Individuazione delle partizioni dei valori della colonna TIME
  • SPARK-51687 Filtri pushdown con valori TIME nel formato parquet
  • SPARK-51419 Ottenere ore di tipo di dati TIME
  • SPARK-51881 Rendere AvroOptions confrontabile
  • SPARK-51861 Rimuovere le informazioni duplicate/non necessarie nel Dettaglio del piano di InMemoryRelation
  • SPARK-51814 Introdurre una nuova trasformazione APIWithState in PySpark
  • SPARK-51779 Utilizzare le famiglie di colonne virtuali per i join tra flussi
  • SPARK-51649 Scritture dinamiche/letture di partizioni TIME
  • SPARK-51634 Supporto di TIME nei vettori di colonna off-heap
  • SPARK-51877 Aggiungere funzioni 'chr', 'random' e 'uuid'
  • SPARK-51610 Supportare il tipo di dati TIME nell'origine dati Parquet
  • SPARK-51420 Ottenere minuti di tipo di dati TIME
  • SPARK-51822 Genera un errore classificato quando le funzioni non consentite vengono chiamate durante StatefulProcessor.init()
  • SPARK-51868 Spostare la convalida della coercizione dei tipi in un oggetto separato
  • SPARK-49747 Eseguire la migrazione dei file di connessione a una registrazione strutturata

Supporto del driver ODBC/JDBC di Azure Databricks

Azure Databricks supporta i driver ODBC/JDBC rilasciati negli ultimi 2 anni. Scaricare i driver rilasciati di recente e aggiornare (scaricare ODBC, scaricare JDBC).

Aggiornamenti della manutenzione

Vedere Aggiornamenti della manutenzione di Azure Databricks Runtime 17.1.

Ambiente di sistema

  • Sistema operativo: Ubuntu 24.04.2 LTS
  • Java: Zulu17.58+21-CA
  • Scala: 2.13.16
  • python: 3.12.3
  • R: 4.4.2
  • Delta Lake: 4.0.0

Librerie installate di Python

Libreria Versione Libreria Versione Libreria Versione
tipi annotati 0.7.0 anyio 4.6.2 argon2-cffi 21.3.0
argon2-cffi-bindings 21.2.0 freccia 1.3.0 asttoken 2.0.5
astunparse 1.6.3 async-lru 2.0.4 att. 24.3.0
comando automatico 2.2.2 azure-comune 1.1.28 azure-core 1.34.0
azure-identity (servizio di identità Azure) 1.20.0 azure-mgmt-core 1.5.0 azure-mgmt-web 8.0.0
Azure Storage Blob 12.23.0 file di archiviazione Azure Data Lake 12.17.0 Babele 2.16.0
backports.tarfile 1.2.0 beautifulsoup4 4.12.3 nero 24.10.0
candeggiare 6.2.0 indicatore di direzione 1.7.0 boto3 1.36.2
botocore 1.36.3 cachetools (strumento per la gestione della cache) 5.5.1 certifi 2025.1.31
cffi 1.17.1 chardet 4.0.0 normalizzatore di set di caratteri 3.3.2
fai clic 8.1.7 cloudpickle (libreria Python per la serializzazione degli oggetti) 3.0.0 comunicazione 0.2.1
contourpy 1.3.1 criptografia 43.0.3 ciclista 0.11.0
Cython, un linguaggio di programmazione 3.0.12 Databricks SDK 0.49.0 dbus-python 1.3.2
debugpy 1.8.11 Decoratore 5.1.1 defusedxml (una libreria per migliorare la sicurezza nell'elaborazione di XML) 0.7.1
Deprecato 1.2.13 distlib 0.3.9 Conversione da docstring a markdown 0.11
esecuzione 0.8.3 panoramica delle facette 1.1.1 fastapi 0.115.12
fastjsonschema (Una libreria per la convalida veloce dei dati JSON) 2.21.1 blocco dei file 3.18.0 fonttools (strumenti per caratteri) 4.55.3
fqdn (nome di dominio completo) 1.5.1 fsspec 2023.5.0 gitdb 4.0.11
GitPython 3.1.43 google-api-core 2.20.0 google-auth (autenticazione Google) 2.40.0
google-cloud-core 2.4.3 archiviazione su Google Cloud 3.1.0 google-crc32c 1.7.1
google-resumable-media (media riprendibile di Google) 2.7.2 googleapis-common-protos 1.65.0 grpcio 1.67.0
grpcio-status 1.67.0 h11 0.14.0 httpcore 1.0.2
httplib2 0.20.4 httpx 0.27.0 IDNA 3.7
importlib-metadata 6.6.0 importlib_resources (libreria per la gestione delle risorse in Python) 6.4.0 inflettere 7.3.1
iniconfig 1.1.1 ipyflow-core 0.0.209 ipykernel 6.29.5
ipython 8.30.0 ipython-genutils 0.2.0 ipywidgets (una libreria Python per widget interattivi) 7.8.1
isodate 0.6.1 isodurazione 20.11.0 jaraco.context 5.3.0
jaraco.functools 4.0.1 jaraco.text 3.12.1 jedi 0.19.2
Jinja2 3.1.5 jmespath 1.0.1 joblib 1.4.2
json5 0.9.25 jsonpointer 3.0.0 jsonschema 4.23.0
jsonschema-specifications 2023.7.1 eventi-jupyter 0.10.0 jupyter-lsp 2.2.0
jupyter_client 8.6.3 jupyter_core 5.7.2 jupyter_server 2.14.1
terminali_del_server_Jupyter 0.4.4 jupyterlab 4.3.4 jupyterlab-pygments 0.1.2
jupyterlab-widgets 1.0.0 jupyterlab_server 2.27.3 kiwisolver 1.4.8
launchpadlib 1.11.0 lazr.restfulclient 0.14.6 lazr.uri 1.0.6
markdown-it-py 2.2.0 MarkupSafe 3.0.2 matplotlib 3.10.0
matplotlib-inline 0.1.7 mccabe 0.7.0 mdurl 0.1.0
Mistune 2.0.4 mlflow versione leggera 3.0.1 mmh3 5.1.0
more-itertools 10.3.0 msal 1.32.3 msal-extensions 1.3.1
mypy-extensions 1.0.0 nbclient 0.8.0 nbconvert 7.16.4
nbformat 5.10.4 nest-asyncio 1.6.0 nodeenv 1.9.1
taccuino 7.3.2 notebook_shim 0.2.3 numpy 2.1.3
oauthlib 3.2.2 opentelemetry-api 1.32.1 opentelemetry-sdk 1.32.1
Convenzioni Semanticche di OpenTelemetry 0.53b1 sostituisce 7.4.0 imballaggio 24,2
Panda 2.2.3 pandocfilters 1.5.0 parso 0.8.4
pathspec 0.10.3 vittima 1.0.1 pexpect 4.8.0
guanciale 11.1.0 seme 25.0.1 platformdirs 3.10.0
plotly (software di visualizzazione dati) 5.24.1 connettivita 1.5.0 prometheus_client 0.21.0
prompt-toolkit 3.0.43 proto-plus 1.26.1 protobuf 5.29.4
psutil 5.9.0 psycopg2 2.9.3 ptyprocess 0.7.0
pure-eval 0.2.2 pyarrow 19.0.1 pyasn1 0.4.8
pyasn1-modules 0.2.8 pyccolo 0.0.71 pycparser (un parser scritto in Python) 2.21
pydantic 2.10.6 pydantic_core 2.27.2 pyflakes 3.2.0
Pygments 2.15.1 PyGObject 3.48.2 pyiceberg 0.9.0
PyJWT 2.10.1 pyodbc 5.2.0 pyparsing 3.2.0
pyright 1.1.394 pytest 8.3.5 python-dateutil (libreria Python per la gestione delle date) 2.9.0.post0
python-json-logger (registratore JSON per Python) 3.2.1 python-lsp-jsonrpc 1.1.2 python-lsp-server 1.12.0
pytoolconfig 1.2.6 pytz 2024.1 PyYAML 6.0.2
pyzmq 26.2.0 Riferimento 0.30.2 richieste 2.32.3
rfc3339-validator 0.1.4 rfc3986-validator 0.1.1 ricco 13.9.4
corda 1.12.0 rpds-py 0.22.3 rsa 4.9.1
s3transfer 0.11.3 scikit-learn 1.6.1 scipy 1.15.1
Seaborn 0.13.2 Send2Trash 1.8.2 setuptools (pacchetto Python per gestire la configurazione e la distribuzione) 74.0.0
sei 1.16.0 smmap 5.0.0 sniffio 1.3.0
contenitori ordinati 2.4.0 colino per la zuppa 2,5 sqlparse 0.5.3
ssh-import-id (comando per l'importazione di chiavi SSH) 5.11 dati accatastati 0.2.0 starlette 0.46.2
statsmodels 0.14.4 strictyaml 1.7.3 tenacità 9.0.0
finito 0.17.1 threadpoolctl 3.5.0 tinycss2 1.4.0
tokenize_rt 6.1.0 tomli 2.0.1 tornado 6.4.2
traitlets (una libreria per la configurazione dei parametri nei programmi Python) 5.14.3 typeguard 4.3.0 types-python-dateutil 2.9.0.20241206
typing_extensions 4.12.2 tzdata 2024.1 ujson (una libreria per la gestione di JSON in Python) 5.10.0
aggiornamenti non supervisionati 0,1 Modello URI 1.3.0 urllib3 2.3.0
uvicorn 0.34.2 virtualenv 20.29.3 wadllib 1.3.6
wcwidth (funzione per determinare la larghezza dei caratteri) 0.2.5 webcolors 24.11.1 codifiche web 0.5.1
cliente WebSocket 1.8.0 Che cosa è la patch 1.0.2 ruota 0.45.1
widgetsnbextension 3.6.6 rapito 1.17.0 yapf 0.40.2
Zipp 3.21.0

Librerie R installate

Le librerie R vengono installate dallo snapshot CRAN del Posit Package Manager del 20 marzo 2025.

Libreria Versione Libreria Versione Libreria Versione
freccia 19.0.1 askpass 1.2.1 assicura che 0.2.1
retroportazioni 1.5.0 base 4.4.2 base64enc 0.1-3
bigD 0.3.0 pezzo 4.6.0 bit 64 4.6.0-1
bitops 1.0-9 massa amorfa 1.2.4 boot 1,3-30
fermentare 1.0-10 Brio 1.1.5 scopa 1.0.7
bslib 0.9.0 cashmere 1.1.0 chiamante 3.7.6
caret 7.0-1 cellranger 1.1.0 cronometro 2.3-62
classe 7.3-22 CLI 3.6.5 Clipr 0.8.0
orologio 0.7.2 raggruppamento 2.1.6 strumenti per la codifica 0.2-20
spazio di colore 2.1-1 segno comune 1.9.5 compilatore 4.4.2
configurazione 0.3.2 Confuso 1.2.0 cpp11 0.5.2
crayon 1.5.3 credenziali 2.0.2 curva 6.4.0
tabella di dati 1.17.0 Insiemi di dati 4.4.2 DBI 1.2.3
dbplyr 2.5.0 descrizione 1.4.3 strumenti per sviluppatori 2.4.5
diagramma 1.6.5 diffobj 0.3.5 digerire 0.6.37
illuminazione rivolta verso il basso 0.4.4 dplyr 1.1.4 dtplyr 1.3.1
e1071 1.7-16 ellissi 0.3.2 valutare 1.0.3
fan 1.0.6 colori 2.1.2 mappatura veloce 1.2.0
fontawesome 0.5.3 forzati 1.0.0 foreach 1.5.2
straniero 0.8 - 86 forgiare 0.2.0 fs 1.6.5
futuro 1.34.0 futuro.applicare 1.11.3 fare gargarismi 1.5.2
elementi generici 0.1.4 gert 2.1.4 ggplot2 3.5.1
gh 1.4.1 git2r 0.35.0 gitcreds 0.1.2
glmnet 4.1-8 elementi globali 0.18.0 colla 1.8.0
Google Drive 2.1.1 googlesheets4 1.1.1 Gower 1.0.2
grafiche 4.4.2 grDispositivi 4.4.2 grid 4.4.2
gridExtra 2.3 gsubfn 0,7 GT 0.11.1
gtable 0.3.6 casco protettivo 1.4.1 rifugio 2.5.4
più alto 0.11 HMS 1.1.3 strumenti HTML 0.5.8.1
htmlwidgets 1.6.4 httpuv 1.6.15 httr 1.4.7
httr2 1.1.1 documenti di identità 1.0.1 ini 0.3.1
ipred 0.9-15 banderelle isografiche 0.2.7 Iteratori 1.0.14
jquerylib 0.1.4 jsonlite 1.9.1 juicyjuice 0.1.0
KernSmooth 2.23-22 knitr 1,50 etichettatura 0.4.3
più tardi 1.4.1 reticolo 0,22-5 lava 1.8.1
ciclo di vita 1.0.4 ascolta 0.9.1 lubridate 1.9.4
magrittr 2.0.3 Markdown 1.13 Massa 7.3-60.0.1
Matrix 1.6-5 memorizza 2.0.1 metodi 4.4.2
mgcv 1.9-1 MIME 0.13 miniUI 0.1.1.1
mlflow 2.20.4 ModelMetrics 1.2.2.2 modelr 0.1.11
munsell 0.5.1 nlme 3.1-164 nnet 7.3-19
Derivazione numerica 2016.8-1.1 openssl 2.3.3 parallelo 4.4.2
parallelamente 1.42.0 pilastro 1.11.0 pkgbuild 1.4.6
pkgconfig 2.0.3 pkgdown 2.1.1 pkgload 1.4.0
plogr 0.2.0 plyr 1.8.9 elogio 1.0.0
prettyunits 1.2.0 pROC 1.18.5 processx 3.8.6
prodlim 2024.06.25 profvis 0.4.0 Avanzamento 1.2.3
progressr 0.15.1 promesse 1.3.2 proto / prototipo 1.0.0
intermediario 0,4–27 P.S. 1.9.0 purrr 1.0.4
R6 2.6.1 ragg 1.3.3 randomForest 4.7-1.2
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp (una libreria per il linguaggio di programmazione R) 1.0.14 RcppEigen 0.3.4.0.2 reagibile 0.4.4
reactR 0.6.1 readr 2.1.5 readxl (software per leggere documenti Excel) 1.4.5
ricette 1.2.0 nuovo incontro 2.0.0 rematch2 2.1.2
Telecomandi 2.5.0 esempio riproducibile (reprex) 2.1.1 reshape2 1.4.4
rlang 1.1.6 rmarkdown 2.29 RODBC 1.3-26
roxygen2 7.3.2 rpart 4.1.23 rprojroot 2.0.4
Rserve 1,8-15 RSQLite 2.3.9 rstudioapi 0.17.1
rversions 2.1.2 rvest 1.0.4 insolenza 0.4.9
Scala 1.3.0 selettore 0,4-2 informazioni sulla sessione 1.2.3
forma 1.4.6.1 brillante 1.10.0 sourcetools 0.1.7-1
sparklyr 1.9.1 SparkR 4.0.0 sparsevctrs 0.3.1
spaziale 7.3-17 splines 4.4.2 sqldf 0,4-11
SQUAREM 2021.1 statistiche 4.4.2 statistiche4 4.4.2
perizoma 1.8.7 stringr 1.5.1 Sopravvivenza 3,5-8
spavalderia 5.17.14.1 sys 3.4.3 systemfonts 1.2.1
tcltk 4.4.2 testthat 3.2.3 modellazione del testo 1.0.0
Tibble 3.3.0 tidyr 1.3.1 tidyselect 1.2.1
tidyverse 2.0.0 cambio d'ora 0.3.0 data e ora 4041.110
tinytex 0.56 strumenti 4.4.2 tzdb 0.5.0
verificatore di URL 1.0.1 Usa questo 3.1.0 utf8 1.2.6
Utilità 4.4.2 UUID (Identificatore Unico Universale) 1.2-1 V8 6.0.2
vctrs 0.6.5 viridisLite 0.4.2 vrooom 1.6.5
Waldo 0.6.1 baffi 0.4.1 withr 3.0.2
xfun 0.51 xml2 1.3.8 xopen 1.0.1
xtable 1.8-4 yaml 2.3.10 zeallot 0.1.0
formato zip 2.3.2

Librerie Java e Scala installate (versione cluster Scala 2.13)

ID del Gruppo ID dell'artefatto Versione
antlr antlr 2.7.7
com.amazonaws Amazon Kinesis Client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.638
com.amazonaws aws-java-sdk-cloudformation 1.12.638
com.amazonaws aws-java-sdk-cloudfront 1.12.638
com.amazonaws aws-java-sdk-cloudhsm 1.12.638
com.amazonaws aws-java-sdk-cloudsearch 1.12.638
com.amazonaws aws-java-sdk-cloudtrail 1.12.638
com.amazonaws aws-java-sdk-cloudwatch 1.12.638
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.638
com.amazonaws aws-java-sdk-codedeploy 1.12.638
com.amazonaws aws-java-sdk-cognitoidentity 1.12.638
com.amazonaws aws-java-sdk-cognitosync 1.12.638
com.amazonaws aws-java-sdk-config (configurazione SDK Java per AWS) 1.12.638
com.amazonaws aws-java-sdk-core 1.12.638
com.amazonaws aws-java-sdk-datapipeline 1.12.638
com.amazonaws aws-java-sdk-directconnect (strumento per la connessione diretta in Java di AWS) 1.12.638
com.amazonaws aws-java-sdk-directory 1.12.638
com.amazonaws aws-java-sdk-dynamodb 1.12.638
com.amazonaws aws-java-sdk-ec2 1.12.638
com.amazonaws aws-java-sdk-ecs 1.12.638
com.amazonaws aws-java-sdk-efs 1.12.638
com.amazonaws aws-java-sdk-elasticache 1.12.638
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.638
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.638
com.amazonaws aws-java-sdk-elastictranscoder 1.12.638
com.amazonaws aws-java-sdk-emr 1.12.638
com.amazonaws AWS Java SDK per Glacier 1.12.638
com.amazonaws aws-java-sdk-glue (collegamento SDK Java AWS) 1.12.638
com.amazonaws aws-java-sdk-iam 1.12.638
com.amazonaws aws-java-sdk-importexport 1.12.638
com.amazonaws aws-java-sdk-kinesis 1.12.638
com.amazonaws aws-java-sdk-kms 1.12.638
com.amazonaws aws-java-sdk-lambda 1.12.638
com.amazonaws aws-java-sdk-logs 1.12.638
com.amazonaws AWS Java SDK Machine Learning 1.12.638
com.amazonaws aws-java-sdk-opsworks 1.12.638
com.amazonaws aws-java-sdk-rds 1.12.638
com.amazonaws aws-java-sdk-redshift 1.12.638
com.amazonaws aws-java-sdk-route53 1.12.638
com.amazonaws aws-java-sdk-s3 1.12.638
com.amazonaws aws-java-sdk-ses 1.12.638
com.amazonaws aws-java-sdk-simpledb 1.12.638
com.amazonaws aws-java-sdk-simpleworkflow 1.12.638
com.amazonaws aws-java-sdk-sns 1.12.638
com.amazonaws aws-java-sdk-sqs 1.12.638
com.amazonaws aws-java-sdk-ssm 1.12.638
com.amazonaws aws-java-sdk-storagegateway (SDK di AWS per Java per Storage Gateway) 1.12.638
com.amazonaws aws-java-sdk-sts 1.12.638
com.amazonaws aws-java-sdk-support (supporto del kit di sviluppo software Java per AWS) 1.12.638
com.amazonaws Librerie aws-java-sdk-swf 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.638
com.amazonaws jmespath-java 1.12.638
com.clearspring.analytics torrente 2.9.8
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.27.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb scalapb-runtime_2.13 0.4.15-11
com.esotericsoftware ombreggiato criogenico 4.0.3
com.esotericsoftware minlog 1.3.0
com.fasterxml compagno di classe 1.5.1
com.fasterxml.jackson.core Annotazioni di Jackson 2.18.2
com.fasterxml.jackson.core jackson-core 2.18.2
com.fasterxml.jackson.core jackson-databind 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.18.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.18.2
com.fasterxml.jackson.module jackson-module-paranamer 2.18.2
com.fasterxml.jackson.module jackson-module-scala_2.13 2.18.2
com.github.ben-manes.caffeine caffeina 2.9.3
com.github.blemale scaffeine_2.13 4.1.0
com.github.fommil jniloader 1.1
com.github.fommil.netlib riferimento_nativo-java 1.1
com.github.fommil.netlib riferimento_nativo-java 1.1-indigeni
com.github.fommil.netlib sistema_nativo-java 1.1
com.github.fommil.netlib sistema_nativo-java 1.1-indigeni
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-indigeni
com.github.fommil.netlib netlib-sistema_nativo-linux-x86_64 1.1-indigeni
com.github.luben zstd-jni (libreria open-source per compressione con Java Native Interface) 1.5.6-10
com.github.virtuald curvesapi 1,08
com.github.wendykierp JTransforms 3.1
com.google.api.grpc proto-google-common-protos 2.5.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.11.0
com.google.crypto.tink tink 1.16.0
com.google.errorprone annotazioni soggette a errori 2.36.0
com.google.flatbuffers flatbuffers-java 24.3.25
com.google.guava errore di accesso 1.0.2
com.google.guava guava 33.4.0-jre
com.google.guava futuro ascoltabile 9999.0-vuoto-per-evitare-conflitti-con-guava
com.google.j2objc j2objc-annotations 3.0.0
com.google.protobuf protobuf-java 3.25.5
com.google.protobuf protobuf-java-util 3.25.5
com.helger profilatore 1.1.1
com.ibm.icu icu4j 75.1
com.jcraft jsch 0.1.55
com.lihaoyi fansi_2.13 0.5.0
com.lihaoyi sourcecode_2.13 0.1.9
com.microsoft.azure Azure Data Lake Store SDK 2.3.10
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.microsoft.sqlserver mssql-jdbc 12.8.0.jre8
com.ning compress-lzf (algoritmo di compressione) 1.1.2
com.sun.mail javax.mail (package Java per la gestione della posta elettronica) 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning JSON 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenti_2.13 0.4.13
com.twitter chill-java 0.10.0
com.twitter chill_2.13 0.10.0
com.twitter util-app_2.13 19.8.1
com.twitter util-core_2.13 19.8.1
com.twitter util-function_2.13 19.8.1
com.twitter util-jvm_2.13 19.8.1
com.twitter util-lint_2.13 19.8.1
com.twitter util-registry_2.13 19.8.1
com.twitter util-stats_2.13 19.8.1
com.typesafe configurazione 1.4.3
com.typesafe.scala-logging scala-logging_2.13 3.9.2
com.uber h3 3.7.3
com.univocity parser di univocità 2.9.1
com.zaxxer HikariCP 4.0.3
com.zaxxer SparseBitSet 1.3
commons-cli commons-cli 1.9.0
commons-codec (libreria per la codifica comune) commons-codec (libreria per la codifica comune) 1.17.2
collezioni-comuni collezioni-comuni 3.2.2
commons-dbcp commons-dbcp 1.4
funzione di caricamento file dei Commons funzione di caricamento file dei Commons 1,5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.18.0
commons-lang commons-lang 2.6
commons-logging (no translation needed) commons-logging (no translation needed) 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib Blas 3.0.3
dev.ludovic.netlib LAPACK 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compressore d'aria 2.0.2
io.delta delta-sharing-client_2.13 1.3.3
io.dropwizard.metrics annotazione delle metriche 4.2.30
io.dropwizard.metrics nucleo delle metriche 4.2.30
io.dropwizard.metrics metrics-graphite 4.2.30
io.dropwizard.metrics metriche-controlli di salute 4.2.30
io.dropwizard.metrics metrics-jetty9 4.2.30
io.dropwizard.metrics metrics-jmx 4.2.30
io.dropwizard.metrics metrics-json (Specificare ulteriormente se necessario a seconda del contesto) 4.2.30
io.dropwizard.metrics metrics-jvm 4.2.30
io.dropwizard.metrics metriche-servlet 4.2.30
io.github.java-diff-utils java-diff-utils 4.15
io.netty netty-all 4.1.118.Final
io.netty netty-buffer 4.1.118.Final
io.netty netty-codec 4.1.118.Final
io.netty netty-codec-http (codec HTTP di Netty) 4.1.118.Final
io.netty netty-codec-http2 4.1.118.Final
io.netty netty-codec-socks 4.1.118.Final
io.netty netty-common 4.1.118.Final
io.netty netty-handler 4.1.118.Final
io.netty netty-handler-proxy 4.1.118.Final
io.netty netty-resolver 4.1.118.Final
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-windows-x86_64
io.netty netty-tcnative-classes 2.0.70.Final
io.netty netty-transport 4.1.118.Final
io.netty netty-transport-classes-epoll 4.1.118.Final
io.netty netty-transport-classes-kqueue 4.1.118.Final
io.netty netty-transport-native-epoll 4.1.118.Final
io.netty netty-transport-native-epoll 4.1.118.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.118.Final-linux-riscv64
io.netty netty-transport-native-epoll 4.1.118.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.118.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.118.Final-osx-x86_64
io.netty netty-transport-native-unix-comune 4.1.118.Final
io.prometheus simpleclient 0.16.1-databricks
io.prometheus sempliceclient_comune 0.16.1-databricks
io.prometheus simpleclient_dropwizard 0.16.1-databricks
io.prometheus simpleclient_pushgateway 0.16.1-databricks
io.prometheus simpleclient_servlet 0.16.1-databricks
io.prometheus simpleclient_servlet_common 0.16.1-databricks
io.prometheus simpleclient_tracer_common 0.16.1-databricks
io.prometheus simpleclient_tracer_otel 0.16.1-databricks
io.prometheus simpleclient_tracer_otel_agent 0.16.1-databricks
io.prometheus.jmx collezionista 0.18.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation attivazione 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.media jai_core jai_core_dummy
javax.transaction Java Transaction API (JTA) 1.1
javax.transaction API per le transazioni 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.13.0
net.java.dev.jna jna 5.8.0
net.razorvine sottaceto 1,5
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv (formato CSV avanzato) 2.2.0
net.snowflake snowflake-ingest-sdk (kit di sviluppo software per l'ingestione dati) 0.9.6
net.sourceforge.f2j arpack_combinato_tutto 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.13.1
org.antlr modello di stringa 3.2.1
org.apache.ant formica 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant ant launcher 1.10.11
org.apache.arrow formato a freccia 18.2.0
org.apache.arrow arrow-nucleo-di-memoria 18.2.0
org.apache.arrow arrow-memory-netty 18.2.0
org.apache.arrow patch-buffer-netty-memoria-freccia 18.2.0
org.apache.arrow freccia-vettore 18.2.0
org.apache.avro Avro 1.12.0
org.apache.avro avro-ipc 1.12.0
org.apache.avro avro-mapred 1.12.0
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.27.1
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.17.0
org.apache.commons commons-math3 3.6.1
org.apache.commons testo comune 1.13.0
org.apache.curator cliente del curatore 5.7.1
org.apache.curator framework del curatore 5.7.1
org.apache.curator ricette del curatore 5.7.1
org.apache.datasketches datasketches-java 6.1.1
org.apache.datasketches datasketches-memory 3.0.2
org.apache.derby derby sportivo 10.14.2.0
org.apache.hadoop runtime del client Hadoop 3.4.1
org.apache.hive hive-beeline 2.3.10
org.apache.hive hive-cli 2.3.10
org.apache.hive Hive-JDBC 2.3.10
org.apache.hive hive-llap-client 2.3.10
org.apache.hive hive-llap-common 2.3.10
org.apache.hive hive-serde 2.3.10
org.apache.hive spessori del sistema Hive 2.3.10
org.apache.hive API di archiviazione Hive 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.10
org.apache.hive.shims Hive-shims-common 2.3.10
org.apache.hive.shims hive-shims-scheduler 2.3.10
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy Edera 2.5.3
org.apache.logging.log4j log4j-1.2-api 2.24.3
org.apache.logging.log4j log4j-api 2.24.3
org.apache.logging.log4j log4j-core 2.24.3
org.apache.logging.log4j log4j-struttura-modello-json 2.24.3
org.apache.logging.log4j log4j-slf4j2-impl 2.24.3
org.apache.orc orc-core 2.1.1-shaded-protobuf
org.apache.orc formato orc 1.1.0-shaded-protobuf
org.apache.orc orc-mapreduce 2.1.1-shaded-protobuf
org.apache.orc orc-shims 2.1.1
org.apache.poi POI 5.4.1
org.apache.poi poi-ooxml 5.4.1
org.apache.poi poi-ooxml-full 5.4.1
org.apache.poi poi-ooxml-lite 5.4.1
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.16.0
org.apache.ws.xmlschema xmlschema-core 2.3.1
org.apache.xbean xbean-asm9-shaded 4.26
org.apache.xmlbeans xmlbeans 5.3.0
org.apache.yetus annotazioni per il pubblico 0.13.0
org.apache.zookeeper guardiano dello zoo 3.9.3
org.apache.zookeeper guardiano dello zoo-juta 3.9.3
org.checkerframework verificatore qualità 3.43.0
org.codehaus.janino Commons-Compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus Datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.53.v20231009
org.eclipse.jetty continuazione di jetty 9.4.53.v20231009
org.eclipse.jetty jetty-http 9.4.53.v20231009
org.eclipse.jetty jetty-io 9.4.53.v20231009
org.eclipse.jetty jetty-jndi 9.4.53.v20231009
org.eclipse.jetty Jetty Plus 9.4.53.v20231009
org.eclipse.jetty jetty-proxy 9.4.53.v20231009
org.eclipse.jetty sicurezza del molo 9.4.53.v20231009
org.eclipse.jetty Jetty Server 9.4.53.v20231009
org.eclipse.jetty jetty-servlet 9.4.53.v20231009
org.eclipse.jetty jetty-servlets 9.4.53.v20231009
org.eclipse.jetty jetty-util 9.4.53.v20231009
org.eclipse.jetty jetty-util-ajax 9.4.53.v20231009
org.eclipse.jetty applicazione web di Jetty 9.4.53.v20231009
org.eclipse.jetty jetty-xml 9.4.53.v20231009
org.eclipse.jetty.websocket WebSocket-API 9.4.53.v20231009
org.eclipse.jetty.websocket cliente WebSocket 9.4.53.v20231009
org.eclipse.jetty.websocket websocket-comune 9.4.53.v20231009
org.eclipse.jetty.websocket websocket-server 9.4.53.v20231009
org.eclipse.jetty.websocket websocket-servlet 9.4.53.v20231009
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-localizzatore 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 localizzatore di risorse OSGi 1.0.3
org.glassfish.hk2.external aopalliance-repackaged (riconfezionato) 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet (servlet del contenitore Jersey) 2.41
org.glassfish.jersey.containers modulo-nucleo-servlet-contenitore-jersey (if a translation is required as per the context) 2.41
org.glassfish.jersey.core jersey-client 2.41
org.glassfish.jersey.core jersey-comune 2.41
org.glassfish.jersey.core Jersey-server 2.41
org.glassfish.jersey.inject jersey-hk2 2.41
org.hibernate.validator validatore di Hibernate 6.2.5.Final
org.ini4j ini4j 0.5.4
org.javassist javassist 3.29.2-GA
org.jboss.logging jboss-logging (strumento di registrazione per JBoss) 3.4.1.Final
org.jdbi jdbi 2.63.1
org.jetbrains annotazioni 17.0.0
org.jline jline 3.27.1-jdk8
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.13 4.0.7
org.json4s json4s-core_2.13 4.0.7
org.json4s json4s-jackson-core_2.13 4.0.7
org.json4s json4s-jackson_2.13 4.0.7
org.json4s json4s-scalap_2.13 4.0.7
org.lz4 lz4-java 1.8.0-databricks-1
org.mlflow mlflow-spark_2.13 2.9.1
org.objenesis objenesis 3.3
org.postgresql postgresql 42.6.1
org.roaringbitmap RoaringBitmap 1.2.1
org.rocksdb rocksdbjni 9.8.4
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.13 2.13.16
org.scala-lang scala-library_2.13 2.13.16
org.scala-lang scala-reflect_2.13 2.13.16
org.scala-lang.modules scala-collection-compat_2.13 2.11.0
org.scala-lang.modules scala-java8-compat_2.13 0.9.1
org.scala-lang.modules scala-parallel-collections_2.13 1.2.0
org.scala-lang.modules scala-parser-combinators_2.13 2.4.0
org.scala-lang.modules scala-xml_2.13 2.3.0
org.scala-sbt interfaccia di prova 1.0
org.scalacheck scalacheck_2.13 1.18.0
org.scalactic scalactic_2.13 3.2.19
org.scalameta common_2.13 4.13.5
org.scalameta io_2.13 4.13.5
org.scalameta mdoc-parser_2.13 2.6.4
org.scalameta metaconfig-core_2.13 0.15.0
org.scalameta metaconfig-pprint_2.13 0.15.0
org.scalameta metaconfig-typesafe-config_2.13 0.15.0
org.scalameta parsers_2.13 4.13.5
org.scalameta scalafmt-config_2.13 3.9.6
org.scalameta scalafmt-core_2.13 3.9.6
org.scalameta scalafmt-macros_2.13 3.9.6
org.scalameta scalafmt-sysops_2.13 3.9.6
org.scalameta scalameta_2.13 4.13.5
org.scalameta trees_2.13 4.13.5
org.scalanlp breeze-macros_2.13 2.1.0
org.scalanlp breeze_2.13 2.1.0
org.scalatest compatibile con scalatest 3.2.19
org.scalatest scalatest-core_2.13 3.2.19
org.scalatest scalatest-diagrams_2.13 3.2.19
org.scalatest scalatest-featurespec_2.13 3.2.19
org.scalatest scalatest-flatspec_2.13 3.2.19
org.scalatest scalatest-freespec_2.13 3.2.19
org.scalatest scalatest-funspec_2.13 3.2.19
org.scalatest scalatest-funsuite_2.13 3.2.19
org.scalatest scalatest-matchers-core_2.13 3.2.19
org.scalatest scalatest-mustmatchers_2.13 3.2.19
org.scalatest scalatest-propspec_2.13 3.2.19
org.scalatest scalatest-refspec_2.13 3.2.19
org.scalatest scalatest-shouldmatchers_2.13 3.2.19
org.scalatest scalatest-wordspec_2.13 3.2.19
org.scalatest scalatest_2.13 3.2.19
org.slf4j jcl-over-slf4j 2.0.16
org.slf4j jul-to-slf4j 2.0.16
org.slf4j slf4j-api 2.0.16
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.8.0
org.tukaani xz 1.10
org.typelevel algebra_2.13 2.8.0
org.typelevel cats-kernel_2.13 2.8.0
org.typelevel paiges-core_2.13 0.4.4
org.typelevel spire-macros_2.13 0.18.0
org.typelevel spire-platform_2.13 0.18.0
org.typelevel spire-util_2.13 0.18.0
org.typelevel spire_2.13 0.18.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1,5
software.amazon.cryptools AmazonCorrettoCryptoProvider 2.5.0-linux-x86_64
Stax stax-api 1.0.1

Suggerimento

Per visualizzare le note sulle versioni di Databricks Runtime che hanno raggiunto l'EoS (fine del supporto), vedere Note sulle versioni di Databricks Runtime che hanno raggiunto l'EoS. Le versioni di EoS Databricks Runtime sono state ritirate e potrebbero non essere aggiornate.