Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Le funzionalità e i miglioramenti seguenti di Databricks SQL sono stati rilasciati nel 2026.
Febbraio 2026
Databricks SQL versione 2025.40 è in fase di implementazione in Current
23 febbraio 2026
Databricks SQL versione 2025.40 viene implementata nel canale Current. Vedere le funzionalità nel 2025.40.
Databricks SQL versione 2025.40 è ora disponibile in anteprima
11 febbraio 2026
Databricks SQL versione 2025.40 è ora disponibile nel canale di anteprima . Esamina la sezione seguente per conoscere le nuove funzionalità, i cambiamenti comportamentali e le correzioni di bug.
Lo scripting SQL è disponibile a livello generale
Lo scripting SQL è ora disponibile a livello generale. Scrivere logica procedurale con SQL, incluse istruzioni condizionali, cicli, variabili locali e gestione delle eccezioni.
Marcatori di parametro ora supportati in più contesti SQL
È ora possibile usare marcatori di parametro denominati (:param) e senza nome (?) ovunque sia consentito un valore letterale del tipo appropriato. Sono incluse istruzioni DDL, CREATE VIEW v AS SELECT ? AS c1ad esempio , i tipi di colonna, DECIMAL(:p, :s)ad esempio , e i commenti, COMMENT ON t IS :commentad esempio . In questo modo è possibile parametrizzare un'ampia gamma di istruzioni SQL senza esporre il codice agli attacchi SQL injection. Vedere Marcatori di parametro.
IDENTIFIER clausola estesa a più contesti SQL
La IDENTIFIER clausola , che esegue il cast delle stringhe ai nomi di oggetto SQL, è ora supportata in quasi ogni contesto in cui è consentito un identificatore. In combinazione con l'indicatore di parametro espanso e il supporto di unione di stringhe letterali, è possibile parametrizzare qualsiasi elemento dagli alias di colonna (AS IDENTIFIER(:name)) alle definizioni di colonna (IDENTIFIER(:pk) BIGINT NOT NULL). Vedere la clausola IDENTIFIER.
Coalescenza di stringhe letterali supportata ovunque
Valori letterali stringa sequenziale, 'Hello' ' World' ad esempio ora uniti 'Hello World' in qualsiasi contesto in cui sono consentiti valori letterali stringa, incluso COMMENT 'This' ' is a ' 'comment'. Vedere STRING tipo.
Nuova funzione BITMAP_AND_AGG
È ora disponibile una nuova funzione BITMAP_AND_AGG per integrare la libreria di BITMAP funzioni esistente.
Nuove funzioni di Sketch Theta per conteggi distinti approssimativi
È ora disponibile una nuova libreria di funzioni per conteggi approssimativi distinti e operazioni su insiemi utilizzando Datasketches Theta Sketch.
-
theta_sketch_aggfunzione di aggregazione -
theta_union_aggfunzione di aggregazione -
theta_intersection_aggfunzione di aggregazione -
theta_sketch_estimateFunzione -
theta_unionFunzione -
theta_differenceFunzione -
theta_intersectionFunzione
Nuove funzioni di schizzo KLL per quantili approssimativi
È ora disponibile una nuova libreria di funzioni per la creazione di schizzi KLL per calcoli quantile approssimativi:
-
kll_sketch_agg_bigintfunzione di aggregazione -
kll_sketch_get_quantile_bigintFunzione -
kll_sketch_merge_bigintFunzione -
kll_sketch_agg_doublefunzione di aggregazione -
kll_sketch_get_quantile_doubleFunzione -
kll_sketch_merge_doubleFunzione -
kll_sketch_agg_floatfunzione di aggregazione -
kll_sketch_get_quantile_floatFunzione -
kll_sketch_merge_floatFunzione -
kll_sketch_get_n_bigintFunzione -
kll_sketch_get_rank_bigintFunzione -
kll_sketch_to_string_bigintFunzione -
kll_sketch_get_n_doubleFunzione -
kll_sketch_get_rank_doubleFunzione -
kll_sketch_to_string_doubleFunzione -
kll_sketch_get_n_floatFunzione -
kll_sketch_get_rank_floatFunzione -
kll_sketch_to_string_floatFunzione
È possibile unire più schizzi KLL in un contesto di aggregazione usando kll_merge_agg_bigint, kll_merge_agg_double e kll_merge_agg_float.
Funzioni della finestra SQL nelle visualizzazioni delle metriche
È ora possibile usare le funzioni della finestra SQL nelle visualizzazioni delle metriche per calcolare i totali, le classificazioni e altri calcoli basati su finestre.
Nuove funzioni geospaziali
Sono ora disponibili le nuove funzioni geospaziali seguenti:
-
st_azimuthfunzione: restituisce l'azimuth orientato verso nord dal primo punto al secondo in radianti entro il contesto di[0, 2π). -
st_boundaryfunction: restituisce il limite della geometria di input. -
st_closestpointfunzione: restituisce la proiezione 2D di un punto sulla prima geometria più vicina alla seconda geometria. -
st_geogfromewktfunction: analizza una descrizione EWKT (Extended Well-Known Text) di un'area geografica. -
st_geomfromewktfunction: analizza una descrizione EWKT (Extended Well-Known Text) di una geometria.
Supporto dell'input EWKT per le funzioni geometry e geography esistenti
Le seguenti funzioni ora accettano l'Extended Well-Known Text (EWKT) come input:
Miglioramento delle prestazioni per le query ripetute sulle tabelle con filtri di riga e maschere di colonna
Le query idonee ripetute sulle tabelle con filtri di riga e maschere di colonna ora traggono vantaggio dalla memorizzazione nella cache dei risultati delle query migliorata, con tempi di esecuzione più rapidi.
Miglioramento delle prestazioni delle funzioni geospaziali
Le prestazioni del join spaziale sono migliorate con il supporto del join spaziale distribuito. Le funzioni ST seguenti dispongono ora di implementazioni photon:
FSCK REPAIR TABLE include il ripristino dei metadati per impostazione predefinita
FSCK REPAIR TABLE include ora un passaggio iniziale di ripristino dei metadati prima di verificare la presenza di file di dati mancanti, consentendo il funzionamento nelle tabelle con checkpoint danneggiati o valori di partizione non validi. Inoltre, la colonna dataFilePath nello schema di output FSCK REPAIR TABLE DRY RUN è ora annullabile per supportare nuovi tipi di problemi in cui il percorso del file di dati non è applicabile.
DESCRIBE TABLE l'output include una colonna dei metadati
L'output di DESCRIBE TABLE [EXTENDED] include ora una metadata colonna per tutti i tipi di tabella. Questa colonna contiene metadati semantici (nome visualizzato, formato e sinonimi) definiti nella tabella come stringa JSON.
Strutture NULL preservate nelle operazioni MERGE, UPDATE, e di scrittura in streaming
Gli struct NULL vengono ora mantenuti come NULL nelle operazioni di scrittura Delta Lake MERGE, UPDATE, e di streaming che includono cast del tipo di struct. In precedenza, le strutture NULL venivano espanse in strutture con tutti i campi impostati su NULL.
Colonne di partizione materializzate nei file Parquet
Ora, le tabelle Delta Lake partizionate materializzano le colonne di partizione nei file di dati Parquet appena scritti. In precedenza, i valori di partizione venivano archiviati solo nei metadati del log delle transazioni Delta Lake. I carichi di lavoro che leggono direttamente i file Parquet scritti da Delta Lake vedono colonne di partizione aggiuntive nei file appena scritti.
I valori della partizione timestamp rispettano il fuso orario della sessione
I valori della partizione timestamp vengono ora modificati correttamente usando la spark.sql.session.timeZone configurazione. In precedenza, venivano erroneamente convertiti in UTC usando il fuso orario JVM.
Limitazioni relative al tempo di viaggio aggiornate
Azure Databricks blocca ora le query di spostamento del tempo oltre la deletedFileRetentionDuration soglia per tutte le tabelle. Il VACUUM comando ignora l'argomento durata conservazione tranne quando il valore è 0 ore. Non è possibile impostare deletedFileRetentionDuration dimensioni maggiori di logRetentionDuration.
SHOW TABLES DROPPED rispetta LIMIT clausola
SHOW TABLES DROPPED ora rispetta correttamente la LIMIT clausola .