Kommentar
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Följande Databricks SQL-funktioner och förbättringar släpptes 2026.
Februari 2026
Databricks SQL version 2025.40 lanseras i Aktuell
den 23 februari 2026
Databricks SQL version 2025.40 rullas ut till den aktuella kanalen. Se funktioner i 2025.40.
Databricks SQL version 2025.40 är nu tillgänglig i förhandsversionen
den 11 februari 2026
Databricks SQL version 2025.40 är nu tillgänglig i förhandsgranskningskanalen . Läs följande avsnitt om du vill veta mer om nya funktioner, beteendeändringar och felkorrigeringar.
SQL-skript är allmänt tillgängligt
SQL-skript är nu allmänt tillgängliga. Skriva procedurlogik med SQL, inklusive villkorssatser, loopar, lokala variabler och undantagshantering.
Parametermarkörer stöds nu i fler SQL-kontexter
Du kan nu använda parametermarkörer med namnet (:param) och namnlösa (?) var som helst där ett literalvärde av lämplig typ tillåts. Detta inkluderar DDL-instruktioner som CREATE VIEW v AS SELECT ? AS c1, kolumntyper som DECIMAL(:p, :s), och kommentarer som COMMENT ON t IS :comment. På så sätt kan du parametrisera en mängd olika SQL-instruktioner utan att exponera koden för SQL-inmatningsattacker. Se Parametermarkörer.
IDENTIFIER -sats utökad till fler SQL-kontexter
IDENTIFIER Satsen, som omvandlar strängar till SQL-objektnamn, stöds nu i nästan alla sammanhang där en identifierare tillåts. Kombinerat med utökad parametermarkör och literalsträngssammankopplingsstöd kan du parametrisera allt från kolumnalias (AS IDENTIFIER(:name)) till kolumndefinitioner (IDENTIFIER(:pk) BIGINT NOT NULL). Se IDENTIFIER-satsen.
Strängsammanfogning stöds överallt
Sekventiella strängliteraler som 'Hello' ' World' nu slås samman i 'Hello World' alla sammanhang där strängliteraler tillåts, inklusive COMMENT 'This' ' is a ' 'comment'. Se STRING typ.
Ny BITMAP_AND_AGG-funktion
En ny BITMAP_AND_AGG funktion är nu tillgänglig för att komplettera det befintliga funktionsbiblioteket BITMAP .
Nya Theta Sketch-funktioner för ungefärliga distinkta antal
Ett nytt bibliotek med funktioner för ungefärlig distinkt räkning och uppsättningsoperationer med Datasketches Theta Sketch är nu tillgängligt.
-
theta_sketch_aggaggregatfunktion -
theta_union_aggaggregatfunktion -
theta_intersection_aggaggregatfunktion -
theta_sketch_estimatefunktion -
theta_unionfunktion -
theta_differencefunktion -
theta_intersectionfunktion
Nya KLL-skissfunktioner för ungefärliga kvantantiklar
Nu finns ett nytt bibliotek med funktioner för att skapa KLL-skisser för ungefärlig kvantilberäkning:
-
kll_sketch_agg_bigintaggregatfunktion -
kll_sketch_get_quantile_bigintfunktion -
kll_sketch_merge_bigintfunktion -
kll_sketch_agg_doubleaggregatfunktion -
kll_sketch_get_quantile_doublefunktion -
kll_sketch_merge_doublefunktion -
kll_sketch_agg_floataggregatfunktion -
kll_sketch_get_quantile_floatfunktion -
kll_sketch_merge_floatfunktion -
kll_sketch_get_n_bigintfunktion -
kll_sketch_get_rank_bigintfunktion -
kll_sketch_to_string_bigintfunktion -
kll_sketch_get_n_doublefunktion -
kll_sketch_get_rank_doublefunktion -
kll_sketch_to_string_doublefunktion -
kll_sketch_get_n_floatfunktion -
kll_sketch_get_rank_floatfunktion -
kll_sketch_to_string_floatfunktion
Du kan sammanfoga flera KLL-skisser i en aggregeringskontext med hjälp av kll_merge_agg_bigint, kll_merge_agg_double och kll_merge_agg_float.
SQL-fönsterfunktioner i måttvyer
Nu kan du använda SQL-fönsterfunktioner i måttvyer för att beräkna löpande summor, rangordningar och andra fönsterbaserade beräkningar.
Nya geospatiala funktioner
Följande nya geospatiala funktioner är nu tillgängliga:
-
st_azimuthfunction: Returnerar den nordbaserade azimuthen från den första punkten till den andra i radianer i[0, 2π). -
st_boundaryfunktion: Returnerar indatageometrins gräns. -
st_closestpointfunktion: Returnerar 2D-projektionen av en punkt på den första geometrin som är närmast den andra geometrin. -
st_geogfromewktfunktion: Parsar en EWKT-beskrivning (Extended Well-Known Text) för ett geografiskt område. -
st_geomfromewktfunktion: Parsar en EWKT-beskrivning (Extended Well-Known Text) av en geometri.
EWKT-indatastöd för befintliga geometri- och geografifunktioner
Följande funktioner accepterar nu EWKT (Extended Well-Known Text) som indata:
Bättre prestanda för upprepade frågor över tabeller med radfilter och kolumnmasker
Upprepade berättigade frågor över tabeller med radfilter och kolumnmasker drar nu nytta av förbättrad cachelagring av frågeresultat, vilket resulterar i snabbare körningstider.
Förbättrad prestanda för geospatial funktion
Prestanda för rumslig koppling förbättras med stöd för blandad rumslig koppling. Följande ST-funktioner har nu photon-implementeringar:
FSCK REPAIR TABLE innehåller metadatareparation som standard
FSCK REPAIR TABLE innehåller nu ett första reparationssteg för metadata innan du söker efter saknade datafiler, så att det kan fungera på tabeller med skadade kontrollpunkter eller ogiltiga partitionsvärden. Dessutom kan kolumnen dataFilePath i utdataschemat FSCK REPAIR TABLE DRY RUN nu vara ett nullvärde för att stödja nya ärendetyper där datafilsökvägen inte är tillämplig.
DESCRIBE TABLE utdata innehåller metadatakolumn
Utdata för DESCRIBE TABLE [EXTENDED] nu innehåller en metadata kolumn för alla tabelltyper. Den här kolumnen innehåller semantiska metadata (visningsnamn, format och synonymer) som definierats i tabellen som en JSON-sträng.
NULL-strukturer bevarade i sammanslagnings-, UPDATE, och strömningsskrivningsåtgärder
NULL-structs bevaras nu som NULL i Delta Lake MERGE, UPDATE och strömningsskrivningsåtgärder som innehåller datatyper av struct-typ. Tidigare expanderades NULL-strukturer till strukturer med alla fält inställda på NULL.
Partitionskolumner materialiserade i Parquet-filer
Partitionerade Delta Lake-tabeller materialiserar nu partitionskolumner i nyligen skrivna Parquet-datafiler. Tidigare lagrades partitionsvärden endast i Delta Lake-transaktionsloggens metadata. Arbetsbelastningar som läser Parquet-filer direkt skrivna av Delta Lake upptäcker ytterligare partitionskolumner i nyligen skrivna filer.
Tidsstämpelpartitionsvärden respekterar den aktuella sessionens tidszon
Tidsstämpelpartitionsvärden justeras nu korrekt med hjälp av konfigurationen spark.sql.session.timeZone . Tidigare konverterades de felaktigt till UTC med hjälp av JVM-tidszonen.
Tidsresebegränsningar har uppdaterats
Azure Databricks blockerar nu tidsresefrågor utöver deletedFileRetentionDuration tröskelvärdet för alla tabeller. Kommandot VACUUM ignorerar argumentet kvarhållningstid förutom när värdet är 0 timmar. Du kan inte ange deletedFileRetentionDuration större än logRetentionDuration.
SHOW TABLES DROPPED respekterar LIMIT-satsen
SHOW TABLES DROPPED respekterar nu klausulen LIMIT korrekt.