Megosztás a következőn keresztül:


A Databricks SQL 2026-os kibocsátási megjegyzései

Az alábbi Databricks SQL-funkciók és -fejlesztések 2026-ban jelentek meg.

2026. február

A Databricks SQL 2025.40-es verziója az Aktuális verzióban jelenik meg

2026. február 23.

A Databricks SQL 2025.40-es verziója az Aktuális csatornán jelenik meg. A 2025.40-ben elérhető funkciók megtekintése.

A Databricks SQL 2025.40-es verziója már elérhető előzetes verzióban

2026. február 11.

A Databricks SQL 2025.40-es verziója már elérhető az előzetes verziójú csatornán. Az új funkciókról, a viselkedési változásokról és a hibajavításokról az alábbi szakaszban tájékozódhat.

Az SQL-szkriptelés általánosan elérhető

Az SQL-szkriptelés általánosan elérhető. Eljárási logika írása SQL-vel, beleértve a feltételes utasításokat, a hurkokat, a helyi változókat és a kivételkezelést.

A paraméterjelölők mostantól több SQL-környezetben támogatottak

Mostantól használhat nevesített (:param) és névtelen (?) paraméterjelölőket bárhol, ahol a megfelelő típusú literálérték megengedett. Ide tartoznak a DDL-utasítások, például CREATE VIEW v AS SELECT ? AS c1, az oszloptípusok, például DECIMAL(:p, :s), és a megjegyzések, például COMMENT ON t IS :comment. Ez lehetővé teszi számos SQL-utasítás paraméterezését anélkül, hogy a kódot AZ SQL-injektálási támadásoknak felfedi. Lásd : Paraméterjelölők.

IDENTIFIER kikötés kiterjesztve további SQL-környezetekre

Az IDENTIFIER SQL-objektumnevekhez sztringeket adó záradék mostantól szinte minden olyan környezetben támogatott, ahol engedélyezve van egy azonosító. A kiterjesztett paraméterjelölő és a literális sztringes összevonás támogatásával kombinálva bármit paraméterezhet az oszlop aliasaitól (AS IDENTIFIER(:name)) az oszlopdefiníciókig (IDENTIFIER(:pk) BIGINT NOT NULL). Lásd IDENTIFIER záradék.

A literális sztring összefűzés mindenhol támogatva van.

Az olyan szekvenciális karakterlánc literálok, mint például 'Hello' ' World', most már 'Hello World' minden olyan környezetben, ahol a sztring literalok engedélyezettek, beleértve a COMMENT 'This' ' is a ' 'comment'. Lásd: STRING típus.

Új BITMAP_AND_AGG függvény

Egy új BITMAP_AND_AGG függvény érhető el, amely kiegészíti a meglévő függvénytárat BITMAP .

Új Theta Sketch funkciók hozzávetőleges egyedi számláláshoz

A Datasketches Theta Sketch használatával mostantól elérhető egy új függvénytár a hozzávetőleges különböző számokhoz és műveletek beállításához:

Új KLL Sketch függvények hozzávetőleges kvantilisekhez.

Mostantól elérhető egy új függvénytár a KLL-vázlatok hozzávetőleges kvantitációs számításokhoz való létrehozásához:

Az összesítési környezetben több KLL-vázlatot egyesíthet kll_merge_agg_bigint, kll_merge_agg_double és kll_merge_agg_float használatával.

SQL-ablakfüggvények metrikanézetekben

Mostantól az SQL-ablakfüggvényekmetrikanézetekben való használatával kiszámíthatja a futó összegeket, a rangsorolásokat és az egyéb ablakalapú számításokat.

Új térinformatikai függvények

A következő új térinformatikai függvények érhetők el:

EWKT-bemenet támogatása meglévő geometriai és földrajzi függvényekhez

A következő függvények mostantól elfogadják a bővített Well-Known szöveget (EWKT) bemenetként:

Jobb teljesítmény ismétlődő lekérdezések esetén sorszűrőkkel és oszlopmaszkokkal rendelkező táblákon

A sorszűrőket és oszlopmaszkokat tartalmazó táblákon ismétlődő jogosult lekérdezések mostantól jobb lekérdezési eredmények gyorsítótárazását élvezik, ami gyorsabb végrehajtási időt eredményez.

Továbbfejlesztett térinformatikai függvény teljesítménye

A térbeli illesztés teljesítményének javítása az elegyített térbeli illesztés támogatásával. Az alábbi ST-függvények mostantól Photon-implementációkkal rendelkeznek:

FSCK REPAIR TABLE alapértelmezés szerint metaadat-javítást tartalmaz

FSCK REPAIR TABLE Most már tartalmaz egy kezdeti metaadat-javítási lépést a hiányzó adatfájlok ellenőrzése előtt, lehetővé téve, hogy sérült ellenőrzőpontokkal vagy érvénytelen partícióértékekkel rendelkező táblákon működjön. Emellett a dataFilePathFSCK REPAIR TABLE DRY RUN kimeneti séma oszlopa mostantól null értékű az új problématípusok támogatásához, ahol az adatfájl elérési útja nem alkalmazható.

DESCRIBE TABLE a kimenet metaadatoszlopot tartalmaz

A kimenet DESCRIBE TABLE [EXTENDED] mostantól minden táblatípushoz tartalmaz egy metadata oszlopot. Ez az oszlop JSON-sztringként definiált szemantikai metaadatokat (megjelenítendő nevet, formátumot és szinonimákat) tartalmaz.

A MERGE és UPDATEa streamelési írási műveletekben megőrzött NULL-szerkezetek

A NULL struktúrák mostantól NULL értékként maradnak meg a Delta Lake-ben MERGE, UPDATE és a stream írási műveletekben, amelyek a struktúratípusok típuskonverzióit is tartalmazzák. Korábban a NULL struktúrák ki lettek bontva olyan struktúrákká, amelyekben az összes mező NULL-ra van állítva.

Parquet-fájlokban materializált partícióoszlopok

A particionált Delta Lake-táblák most már anyagilag megjelenítik a partícióoszlopokat az újonnan létrehozott Parquet adatfájlokban. Korábban a partícióértékek csak a Delta Lake tranzakciónapló metaadataiban lettek tárolva. A Delta Lake által írt Parquet-fájlokat közvetlenül olvasó számítási feladatok további partícióoszlopokat látnak az újonnan írt fájlokban.

Az időbélyeg-partíció értékei tiszteletben tartják a munkamenet időzónát

Most az időbélyeg-partíció értékei helyesen vannak módosítva a spark.sql.session.timeZone konfigurációval. Korábban a JVM időzónával helytelenül konvertálták UTC-vé.

Időutazási korlátozások frissítve

Az Azure Databricks mostantól letiltja az összes tábla küszöbértékén túli deletedFileRetentionDuration időutazási lekérdezéseket. A VACUUM parancs figyelmen kívül hagyja a megőrzési időtartam argumentumát, kivéve, ha az érték 0 óra. Nem állíthat be deletedFileRetentionDuration nagyobbat, mint logRetentionDuration.

SHOW TABLES DROPPED respects LIMIT klauzula

SHOW TABLES DROPPED most már helyesen tiszteletben tartja a záradékot LIMIT .

2026. január