Jegyzet
Az oldalhoz való hozzáférés engedélyezést igényel. Próbálhatod be jelentkezni vagy könyvtárat váltani.
Az oldalhoz való hozzáférés engedélyezést igényel. Megpróbálhatod a könyvtár váltását.
Ez a cikk ismerteti azokat a funkciókat és viselkedéseket, amelyek jelenleg elérhetők és hamarosan elérhetők a jegyzetfüzetek és feladatok kiszolgáló nélküli számításán.
A kiszolgáló nélküli számítással kapcsolatos további információkért lásd: Csatlakozás kiszolgáló nélküli számításhoz.
Az Azure Databricks rendszeresen kiadja a kiszolgáló nélküli számítás frissítéseit, és automatikusan frissíti a kiszolgáló nélküli számítási futtatókörnyezetet a platform fejlesztéseinek és frissítéseinek támogatásához. Minden felhasználó ugyanazokat a frissítéseket kapja, és rövid idő alatt kerülnek bevezetésre.
kiszolgáló nélküli környezet verziói
A jegyzetfüzetek és feladatok servermentes számítási teljesítménye a környezeti verziókat használja, amelyek egy stabil kliens API-t biztosítanak a Spark Connect alapján, hogy biztosítsák az alkalmazás kompatibilitását. Ez lehetővé teszi a Databricks számára, hogy függetlenül frissítse a szervert, így fejlesztve a teljesítményt, javítva a biztonságot, és kijavítva a hibákat anélkül, hogy bármilyen kódbeli módosítást igényelne a munkaterheléseken.
Minden környezeti verzió tartalmaz egy konkrét Python verziót, valamint egy Python csomagok halmazát meghatározott verziókkal. A Databricks új funkciókat és javításokat vezet be a legújabb környezeti verzióban, miközben biztonsági frissítéseket alkalmaz minden támogatott környezeti verzióra.
A kiszolgáló nélküli környezet verziónaplóját lásd a Kiszolgáló nélküli környezet verziói című részben.
Kibocsátási megjegyzések
Ez a szakasz a kiszolgáló nélküli számítás kibocsátási megjegyzéseit tartalmazza. A kiadási jegyzetek év és hét szerint vannak rendszerezve. A kiszolgáló nélküli számítás mindig az itt felsorolt legújabb kiadású verzióval fut.
- 17.3-es verzió
- 17.2-es verzió
- 17.1-es verzió
- Kiszolgáló nélküli környezet 4-es verziója
- 17.0-s verzió
- A kiszolgáló nélküli teljesítménycélok általánosan elérhetők (GA)
- 16.4-es verzió
- A teljesítménymód mostantól konfigurálható kiszolgáló nélküli feladatokon
- 16.3-es verzió
- 16.2-es verzió
- Kiszolgáló nélküli jegyzetfüzeteken elérhető magas memóriabeállítás (nyilvános előzetes verzió)
- 16.1-es verzió
- 15.4-es verzió
- A JDK JDK 8-ról JDK 17-re frissül
- 15.1-es verzió
- 14.3-es verzió
17.3-es verzió
2025. október 28.
Ez a kiszolgáló nélküli számítási kiadás nagyjából megfelel a Databricks Runtime 17.3 LTS-nek.
Új funkciók
LIMIT A rekurzív CTE-k MINDEN támogatása: Mostantól rekurzív közös táblakifejezésekkel (rCTE-kkel) is használhatja a
LIMIT ALLzáradékot, hogy explicit módon megszabja, hogy a lekérdezési eredményekre ne alkalmazzanak sorkorlátot. Lásd Közös tábla kifejezés (CTE).A Unity Catalog-kötetekben lévő fájlokhoz való hozzáfűzés helyes hibát ad vissza: Ha a Unity Catalog-kötetekben meglévő fájlokhoz próbál hozzáfűzni, egy leíróbb hibaüzenet jelenik meg a probléma megértéséhez és megoldásához.
st_dumpfüggvénytámogatás: Mostantól ast_dumpfüggvény használatával lebonthat egy geometriai objektumot az alkotórészeibe, és egyszerűbb geometriák készletét adja vissza. Lásd:st_dumpfüggvény.A sokszög belső gyűrűs függvények mostantól támogatottak: Mostantól a következő függvényekkel dolgozhat a sokszög belső gyűrűkkel:
-
st_numinteriorrings: Egy sokszög belső határainak (gyűrűinek) számának lekérése. Lásd:st_numinteriorringsfüggvény. -
st_interiorringn: Bontsa ki egy sokszög n-edik belső határát, és adja vissza vonalzóként. Lásd:st_interiorringnfüggvény.
-
EXECUTE IMMEDIATE állandó kifejezések használata: Az
EXECUTE IMMEDIATEutasítás mostantól támogatja az állandó kifejezések használatát a lekérdezési sztringben, így rugalmasabb dinamikus SQL-végrehajtást tesz lehetővé. Lásd a(z) EXECUTE IMMEDIATE.Engedélyezés
spark.sql.files.maxPartitionBytesa kiszolgáló nélküli számításban: Mostantól konfigurálhatja aspark.sql.files.maxPartitionBytesSpark-konfigurációs paramétert a kiszolgáló nélküli számítási környezetben, hogy meghatározza a fájlok olvasása során az egyetlen partícióba csomagolandó bájtok maximális számát. Lásd: Spark-tulajdonságok konfigurálása kiszolgáló nélküli jegyzetfüzetekhez és feladatokhoz.
Viselkedésváltozások
MV/ST frissítési információk támogatása a DESCRIBE EXTENDED AS JSON-ban: A
DESCRIBE EXTENDED AS JSONparancs mostantól tartalmazza a materializált nézetek és streamelő táblák frissítési információinak körét, így láthatóvá teszi az utolsó frissítési időt és állapotot.Metaadatoszlop hozzáadása a következőhöz DESCRIBE QUERY : DESCRIBE TABLEA
DESCRIBE QUERYDESCRIBE TABLEparancsok mostantól tartalmaznak egy metaadatoszlopot a kimenetükben, amely további információkat nyújt az egyes oszlopok tulajdonságairól és jellemzőiről.Null struccok helyes kezelése NullType-oszlopok elvetésekor: Az Azure Databricks mostantól helyesen kezeli a nullstrukturálási értékeket az oszlopok
NullTypeelvetésekor, megakadályozva az adatok esetleges sérülését vagy váratlan viselkedését.A null strukturák jobb kezelése a Parquetben: Ez a kiadás a null strukturálási értékek kezelésének továbbfejlesztése a Parquet-fájlokból való olvasáskor és íráskor, a konzisztensebb és helyesebb működés biztosítása érdekében.
Frissítse az aws-msk-iam-auth kódtárat a Kafkához: Az
aws-msk-iam-authAmazon MSK IAM-hitelesítéshez használt kódtárat a legújabb verzióra frissítették, így nagyobb biztonságot és kompatibilitást biztosítva.
17.2-es verzió
2025. szeptember 25.
Ez a kiszolgáló nélküli számítási kiadás nagyjából megfelel a Databricks Runtime 17.2-nek.
Új funkciók
ST_ExteriorRinga függvény mostantól támogatott: Mostantól aST_ExteriorRingfüggvény használatával kinyerheti a sokszög külső határát, és vonalzóként visszaadhatja. Lásd:st_exteriorringfüggvény.Támogatási
TEMPORARYkulcsszó a metrikanézet létrehozásához: Mostantól használhatja aTEMPORARYkulcsszót metrikanézet létrehozásakor. Az ideiglenes metrikanézetek csak az őket létrehozó munkamenetben láthatók, és a munkamenet végén el lesznek vetve. Lásd a(z) CREATE VIEW.Natív I/O
LokiFileSystem.getFileStatushasználata az S3-on:LokiFileSystem.getFileStatusmostantól a natív I/O-vermet használja az Amazon S3-forgalomhoz, ésorg.apache.hadoop.fs.FileStatusobjektumokat ad visszashaded.databricks.org.apache.hadoop.fs.s3a.S3AFileStatushelyett.Az Automatikus betöltő módban következtet a partícióoszlopokra
singleVariantColumn: Az Automatikus betöltő mostantól a fájl elérési útjaiból következtet a partícióoszlopokra, amikor félig strukturált változattípusként tölti be az adatokat asingleVariantColumnbeállítás használatával. Korábban a rendszer nem észlelt automatikusan partícióoszlopokat. Lásd az Automatikus betöltő beállításai című témakört.
Viselkedésváltozások
DESCRIBE CONNECTIONMegjeleníti a JDBC-kapcsolatok környezeti beállításait: Az Azure Databricks mostantól felhasználói környezetbeállításokat is tartalmaz azDESCRIBE CONNECTIONegyéni illesztőprogramokat támogató és elkülönítetten futtatott JDBC-kapcsolatok kimenetében. Más kapcsolattípusok változatlanok maradnak.Lehetőség az egységes előzmények csonkolására a felügyelt táblák migrálása során: Mostantól csonkolhatja az egységes előzményeket, amikor az Uniform/Iceberg engedélyezésével migrálja a táblákat
ALTER TABLE...SET MANAGEDhasználatával. Ez leegyszerűsíti a migrálást, és csökkenti az állásidőt az Uniform manuális letiltásához és újbóli engedélyezéséhez képest.Helyes eredmények
splitüres regex és pozitív korlát esetén: Az Azure Databricks mostantól helyes eredményeket ad vissza üres regex és pozitív korlát használata eseténsplit function. Korábban a függvény helytelenül csonkolt a fennmaradó sztringre ahelyett, hogy az utolsó elembe beleadta volna.Javítás
url_decodeéstry_url_decodehibakezelés a Photonben: A Photonben,try_url_decode()ésurl_decode()failOnError = falsemostantól érvénytelen URL-kódolt sztringeket ad visszaNULLa lekérdezés meghiúsulása helyett.Megosztott végrehajtási környezet a Unity Catalog Python UDTF-jeihez: Az Azure Databricks mostantól ugyanazzal a tulajdonossal és Spark-munkamenettel osztja meg a Python által felhasználó által definiált táblafüggvények (UDTF-ek) végrehajtási környezetét. Választható
STRICT ISOLATIONzáradék áll rendelkezésre az UDTF-ek megosztásának letiltására mellékhatásokkal, például környezeti változók módosításával vagy tetszőleges kód végrehajtásával.
17.1-es verzió
2025. augusztus 19.
Ez a kiszolgáló nélküli számítási kiadás nagyjából megfelel a Databricks Runtime 17.1-es verziójának.
Új funkciók
- Csökkentett memóriahasználat a Photon-író széles sémáihoz: Olyan fejlesztések történtek a Photon motoron, amelyek jelentősen csökkentik a széles sémák memóriahasználatát, és olyan forgatókönyveket kezelnek, amelyek korábban memóriakihasználtsági hibákat eredményeztek.
Viselkedésváltozások
Érvénytelen
CHECKkényszerek esetén jelentkező hiba: Az Azure Databricks most egy olyan hibát jelezAnalysisException, amely miatt aCHECKkényszerkifejezés nem oldható fel a kényszer érvényesítése során.A Pulsar összekötő már nem teszi elérhetővé a Bouncy Castle-t: A Bouncy Castle könyvtár most árnyékolt a Pulsar összekötőben, hogy megakadályozza az osztályúti ütközéseket. Ennek eredményeképpen a Spark-feladatok már nem férhetnek hozzá az összekötő osztályaihoz
org.bouncycastle.*. Ha a kód a Bouncy Castle függvénytől függ, telepítse manuálisan a könyvtárat kiszolgáló nélküli környezetben.Az automatikus betöltő alapértelmezés szerint fájleseményeket használ, ha elérhető: Az Automatikus betöltő fájleseményeket használ a címtárlista helyett, ha a betöltési útvonal egy külső hely, ahol engedélyezve van a fájlesemények használata. Az alapértelmezett érték most
useManagedFileEventsif_available(voltfalse). Ez javíthatja a betöltési teljesítményt, és figyelmeztetést naplózhat, ha a fájlesemények még nincsenek engedélyezve.A Teradata-összekötő kijavítja a kis- és nagybetűk megkülönböztetésére vonatkozó sztring-összehasonlítást: A Teradata-összekötő mostantól alapértelmezés szerint az Azure Databrickshez igazítja a sztringek összehasonlítási viselkedését a kis- és nagybetűk megkülönböztetésével.
TMODE=ANSIEz a módosítás konfigurálható, és csak akkor érinti a meglévő felhasználókat, ha bejelentkeznek.
Kiszolgáló nélküli környezet 4-es verziója
2025. augusztus 13.
A 4. környezeti verzió már elérhető a kiszolgáló nélküli jegyzetfüzetekben és feladatokban. Ez a környezeti verzió könyvtárfrissítéseket és API-frissítéseket tartalmaz. Lásd : Kiszolgáló nélküli környezet 4-es verziója.
17.0-s verzió
2025. július 24.
Ez a kiszolgáló nélküli számítási kiadás nagyjából megfelel a Databricks Runtime 17.0-nak.
Új funkciók
SQL-eljárás támogatása: Az SQL-szkriptek mostantól beágyazhatók egy, a Unity Catalogban újrafelhasználható objektumként tárolt eljárásba. Az eljárást a CREATE PROCEDURE paranccsal hozhatja létre, majd meghívhatja a CALL paranccsal.
Alapértelmezett rendezés beállítása az SQL funkciókhoz: Az új
DEFAULT COLLATIONzáradék használata a CREATE FUNCTION parancsban meghatározza a paraméterekhez, a visszatérési típushoz és a függvénytörzsben találhatóSTRINGliterálokhoz használt alapértelmezett rendezést.Rekurzív közös táblakifejezések (rCTE) támogatása: Az Azure Databricks mostantól támogatja a hierarchikus adatok rekurzív közös táblakifejezések (rCTE-k) használatával történő navigációját. A rekurzív kapcsolat követéséhez használjon egy önhivatkozó CTE-t a
UNION ALL-val.A PySpark és a Spark Connect mostantól támogatja a DataFrame-eket
df.mergeIntoAPI: A PySpark és a Spark Connect mostantól támogatja az API-tdf.mergeInto.Támogatás
ALL CATALOGSa sémákbanSHOW: ASHOW SCHEMASszintaxis frissült, hogy elfogadja aALL CATALOGS, így lehetővé teszi az iterálást az összes névtereket támogató aktív katalógusban. A kimeneti attribútumok mostantól tartalmazzák acatalogmegfelelő névtér katalógusát jelző oszlopot.A folyékony fürtözés mostantól hatékonyabban tömöríti a törlési vektorokat: A folyékony fürtözésű Delta-táblák mostantól hatékonyabban alkalmazzák a törlési vektorok fizikai módosításait, amikor
OPTIMIZEfut. További részleteket a Parquet-adatfájlok módosításainak alkalmazása című témakörben talál.Nem determinisztikus kifejezések engedélyezése a
UPDATE/INSERToszlopértékekhezMERGEműveleteknél: Az Azure Databricks mostantól lehetővé teszi a nem determinisztikus kifejezések használatát a frissített és beszúrt oszlopértékekbenMERGEműveleteknél. Most például dinamikus vagy véletlenszerű értékeket hozhat létre az oszlopokhoz olyan kifejezések használatával, mint arand().Módosítsa a Delta MERGE Python API-kat, hogy a DataFrame-et adja vissza egység helyett: A Python
MERGEAPI-k (példáulDeltaMergeBuilder) mostantól az SQL API-hoz hasonló DataFrame-et is visszaadnak ugyanazokkal az eredményekkel.
Viselkedésváltozások
Az Automatikus betöltő növekményes címtár-listázási beállítás viselkedési változása: Az elavult automatikus betöltő
cloudFiles.useIncrementalListingbeállítás értéke mostantól alapértelmezett értékrefalsevan állítva. Ennek eredményeképpen az Auto Loader minden egyes futtatáskor teljes könyvtárlistát hajt végre. A Databricks nem javasolja ennek a lehetőségnek a használatát. Ehelyett fájlértesítési módot használjon fájleseményekkel.CREATE VIEWAz oszlopszintű záradékok hibát jeleznek, ha a záradék csak a materializált nézetekre vonatkozik:CREATE VIEWaz olyan parancsok, amelyek csak az s-hezMATERIALIZED VIEWérvényes oszlopszintű záradékot adnak meg, hibát jeleznek. Az érintett záradékok közé tartoznak aNOT NULLmegadott adattípusokDEFAULTésCOLUMN MASK.
A serverless teljesítménycélok GA státuszban van
2025. június 10.
A feladatok és folyamatok kiszolgáló nélküli teljesítménybeállításának kiválasztása általánosan elérhető.
Ha a teljesítményoptimalizált beállítás engedélyezve van, a számítási feladat a gyorsabb indítási és végrehajtási időhöz lesz optimalizálva. Ha le van tiltva, a kiszolgáló nélküli számítási feladat normál teljesítménymódban fut, amely a költségekre van optimalizálva, és valamivel nagyobb indítási késéssel rendelkezik.
További információt a Teljesítmény mód kiválasztása és a Teljesítmény mód kiválasztása című témakörben talál.
16.4-es verzió
2025. május 28.
Ez a kiszolgáló nélküli számítási kiadás nagyjából megfelel a Databricks Runtime 16.4 LTS-nek.
Viselkedésváltozások
Javítás az adatforrás-gyorsítótárazott csomagok beállításainak tiszteletben tartásához: Ez a frissítés biztosítja, hogy a tábla beolvassa az összes adatforrás-csomaghoz beállított tiszteletbeállításokat gyorsítótárazáskor, és nem csak az első gyorsítótárazott táblaolvasást. Korábban az adatforrástáblák olvasásai az első tervet gyorsítótárazták, de a későbbi lekérdezések során nem sikerült figyelembe venni a különböző beállításokat.
Engedélyezze a jelzőt a forráselemek anyaggá alakításának kötelezővé tételéhez a MERGE műveletekben: Korábban a felhasználók kikapcsolhatták a forráselemek anyaggá alakítását a MERGE-ben a következő beállítással
merge.materializeSourcenone. Ha az új jelző aktív, mindig szükség lesz a forrásanyagra, és az azt kikapcsolni próbáló kísérletek hibát eredményeznek. A Databricks azt tervezi, hogy csak azoknak az ügyfeleknek engedélyezi ezt a jelzőt, akik korábban nem módosították ezt a konfigurációt, így a felhasználók többsége nem tapasztalhat semmilyen változást a viselkedésben.
Új funkciók
Az Automatikus betöltő mostantól törölheti a feldolgozott fájlokat a forráskönyvtárban: Most már utasíthatja az Automatikus betöltőt, hogy automatikusan helyezze át vagy törölje a feldolgozott fájlokat. Ezt a funkciót az
cloudFiles.cleanSourceAutomatikus betöltő beállítással engedélyezheti. Lásd az Automatikus betöltő beállításai című témakörtcloudFiles.cleanSource.Típusszűkítési támogatás hozzáadva a Delta-táblákból való streameléshez: Ez a kiadás támogatja a típusszűrési oszlopadatokat tartalmazó Delta-táblából való streamelést, valamint a Databricks-to-Databricks Delta Sharing használatával engedélyezett típuskiszűréssel rendelkező Delta-táblák megosztását. A típusszűkítési funkció jelenleg nyilvános előzetes verzióban érhető el. Lásd típusbővítés.
IDENTIFIER a DBSQL-ben már elérhető a katalógusműveletek támogatása: Mostantól használhatja a
IDENTIFIERzáradékot a következő katalógusműveletek végrehajtásakor:CREATE CATALOGDROP CATALOGCOMMENT ON CATALOGALTER CATALOG
Ez az új szintaxis lehetővé teszi, hogy dinamikusan adja meg a katalógusneveket az ezekhez a műveletekhez definiált paraméterekkel, így rugalmasabb és újrafelhasználhatóbb SQL-munkafolyamatokat tesz lehetővé. A szintaxis példájaként vegye figyelembe, hogy
CREATE CATALOG IDENTIFIER(:param)holparamvan megadva egy paraméter a katalógus nevének megadásához. Lásd IDENTIFIER záradék.Az csoportosított kifejezések mostantól automatikusan generált átmeneti aliasokat biztosítanak: A csoportosított kifejezések automatikusan létrehozott aliasai most már determinisztikusan tartalmazzák
COLLATEaz információkat. Az automatikusan létrehozott aliasok átmenetiek (instabilak), és nem szabad támaszkodni rá. Ehelyett ajánlott eljárásként következetesen és explicit módon kell használniexpression AS alias.Szűrőleküldési API-támogatás hozzáadása a Python-adatforrásokhoz: A kiszolgáló nélküli számítás mostantól támogatja a szűrőleküldést a Python-adatforrások köteges olvasására mint API, hasonlóan az
SupportsPushDownFiltersinterfészhez. Lásd a 16.4 LTS kiadási megjegyzéseit.Python UDF-nyomkövetés fejlesztése: A Python UDF-nyomkövetés mostantól az illesztőtől és a végrehajtótól származó kereteket is tartalmazza az ügyfélkeretekkel együtt, ami jobb hibaüzeneteket eredményez, amelyek nagyobb és relevánsabb részleteket mutatnak (például a keretsor tartalmát egy UDF-ben).
UNION/EXCEPT/INTERSECT egy nézetben, és EXECUTE IMMEDIATE most helyes eredményeket ad vissza: Ideiglenes és állandó nézetdefiníciók lekérdezése legfelső szintű
UNION/EXCEPT/INTERSECTés az alias nélküli oszlopok korábban helytelen eredményeket adtak vissza, mertUNION/EXCEPT/INTERSECTa kulcsszavak aliasnak minősültek. Most ezek a lekérdezések megfelelően hajtják végre a teljes műveletet.Adatforrás-gyorsítótára tervbeállítás és áthelyezési útmutató: A fájlos forrástáblából való olvasás megfelelően figyelembe veszi a lekérdezési beállításokat (például elválasztójeleket). Korábban az első lekérdezési terv gyorsítótárba került, és az azt követő opcióváltoztatásokat figyelmen kívül hagyták. Az előző viselkedés visszaállításához állítsa
spark.sql.legacy.readFileSourceTableCacheIgnoreOptionstrueértékre.Új
listaggésstring_aggfüggvények: Ettől a kiadástól kezdődően alistaggvagy astring_aggfüggvények használatával összesítheti aSTRINGésBINARYértékeket a csoporton belül. Lásd : string_agg.
A teljesítménymód mostantól konfigurálható kiszolgáló nélküli feladatokon
2025. április 14.
Most már kiválaszthatja a kiszolgáló nélküli feladatok teljesítménymódját a Feladat részletei lapon található Teljesítményoptimalizált beállítással. Korábban az összes kiszolgáló nélküli feladat teljesítményoptimalizált volt. Most letilthatja a teljesítményoptimalizált beállítást, hogy a számítási feladatot normál teljesítmény módban futtassa. A standard peformance mód úgy lett kialakítva, hogy csökkentse a számítási feladatok költségeit, ahol elfogadható a valamivel magasabb indítási késés.
A standard teljesítménymód nem támogatott a folyamatos folyamatokhoz, a végponttal létrehozott egyszeri futtatásokhoz vagy az runs/submit SQL Warehouse-feladatokkal kapcsolatos feladatokhoz, beleértve a materializált nézeteket is.
A teljesítménymódról további információt a Teljesítmény mód kiválasztása című témakörben talál.
16.3-es verzió
2025. április 9.
Ez a kiszolgáló nélküli számítási kiadás nagyjából megfelel a Databricks Runtime 16.3-nak.
Viselkedésváltozások
-
*Továbbfejlesztett hibaüzenet, ha
kafka.sasl.client.callback.handler.classérvénytelen érték van hozzárendelve: Ez a kiadás tartalmaz egy módosítást, amely leíróbb hibaüzenetet ad vissza, hakafka.sasl.client.callback.handler.classérvénytelen értéket rendel hozzá.
Új funkciók
Az állapotolvasó támogatása ga: A strukturált streamelési lekérdezések állapotadatainak olvasása mostantól általánosan elérhető a kiszolgáló nélküli számításban. Lásd: Strukturált streamelési állapotinformációk olvasása.
A Delta táblaprotokoll leminősítés GA ellenőrzőpont-védelemmel általánosan elérhető:
DROP FEATUREa Delta Lake táblafunkcióinak eltávolításához és a táblaprotokoll leminősítéséhez. Alapértelmezés szerintDROP FEATUREmostantól védett ellenőrzőpontokat hoz létre egy optimalizáltabb és egyszerűbb visszalépési élmény érdekében, amely nem igényel várakozási időt vagy előzmény csonkolást. Lásd Delta Lake tábla szolgáltatás megszüntetése és tábla protokoll visszaminősítése.Procedurális SQL-szkriptek írása AZ ANSI SQL/PSM (nyilvános előzetes verzió) alapján: Mostantól az ANSI SQL/PSM-alapú szkriptelési képességeket használhatja az SQL-lel kapcsolatos eljárási logika írásához, beleértve a vezérlőfolyamat-utasításokat, a helyi változókat és a kivételkezelést. Lásd az SQL-szkriptelést.
Táblázat- és nézetszintű alapértelmezett rendezés: Mostantól megadhat egy alapértelmezett rendezést a táblákhoz és nézetekhez. Ez leegyszerűsíti a táblák és nézetek létrehozását, ahol az összes vagy a legtöbb oszlop ugyanazzal a rendezéssel rendelkezik. Lásd : Rendezés.
Új H3 függvények: Három új H3 függvény lett hozzáadva: h3_try_coverash3, h3_try_coverash3string és h3_try_tessellateaswkb.
Több táblaoszlop módosítása egy ALTER TABLE utasításban: Mostantól egyetlen utasításban
ALTER TABLEtöbb oszlopot is módosíthat. Lásd...ALTER TABLECOLUMN záradékot.
16.2-es verzió
2025. március 13.
Ez a kiszolgáló nélküli számítási kiadás nagyjából megfelel a Databricks Runtime 16.2-nek.
Viselkedésváltozások
A Delta Sharingben a táblaelőzmények alapértelmezés szerint engedélyezve vannak: Az SQL-paranccsal
ALTER SHARE <share> ADD TABLE <table>létrehozott megosztások esetében alapértelmezés szerint engedélyezve van az előzménymegosztás (WITH HISTORY). Lásd a(z) ALTER SHARE.A hitelesítőadat-kezelési SQL-utasítások hibát adnak vissza, ha a hitelesítő adatok típusa nem egyezik: Most, ha a hitelesítőadat-kezelési SQL-utasításban megadott hitelesítő adattípus nem egyezik meg a hitelesítő argumentum típusával, a rendszer hibát ad vissza, és az utasítás nem fut.
Új funkciók
Használja a . Mostantól használhatja a& a generált oszlopkifejezésekben timestampdiff és atimestampadd függvényeket a Delta Lake generált oszlopkifejezésekben. Lásd a Delta Lake által létrehozott oszlopokat.Frissítés a
DESCRIBE TABLEmetaadatok strukturált JSON-ként való visszaadásához: A parancs segítségével mostantól JSON-dokumentumként is visszaadhatja aDESCRIBE TABLE AS JSONtábla metaadatait. A JSON-kimenet strukturáltabb, mint az alapértelmezett, ember által olvasható jelentés, és programozott módon használható a tábla sémájának értelmezéséhez. További információ: DESCRIBE TABLE AS JSON.Végi szóközökre érzéketlen rendezések: A serverless környezet mostantól támogatja a végi szóközökre érzéketlen rendezéseket. Ezek a kollációk például a
'Hello'és'Hello 'értékeket egyenlőként kezelik. További információ: RTRIM-rendezés.
Hibajavítások
-
Továbbfejlesztett növekményes klónfeldolgozás: Ez a kiadás egy peremes eset javítását tartalmazza, ahol egy növekményes
CLONEfájl újramásolhatja a forrástáblából a céltáblába másolt fájlokat. Lásd : Tábla klónozása az Azure Databricksben.
Kiszolgáló nélküli jegyzetfüzeteken elérhető magas memóriabeállítás (nyilvános előzetes verzió)
2025. február 7-én
Mostantól nagyobb memóriaméretet konfigurálhat a kiszolgáló nélküli számítási jegyzetfüzet számítási feladataihoz. Ez a beállítás interaktív és ütemezett jegyzetfüzet-számítási feladatokra is alkalmazható.
A magas memóriával rendelkező kiszolgáló nélküli használat magasabb DBU-kibocsátási sebességgel rendelkezik, mint a normál memória.
További információ: Nagy memória kiszolgáló nélküli számítás használata.
16.1-es verzió
2025. február 5-én
Ez a kiszolgáló nélküli számítási kiadás nagyjából megfelel a Databricks Runtime 16.0-nak és a Databricks Runtime 16.1-nek.
Új funkciók
-
Rekurzív sémák Avro-támogatása: Most már használhatja a
recursiveFieldMaxDepthopciót afrom_avrofunkcióval és aavroadatforrással. Ez a beállítás a séma-rekurzió maximális mélységét állítja be az Avro-adatforráson. Lásd a streamelt Avro-adatok olvasását és írását. - Az Avro Confluent sémaregisztrációs adatbázisának kiterjesztett támogatása: A Kiszolgáló nélküli szolgáltatás mostantól támogatja az Avro-sémahivatkozást a Confluent sémaregisztrációs adatbázisával. Lásd : Hitelesítés külső Confluent-sémaregisztrációs adatbázisba.
-
A folyékony fürtözést használó táblákon való kényszerített újracsoportosítás: A
OPTIMIZE FULLszintaxissal mostantól kényszerítheti a tábla összes rekordjának újracsoportosítását, folyékony fürtözés engedélyezése esetén. Lásd: Az összes rekord újracsoportosításának kényszerítése. - A PythonHoz készült Delta API-k mostantól támogatják az identitásoszlopokat: A Python Delta API-ival mostantól identitásoszlopokkal rendelkező táblákat hozhat létre. Lásd: Identitásoszlopok használata a Delta Lake-ben.
- Folyékony fürtözött táblák létrehozása streamelés közbeni írás során: Mostantól engedélyezheti a folyékony fürtözést, amikor új táblákat hoz létre strukturált streamelésű írásokkal. Lásd Folyékony klaszterezés engedélyezése.
- Támogatás a következőhöz: OPTIMIZE FULL záradék: A kiszolgáló nélküli számítás mostantól támogatja a OPTIMIZE FULL záradékot. Ez a feltétel optimalizálja a folyékony klaszterezést használó táblában lévő összes rekordot, beleértve a korábban klaszterezett adatokat is.
-
A WITH-beállítások specifikációjának INSERT és a táblahivatkozások támogatása: A kiszolgáló nélküli számítás mostantól támogatja az adatforrások viselkedésének szabályozására használható utasítás táblahivatkozásainak és táblázatneveinek
INSERT. -
Új SQL-függvények: A következő SQL-függvények érhetők el kiszolgáló nélküli számításon:
- try_url_decode a url_decode hibatűrő verziója.
-
zeroifnull 0 értéket ad vissza, ha a függvény bemeneti kifejezése
zeroifnull()null értékű.NULL -
nullifzero akkor ad
NULLvissza, ha a bemenet 0, vagy ha nem 0. - a dayname(expr) a hét napjának hárombetűs angol betűszóját adja vissza az adott dátumhoz.
- az uniform(expr1, expr2 [,seed]) egy véletlenszerű értéket ad vissza független és azonos eloszlású értékekkel a megadott számtartományon belül.
-
randstr(length) véletlenszerű alfa-numerikus karaktereket tartalmazó sztringet
lengthad vissza.
-
Az adatok Delta-táblába való egyesítésekor engedélyezze az automatikus sémafejlődést: Támogatás
withSchemaEvolution()lett hozzáadva azDeltaMergeBuilderosztálytaghoz. AzwithSchemaEvolution()automatikus sémafejlődés engedélyezésére használható aMERGEműveletek során. Például:mergeBuilder.whenMatched(...).withSchemaEvolution().execute()}}. -
Az Apache Sparkban a rendezés támogatása nyilvános előzetes verzióban érhető el: Mostantól nyelvérzékeny, kis- és nagybetűket nem érzékelyítő és hozzáférés-érzéketlen rendezéseket rendelhet oszlopokhoz és kifejezésekhez
STRING. Ezeket a kollációkat karakterlánc-összehasonlításokban, rendezési, csoportosítási műveletekben és több karakterláncfüggvényben használják. Lásd : Rendezés. - A Delta Lake-beli rendezések támogatása nyilvános előzetes verzióban érhető el: A Delta-tábla létrehozásakor vagy módosításakor most már megadhatja az oszlopok rendezéseit. Lásd a Delta Lake összehasonlítási támogatását.
-
LITEA vákuum mód nyilvános előzetes verzióban érhető el: MostantólVACUUM table_name LITEkisebb súlyú vákuumműveletet hajthat végre, amely a Delta tranzakciónapló metaadatait használja. Tekintse meg: Teljes vs. könnyű mód és VACUUM. -
A záradék paraméterezésének
USE CATALOG with IDENTIFIERtámogatása: Az IDENTIFIER utasítás mostantól támogatja a USE CATALOG záradékot. Ezzel a támogatással paraméterezheti az aktuális katalógust egy sztringváltozó vagy paraméterjelölő alapján. - COMMENT ON COLUMN táblák és nézetek támogatása: Az COMMENT ON utasítás mostantól támogatja a nézet- és táblaoszlopok megjegyzéseinek módosítását.
- Elnevezett paraméter meghívása további függvényekhez: A következő függvények támogatják az elnevezett paraméterhívást:
-
A
SYNC METADATAparancs paraméterét a REPAIR TABLE Hive metaadattár támogatja: Mostantól aSYNC METADATAparaméterrelREPAIR TABLEfrissítheti a Hive metaadattár által kezelt táblák metaadatait. Lásd a(z) REPAIR TABLE. -
Továbbfejlesztett adatintegritás tömörített Apache Arrow-kötegekhez: Az adatsérülések elleni további védelem érdekében mostantól minden
LZ4tömörített Arrow köteg tartalmazza a tartalom és blokk ellenőrzőösszegeit. Lásd az LZ4-keret formátumának leírását.
-
Beépített Oracle JDBC-illesztő: A kiszolgáló nélküli számítás most már beépített Oracle JDBC-illesztővel rendelkezik. Ha egy ügyfél által feltöltött JDBC-illesztő JAR-t használ a
DriverManagerkeresztül, át kell írnia a szkripteket az egyéni JAR kifejezett használatához. Ellenkező esetben a rendszer a beépített illesztőprogramot használja. Ez az illesztőprogram csak a Lakehouse Federationt támogatja. Egyéb használati esetekben saját meghajtót kell megadnia. -
Az elérési utakkal elért Delta-táblák részletesebb hibái: Új hibaüzenet jelenik meg az elérési utak használatával elért Delta-táblákhoz. A rendszer minden kivételt továbbít a felhasználónak. A kivétel
DELTA_MISSING_DELTA_TABLEakkor van fenntartva, ha a mögöttes fájlok nem olvashatók Delta-táblaként.
Viselkedésváltozások
- Breaking change: Hosted RStudio is end-of-life: Ezzel a kiadással a Databricks által üzemeltetett RStudio-kiszolgáló élettartama lejárt, és nem érhető el a kiszolgáló nélküli számításon futó Azure Databricks-munkaterületeken. További információ és az RStudio alternatíváinak listája: Csatlakozás a Databricks által üzemeltetett RStudio-kiszolgálóhoz.
Törés okozó változás: A
byte,short,intéslongtípusok szélesebb típusúra történő módosításának támogatásának eltávolítása: A Delta- és Apache Iceberg-táblák konzisztens viselkedésének biztosítása érdekében a következő adattípus-módosítások már nem alkalmazhatók a típus szélesítés funkcióval rendelkező táblákra:-
byte,short,intéslongdecimal. -
byte,short, ésintadouble-hoz.
-
Regex-minták helyes elemzése beágyazott karaktercsoportba rendezéssel: Ez a kiadás tartalmaz egy módosítást, amely támogatja a regex minták megfelelő elemzését a beágyazott karaktercsoportozásban való negációval. A rendszer például
[^[abc]]"bármely olyan karakterként lesz elemezve, amely NEM az "abc" egyike.Emellett a Photon viselkedése inkonzisztens volt a Sparkkal a beágyazott karakterosztályok esetében. A beágyazott karakterosztályokat tartalmazó Regex-minták már nem használják a Photont, hanem a Sparkot. A beágyazott karakterosztály minden olyan minta, amely szögletes zárójeleket tartalmaz más szögletes zárójeleken belül, például
[[a-c][1-3]].A Delta Lake
MERGEduplikált egyezésészlelésének javítása :MERGEmost már figyelembe veszi aWHEN MATCHEDzáradékban megadott feltételeket. Tekintse meg, hogyan használhatja az "upsert" műveletet egy Delta Lake táblázatban az egyesítési (merge) eljárással.A
addArtifact()funkció mostantól konzisztens a számítási típusok között: Amikor függőséget adaddArtifact(archive = True)hozzá a kiszolgáló nélküli számításhoz, a rendszer automatikusan kicsomagolja az archívumot.
Hibajavítások
- Az időzóna-eltolások mostantól másodperceket is tartalmaznak, amikor CSV-, JSON- és XML-formátumú szerializálás történik: Az olyan időbélyegek, amelyek másodpercekkel rendelkező időzóna-eltolásokat tartalmaznak (az 1900 előtti időbélyegeknél gyakori), a szerializálás során kihagyták a másodperceket, amikor CSV, JSON vagy XML formátumban történtek. Az alapértelmezett időbélyeg-formázó ki lett javítva, és most a megfelelő eltolási értékeket adja vissza ezekhez az időbélyegekhez.
Egyéb módosítások
-
cloudFilesA következő hibakódok lettek átnevezve:-
_LEGACY_ERROR_TEMP_DBR_0143át lett nevezveCF_INCORRECT_STREAM_USAGE-re. -
_LEGACY_ERROR_TEMP_DBR_0260át lett nevezveCF_INCORRECT_BATCH_USAGE-re.
-
15.4-es verzió
2024. október 28.
Ez a kiszolgáló nélküli számítási kiadás nagyjából megfelel a Databricks Runtime 15.4-nek
Új funkciók
-
UTF-8 érvényesítési függvények: Ez a kiadás az alábbi függvényeket mutatja be az UTF-8 sztringek érvényesítéséhez:
- is_valid_utf8 ellenőrizte, hogy egy sztring érvényes UTF-8 sztring-e.
- make_valid_utf8 egy potenciálisan érvénytelen UTF-8 sztringet helyettesítő karakterek használatával konvertál érvényes UTF-8 sztringgé.
- validate_utf8 hibát jelez, ha a bemenet nem érvényes UTF-8 sztring.
-
try_validate_utf8 akkor ad
NULLvissza, ha a bemenet nem érvényes UTF-8 sztring.
- Az UniForm Iceberg engedélyezése a következővel ALTER TABLE: Mostantól adatfájlok újraírása nélkül engedélyezheti az UniForm Iceberget a meglévő táblákon. Lásd: Iceberg-olvasás engedélyezése meglévő táblán.
-
try_url_decode függvény: Ez a kiadás bemutatja a try_url_decode függvényt, amely egy URL-kódolt sztringet dekódol. Ha a sztring nem a megfelelő formátumban van, a függvény hibafelismertetés helyett ad vissza
NULL. -
Opcionálisan lehetővé teszi az optimalizáló számára, hogy nem kényszerített külső kulcsokra támaszkodjon: A lekérdezési teljesítmény javítása érdekében mostantól megadhatja a kulcsszót a
RELYFOREIGN KEYtáblák létrehozásakor vagy módosításakor . -
Párhuzamos futtatás szelektív felülírásokhoz: A szelektív felülírások most olyan feladatokat futtatnak párhuzamosan
replaceWhere, amelyek adatokat törölnek és új adatokat szúrnak be, ezáltal javítva a lekérdezési teljesítményt és a fürt kihasználtságát. -
Jobb teljesítmény a szelektív felülírásokkal rendelkező adatcsatornák módosításához: A módosítási adatcsatornával rendelkező táblák szelektív
replaceWherefelülírása többé nem ír külön módosítási adatfájlokat a beszúrt adatokhoz. Ezek a műveletek a mögöttes Parquet-adatfájlokban található rejtett_change_typeoszlopot használják a módosítások íráserősítés nélküli rögzítéséhez. -
Továbbfejlesztett lekérdezési késés a parancshoz: Ez a
COPY INTOkiadás tartalmaz egy módosítást, amely javítja a parancs lekérdezési késésétCOPY INTO. Ez a fejlesztés úgy valósul meg, hogy a RocksDB állapottároló aszinkron módon tölti be az állapotot. Ezzel a módosítással javulni fog a nagy állapotú lekérdezések kezdési ideje, például a nagy számú már betöltött fájllal rendelkező lekérdezések esetében. -
Az ellenőrzési korlátozások táblafunkciójának elvetése: Most már elvetheti a
checkConstraintstábla funkciót egy Delta-táblából a következővelALTER TABLE table_name DROP FEATURE checkConstraints: . Lásd: Ellenőrzési korlátozások letiltása.
Viselkedésváltozások
Sémakötés módosítása nézetekhez: Amikor a nézet alapjául szolgáló lekérdezés adattípusai eltérnek a nézet első létrehozásakor használt adatoktól, a Databricks többé nem ad hibát a nézetre mutató hivatkozásoknál, ha nem lehet biztonságos megjelenítést végrehajtani.
Ehelyett a nézet a szokásos kitevési szabályokkal kompenzál, ahol lehet. Ez a módosítás lehetővé teszi, hogy a Databricks könnyebben tolerálja a táblaséma változásait.
A nem dokumentált
!szintaxistűrésNOTletiltása a logikai logikán kívül: A Databricks többé nem tolerálja a logikai logikán kívüli szinonimák!használatátNOT. Ez a módosítás csökkenti a zavart, igazodik az SQL szabványhoz, és hordozhatóbbá teszi az SQL-t. Például:CREATE ... IF ! EXISTS, IS ! NULL,! NULLoszlop vagy mező tulajdonság és! IN! BETWEEN kifejezést a következőre kell cserélni:CREATE ... IF NOT EXISTS,IS NOT NULL,NOT NULLoszlop- vagy mezőtulajdonság,NOT INésNOT BETWEEN.Ez a módosítás nem érinti a logikai előtag operátort
!(pl.!is_mgrvagy!(true AND false)) .Az oszlopdefiníció szintaxisának nem dokumentált és feldolgozatlan részeinek letiltása a nézetekben: A Databricks nevesített oszlopokkal és oszlopokkal kapcsolatos megjegyzéseket támogat CREATE VIEW .
Az oszloptípusok,
NOT NULLkorlátozások vagyDEFAULTmeghatározása a szintaxisban semmilyen hatás nélkül eltűrhető. A Databricks eltávolítja ezt a szintaxistűrést. Ez csökkenti a zavart, igazodik az SQL szabványhoz, és lehetővé teszi a jövőbeli fejlesztéseket.Konzisztens hibakezelés a Base64-dekódoláshoz a Sparkban és a Photonben: Ez a kiadás módosítja, hogy a Photon hogyan kezeli a Base64 dekódolási hibáit a hibák Spark-kezelésének megfelelően. A módosítások előtt a Photon és a Spark kódgenerálási folyamata néha nem tudta megfelelően kezelni az elemzési kivételeket, míg a Spark értelmezési végrehajtása helyesen emelte ki a
IllegalArgumentExceptionvagyConversionInvalidInputErrorkivételeket. Ez a frissítés biztosítja, hogy a Photon következetesen ugyanazokat a kivételeket emelje ki, mint a Spark a Base64 dekódolási hibái során, kiszámíthatóbb és megbízhatóbb hibakezelést biztosítva.CHECKHasznosabb hibaüzenet megjelenítése érdekében a Databricks Runtime 15.3 és újabb verziókban egy érvénytelen oszlopnévre hivatkozó kényszert tartalmazó utasítás aALTER TABLE ADD CONSTRAINThibaosztályt adja vissza. Korábban egyINTERNAL_ERRORvolt visszaadva.
A JDK JDK 8-ról JDK 17-re frissül
2024. augusztus 15.
A notebookok és munkafolyamatok számára kiszolgáló nélküli számítás kiszolgáló oldalon a Java Development Kit (JDK) 8-ról JDK 17-re migrált. Ez a frissítés a következő viselkedési változásokat tartalmazza:
Regex-minták helyes elemzése beágyazott karaktercsoportozással: Ezzel a frissítéssel az Azure Databricks mostantól támogatja a regex minták megfelelő elemzését beágyazott karaktercsoportozással. A rendszer például
[^[abc]]"bármely olyan karakterként lesz elemezve, amely NEM az "abc" egyike.Emellett a Photon viselkedése inkonzisztens volt a Sparkkal a beágyazott karakterosztályok esetében. A beágyazott karakterosztályokat tartalmazó Regex-minták már nem használják a Photont, hanem a Sparkot. A beágyazott karakterosztály minden olyan minta, amely szögletes zárójeleket tartalmaz más szögletes zárójeleken belül, például
[[a-c][1-3]].
15.1-es verzió
2024. július 23.
Ez a kiszolgáló nélküli számítási kiadás nagyjából megfelel a Databricks Runtime 15.1-nek
Új funkciók
Csillag (*) szintaxis támogatása a WHERE utasításban: Mostantól a WHERE utasításban csillag (WHERE) szintaxissal hivatkozhat a SELECT lista összes oszlopára.
Például: SELECT * FROM VALUES(1, 2) AS T(a1, a2) WHERE 1 IN(T.*).
Changes
Továbbfejlesztett hiba kezelés a JSON-elemzéshez: A JSON-elemző from_json() és a JSON útvonal kifejezések mostantól gyorsabban kezelik a hibás szintaxist, ami kevesebb adatvesztéssel jár.
Ha hibás JSON-szintaxissal találkozik egy strukturált mezőben, egy tömbértékben, egy térképkulcsban vagy egy leképezési értékben, a JSON-elemző mostantól csak az olvashatatlan mezőre, kulcsra vagy elemre ad vissza.NULL A következő mezők, kulcsok vagy elemek megfelelően lesznek elemezve. A módosítás előtt a JSON-elemző megszakította a tömb, a struktúra vagy a térkép elemzését, és a fennmaradó tartalomra NULL-t adott vissza.
14.3-es verzió
2024. április 15.
Ez a kezdeti kiszolgáló nélküli számítási verzió. Ez a verzió nagyjából megfelel a Databricks Runtime 14.3-nak néhány olyan módosítással, amelyek bizonyos nem kiszolgáló nélküli és örökölt funkciók támogatását megszüntetik.
Támogatott Spark-konfigurációs paraméterek
A Spark konfigurációjának kiszolgáló nélküli számításon való automatizálásához az Azure Databricks eltávolította a legtöbb Spark-konfiguráció manuális beállításának támogatását. A támogatott Spark-konfigurációs paraméterek listájának megtekintéséhez lásd: Spark-tulajdonságok konfigurálása kiszolgáló nélküli jegyzetfüzetekhez és feladatokhoz.
A kiszolgáló nélküli számításon futó feladatok sikertelenek lesznek, ha nem támogatott Spark-konfigurációt állít be.
input_file függvények elavultak
A input_file_name(), input_file_block_length() és input_file_block_start() függvény elavult. Ezeknek a függvényeknek a használata erősen nem ajánlott.
Ehelyett használja a fájl metaadatainak oszlopát a fájl metaadatainak lekéréséhez.
Viselkedési változások
A kiszolgáló nélküli számítási 2024.15-ös verzió a következő viselkedési változásokat tartalmazza:
-
unhex(hexStr) hibajavítás: A függvény használatakor a
unhex(hexStr)hexStr mindig egy egész bájtra van kipárnázva. Korábban az unhex függvény figyelmen kívül hagyta az első fél bájtot. Például:unhex('ABC')mostx'0ABC'-t állít előx'BC'helyett. - Az automatikusan létrehozott oszlop aliasok mostantól stabilak: Ha egy kifejezés eredményére felhasználó által megadott oszlopalias nélkül hivatkozik, ez az automatikusan létrehozott alias stabil lesz. Az új algoritmus a korábban automatikusan létrehozott nevek módosítását eredményezheti olyan funkciókban, mint a materializált nézetek.
-
A típusmezőkkel végzett
CHARtáblavizsgálatok mostantól mindig ki vannak jelölve: a Delta-táblák, bizonyos JDBC-táblák és külső adatforrások nem párnázott formában tárolják a CHAR-adatokat. Olvasáskor az Azure Databricks mostantól a deklarált hosszúságú szóközökkel fogja kipárnázni az adatokat a megfelelő szemantikák biztosítása érdekében. -
A BIGINT/DECIMÁLIS értékből IDŐBÉLYEG értékre történő átalakítás kivételt dob a túlcsordult értékek esetén: Az Azure Databricks lehetővé teszi a BIGINT/DECIMÁLIS értékek IDŐBÉLYEG értékre történő átalakítását, az értéket a Unix időszak óta eltelt másodpercek számaként kezelve. Korábban az Azure Databricks túlcsordult értékeket adott vissza, de most kivételt eredményez a túlcsordulás esetén. Használja a
try_cast-t, hogy null értéket adjon vissza kivétel helyett. -
A PySpark UDF végrehajtása a dedikált számítási UDF-végrehajtás pontos viselkedésének megfelelően lett továbbfejlesztve: A következő módosítások történtek:
- Az UDF-ek karaktersorozat visszatérési típussal mostantól nem konvertálják implicit módon a nem karaktersorozat értékeket karaktersorozattá. Korábban a visszatérési
strtípusú UDF-ek burkolótstr(..)alkalmaztak az eredményre, függetlenül a visszaadott érték tényleges adattípusától. - Az
timestampvisszatérési típussal rendelkező UDF-ek többé nem alkalmazzák implicit módon az időzónák időbélyegekké való konvertálását.
- Az UDF-ek karaktersorozat visszatérési típussal mostantól nem konvertálják implicit módon a nem karaktersorozat értékeket karaktersorozattá. Korábban a visszatérési