Not
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Den här artikeln förklarar de funktioner och beteenden som för närvarande är tillgängliga samt de kommande inom serverlös beräkning för notebooks och jobb.
Mer information om serverlös beräkning finns i Ansluta till serverlös beräkning.
Azure Databricks släpper regelbundet uppdateringar av serverlös beräkning och uppgraderar automatiskt den serverlösa beräkningskörningen för att stödja förbättringar och uppgraderingar till plattformen. Alla användare får samma uppdateringar som distribueras under en kort tidsperiod.
serverlösa miljöversioner
Serverlös beräkning för notebook-filer och jobb använder miljöversioner, som tillhandahåller ett stabilt klient-API baserat på Spark Connect för att säkerställa programkompatibilitet. Detta gör att Databricks kan uppgradera servern oberoende av varandra och leverera prestandaförbättringar, säkerhetsförbättringar och felkorrigeringar utan att kräva några kodändringar i arbetsbelastningar.
Varje miljöversion innehåller en specifik Python-version och en uppsättning Python-paket med definierade versioner. Databricks introducerar nya funktioner och korrigeringar i den senaste miljöversionen samtidigt som säkerhetsuppdateringar tillämpas på alla miljöversioner som stöds.
Information om serverlös miljöversion finns i Serverlösa miljöversioner.
Versionsmeddelanden
Det här avsnittet innehåller versionsinformation för serverlös beräkning. Versionsinformation organiseras efter år och vecka i året. Serverlös beräkning körs alltid med den senaste versionen som visas här.
- Version 17.3
- Version 17.2
- Version 17.1
- Serverlös miljöversion 4
- Version 17.0
- Serverlösa prestandamål är GA
- Version 16.4
- Prestandaläget kan nu konfigureras för serverlösa jobb
- Version 16.3
- Version 16.2
- Hög minnesinställning är tillgänglig på serverlösa anteckningsböcker (allmän förhandsvisning)
- Version 16.1
- Version 15.4
- JDK uppgraderas från JDK 8 till JDK 17
- Version 15.1
- Version 14.3
Version 17.3
den 28 oktober 2025
Den här serverlösa beräkningsversionen motsvarar ungefär Databricks Runtime 17.3 LTS.
Nya funktioner
LIMIT ALLT stöd för rekursiva CTE:er: Du kan nu använda
LIMIT ALL-satsen med rekursiva vanliga tabelluttryck (rCTEs) för att uttryckligen ange att ingen radgräns ska tillämpas på frågeresultaten. Se Gemensam tabelluttryck (CTE).Om du lägger till filer i Unity Catalog-volymer returneras rätt fel: Om du försöker lägga till befintliga filer i Unity Catalog-volymer returneras nu ett mer beskrivande felmeddelande som hjälper dig att förstå och lösa problemet.
st_dumpfunktionsstöd: Du kan nu användast_dumpfunktionen för att dela upp ett geometriobjekt i dess komponenter och returnera en uppsättning enklare geometrier. Sest_dumpfunktion.Polygoners invändiga ringfunktioner stöds nu: Du kan nu använda följande funktioner för att arbeta med polygoners invändiga ringar:
-
st_numinteriorrings: Hämta antalet inre gränser (ringar) för en polygon. Sest_numinteriorringsfunktion. -
st_interiorringn: Extrahera den n:e inre gränsen för en polygon och returnera den som en linjedragning. Sest_interiorringnfunktion.
-
EXECUTE IMMEDIATE använda konstanta uttryck: -instruktionen
EXECUTE IMMEDIATEstöder nu användning av konstanta uttryck i frågesträngen, vilket möjliggör mer flexibel dynamisk SQL-körning. Se EXECUTE IMMEDIATE.Tillåt
spark.sql.files.maxPartitionBytesi serverlös beräkning: Nu kan du konfigureraspark.sql.files.maxPartitionBytesSpark-konfigurationsparameter på serverlös beräkning för att styra det maximala antalet byte som ska packas i en enda partition vid läsning av filer. Se Konfigurera Spark-egenskaper för serverlösa anteckningsböcker och jobb.
Beteendeändringar
Stöd för MV/ST-uppdateringsinformation i DESCRIBE EXTENDED AS JSON: Kommandot
DESCRIBE EXTENDED AS JSONinnehåller nu uppdateringsinformation för materialiserade vyer och strömmande tabeller, vilket ger insyn i den senaste uppdateringstiden och statusen.Lägg till metadatakolumn i DESCRIBE QUERY och DESCRIBE TABLE: Kommandona
DESCRIBE QUERYochDESCRIBE TABLEinnehåller nu en metadatakolumn i sina utdata, vilket ger ytterligare information om varje kolumns egenskaper och egenskaper.Korrekt hantering av null-structs när nullType-kolumner tas bort: Azure Databricks hanterar nu null struct-värden korrekt när du släpper kolumner med
NullType, vilket förhindrar potentiell dataskada eller oväntat beteende.Förbättrad hantering av null-structs i Parquet: Den här versionen innehåller förbättringar av hur null struct-värden hanteras när du läser från och skriver till Parquet-filer, vilket säkerställer ett mer konsekvent och korrekt beteende.
Uppgradera aws-msk-iam-auth-biblioteket för Kafka: Biblioteket
aws-msk-iam-authsom används för Amazon MSK IAM-autentisering har uppgraderats till den senaste versionen, vilket ger förbättrad säkerhet och kompatibilitet.
Version 17.2
den 25 september 2025
Den här serverlösa beräkningsversionen motsvarar ungefär Databricks Runtime 17.2.
Nya funktioner
ST_ExteriorRingfunktionen stöds nu: Du kan nu användaST_ExteriorRingfunktionen för att extrahera den yttre gränsen för en polygon och returnera den som en linjedragning. Sest_exteriorringfunktion.Stöd
TEMPORARYför att skapa måttvyer: Du kan nu använda nyckelordetTEMPORARYnär du skapar en måttvy. Tillfälliga måttvyer visas endast i sessionen som skapade dem och tas bort när sessionen avslutas. Se CREATE VIEW.Använd intern I/O för
LokiFileSystem.getFileStatuspå S3:LokiFileSystem.getFileStatusanvänder nu den interna I/O-stacken för Amazon S3-trafik och returnerarorg.apache.hadoop.fs.FileStatusobjekt i stället förshaded.databricks.org.apache.hadoop.fs.s3a.S3AFileStatus.Auto Loader härleder partitionskolumner i
singleVariantColumn-läge: Auto Loader härleder nu partitionskolumner från filsökvägar när data matas in som en semistrukturerad varianttyp med hjälp av alternativetsingleVariantColumn. Tidigare identifierades inte partitionskolumner automatiskt. Se Alternativ för automatisk inläsning.
Beteendeändringar
DESCRIBE CONNECTIONvisar miljöinställningar för JDBC-anslutningar: Azure Databricks innehåller nu användardefinierade miljöinställningar iDESCRIBE CONNECTIONutdata för JDBC-anslutningar som stöder anpassade drivrutiner och körs isolerat. Andra anslutningstyper förblir oförändrade.Alternativ för att beskära enhetlig historik under migrering av hanterade tabeller: Du kan nu beskära enhetlig historik när du migrerar tabeller med Uniform/Iceberg aktiverat med
ALTER TABLE...SET MANAGED. Detta förenklar migreringen och minskar stilleståndstiden jämfört med att inaktivera och återaktivera Uniform manuellt.Rätt resultat för
splitmed tom regex och positiv gräns: Azure Databricks returnerar nu rätt resultat när du användersplit functionmed en tom regex och en positiv gräns. Tidigare trunkerade funktionen felaktigt den återstående strängen i stället för att inkludera den i det sista elementet.Korrigera
url_decodeochtry_url_decodefelhantering i Photon: I Photon returnerar nutry_url_decode()ochurl_decode()medfailOnError = falseförNULLogiltiga URL-kodade strängar istället för att misslyckas med förfrågan.Delad körningsmiljö för Unity Catalog Python UDTFs: Azure Databricks delar nu körningsmiljön för Python-användardefinierade tabellfunktioner (UDTFs) från samma ägare och Spark-session. Det finns en valfri
STRICT ISOLATIONsats för att inaktivera delning för UDF:er med biverkningar, till exempel ändra miljövariabler eller köra godtycklig kod.
Version 17.1
den 19 augusti 2025
Den här serverlösa beräkningsversionen motsvarar ungefär Databricks Runtime 17.1.
Nya funktioner
- Minskad minnesanvändning för breda scheman i Photon Writer: Förbättringar har gjorts i fotonmotorn som avsevärt minskar minnesanvändningen för breda scheman och hanterar scenarier som tidigare resulterade i minnesfel.
Beteendeändringar
Fel som uppstår för ogiltiga
CHECKbegränsningar: Azure Databricks genererar nu ettAnalysisExceptionom ettCHECKvillkorsuttryck inte kan lösas under begränsningsverifieringen.Pulsar-anslutningsappen exponerar inte längre Bouncy Castle: Bouncy Castle-biblioteket skuggas nu i Pulsar-anslutningsappen för att förhindra klassökvägskonflikter. Därför kan Spark-jobb inte längre komma åt
org.bouncycastle.*klasser från anslutningsappen. Om koden är beroende av Bouncy Castle installerar du biblioteket manuellt i en serverlös miljö.Automatisk inläsning använder filhändelser som standard om det är tillgängligt: Automatisk inläsning använder filhändelser i stället för kataloglistor när inläsningssökvägen är en extern plats med filhändelser aktiverade. Standardvärdet för
useManagedFileEventsär nuif_available(varfalse). Detta kan förbättra inmatningsprestanda och loggar en varning om filhändelser ännu inte är aktiverade.Teradata-anslutningsappen åtgärdar skiftlägeskänslig strängjämförelse: Teradata-anslutningsappen är nu standard för
TMODE=ANSIatt justera strängjämförelsebeteendet med Azure Databricks genom att göra den skiftlägeskänslig. Den här ändringen kan konfigureras och påverkar inte befintliga användare om de inte anmäler sig.
Serverlös miljöversion 4
13 augusti 2025
Miljöversion 4 är nu tillgänglig i dina serverlösa notebooks och jobb. Den här miljöversionen innehåller biblioteksuppgraderingar och API-uppdateringar. Se Serverlös miljö version 4.
Version 17.0
den 24 juli 2025
Den här serverlösa beräkningsversionen motsvarar ungefär Databricks Runtime 17.0.
Nya funktioner
Stöd för SQL-procedur: SQL-skript kan nu kapslas in i en procedur som lagras som en återanvändbar tillgång i Unity Catalog. Du kan skapa en procedur med kommandot CREATE PROCEDURE och sedan anropa den med kommandot CALL .
Ange en standardsortering för SQL Functions: Med den nya
DEFAULT COLLATIONsatsen i CREATE FUNCTION kommandot definieras standardsortering som används förSTRINGparametrar, returtyp ochSTRINGliteraler i funktionstexten.Stöd för rekursiva vanliga tabelluttryck (rCTE): Azure Databricks stöder nu navigering av hierarkiska data med rekursiva vanliga tabelluttryck (rCTEs). Använd en självrefererande CTE med
UNION ALLför att följa den rekursiva relationen.PySpark och Spark Connect stöder nu DataFrames
df.mergeIntoAPI: PySpark och Spark Connect stöder nu API:etdf.mergeInto.Stöd
ALL CATALOGSiSHOWSCHEMAN: SyntaxenSHOW SCHEMASuppdateras för att accepteraALL CATALOGS, så att du kan iterera genom alla aktiva kataloger som stöder namnområden. Utdataattributen innehåller nu encatalogkolumn som anger katalogen för motsvarande namnområde.Flytande klustring komprimerar nu borttagningsvektorer mer effektivt: Deltatabeller med flytande klustring tillämpar nu fysiska ändringar från borttagningsvektorer mer effektivt när
OPTIMIZEde körs. Mer information finns i Tillämpa ändringar på Parquet-datafiler.Tillåt icke-deterministiska uttryck i
UPDATE/INSERTkolumnvärden förMERGEåtgärder: Azure Databricks tillåter nu användning av icke-deterministiska uttryck i uppdaterade och infogade kolumnvärdenMERGEför åtgärder. Du kan till exempel nu generera dynamiska eller slumpmässiga värden för kolumner med hjälp av uttryck somrand().Ändra Delta MERGE Python-API:er för att returnera DataFrame i stället för Enhet: Python-API
MERGE:erna (till exempelDeltaMergeBuilder) returnerar nu också en DataFrame som SQL-API:et gör, med samma resultat.
Beteendeändringar
Beteendeförändring för alternativet automatisk inläsning av inkrementell kataloglista: Värdet för det inaktuella alternativet Automatisk inläsning
cloudFiles.useIncrementalListingär nu inställt på standardvärdetfalse. Som ett resultat orsakar den här ändringen att Auto Loader utför en fullständig kataloggenomsökning varje gång den körs. Databricks rekommenderar att du inte använder det här alternativet. Använd i stället filmeddelandeläge med filhändelser.CREATE VIEWsatser på kolumnnivå orsakar nu fel när satsen endast är tillämplig för materialiserade vyer:CREATE VIEWkommandon som specificerar en kolumnnivåsats som enbart är giltig förMATERIALIZED VIEWs utlöser nu ett fel. De berörda satserna inkluderarNOT NULL, angivna datatyper,DEFAULTochCOLUMN MASK.
Serverlösa prestandamål är GA
Den 10 juni 2025
Nu är den serverlösa prestandainställningen för jobb och pipelines allmänt tillgänglig att välja.
När inställningen Prestandaoptimerad är aktiverad optimeras arbetsbelastningen för snabbare start- och körningstid. När den är inaktiverad körs den serverlösa arbetsbelastningen i standardprestandaläge, vilket är optimerat för kostnad och har en något högre svarstid för start.
Mer information finns i Välj ett prestandaläge och Välj ett prestandaläge.
Version 16.4
28 maj 2025
Den här serverlösa beräkningsversionen motsvarar ungefär Databricks Runtime 16.4 LTS.
Beteendeändringar
Korrigering för att respektera alternativ för cachelagrade datakällor: Den här uppdateringen säkerställer att tabellen läser respektalternativ som angetts för alla datakällasplaner när de cachelagras, inte bara den första cachelagrade tabellen. Tidigare cachelagrade datakällatabellen den första planen men kunde inte ta hänsyn till olika alternativ i efterföljande frågor.
Aktivera flagga för att kräva källmaterialisering för MERGE-åtgärder: Tidigare kunde användare inaktivera källmaterialisering i MERGE genom att ange
merge.materializeSourcetillnone. När den nya flaggan är aktiverad krävs alltid källmaterialisering, och försök att inaktivera den resulterar i ett fel. Databricks planerar att endast aktivera den här flaggan för kunder som inte tidigare har ändrat den här konfigurationen, så de flesta användare bör inte uppleva några förändringar i beteendet.
Nya funktioner
Automatisk inläsare kan nu rensa bearbetade filer i källkatalogen: Du kan nu instruera Auto Loader att automatiskt flytta eller ta bort filer som har bearbetats. Välj den här funktionen med alternativet
cloudFiles.cleanSourceAutomatisk inläsning. Se Alternativ för Auto Loader, undercloudFiles.cleanSource.Stöd för typbreddning som lagts till för strömning från Delta-tabeller: Den här versionen lägger till stöd för strömning från en Delta-tabell som har typbreddade kolumndata och för att dela en Delta-tabell med typbreddning aktiverad med Databricks-till-Databricks Delta Sharing. Funktionen för typbreddning finns för närvarande i offentlig förhandsversion. Se även Typbreddning.
IDENTIFIER support nu tillgänglig i DBSQL för katalogåtgärder: Du kan nu använda
IDENTIFIER-satsen när du utför följande katalogåtgärder:CREATE CATALOGDROP CATALOGCOMMENT ON CATALOGALTER CATALOG
Med den här nya syntaxen kan du dynamiskt ange katalognamn med hjälp av parametrar som definierats för dessa åtgärder, vilket möjliggör mer flexibla och återanvändbara SQL-arbetsflöden. Som ett exempel på syntaxen bör du överväga
CREATE CATALOG IDENTIFIER(:param)varparamär en parameter som tillhandahålls för att ange ett katalognamn. Se IDENTIFIER-satsen.Sorterade uttryck tillhandahåller nu automatiskt genererade tillfälliga alias: Autogenererade alias för sorterade uttryck innehåller
COLLATEnu deterministiskt information. Autogenererade alias är tillfälliga (instabila) och bör inte användas. Använd i ställetexpression AS aliaskonsekvent och explicit som en bästa praxis.Lägg till api-stöd för filter-pushdown till Python-datakällor: Serverlös beräkning stöder nu filter-pushdown till Python-datakällsbatch som läses som ett API, liknande
SupportsPushDownFiltersgränssnittet. Se 16.4 LTS versionsanteckningar.Python UDF-spårningsförbättring: Python UDF-spårningen innehåller nu ramar från både drivrutinen och kören tillsammans med klientramar, vilket resulterar i bättre felmeddelanden som visar större och mer relevant information (till exempel radinnehållet i ramar i en UDF).
UNION/EXCEPT/INTERSECT i en vy och EXECUTE IMMEDIATE returnerar nu rätt resultat: Frågor om tillfälliga och beständiga vydefinitioner med toppnivå
UNION/EXCEPT/INTERSECToch oaliaserade kolumner returnerade tidigare felaktiga resultat eftersomUNION/EXCEPT/INTERSECTnyckelord ansågs vara alias. Nu kommer dessa frågeförfrågningar att korrekt utföra hela mängdoperationen.Datakällans cachelagrade plankonfigurations- och migreringsguide: Vid läsning från en filkälltabell kommer sökfrågealternativen (som avgränsare) att respekteras korrekt. Tidigare cachelagrades den första frågeplanen och efterföljande alternativändringar ignorerades. Om du vill återställa det tidigare beteendet anger du
spark.sql.legacy.readFileSourceTableCacheIgnoreOptionstilltrue.Nya
listaggochstring_aggfunktioner: Med denna version kan du användalistaggellerstring_aggfunktioner för att aggregeraSTRINGochBINARYvärden inom en grupp. Se string_agg.
Prestandaläget kan nu konfigureras för serverlösa jobb
den 14 april 2025
Nu kan du välja prestandaläget för ett serverlöst jobb med hjälp av inställningen Prestandaoptimerad på sidan jobbinformation. Tidigare var alla serverlösa jobb prestandaoptimerade. Nu kan du inaktivera inställningen Prestandaoptimerad för att köra arbetsbelastningen i standardprestandaläge. Standardläget för peformance är utformat för att minska kostnaderna för arbetsbelastningar där en något högre svarstid för start är acceptabel.
Standardprestandaläge stöds inte för kontinuerliga pipelines, engångskörningar som skapats med hjälp av runs/submit slutpunkten eller SQL Warehouse-jobbuppgifter, inklusive materialiserade vyer.
Mer information om prestandaläget finns i Välj ett prestandaläge.
Version 16.3
den 9 april 2025
Den här serverlösa beräkningsversionen motsvarar ungefär Databricks Runtime 16.3.
Beteendeändringar
-
*Förbättrat felmeddelande när
kafka.sasl.client.callback.handler.classhar tilldelats ett ogiltigt värde: Den här versionen innehåller en ändring för att returnera ett mer beskrivande felmeddelande närkafka.sasl.client.callback.handler.classtilldelas ett ogiltigt värde.
Nya funktioner
Stöd för tillståndsläsare är GA: Stöd för att läsa tillståndsinformation för strukturerade strömningsfrågor är nu allmänt tillgängligt för serverlös beräkning. Se Läsa information om status för strukturerad direktuppspelning.
Nedgradering av deltatabellprotokoll är GA med kontrollpunktsskydd:
DROP FEATUREär allmänt tillgängligt för att ta bort Delta Lake-tabellfunktioner och nedgradera tabellprotokollet. Som standard skaparDROP FEATUREnu skyddade kontrollpunkter som inte kräver någon väntetid eller historiktrunkering, för en mer optimerad och förenklad nedgraderingsupplevelse. Se Ta bort en Delta Lake-tabellfunktion och nedgradera tabellprotokollet.Skriva procedurmässiga SQL-skript baserat på ANSI SQL/PSM (offentlig förhandsversion): Du kan nu använda skriptfunktioner baserade på ANSI SQL/PSM för att skriva procedurlogik med SQL, inklusive kontrollflödesuttryck, lokala variabler och undantagshantering. Se SQL-skript.
Standardsortering på tabell- och visningsnivå: Du kan nu ange en standardsortering för tabeller och vyer. Detta förenklar skapandet av tabeller och vyer där alla eller de flesta kolumner delar samma sortering. Se Kollektion.
Nya H3-funktioner: Tre nya H3-funktioner har lagts till: h3_try_coverash3, h3_try_coverash3string och h3_try_tessellateaswkb.
Ändra flera tabellkolumner i en ALTER TABLE instruktion: Du kan nu ändra flera kolumner i en enda
ALTER TABLEinstruktion. Se ALTER TABLE ... COLUMN klausul.
Version 16.2
den 13 mars 2025
Den här serverlösa beräkningsversionen motsvarar ungefär Databricks Runtime 16.2.
Beteendeändringar
I Deltadelning är tabellhistorik aktiverad som standard: Resurser som skapats med SQL-kommandot
ALTER SHARE <share> ADD TABLE <table>har nu historikdelning (WITH HISTORY) aktiverat som standard. Se ALTER SHARE.SQL-instruktioner för autentiseringsuppgifter returnerar ett fel när det finns ett matchningsfel av typen autentiseringsuppgifter: Om den typ av autentiseringsuppgifter som anges i sql-instruktionen för hantering av autentiseringsuppgifter inte matchar typen av argumentet för autentiseringsuppgifter returneras ett fel och instruktionen körs inte.
Nya funktioner
timestampdiffAnvänd ×tampaddi genererade kolumnuttryck Du kan nu använda funktionerna timestampdiff och timestampadd i Delta Lake-genererade kolumnuttryck. Se Delta Lake-genererade kolumner.Uppdatera för att
DESCRIBE TABLEreturnera metadata som strukturerad JSON: Du kan nu användaDESCRIBE TABLE AS JSONkommandot för att returnera tabellmetadata som ett JSON-dokument. JSON-utdata är mer strukturerade än standardrapporten som kan läsas av människor och kan användas för att tolka en tabells schema programmatiskt. Mer information finns i DESCRIBE TABLE AS JSON.Avslutande tomma okänsliga sorteringar: Serverlösa stöder nu avslutande tomma okänsliga sorteringar. Dessa sorteringar behandlar till exempel
'Hello'och'Hello 'som lika. Mer information finns i RTRIM-sortering.
Felkorrigeringar
-
Förbättrad inkrementell kloningsbearbetning: Den här versionen innehåller en korrigering för ett gränsfall där en inkrementell
CLONEkan kopiera filer som redan kopierats från en källtabell till en måltabell. Se Klona en tabell i Azure Databricks.
Inställning för stort minne är tillgänglig på serverlösa anteckningsböcker (Offentlig förhandsversion)
den 7 februari 2025
Nu kan du konfigurera mer minne för dina serverlösa anteckningsboksarbetsbelastningar. Den här inställningen kan tillämpas på både interaktiva och schemalagda notebook-arbetsbelastningar.
Serverlös användning med högt minne har en högre DBU-utsläppsfrekvens än standardminnet.
Mer information finns i Använda serverlös beräkning med hög minnesanvändning.
Version 16.1
den 5 februari 2025
Den här serverlösa beräkningsversionen motsvarar ungefär Databricks Runtime 16.0 och Databricks Runtime 16.1.
Nya funktioner
-
Avro-stöd för rekursivt schema: Nu kan du använda alternativet
recursiveFieldMaxDepthmedfrom_avrofunktionen ochavrodatakällan. Det här alternativet anger det maximala djupet för schemarekursion på Avro-datakällan. Se Läsa och skriva strömmande Avro-data. - Utökat stöd för Confluent Schema Registry för Avro: Serverlös stöder nu Avro-schemareferens med Confluent Schema Registry. Se Autentisera till ett externt Confluent-schemaregister.
-
Framtvinga relustering på tabeller med flytande klustring: Nu kan du använda syntaxen
OPTIMIZE FULLför att framtvinga omgruppering av alla poster i en tabell med flytande klustring aktiverad. Se Framtvinga omargning för alla poster. - Delta-API:erna för Python stöder nu identitetskolumner: Nu kan du använda Delta-API:erna för Python för att skapa tabeller med identitetskolumner. Se Använda identitetskolumner i Delta Lake.
-
Skapa flytande klustrade tabeller under direktuppspelningsskrivningar: Du kan nu använda
clusterByför att aktivera flytande klustring när du skapar nya tabeller med strukturerade direktuppspelningsskrivningar. Se Aktivera vätskeklustring. - Stöd för OPTIMIZE FULL-sats: Serverlös beräkning stöder OPTIMIZE nu FULL-satsen . Den här bestämmelsen optimerar alla poster i en tabell som använder flytande klustring, inklusive data som även kan ha varit klustrade tidigare.
-
Stöd för WITH-alternativspecifikation i INSERT och tabellreferens: Serverlös beräkning stöder nu en alternativspecifikation för tabellreferenser och tabellnamn för en
INSERT-instruktion som kan användas för att styra datakällornas beteende. -
Nya SQL-funktioner: Följande SQL-funktioner är nu tillgängliga för serverlös beräkning:
- try_url_decode är en feltolerant version av url_decode.
-
zeroifnull returnerar 0 om indatauttrycket till
zeroifnull()funktionen ärNULL. -
nullifzero returnerar
NULLom indata är 0 eller dess indata om det inte är 0. - dayname(expr) returnerar den engelska förkortningen med tre bokstäver för veckodagen för det angivna datumet.
- uniform(expr1, expr2 [,seed]) returnerar ett slumpmässigt värde med oberoende och identiskt distribuerade värden inom det angivna intervallet med tal.
-
randstr(längd) returnerar en slumpmässig sträng med
lengthalfanumeriska tecken.
-
Aktivera automatisk schemautveckling vid sammanslagning av data i en Delta-tabell: Stöd har lagts till för
withSchemaEvolution()medlemmen iDeltaMergeBuilderklassen. AnvändwithSchemaEvolution()för att aktivera automatisk schemautveckling underMERGEåtgärder. Exempel:mergeBuilder.whenMatched(...).withSchemaEvolution().execute()}} -
Stöd för sortering i Apache Spark finns i offentlig förhandsversion: Nu kan du tilldela språkmedvetna, skiftlägeskänsliga och åtkomstokänsliga sorteringar till
STRINGkolumner och uttryck. Dessa sorteringar används i strängjämförelser, sortering, grupperingsåtgärder och många strängfunktioner. Se Kollektion. - Stöd för sortering i Delta Lake finns i offentlig förhandsversion: Du kan nu definiera sortering för kolumner när du skapar eller ändrar en Delta-tabell. Se Sorteringsstöd för Delta Lake.
-
LITEläget för vakuum finns i offentlig förhandsversion: Du kan nu användaVACUUM table_name LITEför att utföra en vakuumåtgärd med lägre vikt som utnyttjar metadata i Delta-transaktionsloggen. Se Fullständigt kontra lätt läge och VACUUM. -
Stöd för parameterisering av
USE CATALOG with IDENTIFIER-villkoren:IDENTIFIER-villkoret stöds nu i USE CATALOG-instruktionen. Med det här stödet kan du parameterisera den aktuella katalogen baserat på en strängvariabel eller parametermarkör. - COMMENT ON COLUMN stöd för tabeller och vyer: Instruktionen COMMENT ON stöder nu ändring av kommentarer för vy- och tabellkolumner.
- Namngivna parameteranrop för fler funktioner: Följande funktioner stöder namngivna parameteranrop:
-
Parametern
SYNC METADATAtill REPAIR TABLE kommandot stöds av Hive-metastore: Du kan nu använda parameternSYNC METADATAtill kommandotREPAIR TABLEför att uppdatera metadata för en hanterad Hive-metastore-tabell. Se REPAIR TABLE. - Förbättrad dataintegritet för komprimerade Apache Arrow-batchar: För att ytterligare skydda mot datakorruption innehåller varje komprimerad Arrow-batch nu innehåll och blockkontrollsummor. Se beskrivning av LZ4-ramformat .
-
Inbyggd Oracle JDBC-drivrutin: Serverlös beräkning har nu Oracle JDBC-drivrutinen inbyggd. Om du använder en JDBC-drivrutins-JAR-fil uppladdad av kund via
DriverManagermåste du skriva om skriptfilerna för att specifikt använda den anpassade JAR-filen. Annars används den inbyggda drivrutinen. Den här drivrutinen stöder endast Lakehouse Federation. För andra användningsfall måste du tillhandahålla en egen drivrutin. -
Mer detaljerade fel för Delta-tabeller som används med sökvägar: En ny felmeddelandeupplevelse för Delta-tabeller som används med hjälp av sökvägar är nu tillgänglig. Alla undantag vidarebefordras nu till användaren. Undantaget
DELTA_MISSING_DELTA_TABLEär nu reserverat för när underliggande filer inte kan läsas som en Delta-tabell.
Beteendeändringar
- Icke-bakåtkompatibel ändring: Värdbaserad RStudio har nått end-of-life: Med den här versionen är RStudio Server, värdad av Databricks, slut och otillgänglig på alla Azure Databricks-arbetsytor som körs på serverfri beräkning. Mer information och en lista över alternativ till RStudio finns i Ansluta till en Databricks-värdbaserad RStudio Server.
Brytande förändring: Borttagning av stöd för att ändra
byte,short,intochlongtyper till mer omfattande typer: För att säkerställa konsekvent beteende i Delta- och Apache Iceberg-tabeller, kan följande datatypändringar inte längre tillämpas på tabeller med typutvidgningsfunktionen aktiverad.-
byte,short,intochlongtilldecimal. -
byte,shortochinttilldouble.
-
Korrekt parsning av regexmönster med negation i kapslad teckengruppering: Den här versionen innehåller en ändring som stöder korrekt parsning av regex-mönster med negation i kapslad teckengruppering. Till exempel
[^[abc]]parsas som "alla tecken som inte är ett av "abc".Dessutom var Photon-beteendet inkonsekvent med Spark för kapslade teckenklasser. Regex-mönster som innehåller kapslade teckenklasser använder inte längre Photon och använder i stället Spark. En kapslad teckenklass är ett mönster som innehåller hakparenteser inom hakparenteser, till exempel
[[a-c][1-3]].Förbättra identifiering av dubbletter av matchning i Delta Lake
MERGE:MERGEnu tar hänsyn till de villkor som anges iWHEN MATCHED-satsen. Se Upsert i en Delta Lake-tabell med hjälp av sammanslagning.Funktionerna
addArtifact()är nu konsekventa mellan beräkningstyper: När du använderaddArtifact(archive = True)för att lägga till ett beroende till serverlös beräkning packas arkivet upp automatiskt.
Felkorrigeringar
- Tidszonsförskjutningar omfattar nu sekunder när de serialiseras till CSV, JSON och XML: Tidsstämplar med tidszonsförskjutningar som inkluderar sekunder (vanliga för tidsstämplar från före 1900) utelämnade sekunderna när de serialiserades till CSV, JSON och XML. Standardformatet för tidsstämplar har åtgärdats och returnerar nu rätt förskjutningsvärden för dessa tidsstämplar.
Andra ändringar
-
Felkoder har bytt namn för
cloudFilesStrukturerad strömningskälla: Följande felkoder har bytt namn:-
_LEGACY_ERROR_TEMP_DBR_0143har bytt namn tillCF_INCORRECT_STREAM_USAGE. -
_LEGACY_ERROR_TEMP_DBR_0260har bytt namn tillCF_INCORRECT_BATCH_USAGE.
-
Version 15.4
den 28 oktober 2024
Den här serverlösa beräkningsversionen motsvarar ungefär Databricks Runtime 15.4
Nya funktioner
-
UTF-8-valideringsfunktioner: Den här versionen introducerar följande funktioner för validering av UTF-8-strängar:
- is_valid_utf8 verifierat om en sträng är en giltig UTF-8-sträng.
- make_valid_utf8 konverterar en potentiellt ogiltig UTF-8-sträng till en giltig UTF-8-sträng med ersättningstecken.
- validate_utf8 genererar ett fel om indata inte är en giltig UTF-8-sträng.
-
try_validate_utf8 returnerar
NULLom indata inte är en giltig UTF-8-sträng.
- Aktivera UniForm Iceberg med ALTER TABLE: Du kan nu aktivera UniForm Iceberg på befintliga tabeller utan att skriva om datafiler. Se Aktivera Iceberg-läsningar på en befintlig tabell.
-
try_url_decode funktion: Den här versionen introducerar funktionen try_url_decode , som avkodar en URL-kodad sträng. Om strängen inte har rätt format returnerar
NULLfunktionen i stället för att skapa ett fel. -
Om du vill kan du tillåta att optimeraren förlitar sig på icke-framtvingade begränsningar för sekundärnyckel: För att förbättra frågeprestandan kan du nu ange nyckelordet
RELYförFOREIGN KEYbegränsningar när du skapar eller ändrar en tabell. -
Parallelliserade jobbkörningar för selektiva överskrivningar: Nu kör selektiva överskrivningar med
replaceWherejobb som tar bort data och infogar nya data parallellt, vilket förbättrar prestandan för frågor och klusterutnyttjande. -
Förbättrade prestanda för ändringsdataflöde med selektiva överskrivningar: Selektiva överskrivningar med hjälp av
replaceWheretabeller med ändringsdataflöde skriver inte längre separata ändringsdatafiler för infogade data. Dessa operationer använder en dold_change_type-kolumn som finns i Parquet-datafilerna för att registrera ändringar utan skrivförstärkning. -
COPY INTODen här versionen innehåller en ändring som förbättrar frågesvarstiden förCOPY INTOkommandot. Den här förbättringen implementeras genom att göra inläsningen av tillståndet av RocksDB-tillståndsarkivet asynkront. Med den här ändringen bör du se en förbättring av starttiderna för frågor med stora tillstånd, till exempel frågor med ett stort antal redan inmatade filer. -
Stöd för att ta bort tabellfunktionen för kontrollbegränsningar: Nu kan du släppa
checkConstraintstabellfunktionen från en Delta-tabell med hjälp avALTER TABLE table_name DROP FEATURE checkConstraints. Se Inaktivera kontrollbegränsningar.
Beteendeändringar
Schemabindningsändring för vyer: När datatyperna i en vys underliggande fråga ändras från de som användes när vyn först skapades genererar Databricks inte längre fel för referenser till vyn när ingen säker gjutning kan utföras.
I stället kompenserar vyn genom att använda vanliga typomvandlingsregler där det är möjligt. Den här ändringen gör det enklare för Databricks att tolerera ändringar i tabellschemat.
!Databricks kommer inte längre att tolerera användningen avNOTsom synonym för utanför boolesk logik. Den här ändringen minskar förvirringen, överensstämmer med SQL-standarden och gör SQL mer portabelt. Till exempel:CREATE ... IF ! EXISTS, IS NOT NULL,! NULLkolumn- eller fältegenskap,! INoch NOT BETWEEN måste ersättas med:CREATE ... IF NOT EXISTS,IS NOT NULL,NOT NULLkolumn- eller fältegenskap,NOT INochNOT BETWEEN.Den booleska prefixoperatorn
!(t.ex.!is_mgreller!(true AND false)) påverkas inte av den här ändringen.Tillåt inte odokumenterade och obearbetade delar av kolumndefinitionssyntaxen i vyer: Databricks har stöd CREATE VIEW för namngivna kolumner och kolumnkommenterar.
Specifikationen av kolumntyper,
NOT NULLbegränsningar ellerDEFAULThar tolererats i syntaxen utan att ha någon effekt. Databricks tar bort den här syntaxens tolerans. Detta minskar förvirringen, överensstämmer med SQL-standarden och möjliggör framtida förbättringar.Konsekvent felhantering för Base64-avkodning i Spark och Photon: Den här versionen ändrar hur Photon hanterar Base64-avkodningsfel för att matcha Spark-hanteringen av dessa fel. Före dessa ändringar kunde sökvägen för generering av Photon- och Spark-kod ibland inte utlösa parsningsundantag, medan Spark-tolkningen hanterade körningen korrekt och utlöste
IllegalArgumentExceptionellerConversionInvalidInputError. Den här uppdateringen säkerställer att Photon konsekvent genererar samma undantag som Spark under Base64-avkodningsfel, vilket ger mer förutsägbar och tillförlitlig felhantering.Att lägga till en
CHECKbegränsning för en ogiltig kolumn returnerar nu UNRESOLVED_COLUMN.WITH_SUGGESTION felklass: För att erbjuda mer användbar felsökningsinformation, i Databricks Runtime 15.3 och senare, returnerar enALTER TABLE ADD CONSTRAINTsats som innefattar enCHECKbegränsning som hänvisar till ett ogiltigt kolumnnamn UNRESOLVED_COLUMN.WITH_SUGGESTION felklass. Tidigare returnerades enINTERNAL_ERROR.
JDK uppgraderas från JDK 8 till JDK 17
15 augusti 2024
Serverlös beräkning för anteckningsböcker och arbetsflöden har migrerats från Java Development Kit (JDK) 8 till JDK 17 på serversidan. Den här uppgraderingen innehåller följande beteendeändringar:
Korrekt parsning av regexmönster med negation i kapslad teckengruppering: Med den här uppgraderingen har Azure Databricks nu stöd för korrekt parsning av regexmönster med negation i kapslad teckengruppering. Till exempel
[^[abc]]parsas som "alla tecken som inte är ett av "abc".Dessutom var Photon-beteendet inkonsekvent med Spark för kapslade teckenklasser. Regex-mönster som innehåller kapslade teckenklasser använder inte längre Photon och använder i stället Spark. En kapslad teckenklass är ett mönster som innehåller hakparenteser inom hakparenteser, till exempel
[[a-c][1-3]].
Version 15.1
den 23 juli 2024
Den här serverlösa beräkningsversionen motsvarar ungefär Databricks Runtime 15.1
Nya funktioner
Stöd för stjärnsyntax (*) i WHERE -satsen: Du kan nu använda stjärnsyntaxen * (WHERE) i -satsen för att referera till alla kolumner från SELECT listan.
Exempel: SELECT * FROM VALUES(1, 2) AS T(a1, a2) WHERE 1 IN(T.*)
Changes
Förbättrad felåterställning för JSON-parsning: JSON-parsern som används för from_json() och JSON-sökvägsuttrycken återställs nu snabbare från felaktig syntax, vilket resulterar i mindre dataförlust.
När du stöter på en felaktigt formaterad JSON-syntax i ett structfält, ett matrisvärde, en kartnyckel eller ett kartvärde, returnerar NULL JSON-parsern nu endast för det olästa fältet, nyckeln eller elementet. Efterföljande fält, nycklar eller element kommer att tolkas korrekt. Före den här ändringen övergav JSON-parsern parsningen av matrisen, structen eller kartan och returnerade NULL för det återstående innehållet.
Version 14.3
den 15 april 2024
Det här är den första serverlösa beräkningsversionen. Den här versionen motsvarar ungefär Databricks Runtime 14.3 med vissa ändringar som tar bort stöd för vissa icke-serverlösa och äldre funktioner.
Spark-konfigurationsparametrar som stöds
För att automatisera konfigurationen av Spark på serverlös beräkning har Azure Databricks tagit bort stödet för att manuellt ställa in de flesta Spark-konfigurationer. För att se en lista över Spark-konfigurationsparametrar som stöds, se Konfigurera Spark-egenskaper för serverlösa notebooks och jobb.
Jobbkörningar på serverlös beräkning kommer att misslyckas om du ställer in en ej stödjande Spark-konfiguration.
input_file funktioner är inaktuella
Funktionerna input_file_name(), input_file_block_length()och input_file_block_start() har blivit inaktuella. Det rekommenderas inte att använda dessa funktioner.
Använd i stället kolumnen för filmetadata för att hämta information om filmetadata.
Beteendeändringar
Serverlös beräkningsversion 2024.15 innehåller följande beteendeändringar:
-
unhex(hexStr) felkorrigering: När du använder
unhex(hexStr)funktionen, är hexStr alltid vadderade vänster till en hel byte. Tidigare ignorerade unhex-funktionen den första halvbytet. Till exempel:unhex('ABC')producerarx'0ABC'nu i stället förx'BC'. - Automatiskt genererade kolumnalias är nu stabila: När resultatet av ett uttryck refereras utan ett användardefinerat kolumnalias är det här automatiskt genererade aliaset nu stabilt. Den nya algoritmen kan resultera i en ändring av tidigare automatiskt genererade namn som används i funktioner som materialiserade vyer.
-
Tabellgenomsökningar med
CHARtypfält är nu alltid vadderade: Deltatabeller, vissa JDBC-tabeller och externa datakällor lagrar CHAR-data i icke-vadderad form. Vid läsning fyller nu Azure Databricks data med blanksteg till den deklarerade längden för att säkerställa rätt semantik. -
Omvandlingar från BIGINT/DECIMAL till TIMESTAMP kastar ett undantag för värden som orsakar overflow: Azure Databricks tillåter omvandling från BIGINT och DECIMAL till TIMESTAMP genom att behandla värdet som antalet sekunder från Unix-epoken. Tidigare skulle Azure Databricks returnera spillda värden men genererar nu ett undantag vid spill. Använd
try_castför att returnera NULL i stället för ett undantag. -
PySpark UDF-körningen har förbättrats för att matcha det exakta beteendet för UDF-körning på dedikerad beräkning: Följande ändringar har gjorts:
- UDF:er med en strängreturtyp konverterar inte längre implicit icke-strängvärden till strängar. Tidigare skulle UDF:er med returtypen
strtillämpa enstr(..)omslutning på resultatet oavsett den faktiska datatypen för det returnerade värdet. - UDF:er med
timestampreturtyper tillämpar inte längre implicit en tidszonskonvertering på tidsstämplar.
- UDF:er med en strängreturtyp konverterar inte längre implicit icke-strängvärden till strängar. Tidigare skulle UDF:er med returtypen