Anmerkung
Der Zugriff auf diese Seite erfordert eine Genehmigung. Du kannst versuchen, dich anzumelden oder die Verzeichnisse zu wechseln.
Der Zugriff auf diese Seite erfordert eine Genehmigung. Du kannst versuchen , die Verzeichnisse zu wechseln.
In diesem Artikel werden die Features und Verhaltensweisen erläutert, die derzeit für serverloses Computing für Notebooks und Aufträge verfügbar und geplant sind.
Weitere Informationen zu serverlosem Computing finden Sie unter Herstellen einer Verbindung mit serverlosem Computing.
Azure Databricks veröffentlicht regelmäßig Updates für serverloses Computing und upgradet automatisch die Runtime für serverloses Computing, um Verbesserungen und Upgrades auf der Plattform zu unterstützen. Alle Benutzenden erhalten innerhalb eines kurzen Zeitraums die gleichen Updates.
Versionen der serverlosen Umgebung
Serverlose Berechnung für Notizbücher und Aufträge verwendet Umgebungsversionen, die eine stabile Client-API basierend auf Spark Connect bereitstellen, um die Anwendungskompatibilität sicherzustellen. Auf diese Weise können Databricks den Server unabhängig aktualisieren, Leistungsverbesserungen, Sicherheitsverbesserungen und Fehlerbehebungen bereitstellen, ohne dass Codeänderungen an Workloads erforderlich sind.
Jede Umgebungsversion enthält eine bestimmte Python-Version und eine Reihe von Python-Paketen mit definierten Versionen. Databricks führt neue Features und Korrekturen in der neuesten Umgebungsversion ein, während Sicherheitsupdates auf alle unterstützten Umgebungsversionen angewendet werden.
Informationen zu Versionshinweisen für serverlose Umgebungen finden Sie unter Serverless Environment Versions.
Versionshinweise
Dieser Abschnitt enthält Versionshinweise für serverloses Computing. Versionshinweise sind nach Jahr und Woche des Jahres strukturiert. Serverloses Computing wird immer mit dem zuletzt veröffentlichten Release ausgeführt, das hier aufgeführt ist.
- Version 17.3
- Version 17.2
- Version 17.1
- Serverlose Umgebung, Version 4
- Version 17.0
- Ziele mit serverloser Leistung sind allgemein verfügbar.
- Version 16.4
- Der Leistungsmodus kann jetzt auf serverlosen Aufträgen konfiguriert werden.
- Version 16.3
- Version 16.2
- Verfügbare Einstellung für oberen Speicher auf serverlosen Notebooks (Public Preview)
- Version 16.1
- Version 15.4
- Das JDK wird von JDK 8 auf JDK 17 geupgradet.
- Version 15.1
- Version 14.3
Version 17.3
28. Oktober 2025
Diese serverlose Computeversion entspricht ungefähr Databricks Runtime 17.3 LTS.
Neue Funktionen
LIMIT Vollständige Unterstützung für rekursive CTEs: Sie können jetzt die
LIMIT ALL-Klausel mit einem rekursiven allgemeinen Tabellenausdruck (rCTE) verwenden, um explizit anzugeben, dass kein Zeilenlimit auf die Abfrageergebnisse angewendet werden soll. Siehe allgemeiner Tabellenausdruck (Common Table Expression, CTE).Das Anfügen an Dateien in Unity Catalog-Volumes gibt einen korrekten Fehler zurück: Wenn Sie versuchen, vorhandene Dateien in Unity Catalog-Volumes anzufügen, wird jetzt eine aussagekräftigere Fehlermeldung zurückgegeben, um das Problem zu verstehen und zu beheben.
st_dumpFunktionsunterstützung: Sie können nun diest_dumpFunktion verwenden, um ein Geometrieobjekt in seine Bestandteile zu zerlegen und eine Reihe einfacherer Geometrien zurückzugeben. Siehest_dumpFunktion.Polygon-Innenringfunktionen werden jetzt unterstützt: Sie können jetzt die folgenden Funktionen verwenden, um mit polygonalen Innenringen zu arbeiten:
-
st_numinteriorrings: Ruft die Anzahl der inneren Begrenzungen (Ringe) eines Polygons ab. Siehest_numinteriorringsFunktion. -
st_interiorringn: Extrahieren Sie die n-te innere Begrenzung eines Polygons und geben Sie sie als LineString zurück. Siehest_interiorringnFunktion.
-
EXECUTE IMMEDIATE Verwenden von Konstantenausdrücken: Die
EXECUTE IMMEDIATEAnweisung unterstützt jetzt die Verwendung von Konstantenausdrücken in der Abfragezeichenfolge und ermöglicht eine flexiblere dynamische SQL-Ausführung. Siehe EXECUTE IMMEDIATE.In serverloser Berechnung zulassen
spark.sql.files.maxPartitionBytes: Sie können jetzt diespark.sql.files.maxPartitionBytesSpark-Konfigurationsparameter auf serverloser Berechnung, um die maximale Anzahl von Bytes zu steuern, die beim Lesen von Dateien in eine einzelne Partition verpackt werden sollen. Siehe Konfigurieren von Spark-Eigenschaften für serverlose Notizbücher und Aufträge.
Verhaltensänderungen
Unterstützen Sie MV/ST-Aktualisierungsinformationen in DESCRIBE EXTENDED AS JSON: Der
DESCRIBE EXTENDED AS JSONBefehl enthält jetzt Aktualisierungsinformationen für materialisierte Ansichten und Streamingtabellen und bietet Einblicke in die letzte Aktualisierungszeit und den Status.Fügen Sie eine Metadatenspalte zu DESCRIBE QUERY und DESCRIBE TABLE hinzu: Die
DESCRIBE QUERYundDESCRIBE TABLEBefehle enthalten nun eine Metadatenspalte in der Ausgabe und bieten zusätzliche Informationen zu den Eigenschaften und Merkmalen der einzelnen Spalten.Korrekte Behandlung von NULL-Strukturen beim Ablegen von NullType-Spalten: Azure Databricks behandelt jetzt beim Ablegen von Spalten
NullTyperichtig NULL-Strukturwerte, um potenzielle Datenbeschädigungen oder unerwartetes Verhalten zu verhindern.Verbesserte Handhabung von Null-Strukturen in Parkett: Diese Version enthält Verbesserungen der Handhabung von Null-Strukturwerten beim Lesen und Schreiben in Parkettdateien, wodurch ein konsistentes und korrektes Verhalten gewährleistet wird.
Upgrade aws-msk-iam-auth library for Kafka: Die für die Amazon MSK IAM-Authentifizierung verwendete Bibliothek wurde auf die neueste Version aktualisiert und bietet verbesserte Sicherheit und Kompatibilität.
Version 17.2
25. September 2025
Diese serverlose Computeversion entspricht ungefähr Databricks Runtime 17.2.
Neue Funktionen
ST_ExteriorRingFunktion wird jetzt unterstützt: Sie können jetzt dieST_ExteriorRingFunktion verwenden, um die äußere Grenze eines Polygons zu extrahieren und als Linienzeichenfolge zurückzugeben. Siehest_exteriorringFunktion.Schlüsselwort
TEMPORARYzur Unterstützung der Erstellung von Metriksichten: Sie können jetzt dasTEMPORARYSchlüsselwort verwenden, um eine Metriksicht zu erstellen. Temporäre Metrikansichten sind nur in der Sitzung sichtbar, die sie erstellt hat, und werden gelöscht, wenn die Sitzung endet. Siehe CREATE VIEW.Natives E/A für
LokiFileSystem.getFileStatusauf S3 verwenden:LokiFileSystem.getFileStatusverwendet jetzt den nativen E/A-Stack für Amazon S3-Verkehr und gibtorg.apache.hadoop.fs.FileStatusObjekte anstelle vonshaded.databricks.org.apache.hadoop.fs.s3a.S3AFileStatuszurück.Auto Loader leitet Partitionsspalten im
singleVariantColumnModus ab: Auto Loader leitet jetzt Partitionsspalten von Dateipfaden ab, wenn Daten als semistrukturierter Variant-Typ mithilfe dersingleVariantColumnOption aufgenommen werden. Zuvor wurden Partitionsspalten nicht automatisch erkannt. Weitere Informationen finden Sie unter "Optionen für das automatische Laden".
Verhaltensänderungen
DESCRIBE CONNECTIONzeigt Umgebungseinstellungen für SHAPES-Verbindungen an: Azure Databricks enthält jetzt benutzerdefinierte Umgebungseinstellungen in derDESCRIBE CONNECTIONAusgabe für SHAPES-Verbindungen, die benutzerdefinierte Treiber unterstützen und isoliert ausgeführt werden. Andere Verbindungstypen bleiben unverändert.Option zum Abschneiden des einheitlichen Verlaufs während der Migration verwalteter Tabellen: Sie können jetzt den einheitlichen Verlauf abschneiden, wenn Sie Tabellen mit aktiviertem Uniform/Iceberg migrieren
ALTER TABLE...SET MANAGED. Dies vereinfacht Migrationen und reduziert Ausfallzeiten im Vergleich zum manuellen Deaktivieren und erneuten Aktivieren von Uniform.Richtige Ergebnisse mit
splitleerem regex und positivem Grenzwert: Azure Databricks gibt jetzt bei Verwendungsplit functionmit einem leeren Regex und einem positiven Grenzwert die richtigen Ergebnisse zurück. Zuvor hat die Funktion die verbleibende Zeichenfolge falsch abgeschnitten, anstatt sie in das letzte Element einzubinden.Korrigieren
url_decodeundtry_url_decodeFehlerbehandlung in Photon: In Photon gebentry_url_decode()url_decode()mitfailOnError = falsejetztNULLfür ungültige URL-kodierte Zeichenfolgen zurück, anstatt dass die Abfrage fehlschlägt.Freigegebene Ausführungsumgebung für Unity Catalog Python UDTFs: Azure Databricks teilt jetzt die Ausführungsumgebung für Python-Benutzerdefinierte Tabellenfunktionen (UDTFs) desselben Besitzers und derselben Spark-Sitzung. Eine optionale
STRICT ISOLATIONKlausel ist verfügbar, um die Freigabe für UDTFs mit Nebeneffekten zu deaktivieren, z. B. das Ändern von Umgebungsvariablen oder das Ausführen von beliebigem Code.
Version 17.1
19. August 2025
Diese serverlose Computeversion entspricht ungefähr Databricks Runtime 17.1.
Neue Funktionen
- Verringerte Speicherauslastung für weite Schemas im Photon Writer: Verbesserungen wurden an der Photon-Engine vorgenommen, die die Speicherauslastung für weite Schemas erheblich reduzieren und Szenarien behandeln, die zuvor zu Speicherüberlauf-Fehlern geführt haben.
Verhaltensänderungen
Fehler, der für ungültige
CHECKEinschränkungen ausgelöst wird: Azure Databricks löst jetzt einenAnalysisExceptionAuslöser aus, wenn einCHECKEinschränkungsausdruck während der Einschränkungsüberprüfung nicht aufgelöst werden kann.Pulsar-Konnektor macht Bouncy Castle nicht mehr verfügbar: Die Bouncy-Castle-Bibliothek ist jetzt im Pulsar-Konnektor gekapselt, um Klassenpfadkonflikte zu verhindern. Daher können Spark-Aufträge nicht mehr über den Connector auf Klassen zugreifen
org.bouncycastle.*. Wenn Ihr Code von Bouncy Castle abhängt, installieren Sie die Bibliothek manuell in der serverlosen Umgebung.Auto Loader verwendet Standardmäßig Dateiereignisse: Auto Loader verwendet Dateiereignisse anstelle der Verzeichnisauflistung, wenn der Ladepfad ein externer Speicherort mit aktivierten Dateiereignissen ist. Der Standardwert
useManagedFileEventsist jetztif_available(warfalse). Dies kann die Datenaufnahmeleistung verbessern und eine Warnung protokollieren, wenn Dateiereignisse noch nicht aktiviert sind.Der Teradata-Connector ermöglicht einen fallunterscheidenden Zeichenfolgenvergleich: Der Teradata-Connector wird jetzt standardmäßig
TMODE=ANSIauf das Vergleichsverhalten von Zeichenfolgen mit Azure Databricks ausgerichtet, indem die Groß- und Kleinschreibung beachtet wird. Diese Änderung ist konfigurierbar und wirkt sich nicht auf vorhandene Benutzer aus, es sei denn, sie melden sich an.
Serverlose Umgebung, Version 4
13. August 2025
Umgebungsversion 4 ist jetzt in Ihren serverlosen Notizbüchern und Aufträgen verfügbar. Diese Umgebungsversion enthält Bibliotheksupgrades und API-Updates. Siehe Serverless Environment, Version 4.
Version 17.0
24. Juli 2025
Diese serverlose Computeversion entspricht ungefähr Databricks Runtime 17.0.
Neue Funktionen
SQL-Prozedurunterstützung: SQL-Skripts können jetzt in einer Prozedur gekapselt werden, die als wiederverwendbare Ressource im Unity-Katalog gespeichert ist. Sie können eine Prozedur mit dem Befehl CREATE PROCEDURE erstellen und dann mithilfe des Befehls CALL aufrufen.
Legen Sie eine Standardsortierung für SQL-Funktionen fest: Die Verwendung der neuen
DEFAULT COLLATIONKlausel im CREATE FUNCTION Befehl definiert die Standardsortierung, die fürSTRINGParameter, den Rückgabetyp undSTRINGLiterale im Funktionstext verwendet wird.Rekursive allgemeine Tabellenausdrücke (rCTE)-Unterstützung: Azure Databricks unterstützt jetzt die Navigation von hierarchischen Daten mithilfe rekursiver allgemeiner Tabellenausdrücke (rCTEs). Verwenden Sie eine selbstverweisende CTE mit
UNION ALL, um der rekursiven Beziehung zu folgen.PySpark und Spark Connect unterstützen jetzt dataFrames
df.mergeIntoAPI: PySpark und Spark Connect unterstützen jetzt diedf.mergeIntoAPI.Unterstützung
ALL CATALOGSinSHOWSCHEMAS: DieSHOW SCHEMASSyntax wird aktualisiert, sodassALL CATALOGSSie alle aktiven Kataloge durchlaufen können, die Namespaces unterstützen. Die Ausgabeattribute enthalten nun einecatalogSpalte, die den Katalog des entsprechenden Namespaces angibt.Liquid Clustering komprimiert Löschvektoren jetzt effizienter: Delta-Tabellen mit flüssigem Clustering wenden jetzt physische Änderungen von Löschvektoren effizienter an, wenn
OPTIMIZEsie ausgeführt werden. Weitere Details finden Sie unter Anwenden von Änderungen an Parkettdatendateien.Nicht-deterministische Ausdrücke zulassen in
UPDATE/INSERTSpaltenwerte fürMERGEVorgänge: Azure Databricks ermöglicht jetzt die Verwendung nicht deterministischer Ausdrücke in aktualisierten und eingefügten Spaltenwerten vonMERGEVorgängen. Beispielsweise können Sie jetzt dynamische oder zufällige Werte für Spalten mithilfe von Ausdrücken wierand()generieren.Ändern Sie die Delta MERGE Python-APIs so, dass sie einen DataFrame anstelle von Unit zurückgeben: Die Python-APIs (z. B.
MERGE,DeltaMergeBuilder) geben jetzt ebenfalls einen DataFrame wie die SQL-APIs zurück, mit denselben Ergebnissen.
Verhaltensänderungen
Verhaltensänderung für die inkrementelle Verzeichnisauflistungsoption "Auto Loader": Der Wert der veralteten "Auto Loader"-Option
cloudFiles.useIncrementalListingwird jetzt auf einen Standardwert vonfalsefestgelegt. Dadurch führt diese Änderung dazu, dass Auto Loader jedes Mal, wenn er ausgeführt wird, eine vollständige Verzeichnisauflistung durchführt. Databricks rät von der Verwendung dieser Option ab. Verwenden Sie stattdessen den Dateibenachrichtigungsmodus mit Dateiereignissen.CREATE VIEWKlauseln auf Spaltenebene lösen jetzt Fehler aus, wenn die Klausel nur für materialisierte Ansichten gelten würde:CREATE VIEWBefehle, die eine Klausel auf Spaltenebene angeben, die nur fürMATERIALIZED VIEWs gültig ist, lösen jetzt einen Fehler aus. Die betroffenen Klauseln enthaltenNOT NULL, angegebene Datentypen undDEFAULTCOLUMN MASK.
Ziele mit serverloser Leistung sind allgemein verfügbar.
10. Juni 2025
Die Auswahl der serverlosen Leistungseinstellung für Aufträge und Pipelines ist jetzt allgemein verfügbar.
Wenn die Einstellung "Leistungsoptimiert " aktiviert ist, ist Ihre Workload für schnellere Start- und Ausführungszeit optimiert. Wenn sie deaktiviert ist, wird die serverlose Workload im Standardleistungsmodus ausgeführt, der für Kosten optimiert ist und eine etwas höhere Startlatenz aufweist.
Weitere Informationen finden Sie unter Auswählen eines Leistungsmodus und Auswählen eines Leistungsmodus.
Version 16.4
28. Mai 2025
Diese Serverless-Compute-Version entspricht ungefähr Databricks Runtime 16.4 LTS.
Verhaltensänderungen
Fix zum Respektieren von Optionen für gecachte Pläne von Datenquellen: Dieses Update stellt sicher, dass Tabellenlesungen die für alle Pläne von Datenquellen festgelegten Optionen respektieren, wenn sie zwischengespeichert werden, und nicht nur die erste gecachte Tabellenlesung. Zuvor hatte die Datenquellentabelle den ersten Plan zwischengespeichert, konnte jedoch bei nachfolgenden Abfragen verschiedene Optionen nicht berücksichtigen.
Aktivieren Sie das Flag, um die Quellmaterialisierung für MERGE-Vorgänge zwingend erforderlich zu machen: Zuvor konnten Benutzer die Quellmaterialisierung in MERGE deaktivieren, indem sie auf
merge.materializeSourcesetzten. Wenn das neue Flag aktiviert ist, ist die Materialisierung der Datenquelle immer erforderlich, und der Versuch, sie zu deaktivieren, führt zu einem Fehler. Databricks plant, dieses Flag nur für Kunden zu aktivieren, die diese Konfiguration noch nicht geändert haben, sodass die meisten Benutzer keine Verhaltensänderung erleben sollten.
Neue Funktionen
Auto Loader kann jetzt verarbeitete Dateien im Quellverzeichnis bereinigen: Sie können jetzt das automatische Laden anweisen, Dateien, die verarbeitet wurden, automatisch zu verschieben oder zu löschen. Aktivieren Sie dieses Feature mithilfe der
cloudFiles.cleanSourceOption "Automatisches Laden". Weitere Informationen finden Sie unter " Optionen für das automatische Laden" untercloudFiles.cleanSource.Unterstützung für Typerweiterung beim Streaming von Delta-Tabellen: Diese Version bietet Unterstützung für das Streaming von Delta-Tabellen, die Spalten mit Typerweiterung enthalten, und für die gemeinsame Nutzung einer Delta-Tabelle mit aktivierter Typerweiterung über Databricks-to-Databricks Delta Sharing. Die Funktion zur Typerweiterung befindet sich aktuell in der öffentlichen Vorschau. Weitere Informationen finden Sie unter Typerweiterung.
IDENTIFIER Unterstützung jetzt in DBSQL für Katalogvorgänge verfügbar: Sie können die Klausel jetzt verwenden, wenn Sie die
IDENTIFIERfolgenden Katalogvorgänge ausführen:CREATE CATALOGDROP CATALOGCOMMENT ON CATALOGALTER CATALOG
Mit dieser neuen Syntax können Sie Katalognamen dynamisch mithilfe von Parametern angeben, die für diese Vorgänge definiert sind, wodurch flexiblere und wiederverwendbare SQL-Workflows ermöglicht werden. Berücksichtigen Sie
CREATE CATALOG IDENTIFIER(:param)als Beispiel für die Syntax, woparamein Parameter angegeben wird, um einen Katalognamen anzugeben. Siehe IDENTIFIER Klausel.Zusammengesetzt Ausdrücke bieten jetzt automatisch generierte transiente Aliase: Autogenerierte Aliase für zusammengesetzt Ausdrücke enthalten jetzt deterministisch
COLLATE-Informationen. Automatisch generierte Aliase sind vorübergehend (instabil) und sollten nicht verwendet werden. Verwenden Sieexpression AS aliasstattdessen als bewährte Methode konsistent und explizit.Hinzufügen von Filter-Pushdown-API-Unterstützung zu Python-Datenquellen: Serverless Compute unterstützt jetzt Filter-Pushdown auf Python-Datenquellenbatches, die als API gelesen werden, ähnlich der
SupportsPushDownFiltersSchnittstelle. Siehe Versionshinweise zu 16.4 LTS.Python UDF-Ablaufverfolgungsverbesserung: Die Python-UDF-Ablaufverfolgung enthält jetzt Frames sowohl vom Treiber als auch vom Executor zusammen mit Clientframes, was zu besseren Fehlermeldungen führt, die größere und relevantere Details anzeigen (z. B. den Zeileninhalt von Frames innerhalb einer UDF).
UNION/EXCEPT/INTERSECT in einer Ansicht und EXECUTE IMMEDIATE geben jetzt korrekte Ergebnisse zurück: Abfragen für temporäre und persistente Ansichtsdefinitionen mit oberster Ebene
UNION/EXCEPT/INTERSECTund nicht aliasierte Spalten haben zuvor falsche Ergebnisse zurückgegeben, daUNION/EXCEPT/INTERSECTSchlüsselwörter als Aliase betrachtet wurden. Diese Abfragen führen jetzt das gesamte Set korrekt aus.Anleitung zur Konfiguration und Migration von Cached-Plan für Datenquellen: Beim Lesen aus einer Quelltabelle werden Abfrageoptionen (z.B. Trennzeichen) korrekt berücksichtigt. Zuvor wurde der erste Abfrageplan zwischengespeichert und nachfolgende Optionsänderungen ignoriert. Um das vorherige Verhalten wiederherzustellen, legen Sie
spark.sql.legacy.readFileSourceTableCacheIgnoreOptionsauftruefest.Neue
listaggundstring_aggFunktionen: Ab dieser Version können Sie dielistaggoderstring_aggFunktionen verwenden, umSTRINGundBINARYWerte innerhalb einer Gruppe zu aggregieren. Siehe string_agg.
Der Leistungsmodus kann jetzt auf serverlosen Aufträgen konfiguriert werden.
14. April 2025
Sie können nun den Leistungsmodus eines serverlosen Auftrags auswählen, indem Sie die Einstellung "Leistung optimiert " auf der Seite mit den Auftragsdetails verwenden. Bisher wurden alle serverlosen Aufträge leistungsoptimiert. Jetzt können Sie die Einstellung "Leistung optimiert " deaktivieren, um die Workload im Standardleistungsmodus auszuführen. Der Standard-Peformance-Modus wurde entwickelt, um Kosten für Workloads zu reduzieren, bei denen eine etwas höhere Startlatenz akzeptabel ist.
Der Standardleistungsmodus wird für fortlaufende Pipelines, einmalige Ausführungen, die mit dem runs/submit Endpunkt erstellt wurden, oder SQL Warehouse-Auftragsaufgaben, einschließlich materialisierter Ansichten, nicht unterstützt.
Weitere Informationen zum Leistungsmodus finden Sie unter Auswählen eines Leistungsmodus.
Version 16.3
9. April 2025
Diese serverlose Computeversion entspricht ungefähr Databricks Runtime 16.3.
Verhaltensänderungen
-
*Verbesserte Fehlermeldung, wenn
kafka.sasl.client.callback.handler.classeinem ungültigen Wert zugewiesen wird: Diese Version enthält eine Änderung, um eine aussagekräftigere Fehlermeldung zurückzugeben, wennkafka.sasl.client.callback.handler.classein ungültiger Wert zugewiesen wird.
Neue Funktionen
Unterstützung für Statusleser ist allgemein verfügbar: Unterstützung für das Lesen von Statusinformationen für strukturierte Streaming-Abfragen ist jetzt allgemein auf serverlosem Computing verfügbar. Weitere Informationen finden Sie unter Lesen von strukturierten Streamingstatusinformationen.
Delta-Tabellenprotokoll-Herabstufung ist allgemein verfügbar mit Prüfpunktschutz:
DROP FEATUREzum Entfernen von Delta Lake-Tabellenfeatures und zum Herabstufen des Tabellenprotokolls ist allgemein verfügbar. Standardmäßig erstelltDROP FEATUREjetzt geschützte Prüfpunkte für eine optimierte und vereinfachte Downgrade-Erfahrung, die keine Wartezeit oder Verlaufskürzung erfordert. Weitere Informationen finden Sie unter Löschen eines Delta Lake-Tabellenfeatures und Herabstufen des Tabellenprotokolls.Schreiben von prozeduralen SQL-Skripts basierend auf ANSI SQL/PSM (Public Preview): Sie können jetzt Skriptfunktionen basierend auf ANSI SQL/PSM verwenden, um prozedurale Logik mit SQL zu schreiben, einschließlich Steuerungsflussanweisungen, lokalen Variablen und Ausnahmebehandlung. Weitere Informationen finden Sie unter SQL-Skripting.
Standardsortierung auf Tabellen- und Ansichtsebene: Sie können jetzt eine Standardsortierung für Tabellen und Ansichten angeben. Dies vereinfacht die Erstellung von Tabellen und Ansichten, bei denen alle oder die meisten Spalten dieselbe Sortierung aufweisen. Siehe Sortierung.
Neue H3-Funktionen: Es wurden drei neue H3-Funktionen hinzugefügt: h3_try_coverash3, h3_try_coverash3string und h3_try_tessellateaswkb.
Ändern mehrerer Tabellenspalten in einer ALTER TABLE Anweisung: Sie können jetzt mehrere Spalten in einer einzelnen
ALTER TABLEAnweisung ändern. Siehe ALTER TABLE ... COLUMN -Klausel.
Version 16.2
13. März 2025
Diese serverlose Computeversion entspricht ungefähr Databricks Runtime 16.2.
Verhaltensänderungen
In der Delta-Freigabe ist der Tabellenverlauf standardmäßig aktiviert: Freigaben, die mittels des SQL-Befehls
ALTER SHARE <share> ADD TABLE <table>erstellt wurden, haben nun standardmäßig die Verlaufshistorie (WITH HISTORY) aktiviert. Siehe ALTER SHARE.SQL-Anweisungen für Anmeldeinformationen geben einen Fehler zurück, wenn ein Nichtübereinstimmung des Anmeldeinformationstyps vorliegt: Wenn der in einer SQL-Anweisung für die Anmeldeinformationsverwaltung angegebene Anmeldeinformationstyp nicht mit dem Typ des Anmeldeinformationsarguments übereinstimmt, wird ein Fehler zurückgegeben, und die Anweisung wird nicht ausgeführt.
Neue Funktionen
Verwenden Sie die
timestampdiff×tampaddin generierten Spaltenausdrücken. Sie können jetzt die timestampdiff und timestampadd-Funktionen in generierten Spaltenausdrücken von Delta Lake verwenden. Siehe Verwenden der von Delta Lake generierten Spalten.Aktualisieren, um
DESCRIBE TABLEMetadaten als strukturiertes JSON zurückzugeben: Sie können nun denDESCRIBE TABLE AS JSONBefehl verwenden, um Tabellenmetadaten als JSON-Dokument zurückzugeben. Die JSON-Ausgabe ist strukturierter als der vom Benutzer lesbare Standardbericht und kann zum programmgesteuerten Interpretieren des Schemas einer Tabelle verwendet werden. Weitere Informationen finden Sie unter DESCRIBE TABLE AS JSON.Sortierungen ohne Beachtung nachstehender Leerzeichen: Serverless unterstützt jetzt Sortierungen ohne Beachtung nachstehender Leerzeichen. Beispielsweise behandeln diese Sortierungen
'Hello'und'Hello 'gleich. Weitere Informationen finden Sie unter RTRIM-Sortierung.
Fehlerbehebungen
- Verbesserte inkrementelle Klonverarbeitung: Diese Version enthält eine Lösung für einen Spezialfall, bei dem es passieren kann, dass Dateien im Rahmen eines inkrementellen Prozesses erneut aus einer Quelltabelle in eine Zieltabelle kopiert werden. Siehe Klonen einer Tabelle in Azure Databricks.
Verfügbare Einstellung für oberen Speicher auf serverlosen Notebooks (Public Preview)
7. Februar 2025
Sie können jetzt eine höhere Arbeitsspeichergröße für Ihre serverlosen Rechennotizbucharbeitslasten konfigurieren. Diese Einstellung kann sowohl auf interaktive als auch auf geplante Notizbucharbeitslasten angewendet werden.
Die serverlose Verwendung mit hohem Arbeitsspeicher hat eine höhere DBU-Emissionsrate als standardspeicher.
Weitere Informationen finden Sie unter Verwenden der serverlosen Berechnung mit hohem Arbeitsspeicher.
Version 16.1
5. Februar 2025
Dieses serverlose Compute-Release entspricht ungefähr Databricks Runtime 16.0 und Databricks Runtime 16.1.
Neue Funktionen
-
Avro-Unterstützung für rekursives Schema: Sie können jetzt die Option
recursiveFieldMaxDepthmit der funktionfrom_avround deravroDatenquelle verwenden. Diese Option legt die maximale Tiefe für die Schema rekursion in der Avro-Datenquelle fest. Weitere Informationen finden Sie unter Lesen und Schreiben von Avro-Streamingdaten. - Erweiterte Unterstützung für Confluent Schema Registry für Avro: Serverless unterstützt jetzt Avro-Schemareferenzen mit dem Confluent Schema Registry. Weitere Informationen finden Sie unter Authentifizieren bei einer externen Schemaregistrierung von Confluent.
-
Erzwingen der Neuclusterung auf Tabellen mit flüssigem Clustering: Sie können jetzt die
OPTIMIZE FULL-Syntax verwenden, um die Neuclusterung aller Datensätze in einer Tabelle mit aktivierter Flüssigclusterung zu erzwingen. Weitere Informationen finden Sie unter Erzwingen eines erneuten Clusterings für alle Datensätze. - Die Delta-APIs für Python unterstützen jetzt Identitätsspalten: Sie können jetzt die Delta-APIs für Python verwenden, um Tabellen mit Identitätsspalten zu erstellen. Weitere Informationen finden Sie unter Verwenden von Identitätsspalten in Delta Lake.
-
Erstellen flüssig gruppierter Tabellen während des Streaming-Schreibvorgangs: Sie können jetzt
clusterByverwenden, um flüssiges Clustering zu ermöglichen, wenn Sie neue Tabellen mit Strukturiertem Streaming erstellen. Weitere Informationen finden Sie unter Aktivieren des Liquid Clustering. - Unterstützung für die OPTIMIZE FULL-Klausel: Serverloses Rechnen unterstützt jetzt die OPTIMIZE FULL-Klausel. Diese Klausel optimiert alle Datensätze in einer Tabelle, die flüssigen Clustering verwendet, einschließlich Daten, die zuvor gruppiert wurden.
-
Unterstützung der Spezifikation von WITH-Optionen in INSERT und Tabellenreferenzen: Serverloses Computing unterstützt jetzt die Spezifikation von Optionen für Tabellenreferenzen und Tabellennamen einer
INSERT-Anweisung, die zum Steuern des Verhaltens von Datenquellen verwendet werden kann. -
Neue SQL-Funktionen: Die folgenden SQL-Funktionen sind jetzt auf serverloser Berechnung verfügbar:
- try_url_decode ist eine fehlertolerante Version von url_decode.
-
zeroifnull gibt 0 zurück, wenn der Eingabeausdruck für die Funktion
zeroifnull()alsNULLvorliegt. -
nullifzero gibt
NULLzurück, wenn die Eingabe 0 ist, oder die Eingabe selbst, wenn sie nicht 0 ist. - dayname(expr) gibt das englische Akronym mit drei Buchstaben für den Wochentag für das angegebene Datum zurück.
- uniform(expr1, expr2 [,seed]) gibt einen Zufallswert mit unabhängigen und identisch verteilten Werten innerhalb des angegebenen Zahlenbereichs zurück.
-
randstr(length) gibt eine zufällige Zeichenfolge aus
lengthalphanumerischen Zeichen zurück.
-
Automatische Schemaentwicklung beim Zusammenführen von Daten in eine Delta-Tabelle aktivieren: Support wurde für das
withSchemaEvolution()Mitglied derDeltaMergeBuilder-Klasse hinzugefügt. Verwenden SiewithSchemaEvolution(), um die automatische Schemaentwicklung währendMERGEVorgängen zu aktivieren. Beispiel:mergeBuilder.whenMatched(...).withSchemaEvolution().execute()}}. -
Unterstützung von Sortierungen in Apache Spark befindet sich in der Public Preview: Sie können jetzt sprachspezifische Sortierungen, bei denen die Groß-/Kleinbuchstaben und der Zugriff nicht beachtet werden, zu
STRING-Spalten und -Ausdrücken zuweisen. Diese Sortierungen werden in Vergleichen von Zeichenfolgen, Sortiervorgängen, Gruppierungsvorgängen und vielen Zeichenfolgenfunktionen verwendet. Siehe Sortierung. - Unterstützung für Sortierungen in Delta Lake befindet sich in der öffentlichen Vorschau: Sie können jetzt Sortierungen für Spalten definieren, wenn Sie eine Delta-Tabelle erstellen oder ändern. Weitere Informationen finden Sie unter Sortierungsunterstützung für Delta Lake.
-
LITE-Modus für Vakuum befindet sich in der öffentlichen Vorschauversion: Sie können jetztVACUUM table_name LITEverwenden, um einen einfacheren Vakuumvorgang auszuführen, der Metadaten im Delta-Transaktionsprotokoll nutzt. Siehe Vollmodus gegenüber Lite-Modus und VACUUM. -
Unterstützung der Parametrisierung der
USE CATALOG with IDENTIFIER-Klausel: Die IDENTIFIER-Klausel wird jetzt für die USE CATALOG-Anweisung unterstützt. Mit dieser Unterstützung können Sie den aktuellen Katalog basierend auf einer Zeichenfolgenvariablen oder Parametermarkierung parametrisieren. - COMMENT ON COLUMN Unterstützung für Tabellen und Ansichten: Die COMMENT ON-Anweisung unterstützt jetzt das Ändern von Kommentaren für Ansichts- und Tabellenspalten.
- Benannter Parameteraufruf für weitere Funktionen: Die folgenden Funktionen unterstützen benannte Parameteraufrufe:
-
Der
SYNC METADATA-Parameter für den Befehl REPAIR TABLE wird mit dem Hive-Metaspeicher unterstützt: Sie können jetzt denSYNC METADATA-Parameter mit dem BefehlREPAIR TABLEverwenden, um die Metadaten einer verwalteten Hive-Metastore-Tabelle zu aktualisieren. Siehe REPAIR TABLE. -
Erweiterte Datenintegrität für komprimierte Apache Arrow-Batches: Um den Schutz vor Datenbeschädigungen zu erhöhen, enthält jeder mit
LZ4komprimierte Arrow-Batch jetzt denLZ4-Inhalt und blockierte Prüfsummen. Weitere Informationen finden Sie unter Beschreibung des LZ4-Frameformats.
-
Integrierter Oracle JDBC-Treiber: Serverloses Computing verfügt jetzt über den integrierten Oracle JDBC-Treiber. Wenn Sie ein vom Kunden hochgeladenes JDBC-Treiber-JAR über
DriverManagerverwenden, müssen Sie Skripts neu schreiben, um das benutzerdefinierte JAR explizit zu verwenden. Andernfalls wird der integrierte Treiber verwendet. Dieser Treiber unterstützt nur den Lakehouse-Verbund. Für andere Anwendungsfälle müssen Sie Ihren eigenen Treiber bereitstellen. -
Detailliertere Fehler für Delta-Tabellen, auf die mit Pfaden zugegriffen wird: Eine neue Fehlermeldung für Delta-Tabellen, auf die mithilfe von Pfaden zugegriffen wird, ist jetzt verfügbar. Alle Ausnahmen werden jetzt an den Benutzer weitergeleitet. Die Ausnahme
DELTA_MISSING_DELTA_TABLEist jetzt reserviert, wenn zugrundeliegende Dateien nicht als Delta-Tabelle gelesen werden können.
Verhaltensänderungen
- Breaking Change: Hosted RStudio wird eingestellt: Ab diesem Release ist der auf Databricks gehostete RStudio Server eingestellt und in allen Azure Databricks-Arbeitsbereichen nicht mehr verfügbar, die mit serverlosem Computing ausgeführt werden. Weitere Informationen und eine Liste der Alternativen zu RStudio finden Sie unter Connect to a Databricks-hosted RStudio Server.
Fehlerhafte Änderung: Entfernung des Supports für das Ändern von
byte,short,intundlongTypen in breitere Typen: Um ein konsistentes Verhalten in Delta- und Apache Iceberg-Tabellen zu gewährleisten, können die folgenden Datentypänderungen nicht mehr auf Tabellen mit aktivierter Funktion Typenerweiterung angewendet werden:-
byte,short,intundlongbisdecimal. -
byte,shortundintbisdouble.
-
Korrekte Analyse von Regex-Mustern mit Negation in geschachtelter Zeichengruppierung: Diese Version enthält eine Änderung zur Unterstützung der korrekten Analyse von Regex-Mustern mit Negation in geschachtelter Zeichengruppierung. Beispielsweise wird
[^[abc]]als "jedes Zeichen, das NICHT eines von 'abc' ist" geparst.Das Verhalten von Photon war zudem im Vergleich zu Spark inkonsistent bei geschachtelten Zeichenklassen. RegEx-Muster, die geschachtelte Zeichenklassen enthalten, verwenden Photon nicht mehr und verwenden stattdessen Spark. Eine geschachtelte Zeichenklasse ist ein beliebiges Muster, das eckige Klammern in eckigen Klammern enthält, z. B.
[[a-c][1-3]].Verbessern der Erkennung doppelter Übereinstimmungen in Delta Lake
MERGE:MERGEberücksichtigt jetzt bedingungen, die in derWHEN MATCHED-Klausel angegeben sind. Siehe Ausführen eines Upsert-Vorgangs in einer Delta Lake-Tabelle mithilfe von „Merge“.Die
addArtifact()-Funktionalität ist jetzt konsistent über alle Rechenarten hinweg: Wenn SieaddArtifact(archive = True)verwenden, um eine Abhängigkeit zu serverlosem Rechnen hinzuzufügen, wird das Archiv automatisch entpackt.
Fehlerbehebungen
- Zeitzonenversätze enthalten jetzt Sekunden, wenn sie in CSV, JSON und XML serialisiert werden: Bei Zeitstempeln mit Zeitzonenversatz, die Sekunden enthalten (was bei Zeitstempeln vor 1900 üblich ist), wurden die Sekunden bei der Serialisierung nach CSV, JSON und XML weggelassen. Der Standardformatierer für den Zeitstempel wurde behoben und gibt nun die richtigen Offsetwerte für diese Zeitstempel zurück.
Andere Änderungen
-
Umbenannte Fehlercodes für die
cloudFilesStrukturierte Streamingquelle: Die folgenden Fehlercodes wurden umbenannt:-
_LEGACY_ERROR_TEMP_DBR_0143wird umbenannt inCF_INCORRECT_STREAM_USAGE. -
_LEGACY_ERROR_TEMP_DBR_0260wird umbenannt inCF_INCORRECT_BATCH_USAGE.
-
Version 15.4
28. Oktober 2024
Dieses Release der serverlosen Berechnung entspricht ungefähr Databricks Runtime 15.4.
Neue Funktionen
-
UTF-8-Überprüfungsfunktionen: In diesem Release werden die folgenden Funktionen zum Überprüfen von UTF-8-Zeichenfolgen eingeführt:
- is_valid_utf8 überprüft, ob eine Zeichenfolge eine gültige UTF-8-Zeichenfolge ist.
- make_valid_utf8 konvertiert eine potenziell ungültige UTF-8-Zeichenfolge mit Ersetzungszeichen in eine gültige UTF-8-Zeichenfolge.
- validate_utf8 löst einen Fehler aus, wenn die Eingabe keine gültige UTF-8-Zeichenfolge ist.
-
try_validate_utf8 gibt
NULLzurück, wenn die Eingabe keine gültige UTF-8-Zeichenfolge ist.
- UniForm Iceberg mit ALTER TABLEaktivieren: Sie können uniForm Iceberg jetzt auf vorhandenen Tabellen aktivieren, ohne Datendateien neu zu schreiben. Siehe Aktivieren von Iceberg-Lesevorgängen in einer vorhandenen Tabelle.
-
try_url_decode-Funktion: Mit diesem Release wird die Funktion try_url_decode eingeführt, mit der eine mit einer URL verschlüsselte Zeichenfolge entschlüsselt wird. Wenn die Zeichenfolge nicht das richtige Format hat, gibt die Funktion
NULLzurück, anstatt einen Fehler zu auslösen. -
Optional können Sie zulassen, dass der Optimierer auf nicht erzwungene Fremdschlüsseleinschränkungen angewiesen ist: Um die Abfrageleistung zu verbessern, können Sie nun das
RELY-Schlüsselwort fürFOREIGN KEY-Einschränkungen angeben, wenn Sie CREATE oder ALTER für eine Tabelle verwenden. -
Parallelisierte Jobläufe für selektive Überschreibungen: Selektive Überschreibungen mit
replaceWhereführen jetzt Jobs parallel aus, bei denen Daten gelöscht und neue Daten eingefügt werden, wodurch die Abfrageeffizienz und Clusterauslastung verbessert werden. -
Verbesserte Leistung für Änderungsdatenfeeds mit selektiven Überschreibungen: Selektive Überschreibungen mithilfe von
replaceWherein Tabellen mit Änderungsdatenfeed schreiben keine separaten Änderungsdatendateien für eingefügte Daten mehr. Diese Vorgänge verwenden eine ausgeblendete_change_type-Spalte, die in den zugrunde liegenden Parquet-Datendateien vorhanden ist, um Änderungen ohne Schreibverstärkung aufzuzeichnen. -
Verbesserte Abfragelatenz für den
COPY INTO-Befehl: Dieses Release enthält eine Änderung, die die Abfragelatenz für denCOPY INTO-Befehl verbessert. Diese Verbesserung wird umgesetzt, indem das Laden des Zustands im RocksDB-Zustandsspeicher asynchron erfolgt. Dank dieser Änderung sollten Sie eine Verbesserung der Startzeiten für Abfragen mit großen Zuständen feststellen, wie Abfragen mit einer großen Anzahl bereits erfasster Dateien. -
Unterstützung für das Löschen des Features zum Überprüfen von Einschränkungen in Tabellen: Sie können das
checkConstraints-Tabellenfeature jetzt mithilfe vonALTER TABLE table_name DROP FEATURE checkConstraintsaus einer Delta-Tabelle löschen. Weitere Informationen finden Sie unter Deaktivieren von Überprüfungseinschränkungen.
Verhaltensänderungen
Schemabindungsänderung für Ansichten: Wenn sich die Datentypen in der zugrunde liegenden Abfrage einer Ansicht von denen ändern, die beim ersten Erstellen der Ansicht verwendet wurden, löst Databricks keine Fehler mehr für Verweise auf die Ansicht aus, wenn keine sichere Umwandlung ausgeführt werden kann.
Stattdessen wird nach Möglichkeit mit regulären Umwandlungs-Regeln ausgeglichen. Diese Änderung ermöglicht es Databricks, Tabellenschemaänderungen besser zu tolerieren.
Nicht dokumentierte
!-Syntaxtoleranz für externe boolescheNOT-Logik nicht zulassen: Databricks toleriert die Verwendung von!als Synonym fürNOTaußerhalb der booleschen Logik nicht mehr. Diese Änderung vermindert Verwirrung, entspricht dem SQL-Standard und macht SQL portierbarer. Beispiel:CREATE ... IF ! EXISTS, IS ! NULL,! NULL-Spalteneigenschaft oder -Feldeigenschaft,! INund ! BETWEEN müssen durch Folgendes ersetzt werden:CREATE ... IF NOT EXISTS,IS NOT NULL,NOT NULLSpalten- oder Feldeigenschaft,NOT INundNOT BETWEEN.Der booleschen Präfixoperator
!(z. B.!is_mgroder!(true AND false)) ist von dieser Änderung nicht betroffen.Undokumentierte und nicht verarbeitete Teile der Spaltendefinitionssyntax in Ansichten dürfen nicht zugelassen werden: Databricks unterstützt CREATE VIEW für benannte Spalten und Spaltenkommentare.
Die Spezifikation von Spaltentypen,
NOT NULL-Einschränkungen oderDEFAULTwurde in der Syntax toleriert, ohne dass dies Folgen hat. Databricks entfernt diese Syntaxtoleranz. Dies reduziert Verwirrung, entspricht dem SQL-Standard und ermöglicht zukünftige Verbesserungen.Einheitliche Fehlerbehandlung für die Base64-Decodierung in Spark und Photon: Dieses Release ändert, wie Photon Base64-Decodierungsfehler behandelt, um der Spark-Behandlung dieser Fehler zu entsprechen. Vor diesen Änderungen konnte der Photon- und Spark-Codegenerierungspfad manchmal keine Analyseausnahmen auslösen, während die Spark-Ausführung richtigerweise
IllegalArgumentExceptionoderConversionInvalidInputErrorauslöste. Mit diesem Update wird sichergestellt, dass Photon bei Base64-Decodierungsfehlern konsistent dieselben Ausnahmen auslöst wie Spark, was eine vorhersehbarere und zuverlässigere Fehlerbehandlung ermöglicht.Das Hinzufügen einer
CHECK-Einschränkung für eine ungültige Spalte gibt jetzt die Fehlerklasse UNRESOLVED_COLUMN.WITH_SUGGESTION zurück: Um nützlichere Fehlermeldungen bereitzustellen, gibt in Databricks Runtime 15.3 und höher eineALTER TABLE ADD CONSTRAINT-Anweisung, die eineCHECK-Einschränkung enthält, die auf einen ungültigen Spaltennamen verweist, die Fehlerklasse UNRESOLVED_COLUMN.WITH_SUGGESTION zurück. Zuvor wurdeINTERNAL_ERRORzurückgegeben.
Das JDK wird von JDK 8 auf JDK 17 geupgradet.
15. August 2024
Serverloses Computing für Notebooks und Workflows wurde von Java Development Kit (JDK) 8 auf Serverseite zu JDK 17 migriert. Dieses Upgrade umfasst die folgenden Verhaltensänderungen:
Korrektes Parsen von RegEx-Mustern mit Negation in geschachtelter Zeichengruppierung: Mit diesem Upgrade unterstützt Azure Databricks jetzt das korrekte Parsen von RegEx-Mustern mit Negation in geschachtelter Zeichengruppierung. Beispielsweise wird
[^[abc]]als "jedes Zeichen, das NICHT eines von 'abc' ist" geparst.Das Verhalten von Photon war zudem im Vergleich zu Spark inkonsistent bei geschachtelten Zeichenklassen. RegEx-Muster, die geschachtelte Zeichenklassen enthalten, verwenden Photon nicht mehr und verwenden stattdessen Spark. Eine geschachtelte Zeichenklasse ist ein beliebiges Muster, das eckige Klammern in eckigen Klammern enthält, z. B.
[[a-c][1-3]].
Version 15.1
23. Juli 2024
Dieses serverlose Computingrelease entspricht ungefähr Databricks Runtime 15.1
Neue Funktionen
Unterstützung für die *-Syntax (Stern) in der WHERE-Klausel: Sie können jetzt die *-Syntax (Stern) in der WHERE-Klausel verwenden, um auf alle Spalten in der SELECT-Liste zu verweisen.
Beispiel: SELECT * FROM VALUES(1, 2) AS T(a1, a2) WHERE 1 IN(T.*).
Changes
Verbesserte Fehlerbehebung bei der JSON-Analyse: Der JSON-Parser für from_json() und JSON-Pfadausdrücke erholt sich nun schneller von fehlerhaftem Syntax, was zu weniger Datenverlust führt.
Bei falsch formatierter JSON-Syntax in einem Strukturfeld, einem Arraywert, einem Schlüssel oder einem Wert gibt der JSON-Parser NULL jetzt nur für das unlesbare Feld, den Schlüssel oder das Element zurück. Nachfolgende Felder, Schlüssel oder Elemente werden ordnungsgemäß analysiert. Vor dieser Änderung hat der JSON-Parser die Analyse des Arrays, der Struktur oder der Zuordnung abgebrochen und für den verbleibenden Inhalt NULL zurückgegeben.
Version 14.3
15. April 2024
Dies ist die Anfangsversion für serverloses Computing. Diese Version entspricht ungefähr Databricks Runtime 14.3 mit einigen Änderungen, um die Unterstützung für einige nicht serverlose und Legacy-Features zu entfernen.
Unterstützte Spark-Konfigurationsparameter
Um die Konfiguration von Spark bei serverlosem Computing zu automatisieren, hat Azure Databricks die Unterstützung für die manuelle Einstellung der meisten Spark-Konfigurationen entfernt. Eine Liste der unterstützten Spark-Konfigurationsparameter finden Sie unter Konfigurieren von Spark-Eigenschaften für serverlose Notizbücher und Aufträge.
Aufträge auf serverlosen Ressourcen schlagen fehl, wenn Sie eine nicht unterstützte Spark-Konfiguration festlegen.
input_file-Funktionen sind veraltet.
Die Funktionen input_file_name(), input_file_block_length() und input_file_block_start() wurden ausgemustert. Von der Verwendung dieser Funktionen wird dringend abgeraten.
Verwenden Sie stattdessen die Spalte mit Dateimetadaten, um Dateimetadaten abzurufen.
Verhaltensänderungen
Die Version 2024.15 des serverlosen Computing enthält folgende Verhaltensänderungen:
-
unhex(hexStr)-Bugfix: Beim Verwenden der
unhex(hexStr)-Funktion, wird hexStr immer links auf ein ganzes Byte aufgefüllt. Zuvor wurde das erste halbe Byte von der unhex-Funktion ignoriert. Beispiel:unhex('ABC')erzeugt jetztx'0ABC'anstattx'BC'. - Automatisch generierte Spaltenaliase sind jetzt stabil: Wenn auf das Ergebnis eines Ausdrucks ohne einen benutzerseitig angegebenen Spaltenalias verwiesen wird, ist dieser automatisch generierte Alias jetzt stabil. Der neue Algorithmus führt möglicherweise zu einer Änderung der zuvor automatisch generierten Namen, die in Features wie materialisierten Ansichten verwendet werden.
-
Tabellenüberprüfungen mit Feldern vom Typ
CHARwerden jetzt immer aufgefüllt: Delta-Tabellen, bestimmte JDBC-Tabellen und externe Datenquellen speichern CHAR-Daten in nicht aufgefüllter Form. Beim Lesen werden die Daten von Azure Databricks jetzt mit Leerzeichen auf die deklarierte Länge aufgefüllt, um eine korrekte Semantik sicherzustellen. -
Umwandlungen von BIGINT/DECIMAL in TIMESTAMP lösen eine Ausnahme für übergelaufene Werte aus: Azure Databricks ermöglicht das Umwandeln von BIGINT und DECIMAL in TIMESTAMP, indem der Wert als Anzahl von Sekunden aus der Unix-Epoche behandelt wird. Zuvor wurden von Azure Databricks übergelaufene Werte zurückgegeben. Nun wird jedoch im Falle eines Überlaufs eine Ausnahme ausgelöst. Verwenden Sie
try_cast, um NULL anstelle einer Ausnahme zurückzugeben. -
PySpark UDF-Ausführung wurde verbessert, um das genaue Verhalten der UDF-Ausführung auf dediziertem Compute abzugleichen: Die folgenden Änderungen wurden vorgenommen:
- Von UDFs mit einem Zeichenfolgen-Rückgabetyp werden nicht mehr implizit zeichenfolgenfremde Werte in Zeichenfolgen konvertiert. Zuvor wurde von UDFs mit dem Rückgabetyp
strunabhängig vom tatsächlichen Datentyp des zurückgegebenen Werts einstr(..)-Wrapper auf das Ergebnis angewendet. - Von UDFs mit Rückgaben vom Typ
timestampwird implizit keine Zeitzonenkonvertierung mehr auf Zeitstempel angewendet.
- Von UDFs mit einem Zeichenfolgen-Rückgabetyp werden nicht mehr implizit zeichenfolgenfremde Werte in Zeichenfolgen konvertiert. Zuvor wurde von UDFs mit dem Rückgabetyp