Freigeben über


Databricks SQL Versionshinweise 2026

Die folgenden Databricks SQL-Features und -Verbesserungen wurden 2026 veröffentlicht.

Februar 2026

Databricks SQL Version 2025.40 wird im aktuellen Kanal eingeführt

23. Februar 2026

Databricks SQL Version 2025.40 wird für den aktuellen Kanal bereitgestellt. Siehe Features in 2025.40.

Databricks SQL Version 2025.40 ist jetzt in der Vorschau verfügbar

11. Februar 2026

Databricks SQL Version 2025.40 ist jetzt im Vorschaukanal verfügbar. Lesen Sie den folgenden Abschnitt, um mehr über neue Features, Verhaltensänderungen und Fehlerbehebungen zu erfahren.

SQL-Skripting ist allgemein verfügbar

SQL-Skripting ist jetzt allgemein verfügbar. Schreiben Sie prozedurale Logik mit SQL, einschließlich bedingter Anweisungen, Schleifen, lokaler Variablen und Ausnahmebehandlung.

Parametermarkierungen werden jetzt in weiteren SQL-Kontexten unterstützt

Sie können jetzt benannte (:param) und unbenannte (?) Parametermarkierungen verwenden, wenn ein Literalwert des entsprechenden Typs zulässig ist. Dazu gehören DDL-Anweisungen wie CREATE VIEW v AS SELECT ? AS c1, Spaltentypen wie DECIMAL(:p, :s), und Kommentare wie COMMENT ON t IS :comment. Auf diese Weise können Sie eine vielzahl von SQL-Anweisungen parametrisieren, ohne den Code sql-Einfügungsangriffen offenzusetzen. Siehe Parametermarkierungen.

IDENTIFIER Auf weitere SQL-Kontexte erweiterte Klausel

Die IDENTIFIER Klausel, die Zeichenfolgen in SQL-Objektnamen umgibt, wird jetzt in fast jedem Kontext unterstützt, in dem ein Bezeichner zulässig ist. In Kombination mit erweiterter Parametermarkierung und der literalen Zusammenführung von Zeichenfolgen können Sie alles von Spaltenaliasen (AS IDENTIFIER(:name)) bis zu Spaltendefinitionen (IDENTIFIER(:pk) BIGINT NOT NULL) parametrisieren. Siehe IDENTIFIER Klausel.

Literale Zeichenfolgenkopplung wird überall unterstützt

Sequenzielle Zeichenfolgenliterale wie zum Beispiel 'Hello' ' World' verschmelzen jetzt zu 'Hello World' in jedem Kontext, in dem Zeichenfolgenliterale zulässig sind, einschließlich COMMENT 'This' ' is a ' 'comment'. Siehe STRING Typ.

Neue BITMAP_AND_AGG-Funktion

Eine neue BITMAP_AND_AGG Funktion ist jetzt verfügbar, um die vorhandene Bibliothek von BITMAP Funktionen zu ergänzen.

Neue Theta Sketch-Funktionen für ungefähre unterschiedliche Anzahlen

Eine neue Bibliothek von Funktionen für ungefähre unterschiedliche Zählung und Mengenoperationen mit Datasketches Theta Sketch ist jetzt verfügbar.

Neue KLL-Sketch-Funktionen für approximative Quantilen

Eine neue Bibliothek von Funktionen zum Erstellen von KLL-Skizzen für die ungefähre Quantileberechnung ist jetzt verfügbar:

Sie können mehrere KLL-Skizzen in einem Aggregationskontext zusammenführen, indem Sie kll_merge_agg_bigint, kll_merge_agg_double und kll_merge_agg_float verwenden.

SQL-Fensterfunktionen in Metrikansichten

Sie können jetzt SQL-Fensterfunktionen in Metrikansichten verwenden, um laufende Summen, Rangfolgen und andere fensterbasierte Berechnungen zu berechnen.

Neue Geospatialfunktionen

Die folgenden neuen Geospatialfunktionen sind jetzt verfügbar:

EWKT-Eingabeunterstützung für vorhandene Geometrie- und Geografiefunktionen

Die folgenden Funktionen akzeptieren nun extended Well-Known Text (EWKT) als Eingabe:

Verbesserte Leistung für wiederholte Abfragen über Tabellen mit Zeilenfiltern und Spaltenmasken

Wiederholte berechtigte Abfragen über Tabellen mit Zeilenfiltern und Spaltenmasken profitieren jetzt von einer verbesserten Zwischenspeicherung von Abfrageergebnissen, was zu schnelleren Ausführungszeiten führt.

Verbesserte Leistung der Geospatialfunktion

Die Leistung der räumlichen Verknüpfung wird durch die Unterstützung für geshuffelte räumliche Verknüpfungen verbessert. Die folgenden ST-Funktionen verfügen jetzt über Photon-Implementierungen:

FSCK REPAIR TABLE enthält standardmäßig metadatenreparatur

FSCK REPAIR TABLE Enthält jetzt einen anfänglichen Metadatenreparaturschritt, bevor nach fehlenden Datendateien gesucht wird, sodass sie an Tabellen mit beschädigten Prüfpunkten oder ungültigen Partitionswerten arbeiten kann. Darüber hinaus ist die dataFilePath Spalte im FSCK REPAIR TABLE DRY RUN Ausgabeschema jetzt nullfähig, um neue Problemtypen zu unterstützen, bei denen der Datendateipfad nicht anwendbar ist.

DESCRIBE TABLE Ausgabe enthält Metadatenspalte

Die Ausgabe von DESCRIBE TABLE [EXTENDED] enthält jetzt eine metadata Spalte für alle Tabellentypen. Diese Spalte enthält semantische Metadaten (Anzeigename, Format und Synonyme), die in der Tabelle als JSON-Zeichenfolge definiert sind.

NULL-Strukturen, die in MERGE-, UPDATEund Streaming-Schreibvorgängen beibehalten werden

NULL-Strukturen werden jetzt als NULL in Delta Lake MERGE, UPDATE und Streaming-Schreibvorgängen beibehalten, die Strukturtyp-Casts enthalten. Zuvor wurden NULL-Strukturen auf Strukturierungen erweitert, wobei alle Felder auf NULL festgelegt sind.

Materialisierte Partitionsspalten in Parquet-Dateien

Partitionierte Delta-Lake-Tabellen materialisieren jetzt Partitionsspalten in neu geschriebenen Parquet-Datendateien. Zuvor wurden Partitionswerte nur in den Metadaten des Delta Lake-Transaktionsprotokolls gespeichert. Workloads, die Parquet-Dateien, die von Delta Lake geschrieben wurden, direkt lesen, erkennen zusätzliche Partitionsspalten in neu geschriebenen Dateien.

Zeitstempel-Partitionswerte berücksichtigen die Sitzungszeitzone

Jetzt werden die Zeitstempel-Partitionswerte korrekt mithilfe der spark.sql.session.timeZone Konfiguration angepasst. Zuvor wurden sie mit der JVM-Zeitzone fälschlicherweise in UTC konvertiert.

Zeitreisebeschränkungen aktualisiert

Azure Databricks blockiert jetzt Zeitreiseabfragen über den deletedFileRetentionDuration Schwellenwert für alle Tabellen hinaus. Der VACUUM Befehl ignoriert das Argument "Aufbewahrungsdauer", es sei denn, der Wert beträgt 0 Stunden. deletedFileRetentionDuration kann nicht größer als logRetentionDuration festgelegt werden.

SHOW TABLES DROPPED respektiert die Klausel LIMIT

SHOW TABLES DROPPED respektiert jetzt die LIMIT Klausel korrekt.

Januar 2026