Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Die folgenden Databricks SQL-Features und -Verbesserungen wurden 2026 veröffentlicht.
Februar 2026
Databricks SQL Version 2025.40 wird im aktuellen Kanal eingeführt
23. Februar 2026
Databricks SQL Version 2025.40 wird für den aktuellen Kanal bereitgestellt. Siehe Features in 2025.40.
Databricks SQL Version 2025.40 ist jetzt in der Vorschau verfügbar
11. Februar 2026
Databricks SQL Version 2025.40 ist jetzt im Vorschaukanal verfügbar. Lesen Sie den folgenden Abschnitt, um mehr über neue Features, Verhaltensänderungen und Fehlerbehebungen zu erfahren.
SQL-Skripting ist allgemein verfügbar
SQL-Skripting ist jetzt allgemein verfügbar. Schreiben Sie prozedurale Logik mit SQL, einschließlich bedingter Anweisungen, Schleifen, lokaler Variablen und Ausnahmebehandlung.
Parametermarkierungen werden jetzt in weiteren SQL-Kontexten unterstützt
Sie können jetzt benannte (:param) und unbenannte (?) Parametermarkierungen verwenden, wenn ein Literalwert des entsprechenden Typs zulässig ist. Dazu gehören DDL-Anweisungen wie CREATE VIEW v AS SELECT ? AS c1, Spaltentypen wie DECIMAL(:p, :s), und Kommentare wie COMMENT ON t IS :comment. Auf diese Weise können Sie eine vielzahl von SQL-Anweisungen parametrisieren, ohne den Code sql-Einfügungsangriffen offenzusetzen. Siehe Parametermarkierungen.
IDENTIFIER Auf weitere SQL-Kontexte erweiterte Klausel
Die IDENTIFIER Klausel, die Zeichenfolgen in SQL-Objektnamen umgibt, wird jetzt in fast jedem Kontext unterstützt, in dem ein Bezeichner zulässig ist. In Kombination mit erweiterter Parametermarkierung und der literalen Zusammenführung von Zeichenfolgen können Sie alles von Spaltenaliasen (AS IDENTIFIER(:name)) bis zu Spaltendefinitionen (IDENTIFIER(:pk) BIGINT NOT NULL) parametrisieren. Siehe IDENTIFIER Klausel.
Literale Zeichenfolgenkopplung wird überall unterstützt
Sequenzielle Zeichenfolgenliterale wie zum Beispiel 'Hello' ' World' verschmelzen jetzt zu 'Hello World' in jedem Kontext, in dem Zeichenfolgenliterale zulässig sind, einschließlich COMMENT 'This' ' is a ' 'comment'. Siehe STRING Typ.
Neue BITMAP_AND_AGG-Funktion
Eine neue BITMAP_AND_AGG Funktion ist jetzt verfügbar, um die vorhandene Bibliothek von BITMAP Funktionen zu ergänzen.
Neue Theta Sketch-Funktionen für ungefähre unterschiedliche Anzahlen
Eine neue Bibliothek von Funktionen für ungefähre unterschiedliche Zählung und Mengenoperationen mit Datasketches Theta Sketch ist jetzt verfügbar.
-
theta_sketch_aggAggregatfunktion -
theta_union_aggAggregatfunktion -
theta_intersection_aggAggregatfunktion -
theta_sketch_estimateFunktion -
theta_unionFunktion -
theta_differenceFunktion -
theta_intersectionFunktion
Neue KLL-Sketch-Funktionen für approximative Quantilen
Eine neue Bibliothek von Funktionen zum Erstellen von KLL-Skizzen für die ungefähre Quantileberechnung ist jetzt verfügbar:
-
kll_sketch_agg_bigintAggregatfunktion -
kll_sketch_get_quantile_bigintFunktion -
kll_sketch_merge_bigintFunktion -
kll_sketch_agg_doubleAggregatfunktion -
kll_sketch_get_quantile_doubleFunktion -
kll_sketch_merge_doubleFunktion -
kll_sketch_agg_floatAggregatfunktion -
kll_sketch_get_quantile_floatFunktion -
kll_sketch_merge_floatFunktion -
kll_sketch_get_n_bigintFunktion -
kll_sketch_get_rank_bigintFunktion -
kll_sketch_to_string_bigintFunktion -
kll_sketch_get_n_doubleFunktion -
kll_sketch_get_rank_doubleFunktion -
kll_sketch_to_string_doubleFunktion -
kll_sketch_get_n_floatFunktion -
kll_sketch_get_rank_floatFunktion -
kll_sketch_to_string_floatFunktion
Sie können mehrere KLL-Skizzen in einem Aggregationskontext zusammenführen, indem Sie kll_merge_agg_bigint, kll_merge_agg_double und kll_merge_agg_float verwenden.
SQL-Fensterfunktionen in Metrikansichten
Sie können jetzt SQL-Fensterfunktionen in Metrikansichten verwenden, um laufende Summen, Rangfolgen und andere fensterbasierte Berechnungen zu berechnen.
Neue Geospatialfunktionen
Die folgenden neuen Geospatialfunktionen sind jetzt verfügbar:
-
st_azimuthFunktion: Gibt den nordbasierten Azimut vom ersten Punkt bis zum zweiten Punkt in Bogenmaß in[0, 2π). -
st_boundary-Funktion: Gibt die Grenze der Eingabegeometrie zurück. -
st_closestpointfunktion: Gibt die 2D-Projektion eines Punkts auf der ersten Geometrie zurück, die der zweiten Geometrie am nächsten kommt. -
st_geogfromewktFunktion: Analysiert eine erweiterte Well-Known Textbeschreibung (EWKT) einer Geographie. -
st_geomfromewktfunction: Analysiert eine Extended Well-Known Text (EWKT)-Beschreibung einer Geometrie.
EWKT-Eingabeunterstützung für vorhandene Geometrie- und Geografiefunktionen
Die folgenden Funktionen akzeptieren nun extended Well-Known Text (EWKT) als Eingabe:
Verbesserte Leistung für wiederholte Abfragen über Tabellen mit Zeilenfiltern und Spaltenmasken
Wiederholte berechtigte Abfragen über Tabellen mit Zeilenfiltern und Spaltenmasken profitieren jetzt von einer verbesserten Zwischenspeicherung von Abfrageergebnissen, was zu schnelleren Ausführungszeiten führt.
Verbesserte Leistung der Geospatialfunktion
Die Leistung der räumlichen Verknüpfung wird durch die Unterstützung für geshuffelte räumliche Verknüpfungen verbessert. Die folgenden ST-Funktionen verfügen jetzt über Photon-Implementierungen:
FSCK REPAIR TABLE enthält standardmäßig metadatenreparatur
FSCK REPAIR TABLE Enthält jetzt einen anfänglichen Metadatenreparaturschritt, bevor nach fehlenden Datendateien gesucht wird, sodass sie an Tabellen mit beschädigten Prüfpunkten oder ungültigen Partitionswerten arbeiten kann. Darüber hinaus ist die dataFilePath Spalte im FSCK REPAIR TABLE DRY RUN Ausgabeschema jetzt nullfähig, um neue Problemtypen zu unterstützen, bei denen der Datendateipfad nicht anwendbar ist.
DESCRIBE TABLE Ausgabe enthält Metadatenspalte
Die Ausgabe von DESCRIBE TABLE [EXTENDED] enthält jetzt eine metadata Spalte für alle Tabellentypen. Diese Spalte enthält semantische Metadaten (Anzeigename, Format und Synonyme), die in der Tabelle als JSON-Zeichenfolge definiert sind.
NULL-Strukturen, die in MERGE-, UPDATEund Streaming-Schreibvorgängen beibehalten werden
NULL-Strukturen werden jetzt als NULL in Delta Lake MERGE, UPDATE und Streaming-Schreibvorgängen beibehalten, die Strukturtyp-Casts enthalten. Zuvor wurden NULL-Strukturen auf Strukturierungen erweitert, wobei alle Felder auf NULL festgelegt sind.
Materialisierte Partitionsspalten in Parquet-Dateien
Partitionierte Delta-Lake-Tabellen materialisieren jetzt Partitionsspalten in neu geschriebenen Parquet-Datendateien. Zuvor wurden Partitionswerte nur in den Metadaten des Delta Lake-Transaktionsprotokolls gespeichert. Workloads, die Parquet-Dateien, die von Delta Lake geschrieben wurden, direkt lesen, erkennen zusätzliche Partitionsspalten in neu geschriebenen Dateien.
Zeitstempel-Partitionswerte berücksichtigen die Sitzungszeitzone
Jetzt werden die Zeitstempel-Partitionswerte korrekt mithilfe der spark.sql.session.timeZone Konfiguration angepasst. Zuvor wurden sie mit der JVM-Zeitzone fälschlicherweise in UTC konvertiert.
Zeitreisebeschränkungen aktualisiert
Azure Databricks blockiert jetzt Zeitreiseabfragen über den deletedFileRetentionDuration Schwellenwert für alle Tabellen hinaus. Der VACUUM Befehl ignoriert das Argument "Aufbewahrungsdauer", es sei denn, der Wert beträgt 0 Stunden.
deletedFileRetentionDuration kann nicht größer als logRetentionDuration festgelegt werden.
SHOW TABLES DROPPED respektiert die Klausel LIMIT
SHOW TABLES DROPPED respektiert jetzt die LIMIT Klausel korrekt.