Udostępnij za pośrednictwem


Notatki o wersji Databricks SQL 2026

W 2026 r. wydano następujące funkcje i ulepszenia języka SQL usługi Databricks.

Luty 2026 r.

Usługa Databricks SQL w wersji 2025.40 jest wdrażana w kanale Current.

23 lutego 2026 r.

Usługa Databricks SQL w wersji 2025.40 jest wdrażana na Bieżącym kanale. Zobacz funkcje w wersji 2025.40.

Usługa Databricks SQL w wersji 2025.40 jest teraz dostępna w wersji zapoznawczej

11 lutego 2026 r.

Usługa Databricks SQL w wersji 2025.40 jest teraz dostępna w kanale Preview. Zapoznaj się z poniższą sekcją, aby dowiedzieć się więcej o nowych funkcjach, zmianach zachowań i poprawkach błędów.

Skrypty SQL są ogólnie dostępne

Skrypty SQL są teraz ogólnie dostępne. Pisanie logiki proceduralnej przy użyciu języka SQL, w tym instrukcji warunkowych, pętli, zmiennych lokalnych i obsługi wyjątków.

Znaczniki parametrów są teraz obsługiwane w przypadku większej liczby kontekstów SQL

Teraz można używać znaczników parametrów o nazwach (:param) i nienazwanych (?) w dowolnym miejscu, w którym dozwolona jest wartość literału odpowiedniego typu. Obejmuje to instrukcje DDL, takie jak CREATE VIEW v AS SELECT ? AS c1, typy kolumn, takie jak , i komentarze, takie jak DECIMAL(:p, :s)COMMENT ON t IS :comment. Dzięki temu można sparametryzować szeroką gamę instrukcji SQL, nie narażając swojego kodu na ataki polegające na wstrzykiwaniu SQL. Zobacz Znaczniki parametrów.

IDENTIFIER klauzula rozszerzona na więcej kontekstów SQL

Klauzula IDENTIFIER, która zamienia ciągi na nazwy obiektów SQL, jest teraz obsługiwana w niemal każdym kontekście, gdzie dopuszczalny jest identyfikator. W połączeniu z rozszerzonym znacznikiem parametrów i obsługą łączenia ciągów literałów można sparametryzować wszystkie elementy z aliasów kolumn (AS IDENTIFIER(:name)) do definicji kolumn (IDENTIFIER(:pk) BIGINT NOT NULL). Zobacz IDENTIFIER klauzulę.

Konsolidacja ciągów literałowych obsługiwana wszędzie

Sekwencyjne literały tekstowe, takie jak 'Hello' ' World', łączą się teraz w 'Hello World' w dowolnym kontekście, w którym dozwolone są literały tekstowe, w tym COMMENT 'This' ' is a ' 'comment'. Zobacz STRING typ.

Nowa funkcja BITMAP_AND_AGG

Nowa funkcja BITMAP_AND_AGG jest teraz dostępna w celu uzupełnienia istniejącej biblioteki BITMAP funkcji.

Nowe funkcje szkicu theta w celu uzyskania przybliżonych unikatowych liczb

Jest dostępna nowa biblioteka funkcji do przybliżonego zliczania unikalnych elementów i operacji na zbiorach przy użyciu narzędzia Datasketches Theta Sketch.

Nowe funkcje szkicu KLL dla przybliżonych kwantylów

Dostępna jest nowa biblioteka funkcji do tworzenia szkiców KLL na potrzeby przybliżonego obliczania kwantyli:

Można scalić wiele szkiców KLL w kontekście agregacji przy użyciu kll_merge_agg_bigint, kll_merge_agg_double i kll_merge_agg_float.

Funkcje okna SQL w widokach metryk

Teraz możesz użyć funkcji okna SQL w widokach metryk , aby obliczyć sumy bieżące, rankingi i inne obliczenia oparte na oknach.

Nowe funkcje geoprzestrzenne

Dostępne są teraz następujące nowe funkcje geoprzestrzenne:

Obsługa danych wejściowych EWKT dla istniejących funkcji geometrii i geografii

Następujące funkcje akceptują teraz rozszerzony tekst Well-Known (EWKT) jako dane wejściowe:

Zwiększona wydajność powtarzających się zapytań w tabelach z filtrami wierszy i maskami kolumn

Powtarzające się kwalifikujące się zapytania w tabelach z filtrami wierszy i maskami kolumn korzystają teraz z ulepszonego buforowania wyników zapytania, co skutkuje szybszym czasem wykonywania.

Ulepszona wydajność funkcji geoprzestrzennych

Wydajność łączenia przestrzennego została poprawiona dzięki obsłudze sprzężenia przestrzennego z losowym rozmieszczaniem. Następujące funkcje ST mają teraz implementacje dla Photon:

FSCK REPAIR TABLE domyślnie zawiera naprawę metadanych

FSCK REPAIR TABLE Teraz zawiera początkowy krok naprawy metadanych przed sprawdzeniem brakujących plików danych, co pozwala na pracę w tabelach z uszkodzonymi punktami kontrolnymi lub nieprawidłowymi wartościami partycji. Ponadto kolumna dataFilePath w schemacie wyjściowym FSCK REPAIR TABLE DRY RUN jest teraz możliwa do zanullowania, aby wspierać nowe typy kwestii, w których ścieżka pliku danych nie ma zastosowania.

DESCRIBE TABLE dane wyjściowe zawierają kolumnę metadanych

Dane wyjściowe polecenia DESCRIBE TABLE [EXTENDED] zawierają teraz kolumnę metadata dla wszystkich typów tabel. Ta kolumna zawiera metadane semantyczne (nazwa wyświetlana, format i synonimy) zdefiniowane w tabeli jako ciąg JSON.

Struktury NULL zachowane w operacjach MERGE, UPDATE, i operacjach zapisu strumieniowego

Struktury NULL są teraz zachowywane jako NULL w Delta Lake MERGE, UPDATE i operacjach zapisu strumieniowego, które obejmują rzutowanie typów strukturalnych. Wcześniej struktury NULL zostały rozwinięte do struktur ze wszystkimi polami ustawionymi na wartość NULL.

Zmaterializowane kolumny partycji w plikach Parquet

Partyckjonowane tabele Delta Lake zmaterializowały teraz kolumny partycji w nowo zapisanych plikach danych Parquet. Wcześniej wartości partycji były przechowywane tylko w metadanych dziennika transakcji usługi Delta Lake. Obciążenia, które bezpośrednio odczytują pliki Parquet zapisywane przez usługę Delta Lake, widzą dodatkowe kolumny partycji w nowo zapisanych plikach.

Wartości partycji sygnatury czasowej szanują strefę czasową sesji

Wartości partycji znaczników czasu są teraz poprawnie dostosowywane za pomocą konfiguracji spark.sql.session.timeZone. Wcześniej zostały one niepoprawnie przekonwertowane na utc przy użyciu strefy czasowej JVM.

Zaktualizowane ograniczenia dotyczące podróży w czasie

Usługa Azure Databricks blokuje teraz zapytania dotyczące podróży w czasie wykraczające poza deletedFileRetentionDuration próg dla wszystkich tabel. Polecenie VACUUM ignoruje argument czasu trwania przechowywania, z wyjątkiem sytuacji, gdy wartość wynosi 0 godzin. Nie można ustawić deletedFileRetentionDuration większego niż logRetentionDuration.

SHOW TABLES DROPPED szanuje klauzulę LIMIT

SHOW TABLES DROPPED teraz poprawnie przestrzega klauzuli LIMIT .

Styczeń 2026 r.