Poznámka:
Přístup k této stránce vyžaduje autorizaci. Můžete se zkusit přihlásit nebo změnit adresáře.
Přístup k této stránce vyžaduje autorizaci. Můžete zkusit změnit adresáře.
Tato archivovaná stránka obsahuje seznam aktualizací údržby vydaných pro verze Databricks Runtime, které se už nepodporují. Pokud chcete přidat aktualizaci údržby do existujícího clusteru, restartujte cluster.
Důležité
Tato dokumentace byla vyřazena a nemusí být aktualizována. Produkty, služby nebo technologie uvedené v tomto obsahu dosáhly konce podpory. Viz poznámky k verzím a kompatibilitě Databricks Runtime.
Uvedení Databricks Runtime
Aktualizace údržby podle verze:
- Databricks Runtime 17.2
- Databricks Runtime 17.1
- Databricks Runtime 17.0
- Databricks Runtime 16.3
- Databricks Runtime 16.2
- Databricks Runtime 16.1
- Databricks Runtime 16.0
- Databricks Runtime 15.3
- Databricks Runtime 15.2
- Databricks Runtime 15.1
- Databricks Runtime 15.0
- Databricks Runtime 14.2
- Databricks Runtime 14.1
- Databricks Runtime 14.0
- Databricks Runtime 13.1
- Databricks Runtime 12.2 LTS
- Databricks Runtime 11.3 LTS
- Databricks Runtime 10.4 LTS
- Databricks Runtime 13.0
- Databricks Runtime 12.1
- Databricks Runtime 12.0
- Databricks Runtime 11.2
- Databricks Runtime 11.1
- Databricks Runtime 11.0
- Databricks Runtime 10.5
Aktualizace údržby v podporovaných verzích Databricks Runtime najdete v tématu Aktualizace údržby Databricks Runtime.
Databricks Runtime 17.2
Viz Databricks Runtime 17.2 (EoS).
- 10. března 2026
- [SPARK-55701]ES-1694761[SS] Oprava stavu časování v CompactibleFileStreamLog.allFiles
- [SPARK-55493] [SS] Ne mkdirs v adresáři stavu kontrolního bodu streamování ve StateDataSource
- Aktualizace zabezpečení operačního systému.
26. února 2026
- Aktualizace zabezpečení operačního systému.
19. února 2026
- Při odvozování schématu souborů Excel se řetězcové buňky nyní odvozují jako Sparkové
StringType. Respektuje typ buňky nastavený v Excel. Dříve byly řetězce s číselnými hodnotami automaticky přetypovány na užší typy jakoLongneboDecimal. - [SPARK-55243][CONNECT] Povolit nastavení binárních hlaviček prostřednictvím přípony -bin v klientovi Scala Connect
- [SCALA][SPARK-54887]](https://issues.apache.org/jira/browse/SPARK-54887)[CONNECT] Vždy nastavte stav SQL v klientovi Spark Connect.
- [SPARK-54887][CONNECT] Přidání volitelného sqlstate do SparkThrowables
- [SPARK-55282][PYTHON][CONNECT] Vyhněte se použití worker_util na straně ovladače
- Aktualizace zabezpečení operačního systému.
- Při odvozování schématu souborů Excel se řetězcové buňky nyní odvozují jako Sparkové
- 27. ledna 2026
- [SPARK-55015][SS][SQL] Oprava výpočtu numFields v decodeRemainingKey v PrefixKeyScanStateEncoder
- [SPARK-54768][SS]Python Zdroj dat streamu by měl klasifikovat chybu, pokud vrácená data neodpovídají nakonfigurovanýmu schématu
- Aktualizace zabezpečení operačního systému.
- 9. ledna 2026
- [SPARK-54711][PYTHON] Přidání časového limitu pro připojení pracovního procesu vytvořeného démonem
- Aktualizace zabezpečení operačního systému.
- 9. prosince 2025
- Sloupce oddílů v dělených tabulkách Delta budou nadále materializovány v souborech datových parquettech. To umožňuje lepší součinnost s tím, jak se zpracovávají tabulky Iceberg a UniForm, a zvyšuje kompatibilitu s externími čtečkami, které nejsou delta.
- [SPARK-54427][SQL] Povolit volání ColumnarRow s variantními typy
- [SPARK-54180][SQL] Přepsat metodu toString pro BinaryFileFormat
- [SPARK-50906][SQL] Oprava kontroly nullability Avro u přeuspořádaných polí struktury
- Aktualizace zabezpečení operačního systému.
- 18. listopadu 2025
-
[SPARK-54078][SS] Nový test pro
StateStoreSuite SPARK-40492: maintenance before unloada odstranění infrastruktury ze starého testu - [SPARK-54047][PYTHON] Použití chyby rozdílu při vypršení časového limitu kill-on-idle-timeout
- [SPARK-54099][SQL] Analyzátor variant XML by měl přejít na řetězec při chybách parsování desetinných čísel.
-
[SPARK-54015][PYTHON] Uvolněte požadavek Py4J na
py4j>=0.10.9.7,<0.10.9.10 - [SPARK-52515]Approx_top_k s využitím Apache DataSketches
- Aktualizace zabezpečení operačního systému.
-
[SPARK-54078][SS] Nový test pro
- 4. listopadu 2025
- [SPARK-53973][Avro] Klasifikace chyb pro chybu boolovského přetypování AvroOptions
- [SPARK-53972][SS] Oprava regrese nedávného pokroku u streamovacího dotazu v klasickém prostředí PySpark
- [SPARK-53908][CONNECT] Oprava pozorování ve službě Spark Connect s mezipamětí plánu
- Aktualizace zabezpečení operačního systému.
- 21. října 2025
- Aktualizace zabezpečení operačního systému.
- 8. října 2025
- [SPARK-53555] Oprava: Připojení SparkML nemůže načíst uložený model SparkML (starší režim)
- [SPARK-53598][SQL] Před čtením vlastnosti velké tabulky zkontrolujte existenci numParts.
- [SPARK-53625][SS] Šíření sloupců metadat prostřednictvím projekcí za účelem vyřešení nekompatibility ApplyCharTypePadding
- [SPARK-53568][CONNECT][PYTHON] Oprava několika malých chyb v logice zpracování chyb klienta Spark Connect Python
- [SPARK-53574] Oprava vynulování AnalysisContext během vnořeného řešení plánů
- [SPARK-53623][SQL] zlepšuje čtení velkých tabulek...
-
[SPARK-53729][PYTHON][CONNECT] Oprava serializace
pyspark.sql.connect.window.WindowSpec - [SPARK-53549][SS] Po dokončení procesu žádosti o stav seznamu vždy zavřete alokátor šipky.
- Aktualizace zabezpečení operačního systému.
- 10. září 2025
- Opravili jsme problém, který mohl způsobit, že Auto Loader přestane fungovat na neomezenou dobu.
- [SPARK-53362] [ML] [CONNECT] Oprava chyby místního načítače IDFModel
- [SPARK-53382][SQL] Oprava chyby rCTE s nesprávnou rekurzí
- Přenesení úpravy pro opravu nestálého testu pro [SPARK-53345].
- [SPARK-49872][CORE] Odstranění omezení délky řetězce Jackson JSON
- [SPARK-53423] [SQL] Přesuňte všechny značky související s jednopaměťovým resolverem na ResolverTag.
- [SPARK-53431][PYTHON] Opravit Python UDTF s pojmenovanými argumenty tabulky v rozhraní DataFrame API
-
[SPARK-53336] [ML] [CONNECT] Resetovat
MLCache.totalMLCacheSizeBytes, když seMLCache.clear()zavolá - [SPARK-53394][CORE] UninterruptibleLock.isInterruptible by se mělo vyhnout opakovanému přerušení
- [SPARK-53470][SQL] Výrazy ExtractValue by měly vždy provádět kontrolu typů.
- Cherry pick of [SPARK-53389] Vylepšení rozhraní Pandas API ve Sparku v rámci ANSI
- Aktualizace zabezpečení operačního systému.
Databricks Runtime 17.1
Viz.: Databricks Runtime 17.1 (EoS)
- 27. ledna 2026
- [SPARK-55015][SS][SQL] Oprava výpočtu numFields v decodeRemainingKey v PrefixKeyScanStateEncoder
- [SPARK-54768][SS]Python Zdroj dat streamu by měl klasifikovat chybu, pokud vrácená data neodpovídají nakonfigurovanýmu schématu
- Aktualizace zabezpečení operačního systému.
- 9. ledna 2026
- [SPARK-54711][PYTHON] Přidání časového limitu pro připojení pracovního procesu vytvořeného démonem
- Aktualizace zabezpečení operačního systému.
- 9. prosince 2025
- Sloupce oddílů v dělených tabulkách Delta budou nadále materializovány v souborech datových parquettech. To umožňuje lepší součinnost s tím, jak se zpracovávají tabulky Iceberg a UniForm, a zvyšuje kompatibilitu s externími čtečkami, které nejsou delta.
- [SPARK-54180][SQL] Přepsat metodu toString pro BinaryFileFormat
- [SPARK-50906][SQL] Oprava kontroly nullability Avro u přeuspořádaných polí struktury
- [SPARK-54427][SQL] Povolit volání ColumnarRow s variantními typy
- Aktualizace zabezpečení operačního systému.
- 18. listopadu 2025
-
[SPARK-54015][PYTHON] Uvolněte požadavek Py4J na
py4j>=0.10.9.7,<0.10.9.10 - [SPARK-52515]Approx_top_k s využitím Apache DataSketches
- [SPARK-54047][PYTHON] Použití chyby rozdílu při vypršení časového limitu kill-on-idle-timeout
-
[SPARK-54078][SS] Nový test pro
StateStoreSuite SPARK-40492: maintenance before unloada odstranění infrastruktury ze starého testu - [SPARK-54099][SQL] Analyzátor variant XML by měl přejít na řetězec při chybách parsování desetinných čísel.
- Aktualizace zabezpečení operačního systému.
-
[SPARK-54015][PYTHON] Uvolněte požadavek Py4J na
- 4. listopadu 2025
- [SPARK-53972][SS] Oprava regrese nedávného pokroku u streamovacího dotazu v klasickém prostředí PySpark
- [SPARK-53908][CONNECT] Oprava pozorování ve službě Spark Connect s mezipamětí plánu
- [SPARK-53973][Avro] Klasifikace chyb pro chybu boolovského přetypování AvroOptions
- Aktualizace zabezpečení operačního systému.
- 21. října 2025
- Aktualizace zabezpečení operačního systému.
- 7. října 2025
- [SPARK-53574] Oprava vynulování AnalysisContext během vnořeného řešení plánů
- [SPARK-53549][SS] Po dokončení procesu žádosti o stav seznamu vždy zavřete alokátor šipky.
- [SPARK-53568][CONNECT][PYTHON] Oprava několika malých chyb v logice zpracování chyb klienta Spark Connect Python
- [SPARK-53625][SS] Šíření sloupců metadat prostřednictvím projekcí za účelem vyřešení nekompatibility ApplyCharTypePadding
- [SPARK-53598][SQL] Před čtením vlastnosti velké tabulky zkontrolujte existenci numParts.
- [SPARK-53623][SQL] zlepšuje čtení velkých tabulek...
- [SPARK-53555] Oprava: Připojení SparkML nemůže načíst uložený model SparkML (starší režim)
-
[SPARK-53729][PYTHON][CONNECT] Oprava serializace
pyspark.sql.connect.window.WindowSpec - Aktualizace zabezpečení operačního systému.
- 16. září 2025
- Aktualizace zabezpečení operačního systému.
- 9. září 2025
- Opravili jsme problém, který mohl způsobit, že Auto Loader přestane fungovat na neomezenou dobu.
- [SPARK-53362] [ML] [CONNECT] Oprava chyby místního načítače IDFModel
- [SPARK-53394][CORE] UninterruptibleLock.isInterruptible by se mělo vyhnout opakovanému přerušení
- [SPARK-53382][SQL] Oprava chyby rCTE s nesprávnou rekurzí
- [SPARK-53431][PYTHON] Opravit Python UDTF s pojmenovanými argumenty tabulky v rozhraní DataFrame API
-
[SPARK-53336] [ML] [CONNECT] Resetovat
MLCache.totalMLCacheSizeBytes, když seMLCache.clear()zavolá - [SPARK-49872][CORE] Odstranění omezení délky řetězce Jackson JSON
- Aktualizace zabezpečení operačního systému.
- 25. srpna 2025
- Aktualizace knihoven Java:
- io.delta.delta-sharing-client_2.13 od 1.3.3 do 1.3.5
- [SPARK-52482][SQL][CORE] Zlepšení zpracování výjimek při čtení určitých poškozených souborů zstd
- [SPARK-53192][CONNECT] Vždy ukládat zdroj dat do mezipaměti plánu Spark Connect
- Aktualizace zabezpečení operačního systému.
- Aktualizace knihoven Java:
- 14. srpna 2025
-
[SPARK-52833][SQL] Oprava
VariantBuilder.appendFloat - [SPARK-52961][PYTHON] Oprava Python UDTF optimalizované pro šipky s funkcí 0-arg při laterálním spojení
- [SPARK-51505][SQL] Vždy zobrazovat metriky prázdných čísel partií v AQEShuffleReadExec
- [SPARK-52753][SQL] Nastavení binárního souboru parseDataType kompatibilní s předchozími verzemi
- [SPARK-52842][SQL] Nové funkce a opravy chyb pro analyzátor s jedním průchodem
- [SPARK-52960][SQL] Zobrazit řetězec podstromu v LogicalQueryStage toString
- [SPARK-53054][CONNECT] Oprava výchozího chování formátu v connect.DataFrameReader
- Aktualizace zabezpečení operačního systému.
-
[SPARK-52833][SQL] Oprava
Databricks Runtime 17.0
Viz Databricks Runtime 17.0 (EoS).
- 9. prosince 2025
- Sloupce oddílů v dělených tabulkách Delta budou nadále materializovány v souborech datových parquettech. To umožňuje lepší součinnost s tím, jak se zpracovávají tabulky Iceberg a UniForm, a zvyšuje kompatibilitu s externími čtečkami, které nejsou delta.
- U konektoru Snowflake i federace
TIMESTAMP_NTZSnowflake Lakehouse (časové razítko bez časového pásma) už nejsou literály posunuty dolů do Snowflake. Tato změna zabraňuje selháním dotazů způsobeným nekompatibilním zpracováním časového razítka a zlepšuje spolehlivost ovlivněných dotazů. - [SPARK-54427][SQL] Povolit volání ColumnarRow s variantními typy
- [SPARK-54180][SQL] Přepsat metodu toString pro BinaryFileFormat
- Aktualizace zabezpečení operačního systému.
- 18. listopadu 2025
- [SPARK-54099][SQL] Analyzátor variant XML by měl přejít na řetězec při chybách parsování desetinných čísel.
-
[SPARK-54015][PYTHON] Uvolněte požadavek Py4J na
py4j>=0.10.9.7,<0.10.9.10 -
[SPARK-54078][SS] Nový test pro
StateStoreSuite SPARK-40492: maintenance before unloada odstranění infrastruktury ze starého testu - [SPARK-54047][PYTHON] Použití chyby rozdílu při vypršení časového limitu kill-on-idle-timeout
- Aktualizace zabezpečení operačního systému.
- 4. listopadu 2025
- [SPARK-53908][CONNECT] Oprava pozorování ve službě Spark Connect s mezipamětí plánu
- [SPARK-53972][SS] Oprava regrese nedávného pokroku u streamovacího dotazu v klasickém prostředí PySpark
- Aktualizace zabezpečení operačního systému.
- 21. října 2025
- Aktualizace zabezpečení operačního systému.
- 7. října 2025
- [SPARK-53598][SQL] Před čtením vlastnosti velké tabulky zkontrolujte existenci numParts.
- [SPARK-53568][CONNECT][PYTHON] Oprava několika malých chyb v logice zpracování chyb klienta Spark Connect Python
- [SPARK-53574] Oprava vynulování AnalysisContext během vnořeného řešení plánů
- [SPARK-53549][SS] Po dokončení procesu žádosti o stav seznamu vždy zavřete alokátor šipky.
- [SPARK-53623][SQL] zlepšuje čtení velkých tabulek...
-
[SPARK-53729][PYTHON][CONNECT] Oprava serializace
pyspark.sql.connect.window.WindowSpec - Aktualizace zabezpečení operačního systému.
- 16. září 2025
- Aktualizace zabezpečení operačního systému.
- 9. září 2025
- Opravili jsme problém, který mohl způsobit, že Auto Loader přestane fungovat na neomezenou dobu.
- [SPARK-53394][CORE] UninterruptibleLock.isInterruptible by se mělo vyhnout opakovanému přerušení
-
[SPARK-53336] [ML] [CONNECT] Resetovat
MLCache.totalMLCacheSizeBytes, když seMLCache.clear()zavolá - [SPARK-49872][CORE] Odstranění omezení délky řetězce Jackson JSON
- [SPARK-53431][PYTHON] Opravit Python UDTF s pojmenovanými argumenty tabulky v rozhraní DataFrame API
- [SPARK-53382][SQL] Oprava chyby rCTE s nesprávnou rekurzí
- Aktualizace zabezpečení operačního systému.
- 26. srpna 2025
- Aktualizace knihoven Java:
- io.delta.delta-sharing-client_2.13 od 1.3.3 do 1.3.5
- [SPARK-52482][SQL][CORE] Zlepšení zpracování výjimek při čtení určitých poškozených souborů zstd
- [SPARK-53192][CONNECT] Vždy ukládat zdroj dat do mezipaměti plánu Spark Connect
- Aktualizace zabezpečení operačního systému.
- Aktualizace knihoven Java:
- 14. srpna 2025
- [SPARK-51505][SQL] Vždy zobrazovat metriky prázdných čísel partií v AQEShuffleReadExec
- [SPARK-53054][CONNECT] Oprava výchozího chování formátu v connect.DataFrameReader
- [SPARK-52961][PYTHON] Oprava Python UDTF optimalizované pro šipky s funkcí 0-arg při laterálním spojení
-
[SPARK-52833][SQL] Oprava
VariantBuilder.appendFloat - Aktualizace zabezpečení operačního systému.
- 29. července 2025
- [SPARK-51889][PYTHON][SS] Oprava chyby pro MapState clear() v Python TWS
- [SPARK-52753][SQL] Nastavení binárního souboru parseDataType kompatibilní s předchozími verzemi
- [SPARK-49428][SQL] Přesunutí klienta Scala z konektoru do SQL
- Aktualizace zabezpečení operačního systému.
- 15. července 2025
- Opravili jsme problém se ztrátou ne deterministických dat při použití strukturovaného streamování Sparku k streamování dat z Pulsaru.
- [SPARK-52430][SQL] Řešení chyby s nulovatelností sjednocení v rCTEs
-
[SPARK-52503][SQL][CONNECT] Oprava
drop, pokud vstupní sloupec neexistuje - [SPARK-52579][PYTHON] Nastavte pravidelný výpis zpětného trasování pro pracovníky v Pythonu
- [SPARK-52450] Zlepšení výkonu hloubkové kopie schématu
- [SPARK-52599][PYTHON] Podpora periodického výpisu zpětného trasování na straně driveru
- [SPARK-52553][SS] Oprava výjimky NumberFormatException při čtení protokolu změn v1
- Aktualizace zabezpečení operačního systému.
- 28. května 2025
- Aktualizované knihovny Python:
- google-auth od 2.40.0 do 2.40.1
- mlflow-skinny od 2.22.0 do 3.0.0
- opentelemetry-api od 1.32.1 do 1.33.0
- opentelemetry-sdk od 1.32.1 do 1.33.0
- opentelemetry-semantické-konvence od 0.53b1 do 0.54b0
- Aktualizace knihoven Java:
- io.delta.delta-sharing-client_2.13 od 1.3.0 do 1.3.3
- Podpora dekomprese ZStandard pro čtečky zdrojů dat souborů (json, csv, xml a text.)
- Oprava omezení, že
cloud_files_statefunkci TVF nejde použít ke čtení stavu streamovaných tabulek na úrovni souborů napříč kanály - Odstraňuje problémy s autorizací v Unity Catalog pro dotazy na dočasné pohledy.
- Převrácený příznak ve verzi 17.0.1, zahrnutý příznak SAFE pro všechny pracovní prostory pro verzi 17.0.0
- Podpora Delta sdílení pro použití I/O cache Spark Parquet u dotazů, které používají předem podepsané adresy URL (dostupné od verze 17.0.1).
- Podpora dekomprese ZStandard pro čtečky zdrojů dat souborů (json, csv, xml a text.)
- Konektor Teradata bude nyní ve výchozím nastavení předávat TMODE=ANSI ovladači. To znamená, že u všech porovnání řetězců, která jsou prováděna prostřednictvím Lakehouse Federation, se bude rozlišovat mezi malými a velkými písmeny.
- [SPARK-51921][SS][PYTHON] Pro dobu trvání hodnoty TTL v milisekundách v transformWithState použijte dlouhý typ.
- [SPARK-52259][ML][CONNECT] Oprava binární kompatibility třídy Param
- [SPARK-52195][PYTHON][SS] Oprava problému s odstraněním sloupce počátečního stavu u Python TWS
- [SPARK-52057] [ML] [CONNECT] Shromáždit výstražné zprávy o omezení velikosti stromu k zaslání klientovi
- [SPARK-52051] [ML] [CONNECT] Povolení souhrnu modelu při povolení ovládacího prvku paměti
- [SPARK-51606][CONNECT] Přidání SPARK_IDENT_STRING při ukončování serveru Spark Connect
- [15.4-16.4][spark-52521]](https://issues.apache.org/jira/browse/SPARK-52521)[SQL]
Right#replacementby neměl dynamicky přistupovat k SQLConf - [SPARK-52232][SQL] Oprava ne deterministických dotazů za účelem vytvoření různých výsledků v každém kroku
-
[SPARK-52013] [CONNECT] [ML] Odebrat
SparkConnectClient.ml_caches - [SPARK-52353][SQL] Oprava chyby s nesprávnými omezeními v LogicalRDDs, které odkazují na předchozí iterace v UnionLoop
- [SPARK-52130] [ML] [CONNECT] Upřesněte chybovou zprávu a skryjte interní konfiguraci sparku.
- [SPARK-52470][ML][CONNECT] Shrnutí snižování zátěže modelu podpory
- [SPARK-51935][SQL] Oprava opožděného chování iterátorů v interpretované df.collect()
- [SPARK-52482][SQL][CORE] Podpora ZStandard pro čtení zdrojů dat souborů
- [SPARK-52159][SQL] Správně zpracujte kontrolu existence tabulek u dialektů jdbc
- [SPARK-52010] Nevygenerování dokumentace k rozhraní API pro interní třídy
- [SPARK-52049] Oprava chyby, kdy nelze analyzovat atributy XML jako Variant
- [SPARK-52312][SQL] Ignorovat příkaz V2WriteCommand při ukládání datového rámce do mezipaměti
- [SPARK-52229][ML][CONNECT] Zlepšení odhadu velikosti modelu
- [SPARK-50815][PYTHON] Oprava převodu místních dat variant na Arrow
- [SPARK-52040][PYTHON][SQL][CONNECT] ResolveLateralColumnAliasReference by měl zachovat ID plánu.
- [SPARK-51981][SS] Přidání značek úloh do dotazuStartedEvent
- [OPRAVIT REVERT][spark-52100]](https://issues.apache.org/jira/browse/SPARK-52100)[SQL] Umožnění překročení limitu rekurzní úrovně v syntaxi
- [SPARK-52101][SQL] Zakázat vložené vynucení pro rCTEs
- [SPARK-52099][SQL] Umožnit překročení limitu řádků rekurze přidáním operátoru LIMIT
- Aktualizace zabezpečení operačního systému.
- Aktualizované knihovny Python:
Databricks Runtime 16.3
Vizte Databricks Runtime 16.3 (EoS)
- 16. září 2025
- Konektor Snowflake teď pro výpis schémat používá tabulku
INFORMATION_SCHEMAmísto příkazuSHOW SCHEMAS. Tato změna odstraňuje limit 10 000 schémat z předchozího přístupu a zlepšuje podporu databází s velkým počtem schémat. - Aktualizace zabezpečení operačního systému.
- Konektor Snowflake teď pro výpis schémat používá tabulku
- 9. září 2025
- Opravili jsme problém, který mohl způsobit, že Auto Loader přestane fungovat na neomezenou dobu.
- Opravili jsme přechodnou chybu v automatickém zavaděči, která mohla způsobit selhání úloh.
- [SPARK-51821][CORE] Zavolejte interrupt() bez podržení nepřerušitelného locku, aby se zabránilo možnému vzájemnému zablokování
- [SPARK-49872][CORE] Odstranění omezení délky řetězce Jackson JSON
- Aktualizace zabezpečení operačního systému.
- 26. srpna 2025
- [SPARK-52482][SQL][CORE] Zlepšení zpracování výjimek při čtení určitých poškozených souborů zstd
- [SPARK-53192][CONNECT] Vždy ukládat zdroj dat do mezipaměti plánu Spark Connect
- Aktualizace zabezpečení operačního systému.
- 14. srpna 2025
- [SPARK-51011][CORE] Přidejte protokolování pro to, zda bude úkol přerušen, když bude ukončen.
- Aktualizace zabezpečení operačního systému.
- 29. července 2025
- Aktualizace zabezpečení operačního systému.
- 15. července 2025
- Opravili jsme problém se ztrátou ne deterministických dat při použití strukturovaného streamování Sparku k streamování dat z Pulsaru.
- [SPARK-52553][SS] Oprava výjimky NumberFormatException při čtení protokolu změn v1
- Aktualizace zabezpečení operačního systému.
- 1. července 2025
- Podpora dekomprese ZStandard pro čtečky zdrojů dat souborů (json, csv, xml a text.)
- [SPARK-52482][SQL][CORE] Podpora ZStandard pro čtení zdrojů dat souborů
- [SPARK-52312][SQL] Ignorovat příkaz V2WriteCommand při ukládání datového rámce do mezipaměti
- [15.4-16.4][spark-52521]](https://issues.apache.org/jira/browse/SPARK-52521)[SQL]
Right#replacementby neměl dynamicky přistupovat k SQLConf - Aktualizace zabezpečení operačního systému.
- 17. června 2025
- Opravili jsme omezení, že
cloud_files_statefunkci tvF (table-valued) nelze použít ke čtení stavu streamovaných tabulek na úrovni souborů napříč kanály. - [SPARK-52040][PYTHON][SQL][CONNECT] ResolveLateralColumnAliasReference by měl zachovat ID plánu.
- Aktualizace zabezpečení operačního systému.
- Opravili jsme omezení, že
- 3. června 2025
- Aktualizované knihovny Python:
- kryptografie od 41.0.7, 41.0.7, 42.0.5 do 42.0.5
- balení od 24.0, 24.1 do 24.1
- platformdirs od 3.10.0, 4.2.2 do 3.10.0
- pyparsing od 3.0.9, 3.1.1 do 3.0.9
- Přidání automatického příkazu 2.2.2
- Přidáno backports.tarfile 1.2.0
- Přidáno importlib_resources 6.4.0
- Přidán Inflect 7.3.1
- Přidáno jaraco.context 5.3.0.
- Přidán jaraco.functools 4.0.1
- Přidáno jaraco.text 3.12.1
- Přidáno more-itertools 10.3.0
- Přidání pip 24.2
- Přidáno setuptools 74.0.0
- Přidáno tomli 2.0.1
- Byl přidán typeguard 4.3.0
- Přidáno wcwidth 0.2.5
- Přidáno kolečko 0.43.0
- Odebrání distribuce 1.9.0
- Odebrání informací o distribuci 1.7+build1
- Odebrání python-apt 2.7.7+ubuntu4
- [SPARK-52195][PYTHON][SS] Oprava problému s odstraněním sloupce počátečního stavu u Python TWS
- [SPARK-52159][SQL] Správně zpracujte kontrolu existence tabulek u dialektů jdbc
- Aktualizace zabezpečení operačního systému.
- Aktualizované knihovny Python:
- 20. května 2025
- Aktualizace knihoven Java:
- io.delta.delta-sharing-client_2.12 od 1.2.6 do 1.2.7
- org.apache.avro.avro od 1.11.3 do 1.11.4
- org.apache.avro.avro-ipc od 1.11.3 do 1.11.4
- org.apache.avro.avro-mapred od 1.11.3 do 1.11.4
- Klonovaná streamovací relace bude použita uvnitř uživatelské funkce foreachBatch ve sdílených clusterech/serverless. To odpovídá chování v klasických (přiřazených klastrech).
- Klonovaná streamovací relace bude použita uvnitř uživatelské funkce foreachBatch ve sdílených clusterech/serverless. To odpovídá chování v klasických (přiřazených klastrech).
- Před touto změnou byly ve výrazu
variant_getignorovány úvodní prázdné znaky a tabulátory v cestách, když byl Photon zakázán. Napříkladselect variant_get(parse_json('{"key": "value"}'), '$['key']')by nebyl efektivní při extrahování hodnoty"key". Uživatelé ale teď budou moct tyto klíče extrahovat. - [SPARK-51921][SS][PYTHON] Pro dobu trvání hodnoty TTL v milisekundách v transformWithState použijte dlouhý typ.
- [SPARK-51935][SQL] Oprava opožděného chování iterátorů v interpretované df.collect()
- Aktualizace zabezpečení operačního systému.
- Aktualizace knihoven Java:
- 22. dubna 2025
- Sledování delta schématu povede ke zviditelnění chyb vývoje schématu pomocí
DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTIONmístoDELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_TYPE_WIDENING, aby to bylo v souladu s ostatními výjimkami pro změny schématu bez sčítání. - [SPARK-51589][SQL] Oprava malé chyby, která selhává při kontrole agregačních funkcí v |>SELECT
- [SPARK-51645][SQL] Oprava PŘÍKAZU CREATE NEBO REPLACE TABLE ... VÝCHOZÍ KOLACE ... dotaz
- Vrátit zpět "[SPARK-47895][SQL] seskupení podle aliasu by mělo být idempotentní" ve verzích 15.4, 16.0, 16.1, 16.2 a 16.3
- [SPARK-51717][SS][RocksDB] Oprava poškození neshody SST, ke kterému může dojít u druhého snímku vytvořeného pro nový dotaz
- Sledování delta schématu povede ke zviditelnění chyb vývoje schématu pomocí
- 26. března 2025
- [SPARK-51624][SQL] Šíření metadat GetStructField v CreateNamedStruct.dataType
- [SPARK-51505][SQL] Zaznamenat metriky počtu prázdných oddílů v AQE coalesce
- [SPARK-47895][SQL] seskupení podle aliasu by mělo být idempotentní
- Aktualizace zabezpečení operačního systému.
Databricks Runtime 16.2
Viz Databricks Runtime 16.2 (EoS).
- 14. srpna 2025
- [SPARK-51011][CORE] Přidejte protokolování pro to, zda bude úkol přerušen, když bude ukončen.
- Aktualizace zabezpečení operačního systému.
- 29. července 2025
- Aktualizace zabezpečení operačního systému.
- 15. července 2025
- Opravili jsme problém se ztrátou ne deterministických dat při použití strukturovaného streamování Sparku k streamování dat z Pulsaru.
- [SPARK-52553][SS] Oprava výjimky NumberFormatException při čtení protokolu změn v1
- Aktualizace zabezpečení operačního systému.
- 1. července 2025
- Podpora dekomprese ZStandard pro čtečky zdrojů dat souborů (json, csv, xml a text.)
- Podpora dekomprese ZStandard pro čtečky zdrojů dat souborů (json, csv, xml a text.)
- [15.4-16.4][spark-52521]](https://issues.apache.org/jira/browse/SPARK-52521)[SQL]
Right#replacementby neměl dynamicky přistupovat k SQLConf - [SPARK-52312][SQL] Ignorovat příkaz V2WriteCommand při ukládání datového rámce do mezipaměti
- [SPARK-52482][SQL][CORE] Podpora ZStandard pro čtení zdrojů dat souborů
- Aktualizace zabezpečení operačního systému.
- 17. června 2025
- Opravili jsme omezení, že
cloud_files_statefunkci tvF (table-valued) nelze použít ke čtení stavu streamovaných tabulek na úrovni souborů napříč kanály. - [SPARK-52040][PYTHON][SQL][CONNECT] ResolveLateralColumnAliasReference by měl zachovat ID plánu.
- Aktualizace zabezpečení operačního systému.
- Opravili jsme omezení, že
- 3. června 2025
- Aktualizované knihovny Python:
- kryptografie od 41.0.7, 41.0.7, 42.0.5 do 42.0.5
- balení od 24.0, 24.1 do 24.1
- platformdirs od 3.10.0, 4.2.2 do 3.10.0
- pyparsing od 3.0.9, 3.1.1 do 3.0.9
- Přidání automatického příkazu 2.2.2
- Přidáno backports.tarfile 1.2.0
- Přidáno importlib_resources 6.4.0
- Přidán Inflect 7.3.1
- Přidáno jaraco.context 5.3.0.
- Přidán jaraco.functools 4.0.1
- Přidáno jaraco.text 3.12.1
- Přidáno more-itertools 10.3.0
- Přidání pip 24.2
- Přidáno setuptools 74.0.0
- Přidáno tomli 2.0.1
- Byl přidán typeguard 4.3.0
- Přidáno wcwidth 0.2.5
- Přidáno kolečko 0.43.0
- Odebrání distribuce 1.9.0
- Odebrání informací o distribuci 1.7+build1
- Odebrání python-apt 2.7.7+ubuntu4
- [SPARK-52159][SQL] Správně zpracujte kontrolu existence tabulek u dialektů jdbc
- [SPARK-52195][PYTHON][SS] Oprava problému s odstraněním sloupce počátečního stavu u Python TWS
- Aktualizace zabezpečení operačního systému.
- Aktualizované knihovny Python:
- 20. května 2025
- Aktualizace knihoven Java:
- io.delta.delta-sharing-client_2.12 od 1.2.6 do 1.2.7
- org.apache.avro.avro od 1.11.3 do 1.11.4
- org.apache.avro.avro-ipc od 1.11.3 do 1.11.4
- org.apache.avro.avro-mapred od 1.11.3 do 1.11.4
- Klonovaná streamovací relace bude použita uvnitř uživatelské funkce foreachBatch ve sdílených clusterech/serverless. To odpovídá chování v klasických (přiřazených klastrech).
- Klonovaná streamovací relace bude použita uvnitř uživatelské funkce foreachBatch ve sdílených clusterech/serverless. To odpovídá chování v klasických (přiřazených klastrech).
- Před touto změnou byly ve výrazu
variant_getignorovány úvodní prázdné znaky a tabulátory v cestách, když byl Photon zakázán. Napříkladselect variant_get(parse_json('{"key": "value"}'), '$[' key']')by nebyl efektivní při extrahování hodnoty"key". Uživatelé ale teď budou moct tyto klíče extrahovat. - [SPARK-51935][SQL] Oprava opožděného chování iterátorů v interpretované df.collect()
- [SPARK-51921][SS][PYTHON] Pro dobu trvání hodnoty TTL v milisekundách v transformWithState použijte dlouhý typ.
- Aktualizace zabezpečení operačního systému.
- Aktualizace knihoven Java:
- 22. dubna 2025
- [SPARK-51717][SS][RocksDB] Oprava poškození neshody SST, ke kterému může dojít u druhého snímku vytvořeného pro nový dotaz
- Vrátit zpět "[SPARK-47895][SQL] seskupení podle aliasu by mělo být idempotentní" ve verzích 15.4, 16.0, 16.1, 16.2 a 16.3
- Aktualizace zabezpečení operačního systému.
9. dubna 2025
- Aktualizace knihoven Java:
- Odstraněno io.starburst.openjson.openjson 1.8-e.12
- Odstraněno io.starburst.openx.data.json-serde 1.3.9-e.12
- Odstraněno io.starburst.openx.data.json-serde-generic-shim 1.3.9-e.12
- [SPARK-47895][SQL] seskupení podle aliasu by mělo být idempotentní
- [SPARK-51505][SQL] Zaznamenat metriky počtu prázdných oddílů v AQE coalesce
- [SPARK-51624][SQL] Šíření metadat GetStructField v CreateNamedStruct.dataType
- [SPARK-51589][SQL] Oprava malé chyby, která selhává při kontrole agregačních funkcí v |>SELECT
- Aktualizace zabezpečení operačního systému.
- Aktualizace knihoven Java:
11. března 2025
- Databricks Runtime 14.3 LTS a vyšší zahrnují opravu problému, který způsoboval binární nekompatibilitu s kódem, který vytvořil instanci
SparkListenerApplicationEndtřídy a byl zkompilován proti Apache Sparku. Tato nekompatibilitu způsobila sloučení SPARK-46399 do Apache Sparku. Toto sloučení zahrnovalo změnu, která do konstruktoruSparkListenerApplicationEndpřidala výchozí argument. Chcete-li obnovit binární kompatibilitu, tato oprava přidá do třídySparkListenerApplicationEndjeden konstruktor argumentu. - Vrátit "[SPARK-48273][SQL] Oprava opožděného přepsání PlanWithUnresolvedIdentifier"
- [SPARK-50985][SS] Klasifikujte chybu v nesouladu časových razítek v Kafka místo tvrzení a vyvolání chyby kvůli chybějícímu serveru v KafkaTokenProvider.
- [SPARK-51065][SQL] Nepovoluje schéma bez hodnoty null, pokud se pro TransformWithState používá kódování Avro
- [SPARK-51237][SS] Podle potřeby přidejte podrobnosti rozhraní API pro nové pomocné rozhraní API transformWithState.
- [SPARK-51222][SQL] Optimalizujte ReplaceCurrentLike
- [SPARK-51351][SS] Nez materializovat výstup v pracovním procesu Python pro TWS
- [SPARK-51084][SQL] Přiřaďte odpovídající třídu chyb pro negativeScaleNotAllowedError
- [SPARK-51249][SS] Oprava kódování NoPrefixKeyStateEncoder a Avro pro použití správného počtu bajtů verzí
- Aktualizace zabezpečení operačního systému.
- Databricks Runtime 14.3 LTS a vyšší zahrnují opravu problému, který způsoboval binární nekompatibilitu s kódem, který vytvořil instanci
5. února 2025
- Tato verze obsahuje opravu problému, který má vliv na převod určitých datových typů při serializaci zachráněných datových sloupců XML. Ovlivněné datové typy jsou kalendářní data, jiná než NTZ časová razítka a desetinná místa, pokud je povolená
prefersDecimal. Další informace o záchraně datového sloupce najdete v tématu Co je záchranný datový sloupec?. - [SPARK-50770][SS] Odebrání rozsahu balíčku pro rozhraní API operátoru transformWithState
- Aktualizace zabezpečení operačního systému.
- Tato verze obsahuje opravu problému, který má vliv na převod určitých datových typů při serializaci zachráněných datových sloupců XML. Ovlivněné datové typy jsou kalendářní data, jiná než NTZ časová razítka a desetinná místa, pokud je povolená
Databricks Runtime 16.1
Viz Databricks Runtime 16.1 (EoS).
- 12. srpna 2025
- Aktualizace zabezpečení operačního systému.
29. července 2025
- Aktualizace zabezpečení operačního systému.
15. července 2025
- Aktualizace zabezpečení operačního systému.
1. července 2025
- Podpora dekomprese ZStandard pro čtečky zdrojů dat souborů (json, csv, xml a text.)
- [SPARK-52482][SQL][CORE] Podpora ZStandard pro čtení zdrojů dat souborů
- [15.4-16.4][spark-52521]](https://issues.apache.org/jira/browse/SPARK-52521)[SQL]
Right#replacementby neměl dynamicky přistupovat k SQLConf - [SPARK-52312][SQL] Ignorovat příkaz V2WriteCommand při ukládání datového rámce do mezipaměti
- Aktualizace zabezpečení operačního systému.
17. června 2025
- Opravili jsme omezení, že
cloud_files_statefunkci tvF (table-valued) nelze použít ke čtení stavu streamovaných tabulek na úrovni souborů napříč kanály. - [SPARK-52040][PYTHON][SQL][CONNECT] ResolveLateralColumnAliasReference by měl zachovat ID plánu.
- Aktualizace zabezpečení operačního systému.
- Opravili jsme omezení, že
- 3. června 2025
- Aktualizované knihovny Python:
- kryptografie od 41.0.7, 41.0.7, 42.0.5 do 42.0.5
- balení od 24.0, 24.1 do 24.1
- platformdirs od 3.10.0, 4.2.2 do 3.10.0
- pyparsing od 3.0.9, 3.1.1 do 3.0.9
- Přidání automatického příkazu 2.2.2
- Přidáno backports.tarfile 1.2.0
- Přidáno importlib_resources 6.4.0
- Přidán Inflect 7.3.1
- Přidáno jaraco.context 5.3.0.
- Přidán jaraco.functools 4.0.1
- Přidáno jaraco.text 3.12.1
- Přidáno more-itertools 10.3.0
- Přidání pip 24.2
- Přidáno setuptools 74.0.0
- Přidáno tomli 2.0.1
- Byl přidán typeguard 4.3.0
- Přidáno wcwidth 0.2.5
- Přidáno kolečko 0.43.0
- Odebrání distribuce 1.9.0
- Odebrání informací o distribuci 1.7+build1
- Odebrání python-apt 2.7.7+ubuntu4
- Aktualizace knihoven Java:
- com.github.fommil.netlib.native_ref-java od 1.1, 1.1-natives do 1.1, 1.1
- com.github.fommil.netlib.native_system-java od 1.1, 1.1-natives do 1.1, 1.1
- com.github.fommil.netlib.netlib-native_ref-linux-x86_64 od 1.1 do 1.1
- com.github.fommil.netlib.netlib-native_system-linux-x86_64 z nativních verzí 1.1 na verzi 1.1
- io.netty.netty-tcnative-boringssl-static from 2.0.61.Final-db-r16, 2.0.61.Final-db-r16-linux-aarch_64, 2.0.61.Final-db-r16-linux-x86_64, 2.0.61.Final-db-r16-osx-aarch_64, 2.0.61.Final-db-r16-osx-x86_64, 2.0.61.Final-db-r16-windows-x86_64 až 2.0.61.Final-db-r16, 2.0.61.Final-db-r16, 2.0.61.Final-db-r16, 2.0.61.Final-db-r16, 2.0.61.Final-db-r16, 2.0.61.Final-db-r16
- io.netty.netty-transport-native-epoll od 4.1.108.Final, 4.1.108.Final-linux-aarch_64, 4.1.108.Final-linux-riscv64, 4.1.108.Final-linux-x86_64 až 4.1.108.Final, 4.1.108.Final, 4.1.108.Final, 4.1.108.Final
- io.netty.netty-transport-native-kqueue z verze 4.1.108.Final-osx-aarch_64, 4.1.108.Final-osx-x86_64 na verzi 4.1.108.Final, 4.1.108.Final
- org.apache.orc.orc-core od 1.9.2-shaded-protobuf do 1.9.2
- org.apache.orc.orc-mapreduce z verze 1.9.2-shaded-protobuf na verzi 1.9.2
- software.amazon.cryptools.AmazonCorrettoCryptoProvider z verze 2.4.1-linux-x86_64 na 2.4.1
- [SPARK-52159][SQL] Správně zpracujte kontrolu existence tabulek u dialektů jdbc
- Aktualizace zabezpečení operačního systému.
- Aktualizované knihovny Python:
- 20. května 2025
- Aktualizace knihoven Java:
- io.delta.delta-sharing-client_2.12 od 1.2.5 do 1.2.7
- org.apache.avro.avro od 1.11.3 do 1.11.4
- org.apache.avro.avro-ipc od 1.11.3 do 1.11.4
- org.apache.avro.avro-mapred od 1.11.3 do 1.11.4
- Klonovaná streamovací relace bude použita uvnitř uživatelské funkce foreachBatch ve sdílených clusterech/serverless. To odpovídá chování v klasických (přiřazených klastrech).
- Před touto změnou byly ve výrazu
variant_getignorovány úvodní prázdné znaky a tabulátory v cestách, když byl Photon zakázán. Napříkladselect variant_get(parse_json('{"key": "value"}'), '$['key']')by nebyl efektivní při extrahování hodnoty"key". Uživatelé ale teď budou moct tyto klíče extrahovat. - [SPARK-51935][SQL] Oprava opožděného chování iterátorů v interpretované df.collect()
- Aktualizace zabezpečení operačního systému.
- Aktualizace knihoven Java:
- 22. dubna 2025
- Vrátit zpět "[SPARK-47895][SQL] seskupení podle aliasu by mělo být idempotentní" ve verzích 15.4, 16.0, 16.1, 16.2 a 16.3
- [SPARK-50682][SQL] Vnitřní alias by měl být kanonický.
- [SPARK-51717][SS][RocksDB] Oprava poškození neshody SST, ke kterému může dojít u druhého snímku vytvořeného pro nový dotaz
- Aktualizace zabezpečení operačního systému.
- 9. dubna 2025
- Aktualizace knihoven Java:
- Odstraněno io.starburst.openjson.openjson 1.8-e.12
- Odstraněno io.starburst.openx.data.json-serde 1.3.9-e.12
- Odstraněno io.starburst.openx.data.json-serde-generic-shim 1.3.9-e.12
- [SPARK-51505][SQL] Zaznamenat metriky počtu prázdných oddílů v AQE coalesce
- [SPARK-51624][SQL] Šíření metadat GetStructField v CreateNamedStruct.dataType
- [SPARK-47895][SQL] seskupení podle aliasu by mělo být idempotentní
- Aktualizace zabezpečení operačního systému.
- Aktualizace knihoven Java:
- 11. března 2025
- Databricks Runtime 14.3 LTS a vyšší zahrnují opravu problému, který způsoboval binární nekompatibilitu s kódem, který vytvořil instanci
SparkListenerApplicationEndtřídy a byl zkompilován proti Apache Sparku. Tato nekompatibilitu způsobila sloučení SPARK-46399 do Apache Sparku. Toto sloučení zahrnovalo změnu, která do konstruktoruSparkListenerApplicationEndpřidala výchozí argument. Chcete-li obnovit binární kompatibilitu, tato oprava přidá do třídySparkListenerApplicationEndjeden konstruktor argumentu. - [SPARK-51084][SQL] Přiřaďte odpovídající třídu chyb pro negativeScaleNotAllowedError
- Vrátit [SPARK-48273][SQL] Opravit opožděné přepsání PlanWithUnresolvedIdentifier
- [SPARK-51222][SQL] Optimalizujte ReplaceCurrentLike
- [SPARK-50985][SS] Klasifikujte chybu v nesouladu časových razítek v Kafka místo tvrzení a vyvolání chyby kvůli chybějícímu serveru v KafkaTokenProvider.
- [SPARK-50791][SQL] Oprava chyby NPE při zpracování chyb v úložišti stavů
- Aktualizace zabezpečení operačního systému.
- Databricks Runtime 14.3 LTS a vyšší zahrnují opravu problému, který způsoboval binární nekompatibilitu s kódem, který vytvořil instanci
- 11. února 2025
- Tato verze obsahuje opravu problému, který má vliv na převod určitých datových typů při serializaci zachráněných datových sloupců XML. Ovlivněné datové typy jsou kalendářní data, jiná než NTZ časová razítka a desetinná místa, pokud je povolená
prefersDecimal. Další informace o záchraně datového sloupce najdete v tématu Co je záchranný datový sloupec?. - [SPARK-50492][SS] Oprava java.util.NoSuchElementException při odstranění sloupce času události po dropDuplicatesWithinWatermark
- Aktualizace zabezpečení operačního systému.
- Tato verze obsahuje opravu problému, který má vliv na převod určitých datových typů při serializaci zachráněných datových sloupců XML. Ovlivněné datové typy jsou kalendářní data, jiná než NTZ časová razítka a desetinná místa, pokud je povolená
- 27. listopadu 2024
- Tato verze obsahuje opravu problému, který může způsobit odstranění primárního klíče v tabulce Delta v určitých hraničních případech souvisejících s automatickou komprimací na pozadí.
- Tato verze obsahuje opravu problému, který má vliv na převod určitých datových typů při serializaci zachráněných datových sloupců XML. Ovlivněné datové typy jsou kalendářní data, jiná než NTZ časová razítka a desetinná místa, pokud je povolená
prefersDecimal. Další informace o záchraně datového sloupce najdete v tématu Co je záchranný datový sloupec?. - U této verze se velikost mezipaměti používané SSD ve výpočetním uzlu Databricks dynamicky rozšiřuje na počáteční velikost SSD a v případě potřeby se zmenšuje až na limit
spark.databricks.io.cache.maxDiskUsage. Viz Optimalizace výkonu pomocí cachování na Azure Databricks. - [SPARK-50338][CORE] Udělat výjimky LazyTry méně rozsáhlé
- Aktualizace zabezpečení operačního systému.
Databricks Runtime 16.0
Podívejte se na Databricks Runtime 16.0 (EoS).
- 22. dubna 2025
- Vrátit zpět "[SPARK-47895][SQL] seskupení podle aliasu by mělo být idempotentní" ve verzích 15.4, 16.0, 16.1, 16.2 a 16.3
- Aktualizace zabezpečení operačního systému.
- 9. dubna 2025
- Aktualizace knihoven Java:
- Odstraněno io.starburst.openjson.openjson 1.8-e.12
- Odstraněno io.starburst.openx.data.json-serde 1.3.9-e.12
- Odstraněno io.starburst.openx.data.json-serde-generic-shim 1.3.9-e.12
- [SPARK-47895][SQL] seskupení podle aliasu by mělo být idempotentní
- [SPARK-51624][SQL] Šíření metadat GetStructField v CreateNamedStruct.dataType
- Aktualizace zabezpečení operačního systému.
- Aktualizace knihoven Java:
- 11. března 2025
- Databricks Runtime 14.3 a novější obsahují opravu problému, který způsoboval binární nekompatibilitu s kódem, který vytvořil instanci třídy
SparkListenerApplicationEnda zkompiloval se proti Apache Sparku. Tato nekompatibilitu způsobila sloučení SPARK-46399 do Apache Sparku. Toto sloučení zahrnovalo změnu, která do konstruktoruSparkListenerApplicationEndpřidala výchozí argument. Chcete-li obnovit binární kompatibilitu, tato oprava přidá do třídySparkListenerApplicationEndjeden konstruktor argumentu. - [SPARK-51084][SQL] Přiřaďte odpovídající třídu chyb pro negativeScaleNotAllowedError
- [SPARK-51222][SQL] Optimalizujte ReplaceCurrentLike
- [SPARK-50985][SS] Klasifikujte chybu v nesouladu časových razítek v Kafka místo tvrzení a vyvolání chyby kvůli chybějícímu serveru v KafkaTokenProvider.
- [SPARK-50791][SQL] Oprava chyby NPE při zpracování chyb v úložišti stavů
- Aktualizace zabezpečení operačního systému.
- Databricks Runtime 14.3 a novější obsahují opravu problému, který způsoboval binární nekompatibilitu s kódem, který vytvořil instanci třídy
- 11. února 2025
- Tato verze obsahuje opravu problému, který má vliv na převod určitých datových typů při serializaci zachráněných datových sloupců XML. Ovlivněné datové typy jsou kalendářní data, jiná než NTZ časová razítka a desetinná místa, pokud je povolená
prefersDecimal. Další informace o záchraně datového sloupce najdete v tématu Co je záchranný datový sloupec?. -
[SPARK-50705][SQL] Nastavení
QueryPlanbez uzamčení - [SPARK-50492][SS] Oprava java.util.NoSuchElementException při odstranění sloupce času události po dropDuplicatesWithinWatermark
- Aktualizace zabezpečení operačního systému.
- Tato verze obsahuje opravu problému, který má vliv na převod určitých datových typů při serializaci zachráněných datových sloupců XML. Ovlivněné datové typy jsou kalendářní data, jiná než NTZ časová razítka a desetinná místa, pokud je povolená
- 4. prosince 2024
- Příkaz
USE CATALOGteď podporuje klauzuliIDENTIFIER. S touto podporou můžete parametrizovat aktuální katalog na základě řetězcové proměnné nebo značky parametru. - Tato verze obsahuje opravu problému, který může způsobit odstranění primárního klíče v tabulce Delta v určitých hraničních případech souvisejících s automatickou komprimací na pozadí.
- U této verze se velikost mezipaměti používané SSD ve výpočetním uzlu Databricks dynamicky rozšiřuje na počáteční velikost SSD a v případě potřeby se zmenšuje až na limit
spark.databricks.io.cache.maxDiskUsage. Viz Optimalizace výkonu pomocí cachování na Azure Databricks. - [SPARK-50322][SQL] Oprava parametrizovaného identifikátoru v dílčím dotazu
-
[SPARK-50034][CORE] Oprava chybného ohlašování fatálních chyb jako nepodchycených výjimek v
SparkUncaughtExceptionHandler - [SPARK-47435][SQL] Oprava problému s přetečením MySQL UNSIGNED TINYINT
- [SPARK-49757][SQL] Podpora výrazu IDENTIFIER v příkazu SETCATALOG
- [SPARK-50426][PYTHON] Vyhněte se vyhledávání statických zdrojů dat Python při použití předdefinovaných nebo Java zdrojů dat
- [SPARK-50338][CORE] Udělat výjimky LazyTry méně rozsáhlé
- Aktualizace zabezpečení operačního systému.
- Příkaz
- 10. prosince 2024
- (Zásadní změna) Ve službě Databricks Runtime 15.4 a vyšší se aktualizuje zpracování regulárních výrazů ve Photonu tak, aby odpovídalo chování zpracování regulárních výrazů Apache Sparku. Dříve funkce regulárních výrazů spouštěné společností Photon, například
split()aregexp_extract(), přijali některé regulární výrazy odmítnuté analyzátorem Sparku. Kvůli zachování konzistence s Apache Sparkem teď dotazy Photon pro regulární výrazy, které Spark považuje za neplatné, selžou. Kvůli této změně se můžou zobrazit chyby, pokud kód Sparku obsahuje neplatné regulární výrazy. Například výrazsplit(str_col, '{'), který obsahuje neuzavřenou složenou závorku a byl dříve přijat systémem Photon, nyní selže. Pokud chcete tento výraz opravit, můžete zrušit speciální význam znaku složené závorky:split(str_col, '\\{'). Chování Photon a Spark se také liší u některých regulárních výrazů odpovídajících ne-ASCII znakům. Aktualizuje se také tak, aby Photon odpovídal chování Apache Sparku. - V této verzi teď můžete dotazovat funkci
vector_searchpomocíquery_textpro textové zadání neboquery_vectorpro vkládání vstupu. - Teď můžete nastavit časový limit pro dotazy Spark Connect pomocí vlastnosti konfigurace Sparku
spark.databricks.execution.timeout. U poznámkových bloků, které běží na bezserverových výpočetních prostředcích, je výchozí hodnota9000(sekundy). Úlohy spuštěné na bezserverových výpočetních prostředcích a výpočetních prostředcích se standardním režimem přístupu nemají časový limit, pokud není nastavena tato vlastnost konfigurace. Spuštění, které trvá déle než zadaný časový limit, způsobí chybuQUERY_EXECUTION_TIMEOUT_EXCEEDED. - [SPARK-49843][SQL] Oprava změny komentáře u sloupců typu char/varchar
-
[SPARK-49924][SQL] Zachovat
containsNullpo nahrazeníArrayCompact - [SPARK-49782][SQL] Pravidlo ResolveDataFrameDropColumns řeší UnresolvedAttribute s podřízeným výstupem.
- [SPARK-48780][SQL] Zobecnit chyby v NamedParametersSupport pro lepší zpracování funkcí a procedur
- [SPARK-49876][CONNECT] Zbavte se globálních zámků ze služby Spark Connect
- [SPARK-49905] Použít vyhrazený ShuffleOrigin pro stavový operátor, aby se zabránilo úpravám náhodného prohazování z AQE
- [SPARK-49615] Oprava chyby: Ověření schématu sloupce ML odpovídá konfiguraci Sparku spark.sql.caseSensitive
- [SPARK-48782][SQL] Přidání podpory pro provádění procedur v katalogech
- [SPARK-49863][SQL] Oprava NormalizeFloatingNumbers za účelem zachování nulovatelnosti vnořených struktur
- [SPARK-49829] Úprava optimalizace přidávání vstupu do úložiště stavů ve spojení stream-stream (oprava správnosti)
- Vrátit "[SPARK-49002][SQL] Konzistentně zpracovávat neplatná umístění ve WAREHOUSE/SCHEMA/TABLE/PARTITION/DIRECTORY"
- [SPARK-50028][CONNECT] Nahrazení globálních zámků ve službě naslouchání serveru Spark Connect pomocí jemně definovaných zámků
- [SPARK-49615] [ML] Umožňuje, aby ověření schématu datové sady transformátorů funkcí ML odpovídalo konfiguraci spark.sql.caseSensitive.
- [SPARK-50124][SQL] LIMIT/OFFSET měl by zachovat řazení dat.
- Aktualizace zabezpečení operačního systému.
- (Zásadní změna) Ve službě Databricks Runtime 15.4 a vyšší se aktualizuje zpracování regulárních výrazů ve Photonu tak, aby odpovídalo chování zpracování regulárních výrazů Apache Sparku. Dříve funkce regulárních výrazů spouštěné společností Photon, například
Databricks Runtime 15.3
Vizte Databricks Runtime 15.3 (EoS).
- 26. listopadu 2024
- V této verzi teď můžete dotazovat funkci
vector_searchpomocíquery_textpro textové zadání neboquery_vectorpro vkládání vstupu. - Aktualizace zabezpečení operačního systému.
- V této verzi teď můžete dotazovat funkci
- 5. listopadu 2024
- [SPARK-49905] Použít vyhrazený ShuffleOrigin pro stavový operátor, aby se zabránilo úpravám náhodného prohazování z AQE
- [SPARK-49867][SQL] Vylepšena chybová zpráva, když je index při volání GetColumnByOrdinal mimo povolený rozsah
- [SPARK-48843][15.3,15.2] Zabránění nekonečné smyčce pomocí BindParameters
- [SPARK-49829] Úprava optimalizace přidávání vstupu do úložiště stavů ve spojení stream-stream (oprava správnosti)
- [SPARK-49863][SQL] Oprava NormalizeFloatingNumbers za účelem zachování nulovatelnosti vnořených struktur
- [SPARK-49782][SQL] Pravidlo ResolveDataFrameDropColumns řeší UnresolvedAttribute s podřízeným výstupem.
- [SPARK-46632][SQL] Oprava odstranění dílčího výrazu, pokud ekvivalentní ternární výrazy mají různé potomky
- Aktualizace zabezpečení operačního systému.
- 22. října 2024
- [SPARK-49905] Použít vyhrazený ShuffleOrigin pro stavový operátor, aby se zabránilo úpravám náhodného prohazování z AQE
- [SPARK-49867][SQL] Vylepšena chybová zpráva, když je index při volání GetColumnByOrdinal mimo povolený rozsah
- [SPARK-48843][15.3,15.2] Zabránění nekonečné smyčce pomocí BindParameters
- [SPARK-49829] Úprava optimalizace přidávání vstupu do úložiště stavů ve spojení stream-stream (oprava správnosti)
- [SPARK-49863][SQL] Oprava NormalizeFloatingNumbers za účelem zachování nulovatelnosti vnořených struktur
- [SPARK-49782][SQL] Pravidlo ResolveDataFrameDropColumns řeší UnresolvedAttribute s podřízeným výstupem.
- [SPARK-46632][SQL] Oprava odstranění dílčího výrazu, pokud ekvivalentní ternární výrazy mají různé potomky
- Aktualizace zabezpečení operačního systému.
- 10. října 2024
- [SPARK-49688][CONNECT] Oprava datového závodu mezi přerušením a plánem spuštění
- [SPARK-49743][SQL] OptimizeCsvJsonExpr by neměl při vyřazování polí schématu GetArrayStructFields měnit.
- [BACKPORT] [SPARK-49474][SS] Klasifikace třídy chyb pro chybu uživatelské funkce flatMapGroupsWithState
- Aktualizace zabezpečení operačního systému.
- 25. září 2024
- [SPARK-49492][CONNECT] Pokus o opětovné připojení k neaktivnímu executionHolderu
- [SPARK-49628][SQL] Funkce ConstantFolding by měla před vyhodnocením zkopírovat stavový výraz.
- [SPARK-49000][SQL] Oprava „select count(distinct 1) from t“, kde t je prázdná tabulka, rozšířením RewriteDistinctAggregates.
- [SPARK-49458][CONNECT][PYTHON] Zadejte ID relace na straně serveru prostřednictvím příkazu ReattachExecute
-
[SPARK-48719][SQL] Oprava chyby výpočtu
RegrSlope&RegrIntercept, když má první parametr hodnotu null - Aktualizace zabezpečení operačního systému.
- 17. září 2024
- [SPARK-49336][CONNECT] Omezení vnořovací úrovně při zkracování zprávy protobuf
- [SPARK-49526][CONNECT][15.3.5] Podpora cest ve stylu Windows v ArtifactManageru
- [SPARK-49366][CONNECT] Považuje uzel Union za list při rozlišení sloupců datového rámce.
- [SPARK-43242][CORE] Oprava chyby způsobující vyvolání 'Neočekávaný typ BlockId' při diagnostice poškození při míchání dat.
- [SPARK-49409][CONNECT] Upravte výchozí hodnotu CONNECT_SESSION_PLAN_CACHE_SIZE
- Aktualizace zabezpečení operačního systému.
- 29. srpna 2024
- [SPARK-49263][CONNECT] Klient Spark Connect v Pythonu: Konzistentně zpracovává logické možnosti čtečky datového rámce
- [SPARK-49056][SQL] ErrorClassesJsonReader nemůže správně zpracovat hodnotu null.
-
[SPARK-48862][PYTHON][CONNECT] Vyhněte se volání
_proto_to_string, pokud není úroveň INFO povolena - [SPARK-49146][SS] Přesunutí chyb tvrzení souvisejících s chybějícím vodoznakem v dotazech streamování v režimu připojení do chybového rámce
- 14. srpna 2024
- [SPARK-48941][SPARK-48970] Opravy zapisovače Backport ML / čtečky
- [SPARK-48706][PYTHON] Python UDF ve funkci vyššího řádu by neměly vyvolávat vnitřní chybu
- [SPARK-48954] try_mod() nahrazuje try_remainder()
- [SPARK-48597][SQL] Zavedení značky pro vlastnost isStreaming v textové reprezentaci logického plánu
- [SPARK-49065][SQL] Opětovné použití starších formátovacích nástrojů nebo analyzátorů musí podporovat jiné než výchozí časová pásma JVM.
- [SPARK-49047][PYTHON][CONNECT] Zkraťte zprávu pro protokolování
- [SPARK-48740][SQL] Včasné zjištění chyby chybějící specifikace okna
- 1. srpna 2024
- [Zásadní změna] Ve službě Databricks Runtime 15.3 a novějších vyvolá volání uživatelem definované Python funkce (UDF), uživatelem definované Python agregační funkce (UDAF) nebo uživatelem definované Python funkce tabulky (UDTF), která používá
VARIANTtyp jako argument nebo návratovou hodnotu, výjimku. Tato změna brání problémům, ke kterým může dojít kvůli neplatné hodnotě vrácené některou z těchto funkcí. Další informace oVARIANTtypu najdete v tématu Použití VARIANTs k ukládání částečně strukturovaných dat. - Na bezserverových výpočetních prostředcích pro poznámkové bloky a úlohy je ve výchozím nastavení povolený režim ANSI SQL. Viz podporované konfigurační parametry Sparku.
- Výstup příkazu
SHOW CREATE TABLEteď obsahuje všechny filtry řádků nebo masky sloupců definované v materializovaném zobrazení nebo streamovací tabulce. Viz SHOW CREATE TABLE. Další informace o filtrech řádků a maskách sloupců najdete v tématu Filtry řádků a masky sloupců. - Na výpočetních prostředcích konfigurovaných v režimu sdíleného přístupu mají dávky Kafka čtení a zápisy teď stejná omezení jako vynucovaná pro strukturované streamování. Viz omezení streamování.
- [SPARK-46957][CORE] Vyřazení migrovaných souborů shuffle z provozu by mělo být možné vyčistit z exekutoru.
- [SPARK-48648][PYTHON][CONNECT] Nastavit SparkConnectClient.tags jako správně lokální pro vlákna
- [SPARK-48896][SPARK-48909][SPARK-48883] Opravy zapisovače Spark ML backportu
- [SPARK-48713][SQL] Přidání kontroly rozsahu indexu pro UnsafeRow.pointTo, pokud je baseObject bajtové pole
- [SPARK-48834][SQL] Zákaz vstupu a výstupu variant do skalárních UDF pythonu, UDTF, UDAF během kompilace dotazů
- [SPARK-48934][SS] Python typy data a času nesprávně převedeny pro nastavení časového limitu v applyInPandasWithState
- [SPARK-48705][PYTHON] Explicitní použití worker_main při spuštění pomocí pyspark
- [SPARK-48544][SQL] Snížení zatížení paměti prázdných bitových sad TreeNode
- [SPARK-48889][SS] testStream pro uvolnění úložišť stavů před dokončením
- [SPARK-49054][SQL] Výchozí hodnota sloupce by měla podporovat funkce current_*
- [SPARK-48653][PYTHON] Oprava neplatných odkazů na třídy chyb v Python zdrojích dat
- [SPARK-48463] Udělat StringIndexer s podporou vnořených vstupních sloupců
- [SPARK-48810][CONNECT] Rozhraní API pro zastavení relace by mělo být idempotentní a pokud je relace již uzavřena serverem, nemělo by selhat.
- [SPARK-48873][SQL] Použít UnsafeRow v analyzátoru JSON.
- Aktualizace zabezpečení operačního systému.
- [Zásadní změna] Ve službě Databricks Runtime 15.3 a novějších vyvolá volání uživatelem definované Python funkce (UDF), uživatelem definované Python agregační funkce (UDAF) nebo uživatelem definované Python funkce tabulky (UDTF), která používá
- 11. července 2024
- (Změna chování) Datové rámce uložené v mezipaměti ve vztahu ke zdrojovým tabulkám Delta jsou nyní invalidovány, pokud je zdrojová tabulka přepsána. Tato změna znamená, že všechny změny stavu tabulek Delta teď zneplatní výsledky uložené v mezipaměti. Pomocí
.checkpoint()zachovají stav tabulky po celou dobu životnosti datového rámce. - Ovladač Snowflake JDBC je aktualizován na verzi 3.16.1.
- Tato verze obsahuje opravu problému, který zabránil správnému zobrazení karty Prostředí uživatelského rozhraní Sparku při spuštění ve službě Databricks Container Services.
- Pokud chcete při čtení dat ignorovat neplatné oddíly, zdroje dat založené na souborech, jako jsou Parquet, ORC, CSV nebo JSON, můžete nastavit možnost ignorovat Zdroj dat IgnoreInvalidPartitionPaths na true. Příklad: spark.read.format("parquet").option("ignoreInvalidPartitionPaths", "true").load(...)`. Můžete také použít konfiguraci SQL spark.sql.files.ignoreInvalidPartitionPaths. Možnost zdroje dat má však přednost před konfigurací SQL. Toto nastavení je standardně nepravdivé.
- [SPARK-48100][SQL] Oprava problémů při vynechání vnořených polí struktury, která nejsou vybraná ve schématu
- [SPARK-47463][SQL] Použijte V2Predicate pro zabalení výrazu s návratovým typem boolean
- [SPARK-48292][CORE] Revert [SPARK-39195][SQL] Spark OutputCommitCoordinator by měl přerušit fázi, pokud potvrzený soubor není konzistentní se stavem úkolu.
- [SPARK-48475][PYTHON] Optimalizujte _get_jvm_function v PySparku.
- [SPARK-48286] Oprava analýzy sloupce s existujícím výchozím výrazem - Přidání chyby zobrazované uživateli
- [SPARK-48481][SQL][SS] Nepoužívejte OptimalOneRowPlan pro streamovací datovou sadu.
- Vrátit zpět "[SPARK-47406][SQL] Handle TIMESTAMP and DATETIME in MYSQLDialect"
- [SPARK-48383][SS] Vyvolat jasnější chybu pro neshodující se partice v možnosti startOffset v Kafce
- [SPARK-48503][14.3-15.3][SQL] Oprava neplatných skalárních poddotazů seskupováním podle neshodných sloupců, které neměly být povoleny
- [SPARK-48445][SQL] Nezařaovávejte uživatelem definované funkce s drahými dětmi
- [SPARK-48252][SQL] Aktualizace CommonExpressionRef v případě potřeby
- [SPARK-48273][master][SQL] Oprava opožděného přepsání PlanWithUnresolvedIdentifier
- [SPARK-48566][PYTHON] Oprava chyby, kdy indexy oddílů nejsou správné, když funkce UDTF analyze() používá výběr i sloupec PartitionColumns
- [SPARK-48556][SQL] Oprava nesprávné chybové zprávy odkazující na UNSUPPORTED_GROUPING_EXPRESSION
- Aktualizace zabezpečení operačního systému.
- (Změna chování) Datové rámce uložené v mezipaměti ve vztahu ke zdrojovým tabulkám Delta jsou nyní invalidovány, pokud je zdrojová tabulka přepsána. Tato změna znamená, že všechny změny stavu tabulek Delta teď zneplatní výsledky uložené v mezipaměti. Pomocí
Databricks Runtime 15.2
Viz Databricks Runtime 15.2 (EoS).
- 26. listopadu 2024
- Aktualizace zabezpečení operačního systému.
- 5. listopadu 2024
- [SPARK-49905] Použít vyhrazený ShuffleOrigin pro stavový operátor, aby se zabránilo úpravám náhodného prohazování z AQE
- [SPARK-48843][15.3,15.2] Zabránění nekonečné smyčce pomocí BindParameters
- [SPARK-49829] Úprava optimalizace přidávání vstupu do úložiště stavů ve spojení stream-stream (oprava správnosti)
- [SPARK-49863][SQL] Oprava NormalizeFloatingNumbers za účelem zachování nulovatelnosti vnořených struktur
- [SPARK-49782][SQL] Pravidlo ResolveDataFrameDropColumns řeší UnresolvedAttribute s podřízeným výstupem.
- [SPARK-46632][SQL] Oprava odstranění dílčího výrazu, pokud ekvivalentní ternární výrazy mají různé potomky
- Aktualizace zabezpečení operačního systému.
- 22. října 2024
- [SPARK-49905] Použít vyhrazený ShuffleOrigin pro stavový operátor, aby se zabránilo úpravám náhodného prohazování z AQE
- [SPARK-48843][15.3,15.2] Zabránění nekonečné smyčce pomocí BindParameters
- [SPARK-49829] Úprava optimalizace přidávání vstupu do úložiště stavů ve spojení stream-stream (oprava správnosti)
- [SPARK-49863][SQL] Oprava NormalizeFloatingNumbers za účelem zachování nulovatelnosti vnořených struktur
- [SPARK-49782][SQL] Pravidlo ResolveDataFrameDropColumns řeší UnresolvedAttribute s podřízeným výstupem.
- [SPARK-46632][SQL] Oprava odstranění dílčího výrazu, pokud ekvivalentní ternární výrazy mají různé potomky
- Aktualizace zabezpečení operačního systému.
- 10. října 2024
- [BACKPORT] [SPARK-49474][SS] Klasifikace třídy chyb pro chybu uživatelské funkce flatMapGroupsWithState
- [SPARK-49743][SQL] OptimizeCsvJsonExpr by neměl při vyřazování polí schématu GetArrayStructFields měnit.
- [SPARK-49688][CONNECT] Oprava datového závodu mezi přerušením a plánem spuštění
- Aktualizace zabezpečení operačního systému.
- 25. září 2024
- [SPARK-49000][SQL] Oprava „select count(distinct 1) from t“, kde t je prázdná tabulka, rozšířením RewriteDistinctAggregates.
- [SPARK-48719][SQL] Oprava chyby výpočtu RegrSlope &RegrIntercept při použití prvního parametru s hodnotou null
- [SPARK-49458][CONNECT][PYTHON] Zadejte ID relace na straně serveru prostřednictvím příkazu ReattachExecute
- [SPARK-49628][SQL] Funkce ConstantFolding by měla před vyhodnocením zkopírovat stavový výraz.
- [SPARK-49492][CONNECT] Pokus o opětovné připojení k neaktivnímu executionHolderu
- Aktualizace zabezpečení operačního systému.
- 17. září 2024
- [SPARK-49336][CONNECT] Omezení vnořovací úrovně při zkracování zprávy protobuf
- [SPARK-49526][CONNECT] Podpora Windows-stylových cest v ArtifactManageru
- [SPARK-49366][CONNECT] Považuje uzel Union za list při rozlišení sloupců datového rámce.
- [SPARK-43242][CORE] Oprava chyby způsobující vyvolání 'Neočekávaný typ BlockId' při diagnostice poškození při míchání dat.
- [SPARK-49409][CONNECT] Upravte výchozí hodnotu CONNECT_SESSION_PLAN_CACHE_SIZE
- Aktualizace zabezpečení operačního systému.
- 29. srpna 2024
- [SPARK-49056][SQL] ErrorClassesJsonReader nemůže správně zpracovat hodnotu null.
- [SPARK-48597][SQL] Zavedení značky pro vlastnost isStreaming v textové reprezentaci logického plánu
-
[SPARK-48862][PYTHON][CONNECT] Vyhněte se volání
_proto_to_string, pokud není úroveň INFO povolena - [SPARK-49263][CONNECT] Klient Spark Connect v Pythonu: Konzistentně zpracovává logické možnosti čtečky datového rámce
- [SPARK-49146][SS] Přesunutí chyb tvrzení souvisejících s chybějícím vodoznakem v dotazech streamování v režimu připojení do chybového rámce
- 14. srpna 2024
- [SPARK-48941][SPARK-48970] Opravy zapisovače Backport ML / čtečky
- [SPARK-48050][SS] Zaznamenat logický plán při spuštění dotazu
- [SPARK-48706][PYTHON] Python UDF ve funkci vyššího řádu by neměly vyvolávat vnitřní chybu
- [SPARK-48740][SQL] Včasné zjištění chyby chybějící specifikace okna
- [SPARK-49065][SQL] Opětovné použití starších formátovacích nástrojů nebo analyzátorů musí podporovat jiné než výchozí časová pásma JVM.
- [SPARK-49047][PYTHON][CONNECT] Zkraťte zprávu pro protokolování
- 1. srpna 2024
- Na bezserverových výpočetních prostředcích pro poznámkové bloky a úlohy je ve výchozím nastavení povolený režim ANSI SQL. Viz podporované konfigurační parametry Sparku.
- Na výpočetních prostředcích konfigurovaných v režimu sdíleného přístupu mají dávky Kafka čtení a zápisy teď stejná omezení jako vynucovaná pro strukturované streamování. Viz omezení streamování.
- Výstup příkazu
SHOW CREATE TABLEteď obsahuje všechny filtry řádků nebo masky sloupců definované v materializovaném zobrazení nebo streamovací tabulce. Viz SHOW CREATE TABLE. Další informace o filtrech řádků a maskách sloupců najdete v tématu Filtry řádků a masky sloupců. - Na výpočetních prostředcích konfigurovaných v režimu sdíleného přístupu mají dávky Kafka čtení a zápisy teď stejná omezení jako vynucovaná pro strukturované streamování. Viz omezení streamování.
- Výstup příkazu
SHOW CREATE TABLEteď obsahuje všechny filtry řádků nebo masky sloupců definované v materializovaném zobrazení nebo streamovací tabulce. Viz SHOW CREATE TABLE. Další informace o filtrech řádků a maskách sloupců najdete v tématu Filtry řádků a masky sloupců. - [SPARK-48705][PYTHON] Explicitní použití worker_main při spuštění pomocí pyspark
- [SPARK-48047][SQL] Snížení zatížení paměti prázdných značek TreeNode
- [SPARK-48810][CONNECT] Rozhraní API pro zastavení relace by mělo být idempotentní a pokud je relace již uzavřena serverem, nemělo by selhat.
- [SPARK-48873][SQL] Použít UnsafeRow v analyzátoru JSON.
- [SPARK-46957][CORE] Vyřazení migrovaných souborů shuffle z provozu by mělo být možné vyčistit z exekutoru.
- [SPARK-48889][SS] testStream pro uvolnění úložišť stavů před dokončením
- [SPARK-48713][SQL] Přidání kontroly rozsahu indexu pro UnsafeRow.pointTo, pokud je baseObject bajtové pole
- [SPARK-48896][SPARK-48909][SPARK-48883] Opravy zapisovače Spark ML backportu
- [SPARK-48544][SQL] Snížení zatížení paměti prázdných bitových sad TreeNode
- [SPARK-48934][SS] Python typy data a času nesprávně převedeny pro nastavení časového limitu v applyInPandasWithState
- [SPARK-48463] Udělat StringIndexer s podporou vnořených vstupních sloupců
- Aktualizace zabezpečení operačního systému.
- 11. července 2024
- (Změna chování) Datové rámce uložené v mezipaměti ve vztahu ke zdrojovým tabulkám Delta jsou nyní invalidovány, pokud je zdrojová tabulka přepsána. Tato změna znamená, že všechny změny stavu tabulek Delta teď zneplatní výsledky uložené v mezipaměti. Pomocí
.checkpoint()zachovají stav tabulky po celou dobu životnosti datového rámce. - Ovladač Snowflake JDBC je aktualizován na verzi 3.16.1.
- Tato verze obsahuje opravu problému, který zabránil správnému zobrazení karty Prostředí uživatelského rozhraní Sparku při spuštění ve službě Databricks Container Services.
- V bezserverových poznámkových blocích a úlohách bude režim ANSI SQL ve výchozím nastavení povolený a podporuje krátké názvy.
- Pokud chcete při čtení dat ignorovat neplatné oddíly, zdroje dat založené na souborech, jako jsou Parquet, ORC, CSV nebo JSON, můžete nastavit možnost ignorovat Zdroj dat IgnoreInvalidPartitionPaths na true. Příklad: spark.read.format("parquet").option("ignoreInvalidPartitionPaths", "true").load(...)`. Můžete také použít konfiguraci SQL spark.sql.files.ignoreInvalidPartitionPaths. Možnost zdroje dat má však přednost před konfigurací SQL. Toto nastavení je standardně nepravdivé.
- [SPARK-48273][SQL] Oprava opožděného přepsání PlanWithUnresolvedIdentifier
- [SPARK-48292][CORE] Revert [SPARK-39195][SQL] Spark OutputCommitCoordinator by měl přerušit fázi, pokud potvrzený soubor není konzistentní se stavem úkolu.
- [SPARK-48100][SQL] Oprava problémů při vynechání vnořených polí struktury, která nejsou vybraná ve schématu
- [SPARK-48286] Oprava analýzy sloupce s existujícím výchozím výrazem - Přidání chyby zobrazované uživateli
- [SPARK-48294][SQL] Zpracování malých písmen ve funkci nestedTypeMissingElementTypeError
- [SPARK-48556][SQL] Oprava nesprávné chybové zprávy odkazující na UNSUPPORTED_GROUPING_EXPRESSION
- [SPARK-48648][PYTHON][CONNECT] Nastavit SparkConnectClient.tags jako správně lokální pro vlákna
- [SPARK-48503][SQL] Oprava neplatných skalárních poddotazů při skupinováním podle sloupců, které nejsou ekvivalentní a byly nesprávně povoleny.
- [SPARK-48252][SQL] Aktualizace CommonExpressionRef v případě potřeby
- [SPARK-48475][PYTHON] Optimalizujte _get_jvm_function v PySparku.
- [SPARK-48566][PYTHON] Oprava chyby, kdy indexy oddílů nejsou správné, když funkce UDTF analyze() používá výběr i sloupec PartitionColumns
- [SPARK-48481][SQL][SS] Nepoužívejte OptimalOneRowPlan pro streamovací datovou sadu.
- [SPARK-47463][SQL] Použijte V2Predicate pro zabalení výrazu s návratovým typem boolean
- [SPARK-48383][SS] Vyvolat jasnější chybu pro neshodující se partice v možnosti startOffset v Kafce
- [SPARK-48445][SQL] Nezařaovávejte uživatelem definované funkce s drahými dětmi
- Aktualizace zabezpečení operačního systému.
- (Změna chování) Datové rámce uložené v mezipaměti ve vztahu ke zdrojovým tabulkám Delta jsou nyní invalidovány, pokud je zdrojová tabulka přepsána. Tato změna znamená, že všechny změny stavu tabulek Delta teď zneplatní výsledky uložené v mezipaměti. Pomocí
- 17. června 2024
-
applyInPandasWithState()je k dispozici ve sdílených clusterech. - Opravili jsme chybu, kdy optimalizace pořadí oken pomocí sady Photon TopK nesprávně zpracovávala oddíly s strukturami.
- Opravili jsme chybu ve funkci try_divide(), kdy vstupy obsahující desetinné čárky způsobily neočekávané výjimky.
- [SPARK-48197][SQL] Vyhněte se chybě assert pro neplatnou funkci lambda.
-
[SPARK-48276][PYTHON][CONNECT] Přidejte chybějící
__repr__metodu proSQLExpression - [SPARK-48014][SQL] Změna chyby makeFromJava v EvaluatePython na chybu zobrazenou uživateli
- [SPARK-48016][SQL] Oprava chyby ve funkci try_divide při desetinných číslech
- [SPARK-47986][CONNECT][PYTHON] Nelze vytvořit novou relaci, pokud je výchozí relace uzavřena serverem.
- [SPARK-48173][SQL] CheckAnalysis by měla vidět celý plán dotazu.
- [SPARK-48056][CONNECT][PYTHON] Opětovné spuštění plánu, pokud se vyvolá chyba SESSION_NOT_FOUND a nebyla přijata žádná částečná odpověď
- [SPARK-48172][SQL] Oprava problémů s únikem dat v backportu JDBCDialects na verzi 15.2
- [SPARK-48105][SS] Oprava souběhu mezi uvolněním úložiště stavu a pořizováním snímků
- [SPARK-48288] Přidat datový typ zdroje pro výrazy převodu v konektoru
- [SPARK-48310][PYTHON][CONNECT] Vlastnosti uložené v mezipaměti musí vracet kopie.
- [SPARK-48277] Zlepšení chybové zprávy pro ErrorClassesJsonReader.getErrorMessage
- [SPARK-47986][CONNECT][PYTHON] Nelze vytvořit novou relaci, pokud je výchozí relace uzavřena serverem.
- Vrátit zpět "[SPARK-47406][SQL] Handle TIMESTAMP and DATETIME in MYSQLDialect"
- [SPARK-47994][SQL] Oprava chyby s prosazováním filtrování sloupců CASE WHEN v SQLServeru
- [SPARK-47764][CORE][SQL] Vyčištění závislostí shuffle založených na ShuffleCleanupMode
- [SPARK-47921][CONNECT] Oprava vytvoření příkazu ExecuteJobTag v nástroji ExecuteHolder
- [SPARK-48010][SQL] Vyhněte se opakovaným voláním conf.resolver v resolveExpression
- [SPARK-48146][SQL] Oprava agregační funkce v rámci kontrolního výrazu With pro podřízené výrazy
- [SPARK-48180][SQL] Zlepšení chyby, když volání UDTF s TABLE argumentem zapomene závorky kolem více PARTITION nebo ORDER BY výrazů
- Aktualizace zabezpečení operačního systému.
-
Databricks Runtime 15.1
Viz Databricks Runtime 15.1 (EoS).
- 22. října 2024
- [SPARK-49863][SQL] Oprava NormalizeFloatingNumbers za účelem zachování nulovatelnosti vnořených struktur
- [SPARK-46632][SQL] Oprava odstranění dílčího výrazu, pokud ekvivalentní ternární výrazy mají různé potomky
- [SPARK-49782][SQL] Pravidlo ResolveDataFrameDropColumns řeší UnresolvedAttribute s podřízeným výstupem.
- [SPARK-49905] Použít vyhrazený ShuffleOrigin pro stavový operátor, aby se zabránilo úpravám náhodného prohazování z AQE
- [SPARK-49829] Úprava optimalizace přidávání vstupu do úložiště stavů ve spojení stream-stream (oprava správnosti)
- Aktualizace zabezpečení operačního systému.
- 10. října 2024
- [SPARK-49688][CONNECT] Oprava datového závodu mezi přerušením a plánem spuštění
- [SPARK-49743][SQL] OptimizeCsvJsonExpr by neměl při vyřazování polí schématu GetArrayStructFields měnit.
- [BACKPORT] [SPARK-49474][SS] Klasifikace třídy chyb pro chybu uživatelské funkce flatMapGroupsWithState
- Aktualizace zabezpečení operačního systému.
- 25. září 2024
- [SPARK-49628][SQL] Funkce ConstantFolding by měla před vyhodnocením zkopírovat stavový výraz.
- [SPARK-48719][SQL] Oprava chyby výpočtu RegrSlope &RegrIntercept při použití prvního parametru s hodnotou null
- [SPARK-49492][CONNECT] Pokus o opětovné připojení k neaktivnímu executionHolderu
- [SPARK-49000][SQL] Oprava „select count(distinct 1) from t“, kde t je prázdná tabulka, rozšířením RewriteDistinctAggregates.
- [SPARK-49458][CONNECT][PYTHON] Zadejte ID relace na straně serveru prostřednictvím příkazu ReattachExecute
- Aktualizace zabezpečení operačního systému.
- 17. září 2024
- [SPARK-49336][CONNECT] Omezení vnořovací úrovně při zkracování zprávy protobuf
- [SPARK-49526][CONNECT] Podpora Windows-stylových cest v ArtifactManageru
- [SPARK-49409][CONNECT] Upravte výchozí hodnotu CONNECT_SESSION_PLAN_CACHE_SIZE
- [SPARK-43242][CORE] Oprava chyby způsobující vyvolání 'Neočekávaný typ BlockId' při diagnostice poškození při míchání dat.
- [SPARK-49366][CONNECT] Považuje uzel Union za list při rozlišení sloupců datového rámce.
- 29. srpna 2024
- [SPARK-49263][CONNECT] Klient Spark Connect v Pythonu: Konzistentně zpracovává logické možnosti čtečky datového rámce
- [SPARK-49056][SQL] ErrorClassesJsonReader nemůže správně zpracovat hodnotu null.
-
[SPARK-48862][PYTHON][CONNECT] Vyhněte se volání
_proto_to_string, pokud není úroveň INFO povolena - [SPARK-49146][SS] Přesunutí chyb tvrzení souvisejících s chybějícím vodoznakem v dotazech streamování v režimu připojení do chybového rámce
- 14. srpna 2024
- [SPARK-48941][SPARK-48970] Opravy zapisovače Backport ML / čtečky
- [SPARK-48050][SS] Zaznamenat logický plán při spuštění dotazu
- [SPARK-48706][PYTHON] Python UDF ve funkci vyššího řádu by neměly vyvolávat vnitřní chybu
- [SPARK-48597][SQL] Zavedení značky pro vlastnost isStreaming v textové reprezentaci logického plánu
- [SPARK-49065][SQL] Opětovné použití starších formátovacích nástrojů nebo analyzátorů musí podporovat jiné než výchozí časová pásma JVM.
- [SPARK-49047][PYTHON][CONNECT] Zkraťte zprávu pro protokolování
- [SPARK-48740][SQL] Včasné zjištění chyby chybějící specifikace okna
- 1. srpna 2024
- Na bezserverových výpočetních prostředcích pro poznámkové bloky a úlohy je ve výchozím nastavení povolený režim ANSI SQL. Viz podporované konfigurační parametry Sparku.
- Na výpočetních prostředcích konfigurovaných v režimu sdíleného přístupu mají dávky Kafka čtení a zápisy teď stejná omezení jako vynucovaná pro strukturované streamování. Viz omezení streamování.
- Výstup příkazu
SHOW CREATE TABLEteď obsahuje všechny filtry řádků nebo masky sloupců definované v materializovaném zobrazení nebo streamovací tabulce. Viz SHOW CREATE TABLE. Další informace o filtrech řádků a maskách sloupců najdete v tématu Filtry řádků a masky sloupců. - Na výpočetních prostředcích konfigurovaných v režimu sdíleného přístupu mají dávky Kafka čtení a zápisy teď stejná omezení jako vynucovaná pro strukturované streamování. Viz omezení streamování.
- Výstup příkazu
SHOW CREATE TABLEteď obsahuje všechny filtry řádků nebo masky sloupců definované v materializovaném zobrazení nebo streamovací tabulce. Viz SHOW CREATE TABLE. Další informace o filtrech řádků a maskách sloupců najdete v tématu Filtry řádků a masky sloupců. - [SPARK-48544][SQL] Snížení zatížení paměti prázdných bitových sad TreeNode
- [SPARK-46957][CORE] Vyřazení migrovaných souborů shuffle z provozu by mělo být možné vyčistit z exekutoru.
- [SPARK-47202][PYTHON] Oprava překlepu způsobující chybu v datových časech pomocí tzinfo
- [SPARK-48713][SQL] Přidání kontroly rozsahu indexu pro UnsafeRow.pointTo, pokud je baseObject bajtové pole
- [SPARK-48896][SPARK-48909][SPARK-48883] Opravy zapisovače Spark ML backportu
- [SPARK-48810][CONNECT] Rozhraní API pro zastavení relace by mělo být idempotentní a pokud je relace již uzavřena serverem, nemělo by selhat.
- [SPARK-48873][SQL] Použít UnsafeRow v analyzátoru JSON.
- [SPARK-48934][SS] Python typy data a času nesprávně převedeny pro nastavení časového limitu v applyInPandasWithState
- [SPARK-48705][PYTHON] Explicitní použití worker_main při spuštění pomocí pyspark
- [SPARK-48889][SS] testStream pro uvolnění úložišť stavů před dokončením
- [SPARK-48047][SQL] Snížení zatížení paměti prázdných značek TreeNode
- [SPARK-48463] Udělat StringIndexer s podporou vnořených vstupních sloupců
- Aktualizace zabezpečení operačního systému.
- 11. července 2024
- (Změna chování) Datové rámce uložené v mezipaměti ve vztahu ke zdrojovým tabulkám Delta jsou nyní invalidovány, pokud je zdrojová tabulka přepsána. Tato změna znamená, že všechny změny stavu tabulek Delta teď zneplatní výsledky uložené v mezipaměti. Pomocí
.checkpoint()zachovají stav tabulky po celou dobu životnosti datového rámce. - Ovladač Snowflake JDBC je aktualizován na verzi 3.16.1.
- Tato verze obsahuje opravu problému, který zabránil správnému zobrazení karty Prostředí uživatelského rozhraní Sparku při spuštění ve službě Databricks Container Services.
- Na bezserverových výpočetních prostředcích pro poznámkové bloky a úlohy je ve výchozím nastavení povolený režim ANSI SQL. Viz podporované konfigurační parametry Sparku.
- Pokud chcete při čtení dat ignorovat neplatné oddíly, zdroje dat založené na souborech, jako jsou Parquet, ORC, CSV nebo JSON, můžete nastavit možnost ignorovat Zdroj dat IgnoreInvalidPartitionPaths na true. Příklad: spark.read.format("parquet").option("ignoreInvalidPartitionPaths", "true").load(...)`. Můžete také použít konfiguraci SQL spark.sql.files.ignoreInvalidPartitionPaths. Možnost zdroje dat má však přednost před konfigurací SQL. Toto nastavení je standardně nepravdivé.
- [SPARK-48383][SS] Vyvolat jasnější chybu pro neshodující se partice v možnosti startOffset v Kafce
- [SPARK-48481][SQL][SS] Nepoužívejte OptimalOneRowPlan pro streamovací datovou sadu.
- [SPARK-48100][SQL] Oprava problémů při vynechání vnořených polí struktury, která nejsou vybraná ve schématu
- [SPARK-47463][SQL] Použijte V2Predicate pro zabalení výrazu s návratovým typem boolean
- [SPARK-48445][SQL] Nezařaovávejte uživatelem definované funkce s drahými dětmi
- [SPARK-48292][CORE] Revert [SPARK-39195][SQL] Spark OutputCommitCoordinator by měl přerušit fázi, pokud potvrzený soubor není konzistentní se stavem úkolu.
- [SPARK-48566][PYTHON] Oprava chyby, kdy indexy oddílů nejsou správné, když funkce UDTF analyze() používá výběr i sloupec PartitionColumns
- [SPARK-48648][PYTHON][CONNECT] Nastavit SparkConnectClient.tags jako správně lokální pro vlákna
- [SPARK-48503][SQL] Oprava neplatných skalárních poddotazů při skupinováním podle sloupců, které nejsou ekvivalentní a byly nesprávně povoleny.
- [SPARK-48252][SQL] Aktualizace CommonExpressionRef v případě potřeby
- [SPARK-48475][PYTHON] Optimalizujte _get_jvm_function v PySparku.
- [SPARK-48294][SQL] Zpracování malých písmen ve funkci nestedTypeMissingElementTypeError
- [SPARK-48286] Oprava analýzy sloupce s existujícím výchozím výrazem - Přidání chyby zobrazované uživateli
- [SPARK-47309][SQL] XML: Přidání testů odvozování schématu pro značky hodnot
- [SPARK-47309][SQL][XML] Přidání testů jednotek odvození schématu
- [SPARK-48273][SQL] Oprava opožděného přepsání PlanWithUnresolvedIdentifier
- Aktualizace zabezpečení operačního systému.
- (Změna chování) Datové rámce uložené v mezipaměti ve vztahu ke zdrojovým tabulkám Delta jsou nyní invalidovány, pokud je zdrojová tabulka přepsána. Tato změna znamená, že všechny změny stavu tabulek Delta teď zneplatní výsledky uložené v mezipaměti. Pomocí
- 17. června 2024
-
applyInPandasWithState()je k dispozici ve sdílených clusterech. - Opravili jsme chybu, kdy optimalizace pořadí oken pomocí sady Photon TopK nesprávně zpracovávala oddíly s strukturami.
- [SPARK-48310][PYTHON][CONNECT] Vlastnosti uložené v mezipaměti musí vracet kopie.
-
[SPARK-48276][PYTHON][CONNECT] Přidejte chybějící
__repr__metodu proSQLExpression - [SPARK-48277] Zlepšení chybové zprávy pro ErrorClassesJsonReader.getErrorMessage
- [SPARK-47764][CORE][SQL] Vyčištění závislostí shuffle založených na ShuffleCleanupMode
- Aktualizace zabezpečení operačního systému.
-
- 21. května 2024
- Opravili jsme chybu ve funkci try_divide(), kdy vstupy obsahující desetinné čárky způsobily neočekávané výjimky.
- [SPARK-48173][SQL] CheckAnalysis by měla vidět celý plán dotazu.
- [SPARK-48016][SQL] Oprava chyby ve funkci try_divide při desetinných číslech
- [SPARK-48105][SS] Oprava souběhu mezi uvolněním úložiště stavu a pořizováním snímků
- [SPARK-48197][SQL] Vyhněte se chybě assert pro neplatnou funkci lambda.
- [SPARK-48180][SQL] Zlepšení chyby, když volání UDTF s TABLE argumentem zapomene závorky kolem více PARTITION nebo ORDER BY výrazů
- [SPARK-48014][SQL] Změna chyby makeFromJava v EvaluatePython na chybu zobrazenou uživateli
- [SPARK-48056][CONNECT][PYTHON] Opětovné spuštění plánu, pokud se vyvolá chyba SESSION_NOT_FOUND a nebyla přijata žádná částečná odpověď
- [SPARK-48146][SQL] Oprava agregační funkce v rámci kontrolního výrazu With pro podřízené výrazy
- [SPARK-47994][SQL] Oprava chyby s prosazováním filtrování sloupců CASE WHEN v SQLServeru
- Aktualizace zabezpečení operačního systému.
- 9. května 2024
- [SPARK-47543][CONNECT][PYTHON] Odvození slovníku jako MapType z Pandas DataFrame pro umožnění vytvoření datového rámce
- [SPARK-47739][SQL] Registrace logického typu avro
-
[SPARK-48044][PYTHON][CONNECT] Mezipaměť
DataFrame.isStreaming -
[SPARK-47855][CONNECT] Přidat
spark.sql.execution.arrow.pyspark.fallback.enableddo seznamu nepodporovaných - [SPARK-48010][SQL] Vyhněte se opakovaným voláním conf.resolver v resolveExpression
- [SPARK-47941] [SS] [Připojit] Šíření chyb inicializace pracovních procesů ForeachBatch uživatelům pro PySpark
- [SPARK-47819][CONNECT][Cherry-pick-15.0] Pro vyčištění provádění použijte asynchronní zpětné volání.
- [SPARK-47956][SQL] Ověření správnosti nevyřešených odkazů LCA
- [SPARK-47839][SQL] Oprava agregační chyby v rewriteWithExpression
- [SPARK-48018][SS] Oprava hodnoty groupId 'null' způsobující chybu chybějícího parametru při vyvolání výjimky KafkaException.couldNotReadOffsetRange
- [SPARK-47371] [SQL] XML: Ignorování značek řádků nalezených v CDATA
- [SPARK-47907][SQL] Umístěte bang pod konfiguraci.
- [SPARK-47895][SQL] podmínka GROUP BY ALL by měla být idempotentní
- [SPARK-47973][CORE] Zaznamenej místo volání ve SparkContext.stop() a následně ve SparkContext.assertNotStopped()
- [SPARK-47986][CONNECT][PYTHON] Nelze vytvořit novou relaci, pokud je výchozí relace uzavřena serverem.
- Aktualizace zabezpečení operačního systému.
Databricks Runtime 15.0
Zobrazit Databricks Runtime 15.0 (EoS).
- 30. května 2024
- (Změna chování)
dbutils.widgets.getAll()teď podporuje získání všech hodnot widgetů v poznámkovém bloku.
- (Změna chování)
- 25. dubna 2024
- [SPARK-47786]SELECT DISTINCT () by se nemělo stát SELECT DISTINCT struct() (aby se vrátilo k předchozímu chování)
- [SPARK-47802][SQL] Vrátit () ze struktury významu() zpět ke významu *
- [SPARK-47509][SQL] Blokování výrazů poddotazů ve funkcích lambda a vyšších pořadí
- [SPARK-47722] Před zavřením počkejte, než se dokončí práce na pozadí RocksDB.
- [SPARK-47081][CONNECT][SLEDOVAT] Zlepšení použitelnosti zpracovatele průběhu
- [SPARK-47694][CONNECT] Nastavení maximální velikosti zprávy na straně klienta
- [SPARK-47669][SQL][CONNECT][PYTHON] Přidat
- [SPARK-47664][PYTHON][CONNECT][Cherry-pick-15.0] Ověřte název sloupce pomocí schématu uloženého v mezipaměti.
- [SPARK-47818][CONNECT][Cherry-pick-15.0] Zavedení mezipaměti plánu ve SparkConnectPlanneru za účelem zlepšení výkonu žádostí pro analýzy
- [SPARK-47704][SQL] Analýza JSON selže s chybou java.lang.ClassCastException při povolení spark.sql.json.enablePartialResults
- [SPARK-47755][CONNECT] Pivot by měl selhat, pokud je počet jedinečných hodnot příliš velký
- [SPARK-47713][SQL][CONNECT] Oprava selhání samospojování
- [SPARK-47812][CONNECT] Podpora serializace SparkSession pro pracovní proces ForEachBatch
-
[SPARK-47828][CONNECT][PYTHON]
DataFrameWriterV2.overwriteselže kvůli neplatnému plánu - [SPARK-47862][PYTHON][CONNECT]Úprava generování souborů proto
- [SPARK-47800][SQL] Vytvořit novou metodu pro převod identifikátoru na tableIdentifier
- Aktualizace zabezpečení operačního systému.
- 3. dubna 2024
- (Změna chování) Aby se zajistilo konzistentní chování napříč typy výpočetních prostředků, funkce definované uživatelem (UDF) v PySpark ve sdílených clusterech nyní odpovídají chování funkcí definovaných uživatelem v clusterech bez izolace a přiřazených clusterech. Tato aktualizace zahrnuje následující změny, které by mohly narušit stávající kód:
- UDF s návratovým typem
stringuž implicitně nepřevádějí ne-stringhodnoty na hodnotystring. Dříve by funkce UDF s návratovým typemstrzabalila návratovou hodnotu funkcístr()bez ohledu na skutečný datový typ vrácené hodnoty. - UDF s návratovými typy
timestampjiž implicitně nepoužijí převod natimestamppomocítimezone. - Konfigurace clusterů Spark
spark.databricks.sql.externalUDF.*se již nevztahují na UDF PySpark ve sdílených clusterech. - Konfigurace clusteru Spark
spark.databricks.safespark.externalUDF.plan.limituž nemá vliv na uživatelem definované funkce PySpark, čímž se odstranilo omezení verze Public Preview, které umožňovalo maximálně 5 uživatelsky definovaných funkcí na dotaz pro PySpark. - Konfigurace clusteru Spark
spark.databricks.safespark.sandbox.size.default.mibuž neplatí pro UDFs PySpark ve sdílených clusterech. Místo toho se používá dostupná paměť v systému. Chcete-li omezit paměť UDF PySpark, použijtespark.databricks.pyspark.udf.isolation.memoryLimits minimální hodnotou100m.
- UDF s návratovým typem
- Datový typ
TimestampNTZje nyní podporován jako clusteringový sloupec s tekutým clusteringem. Viz Použití metody 'liquid clustering' pro tabulky. - [SPARK-47218][SQL] XML: Ignorování značek komentovaných řádků v tokenizátoru XML
- [SPARK-46990][SQL] Oprava načítání prázdných souborů Avro vygenerovaných centrem událostí
- [SPARK-47033][SQL] Opravit EXECUTE IMMEDIATE USING nerozpozná názvy proměnných relací
- [SPARK-47368][SQL] Odebrání kontroly konfigurace inferTimestampNTZ v ParquetRowConverter
- [SPARK-47561][SQL] Oprava problémů s pořadím pravidel analyzátoru u aliasu
- [SPARK-47638][PS][CONNECT] Přeskočení ověření názvu sloupce v PS
- [SPARK-46906][BACKPORT][SS] Přidání kontroly změny stavového operátoru pro streamování
- [SPARK-47569][SQL] Nepovoluje porovnání varianty.
- [SPARK-47241][SQL] Oprava problémů s pořadím pravidel pro ExtractGenerator
- [SPARK-47218] [SQL] XML: Změna SchemaOfXml na selhání v případě režimu DROPMALFORMED
-
[SPARK-47300][SQL]
quoteIfNeededby měl uvozovat identifikátor začínající číslicemi. - [SPARK-47009][SQL][Kolace] Povolení podpory vytváření tabulek pro kolace
-
[SPARK-47322][PYTHON][CONNECT] Umožňuje duplikování názvů sloupců
withColumnsRenamedkonzistentně swithColumnRenamed - [SPARK-47544][PYTHON] Metoda SparkSession Builder není kompatibilní s intellisense editoru Visual Studio Code
- [SPARK-47511][SQL] Kanonizovat výrazy se znovu přiřazenými ID
- [SPARK-47385] Opravte kodéry n-tic s vstupy typu Option.
- [SPARK-47200][SS] Chybová třída pro chybu uživatelské funkce v dávkové jímce Foreach
- [SPARK-47135][SS] Implementace tříd chyb pro výjimky ztráty dat Kafka
- [SPARK-38708][SQL] Aktualizace Hive Metastore Client na verzi 3.1.3 pro Hive 3.1
- [SPARK-47305][SQL] Opravit funkci PruneFilters tak, aby správně označovala příznak isStreaming u LocalRelation, když plán obsahuje jak dávkovou, tak streamovací část.
- [SPARK-47380][CONNECT] Je zajištěno, že na straně serveru je SparkSession stejný.
- Aktualizace zabezpečení operačního systému.
- (Změna chování) Aby se zajistilo konzistentní chování napříč typy výpočetních prostředků, funkce definované uživatelem (UDF) v PySpark ve sdílených clusterech nyní odpovídají chování funkcí definovaných uživatelem v clusterech bez izolace a přiřazených clusterech. Tato aktualizace zahrnuje následující změny, které by mohly narušit stávající kód:
Databricks Runtime 14.2
Viz Databricks Runtime 14.2 (EoS).
- 22. října 2024
- [SPARK-49782][SQL] Pravidlo ResolveDataFrameDropColumns řeší UnresolvedAttribute s podřízeným výstupem.
- [SPARK-49905] Použít vyhrazený ShuffleOrigin pro stavový operátor, aby se zabránilo úpravám náhodného prohazování z AQE
- Aktualizace zabezpečení operačního systému.
- 10. října 2024
- [SPARK-49743][SQL] OptimizeCsvJsonExpr by neměl při vyřazování polí schématu GetArrayStructFields měnit.
- [BACKPORT] [SPARK-49474][SS] Klasifikace třídy chyb pro chybu uživatelské funkce flatMapGroupsWithState
- 25. září 2024
- [SPARK-48719][SQL] Opravte chybu výpočtu regrS...
- [SPARK-49628][SQL] Funkce ConstantFolding by měla před vyhodnocením zkopírovat stavový výraz.
- [SPARK-49000][SQL] Oprava „select count(distinct 1) from t“, kde t je prázdná tabulka, rozšířením RewriteDistinctAggregates.
- [SPARK-43242][CORE] Oprava chyby způsobující vyvolání 'Neočekávaný typ BlockId' při diagnostice poškození při míchání dat.
- [SPARK-46601] [CORE] Oprava chyby protokolu v handleStatusMessage
- Aktualizace zabezpečení operačního systému.
- 17. září 2024
- [SPARK-49526][CONNECT] Podpora Windows-stylových cest v ArtifactManageru
- 29. srpna 2024
- [SPARK-49263][CONNECT] Klient Spark Connect v Pythonu: Konzistentně zpracovává logické možnosti čtečky datového rámce
- [SPARK-49146][SS] Přesunutí chyb tvrzení souvisejících s chybějícím vodoznakem v dotazech streamování v režimu připojení do chybového rámce
- [SPARK-49056][SQL] ErrorClassesJsonReader nemůže správně zpracovat hodnotu null.
- 14. srpna 2024
- [SPARK-48050][SS] Zaznamenat logický plán při spuštění dotazu
- [SPARK-48597][SQL] Zavedení značky pro vlastnost isStreaming v textové reprezentaci logického plánu
- [SPARK-49065][SQL] Opětovné použití starších formátovacích nástrojů nebo analyzátorů musí podporovat jiné než výchozí časová pásma JVM.
- [SPARK-48706][PYTHON] Python UDF ve funkci vyššího řádu by neměly vyvolávat vnitřní chybu
- 1. srpna 2024
- Tato verze obsahuje opravu chyb pro třídy
ColumnVectoraColumnarArrayv rozhraní Java Sparku. Před touto opravou může býtArrayIndexOutOfBoundsExceptionvyvolán nebo vrácena nesprávná data, pokud instance jedné z těchto tříd obsahovalanullhodnoty. - Výstup příkazu
SHOW CREATE TABLEteď obsahuje všechny filtry řádků nebo masky sloupců definované v materializovaném zobrazení nebo streamovací tabulce. Viz SHOW CREATE TABLE. Další informace o filtrech řádků a maskách sloupců najdete v tématu Filtry řádků a masky sloupců. - [SPARK-47202][PYTHON] Oprava překlepu způsobující chybu v datových časech pomocí tzinfo
- [SPARK-48705][PYTHON] Explicitní použití worker_main při spuštění pomocí pyspark
- Aktualizace zabezpečení operačního systému.
- Tato verze obsahuje opravu chyb pro třídy
- 11. července 2024
- (Změna chování) Datové rámce uložené v mezipaměti ve vztahu ke zdrojovým tabulkám Delta jsou nyní invalidovány, pokud je zdrojová tabulka přepsána. Tato změna znamená, že všechny změny stavu tabulek Delta teď zneplatní výsledky uložené v mezipaměti. Pomocí
.checkpoint()zachovají stav tabulky po celou dobu životnosti datového rámce. - Ovladač Snowflake JDBC je aktualizován na verzi 3.16.1.
- Tato verze obsahuje opravu problému, který zabránil správnému zobrazení karty Prostředí uživatelského rozhraní Sparku při spuštění ve službě Databricks Container Services.
- [SPARK-48292][CORE] Revert [SPARK-39195][SQL] Spark OutputCommitCoordinator by měl přerušit fázi, pokud potvrzený soubor není konzistentní se stavem úkolu.
- [SPARK-48273][SQL] Oprava opožděného přepsání PlanWithUnresolvedIdentifier
- [SPARK-48503][SQL] Oprava neplatných skalárních poddotazů při skupinováním podle sloupců, které nejsou ekvivalentní a byly nesprávně povoleny.
- [SPARK-48481][SQL][SS] Nepoužívejte OptimalOneRowPlan pro streamovací datovou sadu.
- [SPARK-48475][PYTHON] Optimalizujte _get_jvm_function v PySparku.
- [SPARK-48100][SQL] Oprava problémů při vynechání vnořených polí struktury, která nejsou vybraná ve schématu
- [SPARK-48445][SQL] Nezařaovávejte uživatelem definované funkce s drahými dětmi
- [SPARK-48383][SS] Vyvolat jasnější chybu pro neshodující se partice v možnosti startOffset v Kafce
- Aktualizace zabezpečení operačního systému.
- (Změna chování) Datové rámce uložené v mezipaměti ve vztahu ke zdrojovým tabulkám Delta jsou nyní invalidovány, pokud je zdrojová tabulka přepsána. Tato změna znamená, že všechny změny stavu tabulek Delta teď zneplatní výsledky uložené v mezipaměti. Pomocí
- 17. června 2024
- Opravili jsme chybu, kdy optimalizace pořadí oken pomocí sady Photon TopK nesprávně zpracovávala oddíly s strukturami.
-
[SPARK-48276][PYTHON][CONNECT] Přidejte chybějící
__repr__metodu proSQLExpression - [SPARK-48277] Zlepšení chybové zprávy pro ErrorClassesJsonReader.getErrorMessage
- Aktualizace zabezpečení operačního systému.
- 21. května 2024
- (Změna chování)
dbutils.widgets.getAll()teď podporuje získání všech hodnot widgetů v poznámkovém bloku. - [SPARK-48173][SQL] CheckAnalysis by měla vidět celý plán dotazu.
- [SPARK-48197][SQL] Vyhněte se chybě assert pro neplatnou funkci lambda.
- [SPARK-47994][SQL] Oprava chyby s prosazováním filtrování sloupců CASE WHEN v SQLServeru
- [SPARK-48105][SS] Oprava souběhu mezi uvolněním úložiště stavu a pořizováním snímků
- Aktualizace zabezpečení operačního systému.
- (Změna chování)
- 9. května 2024
-
[SPARK-48044][PYTHON][CONNECT] Mezipaměť
DataFrame.isStreaming - [SPARK-47956][SQL] Ověření správnosti nevyřešených odkazů LCA
- [SPARK-47371] [SQL] XML: Ignorování značek řádků nalezených v CDATA
- [SPARK-47812][CONNECT] Podpora serializace SparkSession pro pracovní proces ForEachBatch
- [SPARK-47895][SQL] podmínka GROUP BY ALL by měla být idempotentní
- [SPARK-47973][CORE] Zaznamenej místo volání ve SparkContext.stop() a následně ve SparkContext.assertNotStopped()
- Aktualizace zabezpečení operačního systému.
-
[SPARK-48044][PYTHON][CONNECT] Mezipaměť
- 25. dubna 2024
- [SPARK-47704][SQL] Analýza JSON selže s chybou java.lang.ClassCastException při povolení spark.sql.json.enablePartialResults
-
[SPARK-47828][CONNECT][PYTHON]
DataFrameWriterV2.overwriteselže kvůli neplatnému plánu - Aktualizace zabezpečení operačního systému.
- 11. dubna 2024
- [SPARK-47309][SQL][XML] Přidání testů jednotek odvození schématu
- [SPARK-46990][SQL] Oprava načítání prázdných souborů Avro vygenerovaných centrem událostí
- [SPARK-47638][PS][CONNECT] Přeskočení ověření názvu sloupce v PS
- [SPARK-47509][SQL] Blokování výrazů poddotazů ve funkcích lambda a vyšších pořadí
- [SPARK-38708][SQL] Aktualizace Hive Metastore Client na verzi 3.1.3 pro Hive 3.1
- Aktualizace zabezpečení operačního systému.
- 1. dubna 2024
-
[SPARK-47322][PYTHON][CONNECT] Umožňuje duplikování názvů sloupců
withColumnsRenamedkonzistentně swithColumnRenamed - [SPARK-47385] Opravte kodéry n-tic s vstupy typu Option.
- [SPARK-47070] Oprava neplatné agregace po přepsání poddotazů
- [SPARK-47218] [SQL] XML: Změna SchemaOfXml na selhání v případě režimu DROPMALFORMED
- [SPARK-47305][SQL] Opravit funkci PruneFilters tak, aby správně označovala příznak isStreaming u LocalRelation, když plán obsahuje jak dávkovou, tak streamovací část.
- [SPARK-47218][SQL] XML: Ignorování značek komentovaných řádků v tokenizátoru XML
- Vrátit zpět "[SPARK-46861][CORE] Vyhněte se zablokování v DAGScheduler"
-
[SPARK-47300][SQL]
quoteIfNeededby měl uvozovat identifikátor začínající číslicemi. - [SPARK-47368][SQL] Odebrání kontroly konfigurace inferTimestampNTZ v ParquetRowConverter
- Aktualizace zabezpečení operačního systému.
-
[SPARK-47322][PYTHON][CONNECT] Umožňuje duplikování názvů sloupců
- 14. března 2024
- [SPARK-47035][SS][CONNECT] Protokol pro posluchač na straně klienta
- [SPARK-47121][JÁDRO] Zabránění chybám RejectedExecutionExceptions při vypnutí StandaloneSchedulerBackend
- [SPARK-47145][SQL] Přenést identifikátor tabulky do provádění skenu zdroje řádkových dat pro strategii V2
- [SPARK-47176][SQL] Mají pomocnou funkci ResolveAllExpressionsUpWithPruning
- [SPARK-47167][SQL] Přidání konkrétní třídy pro anonymní vztah JDBC
-
[SPARK-47129][CONNECT][SQL] Správné nastavení
ResolveRelationsplánu připojení k mezipaměti - [SPARK-47044][SQL] Přidání spuštěného dotazu pro externí zdroje dat JDBC pro vysvětlení výstupu
- Aktualizace zabezpečení operačního systému.
- 29. února 2024
- Opravili jsme problém, kdy použití místní kolekce jako zdroje v příkazu MERGE mohlo vést k tomu, že metrika numSourceRows hlásí dvakrát správný počet řádků.
- Vytvoření schématu s definovaným umístěním teď vyžaduje, aby uživatel měl oprávnění k SELECT a právo upravovat libovolný soubor.
- Teď můžete importovat soubory XML pomocí Auto Loaderu,
read_files,COPY INTO, deklarativních kanálů Lakeflow Spark a Databricks SQL. Podpora souborů XML může automaticky odvodit a vyvíjet schéma, ukládat data s neshodami typů, ověřovat XML pomocí XSD, podporovat výrazy SQL, jako jsou from_xml, schema_of_xml a to_xml. Další podrobnosti najdete v podpoře souborů XML. Pokud jste dříve používali externí balíček spark-xml, projděte si pokyny k migraci tady . - [SPARK-46954][SQL] XML: Zabalení InputStreamReader s BufferedReader
- [SPARK-46630][SQL] XML: Ověření názvu elementu XML při zápisu
- [SPARK-46248][SQL] XML: Podpora možnosti ignorovatPoškozenéSoubory a ignorovatChybějícíSoubory
- [SPARK-46954][SQL] XML: Optimalizace vyhledávání indexu schématu
- [SPARK-47059][SQL] Připojit kontext chyby pro příkaz ALTER COLUMN v1
- [SPARK-46993][SQL] Oprava skládání konstant pro session proměnné
- 8. února 2024
- Dotazy na tok dat (CDF) v materializovaných zobrazeních katalogu Unity nejsou podporovány, a pokud se pokusíte spustit dotaz CDF na materializované zobrazení katalogu Unity, zobrazí se chyba. Streamovací tabulky Unity Catalog podporují dotazy CDF na tabulky CDC jiné než AUTO v Databricks Runtime 14.1 a novějších. Dotazy CDF nejsou podporovány v tabulkách streamování katalogu Unity v Databricks Runtime 14.0 a starších verzích.
- [SPARK-46930] Přidání podpory pro vlastní předponu pro pole typu Union v Avro.
- [SPARK-46822] Respektovat spark.sql.legacy.charVarcharAsString při konverzi typu JDBC na typ katalyzátoru v rámci JDBC.
- [SPARK-46952] XML: Omezení velikosti poškozeného záznamu
- [SPARK-46644] Změna funkcí přidání a sloučení v SQLMetric pro použití isZero.
- [SPARK-46861] Vyhněte se zablokování v DAGScheduler.
- [SPARK-46794] Odeberte poddotazy z omezení logického RDD.
- [SPARK-46941] Okenní skupinový limitní uzel nelze vložit pro výpočet top-k, pokud obsahuje funkci závislou na velikosti okna.
- [SPARK-46933] Přidejte metriku doby provádění dotazů do konektorů, které používají JDBCRDD.
- Aktualizace zabezpečení operačního systému.
- 31. ledna 2024
-
[SPARK-46382] XML: Aktualizace dokumentace pro
ignoreSurroundingSpaces. - [SPARK-46382] XML: Zachytit hodnoty vložené mezi prvky.
- [SPARK-46763] Oprava selhání kontrolního tvrzení v replaceDeduplicateWithAggregate pro duplicitní atributy.
- Vrátit [SPARK-46769] zpřesnění odvození schématu souvisejícího s časovým razítkem.
-
[SPARK-46677] Opravit
dataframe["*"]řešení. - [SPARK-46382] XML: Nastavit ignoreSurroundingSpaces jako výchozí na true.
- [SPARK-46633] Opravte čtečku Avro pro zpracování bloků nulové délky.
- [SPARK-45964] Odebrání privátního přístupového objektu SQL v balíčku XML a JSON v rámci katalyzátoru.
- [SPARK-46581] Aktualizace komentáře u isZero v AccumulatorV2.
- [SPARK-45912] Vylepšení rozhraní API XSDToSchema: Změna rozhraní API HDFS pro usnadnění přístupu ke cloudovému úložišti
- [SPARK-45182] Po opakovaném pokusu o neurčitou dílčí fázi úkolu podle kontrolního součtu ignorujte dokončení úkolu ze staré fáze.
- [SPARK-46660] Požadavky ReattachExecute aktualizují stav živosti SessionHolderu.
- [SPARK-46610] Vytvoření tabulky by mělo vyvolat výjimku, pokud není žádná hodnota pro klíč v možnostech.
-
[SPARK-46383] Snížení využití paměti ovladače snížením životnosti
TaskInfo.accumulables(). - [SPARK-46769] Upřesnění odvození schématu týkajícího se časových razítek.
- [SPARK-46684] Oprava funkce CoGroup.applyInPandas/Arrow pro správné předávání argumentů
- [SPARK-46676] Funkce dropDuplicatesWithinWatermark by neměla selhat při kanonizaci prováděcího plánu.
-
[SPARK-45962] Odebrat
treatEmptyValuesAsNullsa místo toho použít možnostnullValueve formátu XML. - [SPARK-46541] Oprava nejednoznačného odkazu na sloupec v samospojení.
- [SPARK-46599] XML: Pro kontrolu kompatibility použijte TypeCoercion.findTightestCommonType.
- Aktualizace zabezpečení operačního systému.
-
[SPARK-46382] XML: Aktualizace dokumentace pro
- 17. ledna 2024
- Uzel
shufflevysvětlujícího plánu vráceného dotazem Photon se aktualizuje, aby se přidal příznakcausedBroadcastJoinBuildOOM=true, když dojde k chybě nedostatku paměti během přeskupování, které je součástí broadcast joinu. - Aby se zabránilo zvýšené latenci při komunikaci přes TLSv1.3, obsahuje tato verze údržby opravu instalace sady JDK 8, která opraví chybu JDK JDK-8293562.
-
[SPARK-46261]
DataFrame.withColumnsRenamedby mělo zachovat pořadí diktování a mapování. -
[SPARK-46538] Oprava nejednoznačného problému s odkazem na sloupce v
ALSModel.transform. - [SPARK-46145] spark.catalog.listTables nevyvolá výjimku, pokud se tabulka nebo zobrazení nenajde.
-
[SPARK-46484] Zajistit, aby
resolveOperatorspomocné funkce zachovaly ID plánu. -
[SPARK-46394] Oprava problémů se spark.catalog.listDatabases() ve schématech se speciálními znaky, když je
spark.sql.legacy.keepCommandOutputSchemanastaveno na hodnotu true. - [SPARK-46609] Vyhněte se exponenciální exploze v PartitioningPreservingUnaryExecNode.
- [SPARK-46446] Zakázat poddotazy s korelovanými podmínkami OFFSET k opravě chyby správnosti.
- [SPARK-46152] XML: Přidání podpory DecimalType v odvození schématu XML.
-
[SPARK-46602] Propagovat
allowExistingpři vytváření zobrazení, pokud zobrazení nebo tabulka neexistuje. - [SPARK-45814] Zajistit, aby ArrowConverters.createEmptyArrowBatch volalo metodu close(), aby nedošlo k úniku paměti.
- [SPARK-46058] Přidejte samostatný příznak pro privateKeyPassword.
- [SPARK-46132] Podpora hesla pro klíče JKS pro RPC SSL.
- [SPARK-46600] Přesun sdíleného kódu mezi SqlConf a SqlApiConf do SqlApiConfHelper.
- [SPARK-46478] Vrátit SPARK-43049 k použití Oracle varchar(255) pro řetězec.
- [SPARK-46417] Nezaznamenávat selhání při volání hive.getTable, pokud je throwException false.
- [SPARK-46153] XML: Přidání podpory TimestampNTZType
- [SPARK-46056][BACKPORT] Oprava NPE při vektorizovaném čtení Parquet s výchozí hodnotou typu byteArrayDecimalType.
- [SPARK-46466] Vektorizovaná čtečka Parquet by nikdy neměla provádět úpravu základny pro časové razítko ntz.
-
[SPARK-46260]
DataFrame.withColumnsRenamedby měla respektovat řazení diktů. - [SPARK-46036] Odebrání třídy chyb z funkce raise_error
- [SPARK-46294] Vyjasněte sémantiku počáteční hodnoty oproti nule.
- [SPARK-46173] Přeskočení volání trimAll během analýzy kalendářních dat
- [SPARK-46250] Odstranění nestability v test_parity_listener.
- [SPARK-46587] XML: Oprava velkého celočíselného převodu XSD
- [SPARK-46396] Odvození časového razítka by nemělo vyvolat výjimku.
- [SPARK-46241] Opravte rutinu zpracování chyb, aby nepřešla do nekonečné rekurze.
- [SPARK-46355] XML: Ukončete InputStreamReader při dokončování čtení.
- [SPARK-46370] Opravte chybu při dotazování z tabulky po změně výchozích hodnot sloupců.
- [SPARK-46265] Aserce v AddArtifact RPC činí klienta Connect nekompatibilním se staršími clustery.
- [SPARK-46308] Zakázat rekurzivní zpracování chyb.
-
[SPARK-46337] Ujistěte se, že
CTESubstitutionzachováváPLAN_ID_TAG.
- Uzel
- 14. prosince 2023
- [SPARK-46141] Změňte výchozí hodnotu pro spark.sql.legacy.ctePrecedencePolicy na OPRAVENO.
- [SPARK-45730] Učinit ReloadingX509TrustManagerSuite méně nespolehlivým.
- [SPARK-45852] Elegantně řešit chybu rekurze během protokolování.
- [SPARK-45808] Lepší zpracování chyb pro výjimky SQL
- [SPARK-45920] skupina podle ordinálu by měla být idempotentní.
- Vrátit „[SPARK-45649] Sjednotit rámec přípravy pro
OffsetWindowFunctionFrame“. - [SPARK-45733] Podpora více strategií opakování
- [SPARK-45509] Oprava chování odkazu na sloupec df pro Spark Connect.
- [SPARK-45655] Povolte ne deterministické výrazy uvnitř AggregateFunctions v CollectMetrics.
- [SPARK-45905] Nejméně společný typ mezi desetinnými typy by měl jako první zachovat integrální číslice.
- [SPARK-45136] Vylepšit ClosureCleaner s podporou Ammonite.
- [SPARK-46255] Podpora komplexního typu –> převod řetězců
- [SPARK-45859] Nastavit objekty UDF v ml.functions jako líné.
-
[SPARK-46028] Nastavit
Column.__getitem__k přijetí vstupního sloupce. - [SPARK-45798] Zajistit ID relace na straně serveru.
-
[SPARK-45892] Refaktoring ověřování plánu optimalizátoru k oddělení
validateSchemaOutputavalidateExprIdUniqueness. - [SPARK-45844] Implementujte rozlišování velkých a malých písmen pro XML.
-
[SPARK-45770] Zavést plán
DataFrameDropColumnsproDataframe.drop. - [SPARK-44790] XML: to_xml implementaci a vazby pro Python, připojení a SQL.
- [SPARK-45851] Podpora více zásad v klientovi scala
- Aktualizace zabezpečení operačního systému.
- 29. listopadu 2023
- Nainstalovali jsme nový balíček,
pyarrow-hotfixkterý opraví ohrožení zabezpečení PyArrow RCE. - Opravili jsme problém, kdy se unklá podtržítka v operacích
getColumnspocházejících z klientů JDBC nebo ODBC nesprávně interpretovaly jako zástupné znaky. -
[SPARK-45730] Vylepšená časová omezení pro
ReloadingX509TrustManagerSuite. - [SPARK-45852] Klient Python pro Spark Connect teď zachytává chyby rekurze během převodu textu.
- [SPARK-45808] Vylepšené zpracování chyb pro výjimky SQL
-
[SPARK-45920]
GROUP BYpořadové číslo není nahrazeno pořadovým číslem. - Vrátit [SPARK-45649].
- [SPARK-45733] Přidána podpora pro několik zásad opakování
-
[SPARK-45509] Opraveno chování odkazu na sloupec
dfpro Spark Connect. -
[SPARK-45655] Povolit ne deterministické výrazy uvnitř
AggregateFunctionssouboruCollectMetrics. - [SPARK-45905] Nejmenší společný typ mezi desetinnými typy nyní zachovává integrální číslice jako první.
-
[SPARK-45136] Vylepšit
ClosureCleanerpomocí podpory Ammonite - [SPARK-45859] UDF objekty byly zpožděné.
-
[SPARK-46028]
Column.__getitem__přijímá vstupní sloupce. - [SPARK-45798] Zajistit ID relace na straně serveru.
-
[SPARK-45892] Refaktoring ověřování plánu optimalizátoru k oddělení
validateSchemaOutputavalidateExprIdUniqueness. - [SPARK-45844] Implementujte rozlišování velkých a malých písmen pro XML.
-
[SPARK-45770] pevné rozlišení sloupců s
DataFrameDropColumnsproDataframe.drop. -
[SPARK-44790] Přidání implementace a vazeb
to_xmlpro Python, Spark Connect a SQL - [SPARK-45851] Přidání podpory více zásad v klientovi Scala
- Aktualizace zabezpečení operačního systému.
- Nainstalovali jsme nový balíček,
Databricks Runtime 14.1
Viz Databricks Runtime 14.1 (EoS).
- 10. prosince 2024
- Aktualizace zabezpečení operačního systému.
- 26. listopadu 2024
- Aktualizace zabezpečení operačního systému.
- 5. listopadu 2024
- [SPARK-49782][SQL] Pravidlo ResolveDataFrameDropColumns řeší UnresolvedAttribute s podřízeným výstupem.
- [SPARK-49905] Použít vyhrazený ShuffleOrigin pro stavový operátor, aby se zabránilo úpravám náhodného prohazování z AQE
- 22. října 2024
- [SPARK-49782][SQL] Pravidlo ResolveDataFrameDropColumns řeší UnresolvedAttribute s podřízeným výstupem.
- [SPARK-49905] Použít vyhrazený ShuffleOrigin pro stavový operátor, aby se zabránilo úpravám náhodného prohazování z AQE
- 10. října 2024
- [BACKPORT] [SPARK-49474][SS] Klasifikace třídy chyb pro chybu uživatelské funkce flatMapGroupsWithState
- [SPARK-49743][SQL] OptimizeCsvJsonExpr by neměl při vyřazování polí schématu GetArrayStructFields měnit.
- Aktualizace zabezpečení operačního systému.
- 25. září 2024
- [SPARK-49628][SQL] Funkce ConstantFolding by měla před vyhodnocením zkopírovat stavový výraz.
- [SPARK-43242][CORE] Oprava chyby způsobující vyvolání 'Neočekávaný typ BlockId' při diagnostice poškození při míchání dat.
- [SPARK-48719][SQL] Opravte chybu výpočtu regrS...
- [SPARK-49000][SQL] Oprava „select count(distinct 1) from t“, kde t je prázdná tabulka, rozšířením RewriteDistinctAggregates.
- [SPARK-46601] [CORE] Oprava chyby protokolu v handleStatusMessage
- Aktualizace zabezpečení operačního systému.
- 17. září 2024
- [SPARK-49526][CONNECT] Podpora Windows-stylových cest v ArtifactManageru
- Aktualizace zabezpečení operačního systému.
- 29. srpna 2024
- [SPARK-49263][CONNECT] Klient Spark Connect v Pythonu: Konzistentně zpracovává logické možnosti čtečky datového rámce
- [SPARK-49056][SQL] ErrorClassesJsonReader nemůže správně zpracovat hodnotu null.
- 14. srpna 2024
- [SPARK-48706][PYTHON] Python UDF ve funkci vyššího řádu by neměly vyvolávat vnitřní chybu
- [SPARK-48597][SQL] Zavedení značky pro vlastnost isStreaming v textové reprezentaci logického plánu
- [SPARK-49065][SQL] Opětovné použití starších formátovacích nástrojů nebo analyzátorů musí podporovat jiné než výchozí časová pásma JVM.
- [SPARK-48050][SS] Zaznamenat logický plán při spuštění dotazu
- 1. srpna 2024
- Tato verze obsahuje opravu chyb pro třídy
ColumnVectoraColumnarArrayv rozhraní Java Sparku. Před touto opravou může býtArrayIndexOutOfBoundsExceptionvyvolán nebo vrácena nesprávná data, pokud instance jedné z těchto tříd obsahovalanullhodnoty. - Výstup příkazu
SHOW CREATE TABLEteď obsahuje všechny filtry řádků nebo masky sloupců definované v materializovaném zobrazení nebo streamovací tabulce. Viz SHOW CREATE TABLE. Další informace o filtrech řádků a maskách sloupců najdete v tématu Filtry řádků a masky sloupců. - [SPARK-48705][PYTHON] Explicitní použití worker_main při spuštění pomocí pyspark
- [SPARK-47202][PYTHON] Oprava překlepu způsobující chybu v datových časech pomocí tzinfo
- Aktualizace zabezpečení operačního systému.
- Tato verze obsahuje opravu chyb pro třídy
- 11. července 2024
- (Změna chování) Datové rámce uložené v mezipaměti ve vztahu ke zdrojovým tabulkám Delta jsou nyní invalidovány, pokud je zdrojová tabulka přepsána. Tato změna znamená, že všechny změny stavu tabulek Delta teď zneplatní výsledky uložené v mezipaměti. Pomocí
.checkpoint()zachovají stav tabulky po celou dobu životnosti datového rámce. - Tato verze obsahuje opravu problému, který zabránil správnému zobrazení karty Prostředí uživatelského rozhraní Sparku při spuštění ve službě Databricks Container Services.
- [SPARK-48475][PYTHON] Optimalizujte _get_jvm_function v PySparku.
- [SPARK-48445][SQL] Nezařaovávejte uživatelem definované funkce s drahými dětmi
- [SPARK-48481][SQL][SS] Nepoužívejte OptimalOneRowPlan pro streamovací datovou sadu.
- [SPARK-48292][CORE] Revert [SPARK-39195][SQL] Spark OutputCommitCoordinator by měl přerušit fázi, pokud potvrzený soubor není konzistentní se stavem úkolu.
- [SPARK-48503][SQL] Oprava neplatných skalárních poddotazů při skupinováním podle sloupců, které nejsou ekvivalentní a byly nesprávně povoleny.
- [SPARK-48273][SQL] Oprava opožděného přepsání PlanWithUnresolvedIdentifier
- [SPARK-48100][SQL] Oprava problémů při vynechání vnořených polí struktury, která nejsou vybraná ve schématu
- [SPARK-48383][SS] Vyvolat jasnější chybu pro neshodující se partice v možnosti startOffset v Kafce
- Aktualizace zabezpečení operačního systému.
- (Změna chování) Datové rámce uložené v mezipaměti ve vztahu ke zdrojovým tabulkám Delta jsou nyní invalidovány, pokud je zdrojová tabulka přepsána. Tato změna znamená, že všechny změny stavu tabulek Delta teď zneplatní výsledky uložené v mezipaměti. Pomocí
- 17. června 2024
- Opravili jsme chybu, kdy optimalizace pořadí oken pomocí sady Photon TopK nesprávně zpracovávala oddíly s strukturami.
-
[SPARK-48276][PYTHON][CONNECT] Přidejte chybějící
__repr__metodu proSQLExpression - [SPARK-48277] Zlepšení chybové zprávy pro ErrorClassesJsonReader.getErrorMessage
- Aktualizace zabezpečení operačního systému.
- 21. května 2024
- (Změna chování)
dbutils.widgets.getAll()teď podporuje získání všech hodnot widgetů v poznámkovém bloku. - [SPARK-47994][SQL] Oprava chyby s prosazováním filtrování sloupců CASE WHEN v SQLServeru
- [SPARK-48105][SS] Oprava souběhu mezi uvolněním úložiště stavu a pořizováním snímků
- [SPARK-48173][SQL] CheckAnalysis by měla vidět celý plán dotazu.
- Aktualizace zabezpečení operačního systému.
- (Změna chování)
- 9. května 2024
- [SPARK-47371] [SQL] XML: Ignorování značek řádků nalezených v CDATA
- [SPARK-47895][SQL] podmínka GROUP BY ALL by měla být idempotentní
- [SPARK-47956][SQL] Ověření správnosti nevyřešených odkazů LCA
-
[SPARK-48044][PYTHON][CONNECT] Mezipaměť
DataFrame.isStreaming - [SPARK-47973][CORE] Zaznamenej místo volání ve SparkContext.stop() a následně ve SparkContext.assertNotStopped()
- Aktualizace zabezpečení operačního systému.
- 25. dubna 2024
- [SPARK-47704][SQL] Analýza JSON selže s chybou java.lang.ClassCastException při povolení spark.sql.json.enablePartialResults
-
[SPARK-47828][CONNECT][PYTHON]
DataFrameWriterV2.overwriteselže kvůli neplatnému plánu - Aktualizace zabezpečení operačního systému.
- 11. dubna 2024
- [SPARK-47638][PS][CONNECT] Přeskočení ověření názvu sloupce v PS
- [SPARK-38708][SQL] Aktualizace Hive Metastore Client na verzi 3.1.3 pro Hive 3.1
- [SPARK-47309][SQL][XML] Přidání testů jednotek odvození schématu
- [SPARK-47509][SQL] Blokování výrazů poddotazů ve funkcích lambda a vyšších pořadí
- [SPARK-46990][SQL] Oprava načítání prázdných souborů Avro vygenerovaných centrem událostí
- Aktualizace zabezpečení operačního systému.
- 1. dubna 2024
- [SPARK-47305][SQL] Opravit funkci PruneFilters tak, aby správně označovala příznak isStreaming u LocalRelation, když plán obsahuje jak dávkovou, tak streamovací část.
- [SPARK-47218][SQL] XML: Ignorování značek komentovaných řádků v tokenizátoru XML
-
[SPARK-47300][SQL]
quoteIfNeededby měl uvozovat identifikátor začínající číslicemi. - [SPARK-47368][SQL] Odebrání kontroly konfigurace inferTimestampNTZ v ParquetRowConverter
- [SPARK-47070] Oprava neplatné agregace po přepsání poddotazů
-
[SPARK-47322][PYTHON][CONNECT] Umožňuje duplikování názvů sloupců
withColumnsRenamedkonzistentně swithColumnRenamed - [SPARK-47300] Oprava pro DecomposerSuite
- [SPARK-47218] [SQL] XML: Změna SchemaOfXml na selhání v případě režimu DROPMALFORMED
- [SPARK-47385] Opravte kodéry n-tic s vstupy typu Option.
- Aktualizace zabezpečení operačního systému.
- 14. března 2024
- [SPARK-47176][SQL] Mají pomocnou funkci ResolveAllExpressionsUpWithPruning
- [SPARK-47145][SQL] Přenést identifikátor tabulky do provádění skenu zdroje řádkových dat pro strategii V2
- [SPARK-47167][SQL] Přidání konkrétní třídy pro anonymní vztah JDBC
-
[SPARK-47129][CONNECT][SQL] Správné nastavení
ResolveRelationsplánu připojení k mezipaměti - Vrátit zpět "[SPARK-46861][CORE] Vyhněte se zablokování v DAGScheduler"
- [SPARK-47044][SQL] Přidání spuštěného dotazu pro externí zdroje dat JDBC pro vysvětlení výstupu
- Aktualizace zabezpečení operačního systému.
- 29. února 2024
- Opravili jsme problém, kdy použití místní kolekce jako zdroje v příkazu MERGE mohlo vést k tomu, že metrika numSourceRows hlásí dvakrát správný počet řádků.
- Vytvoření schématu s definovaným umístěním teď vyžaduje, aby uživatel měl oprávnění k SELECT a právo upravovat libovolný soubor.
- Teď můžete importovat soubory XML pomocí Auto Loaderu,
read_files,COPY INTO, deklarativních kanálů Lakeflow Spark a Databricks SQL. Podpora souborů XML může automaticky odvodit a vyvíjet schéma, ukládat data s neshodami typů, ověřovat XML pomocí XSD, podporovat výrazy SQL, jako jsou from_xml, schema_of_xml a to_xml. Další podrobnosti najdete v podpoře souborů XML. Pokud jste dříve používali externí balíček spark-xml, projděte si pokyny k migraci tady . - [SPARK-46248][SQL] XML: Podpora možnosti ignorovatPoškozenéSoubory a ignorovatChybějícíSoubory
- [SPARK-47059][SQL] Připojit kontext chyby pro příkaz ALTER COLUMN v1
- [SPARK-46954][SQL] XML: Zabalení InputStreamReader s BufferedReader
- [SPARK-46954][SQL] XML: Optimalizace vyhledávání indexu schématu
- [SPARK-46630][SQL] XML: Ověření názvu elementu XML při zápisu
- Aktualizace zabezpečení operačního systému.
- 8. února 2024
- Dotazy na tok dat (CDF) v materializovaných zobrazeních katalogu Unity nejsou podporovány, a pokud se pokusíte spustit dotaz CDF na materializované zobrazení katalogu Unity, zobrazí se chyba. Streamovací tabulky Unity Catalog podporují dotazy CDF na tabulky CDC jiné než AUTO v Databricks Runtime 14.1 a novějších. Dotazy CDF nejsou podporovány v tabulkách streamování katalogu Unity v Databricks Runtime 14.0 a starších verzích.
- [SPARK-46952] XML: Omezení velikosti poškozeného záznamu
- [SPARK-45182] Po opakovaném pokusu o neurčitou dílčí fázi úkolu podle kontrolního součtu ignorujte dokončení úkolu ze staré fáze.
- [SPARK-46794] Odeberte poddotazy z omezení logického RDD.
- [SPARK-46933] Přidejte metriku doby provádění dotazů do konektorů, které používají JDBCRDD.
- [SPARK-46861] Vyhněte se zablokování v DAGScheduler.
- [SPARK-45582] Ujistěte se, že se instance úložiště nepoužívá po zavolání potvrzení během agregace datového proudu v režimu výstupu.
- [SPARK-46930] Přidání podpory pro vlastní předponu pro pole typu Union v Avro.
- [SPARK-46941] Okenní skupinový limitní uzel nelze vložit pro výpočet top-k, pokud obsahuje funkci závislou na velikosti okna.
- [SPARK-46396] Odvození časového razítka by nemělo vyvolat výjimku.
- [SPARK-46822] Respektovat spark.sql.legacy.charVarcharAsString při konverzi typu JDBC na typ katalyzátoru v rámci JDBC.
- [SPARK-45957] Vyhněte se generování plánu provádění pro nespustitelné příkazy.
- Aktualizace zabezpečení operačního systému.
- 31. ledna 2024
- [SPARK-46684] Oprava funkce CoGroup.applyInPandas/Arrow pro správné předávání argumentů
- [SPARK-46763] Oprava selhání kontrolního tvrzení v replaceDeduplicateWithAggregate pro duplicitní atributy.
- [SPARK-45498] Doplnění: Ignorovat dokončení úkolu z předchozích pokusů o fázi
-
[SPARK-46382] XML: Aktualizace dokumentace pro
ignoreSurroundingSpaces. -
[SPARK-46383] Snížení využití paměti ovladače snížením životnosti
TaskInfo.accumulables(). - [SPARK-46382] XML: Nastavit ignoreSurroundingSpaces jako výchozí na true.
-
[SPARK-46677] Opravit
dataframe["*"]řešení. - [SPARK-46676] Funkce dropDuplicatesWithinWatermark by neměla selhat při kanonizaci prováděcího plánu.
- [SPARK-46633] Opravte čtečku Avro pro zpracování bloků nulové délky.
- [SPARK-45912] Vylepšení rozhraní API XSDToSchema: Změna rozhraní API HDFS pro usnadnění přístupu ke cloudovému úložišti
- [SPARK-46599] XML: Pro kontrolu kompatibility použijte TypeCoercion.findTightestCommonType.
- [SPARK-46382] XML: Zachytit hodnoty vložené mezi prvky.
- [SPARK-46769] Upřesnění odvození schématu týkajícího se časových razítek.
- [SPARK-46610] Vytvoření tabulky by mělo vyvolat výjimku, pokud není žádná hodnota pro klíč v možnostech.
- [SPARK-45964] Odebrání privátního přístupového objektu SQL v balíčku XML a JSON v rámci katalyzátoru.
- Vrátit [SPARK-46769] zpřesnění odvození schématu souvisejícího s časovým razítkem.
-
[SPARK-45962] Odebrat
treatEmptyValuesAsNullsa místo toho použít možnostnullValueve formátu XML. - [SPARK-46541] Oprava nejednoznačného odkazu na sloupec v samospojení.
- Aktualizace zabezpečení operačního systému.
- 17. ledna 2024
- Uzel
shufflevysvětlujícího plánu vráceného dotazem Photon se aktualizuje, aby se přidal příznakcausedBroadcastJoinBuildOOM=true, když dojde k chybě nedostatku paměti během přeskupování, které je součástí broadcast joinu. - Aby se zabránilo zvýšené latenci při komunikaci přes TLSv1.3, obsahuje tato verze údržby opravu instalace sady JDK 8, která opraví chybu JDK JDK-8293562.
-
[SPARK-46538] Oprava nejednoznačného problému s odkazem na sloupce v
ALSModel.transform. - [SPARK-46417] Nezaznamenávat selhání při volání hive.getTable, pokud je throwException false.
-
[SPARK-46484] Zajistit, aby
resolveOperatorspomocné funkce zachovaly ID plánu. - [SPARK-46153] XML: Přidání podpory TimestampNTZType
- [SPARK-46152] XML: Přidání podpory DecimalType v odvození schématu XML.
- [SPARK-46145] spark.catalog.listTables nevyvolá výjimku, pokud se tabulka nebo zobrazení nenajde.
- [SPARK-46478] Vrátit SPARK-43049 k použití Oracle varchar(255) pro řetězec.
-
[SPARK-46394] Oprava problémů se spark.catalog.listDatabases() ve schématech se speciálními znaky, když je
spark.sql.legacy.keepCommandOutputSchemanastaveno na hodnotu true. -
[SPARK-46337] Ujistěte se, že
CTESubstitutionzachováváPLAN_ID_TAG. - [SPARK-46466] Vektorizovaná čtečka Parquet by nikdy neměla provádět úpravu základny pro časové razítko ntz.
- [SPARK-46587] XML: Oprava velkého celočíselného převodu XSD
- [SPARK-45814] Zajistit, aby ArrowConverters.createEmptyArrowBatch volalo metodu close(), aby nedošlo k úniku paměti.
- [SPARK-46132] Podpora hesla pro klíče JKS pro RPC SSL.
-
[SPARK-46602] Propagovat
allowExistingpři vytváření zobrazení, pokud zobrazení nebo tabulka neexistuje. - [SPARK-46173] Přeskočení volání trimAll během analýzy kalendářních dat
- [SPARK-46355] XML: Ukončete InputStreamReader při dokončování čtení.
- [SPARK-46600] Přesun sdíleného kódu mezi SqlConf a SqlApiConf do SqlApiConfHelper.
-
[SPARK-46261]
DataFrame.withColumnsRenamedby mělo zachovat pořadí diktování a mapování. - [SPARK-46056] Oprava problému s vektorizovaným čtením Parquet vedoucím k NPE při použití výchozí hodnoty byteArrayDecimalType.
-
[SPARK-46260]
DataFrame.withColumnsRenamedby měla respektovat řazení diktů. - [SPARK-46250] Odstranění nestability v test_parity_listener.
- [SPARK-46370] Opravte chybu při dotazování z tabulky po změně výchozích hodnot sloupců.
- [SPARK-46609] Vyhněte se exponenciální exploze v PartitioningPreservingUnaryExecNode.
- [SPARK-46058] Přidejte samostatný příznak pro privateKeyPassword.
- Uzel
- 14. prosince 2023
- Opravili jsme problém, kdy se upravená podtržítka v operacích getColumns pocházejících od klientů JDBC nebo ODBC zpracovávala nesprávně a interpretovala jako zástupné znaky.
- [SPARK-45509] Oprava chování odkazu na sloupec df pro Spark Connect.
- [SPARK-45844] Implementujte rozlišování velkých a malých písmen pro XML.
- [SPARK-46141] Změňte výchozí hodnotu pro spark.sql.legacy.ctePrecedencePolicy na OPRAVENO.
-
[SPARK-46028] Nastavit
Column.__getitem__k přijetí vstupního sloupce. - [SPARK-46255] Podpora komplexního typu –> převod řetězců
- [SPARK-45655] Povolte ne deterministické výrazy uvnitř AggregateFunctions v CollectMetrics.
- [SPARK-45433] Oprava odvození schématu CSV/JSON, pokud časové značky neodpovídají zadanému časovému formátu.
-
[SPARK-45316] Přidání nových parametrů
ignoreCorruptFiles/ignoreMissingFilesdoHadoopRDDaNewHadoopRDD. - [SPARK-45852] Elegantně řešit chybu rekurze během protokolování.
- [SPARK-45920] skupina podle ordinálu by měla být idempotentní.
- Aktualizace zabezpečení operačního systému.
- 29. listopadu 2023
- Nainstalovali jsme nový balíček,
pyarrow-hotfixkterý opraví ohrožení zabezpečení PyArrow RCE. - Opravili jsme problém, kdy se unklá podtržítka v operacích
getColumnspocházejících z klientů JDBC nebo ODBC nesprávně interpretovaly jako zástupné znaky. - Při ingestování dat CSV pomocí Auto Loaderu nebo streamovaných tabulek lze nyní velké soubory CSV dělit a zpracovávat paralelně během odvozování schématu i zpracování dat.
-
[SPARK-45892] Refaktoring ověřování plánu optimalizátoru k oddělení
validateSchemaOutputavalidateExprIdUniqueness. - [SPARK-45620] API související s Python UDF nyní používají camelCase.
-
[SPARK-44790] Přidání implementace a vazeb
to_xmlpro Python, Spark Connect a SQL -
[SPARK-45770] pevné rozlišení sloupců s
DataFrameDropColumnsproDataframe.drop. - [SPARK-45859] UDF objekty byly zpožděné.
-
[SPARK-45730] Vylepšená časová omezení pro
ReloadingX509TrustManagerSuite. - [SPARK-44784] Testování SBT bylo provedeno v hermetickém prostředí.
- Aktualizace zabezpečení operačního systému.
- Nainstalovali jsme nový balíček,
- 10. listopadu 2023
-
[SPARK-45545]
SparkTransportConfdědíSSLOptionspři vytváření. - [SPARK-45250] Přidána podpora pro profil prostředků pro úlohy na úrovni fáze pro clustery Yarn, pokud je dynamické přidělování vypnuto.
- [SPARK-44753] Přidání čtečky a zapisovače datových rámců XML pro PySpark SQL
-
[SPARK-45396] Přidání položky dokumentu pro
PySpark.ml.connectmodul -
[SPARK-45584] Bylo opraveno selhání spuštění poddotazu s
TakeOrderedAndProjectExec. - [SPARK-45541] Byla přidána SSLFactory.
-
[SPARK-45577] Opraveno
UserDefinedPythonTableFunctionAnalyzeRunner, aby předával složené hodnoty z pojmenovaných argumentů. - [SPARK-45562] Nasadili jsme požadovanou možnost rowTag.
-
[SPARK-45427] Přidání nastavení PROTOKOLU RPC SSL do
SSLOptionsaSparkTransportConf. - [SPARK-43380] Bylo opraveno zpomalení při čtení souborů Avro.
-
[SPARK-45430]
FramelessOffsetWindowFunctionjiž neselhává, pokudIGNORE NULLSaoffset > rowCount. - [SPARK-45429] Přidání pomocných tříd pro komunikaci SSL RPC
-
[SPARK-45386] Opravili jsme problém, kdy
StorageLevel.NONEnesprávně vrátil hodnotu 0. - [SPARK-44219] Byly přidány ověřovací kontroly pro jednotlivá pravidla přepisů optimalizace.
-
[SPARK-45543] Opravili jsme problém, který
InferWindowGroupLimitzpůsoboval problém, pokud ostatní funkce oken neměly stejný rámec okna jako funkce podobné pořadí. - Aktualizace zabezpečení operačního systému.
-
[SPARK-45545]
- 27. září 2023
-
[SPARK-44823] Aktualizováno
blackna verzi 23.9.1 a opravili jsme chybnou kontrolu. - [SPARK-45339] PySpark teď protokoluje chyby, které opakuje.
- Vraťte [SPARK-42946] Redigovaná citlivá data vnořená pod nahrazeními proměnných.
- [SPARK-44551] Upravované komentáře pro synchronizaci s open-source softwarem.
-
[SPARK-45360] Tvůrce relací Sparku podporuje inicializaci z
SPARK_REMOTE. -
[SPARK-45279] Připojeno
plan_idke všem logickým plánům. -
[SPARK-45425] Namapováno
TINYINTnaShortTypeproMsSqlServerDialect. -
[SPARK-45419] Odstranění mapování verzí souborů pro větší verze, aby se zabránilo opakovanému použití
rocksdbID souborů sst. -
[SPARK-45488] Přidání podpory pro hodnotu v
rowTagelementu -
[SPARK-42205] Odebrali jsme protokolování při
AccumulablespočátečníchTask/Stageudálostech vJsonProtocolprotokolech událostí. -
[SPARK-45426] Přidání podpory pro
ReloadingX509TrustManager. -
[SPARK-45256]
DurationWriterselže při zápisu více hodnot než počáteční kapacita. -
[SPARK-43380] Opravili jsme
Avroproblémy s převodem datových typů, aniž by to způsobilo regresi výkonu. - [SPARK-45182] Byla přidána podpora pro vrácení fáze pro přehazování map, aby se všechny úkoly fáze mohly opakovat, když je výstup fáze neurčitý.
-
[SPARK-45399] Přidání možností XML pomocí
newOption. - Aktualizace zabezpečení operačního systému.
-
[SPARK-44823] Aktualizováno
Databricks Runtime 14.0
Viz Databricks Runtime 14.0 (EoS).
- 8. února 2024
- [SPARK-46396] Odvození časového razítka by nemělo vyvolat výjimku.
- [SPARK-46794] Odeberte poddotazy z omezení logického RDD.
- [SPARK-45182] Po opakovaném pokusu o neurčitou dílčí fázi úkolu podle kontrolního součtu ignorujte dokončení úkolu ze staré fáze.
- [SPARK-46933] Přidejte metriku doby provádění dotazů do konektorů, které používají JDBCRDD.
- [SPARK-45957] Vyhněte se generování plánu provádění pro nespustitelné příkazy.
- [SPARK-46861] Vyhněte se zablokování v DAGScheduler.
- [SPARK-46930] Přidání podpory pro vlastní předponu pro pole typu Union v Avro.
- [SPARK-46941] Okenní skupinový limitní uzel nelze vložit pro výpočet top-k, pokud obsahuje funkci závislou na velikosti okna.
- [SPARK-45582] Ujistěte se, že se instance úložiště nepoužívá po zavolání potvrzení během agregace datového proudu v režimu výstupu.
- Aktualizace zabezpečení operačního systému.
- 31. ledna 2024
- [SPARK-46541] Oprava nejednoznačného odkazu na sloupec v samospojení.
- [SPARK-46676] Funkce dropDuplicatesWithinWatermark by neměla selhat při kanonizaci prováděcího plánu.
- [SPARK-46769] Upřesnění odvození schématu týkajícího se časových razítek.
- [SPARK-45498] Doplnění: Ignorovat dokončení úkolu z předchozích pokusů o fázi
- Vrátit [SPARK-46769] zpřesnění odvození schématu souvisejícího s časovým razítkem.
-
[SPARK-46383] Snížení využití paměti ovladače snížením životnosti
TaskInfo.accumulables(). - [SPARK-46633] Opravte čtečku Avro pro zpracování bloků nulové délky.
-
[SPARK-46677] Opravit
dataframe["*"]řešení. - [SPARK-46684] Oprava funkce CoGroup.applyInPandas/Arrow pro správné předávání argumentů
- [SPARK-46763] Oprava selhání kontrolního tvrzení v replaceDeduplicateWithAggregate pro duplicitní atributy.
- [SPARK-46610] Vytvoření tabulky by mělo vyvolat výjimku, pokud není žádná hodnota pro klíč v možnostech.
- Aktualizace zabezpečení operačního systému.
- 17. ledna 2024
- Uzel
shufflevysvětlujícího plánu vráceného dotazem Photon se aktualizuje, aby se přidal příznakcausedBroadcastJoinBuildOOM=true, když dojde k chybě nedostatku paměti během přeskupování, které je součástí broadcast joinu. - Aby se zabránilo zvýšené latenci při komunikaci přes TLSv1.3, obsahuje tato verze údržby opravu instalace sady JDK 8, která opraví chybu JDK JDK-8293562.
-
[SPARK-46394] Oprava problémů se spark.catalog.listDatabases() ve schématech se speciálními znaky, když je
spark.sql.legacy.keepCommandOutputSchemanastaveno na hodnotu true. - [SPARK-46250] Odstranění nestability v test_parity_listener.
- [SPARK-45814] Zajistit, aby ArrowConverters.createEmptyArrowBatch volalo metodu close(), aby nedošlo k úniku paměti.
- [SPARK-46173] Přeskočení volání trimAll během analýzy kalendářních dat
-
[SPARK-46484] Zajistit, aby
resolveOperatorspomocné funkce zachovaly ID plánu. - [SPARK-46466] Vektorizovaná čtečka Parquet by nikdy neměla provádět úpravu základny pro časové razítko ntz.
- [SPARK-46056] Oprava problému s vektorizovaným čtením Parquet vedoucím k NPE při použití výchozí hodnoty byteArrayDecimalType.
- [SPARK-46058] Přidejte samostatný příznak pro privateKeyPassword.
- [SPARK-46478] Vrátit SPARK-43049 k použití Oracle varchar(255) pro řetězec.
- [SPARK-46132] Podpora hesla pro klíče JKS pro RPC SSL.
- [SPARK-46417] Nezaznamenávat selhání při volání hive.getTable, pokud je throwException false.
-
[SPARK-46261]
DataFrame.withColumnsRenamedby mělo zachovat pořadí diktování a mapování. - [SPARK-46370] Opravte chybu při dotazování z tabulky po změně výchozích hodnot sloupců.
- [SPARK-46609] Vyhněte se exponenciální exploze v PartitioningPreservingUnaryExecNode.
- [SPARK-46600] Přesun sdíleného kódu mezi SqlConf a SqlApiConf do SqlApiConfHelper.
-
[SPARK-46538] Oprava nejednoznačného problému s odkazem na sloupce v
ALSModel.transform. -
[SPARK-46337] Ujistěte se, že
CTESubstitutionzachováváPLAN_ID_TAG. -
[SPARK-46602] Propagovat
allowExistingpři vytváření zobrazení, pokud zobrazení nebo tabulka neexistuje. -
[SPARK-46260]
DataFrame.withColumnsRenamedby měla respektovat řazení diktů. - [SPARK-46145] spark.catalog.listTables nevyvolá výjimku, pokud se tabulka nebo zobrazení nenajde.
- Uzel
- 14. prosince 2023
- Opravili jsme problém, kdy se upravená podtržítka v operacích getColumns pocházejících od klientů JDBC nebo ODBC zpracovávala nesprávně a interpretovala jako zástupné znaky.
- [SPARK-46255] Podpora komplexního typu –> převod řetězců
-
[SPARK-46028] Nastavit
Column.__getitem__k přijetí vstupního sloupce. - [SPARK-45920] skupina podle ordinálu by měla být idempotentní.
- [SPARK-45433] Oprava odvození schématu CSV/JSON, pokud časové značky neodpovídají zadanému časovému formátu.
- [SPARK-45509] Oprava chování odkazu na sloupec df pro Spark Connect.
- Aktualizace zabezpečení operačního systému.
- 29. listopadu 2023
- Nainstalovali jsme nový balíček,
pyarrow-hotfixkterý opraví ohrožení zabezpečení PyArrow RCE. - Opravili jsme problém, kdy se unklá podtržítka v operacích
getColumnspocházejících z klientů JDBC nebo ODBC nesprávně interpretovaly jako zástupné znaky. - Při ingestování dat CSV pomocí Auto Loaderu nebo streamovaných tabulek lze nyní velké soubory CSV dělit a zpracovávat paralelně během odvozování schématu i zpracování dat.
- Konektor Spark-snowflake se upgraduje na verzi 2.12.0.
- [SPARK-45859] UDF objekty byly zpožděné.
- Vrátit [SPARK-45592].
-
[SPARK-45892] Refaktoring ověřování plánu optimalizátoru k oddělení
validateSchemaOutputavalidateExprIdUniqueness. -
[SPARK-45592] Opravili jsme problém s správností v AQE s
InMemoryTableScanExec. - [SPARK-45620] API související s Python UDF nyní používají camelCase.
- [SPARK-44784] Testování SBT bylo provedeno v hermetickém prostředí.
-
[SPARK-45770] pevné rozlišení sloupců s
DataFrameDropColumnsproDataframe.drop. -
[SPARK-45544] Integrovaná podpora SSL do
TransportContext. -
[SPARK-45730] Vylepšená časová omezení pro
ReloadingX509TrustManagerSuite. - Aktualizace zabezpečení operačního systému.
- Nainstalovali jsme nový balíček,
- 10. listopadu 2023
- Změnili jsme dotazy datových toků u streamingových tabulek a materializovaných pohledů v katalogu Unity, které nyní zobrazují chybové zprávy.
-
[SPARK-45545]
SparkTransportConfdědíSSLOptionspři vytváření. -
[SPARK-45584] Bylo opraveno selhání spuštění poddotazu s
TakeOrderedAndProjectExec. -
[SPARK-45427] Přidání nastavení PROTOKOLU RPC SSL do
SSLOptionsaSparkTransportConf. -
[SPARK-45541] Přidáno
SSLFactory. -
[SPARK-45430]
FramelessOffsetWindowFunctionjiž neselhává, pokudIGNORE NULLSaoffset > rowCount. - [SPARK-45429] Přidání pomocných tříd pro komunikaci SSL RPC
- [SPARK-44219] Byla přidána další ověření pro jednotlivá pravidla pro optimalizační přepisy.
-
[SPARK-45543] Opravili jsme problém, kdy
InferWindowGroupLimitvygenerovala chybu, pokud ostatní funkce okna nemají stejný rámec okna jako funkce podobné těm pro řazení. - Aktualizace zabezpečení operačního systému.
- 23. října 2023
-
[SPARK-45426] Přidání podpory pro
ReloadingX509TrustManager. -
[SPARK-45396] Byla přidána položka dokumentace pro modul
PySpark.ml.connect, aEvaluatorbylo přidáno na__all__vml.connect. -
[SPARK-45256] Opravili jsme problém, kdy
DurationWriterpři zápisu více hodnot, než je počáteční kapacita, selhal. -
[SPARK-45279] Připojeno
plan_idke všem logickým plánům. - [SPARK-45250] Přidána podpora pro profil prostředků pro úlohy na úrovni fáze pro clustery Yarn, pokud je dynamické přidělování vypnuto.
- [SPARK-45182] Byla přidána podpora pro vrácení fáze pro přehazování map, aby se všechny úkoly fáze mohly opakovat, když je výstup fáze neurčitý.
-
[SPARK-45419] Vyhněte se opakovanému použití
rocksdb sstsouborů v jinérocksdbinstanci odebráním položek mapování verzí souborů větších verzí. -
[SPARK-45386] Opravili jsme problém, kdy
StorageLevel.NONEnesprávně vrátil hodnotu 0. - Aktualizace zabezpečení operačního systému.
-
[SPARK-45426] Přidání podpory pro
- 13. října 2023
- Závislost Snowflake-jdbc se upgradovala z verze 3.13.29 na verzi 3.13.33.
- Funkce
array_insertje založená na 1 pro kladné a záporné indexy, zatímco předtím byla pro záporné indexy 0. Teď vloží nový prvek na konec vstupních polí pro index -1. Chcete-li obnovit předchozí chování, nastavtespark.sql.legacy.negativeIndexInArrayInsertnatrue. - Azure Databricks již nebude ignorovat poškozené soubory, když je povoleno odvozování schématu CSV pomocí funkce Auto Loader
ignoreCorruptFiles. -
[SPARK-45227] Opravili jsme drobný problém s bezpečností vláken.
CoarseGrainedExecutorBackend -
[SPARK-44658]
ShuffleStatus.getMapStatusby měla vrátitNonemístoSome(null). -
[SPARK-44910]
Encoders.beannepodporuje supertřídy s argumenty obecného typu. - [SPARK-45346] Při slučování schémat odvozování schématu Parquet respektuje příznaky citlivé na velikost písmen.
- Vrátit [SPARK-42946].
- [SPARK-42205] Aktualizovali jsme protokol JSON k odstranění protokolování Accumulables při zahájení úkolu nebo fáze.
-
[SPARK-45360] Tvůrce relací Sparku podporuje inicializaci z
SPARK_REMOTE. -
[SPARK-45316] Přidání nových parametrů
ignoreCorruptFiles/ignoreMissingFilesdoHadoopRDDaNewHadoopRDD. - [SPARK-44909] Je-li server streamování protokolu torch distributora nedostupný, přeskočte jeho spuštění.
-
[SPARK-45084]
StateOperatorProgressteď používá přesné číslo shuffle oddílu. - [SPARK-45371] Opravili jsme problémy se stínováním v klientovi Scala pro Spark Connect.
-
[SPARK-45178] Přechod na spuštění jedné dávky pro
Trigger.AvailableNownepodporované zdroje místo použití obálky. -
[SPARK-44840] Nastavte
array_insert()jako začínající od 1 pro záporné indexy. - [SPARK-44551] Upravované komentáře pro synchronizaci s open-source softwarem.
-
[SPARK-45078] Funkce
ArrayInsertnyní vytvoří explicitní přetypování, pokud se typ prvku nerovná odvozeného typu komponenty. - [SPARK-45339] PySpark teď protokoluje chyby opakování.
-
[SPARK-45057] Vyhněte se získání zámku čtení, pokud
keepReadLockje false. -
[SPARK-44908] Byla opravena funkcionalita parametru křížového validátoru
foldCol. - Aktualizace zabezpečení operačního systému.
Databricks Runtime 13.1
Viz Databricks Runtime 13.1 (EoS).
- 29. listopadu 2023
- Opravili jsme problém, kdy se unklá podtržítka v operacích
getColumnspocházejících z klientů JDBC nebo ODBC nesprávně interpretovaly jako zástupné znaky. -
[SPARK-44846] Odebrali jsme komplexní seskupovací výrazy za
RemoveRedundantAggregates. - [SPARK-43802] Opravili jsme problém, kdy funkce codegen pro výrazy unhex a unbase64 selhala.
-
[SPARK-43718] Byla opravena nulovatelnost klíčů ve
USINGspojeních. - Aktualizace zabezpečení operačního systému.
- Opravili jsme problém, kdy se unklá podtržítka v operacích
- 14. listopadu 2023
- Filtry oddílů u dotazů streamování Delta Lake se před omezením rychlosti odsunou dolů, aby se dosáhlo lepšího využití.
- Změnili jsme dotazy datových toků u streamingových tabulek a materializovaných pohledů v katalogu Unity, které nyní zobrazují chybové zprávy.
-
[SPARK-45584] Bylo opraveno selhání spuštění poddotazu s
TakeOrderedAndProjectExec. -
[SPARK-45430]
FramelessOffsetWindowFunctionjiž neselhává, pokudIGNORE NULLSaoffset > rowCount. -
[SPARK-45543] Opravili jsme problém, který
InferWindowGroupLimitzpůsoboval problém, pokud ostatní funkce oken neměly stejný rámec okna jako funkce podobné pořadí. - Aktualizace zabezpečení operačního systému.
- 24. října 2023
-
[SPARK-43799] Přidání binární možnosti popisovače do rozhraní API PySpark
Protobuf - Vrátit [SPARK-42946].
- [SPARK-45346] Inference schématu Parquet nyní při slučování schématu respektuje příznak rozlišující malá a velká písmena.
- Aktualizace zabezpečení operačního systému.
-
[SPARK-43799] Přidání binární možnosti popisovače do rozhraní API PySpark
- 13. října 2023
- Závislost Snowflake-jdbc se upgradovala z verze 3.13.29 na verzi 3.13.33.
- Pokud je při odvozování schématu CSV s Auto Loader povoleno
ignoreCorruptFiles, poškozené soubory už se nebudou ignorovat. -
[SPARK-44658]
ShuffleStatus.getMapStatusvrátíNonemístoSome(null). -
[SPARK-45178] Přechod na spuštění jedné dávky pro
Trigger.AvailableNownepodporované zdroje místo použití obálky. - [SPARK-42205] Aktualizovali jsme protokol JSON k odstranění protokolování Accumulables při zahájení úkolu nebo fáze.
- Aktualizace zabezpečení operačního systému.
- 12. září 2023
-
[SPARK-44718] Porovná
ColumnVectorkonfiguraci v režimu paměti sOffHeapMemoryModevýchozí hodnotou konfigurace. -
SPARK-44878 Vypnul přísný limit pro správce zápisu, aby se zabránilo výjimce vložení při dokončení mezipaměti
RocksDB. - Různé opravy.
-
[SPARK-44718] Porovná
- 30. srpna 2023
- [SPARK-44871] Opravili jsme chování percentile_disc.
- [SPARK-44714] Uvolnění omezení řešení LCA ve vztahu k dotazům.
-
[SPARK-44245]
PySpark.sql.dataframe sample()Testování dokumentů je teď pouze ilustrativní. -
[SPARK-44818] Opravena závodní podmínka pro přerušení čekajícího úkolu, k němuž došlo před inicializací
taskThread. - Aktualizace zabezpečení operačního systému.
- 15. srpna 2023
-
[SPARK-44485] Optimalizované
TreeNode.generateTreeString. -
[SPARK-44643] Opraveno
Row.__repr__, když je řádek prázdný. - [SPARK-44504] Údržbová úloha nyní vyčistí načtené zprostředkovatele při chybě při zastavení.
-
[SPARK-44479] Oprava
protobufpřevodu z prázdného typu struktury -
[SPARK-44464] Opraveno
applyInPandasWithStatePythonRunnertak, aby řádky výstupu mělyNulljako první hodnotu sloupce. - Různé opravy.
-
[SPARK-44485] Optimalizované
- 27. července 2023
- Opravili jsme problém, kdy
dbutils.fs.ls()vrátilINVALID_PARAMETER_VALUE.LOCATION_OVERLAPpři vyvolání cesty umístění úložiště, která kolidovala s jiným externím nebo spravovaným umístěním úložiště. -
[SPARK-44199]
CacheManagerjiž zbytečně neaktualizujefileIndex. -
[SPARK-44448] Opravili jsme chybnou chybu výsledků z
DenseRankLimitIteratoraInferWindowGroupLimit. - Aktualizace zabezpečení operačního systému.
- Opravili jsme problém, kdy
- 24. července 2023
- Vrátit [SPARK-42323].
-
[SPARK-41848] Opravili jsme problém s přeplánem úkolu s
TaskResourceProfile. -
[SPARK-44136] Opravili jsme problém, kdy
StateManagerse materializoval v exekutoru místo ovladače vFlatMapGroupsWithStateExec. -
[SPARK-44337] Opravili jsme problém, kdy jakékoli pole nastavené na
Any.getDefaultInstancezpůsobovalo chyby analýzy. - Aktualizace zabezpečení operačního systému.
- 27. června 2023
- Aktualizace zabezpečení operačního systému.
- 15. června 2023
- Fotonizováno
approx_count_distinct. - Analyzátor JSON v
failOnUnknownFieldsrežimu teď záznam zahodí vDROPMALFORMEDrežimu a selže přímo vFAILFASTrežimu. - Knihovna Snowflake-jdbc se upgraduje na verzi 3.13.29, aby se vyřešil problém se zabezpečením.
- Pole
PubSubRecordatributů je uloženo jako JSON místo řetězce z mapy Scala pro jednodušší serializaci a deserializaci. - Příkaz
EXPLAIN EXTENDEDteď vrátí způsobilost dotazu do mezipaměti výsledků. - Zlepšete výkon přírůstkových aktualizací pomocí
SHALLOW CLONEApache Iceberg a Parquet. - [SPARK-43032] Oprava chyby Python SQM.
- [SPARK-43404]Pokud se chcete vyhnout chybě neshody ID, přeskočte opakované použití souboru sst pro stejnou verzi úložiště stavů RocksDB.
- [SPARK-43340] Řešení chybějícího pole trasování zásobníku v protokolech událostí.
-
[SPARK-43527] Opraveno
catalog.listCatalogsv PySparku. -
[SPARK-43541] Rozšířit všechny značky
Projectpři překladu výrazů a chybějících sloupců. -
[SPARK-43300]
NonFateSharingCacheobálka pro Guava Cache. -
[SPARK-43378] Správně zavřete streamové objekty v
deserializeFromChunkedBuffer. -
[SPARK-42852]
NamedLambdaVariableVrátit související změny zEquivalentExpressions. -
[SPARK-43779]
ParseToDatenyní se načteEvalModedo hlavního vlákna. -
[SPARK-43413] Oprava nulovatelnosti
INpoddotazuListQuery. -
[SPARK-43889] Přidat kontrolu názvu sloupce pro
__dir__()pro filtrování názvů sloupců náchylných k chybám. -
[SPARK-43043] Vylepšení výkonu
MapOutputTracker.updateMapOutput - [SPARK-43522] Opraveno vytváření názvu sloupce struktury s indexem pole.
- [SPARK-43457] uživatelský agent Augument s operačním systémem, Python a verzemi Sparku.
-
[SPARK-43286] Aktualizoval
aes_encryptrežim CBC pro generování náhodných IVs. -
[SPARK-42851] Stráž s
EquivalentExpressions.addExpr()supportedExpression(). - Vrátit [SPARK-43183].
- Aktualizace zabezpečení operačního systému.
- Fotonizováno
Databricks Runtime 12.2 LTS (Long-Term Support – dlouhodobá podpora)
Viz Databricks Runtime 12.2 LTS (EoS).
26. února 2026
- Aktualizace zabezpečení operačního systému.
19. února 2026
- Aktualizace zabezpečení operačního systému.
- 27. ledna 2026
- Aktualizace zabezpečení operačního systému.
- 9. ledna 2026
- Aktualizace zabezpečení operačního systému.
- 9. prosince 2025
- Aktualizace zabezpečení operačního systému.
- 18. listopadu 2025
- Aktualizace zabezpečení operačního systému.
- 4. listopadu 2025
- Aktualizované knihovny jazyka R:
- šipka od 10.0.0 do 21.0.0
- Aktualizace zabezpečení operačního systému.
- Aktualizované knihovny jazyka R:
- 21. října 2025
- Aktualizace Python z verze 2.7.18 na 2.7.18.1
- Aktualizace zabezpečení operačního systému.
- 7. října 2025
- Aktualizace zabezpečení operačního systému.
- 24. září 2025
- Aktualizace zabezpečení operačního systému.
- 9. září 2025
- Aktualizace zabezpečení operačního systému.
- 26. srpna 2025
- Aktualizace zabezpečení operačního systému.
- 14. srpna 2025
- Aktualizace zabezpečení operačního systému.
- 29. července 2025
- Aktualizace zabezpečení operačního systému.
- 15. července 2025
- Aktualizace zabezpečení operačního systému.
- 1. července 2025
- Aktualizace zabezpečení operačního systému.
- 17. června 2025
- Aktualizace zabezpečení operačního systému.
- 3. června 2025
- Aktualizované knihovny Python:
- certifikát od 28.11.2019, 8.10.2021 do 8.10.2021
- chardet od 3.0.4, 4.0.0 do 4.0.0
- idna od 2.8, 3.3 do 3.3
- požadavky na verze od 2.22.0, 2.27.1 do 2.27.1
- šest od 1.14.0, 1.16.0 do 1.16.0
- urllib3 od 1.25.8, 1.26.9 do 1.26.9
- Byl přidán pip 21.2.4
- Přidáno setuptools 61.2.0
- Přidáno tomli 1.2.2
- Přidáno wcwidth 0.2.5
- Přidáno kolečko 0.37.0
- Byla odebrána distribuce 1.4.0
- Odebrání distro-info 0.23+ubuntu1.1
- Odebrání python-apt 2.0.1+ubuntu0.20.4.1
- Aktualizace knihoven Java:
- software.amazon.cryptools.AmazonCorrettoCryptoProvider od 1.6.1-linux-x86_64 do 1.6.1
- Aktualizace zabezpečení operačního systému.
- Aktualizované knihovny Python:
- 20. května 2025
- [SPARK-42655][SQL] Nesprávná nejednoznačná chyba odkazu na sloupec
- Aktualizace zabezpečení operačního systému.
- 22. dubna 2025
- [Změna chování] Vakuové operace nyní provádějí kontroly protokolu Writer podobně jako jiné operace, aby se zabránilo neočekávanému vyčištění tabulek s novějšími funkcemi při jejich spuštění na nekompatibilních starších verzích Databricks Runtime.
- Aktualizace zabezpečení operačního systému.
- 9. dubna 2025
- Aktualizace zabezpečení operačního systému.
11. března 2025
- Aktualizace zabezpečení operačního systému.
10. prosince 2024
- Aktualizace zabezpečení operačního systému.
26. listopadu 2024
- Různé opravy chyb
10. října 2024
- [SPARK-49743][SQL] OptimizeCsvJsonExpr by neměl při vyřazování polí schématu GetArrayStructFields měnit.
25. září 2024
- [SPARK-49000][SQL] Oprava "select count(distinct 1) from t" pro případ, kdy je t prázdná tabulka, rozšířením RewriteDistinctAggregates.
- [SPARK-46601] [CORE] Oprava chyby protokolu v handleStatusMessage
- Různé opravy chyb
17. září 2024
- Aktualizace zabezpečení operačního systému.
29. srpna 2024
- Různé opravy chyb
14. srpna 2024
- [SPARK-48941][SPARK-48970] Opravy zapisovače Backport ML / čtečky
- [SPARK-49065][SQL] Opětovné použití starších formátovacích nástrojů nebo analyzátorů musí podporovat jiné než výchozí časová pásma JVM.
- [SPARK-49056][SQL] ErrorClassesJsonReader nemůže správně zpracovat hodnotu null.
- [SPARK-48597][SQL] Zavedení značky pro vlastnost isStreaming v textové reprezentaci logického plánu
- [SPARK-48463][ML] Udělat z StringIndexer nástroj podporující vnořené vstupní sloupce
- Aktualizace zabezpečení operačního systému.
1. srpna 2024
- [SPARK-48896][SPARK-48909][SPARK-48883] Opravy zapisovače Spark ML backportu
1. srpna 2024
- Pokud chcete použít požadované opravy zabezpečení, upgraduje se verze Python v Databricks Runtime 12.2 LTS z verze 3.9.5 na verzi 3.9.19.
11. července 2024
- (Změna chování) Datové rámce uložené v mezipaměti ve vztahu ke zdrojovým tabulkám Delta jsou nyní invalidovány, pokud je zdrojová tabulka přepsána. Tato změna znamená, že všechny změny stavu tabulek Delta teď zneplatní výsledky uložené v mezipaměti. Pomocí
.checkpoint()zachovají stav tabulky po celou dobu životnosti datového rámce. - [SPARK-48481][SQL][SS] Nepoužívejte OptimalOneRowPlan pro streamovací datovou sadu.
- [SPARK-47070] Oprava neplatné agregace po přepsání poddotazů
- [SPARK-42741][SQL] Neodstraňujte přetypování v binárním porovnávání, pokud je literál null
- [SPARK-48445][SQL] Nezařaovávejte uživatelem definované funkce s drahými dětmi
- [SPARK-48503][SQL] Oprava neplatných skalárních poddotazů při skupinováním podle sloupců, které nejsou ekvivalentní a byly nesprávně povoleny.
- [SPARK-48383][SS] Vyvolat jasnější chybu pro neshodující se partice v možnosti startOffset v Kafce
- Aktualizace zabezpečení operačního systému.
- (Změna chování) Datové rámce uložené v mezipaměti ve vztahu ke zdrojovým tabulkám Delta jsou nyní invalidovány, pokud je zdrojová tabulka přepsána. Tato změna znamená, že všechny změny stavu tabulek Delta teď zneplatní výsledky uložené v mezipaměti. Pomocí
17. června 2024
- [SPARK-48277] Zlepšení chybové zprávy pro ErrorClassesJsonReader.getErrorMessage
- Různé opravy chyb
21. května 2024
- [SPARK-48105][SS] Oprava souběhu mezi uvolněním úložiště stavu a pořizováním snímků
- Aktualizace zabezpečení operačního systému.
9. května 2024
- [SPARK-44251][SQL] Nastavte správně hodnotu null pro sloučený spojovací klíč při úplném vnějším spojení pomocí USING.
- [SPARK-47973][CORE] Zaznamenej místo volání ve SparkContext.stop() a následně ve SparkContext.assertNotStopped()
- [SPARK-47956][SQL] Ověření správnosti nevyřešených odkazů LCA
- [SPARK-48018][SS] Oprava hodnoty groupId 'null' způsobující chybu chybějícího parametru při vyvolání výjimky KafkaException.couldNotReadOffsetRange
- Aktualizace zabezpečení operačního systému.
25. dubna 2024
- Aktualizace zabezpečení operačního systému.
11. dubna 2024
- Aktualizace zabezpečení operačního systému.
1. dubna 2024
- [SPARK-47305][SQL] Opravit funkci PruneFilters tak, aby správně označovala příznak isStreaming u LocalRelation, když plán obsahuje jak dávkovou, tak streamovací část.
- [SPARK-44252][SS] Definujte novou chybovou třídu a aplikujte ji v případě, kdy selže načítání stavu z distribuovaného souborového systému (DFS).
- [SPARK-47135][SS] Implementace tříd chyb pro výjimky ztráty dat Kafka
- [SPARK-47200][SS] Chybová třída pro chybu uživatelské funkce v dávkové jímce Foreach
- Aktualizace zabezpečení operačního systému.
14. března 2024
- [SPARK-47176][SQL] Mají pomocnou funkci ResolveAllExpressionsUpWithPruning
- Vrátit zpět "[SPARK-46861][CORE] Vyhněte se zablokování v DAGScheduler"
- [SPARK-47125][SQL] Vrátí hodnotu null, pokud univocity nikdy neaktivuje parsování.
- [SPARK-47167][SQL] Přidání konkrétní třídy pro anonymní vztah JDBC
- Aktualizace zabezpečení operačního systému.
29. února 2024
- Opravili jsme problém, kdy použití místní kolekce jako zdroje v příkazu MERGE mohlo vést k tomu, že metrika numSourceRows hlásí dvakrát správný počet řádků.
- Vytvoření schématu s definovaným umístěním teď vyžaduje, aby uživatel měl oprávnění k SELECT a právo upravovat libovolný soubor.
- [SPARK-45582][SS] Ujistěte se, že se po volání potvrzení v rámci agregace streamování v režimu výstupu nepoužívá instance úložiště.
- Aktualizace zabezpečení operačního systému.
13. února 2024
- [SPARK-46861] Vyhněte se zablokování v DAGScheduler.
- [SPARK-46794] Odeberte poddotazy z omezení logického RDD.
- Aktualizace zabezpečení operačního systému.
31. ledna 2024
- [SPARK-46763] Oprava selhání kontrolního tvrzení v replaceDeduplicateWithAggregate pro duplicitní atributy.
- Aktualizace zabezpečení operačního systému.
25. prosince 2023
- Aby se zabránilo zvýšené latenci při komunikaci přes TLSv1.3, obsahuje tato verze údržby opravu instalace sady JDK 8, která opraví chybu JDK JDK-8293562.
- [SPARK-39440] Přidejte konfiguraci pro zakázání časové osy událostí.
- [SPARK-46132] Podpora hesla pro klíče JKS pro RPC SSL.
-
[SPARK-46394] Oprava problémů se spark.catalog.listDatabases() ve schématech se speciálními znaky, když je
spark.sql.legacy.keepCommandOutputSchemanastaveno na hodnotu true. - [SPARK-46417] Nezaznamenávat selhání při volání hive.getTable, pokud je throwException false.
- [SPARK-43067] Opravte umístění souboru chybové třídy pro konektor Kafka.
- [SPARK-46249] Vyžadovat zámek instance pro získání metrik RocksDB, aby se předešlo závodům s operacemi na pozadí.
-
[SPARK-46602] Propagovat
allowExistingpři vytváření zobrazení, pokud zobrazení nebo tabulka neexistuje. - [SPARK-46058] Přidejte samostatný příznak pro privateKeyPassword.
- [SPARK-46145] spark.catalog.listTables nevyvolá výjimku, pokud se tabulka nebo zobrazení nenajde.
-
[SPARK-46538] Oprava nejednoznačného problému s odkazem na sloupce v
ALSModel.transform. - [SPARK-42852] Vrátit změny týkající se NamedLambdaVariable z EquivalentExpressions.
14. prosince 2023
- Opravili jsme problém, kdy se upravená podtržítka v operacích getColumns pocházejících od klientů JDBC nebo ODBC zpracovávala nesprávně a interpretovala jako zástupné znaky.
- [SPARK-44582] Pokud byl iterátor v SMJ vyčištěný, přeskočte ho.
- [SPARK-45920] skupina podle ordinálu by měla být idempotentní.
- [SPARK-45655] Povolte ne deterministické výrazy uvnitř AggregateFunctions v CollectMetrics.
- Aktualizace zabezpečení operačního systému.
29. listopadu 2023
- Nainstalovali jsme nový balíček,
pyarrow-hotfixkterý opraví ohrožení zabezpečení PyArrow RCE. - Opravili jsme problém, kdy se unklá podtržítka v operacích
getColumnspocházejících z klientů JDBC nebo ODBC nesprávně interpretovaly jako zástupné znaky. -
[SPARK-42205] Odebráno logování akumulátorů v událostech
StageaTaskstart. -
[SPARK-44846] Odebrali jsme komplexní seskupovací výrazy za
RemoveRedundantAggregates. -
[SPARK-43718] Byla opravena nulovatelnost klíčů ve
USINGspojeních. -
[SPARK-45544] Integrovaná podpora SSL do
TransportContext. - [SPARK-43973] Uživatelské rozhraní strukturovaného streamování teď zobrazuje neúspěšné dotazy správně.
-
[SPARK-45730] Vylepšená časová omezení pro
ReloadingX509TrustManagerSuite. - [SPARK-45859] UDF objekty byly zpožděné.
- Aktualizace zabezpečení operačního systému.
- Nainstalovali jsme nový balíček,
14. listopadu 2023
- Filtry oddílů u dotazů streamování Delta Lake se před omezením rychlosti odsunou dolů, aby se dosáhlo lepšího využití.
-
[SPARK-45545]
SparkTransportConfdědíSSLOptionspři vytváření. -
[SPARK-45427] Přidání nastavení PROTOKOLU RPC SSL do
SSLOptionsaSparkTransportConf. -
[SPARK-45584] Bylo opraveno selhání spuštění poddotazu s
TakeOrderedAndProjectExec. -
[SPARK-45541] Přidáno
SSLFactory. -
[SPARK-45430]
FramelessOffsetWindowFunctionjiž neselhává, pokudIGNORE NULLSaoffset > rowCount. - [SPARK-45429] Přidání pomocných tříd pro komunikaci SSL RPC
- Aktualizace zabezpečení operačního systému.
24. října 2023
-
[SPARK-45426] Přidání podpory pro
ReloadingX509TrustManager. - Různé opravy.
-
[SPARK-45426] Přidání podpory pro
13. října 2023
- Závislost Snowflake-jdbc se upgradovala z verze 3.13.29 na verzi 3.13.33.
- [SPARK-42553] Zajistěte, aby po intervalu byla alespoň jedna časová jednotka.
- [SPARK-45346] Odvozování schémat Parquet respektuje příznak rozlišení malých a velkých písmen při slučování schémat.
-
[SPARK-45178] Přechod na spuštění jedné dávky pro
Trigger.AvailableNownepodporované zdroje místo použití obálky. -
[SPARK-45084]
StateOperatorProgresspoužít přesné a adekvátní číslo pro shuffle rozdělení.
12. září 2023
-
[SPARK-44873] Přidána podpora pro
alter viewv klientovi Hive s vnořenými sloupci. -
[SPARK-44718] Porovná
ColumnVectorkonfiguraci v režimu paměti sOffHeapMemoryModevýchozí hodnotou konfigurace. -
[SPARK-43799] Přidání binární možnosti popisovače do rozhraní API PySpark
Protobuf - Různé opravy.
-
[SPARK-44873] Přidána podpora pro
30. srpna 2023
-
[SPARK-44485] Optimalizované
TreeNode.generateTreeString. -
[SPARK-44818] Opravena závodní podmínka pro přerušení čekajícího úkolu, k němuž došlo před inicializací
taskThread. -
[SPARK-44871][11.3-13.0] Opravené
percentile_discchování. - [SPARK-44714] Uvolnění omezení řešení LCA týkající se dotazů.
- Aktualizace zabezpečení operačního systému.
-
[SPARK-44485] Optimalizované
15. srpna 2023
- [SPARK-44504] Úloha údržby odstraní načtené zprostředkovatele při chybě při zastavení.
-
[SPARK-44464] Opraveno
applyInPandasWithStatePythonRunnertak, aby řádky výstupu mělyNulljako první hodnotu sloupce. - Aktualizace zabezpečení operačního systému.
29. července 2023
- Opravili jsme problém, kdy
dbutils.fs.ls()vrátilINVALID_PARAMETER_VALUE.LOCATION_OVERLAPpři vyvolání cesty umístění úložiště, která kolidovala s jiným externím nebo spravovaným umístěním úložiště. -
[SPARK-44199]
CacheManagerjiž zbytečně neaktualizujefileIndex. - Aktualizace zabezpečení operačního systému.
- Opravili jsme problém, kdy
24. července 2023
-
[SPARK-44337] Opravili jsme problém, kdy jakékoli pole nastavené na
Any.getDefaultInstancezpůsobovalo chyby analýzy. -
[SPARK-44136] Opravili jsme problém, kdy
StateManagerse materializoval v exekutoru místo ovladače vFlatMapGroupsWithStateExec. - Aktualizace zabezpečení operačního systému.
-
[SPARK-44337] Opravili jsme problém, kdy jakékoli pole nastavené na
23. června 2023
- Aktualizace zabezpečení operačního systému.
15. června 2023
- Fotonizováno
approx_count_distinct. - Knihovna Snowflake-jdbc se upgraduje na verzi 3.13.29, aby se vyřešil problém se zabezpečením.
-
[SPARK-43779]
ParseToDatenyní se načteEvalModedo hlavního vlákna. -
[SPARK-43156][SPARK-43098] Rozšířený test chyb počtu skalárních poddotazů s vypnutou funkcí
decorrelateInnerQuery. - Aktualizace zabezpečení operačního systému.
- Fotonizováno
2. června 2023
- Analyzátor JSON v
failOnUnknownFieldsrežimu zahodí záznam vDROPMALFORMEDrežimu a selže přímo vFAILFASTrežimu. - Zvýšení výkonu přírůstkových aktualizací pomocí
SHALLOW CLONEIcebergu a Parquetu - Opravili jsme problém v AutoLoaderu, kdy různé formáty zdrojového souboru byly nekonzistentní, když zadané schéma nezahrnovalo odvozené oddíly. Tento problém může způsobit neočekávané chyby při čtení souborů s chybějícími sloupci ve schématu odvozeného oddílu.
- [SPARK-43404] Pokud se chcete vyhnout chybě neshody ID, přeskočte opakované použití souboru sst pro stejnou verzi úložiště stavů RocksDB.
-
[SPARK-43413][11.3-13.0] Opravená nullovatelnost poddotazu
IN. - [SPARK-43522] Opraveno vytváření názvu sloupce struktury s indexem pole.
-
[SPARK-43541] Rozšířit všechny značky
Projectpři překladu výrazů a chybějících sloupců. -
[SPARK-43527] Opraveno
catalog.listCatalogsv PySparku. - [SPARK-43123] Interní metadata polí již nepronikají do katalogů.
- [SPARK-43340] Opravili jsme chybějící pole trasování zásobníku v protokolech událostí.
-
[SPARK-42444]
DataFrame.dropnyní zpracovává duplicitní sloupce správně. -
[SPARK-42937]
PlanSubqueriesteď se nastavíInSubqueryExec#shouldBroadcastna true. -
[SPARK-43286] Aktualizoval
aes_encryptrežim CBC pro generování náhodných IVs. -
[SPARK-43378] Správně zavřete streamové objekty v
deserializeFromChunkedBuffer.
- Analyzátor JSON v
17. května 2023
- Skenování Parquet nyní odolává nedostatkům paměti při skenování extrémně strukturovaných souborů díky dynamickému přizpůsobování velikosti dávky. Metadata souborů se analyzuje s cílem předem snížit velikost dávky a při opakovaných pokusech o úkol je znovu snížena jako konečné bezpečnostní opatření.
- Pokud byl soubor Avro přečtený pouze s možností
failOnUnknownFieldsnebo s Auto Loaderem v režimu vývoje schématufailOnNewColumns, budou sloupce s různými datovými typy přečtené jakonullmísto toho, aby vyvolaly chybu oznamující, že soubor nelze přečíst. Tyto operace teď selhávají a doporučují uživatelům používat možnostrescuedDataColumn. - Auto Loader teď provede následující kroky.
-
- Správně čte a již nezachrání
Integer,ShortaBytetypy, pokud je jeden z těchto datových typů k dispozici, ale soubor Avro navrhne jeden z dalších dvou typů.
- Správně čte a již nezachrání
-
- Zabraňuje čtení typů intervalů jako typů dat nebo časových razítek, aby se zabránilo poškození dat.
-
- Zabraňuje čtení typů
Decimals nižší přesností.
- Zabraňuje čtení typů
- [SPARK-43172] Zpřístupňuje hostitele a token z klienta pro připojení Sparku.
-
[SPARK-43293]
__qualified_access_onlyse ignoruje v normálních sloupcích. -
[SPARK-43098] Opravili jsme chybu správnosti
COUNTpři seskupení skalárních poddotazů podle klauzule. -
[SPARK-43085] Podpora přiřazení sloupců
DEFAULTpro názvy tabulek s více částmi -
[SPARK-43190]
ListQuery.childOutputje teď konzistentní se sekundárním výstupem. - [SPARK-43192] Odebráno ověření znakové sady uživatelského agenta.
- Aktualizace zabezpečení operačního systému.
25. dubna 2023
- Pokud byl soubor Parquet přečtený pouze s možností
failOnUnknownFieldsnebo pomocí Auto Loader v režimu evoluce schématufailOnNewColumns, sloupce s různými datovými typy by se četly jakonullmísto toho, aby došlo k vyvolání chyby, že soubor nelze přečíst. Tyto operace teď selhávají a doporučují uživatelům používat možnostrescuedDataColumn. - Auto Loader nyní správně čte a již nepodporuje typy
Integer,ShortaByte, pokud je poskytnut jeden z těchto datových typů. Soubor Parquet naznačuje jeden ze dvou dalších typů. Když byl v minulosti povolen záchranný datový sloupec, neshoda datových typů způsobila, že sloupce byly ukládány i přesto, že byly čitelné. -
[SPARK-43009] Parametrizované
sql()sAnykonstantami - [SPARK-42406] Ukončení rekurzivních polí Protobuf přetažením pole
-
[SPARK-43038] Podpora režimu CBC pomocí
aes_encrypt()/aes_decrypt() -
[SPARK-42971] Změna tisku
workdir, pokudappDirsmá při události zpracování pracovního procesuWorkDirCleanuphodnotu null - [SPARK-43018] Oprava chyby pro příkazy INSERT pomocí literálů časového razítka
- Aktualizace zabezpečení operačního systému.
- Pokud byl soubor Parquet přečtený pouze s možností
11. dubna 2023
- Podpora starších formátů zdroje dat v
SYNCpříkazu - Řeší problém v chování %autoreload v noteboocích mimo repozitář.
- Opravili jsme problém, kdy při vývoji schématu v nástroji Auto Loader mohlo dojít k nekonečné smyčce selhání při zjištění nového sloupce ve schématu vnořeného JSON objektu.
-
[SPARK-42928] Provede
resolvePersistentFunctionsynchronizaci. - [SPARK-42936] Opraví problém LCan, když je klauzuli možné vyřešit přímo skrze svou podřízenou agregaci.
- [SPARK-42967] Opravuje problém, kdy se úkol spustí po zrušení fáze.
- Aktualizace zabezpečení operačního systému.
- Podpora starších formátů zdroje dat v
29. března 2023
Databricks SQL teď podporuje zadávání výchozích hodnot pro sloupce tabulek Delta Lake, a to buď při vytváření tabulky, nebo potom. Příkazy
INSERT,UPDATE,DELETEaMERGEmohou odkazovat na výchozí hodnotu libovolného sloupce pomocí explicitního klíčového slovaDEFAULT. Kromě toho platí, že pokud má přiřazeníINSERTexplicitní seznam méně sloupců než cílová tabulka, nahradí se odpovídající výchozí hodnoty sloupců zbývajícím sloupcům (nebo null, pokud není zadána žádná výchozí hodnota).Například:
CREATE TABLE t (first INT, second DATE DEFAULT CURRENT_DATE()); INSERT INTO t VALUES (0, DEFAULT); INSERT INTO t VALUES (1, DEFAULT); SELECT first, second FROM t; \> 0, 2023-03-28 1, 2023-03-28zAuto Loader nyní zahájí alespoň jedno synchronní vyčištění protokolů RocksDB pro datové proudy
Trigger.AvailableNow, aby se zajistilo, že kontrolní bod může být pravidelně vyčištěn pro rychle běžící datové proudy Auto Loader. To může způsobit, že některé datové proudy budou trvat déle, než se vypnou, ale ušetříte náklady na úložiště a zlepšíte funkčnost Auto Loaderu v příštích spouštěních.Teď můžete upravit tabulku Delta a přidat podporu funkcí tabulek pomocí
DeltaTable.addFeatureSupport(feature_name).[SPARK-42794] Zvýšení hodnoty lockAcquireTimeoutMs na 2 minuty pro získání úložiště stavů RocksDB ve strukturovaném streamování
[SPARK-42521] Přidat hodnoty NULL při vkládání s uživatelsky specifikovanými seznamy menšího počtu sloupců než má cílová tabulka
[SPARK-42702][SPARK-42623] Podpora parametrizovaného dotazu v poddotazech a CTE
[SPARK-42668] Zachycení výjimky při pokusu o zavření komprimovaného streamu v zastavení HDFSStateStoreProvider
[SPARK-42403] JsonProtocol by měl zpracovávat řetězce JSON s hodnotou null
8. března 2023
- Chybová zpráva "Selhání inicializace konfigurace" byla vylepšena tak, aby poskytovala zákazníkovi více kontextu.
- Existuje změna terminologie pro přidání funkcí do tabulky Delta pomocí vlastnosti tabulky. Upřednostňovaná syntaxe je nyní
'delta.feature.featureName'='supported'namísto'delta.feature.featureName'='enabled'. V případě zpětné kompatibility stále funguje používání'delta.feature.featureName'='enabled'a bude fungovat i nadále. - Od této verze je možné vytvořit nebo nahradit tabulku přidáním další vlastnosti
delta.ignoreProtocolDefaultsk tabulce, která ignoruje konfigurace Spark související s protokolem. To zahrnuje výchozí verze čtečky a zapisovače a funkce tabulek podporované ve výchozím nastavení. - [SPARK-42070] Změna výchozí hodnoty argumentu funkce Mask z -1 na NULL
- [SPARK-41793] Nesprávný výsledek pro okenní rámy definované klauzulí rozsahu u významových desetinných číslic
- [SPARK-42484] UnsafeRowUtils – lepší chybová zpráva
- [SPARK-42516] Při vytváření zobrazení vždy zaznamenávejte nastavení časového pásma relace.
- [SPARK-42635] Oprava výrazu TimestampAdd
- [SPARK-42622] Vypnutí nahrazení v hodnotách
- [SPARK-42534] Oprava klauzule DB2Dialect Limit
- [SPARK-42121] Přidejte vestavěné tabulkové funkce posexplode, posexplode_outer, json_tuple a stack
- [SPARK-42045] Režim ANSI SQL: Funkce Round/Bround by měly vrátit chybu při přetečení malého nebo významného celého čísla.
- Aktualizace zabezpečení operačního systému.
Databricks Runtime 11.3 LTS
Podívejte se na Databricks Runtime 11.3 LTS (EoS).
- 4. listopadu 2025
- Aktualizace zabezpečení operačního systému.
- 21. října 2025
- Aktualizace Python z verze 2.7.18 na 2.7.18.1
- Aktualizace zabezpečení operačního systému.
- 7. října 2025
- Aktualizace zabezpečení operačního systému.
- 24. září 2025
- Aktualizace zabezpečení operačního systému.
- 9. září 2025
- Aktualizace zabezpečení operačního systému.
- 26. srpna 2025
- Aktualizace zabezpečení operačního systému.
- 14. srpna 2025
- Aktualizace zabezpečení operačního systému.
- 29. července 2025
- Aktualizace zabezpečení operačního systému.
- 15. července 2025
- Aktualizace zabezpečení operačního systému.
- 1. července 2025
- Aktualizace zabezpečení operačního systému.
- 17. června 2025
- Aktualizace zabezpečení operačního systému.
- 3. června 2025
- Aktualizované knihovny Python:
- certifikát od 28.11.2019, 8.10.2021 do 8.10.2021
- chardet od 3.0.4, 4.0.0 do 4.0.0
- idna od 2.8, 3.2 do 3.2
- požadavky verze 2.22.0, 2.26.0 až 2.26.0
- šest od 1.14.0, 1.16.0 do 1.16.0
- urllib3 od 1.25.8, 1.26.7 do 1.26.7
- Byl přidán pip 21.2.4
- Přidány setuptools 58.0.4
- Přidáno tomli 2.0.1
- Přidáno wcwidth 0.2.5
- Přidáno kolečko 0.37.0
- Byla odebrána distribuce 1.4.0
- Odebrání distro-info 0.23+ubuntu1.1
- Odebrání python-apt 2.0.1+ubuntu0.20.4.1
- Aktualizace zabezpečení operačního systému.
- Aktualizované knihovny Python:
- 20. května 2025
- [SPARK-42655][SQL] Nesprávná nejednoznačná chyba odkazu na sloupec
- Aktualizace zabezpečení operačního systému.
- 22. dubna 2025
- [Změna chování] Vakuové operace nyní provádějí kontroly protokolu Writer podobně jako jiné operace, aby se zabránilo neočekávanému vyčištění tabulek s novějšími funkcemi při jejich spuštění na nekompatibilních starších verzích Databricks Runtime.
- Aktualizace zabezpečení operačního systému.
- 9. dubna 2025
- Aktualizace zabezpečení operačního systému.
- 5. března 2025
- Aktualizace zabezpečení operačního systému.
- 11. února 2025
- Tato verze obsahuje opravu hraničního případu, kdy přírůstková
CLONEmůže soubory zkopírované ze zdrojové tabulky do cílové tabulky znovu zkopírovat. Viz Klon tabulky na Azure Databricks.
- Tato verze obsahuje opravu hraničního případu, kdy přírůstková
- 10. prosince 2024
- Aktualizace zabezpečení operačního systému.
- 26. listopadu 2024
- Různé opravy chyb
- 10. října 2024
- Různé opravy chyb
- 25. září 2024
- [SPARK-46601] [CORE] Oprava chyby protokolu v handleStatusMessage
- [SPARK-49000][SQL] Oprava "select count(distinct 1) from t" pro případ, kdy je t prázdná tabulka, rozšířením RewriteDistinctAggregates.
- Různé opravy chyb
- 17. září 2024
- Aktualizace zabezpečení operačního systému.
- 14. srpna 2024
- [SPARK-48941][SPARK-48970] Opravy zapisovače Backport ML / čtečky
- [SPARK-49065][SQL] Opětovné použití starších formátovacích nástrojů nebo analyzátorů musí podporovat jiné než výchozí časová pásma JVM.
- [SPARK-48597][SQL] Zavedení značky pro vlastnost isStreaming v textové reprezentaci logického plánu
- [SPARK-48463][ML] Udělat z StringIndexer nástroj podporující vnořené vstupní sloupce
- Aktualizace zabezpečení operačního systému.
- 1. srpna 2024
- [SPARK-48896][SPARK-48909][SPARK-48883] Opravy zapisovače Spark ML backportu
- 1. srpna 2024
- Pokud chcete použít požadované opravy zabezpečení, upgraduje se verze Python v Databricks Runtime 11.3 LTS z verze 3.9.5 na verzi 3.9.19.
- 11. července 2024
- [SPARK-48383][SS] Vyvolat jasnější chybu pro neshodující se partice v možnosti startOffset v Kafce
- [SPARK-47070] Oprava neplatné agregace po přepsání poddotazů
- Aktualizace zabezpečení operačního systému.
- 17. června 2024
- Aktualizace zabezpečení operačního systému.
- 21. května 2024
- [SPARK-48105][SS] Oprava souběhu mezi uvolněním úložiště stavu a pořizováním snímků
- Aktualizace zabezpečení operačního systému.
- 9. května 2024
- [SPARK-48018][SS] Oprava hodnoty groupId 'null' způsobující chybu chybějícího parametru při vyvolání výjimky KafkaException.couldNotReadOffsetRange
- [SPARK-47973][CORE] Zaznamenej místo volání ve SparkContext.stop() a následně ve SparkContext.assertNotStopped()
- [SPARK-44251][SQL] Nastavte správně hodnotu null pro sloučený spojovací klíč při úplném vnějším spojení pomocí USING.
- Aktualizace zabezpečení operačního systému.
- 25. dubna 2024
- Aktualizace zabezpečení operačního systému.
- 11. dubna 2024
- Aktualizace zabezpečení operačního systému.
- 1. dubna 2024
- [SPARK-44252][SS] Definujte novou chybovou třídu a aplikujte ji v případě, kdy selže načítání stavu z distribuovaného souborového systému (DFS).
- [SPARK-47135][SS] Implementace tříd chyb pro výjimky ztráty dat Kafka
- Vrátit zpět "[SPARK-46861][CORE] Vyhněte se zablokování v DAGScheduler"
- [SPARK-47200][SS] Chybová třída pro chybu uživatelské funkce v dávkové jímce Foreach
- Aktualizace zabezpečení operačního systému.
- 14. března 2024
- [SPARK-47167][SQL] Přidání konkrétní třídy pro anonymní vztah JDBC
- [SPARK-47125][SQL] Vrátí hodnotu null, pokud univocity nikdy neaktivuje parsování.
- Aktualizace zabezpečení operačního systému.
- 29. února 2024
- Opravili jsme problém, kdy použití místní kolekce jako zdroje v příkazu MERGE mohlo vést k tomu, že metrika numSourceRows hlásí dvakrát správný počet řádků.
- [SPARK-45582][SS] Ujistěte se, že se po volání potvrzení v rámci agregace streamování v režimu výstupu nepoužívá instance úložiště.
- 13. února 2024
- [SPARK-46794] Odeberte poddotazy z omezení logického RDD.
- [SPARK-46861] Vyhněte se zablokování v DAGScheduler.
- Aktualizace zabezpečení operačního systému.
- 31. ledna 2024
- Aktualizace zabezpečení operačního systému.
- 25. prosince 2023
- Aby se zabránilo zvýšené latenci při komunikaci přes TLSv1.3, obsahuje tato verze údržby opravu instalace sady JDK 8, která opraví chybu JDK JDK-8293562.
- [SPARK-46058] Přidejte samostatný příznak pro privateKeyPassword.
-
[SPARK-46602] Propagovat
allowExistingpři vytváření zobrazení, pokud zobrazení nebo tabulka neexistuje. -
[SPARK-46394] Oprava problémů se spark.catalog.listDatabases() ve schématech se speciálními znaky, když je
spark.sql.legacy.keepCommandOutputSchemanastaveno na hodnotu true. -
[SPARK-46538] Oprava nejednoznačného problému s odkazem na sloupce v
ALSModel.transform. - [SPARK-39440] Přidejte konfiguraci pro zakázání časové osy událostí.
- [SPARK-46249] Vyžadovat zámek instance pro získání metrik RocksDB, aby se předešlo závodům s operacemi na pozadí.
- [SPARK-46132] Podpora hesla pro klíče JKS pro RPC SSL.
- 14. prosince 2023
- Opravili jsme problém, kdy se upravená podtržítka v operacích getColumns pocházejících od klientů JDBC nebo ODBC zpracovávala nesprávně a interpretovala jako zástupné znaky.
- Aktualizace zabezpečení operačního systému.
- 29. listopadu 2023
- Opravili jsme problém, kdy se unklá podtržítka v operacích
getColumnspocházejících z klientů JDBC nebo ODBC nesprávně interpretovaly jako zástupné znaky. - [SPARK-43973] Uživatelské rozhraní strukturovaného streamování teď zobrazuje neúspěšné dotazy správně.
-
[SPARK-45730] Vylepšená časová omezení pro
ReloadingX509TrustManagerSuite. -
[SPARK-45544] Integrovaná podpora SSL do
TransportContext. - [SPARK-45859] UDF objekty byly zpožděné.
-
[SPARK-43718] Byla opravena nulovatelnost klíčů ve
USINGspojeních. -
[SPARK-44846] Odebrali jsme komplexní seskupovací výrazy za
RemoveRedundantAggregates. - Aktualizace zabezpečení operačního systému.
- Opravili jsme problém, kdy se unklá podtržítka v operacích
- 14. listopadu 2023
- Filtry oddílů u dotazů streamování Delta Lake se před omezením rychlosti odsunou dolů, aby se dosáhlo lepšího využití.
- [SPARK-42205] Odebrání logovacích akumulátorů v událostech začátku fáze a úkolu.
-
[SPARK-45545]
SparkTransportConfdědíSSLOptionspři vytváření. - Vrátit [SPARK-33861].
-
[SPARK-45541] Přidáno
SSLFactory. - [SPARK-45429] Přidání pomocných tříd pro komunikaci SSL RPC
-
[SPARK-45584] Bylo opraveno selhání spuštění poddotazu s
TakeOrderedAndProjectExec. -
[SPARK-45430]
FramelessOffsetWindowFunctionjiž neselhává, pokudIGNORE NULLSaoffset > rowCount. -
[SPARK-45427] Přidání nastavení PROTOKOLU RPC SSL do
SSLOptionsaSparkTransportConf. - Aktualizace zabezpečení operačního systému.
- 24. října 2023
-
[SPARK-45426] Přidání podpory pro
ReloadingX509TrustManager. - Různé opravy.
-
[SPARK-45426] Přidání podpory pro
- 13. října 2023
- Závislost Snowflake-jdbc se upgradovala z verze 3.13.29 na verzi 3.13.33.
-
[SPARK-45178] Přechod na spuštění jedné dávky pro
Trigger.AvailableNownepodporované zdroje místo použití obálky. -
[SPARK-45084]
StateOperatorProgresspoužít přesné a adekvátní číslo pro shuffle rozdělení. - [SPARK-45346] Inference schématu Parquet nyní při slučování schématu respektuje příznak rozlišující malá a velká písmena.
- Aktualizace zabezpečení operačního systému.
- 10. září 2023
- Různé opravy.
- 30. srpna 2023
-
[SPARK-44818] Opravena závodní podmínka pro přerušení čekajícího úkolu, k němuž došlo před inicializací
taskThread. -
[SPARK-44871][11.3-13.0] Opravené
percentile_discchování. - Aktualizace zabezpečení operačního systému.
-
[SPARK-44818] Opravena závodní podmínka pro přerušení čekajícího úkolu, k němuž došlo před inicializací
- 15. srpna 2023
-
[SPARK-44485] Optimalizované
TreeNode.generateTreeString. - [SPARK-44504] Úloha údržby odstraní načtené zprostředkovatele při chybě při zastavení.
-
[SPARK-44464] Opraveno
applyInPandasWithStatePythonRunnertak, aby řádky výstupu mělyNulljako první hodnotu sloupce. - Aktualizace zabezpečení operačního systému.
-
[SPARK-44485] Optimalizované
- 27. července 2023
- Opravili jsme problém, kdy
dbutils.fs.ls()vrátilINVALID_PARAMETER_VALUE.LOCATION_OVERLAPpři vyvolání cesty umístění úložiště, která kolidovala s jiným externím nebo spravovaným umístěním úložiště. -
[SPARK-44199]
CacheManagerjiž zbytečně neaktualizujefileIndex. - Aktualizace zabezpečení operačního systému.
- Opravili jsme problém, kdy
- 24. července 2023
- [SPARK-44136] Opravili jsme problém, kdy se komponenta StateManager může materializovat v exekutoru místo v driveru ve FlatMapGroupsWithStateExec.
- Aktualizace zabezpečení operačního systému.
- 23. června 2023
- Aktualizace zabezpečení operačního systému.
- 15. června 2023
- Fotonizováno
approx_count_distinct. - Knihovna Snowflake-jdbc se upgraduje na verzi 3.13.29, aby se vyřešil problém se zabezpečením.
-
[SPARK-43779]
ParseToDatenyní se načteEvalModedo hlavního vlákna. - [SPARK-40862] Podpora neagregovaných poddotazů v rewriteCorrelatedScalarSubquery
-
[SPARK-43156][SPARK-43098] Test chyby při počítání rozšířeného skalárního poddotazu se
decorrelateInnerQueryvypnutým. - [SPARK-43098] Oprava chyby přesnosti při počítání, pokud má skalární poddotaz klauzuli "group by"
- Aktualizace zabezpečení operačního systému.
- Fotonizováno
- 2. června 2023
- Analyzátor JSON v
failOnUnknownFieldsrežimu zahodí záznam vDROPMALFORMEDrežimu a selže přímo vFAILFASTrežimu. - Zvýšení výkonu přírůstkových aktualizací pomocí
SHALLOW CLONEIcebergu a Parquetu - Opravili jsme problém v AutoLoaderu, kdy různé formáty zdrojového souboru byly nekonzistentní, když zadané schéma nezahrnovalo odvozené oddíly. Tento problém může způsobit neočekávané chyby při čtení souborů s chybějícími sloupci ve schématu odvozeného oddílu.
- [SPARK-43404]Pokud se chcete vyhnout chybě neshody ID, přeskočte opakované použití souboru sst pro stejnou verzi úložiště stavů RocksDB.
-
[SPARK-43527] Opraveno
catalog.listCatalogsv PySparku. -
[SPARK-43413][11.3-13.0] Opravená nullovatelnost poddotazu
IN. - [SPARK-43340] Opravili jsme chybějící pole trasování zásobníku v protokolech událostí.
- Analyzátor JSON v
Databricks Runtime 10.4 LTS
Vizte Databricks Runtime 10.4 LTS (EoS).
- 12. srpna 2025
- Aktualizace zabezpečení operačního systému.
- 15. července 2025
- Aktualizace zabezpečení operačního systému.
1. července 2025
- Aktualizace zabezpečení operačního systému.
17. června 2025
- Aktualizace zabezpečení operačního systému.
- 3. června 2025
- Aktualizované knihovny Python:
- certifi od 2019.11.28, 2020.12.5 do 2020.12.5
- chardet od 3.0.4, 4.0.0 do 4.0.0
- idna od 2.10, 2.8 do 2.10
- žádosti od 2.22.0, 2.25.1 do 2.25.1
- šest od 1.14.0, 1.15.0 do 1.15.0
- urllib3 od 1.25.11, 1.25.8 do 1.25.11
- Byla přidána pip 21.0.1
- Přidáno setuptools 52.0.0
- Přidáno wcwidth 0.2.5
- Přidáno kolo 0.36.2
- Byla odebrána distribuce 1.4.0
- Odebrání distro-info 0.23+ubuntu1.1
- Odebrání python-apt 2.0.1+ubuntu0.20.4.1
- Aktualizace zabezpečení operačního systému.
- Aktualizované knihovny Python:
- 20. května 2025
- Aktualizace zabezpečení operačního systému.
- 22. dubna 2025
- Aktualizace zabezpečení operačního systému.
- 9. dubna 2025
- Aktualizace zabezpečení operačního systému.
- 11. března 2025
- Aktualizace zabezpečení operačního systému.
- 11. února 2025
- Tato verze obsahuje opravu hraničního případu, kdy přírůstková
CLONEmůže soubory zkopírované ze zdrojové tabulky do cílové tabulky znovu zkopírovat. Viz Klon tabulky na Azure Databricks. - Aktualizace zabezpečení operačního systému.
- Tato verze obsahuje opravu hraničního případu, kdy přírůstková
10. prosince 2024
- Aktualizace zabezpečení operačního systému.
26. listopadu 2024
- Aktualizace zabezpečení operačního systému.
5. listopadu 2024
- Aktualizace zabezpečení operačního systému.
22. října 2024
- Aktualizace zabezpečení operačního systému.
10. října 2024
- Aktualizace zabezpečení operačního systému.
25. září 2024
- [SPARK-46601] [CORE] Oprava chyby protokolu v handleStatusMessage
- [SPARK-49000][SQL] Oprava „select count(distinct 1) from t“, kde t je prázdná tabulka, rozšířením RewriteDistinctAggregates.
- Aktualizace zabezpečení operačního systému.
17. září 2024
- Aktualizace zabezpečení operačního systému.
29. srpna 2024
- [SPARK-49065][SQL] Opětovné použití starších formátovacích nástrojů nebo analyzátorů musí podporovat jiné než výchozí časová pásma JVM.
14. srpna 2024
- [SPARK-48597][SQL] Zavedení značky pro vlastnost isStreaming v textové reprezentaci logického plánu
- [SPARK-48941][SPARK-48970] Opravy zapisovače Backport ML / čtečky
- [SPARK-48463][ML] Udělat z StringIndexer nástroj podporující vnořené vstupní sloupce
1. srpna 2024
- [SPARK-48896][SPARK-48909][SPARK-48883] Opravy zapisovače Spark ML backportu
- Aktualizace zabezpečení operačního systému.
11. července 2024
- [SPARK-48383][SS] Vyvolat jasnější chybu pro neshodující se partice v možnosti startOffset v Kafce
- Aktualizace zabezpečení operačního systému.
17. června 2024
- Aktualizace zabezpečení operačního systému.
21. května 2024
- [SPARK-48105][SS] Oprava souběhu mezi uvolněním úložiště stavu a pořizováním snímků
- Aktualizace zabezpečení operačního systému.
9. května 2024
- [SPARK-48018][SS] Oprava hodnoty groupId 'null' způsobující chybu chybějícího parametru při vyvolání výjimky KafkaException.couldNotReadOffsetRange
- [SPARK-47973][CORE] Zaznamenej místo volání ve SparkContext.stop() a následně ve SparkContext.assertNotStopped()
- [SPARK-44251][SQL] Nastavte správně hodnotu null pro sloučený spojovací klíč při úplném vnějším spojení pomocí USING.
- Aktualizace zabezpečení operačního systému.
25. dubna 2024
- Aktualizace zabezpečení operačního systému.
11. dubna 2024
- Aktualizace zabezpečení operačního systému.
1. dubna 2024
- [SPARK-47135][SS] Implementace tříd chyb pro výjimky ztráty dat Kafka
- [SPARK-44252][SS] Definujte novou chybovou třídu a aplikujte ji v případě, kdy selže načítání stavu z distribuovaného souborového systému (DFS).
- [SPARK-47200][SS] Chybová třída pro chybu uživatelské funkce v dávkové jímce Foreach
- Vrátit zpět "[SPARK-46861][CORE] Vyhněte se zablokování v DAGScheduler"
- Aktualizace zabezpečení operačního systému.
14. března 2024
- [SPARK-47125][SQL] Vrátí hodnotu null, pokud univocity nikdy neaktivuje parsování.
- Aktualizace zabezpečení operačního systému.
29. února 2024
- Opravili jsme problém, kdy použití místní kolekce jako zdroje v příkazu MERGE mohlo vést k tomu, že metrika numSourceRows hlásí dvakrát správný počet řádků.
- [SPARK-45582][SS] Ujistěte se, že se po volání potvrzení v rámci agregace streamování v režimu výstupu nepoužívá instance úložiště.
- Aktualizace zabezpečení operačního systému.
13. února 2024
- [SPARK-46861] Vyhněte se zablokování v DAGScheduler.
- Aktualizace zabezpečení operačního systému.
31. ledna 2024
- Aktualizace zabezpečení operačního systému.
25. prosince 2023
- Aby se zabránilo zvýšené latenci při komunikaci přes TLSv1.3, obsahuje tato verze údržby opravu instalace sady JDK 8, která opraví chybu JDK JDK-8293562.
- [SPARK-46058] Přidejte samostatný příznak pro privateKeyPassword.
-
[SPARK-46538] Oprava nejednoznačného problému s odkazem na sloupce v
ALSModel.transform. - [SPARK-39440] Přidejte konfiguraci pro zakázání časové osy událostí.
- [SPARK-46132] Podpora hesla pro klíče JKS pro RPC SSL.
14. prosince 2023
- Aktualizace zabezpečení operačního systému.
29. listopadu 2023
-
[SPARK-45544] Integrovaná podpora SSL do
TransportContext. - [SPARK-45859] UDF objekty byly zpožděné.
-
[SPARK-43718] Byla opravena nulovatelnost klíčů ve
USINGspojeních. -
[SPARK-45730] Vylepšená časová omezení pro
ReloadingX509TrustManagerSuite. - [SPARK-42205] Odebrání logovacích akumulátorů v událostech začátku fáze a úkolu.
-
[SPARK-44846] Odebrali jsme komplexní seskupovací výrazy za
RemoveRedundantAggregates. - Aktualizace zabezpečení operačního systému.
-
[SPARK-45544] Integrovaná podpora SSL do
14. listopadu 2023
-
[SPARK-45541] Přidáno
SSLFactory. -
[SPARK-45545]
SparkTransportConfdědíSSLOptionspři vytváření. -
[SPARK-45427] Přidání nastavení PROTOKOLU RPC SSL do
SSLOptionsaSparkTransportConf. - [SPARK-45429] Přidání pomocných tříd pro komunikaci SSL RPC
-
[SPARK-45584] Bylo opraveno selhání spuštění poddotazu s
TakeOrderedAndProjectExec. - Vrátit [SPARK-33861].
- Aktualizace zabezpečení operačního systému.
-
[SPARK-45541] Přidáno
24. října 2023
-
[SPARK-45426] Přidání podpory pro
ReloadingX509TrustManager. - Aktualizace zabezpečení operačního systému.
-
[SPARK-45426] Přidání podpory pro
13. října 2023
-
[SPARK-45084]
StateOperatorProgresspoužít přesné a adekvátní číslo pro shuffle rozdělení. -
[SPARK-45178] Přechod na spuštění jedné dávky pro
Trigger.AvailableNownepodporované zdroje místo použití obálky. - Aktualizace zabezpečení operačního systému.
-
[SPARK-45084]
10. září 2023
- Různé opravy.
30. srpna 2023
-
[SPARK-44818] Opravena závodní podmínka pro přerušení čekajícího úkolu, k němuž došlo před inicializací
taskThread. - Aktualizace zabezpečení operačního systému.
-
[SPARK-44818] Opravena závodní podmínka pro přerušení čekajícího úkolu, k němuž došlo před inicializací
15. srpna 2023
- [SPARK-44504] Úloha údržby odstraní načtené zprostředkovatele při chybě při zastavení.
- [SPARK-43973] Uživatelské rozhraní strukturovaného streamování nyní správně zobrazuje neúspěšné dotazy.
- Aktualizace zabezpečení operačního systému.
23. června 2023
- Aktualizace zabezpečení operačního systému.
15. června 2023
- Knihovna Snowflake-jdbc se upgraduje na verzi 3.13.29, aby se vyřešil problém se zabezpečením.
- [SPARK-43098] Oprava chyby přesnosti při počítání, pokud má skalární poddotaz klauzuli "group by"
- [SPARK-40862] Podpora neagregovaných poddotazů v rewriteCorrelatedScalarSubquery
-
[SPARK-43156][SPARK-43098] Rozšířený test počtu skalárních poddotazů s vypnutým
decorrelateInnerQuery. - Aktualizace zabezpečení operačního systému.
2. června 2023
- Analyzátor JSON v
failOnUnknownFieldsrežimu zahodí záznam vDROPMALFORMEDrežimu a selže přímo vFAILFASTrežimu. - Opravili jsme problém při zpracování obnovených dat JSON, aby se předešlo
UnknownFieldException. - Opravili jsme problém v AutoLoaderu, kdy různé formáty zdrojového souboru byly nekonzistentní, když zadané schéma nezahrnovalo odvozené oddíly. Tento problém může způsobit neočekávané chyby při čtení souborů s chybějícími sloupci ve schématu odvozeného oddílu.
- [SPARK-43404] Pokud se chcete vyhnout chybě neshody ID, přeskočte opakované použití souboru sst pro stejnou verzi úložiště stavů RocksDB.
-
[SPARK-43413] Byla opravena
INnulovatelnost poddotazuListQuery. - Aktualizace zabezpečení operačního systému.
- Analyzátor JSON v
17. května 2023
- Skenování Parquet nyní odolává nedostatkům paměti při skenování extrémně strukturovaných souborů díky dynamickému přizpůsobování velikosti dávky. Metadata souborů se analyzuje s cílem předem snížit velikost dávky a při opakovaných pokusech o úkol je znovu snížena jako konečné bezpečnostní opatření.
-
[SPARK-41520] Rozdělte
AND_ORstromový vzor tak, aby se oddělilANDaOR. -
[SPARK-43190]
ListQuery.childOutputje teď konzistentní se sekundárním výstupem. - Aktualizace zabezpečení operačního systému.
25. dubna 2023
-
[SPARK-42928] Proveďte
resolvePersistentFunctionsynchronizaci. - Aktualizace zabezpečení operačního systému.
-
[SPARK-42928] Proveďte
11. dubna 2023
- Opravili jsme problém, kdy při vývoji schématu v nástroji Auto Loader mohlo dojít k nekonečné smyčce selhání při zjištění nového sloupce ve schématu vnořeného JSON objektu.
-
[SPARK-42937]
PlanSubqueriesteď se nastavíInSubqueryExec#shouldBroadcastna true. - [SPARK-42967] Oprava SparkListenerTaskStart.stageAttemptId při spuštění úlohy po zrušení fáze.
29. března 2023
- [SPARK-42668] Zachycení výjimky při pokusu o zavření komprimovaného streamu v zastavení HDFSStateStoreProvider
- [SPARK-42635] Opravte ...
- Aktualizace zabezpečení operačního systému.
14. března 2023
- [SPARK-41162] Oprava anti- a semi-spojení pro samospojení s agregacemi
- [SPARK-33206] Oprava výpočtu zátěže mezipaměti indexu shuffle pro malé indexové soubory
-
[SPARK-42484] Vylepšená
UnsafeRowUtilschybová zpráva - Různé opravy.
28. února 2023
- Podpora generovaného sloupce pro date_format yyyy-MM-dd. Tato změna podporuje prořezávání oddílů pro formát datumu yyyy-MM-dd ve generovaných sloupcích.
- Uživatelé nyní mohou číst a zapisovat konkrétní tabulky Delta vyžadující Reader verze 3 a Writer verze 7 pomocí Databricks Runtime 9.1 LTS nebo novější. Aby bylo možné uspět, musí být funkce tabulek uvedené v protokolu tabulek podporovány aktuální verzí databricks Runtime.
- Podpora generovaného sloupce pro date_format yyyy-MM-dd. Tato změna podporuje prořezávání oddílů pro formát datumu yyyy-MM-dd ve generovaných sloupcích.
- Aktualizace zabezpečení operačního systému.
16. února 2023
- [SPARK-30220] Povolit použití Exists/In poddotazů mimo uzel filtru
- Aktualizace zabezpečení operačního systému.
31. ledna 2023
- Ve výchozím nastavení jsou typy tabulek JDBC externí.
18. ledna 2023
- Azure Synapse konektor vrátí popisnější chybovou zprávu, pokud název sloupce neobsahuje platné znaky, jako jsou prázdné znaky nebo středníky. V takových případech se vrátí následující zpráva:
Azure Synapse Analytics failed to run the JDBC query produced by the connector. Check column names do not include not valid characters such as ';' or white space. - [SPARK-38277] Vymazání dávky zápisu po potvrzení (commit) stavového úložiště RocksDB
- [SPARK-41199] Oprava potíží s metrikami při spoluužívaném zdroji streamování DSv1 a zdroje streamování DSv2
- [SPARK-41198] Oprava metrik v dotazu streamování s zdrojem streamování CTE a DSv1
- [SPARK-41339] Zavřít a znovu vytvořit balík pro zápis v systému RocksDB místo pouhého vymazání.
- [SPARK-41732] Aplikovat prořezávání na základě vzoru stromu pro pravidlo SessionWindowing
- Aktualizace zabezpečení operačního systému.
- Azure Synapse konektor vrátí popisnější chybovou zprávu, pokud název sloupce neobsahuje platné znaky, jako jsou prázdné znaky nebo středníky. V takových případech se vrátí následující zpráva:
29. listopadu 2022
- Uživatelé můžou při zápisu dat pomocí konektoru Redshift nakonfigurovat počáteční a koncové chování prázdných znaků. Byly přidány následující možnosti pro řízení zpracování prázdných znaků:
-
csvignoreleadingwhitespace, pokud je nastavena natrue, odebere počáteční prázdné znaky z hodnot při zápisu, když jetempformatnastavena naCSVneboCSV GZIP. Prázdné znaky se zachovají, když je nastavení nastaveno nafalse. Výchozí hodnota jetrue. -
csvignoretrailingwhitespace, pokud je nastavena natrue, odebere koncové prázdné znaky z hodnot při zápisu, když jetempformatnastavena naCSVneboCSV GZIP. Prázdné znaky se zachovají, když je nastavení nastaveno nafalse. Výchozí hodnota jetrue.
-
- Opravili jsme problém s parsováním JSON v automatickém zavaděči, když byly všechny sloupce ponechány jako řetězce (
cloudFiles.inferColumnTypesnebylo nastaveno nebo bylo nastaveno nafalse) a JSON obsahoval vnořené objekty. - Aktualizace zabezpečení operačního systému.
- Uživatelé můžou při zápisu dat pomocí konektoru Redshift nakonfigurovat počáteční a koncové chování prázdných znaků. Byly přidány následující možnosti pro řízení zpracování prázdných znaků:
15. listopadu 2022
- Upgradovali jsme Apache commons-text na verzi 1.10.0.
-
[SPARK-40646] parsování JSON pro struktury, mapy a pole byla opravena, takže pokud část záznamu neodpovídá schématu, zbytek záznamu je možné analyzovat správně místo vrácení hodnot null. Pokud chcete vyjádřit výslovný souhlas s vylepšeným chováním, nastavte
spark.sql.json.enablePartialResultsnatrue. Příznak je ve výchozím nastavení vypnutý, aby se zachovalo původní chování. -
[SPARK-40292] Oprava názvů sloupců ve funkci
arrays_zippři odkazování polí z vnořených struktur - Aktualizace zabezpečení operačního systému.
1. listopadu 2022
- Opravili jsme problém, kdy pokud tabulka Delta měla uživatelem definovaný sloupec s názvem
_change_type, ale v této tabulce byla vypnuta možnost Změnit datový kanál , data v tomto sloupci by při spuštěníMERGEnesprávně vyplnila hodnoty NULL. - Opravili jsme problém s funkcí Auto Loader, kdy může dojít k duplikaci souboru ve stejné mikrodávce při povolení
allowOverwrites. - [SPARK-40697] Přidání zarovnání znaků na straně čtení pro zahrnutí externích datových souborů
- [SPARK-40596] Naplnění příkazu ExecutorDecommission zprávami v ExecutorDecommissionInfo
- Aktualizace zabezpečení operačního systému.
- Opravili jsme problém, kdy pokud tabulka Delta měla uživatelem definovaný sloupec s názvem
18. října 2022
- Aktualizace zabezpečení operačního systému.
středa 5. října 2022
-
[SPARK-40468] Opravit vyřazování sloupců v CSV při výběru
_corrupt_record. - Aktualizace zabezpečení operačního systému.
-
[SPARK-40468] Opravit vyřazování sloupců v CSV při výběru
22. září 2022
- Uživatelé můžou nastavit spark.conf.set(
spark.databricks.io.listKeysWithPrefix.azure.enabled,true) pro znovu povolení integrovaného výpisu Auto Loaderu na ADLS. Integrovaný seznam byl dříve vypnutý kvůli problémům s výkonem, a to mohlo vést ke zvýšení nákladů na úložiště pro zákazníky. - [SPARK-40315] Přidat hashCode() pro Literal ArrayBasedMapData
- [SPARK-40213] Podpora převodu hodnot ASCII pro znaky latinky-1
- [SPARK-40380] Oprava konstantního skládání InvokeLike, aby se zabránilo neserializovatelnému literálu vkládání do plánu.
- [SPARK-38404] Vylepšení řešení CTE, když vnořená CTE odkazuje na vnější CTE
- [SPARK-40089] Oprava řazení u některých typů desetinných čísel
- [SPARK-39887] RemoveRedundantAliases by měly uchovávat aliasy, které tvoří výstup uzlů projekce jedinečným
- Uživatelé můžou nastavit spark.conf.set(
6. září 2022
- [SPARK-40235] Místo synchronizace v Executor.updateDependencies() použijte přerušitelný zámek.
- [SPARK-40218] GROUPING SETS by měly zachovat jednotlivé sloupce seskupení.
- [SPARK-39976] ArrayIntersect by měl správně zpracovat hodnotu null v levém výrazu.
-
[SPARK-40053] Přidat
assumek dynamickým případům zrušení, které vyžadují Python běhové prostředí - [SPARK-35542] Oprava: Bucketizer vytvořený pro více sloupců s parametry splitsArray, inputCols a outputCols nelze načíst po uložení
- [SPARK-40079] Přidání ověření Imputer inputCols pro případ prázdného vstupu
24. srpna 2022
- [SPARK-39983] Neukládejte do mezipaměti neserializované vysílací vztahy na řídící jednotce.
- [SPARK-39775] Zakázat ověřování výchozích hodnot při analýze schémat Avro
- [SPARK-39962] Použít projekci, pokud jsou atributy skupiny prázdné
- [SPARK-37643] pokud je parametr charVarcharAsString pravdivý, měl by dotaz s predikátem datového typu char obejít pravidlo doplňování mezery.
- Aktualizace zabezpečení operačního systému.
9. srpna 2022
- [SPARK-39847] Oprava stavu časování v RocksDBLoader.loadLibrary(), pokud je vlákno volajícího přerušeno
- [SPARK-39731] Oprava problému se zdroji dat CSV a JSON při analýze dat ve formátu “yyyyMMdd” za použití politiky upraveného časového analyzátoru.
- Aktualizace zabezpečení operačního systému.
27. července 2022
- [SPARK-39625] Přidej Dataset.as(StructType)
-
[SPARK-39689]Podpora 2 znaků
lineSepve zdroji dat CSV - [SPARK-39104] InMemoryRelation#isCachedColumnBuffersLoaded by měl být bezpečný pro přístup z více vláken.
- [SPARK-39570] vložená tabulka by měla umožňovat výrazy s aliasem
- [SPARK-39702] Snížení režijních nákladů na paměť TransportCipher$EncryptedMessage pomocí sdíleného byteRawChannelu
- [SPARK-39575] přidat ByteBuffer#rewind po ByteBuffer#get v AvroDeserializeru
- [SPARK-39476] Zakázat optimalizaci přetypování unwrap při přetypování z Long na Float/ Double nebo z Integer na Float
- [SPARK-38868] Nešíření výjimek z predikátu filtru při optimalizaci vnějších spojení
- Aktualizace zabezpečení operačního systému.
20. července 2022
- Zajistit konzistenci výsledků operace Delta MERGE, pokud zdroj není deterministický.
- [SPARK-39355] Sloupec používá uvozovky k vytvoření UnresolvedAttribute
- [SPARK-39548] Příkaz CreateView s dotazem obsahujícím klauzuli okna způsobuje problém s nenalezenou definicí okna.
- [SPARK-39419] Oprava ArraySortu pro vyvolání výjimky, když srovnávací program vrátí hodnotu null
- Vypnuto používání vestavěných cloudových rozhraní API pro vytvoření seznamu adresářů na Azure v rámci aplikace Auto Loader.
- Aktualizace zabezpečení operačního systému.
5. července 2022
- [SPARK-39376] Skrýt duplicitní sloupce při rozšíření hvězdičky v aliasu poddotazu z JOIN NATURAL/USING
- Aktualizace zabezpečení operačního systému.
15. června 2022
- [SPARK-39283] Oprava zablokování mezi TaskMemoryManager a UnsafeExternalSorter.SpillableIterator
- [SPARK-39285] Spark by při čtení souborů neměl kontrolovat názvy polí.
- [SPARK-34096] Zvýšení výkonu pro nth_value s ignorováním hodnot null nad posuvným oknem
-
[SPARK-36718] Oprava kontroly v CollapseProject
isExtractOnly
2. června 2022
- [SPARK-39093] Vyhněte se chybě kompilace codegen při dělení intervalů rok-měsíc nebo denních intervalů integrálem
- [SPARK-38990] Vyhněte se výjimce NullPointerException při vyhodnocování formátu date_trunc/trunc jako vázaného odkazu
- Aktualizace zabezpečení operačního systému.
18. května 2022
- Opravuje potenciální únik paměti v automatickém zavaděči.
- [SPARK-38918] Vyřazení vnořených sloupců by mělo vyfiltrovat atributy, které nepatří do aktuální relace.
- [SPARK-37593] Zmenšete výchozí velikost stránky o hodnotu LONG_ARRAY_OFFSET, pokud jsou použity G1GC a ON_HEAP.
- [SPARK-39084] Oprava df.rdd.isEmpty() pomocí TaskContext k zastavení iterátoru při dokončení úkolu
- [SPARK-32268] Přidání prořezávání sloupců do InjectBloomFilter
- [SPARK-38974] Filtrování registrovaných funkcí s daným názvem databáze ve funkcích seznamu
- [SPARK-38931] Vytvoření kořenového adresáře dfs pro RocksDBFileManager s neznámým počtem klíčů na 1. kontrolním bodu
- Aktualizace zabezpečení operačního systému.
19. dubna 2022
- Upgradovali Java AWS SDK z verze 1.11.655 na 1.12.1899.
- Opravili jsme problém s knihovnami omezenými na poznámkové bloky, které nefungovaly v úlohách dávkového streamování.
- [SPARK-38616] Sledování textu dotazu SQL ve Catalyst TreeNode
- Aktualizace zabezpečení operačního systému.
6. dubna 2022
- V této verzi jsou nyní k dispozici následující funkce Spark SQL:
-
timestampadd()adateadd(): Přidejte dobu trvání v zadané jednotce k časovému razítku. -
timestampdiff()adatediff(): Vypočítejte rozdíl času mezi dvěma časovými razítky ve specifikované jednotce.
-
- Parquet-MR byl upgradován na verzi 1.12.2
- Vylepšená podpora podrobných schémat v souborech Parquet
- [SPARK-38631] Pro rozbalení v Utils.unpack používá implementaci založenou na Java
- [SPARK-38509][SPARK-38481] Cherry-pick tři změny.
- [SPARK-38523] Oprava odkazující na sloupec poškozených záznamů ze souboru CSV
-
[SPARK-38237] Povolit
ClusteredDistributionvyžadování úplných klíčů clusteringu - [SPARK-38437] Uvolněná serializace data a času ze zdroje dat
- [SPARK-38180] Povolit bezpečné přetypování výrazů v korelovaných predikátech rovnosti
- [SPARK-38155] Zakázat jedinečné agregace v laterálních poddotazech s nepodporovanými predikáty
- Aktualizace zabezpečení operačního systému.
- V této verzi jsou nyní k dispozici následující funkce Spark SQL:
Databricks Runtime 13.0
Viz Databricks Runtime 13.0 (EoS).
- 13. října 2023
- Závislost Snowflake-jdbc se upgradovala z verze 3.13.29 na verzi 3.13.33.
- [SPARK-42553][SQL] Zajistěte alespoň jednu časovou jednotku po uplynutí intervalu.
-
[SPARK-45178] Návrat ke spuštění jedné dávky pro
Trigger.AvailableNownepodporované zdroje místo použití obálky. -
[SPARK-44658][JÁDRO]
ShuffleStatus.getMapStatusvrátíNonemístoSome(null). -
[SPARK-42205][CORE] Odeberte protokolování Accumulables v událostech zahájení úlohy/stupně v
JsonProtocol. - Aktualizace zabezpečení operačního systému.
- 12. září 2023
-
[SPARK-44485][SQL] Optimalizovat
TreeNode.generateTreeString. -
[SPARK-44718][SQL] Porovná
ColumnVectorkonfiguraci v režimu paměti sOffHeapMemoryModevýchozí hodnotou konfigurace. - Různé opravy chyb
-
[SPARK-44485][SQL] Optimalizovat
- 30. srpna 2023
-
[SPARK-44818][Backport] Byla opravena závodní podmínka pro přerušení čekajícího úkolu vydané před inicializací
taskThread. - [SPARK-44714] Uvolnění omezení řešení LCA ve vztahu k dotazům.
-
[SPARK-44245][PYTHON]
pyspark.sql.dataframe sample()doctesty jsou nyní pouze ilustrační. -
[SPARK-44871][11.3-13.0][SQL] Opravené
percentile_discchování. - Aktualizace zabezpečení operačního systému.
-
[SPARK-44818][Backport] Byla opravena závodní podmínka pro přerušení čekajícího úkolu vydané před inicializací
- 15. srpna 2023
-
[SPARK-44643][SQL][PYTHON] Opravte
Row.__repr__, když je řádek prázdný. - [SPARK-44504][Zpětný port] Úloha údržby vyčistí načtené zprostředkovatele v případě chyby zastavení.
-
[SPARK-44479][CONNECT][PYTHON] Oprava
protobufpřevodu z prázdného typu struktury -
[SPARK-44464][SS] Opraveno
applyInPandasWithStatePythonRunnerk výstupu řádků, které majíNulljako první hodnotu sloupce. - Různé opravy chyb
-
[SPARK-44643][SQL][PYTHON] Opravte
- 29. července 2023
- Opravili jsme chybu, kdy
dbutils.fs.ls()vrátilINVALID_PARAMETER_VALUE.LOCATION_OVERLAPpři vyvolání cesty umístění úložiště, která kolidovala s jiným externím nebo spravovaným umístěním úložiště. -
[SPARK-44199]
CacheManagerjiž zbytečně neaktualizujefileIndex. - Aktualizace zabezpečení operačního systému.
- Opravili jsme chybu, kdy
- 24. července 2023
-
[SPARK-44337][PROTOBUF] Opravili jsme problém, kdy jakékoli pole nastavené na
Any.getDefaultInstancezpůsobovalo chyby analýzy. -
[SPARK-44136] [SS] Byl opraven problém, kdy se
StateManagermaterializoval v exekutoru místo veFlatMapGroupsWithStateExecna driveru. -
Vrátit zpět [SPARK-42323] [SQL] Přiřadit jméno
_LEGACY_ERROR_TEMP_2332. - Aktualizace zabezpečení operačního systému.
-
[SPARK-44337][PROTOBUF] Opravili jsme problém, kdy jakékoli pole nastavené na
- 23. června 2023
- Aktualizace zabezpečení operačního systému.
- 15. června 2023
- Fotonizováno
approx_count_distinct. - Knihovna Snowflake-jdbc se upgraduje na verzi 3.13.29, aby se vyřešil problém se zabezpečením.
- [SPARK-43156][SPARK-43098][SQL] Rozšířit test chyby počtu skalárního poddotazu se zakázaným oddělením vnitřního dotazu
-
[SPARK-43779][SQL]
ParseToDatenyní se načteEvalModedo hlavního vlákna. -
[SPARK-42937][SQL
PlanSubqueries] by měl nastavitInSubqueryExec#shouldBroadcastna true - Aktualizace zabezpečení operačního systému.
- Fotonizováno
- 2. června 2023
- Analyzátor JSON v
failOnUnknownFieldsrežimu zahodí záznam vDROPMALFORMEDrežimu a selže přímo vFAILFASTrežimu. - Zlepšete výkon přírůstkové aktualizace s
SHALLOW CLONEIceberg a Parquet. - Opravili jsme problém v AutoLoaderu, kdy různé formáty zdrojového souboru byly nekonzistentní, když zadané schéma nezahrnovalo odvozené oddíly. Tento problém může způsobit neočekávané chyby při čtení souborů s chybějícími sloupci ve schématu odvozeného oddílu.
- [SPARK-43404][Backport] Pokud se chcete vyhnout chybě neshody ID, přeskočte opakované použití souboru sst pro stejnou verzi úložiště stavů RocksDB.
- [SPARK-43340][JÁDRO] Opravili jsme chybějící pole trasování zásobníku v protokolech událostí.
-
[SPARK-43300][JÁDRO]
NonFateSharingCacheobálka pro Guava Cache. -
[SPARK-43378][JÁDRO] Správně zavřete streamové objekty v
deserializeFromChunkedBuffer. - [SPARK-16484][SQL] Pro reprezentaci objektů DataSketch použijte 8bitové registry.
- [SPARK-43522][SQL] Opraven název sloupce struktury s indexem pole.
-
[SPARK-43413][11.3-13.0][SQL] Opravena nulovatelnost poddotazu
IN. -
[SPARK-43043][JÁDRO] Lepší
MapOutputTracker.updateMapOutputvýkon. - [SPARK-16484][SQL] Přidání podpory pro DataSketches HllSketch.
- [SPARK-43123][SQL] Interní metadata polí již neunikají do katalogů.
-
[SPARK-42851][SQL] Stráž s
EquivalentExpressions.addExpr()supportedExpression(). -
[SPARK-43336][SQL] Přetypování mezi
TimestampaTimestampNTZvyžaduje časové pásmo. -
[SPARK-43286][SQL] Aktualizovaný režim
aes_encryptCBC tak, aby generoval náhodné inicializační vektory. -
[SPARK-42852][SQL] Byly vráceny změny související s
NamedLambdaVariablezEquivalentExpressions. -
[SPARK-43541][SQL] Šířit všechny značky
Projectpři řešení výrazů a chybějících sloupců. -
[SPARK-43527][PYTHON] Opraveno
catalog.listCatalogsv PySparku. - Aktualizace zabezpečení operačního systému.
- Analyzátor JSON v
- 31. května 2023
- Výchozí optimalizovaná podpora zápisu pro tabulky Delta zaregistrované v katalogu Unity se rozšířila tak, aby zahrnovala příkazy
CTASa operaceINSERTpro dělené tabulky. Toto chování odpovídá výchozím nastavením ve skladech SQL. Viz Optimalizované zápisy.
- Výchozí optimalizovaná podpora zápisu pro tabulky Delta zaregistrované v katalogu Unity se rozšířila tak, aby zahrnovala příkazy
- 17. května 2023
- Opravili jsme regresi, kdy
_metadata.file_patha_metadata.file_namevrátily nesprávně formátované řetězce. Například nyní je cesta s mezerami reprezentována jakos3://test-bucket/some%20directory/some%20data.csvmístos3://test-bucket/some directory/some data.csv. - Skenování Parquet nyní odolává nedostatkům paměti při skenování extrémně strukturovaných souborů díky dynamickému přizpůsobování velikosti dávky. Metadata souborů se analyzuje s cílem předem snížit velikost dávky a při opakovaných pokusech o úkol je znovu snížena jako konečné bezpečnostní opatření.
-
- Pokud byl soubor Avro přečtený pouze s možností
failOnUnknownFieldsnebo s Auto Loaderem v režimu vývoje schématufailOnNewColumns, budou sloupce s různými datovými typy přečtené jakonullmísto toho, aby vyvolaly chybu oznamující, že soubor nelze přečíst. Tyto operace teď selhávají a doporučují uživatelům používat možnostrescuedDataColumn.
- Pokud byl soubor Avro přečtený pouze s možností
- Auto Loader teď provede následující kroky.
-
- Správně čte a již nezachrání
Integer,ShorttypyByte, pokud je k dispozici jeden z těchto datových typů, ale soubor Avro naznačuje jeden z dalších dvou typů.
- Správně čte a již nezachrání
-
- Zabraňuje interpretaci typů intervalů jako datových nebo časových razítek, aby se předešlo poškození dat.
-
- Zabraňuje čtení typů
Decimals nižší přesností.
- Zabraňuje čtení typů
- [SPARK-43172] [CONNECT] Zpřístupňuje hostitele a token z klienta pro připojení Sparku.
-
[SPARK-43293][SQL]
__qualified_access_onlyse v normálních sloupcích ignoruje. -
[SPARK-43098][SQL] Opravili jsme chybu správnosti
COUNTpři seskupení skalárních poddotazů podle klauzule. -
[SPARK-43085][SQL] Podpora přiřazení
DEFAULTsloupců pro názvy tabulek s více částmi. -
[SPARK-43190][SQL]
ListQuery.childOutputje teď konzistentní se sekundárním výstupem. - [SPARK-43192] [CONNECT] Odstraněno ověřování znakové sady uživatelského agenta
- Opravili jsme regresi, kdy
- 25. dubna 2023
- Tabulku Delta můžete upravit a přidat podporu funkce tabulky Delta pomocí
DeltaTable.addFeatureSupport(feature_name). - Příkaz
SYNCteď podporuje starší formáty zdroje dat. - Opravili jsme chybu, kdy použití formátovače Python před spuštěním jiných příkazů v poznámkovém bloku Python mohlo způsobit chybějící cestu k poznámkovému bloku v
sys.path. - Azure Databricks teď podporuje zadávání výchozích hodnot pro sloupce tabulek Delta.
INSERT,UPDATE,DELETEaMERGEpříkazy mohou odkazovat na výchozí hodnotu sloupce pomocí explicitníhoDEFAULTklíčového slova. Pro příkazyINSERT, kde explicitní seznam obsahuje méně sloupců než cílová tabulka, jsou pro zbývající sloupce použity odpovídající výchozí hodnoty (nebo hodnotyNULL, pokud není zadána žádná výchozí hodnota).
- Tabulku Delta můžete upravit a přidat podporu funkce tabulky Delta pomocí
- Opravili jsme chybu, kdy se webový terminál nedá použít pro přístup k souborům v
/Workspacepro některé uživatele.- Pokud byl soubor Parquet přečtený pouze s možností
failOnUnknownFieldsnebo pomocí Auto Loader v režimu evoluce schématufailOnNewColumns, sloupce s různými datovými typy by se četly jakonullmísto toho, aby došlo k vyvolání chyby, že soubor nelze přečíst. Tyto operace teď selhávají a doporučují uživatelům používat možnostrescuedDataColumn. - Auto Loader nyní správně čte a již nezachrání
Integer,Short,Bytetypy, pokud je k dispozici jeden z těchto datových typů. Soubor Parquet naznačuje jeden ze dvou dalších typů. Když byl dříve povolen sloupec pro záchranu dat, neshoda datových typů by způsobila jejich záchranu, i když byly čitelné. - Opravili jsme chybu, kdy se schéma vyvíjející se v Auto Loaderu mohlo ocitnout v nekonečné smyčce selhání, když byl ve schématu vnořeného objektu JSON zjištěn nový sloupec.
- [SPARK-42794][SS] Zvyšte lockAcquireTimeoutMs na 2 minuty pro přístup k úložišti stavu RocksDB ve structured streaming.
- [SPARK-39221][SQL] Správně redigovat citlivé informace pro záložku úlohy nebo fáze na serveru thrift.
-
[SPARK-42971][JÁDRO] Změna tisku
workdir, pokud máappDirshodnotu null při zpracování události pracovního procesuWorkDirCleanup. - [SPARK-42936][SQL] Oprava chyby LCA v případě, že klauzuli having lze vyřešit přímo svým podřízeným agregátem.
- [SPARK-43018][SQL] Oprava chyby u příkazů s literály časových razítek.
- Vraťte [SPARK-42754][SQL][UI] Opravte problém se zpětnou kompatibilitou ve vnořeném spuštění SQL.
- Vrátit zpět [SPARK-41498] Šířit metadata prostřednictvím sjednocení.
-
[SPARK-43038][SQL] Podpora CBC režimu podle
aes_encrypt()/aes_decrypt(). -
[SPARK-42928][SQL] Proveďte
resolvePersistentFunctionsynchronizaci. -
[SPARK-42521][SQL] Přidejte
NULLhodnoty proINSERTse seznamy, které obsahují méně sloupců než cílová tabulka. -
[SPARK-41391][SQL] Název výstupního sloupce
groupBy.agg(count_distinct)byl nesprávný. -
[SPARK-42548][SQL] Přidejte
ReferenceAllColumnspro přeskočení přepisu atributů. - [SPARK-42423][SQL] Přidat metadata sloupce o počátku a délce bloku souboru.
-
[SPARK-42796][SQL] Podpora přístupu ke sloupcům
TimestampNTZvCachedBatch. - [SPARK-42266][PYTHON] Odebrat nadřazený adresář při spuštění shell.py, když se používá IPython.
-
[SPARK-43011][SQL]
array_insertby měl selhat s indexem 0. -
[SPARK-41874][CONNECT][PYTHON] Podpora
SameSemanticsve Spark Connectu - [SPARK-42702][SPARK-42623][SQL] Podpora parametrizovaného dotazu v poddotazech a CTE
-
[SPARK-42967][JÁDRO] Oprava
SparkListenerTaskStart.stageAttemptId, když je úkol spuštěn po zrušení fáze. - Aktualizace zabezpečení operačního systému.
- Pokud byl soubor Parquet přečtený pouze s možností
Databricks Runtime 12.1
Viz Databricks Runtime 12.1 (EoS).
23. června 2023
- Aktualizace zabezpečení operačního systému.
15. června 2023
- Fotonizováno
approx_count_distinct. - Knihovna Snowflake-jdbc se upgraduje na verzi 3.13.29, aby se vyřešil problém se zabezpečením.
-
[SPARK-43779][SQL]
ParseToDatenyní se načteEvalModedo hlavního vlákna. - [SPARK-43156][SPARK-43098][SQL] Rozšířit test chyby počtu skalárního poddotazu se zakázaným oddělením vnitřního dotazu
- Aktualizace zabezpečení operačního systému.
- Fotonizováno
2. června 2023
- Analyzátor JSON v
failOnUnknownFieldsrežimu zahodí záznam vDROPMALFORMEDrežimu a selže přímo vFAILFASTrežimu. - Zlepšete výkon přírůstkové aktualizace s
SHALLOW CLONEIceberg a Parquet. - Opravili jsme problém v AutoLoaderu, kdy různé formáty zdrojového souboru byly nekonzistentní, když zadané schéma nezahrnovalo odvozené oddíly. Tento problém může způsobit neočekávané chyby při čtení souborů s chybějícími sloupci ve schématu odvozeného oddílu.
- [SPARK-43404][Backport] Pokud se chcete vyhnout chybě neshody ID, přeskočte opakované použití souboru sst pro stejnou verzi úložiště stavů RocksDB.
-
[SPARK-43413][11.3-13.0][SQL] Opravena nulovatelnost poddotazu
IN. - [SPARK-43522][SQL] Opraven název sloupce struktury s indexem pole.
-
[SPARK-42444][PYTHON]
DataFrame.dropteď zpracovává duplicitní sloupce správně. -
[SPARK-43541][SQL] Šířit všechny značky
Projectpři řešení výrazů a chybějících sloupců. - [SPARK-43340][JÁDRO] Opravili jsme chybějící pole trasování zásobníku v protokolech událostí.
-
[SPARK-42937][SQL]
PlanSubqueriesteď se nastavíInSubqueryExec#shouldBroadcastna true. -
[SPARK-43527][PYTHON] Opraveno
catalog.listCatalogsv PySparku. -
[SPARK-43378][JÁDRO] Správně zavřete streamové objekty v
deserializeFromChunkedBuffer.
- Analyzátor JSON v
17. května 2023
- Skenování Parquet nyní odolává nedostatkům paměti při skenování extrémně strukturovaných souborů díky dynamickému přizpůsobování velikosti dávky. Metadata souborů se analyzuje s cílem předem snížit velikost dávky a při opakovaných pokusech o úkol je znovu snížena jako konečné bezpečnostní opatření.
- Pokud byl soubor Avro přečtený pouze s možností
failOnUnknownFieldsnebo s Auto Loaderem v režimu vývoje schématufailOnNewColumns, budou sloupce s různými datovými typy přečtené jakonullmísto toho, aby vyvolaly chybu oznamující, že soubor nelze přečíst. Tyto operace teď selhávají a doporučují uživatelům používat možnostrescuedDataColumn. - Auto Loader teď provede následující kroky.
-
- Správně čte a již nezachrání
Integer,ShorttypyByte, pokud je k dispozici jeden z těchto datových typů, ale soubor Avro naznačuje jeden z dalších dvou typů.
- Správně čte a již nezachrání
-
- Zabraňuje interpretaci typů intervalů jako datových nebo časových razítek, aby se předešlo poškození dat.
-
- Zabraňuje čtení typů
Decimals nižší přesností.
- Zabraňuje čtení typů
-
[SPARK-43098][SQL] Opravili jsme chybu správnosti
COUNTpři seskupení skalárních poddotazů podle klauzule. -
[SPARK-43190][SQL]
ListQuery.childOutputje teď konzistentní se sekundárním výstupem. - Aktualizace zabezpečení operačního systému.
25. dubna 2023
- Pokud byl soubor Parquet přečtený pouze s možností
failOnUnknownFieldsnebo pomocí Auto Loader v režimu evoluce schématufailOnNewColumns, sloupce s různými datovými typy by se četly jakonullmísto toho, aby došlo k vyvolání chyby, že soubor nelze přečíst. Tyto operace teď selhávají a doporučují uživatelům používat možnostrescuedDataColumn. - Auto Loader nyní správně čte a již nezachrání
Integer,Short,Bytetypy, pokud je k dispozici jeden z těchto datových typů. Soubor Parquet naznačuje jeden ze dvou dalších typů. Když byl dříve povolen sloupec pro záchranu dat, neshoda datových typů by způsobila jejich záchranu, i když byly čitelné. -
[SPARK-43009][SQL] Parametrizován pomocí
sql()Anykonstant. -
[SPARK-42971][JÁDRO] Změna tisku
workdir, pokud máappDirshodnotu null při zpracování události pracovního procesuWorkDirCleanup. - Aktualizace zabezpečení operačního systému.
- Pokud byl soubor Parquet přečtený pouze s možností
11. dubna 2023
- Podpora starších formátů zdroje dat v SYNC příkazu
- Opraví chybu v chování %autoreloadu v poznámkových blocích, které se nacházejí mimo úložiště.
- Opravili jsme chybu, kdy se schéma vyvíjející se v Auto Loaderu mohlo ocitnout v nekonečné smyčce selhání, když byl ve schématu vnořeného objektu JSON zjištěn nový sloupec.
-
[SPARK-42928][SQL] Provede
resolvePersistentFunctionsynchronizaci. - [SPARK-42967][JÁDRO] Opravuje situaci, kdy se úkol spustí po zrušení fáze.
- Aktualizace zabezpečení operačního systému.
29. března 2023
- Auto Loader teď aktivuje alespoň jedno synchronní čištění protokolu RocksDB pro datové proudy
Trigger.AvailableNow, aby bylo možné kontrolní bod pravidelně vyčistit pro rychle běžící datové proudy Auto Loaderu. To může způsobit, že se některé datové proudy před vypnutím zdrží, ale ušetří vám náklady na úložiště a zlepší uživatelský zážitek z automatického zavaděče při budoucích spuštěních. - Teď můžete upravit tabulku Delta a přidat podporu funkcí tabulek pomocí
DeltaTable.addFeatureSupport(feature_name). - [SPARK-42702][SPARK-42623][SQL] Podpora parametrizovaného dotazu v poddotazech a CTE
- [SPARK-41162][SQL] Oprava anti- a semi-spojení pro samospojení s agregacemi
- [SPARK-42403][JÁDRO] JsonProtocol by měl zpracovávat řetězce JSON s hodnotou null
- [SPARK-42668][SS] Zachycení výjimky při pokusu o zavření komprimovaného streamu v HDFSStateStoreProvider abort
- [SPARK-42794][SS] Zvýšení parametru lockAcquireTimeoutMs na 2 minuty pro získání úložiště stavů RocksDB ve strukturovaném streamování
- Auto Loader teď aktivuje alespoň jedno synchronní čištění protokolu RocksDB pro datové proudy
14. března 2023
- Existuje změna terminologie pro přidání funkcí do tabulky Delta pomocí vlastnosti tabulky. Upřednostňovaná syntaxe je nyní
'delta.feature.featureName'='supported'namísto'delta.feature.featureName'='enabled'. V případě zpětné kompatibility stále funguje používání'delta.feature.featureName'='enabled'a bude fungovat i nadále. - [SPARK-42622][CORE] Zákaz nahrazení v hodnotách
- [SPARK-42534][SQL] Oprava klauzule Limit pro DB2Dialect
- [SPARK-42635][SQL] Oprava výrazu TimestampAdd
- [SPARK-42516][SQL] Při vytváření zobrazení vždy zachytává konfiguraci časového pásma relace.
- [SPARK-42484] [SQL] UnsafeRowUtils – lepší chybová zpráva
- [SPARK-41793][SQL] Nesprávný výsledek pro rámečky oken definované klauzulí rozsahu ve velkých desetinných číslech
- Aktualizace zabezpečení operačního systému.
- Existuje změna terminologie pro přidání funkcí do tabulky Delta pomocí vlastnosti tabulky. Upřednostňovaná syntaxe je nyní
24. února 2023
- Teď můžete použít jednotnou sadu možností (
host,port,database,user,password) pro připojení ke zdrojům dat podporovaným ve federaci dotazů (PostgreSQL, MySQL, Synapse, Snowflake, Redshift, SQL Server). Všimněte si, žeportje volitelné a pokud není zadané, použije se výchozí číslo portu pro každý zdroj dat.
Příklad konfigurace připojení PostgreSQL
CREATE TABLE postgresql_table USING postgresql OPTIONS ( dbtable '<table-name>', host '<host-name>', database '<database-name>', user '<user>', password secret('scope', 'key') );Příklad konfigurace připojení Snowflake
CREATE TABLE snowflake_table USING snowflake OPTIONS ( dbtable '<table-name>', host '<host-name>', port '<port-number>', database '<database-name>', user secret('snowflake_creds', 'my_username'), password secret('snowflake_creds', 'my_password'), schema '<schema-name>', sfWarehouse '<warehouse-name>' );- [SPARK-41989][PYTHON] Vyhněte se konfiguraci protokolování způsobující chybu z pyspark.pandas
- [SPARK-42346][SQL] Přepsání jedinečných agregací po sloučení poddotazů
-
[SPARK-41990][SQL] Použijte
FieldReference.columnmístoapplypři převodu filtru z V1 na V2. - Vrátit [SPARK-41848][CORE] Oprava úkolu nadplánovaného s TaskResourceProfile
- [SPARK-42162] Zavedení výrazu MultiCommutativeOp jako optimalizace paměti pro kanonizaci velkých stromů commutativních výrazů
- Aktualizace zabezpečení operačního systému.
- Teď můžete použít jednotnou sadu možností (
16. února 2023
- SYNC příkaz podporuje synchronizaci znovu vytvořených tabulek metastoru Hive. Pokud byla tabulka HMS dříve synchronizována do katalogu Unity, ale pak byla odstraněna a znovu vytvořena, bude následné opětovné synchronizace fungovat namísto vyvolání stavového kódu TABLE_ALREADY_EXISTS.
- [SPARK-41219][SQL] IntegralDivide použít desetinné číslo(1, 0) k reprezentaci 0
- [SPARK-36173][JÁDRO] Podpora získání čísla procesoru v TaskContextu
- [SPARK-41848][JÁDRO] Oprava úkolu příliš naplánovaného pomocí TaskResourceProfile
- [SPARK-42286][SQL] Přechod k předchozí cestě generování kódu pro komplexní výraz s CAST
31. ledna 2023
- Vytvoření schématu s definovaným umístěním teď vyžaduje, aby uživatel měl oprávnění k SELECT a právo upravovat libovolný soubor.
- [SPARK-41581][SQL] Přiřazení názvu _LEGACY_ERROR_TEMP_1230
- [SPARK-41996][SQL][SS] Oprava testu Kafka pro ověření ztracených oddílů, aby se zohlednily pomalé operace Kafky.
- [SPARK-41580][SQL] Přiřazení názvu _LEGACY_ERROR_TEMP_2137
-
[SPARK-41666][PYTHON] Podpora parametrizovaného SQL podle
sql() - [SPARK-41579][SQL] Přiřazení názvu _LEGACY_ERROR_TEMP_1249
- [SPARK-41573][SQL] Přiřazení názvu _LEGACY_ERROR_TEMP_2136
- [SPARK-41574][SQL] Přiřadit název _LEGACY_ERROR_TEMP_2009
- [SPARK-41049][Followup] Oprava regrese synchronizace kódu pro ConvertToLocalRelation
- [SPARK-41576][SQL] Přiřadit název _LEGACY_ERROR_TEMP_2051
- [SPARK-41572][SQL] Přiřazení názvu k _LEGACY_ERROR_TEMP_2149
- [SPARK-41575][SQL] Přiřazení názvu _LEGACY_ERROR_TEMP_2054
- Aktualizace zabezpečení operačního systému.
Databricks Runtime 12.0
Viz Databricks Runtime 12.0 (EoS).
15. června 2023
- Fotonizováno
approx_count_distinct. - Knihovna Snowflake-jdbc se upgraduje na verzi 3.13.29, aby se vyřešil problém se zabezpečením.
- [SPARK-43156][SPARK-43098][SQL] Rozšířit test chyby počtu skalárního poddotazu se zakázaným oddělením vnitřního dotazu
-
[SPARK-43779][SQL]
ParseToDatenyní se načteEvalModedo hlavního vlákna. - Aktualizace zabezpečení operačního systému.
- Fotonizováno
2. června 2023
- Analyzátor JSON v
failOnUnknownFieldsrežimu zahodí záznam vDROPMALFORMEDrežimu a selže přímo vFAILFASTrežimu. - Zlepšete výkon přírůstkové aktualizace s
SHALLOW CLONEIceberg a Parquet. - Opravili jsme problém v AutoLoaderu, kdy různé formáty zdrojového souboru byly nekonzistentní, když zadané schéma nezahrnovalo odvozené oddíly. Tento problém může způsobit neočekávané chyby při čtení souborů s chybějícími sloupci ve schématu odvozeného oddílu.
-
[SPARK-42444][PYTHON]
DataFrame.dropteď zpracovává duplicitní sloupce správně. - [SPARK-43404][Backport] Pokud se chcete vyhnout chybě neshody ID, přeskočte opakované použití souboru sst pro stejnou verzi úložiště stavů RocksDB.
-
[SPARK-43413][11.3-13.0][SQL] Opravena nulovatelnost poddotazu
IN. -
[SPARK-43527][PYTHON] Opraveno
catalog.listCatalogsv PySparku. - [SPARK-43522][SQL] Opraven název sloupce struktury s indexem pole.
-
[SPARK-43541][SQL] Šířit všechny značky
Projectpři řešení výrazů a chybějících sloupců. - [SPARK-43340][JÁDRO] Opravili jsme chybějící pole trasování zásobníku v protokolech událostí.
-
[SPARK-42937][SQL]
PlanSubqueriesnastavteInSubqueryExec#shouldBroadcastna true.
- Analyzátor JSON v
17. května 2023
- Skenování Parquet nyní odolává nedostatkům paměti při skenování extrémně strukturovaných souborů díky dynamickému přizpůsobování velikosti dávky. Metadata souborů se analyzuje s cílem předem snížit velikost dávky a při opakovaných pokusech o úkol je znovu snížena jako konečné bezpečnostní opatření.
- Pokud byl soubor Avro přečtený pouze s možností
failOnUnknownFieldsnebo s Auto Loaderem v režimu vývoje schématufailOnNewColumns, budou sloupce s různými datovými typy přečtené jakonullmísto toho, aby vyvolaly chybu oznamující, že soubor nelze přečíst. Tyto operace teď selhávají a doporučují uživatelům používat možnostrescuedDataColumn. - Auto Loader teď provede následující kroky.
-
- Správně čte a již nezachrání
Integer,ShorttypyByte, pokud je k dispozici jeden z těchto datových typů, ale soubor Avro naznačuje jeden z dalších dvou typů.
- Správně čte a již nezachrání
-
- Zabraňuje interpretaci typů intervalů jako datových nebo časových razítek, aby se předešlo poškození dat.
-
- Zabraňuje čtení typů
Decimals nižší přesností.
- Zabraňuje čtení typů
- [SPARK-43172] [CONNECT] Zpřístupňuje hostitele a token z klienta pro připojení Sparku.
-
[SPARK-41520][SQL] Rozdělte
AND_ORstromový vzor tak, aby se oddělilANDaOR. -
[SPARK-43098][SQL] Opravili jsme chybu správnosti
COUNTpři seskupení skalárních poddotazů podle klauzule. -
[SPARK-43190][SQL]
ListQuery.childOutputje teď konzistentní se sekundárním výstupem. - Aktualizace zabezpečení operačního systému.
25. dubna 2023
- Pokud byl soubor Parquet přečtený pouze s možností
failOnUnknownFieldsnebo pomocí Auto Loader v režimu evoluce schématufailOnNewColumns, sloupce s různými datovými typy by se četly jakonullmísto toho, aby došlo k vyvolání chyby, že soubor nelze přečíst. Tyto operace teď selhávají a doporučují uživatelům používat možnostrescuedDataColumn. - Auto Loader nyní správně čte a již nezachrání
Integer,Short,Bytetypy, pokud je k dispozici jeden z těchto datových typů. Soubor Parquet naznačuje jeden ze dvou dalších typů. Když byl dříve povolen sloupec pro záchranu dat, neshoda datových typů by způsobila jejich záchranu, i když byly čitelné. -
[SPARK-42971][JÁDRO] Změna tisku
workdir, pokudappDirsmá při události zpracování pracovního procesuWorkDirCleanuphodnotu null - Aktualizace zabezpečení operačního systému.
- Pokud byl soubor Parquet přečtený pouze s možností
11. dubna 2023
- Podpora starších formátů zdroje dat v
SYNCpříkazu - Opravili jsme chybu v chování %autoreloadu v poznámkových blocích, které se nacházejí mimo úložiště.
- Opravili jsme chybu, kdy se schéma vyvíjející se v Auto Loaderu mohlo ocitnout v nekonečné smyčce selhání, když byl ve schématu vnořeného objektu JSON zjištěn nový sloupec.
-
[SPARK-42928][SQL] Provede
resolvePersistentFunctionsynchronizaci. - [SPARK-42967][JÁDRO] Opravuje situaci, kdy se úkol spustí po zrušení fáze.
- Aktualizace zabezpečení operačního systému.
- Podpora starších formátů zdroje dat v
29. března 2023
- [SPARK-42794][SS] Zvýšení parametru lockAcquireTimeoutMs na 2 minuty pro získání úložiště stavů RocksDB ve strukturovaném streamování
- [SPARK-41162][SQL] Oprava anti- a semi-spojení pro samospojení s agregacemi
- [SPARK-42403][JÁDRO] JsonProtocol by měl zpracovávat řetězce JSON s hodnotou null
- [SPARK-42668][SS] Zachycení výjimky při pokusu o zavření komprimovaného streamu v HDFSStateStoreProvider abort
- Různé opravy chyb
14. března 2023
- [SPARK-42534][SQL] Oprava klauzule Limit pro DB2Dialect
- [SPARK-42622][CORE] Zákaz nahrazení v hodnotách
- [SPARK-41793][SQL] Nesprávný výsledek pro rámečky oken definované klauzulí rozsahu ve velkých desetinných číslech
- [SPARK-42484] [SQL] UnsafeRowUtils – lepší chybová zpráva
- [SPARK-42635][SQL] Oprava výrazu TimestampAdd
- [SPARK-42516][SQL] Při vytváření zobrazení vždy zachytává konfiguraci časového pásma relace.
- Aktualizace zabezpečení operačního systému.
24. února 2023
Standardizované možnosti připojení pro sjednocení dotazů
Teď můžete použít jednotnou sadu možností (
host,port,database,user,password) pro připojení ke zdrojům dat podporovaným ve federaci dotazů (PostgreSQL, MySQL, Synapse, Snowflake, Redshift, SQL Server). Všimněte si, žeportje volitelné a použije výchozí číslo portu pro každý zdroj dat, pokud není zadaný.Příklad konfigurace připojení PostgreSQL
CREATE TABLE postgresql_table USING postgresql OPTIONS ( dbtable '<table-name>', host '<host-name>', database '<database-name>', user '<user>', password secret('scope', 'key') );Příklad konfigurace připojení Snowflake
CREATE TABLE snowflake_table USING snowflake OPTIONS ( dbtable '<table-name>', host '<host-name>', port '<port-number>', database '<database-name>', user secret('snowflake_creds', 'my_username'), password secret('snowflake_creds', 'my_password'), schema '<schema-name>', sfWarehouse '<warehouse-name>' );Vrátit [SPARK-41848][CORE] Oprava úkolu nadplánovaného s TaskResourceProfile
[SPARK-42162] Zavedení výrazu MultiCommutativeOp jako optimalizace paměti pro kanonizaci velkých stromů commutativních výrazů
[SPARK-41990][SQL] Použijte
FieldReference.columnmístoapplypři převodu filtru z V1 na V2.[SPARK-42346][SQL] Přepsání jedinečných agregací po sloučení poddotazů
Aktualizace zabezpečení operačního systému.
16. února 2023
- Uživatelé nyní mohou číst a zapisovat určité tabulky Delta, které vyžadují verzi Čtečka 3 a Zapisovač 7, za použití Databricks Runtime 9.1 nebo novější. Aby bylo možné uspět, musí být funkce tabulek uvedené v protokolu tabulek podporovány aktuální verzí databricks Runtime.
- SYNC příkaz podporuje synchronizaci znovu vytvořených tabulek metastoru Hive. Pokud byla tabulka HMS dříve synchronizována do katalogu Unity, ale pak byla odstraněna a znovu vytvořena, bude následné opětovné synchronizace fungovat namísto vyvolání stavového kódu TABLE_ALREADY_EXISTS.
- [SPARK-36173][JÁDRO] Podpora získání čísla procesoru v TaskContextu
- [SPARK-42286][SQL] Přechod k předchozí cestě generování kódu pro komplexní výraz s CAST
- [SPARK-41848][JÁDRO] Oprava úkolu příliš naplánovaného pomocí TaskResourceProfile
- [SPARK-41219][SQL] IntegralDivide použít desetinné číslo(1, 0) k reprezentaci 0
25. ledna 2023
- [SPARK-41660][SQL] Metadata sloupce se šíří jen tehdy, když jsou používány.
- [SPARK-41379][SS][PYTHON] Poskytnutí klonované relace Spark v DataFrame v uživatelské funkci pro úložiště foreachBatch v PySparku
- [SPARK-41669][SQL] Předčasné vyřazování v canCollapseExpressions
- Aktualizace zabezpečení operačního systému.
18. ledna 2023
-
REFRESH FUNCTIONpříkaz SQL teď podporuje funkce SQL a funkce tabulky SQL. Například příkaz lze použít k aktualizaci trvalé funkce SQL, která byla aktualizována v jiné relaci SQL. - Zdroj dat Java Database Connectivity (JDBC) v1 nyní podporuje LIMIT klauzule 'pushdown' pro zlepšení výkonu dotazů. Tato funkce je ve výchozím nastavení povolená a lze ji zakázat s
spark.databricks.optimizer.jdbcDSv1LimitPushdown.enablednastavenou nafalse. - V clusterech seznamů ACL starších tabulek nyní vytváření funkcí, které odkazují na třídy JVM, vyžaduje oprávnění
MODIFY_CLASSPATH. - Zdroj dat Java Database Connectivity (JDBC) v1 nyní podporuje LIMIT klauzule 'pushdown' pro zlepšení výkonu dotazů. Tato funkce je ve výchozím nastavení povolená a je možné ji zakázat pomocí spark.databricks.optimizer.jdbcDSv1LimitPushdown.enabled nastavením na false.
- Azure Synapse konektor teď vrátí popisnější chybovou zprávu, když název sloupce obsahuje neplatné znaky, jako jsou prázdné znaky nebo středníky. V takových případech se vrátí následující zpráva:
Azure Synapse Analytics failed to execute the JDBC query produced by the connector. Make sure column names do not include any invalid characters such as ';' or whitespace. - Strukturované streamování Sparku teď funguje s formátem „deltasharing“ na tabulce delta sdílení jako zdroji.
- [SPARK-38277][SS] Vymazat dávku zápisu po commitu úložiště stavů RocksDB
- [SPARK-41733][SQL][SS] Použití vyřezávání na základě stromového vzoru pro pravidlo ResolveWindowTime
- [SPARK-39591][SS] Asynchronní sledování průběhu
- [SPARK-41339][SQL] Zavřete a znovu vytvořte dávku zápisu RocksDB místo pouhého vymazání.
- [SPARK-41198][SS] Oprava metrik v dotazech streamování s zdrojem streamování CTE a DSv1
- [SPARK-41539][SQL] Přemapovat statistiky a omezení pro výstup v logickém plánu pro LogRDD
- [SPARK-41732][SQL][SS] Aplikovat prořezávání na základě stromového vzoru pro pravidlo SessionWindowing
- [SPARK-41862][SQL] Oprava chyby přesnosti související s výchozími hodnotami v ORC čtečce
- [SPARK-41199][SS] Oprava potíží s metrikami při spoluužívaném zdroji streamování DSv1 a zdroje streamování DSv2
- [SPARK-41261][PYTHON][SS] Oprava problému pro applyInPandasWithState, pokud sloupce klíčů seskupení nejsou umístěné v pořadí od nejstaršího
- Aktualizace zabezpečení operačního systému.
-
17. května 2023
- Skenování Parquet nyní odolává nedostatkům paměti při skenování extrémně strukturovaných souborů díky dynamickému přizpůsobování velikosti dávky. Metadata souborů se analyzuje s cílem předem snížit velikost dávky a při opakovaných pokusech o úkol je znovu snížena jako konečné bezpečnostní opatření.
- Opravili jsme regresi, která způsobovala zachování Azure Databricks úloh po selhání připojení k metastoru během inicializace clusteru.
-
[SPARK-41520][SQL] Rozdělte
AND_ORstromový vzor tak, aby se oddělilANDaOR. -
[SPARK-43190][SQL]
ListQuery.childOutputje teď konzistentní se sekundárním výstupem. - Aktualizace zabezpečení operačního systému.
25. dubna 2023
- Pokud byl soubor Parquet přečtený pouze s možností
failOnUnknownFieldsnebo pomocí Auto Loader v režimu evoluce schématufailOnNewColumns, sloupce s různými datovými typy by se četly jakonullmísto toho, aby došlo k vyvolání chyby, že soubor nelze přečíst. Tyto operace teď selhávají a doporučují uživatelům používat možnostrescuedDataColumn. - Auto Loader nyní správně čte a již nezachrání
Integer,Short,Bytetypy, pokud je k dispozici jeden z těchto datových typů. Soubor Parquet naznačuje jeden ze dvou dalších typů. Když byl dříve povolen sloupec pro záchranu dat, neshoda datových typů by způsobila jejich záchranu, i když byly čitelné. -
[SPARK-42937][SQL]
PlanSubqueriesteď se nastavíInSubqueryExec#shouldBroadcastna true. - Aktualizace zabezpečení operačního systému.
- Pokud byl soubor Parquet přečtený pouze s možností
11. dubna 2023
- Podpora starších formátů zdroje dat v SYNC příkazu
- Opravili jsme chybu v chování %autoreloadu v poznámkových blocích, které se nacházejí mimo úložiště.
- Opravili jsme chybu, kdy se schéma vyvíjející se v Auto Loaderu mohlo ocitnout v nekonečné smyčce selhání, když byl ve schématu vnořeného objektu JSON zjištěn nový sloupec.
- [SPARK-42928][SQL] Proveďte synchronizaci funkce resolvePersistentFunction.
- [SPARK-42967][JÁDRO] Oprava SparkListenerTaskStart.stageAttemptId při spuštění úlohy po zrušení fáze.
29. března 2023
- [SPARK-42794][SS] Zvýšení parametru lockAcquireTimeoutMs na 2 minuty pro získání úložiště stavů RocksDB ve strukturovaném streamování
- [SPARK-42403][JÁDRO] JsonProtocol by měl zpracovávat řetězce JSON s hodnotou null
- [SPARK-42668][SS] Zachycení výjimky při pokusu o zavření komprimovaného streamu v HDFSStateStoreProvider abort
- Aktualizace zabezpečení operačního systému.
14. března 2023
- [SPARK-42635][SQL] Oprava výrazu TimestampAdd
- [SPARK-41793][SQL] Nesprávný výsledek pro rámečky oken definované klauzulí rozsahu ve velkých desetinných číslech
- [SPARK-42484] [SQL] UnsafeRowUtils – lepší chybová zpráva
- [SPARK-42534][SQL] Oprava klauzule Limit pro DB2Dialect
- [SPARK-41162][SQL] Oprava anti- a semi-spojení pro samospojení s agregacemi
- [SPARK-42516][SQL] Při vytváření zobrazení vždy zachytává konfiguraci časového pásma relace.
- Různé opravy chyb
28. února 2023
Standardizované možnosti připojení pro sjednocení dotazů
Teď můžete použít jednotnou sadu možností (
host,port,database,user,password) pro připojení ke zdrojům dat podporovaným ve federaci dotazů (PostgreSQL, MySQL, Synapse, Snowflake, Redshift, SQL Server). Všimněte si, žeportje volitelné a pokud není zadané, použije se výchozí číslo portu pro každý zdroj dat.Příklad konfigurace připojení PostgreSQL
CREATE TABLE postgresql_table USING postgresql OPTIONS ( dbtable '<table-name>', host '<host-name>', database '<database-name>', user '<user>', password secret('scope', 'key') );Příklad konfigurace připojení Snowflake
CREATE TABLE snowflake_table USING snowflake OPTIONS ( dbtable '<table-name>', host '<host-name>', port '<port-number>', database '<database-name>', user secret('snowflake_creds', 'my_username'), password secret('snowflake_creds', 'my_password'), schema '<schema-name>', sfWarehouse '<warehouse-name>' );[SPARK-42286][SQL] Přechod k předchozí cestě generování kódu pro komplexní výraz s CAST
[SPARK-41989][PYTHON] Vyhněte se konfiguraci protokolování způsobující chybu z pyspark.pandas
[SPARK-42346][SQL] Přepsání jedinečných agregací po sloučení poddotazů
[SPARK-41360][JÁDRO] Pokud se exekutor ztratil, vyhněte se opětovné registraci objektu BlockManager.
[SPARK-42162] Zavedení výrazu MultiCommutativeOp jako optimalizace paměti pro kanonizaci velkých stromů commutativních výrazů
[SPARK-41990][SQL] Použijte
FieldReference.columnmístoapplypři převodu filtru z V1 na V2.Aktualizace zabezpečení operačního systému.
16. února 2023
- Uživatelé nyní mohou číst a zapisovat určité tabulky Delta, které vyžadují verzi Čtečka 3 a Zapisovač 7, za použití Databricks Runtime 9.1 nebo novější. Aby bylo možné uspět, musí být funkce tabulek uvedené v protokolu tabulek podporovány aktuální verzí databricks Runtime.
- SYNC příkaz podporuje synchronizaci znovu vytvořených tabulek metastoru Hive. Pokud byla tabulka HMS dříve synchronizována do katalogu Unity, ale pak byla odstraněna a znovu vytvořena, bude následné opětovné synchronizace fungovat namísto vyvolání stavového kódu TABLE_ALREADY_EXISTS.
- [SPARK-41219][SQL] IntegralDivide použít desetinné číslo(1, 0) k reprezentaci 0
-
[SPARK-40382][SQL] Seskupení distinktních agregačních výrazů podle sémanticky ekvivalentních potomků v
RewriteDistinctAggregates - Aktualizace zabezpečení operačního systému.
25. ledna 2023
- [SPARK-41379][SS][PYTHON] Poskytnutí klonované relace Spark v DataFrame v uživatelské funkci pro úložiště foreachBatch v PySparku
- [SPARK-41660][SQL] Metadata sloupce se šíří jen tehdy, když jsou používány.
- [SPARK-41669][SQL] Předčasné vyřazování v canCollapseExpressions
- Různé opravy chyb
18. ledna 2023
-
REFRESH FUNCTIONpříkaz SQL teď podporuje funkce SQL a funkce tabulky SQL. Například příkaz lze použít k aktualizaci trvalé funkce SQL, která byla aktualizována v jiné relaci SQL. - Zdroj dat Java Database Connectivity (JDBC) v1 nyní podporuje LIMIT klauzule 'pushdown' pro zlepšení výkonu dotazů. Tato funkce je ve výchozím nastavení povolená a lze ji zakázat s
spark.databricks.optimizer.jdbcDSv1LimitPushdown.enablednastavenou nafalse. - Zdroj dat Java Database Connectivity (JDBC) v1 nyní podporuje LIMIT klauzule 'pushdown' pro zlepšení výkonu dotazů. Tato funkce je ve výchozím nastavení povolená a je možné ji zakázat pomocí spark.databricks.optimizer.jdbcDSv1LimitPushdown.enabled nastavením na false.
- Azure Synapse konektor teď vrátí popisnější chybovou zprávu, když název sloupce obsahuje neplatné znaky, jako jsou prázdné znaky nebo středníky. V takových případech se vrátí následující zpráva:
Azure Synapse Analytics failed to execute the JDBC query produced by the connector. Make sure column names do not include any invalid characters such as ';' or whitespace. - [SPARK-41198][SS] Oprava metrik v dotazech streamování s zdrojem streamování CTE a DSv1
- [SPARK-41862][SQL] Oprava chyby přesnosti související s výchozími hodnotami v ORC čtečce
- [SPARK-41539][SQL] Přemapovat statistiky a omezení pro výstup v logickém plánu pro LogRDD
- [SPARK-39591][SS] Asynchronní sledování průběhu
- [SPARK-41199][SS] Oprava potíží s metrikami při spoluužívaném zdroji streamování DSv1 a zdroje streamování DSv2
- [SPARK-41261][PYTHON][SS] Oprava problému pro applyInPandasWithState, pokud sloupce klíčů seskupení nejsou umístěné v pořadí od nejstaršího
- [SPARK-41339][SQL] Zavřete a znovu vytvořte dávku zápisu RocksDB místo pouhého vymazání.
- [SPARK-41732][SQL][SS] Aplikovat prořezávání na základě stromového vzoru pro pravidlo SessionWindowing
- [SPARK-38277][SS] Vymazat dávku zápisu po commitu úložiště stavů RocksDB
- Aktualizace zabezpečení operačního systému.
-
29. listopadu 2022
- Uživatelé můžou při zápisu dat pomocí konektoru Redshift nakonfigurovat počáteční a koncové chování prázdných znaků. Pro řízení zpracování prázdných znaků byly přidány následující možnosti:
-
csvignoreleadingwhitespace, pokud je nastavena natrue, odebere počáteční prázdné znaky z hodnot při zápisu, když jetempformatnastavena naCSVneboCSV GZIP. Prázdné znaky se zachovají, když je nastavení nastaveno nafalse. Výchozí hodnota jetrue. -
csvignoretrailingwhitespace, pokud je nastavena natrue, odebere koncové prázdné znaky z hodnot při zápisu, když jetempformatnastavena naCSVneboCSV GZIP. Prázdné znaky se zachovají, když je nastavení nastaveno nafalse. Výchozí hodnota jetrue.
-
- Opravili jsme chybu při analýze JSON v Auto Loaderu, když byly všechny sloupce ponechány jako řetězce (nebyl nastaven
cloudFiles.inferColumnTypesnebo byl nastaven nafalse) a JSON obsahoval vnořené objekty. - Aktualizujte
snowflake-jdbczávislost na verzi 3.13.22. - Ve výchozím nastavení jsou typy tabulek JDBC externí.
- [SPARK-40906][SQL] Klíče by měly být zkopírovány před vložením do mapy.
- Aktualizace zabezpečení operačního systému.
- Uživatelé můžou při zápisu dat pomocí konektoru Redshift nakonfigurovat počáteční a koncové chování prázdných znaků. Pro řízení zpracování prázdných znaků byly přidány následující možnosti:
15. listopadu 2022
- Seznamy ACL tabulek a sdílené clustery UC nyní umožňují použití metody Dataset.toJSON z jazyka Python.
-
[SPARK-40646] parsování JSON pro struktury, mapy a pole byla opravena, takže pokud část záznamu neodpovídá schématu, zbytek záznamu je možné analyzovat správně místo vrácení hodnot null. Chcete-li se přihlásit k vylepšené sadě chování
spark.sql.json.enablePartialResultsnatrue. Příznak je ve výchozím nastavení vypnutý, aby se zachovalo původní chování. - [SPARK-40903][SQL] Vyhněte se změně pořadí při sečítání desetinných čísel pro kanonizaci, pokud dojde ke změně datového typu.
- [SPARK-40618][SQL] Oprava chyby v pravidle MergeScalarSubqueries s vnořenými poddotazy pomocí sledování odkazů
- [SPARK-40697][SQL] Přidání doplnění znaků na straně čtení pro pokrytí externích datových souborů
- Aktualizace zabezpečení operačního systému.
1. listopadu 2022
- Strukturované streamování v katalogu Unity teď podporuje aktualizaci dočasných přístupových tokenů. Streamovací úlohy běžící s katalogem Unity na univerzálních nebo pracovních clusterech již neselhávají po vypršení platnosti počátečního tokenu.
- Opravili jsme problém, kdy pokud měla tabulka Delta uživatelem definovaný sloupec s názvem
_change_type, ale v této tabulce byla zakázána změna datového kanálu , data v tomto sloupci se nesprávně vyplňovala hodnotami NULL při spuštění procesuMERGE. - Opravili jsme problém, kdy spuštění
MERGEv kombinaci s použitím přesně 99 sloupců ze zdroje v podmínce mohlo způsobitjava.lang.ClassCastException: org.apache.spark.sql.vectorized.ColumnarBatch cannot be cast to org.apache.spark.sql.catalyst.InternalRow. - Opravili jsme problém s Auto Loaderem, kdy při povolení
allowOverwritesmůže dojít k duplikaci souboru ve stejné mikrodávce. - Upgradovali jsme Apache commons-text na verzi 1.10.0.
- [SPARK-38881][DSTREAMS][KINESIS][PYSPARK] Byla přidána podpora pro konfiguraci CloudWatch MetricsLevel
- [SPARK-40596][JÁDRO] Naplnění příkazu ExecutorDecommission zprávami v ExecutorDecommissionInfo
- [SPARK-40670][SS][PYTHON] Oprava NPE v applyInPandasWithState, pokud vstupní schéma obsahuje sloupce s nepovolenými nulovými hodnotami.
- Aktualizace zabezpečení operačního systému.
Databricks Runtime 11.2
Viz Databricks Runtime 11.2 (EoS).
- 28. února 2023
- [SPARK-42286][SQL] Přechod k předchozí cestě generování kódu pro komplexní výraz s CAST
- [SPARK-42346][SQL] Přepsání jedinečných agregací po sloučení poddotazů
- Aktualizace zabezpečení operačního systému.
- 16. února 2023
- Uživatelé nyní mohou číst a zapisovat určité tabulky Delta, které vyžadují verzi Čtečka 3 a Zapisovač 7, za použití Databricks Runtime 9.1 nebo novější. Aby bylo možné uspět, musí být funkce tabulek uvedené v protokolu tabulek podporovány aktuální verzí databricks Runtime.
- SYNC příkaz podporuje synchronizaci znovu vytvořených tabulek metastoru Hive. Pokud byla tabulka HMS dříve synchronizována do katalogu Unity, ale pak byla odstraněna a znovu vytvořena, bude následné opětovné synchronizace fungovat namísto vyvolání stavového kódu TABLE_ALREADY_EXISTS.
- [SPARK-41219][SQL] IntegralDivide použít desetinné číslo(1, 0) k reprezentaci 0
- Aktualizace zabezpečení operačního systému.
- 31. ledna 2023
- Ve výchozím nastavení jsou typy tabulek JDBC externí.
- [SPARK-41379][SS][PYTHON] Poskytnutí klonované relace Spark v DataFrame v uživatelské funkci pro úložiště foreachBatch v PySparku
- 18. ledna 2023
- Azure Synapse konektor teď vrátí popisnější chybovou zprávu, když název sloupce obsahuje neplatné znaky, jako jsou prázdné znaky nebo středníky. V takových případech se vrátí následující zpráva:
Azure Synapse Analytics failed to execute the JDBC query produced by the connector. Make sure column names do not include any invalid characters such as ';' or whitespace. - [SPARK-41198][SS] Oprava metrik v dotazech streamování s zdrojem streamování CTE a DSv1
- [SPARK-41862][SQL] Oprava chyby přesnosti související s výchozími hodnotami v ORC čtečce
- [SPARK-41539][SQL] Přemapovat statistiky a omezení pro výstup v logickém plánu pro LogRDD
- [SPARK-41199][SS] Oprava potíží s metrikami při spoluužívaném zdroji streamování DSv1 a zdroje streamování DSv2
- [SPARK-41339][SQL] Zavřete a znovu vytvořte dávku zápisu RocksDB místo pouhého vymazání.
- [SPARK-41732][SQL][SS] Aplikovat prořezávání na základě stromového vzoru pro pravidlo SessionWindowing
- [SPARK-38277][SS] Vymazat dávku zápisu po commitu úložiště stavů RocksDB
- Aktualizace zabezpečení operačního systému.
- Azure Synapse konektor teď vrátí popisnější chybovou zprávu, když název sloupce obsahuje neplatné znaky, jako jsou prázdné znaky nebo středníky. V takových případech se vrátí následující zpráva:
- 29. listopadu 2022
- Uživatelé můžou při zápisu dat pomocí konektoru Redshift nakonfigurovat počáteční a koncové chování prázdných znaků. Pro řízení zpracování prázdných znaků byly přidány následující možnosti:
-
csvignoreleadingwhitespace, pokud je nastavena natrue, odebere počáteční prázdné znaky z hodnot při zápisu, když jetempformatnastavena naCSVneboCSV GZIP. Prázdné znaky se zachovají, když je nastavení nastaveno nafalse. Výchozí hodnota jetrue. -
csvignoretrailingwhitespace, pokud je nastavena natrue, odebere koncové prázdné znaky z hodnot při zápisu, když jetempformatnastavena naCSVneboCSV GZIP. Prázdné znaky se zachovají, když je nastavení nastaveno nafalse. Výchozí hodnota jetrue.
-
- Opravili jsme chybu při analýze JSON v Auto Loaderu, když byly všechny sloupce ponechány jako řetězce (nebyl nastaven
cloudFiles.inferColumnTypesnebo byl nastaven nafalse) a JSON obsahoval vnořené objekty. - [SPARK-40906][SQL] Klíče by měly být zkopírovány před vložením do mapy.
- Aktualizace zabezpečení operačního systému.
- Uživatelé můžou při zápisu dat pomocí konektoru Redshift nakonfigurovat počáteční a koncové chování prázdných znaků. Pro řízení zpracování prázdných znaků byly přidány následující možnosti:
- 15. listopadu 2022
-
[SPARK-40646] parsování JSON pro struktury, mapy a pole byla opravena, takže pokud část záznamu neodpovídá schématu, zbytek záznamu je možné analyzovat správně místo vrácení hodnot null. Pokud chcete vyjádřit výslovný souhlas s vylepšeným chováním, nastavte
spark.sql.json.enablePartialResultsnatrue. Příznak je ve výchozím nastavení vypnutý, aby se zachovalo původní chování. - [SPARK-40618][SQL] Oprava chyby v pravidle MergeScalarSubqueries s vnořenými poddotazy pomocí sledování odkazů
- [SPARK-40697][SQL] Přidání doplnění znaků na straně čtení pro pokrytí externích datových souborů
- Aktualizace zabezpečení operačního systému.
-
[SPARK-40646] parsování JSON pro struktury, mapy a pole byla opravena, takže pokud část záznamu neodpovídá schématu, zbytek záznamu je možné analyzovat správně místo vrácení hodnot null. Pokud chcete vyjádřit výslovný souhlas s vylepšeným chováním, nastavte
- 1. listopadu 2022
- Upgradovali jsme Apache commons-text na verzi 1.10.0.
- Opravili jsme problém, kdy pokud měla tabulka Delta uživatelem definovaný sloupec s názvem
_change_type, ale v této tabulce byla zakázána změna datového kanálu , data v tomto sloupci se nesprávně vyplňovala hodnotami NULL při spuštění procesuMERGE. - Opravili jsme problém, kdy spuštění
MERGEv kombinaci s použitím přesně 99 sloupců ze zdroje v podmínce mohlo způsobitjava.lang.ClassCastException: org.apache.spark.sql.vectorized.ColumnarBatch cannot be cast to org.apache.spark.sql.catalyst.InternalRow. - Opravili jsme problém s funkcí Auto Loader, kdy může dojít k duplikaci souboru ve stejné mikrodávce při povolení
allowOverwrites. - [SPARK-40596][JÁDRO] Naplnění příkazu ExecutorDecommission zprávami v ExecutorDecommissionInfo
- Aktualizace zabezpečení operačního systému.
- 19. října 2022
- Opravili jsme problém s COPY INTO používáním dočasných přihlašovacích údajů v clusterech nebo skladech s podporou katalogu Unity.
- [SPARK-40213][SQL] Podpora převodu hodnot ASCII pro znaky latinky-1
- Aktualizace zabezpečení operačního systému.
- 5. října 2022
- Uživatelé můžou nastavit spark.conf.set("spark.databricks.io.listKeysWithPrefix.azure.enabled", "true") a znovu povolit nativní výpis klíčů pro funkci Auto Loader na Azure Data Lake Storage (ADLS). Nativní výpis byl dříve vypnutý kvůli problémům s výkonem, ale mohl vést ke zvýšení nákladů na úložiště pro zákazníky. Tato změna byla provedena v Databricks Runtime 10.4 a 9.1 v předchozí aktualizaci údržby.
- [SPARK-40315][SQL]Podpora kódování/dekódování URL jako vestavěné funkce a vylepšení funkcí souvisejících s URL
-
[SPARK-40156][SQL]
url_decode()by měla vrátit třídu chyb. - [SPARK-40169] Neodsouvejte filtry Parquet bez odkazu na schéma dat.
-
[SPARK-40460][SS] Oprava metrik streamování při výběru
_metadata - [SPARK-40468][SQL] Oprava prořezávání sloupců v CSV při výběru _corrupt_record
- [SPARK-40055][SQL] listCatalogs by také měly vracet spark_catalog i pokud implementace spark_catalog je defaultSessionCatalog.
- Aktualizace zabezpečení operačního systému.
- 22. září 2022
- [SPARK-40315][SQL] Přidání hashCode() pro literál ArrayBasedMapData
- [SPARK-40389][SQL] Desetinné čísla nemůžou být převedeny na celočíselné typy, pokud může dojít k přetečení.
- [SPARK-40380][SQL] Oprava konstantního skládání InvokeLike, aby se zabránilo neserializovatelnému literálu vloženému do plánu
- [SPARK-40066][SQL][DODATEK] Před získáním datového typu zkontrolujte, zda je ElementAt vyřešen.
- [SPARK-40109][SQL] Nová funkce SQL: get()
- [SPARK-40066][SQL] Režim ANSI: Vždy vrátit hodnotu null při neplatném přístupu ke sloupci mapy
- [SPARK-40089][SQL] Oprava řazení pro některé desetinné typy
- [SPARK-39887][SQL] RemoveRedundantAliases by měly uchovávat aliasy, které tvoří výstup uzlů projekce jedinečným
- [SPARK-40152][SQL] Oprava problému s kompilací split_part codegen
- [SPARK-40235][JÁDRO] Místo synchronizace v Executor.updateDependencies() použijte přerušitelný zámek.
- [SPARK-40212][SQL] SparkSQL castPartValue nezpracuje správně bajt, krátký nebo plovoucí
- [SPARK-40218][SQL] GROUPING SETS by měly zachovat skupinové sloupce.
- [SPARK-35542][ML] Oprava: Bucketizer vytvořený pro více sloupců s parametry
- [SPARK-40079] Přidání ověření Imputer inputCols pro případ prázdného vstupu
- [SPARK-39912]SPARK-39828[SQL] Upřesnit KatalogImpl
Databricks Runtime 11.1
Viz Databricks Runtime 11.1 (EoS).
31. ledna 2023
- [SPARK-41379][SS][PYTHON] Poskytnutí klonované relace Spark v DataFrame v uživatelské funkci pro úložiště foreachBatch v PySparku
- Různé opravy chyb
18. ledna 2023
- Azure Synapse konektor teď vrátí popisnější chybovou zprávu, když název sloupce obsahuje neplatné znaky, jako jsou prázdné znaky nebo středníky. V takových případech se vrátí následující zpráva:
Azure Synapse Analytics failed to execute the JDBC query produced by the connector. Make sure column names do not include any invalid characters such as ';' or whitespace. - [SPARK-41198][SS] Oprava metrik v dotazech streamování s zdrojem streamování CTE a DSv1
- [SPARK-41862][SQL] Oprava chyby přesnosti související s výchozími hodnotami v ORC čtečce
- [SPARK-41199][SS] Oprava potíží s metrikami při spoluužívaném zdroji streamování DSv1 a zdroje streamování DSv2
- [SPARK-41339][SQL] Zavřete a znovu vytvořte dávku zápisu RocksDB místo pouhého vymazání.
- [SPARK-41732][SQL][SS] Aplikovat prořezávání na základě stromového vzoru pro pravidlo SessionWindowing
- [SPARK-38277][SS] Vymazat dávku zápisu po commitu úložiště stavů RocksDB
- Aktualizace zabezpečení operačního systému.
- Azure Synapse konektor teď vrátí popisnější chybovou zprávu, když název sloupce obsahuje neplatné znaky, jako jsou prázdné znaky nebo středníky. V takových případech se vrátí následující zpráva:
29. listopadu 2022
- Uživatelé můžou při zápisu dat pomocí konektoru Redshift nakonfigurovat počáteční a koncové chování prázdných znaků. Pro řízení zpracování prázdných znaků byly přidány následující možnosti:
-
csvignoreleadingwhitespace, pokud je nastavena natrue, odebere počáteční prázdné znaky z hodnot při zápisu, když jetempformatnastavena naCSVneboCSV GZIP. Prázdné znaky se zachovají, když je nastavení nastaveno nafalse. Výchozí hodnota jetrue. -
csvignoretrailingwhitespace, pokud je nastavena natrue, odebere koncové prázdné znaky z hodnot při zápisu, když jetempformatnastavena naCSVneboCSV GZIP. Prázdné znaky se zachovají, když je nastavení nastaveno nafalse. Výchozí hodnota jetrue.
-
- Opravili jsme chybu při analýze JSON v Auto Loaderu, když byly všechny sloupce ponechány jako řetězce (nebyl nastaven
cloudFiles.inferColumnTypesnebo byl nastaven nafalse) a JSON obsahoval vnořené objekty. - [SPARK-39650][SS] Oprava nesprávného schématu hodnot v odstranění duplicitních dat streamování se zpětnou kompatibilitou
- Aktualizace zabezpečení operačního systému.
- Uživatelé můžou při zápisu dat pomocí konektoru Redshift nakonfigurovat počáteční a koncové chování prázdných znaků. Pro řízení zpracování prázdných znaků byly přidány následující možnosti:
15. listopadu 2022
-
[SPARK-40646] parsování JSON pro struktury, mapy a pole byla opravena, takže pokud část záznamu neodpovídá schématu, zbytek záznamu je možné analyzovat správně místo vrácení hodnot null. Pokud chcete vyjádřit výslovný souhlas s vylepšeným chováním, nastavte
spark.sql.json.enablePartialResultsnatrue. Příznak je ve výchozím nastavení vypnutý, aby se zachovalo původní chování. - Aktualizace zabezpečení operačního systému.
-
[SPARK-40646] parsování JSON pro struktury, mapy a pole byla opravena, takže pokud část záznamu neodpovídá schématu, zbytek záznamu je možné analyzovat správně místo vrácení hodnot null. Pokud chcete vyjádřit výslovný souhlas s vylepšeným chováním, nastavte
1. listopadu 2022
- Upgradovali jsme Apache commons-text na verzi 1.10.0.
- Opravili jsme problém, kdy pokud měla tabulka Delta uživatelem definovaný sloupec s názvem
_change_type, ale v této tabulce byla zakázána změna datového kanálu , data v tomto sloupci se nesprávně vyplňovala hodnotami NULL při spuštění procesuMERGE. - Opravili jsme problém, kdy spuštění
MERGEv kombinaci s použitím přesně 99 sloupců ze zdroje v podmínce mohlo způsobitjava.lang.ClassCastException: org.apache.spark.sql.vectorized.ColumnarBatch cannot be cast to org.apache.spark.sql.catalyst.InternalRow. - Opravili jsme problém s funkcí Auto Loader, kdy může dojít k duplikaci souboru ve stejné mikrodávce při povolení
allowOverwrites. - [SPARK-40697][SQL] Přidání doplnění znaků na straně čtení pro pokrytí externích datových souborů
- [SPARK-40596][JÁDRO] Naplnění příkazu ExecutorDecommission zprávami v ExecutorDecommissionInfo
- Aktualizace zabezpečení operačního systému.
18. října 2022
- Opravili jsme problém s COPY INTO používáním dočasných přihlašovacích údajů v clusterech nebo skladech s podporou katalogu Unity.
- [SPARK-40213][SQL] Podpora převodu hodnot ASCII pro znaky latinky-1
- Aktualizace zabezpečení operačního systému.
středa 5. října 2022
- Uživatelé můžou nastavit spark.conf.set("spark.databricks.io.listKeysWithPrefix.azure.enabled", "true") a znovu povolit nativní výpis klíčů pro funkci Auto Loader na Azure Data Lake Storage (ADLS). Nativní výpis byl dříve vypnutý kvůli problémům s výkonem, ale mohl vést ke zvýšení nákladů na úložiště pro zákazníky. Tato změna byla provedena v Databricks Runtime 10.4 a 9.1 v předchozí aktualizaci údržby.
- [SPARK-40169] Neodsouvejte filtry Parquet bez odkazu na schéma dat.
-
[SPARK-40460][SS] Oprava metrik streamování při výběru
_metadata - [SPARK-40468][SQL] Oprava prořezávání sloupců v CSV při výběru _corrupt_record
- [SPARK-40055][SQL] listCatalogs by také měly vracet spark_catalog i pokud implementace spark_catalog je defaultSessionCatalog.
- Aktualizace zabezpečení operačního systému.
22. září 2022
- [SPARK-40315][SQL] Přidání hashCode() pro literál ArrayBasedMapData
- [SPARK-40380][SQL] Oprava konstantního skládání InvokeLike, aby se zabránilo neserializovatelnému literálu vloženému do plánu
- [SPARK-40089][SQL] Oprava řazení pro některé desetinné typy
- [SPARK-39887][SQL] RemoveRedundantAliases by měly uchovávat aliasy, které tvoří výstup uzlů projekce jedinečným
- [SPARK-40152][SQL] Oprava problému s kompilací split_part codegen
6. září 2022
- Aktualizovali jsme model oprávnění v ovládacích prvcích řízení přístupu k tabulce (seznamy ACL) tak, aby se ke změně schématu tabulky nebo vlastností ALTER TABLEtabulky vyžadovala pouze oprávnění MODIFY. Dříve tyto operace vyžadovaly, aby uživatel vlastní tabulku. Vlastnictví se stále vyžaduje k udělení oprávnění k tabulce, změně jeho vlastníka, změně jeho umístění nebo přejmenování. Tato změna dělá model oprávnění pro tabulkové ACL konzistentnější s Unity Catalog.
- [SPARK-40235][JÁDRO] Místo synchronizace v Executor.updateDependencies() použijte přerušitelný zámek.
- [SPARK-40212][SQL] SparkSQL castPartValue nezpracuje správně bajt, krátký nebo plovoucí
- [SPARK-40218][SQL] GROUPING SETS by měly zachovat skupinové sloupce.
- [SPARK-39976][SQL] ArrayIntersect by měl správně zpracovat hodnotu null v levém výrazu.
-
[SPARK-40053][CORE][SQL][TESTS] Přidejte
assumek dynamickým případům zrušení, které vyžadují Python běhové prostředí - [SPARK-35542][CORE][ML] Oprava: Bucketizer vytvořený pro více sloupců s parametry splitsArray, inputCols a outputCols nelze po uložení načíst.
- [SPARK-40079][JÁDRO] Přidání ověření inputCols u Imputeru pro případ prázdného vstupu
24. srpna 2022
- Sdílené složky, poskytovatelé a příjemci teď podporují příkazy SQL pro změnu vlastníků, komentářů a přejmenování.
- [SPARK-39983][JÁDRO][SQL] Neukládejte do paměti neserializované broadcast vztahy na driveru.
- [SPARK-39912][SPARK-39828][SQL] Upřesnit KatalogImpl
- [SPARK-39775][CORE][AVRO] Zákaz ověřování výchozích hodnot při analýze schémat Avro
- [SPARK-39806] Opravili jsme problém s dotazy přistupujícími ke struktuře METADATA v dělených tabulkách.
- [SPARK-39867][SQL] Globální limit by neměl dědit OrderPreservingUnaryNode
- [SPARK-39962][PYTHON][SQL] Použít projekci, pokud jsou atributy skupiny prázdné
- [SPARK-39839][SQL] Zpracování speciálního případu proměnné délky nulového Decimal s nenulovým offsetAndSize v nezabezpečené kontrole integrity struktury
- [SPARK-39713][SQL] Režim ANSI: Přidání návrhu použití try_element_at pro INVALID_ARRAY_INDEX chybu
- [SPARK-39847][SS] Oprava závodní podmínky v RocksDBLoader.loadLibrary(), pokud je vlákno volajícího přerušeno
- [SPARK-39731][SQL] Oprava potíží se zdroji dat CSV a JSON při analýze kalendářních dat ve formátu yyyyMDd pomocí zásad analyzátoru opravených času
- Aktualizace zabezpečení operačního systému.
10. srpna 2022
- U tabulek Delta s řízením přístupu k tabulkám je teď automatický vývoj schématu prostřednictvím příkazů DML, jako jsou
INSERTaMERGE, k dispozici všem uživatelům, kteří mají pro tyto tabulky oprávněníMODIFY. Kromě toho jsou oprávnění potřebná k vývoji schématu sCOPY INTOnyní nižší zOWNERnaMODIFYkvůli konzistenci s jinými příkazy. Díky těmto změnám je model zabezpečení seznamu ACL tabulky konzistentnější s modelem zabezpečení katalogu Unity a také s dalšími operacemi, jako je nahrazení tabulky.
- [SPARK-39889] Vylepšení chybové zprávy dělení nulou
- [SPARK-39795] [SQL] Nová funkce SQL: try_to_timestamp
- [SPARK-39749] Při přetypování desetinného čísla na řetězec v režimu ANSI vždy používejte prostý řetězec.
- [SPARK-39625] Přejmenování df.as na df.to
- [SPARK-39787] [SQL] Použití třídy chyb v analýze chyby funkce to_timestamp
- [SPARK-39625] [SQL] Přidání Dataset.as(StructType)
-
[SPARK-39689] Podpora 2 znaků ve zdroji
lineSepdat CSV - [SPARK-39579] [SQL][python][R] Make ListFunctions/getFunction/functionExists kompatibilní s třístupňovým oborem názvů
- [SPARK-39702] [JÁDRO] Snížení paměťové režie pro TransportCipher$EncryptedMessage pomocí sdíleného byteRawChannel
- [SPARK-39575] [AVRO] přidejte ByteBuffer#rewind po ByteBuffer#get v AvroDeserializer
- [SPARK-39265] [SQL] Oprava selhání testu při povolení SPARK_ANSI_SQL_MODE
- [SPARK-39441] [SQL] Zrychlení odstranění duplicitních dat
- [SPARK-39497] [SQL] Vylepšení výjimky analýzy chybějícího sloupce s klíčem mapy
- [SPARK-39476] [SQL] Zakažte optimalizaci přetypování unwrap při přetypování z Long na Float/Double nebo z Integer na Float.
- [SPARK-39434] [SQL] Poskytnutí kontextu dotazu při chybě za běhu, když je index pole mimo hranice
- U tabulek Delta s řízením přístupu k tabulkám je teď automatický vývoj schématu prostřednictvím příkazů DML, jako jsou
Databricks Runtime 11.0
Viz Databricks Runtime 11.0 (EoS)
- 29. listopadu 2022
- Uživatelé můžou při zápisu dat pomocí konektoru Redshift nakonfigurovat počáteční a koncové chování prázdných znaků. Pro řízení zpracování prázdných znaků byly přidány následující možnosti:
-
csvignoreleadingwhitespace, pokud je nastavena natrue, odebere počáteční prázdné znaky z hodnot při zápisu, když jetempformatnastavena naCSVneboCSV GZIP. Prázdné znaky se zachovají, když je nastavení nastaveno nafalse. Výchozí hodnota jetrue. -
csvignoretrailingwhitespace, pokud je nastavena natrue, odebere koncové prázdné znaky z hodnot při zápisu, když jetempformatnastavena naCSVneboCSV GZIP. Prázdné znaky se zachovají, když je nastavení nastaveno nafalse. Výchozí hodnota jetrue.
-
- Opravili jsme chybu při analýze JSON v Auto Loaderu, když byly všechny sloupce ponechány jako řetězce (nebyl nastaven
cloudFiles.inferColumnTypesnebo byl nastaven nafalse) a JSON obsahoval vnořené objekty. - [SPARK-39650][SS] Oprava nesprávného schématu hodnot v odstranění duplicitních dat streamování se zpětnou kompatibilitou
- Aktualizace zabezpečení operačního systému.
- Uživatelé můžou při zápisu dat pomocí konektoru Redshift nakonfigurovat počáteční a koncové chování prázdných znaků. Pro řízení zpracování prázdných znaků byly přidány následující možnosti:
- 15. listopadu 2022
-
[SPARK-40646] parsování JSON pro struktury, mapy a pole byla opravena, takže pokud část záznamu neodpovídá schématu, zbytek záznamu je možné analyzovat správně místo vrácení hodnot null. Pokud chcete vyjádřit výslovný souhlas s vylepšeným chováním, nastavte
spark.sql.json.enablePartialResultsnatrue. Příznak je ve výchozím nastavení zakázaný, aby se zachovalo původní chování.
-
[SPARK-40646] parsování JSON pro struktury, mapy a pole byla opravena, takže pokud část záznamu neodpovídá schématu, zbytek záznamu je možné analyzovat správně místo vrácení hodnot null. Pokud chcete vyjádřit výslovný souhlas s vylepšeným chováním, nastavte
- 1. listopadu 2022
- Upgradovali jsme Apache commons-text na verzi 1.10.0.
- Opravili jsme problém, kdy pokud měla tabulka Delta uživatelem definovaný sloupec s názvem
_change_type, ale v této tabulce byla zakázána změna datového kanálu , data v tomto sloupci se nesprávně vyplňovala hodnotami NULL při spuštění procesuMERGE. - Opravili jsme problém s funkcí Auto Loader, kdy může dojít k duplikaci souboru ve stejné mikrodávce při povolení
allowOverwrites. - [SPARK-40697][SQL] Přidání doplnění znaků na straně čtení pro pokrytí externích datových souborů
- [SPARK-40596][JÁDRO] Naplnění příkazu ExecutorDecommission zprávami v ExecutorDecommissionInfo
- Aktualizace zabezpečení operačního systému.
- 18. října 2022
- [SPARK-40213][SQL] Podpora převodu hodnot ASCII pro znaky latinky-1
- Aktualizace zabezpečení operačního systému.
- 5. října 2022
- Uživatelé můžou nastavit spark.conf.set("spark.databricks.io.listKeysWithPrefix.azure.enabled", "true") a znovu povolit nativní výpis klíčů pro funkci Auto Loader na Azure Data Lake Storage (ADLS). Nativní výpis byl dříve vypnutý kvůli problémům s výkonem, ale mohl vést ke zvýšení nákladů na úložiště pro zákazníky. Tato změna byla provedena v Databricks Runtime 10.4 a 9.1 v předchozí aktualizaci údržby.
- [SPARK-40169] Neodsouvejte filtry Parquet bez odkazu na schéma dat.
-
[SPARK-40460][SS] Oprava metrik streamování při výběru
_metadata - [SPARK-40468][SQL] Oprava prořezávání sloupců v CSV při výběru _corrupt_record
- Aktualizace zabezpečení operačního systému.
- 22. září 2022
- [SPARK-40315][SQL] Přidání hashCode() pro literál ArrayBasedMapData
- [SPARK-40380][SQL] Oprava konstantního skládání InvokeLike, aby se zabránilo neserializovatelnému literálu vloženému do plánu
- [SPARK-40089][SQL] Oprava řazení pro některé desetinné typy
- [SPARK-39887][SQL] RemoveRedundantAliases by měly uchovávat aliasy, které tvoří výstup uzlů projekce jedinečným
- [SPARK-40152][SQL] Oprava problému s kompilací split_part codegen
- 6. září 2022
- [SPARK-40235][JÁDRO] Místo synchronizace v Executor.updateDependencies() použijte přerušitelný zámek.
- [SPARK-40212][SQL] SparkSQL castPartValue nezpracuje správně bajt, krátký nebo plovoucí
- [SPARK-40218][SQL] GROUPING SETS by měly zachovat skupinové sloupce.
- [SPARK-39976][SQL] ArrayIntersect by měl správně zpracovat hodnotu null v levém výrazu.
-
[SPARK-40053][CORE][SQL][TESTS] Přidejte
assumek dynamickým případům zrušení, které vyžadují Python běhové prostředí - [SPARK-35542][CORE][ML] Oprava: Bucketizer vytvořený pro více sloupců s parametry splitsArray, inputCols a outputCols nelze po uložení načíst.
- [SPARK-40079][JÁDRO] Přidání ověření inputCols u Imputeru pro případ prázdného vstupu
- 24. srpna 2022
- [SPARK-39983][JÁDRO][SQL] Neukládejte do paměti neserializované broadcast vztahy na driveru.
- [SPARK-39775][CORE][AVRO] Zákaz ověřování výchozích hodnot při analýze schémat Avro
- [SPARK-39806] Opravili jsme problém s dotazy přistupujícími ke struktuře METADATA v dělených tabulkách.
- [SPARK-39867][SQL] Globální limit by neměl dědit OrderPreservingUnaryNode
- [SPARK-39962][PYTHON][SQL] Použít projekci, pokud jsou atributy skupiny prázdné
- Aktualizace zabezpečení operačního systému.
- 9. srpna 2022
- [SPARK-39713][SQL] Režim ANSI: Přidání návrhu použití try_element_at pro INVALID_ARRAY_INDEX chybu
- [SPARK-39847] Oprava závodní podmínky v RocksDBLoader.loadLibrary(), pokud je přerušeno vlákno volajícího.
- [SPARK-39731][SQL] Oprava potíží se zdroji dat CSV a JSON při analýze kalendářních dat ve formátu yyyyMDd pomocí zásad analyzátoru opravených času
- [SPARK-39889] Vylepšení chybové zprávy dělení nulou
- [SPARK-39795][SQL] Nová funkce SQL: try_to_timestamp
- [SPARK-39749] Při přetypování desetinného čísla na řetězec v režimu ANSI vždy používejte prostý řetězec.
- [SPARK-39625][SQL] Přidání Dataset.to(StructType)
- [SPARK-39787][SQL] Použití třídy chyb v analýze chyby funkce to_timestamp
- Aktualizace zabezpečení operačního systému.
- 27. července 2022
-
[SPARK-39689]Podpora 2 znaků ve zdroji
lineSepdat CSV - [SPARK-39104][SQL] Funkce InMemoryRelation#isCachedColumnBuffersLoaded by měla být bezpečná pro přístup z více vláken.
- [SPARK-39702][JÁDRO] Snížení paměťové režie TransportCipher$EncryptedMessage pomocí sdíleného byteRawChannel
- [SPARK-39575][AVRO] přidejte ByteBuffer#rewind po ByteBuffer#get v AvroDeserializeru
- [SPARK-39497][SQL] Vylepšení výjimky analýzy chybějícího sloupce klíče mapy
- [SPARK-39441][SQL] Zrychlení deduplikace relací
- [SPARK-39476][SQL] Zakažte optimalizaci přetypování unwrap při přetypování z Long na float/double nebo z Integer na float
- [SPARK-39434][SQL] Poskytnout kontext dotazu chyb za běhu, když je index pole mimo rozsah
- [SPARK-39570][SQL] Vložená tabulka by měla umožňovat výrazy s aliasem
- Aktualizace zabezpečení operačního systému.
-
[SPARK-39689]Podpora 2 znaků ve zdroji
- 13. července 2022
- Výsledky operace Delta MERGE jsou konzistentní, pokud zdroj není deterministický.
- Opravili jsme problém pro cloud_files_state TVF při spouštění na jiných cestách než DBFS.
- Zakázali jsme použití nativních cloudových rozhraní API automatického zavaděče pro výpis adresářů v Azure.
- [SPARK-38796][SQL] Aktualizovat funkce to_number a try_to_number pro povolení PR s kladnými čísly
- [SPARK-39272][SQL] Zvýšení počáteční pozice kontextu dotazu o 1
- [SPARK-39419][SQL] Oprava ArraySortu pro vyvolání výjimky, když srovnávací program vrátí hodnotu null
- Aktualizace zabezpečení operačního systému.
- 5. července 2022
- Vylepšení chybových zpráv pro řadu tříd chyb.
- [SPARK-39451][SQL] Podpora přetypování intervalů na celá čísla v režimu ANSI
- [SPARK-39361] V výchozích konfiguracích protokolování nepoužívejte rozšířený vzor převodu s možností vyvolání Log4J2.
-
[SPARK-39354][SQL] Zajistěte, aby se zobrazovala
Table or view not foundi v případě,dataTypeMismatchErrorže souvisíFiltersoučasně. - [SPARK-38675][JÁDRO] Oprava závodu během odemknutí v BlockInfoManageru
- [SPARK-39392][SQL] Upřesnění chybových zpráv ANSI pro nápovědu k funkcím try_*
- [SPARK-39214][SQL][3.3] Vylepšení chyb souvisejících s CAST
- [SPARK-37939][SQL] Použití tříd chyb při analýze chyb vlastností
-
[SPARK-39085][SQL] Přesunutí chybové zprávy
INCONSISTENT_BEHAVIOR_CROSS_VERSIONdo error-classes.json - [SPARK-39376][SQL] Skrytí duplicitních sloupců v hvězdicovitém rozšíření aliasu poddotazu z NATURAL/USING JOIN
- [SPARK-39283][JÁDRO] Oprava zablokování mezi TaskMemoryManager a UnsafeExternalSorter.SpillableIterator
- [SPARK-39285][SQL] Spark by při čtení souborů neměl kontrolovat názvy polí.
- Aktualizace zabezpečení operačního systému.
Databricks Runtime 10.5
Viz Databricks Runtime 10.5 (EoS).
- 1. listopadu 2022
- Opravili jsme problém, kdy pokud měla tabulka Delta uživatelem definovaný sloupec s názvem
_change_type, ale v této tabulce byla zakázána změna datového kanálu , data v tomto sloupci se nesprávně vyplňovala hodnotami NULL při spuštění procesuMERGE. - [SPARK-40697][SQL] Přidání doplnění znaků na straně čtení pro pokrytí externích datových souborů
- [SPARK-40596][JÁDRO] Naplnění příkazu ExecutorDecommission zprávami v ExecutorDecommissionInfo
- Aktualizace zabezpečení operačního systému.
- Opravili jsme problém, kdy pokud měla tabulka Delta uživatelem definovaný sloupec s názvem
- 18. října 2022
- Aktualizace zabezpečení operačního systému.
- 5. října 2022
- Uživatelé můžou nastavit spark.conf.set("spark.databricks.io.listKeysWithPrefix.azure.enabled", "true") a znovu povolit nativní výpis klíčů pro funkci Auto Loader na Azure Data Lake Storage (ADLS). Nativní výpis byl dříve vypnutý kvůli problémům s výkonem, ale mohl vést ke zvýšení nákladů na úložiště pro zákazníky. Tato změna byla provedena v Databricks Runtime 10.4 a 9.1 v předchozí aktualizaci údržby.
- reload4j byl aktualizován na verzi 1.2.19 k opravě zranitelností.
-
[SPARK-40460][SS] Oprava metrik streamování při výběru
_metadata - [SPARK-40468][SQL] Oprava prořezávání sloupců v CSV při výběru _corrupt_record
- Aktualizace zabezpečení operačního systému.
- 22. září 2022
- [SPARK-40315][SQL] Přidání hashCode() pro literál ArrayBasedMapData
- [SPARK-40213][SQL] Podpora převodu hodnot ASCII pro znaky latinky-1
- [SPARK-40380][SQL] Oprava konstantního skládání InvokeLike, aby se zabránilo neserializovatelnému literálu vloženému do plánu
- [SPARK-38404][SQL] Zlepšení řešení CTE, pokud vnořený CTE odkazuje na vnější CTE
- [SPARK-40089][SQL] Oprava řazení pro některé desetinné typy
- [SPARK-39887][SQL] RemoveRedundantAliases by měly uchovávat aliasy, které tvoří výstup uzlů projekce jedinečným
- Aktualizace zabezpečení operačního systému.
- 6. září 2022
- [SPARK-40235][JÁDRO] Místo synchronizace v Executor.updateDependencies() použijte přerušitelný zámek.
- [SPARK-39976][SQL] ArrayIntersect by měl správně zpracovat hodnotu null v levém výrazu.
-
[SPARK-40053][CORE][SQL][TESTS] Přidejte
assumek dynamickým případům zrušení, které vyžadují Python běhové prostředí - [SPARK-35542][CORE][ML] Oprava: Bucketizer vytvořený pro více sloupců s parametry splitsArray, inputCols a outputCols nelze po uložení načíst.
- [SPARK-40079][JÁDRO] Přidání ověření inputCols u Imputeru pro případ prázdného vstupu
- 24. srpna 2022
- [SPARK-39983][JÁDRO][SQL] Neukládejte do paměti neserializované broadcast vztahy na driveru.
- [SPARK-39775][CORE][AVRO] Zákaz ověřování výchozích hodnot při analýze schémat Avro
- [SPARK-39806] Opravili jsme problém s dotazy přistupujícími ke struktuře METADATA v dělených tabulkách.
- [SPARK-39962][PYTHON][SQL] Použít projekci, pokud jsou atributy skupiny prázdné
- [SPARK-37643][SQL] Pokud je argument charVarcharAsString pravdivý, měl by dotaz predikátu typu char přeskočit pravidlo rpadding.
- Aktualizace zabezpečení operačního systému.
- 9. srpna 2022
- [SPARK-39847] Oprava závodní podmínky v RocksDBLoader.loadLibrary(), pokud je přerušeno vlákno volajícího.
- [SPARK-39731][SQL] Oprava potíží se zdroji dat CSV a JSON při analýze kalendářních dat ve formátu yyyyMDd pomocí zásad analyzátoru opravených času
- Aktualizace zabezpečení operačního systému.
- 27. července 2022
- [SPARK-39625][SQL] Přidání Dataset.as(StructType)
-
[SPARK-39689]Podpora 2 znaků ve zdroji
lineSepdat CSV - [SPARK-39104][SQL] Funkce InMemoryRelation#isCachedColumnBuffersLoaded by měla být bezpečná pro přístup z více vláken.
- [SPARK-39570][SQL] Vložená tabulka by měla umožňovat výrazy s aliasem
- [SPARK-39702][JÁDRO] Snížení paměťové režie TransportCipher$EncryptedMessage pomocí sdíleného byteRawChannel
- [SPARK-39575][AVRO] přidejte ByteBuffer#rewind po ByteBuffer#get v AvroDeserializeru
- [SPARK-39476][SQL] Zakažte optimalizaci přetypování unwrap při přetypování z Long na float/double nebo z Integer na float
- Aktualizace zabezpečení operačního systému.
- 13. července 2022
- Výsledky operace Delta MERGE jsou konzistentní, pokud zdroj není deterministický.
- [SPARK-39355][SQL] Jeden sloupec je použit s uvozovkami k vytvoření UnresolvedAttribute
- [SPARK-39548][SQL] Příkaz CreateView s klauzulí okna narazil na problém, kdy nesprávná definice okna nebyla nalezena
- [SPARK-39419][SQL] Oprava ArraySortu pro vyvolání výjimky, když srovnávací program vrátí hodnotu null
- Zakázali jsme použití nativních cloudových rozhraní API automatického zavaděče pro výpis adresářů v Azure.
- Aktualizace zabezpečení operačního systému.
- 5. července 2022
- [SPARK-39376][SQL] Skrytí duplicitních sloupců v hvězdicovitém rozšíření aliasu poddotazu z NATURAL/USING JOIN
- Aktualizace zabezpečení operačního systému.
- 15. června 2022
- [SPARK-39283][JÁDRO] Oprava zablokování mezi TaskMemoryManager a UnsafeExternalSorter.SpillableIterator
- [SPARK-39285][SQL] Spark by při čtení souborů neměl kontrolovat názvy polí.
- [SPARK-34096][SQL] Zvýšení výkonu pro nth_value s ignorováním hodnot null v rámci posunovacího okna
-
[SPARK-36718][SQL][NÁSLEDNÝ KROK] Oprava kontroly v CollapseProject
isExtractOnly
- 2. června 2022
- [SPARK-39166][SQL] Poskytnutí kontextu dotazu na chybu za běhu pro binární aritmetické operace při vypnutí WSCG
- [SPARK-39093][SQL] Vyhněte se chybě kompilace codegen při dělení intervalů rok-měsíc nebo denních intervalů integrálem
- [SPARK-38990][SQL] Vyhněte se výjimce NullPointerException při vyhodnocování formátu date_trunc/trunc jako vázaného odkazu
- Aktualizace zabezpečení operačního systému.
- 18. května 2022
- Opravuje potenciální únik nativní paměti v automatickém zavaděči.
- [SPARK-38868][SQL]Při optimalizaci vnějších spojení nešíří výjimky z predikátu filtru
- [SPARK-38796][SQL] Implementace funkcí SQL to_number a try_to_number podle nové specifikace
- [SPARK-38918][SQL] Vyřazení vnořených sloupců by mělo vyfiltrovat atributy, které nepatří do aktuální relace.
- [SPARK-38929][SQL] Vylepšení chybových zpráv při selhání přetypování v ANSI
- [SPARK-38926][SQL] Typy výstupu v chybových zprávách ve stylu SQL
- [SPARK-39084][PYSPARK] Oprava df.rdd.isEmpty() pomocí TaskContext k zastavení iterátoru při dokončení úkolu
- [SPARK-32268][SQL] Přidat ColumnPruning do injectBloomFilter
- [SPARK-38908][SQL] Poskytnout kontext dotazu při chybě za běhu při přetypování z řetězce na číslo, datum, časové razítko nebo logickou hodnotu.
- [SPARK-39046][SQL] Vrátí prázdný kontextový řetězec, pokud je TreeNode.origin nesprávně nastaven.
- [SPARK-38974][SQL] Filtrování registrovaných funkcí s daným názvem databáze ve funkcích seznamu
- [SPARK-38762][SQL] Zadání kontextu dotazu v chybách přetečení desetinných míst
- [SPARK-38931][SS] Vytvoření kořenového adresáře dfs pro RocksDBFileManager s neznámým počtem klíčů na 1. kontrolním bodu
- [SPARK-38992][JÁDRO] Nepoužívejte bash -c v ShellBasedGroupsMappingProvider
- [SPARK-38716][SQL] Poskytnutí kontextu dotazu při chybě neexistujícího klíče mapy
- [SPARK-38889][SQL] Kompilujte logické filtry sloupců tak, aby používaly bitový typ zdroje dat MSSQL.
- [SPARK-38698][SQL] Poskytnout kontext dotazu při chybě za běhu u operací dělení, div, zbytek a Pmod
-
[SPARK-38823][SQL] Udělejte
NewInstancenekompresní, aby se vyřešil problém s poškozením vyrovnávací paměti agregace - [SPARK-38809][SS] Implementujte možnost přeskočit null hodnoty v implementaci symetrických hash spojení stream-stream.
- [SPARK-38676][SQL] Zadejte kontext dotazu SQL v chybové zprávě modulu runtime pro sčítání, odečítání nebo násobení.
- [SPARK-38677][PYSPARK] Python MonitorThread by měl zjistit zablokování kvůli blokování vstupně-výstupních operací
- Aktualizace zabezpečení operačního systému.