Poznámka:
Přístup k této stránce vyžaduje autorizaci. Můžete se zkusit přihlásit nebo změnit adresáře.
Přístup k této stránce vyžaduje autorizaci. Můžete zkusit změnit adresáře.
Poznámka:
Podpora této verze Databricks Runtime skončila. Datum ukončení podpory najdete v tématu Historie ukončení podpory. Pro všechny podporované verze Databricks Runtime vizte poznámky k vydání Databricks Runtime - verze a kompatibilita.
Následující poznámky k verzi obsahují informace o databricks Runtime 11.3 LTS s využitím Apache Sparku 3.3.0. Databricks vydala tuto verzi v říjnu 2022.
Poznámka:
LTS znamená, že tato verze je dlouhodobě podporována. Viz životní cyklus verze LTS modulu Databricks Runtime.
Změny chování
[Zásadní změna] Nová verze Pythonu vyžaduje aktualizaci klientů Databricks Connect V1 Python.
Poznámka:
Následující aktualizace přesune verzi Pythonu v Databricks Runtime 11.3 LTS na verzi 3.9.21. Verze 3.9.21 nezavádí žádné změny chování.
Pokud chcete použít požadované opravy zabezpečení, aktualizuje se verze Pythonu v Databricks Runtime 11.3 LTS z verze 3.9.5 na 3.9.19. Vzhledem k tomu, že tyto změny můžou způsobit chyby v klientech, kteří používají konkrétní funkce PySpark, musí být všechny klienty používající Databricks Connect V1 pro Python s Modulem Databricks Runtime 11.3 LTS aktualizovány na Python 3.9.7 nebo novější.
Nové funkce a vylepšení
- Python upgradovaný z verze 3.9.19 na verzi 3.9.21
- Režim trigger once ve strukturovaném streamování je zastaralý
- Změna zdrojové cesty pro Auto Loader
- Konektor Databricks Kinesis teď podporuje čtení z datových proudů Kinesis v režimu EFO.
- Nové geoprostorové funkce H3 a přidání podpory Photon pro všechny funkce H3
- Nové funkce prediktivních vstupně-výstupních operací
- Zvýšení počátečních oddílů pro vyhledávání selektivních dotazů
- Vizualizace nových verzí plánu AQE
- Nové režimy sledování asynchronního průběhu a mazání protokolů
-
Strukturované streamování v katalogu Unity teď podporuje
display() - Události kanálu se teď protokolují ve formátu JSON.
- Libovolné stavové zpracování ve strukturovaném streamování pomocí Pythonu
- Odvození data v souborech CSV
- Podpora klonování pro tabulky Apache Parquet a Apache Iceberg (Public Preview)
- Použití SQL k určení umístění úložiště na úrovni schématu a katalogu pro spravované tabulky Unity
Python upgradovaný z verze 3.9.19 na verzi 3.9.21
Verze Pythonu v Databricks Runtime 11.3 LTS se aktualizuje z verze 3.9.19 na 3.9.21.
Strukturovaný streaming - trigger once je označen jako zastaralý.
Nastavení Trigger.Once je zastaralé. Databricks doporučuje používat Trigger.AvailableNow. Viz Konfigurace intervalů triggeru strukturovaného streamování.
Změna zdrojové cesty pro automatický zavaděč
Teď můžete změnit cestu vstupu adresáře pro Auto Loader nakonfigurovaný v režimu výpisu adresáře, aniž byste museli zvolit nový adresář kontrolního bodu. Viz Změnit zdrojovou cestu pro automatický nakladač.
Konektor Databricks Kinesis teď podporuje čtení z datových proudů Kinesis v režimu EFO.
Teď můžete v Databricks Runtime 11.3 LTS pomocí zdroje strukturovaného streamování Databricks Kinesis spouštět dotazy, které čtou z datových proudů Kinesis v rozšířeném režimu fan-out. To umožňuje vyhrazenou propustnost na fragment, na konzumenta a doručování záznamů v push režimu.
Nové geoprostorové funkce H3 a přidání podpory Photon pro všechny funkce H3
Představujeme 4 nové funkce H3, h3_maxchild, h3_minchild, h3_pointash3a h3_pointash3string. Tyto funkce jsou dostupné v SQL, Scala a Pythonu. Ve Photonu se teď podporují všechny výrazy H3. Viz H3 geoprostorové funkce.
Nové funkce prediktivních vstupně-výstupních operací
Photon podporuje režim rozsahu pro spouštění snímků pomocí RANGE BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW. Photon také podporuje režim rozsahu hodnot pro expandující snímky pomocí RANGE BETWEEN UNBOUNDED PRECEDING AND offset_stop { PRECEDING | FOLLOWING }.
Zvýšení počátečních oddílů pro vyhledávání selektivních dotazů
Hodnota počátečních oddílů pro skenování byla zvýšena na 10 pro selektivní dotaz v take/tail/limit clusterech s podporou Photon a LIMIT v Databricks SQL. S 10 oddíly se můžete vyhnout režii spouštění několika malých úloh a pomalého vertikálního navýšení kapacity. Můžete to také nakonfigurovat prostřednictvím spark.sql.limit.selectiveInitialNumPartitions.
Vizualizace nových verzí plánu AQE
Představujeme verze plánu AQE, které umožňují vizualizovat aktualizace plánu modulu runtime z adaptivního spouštění dotazů (AQE).
Nové režimy sledování asynchronního průběhu a mazání protokolů
Představujeme režimy strukturovaného streamování označované jako asynchronní sledování průběhu a asynchronní mazání protokolů. Režim asynchronního vymazávání logů snižuje latenci dotazů na streamování odebráním logů používaných pro sledování průběhu na pozadí.
Strukturované streamování v katalogu Unity teď podporuje display()
Teď můžete použít display() , když použijete strukturované streamování k práci s tabulkami registrovanými v katalogu Unity.
Události potrubí se teď zaznamenávají ve formátu JSON.
Azure Databricks teď zapisuje události kanálu do protokolu ovladače ve formátu JSON. I když bude každá událost parsovatelná ve formátu JSON, velké události nemusí obsahovat všechna pole nebo můžou být zkrácena. Každá událost se zaprotokoluje na jednom řádku s předponou Event received: . Následuje příklad události.
Event received: {"id":"some-event-id","origin":{"pipeline_id":"some-pipeline-id","cluster_id":"some-cluster id"},"message":"simple [truncated] message","level":"WARN"}
Libovolné stavové zpracování ve strukturovaném streamování pomocí Pythonu
applyInPandasWithState Představujeme funkci, kterou lze použít k provedení libovolného stavového zpracování v PySparku. To je ekvivalentem flatMapGroupsWithState funkce v rozhraní Java API.
Odvození data v souborech CSV
Představujeme vylepšené odvozování sloupců typu dat v souborech CSV. Pokud je formát data konzistentní mezi záznamy sloupce, lze tyto sloupce odvodit jako DateType. Můžete mít také kombinaci formátů kalendářních dat v různých sloupcích. Azure Databricks může automaticky odvodit formát data pro každý sloupec. Sloupce kalendářních dat v souborech CSV před modulem Databricks Runtime 11.3 LTS zůstanou jako StringType.
Podpora klonování pro tabulky Apache Parquet a Apache Iceberg (Public Preview)
Nyní lze klon použít k vytváření a přírůstkové aktualizaci tabulek Delta, které zrcadlí tabulky Apache Parquet a Apache Iceberg. Zdrojovou tabulku Parquet můžete aktualizovat a postupně aplikovat změny na klonovanou tabulku Delta pomocí příkazu clone. Viz přírůstkové klonování tabulek Parquet a Apache Iceberg do Delta Lake.
Použití SQL k určení umístění úložiště na úrovni schématu a katalogu pro spravované tabulky Katalogu Unity
Teď můžete pomocí MANAGED LOCATION příkazu SQL určit umístění cloudového úložiště pro spravované tabulky na úrovni katalogu a schématu. Viz CREATE CATALOG a CREATE SCHEMA.
Změny chování
Databricks Connect 11.3.2
Aktualizace klienta Databricks Connect 11.3.2 je teď podporovaná. Viz Databricks Connect a poznámky k verzi Databricks Connect.
Aktualizace konektoru Azure Databricks Snowflake
Konektor Azure Databricks Snowflake byl aktualizován na nejnovější verzi kódu z opensourcového úložiště Snowflake Data Source pro Apache Spark. Je nyní plně kompatibilní s Databricks Runtime 11.3 LTS, včetně predicate pushdown a internal query plan pushdown, přičemž zachovává všechny funkce open-source verze.
Mezipaměť Hadoop pro S3A je teď zakázaná.
Mezipaměť Hadoop (FileSystem Apache Hadoop Main 3.3.4 API) pro S3A je teď zakázaná. To je v souladu s dalšími konektory cloudového úložiště. U úloh, které se spoléhají na ukládání do mezipaměti systému souborů, se ujistěte, že nově vytvořené systémy souborů mají správné konfigurace Systému Hadoop, včetně zprostředkovatelů přihlašovacích údajů.
Schéma kolekce statistik Delta Lake teď odpovídá pořadí sloupců v definici schématu tabulky.
Tato změna řeší chybu v protokolu Delta Lake, kdy se statistiky neshromažďovaly pro sloupce kvůli neshodě v datovém rámci a pořadí sloupců tabulky. V některých případech může dojít ke snížení výkonu zápisu v důsledku sbírání statistik u dříve nesledovaných polí. Viz Přeskočení dat.
applyInPandasWithState vyvolá chybu, pokud dotaz zahrnuje přeskupení dat po operátoru.
Operátor applyInPandasWithState vyvolá chybu, pokud dotaz obsahuje shuffle za operátorem. K tomu dochází, když buď uživatel přidá shuffle po operaci, nebo optimalizátor nebo jímka implicitně přidá shuffle .
Upgrady knihoven
- Upgradované knihovny Pythonu:
- distlib od 0.3.5 do 0.3.6
- Upgradované knihovny jazyka R:
- broom od 1.0.0 do 1.0.1
- volající od 3.7.1 do 3.7.2
- dplyr od 1.0.9 do 1.0.10
- dtplyr od 1.2.1 do 1.2.2
- forcats od 0.5.1 do 0.5.2
- aktualizace z verze 1.27.0 na verzi 1.28.0
- future.apply z verze 1.9.0 na 1.9.1
- gert od 1.7.0 do 1.8.0
- globals z verze 0.16.0 na verzi 0.16.1
- Aktualizace gtable z verze 0.3.0 na verzi 0.3.1
- haven verze z 2.5.0 na 2.5.1
- hms od 1.1.1 do 1.1.2
- httr od 1.4.3 do 1.4.4
- knitr od 1.39 do 1.40
- modelr od 0.1.8 do 0.1.9
- pilíř od 1.8.0 do 1.8.1
- progressr od 0.10.1 do 0.11.0
- readxl od 1.4.0 do 1.4.1
- reprex z verze 2.0.1 na verzi 2.0.2
- rlang od 1.0.4 do 1.0.5
- rmarkdown od 2.14 do 2.16
- RSQLite od 2.2.15 do 2.2.16
- rstudioapi od 0.13 do 0.14
- rverze od 2.1.1 do 2.1.2
- rvest od verze 1.0.2 do verze 1.0.3
- škálování od 1.2.0 do 1.2.1
- sparklyr od 1.7.7 do 1.7.8
- Stringr od 1.4.0 do 1.4.1
- přežití od 3,2-13 do 3,4-0
- tinytex od 0,40 do 0,41
- viridisLite od 0.4.0 do 0.4.1
- Upgradované knihovny Java:
- com.fasterxml.jackson.core.jackson-annotations z verze 2.13.3 na verzi 2.13.4
- com.fasterxml.jackson.core.jackson-core od 2.13.3 do 2.13.4
- com.fasterxml.jackson.core.jackson-databind od 2.13.3 do 2.13.4
- com.fasterxml.jackson.dataformat.jackson-dataformat-cbor od 2.13.3 do 2.13.4
- com.fasterxml.jackson.datatype.jackson-datatype-joda od 2.13.3 do 2.13.4
- com.fasterxml.jackson.datatype.jackson-datatype-jsr310 od 2.13.3 do 2.13.4
- com.fasterxml.jackson.module.jackson-module-paranamer od 2.13.3 do 2.13.4
- com.fasterxml.jackson.module.jackson-module-scala_2.12 od 2.13.3 do 2.13.4
- org.apache.hadoop.hadoop-client-api od 3.3.2-databricks do 3.3.4-databricks
- org.apache.hadoop.hadoop-client-runtime od „3.3.2“ do „3.3.4“
- org.apache.orc.orc-core od 1.7.5 do 1.7.6
- org.apache.orc.orc-mapreduce od 1.7.5 do 1.7.6
- org.apache.orc.orc-shims od 1.7.5 do 1.7.6
- org.apache.parquet.parquet-column od 1.12.0-databricks-0004 do 1.12.0-databricks-0007
- org.apache.parquet.parquet-common od 1.12.0-databricks-0004 do 1.12.0-databricks-0007
- org.apache.parquet.parquet-encoding od verze 1.12.0-databricks-0004 na verzi 1.12.0-databricks-0007
- org.apache.parquet.parquet-format-structures z 1.12.0-databricks-0004 na 1.12.0-databricks-0007
- org.apache.parquet.parquet-hadoop od 1.12.0-databricks-0004 do 1.12.0-databricks-0007
- org.apache.parquet.parquet-jackson od 1.12.0-databricks-0004 do 1.12.0-databricks-0007
- org.glassfish.jersey.containers.jersey-container-servlet od 2.34 do 2.36
- org.glassfish.jersey.containers.jersey-container-servlet-core od 2.34 do 2.36
- org.glassfish.jersey.core.jersey-client od 2.34 do 2.36
- org.glassfish.jersey.core.jersey-common od 2.34 do 2.36
- org.glassfish.jersey.core.jersey-server od 2.34 do 2.36
- org.glassfish.jersey.inject.jersey-hk2 od 2.34 do 2.36
Apache Spark
Databricks Runtime 11.3 LTS zahrnuje Apache Spark 3.3.0. Tato verze zahrnuje všechny opravy a vylepšení Sparku, která jsou součástí Databricks Runtime 11.2 (EoS), a také následující další opravy chyb a vylepšení Sparku:
- [SPARK-39957] [WARMFIX][sc-111425][CORE] Zpoždění onDisconnected, aby se umožnilo, že ovladač přijímá ExecutorExitCode
- [SPARK-39955] [WARMFIX][sc-111424][CORE] Vylepšete proces LaunchTask, abyste se vyhnuli selháním fáze způsobeným selháním při odesílání zpráv LaunchTask.
- [SPARK-40474] [SC-106248][cherry-pick] Správné chování odvozování schématu CSV pro sloupce datetime a zavedení automatického zjišťování pro pole Data
- [SPARK-40535] [SC-111243][sql] Oprava chyby, že vyrovnávací paměť AgregatingAccumulator nebude vytvořena, pokud jsou vstupní řádky prázdné
- [SPARK-40434] [SC-111125][sc-111144][SC-111138][spark-40435][11.3][ss][PYTHON] Implementovat applyInPandasWithState v PySpark
-
[SPARK-40460] [SC-110832][ss] Oprava metrik streamování při výběru
_metadata -
[SPARK-40324] [SC-109943][sql] Zadejte kontext dotazu
ParseException - [SPARK-40466] [SC-110899][ss] Vylepšete chybovou zprávu, když je DSv2 zakázaná, zatímco DSv1 není k dispozici
- [SPARK-40456] [SC-110848][sql] PartitionIterator.hasNext by měl být levný pro opakované volání.
- [SPARK-40169] [SC-110772][sql] Neodsouvejte filtry Parquet bez odkazu na schéma dat.
- [SPARK-40467] [SC-110759][ss] Rozdělit FlatMapGroupsWithState na několik testovacích sad
- [SPARK-40468] [SC-110813][sql] Oprava ořezávání sloupců v CSV při výběru _corrupt_record
- [SPARK-40291] [SC-110085][sql] Vylepšit zprávu pro chybu, kdy sloupec není ve skupinové klauzuli
- [SPARK-40398] [SC-110762][core][SQL] Místo rozhraní API Arrays.stream použijte smyčku.
- [SPARK-40433] [SC-110684][ss][PYTHON] Přidat toJVMRow v PythonSQLUtils pro převod serializovaného řádku PySpark na řádek JVM
- [SPARK-40414] [SC-110568][sql][PYTHON] Další obecný typ v PythonArrowInput a PythonArrowOutput
- [SPARK-40352] [SC-109945][sql] Přidání aliasů funkcí: len, datepart, dateadd, date_diff a curdate
- [SPARK-40470] [SC-110761][sql] Zpracování GetArrayStructFields a GetMapValue ve funkci "arrays_zip"
- [SPARK-40387] [SC-110685][sql] Vylepšení implementace Spark Decimal
- [SPARK-40429] [SC-110675][sql] Nastavte pouze keyGroupedPartitioning, pokud je odkazovaný sloupec ve výstupu.
- [SPARK-40432] [SC-110716][ss][PYTHON] Zavedení GroupStateImpl a GroupStateTimeout v PySparku
- [SPARK-39915] [SC-110496][sql] Ujistěte se, že je výstupní dělení zadané uživatelem v AQE.
-
[SPARK-29260] [SQL] Podpora
ALTER DATABASE SET LOCATION, pokud HMS podporuje - [SPARK-40185] [SC-110056][sql] Odebrat návrh sloupce, pokud je seznam kandidátů prázdný
- [SPARK-40362] [SC-110401][sql] Oprava kanonizace BinaryComparison
- [SPARK-40411] [SC-110381][ss] Refaktoring FlatMapGroupsWithStateExec, aby měl nadřazenou vlastnost
- [SPARK-40293] [SC-110084][sql] Aby byla chybová zpráva tabulky V2 smysluplnější
-
[SPARK-38734] [SC-110383][sql] Odebrání třídy chyb
INDEX_OUT_OF_BOUNDS - [SPARK-40292] [SC-110300][sql] Oprava názvů sloupců ve funkci "arrays_zip" při odkazování polí z vnořených struktur
- [SPARK-40276] [SC-109674][core] Zmenšení velikosti výsledku RDD.takeOrdered
- [SPARK-40197] [SC-109176][sql] Nahrazení plánu dotazu kontextem pro MULTI_VALUE_SUBQUERY_ERROR
-
[SPARK-40300] [SC-109942][sql] Migrace do
DATATYPE_MISMATCHtřídy chyb - [SPARK-40149] [SC-110055][sql] Šíření sloupců metadat prostřednictvím Projectu
- [SPARK-40280] [SC-110146][sql] Přidání podpory pro parquet push down pro anotované int a long
- [SPARK-40220] [SC-110143][sc-109175][SQL] Nevydávejte prázdnou mapu parametrů chybové zprávy.
- [SPARK-40295] [SC-110070][sql] Povolit funkce v2 s literálními argumenty v rozdělení/řazení zápisu
-
[SPARK-40156] [SC-109264][sql]
url_decode()by měla vrátit třídu chyb. - [SPARK-39195] [SQL] Spark OutputCommitCoordinator by měl přerušit fázi, pokud potvrzený soubor není konzistentní se stavem úkolu.
- [SPARK-40260] [SC-109424][sql] Využití tříd chyb při chybách kompilace polohy GROUP BY
- [SPARK-40205] [SC-110144][sc-109082][SQL] Zadejte kontext dotazu ELEMENT_AT_BY_INDEX_ZERO
- [SPARK-40112] [SC-109676][sql] Vylepšení funkce TO_BINARY()
-
[SPARK-40209] [SC-109081][sql] Neměňte hodnotu intervalu Decimal v
changePrecision()v případě chyb. - [SPARK-40319] [SC-109873][sql] Odebrání metody chyby spuštění duplicitního dotazu pro PARSE_DATETIME_BY_NEW_PARSER
- [SPARK-40222] [SC-109209][sql] Číselná try_add/try_divide/try_subtract/try_multiply by měla vyvolat chybu z podřízených položek
- [SPARK-40183] [SC-108907][sql] Použijte třídu chyb NUMERIC_VALUE_OUT_OF_RANGE pro přetečení při převodu desítkových čísel.
-
[SPARK-40180] [SC-109069][sql] Formát chybových zpráv podle
spark-sql - [SPARK-40153] [SC-109165][sql] Sjednotit funkce vyhodnocení a tabulkové funkce
-
[SPARK-40308] [SC-109880][sql] Povolit funkci s nerozvinutelnými argumenty oddělovače
str_to_map - [SPARK-40219] [SC-110052][sc-109663][SQL] Vyřešený logický plán zobrazení by měl obsahovat schéma, aby se zabránilo redundantnímu vyhledávání.
- [SPARK-40098] [SC-109939][sc-108693][SQL] Formátování chybových zpráv na serveru Thrift
- [SPARK-39917] [SC-109038][sql] Použití různých tříd chyb pro numerické a intervalové aritmetické přetečení
- [SPARK-40033] [SC-109875][sql] Podpora prořezávání vnořeného schématu prostřednictvím element_at
- [SPARK-40194] [ SC-109660][sql] FUNKCE SPLIT u prázdných regulárních výrazů by měla zkrátit koncový prázdný řetězec.
- [SPARK-40228] [SC-109835][sql] Nezjednodušujte multiLike, pokud výraz není levný
- [SPARK-40039] [SC-109896][sc-109260][SS] Představujeme správce souborů kontrolních bodů streamování založený na rozhraní Abortable hadoopu.
-
[SPARK-40285] [SC-109679][sql] Zjednodušení sparku
roundTo[Numeric]Decimal - [SPARK-39896] [SC-109658][sql] UnwrapCastInBinaryComparison by měl fungovat při selhání literálu in/InSet downcast
- [SPARK-40040] [SC-109662][sql] Posuňte místní limit na obě strany, pokud je podmínka spojení prázdná
- [SPARK-40055] [SC-109075][sql] listCatalogs by také měly vracet spark_catalog i v případě, že je výchozí implementace spark_catalog SessionCatalog
- [SPARK-39915] [SC-109391][sql] Dataset.repartition(N) nemusí vytvářet oddíly N, které nejsou součástí AQE.
- [SPARK-40207] [SC-109401][sql] Zadejte název sloupce, pokud zdroj dat nepodporuje datový typ.
- [SPARK-40245] [SC-109295][sql] Oprava kontroly rovnosti u FileScan, pokud nejsou čteny sloupce filtru oddílu nebo filtru dat
- [SPARK-40113] [SC-109405][sql] Implementace rozhraní Reactor ParquetScanBuilder DataSourceV2
- [SPARK-40211] [SC-109226][core][SQL] Povolit přizpůsobení počátečního čísla oddílů v chování take()
-
[SPARK-40252] [SC-109379][sql] Nahraďte
Stream.collect(Collectors.joining)rozhranímStringJoinerAPI - [SPARK-40247] [SC-109272][sql] Oprava kontroly rovnosti BitSet
- [SPARK-40067] [ SQL] Místo scan#name() použijte tabulku#name() a vyplňte název tabulky v uzlu BatchScan ve SparkUI.
- [SPARK-39966] [SQL] Použijte filtr V2 v supportsDelete
- [SPARK-39607] [SC-109268][sql][DSV2] Podpora distribuce a řazení funkcí V2 při zápisu
- [SPARK-40224] [SC-109271][sql] Nechat ObjectHashAggregateExec uvolňovat paměť ochotně při přechodu na řazení
-
[SPARK-40013] [SQL] Výrazy DS V2 by měly mít výchozí
toString - [SPARK-40214] [SC-109079][python][SQL] přidání příkazu get do funkcí
- [SPARK-40192] [SC-109089][sql][ML] Odstranit redundantní groupby
- [SPARK-40146] [SC-108694][sql] Jednoduché generování kódu pro získání hodnoty z mapy
- [SPARK-40109] [SQL] Nová funkce SQL: get()
- [SPARK-39929] [SQL] DS V2 podporuje funkce push down string (jiné než ANSI)
- [SPARK-39819] [SQL] Agregační optimalizace DS V2 může spolupracovat s top N nebo stránkováním (řazení dle výrazů)
- [SPARK-40213] [SC-109077][sql] Podpora převodu hodnot ASCII pro znaky Latin-1
- [SPARK-39887] [SQL] RemoveRedundantAliases by měly uchovávat aliasy, které tvoří výstup uzlů projekce jedinečným
- [SPARK-39764] [SQL] Udělejte PhysicalOperation stejné jako ScanOperation
- [SPARK-39964] [SQL] Pushdown DS V2 by měl sjednotit překladovou cestu.
- [SPARK-39528] [SQL] Použití filtru V2 v supportsRuntimeFiltering
- [SPARK-40066] [SQL] Režim ANSI: Vždy vrátí hodnotu null při neplatném přístupu ke sloupci mapy.
- [SPARK-39912] [SPARK-39828][sql] Refine CatalogImpl
- [SPARK-39833] [SC-108736][sql] Zakažte index sloupců Parquet v DSv1 a opravte problém správnosti v případě překrývajících se oddílů a datových sloupců.
- [SPARK-39880] [SQL] Příkaz V2 SHOW FUNCTIONS by měl vytisknout kvalifikovaný název funkce, například v1
- [SPARK-39767] [SQL] Odeberte unresolvedDBObjectName a přidejte UnresolvedIdentifier.
- [SPARK-40163] [SC-108740][sql] funkce: SparkSession.config(Map)
- [SPARK-40136] [SQL] Oprava fragmentu kontextů dotazů SQL
- [SPARK-40107] [SC-108689][sql] Oddělit konverzi prázdné na null z FileFormatWriter
- [SPARK-40121] [PYTHON][sql] Inicializace projekce použité pro UDF v Pythonu
- [SPARK-40128] [SQL] Rozpoznání VectorizedColumnReader pro DELTA_LENGTH_BYTE_ARRAY jako samostatné sloupcové kódování
- [SPARK-40132] [ML] Uvést zpět rawPredictionCol na MultilayerPerceptronClassifier.setParams
-
[SPARK-40050] [SC-108696][sql] Rozšíření
EliminateSortspro podporu odstranění řazení prostřednictvímLocalLimit - [SPARK-39629] [SQL] Podpora v2 SHOW FUNCTIONS
- [SPARK-39925] [SC-108734][sql] Přidání přetížení array_sort(sloupec, srovnávací) do operací datového rámce
- [SPARK-40117] [PYTHON][sql] Převést podmínku na Java v DataFrameWriterV2.overwrite
- [SPARK-40105] [SQL] Vylepšení repartition v ReplaceCTERefWithRepartition
- [SPARK-39503] [SQL] Přidání názvu katalogu relací pro tabulku a funkci databáze v1
- [SPARK-39889] [SQL] Použijte různé třídy chyb pro dělení čísel/intervalů nulou.
- [SPARK-39741] [SQL] Podpora kódování a dekódování adresy URL jako vestavěné funkce a uspořádání funkcí souvisejících s adresou URL
- [SPARK-40102] [ SQL] Použijte SparkException místo IllegalStateException ve SparkPlanu.
- [SPARK-40014] [SQL] Podpora přetypování desetinných čísel na intervaly ANSI
- [SPARK-39776] [SQL][follow] Aktualizace UT PlanStabilitySuite v režimu ANSI
-
[SPARK-39963] [SQL] Zjednodušení
SimplifyCasts.isWiderCast
Aktualizace údržby
Viz aktualizace údržby Databricks Runtime 11.3.
Systémové prostředí
-
Operační systém: Ubuntu 20.04.5 LTS
- Poznámka: Toto je verze Ubuntu používaná kontejnery Databricks Runtime. Kontejnery Databricks Runtime běží na virtuálních počítačích poskytovatele cloudu, které můžou používat jinou verzi Ubuntu nebo linuxovou distribuci.
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14
- Python: 3.9.21
- R: 4.1.3
- Delta Lake: 2.1.0
Nainstalované knihovny Pythonu
| Knihovna | Version | Knihovna | Version | Knihovna | Version |
|---|---|---|---|---|---|
| argon2-cffi | 20.1.0 | asynchronní generátor | 1.10 | attrs | 21.2.0 |
| zpětný hovor | 0.2.0 | backports.entry-points-selectable (volitelné vstupní body) | 1.1.1 | černý | 22.3.0 |
| bělidlo | 4.0.0 | boto3 | 1.21.18 | botocore | 1.24.18 |
| certifikát | 2021.10.8 | cffi | 1.14.6 | chardet | 4.0.0 |
| nástroj pro normalizaci znakové sady | 2.0.4 | klikni | 8.0.3 | kryptografie | 3.4.8 |
| cyklista | 0.10.0 | Cython | 0.29.24 | dbus-python | 1.2.16 |
| debugpy | 1.4.1 | dekoratér | 5.1.0 | defusedxml | 0.7.1 |
| distlib | 0.3.6 | vstupní body | 0,3 | přehled aspektů | 1.0.0 |
| zamykání souborů | 3.8.0 | IDNA | 3.2 | ipykernel | 6.12.1 |
| ipython | 7.32.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.0 |
| Jedi | 0.18.0 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
| joblib | 1.0.1 | jsonschema | 3.2.0 | klient Jupyter | 6.1.12 |
| jupyter-core | 4.8.1 | jupyterlab-pygments | 0.1.2 | JupyterLab widgets | 1.0.0 |
| kiwisolver | 1.3.1 | MarkupSafe | 2.0.1 | matplotlib | 3.4.3 |
| matplotlib-inline | 0.1.2 | špatné naladění | 0.8.4 | mypy-extensions | 0.4.3 |
| nbclient | 0.5.3 | nbconvert | 6.1.0 | nbformat | 5.1.3 |
| nest-asyncio | 1.5.1 | poznámkový blok | 6.4.5 | numpy (knihovna pro numerické výpočty v Pythonu) | 1.20.3 |
| balení | 21.0 | pandas | 1.3.4 | pandocfilters | 1.4.3 |
| Parso | 0.8.2 | specifikace cesty | 0.9.0 | bábovka | 0.5.2 |
| pexpect | 4.8.0 | PickleShare | 0.7.5 | Polštář | 8.4.0 |
| pip | 21.2.4 | platformdirs | 2.5.2 | plotly | 5.9.0 |
| prometheus-client | 0.11.0 | nástroj "prompt-toolkit" | 3.0.20 | protobuf | 4.21.5 |
| psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pyarrow | 7.0.0 | pycparser | 2,20 | Pygments | 2.10.0 |
| PyGObject | 3.36.0 | pyodbc | 4.0.31 | pyparsing | 3.0.4 |
| pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | knihovna pytz pro zpracování časových zón v Pythonu | 2021.3 |
| pyzmq | 22.2.1 | requests | 2.26.0 | requests-unixsocket | 0.2.0 |
| s3transfer | 0.5.2 | scikit-learn | 0.24.2 | SciPy | 1.7.1 |
| narozený v moři | 0.11.2 | Send2Trash | 1.8.0 | setuptools (nástroj pro vytváření a distribuci Python projektů) | 58.0.4 |
| šest | 1.16.0 | ssh-import-id | 5.10 | statsmodels | 0.12.2 |
| houževnatost | 8.0.1 | dokončeno | 0.9.4 | testovací cesta | 0.5.0 |
| threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
| tornádo | 6.1 | drobné vlastnosti | 5.1.0 | typing-extensions | 3.10.0.2 |
| bezobslužné aktualizace | 0,1 | urllib3 | 1.26.7 | virtualenv | 20.8.0 |
| wcwidth (šířka znaků) | 0.2.5 | webová kódování | 0.5.1 | wheel | 0.37.0 |
| widgetsnbextension (rozšíření pro widgety v notebooku) | 3.6.0 |
Nainstalované knihovny jazyka R
Knihovny R jsou instalovány ze snímku Microsoft CRAN z 2022-09-08. Snímek už není k dispozici.
| Knihovna | Version | Knihovna | Version | Knihovna | Version |
|---|---|---|---|---|---|
| žádost o heslo | 1.1 | ověřit, že | 0.2.1 | zpětné portování | 1.4.1 |
| báze | 4.1.3 | base64enc | 0,1-3 | bit | 4.0.4 |
| 64bit | 4.0.5 | objekt blob | 1.2.3 | bootování | 1.3-28 |
| připravovat nápoje | 1.0-7 | elán | 1.1.3 | koště | 1.0.1 |
| bslib | 0.4.0 | kašmír | 1.0.6 | volající | 3.7.2 |
| caret | 6.0-93 | cellranger | 1.1.0 | cron | 2.3-57 |
| třída | 7.3-20 | CLI | 3.3.0 | Clipr | 0.8.0 |
| cluster | 2.1.3 | codetools | 0.2-18 | barevný prostor | 2.0-3 |
| commonmark | 1.8.0 | kompilátor | 4.1.3 | config | 0.3.1 |
| cpp11 | 0.4.2 | pastelka | 1.5.1 | přihlašovací údaje | 1.3.2 |
| kroucení | 4.3.2 | datová tabulka | 1.14.2 | datové sady | 4.1.3 |
| DBI | 1.1.3 | dbplyr | 2.2.1 | Popis | 1.4.1 |
| devtools | 2.4.4 | diffobj | 0.3.5 | hodnota hash | 0.6.29 |
| dolní osvětlení | 0.4.2 | dplyr | 1.0.10 | dtplyr | 1.2.2 |
| e1071 | 1.7-11 | tři tečky | 0.3.2 | hodnotit | 0.16 |
| fanoušci | 1.0.3 | barvy | 2.1.1 | Fastmap (rychlé mapování) | 1.1.0 |
| fontawesome | 0.3.0 | pro kočky | 0.5.2 | foreach | 1.5.2 |
| zahraničí | 0,8-82 | kovárna | 0.2.0 | fs | 1.5.2 |
| budoucnost | 1.28.0 | budoucnost.použít | 1.9.1 | kloktání | 1.2.0 |
| obecné typy | 0.1.3 | Gert | 1.8.0 | ggplot2 | 3.3.6 |
| gh | 1.3.0 | gitcreds | 0.1.1 | glmnet | 4.1-4 |
| globální | 0.16.1 | lepidlo | 1.6.2 | googledrive | 2.0.0 |
| googlesheets4 | 1.0.1 | Gower | 1.0.0 | Grafika | 4.1.3 |
| grDevices | 4.1.3 | mřížka | 4.1.3 | gridExtra | 2.3 |
| gsubfn | 0.7 | gtable | 0.3.1 | ochranná přilba | 1.2.0 |
| útočiště | 2.5.1 | vyšší | 0,9 | HMS | 1.1.2 |
| htmlové nástroje | 0.5.3 | htmlwidgets (interaktivní HTML prvky) | 1.5.4 | httpuv | 1.6.5 |
| httr | 1.4.4 | identifikátory | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-13 | isoband | 0.2.5 | Iterátory | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.0 | KernSmooth | 2,23–20 |
| knitr | 1.40 | značení | 0.4.2 | později | 1.3.0 |
| mřížka | 0.20-45 | láva | 1.6.10 | životní cyklus | 1.0.1 |
| poslouchej | 0.8.0 | lubridate | 1.8.0 | magrittr | 2.0.3 |
| Markdown | 1.1 | Hmotnost | 7.3-56 | *Matrix* | 1.4-1 |
| zapamatujte si | 2.0.1 | metody | 4.1.3 | mgcv | 1.8-40 |
| mim | 0.12 | miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 |
| modelář | 0.1.9 | munsell | 0.5.0 | nlme | 3.1-157 |
| nnet (neuronová síť) | 7.3-17 | numDeriv (Numerická derivace) | 2016.8 - 1.1 | OpenSSL | 2.0.2 |
| rovnoběžný | 4.1.3 | paralelně | 1.32.1 | pilíř | 1.8.1 |
| pkgbuild | 1.3.1 | pkgconfig | 2.0.3 | pkgdown | 2.0.6 |
| pkgload | 1.3.0 | plogr | 0.2.0 | plyr | 1.8.7 |
| pochvala | 1.0.0 | prettyunits | 1.1.1 | pROC | 1.18.0 |
| processx | 3.7.0 | prodlim | 2019.11.13 | profvis | 0.3.7 |
| pokrok | 1.2.2 | progressr | 0.11.0 | sliby | 1.2.0.1 |
| proto | 1.0.0 | proxy | 0,4-27 | p.s. | 1.7.1 |
| purrr | 0.3.4 | r2d3 | 0.2.6 | R6 | 2.5.1 |
| ragg | 1.2.2 | "randomForest" | 4.7-1.1 | rappdirs | 0.3.3 |
| rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.0.9 |
| RcppEigen | 0.3.3.9.2 | čtenář | 2.1.2 | readxl | 1.4.1 |
| recepty | 1.0.1 | odvetný zápas | 1.0.1 | odvetný zápas 2 | 2.1.2 |
| dálková ovládání | 2.4.2 | reprodukovatelný příklad | 2.0.2 | reshape2 | 1.4.4 |
| rlang | 1.0.5 | rmarkdown | 2.16 | RODBC | 1.3-19 |
| roxygen2 | 7.2.1 | rpart | 4.1.16 | rprojroot | 2.0.3 |
| Rserve | 1.8-11 | RSQLite | 2.2.16 | rstudioapi | 0,14 |
| rversions | 2.1.2 | rvest | 1.0.3 | drzost | 0.4.2 |
| váhy | 1.2.1 | selektor | 0.4-2 | informace o sezení | 1.2.2 |
| obrazec | 1.4.6 | lesklý | 1.7.2 | sourcetools | 0.1.7 |
| sparklyr | 1.7.8 | SparkR | 3.3.0 | prostorový | 7.3-11 |
| spline | 4.1.3 | sqldf | 0.4-11 | SQUAREM | 2021.1 |
| statistické údaje | 4.1.3 | Stats4 | 4.1.3 | řetězce | 1.7.8 |
| stringr | 1.4.1 | přežití | 3.4-0 | systém | 3.4 |
| systemfonts | 1.0.4 | tcltk | 4.1.3 | testthat (nástroj pro testování) | 3.1.4 |
| formátování textu | 0.3.6 | tibble | 3.1.8 | tidyr | 1.2.0 |
| tidyselect | 1.1.2 | tidyverse | 1.3.2 | datum a čas | 4021.104 |
| tinytex | 0.41 | nářadí | 4.1.3 | tzdb | 0.3.0 |
| ověřovač URL | 1.0.1 | použij tohle | 2.1.6 | utf8 | 1.2.2 |
| utils | 4.1.3 | Univerzální jednoznačný identifikátor (UUID) | 1.1-0 | vctrs | 0.4.1 |
| viridisLite | 0.4.1 | vrrrm | 1.5.7 | Waldo | 0.4.0 |
| hmatový chlup | 0,4 | (v případě, že je možné poskytnout smysl slova "withr", by bylo možné ho přeložit) | 2.5.0 | xfun | 0.32 |
| xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
| yaml | 2.3.5 | zip (jako formát souboru) | 2.2.0 |
Nainstalované knihovny Java a Scala (verze clusteru Scala 2.12)
| ID skupiny | Identifikátor artefaktu | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client (klient Amazon Kinesis) | 1.12.0 |
| com.amazonaws | aws-java-sdk Automatické škálování | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
| com.amazonaws | „aws-java-sdk-cloudsearch“ | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
| com.amazonaws | aws-java-sdk-codedeploy (Balíček AWS SDK pro Java - CodeDeploy) | 1.12.189 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
| com.amazonaws | aws-java-sdk-config (konfigurace balíčku SDK pro Javu od AWS) | 1.12.189 |
| com.amazonaws | aws-java-sdk-core | 1.12.189 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
| com.amazonaws | aws-java-sdk-directory | 1.12.189 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
| com.amazonaws | aws-java-sdk-efs | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
| com.amazonaws | aws-java-sdk-emr | 1.12.189 |
| com.amazonaws | aws-java-sdk-glacier (AWS Java SDK pro Glacier) | 1.12.189 |
| com.amazonaws | aws-java-sdk-glue (balíček pro vývoj softwaru v Java od AWS, určený pro Glue služby) | 1.12.189 |
| com.amazonaws | aws-java-sdk-iam | 1.12.189 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
| com.amazonaws | aws-java-sdk-kms | 1.12.189 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
| com.amazonaws | aws-java-sdk-logs | 1.12.189 |
| com.amazonaws | aws-java-sdk-strojové učení | 1.12.189 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
| com.amazonaws | aws-java-sdk-rds | 1.12.189 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
| com.amazonaws | aws-java-sdk-ses | 1.12.189 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
| com.amazonaws | aws-java-sdk-sns | 1.12.189 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
| com.amazonaws | aws-java-sdk-storagegateway (balíček nástrojů pro přístup k AWS Storage Gateway) | 1.12.189 |
| com.amazonaws | aws-java-sdk-sts | 1.12.189 |
| com.amazonaws | podpora AWS Java SDK | 1.12.189 |
| com.amazonaws | knihovny AWS Java SDK SWF | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
| com.amazonaws | jmespath-java | 1.12.189 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | datový proud | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | technologie kryo-stínění | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | spolužák | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations (poznámky Jackson) | 2.13.4 |
| com.fasterxml.jackson.core | jackson-core | 2.13.4 |
| com.fasterxml.jackson.core | Jackson-databind | 2.13.4 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.4 |
| com.github.ben-manes.kofein | kofein | 2.3.4 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | jádro | 1.1.2 |
| com.github.fommil.netlib | Nativní odkaz pro Javu | 1.1 |
| com.github.fommil.netlib | native_ref - nativní prvky javy | 1.1 |
| com.github.fommil.netlib | nativní_systém-java | 1.1 |
| com.github.fommil.netlib | nativní systém-java-nativy | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
| com.github.fommil.netlib | netlib – nativní systém – linux – x86_64 – nativy | 1.1 |
| com.github.luben | zstd-jni | 1.5.2-1 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | Gson | 2.8.6 |
| com.google.crypto.tink | Cink | 1.6.1 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | guave | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 2.0.204 |
| com.helger | profiler | 1.1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | bonecp | 0.8.0.VYDÁNÍ |
| com.lihaoyi | zdrojový_kód_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (software development kit pro úložiště dat Azure Data Lake) | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 9.2.1.jre8 |
| com.ning | compress-lzf (komprimační algoritmus LZF) | 1.1 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tdunning | JSON | 1.8 |
| com.thoughtworks.paranamer | Paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app-2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.0 |
| com.univocity | univocity-parsers (nástroj pro analýzu dat) | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.15 |
| společné sbírky | společné sbírky | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| Nahrávání souborů v Commons | Nahrávání souborů v Commons | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.11.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging (nástroj pro záznamy) | commons-logging (nástroj pro záznamy) | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 2.2.1 |
| dev.ludovic.netlib | Blas | 2.2.1 |
| dev.ludovic.netlib | LAPACK | 2.2.1 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | vzduchový kompresor | 0.21 |
| io.delta | delta-sharing-spark_2.12 | 0.5.1 |
| io.dropwizard.metrics | jádro metrik | 4.1.1 |
| io.dropwizard.metrics | metrics-graphite | 4.1.1 |
| io.dropwizard.metrics | metriky – kontroly stavu | 4.1.1 |
| io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
| io.dropwizard.metrics | Metrics-JMX | 4.1.1 |
| io.dropwizard.metrics | Metriky-json | 4.1.1 |
| io.dropwizard.metrics | metriky pro JVM | 4.1.1 |
| io.dropwizard.metrics | metrikové servlety | 4.1.1 |
| io.netty | netty-all | 4.1.74.Final |
| io.netty | netty-buffer | 4.1.74.Final |
| io.netty | netty-codec | 4.1.74.Final |
| io.netty | netty-common | 4.1.74.Final |
| io.netty | netty-handler | 4.1.74.Final |
| io.netty | netty-resolver | 4.1.74.Final |
| io.netty | netty-tcnative-classes (softwarová knihovna) | 2.0.48.Final |
| io.netty | netty-transport | 4.1.74.Final |
| io.netty | netty-transport-classes-epoll | 4.1.74.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
| io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
| io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
| io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
| io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
| io.netty | netty-transport-native-unix-common | 4.1.74.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleklient_obecný | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | kolektor | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktivace | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | API pro transakce | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.10.13 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | nakládačka | 1.2 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| síť.sněhová vločka | snowflake-ingest-sdk | 0.9.6 |
| síť.sněhová vločka | snowflake-jdbc | 3.13.14 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.8 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | mravenec | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | Ant launcher | 1.9.2 |
| org.apache.arrow | šipkový formát | 7.0.0 |
| org.apache.arrow | jádro šipkové paměti | 7.0.0 |
| org.apache.arrow | šipka-paměť-netty | 7.0.0 |
| org.apache.arrow | šipkový vektor | 7.0.0 |
| org.apache.avro | Avro | 1.11.0 |
| org.apache.avro | avro-ipc | 1.11.0 |
| org.apache.avro | avro-mapred | 1.11.0 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress (softwarová knihovna pro kompresi dat) | 1.21 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | Commons-text (textové nástroje) | 1.9 |
| org.apache.kurátor | kurátor-klient | 2.13.0 |
| org.apache.kurátor | kurátorský rámec | 2.13.0 |
| org.apache.kurátor | kurátorovy recepty | 2.13.0 |
| org.apache.derby | fotbalové derby | 10.14.2.0 |
| org.apache.hadoop | hadoop-client-api | 3.3.4-databricks |
| org.apache.hadoop | běhové prostředí klienta Hadoop | 3.3.4 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc (JDBC ovladač pro Apache Hive) | 2.3.9 |
| org.apache.hive | hive-llap-client (klient pro Apache Hive s možností LLAP) | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | Hive-shims | 2.3.9 |
| org.apache.hive | rozhraní pro úložiště Hive | 2.7.2 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | plánovač hive-shims | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.13 |
| org.apache.httpcomponents | httpcore | 4.4.14 |
| org.apache.ivy | břečťan | 2.5.0 |
| org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
| org.apache.logging.log4j | log4j-api | 2.18.0 |
| org.apache.logging.log4j | log4j-core | 2.18.0 |
| org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
| org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
| org.apache.orc | orc-core | 1.7.6 |
| org.apache.orc | orc-mapreduce | 1.7.6 |
| org.apache.orc | orčí podložky | 1.7.6 |
| org.apache.parquet | parquet-column | 1.12.0-databricks-0007 |
| org.apache.parquet | parquet-common | 1.12.0-databricks-0007 |
| org.apache.parquet | parquet-encoding | 1.12.0-databricks-0007 |
| org.apache.parquet | parquet-format-structures | 1.12.0-databricks-0007 |
| org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0007 |
| org.apache.parquet | parquet-jackson | 1.12.0-databricks-0007 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.20 |
| org.apache.yetus | poznámky pro publikum | 0.5.0 |
| org.apache.zookeeper | ošetřovatel zvířat v zoo | 3.6.2 |
| org.apache.zookeeper | zookeeper-jute | 3.6.2 |
| org.checkerframework | checker-qual | 3.5.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | společný kompilátor | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms (framework pro práci s relačními databázemi) | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
| org.eclipse.jetty | pokračování Jetty | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-plus | 9.4.46.v20220331 |
| org.eclipse.jetty | proxy pro službu Jetty | 9.4.46.v20220331 |
| org.eclipse.jetty | bezpečnost Jetty | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-webová aplikace | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | WebSocket API | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-klient | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket – běžné | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-lokátor | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | OSGi vyhledávač zdrojů | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-přebaleno | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject (pokud je to potřeba, přidejte vysvětlení nebo typický český termín v závorce) | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (nástroj pro zpracování požadavků v Java EE) | 2.36 |
| org.glassfish.jersey.containers | jersey-container-servlet-jádro | 2.36 |
| org.glassfish.jersey.core | jersey-client | 2.36 |
| org.glassfish.jersey.core | společný dres | 2.36 |
| org.glassfish.jersey.core | Jersey-server (aplikační server frameworku Jersey) | 2.36 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
| org.hibernate.validator | Hibernate Validator | 6.1.0.Final |
| org.javassist | Javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | anotace | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mariadb.jdbc | MariaDB Java klient | 2.7.4 |
| org.mlflow | mlflow-spark | 1.27.0 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.3.3 |
| org.roaringbitmap | RoaringBitmap | 0.9.25 |
| org.roaringbitmap | vymezovací pásky | 0.9.25 |
| org.rocksdb | rocksdbjni | 6.24.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.14 |
| org.scala-lang | scala-library_2.12 | 2.12.14 |
| org.scala-lang | scala-reflect_2.12 | 2.12.14 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | testovací rozhraní | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | breeze-macros_2.12 | 1.2 |
| org.scalanlp | breeze_2.12 | 1.2 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-over-slf4j | 1.7.36 |
| org.slf4j | jul-to-slf4j | 1.7.36 |
| org.slf4j | slf4j-api | 1.7.36 |
| org.spark-project.spark | nepoužitý | 1.0.0 |
| org.threeten | threeten-extra | 1.5.0 |
| org.tukaani | xz | 1.8 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | kočky-kernel_2.12 | 2.1.1 |
| org.typelevel | makro-compat_2.12 | 1.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.8.4 |
| org.yaml | snakeyaml | 1,24 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |