Databricks Runtime 11.3 LTS
Následující poznámky k verzi obsahují informace o databricks Runtime 11.3 LTS s využitím Apache Sparku 3.3.0. Databricks vydala tuto verzi v říjnu 2022.
Poznámka:
LTS znamená, že tato verze je dlouhodobě podporována. Viz životní cyklus verze LTS modulu Databricks Runtime.
Tip
Poznámky k verzi pro verze Databricks Runtime, které dosáhly konce podpory (EoS), najdete v poznámkách k verzi Databricks Runtime pro ukončení podpory. Verze EoS Databricks Runtime byly vyřazeny a nemusí se aktualizovat.
Změny chování
[Zásadní změna] Nová verze Pythonu vyžaduje aktualizaci klientů Databricks Connect V1 Python.
Pokud chcete použít požadované opravy zabezpečení, upgraduje se verze Pythonu v Databricks Runtime 11.3 LTS z verze 3.9.5 na verzi 3.9.19. Vzhledem k tomu, že tyto změny můžou způsobit chyby v klientech, kteří používají konkrétní funkce PySpark, musí být všechny klienty používající Databricks Connect V1 pro Python s Modulem Databricks Runtime 11.3 LTS aktualizovány na Python 3.9.7 nebo novější.
Nové funkce a vylepšení
- Aktivační událost strukturovaného streamování je jednou zastaralá
- Změna zdrojové cesty pro automatický zavaděč
- Konektor Databricks Kinesis teď podporuje čtení z datových proudů Kinesis v režimu EFO.
- Nové geoprostorové funkce H3 a přidání podpory Photon pro všechny funkce H3
- Nové funkce prediktivních vstupně-výstupních operací
- Zvýšení počátečních oddílů pro vyhledávání selektivních dotazů
- Vizualizace nových verzí plánu AQE
- Nové režimy sledování asynchronního průběhu a mazání protokolů
- Strukturované streamování v katalogu Unity teď podporuje
display()
- Události kanálu se teď protokolují ve formátu JSON.
- Libovolné stavové zpracování ve strukturovaném streamování pomocí Pythonu
- Odvození data v souborech CSV
- Podpora klonování pro tabulky Apache Parquet a Apache Iceberg (Public Preview)
- Použití SQL k určení umístění úložiště na úrovni schématu a katalogu pro spravované tabulky Katalogu Unity
Aktivační událost strukturovaného streamování je jednou zastaralá
Nastavení Trigger.Once
je zastaralé. Databricks doporučuje používat Trigger.AvailableNow
. Viz Konfigurace intervalů triggeru strukturovaného streamování.
Změna zdrojové cesty pro automatický zavaděč
Teď můžete změnit cestu vstupu adresáře pro automatické zavaděče nakonfigurované v režimu výpisu adresáře, aniž byste museli zvolit nový adresář kontrolních bodů. Viz Změna zdrojové cesty pro automatický zavaděč.
Konektor Databricks Kinesis teď podporuje čtení z datových proudů Kinesis v režimu EFO.
Teď můžete pomocí zdroje strukturovaného streamování Databricks Kinesis v Databricks Runtime 11.3 LTS spouštět dotazy, které čtou z datových proudů Kinesis v rozšířeném režimu ventilátoru. To umožňuje vyhrazenou propustnost na horizontální oddíl, na příjemce a doručování záznamů v režimu nabízení.
Nové geoprostorové funkce H3 a přidání podpory Photon pro všechny funkce H3
Představujeme 4 nové funkce H3, h3_maxchild
, h3_minchild
, h3_pointash3
a h3_pointash3string
. Tyto funkce jsou dostupné v SQL, Scala a Pythonu. Ve Photonu se teď podporují všechny výrazy H3. Viz geoprostorové funkce H3.
Nové funkce prediktivních vstupně-výstupních operací
Photon podporuje režim rozsahu pro spouštění snímků pomocí RANGE BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW
. Photon také podporuje režim rozsahu pro rostoucí snímky pomocí RANGE BETWEEN UNBOUNDED PRECEDING AND offset_stop { PRECEDING | FOLLOWING }
.
Zvýšení počátečních oddílů pro vyhledávání selektivních dotazů
Hodnota počátečních oddílů pro kontrolu byla pro selektivní dotaz v take/tail/limit
clusterech s podporou Photon a LIMIT
v Databricks SQL zvýšena na 10. S 10 oddíly se můžete vyhnout režii spouštění několika malých úloh a pomalého vertikálního navýšení kapacity. Můžete to také nakonfigurovat prostřednictvím spark.sql.limit.selectiveInitialNumPartitions
.
Vizualizace nových verzí plánu AQE
Představujeme verze plánu AQE, které umožňují vizualizovat aktualizace plánu modulu runtime z adaptivního spouštění dotazů (AQE).
Nové režimy sledování asynchronního průběhu a mazání protokolů
Představujeme režimy strukturovaného streamování označované jako asynchronní sledování průběhu a asynchronní mazání protokolů. Režim vymazání asynchronního protokolu snižuje latenci streamovaných dotazů odebráním protokolů používaných pro sledování průběhu na pozadí.
Strukturované streamování v katalogu Unity teď podporuje display()
Teď můžete použít display()
, když použijete strukturované streamování k práci s tabulkami registrovanými v katalogu Unity.
Události kanálu se teď protokolují ve formátu JSON.
Azure Databricks teď zapisuje události kanálu do protokolu ovladače ve formátu JSON. I když bude každá událost parsovatelná ve formátu JSON, velké události nemusí obsahovat všechna pole nebo můžou být zkrácena. Každá událost se zaprotokoluje na jednom řádku s předponou Event received:
. Následuje příklad události.
Event received: {"id":"some-event-id","origin":{"pipeline_id":"some-pipeline-id","cluster_id":"some-cluster id"},"message":"simple [truncated] message","level":"WARN"}
Libovolné stavové zpracování ve strukturovaném streamování pomocí Pythonu
applyInPandasWithState
Představujeme funkci, kterou lze použít k provedení libovolného stavového zpracování v PySparku. To je ekvivalentem flatMapGroupsWithState
funkce v rozhraní Java API.
Odvození data v souborech CSV
Představujeme vylepšené odvozování sloupců typů kalendářních dat v souborech CSV. Pokud je formát data konzistentní mezi záznamy sloupce, lze tyto sloupce odvodit jako DateType
. Můžete mít také kombinaci formátů kalendářních dat v různých sloupcích. Azure Databricks může automaticky odvodit formát data pro každý sloupec. Sloupce kalendářních dat v souborech CSV před modulem Databricks Runtime 11.3 LTS zůstanou jako StringType
.
Podpora klonování pro tabulky Apache Parquet a Apache Iceberg (Public Preview)
Klon je teď možné použít k vytváření a přírůstkové aktualizaci tabulek Delta, které zrcadlí tabulky Apache Parquet a Apache Iceberg. Zdrojovou tabulku Parquet můžete aktualizovat a postupně aplikovat změny na klonovanou tabulku Delta pomocí příkazu clone. Podívejte se na přírůstkové klonování tabulek Parquet a Iceberg do Delta Lake.
Použití SQL k určení umístění úložiště na úrovni schématu a katalogu pro spravované tabulky Katalogu Unity
Teď můžete pomocí MANAGED LOCATION
příkazu SQL určit umístění cloudového úložiště pro spravované tabulky na úrovni katalogu a schématu. Viz CREATE CATALOG a CREATE SCHEMA.
Změny chování
Databricks Connect 11.3.2
Aktualizace klienta Databricks Connect 11.3.2 je teď podporovaná. Viz poznámky k verzi Databricks Connect a Databricks Connect.
Aktualizace konektoru Azure Databricks Snowflake
Konektor Azure Databricks Snowflake byl aktualizován na nejnovější verzi kódu z opensourcového úložiště Snowflake Data Source pro Apache Spark. Je teď plně kompatibilní s Modulem Databricks Runtime 11.3 LTS, včetně odsdílení predikátů a odsdílení interního plánu dotazů a zachování všech funkcí opensourcové verze.
Mezipaměť Hadoop pro S3A je teď zakázaná.
Mezipaměť Hadoop (FileSystem Apache Hadoop Main 3.3.4 API) pro S3A je teď zakázaná. To je v souladu s dalšími konektory cloudového úložiště. U úloh, které se spoléhají na ukládání do mezipaměti systému souborů, se ujistěte, že nově vytvořené systémy souborů mají správné konfigurace Systému Hadoop, včetně zprostředkovatelů přihlašovacích údajů.
Schéma kolekce statistik Delta Lake teď odpovídá pořadí sloupců v definici schématu tabulky.
Tato změna řeší chybu v protokolu Delta Lake, kdy se statistiky neshromažďovaly pro sloupce kvůli neshodě v datovém rámci a pořadí sloupců tabulky. V některých případech může dojít ke snížení výkonu zápisu kvůli shromažďování statistik u dříve nesledovaných polí. Viz Vynechání dat pro Delta Lake.
applyInPandasWithState vyvolá chybu, pokud má dotaz za operátorem náhodné prohazování.
Operátor applyInPandasWithState
vyvolá chybu, pokud dotaz obsahuje shuffle
za operátorem. K tomu dochází, když buď uživatel přidá shuffle
po operaci, nebo optimalizátor nebo jímka implicitně přidá shuffle
.
Upgrady knihoven
- Upgradované knihovny Pythonu:
- distlib od 0.3.5 do 0.3.6
- Upgradované knihovny jazyka R:
- koště od 1.0.0 do 1.0.1
- volající od 3.7.1 do 3.7.2
- dplyr od 1.0.9 do 1.0.10
- dtplyr od 1.2.1 do 1.2.2
- forcats od 0.5.1 do 0.5.2
- budoucí od 1.27.0 do 1.28.0
- future.apply from 1.9.0 to 1.9.1
- gert od 1.7.0 do 1.8.0
- globals from 0.16.0 to 0.16.1
- od 0.3.0 do 0.3.1
- haven from 2.5.0 to 2.5.1
- hms od 1.1.1 do 1.1.2
- httr od 1.4.3 do 1.4.4
- pletení od 1.39 do 1.40
- modelr od 0.1.8 do 0.1.9
- pilíř od 1.8.0 do 1.8.1
- progressr od 0.10.1 do 0.11.0
- readxl od 1.4.0 do 1.4.1
- reprex from 2.0.1 to 2.0.2
- rlang od 1.0.4 do 1.0.5
- rmarkdown od 2.14 do 2.16
- RSQLite od 2.2.15 do 2.2.16
- rstudioapi od 0.13 do 0.14
- rversions from 2.1.1 to 2.1.2
- rvest od 1.0.2 do 1.0.3
- škálování od 1.2.0 do 1.2.1
- sparklyr od 1.7.7 do 1.7.8
- Stringr od 1.4.0 do 1.4.1
- přežití od 3.2-13 do 3.4-0
- tinytex od 0,40 do 0,41
- viridisLite od 0.4.0 do 0.4.1
- Upgradované knihovny Java:
- com.fasterxml.jackson.core.jackson-annotations from 2.13.3 to 2.13.4
- com.fasterxml.jackson.core.jackson-core od 2.13.3 do 2.13.4
- com.fasterxml.jackson.core.jackson-databind od 2.13.3 do 2.13.4
- com.fasterxml.jackson.dataformat.jackson-dataformat-cbor od 2.13.3 do 2.13.4
- com.fasterxml.jackson.datatype.jackson-datatype-joda od 2.13.3 do 2.13.4
- com.fasterxml.jackson.datatype.jackson-datatype-jsr310 od 2.13.3 do 2.13.4
- com.fasterxml.jackson.module.jackson-module-paranamer od 2.13.3 do 2.13.4
- com.fasterxml.jackson.module.jackson-module-scala_2.12 od 2.13.3 do 2.13.4
- org.apache.hadoop.hadoop-client-api od 3.3.2-databricks do 3.3.4-databricks
- org.apache.hadoop.hadoop-client-runtime od 3.3.2 do 3.3.4
- org.apache.orc.orc-core od 1.7.5 do 1.7.6
- org.apache.orc.orc-mapreduce od 1.7.5 do 1.7.6
- org.apache.orc.orc-shims od 1.7.5 do 1.7.6
- org.apache.parquet.parquet-column od 1.12.0-databricks-0004 do 1.12.0-databricks-0007
- org.apache.parquet.parquet-common od 1.12.0-databricks-0004 do 1.12.0-databricks-0007
- org.apache.parquet.parquet-encoding from 1.12.0-databricks-0004 to 1.12.0-databricks-0007
- org.apache.parquet.parquet-format-structures from 1.12.0-databricks-0004 to 1.12.0-databricks-0007
- org.apache.parquet.parquet-hadoop od 1.12.0-databricks-0004 do 1.12.0-databricks-0007
- org.apache.parquet.parquet-jackson od 1.12.0-databricks-0004 do 1.12.0-databricks-0007
- org.glassfish.jersey.containers.jersey-container-servlet od 2.34 do 2.36
- org.glassfish.jersey.containers.jersey-container-servlet-core od 2.34 do 2.36
- org.glassfish.jersey.core.jersey-client od 2.34 do 2.36
- org.glassfish.jersey.core.jersey-common od 2.34 do 2.36
- org.glassfish.jersey.core.jersey-server od 2.34 do 2.36
- org.glassfish.jersey.inject.jersey-hk2 od 2.34 do 2.36
Apache Spark
Databricks Runtime 11.3 LTS zahrnuje Apache Spark 3.3.0. Tato verze zahrnuje všechny opravy a vylepšení Sparku, která jsou součástí Databricks Runtime 11.2 (EoS), a také následující další opravy chyb a vylepšení Sparku:
- [SPARK-39957] [WARMFIX][SC-111425][JÁDRO] Zpoždění onDisconnected pro povolení driver receives ExecutorExitCode
- [SPARK-39955] [WARMFIX][SC-111424][JÁDRO] Vylepšení procesu LaunchTask, aby se zabránilo selháním fáze způsobeným zprávami LaunchTask
- [SPARK-40474] [SC-106248][Cherry-Pick] Oprava chování odvozování schématu CSV pro sloupce datetime a zavedení automatického zjišťování pro pole Data
- [SPARK-40535] [SC-111243][SQL] Oprava chyby, kdy se vyrovnávací paměť agregátoru AgregatingAccumulator nevytvořila, pokud jsou vstupní řádky prázdné
- [SPARK-40434] [SC-111125][SC-111144][SC-111138][SPARK-40435][11.3][SS][PYTHON] Implementace applyInPandasWithState v PySparku
- [SPARK-40460] [SC-110832][SS] Oprava metrik streamování při výběru
_metadata
- [SPARK-40324] [SC-109943][SQL] Zadejte kontext dotazu
ParseException
- [SPARK-40466] [SC-110899][SS] Vylepšete chybovou zprávu, když je DSv2 zakázaná, zatímco DSv1 není k dispozici
- [SPARK-40456] [SC-110848][SQL] PartitionIterator.hasNext by měl být levný pro opakované volání
- [SPARK-40169] [SC-110772][SQL] Neodsouvejte filtry Parquet bez odkazu na schéma dat.
- [SPARK-40467] [SC-110759][SS] Split FlatMapGroupsWithState down to multiple test suites
- [SPARK-40468] [SC-110813][SQL] Oprava vyřazení sloupců ve sdíleném svazku clusteru při výběru _corrupt_record
- [SPARK-40291] [SC-110085][SQL] Zlepšení zprávy pro sloupec, který není ve skupině, došlo k chybě klauzule
- [SPARK-40398] [SC-110762][JÁDRO][SQL] Použití smyčky místo rozhraní Arrays.stream API
- [SPARK-40433] [SC-110684][SS][PYTHON] Přidání toJVMRow v PythonSQLUtils pro převod pickled PySpark Row na řádek JVM
- [SPARK-40414] [SC-110568][SQL][PYTHON] Další obecný typ v PythonArrowInput a PythonArrowOutput
- [SPARK-40352] [SC-109945][SQL] Přidání aliasů funkce: délka, datepart, dateadd, date_diff a curdate
- [SPARK-40470] [SC-110761][SQL] Zpracování GetArrayStructFields a GetMapValue ve funkci "arrays_zip"
- [SPARK-40387] [SC-110685][SQL] Vylepšení implementace Spark Decimal
- [SPARK-40429] [SC-110675][SQL] Nastavte pouze KeyGroupedPartitioning, pokud je odkazovaný sloupec ve výstupu.
- [SPARK-40432] [SC-110716][SS][PYTHON] Zavedení GroupStateImpl a GroupStateTimeout v PySparku
- [SPARK-39915] [SC-110496][SQL] Ujistěte se, že je výstupní dělení zadané uživatelem v AQE.
- [SPARK-29260] [SQL] Podpora
ALTER DATABASE SET LOCATION
, pokud HMS podporuje - [SPARK-40185] [SC-110056][SQL] Odebrání návrhu sloupce, když je seznam kandidátů prázdný
- [SPARK-40362] [SC-110401][SQL] Oprava kanonizace BinaryComparison
- [SPARK-40411] [SC-110381][SS] Refaktoring FlatMapGroupsWithStateExec tak, aby měl nadřazenou vlastnost
- [SPARK-40293] [SC-110084][SQL] Usnadnit smysluplnější chybovou zprávu tabulky V2
- [SPARK-38734] [SC-110383][SQL] Odebrání třídy chyby
INDEX_OUT_OF_BOUNDS
- [SPARK-40292] [SC-110300][SQL] Oprava názvů sloupců ve funkci "arrays_zip" při odkazování polí z vnořených struktur
- [SPARK-40276] [SC-109674][JÁDRO] Zmenšení velikosti výsledku sady RDD.takeOrdered
- [SPARK-40197] [SC-109176][SQL] Nahrazení plánu dotazu kontextem pro MULTI_VALUE_SUBQUERY_ERROR
- [SPARK-40300] [SC-109942][SQL] Migrace do
DATATYPE_MISMATCH
třídy chyb - [SPARK-40149] [SC-110055][SQL] Šíření sloupců metadat prostřednictvím Projectu
- [SPARK-40280] [SC-110146][SQL] Přidání podpory pro parquet push down pro anotované int a dlouhé
- [SPARK-40220] [SC-110143][SC-109175][SQL] Nevysílejte prázdnou mapu parametrů chybové zprávy.
- [SPARK-40295] [SC-110070][SQL] Povolení funkcí v2 s literálními argumenty v rozdělení a řazení zápisu
- [SPARK-40156] [SC-109264][SQL]
url_decode()
by měla vrátit třídu chyb. - [SPARK-39195] [SQL] Spark OutputCommitCoordinator by měl přerušit fázi, pokud potvrzený soubor není konzistentní se stavem úkolu.
- [SPARK-40260] [SC-109424][SQL] Použití tříd chyb v chybách kompilace FUNKCE GROUP BY pozice
- [SPARK-40205] [SC-110144][SC-109082][SQL] Zadejte kontext dotazu ELEMENT_AT_BY_INDEX_ZERO
- [SPARK-40112] [SC-109676][SQL] Vylepšení funkce TO_BINARY()
- [SPARK-40209] [SC-109081][SQL] Neměňte hodnotu intervalu desetinných míst u
changePrecision()
chyb. - [SPARK-40319] [SC-109873][SQL] Odebrání metody chyby spuštění duplicitního dotazu pro PARSE_DATETIME_BY_NEW_PARSER
- [SPARK-40222] [SC-109209][SQL] Číselné try_add/ try_divide/ try_subtract/ try_multiply by měly vyvolat chybu z podřízených položek
- [SPARK-40183] [SC-108907][SQL] Použití třídy chyb NUMERIC_VALUE_OUT_OF_RANGE pro přetečení v desítkovém převodu
- [SPARK-40180] [SC-109069][SQL] Formátování chybových zpráv podle
spark-sql
- [SPARK-40153] [SC-109165][SQL] Unify resolve functions and table-valued functions
- [SPARK-40308] [SC-109880][SQL] Povolit funkci nepřeložitelných argumentů
str_to_map
oddělovače - [SPARK-40219] [SC-110052][SC-109663][SQL] Vyřešený logický plán zobrazení by měl obsahovat schéma, aby se zabránilo redundantnímu vyhledávání.
- [SPARK-40098] [SC-109939][SC-108693][SQL] Formátování chybových zpráv na serveru Thrift
- [SPARK-39917] [SC-109038][SQL] Použití různých tříd chyb pro číselné a intervalové aritmetické přetečení
- [SPARK-40033] [SC-109875][SQL] Podpora vnořeného vnořeného vyřazování schématu prostřednictvím element_at
- [SPARK-40194] [SC-109660][SQL] Funkce SPLIT u prázdného regulárního výrazu by měla zkrátit koncový prázdný řetězec.
- [SPARK-40228] [SC-109835][SQL] Pokud dítě není levným výrazem, neosnadujte vícestranné
- [SPARK-40039] [SC-109896][SC-109260][SS] Představujeme správce souborů kontrolních bodů streamování na základě rozhraní Abortable systému Hadoop
- [SPARK-40285] [SC-109679][SQL] Zjednodušení Sparku
roundTo[Numeric]
Decimal
- [SPARK-39896] [SC-109658][SQL] UnwrapCastInBinaryComparison by měl fungovat, když se literál in/InSet downcast nezdařil.
- [SPARK-40040] [SC-109662][SQL] Pokud je podmínka spojení prázdná, nasdílejte místní limit na obě strany.
- [SPARK-40055] [SC-109075][SQL] seznamyCatalogs by také měly vracet spark_catalog i v případě, že spark_catalog implementace je výchozíSessionCatalog
- [SPARK-39915] [SC-109391][SQL] Dataset.repartition(N) nemusí vytvářet oddíly N, které nejsou součástí AQE.
- [SPARK-40207] [SC-109401][SQL] Zadejte název sloupce, pokud zdroj dat nepodporuje datový typ.
- [SPARK-40245] [SC-109295][SQL] Oprava kontroly rovnosti FileScan, pokud se sloupce filtru oddílů nebo dat nečtou
- [SPARK-40113] [SC-109405][SQL] Implementace rozhraní Reactor ParquetScanBuilder DataSourceV2
- [SPARK-40211] [SC-109226][JÁDRO][SQL] Povolit přizpůsobení počátečního čísla oddílů v chování metody take()
- [SPARK-40252] [SC-109379][SQL] Nahradit
Stream.collect(Collectors.joining)
rozhranímStringJoiner
API - [SPARK-40247] [SC-109272][SQL] Oprava kontroly rovnosti bitset
- [SPARK-40067] [SQL] K naplnění názvu tabulky v uzlu BatchScan v uzlu BatchScan ve SparkUI použijte místo scan#name() název tabulky.
- [SPARK-39966] [SQL] Použití filtru V2 v supportsDelete
- [SPARK-39607] [SC-109268][SQL][DSV2] Podpora distribuce a řazení funkcí V2 zápisu
- [SPARK-40224] [SC-109271][SQL] Nastavit objectHashAggregateExec paměť dychtivě při náhradním řazení na základě řazení
- [SPARK-40013] [SQL] Výrazy DS V2 by měly mít výchozí
toString
- [SPARK-40214] [SC-109079][PYTHON][SQL] Přidání příkazu get do funkcí
- [SPARK-40192] [SC-109089][SQL][ML] Odebrání redundantního seskupení
- [SPARK-40146] [SC-108694][SQL] Jednoduše kódgen získání hodnoty mapy
- [SPARK-40109] [SQL] Nová funkce SQL: get()
- [SPARK-39929] [SQL] DS V2 podporuje funkce nabízených řetězců (jiné než ANSI)
- [SPARK-39819] [SQL] Agregační nabízení agregace DS V2 může fungovat s top N nebo stránkováním (řazení s výrazy)
- [SPARK-40213] [SC-109077][SQL] Podpora převodu hodnot ASCII pro znaky latinky-1
- [SPARK-39887] [SQL] RemoveRedundantAliases by měly uchovávat aliasy, které tvoří výstup uzlů projekce jedinečným
- [SPARK-39764] [SQL] Nastavení PhysicalOperation jako ScanOperation
- [SPARK-39964] [SQL] Odsdílení změn DS V2 by mělo sjednotit cestu překladu.
- [SPARK-39528] [SQL] Použití filtru V2 v supportsRuntimeFiltering
- [SPARK-40066] [SQL] Režim ANSI: Vždy vrátí hodnotu null při neplatném přístupu ke sloupci mapy.
- [SPARK-39912] [SPARK-39828][SQL] Upřesnit KatalogImpl
- [SPARK-39833] [SC-108736][SQL] Zakázáním indexu sloupců Parquet v DSv1 opravíte problém se správností v případě překrývajících se oddílů a datových sloupců.
- [SPARK-39880] [SQL] Příkaz SHOW FUNCTIONS v2 by měl vytisknout kvalifikovaný název funkce, jako je v1.
- [SPARK-39767] [SQL] Odebrání unresolvedDBObjectName a přidání UnresolvedIdentifier
- [SPARK-40163] [SC-108740][SQL] feat: SparkSession.config(Mapa)
- [SPARK-40136] [SQL] Oprava fragmentu kontextů dotazů SQL
- [SPARK-40107] [SC-108689][SQL] Vytáhněte prázdný2null převod z FileFormatWriter
- [SPARK-40121] [PYTHON][SQL] Inicializace projekce použité pro UDF v Pythonu
- [SPARK-40128] [SQL] Rozpoznávání vektorizovaného objektuColumnReader DELTA_LENGTH_BYTE_ARRAY jako kódování samostatného sloupce
- [SPARK-40132] [ML] Obnovení rawPredictionCol do MultilayerPerceptronClassifier.setParams
- [SPARK-40050] [SC-108696][SQL] Vylepšení
EliminateSorts
podpory odebrání řazení prostřednictvímLocalLimit
- [SPARK-39629] [SQL] Podpora funkcí SHOW v2
- [SPARK-39925] [SC-108734][SQL] Přidání přetížení array_sort(sloupec, srovnávací) do operací datového rámce
- [SPARK-40117] [PYTHON][SQL] Převod podmínky na javu v souboru DataFrameWriterV2.overwrite
- [SPARK-40105] [SQL] Vylepšení opětovného dělení v replaceCTERefWithRepartition
- [SPARK-39503] [SQL] Přidání názvu katalogu relací pro tabulku a funkci databáze v1
- [SPARK-39889] [SQL] Použití různých tříd chyb pro číselné nebo intervaly dělené 0
- [SPARK-39741] [SQL] Podpora kódování nebo dekódování adresy URL jako předdefinované funkce a šifrování funkcí souvisejících s adresou URL
- [SPARK-40102] [SQL] Použití SparkException místo IllegalStateException ve SparkPlanu
- [SPARK-40014] [SQL] Podpora přetypování desetinných míst na intervaly ANSI
- [SPARK-39776] [SQL][SLEDOVAT] Aktualizace UT PlanStabilitySuite v režimu ANSI
- [SPARK-39963] [SQL] Zjednodušit
SimplifyCasts.isWiderCast
Aktualizace údržby
Viz aktualizace údržby Databricks Runtime 11.3.
Prostředí systému
- Operační systém: Ubuntu 20.04.5 LTS
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14
- Python: 3.9.19
- R: 4.1.3
- Delta Lake: 2.1.0
Nainstalované knihovny Pythonu
Knihovna | Verze | Knihovna | Verze | Knihovna | Verze |
---|---|---|---|---|---|
argon2-cffi | 20.1.0 | async-generator | 1,10 | attrs | 21.2.0 |
backcall | 0.2.0 | backports.entry-points-selectable | 1.1.1 | černý | 22.3.0 |
bělit | 4.0.0 | boto3 | 1.21.18 | botocore | 1.24.18 |
certifi | 2021.10.8 | cffi | 1.14.6 | chardet | 4.0.0 |
charset-normalizer | 2.0.4 | kliknutí | 8.0.3 | kryptografie | 3.4.8 |
cyklista | 0.10.0 | Cython | 0.29.24 | dbus-python | 1.2.16 |
ladění | 1.4.1 | dekoratér | 5.1.0 | defusedxml | 0.7.1 |
distlib | 0.3.6 | vstupní body | 0.3 | přehled omezujících vlastností | 1.0.0 |
filelock | 3.8.0 | idna | 3.2 | ipykernel | 6.12.1 |
ipython | 7.32.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.0 |
Jedi | 0.18.0 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
joblib | 1.0.1 | jsonschema | 3.2.0 | jupyter-client | 6.1.12 |
jupyter-core | 4.8.1 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgety | 1.0.0 |
verizonsolver | 1.3.1 | MarkupSafe | 2.0.1 | matplotlib | 3.4.3 |
matplotlib-inline | 0.1.2 | špatně zamyšlení | 0.8.4 | mypy-extensions | 0.4.3 |
nbclient | 0.5.3 | nbconvert | 6.1.0 | nbformat | 5.1.3 |
nest-asyncio | 1.5.1 | poznámkový blok | 6.4.5 | numpy | 1.20.3 |
balení | 21.0 | pandas | 1.3.4 | pandocfilters | 1.4.3 |
parso | 0.8.2 | pathspec | 0.9.0 | bábovka | 0.5.2 |
pexpect | 4.8.0 | pickleshare | 0.7.5 | Polštář | 8.4.0 |
jádro | 21.2.4 | platformdirs | 2.5.2 | plotly | 5.9.0 |
prometheus-client | 0.11.0 | prompt-toolkit | 3.0.20 | protobuf | 4.21.5 |
psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
pyarrow | 7.0.0 | pycparser | 2,20 | Pygments | 2.10.0 |
PyGObject | 3.36.0 | pyodbc | 4.0.31 | pyparsing | 3.0.4 |
pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | pytz | 2021.3 |
pyzmq | 22.2.1 | žádosti | 2.26.0 | requests-unixsocket | 0.2.0 |
s3transfer | 0.5.2 | scikit-learn | 0.24.2 | scipy | 1.7.1 |
seaborn | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 58.0.4 |
Šest | 1.16.0 | ssh-import-id | 5.10 | statsmodels | 0.12.2 |
houževnatost | 8.0.1 | terminado | 0.9.4 | testpath | 0.5.0 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
tornádo | 6.1 | vlastnosti | 5.1.0 | typing-extensions | 3.10.0.2 |
bezobslužné upgrady | 0,1 | urllib3 | 1.26.7 | virtualenv | 20.8.0 |
wcwidth | 0.2.5 | webencodings | 0.5.1 | kolo | 0.37.0 |
widgetsnbextension | 3.6.0 |
Nainstalované knihovny jazyka R
Knihovny R se instalují ze snímku Microsoft CRAN 2022-09-08.
Knihovna | Verze | Knihovna | Verze | Knihovna | Verze |
---|---|---|---|---|---|
askpass | 1,1 | assertthat | 0.2.1 | backporty | 1.4.1 |
base | 4.1.3 | base64enc | 0.1-3 | bitové | 4.0.4 |
bit64 | 4.0.5 | blob | 1.2.3 | startování | 1.3-28 |
vařit | 1.0-7 | verva | 1.1.3 | koště | 1.0.1 |
bslib | 0.4.0 | cachem | 1.0.6 | volající | 3.7.2 |
caret | 6.0-93 | cellranger | 1.1.0 | chron | 2.3-57 |
class | 7.3-20 | Rozhraní příkazového řádku | 3.3.0 | clipr | 0.8.0 |
cluster | 2.1.3 | codetools | 0.2-18 | barevný prostor | 2.0-3 |
commonmark | 1.8.0 | – kompilátor | 4.1.3 | config | 0.3.1 |
cpp11 | 0.4.2 | pastelka | 1.5.1 | přihlašovací údaje | 1.3.2 |
kudrna | 4.3.2 | data.table | 1.14.2 | Power BI | 4.1.3 |
DBI | 1.1.3 | dbplyr | 2.2.1 | Desc | 1.4.1 |
devtools | 2.4.4 | diffobj | 0.3.5 | trávit | 0.6.29 |
downlit | 0.4.2 | dplyr | 1.0.10 | dtplyr | 1.2.2 |
e1071 | 1.7-11 | tři tečky | 0.3.2 | evaluate | 0,16 |
fanynky | 1.0.3 | farver | 2.1.1 | fastmap | 1.1.0 |
fontawesome | 0.3.0 | forcats | 0.5.2 | foreach | 1.5.2 |
zahraniční | 0.8-82 | kovat | 0.2.0 | Fs | 1.5.2 |
budoucnost | 1.28.0 | future.apply | 1.9.1 | kloktadlo | 1.2.0 |
Generik | 0.1.3 | Gert | 1.8.0 | ggplot2 | 3.3.6 |
Gh | 1.3.0 | gitcreds | 0.1.1 | glmnet | 4.1-4 |
globálních objektů | 0.16.1 | lepidlo | 1.6.2 | googledrive | 2.0.0 |
googlesheets4 | 1.0.1 | Gower | 1.0.0 | Grafika | 4.1.3 |
grDevices | 4.1.3 | mřížka | 4.1.3 | gridExtra | 2.3 |
gsubfn | 0,7 | gtable | 0.3.1 | bezpečnostní přilba | 1.2.0 |
útočiště | 2.5.1 | highr | 0,9 | Hms | 1.1.2 |
htmltools | 0.5.3 | htmlwidgets | 1.5.4 | httpuv | 1.6.5 |
httr | 1.4.4 | Id | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-13 | isoband | 0.2.5 | Iterátory | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.0 | KernSmooth | 2.23-20 |
pletení | 1,40 | značení | 0.4.2 | později | 1.3.0 |
mříž | 0.20-45 | láva | 1.6.10 | lifecycle | 1.0.1 |
listenv | 0.8.0 | lubridate | 1.8.0 | magrittr | 2.0.3 |
sleva | 1,1 | MŠE | 7.3-56 | Matice | 1.4-1 |
memoise | 2.0.1 | metody | 4.1.3 | mgcv | 1.8-40 |
mim | 0.12 | miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 |
modelr | 0.1.9 | munsell | 0.5.0 | nlme | 3.1-157 |
nnet | 7.3-17 | numDeriv | 2016.8-1.1 | openssl | 2.0.2 |
parallel | 4.1.3 | paralelně | 1.32.1 | pilíř | 1.8.1 |
pkgbuild | 1.3.1 | pkgconfig | 2.0.3 | pkgdown | 2.0.6 |
pkgload | 1.3.0 | plogr | 0.2.0 | plyr | 1.8.7 |
chválit | 1.0.0 | prettyunits | 1.1.1 | pROC | 1.18.0 |
processx | 3.7.0 | prodlim | 2019.11.13 | profvis | 0.3.7 |
Průběh | 1.2.2 | progressr | 0.11.0 | sliby | 1.2.0.1 |
proto | 1.0.0 | plná moc | 0.4-27 | PS | 1.7.1 |
purrr | 0.3.4 | r2d3 | 0.2.6 | R6 | 2.5.1 |
ragg | 1.2.2 | randomForest | 4.7-1.1 | rappdirs | 0.3.3 |
Analýza rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.0.9 |
RcppEigen | 0.3.3.9.2 | readr | 2.1.2 | readxl | 1.4.1 |
recepty | 1.0.1 | odvetný zápas | 1.0.1 | rematch2 | 2.1.2 |
vzdálená zařízení | 2.4.2 | reprex | 2.0.2 | reshape2 | 1.4.4 |
rlang | 1.0.5 | rmarkdown | 2.16 | RODBC | 1.3-19 |
roxygen2 | 7.2.1 | rpart | 4.1.16 | rprojroot | 2.0.3 |
Rserve | 1.8-11 | RSQLite | 2.2.16 | rstudioapi | 0,14 |
rversions | 2.1.2 | rvest | 1.0.3 | drzá napodobenina | 0.4.2 |
váhy | 1.2.1 | selektor | 0.4-2 | sessioninfo | 1.2.2 |
tvar | 1.4.6 | lesklý | 1.7.2 | sourcetools | 0.1.7 |
sparklyr | 1.7.8 | SparkR | 3.3.0 | prostorový | 7.3-11 |
spline křivky | 4.1.3 | sqldf | 0.4-11 | ČTVEREC | 2021.1 |
statistické údaje | 4.1.3 | Statistiky 4 | 4.1.3 | stringi | 1.7.8 |
stringr | 1.4.1 | přežití | 3.4-0 | sys | 3.4 |
systemfonts | 1.0.4 | tcltk | 4.1.3 | testthat | 3.1.4 |
textshaping | 0.3.6 | tibble | 3.1.8 | tidyr | 1.2.0 |
tidyselect | 1.1.2 | tidyverse | 1.3.2 | timeDate | 4021.104 |
tinytex | 0.41 | tools | 4.1.3 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.2 |
utils | 4.1.3 | Uuid | 1.1-0 | vctrs | 0.4.1 |
viridisLite | 0.4.1 | vroom | 1.5.7 | Waldo | 0.4.0 |
vous | 0,4 | withr | 2.5.0 | xfun | 0.32 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.5 | zip | 2.2.0 |
Nainstalované knihovny Java a Scala (verze clusteru Scala 2.12)
ID skupiny | ID artefaktu | Verze |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | automatické škálování aws-java-sdk | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | podpora aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | datový proud | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | Kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | spolužák | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.13.4 |
com.fasterxml.jackson.core | jackson-core | 2.13.4 |
com.fasterxml.jackson.core | jackson-databind | 2.13.4 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.4 |
com.github.ben-manes.kofein | kofein | 2.3.4 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | nativní native_ref javy | 1,1 |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | nativní native_system javy | 1,1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1,1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1,1 |
com.github.luben | zstd-jni | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | Tink | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 9.2.1.jre8 |
com.ning | compress-lzf | 1,1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 2.2.1 |
dev.ludovic.netlib | Blas | 2.2.1 |
dev.ludovic.netlib | lapack | 2.2.1 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.5.1 |
io.dropwizard.metrics | metriky – jádro | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metriky – kontroly stavu | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metriky – servlety | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffer | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty- common | 4.1.74.Final |
io.netty | obslužná rutina netty | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | netty transport | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-unix-common | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | sběratel | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktivace | 1.1.1 |
javax.annotation | javax.annotation-api | 1.3.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1,1 |
javax.transaction | transaction-api | 1,1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | marináda | 1.2 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.14 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | arrow-format | 7.0.0 |
org.apache.arrow | arrow-memory-core | 7.0.0 |
org.apache.arrow | arrow-memory-netty | 7.0.0 |
org.apache.arrow | arrow-vector | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapred | 1.11.0 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1,9 |
org.apache.kurátor | kurátor-client | 2.13.0 |
org.apache.kurátor | kurátor-framework | 2.13.0 |
org.apache.kurátor | kurátor-recepty | 2.13.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.4-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.7.2 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | břečťan | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
org.apache.logging.log4j | log4j-api | 2.18.0 |
org.apache.logging.log4j | log4j-core | 2.18.0 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.7.6 |
org.apache.orc | orc-mapreduce | 1.7.6 |
org.apache.orc | orc-shims | 1.7.6 |
org.apache.parquet | parquet-column | 1.12.0-databricks-0007 |
org.apache.parquet | parquet-common | 1.12.0-databricks-0007 |
org.apache.parquet | kódování parquet | 1.12.0-databricks-0007 |
org.apache.parquet | parquet-format-structures | 1.12.0-databricks-0007 |
org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0007 |
org.apache.parquet | parquet-jackson | 1.12.0-databricks-0007 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.20 |
org.apache.yetus | cílové skupiny a poznámky | 0.5.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | zookeeper-jute | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | Janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | pokračování jetty | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-api | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-client | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket – společné | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | žerzejové společné | 2.36 |
org.glassfish.jersey.core | jersey-server | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.hibernate.validator | Hibernate-validator | 6.1.0.Final |
org.javassist | Javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | anotace | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 1.27.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | Podložky | 0.9.25 |
org.rocksdb | rocksdbjni | 6.24.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | nepoužitý | 1.0.0 |
org.threeten | threeten-extra | 1.5.0 |
org.tukaani | xz | 1.8 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | kočky-kernel_2.12 | 2.1.1 |
org.typelevel | makro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1,24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |