Poznámka:
Přístup k této stránce vyžaduje autorizaci. Můžete se zkusit přihlásit nebo změnit adresáře.
Přístup k této stránce vyžaduje autorizaci. Můžete zkusit změnit adresáře.
Následující poznámky k verzi obsahují informace o databricks Runtime 18.2 (beta verze).
Tato verze zahrnuje všechny funkce, vylepšení a opravy chyb ze všech předchozích verzí Databricks Runtime. Databricks vydala tuto verzi v dubnu 2026.
Důležité
Databricks Runtime 18.2 je v beta verzi. Obsah podporovaných prostředí se může během beta verze změnit. Změny můžou zahrnovat seznam balíčků nebo verzí nainstalovaných balíčků.
Změny chování
- XPath už nenačítá externí DTD
- Zachování struktury NULL v INSERT, zápisy MERGE a streamované zápisy s vývojem schématu
- Podpora typu NullType (VOID) v tabulkách Delta
- SHOW CREATE TABLE podporuje zobrazení metrik.
- Oprava pro levý VNĚJŠÍ JOIN LATERAL vyřazování řádků
- NATURAL JOIN respektuje porovnávání sloupců bez rozlišování velikosti písmen
- Ověřování závislostí UDF SQL v katalogu Unity
- Optimalizované zápisy pro dělené tabulky katalogu Unity vytvořené pomocí CRTAS
- Závislosti AWS SDK v1 jsou stínované
- Oprava nesprávné autority EPSG pro identifikátor SRID definovaný systémem ESRI 102100
XPath už nenačítá externí DTD
Při vyhodnocování XPath přes XML Azure Databricks již nenačítá definice externích typů dokumentů (DTD) deklarované v dokumentu. Dříve mohl XPath selhat, když XML obsahoval externí odkaz DTD, který odkazoval na poškozenou adresu URL nebo nedostupný koncový bod. Vzhledem k tomu, že ověřování DTD je oddělené od vyhodnocení XPath, vrátí dotazy, které již proběhly úspěšně, stejné výsledky jako předtím. Dotazy, které dříve selhaly pouze při externím načítání DTD, teď můžou proběhnout úspěšně.
Zachování struktury NULL v INSERT, MERGE a streamování zápisy s vývojem schématu
Pro INSERT, MERGEa streamování zápisy, které používají vývoj schématu, null struktura ve zdroji je nyní uložena jako NULL v cíli. Dříve byla tato hodnota nesprávně materializována jako neprázdná struktura s každým polem nastaveným na NULL, zatímco stejné operace bez evoluce schématu zachovaly struktury NULL správně. Pokud váš kód spoléhal na přijetí struktury, která není null, jejíž pole byla null, aktualizujte kód tak, aby místo toho zpracovával strukturu NULL.
Podpora typu NullType (VOID) v tabulkách Delta
Tabulky Delta Lake teď podporují VOID sloupce.
VOID Dříve byly sloupce bezobslužně přeskočeny čtením datového rámce založeného na cestě (napříkladspark.read.format("delta").load(path)) a dotazy na časovou cestu. Tyto dotazy teď ve výstupu obsahují VOID sloupce. Zápisy nejsou ovlivněny. Podívejte se VOID na typ pro omezení, kde se mohou objevit sloupce VOID ve schématu.
Zkontrolujte všechny dotazy, které čtou z tabulek Delta Lake se VOID sloupci, a ujistěte se, že zpracovávají další sloupce správně. Například dotaz, který dříve vrátil dva sloupce, teď vrátí tři:
CREATE TABLE my_table(id INT, v VOID, name STRING) USING DELTA;
-- Before DBR 18.2: returns (id, name)
-- After DBR 18.2: returns (id, v, name)
SELECT * FROM my_table VERSION AS OF 0;
Dotazy, které závisí na počtu nebo umístění sloupců, například INSERT INTO ... SELECT *, můžou po upgradu začít selhávat.
Konkrétně některé INSERT dotazy s povoleným vývojem schématu mohou bezobslužně přesouvat data do nesprávných sloupců. Další VOID sloupec ve výstupu posune pozice následných sloupců, což může způsobit zápis dat do nesprávných sloupců v cílové tabulce. Například:
-- Source table has a VOID column between two INT columns
CREATE TABLE source(a INT, b VOID, c INT) USING DELTA;
-- Target table has two INT columns
CREATE TABLE target(x INT, y INT) USING DELTA;
-- Before DBR 18.2: SELECT * FROM source returns (a, c), inserting a->x and c->y
-- After DBR 18.2: SELECT * FROM source returns (a, b, c), inserting a->x, b->y,
-- and c is added as a new column via schema evolution
INSERT INTO target WITH SCHEMA EVOLUTION
SELECT * FROM source VERSION AS OF 0;
SHOW CREATE TABLE podporuje zobrazení metrik.
SHOW CREATE TABLE teď podporuje zobrazení metrik. Dříve spuštění tohoto příkazu v zobrazení metriky vyvolalo chybu. Výstup pro zobrazení metrik zahrnuje plně kvalifikovaný název třídílné části s katalogem (například CREATE VIEW catalog.db.my_metric_view ...), což usnadňuje opětovné vytvoření zobrazení metrik ve správném umístění.
Oprava pro příkaz LEFT OUTER JOIN LATERAL, který způsobuje vynechání řádků
Byla opravena chyba, která nesprávně vynechala řádky z LEFT OUTER JOIN LATERAL dotazů. Dotazy používající tento konstruktor nyní vrací správné výsledky. Chcete-li se dočasně vrátit k předchozímu chování, nastavte spark.databricks.sql.optimizer.lateralJoinPreserveOuterSemantic hodnotu true.
NATURAL JOIN respektuje porovnávání sloupců bez rozlišení malých a velkých písmen
NATURAL JOIN nyní správně používá porovnávání sloupců nerozlišující velká a malá písmena, pokud je spark.sql.caseSensitive nastaveno na false (výchozí). Dříve NATURAL JOIN používal porovnání s rozlišováním velkých a malých písmen k identifikaci společných sloupců, což způsobilo, že sloupce, které se lišily pouze velikostí písmen (například ID versus id), nebyly rozpoznány jako odpovídající. To způsobilo, že NATURAL JOIN nepozorovaně produkovalo výsledky křížového spojení. Tato oprava zarovná NATURAL JOIN chování se spojenímiUSING, která už správně zpracovala rozlišování velkých a malých písmen. Dotazy ovlivněné touto chybou teď vrací správné výsledky se správně připojenými sloupci.
Ověřování závislostí UDF SQL v katalogu Unity
Katalog Unity teď vynucuje ověřování závislostí pro uživatelem definované funkce SQL (UDF), aby se zabránilo obejití řízení přístupu. Dříve mohly funkce SQL vytvořené prostřednictvím rozhraní REST API odkazovat na závislosti, ke kterým uživatel neměl přístup. Uživatelsky definované funkce SQL s neplatnými konfiguracemi závislostí jsou nyní blokovány před spuštěním.
Optimalizované zápisy pro dělené tabulky katalogu Unity vytvořené pomocí CRTAS
Optimalizované zápisy se teď správně aplikují na dělené tabulky katalogu Unity vytvořené pomocí CREATE OR REPLACE TABLE ... AS SELECT (CRTAS). Dříve CRTAS u dělených tabulek nového katalogu Unity nepoužil optimalizované zápisy, což vedlo k vyššímu počtu malých souborů na oddíl. Tato oprava může zvýšit latenci zápisu. Chcete-li se vrátit k předchozímu chování, nastavte spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled hodnotu false.
Závislosti AWS SDK v1 jsou stínované
Závislosti AWS SDK v1, které jsou součástí modulu Databricks Runtime, jsou teď zastíněné a už nejsou přímo dostupné v rámci classpath. Pokud váš kód závisí na knihovnách AWS SDK v1, které dříve poskytl Databricks Runtime, přidejte je do projektu jako explicitní závislosti. Tato změna se připraví na migraci na sadu AWS SDK v2 po ukončení podpory AWS pro sadu SDK v1.
Oprava nesprávné autority EPSG pro identifikátor SRID definovaný systémem ESRI 102100
Mapování souřadnicového referenčního systému (CRS) pro SRID 102100 nyní správně používá ESRI:102100 místo nesprávné EPSG:102100. Tato oprava zajišťuje, že se geoprostorová data ukládají se správnou autoritou pro lepší interoperabilitu s jinými systémy.
Nové funkce a vylepšení
- Podpora CREATE OR REPLACE pro dočasné tabulky
-
agg()alias promeasure()funkci - Upgrade ovladače Snowflake JDBC
-
pyspark.pipelines.testingalias jmenného prostoru - Vylepšený výkon automatického zavaděče
- Historie tabulek Delta zahrnuje příznaky možností zápisu.
Podpora CREATE OR REPLACE pro dočasné tabulky
CREATE OR REPLACE TEMP TABLE Syntaxe je teď podporovaná a umožňuje vytvářet nebo nahrazovat dočasné tabulky v jednom příkazu. Tím se eliminuje nutnost explicitně vyřadit a znovu vytvořit dočasné tabulky.
agg() alias pro measure() funkci
agg() je nyní k dispozici jako alias funkce measure() . Tato změna je plně zpětně kompatibilní. Existující dotazy, které používají measure() nadále pracovat beze změny, a agg() při použití se stejnými argumenty vytvoří stejné výsledky.
Upgrade ovladače Snowflake JDBC
Ovladač Snowflake JDBC je upgradován z verze 3.22.0 na 3.28.0.
pyspark.pipelines.testing alias oboru názvů
pyspark.pipelines.testing je nyní k dispozici jako pohodlná zkratka pro dlt.testing API. Importujte nástroje pro testování deklarativních kanálů Lakeflow Spark pomocí kteréhokoli oboru názvů.
Vylepšený výkon automatického zavaděče
Auto Loader teď používá efektivnější metodu výpisu, která zlepšuje rychlost výpisu pro zdroje cloudového úložiště. Pokud vaše průběžné streamy spoléhají na to, jak dlouho trvá zjišťování dat pomocí seznamu a nenastavují explicitní ProcessingTime spouštěče, toto vylepšení může vést ke zvýšení nákladů za používání API pro výpisy v cloudu. Nastavte explicitní ProcessingTime triggery pro řízení četnosti spouštění operací.
Historie tabulek Delta zahrnuje příznaky možností zápisu.
Historie tabulek Delta (DESCRIBE HISTORY) teď obsahuje příznaky možností zápisu ve sloupci operationParameters pro operace WRITE a REPLACE TABLE. Pokud jsou explicitně povoleny následující možnosti, zobrazí se v historii jako logické příznaky (zahrnuté pouze v případě true):
Pro WRITE a REPLACE TABLE operace:
-
isDynamicPartitionOverwrite: přítomné, když byl použit režim přepsání dynamického oddílu. -
canOverwriteSchema: Přítomné, když bylo povoleno přepsání schématu (overwriteSchema) -
canMergeSchema: Je k dispozici při povolení sloučení schématu (mergeSchema)
Operace pro REPLACE TABLE:
-
predicate: přítomný při použitíreplaceWhere -
isV1WriterSaveAsTableOverwrite: přítomna, když byla náhrada aktivována přepsáním.saveAsTable
Upgrady knihoven
Upgradované knihovny Python:
V této verzi nebyly upgradovány žádné knihovny.
Upgradované knihovny jazyka R:
V této verzi nebyly upgradovány žádné knihovny.
Upgradované knihovny Java:
- io.delta.delta-sharing-client_2.13 od 1.3.9 do 1.3.10
Apache Spark
Databricks Runtime 18.2 zahrnuje Apache Spark 4.1.0. Tato verze zahrnuje všechny opravy a vylepšení Sparku, která jsou součástí Databricks Runtime 18.1, a také následující další opravy chyb a vylepšení Sparku:
- SPARK-56219 Vrátit zpět "[SC-225028][PS] Align groupby idxmax and idxmin skipna=False behavior with pandas 2/3"
-
SPARK-56204 Odstranit
Aliasobaly z výrazů řádků tabulek ve vloženém analyzátoru - SPARK-56186 Vyřazení pypy
- SPARK-56202 Refaktoring testů spojování streamů: rozdělit hierarchii Base/Suite a zjednodušit rozhodování režimu
- SPARK-56221 Parita funkcí mezi příkazy spark.catalog.* a DDL
-
SPARK-56301 Oprava překlepů v
error-conditions.json - SPARK-55729 Podpora čtečky zdroje dat stavu pro nový formát stavu v4 při připojení stream-stream
- SPARK-56256 Přidání rozhraní API emptyDataFrame do SparkSession
- SPARK-56205 Ověřte ID kontrolního bodu hlavního úložiště stavu před potvrzením mikrobatchu
- SPARK-55827 Oprava typového náznaku pro pracovníky v zdrojích dat
- SPARK-55579 Přejmenování tříd chyb PySpark na eval-type-agnostic
- SPARK-56247 Oprava chování při záložním režimu a typového vodítka inheritable_thread_target
- SPARK-56244 Upřesnění rozložení třídy srovnávacích testů v bench_eval_type.py
- SPARK-56262 Zrušení zbytečného vypnutí kontroly mypy pro typy
- Spark-55969 regr_r2 by měl zacházet s prvním parametrem jako se závislými proměnnými.
- SPARK-56179 Sloučení tříd chyb pro neshodu typů – část 3
- SPARK-55630 Přeskočení aktualizace příznaku shody pro nevnější stranu u spojení stream-stream v4
- SPARK-56217 Oprava výjimek bucketBy v připojení
- SPARK-56225 Zlepšení zobrazení s využitím SCHEMA funkce EVOLUTION – chybová zpráva
- SPARK-55865 Přejmenujte _LEGACY_ERROR_TEMP_1266 na CANNOT_TRUNCATE_EXTERNAL_TABLE
- SPARK-55861 Přejmenovat _LEGACY_ERROR_TEMP_2045 na UNSUPPORTED_TABLE_CHANGE
- SPARK-56166 Použití ArrowBatchTransformer.enforce_schema k nahrazení logiky převodu typů podle sloupců
- SPARK-56245 Oprava přiřazení datového rámce.eval v knihovně pandas 3
- SPARK-56062 Izolace memory_profiler za účelem zlepšení doby importu
- Systémový katalog SPARK-55964 má přednost před uživatelským katalogem pro vestavěná a sezení schémata.
-
SPARK-56226 Zachycení chyb analýzy před zahájením
InternalFrame.__init__.loc - SPARK-55723 Zobecnění chyby enforce_schema pySparkTypeError
- SPARK-54878 Přidání možnosti sortKeys pro funkci to_json
- SPARK-56219 Zarovnání groupby idxmax a idxmin skipna=False chování s knihovnou pandas 2/3
- SPARK-44065 Optimalizace nerovnoměrné distribuce BroadcastHashJoin v OptimizeSkewedJoin
- SPARK-56179 Vrátit zpět [SC-225014][PYTHON] Konsolidovat třídy chyb pro neshodu typů – část 3
- SPARK-53399 Merge Python UDF
- SPARK-56224 Polské poznámky k typům pro accumulators.py
- SPARK-55448 Oprava ztráty událostí dotazů při zavření relace během provádění dotazu
- SPARK-55862 Přejmenování _LEGACY_ERROR_TEMP_2027 na UNEXPECTED_OPERATOR_IN_CORRELATED_SUBQUERY
- SPARK-56201 Spuštění testů SPARK-49829 s spojeními VCF teď, když ho StateDataSource podporuje
- SPARK-56179 Sloučení tříd chyb pro neshodu typů – část 3
-
SPARK-56184 Nahradit
assertsprávnými hodnotamiSparkRuntimeExceptionpři zpracování sloupců oddílu - SPARK-56206 Oprava detekce duplicitních názvů CTE bez rozlišování velkých a malých písmen
- SPARK-55866 Přejmenování _LEGACY_ERROR_TEMP_2145 na OPTION_VALUE_EXCEEDS_ONE_CHARACTER
- SPARK-56067 Opožděný import psutil ke zlepšení rychlosti importu
- SPARK-56066 Opožděný import numpy za účelem zlepšení rychlosti importu
- SPARK-55719 Odebrání upozornění na vyřazení pro spark.sql.hive.convertCTAS
- SPARK-56179 Konsolidace chybových tříd pro neshodu typů – část 2
- SPARK-55510 Aktualizace dokumentu structured-streaming-state-data-source.md tak, aby to odráželo deleteRange
- SPARK-56050 Rychle vyřešit IDENTIFIER() s řetězcovými literály při parsování
- SPARK-56151 Vylepšení zobrazovacího řetězce CreateVariable
- SPARK-55751 Přidání metrik při načítání úložiště stavu ze systému souborů DFS
- SPARK-56188 Zarovnejte Series.map({}) s chováním prázdného slovníku v pandas 3
- SPARK-55964 Vrátit změnu "[SC-223957] systémový katalog má přednost před uživatelským katalogem pro BUILTIN a SESSION schémata."
- SPARK-55577 Refaktorovat SQL_SCALAR_ARROW_ITER_UDF wrapper, mapovače a logiku serializátoru
- SPARK-55596 Vylepšené filtrování statistik oddílů DSV2
- SPARK-56179 Vrátit zpět [SC-224777][PYTHON] Konsolidovat třídy chyb pro neshodu typů – část 2
- Systémový katalog SPARK-55964 má přednost před uživatelským katalogem pro vestavěná a sezení schémata.
- SPARK-56050 Vrátit zpět "[SC-224153][SQL] Rychle vyřešit IDENTIFIER() s řetězcovými literály při čase parsování"
- SPARK-56179 Konsolidace chybových tříd pro neshodu typů – část 2
-
SPARK-56102
UnionEstimationVyčištění kódu - SPARK-51712 Polykání nefatálních výjimek při řešení tabulek/zobrazení ve spark.catalog.listTables()
- SPARK-55881 Přidání queryId, errorMessage a rootExecutionId do rozhraní REST API pro spouštění SQL
- SPARK-56050 Rychle vyřešit IDENTIFIER() s řetězcovými literály při parsování
- SPARK-55628 Integrace stavu připojení stream-stream ve formátu V4
- SPARK-56187 Oprava řazení argsort pro null hodnoty v knihovně pandas 3
- SPARK-56167 Zarovnání typu astype s výchozím chováním řetězce pandas 3
- SPARK-56018 Použití ruffu jako formátovacího nástroje
- SPARK-56042 Oprava prohozených metrik počtu externích/interních sloupcových rodin v poskytovateli RocksDBStateStoreProvider
- SPARK-56179 Sloučení kategorií chyb pro neshodu typů – část 1
- SPARK-56089 Sjednotit asinh/acosh s algoritmem fdlibm pro zajištění kompatibility mezi systémy
- SPARK-55453 Oprava porovnávání vzorů LIKE pro doplňkové znaky Unicode
- SPARK-52785 Zjednodušení syntaxe super() v PySparku
-
SPARK-56169 Oprava
ClassCastExceptionzasílání zpráv o chybách přiGetStructFieldzměně podřízeného typu podle transformace plánu - SPARK-55557 Hyperbolické funkce by neměly přetékat při velkých vstupech
- SPARK-47997 Přidání parametru chyby do prvku DataFrame.drop a Series.drop
- SPARK-55008 Zobrazení ID dotazu ve SparkUI
- SPARK-54660 Přidání triggeru RTM do Pythonu
-
SPARK-56047
distinctCountŠíření prostřednictvím Sjednocení v odhadu statistik CBO - SPARK-56111 Přidejte SparkContext.isDriver() a použijte ho napříč základem kódu.
- SPARK-55999 Ve výchozím nastavení povolte forceSnapshotUploadOnLag.
- SPARK-55610 Přidání getExecutorInfos do StatusTrackeru v Python
- SPARK-55728 Zavedení konfigurace velikosti fondu vláken pro kontrolní součet souboru a možnost zakázání fondu vláken
- SPARK-55686 SizeEstimator se postará o záhlaví kompaktních objektů.
- SPARK-56044 HistoryServerDiskManager neodstraní app Store při vydání, když aplikace není v aktivní mapě
- SPARK-55809 HeapHistogram používá DiagnosticCommandMBean místo podprocesu jmap.
- SPARK-56122 Použití ověření číselného typu s podporou pandas v Series.cov
- SPARK-56113 Vylepšení obnovení řetězců ve verzi pandas 3 v knihovně pandas-on-Spark
- SPARK-56118 Porovnání zpracování logických hodnot pandas 3.0 v groupBy.quantile
- SPARK-53823 Implementace seznamu povolených pro režim v reálném čase
- SPARK-55977 Oprava isin() pro použití striktního porovnání typů jako v pandas
- SPARK-54027 Podpora Kafka Source RTM
- SPARK-50284 Změna dokumentace pro funkci parseJson
-
SPARK-56035 [SQL] Zavedení
AggregationValidatorpro ověřování jednoprůchodového resolveruAggregate - SPARK-55557 Vrátit zpět "[SC-223720][SQL] Hyperbolické funkce by neměly přetékat při velkých vstupech"
- SPARK-56075 Odebrání dávky neaktivních kategorií chyb Pythonu
- SPARK-55967 Sjednocení převodu sloupců pro Connect DataFrame
- SPARK-53915 Přidání realTimeScanExec a schopnost spouštět dlouhotrvající dávky
- SPARK-55557 Hyperbolické funkce by neměly přetékat při velkých vstupech
- SPARK-55147 Vymezení rozsahu časových razítek pro načítání spojení s časovým intervalem ve formátu stavu V4
- SPARK-56056 Podpora jednoduššího profilování pracovního procesu pomocí viztraceru
- SPARK-55948 Přidat API konektoru CDC DSv2, rozlišení analyzátoru a klauzuli SQL CHANGES
- SPARK-54599 Znovu aplikovat "[SC-219008][PYTHON] Refaktoring PythonExcept…"
- SPARK-55390 Konsolidace logiky obalu, mapovače a serializátoru SQL_SCALAR_ARROW_UDF
- SPARK-56023 Lepší vyrovnávání zatížení v LowLatencyMemoryStream
- SPARK-55986 Aktualizovat Black na verzi 26.3.1
- SPARK-55667 Přesunutí check_dependencies do init
- SPARK-55145 Podpora Avro pro kodéry stavových klíčů RocksDB založených na časových razítkech
- SPARK-53970 Odeberte nesprávnou volitelnou značku pro messageName...
- SPARK-55059 Vrátit "[SC-224058][PYTHON] Odebrat alternativní řešení pro prázdnou tabulku v toPandas"
- SPARK-50111 Přidání podpory podgrafů pro výsečové grafy v backendu Plotly
- SPARK-56081 Zarovnání zpracování idxmax a idxmin NA s knihovnou pandas 3
- SPARK-56080 Sladit Series.argmax/argmin s knihovnou pandas 3.0 pro zpracování NA (Not Available) hodnot.
- SPARK-56060 Řešení převodu null řetězce z pandas 3 ve funkci describe() pro prázdné časové rámce
- SPARK-55059 Odstranění řešení prázdné tabulky ve funkci toPandas
- SPARK-55995 Podpora ČASOVÉHO RAZÍTKA S MÍSTNÍM ČASOVÝM PÁSMEM v syntaxi SQL
- SPARK-55976 Použití Sady místo Seq pro oprávnění k zápisu
-
SPARK-56073 Zjednodušení sestavení
PythonRunnerConfMap - SPARK-55887 Speciální zpracování k zabránění prohledávání celé tabulky
- SPARK-55980 Vždy použít _cast_back_float v číselné aritmetice
- SPARK-55357 Oprava docstringu pro timestamp_add
- SPARK-55667 Vrátit zpět [SC-223289][PYTHON][CONNECT] Přesunout check_dependencies do init
- SPARK-54285 Vrátit [PYTHON] uložené informace o časovém pásmu, abyste se vyhnuli nákladnému převodu časového razítka.
- SPARK-56021 Zvýšení výchozí prahové hodnoty maxChangeFileReplay z 50 na 500
- SPARK-55870 Přidejte dokumentaci pro geografické typy
-
SPARK-55962 Používejte
getShortmístogetIntpřetypováníputShortsFromIntsLittleEndianna platformě Little Endian. - SPARK-55903 Zjednodušení vývoje schématu MERGE a kontrola oprávnění k zápisu
- SPARK-55326 Uvolnění vzdálené relace při nastavení SPARK_CONNECT_RELEASE_SESSION_ON_EXIT
- SPARK-55667 Přesunutí check_dependencies do init
- SPARK-55884 Přidání v1StatsToV2Stats do DataSourceV2Relation
- SPARK-55929 Přidání chybějícího toString() do TableChange.UpdateColumnDefaultValue
- SPARK-55851 Objasnění typů particí zdroje dat a způsobu jejich čtení.
- SPARK-55828 Přidání DSV2 TableChange toString a oprava chybějící třídy chyb pro vývoj schématu sloučení do schématu
- SPARK-55790 Sestavení kompletního registru SRS pomocí dat PROJ 9.7.1
- SPARK-55645 Přidejte serdeName do CatalogStorageFormat
- SPARK-54796 Oprava NPE způsobeného konfliktem časování mezi inicializací exekutoru a migrací náhodného prohazování
- SPARK-55983 Nové funkce analyzátoru s jedním průchodem a opravy chyb
- SPARK-55964 Soudržnost mezipamětí: jasný registr funkcí na DROP DATABASE
- SPARK-55868 Oprava posunu predikátu pro InMemoryTable pro V2Filters
- SPARK-55973 Optimalizace LeftSemi pro připojení ke streamu
- SPARK-54665 Opravit porovnání logických hodnot vs. řetězců, aby odpovídalo chování pandas
- SPARK-55539 Povolit přetypování z GeographyType na GeometryType
- SPARK-55695 Vyhněte se dvojitému plánování operací na úrovni řádků
- SPARK-55904 Použití _check_same_session k zúžení typů
- SPARK-55965 Přidání upozornění při použití knihovny pandas >= 3.0.0 s PySpark
- SPARK-55493 [SS] Neudržujte soubory v adresáři protokolu posunu a potvrzení kontrolního bodu streamování ve StateDataSource
- SPARK-55851 Vrátit zpět "[SC-223270][PYTHON] Objasnit typy oddílů zdroje dat a číst"
- SPARK-55645 Vrátit zpět "[SC-221839][SQL] Přidat serdeName do CatalogStorageFormat"
- SPARK-55640 Šíření chyb analýzy WKB pro geometrii a geografii
- SPARK-55693 Vyhněte se vzájemnému zablokování tím, že SparkSession.observationManager není líný val
- SPARK-55528 Přidání výchozí podpory kolace pro uživatelem definované uživatelem SQL
-
SPARK-55860 Používejte
UNABLE_TO_INFER_SCHEMAmístoUNABLE_TO_INFER_SCHEMA_FOR_DATA_SOURCE - SPARK-55275 Přidání stavů SQL InvalidPlanInput pro sql/connect
- SPARK-55645 Přidejte serdeName do CatalogStorageFormat
- SPARK-55716 Podpora vynucení omezení NOT NULL pro vložení zdrojové tabulky souboru V1
- SPARK-53226 Přizpůsobit ClosureCleaner pro fungování s Java 22+
- SPARK-55997 Nastavení horní hranice na prefixScan ve zprostředkovateli úložiště stavů RocksDB
- SPARK-55851 Objasnění typů particí zdroje dat a způsobu jejich čtení.
- SPARK-55954 Odebrání nesprávné nápovědy k typu přetížení pro fillna
- SPARK-56016 Zachování pojmenovaných sloupců Series při použití concat s ignore_index v knihovně pandas 3
- SPARK-55502 Sjednocení zpracování chyb převodu UDF a UDTF Arrow
-
SPARK-55989 Zachování dtypů indexu bez int64 v
restore_index - SPARK-55955 Odebrání nápovědy k typu přetížení pro funkci drop
- SPARK-55945 [SDP] Podpora strukturovaných identifikátorů pro toky v protosech hladových analýz SDP
- SPARK-55714 JDK může vyvolat AritmeticException bez zprávy
- SPARK-55991 Oprava poškození textu SQL souvisejícího s kódováním Unicode s parametry
- SPARK-55696 Přidání explicitní chyby do Encoders.bean pro třídu rozhraní
- SPARK-55533 Podpora IGNOROVAT HODNOTY NULL / RESPEKTOVAT HODNOTY NULL pro collect_set
- SPARK-55987 Opravení extrakce časového razítka při spojení ve verzi V4 pomocí findJoinKeyOrdinalForWatermark
- SPARK-55946 Nastavení pandas_priority tak, aby se smíšené binární operace správně odesílaly do knihovny pandas-on-Spark
- SPARK-55264 Přidání příkazu ExecuteOutput do kanálů Spark Connect proto
- SPARK-47672 Vyhněte se dvojitému hodnocení z filtru pushDown w/ projekčního posunu.
- SPARK-55780 Nahrazení loga PNG svG ve webovém uživatelském rozhraní Sparku
- SPARK-55821 Vynucení argumentů jen pro klíčová slova v metodách inicializátoru
- SPARK-55621 Oprava nejednoznačného a nepotřebného použití unicode
- SPARK-55662 Implementace argumentu osy idxmin
- SPARK-55631ALTER TABLE Musí zneplatnit mezipaměť pro tabulky DSv2.
-
SPARK-55692 Oprava
SupportsRuntimeFilteringaSupportsRuntimeV2Filteringdokumentace - SPARK-55928 Nový linter pro efektivnost konfigurace v zobrazeních a uživatelsky definovaných funkcích
- SPARK-55440 Rámec typů – Fáze 1a – Základy základního typového systému
- SPARK-55631 Zrušit "[SC-221596][SQL] ALTER TABLE musí zneplatnit mezipaměť pro tabulky DSv2"
- SPARK-55631ALTER TABLE Musí zneplatnit mezipaměť pro tabulky DSv2.
-
SPARK-55683 Optimalizovat
VectorizedPlainValuesReader.readUnsignedLongs - SPARK-55892 Oprava nemožnosti načíst úložiště stavů, protože údržba odstranila opakovaně použitý soubor SST
- SPARK-55946 Vrátit "[SC-223027][PS] Nastavit pandas_priority tak, aby se smíšené binární operace správně směrovaly do pandas-on-Spark"
- SPARK-55891 Zachování kontextu skriptování SQL uvnitř EXECUTE IMMEDIATE
- SPARK-55907 Oprava nesprávných chybových pozic pro neplatné datové typy v CREATE FUNCTION
- SPARK-55946 Nastavení pandas_priority tak, aby se smíšené binární operace správně odesílaly do knihovny pandas-on-Spark
- SPARK-55694 Blokování omezení v CTAS/RTAS na úrovni analyzátoru
-
SPARK-55682 Vrácený iterátor ServiceLoader může vyvolat
NoClassDefFoundErrorhasNext() - SPARK-55155 Opravit SETCATALOG použití speciálních znaků a obrácených uvozovek v názvu identifikátoru
- SPARK-55932 Oprava zablokování xml analyzátoru variant na záporné stupnici
- SPARK-55673 Přidání dalších testů pro kodér vnořeného typu
-
SPARK-55679 Oprava detekce
sun.io.serialization.extendedDebugInfou Java 25 - SPARK-55957 Přidání DATA_SOURCE_NOT_FOUND v Catalog.ERROR_HANDLING_RULES
- SPARK-55052 Přidání vlastností AQEShuffleRead do stromu fyzického plánu
- SPARK-55652 Optimalizace přímého přístupu k polím pro haldové vyrovnávací paměti
-
SPARK-55659 Vylepšit
EventLogFileWriterpro operaci protokolovánístop -
SPARK-54666 Ponechte číselné typy beze změny.
to_numeric - SPARK-55654 Povolení prořezávání TreePattern pro odstranění SubqueryAliases a ResolveInlineTables
- SPARK-55533 Vrátit zpět "[SC-220538][SQL] Podpora IGNOROVAT NULLS / RESPECT NULLS pro collect_set"
- SPARK-55901 Vyvolání chyby z Series.replace() bez argumentů
- SPARK-55896 Použijte funkce numpy místo vestavěných funkcí
-
SPARK-55655 Určení
CountVectorizerdeterministické slovní zásoby, pokud jsou počty stejné -
SPARK-55811 [SQL] Zachytávání
NonFatalmístoUnresolvedExceptionpři volánínodeWithOutputColumnsString - SPARK-55533 Podpora IGNOROVAT HODNOTY NULL / RESPEKTOVAT HODNOTY NULL pro collect_set
-
SPARK-55435 Používejte
StringBuildermístoStringBuffer - SPARK-54807 Povolit kvalifikované názvy předdefinovaných funkcí a funkcí relací (#198171)
- SPARK-55854 Označte průchod duplicitních atributů ve výstupu Expand, aby nedošlo k AMBIGUOUS_REFERENCE
- SPARK-55261 Implementace podpory čtení Parquet pro geografické typy
- SPARK-55416 Únik paměti u streamovaného zdroje dat v Pythonu, pokud není aktualizován koncový offset
- SPARK-55465 Podpora typu geometrie v convert_numpy
- SPARK-55801 Opravit typovou nápovědu u _SimpleStreamReaderWrapper.getCache
- SPARK-55800 Odstranit nepoužívanou kontrolu typu datetime.date
- SPARK-55663 Sjednocení modulu pro funkce zdroje dat
- SPARK-55665 Sjednocení způsobu, jak pracovníci navazují spojení s exekutorem
- SPARK-53446 Optimalizace operací odebrání blockmanageru pomocí mapování bloků uložených v mezipaměti
- SPARK-55867 Oprava StringMethods s knihovnou pandas 3
- SPARK-55501 Oprava odlišných hodnot listagg distinct + v rámci pořadí skupin podle chyby
- SPARK-55558 Přidání podpory pro operace nad množinami Tuple/Theta
- SPARK-55636 Přidat podrobné chyby v případě deduplikace neplatných sloupců
- SPARK-55788 Podpora ExtensionDType pro celá čísla v knihovně Pandas UDF
- SPARK-55464 Podpora GeographyType v convert_numpy
- SPARK-55530 Podpora geografických sad výsledků na serveru Hive a Thrift
- SPARK-55525 Řešení chyby UDTF_ARROW_TYPE_CONVERSION_ERROR s nejednoznačně definovaným parametrem chybové zprávy
- SPARK-55626 Nenačítejte sloupce metadat v tabulce, pokud není potřeba v nástroji V2TableUtil.
- SPARK-55533 Vrátit zpět "[SC-220538][SQL] Podpora IGNOROVAT NULLS / RESPECT NULLS pro collect_set"
-
SPARK-55435 Vrátit "[SC-219656][CORE][SQL] Použít
StringBuildermístoStringBuffer" - SPARK-55533 Podpora IGNOROVAT HODNOTY NULL / RESPEKTOVAT HODNOTY NULL pro collect_set
-
SPARK-54452 Oprava prázdné odpovědi ze serveru SparkConnect pro
spark.sql(...)uvnitř FlowFunction - SPARK-55638 Refaktoring serializace WKT v GeometryModel
-
SPARK-55551 Vylepšit
BroadcastHashJoinExecdělení výstupu - SPARK-54314 Vylepšení možnosti ladění na straně serveru ve Spark Connect zachycením názvu souboru a čísel řádků klientské aplikace
-
SPARK-55517 Optimalizace
VectorizedPlainValuesReader.readBytes()s přímým přístupem k polím pro vyrovnávací paměti haldy -
SPARK-55495 Oprava
EventLogFileWriters.closeWriterpro zpracovánícheckError -
SPARK-55279 Přidání
sketch_funcsskupiny pro funkce SQL DataSketches -
SPARK-55435 Používejte
StringBuildermístoStringBuffer - SPARK-55064 Podpora opakování nejednoznačného náhodného prohazování na úrovni dotazů
- SPARK-55411 SpJ může vyvolat ArrayIndexOutOfBoundsException, pokud jsou klíče připojení menší než klíče clusteru
- SPARK-55451 Kursory musí začít shromažďovat výsledky na OPEN, nikoli při prvním vyvolání.
- SPARK-54687 Přidejte více hraničních případů pomocí generátorů
- SPARK-55691 Klient GetStatus
-
SPARK-55277 Přidání
protobuf_funcsskupiny pro funkce SQL Protobuf -
SPARK-55822 Přejmenovat
_LEGACY_ERROR_TEMP_0052naCREATE_VIEW_WITH_IF_NOT_EXISTS_AND_REPLACE - SPARK-55236 Řešení neočekávané výjimky v některých testovacích případech CoarseGrainedExecutorBackendSuite
- SPARK-55275 Pokrytí stavu SQL: IllegalStateException
- SPARK-55462 Znovu použít "[SC-221123][PYTHON] Podpora VariantType v convert_numpy"
- SPARK-55062 Podpora rozšíření proto2 ve funkcích protobuf
-
SPARK-55248 Vyčištění zastaralého využití rozhraní API v Jackson
streaming.checkpointing.Checksum - SPARK-55250 Snížení počtu volání klienta Hive při vytváření oboru názvů CREATE NAMESPACE
-
SPARK-55247 Vyčištění zastaralého využití rozhraní API souvisejícího s
o.a.c.io.input.BoundedInputStream - Spark-55198 spark-sql by měl přeskočit řádek komentáře s úvodními prázdnými znaky
-
SPARK-55826 Přejmenovat
_LEGACY_ERROR_TEMP_0006naMERGE_INSERT_VALUE_COUNT_MISMATCH - SPARK-55127 Přidání skupiny avro_funcs pro funkce Avro SQL
- SPARK-54914 [SQL] Oprava operátoru DROP v syntaxi kanálu pro podporu kvalifikovaných názvů sloupců
-
SPARK-55113
EnsureRequirementsby mělo kopírovat značky - SPARK-55074 Přidání testu pro operaci Merge Into a převod datového typu ANSI.
- SPARK-54217 Synchronizace rozhodnutí o ukončení vlákna MonitorThread v PythonRunneru
- SPARK-54374 Zvětšení atributu viewBox SVG při inicializaci vizualizace SQL plánu
- SPARK-54971 Přidání syntaxe WITH SCHEMA EVOLUTION pro SQL INSERT
- SPARK-55065 Vyhněte se dvěma voláním rozhraní API JDBC
- SPARK-55033 Oprava parametrů „stringArgs“ u příkazů zápisu DSv2
-
SPARK-55041 Vyčištění některých nepoužívaných privátních
funcion/valmodulů jádra - SPARK-55338 Centralizovaná logika dekomprese požadavků Spark Connect v průsečíku gRPC
-
SPARK-55825 Přejmenovat
_LEGACY_ERROR_TEMP_1309naPARTITION_BY_NOT_ALLOWED_WITH_INSERT_INTO - SPARK-55492 Ověřte, že eventTime v rámci withWatermark je sloupec nejvyšší úrovně.
- SPARK-55802 Oprava přetečení celého čísla při výpočtu dávkových bajtů se šipkami
- SPARK-55694 Blokování omezení v CTAS/RTAS na úrovni analyzátoru
- SPARK-55843 Zpracování jednotky dtype datetime64 a timedelta64
-
SPARK-55824 Přejmenovat
_LEGACY_ERROR_TEMP_1034naWINDOW_FUNCTION_NOT_ALLOWED_IN_CLAUSE - SPARK-55819 Refaktorovat ExpandExec, aby byl stručnější
- SPARK-55341 Přidání příznaku úrovně úložiště pro místní vztahy uložené v mezipaměti
- SPARK-54599 Vrátit změnu "[SC-219008][PYTHON] Přepracovat PythonException, aby mohl používat errorClass s sqlstate."
- SPARK-46167 Přidání implementace osy do prvku DataFrame.rank
- SPARK-54599 Refaktoring PythonException, aby mohl přebírat třídu chyby se SQLSTATE
- SPARK-55529 Opětovné uplatnění [ES-1721989][SC-220716][PYTHON] Obnovení hromadného slučování na úrovni Arrowu pro neiterátor applyInPandas
-
SPARK-55794 Vždy používej alias
OuterReferences - SPARK-55583 Ověřit typy schémat Arrow ve zdroji dat pro Python
- SPARK-37711 Omezení počtu úloh z O(N) na O(1)
- SPARK-46168 Přidání argumentu osy pro idxmax
- SPARK-46162 Implementovat nunique s osou 1
- SPARK-55552 Přidání podpory VariantType do ColumnarBatchRow.copy() a MutableColumnarRow
-
SPARK-55647 Oprava
ConstantPropagationnesprávného nahrazení atributů ne binárními a stabilními kolacemi - SPARK-55747 Oprava NPE při přístupu k prvkům z pole s hodnotou null
-
SPARK-55757 Vylepšit
spark.task.cpusověřování - SPARK-55699 Nekonzistentní čtení LowLatencyClock při použití společně s ManualClock
- SPARK-55702 Podpora predikátu filtru v agregačních funkcích okna
- SPARK-55510 Oprava funkce deleteRange ve stavovém úložišti Rocksdb pro volání changelogWriter
-
SPARK-55739 Optimalizace
OnHeapColumnVector.putIntsLittleEndian/putLongsLittleEndians využitímPlatform.copyMemoryna systémech s malým endianem - SPARK-55730 Nepřevádět časové pásmo na malá písmena
- SPARK-55701 ES-1694761[SS] Oprava podmínky závodu v CompactibleFileStreamLog.allFiles
- SPARK-55462 Vrátí hodnotu [SC-221123][PYTHON] Support VariantType in convert_numpy.
- SPARK-55144 Zavedení nové verze formátu stavu pro efektivní stream-stream spojení
- SPARK-55606 Implementace rozhraní GetStatus API na straně serveru
- SPARK-55462 Podpora VariantType v convert_numpy
- SPARK-55600 Oprava problému převodu z pandas do Arrow, kdy dochází ke ztrátě počtu řádků, pokud má schéma v klasickém modelu 0 sloupců.
- SPARK-55700 Oprava zpracování celočíselných klíčů v Series s necelým indexem
- SPARK-55349 Konsolidace nástrojů pro převod z pandas na Arrow v serializátorech
- SPARK-55681 Oprava rovnosti typu DatovýTyp singleton po deserializaci (opětovný pokus)
- SPARK-55681 Vrátit zpět "[SC-221427][SC-214079][SQL] Oprava rovnosti singleton DataType po deserializaci
- SPARK-55681 Oprava rovnosti datového typu singletonu po deserializaci
- SPARK-55674 Optimalizace převodu tabulky s 0 sloupci ve Spark Connectu
- SPARK-55323 Znovu použít [SC-218885][PYTHON] Přesuňte metadata UDF do EvalConf, aby se zjednodušil pracovní protokol.
- SPARK-55322 Znovu použít [SC-221062][SQL] MaxBy a MinBy Přetížení pomocí elementů K
- SPARK-55323 Vrátit "[SC-218885][PYTHON] Přesun metadat UDF na EvalConf, aby se zjednodušil pracovní protokol."
- SPARK-55615 Přesun importu SparkContext do větve třídy
- SPARK-55323 Přesunutí metadat UDF do EvalConf za účelem zjednodušení pracovního protokolu
-
SPARK-55648 Zpracování neočekávané chyby
groupby(axis)argumentu klíčového slova pomocí knihovny pandas 3 -
SPARK-55647 Zpět "[SC-221274][SQL] Vyřešit
ConstantPropagationnesprávné nahrazení atributů nebinárními kolacemi" - SPARK-55646 Refaktorováno SQLExecution.withThreadLocalCaptured k oddělení zachycování místního vlákna od provádění
- SPARK-54854 Přidání id dotazu UUIDv7 do událostí SQLExecution
- SPARK-55619 Oprava uživatelských metrik v případě sloučených oddílů
-
SPARK-55647 Oprava
ConstantPropagationnesprávného nahrazení atributů ne binárními a stabilními kolacemi -
SPARK-55322 Vrátit "[SC-221062][SQL]
MaxByaMinBypřetížení pomocí elementů K - SPARK-54740 Spuštění obslužné rutiny chyb v rané fázi v režimu démona
- SPARK-55493 [SS] Ne mkdirs v adresáři stavu kontrolního bodu streamování ve StateDataSource
-
SPARK-55322
MaxBya přetížení s K prvky -
SPARK-55625 Oprava StringOps, aby
strdtype fungoval správně - SPARK-55161 Znovu použít [SC-218867][PYTHON] Podpora profilátorů ve zdroji dat Pythonu
- SPARK-55505 Oprava NPE při čtení EXECUTION_ROOT_ID_KEY v souběžných scénářích
- SPARK-55111 Zkontrolovat znovu detekci nedokončeného pře-partitionování při restartování dotazu.
- SPARK-55593 Sjednocení stavu agregace pro vector_avg/vector_sum
-
SPARK-55500 Oprava cyklu analyzátoru mezi
ApplyDefaultCollation,ExtractWindowExpressionsaCollationTypeCasts - SPARK-55494 Zavedení iterátoru nebo prefixScan s více hodnotami v rozhraní StateStore API
- SPARK-55561 Přidat opakované pokusy pro všechny metody Kafka klienta pro správu
- SPARK-55296 Podpora režimu coW s knihovnou pandas 3
- SPARK-55479 Řešení problémů se stylem ve SparkShreddingUtils
- SPARK-55372 Oprava chyby SHOW CREATE TABLE pro tabulky a zobrazení s výchozím řazením
-
SPARK-55333 Povolit
DateTypeaTimeTypevconvert_numpy - SPARK-55129 Zavádí nové kodéry klíčů pro časová razítka jako prvotřídní funkci (UnsafeRow)
- SPARK-46163 Parametry DataFrame.update filter_func a chyby
- SPARK-55372 Vrácení změny "[SC-220571][SQL] Oprava SHOW CREATE TABLE tabulek a zobrazení s výchozí kolací"
- SPARK-55480 Odstraňte všechny nepoužívané noqa pro ruff
- SPARK-55471 Přidání podpory optimalizace pro SequentialStreamingUnion
- SPARK-55584 Generování lepších chybových zpráv pro skalární poddotazy k EXEC IMMEDIATE
- SPARK-55161 Vrátit zpět "[SC-218867][PYTHON] Podpora profilátorů ve zdroji dat Pythonu
-
SPARK-55506 Předání explicitního vstupního schématu do
to_pandasCogroupPandasUDFSerializer -
SPARK-55586 Přidat
jdbc.pypříklad - SPARK-55161 Podpora profilátorů ve zdroji dat Pythonu
- SPARK-55529 Vrátit zpět "[SC-220716][PYTHON] Obnovení dávkového sloučení na úrovni šipky pro jiné než iterátor applyInPandas
-
SPARK-55385 Minimalizujte opakované výpočty v
zipWithIndex - SPARK-55529 Obnovení dávkového sloučení na úrovni Arrow pro neiterativní applyInPandas
-
SPARK-55389 Konsolidace
SQL_MAP_ARROW_ITER_UDFobálky, mapovače a logiky serializátoru - SPARK-55406 Reimplementování fondu vláken pro ExecutePlanResponseReattachableIterator
-
SPARK-55372 Oprava chyby
SHOW CREATE TABLEpro tabulky a zobrazení s výchozím řazením - SPARK-55367 Použijte virtuální prostředí (venv) pro spuštění pip testů
- SPARK-55355 Upgrade verze mypy na nejnovější verzi
- SPARK-55460 Odebrání E203 ze seznamu ignorovaných položek
- SPARK-55541 Podpora geometrie a geografie v převaděčích typů katalyzátoru
- SPARK-55449 Povolení analýzy a zápisu WKB pro zeměpis
- SPARK-55339 Implementace podpory zápisu WKT pro geografické objekty
- SPARK-54122 Implementace TwsTesteru v jazyce Scala
- SPARK-54805 Implementace TwsTesteru v PySparku
- SPARK-55256 Opětovné použití "[SC-218596][SQL] Podpora IGNORE NULLS / RESPECT NULLS pro array_agg a collect_list"
-
SPARK-55156 Vypořádejte se s
include_groupsprogroupby.apply - SPARK-55401 Přidání logiky opakování a nastavení zpracování časového limitu do procesu stažení PySpark instalace
- SPARK-55229 Implementace DataFrame.zipWithIndex v PySpark
- SPARK-55462 Podpora uživatelsky definovaný typ v convert_numpy
- SPARK-55483 Oprava NullPointerException v PivotFirst, když je kontingenční sloupec neatomický typ s hodnotami null
- SPARK-55490 Zahrňte seskupení, které není v datovém rámci, pomocí knihovny pandas verze 3.
- SPARK-55473 Nahrazení itertools.tee řetězcem v applyInPandasWithState
- SPARK-55404 Vždy vyvolat KeyboardInterrupt z obsluhy signálu SIGINT
- SPARK-55407 Nahrazení logger.warn za logger.warning
Podpora ovladačů Databricks ODBC/JDBC
Databricks podporuje ovladače ODBC/JDBC vydané v posledních 2 letech. Stáhněte si nedávno vydané ovladače a upgradujte (stáhněte rozhraní ODBC, stáhněte JDBC).
Systémové prostředí
- Operační systém: Ubuntu 24.04.4 LTS
- Java: Zulu21.48+15-CA
- Scala: 2.13.16
- Python: 3.12.3
- R: 4.5.1
- Delta Lake: 4.1.0
Nainstalované knihovny Python
| Knihovna | Version | Knihovna | Version | Knihovna | Version |
|---|---|---|---|---|---|
| aiohappyeyeballs | 2.4.4 | aiohttp | 3.11.10 | aiosignal | 1.2.0 |
| annotated-doc | 0.0.4 | anotované typy | 0.7.0 | anyio | 4.7.0 |
| argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 | arro3-core | 0.6.5 |
| šíp | 1.3.0 | asttokens | 3.0.0 | astunparse | 1.6.3 |
| async-lru | 2.0.4 | attrs | 24.3.0 | automatické příkazy | 2.2.2 |
| azure-common | 1.1.28 | Azure Core | 1.37.0 | azure-identity | 1.20.0 |
| azure-mgmt-core | 1.6.0 | azure-mgmt-web | 8.0.0 | azure-storage-blob (služba pro ukládání dat na platformě Azure) | 12.28.0 |
| Služba "Azure Storage File Data Lake" | 12.22.0 | babylón | 2.16.0 | backports.tarfile | 1.2.0 |
| BeautifulSoup4 | 4.12.3 | černý | 24.10.0 | bělidlo | 6.2.0 |
| blikač | 1.7.0 | boto3 | 1.40.45 | botocore | 1.40.45 |
| nástroje pro ukládání do mezipaměti | 5.5.1 | certifikát | 2025.4.26 | cffi | 1.17.1 |
| chardet | 4.0.0 | nástroj pro normalizaci znakové sady | 3.3.2 | klikni | 8.1.8 |
| cloudpickle | 3.0.0 | Komunikace | 0.2.1 | ContourPy | 1.3.1 |
| kryptografie | 44.0.1 | cyklista | 0.11.0 | Cython | 3.1.5 |
| Agenti Databricks | 1.9.1 | Databricks SDK | 0.67.0 | dataclasses-json | 0.6.7 |
| dbus-python | 1.3.2 | debugpy | 1.8.11 | dekoratér | 5.1.1 |
| defusedxml | 0.7.1 | deltalake | 1.1.4 | Deprecated | 1.2.18 |
| distlib | 0.3.9 | převod docstringu do formátu markdown | 0.11 | provedení | 1.2.0 |
| přehled aspektů | 1.1.1 | fastapi | 0.128.0 | fastjsonschema | 2.21.1 |
| filelock | 3.17.0 | nástroje pro písma | 4.55.3 | fqdn | 1.5.1 |
| frozenlist | 1.5.0 | fsspec | 2023.5.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.28.1 | google-auth (autentizace) | 2.47.0 |
| google-cloud-core | 2.5.0 | Úložiště Google Cloud | 3.7.0 | google-crc32c | 1.8.0 |
| google-resumable-media (pro snadné stahování/ukládání mediálních dat) | 2.8.0 | googleapis-common-protos | 1.65.0 | grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.16.0 | hf-xet | 1.2.0 |
| httpcore | 1.0.9 | httplib2 | 0.20.4 | httpx | 0.28.1 |
| huggingface_hub | 1.2.4 | IDNA | 3.7 | importlib_metadata | 8.5.0 |
| časovat/skloňovat | 7.3.1 | iniconfig | 1.1.1 | ipyflow-core je jádrová komponenta systému ipyflow | 0.0.209 |
| ipykernel | 6.29.5 | ipython | 8.30.0 | ipython-genutils | 0.2.0 |
| ipywidgets | 7.8.1 | isodate | 0.7.2 | isodurace | 20.11.0 |
| jaraco.collections | 5.1.0 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
| jaraco.text | 3.12.1 | Jedi | 0.19.2 | Jinja2 | 3.1.6 |
| chvění | 0.12.0 | jmespath | 1.0.1 | joblib | 1.4.2 |
| json5 | 0.9.25 | jsonpatch | 1.33 | JSON ukazatel | 3.0.0 |
| jsonschema | 4.23.0 | Specifikace JSON schema | 2023.7.1 | jupyter události | 0.12.0 |
| jupyter-lsp | 2.2.5 | klient Jupyter | 8.6.3 | jupyter_core | 5.7.2 |
| jupyter_server | 2.15.0 | terminály_jupyter_server | 0.5.3 | jupyterlab | 4.3.4 |
| jupyterlab_pygments | 0.3.0 | jupyterlab_server | 2.27.3 | jupyterlab_widgets | 1.1.11 |
| kiwisolver | 1.4.8 | langchain-core | 1.2.6 | langchain-openai | 1.1.6 |
| langsmith | 0.6.1 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
| lazr.uri | 1.0.6 | litellm | 1.75.9 | markdown:it-py | 2.2.0 |
| MarkupSafe | 3.0.2 | maršmeloun | 3.26.2 | matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | Mccabe | 0.7.0 | mdurl | 0.1.0 |
| špatné naladění | 3.1.2 | mlflow-skinny | 3.8.1 | mmh3 | 5.2.0 |
| more-itertools | 10.3.0 | MSAL | 1.34.0 | msal-extensions | 1.3.1 |
| vícejazyčný slovník | 6.1.0 | mypy-extensions | 1.0.0 | nbclient | 0.10.2 |
| nbconvert | 7.16.6 | nbformat | 5.10.4 | nest-asyncio | 1.6.0 |
| nodeenv | 1.10.0 | poznámkový blok | 7.3.2 | notebook_shim | 0.2.4 |
| numpy (knihovna pro numerické výpočty v Pythonu) | 2.1.3 | oauthlib | 3.2.2 | openai | 2.14.0 |
| opentelemetry-api | 1.39.1 | opentelemetry-proto | 1.39.1 | opentelemetry-sdk | 1.39.1 |
| opentelemetry-sémantické-konvence | 0,60b1 | orjson | 3.11.5 | přepíše | 7.4.0 |
| balení | 24,2 | pandas | 2.2.3 | pandocfilters | 1.5.0 |
| parso | 0.8.4 | pathspec | 0.10.3 | bábovka | 1.0.1 |
| pexpect | 4.8.0 | polštář | 11.1.0 | pip | 25.0.1 |
| platformdirs | 4.3.7 | plotly | 5.24.1 | Pluggy (nástroj pro správu pluginů v Pythonu) | 1.5.0 |
| prometheus_client | 0.21.1 | nástroj "prompt-toolkit" | 3.0.43 | propcache | 0.3.1 |
| proto-plus | 1.27.0 | protobuf | 5.29.4 | psutil | 5.9.0 |
| psycopg2 | 2.9.11 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| pyarrow | 21.0.0 | pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 |
| pyccolo | 0.0.71 | pycparser | 2.21 | pydantic | 2.10.6 |
| pydantic_core | 2.27.2 | pyflakes | 3.2.0 | Pygments | 2.19.1 |
| PyGObject | 3.48.2 | pyiceberg | 0.10.0 | PyJWT | 2.10.1 |
| pyodbc | 5.2.0 | pyparsing | 3.2.0 | pyright | 1.1.394 |
| pyroaring | 1.0.3 | pytest | 8.3.5 | python-dateutil | 2.9.0.post0 |
| python-dotenv | 1.2.1 | python-json-logger (Python knihovna pro logování do formátu JSON) | 3.2.1 | python-lsp-jsonrpc | 1.1.2 |
| python-lsp-server | 1.12.2 | Pytoolconfig | 1.2.6 | knihovna pytz pro zpracování časových zón v Pythonu | 2024.1 |
| PyYAML | 6.0.2 | pyzmq | 26.2.0 | odkazování | 0.30.2 |
| regulární výraz | 2024.11.6 | požadavky | 2.32.3 | requests-toolbelt | 1.0.0 |
| rfc3339-validator (validátor formátu RFC 3339) | 0.1.4 | rfc3986-validátor | 0.1.1 | bohatý | 13.9.4 |
| lano | 1.13.0 | rpds-py | 0.22.3 | Rsa | 4.9.1 |
| s3transfer | 0.14.0 | scikit-learn | 1.6.1 | SciPy | 1.15.3 |
| narozený v moři | 0.13.2 | Send2Trash | 1.8.2 | setuptools (nástroj pro vytváření a distribuci Python projektů) | 78.1.1 |
| shellingham | 1.5.4 | Šest | 1.17.0 | smmap | 5.0.0 |
| sniffio | 1.3.0 | setříděné kontejnery | 2.4.0 | sítko na polévku | 2.5 |
| sqlparse | 0.5.5 | ssh-import-id | 5.11 | datová hromádka | 0.6.3 |
| Starlette | 0.50.0 | strictyaml | 1.7.3 | houževnatost | 9.0.0 |
| dokončeno | 0.17.1 | threadpoolctl | 3.5.0 | tiktoken | 0.12.0 |
| tinycss2 | 1.4.0 | tokenize_rt | 6.1.0 | tokenizátory | 0.22.2 |
| tomli | 2.0.1 | tornádo | 6.5.1 | tqdm | 4.67.1 |
| traitlets | 5.14.3 | typová ochrana | 4.3.0 | typer-slim | 0.21.1 |
| types-python-dateutil | 2.9.0.20251115 | inspekce psaní na klávesnici | 0.9.0 | typing_extensions | 4.12.2 |
| tzdata | 2024.1 | ujson | 5.10.0 | bezobslužné aktualizace | 0,1 |
| uri-template | 1.3.0 | urllib3 | 2.3.0 | uuid_utils | 0.12.0 |
| uvicorn | 0.40.0 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth (šířka znaků) | 0.2.5 | webcolors | 25.10.0 | webová kódování | 0.5.1 |
| websocket-klient | 1.8.0 | whatthepatch | 1.0.2 | wheel | 0.45.1 |
| kdykoli | 0.7.3 | widgetsnbextension | 3.6.6 | zabalený | 1.17.0 |
| yapf | 0.40.2 | yarlif | 1.18.0 | zipový uzávěr | 3.21.0 |
| zstandard | 0.23.0 |
Nainstalované knihovny jazyka R
Knihovny R se instalují ze snímku CRAN Posit Správce balíčků z 20.11.2025.
| Knihovna | Version | Knihovna | Version | Knihovna | Version |
|---|---|---|---|---|---|
| šíp | 22.0.0 | žádost o heslo | 1.2.1 | ověřit, že | 0.2.1 |
| zpětné portování | 1.5.0 | báze | 4.5.1 | base64enc | 0,1-3 |
| bigD | 0.3.1 | bit | 4.6.0 | 64bit | 4.6.0-1 |
| bitops | 1.0-9 | objekt blob | 1.2.4 | bootování | 1.3-30 |
| připravovat nápoje | 1.0-10 | elán | 1.1.5 | koště | 1.0.10 |
| bslib | 0.9.0 | kašmír | 1.1.0 | volající | 3.7.6 |
| caret | 7.0-1 | cellranger | 1.1.0 | cron | 2.3-62 |
| třída | 7.3-22 | CLI | 3.6.5 | Clipr | 0.8.0 |
| hodiny | 0.7.3 | cluster | 2.1.6 | codetools | 0.2-20 |
| commonmark | 2.0.0 | kompilátor | 4.5.1 | config | 0.3.2 |
| konfliktní | 1.2.0 | cpp11 | 0.5.2 | pastelka | 1.5.3 |
| přihlašovací údaje | 2.0.3 | kroucení | 7.0.0 | datová tabulka | 1.17.8 |
| datové sady | 4.5.1 | DBI | 1.2.3 | dbplyr | 2.5.1 |
| Popis | 1.4.3 | devtools | 2.4.6 | schéma | 1.6.5 |
| diffobj | 0.3.6 | hodnota hash | 0.6.39 | dolní osvětlení | 0.4.5 |
| dplyr | 1.1.4 | dtplyr | 1.3.2 | e1071 | 1.7-16 |
| tři tečky | 0.3.2 | hodnotit | 1.0.5 | fanoušci | 1.0.7 |
| barvy | 2.1.2 | Fastmap (rychlé mapování) | 1.2.0 | fontawesome | 0.5.3 |
| pro kočky | 1.0.1 | foreach | 1.5.2 | zahraničí | 0.8–86 |
| fs | 1.6.6 | budoucnost | 1.68.0 | budoucnost.použít | 1.20.0 |
| kloktání | 1.6.0 | obecné typy | 0.1.4 | Gert | 2.2.0 |
| ggplot2 | 4.0.1 | gh | 1.5.0 | git2r | 0.36.2 |
| gitcreds | 0.1.2 | glmnet | 4.1-10 | globální | 0.18.0 |
| lepidlo | 1.8.0 | googledrive | 2.1.2 | googlesheets4 | 1.1.2 |
| Gower | 1.0.2 | Grafika | 4.5.1 | grDevices | 4.5.1 |
| mřížka | 4.5.1 | gridExtra | 2.3 | gsubfn | 0.7 |
| gt | 1.1.0 | gtable | 0.3.6 | ochranná přilba | 1.4.2 |
| útočiště | 2.5.5 | vyšší | 0.11 | HMS | 1.1.4 |
| htmlové nástroje | 0.5.8.1 | htmlwidgets (interaktivní HTML prvky) | 1.6.4 | httpuv | 1.6.16 |
| httr | 1.4.7 | httr2 | 1.2.1 | identifikátory | 1.0.1 |
| ini | 0.3.1 | ipred | 0.9-15 | isoband | 0.2.7 |
| Iterátory | 1.0.14 | jquerylib | 0.1.4 | jsonlite | 2.0.0 |
| šťavnatý džus | 0.1.0 | KernSmooth | 2.23-22 | knitr | 1.50 |
| značení | 0.4.3 | později | 1.4.4 | mřížka | 0.22-5 |
| láva | 1.8.2 | životní cyklus | 1.0.4 | poslouchej | 0.10.0 |
| litedown | 0.8 | lubridate | 1.9.4 | magrittr | 2.0.4 |
| Markdown | 2.0 | Hmotnost | 7.3-60.0.1 | *Matrix* | 1.6-5 |
| zapamatujte si | 2.0.1 | metody | 4.5.1 | mgcv | 1.9-1 |
| mim | 0,13 | miniUI | 0.1.2 | mlflow | 3.6.0 |
| ModelMetrics | 1.2.2.2 | modelář | 0.1.11 | nlme | 3.1-164 |
| nnet (neuronová síť) | 7.3-19 | numDeriv (Numerická derivace) | 2016.8 - 1.1 | OpenSSL | 2.3.4 |
| otel | 0.2.0 | rovnoběžný | 4.5.1 | paralelně | 1.45.1 |
| pilíř | 1.11.1 | pkgbuild | 1.4.8 | pkgconfig | 2.0.3 |
| pkgdown | 2.2.0 | pkgload | 1.4.1 | plogr | 0.2.0 |
| plyr | 1.8.9 | pochvala | 1.0.0 | prettyunits | 1.2.0 |
| pROC | 1.19.0.1 | processx | 3.8.6 | prodlim | 2025.04.28 |
| profvis | 0.4.0 | pokrok | 1.2.3 | progressr | 0.18.0 |
| promisy | 1.5.0 | proto | 1.0.0 | proxy | 0,4-27 |
| p.s. | 1.9.1 | purrr | 1.2.0 | R6 | 2.6.1 |
| ragg | 1.5.0 | "randomForest" | 4.7-1.2 | rappdirs | 0.3.3 |
| rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.1.0 |
| RcppEigen | 0.3.4.0.2 | schopný reagovat | 0.4.4 | reactR | 0.6.1 |
| čtenář | 2.1.6 | readxl | 1.4.5 | recepty | 1.3.1 |
| odvetný zápas | 2.0.0 | odvetný zápas 2 | 2.1.2 | dálková ovládání | 2.5.0 |
| reprodukovatelný příklad | 2.1.1 | reshape2 | 1.4.5 | rlang | 1.1.6 |
| rmarkdown | 2.30 | RODBC | 1.3-26 | roxygen2 | 7.3.3 |
| rpart | 4.1.23 | rprojroot | 2.1.1 | Rserve | 1.8-15 |
| RSQLite | 2.4.4 | rstudioapi | 0.17.1 | rversions | 3.0.0 |
| rvest | 1.0.5 | S7 | 0.2.1 | Sass | 0.4.10 |
| škálování | 1.4.0 | selektor | 0.4-2 | informace o sezení | 1.2.3 |
| obrazec | 1.4.6.1 | lesklý | 1.11.1 | sourcetools | 0.1.7-1 |
| sparklyr | 1.9.3 | SparkR | 4.1.0 | řídké vektory | 0.3.4 |
| prostorový | 7.3-17 | spline | 4.5.1 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | statistické údaje | 4.5.1 | Stats4 | 4.5.1 |
| řetězce | 1.8.7 | stringr | 1.6.0 | přežití | 3.5-8 |
| frajerský krok | 5.17.14.1 | sys | 3.4.3 | systemfonts | 1.3.1 |
| tcltk | 4.5.1 | testthat (nástroj pro testování) | 3.3.0 | formátování textu | 1.0.4 |
| tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | změna času | 0.3.0 | datum a čas | 4051.111 |
| tinytex | 0.58 | nářadí | 4.5.1 | tzdb | 0.5.0 |
| ověřovač URL | 1.0.1 | použij tohle | 3.2.1 | utf8 | 1.2.6 |
| pomocné funkce | 4.5.1 | Univerzální jednoznačný identifikátor (UUID) | 1.2-1 | V8 | 8.0.1 |
| vctrs | 0.6.5 | viridisLite | 0.4.2 | vrrrm | 1.6.6 |
| Waldo | 0.6.2 | hmatový chlup | 0.4.1 | (v případě, že je možné poskytnout smysl slova "withr", by bylo možné ho přeložit) | 3.0.2 |
| xfun | 0.54 | xml2 | 1.5.0 | xopen | 1.0.1 |
| xtable | 1.8-4 | yaml | 2.3.10 | zeallot | 0.2.0 |
| komprimovaný soubor zip | 2.3.3 |
Nainstalované knihovny Java a Scala (verze clusteru Scala 2.13)
| ID skupiny | Identifikátor artefaktu | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.clearspring.analytics | datový proud | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | Databricks SDK pro Java | 0.53.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | technologie kryo-stínění | 4.0.3 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | spolužák | 1.5.1 |
| com.fasterxml.jackson.core | jackson-annotations (poznámky Jackson) | 2.18.2 |
| com.fasterxml.jackson.core | jackson-core | 2.18.2 |
| com.fasterxml.jackson.core | Jackson-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.3 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.kofein | kofein | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | Nativní odkaz pro Javu | 1.1 |
| com.github.fommil.netlib | Nativní odkaz pro Javu | Verze 1.1 pro místní uživatele |
| com.github.fommil.netlib | nativní_systém-java | 1.1 |
| com.github.fommil.netlib | nativní_systém-java | Verze 1.1 pro místní uživatele |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | Verze 1.1 pro místní uživatele |
| com.github.fommil.netlib | netlib-nativní_systém-linux-x86_64 | Verze 1.1 pro místní uživatele |
| com.github.luben | zstd-jni | 1.5.7-6 |
| com.github.virtuald | curvesapi | 1.08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos | 2.5.1 |
| com.google.auth | google-auth-library-credentials | 1.20.0 |
| com.google.auth | google-auth-library-oauth2-http | 1.20.0 |
| com.google.auto.value | automatické poznámky k hodnotám | 1.10.4 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | Gson | 2.11.0 |
| com.google.crypto.tink | Cink | 1.16.0 |
| com.google.errorprone | poznámky_náchylné_k_chybám | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 25.2.10 |
| com.google.guava | neúspěšný přístup | 1.0.3 |
| com.google.guava | guave | 33.4.8-jre |
| com.google.http-client | google-http-client | 1.43.3 |
| com.google.http-client | google-http-client-gson | 1.43.3 |
| com.google.j2objc | j2objc-annotations | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | profiler | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (software development kit pro úložiště dat Azure Data Lake) | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre11 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre8 |
| com.ning | compress-lzf (komprimační algoritmus LZF) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | JSON | 1.8 |
| com.thoughtworks.paranamer | Paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers (nástroj pro analýzu dat) | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.10.0 |
| commons-codec | commons-codec | 1.19.0 |
| společné sbírky | společné sbírky | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| Nahrávání souborů v Commons | Nahrávání souborů v Commons | 1.6.0 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.21.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging (nástroj pro záznamy) | commons-logging (nástroj pro záznamy) | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.4 |
| dev.ludovic.netlib | Blas | 3.0.4 |
| dev.ludovic.netlib | LAPACK | 3.0.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | vzduchový kompresor | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.10 |
| io.dropwizard.metrics | anotace metrik | 4.2.37 |
| io.dropwizard.metrics | jádro metrik | 4.2.37 |
| io.dropwizard.metrics | metrics-graphite | 4.2.37 |
| io.dropwizard.metrics | metriky – kontroly stavu | 4.2.37 |
| io.dropwizard.metrics | metrics-jetty10 | 4.2.37 |
| io.dropwizard.metrics | Metrics-JMX | 4.2.37 |
| io.dropwizard.metrics | Metriky-json | 4.2.37 |
| io.dropwizard.metrics | metriky pro JVM | 4.2.37 |
| io.dropwizard.metrics | metrikové servlety | 4.2.37 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all | 4.2.7.Final |
| io.netty | netty-buffer | 4.2.7.Final |
| io.netty | netty-codec | 4.2.7.Final |
| io.netty | netty-codec-base | 4.2.7.Final |
| io.netty | netty-codec-classes-quic | 4.2.7.Final |
| io.netty | netty-codec-compression | 4.2.7.Final |
| io.netty | netty-codec-http | 4.2.7.Final |
| io.netty | netty-codec-http2 | 4.2.7.Final |
| io.netty | netty-codec-http3 | 4.2.7.Final |
| io.netty | netty-codec-marshalling | 4.2.7.Final |
| io.netty | netty-codec-native-quic | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-osx-aarch_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-osx-x86_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-windows-x86_64 |
| io.netty | netty-codec-protobuf | 4.2.7.Final |
| io.netty | netty-codec-socks | 4.2.7.Final |
| io.netty | netty-common | 4.2.7.Final |
| io.netty | netty-handler | 4.2.7.Final |
| io.netty | Netty-handler-proxy | 4.2.7.Final |
| io.netty | netty-resolver | 4.2.7.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-windows-x86_64 |
| io.netty | netty-tcnative-classes (softwarová knihovna) | 2.0.74.Final |
| io.netty | netty-transport | 4.2.7.Final |
| io.netty | netty-transport-classes-epoll | 4.2.7.Final |
| io.netty | netty-transport-classes-io_uring | 4.2.7.Final |
| io.netty | netty-transport-classes-kqueue | 4.2.7.Final |
| io.netty | netty-transport-native-epoll | 4.2.7.Final |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-riscv64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.2.7.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.2.7.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.2.7.Final |
| io.opencensus | opencensus-api | 0.31.1 |
| io.opencensus | opencensus-contrib-http-util | 0.31.1 |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | simpleklient_obecný | 0.16.1-databricks |
| io.prometheus | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometheus | simpleclient_pushgateway | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometheus | simpleclient_sledovatel_společný | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel_agent | 0.16.1-databricks |
| io.prometheus.jmx | kolektor | 0.18.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktivace | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | jta | 1.1 |
| javax.transaction | API pro transakce | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.14.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | nakládačka | 1.5 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| síť.sněhová vločka | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.13.1 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | mravenec | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | Ant launcher | 1.10.11 |
| org.apache.arrow | komprese šipkou | 18.3.0 |
| org.apache.arrow | šipkový formát | 18.3.0 |
| org.apache.arrow | jádro šipkové paměti | 18.3.0 |
| org.apache.arrow | šipka-paměť-netty | 18.3.0 |
| org.apache.arrow | arrow-memory-netty-buffer-záplata | 18.3.0 |
| org.apache.arrow | šipkový vektor | 18.3.0 |
| org.apache.avro | Avro | 1.12.1 |
| org.apache.avro | avro-ipc | 1.12.1 |
| org.apache.avro | avro-mapred | 1.12.1 |
| org.apache.commons | commons-collections4 | 4.5.0 |
| org.apache.commons | commons-compress (softwarová knihovna pro kompresi dat) | 1.28.0 |
| org.apache.commons | commons-configuration2 | 2.11.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.19.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | Commons-text (textové nástroje) | 1.14.0 |
| org.apache.kurátor | kurátor-klient | 5.9.0 |
| org.apache.kurátor | kurátorský rámec | 5.9.0 |
| org.apache.kurátor | kurátorovy recepty | 5.9.0 |
| org.apache.datasketches | datasketches-java | 6.2.0 |
| org.apache.datasketches | datasketches-paměť | 3.0.2 |
| org.apache.derby | fotbalové derby | 10.14.2.0 |
| org.apache.hadoop | běhové prostředí klienta Hadoop | 3.4.2 |
| org.apache.hive | hive-beeline | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | hive-jdbc (JDBC ovladač pro Apache Hive) | 2.3.10 |
| org.apache.hive | hive-llap-client | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | hive-serde | 2.3.10 |
| org.apache.hive | Hive-shims | 2.3.10 |
| org.apache.hive | rozhraní pro úložiště Hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | hive-shims-common | 2.3.10 |
| org.apache.hive.shims | plánovač hive-shims | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | břečťan | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | šablona rozložení log4j ve formátu JSON | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.2.0-shaded-protobuf |
| org.apache.orc | Formát ORC | 1.1.1-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 2.2.0-shaded-protobuf |
| org.apache.orc | orčí podložky | 2.2.0 |
| org.apache.poi | Poi | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4.28 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | poznámky pro publikum | 0.13.0 |
| org.apache.zookeeper | ošetřovatel zvířat v zoo | 3.9.4 |
| org.apache.zookeeper | zookeeper-jute | 3.9.4 |
| org.checkerframework | checker-qual | 3.43.0 |
| org.codehaus.janino | společný kompilátor | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms (framework pro práci s relačními databázemi) | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-alpn-client | 10.0.26 |
| org.eclipse.jetty | jetty-client | 10.0.26 |
| org.eclipse.jetty | jetty-http | 10.0.26 |
| org.eclipse.jetty | jetty-io | 10.0.26 |
| org.eclipse.jetty | jetty-jndi | 10.0.26 |
| org.eclipse.jetty | Jetty-plus | 10.0.26 |
| org.eclipse.jetty | proxy pro službu Jetty | 10.0.26 |
| org.eclipse.jetty | bezpečnost Jetty | 10.0.26 |
| org.eclipse.jetty | jetty-server | 10.0.26 |
| org.eclipse.jetty | jetty-servlet | 10.0.26 |
| org.eclipse.jetty | jetty-servlets | 10.0.26 |
| org.eclipse.jetty | jetty-util | 10.0.26 |
| org.eclipse.jetty | Jetty-webová aplikace | 10.0.26 |
| org.eclipse.jetty | jetty-xml | 10.0.26 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-lokátor | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | Vyhledávač zdrojů OSGi | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-přebaleno | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject (pokud je to potřeba, přidejte vysvětlení nebo typický český termín v závorce) | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (nástroj pro zpracování požadavků v Java EE) | 2.41 |
| org.glassfish.jersey.containers | jersey-container-servlet-jádro | 2.41 |
| org.glassfish.jersey.core | jersey-client | 2.41 |
| org.glassfish.jersey.core | společný dres | 2.41 |
| org.glassfish.jersey.core | Jersey-server (aplikační server frameworku Jersey) | 2.41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41 |
| org.hibernate.validator | Hibernate Validator | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | Javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jline | jline | 3.27.1-jdk8 |
| org.joda | joda-convert | 1.7 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.locationtech.jts | jts-core | 1.20.0 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.22.1 |
| org.objenesis | objenesis | 3.4 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.4.0 |
| org.scala-sbt | testovací rozhraní | 1.0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | kompatibilní s scalatestem | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | xz | 1,10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Finální |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| Stax | stax-api | 1.0.1 |