Poznámka:
Přístup k této stránce vyžaduje autorizaci. Můžete se zkusit přihlásit nebo změnit adresáře.
Přístup k této stránce vyžaduje autorizaci. Můžete zkusit změnit adresáře.
Následující poznámky k verzi obsahují informace o databricks Runtime 18.1.
Tato verze zahrnuje všechny funkce, vylepšení a opravy chyb ze všech předchozích verzí Databricks Runtime. Databricks vydala tuto verzi v únoru 2026.
Změny chování
- Chyby metrik pozorování už nezpůsobují selhání dotazů
- Klauzule FILTER pro agregační funkce MEASURE
- Optimalizované zápisy pro operace katalogu Unity CRTAS
- Aktualizace mezipaměti DataFrame pro jemně řízené tabulky řízení přístupu
- Hodnoty oddílů časového razítka používají časové pásmo relace.
- DESCRIBE FLOW – vyhrazené klíčové slovo
- Logické operace sady SpatialSQL
- Typy výjimek pro SQLSTATE
- Rozšíření typu automatického streamování
Chyby metrik pozorování už nezpůsobují selhání dotazů
Chyby během shromažďování metrik pozorování už nezpůsobí selhání provádění dotazů. Dříve mohly chyby v OBSERVE klauzulích (například dělení nulou) blokovat nebo selhat celý dotaz. Nyní se dotaz úspěšně dokončí a při volání observation.getse vyvolá chyba .
Klauzule FILTER pro agregační funkce MEASURE
Agregační funkce MEASURE teď podporují klauzule FILTER. Dříve se filtry bezobslužně ignorovaly.
Optimalizované zápisy dat pro operace Unity Catalog CRTAS
CREATE OR REPLACE TABLE AS SELECT (CRTAS) operace na dělených tabulkách katalogu Unity teď ve výchozím nastavení používají optimalizované zápisy. Chcete-li zakázat, nastavte spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled hodnotu false.
Aktualizace mezipaměti DataFrame pro jemnozrnné tabulky řízení přístupu
Zápis do jemně odstupňovaných tabulek řízení přístupu na vyhrazených výpočetních prostředcích teď aktualizuje datové rámce uložené v mezipaměti, které závisí na tabulce.
Hodnoty partičních časových razítek používají časové pásmo relace.
Hodnoty oddílů časového razítka používají časové pásmo relace Sparku místo časového pásma JVM. Pokud máte oddíly s časovým razítkem zapsané před Databricks Runtime verze 18.0, ověřte metadata oddílu před zápisem nových dat pomocí SHOW PARTITIONS.
DESCRIBE FLOW – vyhrazené klíčové slovo
Příkaz DESCRIBE FLOW je teď k dispozici. Pokud máte tabulku s názvem flow, použijte DESCRIBE schema.flow, DESCRIBE TABLE flow, nebo DESCRIBE `flow` s backticks.
Logické operace sady SpatialSQL
ST_Difference
ST_Intersection a ST_Unionpoužijte novou implementaci s následujícími vylepšeními:
- Platné vstupní geometrie vždy vytvářejí výsledek a již nevyvolají chyby. Neplatné vstupy nevyvolají chyby, ale nemusí vést k platným výsledkům.
- Přibližně 2x rychlejší výkon.
- Výsledky se mohou lišit za 15. desetinným místem pro průsečíky úseček z důvodu odlišných vzorců a pořadí operací.
- Výsledky jsou normalizovány pro konzistentní, srovnatelný výstup:
- Body jsou seřazené podle hodnot souřadnic.
- Linie jsou vytvořeny z nejdelších možných cest.
- Polygonové kroužky jsou otočené, takže první bod má nejmenší hodnoty souřadnic.
- Tato normalizace platí ve všech případech s výjimkou volání
ST_Differencese dvěma nepřekrývajícími se geometrie, kde první geometrie je vrácena beze změny.
Typy výjimek pro SQLSTATE
Typy výjimek se aktualizují tak, aby podporovaly SQLSTATE. Pokud váš kód analyzuje výjimky podle párování řetězců nebo zachytí konkrétní typy výjimek, aktualizujte logiku zpracování chyb.
Rozšíření typu automatického streamování
Streamování čtení v tabulkách Delta automaticky zpracovává rozšiřování typu sloupce. Chcete-li vyžadovat ruční potvrzení, nastavte spark.databricks.delta.typeWidening.enableStreamingSchemaTracking hodnotu true.
Nové funkce a vylepšení
- Auto Loader ve výchozím nastavení používá události souborů, když jsou dostupné.
- Optimalizované zápisy pro dělené tabulky katalogu Unity vytvořené pomocí CRTAS
- Podpora datového typu DATETIMEOFFSET pro Microsoft Azure Synapse
- Komentáře k tabulce Google BigQuery
- Vývoj schématu s INSERT příkazy
- Zachování hodnot struktury NULL v INSERT operacích
- Podpora transakcí s více příkazy v Delta Sharing
- Kontrolní body datového rámce v cestách svazků
- Příkazy SQL se už při volání mezipaměti () znovu nespustí.
- funkce SQL "parse_timestamp"
- max_by a min_by s volitelným limitem
- Vektorové agregační a skalární funkce
- Podpora kurzoru SQL ve složených příkazech
- Přibližné funkce top-k skicy
- Funkce skic typu n-tice
- Vlastní závislosti pro uživatelem definované tabulkové funkce (UDTF) v Pythonu v katalogu Unity
- Nové geoprostorové funkce
- Podpora Photon pro geoprostorové funkce
Automatický zavaděč ve výchozím nastavení používá události souborů, pokud je k dispozici.
Auto Loader ve výchozím nastavení používá události souborů při načítání z externího umístění, kde jsou tyto události povoleny, což snižuje operace seznamu souborů a náklady ve srovnání s výpisem adresářů. Podívejte se na přehled Auto Loader s událostmi souborů. Události souborů se nepoužívají, pokud váš kód streamu nastavuje useIncrementalListing nebo useNotifications. Pokud chcete místo toho použít výpis adresáře, nastavte useManagedFileEvents hodnotu false.
Optimalizované zápisy pro dělené tabulky katalogu Unity vytvořené pomocí CRTAS
Optimalizované zápisy se vztahují na dělené tabulky katalogu Unity vytvořené pomocí CREATE OR REPLACE TABLE ... AS SELECT CRTAS a vytvářejí méně větších souborů. Toto chování je ve výchozím nastavení povolené. Chcete-li zakázat, nastavte spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled hodnotu false.
Podpora datového typu DATETIMEOFFSET pro Microsoft Azure Synapse
Datový DATETIMEOFFSET typ je podporovaný pro připojení Microsoft Azure Synapse.
Komentáře k tabulce Google BigQuery
Popisy tabulky Google BigQuery jsou vyřešeny a zpřístupněny jako komentáře k tabulce.
Vývoj schématu pomocí příkazů INSERT
WITH SCHEMA EVOLUTION Pomocí klauzule s příkazy SQL INSERT můžete během operací vložení automaticky vyvíjet schéma cílové tabulky. Klauzule je podporována pro INSERT INTO, INSERT OVERWRITEa INSERT INTO ... REPLACE formuláře. Například:
INSERT WITH SCHEMA EVOLUTION INTO students TABLE visiting_students_with_additional_id;
Schéma cílové tabulky Delta Lake se aktualizuje tak, aby vyhovovalo dalším sloupcům nebo rozšířeným typům ze zdroje. Podrobnosti najdete v tématu vývoj schématu a INSERT syntaxe příkazů.
Zachování hodnot struktury NULL v INSERT operacích
INSERT operace s vývojem schématu nebo implicitní přetypování zachovávají NULL hodnoty struktury, pokud zdrojové a cílové tabulky mají odlišné pořadí polí struktury.
Delta Sharing s podporou transakcí s více příkazy
Tabulky Delta Sharing, které používají předem podepsanou adresu URL nebo režimy sdílení cloudových tokenů, podporují transakce s více příkazy. Při prvním přístupu v rámci transakce je verze tabulky připnuta a znovu použita pro všechna následná čtení v této transakci.
Limitations:
- Cestování v čase, změna datového toku dat a streamování se nepodporují.
- U sdílených tabulek bez historie nejsou podporovány vícepříkazové transakce.
- U nedůvěryhodného výpočetního prostředí nejsou povolené sdílené pohledy a externí entity.
Kontrolní body DataFrame ve svazkových cestách
Kontrolní body datového rámce podporují cesty ke svazkům katalogu Unity. Nakonfigurujte cestu kontrolního bodu pomocí SparkContext.setCheckpointDir na vyhrazených prostředcích výpočtu nebo konfigurace spark.checkpoint.dir na standardních prostředcích výpočtu.
Příkazy SQL se už při volání mezipaměti () znovu nespustí.
Příkazy SQL se už při volání .cache() výsledného datového rámce znovu nespustí. To zahrnuje příkazy jako SHOW TABLES a SHOW NAMESPACES.
SQL funkce parse_timestamp
Funkce SQL parse_timestamp parsuje řetězce časového razítka pomocí více vzorů. Funkce běží na modulu Photon pro lepší výkon při analýze časových razítek ve více formátech. Informace o formátování vzoru data a času najdete v tématu Vzory data a času .
max_by a min_by s volitelným limitem
Agregační funkce max_by a min_by teď přijímají volitelný třetí argument limit (až 100 000). Po zadání vrátí funkce pole až do limit hodnot, které odpovídají největším (nebo nejmenším) hodnotám řadicího výrazu, což zjednodušuje dotazy top-K a bottom-K bez okenních funkcí nebo CTE.
Vektorové agregační a skalární funkce
Nové funkce SQL pracují s ARRAY<FLOAT> vektory pro úlohy vkládání a podobnosti:
Agregační funkce:
- vector_avg: Vrátí průměr prvků vektoru ve skupině.
- vector_sum: Vrátí prvkový součet vektorů ve skupině.
Skalární funkce:
- vector_cosine_similarity: Vrátí kosinus podobnost dvou vektorů.
- vector_inner_product: Vrátí vnitřní (tečku) součin dvou vektorů.
- vector_l2_distance: Vrátí vzdálenost Euclideanu (L2) mezi dvěma vektory.
- vector_norm: Vrátí normu Lp vektoru (1, 2 nebo nekonečno).
- vector_normalize: Vrátí vektor normalizovaný na jednotkovou délku.
Podpora kurzoru SQL ve složených příkazech
Skriptovací složené příkazy SQL teď podporují zpracování kurzoru. Příkaz DECLARE CURSOR slouží k definování kurzoru, příkazu OPEN, příkazu FETCH a příkazu CLOSE pro spuštění dotazu a zpracování řádků po jednom. Kurzory mohou používat značky parametrů a obslužné rutiny podmínek, jako je NOT FOUND, pro zpracování řádek po řádku.
Přibližné funkce skic nahoře
Nové funkce umožňují vytváření a kombinování přibližných skic top-K pro distribuovanou top-K agregaci.
- approx_top_k_accumulate: Vytvoří náčrt pro každou skupinu.
- approx_top_k_combine: Spojuje náčrty.
- approx_top_k_estimate: Vrátí nejvyšší K položky s odhadovanými počty.
Další informace najdete v tématu approx_top_k Agregační funkce a předdefinované funkce.
Funkce skici n-tice
Nové agregační a skalární funkce pro náčrtky n-tic podporují jedinečné počítání a agregaci u párů klíč-souhrn.
Agregační funkce:
-
tuple_sketch_agg_doubleagregační funkce -
tuple_sketch_agg_integeragregační funkce -
tuple_union_agg_doubleagregační funkce -
tuple_union_agg_integeragregační funkce -
tuple_intersection_agg_doubleagregační funkce -
tuple_intersection_agg_integeragregační funkce
Skalární funkce:
- tuple_sketch_estimate
- tuple_sketch_summary
- tuple_sketch_theta
- tuple_union
- tuple_intersection
- tuple_difference
Vlastní závislosti pro uživatelsky definované tabulkové funkce Pythonu v katalogu Unity
Uživatelem definované funkce tabulek (UDTFs) v Unity Catalog Pythonu teď můžou používat vlastní závislosti pro externí knihovny, takže můžete používat balíčky nad rámec toho, co je dostupné v prostředí Databricks Runtime. Viz Rozšíření UDF pomocí vlastních závislostí.
Nové geoprostorové funkce
Nyní jsou k dispozici následující geoprostorové funkce:
-
st_estimatesridfunkce: Odhaduje nejlepší předpokládaný identifikátor prostorového odkazu (SRID) pro vstupní geometrii. -
st_force2dfunkce: Převede geografii nebo geometrii na 2D reprezentaci. -
st_nringsfunkce: Spočítá celkový počet kroužků v polygonu nebo multipolygonu, včetně vnějších i vnitřních kroužků. -
st_numpointsfunkce: Spočítá počet neprázdných bodů v zeměpisné oblasti nebo geometrii.
Podpora Photon pro geoprostorové funkce
Následující geoprostorové funkce se teď spouštějí na modulu Photon, aby se zrychlil výkon:
Upgrady knihoven
V této verzi nebyly upgradovány žádné knihovny.
Apache Spark
Databricks Runtime 18.1 zahrnuje Apache Spark 4.1.0. Tato verze zahrnuje všechny opravy a vylepšení Sparku zahrnuté v Databricks Runtime 18.0 a také následující další opravy chyb a vylepšení Sparku:
- SPARK-54316 Vrátit zpět "Znovu použít [SC-213971] Konsolidovat GroupPandasIterUDFSerializer s GroupPandasUDFSerializer"
- SPARK-54116 Vrátit zpět "[SC-213108][SQL] Přidání podpory režimu mimo haldu pro LongHashedRelation
- SPARK-55350 Oprava ztráty počtu řádků při vytváření datového rámce z pandas s 0 sloupci
- SPARK-55364 Učinit protokol SupportsIAdd a SupportsOrdering rozumnějším
- SPARK-53656 Refaktoring MemoryStream pro použití SparkSession místo SQLContext
-
SPARK-55472 Zvýšení
AttributeErrorz metod odebraných v knihovně pandas 3 - SPARK-55224 Použití datového typu Spark jako referenční hodnoty při serializaci Pandas-Arrow
- SPARK-55402 Přesun streamingSourceIdentifyingName z catalogTable do DataSource
- SPARK-55459 Vyřešit trojnásobnou regresi výkonu v applyInPandas pro velké skupiny
- SPARK-55317 Přidání uzlu logického plánu Sekvenčního unionu a pravidla plánování
-
SPARK-55424 Explicitně předejte název řady v
convert_numpy -
SPARK-55175 Extrahovat
to_pandastransformátor ze serializátorů - SPARK-55304 Zavedení podpory řízení přístupu a triggeru.AvailableNow ve zdroji dat Pythonu – čtečka streamování
-
SPARK-55382 Nastavit
Executorpro protokolováníRunning Spark version - SPARK-55408 Zpracování neočekávaných chyb argumentů klíčových slov souvisejících s funkcí datetime ve verzi 3 knihovny pandas
- SPARK-55345 Nepředávejte jednotku ani ji nenastavujte jako Timedelta pro pandas 3
- SPARK-54759 Správně chránit logiku ve Správci proměnných skriptů po zavedení kurzoru
- SPARK-55409 Řešení chyby neočekávaného klíčového argumentu u read_excel s pandas 3
- SPARK-55403 Oprava chyby v testech grafů s knihovnou pandas verze 3.
- SPARK-55256 Vrátit zpět "[SC-218596][SQL] Podpora IGNOROVAT HODNOTY NULL / RESPECT NULLS pro array_agg a collect_list"
- SPARK-55256 Podpora IGNORE NULLS / RESPECT NULLS pro array_agg a collect_list
-
SPARK-55395 Zakázání mezipaměti RDD v
DataFrame.zipWithIndex - SPARK-55131 Zavedení nového oddělovače slučovacího operátoru pro RocksDB do prázdného řetězce pro zřetězení bez oddělovače
- SPARK-55376 Nastavení argumentu numeric_only ve funkcích groupby přijímá pouze logickou hodnotu s knihovnou pandas 3
-
SPARK-55334 Povolit
TimestampTypeaTimestampNTZTypevconvert_numpy - SPARK-55281 Přidání ipykernelu a IPythonu do seznamu volitelných balíčků mypy
- SPARK-55336 Nechat createDF využít logiku create_batch pro oddělení
-
SPARK-55366 Odebrat
errorOnDuplicatedFieldNamesz Python UDFs (uživatelsky definovaných funkcí) - SPARK-54759 Podpora skriptování kurzoru SQL
-
SPARK-55302 Opravit vlastní metriky v případě
KeyGroupedPartitioning - SPARK-55228 Implementace Dataset.zipWithIndex v rozhraní Scala API
- SPARK-55373 Zlepšení chybové zprávy noHandlerFoundForExtension
- SPARK-55356 Podpora aliasu pro PIVOT klauzuli
-
SPARK-55359 Zvýšit úroveň
TaskResourceRequestnaStable - SPARK-55365 Zobecnění nástrojů pro převod matic šipek
- SPARK-55106 Přidat integrační test Repartition pro operátory TransformWithState
- SPARK-55086 Přidejte DataSourceReader.pushFilters do dokumentace k rozhraní API pro zdroje dat v Pythonu.
- SPARK-46165 Přidání podpory prvku DataFrame.all axis=None
- SPARK-55289 Vrátit zpět "[SC-218749][SQL] Opravit nespolehlivý test in-set-operations.sql zakázáním všesměrového spojení"
- SPARK-55297 Obnovení typu timedelta dtype na základě původního typu dtype
- SPARK-55291 Předzpracovat hlavičky metadat během konstrukce interceptoru klienta
-
SPARK-55155 Znovu použít "[SC-218401][SQL] Podpora skládacích výrazů v
SET CATALOGpříkazu - SPARK-55318 Optimalizace výkonu pro vector_avg/vector_sum
- SPARK-55295 Rozšíření funkce ST_GeomFromWKB tak, aby převzala volitelnou hodnotu SRID
- SPARK-55280 Přidání protokolu GetStatus pro podporu monitorování stavu provádění
- SPARK-54969 Implementace nového převodu z arrow na pandas>
- Extrahujte SPARK-55176 převodník
arrow_to_pandasdo ArrowArrayToPandasConversion - SPARK-55111 Vrátit "[SC-217817][SC-210791][SS] Nedokončená detekce přeoddělení při restartování dotazu"
-
SPARK-55252 Zlepšit
HttpSecurityFilterpro přidáníContent-Security-Policyzáhlaví - SPARK-55111 Detekce nedokončeného opětovného dělení při restartování dotazu
- SPARK-55105 Přidání integračního testu pro operátor join
- SPARK-55260 Implementace podpory zápisu Parquet pro geografické typy
- SPARK-54523 Oprava výchozího rozlišení během průchodu variant
- SPARK-55328 Opětovné použití PythonArrowInput.codec v GroupedPythonArrowInput
- SPARK-55246 Přidání testu pro Pyspark TWS a TWSInPandas a oprava chyby StatePartitionAllColumnFamiliesWriter
- SPARK-55289 Oprava nespolehlivého testu in-set-operations.sql zakázáním vysílacího spojení
- SPARK-55040 Refaktoring TaskContext a související pracovní protokol v rámci opravy motoru PySpark.
- Spark-47996 podporuje křížové sloučení v rozhraní PANDAS API
- SPARK-55031 Přidání výrazů agregační funkce vektoru avg/sum
- SPARK-54410 Oprava podpory čtení pro anotaci logického typu varianty
- SPARK-54776 Vraťte se zpět [SC-216482][SQL] Vylepšili jsme zprávu protokolů týkající se funkce lambda s UDF SQL.
- SPARK-55123 Přidat SequentialUnionOffset pro sledování sekvenčního zpracování zdroje
- SPARK-54972 Vylepšení poddotazů NOT IN s nenulovými sloupci
- SPARK-54776 Vylepšili jsme zprávu protokolů týkající se funkce lambda s UDF SQL.
-
SPARK-53807 Oprava problémů se současným stavem mezi
unlockareleaseAllLocksForTaskvBlockInfoManager - SPARK-51831 Vrátit "[SC-207389][SQL] Pruning sloupců s existsJoin pro Datasource V2"
-
SPARK-54881 Zlepšení
BooleanSimplificationzpracování negace spojení a disjunkce v jednom průchodu - SPARK-54696 Vyčistit ArrowBuffers v Connect
-
SPARK-55009 Odstranit nepotřebnou kopii paměti z konstruktoru
LevelDBTypeInfo/RocksDBTypeInfo.Index - SPARK-54877 Možnost konfigurovat zobrazení zásobníkové stopy na chybové stránce uživatelského rozhraní
- SPARK-51831 Prořezávání sloupců s existsJoinen pro Zdroj dat V2
-
SPARK-55285 Oprava inicializace
PythonArrowInput - SPARK-53960 Umožnit approx_top_k_accumulate/combine/estimate zpracovat NULL hodnoty
-
SPARK-55155 Vrátit "[SC-218401][SQL] Podpora skládacích výrazů v
SET CATALOGpříkazu" -
SPARK-55155 Podpora skládacích výrazů v
SET CATALOGpříkazu - SPARK-49110 Vrátit zpět "[SC-218594][SQL] Zjednodušit SubqueryAlias.metadataOutput, aby vždy šířilo sloupce metadat"
- SPARK-54399 Implementace funkce st_setsrid v scala a PySpark
- SPARK-49110 Zjednodušit subqueryAlias.metadataOutput, aby vždy propagoval sloupce metadat
- SPARK-55133 Oprava podmínky závodu v rámci správy životního cyklu pro IsolatedSessionState
- SPARK-55262 Blokování geografických typů ve všech zdrojích dat založených na souborech s výjimkou Parquet
- SPARK-54202 Povolit přetypování z GeometryType(srid) na GeometryType(ANY)
- SPARK-54142 Implementace funkce st_srid v jazyce Scala a PySpark
- SPARK-55237 Potlačení otravných zpráv při vyhledávání neexistující databáze
- SPARK-55040 Zrušit změny "[SC-217628][PYTHON] Refactoring TaskContext a související pracovní protokol"
- SPARK-55259 Implementace převodu schématu Parquet pro geografické typy
- SPARK-55282 Nepoužívejte worker_util na straně ovladače
- SPARK-54151 Zavedení architektury pro přidávání funkcí ST v PySparku
- SPARK-55194 Odebrání GroupArrowUDFSerializer přesunutím zploštěné logiky do mapperu
- SPARK-55020 Zakázání gc při provádění příkazu gRPC
- SPARK-55053 Refaktoring pracovníků analýzy zdrojů dat a udtf, aby měli jednotný vstupní bod
- SPARK-55040 Přepracování TaskContext a souvisejícího protokolu pracovníka
- SPARK-55244 Použít np.nan jako výchozí hodnotu pro stringové typy v pandas
- SPARK-55225 Obnovení do původního typu dtype pro datetime
- SPARK-55154 Odeberte rychlou cestu k pd. Řada pro pandas 3
- SPARK-55030 Přidání podpory vektorových norm/normalizačních výrazů funkcí
- SPARK-55202 Oprava UNEXPECTED_USE_OF_PARAMETER_MARKER při použití parametru...
- SPARK-54201 Umožnit převod z GeographyType(srid) na GeographyType(ANY)
- SPARK-54244 Zavedení podpory převodu typů pro datové typy GEOMETRY
- SPARK-54160 Implementace výrazu ST_SetSrid v SQL
- SPARK-55046 PySpark – přidání metriky doby zpracování udf
- SPARK-54101 Představení architektury pro přidávání funkcí ST v jazyce Scala
- SPARK-54683 Sjednocení blokování geografických a časových typů
- SPARK-55249 Umožnit funkci DataFrame.toJSON vrátit reprezentaci datového rámce jako JSON
- SPARK-54521 Přidat podporu pro převod do a z WKB pro typ Geometrie
- SPARK-54162 Povolit přetypování z GeographyType na GeometryType
- SPARK-55146 Recheckin State Repartition API pro PySpark
- SPARK-55140 Nemapovat předdefinované funkce na numpy verze pro pandas 3
- SPARK-54243 Zavedení podpory převodu typů pro datové typy GEOGRAPHY
- SPARK-55058 Vyvolání chyby u nekonzistentních metadat kontrolních bodů
- SPARK-55108 Použijte nejnovější pandas stuby pro kontrolu typů
- SPARK-54091 Implementace výrazu ST_Srid v SQL
- SPARK-55104 Přidání podpory Spark Connect pro DataStreamReader.name()
- SPARK-54996 Zpráva o čase příjezdu pro záznamy z nízkolatenčního paměťového toku
- SPARK-55118 Nahrazení importů zástupných znaků ASM Opcodes
- SPARK-54365 Přidání testu integrace repartition pro agregace, odstranění duplicitních dat, FMGWS a operátory SessionWindow
- SPARK-55119 Oprava obslužného zpracování Continue: zabránění INTERNAL_ERROR a nesprávnému přerušení podmíněných příkazů
- SPARK-54104 Zakázat přetypování geoprostorových typů do/z jiných datových typů
- SPARK-55240 Refaktoring zpracování LazyTry stacktrace pro použití wrapperu místo potlačené výjimky
-
SPARK-55238 Přesun logiky mapování geografických SRS z
main/scaladomain/java -
SPARK-55179 Přeskočení dychtivého ověřování názvu sloupce v
df.col_name - SPARK-55055 Podpora SparkSession.Builder.create pro PySpark Classic
- SPARK-55186 Umožňuje ArrowArrayToPandasConversion.convert_legacy vrátit pd. Datový rámec
- SPARK-54079 Zavedení architektury pro přidávání výrazů ST v Catalystu
- SPARK-54096 Podpora mapování prostorového referenčního systému v PySpark
- SPARK-54801 Označení několika nových konfigurací 4.1 jako interních
- SPARK-55146 Vrátit zpět "[SC-217936][SC-210779][SS] Rozhraní API pro přerozdělení stavu pro PySpark"
- SPARK-54559 Předání možnosti profileru pomocí runnerConf
- SPARK-55205 Oprava testů, kde se předpokládá, že typ řetězce se konvertuje na objekt
- SPARK-55171 Oprava profileru paměti v iteru UDF
- SPARK-55226 Rozpoznávání data a času s jinými jednotkami než [ns]
- SPARK-55027 Přesun writeConf do PythonWorkerUtils
-
SPARK-55197 Extrakce
_write_stream_startpomocné funkce pro odstranění duplicitní signální logiky START_ARROW_STREAM - SPARK-54179 Přidání nativní podpory pro Apache Tuple Sketches (#190848) (#191111)
- SPARK-55151 Oprava RocksDBSuite testWithStateStoreCheckpointIds
- SPARK-55146 Rozhraní API pro dělení stavu pro PySpark
- SPARK-54232 Povolení serializace šipky pro typy Geografie a geometrie
- SPARK-53957 Podpora GEOGRAFIE a GEOMETRIE v SpatialReferenceSystemMapper
- SPARK-55169 Použití ArrowBatchTransformer.flatten_struct v ArrowStreamArrowUDTFSerializer
-
SPARK-55134 Opravit
BasicExecutorFeatureStepaby házelIllegalArgumentExceptionpři špatných konfiguracích CPU pro exekutory - SPARK-54166 Zavedení kodérů typů pro geoprostorové typy v PySparku
-
SPARK-55138 Opravit
convertToMapDatavyvolávání chybyNullPointerException - SPARK-55168 Použijte ArrowBatchTransformer.flatten_struct v GroupArrowUDFSerializer
- SPARK-55032 Refaktoring profilátorů v workers.py
- SPARK-54990 Oprava způsobu implementace classproperty v session.py
- SPARK-55076 Oprava problému s nápovědou typu v ml/mllib a přidání požadavku na scipy
- SPARK-55162 Extrakce transformátorů z ArrowStreamUDFSerializer
- SPARK-55121 Přidání DataStreamReader.name() do klasického PySparku
- SPARK-54169 Představení typů zeměpisu a geometrie v zapisovači šipek
- SPARK-51658 Zavedení obalových formátů pro geometrii a geografii v paměti
- SPARK-54110 Zavedení kodérů typů pro typy Geografie a geometrie
- SPARK-54956 Sjednocení mechanismu opakování při neurčitém shufflování
-
SPARK-55137 Refaktorovat
GroupingAnalyticsTransformeraAnalyzerkód - SPARK-54103 Představení tříd geografie a geometrie na straně klienta
- SPARK-55160 Přímé předání vstupního schématu serializátorům
- SPARK-55170 Extrahování vzoru čtení seskupených streamů ze serializátorů
-
SPARK-55125 Odebrání redundantních
__init__metod v serializátorech se šipkami - SPARK-55126 Odebrání nepoužívaného časového pásma a assign_cols_by_name ze ArrowStreamArrowUDFSerializer
- SPARK-54980 Převedení úrovně izolace JDBC na řetězec
- SPARK-55051 Bajtový řetězec přijímá KiB, MiB, GiB, TiB, PiB
- SPARK-55025 Zlepšení výkonu knihovny pandas pomocí seznamového porozumění
- SPARK-46165 Přidání podpory pro pandas.DataFrame.all axis=1
- SPARK-55037 Opětovné implementace pozorování bez použití QueryExecutionListener
- SPARK-54965 Oddělit zastaralý pa.Array –> pd.Series konvertor
- SPARK-55016 Učinit SQLConf přímým atributem SparkSession, aby se zabránilo přetečení zásobníku
- SPARK-55091 Omezení volání RPC Hivu pro DROP TABLE příkaz
- SPARK-55097 Oprava problému, kde znovu přidáváním artefaktů v mezipaměti dojde k tichému odstranění bloků.
- SPARK-55026 Optimalizovat BestEffortLazyVal.
- SPARK-55091 Vrátit "[SC-217410][SQL] Snížení volání RPC pro DROP TABLE příkaz v Hive"
- SPARK-54590 Podpora checkpointu V2 pro rewriter a repartitioning
- SPARK-55016 Učinit SQLConf přímým atributem SparkSession, aby se zabránilo přetečení zásobníku
- SPARK-55091 Omezení volání RPC Hivu pro DROP TABLE příkaz
- SPARK-55016 Vrátit zpět "[SC-217401][SQL] Nastavit SQLConf jako přímou vlastnost SparkSession, aby se zabránilo přetečení zásobníku
- SPARK-55016 Učinit SQLConf přímým atributem SparkSession, aby se zabránilo přetečení zásobníku
- SPARK-55098 Vektorizované funkce definované uživatelem s řízením velikosti výstupní dávky selžou a mají za následek únik paměti
- SPARK-54824 Přidání podpory pro multiGet a deleteRange pro úložiště stavů Rocksdb
- SPARK-55054 Přidání podpory IDENTIFIED BY pro streamované funkce vracející hodnoty tabulky
- SPARK-55029 Propagace názvu identifikujícího zdroj streamování skrze kanál řešení
- SPARK-55071 Učinit, aby spark.addArtifact fungoval s cestami Windows
- SPARK-54103 Vrátit zpět "[SC-210400][Geo][SQL] Zavedení tříd geografie a geometrie na straně klienta"
- SPARK-54103 Představení tříd geografie a geometrie na straně klienta
- SPARK-54033 Zavedení geoprostorových prováděcích tříd Catalyst na straně serveru
- SPARK-54176 Představení datových typů Geografie a geometrie v PySpark Connect
- SPARK-55089 Oprava výstupního schématu toJSON
- SPARK-55035 Vyčištění náhodného prohazování v podřízených spuštěních
-
SPARK-55036 Přidání
ArrowTimestampConversionpro zpracování časových pásem šipek - SPARK-54873 Zjednodušení rozlišení V2TableReference, protože ho může obsahovat pouze dočasné zobrazení
- SPARK-52828 Učinit hashování pro dokončené řetězce nezávislé na kolaci.
- SPARK-54175 Přidání typů geografie a geometrie do proto Spark Connect
-
SPARK-54961 Zavést
GroupingAnalyticsTransformer - SPARK-55088 Zachovat metadata do/z_arrow_type/schématu
- SPARK-55070 Povolit skrytý sloupec v rozlišení sloupců datového rámce
- SPARK-55044 Zachování metadat v toArrowSchema/fromArrowSchema
- SPARK-55043 Oprava časového cestování pomocí poddotazů obsahujících odkazy na tabulky
-
SPARK-54987 Změna výchozí hodnoty prefer_timestamp_ntz na True v
from_arrow_type/from_arrow_schema - SPARK-54866 Refaktorovat funkce drop/RefreshFunction, aby se zabránilo vyhledávání katalogu
- SPARK-55024 Použijte chybu REQUIRES_SINGLE_PART_NAMESPACE pro ověření oboru názvů katalogu relací
- SPARK-54992 Nahrazení přetypování kontrolou modulu runtime pro make_timestamp
- SPARK-55024 Vrátit změnu "[SC-216987][SQL] Použít chybu REQUIRES_SINGLE_PART_NAMESPACE pro ověření oboru názvů katalogu relace"
- SPARK-54866 Vrátit zpět "[SC-216753][SQL] Přepracovat Drop/RefreshFunction, aby se zabránilo dotazování na katalog"
- SPARK-55024 Použijte chybu REQUIRES_SINGLE_PART_NAMESPACE pro ověření oboru názvů katalogu relací
- SPARK-54866 Refaktorovat funkce drop/RefreshFunction, aby se zabránilo vyhledávání katalogu
- SPARK-54991 Správná typová anotace pro soubor streaming/listener.py
- SPARK-54925 Přidání schopnosti získat výpis vláken pro PySpark
- SPARK-54803 Podpora BY NAME s INSERT ... NAHRADIT WHERE
- SPARK-54785 Přidání podpory pro agregace binárních skic v KLL (#188370) (#188860)
- SPARK-54949 Přesunutí souboru pyproject.toml do kořenového adresáře úložiště
- SPARK-54954 Oprava vzdálených souvisejících typových náznaků v util.py
- SPARK-54922 Sjednocení způsobu předávání argumentů pracovníkům Pythonu
- SPARK-54870 Podpora kolace pro char/varchar a CTAS/RTAS
-
SPARK-54762 Oprava
_create_converteracovertpřetížení podpisu - SPARK-55019 Povolit DROP TABLE odstranění zobrazení
- SPARK-53103 Vyvolání chyby, pokud adresář stavu není při spuštění dotazu prázdný
- SPARK-54995 Vytvoření rychlé cesty pro foreachPartition
- SPARK-54634 Přidání jasné chybové zprávy pro prázdný predikát IN
- SPARK-54984 Provádění pře-rozdělení stavu a integrace se State Rewriter
- SPARK-54443 Integrace PartitionKeyExtraktoru do čtečky pro přerozdělení oddílů
- SPARK-54907 Zavedení pravidla analyzátoru NameStreamingSources pro vývoj zdroje streamování
- SPARK-54609 Aktualizace konfigurace typu čas tak, aby odpovídala konfiguraci OSS
- SPARK-54988 Zjednodušení implementace ObservationManager.tryComplete
- SPARK-54959 Úplné zakázání opakování při nesouladu kontrolních součtů shuffle, když je povoleno shuffle založené na push
- SPARK-54940 Přidat testy pro odvození typu pa.scalar
- SPARK-54634 Vrátit zpětně "[SC-216478][SQL] Přidání jasné chybové zprávy pro prázdný predikát IN"
- SPARK-54337 Přidání podpory pro PyCapsule do Pysparku
- SPARK-54634 Přidání jasné chybové zprávy pro prázdný predikát IN
- SPARK-53785 Zdroj paměti pro RTM
- SPARK-54883 Vyčištění chybových zpráv pro rozhraní příkazového řádku a přidání nového režimu chyb DEBUG
- SPARK-54713 Přidání podpory pro výrazy funkcí podobnosti/vzdálenosti vektorů.
- SPARK-54962 Oprava zpracování celých čísel s možnou hodnotou null v Pandas UDF
- SPARK-54864 Přidání uzlů rCTE do NormalPlanu
- SPARK-53847 Přidání ContinuousMemorySink pro testování režimu v reálném čase
- SPARK-54865 Přidání metody foreachWithSubqueriesAndPruning do QueryPlan
- SPARK-54930 Odstranit redundantní volání _accumulatorRegistry.clear() v worker.py
- SPARK-54929 Oprava resetování taskContext._resources v cyklu způsobí uložení pouze posledního prostředku
-
SPARK-54963 Mějte na paměti
createDataFrameprefer_timestamp_ntz, kdyžinfer_pandas_dict_as_map -
SPARK-54920 Přesun logiky extrakce analýzy seskupení do společného modulu
GroupingAnalyticsExtractor - SPARK-54924 Rewriter pro čtení stavu, transformaci a zápis nového stavu
- SPARK-54872 Sjednocení výchozího zpracování hodnot sloupců mezi příkazy v1 a v2
- SPARK-54905 Zjednodušení implementace foreachWithSubqueries v QueryPlan
- SPARK-54682 Podpora zobrazení parametrů v části DESCRIBE PROCEDURE
-
SPARK-54933 Vyhněte se opakovanému načítání konfigurace
binary_as_bytesvtoLocalIterator - SPARK-54872 Vrátit zpět "[SC-216260][SQL] Sjednocení zpracování výchozí hodnoty sloupce mezi příkazy v1 a v2"
- SPARK-51936 ReplaceTableAsSelect by měla místo připojení přepsat novou tabulku.
- SPARK-54771 Odebrání pravidla ResolveUserSpecifiedColumns z RuleIdCollection
- SPARK-54872 Sjednocení výchozího zpracování hodnot sloupců mezi příkazy v1 a v2
- SPARK-54313 Přidání parametru --extra-properties-file pro vrstvení konfigurace
- SPARK-54468 Přidání chybějících tříd chyb
- SPARK-46741 Tabulka mezipaměti s CTE by měla fungovat, když je CTE v poddotazu ve výrazu plánu
- SPARK-46741 Tabulka mezipaměti s CTE nebude fungovat
- SPARK-54615 Vždy předejte runner_conf pracovníkovi Pythonu.
- SPARK-53737 Přidání triggeru režimu v reálném čase
- SPARK-54541 Přejmenování _LEGACY_ERROR_TEMP_1007 a přidání sqlState
- SPARK-54718 Zachování názvů atributů během CTE newInstance()
- SPARK-54621 Sloučit do sady aktualizací * zachovat vnořená pole, pokud ... je povolená funkce coerceNestedTypes
- SPARK-54595 Zachování stávajícího chování MERGE INTO bez SCHEMA klauzule EVOLUTION
- SPARK-54903 Umožnění funkce to_arrow_schema/to_arrow_type pro nastavení časového pásma
- SPARK-52326 Přidat oddíly související s událostí ExternalCatalogEvent a zveřejnit je v odpovídajících operacích.
- SPARK-54541 Vrátit zpět "[SC-215212][SQL] Přejmenovat _LEGACY_ERROR_TEMP_1007 a přidat sqlState
-
SPARK-54578 Provést vyčištění kódu na
AssignmentUtils - SPARK-54830 Povolit ve výchozím nastavení opakování nejednoznačného přerozdělení na základě kontrolního součtu
- SPARK-54525 Zakázání vnořeného koercování struktury v MERGE INTO pomocí konfigurace
- SPARK-53784 Další zdrojová rozhraní API potřebná k podpoře provádění RTM
- SPARK-54496 Oprava mechanismu evoluce schématu pro rozhraní API datových rámců
- SPARK-54835 Vyhněte se zbytečným temp QueryExecution pro vnořené spouštění příkazů
- SPARK-54541 Přejmenování _LEGACY_ERROR_TEMP_1007 a přidání sqlState
- SPARK-54289 Povolit MERGE INTO zachování existujících polí struktury pro UPDATESET * v případě, že zdrojová struktura obsahuje méně vnořená pole než cílová struktura
- SPARK-54720 Přidání SparkSession.emptyDataFrame se schématem
- SPARK-54800 Změna výchozí implementace pro isObjectNotFoundException
- SPARK-54686 Uvolnění kontrol tabulky DSv2 v dočasných zobrazeních a povolení nových sloupců nejvyšší úrovně
- SPARK-54619 Přidání základní kontroly pro čísla konfigurace
- SPARK-54726 Vylepšení výkonu pro InsertAdaptiveSparkPlan
- SPARK-51966 Nahrazení select.select() pomocí select.poll() při spuštění v operačním systému POSIX
- SPARK-54749 Oprava nesprávné metriky numOutputRows ve OneRowRelationExec
- SPARK-54411 Představení zapisovače oddílů, který podporuje multi-CF
- SPARK-54835 Vraťte se na [SC-215823][SQL] Vyhněte se nepotřebným temp QueryExecution pro vnořené spuštění příkazu.
- SPARK-54867 Zavedení obálky NamedStreamingRelation pro identifikaci zdroje během analýzy
- SPARK-54835 Vyhněte se zbytečným temp QueryExecution pro vnořené spouštění příkazů
- SPARK-54491 Oprava vložení do dočasného zobrazení v případě selhání tabulky DSv2
- SPARK-54871 Ořízněte aliasy ze skupinových a agregačních výrazů před provedením analytiky seskupení
- SPARK-51920 Oprava zpracování typu namedTuple pro transfromWithState
- SPARK-54526 Přejmenování _LEGACY_ERROR_TEMP_1133 a přidání sqlState
- SPARK-54424 Selhání při obnovení mezipaměti nesmí způsobit selhání operací
-
SPARK-54894 Oprava předávání argumentů
to_arrow_type - SPARK-53448 Převod datového rámce PySpark se sloupcem Variant na Pandas způsobí chybu
- SPARK-54882 Odebrání starší verze PYARROW_IGNORE_TIMEZONE
- SPARK-54504 Oprava aktualizace verze pro tabulky DSv2 s poddotazy
- SPARK-54444 Uvolnění kontrol tabulky DSv2 za účelem obnovení předchozího chování
- SPARK-54859 Referenční dokumentace k rozhraní API PySpark UDF s Arrow jako výchozím nástrojem
- SPARK-54387 Revert "[ES-1688666] Revert "[SC-212394][SQL] Oprava recachingu tabulek DSv2"
- SPARK-54753 oprava úniku paměti u ArtifactManageru
- SPARK-54387 Vrátit "[SC-212394][SQL] Oprava recachování tabulek DSv2"
- SPARK-54436 Oprava formátování chyb pro nekompatibilní kontroly metadat tabulek
-
SPARK-54849 Upgrade minimální verze
pyarrowna verzi 18.0.0 - SPARK-54022 Učinit rozpoznávání tabulek DSv2 citlivé na tabulky v mezipaměti
- SPARK-54387 Oprava rekonstruování tabulek DSv2
- SPARK-53924 Opětovné načtení tabulek DSv2 v zobrazeních vytvořených pomocí plánů pro každý přístup k zobrazení
-
SPARK-54561 Podpora bodu přerušení pro
run-tests.py - SPARK-54157 Oprava aktualizace tabulek DSv2 v datové sadě
- SPARK-54830 Vrátit "[CORE] Povolit opakování neurčitého shuffle na základě kontrolního součtu jako výchozí nastavení"
- SPARK-54861 Po dokončení úlohy resetujte název vlákna úlohy na IDLE_TASK_THREAD_NAME
- SPARK-54834 Přidání nových rozhraní SimpleProcedure a SimpleFunction
- SPARK-54760 DelegatingCatalogExtension jako relační katalog podporuje funkce V1 i V2.
- SPARK-54685 Odebrání redundantních odpovědí na pozorované metriky
-
SPARK-54853 Vždy zkontrolujte
hive.exec.max.dynamic.partitionsna straně Sparku. - SPARK-54840 Předběžné přidělení seznamu orcList
- SPARK-54830 Povolit ve výchozím nastavení opakování nejednoznačného přerozdělení na základě kontrolního součtu
-
SPARK-54850 Vylepšit
extractShuffleIdsnajítAdaptiveSparkPlanExeckdekoli ve stromu plánu - SPARK-54843 Try_to_number výraz nefunguje pro zadání prázdného řetězce
- SPARK-54556 Vrácení zpět úspěšných fází mapování při přerozdělování, když je zjištěna neshoda kontrolního součtu.
- SPARK-54760 Vrátit zpět "[SC-215670][SQL] DelegatingCatalogExtension jako katalog relací podporuje funkce V1 i V2"
- SPARK-54760 DelegatingCatalogExtension jako relační katalog podporuje funkce V1 i V2.
- SPARK-54818 TaskMemoryManager alokace selhala a měla by zaznamenat chybový zásobník, aby se pomohlo zkontrolovat využití paměti.
-
SPARK-54827 Přidání pomocné funkce
TreeNode.containsTag - SPARK-54777 Vrátit zpět "[SC-215740][SQL] Změna zpracování chyb dropTable v JDBCTableCatalog.dropTable(...)"
- SPARK-54777 Změna zpracování chyb dropTable v JDBCTableCatalog.dropTable(...)
-
SPARK-54817 Refaktorovat
Unpivotlogiku řešení naUnpivotTransformer -
SPARK-54820 Zajistit
pandas_on_spark_typekompatibilitu s numpy 2.4.0 -
SPARK-54799 Refaktorování
UnpivotCoercion - SPARK-54754 OrcSerializer by neměl parsovat schéma při každém serializování
- SPARK-54226 Rozšíření komprese Apache Arrow na Pandas UDF
- SPARK-54787 Použití porozumění seznamu místo smyčk v knihovně pandas
-
SPARK-54690 Optimalizace
Frame.__repr__šipek nerozlišuje - SPARK-46166 Implementace pandas.DataFrame.any s axis=None
- SPARK-54696 Čištění paměťových bufferů Arrow - následné zásahy
- SPARK-54769 Odebrání mrtvého kódu v conversion.py
- SPARK-54787 Použití porozumění seznamu v knihovně pandas _bool_column_labels
- SPARK-54794 Potlačení podrobných záznamů skenování
- SPARK-54782 Oprava verzí konfigurace
- SPARK-54781 Vrácení informací o mezipaměti modelu ve formátu JSON
- SPARK-54419 Offline repartition State Reader podporuje vícesloupcové rodiny
- SPARK-54722 Registrace iterované agregované UDF Pandas pro použití v SQL
-
SPARK-54762 Vrátit zpět "[SC-215422][PYTHON] Oprava
_create_converteracovertpřetížení podpisu" - SPARK-54652 Vrátit zpět "[SC-215452][SQL] Dokončení konverze IDENTIFIER()"
-
SPARK-54762 Oprava
_create_converteracovertpřetížení podpisu - SPARK-52819 Zajištění, aby byl KryoSerializationCodec serializovatelný, k opravě chyb java.io.NotSerializableException v různých případech použití
- SPARK-54711 Přidání časového limitu pro připojení vytvořeného daemonem
- SPARK-54738 Přidání podpory profileru pro Pandas Grouped Iter agregovanou UDF
- SPARK-54652 Úplný převod IDENTIFIER()
- SPARK-54581 Parametr fetchsize je u konektoru Postgres nyní nerozlišující velikost písmen.
- SPARK-54589 Konsolidace ArrowStreamAggPandasIterUDFSerializer do ArrowStreamAggPandasUDFSerializer
- SPARK-41916 Distributor Torch: Podpora více procesů torchrun na úlohu, pokud task.gpu.amount > 1
-
SPARK-54707 Přepracovat hlavní logiku řešení na
PIVOT - SPARK-54706 Zajištění práce DistributedLDAModel s místním systémem souborů
- SPARK-53616 Představení API iterátoru pro knihovnu pandas seskupené uživatelsky definované funkce agregace
- SPARK-54116 Přidání podpory režimu off-heap pro LongHashedRelation
- SPARK-54656 Refaktorovat SupportsPushDownVariants na ScanBuilder mix-in
- SPARK-54687 Přidejte zlatý soubor s řešením pro hraniční případy generátorů
- SPARK-54708 Optimalizace vyčištění mezipaměti ML s využitím opožděného vytváření adresáře
- SPARK-54116 Vrátit zpět "[SC-213108][SQL] Přidat podporu režimu mimo haldu pro LongHashedRelation"
- SPARK-54116 Přidání podpory režimu off-heap pro LongHashedRelation
- SPARK-54443 Extrahování klíčů oddílů pro všechny streamovací stavové operátory
- SPARK-54687 Vrátit zpět "[SC-214791][SQL] Přidání zlatého souboru s hraničními případy rozlišení generátorů"
- SPARK-54116 Vrátit zpět "[SC-213108][SQL] Přidat podporu režimu mimo haldu pro LongHashedRelation"
- SPARK-54687 Přidejte zlatý soubor s řešením pro hraniční případy generátorů
- SPARK-54116 Přidání podpory režimu off-heap pro LongHashedRelation
- SPARK-54420 Představení offline rozdělování StatePartitionWriter pro rodinu sloupců s jedním sloupcem
-
SPARK-54689 Nastavení
org.apache.spark.sql.pipelinesinterního balíčku a nastavení privátníhoEstimatorUtils - SPARK-54673 Refaktoring kódu analýzy syntaxe kanálu SQL pro sdílení a opakované použití
- SPARK-54668 Přidání testů pro CTE ve více podřízených operátorech
- SPARK-54669 Odebrání redundantního typování v rCTEs
- SPARK-54587 Konsolidace veškerého souvisejícího kódu runner_conf
- SPARK-54628 Odebrání všech nepotřebných explicitních argumentů super()
- SPARK-54675 Přidání konfigurovatelného časového limitu pro vynucené ukončení vlákna údržebního fondu StateStore
- SPARK-54639 Vyhněte se zbytečnému vytváření tabulek v serializátorech se šipkami
- SPARK-49635 Odstranit návrh ANSI konfigurace v chybových zprávách CAST
-
SPARK-54664 Vyčištění kódu souvisejícího s
listenerCachezconnect.StreamingQueryManager - SPARK-54640 Nahradit select.select za select.poll na UNIX systému
-
SPARK-54662 Přidat
viztraceradebugpydodev/requirements.txt - SPARK-54632 Přidání možnosti použití Ruff pro lintování
- SPARK-54585 Oprava vrácení zpět úložiště stavu, když je vlákno v přerušeném stavu
- SPARK-54172 Sloučení do evoluce schématu by mělo přidávat pouze ty sloupce, které jsou odkazované.
- SPARK-54438 Sloučení ArrowStreamAggArrowIterUDFSerializer do ArrowStreamAggArrowUDFSerializer
- SPARK-54627 Odebrání redundantních inicializací v serializátorech
- SPARK-54631 Přidání podpory pro profiler pro Arrow Grouped Iter Aggregate UDF
-
SPARK-54316 Znovu použít [SC-213971][CORE][PYTHON][SQL] Konsolidovat
GroupPandasIterUDFSerializers využitímGroupPandasUDFSerializer - SPARK-54392 Optimalizace JVM-Python komunikace pro počáteční stav TWS
- SPARK-54617 Umožnění registrace uživatelem definovaných funkcí (UDF) pro seskupenou iterativní agregaci v SQL
- SPARK-54544 Aktivace kontroly flake8 F811
-
SPARK-54650 Přesunutí konverze int do desetinného čísla na
_create_converter_from_pandas -
SPARK-54316 Zrušit "[SC-213971][CORE][PYTHON][SQL] Konsolidovat
GroupPandasIterUDFSerializersGroupPandasUDFSerializer" - SPARK-53687 Zavést WATERMARK klauzuli v příkazu SQL
-
SPARK-54316 Sloučit
GroupPandasIterUDFSerializers využitímGroupPandasUDFSerializer - SPARK-54598 Extrakce logiky pro čtení uživatelsky definovaných funkcí
-
SPARK-54622 Zvýšení úrovně
RequiresDistributionAndOrderinga jeho požadovaných rozhraní naEvolving - SPARK-54624 Zajistěte, že uživatelské jméno na stránce historie je escapované.
- SPARK-54580 Zvažte Hive 4.1 v HiveVersionSuite a HiveClientImpl.
-
SPARK-54068 Opravit
to_featherpro podporu PyArrow 22.0.0 -
SPARK-54618 Zvýšit úroveň
LocalScannaStable -
SPARK-54616 Označit
SupportsPushDownVariantsjakoExperimental -
SPARK-54607 Odebrání nepoužívané metody
toStringHelperzAbstractFetchShuffleBlocks.java - SPARK-53615 Představení rozhraní API iterátoru pro seskupenou agregaci Arrow pomocí UDF
- SPARK-54608 Vyhněte se dvojitému ukládání do mezipaměti převaděče typů v UDTF
-
SPARK-54600 Nepoužívejte pickle k ukládání a načítání modelů v
pyspark.ml.connect -
SPARK-54592 Nastavit
estimatedSizejako soukromé - SPARK-54388 Zavést třídu StatePartitionReader, která prohledává surové bajty pro Single ColFamily
- SPARK-54570 Správně předávat chybovou třídu v rámci nástroje Spark Connect
- SPARK-54577 Optimalizace volání Py4J v odvození schématu
- SPARK-54568 Vyhněte se zbytečnému převodu pomocí pandas během vytváření datového rámce z ndarray.
- SPARK-54576 Přidání dokumentace pro nové agregační funkce založené na datasketches
- SPARK-54574 Opětovné povolení FPGrowth při připojení
- SPARK-54557 Učinit možnosti CSV/JSON/XmlOptions a CSV/JSON/XmlInferSchema srovnatelnými
- SPARK-52798 Přidat funkci approx_top_k_combine
- SPARK-54446 FPGrowth podporuje lokální souborový systém ve formátu Arrow
-
SPARK-54547 Přejmenování
hostPortproměnné dohostTaskSchedulerImpl.(executorLost|logExecutorLoss)metod - SPARK-54558 Oprava vnitřní výjimky při použití obslužných rutin výjimek bez BEGIN/END
- SPARK-52923 Povolit ShuffleManageru řídit push merge během registrace shuffle operace
- SPARK-54474 Zahodit sestavu XML pro testy, které mají selhat
- SPARK-54473 Přidání podpory čtení a zápisu Avro pro typ TIME
- SPARK-54472 Přidání podpory čtení a zápisu ORC pro typ TIME
- SPARK-54463 Přidání podpory serializace CSV a deserializace pro typ TIME
- SPARK-52588 Approx_top_k: kumulujte a odhadujte
- SPARK-54461 Přidání podpory serializace XML a deserializace pro typ TIME
- SPARK-54451 Přidání serializace JSON a podpory deserializace pro typ TIME
- SPARK-54537 Oprava problému ve SparkConnectDatabaseMetaData getSchemas/getTables, kde katalogy postrádají podporu oboru názvů
- SPARK-54442 Přidání číselných převodních funkcí pro typ TIME
- SPARK-54451 Vrátit zpět "[SC-212861][SQL] Přidání serializace JSON a podpory deserializace pro typ TIME
- SPARK-54492 Přejmenování _LEGACY_ERROR_TEMP_1201 a přidání sqlState
- SPARK-54531 Představení ArrowStreamAggPandasUDFSerializer
- SPARK-54223 Přidání kontextu úlohy a datových metrik do protokolů Spouštěče Pythonu
- SPARK-54272 Přidání aggTime pro SortAggregateExec
- SPARK-53469 Schopnost vyčistit shuffle na serveru Thrift
-
SPARK-54219 Podpora konfigurace
spark.cleaner.referenceTracking.blocking.timeout - SPARK-54475 Přidání hlavního serveru, branch-4.0-client, Python 3.11
- SPARK-54451 Přidání serializace JSON a podpory deserializace pro typ TIME
- SPARK-54285 Ukládání informací o časovém pásmu do mezipaměti, aby nedocházelo k nákladnému převodu časového razítka
-
SPARK-49133 Nastavte člena
MemoryConsumer#usedjako atomický, aby se zabránilo zablokování kódu uživatele - SPARK-46166 Implementace pandas.DataFrame.any s axis=1
- SPARK-54532 Přidání podpory pro sqlstate pro PySparkException
- Inicializace SPARK-54435 spark-pipelines by měla zabránit přepsání stávajícího adresáře.
- SPARK-54247 Explicitně uzavřít socket pro util._load_from_socket
Podpora ovladačů Databricks ODBC/JDBC
Databricks podporuje ovladače ODBC/JDBC vydané v posledních 2 letech. Stáhněte si nedávno vydané ovladače a upgradujte (stáhněte rozhraní ODBC, stáhněte JDBC).
Systémové prostředí
- Operační systém: Ubuntu 24.04.3 LTS
- Java: Zulu21.42+19-CA
- Scala: 2.13.16
- Python: 3.12.3
- R: 4.5.1
- Delta Lake: 4.1.0
Nainstalované knihovny Pythonu
| Knihovna | Version | Knihovna | Version | Knihovna | Version |
|---|---|---|---|---|---|
| aiohappyeyeballs | 2.4.4 | aiohttp | 3.11.10 | aiosignal | 1.2.0 |
| annotated-doc | 0.0.4 | anotované typy | 0.7.0 | anyio | 4.7.0 |
| argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 | arro3-core | 0.6.5 |
| šíp | 1.3.0 | asttokens | 3.0.0 | astunparse | 1.6.3 |
| async-lru | 2.0.4 | attrs | 24.3.0 | automatické příkazy | 2.2.2 |
| azure-common | 1.1.28 | Azure Core | 1.37.0 | azure-identity | 1.20.0 |
| azure-mgmt-core | 1.6.0 | azure-mgmt-web | 8.0.0 | azure-storage-blob (služba pro ukládání dat na platformě Azure) | 12.28.0 |
| Služba "Azure Storage File Data Lake" | 12.22.0 | babylón | 2.16.0 | backports.tarfile | 1.2.0 |
| BeautifulSoup4 | 4.12.3 | černý | 24.10.0 | bělidlo | 6.2.0 |
| blikač | 1.7.0 | boto3 | 1.40.45 | botocore | 1.40.45 |
| nástroje pro ukládání do mezipaměti | 5.5.1 | certifikát | 2025.4.26 | cffi | 1.17.1 |
| chardet | 4.0.0 | nástroj pro normalizaci znakové sady | 3.3.2 | klikni | 8.1.8 |
| cloudpickle | 3.0.0 | Komunikace | 0.2.1 | ContourPy | 1.3.1 |
| kryptografie | 44.0.1 | cyklista | 0.11.0 | Cython | 3.1.5 |
| Agenti Databricks | 1.9.1 | Databricks SDK | 0.67.0 | dataclasses-json | 0.6.7 |
| dbus-python | 1.3.2 | debugpy | 1.8.11 | dekoratér | 5.1.1 |
| defusedxml | 0.7.1 | deltalake | 1.1.4 | Deprecated | 1.2.18 |
| distlib | 0.3.9 | převod docstringu do formátu markdown | 0.11 | provedení | 1.2.0 |
| přehled aspektů | 1.1.1 | fastapi | 0.128.0 | fastjsonschema | 2.21.1 |
| zamykání souborů | 3.17.0 | nástroje pro písma | 4.55.3 | fqdn | 1.5.1 |
| frozenlist | 1.5.0 | fsspec | 2023.5.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.28.1 | google-auth (autentizace) | 2.47.0 |
| google-cloud-core | 2.5.0 | Úložiště Google Cloud | 3.7.0 | google-crc32c | 1.8.0 |
| google-resumable-media (pro snadné stahování/ukládání mediálních dat) | 2.8.0 | googleapis-common-protos | 1.65.0 | grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.16.0 | hf-xet | 1.2.0 |
| httpcore | 1.0.9 | httplib2 | 0.20.4 | httpx | 0.28.1 |
| huggingface_hub | 1.2.4 | IDNA | 3.7 | importlib_metadata | 8.5.0 |
| časovat/skloňovat | 7.3.1 | iniconfig | 1.1.1 | ipyflow-core je jádrová komponenta systému ipyflow | 0.0.209 |
| ipykernel | 6.29.5 | ipython | 8.30.0 | ipython-genutils | 0.2.0 |
| ipywidgets | 7.8.1 | isodate | 0.7.2 | isodurace | 20.11.0 |
| jaraco.collections | 5.1.0 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
| jaraco.text | 3.12.1 | Jedi | 0.19.2 | Jinja2 | 3.1.6 |
| chvění | 0.12.0 | jmespath | 1.0.1 | joblib | 1.4.2 |
| json5 | 0.9.25 | jsonpatch | 1.33 | JSON ukazatel | 3.0.0 |
| jsonschema | 4.23.0 | Specifikace JSON schema | 2023.7.1 | jupyter události | 0.12.0 |
| jupyter-lsp | 2.2.5 | klient Jupyter | 8.6.3 | jupyter_core | 5.7.2 |
| jupyter_server | 2.15.0 | terminály_jupyter_server | 0.5.3 | jupyterlab | 4.3.4 |
| jupyterlab_pygments | 0.3.0 | jupyterlab_server | 2.27.3 | jupyterlab_widgets | 1.1.11 |
| kiwisolver | 1.4.8 | langchain-core | 1.2.6 | langchain-openai | 1.1.6 |
| langsmith | 0.6.1 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
| lazr.uri | 1.0.6 | litellm | 1.75.9 | markdown:it-py | 2.2.0 |
| MarkupSafe | 3.0.2 | maršmeloun | 3.26.2 | matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | Mccabe | 0.7.0 | mdurl | 0.1.0 |
| špatné naladění | 3.1.2 | mlflow-skinny | 3.8.1 | mmh3 | 5.2.0 |
| more-itertools | 10.3.0 | MSAL | 1.34.0 | msal-extensions | 1.3.1 |
| vícejazyčný slovník | 6.1.0 | mypy-extensions | 1.0.0 | nbclient | 0.10.2 |
| nbconvert | 7.16.6 | nbformat | 5.10.4 | nest-asyncio | 1.6.0 |
| nodeenv | 1.10.0 | poznámkový blok | 7.3.2 | notebook_shim | 0.2.4 |
| numpy (knihovna pro numerické výpočty v Pythonu) | 2.1.3 | oauthlib | 3.2.2 | openai | 2.14.0 |
| opentelemetry-api | 1.39.1 | opentelemetry-proto | 1.39.1 | opentelemetry-sdk | 1.39.1 |
| opentelemetry-sémantické-konvence | 0,60b1 | orjson | 3.11.5 | přepíše | 7.4.0 |
| balení | 24,2 | pandas | 2.2.3 | pandocfilters | 1.5.0 |
| Parso | 0.8.4 | specifikace cesty | 0.10.3 | bábovka | 1.0.1 |
| pexpect | 4.8.0 | polštář | 11.1.0 | pip | 25.0.1 |
| platformdirs | 4.3.7 | plotly | 5.24.1 | Pluggy (nástroj pro správu pluginů v Pythonu) | 1.5.0 |
| prometheus_client | 0.21.1 | nástroj "prompt-toolkit" | 3.0.43 | propcache | 0.3.1 |
| proto-plus | 1.27.0 | protobuf | 5.29.4 | psutil | 5.9.0 |
| psycopg2 | 2.9.11 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| pyarrow | 21.0.0 | pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 |
| pyccolo | 0.0.71 | pycparser | 2.21 | Pydantic (Python knihovna pro validaci a nastavení dat) | 2.10.6 |
| pydantic_core | 2.27.2 | pyflakes | 3.2.0 | Pygments | 2.19.1 |
| PyGObject | 3.48.2 | pyiceberg | 0.10.0 | PyJWT | 2.10.1 |
| pyodbc | 5.2.0 | pyparsing | 3.2.0 | pyright | 1.1.394 |
| pyroaring | 1.0.3 | pytest | 8.3.5 | python-dateutil | 2.9.0.post0 |
| python-dotenv | 1.2.1 | python-json-logger (Python knihovna pro logování do formátu JSON) | 3.2.1 | python-lsp-jsonrpc | 1.1.2 |
| python-lsp-server | 1.12.2 | Pytoolconfig | 1.2.6 | knihovna pytz pro zpracování časových zón v Pythonu | 2024.1 |
| PyYAML | 6.0.2 | pyzmq | 26.2.0 | odkazování | 0.30.2 |
| regulární výraz | 2024.11.6 | požadavky | 2.32.3 | requests-toolbelt | 1.0.0 |
| rfc3339-validator (validátor formátu RFC 3339) | 0.1.4 | rfc3986-validátor | 0.1.1 | bohatý | 13.9.4 |
| lano | 1.13.0 | rpds-py | 0.22.3 | Rsa | 4.9.1 |
| s3transfer | 0.14.0 | scikit-learn | 1.6.1 | SciPy | 1.15.3 |
| narozený v moři | 0.13.2 | Send2Trash | 1.8.2 | setuptools (nástroj pro vytváření a distribuci Python projektů) | 78.1.1 |
| shellingham | 1.5.4 | Šest | 1.17.0 | smmap | 5.0.0 |
| sniffio | 1.3.0 | setříděné kontejnery | 2.4.0 | sítko na polévku | 2.5 |
| sqlparse | 0.5.5 | ssh-import-id | 5.11 | datová hromádka | 0.6.3 |
| hvězdička | 0.50.0 | strictyaml | 1.7.3 | houževnatost | 9.0.0 |
| dokončeno | 0.17.1 | threadpoolctl | 3.5.0 | tiktoken | 0.12.0 |
| tinycss2 | 1.4.0 | tokenize_rt | 6.1.0 | tokenizátory | 0.22.2 |
| tomli | 2.0.1 | tornádo | 6.5.1 | tqdm | 4.67.1 |
| drobné vlastnosti | 5.14.3 | typová ochrana | 4.3.0 | typer-slim | 0.21.1 |
| types-python-dateutil | 2.9.0.20251115 | inspekce psaní na klávesnici | 0.9.0 | rozšíření_typingu | 4.12.2 |
| tzdata | 2024.1 | ujson | 5.10.0 | bezobslužné aktualizace | 0,1 |
| uri-template | 1.3.0 | urllib3 | 2.3.0 | uuid_utils | 0.12.0 |
| uvicorn | 0.40.0 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth (šířka znaků) | 0.2.5 | webcolors | 25.10.0 | webová kódování | 0.5.1 |
| websocket-klient | 1.8.0 | whatthepatch | 1.0.2 | wheel | 0.45.1 |
| kdykoli | 0.7.3 | widgetsnbextension (rozšíření pro widgety v notebooku) | 3.6.6 | zabalený | 1.17.0 |
| yapf | 0.40.2 | yarlif | 1.18.0 | zipový uzávěr | 3.21.0 |
| zstandard | 0.23.0 |
Nainstalované knihovny jazyka R
Knihovny R se instalují ze snímku CRAN Posit Package Manager z 2025-11-20.
| Knihovna | Version | Knihovna | Version | Knihovna | Version |
|---|---|---|---|---|---|
| šíp | 22.0.0 | žádost o heslo | 1.2.1 | ověřit, že | 0.2.1 |
| zpětné přenosy | 1.5.0 | báze | 4.5.1 | base64enc | 0,1-3 |
| bigD | 0.3.1 | bit | 4.6.0 | 64bit | 4.6.0-1 |
| bitops | 1.0-9 | objekt blob | 1.2.4 | bootování | 1.3-30 |
| připravovat nápoje | 1.0-10 | elán | 1.1.5 | koště | 1.0.10 |
| bslib | 0.9.0 | kašmír | 1.1.0 | volající | 3.7.6 |
| caret | 7.0-1 | cellranger | 1.1.0 | cron | 2.3-62 |
| třída | 7.3-22 | CLI | 3.6.5 | Clipr | 0.8.0 |
| hodiny | 0.7.3 | cluster | 2.1.6 | codetools | 0.2-20 |
| commonmark | 2.0.0 | kompilátor | 4.5.1 | config | 0.3.2 |
| v rozporu | 1.2.0 | cpp11 | 0.5.2 | pastelka | 1.5.3 |
| přihlašovací údaje | 2.0.3 | kroucení | 7.0.0 | datová tabulka | 1.17.8 |
| datové sady | 4.5.1 | DBI | 1.2.3 | dbplyr | 2.5.1 |
| Popis | 1.4.3 | devtools | 2.4.6 | schéma | 1.6.5 |
| diffobj | 0.3.6 | hodnota hash | 0.6.39 | dolní osvětlení | 0.4.5 |
| dplyr | 1.1.4 | dtplyr | 1.3.2 | e1071 | 1.7-16 |
| tři tečky | 0.3.2 | hodnotit | 1.0.5 | fanoušci | 1.0.7 |
| barvy | 2.1.2 | Fastmap (rychlé mapování) | 1.2.0 | fontawesome | 0.5.3 |
| pro kočky | 1.0.1 | foreach | 1.5.2 | zahraničí | 0.8–86 |
| fs | 1.6.6 | budoucnost | 1.68.0 | budoucnost.použít | 1.20.0 |
| kloktání | 1.6.0 | obecné typy | 0.1.4 | Gert | 2.2.0 |
| ggplot2 | 4.0.1 | Gh | 1.5.0 | git2r | 0.36.2 |
| gitcreds | 0.1.2 | glmnet | 4.1-10 | globální | 0.18.0 |
| lepidlo | 1.8.0 | googledrive | 2.1.2 | googlesheets4 | 1.1.2 |
| Gower | 1.0.2 | Grafika | 4.5.1 | grDevices | 4.5.1 |
| mřížka | 4.5.1 | gridExtra | 2.3 | gsubfn | 0.7 |
| gt | 1.1.0 | gtable | 0.3.6 | bezpečnostní přilba | 1.4.2 |
| útočiště | 2.5.5 | vyšší | 0.11 | HMS | 1.1.4 |
| htmlové nástroje | 0.5.8.1 | htmlwidgets (interaktivní HTML prvky) | 1.6.4 | httpuv | 1.6.16 |
| httr | 1.4.7 | httr2 | 1.2.1 | identifikátory | 1.0.1 |
| ini | 0.3.1 | ipred | 0.9-15 | isoband | 0.2.7 |
| Iterátory | 1.0.14 | jquerylib | 0.1.4 | jsonlite | 2.0.0 |
| šťavnatý džus | 0.1.0 | KernSmooth | 2.23-22 | knitr | 1.50 |
| značení | 0.4.3 | později | 1.4.4 | mřížka | 0.22-5 |
| láva | 1.8.2 | životní cyklus | 1.0.4 | poslouchej | 0.10.0 |
| litedown | 0.8 | lubridate | 1.9.4 | magrittr | 2.0.4 |
| Markdown | 2.0 | Hmotnost | 7.3-60.0.1 | Matice | 1.6-5 |
| zapamatujte si | 2.0.1 | metody | 4.5.1 | mgcv | 1.9-1 |
| mim | 0,13 | miniUI | 0.1.2 | mlflow | 3.6.0 |
| ModelMetrics | 1.2.2.2 | modelář | 0.1.11 | nlme | 3.1-164 |
| nnet (neuronová síť) | 7.3-19 | numDeriv (Numerická derivace) | 2016.8 - 1.1 | OpenSSL | 2.3.4 |
| otel | 0.2.0 | rovnoběžný | 4.5.1 | paralelně | 1.45.1 |
| pilíř | 1.11.1 | pkgbuild | 1.4.8 | pkgconfig | 2.0.3 |
| pkgdown | 2.2.0 | pkgload | 1.4.1 | plogr | 0.2.0 |
| plyr | 1.8.9 | pochvala | 1.0.0 | prettyunits | 1.2.0 |
| pROC | 1.19.0.1 | processx | 3.8.6 | prodlim | 2025.04.28 |
| profvis | 0.4.0 | pokrok | 1.2.3 | progressr | 0.18.0 |
| promisy | 1.5.0 | proto | 1.0.0 | proxy | 0,4-27 |
| p.s. | 1.9.1 | purrr | 1.2.0 | R6 | 2.6.1 |
| ragg | 1.5.0 | "randomForest" | 4.7-1.2 | rappdirs | 0.3.3 |
| rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.1.0 |
| RcppEigen | 0.3.4.0.2 | schopný reagovat | 0.4.4 | reactR | 0.6.1 |
| čtenář | 2.1.6 | readxl | 1.4.5 | recepty | 1.3.1 |
| odvetný zápas | 2.0.0 | odvetný zápas 2 | 2.1.2 | dálková ovládání | 2.5.0 |
| reprodukovatelný příklad | 2.1.1 | reshape2 | 1.4.5 | rlang | 1.1.6 |
| rmarkdown | 2.30 | RODBC | 1.3-26 | roxygen2 | 7.3.3 |
| rpart | 4.1.23 | rprojroot | 2.1.1 | Rserve | 1.8-15 |
| RSQLite | 2.4.4 | rstudioapi | 0.17.1 | rversions | 3.0.0 |
| rvest | 1.0.5 | S7 | 0.2.1 | Sass | 0.4.10 |
| váhy | 1.4.0 | selektor | 0.4-2 | informace o sezení | 1.2.3 |
| obrazec | 1.4.6.1 | lesklý | 1.11.1 | sourcetools | 0.1.7-1 |
| sparklyr | 1.9.3 | SparkR | 4.1.0 | řídké vektory | 0.3.4 |
| prostorový | 7.3-17 | spline | 4.5.1 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | statistické údaje | 4.5.1 | Stats4 | 4.5.1 |
| řetězce | 1.8.7 | stringr | 1.6.0 | přežití | 3.5-8 |
| frajerský krok | 5.17.14.1 | systém | 3.4.3 | systemfonts | 1.3.1 |
| tcltk | 4.5.1 | testthat (nástroj pro testování) | 3.3.0 | formátování textu | 1.0.4 |
| tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | změna času | 0.3.0 | datum a čas | 4051.111 |
| tinytex | 0.58 | nářadí | 4.5.1 | tzdb | 0.5.0 |
| ověřovač URL | 1.0.1 | použij tohle | 3.2.1 | utf8 | 1.2.6 |
| utils | 4.5.1 | Univerzální jednoznačný identifikátor (UUID) | 1.2-1 | V8 | 8.0.1 |
| vctrs | 0.6.5 | viridisLite | 0.4.2 | vrrrm | 1.6.6 |
| Waldo | 0.6.2 | hmatový chlup | 0.4.1 | (v případě, že je možné poskytnout smysl slova "withr", by bylo možné ho přeložit) | 3.0.2 |
| xfun | 0.54 | xml2 | 1.5.0 | xopen | 1.0.1 |
| xtable | 1.8-4 | yaml | 2.3.10 | zeallot | 0.2.0 |
| soubor ZIP | 2.3.3 |
Nainstalované knihovny Java a Scala (verze clusteru Scala 2.13)
| ID skupiny | Identifikátor artefaktu | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client (klient Amazon Kinesis) | 1.15.3 |
| com.amazonaws | aws-java-sdk Automatické škálování | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.681 |
| com.amazonaws | „aws-java-sdk-cloudsearch“ | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.681 |
| com.amazonaws | aws-java-sdk-codedeploy (Balíček AWS SDK pro Java - CodeDeploy) | 1.12.681 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.681 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.681 |
| com.amazonaws | aws-java-sdk-config (konfigurace balíčku SDK pro Javu od AWS) | 1.12.681 |
| com.amazonaws | aws-java-sdk-core | 1.12.681 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.681 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.681 |
| com.amazonaws | aws-java-sdk-directory | 1.12.681 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.681 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.681 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.681 |
| com.amazonaws | aws-java-sdk-efs | 1.12.681 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.681 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.681 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.681 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.681 |
| com.amazonaws | aws-java-sdk-emr | 1.12.681 |
| com.amazonaws | aws-java-sdk-glacier (AWS Java SDK pro Glacier) | 1.12.681 |
| com.amazonaws | aws-java-sdk-glue (balíček pro vývoj softwaru v Java od AWS, určený pro Glue služby) | 1.12.681 |
| com.amazonaws | aws-java-sdk-iam | 1.12.681 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.681 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.681 |
| com.amazonaws | aws-java-sdk-kms | 1.12.681 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.681 |
| com.amazonaws | aws-java-sdk-logs | 1.12.681 |
| com.amazonaws | aws-java-sdk-strojové učení | 1.12.681 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.681 |
| com.amazonaws | aws-java-sdk-rds | 1.12.681 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.681 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.681 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.681 |
| com.amazonaws | aws-java-sdk-ses | 1.12.681 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.681 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.681 |
| com.amazonaws | aws-java-sdk-sns | 1.12.681 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.681 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.681 |
| com.amazonaws | aws-java-sdk-storagegateway (balíček nástrojů pro přístup k AWS Storage Gateway) | 1.12.681 |
| com.amazonaws | aws-java-sdk-sts | 1.12.681 |
| com.amazonaws | podpora AWS Java SDK | 1.12.681 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.681 |
| com.amazonaws | jmespath-java | 1.12.681 |
| com.clearspring.analytics | datový proud | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | Databricks SDK pro Java | 0.53.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | technologie kryo-stínění | 4.0.3 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | spolužák | 1.5.1 |
| com.fasterxml.jackson.core | jackson-annotations (poznámky Jackson) | 2.18.2 |
| com.fasterxml.jackson.core | jackson-core | 2.18.2 |
| com.fasterxml.jackson.core | Jackson-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.3 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.kofein | kofein | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | Nativní odkaz pro Javu | 1.1 |
| com.github.fommil.netlib | Nativní odkaz pro Javu | Verze 1.1 pro místní uživatele |
| com.github.fommil.netlib | nativní_systém-java | 1.1 |
| com.github.fommil.netlib | nativní_systém-java | Verze 1.1 pro místní uživatele |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | Verze 1.1 pro místní uživatele |
| com.github.fommil.netlib | netlib-nativní_systém-linux-x86_64 | Verze 1.1 pro místní uživatele |
| com.github.luben | zstd-jni | 1.5.7-6 |
| com.github.virtuald | curvesapi | 1.08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos | 2.5.1 |
| com.google.auth | google-auth-library-credentials | 1.20.0 |
| com.google.auth | google-auth-library-oauth2-http | 1.20.0 |
| com.google.auto.value | automatické poznámky k hodnotám | 1.10.4 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | Gson | 2.11.0 |
| com.google.crypto.tink | Tink | 1.16.0 |
| com.google.errorprone | poznámky_náchylné_k_chybám | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 25.2.10 |
| com.google.guava | neúspěšný přístup | 1.0.3 |
| com.google.guava | guave | 33.4.8-jre |
| com.google.http-client | google-http-client | 1.43.3 |
| com.google.http-client | google-http-client-gson | 1.43.3 |
| com.google.j2objc | j2objc-annotations | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | profiler | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (software development kit pro úložiště dat Azure Data Lake) | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre11 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre8 |
| com.ning | compress-lzf (komprimační algoritmus LZF) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | JSON | 1.8 |
| com.thoughtworks.paranamer | Paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers (nástroj pro analýzu dat) | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.10.0 |
| commons-codec | commons-codec | 1.19.0 |
| společné sbírky | společné sbírky | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| Nahrávání souborů v Commons | Nahrávání souborů v Commons | 1.6.0 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.21.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging (nástroj pro záznamy) | commons-logging (nástroj pro záznamy) | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.4 |
| dev.ludovic.netlib | Blas | 3.0.4 |
| dev.ludovic.netlib | LAPACK | 3.0.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | vzduchový kompresor | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.9 |
| io.dropwizard.metrics | anotace metrik | 4.2.37 |
| io.dropwizard.metrics | jádro metrik | 4.2.37 |
| io.dropwizard.metrics | metrics-graphite | 4.2.37 |
| io.dropwizard.metrics | metriky – kontroly stavu | 4.2.37 |
| io.dropwizard.metrics | metrics-jetty10 | 4.2.37 |
| io.dropwizard.metrics | Metrics-JMX | 4.2.37 |
| io.dropwizard.metrics | Metriky-json | 4.2.37 |
| io.dropwizard.metrics | metriky pro JVM | 4.2.37 |
| io.dropwizard.metrics | metrikové servlety | 4.2.37 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all | 4.2.7.Final |
| io.netty | netty-buffer | 4.2.7.Final |
| io.netty | netty-codec | 4.2.7.Final |
| io.netty | netty-codec-base | 4.2.7.Final |
| io.netty | netty-codec-classes-quic | 4.2.7.Final |
| io.netty | netty-codec-compression | 4.2.7.Final |
| io.netty | netty-kodek-http | 4.2.7.Final |
| io.netty | netty-codec-http2 | 4.2.7.Final |
| io.netty | netty-codec-http3 | 4.2.7.Final |
| io.netty | netty-codec-marshalling | 4.2.7.Final |
| io.netty | netty-codec-native-quic | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-osx-aarch_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-osx-x86_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-windows-x86_64 |
| io.netty | netty-codec-protobuf | 4.2.7.Final |
| io.netty | netty-codec-socks | 4.2.7.Final |
| io.netty | netty-common | 4.2.7.Final |
| io.netty | netty-handler | 4.2.7.Final |
| io.netty | Netty-handler-proxy | 4.2.7.Final |
| io.netty | netty-resolver | 4.2.7.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-windows-x86_64 |
| io.netty | netty-tcnative-classes (softwarová knihovna) | 2.0.74.Final |
| io.netty | netty-transport | 4.2.7.Final |
| io.netty | netty-transport-classes-epoll | 4.2.7.Final |
| io.netty | netty-transport-classes-io_uring | 4.2.7.Final |
| io.netty | netty-transport-classes-kqueue | 4.2.7.Final |
| io.netty | netty-transport-native-epoll | 4.2.7.Final |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-riscv64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.2.7.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.2.7.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.2.7.Final |
| io.opencensus | opencensus-api | 0.31.1 |
| io.opencensus | opencensus-contrib-http-util | 0.31.1 |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | simpleklient_obecný | 0.16.1-databricks |
| io.prometheus | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometheus | simpleclient_pushgateway | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometheus | simpleclient_sledovatel_společný | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel_agent | 0.16.1-databricks |
| io.prometheus.jmx | kolektor | 0.18.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktivace | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | jta | 1.1 |
| javax.transaction | API pro transakce | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.14.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | nakládačka | 1.5 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| síť.sněhová vločka | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.13.1 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | mravenec | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | Ant launcher | 1.10.11 |
| org.apache.arrow | komprese šipkou | 18.3.0 |
| org.apache.arrow | šipkový formát | 18.3.0 |
| org.apache.arrow | jádro šipkové paměti | 18.3.0 |
| org.apache.arrow | šipka-paměť-netty | 18.3.0 |
| org.apache.arrow | arrow-memory-netty-buffer-záplata | 18.3.0 |
| org.apache.arrow | šipkový vektor | 18.3.0 |
| org.apache.avro | Avro | 1.12.1 |
| org.apache.avro | avro-ipc | 1.12.1 |
| org.apache.avro | avro-mapred | 1.12.1 |
| org.apache.commons | commons-collections4 | 4.5.0 |
| org.apache.commons | commons-compress (softwarová knihovna pro kompresi dat) | 1.28.0 |
| org.apache.commons | commons-configuration2 | 2.11.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.19.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | Commons-text (textové nástroje) | 1.14.0 |
| org.apache.kurátor | kurátor-klient | 5.9.0 |
| org.apache.kurátor | kurátorský rámec | 5.9.0 |
| org.apache.kurátor | kurátorovy recepty | 5.9.0 |
| org.apache.datasketches | datasketches-java | 6.2.0 |
| org.apache.datasketches | datasketches-paměť | 3.0.2 |
| org.apache.derby | fotbalové derby | 10.14.2.0 |
| org.apache.hadoop | běhové prostředí klienta Hadoop | 3.4.2 |
| org.apache.hive | hive-beeline | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | hive-jdbc (JDBC ovladač pro Apache Hive) | 2.3.10 |
| org.apache.hive | hive-llap-client (klient pro Apache Hive s možností LLAP) | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | hive-serde | 2.3.10 |
| org.apache.hive | Hive-shims | 2.3.10 |
| org.apache.hive | rozhraní pro úložiště Hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | hive-shims-common | 2.3.10 |
| org.apache.hive.shims | plánovač hive-shims | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | břečťan | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | šablona rozložení log4j ve formátu JSON | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.2.0-shaded-protobuf |
| org.apache.orc | Formát ORC | 1.1.1-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 2.2.0-shaded-protobuf |
| org.apache.orc | orčí podložky | 2.2.0 |
| org.apache.poi | Poi | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4.28 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | poznámky pro publikum | 0.13.0 |
| org.apache.zookeeper | ošetřovatel zvířat v zoo | 3.9.4 |
| org.apache.zookeeper | zookeeper-jute | 3.9.4 |
| org.checkerframework | checker-qual | 3.43.0 |
| org.codehaus.janino | společný kompilátor | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms (framework pro práci s relačními databázemi) | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-alpn-client | 10.0.26 |
| org.eclipse.jetty | jetty-client | 10.0.26 |
| org.eclipse.jetty | jetty-http | 10.0.26 |
| org.eclipse.jetty | jetty-io | 10.0.26 |
| org.eclipse.jetty | jetty-jndi | 10.0.26 |
| org.eclipse.jetty | Jetty-plus | 10.0.26 |
| org.eclipse.jetty | proxy pro službu Jetty | 10.0.26 |
| org.eclipse.jetty | bezpečnost Jetty | 10.0.26 |
| org.eclipse.jetty | jetty-server | 10.0.26 |
| org.eclipse.jetty | jetty-servlet | 10.0.26 |
| org.eclipse.jetty | jetty-servlets | 10.0.26 |
| org.eclipse.jetty | jetty-util | 10.0.26 |
| org.eclipse.jetty | Jetty-webová aplikace | 10.0.26 |
| org.eclipse.jetty | jetty-xml | 10.0.26 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-lokátor | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | OSGi vyhledávač zdrojů | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-přebaleno | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject (pokud je to potřeba, přidejte vysvětlení nebo typický český termín v závorce) | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (nástroj pro zpracování požadavků v Java EE) | 2.41 |
| org.glassfish.jersey.containers | jersey-container-servlet-jádro | 2.41 |
| org.glassfish.jersey.core | jersey-client | 2.41 |
| org.glassfish.jersey.core | společný dres | 2.41 |
| org.glassfish.jersey.core | Jersey-server (aplikační server frameworku Jersey) | 2.41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41 |
| org.hibernate.validator | Hibernate Validator | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | Javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jline | jline | 3.27.1-jdk8 |
| org.joda | joda-convert | 1.7 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.locationtech.jts | jts-core | 1.20.0 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.22.1 |
| org.objenesis | objenesis | 3.4 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rocksdb | rocksdbjni | 9.8.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.4.0 |
| org.scala-sbt | testovací rozhraní | 1.0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | kompatibilní s scalatestem | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | xz | 1.10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Finální |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| Stax | stax-api | 1.0.1 |