Poznámka:
Přístup k této stránce vyžaduje autorizaci. Můžete se zkusit přihlásit nebo změnit adresáře.
Přístup k této stránce vyžaduje autorizaci. Můžete zkusit změnit adresáře.
Poznámka:
Podpora této verze Databricks Runtime skončila. Datum ukončení podpory najdete v tématu Historie ukončení podpory. Pro všechny podporované verze Databricks Runtime vizte poznámky k vydání Databricks Runtime - verze a kompatibilita.
Následující poznámky k verzi obsahují informace o modulu Databricks Runtime 17.1, který využívá Apache Spark 4.0.0.
Služba Azure Databricks vydala tuto verzi v srpnu 2025.
Nové funkce a vylepšení
- Rozšířené prostorové výrazy SQL a datové typy GEOMETRY a GEOGRAPHY
- Rekurzivní běžné výrazy tabulek (GA)
- Funkce tabulek definované uživatelem v Pythonu v katalogu Unity (UDTF)
- Podpora výchozího řazení na úrovni katalogu a schématu
- Sdílené prostředí pro spouštění izolace pro uživatele definované uživatelem Pythonu v katalogu Batch Unity
-
Lepší zpracování možností JSON pomocí
VARIANT -
display()podporuje režim streamování Real-Time - Zdroj rychlosti podporuje režim streamování Real-Time
- Časovače času událostí podporované pro časová okna
- Skalární uživatelem definované uživatelem Pythonu podporují přihlašovací údaje služby
- Vylepšený výpis schématu
- Vylepšené mapování řetězcových sloupců při zápisu do Redshiftu
- Podpora DDL, SHOW a DESCRIBE u tabulek řízených přístupem
- Snížené využití paměti pro široká schémata ve fotopisovači
- Podpora syntaxe ČASOVÉHO RAZÍTKA BEZ ČASOVÉHO PÁSMA
Rozšířené prostorové výrazy SQL a datové typy GEOMETRY a GEOGRAPHY
Díky lepšímu výkonu prostorových dotazů teď můžete geoprostorová data ukládat do předdefinovaných GEOMETRY a GEOGRAPHY sloupcových sloupců. Tato verze přidává více než 80 nových prostorových výrazů SQL, včetně funkcí pro import, export, měření, vytváření, úpravy, ověřování, transformaci a určování topologických vztahů s prostorovými spojeními. Viz geoprostorové funkce ST, GEOGRAPHY typ a GEOMETRY typ.
Rekurzivní běžné výrazy tabulek (GA)
Rekurzivní běžné výrazy tabulek (rCTEs) jsou nyní obecně dostupné. Pomocí rCTE můžete procházet hierarchická data pomocí CTE odkazující na sebe a UNION ALL sledovat rekurzivní relace.
Uživatelsky definované tabulkové funkce (UDTFs) v Pythonu v katalogu Unity
V katalogu Unity teď můžete zaregistrovat uživatelsky definované tabulkové funkce Pythonu pro centralizovanou správu a opakovaně použitelnou logiku napříč SQL dotazy. Viz uživatelem definované funkce tabulek v Pythonu (UDTFs) v katalogu Unity.
Podpora výchozí kolace na úrovni schématu a katalogu
Teď můžete nastavit výchozí kolaci schémat a katalogů v Databricks Runtime 17.1. To vám umožní definovat kolaci, která se vztahuje na všechny objekty vytvořené v rámci schématu nebo katalogu, což zajišťuje konzistentní chování kolace napříč vašimi daty.
Sdílené prostředí pro spouštění izolace pro uživatele definované uživatelem Pythonu v katalogu Batch Unity
Uživatelem definované uživatelem Pythonu ve službě Batch Unity Catalog se stejným vlastníkem teď může ve výchozím nastavení sdílet prostředí izolace. To může zvýšit výkon a snížit využití paměti snížením počtu samostatných prostředí, která je potřeba spustit.
Pokud chcete zajistit, aby se funkce definovaná uživatelem vždy spouštěla v plně izolovaném prostředí, přidejte STRICT ISOLATION charakteristické klauzule. Viz Izolace prostředí.
Lepší zpracování možností JSON pomocí VARIANT
Funkce from_json a to_json teď správně používají možnosti JSON při práci se schématy nejvyšší úrovně VARIANT. Tím se zajistí konzistentní chování s jinými podporovanými datovými typy.
display() podporuje režim streamování Real-Time
Funkci display() můžete použít se streamovanými dotazy, které používají triggery v reálném čase. V tomto režimu display() automaticky používá update výstupní režim a zabraňuje přidání LIMIT klauzule, která není podporována update. Interval aktualizace zobrazení je také oddělený od dávkové doby trvání, aby se zlepšila rychlost odezvy v reálném čase.
Zdroj rychlosti podporuje režim streamování Real-Time
Zdroj rychlosti dat ve strukturovaném streamování teď funguje se spouštěmi v reálném čase a umožňuje nepřetržité generování dat pro streamovací kanály pomocí streamovacího režimu Real-Time.
Časovače času událostí podporované pro časová okna
Azure Databricks podporuje triggery založené na čase událostí pro operace s časovými intervaly v režimu streamování Real-Time. To umožňuje přesnější zpracování zpožděných dat a vodoznaků v dotazech streamování v reálném čase.
Skalární uživatelem definované uživatelem Pythonu podporují přihlašovací údaje služby
Skalární uživatelem definované uživatelem Pythonu můžou pomocí přihlašovacích údajů služby Katalogu Unity bezpečně přistupovat k externím cloudovým službám. To je užitečné pro integraci operací, jako je například cloudová tokenizace, šifrování nebo správa tajných kódů přímo do transformací dat.
Vylepšený výpis schématu
Konektor Snowflake používá INFORMATION_SCHEMA tabulku místo SHOW SCHEMAS příkazu k výpisu schémat. Tato změna odstraňuje limit 10 000 schémat z předchozího přístupu a zlepšuje podporu databází s velkým počtem schémat.
Vylepšené mapování řetězcových sloupců v zápisech Redshift
Při psaní tabulek do Redshift pomocí spark.write, řetězcové sloupce bez explicitní délky jsou mapovány na VARCHAR(MAX) místo TEXT. Tím se zabrání výchozímu chování redshiftu interpretovat TEXT jako VARCHAR(256), což může způsobit chyby při psaní delších řetězců.
Podpora DDL, SHOW a DESCRIBE u tabulek řízených přístupem
Příkazy SQL, jako je DDL, SHOWa DESCRIBE teď běží na jemně odstupňovaných tabulkách řízených přístupem pomocí vyhrazených clusterů. Pokud je potřeba vynutit řízení přístupu, Azure Databricks tyto příkazy směruje prostřednictvím bezserverového výpočetního prostředí, stejně jako pro čtení, slučování a připojení. Viz podpora DDL, SHOW, DESCRIBE a dalších příkazů.
Snížené využití paměti pro široká schémata ve fotopisovači
Vylepšení byla provedena v modulu Photon, která výrazně snižují využití paměti pro široká schémata a řeší scénáře, které dříve způsobily chyby nedostatku paměti.
Podpora syntaxe ČASOVÉHO RAZÍTKA BEZ ČASOVÉHO PÁSMA
Nyní můžete místo TIMESTAMP WITHOUT TIME ZONETIMESTAMP_NTZ. Tato změna zlepšuje kompatibilitu se standardem SQL.
Změny chování
- Vyřešený problém s korelací poddotazů
- Literály časového razítka NTZ již nejsou zasílány dolů
-
Chyba vyvolaná kvůli neplatným
CHECKomezením - Pulzární konektor už nezpřístupňuje hrad Bouncy
- Automatický zavaděč ve výchozím nastavení používá události souborů, pokud je k dispozici.
-
Interní vlastnosti tabulky filtrované z
SHOW CREATE TABLE - Přísnější pravidla pro připojení streamu v režimu připojení
- Konektor Teradata opravuje porovnání řetězců rozlišující malá a velká písmena.
Vyřešený problém s korelací poddotazů
Azure Databricks už nesprávně nekoreluje sémanticky stejné agregační výrazy mezi poddotazem a jeho vnějším dotazem. Dříve to mohlo vést k nesprávným výsledkům dotazu.
Literály NTZ časového razítka se už neposouvají dolů
U konektoru Snowflake i federace TIMESTAMP_NTZ Snowflake Lakehouse (časové razítko bez časového pásma) už nejsou literály posunuty dolů do Snowflake. Tato změna zabraňuje selháním dotazů způsobeným nekompatibilním zpracováním časového razítka a zlepšuje spolehlivost ovlivněných dotazů.
Chyba vyvolaná kvůli neplatným CHECK omezením
Azure Databricks teď vyvolá AnalysisException výjimku, pokud CHECK výraz omezení nelze vyřešit během ověřování omezení.
Pulzární konektor už nezpřístupňuje hrad Bouncy
Knihovna Bouncy Castle je nyní zabalena v konektoru Pulsar, aby se zabránilo konfliktům na cestě tříd. V důsledku toho už úlohy Sparku nemají přístup ke org.bouncycastle.* třídám z konektoru. Pokud kód aplikace závisí na bouncy Castle, nainstalujte knihovnu ručně do clusteru.
Automatický zavaděč ve výchozím nastavení používá události souborů, pokud je k dispozici.
Automatický zavaděč místo výpisu adresáře používá události souborů, pokud je cesta k načtení externím umístěním s povolenými událostmi souborů. Výchozí hodnota je useManagedFileEvents nyní if_available (byla false). To může zlepšit výkon příjmu dat a zaznamená upozornění, pokud ještě nejsou povolené události souborů.
Interní vlastnosti tabulky filtrované z SHOW CREATE TABLE
SHOW CREATE TABLEjiž neobsahuje interní vlastnosti, které nelze nastavit ručně ani předat .CREATE TABLE To snižuje nejasnosti a zarovná výstup s uživatelsky konfigurovatelnými možnostmi.
Přísnější pravidla pro připojení streamu v režimu připojení
Azure Databricks teď zakáže streamovací dotazy v režimu připojení, které používají spojení streamu následované agregací oken, pokud nejsou vodoznaky definované na obou stranách. Dotazy bez správných vodoznaků můžou vést k nedokončícím výsledkům a porušení záruk režimu připojení.
Konektor Teradata opravuje porovnání řetězců rozlišující malá a velká písmena.
Konektor Teradata se teď standardně používá k TMODE=ANSIzarovnání chování porovnání řetězců s Azure Databricks tím, že rozlišují malá a velká písmena. Tato změna je konfigurovatelná a nemá vliv na stávající uživatele, pokud se nepřihlásí.
Upgrady knihoven
Upgradované knihovny Pythonu:
- google-auth od 2.40.1 do 2.40.0
- mlflow-skinny od 3.0.0 do 3.0.1
- opentelemetry-api od 1.33.0 do 1.32.1
- opentelemetry-sdk od 1.33.0 do 1.32.1
- opentelemetry-sémantické-konvence ze 0.54b0 na 0.53b1
- balení od 24.1 do 24.2
- pip od 24.2 do 25.0.1
Upgradované knihovny jazyka R:
cli od 3.6.4 do 3.6.5
curl od 6.2.1 do 6.4.0
obecné typy od 0.1.3 do 0.1.4
globály od verze 0.16.3 do verze 0.18.0
openssl od 2.3.2 do 2.3.3
pilíř od 1.10.1 do 1.11.0
rlang od 1.1.5 do 1.1.6
sparklyr od 1.9.0 do 1.9.1
stringi od 1.8.4 do 1.8.7
tibble od 3.2.1 do 3.3.0
utf8 od 1.2.4 do 1.2.6
Upgradované knihovny Java:
- software.amazon.cryptools.AmazonCorrettoCryptoProvider od 2.4.1-linux-x86_64 do 2.5.0-linux-x86_64
Apache Spark
Databricks Runtime 17.1 zahrnuje Apache Spark 4.0.0. Tato verze zahrnuje všechny opravy a vylepšení Sparku zahrnuté v předchozí verzi a také následující:
- SPARK-52721 Oprava parametru zprávy pro CANNOT_PARSE_DATATYPE
- SPARK-51919 Povolit přepisování staticky registrovaného zdroje dat Pythonu
- SPARK-52632 Zpět: Uzly plánu zápisu v2 se zobrazením v2
- SPARK-52715 Hezký řetězec SQL TIME – interval DAY-TIME
- SPARK-51268 Nastavení treenode bez uzamčení
- SPARK-52701 Oprava rozšíření typu float32 v mod s bool v ANSI
- SPARK-52563 Oprava chyby vytváření názvů var v _assert_pandas_almost_equal
- SPARK-52541 Přidání průvodce programováním pro deklarativní kanály
- SPARK-51695 Oprava selhání testů způsobených změnou syntaxe CHECK CONSTRAINT
- SPARK-52666 Mapování uživatelem definovaného typu pro opravu MutableValue v SpecificInternalRow
- SPARK-52660 Přidání typu času do CodeGenerator#javaClass
- SPARK-52693 Podpora +/- denní časové intervaly ANSI do/od TIME
- SPARK-52705 Refaktorovat deterministické ověření výrazů pro seskupení
- SPARK-52699 Podpora agregace datového typu TIME v interpretovaném režimu
- SPARK-52503 Oprava přetažení, pokud vstupní sloupec neexistuje
- SPARK-52535 Vylepšení čitelnosti kódu pravidla ApplyColumnarRulesAndInsertTransitions
- SPARK-52551 Přidání nového predikátu v2 BOOLEAN_EXPRESSION
- SPARK-52698 Zpět: Vylepšení tipů pro typ pro modul zdroje dat
- SPARK-52684 Zajistěte atomičnost příkazů při výskytu chyb při provádění
- SPARK-52671 RowEncoder nevyhledne vyřešený UDT.
- SPARK-52670 Zajištění fungování HiveResult s UserDefinedType#stringifyValue
- SPARK-52692 Podpora ukládání typu čas do mezipaměti
- SPARK-51516 Podpora TIME pro server Thrift
- SPARK-52674 Vyčištění využití zastaralých rozhraní API souvisejících s RandomStringUtils
- SPARK-51428 Přiřazení aliasů pro uspořádané stromy výrazů deterministicky
- SPARK-52672 Nenahrazovat výrazy Sort/Having aliasy, pokud výraz existuje v agregaci
- SPARK-52618 Přetypování času(n) na čas(m)
- SPARK-52656 Oprava current_time()
- SPARK-52630 Přeorganizování operátoru streamování a správy stavu kódu a adresářů
- SPARK-52649 Oříznutí aliasů před porovnáním výrazů Sort/Having/Filter v buildAggExprList
- SPARK-52578 Přidat metriky pro řádky pro sledování případu a akce v MergeRowsExec
- SPARK-49428 Přesun klienta Scala Connect z konektoru do SQL
- SPARK-52494 Podpora syntaxe operátoru dvojtečky pro přístup k Variantním polím
- SPARK-52642 Použití procesu démonWorkers.get(worker) k zabránění neočekávanému výpadku synchronizace mezi nečinnými úkoly a démony
- SPARK-52570 Povolit dělení číselného rmod nulou při povoleném režimu ANSI
- SPARK-52633 Odstranění duplicitních dat s jedním podřízeným výstupem sjednocení před odstraněním duplicitních dat
- SPARK-52600 Přesunout CompletionIterator do common/utils
- SPARK-52626 Povolit seskupení podle typu času
- SPARK-52395 Okamžité selhání úlohy reduceru při selhání požadavku na načtení Prismu
- SPARK-52596 Pokuste se vytvořit TIMESTAMP_NTZ z datumu a času.
- SPARK-52595 Přejmenování výrazu TimeAdd na TimestampAddInterval
- SPARK-52586 Zavedení AnyTimeType
- SPARK-52583 Přidání rozhraní API pro vývojáře pro řetězcové hodnoty v UserDefinedType
- SPARK-52354 Přidání přetypování do UnionLoop
- SPARK-52579 Nastavení pravidelného výpisu zpětného trasování pro Python pracovníky
- SPARK-52456 Snížení minimálního limitu spark.eventLog.rolling.maxFileSize
- SPARK-52536 Nastavení AsyncProfilerLoader na místní adresář Sparku
- SPARK-52405 Rozšíření V2JDBCTest o testování čtení více oddílů
- SPARK-52303 Zvýšení úrovně ExternalCommandRunner na stabilní
- SPARK-52572 Vyhněte se CAST_INVALID_INPUT objektu DataFrame.isin v režimu ANSI.
- SPARK-52349 Povolení logických testů dělení s povoleným rozhraním ANSI
- SPARK-52402 Oprava chyb dělení nulou v Kendall a Pearsonově korelaci v režimu ANSI
- SPARK-52356 Povolit dělení nulou pro booleovský mod/rmod s povoleným standardem ANSI
- SPARK-52288 Pokud je režim ANSI zapnutý, vyhněte se INVALID_ARRAY_INDEX v rozděleném/INVALID_ARRAY_INDEX
- SPARK-52557 Vyhněte se chybě CAST_INVALID_INPUT při použití to_numeric(errors='coerce') v režimu ANSI.
- SPARK-52440 Přidání další instalace Pythonu pro deklarativní kanály
- SPARK-52569 Oprava výjimky přetypování třídy v secondsOfTimeWithFraction
- SPARK-52540 Nastavení TIMESTAMP_NTZ z data a času
- SPARK-52539 Představení háků relace
- SPARK-52554 Vyhněte se několikanásobným opakovaným procesům při kontrolách konfigurace v rámci Spark Connect.
- SPARK-52553 Oprava chyby NumberFormatException při čtení protokolu změn v1
- SPARK-52534 Zajištění bezpečnosti vláken mlCache a MLHandler
- SPARK-52460 Ukládání interních hodnot TIME jako nanosekund
- SPARK-52482 Podpora ZStandard pro čtečku zdrojů dat souborů
- SPARK-52531 OuterReference v agregaci poddotazů je nesprávně svázaná s agregací vnějšího dotazu
- SPARK-52339 Oprava porovnání instancí InMemoryFileIndex
- SPARK-52418 Přidání proměnné stavu noElements do percentileHeap, aby se zabránilo opakovaným výpočtům isEmpty()
- SPARK-52537 Výpis zásobníku při selhání vytvoření dočasného adresáře
- SPARK-52462 Vynucení převodu typu před odstraněním duplicitních dat podřízených položek ve sjednocení
- SPARK-52528 Povolení dělení nulou pro číselný mod s povolenou funkcí ANSI
- SPARK-52458 Podpora spark.eventLog.excludedPatterns
- SPARK-52493 Podpora ČASOVÉHO ZNAMENÍ BEZ ČASOVÉHO PÁSMA
- SPARK-51563 Podpora plně kvalifikovaného názvu typu TIME(n) BEZ URČENÍ ČASOVÉHO PÁSMA
- SPARK-52450 Zlepšení výkonu hloubkového kopírování schématu
- SPARK-52519 Povolení dělení nulou pro číselnou podlahu s povoleným rozhraním ANSI
- SPARK-52489 Zakázat duplicitní handlery SQLEXCEPTION a NOT FOUND v rámci skriptu SQL
- SPARK-52488 Odeber alias před zabalením vnějších odkazů pod HAVING
- SPARK-52383 Vylepšení chyb ve SparkConnectPlanneru
- SPARK-52335 Sjednocení chyby počtu neplatných kontejnerů pro připojení i classic
- SPARK-52337 Způsobení, aby se InvalidPlanInput zobrazovalo jako chyba uživateli
- SPARK-52312 Ignorovat V2WriteCommand při ukládání datového rámce do mezipaměti
- SPARK-52487 Přidání času odeslání a doby trvání fáze do podrobností StagePage
- SPARK-52433 Sjednocení koercí řetězců v createDataFrame
- SPARK-52427 Normalizovat seznam agregačních výrazů zahrnutý v Projectu
- SPARK-51745 Vynucení stavového automatu pro RocksDBStateStore
- SPARK-52447 Přesunout normalizaci GetViewColumnByNameAndOrdinal do SessionCatalogSuite
- SPARK-52397 Idempotentní ExecutePlan: druhý ExecutePlan se stejným operationId a plánem se znovu připojuje
- SPARK-52355 Odvození typu objektu VariantVal jako VariantType při vytváření datového rámce
- SPARK-52425 Refaktoring ExtractValue pro opakované použití v implementaci s jedním průchodem
- SPARK-52249 Povolení dělení nulou pro číselnou operaci truediv s povoleným režimem ANSI
- SPARK-52228 Integrace mikrobenchmarku interakce stavu do Quicksilver (TCP)
- SPARK-48356 Zlepšení odvození schématu sloupce příkazu FOR
- SPARK-48353 Vylepšení zpracování výjimek
- SPARK-52060 Vytvoření uzlu OneRowRelationExec
- SPARK-52391 Refaktoring funkcí TransformWithStateExec/vars do základní třídy pro Scala a Python
- SPARK-52218 Znovu umožnit hodnocení aktuálních funkcí data a času
- SPARK-52350 Oprava odkazu pro průvodce programováním SS ve verzi 4.0
- SPARK-52385 Odstranit tempResolvedColumns ze seznamu InheritAnalysisRules
- SPARK-52392 Nová funkce analyzátoru s jedním průchodem
- SPARK-52243 Přidání podpory NERF pro chyby InvalidPlanInput související se schématem
- SPARK-52338 Dědění výchozí kolace ze schématu do zobrazení
- SPARK-52307 Podpora skalárního arrow iteratoru UDF (uživatelsky definovaná funkce)
- SPARK-52300 Nastavení překladu UDTVF v SQL pomocí konzistentních konfigurací s rozlišením zobrazení
- SPARK-52219 Podpora řazení na úrovni schématu pro tabulky
- SPARK-52272 V2SessionCatalog nemění schéma v katalogu Hive
-
SPARK-51890 Přidání
optionsparametru do zobrazení logického plánu - SPARK-51936 ReplaceTableAsSelect by měl místo připojení přepsat novou tabulku.
- SPARK-51302 Spark Connect podporuje JDBC a používá rozhraní DataFrameReader API.
- SPARK-50137 Vyhýbejte se selháním náhradních způsobů vytváření tabulek nekompatibilním s Hivem
- SPARK-52184 Zabalení chyb syntaxe externího engine JDBC prostřednictvím jednotné výjimky
- SPARK-47618 Použití magic Committeru pro všechny kontejnery S3 ve výchozím nastavení
- SPARK-52305 Upřesnění řetězce docstring pro isnotnull, equal_null, nullif, nullifzero, nvl, nvl2, zeroifnull
- SPARK-52174 Ve výchozím nastavení povolte spark.checkpoint.compress.
- SPARK-52224 Zavedení souboru pyyaml jako závislosti pro klienta Pythonu
- SPARK-52233 Opravit map_zip_with pro typy s plovoucí čárkou
- SPARK-52036 Přidání vlastnosti SQLConfHelper do verze 2 FileScan
- SPARK-52159 Odstranit příliš širokou podmínku pro dialekt MariaDB
- SPARK-50104 Podpora SparkSession.executeCommand v Connect
- SPARK-52240 Oprava použití indexu řádků při rozbalení zabalených polí ve vektorizované čtečce
- SPARK-52153 Oprava from_json a to_json s variantou
- SPARK-48618 Vylepšení testu "not exists" pro kontrolu jak tříčástných, tak dvoudílných názvů.
- SPARK-52216 Způsobit, aby InvalidCommandInput byla chyba zobrazená uživateli
- SPARK-52299 Nahrazení zastaralých polí JsonNode.fields
- SPARK-52287 Vylepšete SparkContext tak, aby se nenaplní nastavení o.a.s.internal.io.cloud.* Pokud neexistuje.
- SPARK-51430 Zastavit protokolování kontextu PySpark pro zabránění šíření protokolů na stdout
- SPARK-52278 Skalární šipka UDF podporuje pojmenované argumenty
- SPARK-52026 Blokování rozhraní PANDAS API ve Sparku v režimu ANSI ve výchozím nastavení
- SPARK-52171 Implementace připojení StateDataSource pro stav v3
- SPARK-52159 Správně zpracovat kontrolu existence tabulky u dialektů jdbc
- SPARK-52158 Přidání objektu InvalidInputErrors pro centralizaci chyb ve SparkConnectPlanneru
- SPARK-52195 Oprava problému s odstraněním sloupce počátečního stavu pro TWS v Pythonu
- SPARK-52211 Strip $ přípony z protokolu SparkConnectServer INFO
- SPARK-52239 Podpora registrace UDF se šipkou
- SPARK-52215 Implementace skalární Arrow UDF
- SPARK-52188 Oprava pro StateDataSource, kde není nastavená StreamExecution.RUN_ID_KEY
- SPARK-52189 Nové zlaté testy souborů pro NATURAL JOIN s GROUP BY, HAVINGORDER BY a LCA
- SPARK-52079 Normalizovat pořadí atributů v seznamech vnitřních projektů
- SPARK-52234 Oprava chyby u neřetězcového vstupu do schema_of_csv/xml
- SPARK-52221 Refaktoring SqlScriptingLocalVariableManager na obecnějšího správce kontextu
- SPARK-52181 Zvětšení limitu velikosti varianty na 128MiB
- SPARK-52217 Přeskočit ověření vnějšího odkazu v části Filtr v překladači s jedním průchodem
- SPARK-51260 Přesun modulu V2ExpressionBuilder a PushableExpression do modulu Catalyst
- SPARK-52156 Umístit starší příkaz CREATE TEMPORARY TABLE ... pomocí poskytovatele pod příznakem
- SPARK-51012 Odebrání SparkStrategy z Connect Shims
- SPARK-52109 Přidání rozhraní API listTableSummaries do rozhraní API katalogu tabulek zdroje dat V2
- SPARK-50915 Přidání getCondition a vyřazení getErrorClass v PySparkException
- SPARK-52022 Přidání výchozí metody vrácení se změnami pro SparkThrowable.getQueryContext
- SPARK-51147 Refaktorovat třídy související se streamováním do adresáře vyhrazeného pro streamování
- SPARK-52120 Předání relace službě ConnectHelper
- SPARK-52021 Samostatné vzory operátorů a výrazů
- SPARK-51722 Odstranit původ 'stop' z ParseException
- SPARK-52096 Přeřazení chyby při ověření offsetu zdroje Kafka
- SPARK-51985 Odebrání experimentálního zdroje akumulátoru
- SPARK-51156 Podpora ověřování statického tokenu ve Službě Spark Connect
- SPARK-52157 Použít dříve vypočítaný název pro OuterReference v jednoproudém řešitelui
- SPARK-52100 Umožnění změny limitu hloubky rekurze v syntaxi
- SPARK-51605 Vytvoření nadřazeného adresáře před dotykem souboru logFile
- SPARK-52127 Zhutněte protokol MapState KEYS / VALUES / ITERATOR pro transformWithState v PySpark
- SPARK-52040 ResolveLateralColumnAliasReference by měl zachovat identifikátor plánu.
- SPARK-51638 Oprava načítání vzdálených disků uložených bloků RDD prostřednictvím externí služby náhodného náhodného prohazování
- SPARK-51983 Příprava testovacího prostředí pro rozhraní PANDAS API ve Sparku s povoleným režimem ANSI
- SPARK-52087 Přidat kopírování značek a původu do AliasHelper.trimNonTopLevelAliases
- SPARK-51210 Přidání možnosti --enable-native-access=ALL-UNNAMED do Javy pro Javu 24 nebo novější
- SPARK-52052 Přidání .broadcastu do doprovodného objektu SerializableConfiguration
- SPARK-51823 Přidání konfigurace pro neuchování úložiště stavu u exekutorů
- SPARK-51291 Změna klasifikace chyb ověřování vyvolaných při načítání úložiště stavu
- SPARK-52006 Vyřazení akumulátoru CollectMetricsExec z uživatelského rozhraní Sparku + protokolů událostí + metrik srdečních tepů
- SPARK-52076 Explicitně zavře ExecutePlanResponseReattachableIterator po použití.
- SPARK-51428 Přiřazení aliasů pro uspořádané stromy výrazů deterministicky
- SPARK-52079 Normalizovat pořadí atributů v seznamech vnitřních projektů
- SPARK-52033 Oprava chyby generování uzlu, kdy výstup podřízeného uzlu může mít více kopií stejného atributu
- SPARK-51428 Přiřazení aliasů pro uspořádané stromy výrazů deterministicky
- SPARK-52055 Výjimku potlačit v ExecutePlanResponseReattachableIterator.del
- SPARK-51921 Použití dlouhého typu pro dobu trvání TTL v milisekundách v transformWithState
- SPARK-50763 Přidat pravidlo analyzátoru pro řešení funkcí tabulky SQL
- SPARK-51884 Přidání atributů vnějšího oboru pro SubqueryExpression
- SPARK-50762 Přidání pravidla analyzátoru pro řešení skalárních UDF SQL
- SPARK-51814 Používá seznam(self) místo pole StructType.fields pro starou verzi compat.
- SPARK-51537 Vytvořte zavaděč tříd specifického pro relaci na základě výchozího zavaděče tříd relace na vykonávacím modulu
- SPARK-50777 Odebrání redundantních no-op inicializačních/zničených metod z tříd filtru
- SPARK-51691 SerializationDebugger by měl polykat výjimku při pokusu o nalezení důvodu problému serializace
- SPARK-51386 Přiřazení názvu k chybovým stavům _LEGACY_ERROR_TEMP_3300-3302
- SPARK-50734 Přidání rozhraní API katalogu pro vytváření a registraci uživatelem definovaných funkcí SQL
- SPARK-51989 Přidání chybějících podtříd filtru do všech seznamů ve zdroji dat
- SPARK-52037 Pořadí v seznamech vnitřních projektů LCA by mělo respektovat pořadí v původním seznamu projektů.
- SPARK-52007 Výrazy ID by se neměly vyskytovat ve výrazech seskupování, když se používají sady seskupení.
- SPARK-51860 Ve výchozím nastavení zakažte spark.connect.grpc.debug.enabled.
- SPARK-47952 Podpora programového načítání skutečné adresy a portu SparkConnectService GRPC při spuštění na Yarnu
- SPARK-50906 Přidání kontroly nullovatelnosti, pokud vstupy to_avro odpovídají schématu
- Oprava spark-50581 pro UDAF v Dataset.observe()
- SPARK-49946 Vyžadování třídy chyby v SparkOutOfMemoryError
- SPARK-49748 Přidání getCondition a vyřazení getErrorClass v SparkThrowable
- SPARK-51959 Nastavení funkcí, které neimportuje parentDataFrame
- SPARK-51964 Správně vyřešit atributy ze skrytého výstupu ve ORDER BY a HAVING na agregaci v jednopramenovém analyzátoru
- SPARK-49942 Přejmenování třídy errorClass na podmínku v klasifikovatException()
- SPARK-51963 Jednodušení IndexToString.transform
- SPARK-51946 Dychtivě selžou při vytváření nekompatibilní tabulky zdroje dat hive s názvem oddílu col
- SPARK-51553 Úprava funkce EXTRACT pro podporu datového typu TIME
- SPARK-51891 Optimalizujte protokol ListState GET / PUT / APPENDLIST pro transformWithState v PySpark
- SPARK-51931 Přidání maxBytesPerOutputBatch pro omezení množství bajtů ve výstupní dávce Arrow
- SPARK-51441 Přidání rozhraní API DSv2 pro omezení
- SPARK-51814 Použijte RecordBatch.schema.names místo column_names pro starší kompatibilitu s PyArrow
- SPARK-51913 JDBCTableCatalog#loadTable by neměl správně vyvolat žádnou takovou chybu tabulky
- SPARK-51840 Obnovte sloupce oddílů v HiveExternalCatalog#alterTable
- SPARK-51414 Přidání funkce make_time()
- SPARK-49700 Sjednocené rozhraní Scala pro Connect a Classic
- SPARK-51914 Přidání com.mysql.cj do spark.sql.hive.metastore.sharedPrefixes
- SPARK-51827 Podpora Spark Connect v transformWithState v PySparku
- SPARK-51901 Zakázat generátorové funkce v seskupovacích sadách
- SPARK-51423 Přidání funkce current_time() pro datový typ TIME
- SPARK-51680 Určení logického typu pro čas ve writeru Parquet
- SPARK-51889 Oprava chyby pro MapState clear() v Python TWS
- SPARK-51869 Vytvoření klasifikace chyb uživatele v uživatelsky definovaných funkcích ve Scala TransformWithState
- SPARK-51878 Vylepšete fillDefaultValue exec skládací výchozí výraz.
- SPARK-51757 Oprava funkce LEAD/LAG, kde posun překračuje velikost skupiny oken
- SPARK-51805 Funkce Get s nesprávným argumentem by měla vyvolat správnou výjimku místo interního argumentu.
- SPARK-51900 Správně vyvolat neshodu datových typů v analyzátoru s jedním průchodem
- SPARK-51421 Získání sekund z datového typu TIME
- SPARK-51661 Zjišťování hodnot sloupců TIME v oddílech
- SPARK-51687 Protlačení filtrů s časovými hodnotami do formátu Parquet
- SPARK-51419 Získání hodin datového typu TIME
- SPARK-51881 Učinit AvroOptions srovnatelné
- SPARK-51861 Odstranění nadbytečných nebo nepotřebných informací v podrobnostech plánu InMemoryRelation.
- SPARK-51814 Zavedení nové transformace rozhraní APIWithState v PySparku
- SPARK-51779 Použít virtuální rodiny sloupců pro spojování streamů
- SPARK-51649 Dynamické zápisy a čtení oddílů TIME
- SPARK-51634 Podpora FUNKCE TIME ve vektorech sloupců mimo haldu
- SPARK-51877 Přidání funkcí chr, random a uuid
- SPARK-51610 Podpora datového typu TIME ve zdroji dat parquet
- SPARK-51420 Získání minut z datového typu TIME
- SPARK-51822 Vyvolání klasifikované chyby při vyvolání zakázaných funkcí během StatefulProcessor.init()
- SPARK-51868 Přesunout ověření převodu typu do samostatného objektu
- SPARK-49747 Migrace připojení nebo souborů do strukturovaného protokolování
Podpora ovladačů ODBC/JDBC pro Azure Databricks
Databricks podporuje ovladače ODBC/JDBC vydané v posledních 2 letech. Stáhněte si nedávno vydané ovladače a upgradujte (stáhněte rozhraní ODBC, stáhněte JDBC).
Aktualizace údržby
Viz aktualizace údržby Azure Databricks Runtime 17.1.
Systémové prostředí
- Operační systém: Ubuntu 24.04.2 LTS
- Java: Zulu17.58+21-CA
- Scala: 2.13.16
- Python: 3.12.3
- R: 4.4.2
- Delta Lake: 4.0.0
Nainstalované knihovny Pythonu
| Knihovna | Version | Knihovna | Version | Knihovna | Version |
|---|---|---|---|---|---|
| anotované typy | 0.7.0 | anyio | 4.6.2 | argon2-cffi | 21.3.0 |
| argon2-cffi-bindings | 21.2.0 | šíp | 1.3.0 | asttokens | 2.0.5 |
| astunparse | 1.6.3 | async-lru | 2.0.4 | attrs | 24.3.0 |
| automatické příkazy | 2.2.2 | azure-common | 1.1.28 | Azure Core | 1.34.0 |
| azure-identity | 1.20.0 | azure-mgmt-core | 1.5.0 | azure-mgmt-web | 8.0.0 |
| azure-storage-blob (služba pro ukládání dat na platformě Azure) | 12.23.0 | Služba "Azure Storage File Data Lake" | 12.17.0 | babylón | 2.16.0 |
| backports.tarfile | 1.2.0 | BeautifulSoup4 | 4.12.3 | černý | 24.10.0 |
| bělidlo | 6.2.0 | blikač | 1.7.0 | boto3 | 1.36.2 |
| botocore | 1.36.3 | nástroje pro ukládání do mezipaměti | 5.5.1 | certifikát | 2025.1.31 |
| cffi | 1.17.1 | chardet | 4.0.0 | nástroj pro normalizaci znakové sady | 3.3.2 |
| klikni | 8.1.7 | cloudpickle | 3.0.0 | Komunikace | 0.2.1 |
| ContourPy | 1.3.1 | kryptografie | 43.0.3 | cyklista | 0.11.0 |
| Cython | 3.0.12 | Databricks SDK | 0.49.0 | dbus-python | 1.3.2 |
| debugpy | 1.8.11 | dekoratér | 5.1.1 | defusedxml | 0.7.1 |
| Deprecated | 1.2.13 | distlib | 0.3.9 | převod docstringu do formátu markdown | 0.11 |
| provedení | 0.8.3 | přehled aspektů | 1.1.1 | fastapi | 0.115.12 |
| fastjsonschema | 2.21.1 | zamykání souborů | 3.18.0 | nástroje pro písma | 4.55.3 |
| fqdn | 1.5.1 | fsspec | 2023.5.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.20.0 | google-auth (autentizace) | 2.40.0 |
| google-cloud-core | 2.4.3 | Úložiště Google Cloud | 3.1.0 | google-crc32c | 1.7.1 |
| google-resumable-media (pro snadné stahování/ukládání mediálních dat) | 2.7.2 | googleapis-common-protos | 1.65.0 | grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.14.0 | httpcore | 1.0.2 |
| httplib2 | 0.20.4 | httpx | 0.27.0 | IDNA | 3.7 |
| importlib-metadata | 6.6.0 | importlib_resources | 6.4.0 | časovat/skloňovat | 7.3.1 |
| iniconfig | 1.1.1 | ipyflow-core je jádrová komponenta systému ipyflow | 0.0.209 | ipykernel | 6.29.5 |
| ipython | 8.30.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.8.1 |
| isodate | 0.6.1 | isodurace | 20.11.0 | jaraco.context | 5.3.0 |
| jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 | Jedi | 0.19.2 |
| Jinja2 | 3.1.5 | jmespath | 1.0.1 | joblib | 1.4.2 |
| json5 | 0.9.25 | JSON ukazatel | 3.0.0 | jsonschema | 4.23.0 |
| Specifikace JSON schema | 2023.7.1 | jupyter události | 0.10.0 | jupyter-lsp | 2.2.0 |
| klient Jupyter | 8.6.3 | jupyter_core | 5.7.2 | jupyter_server | 2.14.1 |
| terminály_jupyter_server | 0.4.4 | jupyterlab | 4.3.4 | jupyterlab-pygments | 0.1.2 |
| JupyterLab widgets | 1.0.0 | jupyterlab_server | 2.27.3 | kiwisolver | 1.4.8 |
| launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 | lazr.uri | 1.0.6 |
| markdown:it-py | 2.2.0 | MarkupSafe | 3.0.2 | matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | Mccabe | 0.7.0 | mdurl | 0.1.0 |
| špatné naladění | 2.0.4 | mlflow-skinny | 3.0.1 | mmh3 | 5.1.0 |
| more-itertools | 10.3.0 | MSAL | 1.32.3 | msal-extensions | 1.3.1 |
| mypy-extensions | 1.0.0 | nbclient | 0.8.0 | nbconvert | 7.16.4 |
| nbformat | 5.10.4 | nest-asyncio | 1.6.0 | nodeenv | 1.9.1 |
| poznámkový blok | 7.3.2 | notebook_shim | 0.2.3 | numpy (knihovna pro numerické výpočty v Pythonu) | 2.1.3 |
| oauthlib | 3.2.2 | opentelemetry-api | 1.32.1 | opentelemetry-sdk | 1.32.1 |
| opentelemetry-sémantické-konvence | 0,53b1 | přepíše | 7.4.0 | balení | 24,2 |
| pandas | 2.2.3 | pandocfilters | 1.5.0 | Parso | 0.8.4 |
| specifikace cesty | 0.10.3 | bábovka | 1.0.1 | pexpect | 4.8.0 |
| polštář | 11.1.0 | pip | 25.0.1 | platformdirs | 3.10.0 |
| plotly | 5.24.1 | Pluggy (nástroj pro správu pluginů v Pythonu) | 1.5.0 | prometheus_client | 0.21.0 |
| nástroj "prompt-toolkit" | 3.0.43 | proto-plus | 1.26.1 | protobuf | 5.29.4 |
| psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | pyarrow | 19.0.1 | pyasn1 | 0.4.8 |
| pyasn1-modules | 0.2.8 | pyccolo | 0.0.71 | pycparser | 2.21 |
| Pydantic (Python knihovna pro validaci a nastavení dat) | 2.10.6 | pydantic_core | 2.27.2 | pyflakes | 3.2.0 |
| Pygments | 2.15.1 | PyGObject | 3.48.2 | pyiceberg | 0.9.0 |
| PyJWT | 2.10.1 | pyodbc | 5.2.0 | pyparsing | 3.2.0 |
| pyright | 1.1.394 | pytest | 8.3.5 | python-dateutil | 2.9.0.post0 |
| python-json-logger (Python knihovna pro logování do formátu JSON) | 3.2.1 | python-lsp-jsonrpc | 1.1.2 | python-lsp-server | 1.12.0 |
| Pytoolconfig | 1.2.6 | knihovna pytz pro zpracování časových zón v Pythonu | 2024.1 | PyYAML | 6.0.2 |
| pyzmq | 26.2.0 | odkazování | 0.30.2 | requests | 2.32.3 |
| rfc3339-validator (validátor formátu RFC 3339) | 0.1.4 | rfc3986-validátor | 0.1.1 | bohatý | 13.9.4 |
| lano | 1.12.0 | rpds-py | 0.22.3 | Rsa | 4.9.1 |
| s3transfer | 0.11.3 | scikit-learn | 1.6.1 | SciPy | 1.15.1 |
| narozený v moři | 0.13.2 | Send2Trash | 1.8.2 | setuptools (nástroj pro vytváření a distribuci Python projektů) | 74.0.0 |
| šest | 1.16.0 | smmap | 5.0.0 | sniffio | 1.3.0 |
| setříděné kontejnery | 2.4.0 | sítko na polévku | 2.5 | sqlparse | 0.5.3 |
| ssh-import-id | 5.11 | datová hromádka | 0.2.0 | hvězdička | 0.46.2 |
| statsmodels | 0.14.4 | strictyaml | 1.7.3 | houževnatost | 9.0.0 |
| dokončeno | 0.17.1 | threadpoolctl | 3.5.0 | tinycss2 | 1.4.0 |
| tokenize_rt | 6.1.0 | tomli | 2.0.1 | tornádo | 6.4.2 |
| drobné vlastnosti | 5.14.3 | typová ochrana | 4.3.0 | types-python-dateutil | 2.9.0.20241206 |
| rozšíření_typingu | 4.12.2 | tzdata | 2024.1 | ujson | 5.10.0 |
| bezobslužné aktualizace | 0,1 | uri-template | 1.3.0 | urllib3 | 2.3.0 |
| uvicorn | 0.34.2 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth (šířka znaků) | 0.2.5 | webcolors | 24.11.1 | webová kódování | 0.5.1 |
| websocket-klient | 1.8.0 | whatthepatch | 1.0.2 | wheel | 0.45.1 |
| widgetsnbextension (rozšíření pro widgety v notebooku) | 3.6.6 | zabalený | 1.17.0 | yapf | 0.40.2 |
| zipový uzávěr | 3.21.0 |
Nainstalované knihovny jazyka R
Knihovny R jsou instalovány ze snímku CRAN z Posit Správce balíčků pořízeného dne 20. 3. 2025.
| Knihovna | Version | Knihovna | Version | Knihovna | Version |
|---|---|---|---|---|---|
| šíp | 19.0.1 | žádost o heslo | 1.2.1 | ověřit, že | 0.2.1 |
| zpětné portování | 1.5.0 | báze | 4.4.2 | base64enc | 0,1-3 |
| bigD | 0.3.0 | bit | 4.6.0 | 64bit | 4.6.0-1 |
| bitops | 1.0-9 | objekt blob | 1.2.4 | bootování | 1.3-30 |
| připravovat nápoje | 1.0-10 | elán | 1.1.5 | koště | 1.0.7 |
| bslib | 0.9.0 | kašmír | 1.1.0 | volající | 3.7.6 |
| caret | 7.0-1 | cellranger | 1.1.0 | cron | 2.3-62 |
| třída | 7.3-22 | CLI | 3.6.5 | Clipr | 0.8.0 |
| hodiny | 0.7.2 | cluster | 2.1.6 | codetools | 0.2-20 |
| barevný prostor | 2.1-1 | commonmark | 1.9.5 | kompilátor | 4.4.2 |
| config | 0.3.2 | v rozporu | 1.2.0 | cpp11 | 0.5.2 |
| pastelka | 1.5.3 | přihlašovací údaje | 2.0.2 | kroucení | 6.4.0 |
| datová tabulka | 1.17.0 | datové sady | 4.4.2 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | Popis | 1.4.3 | devtools | 2.4.5 |
| schéma | 1.6.5 | diffobj | 0.3.5 | hodnota hash | 0.6.37 |
| dolní osvětlení | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-16 | tři tečky | 0.3.2 | hodnotit | 1.0.3 |
| fanoušci | 1.0.6 | barvy | 2.1.2 | Fastmap (rychlé mapování) | 1.2.0 |
| fontawesome | 0.5.3 | pro kočky | 1.0.0 | foreach | 1.5.2 |
| zahraničí | 0.8–86 | kovárna | 0.2.0 | fs | 1.6.5 |
| budoucnost | 1.34.0 | budoucnost.použít | 1.11.3 | kloktání | 1.5.2 |
| obecné typy | 0.1.4 | Gert | 2.1.4 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | git2r | 0.35.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globální | 0.18.0 | lepidlo | 1.8.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.2 |
| Grafika | 4.4.2 | grDevices | 4.4.2 | mřížka | 4.4.2 |
| gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.11.1 |
| gtable | 0.3.6 | ochranná přilba | 1.4.1 | útočiště | 2.5.4 |
| vyšší | 0.11 | HMS | 1.1.3 | htmlové nástroje | 0.5.8.1 |
| htmlwidgets (interaktivní HTML prvky) | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.1.1 | identifikátory | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-15 | isoband | 0.2.7 | Iterátory | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.9.1 | šťavnatý džus | 0.1.0 |
| KernSmooth | 2.23-22 | knitr | 1.50 | značení | 0.4.3 |
| později | 1.4.1 | mřížka | 0.22-5 | láva | 1.8.1 |
| životní cyklus | 1.0.4 | poslouchej | 0.9.1 | lubridate | 1.9.4 |
| magrittr | 2.0.3 | Markdown | 1.13 | Hmotnost | 7.3-60.0.1 |
| *Matrix* | 1.6-5 | zapamatujte si | 2.0.1 | metody | 4.4.2 |
| mgcv | 1.9-1 | mim | 0,13 | miniUI | 0.1.1.1 |
| mlflow | 2.20.4 | ModelMetrics | 1.2.2.2 | modelář | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-164 | nnet (neuronová síť) | 7.3-19 |
| numDeriv (Numerická derivace) | 2016.8 - 1.1 | OpenSSL | 2.3.3 | rovnoběžný | 4.4.2 |
| paralelně | 1.42.0 | pilíř | 1.11.0 | pkgbuild | 1.4.6 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.1 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | pochvala | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.6 |
| prodlim | 2024.06.25 | profvis | 0.4.0 | pokrok | 1.2.3 |
| progressr | 0.15.1 | sliby | 1.3.2 | proto | 1.0.0 |
| proxy | 0,4-27 | p.s. | 1.9.0 | purrr | 1.0.4 |
| R6 | 2.6.1 | ragg | 1.3.3 | "randomForest" | 4.7-1.2 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.14 | RcppEigen | 0.3.4.0.2 | schopný reagovat | 0.4.4 |
| reactR | 0.6.1 | čtenář | 2.1.5 | readxl | 1.4.5 |
| recepty | 1.2.0 | odvetný zápas | 2.0.0 | odvetný zápas 2 | 2.1.2 |
| dálková ovládání | 2.5.0 | reprodukovatelný příklad | 2.1.1 | reshape2 | 1.4.4 |
| rlang | 1.1.6 | rmarkdown | 2.29 | RODBC | 1.3-26 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-15 | RSQLite | 2.3.9 | rstudioapi | 0.17.1 |
| rversions | 2.1.2 | rvest | 1.0.4 | drzost | 0.4.9 |
| váhy | 1.3.0 | selektor | 0.4-2 | informace o sezení | 1.2.3 |
| obrazec | 1.4.6.1 | lesklý | 1.10.0 | sourcetools | 0.1.7-1 |
| sparklyr | 1.9.1 | SparkR | 4.0.0 | řídké vektory | 0.3.1 |
| prostorový | 7.3-17 | spline | 4.4.2 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | statistické údaje | 4.4.2 | Stats4 | 4.4.2 |
| řetězce | 1.8.7 | stringr | 1.5.1 | přežití | 3.5-8 |
| frajerský krok | 5.17.14.1 | systém | 3.4.3 | systemfonts | 1.2.1 |
| tcltk | 4.4.2 | testthat (nástroj pro testování) | 3.2.3 | formátování textu | 1.0.0 |
| tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | změna času | 0.3.0 | datum a čas | 4041.110 |
| tinytex | 0.56 | nářadí | 4.4.2 | tzdb | 0.5.0 |
| ověřovač URL | 1.0.1 | použij tohle | 3.1.0 | utf8 | 1.2.6 |
| utils | 4.4.2 | Univerzální jednoznačný identifikátor (UUID) | 1.2-1 | V8 | 6.0.2 |
| vctrs | 0.6.5 | viridisLite | 0.4.2 | vrrrm | 1.6.5 |
| Waldo | 0.6.1 | hmatový chlup | 0.4.1 | (v případě, že je možné poskytnout smysl slova "withr", by bylo možné ho přeložit) | 3.0.2 |
| xfun | 0.51 | xml2 | 1.3.8 | xopen | 1.0.1 |
| xtable | 1.8-4 | yaml | 2.3.10 | zeallot | 0.1.0 |
| zip (jako formát souboru) | 2.3.2 |
Nainstalované knihovny Java a Scala (verze clusteru Scala 2.13)
| ID skupiny | Identifikátor artefaktu | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client (klient Amazon Kinesis) | 1.12.0 |
| com.amazonaws | aws-java-sdk Automatické škálování | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | „aws-java-sdk-cloudsearch“ | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy (Balíček AWS SDK pro Java - CodeDeploy) | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config (konfigurace balíčku SDK pro Javu od AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier (AWS Java SDK pro Glacier) | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue (balíček pro vývoj softwaru v Java od AWS, určený pro Glue služby) | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-strojové učení | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway (balíček nástrojů pro přístup k AWS Storage Gateway) | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | podpora AWS Java SDK | 1.12.638 |
| com.amazonaws | knihovny AWS Java SDK SWF | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | datový proud | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | Databricks SDK pro Java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | technologie kryo-stínění | 4.0.3 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | spolužák | 1.5.1 |
| com.fasterxml.jackson.core | jackson-annotations (poznámky Jackson) | 2.18.2 |
| com.fasterxml.jackson.core | jackson-core | 2.18.2 |
| com.fasterxml.jackson.core | Jackson-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.kofein | kofein | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | Nativní odkaz pro Javu | 1.1 |
| com.github.fommil.netlib | Nativní odkaz pro Javu | Verze 1.1 pro místní uživatele |
| com.github.fommil.netlib | nativní_systém-java | 1.1 |
| com.github.fommil.netlib | nativní_systém-java | Verze 1.1 pro místní uživatele |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | Verze 1.1 pro místní uživatele |
| com.github.fommil.netlib | netlib-nativní_systém-linux-x86_64 | Verze 1.1 pro místní uživatele |
| com.github.luben | zstd-jni | 1.5.6-10 |
| com.github.virtuald | curvesapi | 1.08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos | 2.5.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | Gson | 2.11.0 |
| com.google.crypto.tink | Cink | 1.16.0 |
| com.google.errorprone | poznámky_náchylné_k_chybám | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 24.3.25 |
| com.google.guava | neúspěšný přístup | 1.0.2 |
| com.google.guava | guave | 33.4.0-jre |
| com.google.guava | poslouchatelnábudoucnost | 9999.0-empty-to-avoid-conflict-with-guava (prázdné, aby se zabránilo konfliktu s guavou) |
| com.google.j2objc | j2objc-annotations | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | profiler | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | fansi_2.13 | 0.5.0 |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (software development kit pro úložiště dat Azure Data Lake) | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre8 |
| com.ning | compress-lzf (komprimační algoritmus LZF) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | JSON | 1.8 |
| com.thoughtworks.paranamer | Paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers (nástroj pro analýzu dat) | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.9.0 |
| commons-codec | commons-codec | 1.17.2 |
| společné sbírky | společné sbírky | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| Nahrávání souborů v Commons | Nahrávání souborů v Commons | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.18.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging (nástroj pro záznamy) | commons-logging (nástroj pro záznamy) | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | LAPACK | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | vzduchový kompresor | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.3 |
| io.dropwizard.metrics | anotace metrik | 4.2.30 |
| io.dropwizard.metrics | jádro metrik | 4.2.30 |
| io.dropwizard.metrics | metrics-graphite | 4.2.30 |
| io.dropwizard.metrics | metriky – kontroly stavu | 4.2.30 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.30 |
| io.dropwizard.metrics | Metrics-JMX | 4.2.30 |
| io.dropwizard.metrics | Metriky-json | 4.2.30 |
| io.dropwizard.metrics | metriky pro JVM | 4.2.30 |
| io.dropwizard.metrics | metrikové servlety | 4.2.30 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all | 4.1.118.Final |
| io.netty | netty-buffer | 4.1.118.Final |
| io.netty | netty-codec | 4.1.118.Final |
| io.netty | netty-kodek-http | 4.1.118.Final |
| io.netty | netty-codec-http2 | 4.1.118.Final |
| io.netty | netty-codec-socks | 4.1.118.Final |
| io.netty | netty-common | 4.1.118.Final |
| io.netty | netty-handler | 4.1.118.Final |
| io.netty | Netty-handler-proxy | 4.1.118.Final |
| io.netty | netty-resolver | 4.1.118.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-windows-x86_64 |
| io.netty | netty-tcnative-classes (softwarová knihovna) | 2.0.70.Final |
| io.netty | netty-transport | 4.1.118.Final |
| io.netty | netty-transport-classes-epoll | 4.1.118.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.118.Final |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | simpleklient_obecný | 0.16.1-databricks |
| io.prometheus | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometheus | simpleclient_pushgateway | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometheus | simpleclient_sledovatel_společný | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel_agent | 0.16.1-databricks |
| io.prometheus.jmx | kolektor | 0.18.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktivace | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | jta | 1.1 |
| javax.transaction | API pro transakce | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.13.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | nakládačka | 1.5 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| síť.sněhová vločka | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.13.1 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | mravenec | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | Ant launcher | 1.10.11 |
| org.apache.arrow | šipkový formát | 18.2.0 |
| org.apache.arrow | jádro šipkové paměti | 18.2.0 |
| org.apache.arrow | šipka-paměť-netty | 18.2.0 |
| org.apache.arrow | arrow-memory-netty-buffer-záplata | 18.2.0 |
| org.apache.arrow | šipkový vektor | 18.2.0 |
| org.apache.avro | Avro | 1.12.0 |
| org.apache.avro | avro-ipc | 1.12.0 |
| org.apache.avro | avro-mapred | 1.12.0 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress (softwarová knihovna pro kompresi dat) | 1.27.1 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.17.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | Commons-text (textové nástroje) | 1.13.0 |
| org.apache.kurátor | kurátor-klient | 5.7.1 |
| org.apache.kurátor | kurátorský rámec | 5.7.1 |
| org.apache.kurátor | kurátorovy recepty | 5.7.1 |
| org.apache.datasketches | datasketches-java | 6.1.1 |
| org.apache.datasketches | datasketches-paměť | 3.0.2 |
| org.apache.derby | fotbalové derby | 10.14.2.0 |
| org.apache.hadoop | běhové prostředí klienta Hadoop | 3.4.1 |
| org.apache.hive | hive-beeline | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | hive-jdbc (JDBC ovladač pro Apache Hive) | 2.3.10 |
| org.apache.hive | hive-llap-client (klient pro Apache Hive s možností LLAP) | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | hive-serde | 2.3.10 |
| org.apache.hive | Hive-shims | 2.3.10 |
| org.apache.hive | rozhraní pro úložiště Hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | hive-shims-common | 2.3.10 |
| org.apache.hive.shims | plánovač hive-shims | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | břečťan | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | šablona rozložení log4j ve formátu JSON | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.1.1-shaded-protobuf |
| org.apache.orc | Formát ORC | 1.1.0-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 2.1.1-shaded-protobuf |
| org.apache.orc | orčí podložky | 2.1.1 |
| org.apache.poi | Poi | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4.26 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | poznámky pro publikum | 0.13.0 |
| org.apache.zookeeper | ošetřovatel zvířat v zoo | 3.9.3 |
| org.apache.zookeeper | zookeeper-jute | 3.9.3 |
| org.checkerframework | checker-qual | 3.43.0 |
| org.codehaus.janino | společný kompilátor | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms (framework pro práci s relačními databázemi) | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.53.v20231009 |
| org.eclipse.jetty | pokračování Jetty | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-http | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-io | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-jndi | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-plus | 9.4.53.v20231009 |
| org.eclipse.jetty | proxy pro službu Jetty | 9.4.53.v20231009 |
| org.eclipse.jetty | bezpečnost Jetty | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-server | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlet | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlets | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-webová aplikace | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-xml | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | WebSocket API | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-klient | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket – běžné | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-server | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.53.v20231009 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-lokátor | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | OSGi vyhledávač zdrojů | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-přebaleno | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject (pokud je to potřeba, přidejte vysvětlení nebo typický český termín v závorce) | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (nástroj pro zpracování požadavků v Java EE) | 2.41 |
| org.glassfish.jersey.containers | jersey-container-servlet-jádro | 2.41 |
| org.glassfish.jersey.core | jersey-client | 2.41 |
| org.glassfish.jersey.core | společný dres | 2.41 |
| org.glassfish.jersey.core | Jersey-server (aplikační server frameworku Jersey) | 2.41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41 |
| org.hibernate.validator | Hibernate Validator | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | Javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | anotace | 17.0.0 |
| org.jline | jline | 3.27.1-jdk8 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.9.1 |
| org.objenesis | objenesis | 3.3 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rocksdb | rocksdbjni | 9.8.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.3.0 |
| org.scala-sbt | testovací rozhraní | 1.0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalameta | common_2.13 | 4.13.5 |
| org.scalameta | io_2.13 | 4.13.5 |
| org.scalameta | mdoc-parser_2.13 | 2.6.4 |
| org.scalameta | metaconfig-core_2.13 | 0.15.0 |
| org.scalameta | metaconfig-pprint_2.13 | 0.15.0 |
| org.scalameta | metaconfig-typesafe-config_2.13 | 0.15.0 |
| org.scalameta | parsers_2.13 | 4.13.5 |
| org.scalameta | scalafmt-config_2.13 | 3.9.6 |
| org.scalameta | scalafmt-core_2.13 | 3.9.6 |
| org.scalameta | scalafmt-macros_2.13 | 3.9.6 |
| org.scalameta | scalafmt-sysops_2.13 | 3.9.6 |
| org.scalameta | scalameta_2.13 | 4.13.5 |
| org.scalameta | trees_2.13 | 4.13.5 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | kompatibilní s scalatestem | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | xz | 1.10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | paiges-core_2.13 | 0.4.4 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Finální |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| Stax | stax-api | 1.0.1 |
Návod
Poznámky k verzím Databricks Runtime, které dosáhly konce podpory (EoS), najdete v Poznámkách k verzím Databricks Runtime s ukončenou podporou. Verze EoS Databricks Runtime byly vyřazeny a nemusí se aktualizovat.